PDA

View Full Version : Tesla K80: due GPU e 24 Gbytes di memoria per il calcolo parallelo


Redazione di Hardware Upg
17-11-2014, 15:37
Link all'Articolo: http://www.businessmagazine.it/articoli/4216/tesla-k80-due-gpu-e-24-gbytes-di-memoria-per-il-calcolo-parallelo_index.html

In occasione di SC14 NVIDIA annuncia la nuova proposta top di gamma della famiglia Tesla, una scheda dotata di due GPU montate sullo stesso PCB in abbinamento ciascuna a 12 Gbytes di memoria video. Ampio spazio anche a NVLink, la connessione tra GPU e CPU in arrivo dal 2016 che dovrebbe permettere di incrementare sensibilmente le prestazioni nei sistemi server per GPU Computing

Click sul link per visualizzare l'articolo.

PhoEniX-VooDoo
17-11-2014, 16:04
ma al netto delle frequenze e del quantitativo di memoria, cosa cambia tra una Titan-Z ed una K80?

batou83
17-11-2014, 17:27
La Titan-Z dovrebbe avere qualche core cuda in più, ma più o meno sono la stessa cosa come specifiche. Sostanzialmente cambia la funzione, la titan la puoi usare per tutto, la tesla va bene solo per il computing (mi pare non abbia nemmeno l'uscita video... ).

bombolo_flint
17-11-2014, 18:38
La Titan-Z dovrebbe avere qualche core cuda in più, ma più o meno sono la stessa cosa come specifiche. Sostanzialmente cambia la funzione, la titan la puoi usare per tutto, la tesla va bene solo per il computing (mi pare non abbia nemmeno l'uscita video... ).



Esatto non ha nessuna uscita video,ma è solo un'acceleratore grafico per algoritmi più impegnativi,calcoli scientifici.Per chi fa simulazioni numeriche e offrono una potenza necessaria per eseguire simulazioni di dimensioni maggiori ma con una velocità nettamente superiore.;)


http://www.nvidia.it/content/EMEAI/images/tesla/why-choose-tesla/k80-maximum-peformance-it.jpg Piccolo esempio delle capacità che può svolgere una NVIDIA TESLA. :)

Dinofly
17-11-2014, 20:11
Con un paio di queste in SLI gira pure Unity!

Littlesnitch
17-11-2014, 21:22
Quindi nVidia stessa taglia la testa al toro e ci dice che non ci sarà nessuna Titan Maxwell a 28nm per natale... anzi non ci sarà proprio fino al nuovo PP. Altrimenti non avrebbe senso il lancio di questa scheda che ad occhio e croce dovrebbe costare sui 10000€.

PhoEniX-VooDoo
17-11-2014, 21:53
La Titan-Z dovrebbe avere qualche core cuda in più, ma più o meno sono la stessa cosa come specifiche. Sostanzialmente cambia la funzione, la titan la puoi usare per tutto, la tesla va bene solo per il computing (mi pare non abbia nemmeno l'uscita video... ).

Esatto non ha nessuna uscita video,ma è solo un'acceleratore grafico per algoritmi più impegnativi,calcoli scientifici.Per chi fa simulazioni numeriche e offrono una potenza necessaria per eseguire simulazioni di dimensioni maggiori ma con una velocità nettamente superiore.;)


http://www.nvidia.it/content/EMEAI/images/tesla/why-choose-tesla/k80-maximum-peformance-it.jpg Piccolo esempio delle capacità che può svolgere una NVIDIA TESLA. :)

interessante
e se qualcuno vi avesse detto che Titan / Titan-Z hanno prestazioni pessime in double precision rispetto a Tesla K40 / K80 cosa pensereste quindi?

castrazioni a livello driver nvidia?
quel qualcuno è un incapace?
altro?

Littlesnitch
17-11-2014, 23:42
interessante
e se qualcuno vi avesse detto che Titan / Titan-Z hanno prestazioni pessime in double precision rispetto a Tesla K40 / K80 cosa pensereste quindi?

castrazioni a livello driver nvidia?
quel qualcuno è un incapace?
altro?

Beh ma è ovvio che le Titan sono castrate in DP, altrimenti che senso avrebbero le Quadro e Tesla. Chi necessita del DP svolge lavori molto complessi che richiedono HW e SW certificato che deve macinare calcolo 24 su 24 per mesi se non anni ed ecco che quindi vengono tagliate le freq, i cura core, in modo da avere stabilità assoluta e contenere i consumi entro limiti accettabili.

CrapaDiLegno
18-11-2014, 00:58
Beh ma è ovvio che le Titan sono castrate in DP, altrimenti che senso avrebbero le Quadro e Tesla. Chi necessita del DP svolge lavori molto complessi che richiedono HW e SW certificato che deve macinare calcolo 24 su 24 per mesi se non anni ed ecco che quindi vengono tagliate le freq, i cura core, in modo da avere stabilità assoluta e contenere i consumi entro limiti accettabili.

A parte che le Titan hanno il calcolo DP sbloccato. Il loro costo non è perché ai tempi facevano 5 frame in più di una GTX780 in BF4, ma proprio perché è sfruttabile in campo professionale per fare conti complessi ad alta velocità e con tanta memoria (cosa che le GTX non hanno).
Che poi una schiera di bimbimink@ abbia pensato di investirci uno stipendio per giocare a BF4 et Co e poi abbia espresso profonda delusione quando è uscita la 780Ti che andava di più e costava la metà, è una cosa che ancora una volta dimostra come sia giusto che qualcuno strizzi la mammella della mucca sprovveduta ogni tanto.

Cosa cambia da una Titan ad una Tesla?
Sono 2 cose completamente diverse. A parte che le Tesla non sono schede grafiche e al max le Titan si possono paragonare alle Quadro, le Titan non hanno la memoria ECC e non sono pensate per missioni critiche e come le Tesla (o Quadro), così come non hanno i driver e librerie certificate. Le Tesla non costano 4000 euro ciascuna per nulla. Anche se molti pensano che basta mettere mille mila core su un processore per avere il meglio del meglio per il calcolo, quello che conta sono sostanzialmente 2 cose: in primi l'efficienza. Se ho una scheda che va il 10% in meno ma consuma la metà, è molto meglio. Se proprio voglio potenza aggiungo le schede in più che mi servono ma risparmio enormemente sull'energia. Consumo di energia che non è quello di casa vostra: si parla di MW/h ed è il costo preponderante del funzionamento di un server HPC. Il costo di acquisto e installazione dei componenti è secondario.
La seconda cosa importante è il supporto: a chi sta facendo dei calcoli critici che una scheda ci metta la metà del tempo non interessa nulla se non ha la massima garanzia che i conti effettuati siano corretti al 100%. Pensate di fare una settimana di calcolo di fila per scoprire alla fine (o dopo qualche tempo) che le simulazioni sono sbagliate perché un algoritmo di una libreria o un chip di memoria è fallato. O anche il compilatore stesso. Anche loro possono avere bachi, anche seri. E infatti si certificano pure quelli.
Allo stesso tempo uno vuole che il proprio tempo (ed energia) sia usato al meglio, per cui non gliene frega niente di usare una libreria "open" gratuita (che tanto fa moda) ma che gli fa perdere il doppio del tempo di calcolo rispetto ad una certificata ma chiusa e a pagamento.
CUDA vive e sopravvive per questo, per buona pace dei bimbetti nutellosi che credono che far girare 2 filtri di Photoshopp più velocemente in OpenCL sia la summa di tutta la scienza informatica di un pezzo di silicio.

E' chiaro che nvidia e AMD si muovo su due piani differenti per quanto riguarda la questione calcolo tramite GPU. Mentre AMD è più concentrata a fare in modo che tale tecnica diventi più diffusa a livello consumer, usando quindi "tecnologia tradizionale", anche nel tentativo di sopperire al deficit che ha accumulato lato CPU rispetto a Intel, nvidia si è concentrata nel mercato di nicchia del super computer/server di calcolo dove può usare tecnologia diversa (più avanzata) e dove ha la possibilità di guadagnare molto di più.

Il suo accordo con IBM per la tecnologia nvlink sotto questo punto di vista è interessante. Perché se davvero funziona come promesso può davvero permettere a IBM e nvidia di costruire i super computer più efficienti del pianeta mentre Intel è alle prese ancora con i sui 50+ Pentium castrati su un bus non ben definito che a quanto pare non è riuscita a descriverne i vantaggi all'ultima conferenza di presentazione della loro remota nuova incarnazione di Knight Landing e dall'altra parte AMD propone schede (peraltro da gioco) da oltre 600W che non arrivano alla potenza di una Tesla da 300W. Non parliamo delle sue CPU.
Ancora, se davvero una GPU ha una capacità di calcolo parallela che sovrasta una "comune" CPU come ARM/x86 (i Power non sono proprio comuni da questo punti di vista), è possibile ottenere un server efficiente abbinando ad una"semplice" CPU ARM con nvlink una scheda (o più) di calcolo dedicata. Altra maniera di creare nuovi prodotti potenzialmente interessanti, mentre Intel si strozza da sola sempre di più con la propria (ormai costosissima) architettura che non va più da nessuna parte, stretta tra l'avanzata dell'armata ARM (che tra un po' sarà anche sui server non necessariamente adibiti al puro calcolo) e da quello che appare essere un grande balzo nel prossimo futuro della concorrenza nel campo HPC, molto prima che possa arrivare a sfruttare i 10nm e ottenere nuovamente un vantaggio dovuto al processo produttivo piuttosto che dalla creazione di una migliore architettura.

Altra cosa interessante è l'impegno che IBM sta mettendo nel creare il vero calcolo ibrido con la sua architettura Power. Dall'esperienza del Cell (e dall'efficienza enorme mostrata dal RoadRunner) deve aver capito che le unità di calcolo dedicate sono molto meglio di unità di elaborazione general purpose quando la CPU è destinata ad un determinato uso (il calcolo, appunto, non a far girare l'interfaccia del SO).
Oltre alla GPU esterna è possibile che IBM abbia intenzione di usare anche altro. Anche qui si gioca su due livelli ben diversi.

PhoEniX-VooDoo
18-11-2014, 07:51
grazie, a me interessava solo la conferma che in una sessione di test una Titan ed una K40 ottengono risultati del tutto paragonabili in DP

cdimauro
18-11-2014, 08:09
Anche se molti pensano che basta mettere mille mila core su un processore per avere il meglio del meglio per il calcolo, quello che conta sono sostanzialmente 2 cose: in primi l'efficienza. Se ho una scheda che va il 10% in meno ma consuma la metà, è molto meglio. Se proprio voglio potenza aggiungo le schede in più che mi servono ma risparmio enormemente sull'energia. Consumo di energia che non è quello di casa vostra: si parla di MW/h ed è il costo preponderante del funzionamento di un server HPC. Il costo di acquisto e installazione dei componenti è secondario.
Falso: dipende tutto dalle esigenze. Se ho bisogno di avere dei dati prima possibile, l'aspetto energetico diventa secondario.
Il suo accordo con IBM per la tecnologia nvlink sotto questo punto di vista è interessante. Perché se davvero funziona come promesso può davvero permettere a IBM e nvidia di costruire i super computer più efficienti del pianeta mentre Intel è alle prese ancora con i sui 50+ Pentium castrati
Quindi? Quale sarebbe il problema? L'importante è quello che riescono a fare.

D'altra parte è bene notare che di Maxwell ancora non si parla, mentre nVidia ha presentato questa scheda basata su due core... Kepler. Magari il perché ce lo potrà spiegare qualche "bambino nutelloso"...
su un bus non ben definito
Come funzionano Knights Corner e Knights Landing è abbastanza chiaro. Ovviamente per chi sa informarsi; persino su Wikipedia si trovano dati in merito...
che a quanto pare non è riuscita a descriverne i vantaggi all'ultima conferenza di presentazione della loro remota nuova incarnazione di Knight Landing
Quale sarebbe questa conferenza?
Ancora, se davvero una GPU ha una capacità di calcolo parallela che sovrasta una "comune" CPU come ARM/x86 (i Power non sono proprio comuni da questo punti di vista), è possibile ottenere un server efficiente abbinando ad una"semplice" CPU ARM con nvlink una scheda (o più) di calcolo dedicata. Altra maniera di creare nuovi prodotti potenzialmente interessanti, mentre Intel si strozza da sola sempre di più con la propria (ormai costosissima) architettura che non va più da nessuna parte, stretta tra l'avanzata dell'armata ARM (che tra un po' sarà anche sui server non necessariamente adibiti al puro calcolo) e da quello che appare essere un grande balzo nel prossimo futuro della concorrenza nel campo HPC,
Intel è talmente strozzata che... Amazon: ARM Chipmakers Aren’t Matching Intel’s Innovation (http://www.bloomberg.com/news/2014-11-13/amazon-arm-chipmakers-aren-t-matching-intel-s-innovation.html).

No, non è un PR di Intel ad aver fatto quella dichiarazione.
molto prima che possa arrivare a sfruttare i 10nm e ottenere nuovamente un vantaggio dovuto al processo produttivo piuttosto che dalla creazione di una migliore architettura.
Al momento i 14nm sono più che sufficienti, considerato che la concorrenza annaspa. Ma in ogni caso i 10nm rimangono in roadmap.
Altra cosa interessante è l'impegno che IBM sta mettendo nel creare il vero calcolo ibrido con la sua architettura Power. Dall'esperienza del Cell (e dall'efficienza enorme mostrata dal RoadRunner) deve aver capito che le unità di calcolo dedicate sono molto meglio di unità di elaborazione general purpose quando la CPU è destinata ad un determinato uso (il calcolo, appunto, non a far girare l'interfaccia del SO).
Infatti l'ha capito così bene che... Cell è morto.

E POWER è messa così bene che... ha dovuto creare un consorzio per cercare aiuto per lo sviluppo. D'altra parte che quest'architettura sia in declino lo hanno detto pure loro, qualche mese fa, indicando in ARM e... proprio Intel quali le cause d'erosione di questo mercato.
Oltre alla GPU esterna è possibile che IBM abbia intenzione di usare anche altro. Anche qui si gioca su due livelli ben diversi.
Già. Aggiungiamo anche un altro livello: quello delle fab che ha venduto, che non le gioverà certo, visto che dovrà affidarsi a terzi, con tutte le problematiche che le altre fab stanno creando a chi si affida loro.

Comunque concordo sui "bambini nutellosi": il web, purtroppo, ne è pieno, e si vede da post come questi, per l'appunto...

CrapaDiLegno
18-11-2014, 12:18
Eccolo, ci mancava. Basta pronunciare la parola Intel e voilà, eccolo che spunta come un paladino in difesa della sua donzella.

Falso: dipende tutto dalle esigenze. Se ho bisogno di avere dei dati prima possibile, l'aspetto energetico diventa secondario.[(/quote]
Sicoome sono sistemi che scalano quasi linearmente, se ho bisogno di avere il dato prima possibile aggiungo quante più schede di calcolo posso.
Il problema è proprio quel posso. Tutti i sistemi di calcolo sono costruiti per avere i dati il prima possibile. Sempre. Comunque. Altrimnti non si investirebbero centinaia di milioni di dollari in centinaia di migliaia di nodi e in MW di potenza. Il problema sono i limiti che questo "quanto prima" incontra. Spazio, energia e manutenzione sono le chiavi. Chi ha il miglior compromesso vince.

[QUOTE=cdimauro;41795293]D'altra parte è bene notare che di Maxwell ancora non si parla, mentre nVidia ha presentato questa scheda basata su due core... Kepler. Magari il perché ce lo potrà spiegare qualche "bambino nutelloso"...[/quoyte]
Dai su, non fare il bambino nutelloso. Di Maxwell non si parla forse perché Maxwell con capacità DP per ora non esiste. D'altrode ciò non nega il fatto che il GK110 con un PP più vecchio sia più efficiente della soluzione Intel.
Quando avremo anche full Maxwell, vedremo il confronto. Sappiamo bene che a Intel piace paragonare i suoi prodotti futuri con quelli vecchi della concorrenza per farli sembrare interessanti.
Peccato che questo giro non ci sia riuscita (*).

[QUOTE=cdimauro;41795293]Intel è talmente strozzata che...
Perde un miliardo a trimestre per tentare di lanciare i suoi Atom nel mobile, non riesce a satuare la produzione a 14nm prevista, mentre nel mondo si vendono 2 miliardi di chip ARM e ci sono fonderie create apposta per realizzare solo SoC ARM.
L'innovazione Intel si chiama "processo produttivo". Punto. Sono 6 anni o più che Intel non ha nulla di nuovo da mettere sul piatto, e l'andamento delle prestazioni dei suoi processori ne sono la testimonianza.
Poi non ho capito cosa mi hai linkato... stai dicendo che gli ARM non sono pronti a sostituire gli Xeon dei grandi server come quelli di Amazon? Caspita, che novità. Che perspicacia. Che notizia bomba!
I 64 bit per ARM sono nati ieri, ci mancherebe che fossero già all'altezza degli Xeon (e non parlo solo di pure prestazioni).
Ma ti sei dimenticato che ci sono alcune compagnie che stanno creando chip per server ad hoc per i propri data center. Cosa che fino a pochi ani fa era impensabile. E che qualcun altro sta investendo in chip general purpose per server basati su archiettura ARM. Qualsiasi sia il successo di questi prodotti saranno sempre quote rubate a quello che oggi è il monopolio Intel.
E poi non dimenticare che i server Amazon funzionano sì con le CPU intel ma dietro hanno circa 10.000 GPU nvidia. Se il vero carico di lavoro è posto su queste, una futura CPU ARM con nvlink potrebbe essere un grattacapo per Intel anche con i server Amazon. Cerca di guardare al futuro.

Al momento i 14nm sono più che sufficienti, considerato che la concorrenza annaspa. Ma in ogni caso i 10nm rimangono in roadmap.
Al momento, un anno dopo la presunta data di lancio, dei 14nm neanche l'ombra. Non eri tu che dicevi che i 14nm erano in perfetta roadmap? Sì, certo, credici che i 10nm sono in roadmap. Se per roadmap intendi che rimangono nel grafico delle strategie future di Intel, sicuramente ci sono e si faranno.
Ma con quello che Intel ha perso con i 14nm, prima di recuperare gli investimenti ci vorrà molto più del previsto. Sempre che questi 14nm funzionino a dovere, perché sembra che vi sia qualche problema a farli partire a regime... un anno dopo. E i costi non sembrano proprio (ancora) alla portata di contrastare la produzione a 20nm dei SoC ARM.
E intanto gli altri non stanno a guardare... la concorrenza, quella che dici tu, oggi non è più solo la povera AMD che è alla frutta. Si chiama ARMata, che non è una minuscola azienda inglese che progetta circuiti intergrati, si chiama Apple, Samsung, Qualcomm, AMD, nvidia e le fonderie che prosperano con la vendita dei SoC ARM. Fonderie che non stanno affatto annaspando come negli anni precedenti. L'esplosione del mercato ARM ha permesso la creazione di un mercato parallelo a quello x86 che deprimeva tutto ciò che non ruotava intorno ad Intel/x86. E infatti abbiamo un processo produttivo creato solo ed esclusivamente per fare SoC ARM o comunque integrati a basso consumo. Che vuol dire che la richiesta e il rendimento è alto. Come se domani Intel decidesse di fare i 10nm solo per produrre solo ed esclusivamente i suoi Atom perché sa che così trarrebbe maggior profitto che ad investire su un processo in grado anche di fargli fare Xeon da 15 core a 3Ghz. Impensabile, viste le cifre in gioco (di costi da una parte e di pezzi vendibili dall'altra).
Come vedi i costi e le richieste di mercato sono cambiate negli ultimi anni e i 14nm che tu ritieni "suufficienti perché gli altri annaspano" rimangono troppo costosi proprio per il mercato in cui Intel vorrebbe entrare e probabilmente insuffienti a darle il gap necessario per competere con i 16nm Finfet l'anno prossimo. Poi vedremo come andranno le cose, ma non scommetterei al buio oggi sulle capacità competitive di Intel nel medio periodo come lo avrei potuto fare 10 anni fa. Per quanto i 14, 10, 8, 6 nm siano possibili a fronte di investimenti stratosferici, quello che non funziona più in questo ciclo che ha mantenuto in piedi l'azienda fino ad oggi è che il costo dei prodotti non diminuisce più come prima, anzi. E il numero di unità vendute non aumenta più ogni anno come ai bei tempi del boom dove faceva il bello e il cattivo tempo contro una concorrenza inadeguata.

Infatti l'ha capito così bene che... Cell è morto.
Il Cell è stato un processore rivoluzionario. Il suo problema non erano certo le prestazioni, i consumi o i costi di produzione (viste le esigue dimensioni).
E' però stato un processore non adatto alla programmazione come siamo abituati a farla. Ciò non toglie che ha dimostrato che piccole unità avanzate dedicate per il calcolo sono irraggiungibili per efficienza rispetto alle mastodontiche unità general purpose che Intel ci ha propinato fino a oggi (e continua a propinare).

E POWER è messa così bene che... ha dovuto creare un consorzio per cercare aiuto per lo sviluppo. D'altra parte che quest'architettura sia in declino lo hanno detto pure loro, qualche mese fa, indicando in ARM e... proprio Intel quali le cause d'erosione di questo mercato.
Stai confondendo le caratteristiche avanzate di una architettura con la sua diffusione. Intel ha ucciso molte altre archietture superiori alla sua grazie alla sola capacità produttiva (che non ha nulla a che fare con la bontà dell'archiettura). L'architettura Power è usata in un ambito ben specifico, là dove ancora trova senso provare a fare degli investimenti. Purtroppo il mercato è piccolo in volumi in quel settore e i costi per chi non ha altri "sbocchi" sono immensi. Sempre la solita questione che la "potenza" di Intel va ben oltre al suo effettivo valore. E' in posizione dominante e ha grandi capacità di trarne particolare vantaggio.

Ed è per questo che l'accordo di licenza con nvidia apre una nuova porta (e speranza) a IBM. Come può portare nuova motivazione per l'adozione anche di ARM nel medesimo segmento. Segmento, quello dell'uso di acceleratori ad-hoc extra CPU, in rapida adozione.
Quello che volevo far notare è come invece Intel in questi anni, dopo la "cacciata" di nvidia dal mercato chipset, si sia sempre più chiusa in sé stessa e non vuole aprire la porta a terzi in nessun caso.
Il motivo può essere duplice: o si sente così forte da voler capitalizzare al massimo i rendimenti dovuti alle sole proprie capacità, oppure si sente minacciata e sa che ogni minima apertura è una crepa che può diventare una falla irreparabile (se apri ad un bus con condivisione di memoria e crei la possibilità di avere schede terze capaci di far sfiguare la tua enorme e costosa e poco efficiente CPU hai aperto la porta alla tua fine).

(*) Notizia di ieri che saranno proprio IBM e nvidia a costruire quello che probabilmente saranno i due super computer più potenti al mondo nel 2016. Probabilmente la promessa di queste due aziende di maggiore efficienza, dovuta alla storia precedente e alle tecnologie future, è più valida di quella di Intel, che sono anni che promette la rivoluzione nei vari campi ma, come è sempre stato, anche con un PP di vantaggio, riesce a malapena a concorrere. Forse la salveranno ancora una volta i Cinesi che dopo aver fatto un server basato su HD4780 senza ECC ed essere passati alle Xeon Phi, forse il prossimo giro potranno usare i SoC cinesi Rockchip con tecnologia x86 come da ultimi accordi (o sovvenzioni) :D
E' una battuta, eh, dai, non prendertela. Intel ti pagherà lo stipendio ancora per molto tempo, non ti preoccupare, non chiuderà battenti domani.

coschizza
18-11-2014, 15:17
ma al netto delle frequenze e del quantitativo di memoria, cosa cambia tra una Titan-Z ed una K80?

cambia proprio il chip, la titan si basa su GK110 mentre questa sul nuovo GK210

coschizza
18-11-2014, 15:24
Altra cosa interessante è l'impegno che IBM sta mettendo nel creare il vero calcolo ibrido con la sua architettura Power. Dall'esperienza del Cell (e dall'efficienza enorme mostrata dal RoadRunner) deve aver capito che le unità di calcolo dedicate sono molto meglio di unità di elaborazione general purpose quando la CPU è destinata ad un determinato uso (il calcolo, appunto, non a far girare l'interfaccia del SO).i.

veramente il RoadRunner è stato spento definitamente nel 2013 perche era l'HPC meno efficiente in classifica (parlando dei primi ovviamente) ormai superato da tutti gli altri HPC intel amd o ibridi. Quel sistema era potente all'inizio ma poi IBM ha subito un completo declino e praticametne è sparito da tutti i priogetti di HPC negli ultimi anno. Ora ci risprova solo perche sta preparando il nuovo power 8 ma per ora è messa davvero male.

PhoEniX-VooDoo
18-11-2014, 15:26
cambia proprio il chip, la titan si basa su GK110 mentre questa sul nuovo GK210

ah, quindi Titan e K40 sono entrambe basate su GK110, mentre Titan-Z e K80 differiscono per il fatto che nonostante entrambe siano basate su Kepler, la prima usa 2xGK110 mentre la seconda 2xGK210.

2 domande

- sempre in ambito test, Titan e K40 sono paragonabili a livello di performance in DP?
- cosa cambia da GK110 a GK210?

coschizza
18-11-2014, 15:33
ah, quindi Titan e K40 sono entrambe basate su GK110, mentre Titan-Z e K80 differiscono per il fatto che nonostante entrambe siano basate su Kepler, la prima usa 2xGK110 mentre la seconda 2xGK210.

2 domande

- sempre in ambito test, Titan e K40 sono paragonabili a livello di performance in DP?
- cosa cambia da GK110 a GK210?

a meta review trovi un riassunto sulle differenze principali

http://www.anandtech.com/show/8729/nvidia-launches-tesla-k80-gk210-gpu

PhoEniX-VooDoo
18-11-2014, 15:37
a meta review trovi un riassunto sulle differenze principali

http://www.anandtech.com/show/8729/nvidia-launches-tesla-k80-gk210-gpu

stavo andando ad editare il post dicendo che ho trovato le info :p

CrapaDiLegno
18-11-2014, 16:58
veramente il RoadRunner è stato spento definitamente nel 2013 perche era l'HPC meno efficiente in classifica (parlando dei primi ovviamente) ormai superato da tutti gli altri HPC intel amd o ibridi. Quel sistema era potente all'inizio ma poi IBM ha subito un completo declino e praticametne è sparito da tutti i priogetti di HPC negli ultimi anno. Ora ci risprova solo perche sta preparando il nuovo power 8 ma per ora è messa davvero male.
Il RoadRunner è un progetto del 2003 realizzato in 3 fasi. Logico che nel 2013, dieci anni dopo, non può competere con le nuove archietture con 3 o 4 pp più avanzati. E ci mancherebbe altro. Nel 2009 quando ha battuto il muro del Petaflop era il server con la migliore efficienza. Consumava 1/2 del Server HPC più vicino (e più lento) in termini di prestazioni. E montava ancora i chip AMD, non propriamente i più efficienti. Il Cell quindi è stato rivoluzionario sotto il punto di vista dell'efficineza computazionale, dimostrando che non serve avere una CPU super mega complessa e monolitica per avere alte prestazioni ma serve avere unità di calcolo dedicate che possono essere indipendenti dalla CPU principale.
Dopo le GPU pure Intel c'è arrivata alla stessa conclusione. Peccato ce ancora non abbia capito che la parte x86 non serve (ma come detto, non le è possibile aprire uno spiraglio usando un bus "aperto" verso gli altri direttamente dalla CPU principale, equivarrebbe ad aprirsi la bara da sola).

cdimauro
18-11-2014, 23:54
Eccolo, ci mancava. Basta pronunciare la parola Intel e voilà, eccolo che spunta come un paladino in difesa della sua donzella.
Dovresti saperlo / immaginarlo, no?
Sicoome sono sistemi che scalano quasi linearmente, se ho bisogno di avere il dato prima possibile aggiungo quante più schede di calcolo posso.
Il problema è proprio quel posso. Tutti i sistemi di calcolo sono costruiti per avere i dati il prima possibile. Sempre. Comunque. Altrimnti non si investirebbero centinaia di milioni di dollari in centinaia di migliaia di nodi e in MW di potenza. Il problema sono i limiti che questo "quanto prima" incontra. Spazio, energia e manutenzione sono le chiavi. Chi ha il miglior compromesso vince.
Se fosse come dici esisterebbe UNA sola soluzione adottata da tutti, e scalata a seconda delle esigenze. Non mi pare che sia così, e questo proprio perché scalare un sistema non è affatto semplice e le prestazioni non aumentano linearmente.
Dai su, non fare il bambino nutelloso. Di Maxwell non si parla forse perché Maxwell con capacità DP per ora non esiste.
E magari non esisterà, visto che finora nelle slide si vedono soltanto Kepler e Pascal...
D'altrode ciò non nega il fatto che il GK110 con un PP più vecchio sia più efficiente della soluzione Intel.
Quest'affermazione l'avevi già fatta mesi fa in un altro thread, a cui ho risposto riportando link e informazioni che la smentiscono. Discussione a cui non hai più partecipato.

Adesso torni nuovamente alla carica sullo stesso argomento. Non mi pare intellettualmente onesto.
Quando avremo anche full Maxwell, vedremo il confronto. Sappiamo bene che a Intel piace paragonare i suoi prodotti futuri con quelli vecchi della concorrenza per farli sembrare interessanti.
Peccato che questo giro non ci sia riuscita (*).
Anche su questo vale quanto detto sopra: altra affermazione smentita e che riporti nuovamente a galla.
Perde un miliardo a trimestre per tentare di lanciare i suoi Atom nel mobile, non riesce a satuare la produzione a 14nm prevista,
Quest'informazione da dove l'hai presa?
mentre nel mondo si vendono 2 miliardi di chip ARM e ci sono fonderie create apposta per realizzare solo SoC ARM.
L'innovazione Intel si chiama "processo produttivo". Punto. Sono 6 anni o più che Intel non ha nulla di nuovo da mettere sul piatto, e l'andamento delle prestazioni dei suoi processori ne sono la testimonianza.
In 6 anni abbiamo visto l'arrivo delle AVX, delle AVX2, delle estensioni per l'hashing, e l'accelerazione di primitive di spostamento dati. Il prossimo anno arriveranno le AVX-512.

Direi che di carne al fuoco Intel ne ha messa e ne continuerà a mettere ancora, qualunque sparata tu possa fare in merito.
Poi non ho capito cosa mi hai linkato... stai dicendo che gli ARM non sono pronti a sostituire gli Xeon dei grandi server come quelli di Amazon? Caspita, che novità. Che perspicacia. Che notizia bomba!
Non lo dico io, ma il responsabile del data center di Amazon.
I 64 bit per ARM sono nati ieri, ci mancherebe che fossero già all'altezza degli Xeon (e non parlo solo di pure prestazioni).
La nuova architettura ARMv8 non ha nulla a che vedere riguardo all'utilizzo di un processore ARM in ambito server, tolta la possibilità di indirizzare più di 4GB di memoria "in maniera agevole" e le prestazioni mediamente migliore dovute alla nuova ISA.

Infatti esistono già da tempo (micro) server basati su ARM, ma che non hanno sfondato.

Dunque il fatto che ARMv8 sia una nuova architettura lascia il tempo che trova (anche perché tanto nuova non è ormai).
Ma ti sei dimenticato che ci sono alcune compagnie che stanno creando chip per server ad hoc per i propri data center. Cosa che fino a pochi ani fa era impensabile. E che qualcun altro sta investendo in chip general purpose per server basati su archiettura ARM. Qualsiasi sia il successo di questi prodotti saranno sempre quote rubate a quello che oggi è il monopolio Intel.
Non c'è nessun monopolio, ma una posizione dominante.

Comunque la divisione server di Intel continua a crescere, e dunque più che di rubare quote di mercato a Intel sono gli altri produttori di soluzioni server che si stanno vedendo mancare il terreno da sotto i piedi...
E poi non dimenticare che i server Amazon funzionano sì con le CPU intel ma dietro hanno circa 10.000 GPU nvidia. Se il vero carico di lavoro è posto su queste, una futura CPU ARM con nvlink potrebbe essere un grattacapo per Intel anche con i server Amazon. Cerca di guardare al futuro.
Il futuro non c'entra nulla. Bisogna guardare a come funziona un data center, un server, e magari avere un briciolo di esperienza di programmazione per capire l'utilizzo di una GPU in quest'ambito è e sarà nettamente ridotto rispetto a quello della CPU. Ciò non vuol dire che le GPU non abbiano motivo di essere utilizzate; sicuramente ci saranno scenari in cui eccellono (ad esempio lo scaling di un'immagine), ma il punto è che in generale si tratta di pochi scenari rispetto a quelli "più generali" dove è la CPU lo strumento principe per l'elaborazione.

Di fatti, e senza nemmeno avere queste conoscenze, il solo fatto che ci siano soltanto 10 mila GPU (SE ci sono) rispetto alle centina di migliaia di CPU utilizzate è una chiara prova / indicazione di come vanno realmente le cose.
Al momento, un anno dopo la presunta data di lancio, dei 14nm neanche l'ombra. Non eri tu che dicevi che i 14nm erano in perfetta roadmap?
Esattamente.
Sì, certo, credici che i 10nm sono in roadmap. Se per roadmap intendi che rimangono nel grafico delle strategie future di Intel, sicuramente ci sono e si faranno.
Ma con quello che Intel ha perso con i 14nm, prima di recuperare gli investimenti ci vorrà molto più del previsto. Sempre che questi 14nm funzionino a dovere, perché sembra che vi sia qualche problema a farli partire a regime... un anno dopo.
Considerato che Intel continua a guadagnare quote di mercato, non credo che avrà difficoltà a recuperare dagli investimenti per i 14nm.
E i costi non sembrano proprio (ancora) alla portata di contrastare la produzione a 20nm dei SoC ARM.
E quando sarebbe partita la produzione di SoC ARM a 20nm?
E intanto gli altri non stanno a guardare... la concorrenza, quella che dici tu, oggi non è più solo la povera AMD che è alla frutta. Si chiama ARMata, che non è una minuscola azienda inglese che progetta circuiti intergrati, si chiama Apple, Samsung, Qualcomm, AMD, nvidia e le fonderie che prosperano con la vendita dei SoC ARM. Fonderie che non stanno affatto annaspando come negli anni precedenti.
A no? Allora potresti cortesemente farmi sapere come sono messe coi nuovi processi produttivi? Perché non mi pare che le più recenti notizie in merito siano un loro segno di floridità.
L'esplosione del mercato ARM ha permesso la creazione di un mercato parallelo a quello x86 che deprimeva tutto ciò che non ruotava intorno ad Intel/x86. E infatti abbiamo un processo produttivo creato solo ed esclusivamente per fare SoC ARM o comunque integrati a basso consumo. Che vuol dire che la richiesta e il rendimento è alto. Come se domani Intel decidesse di fare i 10nm solo per produrre solo ed esclusivamente i suoi Atom perché sa che così trarrebbe maggior profitto che ad investire su un processo in grado anche di fargli fare Xeon da 15 core a 3Ghz. Impensabile, viste le cifre in gioco (di costi da una parte e di pezzi vendibili dall'altra).
Come vedi i costi e le richieste di mercato sono cambiate negli ultimi anni e i 14nm che tu ritieni "suufficienti perché gli altri annaspano" rimangono troppo costosi proprio per il mercato in cui Intel vorrebbe entrare e probabilmente insuffienti a darle il gap necessario per competere con i 16nm Finfet l'anno prossimo.
Fammi capire: i 14nm sarebbero inutili e costosi, ma soltanto per Intel, giusto? Allora non si capisce perché le altre fonderie stiano facendo sforzi enormi per arrivare ai 16nm, o addirittura puntino ai 10nm. Sarà una follia generalizzata.
Poi vedremo come andranno le cose, ma non scommetterei al buio oggi sulle capacità competitive di Intel nel medio periodo come lo avrei potuto fare 10 anni fa.
Solo di Intel? Bah...
Per quanto i 14, 10, 8, 6 nm siano possibili a fronte di investimenti stratosferici, quello che non funziona più in questo ciclo che ha mantenuto in piedi l'azienda fino ad oggi è che il costo dei prodotti non diminuisce più come prima, anzi. E il numero di unità vendute non aumenta più ogni anno come ai bei tempi del boom dove faceva il bello e il cattivo tempo contro una concorrenza inadeguata.
Sono investimenti sostenuti da tutte le fonderie che contano, perché i vantaggi, evidentemente, ci sono a ridurre ancora le dimensioni dei transistor. Ma magari tu ne sai più di ingegneri e fisici, e potrai spiegare a TSMC, Samsung, e Globalfoundries che è molto meglio rimanere coi processi attuali...
Il Cell è stato un processore rivoluzionario. Il suo problema non erano certo le prestazioni, i consumi o i costi di produzione (viste le esigue dimensioni).
Cell era un catorcio già all'epoca. E i suoi problemi erano proprio le prestazioni, i consumi, e i costi di produzione dovuti proprio all'enorme superficie del chip.

Se cerchi qui, proprio in questa sezione, troverai discussioni in merito già da ben prima che venisse presentato, e in cui ciò che fu scritto si è poi puntualmente verificato.

Cell va benissimo in ambiti di tipo DSP-like, ma non era certo un buon processore da infilare in una console o da pensare di essere usato in ambito desktop o server. Infatti è defunto.
E' però stato un processore non adatto alla programmazione come siamo abituati a farla. Ciò non toglie che ha dimostrato che piccole unità avanzate dedicate per il calcolo sono irraggiungibili per efficienza rispetto alle mastodontiche unità general purpose che Intel ci ha propinato fino a oggi (e continua a propinare).
Forse perché gli ambiti applicativi sono totalmente diversi? Vedi sopra e, soprattutto, i vecchi thread in questa sezione.
Stai confondendo le caratteristiche avanzate di una architettura con la sua diffusione. Intel ha ucciso molte altre archietture superiori alla sua grazie alla sola capacità produttiva (che non ha nulla a che fare con la bontà dell'archiettura).
Di questo se n'è parlato di recente (il thread della recente condanna a Intel per la causa collettiva che le era stata intentata da alcuni acquirenti dei Pentium 4), e ho postato dei link a riguardo che dimostrano l'esatto contrario.
L'architettura Power è usata in un ambito ben specifico, là dove ancora trova senso provare a fare degli investimenti. Purtroppo il mercato è piccolo in volumi in quel settore e i costi per chi non ha altri "sbocchi" sono immensi. Sempre la solita questione che la "potenza" di Intel va ben oltre al suo effettivo valore. E' in posizione dominante e ha grandi capacità di trarne particolare vantaggio.
Peccato che la TOP500 dimostri un'altra realtà. Ma ne parlo meglio dopo.
Ed è per questo che l'accordo di licenza con nvidia apre una nuova porta (e speranza) a IBM. Come può portare nuova motivazione per l'adozione anche di ARM nel medesimo segmento. Segmento, quello dell'uso di acceleratori ad-hoc extra CPU, in rapida adozione.
Quello che volevo far notare è come invece Intel in questi anni, dopo la "cacciata" di nvidia dal mercato chipset, si sia sempre più chiusa in sé stessa e non vuole aprire la porta a terzi in nessun caso.
Il motivo può essere duplice: o si sente così forte da voler capitalizzare al massimo i rendimenti dovuti alle sole proprie capacità, oppure si sente minacciata e sa che ogni minima apertura è una crepa che può diventare una falla irreparabile
Personalmente sono dell'idea che il mercato dei processori è libero, e ognuno può crearsene uno proprio. Se a Intel piace tenersi stretta la propria architettura e le sue tecnologie, fa benissimo, qualunque siano i motivi.
(se apri ad un bus con condivisione di memoria e crei la possibilità di avere schede terze capaci di far sfiguare la tua enorme e costosa e poco efficiente CPU hai aperto la porta alla tua fine).
Questo della poca efficienza è un mantra che continui a ripetere da tempo, ma di cui "stranamente" non riporti fatti a supporto, nonostante le passate richieste.
(*) Notizia di ieri che saranno proprio IBM e nvidia a costruire quello che probabilmente saranno i due super computer più potenti al mondo nel 2016. Probabilmente la promessa di queste due aziende di maggiore efficienza, dovuta alla storia precedente e alle tecnologie future, è più valida di quella di Intel, che sono anni che promette la rivoluzione nei vari campi ma, come è sempre stato, anche con un PP di vantaggio, riesce a malapena a concorrere. Forse la salveranno ancora una volta i Cinesi che dopo aver fatto un server basato su HD4780 senza ECC ed essere passati alle Xeon Phi, forse il prossimo giro potranno usare i SoC cinesi Rockchip con tecnologia x86 come da ultimi accordi (o sovvenzioni) :D
Checché tu ne dica, la realtà dice che:
- l'86% dei supercomputer nella TOP500 fa uso di processori Intel (bada bene: non ho considerato AMD);
- il 97% delle nuove entrate fa uso di processori Intel;
- il 17% dei supercomputer fa uso di processori di Xeon Phi.

Dati ufficiali, ovviamente. Con buona pace dei gufi...
E' una battuta, eh, dai, non prendertela. Intel ti pagherà lo stipendio ancora per molto tempo, non ti preoccupare, non chiuderà battenti domani.
Vedi sopra: non c'è motivo di preoccupazione.

Sarebbe interessante, invece, capire cosa ci guadagni un pinco pallino qualsiasi a lanciare "campagne d'odio" e di disinformazione nei confronti di aziende "nemiche", fino al punto di farsi sputtanare pubblicamente (vabbé, l'anonimato dei nick è molto comodo per coprirsi le spalle).

Ma magari lo scopriremo su Kazzenger...

cdimauro
19-11-2014, 00:01
Il RoadRunner è un progetto del 2003 realizzato in 3 fasi. Logico che nel 2013, dieci anni dopo, non può competere con le nuove archietture con 3 o 4 pp più avanzati. E ci mancherebbe altro. Nel 2009 quando ha battuto il muro del Petaflop era il server con la migliore efficienza. Consumava 1/2 del Server HPC più vicino (e più lento) in termini di prestazioni. E montava ancora i chip AMD, non propriamente i più efficienti. Il Cell quindi è stato rivoluzionario sotto il punto di vista dell'efficineza computazionale, dimostrando che non serve avere una CPU super mega complessa e monolitica per avere alte prestazioni ma serve avere unità di calcolo dedicate che possono essere indipendenti dalla CPU principale.
Allora non si capisce perché sia stato abbandonato da TUTTI i suoi creatori, quando avrebbero potuto riproporlo benissimo con processi produttivi aggiornati (come peraltro hanno fatto, finché l'hanno tenuto in vita).
Dopo le GPU pure Intel c'è arrivata alla stessa conclusione.
Scusami, cos'avrebbe fatto Intel? A me pare, invece, che abbia deciso di puntare su una moltitudine di core "megacomplessi" (poi mi fornirai una dimostrazione di questa "megacomplessità", anche se te l'ho già chiesto tempo fa e aspetto ancora una risposta, tanto per cambiare) e "monolitici" (cosa intendi con ciò riguardo a una CPU non è affatto chiaro; sarebbe utile quanto meno una definizione).
Peccato ce ancora non abbia capito che la parte x86 non serve
Cosa esattamente non servirebbe, e perché?
(ma come detto, non le è possibile aprire uno spiraglio usando un bus "aperto" verso gli altri direttamente dalla CPU principale, equivarrebbe ad aprirsi la bara da sola).
Altra cosa tutt'altro che chiara. Quale bus "chiuso" utilizzerebbe Intel? Quali problemi creerebbe alla concorrenza? E cosa dovrebbe utilizzare, invece?

Vediamo se qualche risposta, possibilmente con qualche fondamento tecnico, la fornirai finalmente, perché ti capisci solo tu.

Littlesnitch
19-11-2014, 10:06
MA perché non vi trovate in un bar e discutete li, al massimo vi prendete a calci in :ciapet: e almeno non state qui a fare OT insulsi inneggiando alle aziende che vi pagano lo stipendio!

PhoEniX-VooDoo
19-11-2014, 10:16
MA perché non vi trovate in un bar e discutete li, al massimo vi prendete a calci in :ciapet: e almeno non state qui a fare OT insulsi inneggiando alle aziende che vi pagano lo stipendio!

io sono il primo che in questo forum si e' ritrovato a discutere e rispondere frase per frase, ma il post #19 di cdimauro e' impressionante :eek: (non ho letto il contenuto)

!fazz
19-11-2014, 12:37
vediamo di tornare strettamente in topic, tanto più che una discussione tra voi due non porta a nessun beneficio per gli altri utenti vista la mancanza di punti di contatto

PaulGuru
19-11-2014, 13:38
all'utente che affermava che GK104 consumava già tanto per il GPGPU per poter pensare di tirare fuori un chip più grosso, ecco la risposta di Nvidia !!

CrapaDiLegno
19-11-2014, 14:00
Riassumo in poche righe perché le discussioni fatte con i muri non sono proprio di mio interesse:

Nanometria SoC ARm
E' già partita la produzione di SoC ARM a 20nm. Mai sentito parlare di Apple?

Fonderie
Non ho detto che miniaturizzare è controproducente, ho detto che per Intel lo è diventato. Forse ti sfugge il concetto di come funziona la miniaturizzazione e i costi collegati. Non è che uno shrink faccia risparmiare immediatamente soldi. I costi per mm^2 in un processo produttivo nuovo costano di più di quello vecchio. Risparmi fino a quando i mm^2 che togli rendono il prodotto più economico del precedente. In più, visto che gli investimenti per arrivare ad un nuovo processo produttivo sono enormi, ti serve dover vendere anche di più per recuperare i soldi. E lo studio dello shrinking cresce esponianzialmente. SOno sempre soldi da recuperare. E' una catena che ha funzionato per Intel fino a poco tempo fa. Già con i 22nm c'è stato qualche intoppo, con i 14nm è ben evidente che il problema PP sussiste.
D'altronde, visto che ti piace fare generalizzazioni a tutto campo, chiediamoci perché ormai non ci sono più aziende hi-tech con proprie fabbriche se non Intel e Samsung. Chi le aveva ha fatto di tutto per liberarsene. Forse perché il periodo delle vacche grasse con il silicio è finito e per far fronte agli investimenti bisogna produrre veramente tanto tanto? Un tanto che Intel per ora raggiunge ancora. Il futuro però non è roseo da wuesto punto di vista, dato che il mercato, per quanto possa migliorare, non permetterà certo a Intel di vendere 2 miliardi di chip in un anno, diversamente dalla concorrenza.
Che Intel sia un colosso che possa permettersi di farsi i chip in casa non ci sono dubbi. Io ho sollevato dubbi cHe possa continuare a fare aggiornamenti al PP come nei periodi precedenti. Il fatto che altre fonderie abbiano accelerato ultimamente (TMSC sta facendo quest'anno quello che non ha fatto negli anni precedenti) mentre Intel dichiari di non voler aprire una fabbrica a 14nm la dice lunga.
Poi puoi fare tutte le considerazioni personali che vuoi sui fatti. Ma che Intel sia in ritardo di un anno con il nuovo PP, non abbia ordini a sufficienza per riempire le linee che aveva previsto di aprire (problema già mostrato con i 22nm), che debba trovare clienti esterni per saturare parte delle linee, che non riesca a vendere i suoi chip mobile, che debba sovvenzionarli al costo di un miliardi al trimestre per venderne 40 milioni alla fine dell'anno, sono tutti fatti che se non vivi in un guscio d'uovo dovresti conoscere.
Poi come hai detto tu, sul desktop la concorrenza non esiste e quindi anche facesse ancora processori a 32nm sarebbe comunque avanti. Ma non è il mercato desktop il problema di Intel. Almeno, non ancora.
Se poi vieni qui e affermi con tutta sincerità che il PP a 14nm di Intel è in tabella di marcia come programmato all'origine, mi chiedo a chi tu stia dando dell'incapace ai piani alti, dato che il marasma che si sta creando tra Broadwell e Skylake se non è dovuto al ritardo che tu neghi esistere è dovuto a qualche imbecille che non ha saputo fare i grafici dei tempi in maniera corretta... mah.

"Considerato che Intel continua a guadagnare quote di mercato, non credo che avrà difficoltà a recuperare dagli investimenti per i 14nm."
Certo che li recupererà, non nei tempi previsti però. E quindi i 10nm saranno spostati avanti.
Insieme a tutti i progetti ad essi connessi. Quello che non comprendi è che mentre il mercato delle CPU destop può benissimo fare a meno di nuovi PP per diverso tempo, TUTTI gli altri progetti di Intel ne richiedono uno milgiore di quello che è in programma (nemmeno in uso). Solo che questi progetti non coprono le spese per un nuovo PP. Ma se non vuole rimanere rinchiusa nel solo mercato dei PC, Intel DEVE

Presunte Smentite
Riguardo alle tue smentite con link presi a caso sul Web, non è che mi importi molto. Così come no mi importa tornare a dire le stesse cose su una discussione che si è arenata sullo stesso loop.
Vorrei solo chiederti di dirmi dove Intel fa un confronto (al di fuori delle sue CPU classe desktop/server) serio con i prodotti della concorrenza. Tutti i confronti che io ho trovato sono tra il prodotto in via di sviluppo di Intel e quello della concorrenza sul mercato da almeno un anno. E infatti, immancabilmente, al lancio del prodotto, Intel non riesce a piazzarlo perché nel suo bel confronto spaccamascelle ovviamente si è dimenticata di accennare che nel frattempo la concorrenza ha anche lei in sviluppo qualcosa di molto meglio.
Da Larrabee e derivate schede di calcolo (che in molti affermano non aver fatto questo grande botto come Intel si aspettava visto gli ingenti investimenti in R&D e nell'uso del massimo processo produttivo disponibile giusto per sottolineare quanto è sotto pressione per tenere testa alla concorrenza), ai processori mobile che ogni anno sono sempre presentati da slide e test che li pongono come 2 volte poù potenti, più parsimoniosi etc.. etc. di qualsiasi altra cosa esistente (al momento della presentazione) per poi finire nel dimenticatoio nel momento in cui sono messi in vendita. Salvo poi investire 7 miliardi di dollari in due anni per riuscire a vederne 50 milioni piazzati in qualche prodotto. Altimenti neppure quelli.

Avanzamento tenologico
Se mi dici che l'avanzamento tecnologico che abbiamo avuto da parte di Intel in 6 anni è tutto concentrato nelle unità AVX, beh, hai detto tutto tu. Guarda dove era ARM 6 ann fa. O cosa ha creato IBM con l'architettura Power nel frattempo. Purtroppo, come detto,m questa è limitata in un mercato di nicchia per via di costi di progettazione e produzione insostenibili.

Architettura ARM nei server
Come fai a dire che ARM è un fallimento nel mercato server quando fino a ieri è stata presentata con l'architettura v7 a 32bit? Qesto è negazionismo allo stato puro. I primi chip a 64 bit ARM sono nati ieri. Manca tutta una serie di cose per renderli ancora buoni per quel mercato. Ma lo start è stato dato e la corsa cominciata. Se nel frattempo ti sei distratto a guardare al passato (come da scuole dell'azienda in cui lavori), non è un problema mio. Vedremo cosa verrà fuori dai lavori di AMD, Apple, nvidia e Qualcomm e le altre compagnie che già lavorano nel mercato server.

Cell
Il Cell consumava tanto ed aveva una superficie enorme?????
Il suo problema erano i 90nm di PP con cui era fatto. Che è sempre la solita storia per chi non ha produzioni di volumi tali da poter giustificare investimenti in PP sempre più avanzati. Ma anche a 90nm era piccolo e consumava poco. Il suo abbandono è giustificabile per il fatto che il modello di programmazione necessario per sfruttarlo era completamente diverso da quello cui siamo abituati.
Il fatto di avere unità di calcolo indipendenti lo ha reso estremamente flessibile ma troppo difficile da gestire in un sistyema dove basta dire "fammi queste 3 miliardi di mltiplicazioni" e non "fammi questa sequenza di elaborazione dove fai le moltiplicazioni, prendi i dati da quell'altra SPU, li ricomponi in questo modo, applichi questo filtro (o attendi che la tale SPU lo faccia per te) e poi metti tutto in questo buffer, che è un po' di più di quanto riesca a fare una semplice unità DSP-like.
Che fosse estremo per l'uso che serviva è indubbio. ma è anche indubbio che abbia dimostrato che c'è modo di ottenere tanta efficienza usando unità dedicate invece che avere unità di calcolo con dietro tutto un pacchettozzo di roba che non serve a nulla.
Ah, e gli shrink non sono gratuiti come già detto. Se lo fai devi vendere a sufficienza per coprire le spese. E non tutti i prodotti vantano di questi vantaggi. Sopratutto quelli per nicchie.

Bus Intel
Quale bus usa Intel che non permette agli altri di operare allo stesso modo?
Scherzi o fai finta di fare lo gnorri? Dimmi come fa una scheda di terze parti a fare accesso alla memoria di sistema. O già, il memory controller è interno e guarda caso non ci sono più licenze per fare chipset alternativi...
E questa cosa di avere 60+ core x86 per pilotare 60+ unità SIMD è davvero ridicola. D'altronde Intel non può creare una scheda acceleratrice che è copia di una "ignobile" GPU creata su una "anonima" architettura di calcolo qualsiasi... che figura ci farebbe a non mettere un core x86 là dentro? Vorrebbe dire che chiunque potrebbe farlo... aspetta... ma qualcuno già lo fa e con efficienze maggiori... porca miseria... questi 10nm sono davvero indispensabili se si vuole rimanere al passo...

"- l'86% dei supercomputer nella TOP500 fa uso di processori Intel (bada bene: non ho considerato AMD);
- il 97% delle nuove entrate fa uso di processori Intel;
- il 17% dei supercomputer fa uso di processori di Xeon Phi."
Ohh.. bene, vediamo.. Intel ha almeno un PP di vantaggio sulla concorrenza, produce per ora chip più economici per via del fattore di scala, ha un supporto pressocché illimitato da parte di tutta l'industria... AMD non fa più processori per server da un bel pezzo, rimangono IBM, Fujitsu e i cinesi con il loro chip proprietario... cavolo, mi viene da dire che l'87% è ancora troppo poco.
Il 17% fa uso di schede Phi? Cavolo... in verità dai dati di Giugno 2014 ella top500 sono 17 sistemi (che non sono quindi il 17% dei top500) che usano Phi e 46 che usano GPU... e il numero di server che usa GPU è cresciuto del 44% dal 2012.
Eppure quando era stata presentata la Xeon Phi a 22nm era 2 o 3 volte più efficiente di... ermmm.. ha, già, era confrontata con Fermi a 40nm...

Ora vado che ho altro da fare.
Apettiamo tutti con immensa curiosità la nuova scheda accelereratrice di Intel a 14nm. E spera pure che non ci sarà alcun big Maxwell. Anzi, no speralo, perché se davvero ai 16nm ci ritroviamo direttamente la nuova architettura sono 2 balzi in avanti per la concorrenza invece di uno solo.

Infine attento:
Di fatti, e senza nemmeno avere queste conoscenze, il solo fatto che ci siano soltanto 10 mila GPU (SE ci sono) rispetto alle centina di migliaia di CPU utilizzate è una chiara prova / indicazione di come vanno realmente le cose.
Potrei interpretarlo come: bastano 10.000GPU per fare il lavoro di centinaia di migliaia di CPU... lo so che non è così e che le GPU hanno un campo d'uso ben specifico (che non si discosta però da quello delle Xeon Phi) ma se fai il solo confronto numerico di dai la zappa sui piedi.

!fazz
19-11-2014, 14:31
vediamo di tornare strettamente in topic, tanto più che una discussione tra voi due non porta a nessun beneficio per gli altri utenti vista la mancanza di punti di contatto

Riassumo in poche righe perché
...
cut
...
piedi.
2g

Littlesnitch
19-11-2014, 15:45
all'utente che affermava che GK104 consumava già tanto per il GPGPU per poter pensare di tirare fuori un chip più grosso, ecco la risposta di Nvidia !!

Interessante? Quale sarebbe la risposta? :D

PaulGuru
19-11-2014, 19:10
Interessante? Quale sarebbe la risposta? :D

2 GPU in un unica scheda da GPGPU che dice chiaramente che i consumi belli spinti non crean problemi.

Littlesnitch
19-11-2014, 20:51
2 GPU in un unica scheda da GPGPU che dice chiaramente che i consumi belli spinti non crean problemi.

Cioè tu non hai nemmeno perso 5 minuti di tempo a leggere quello che ha scritto nVidia? :doh:
Io ho capito dove vuoi arrivare, il problema è che tu non lo sai spiegare :sofico:

cdimauro
19-11-2014, 21:47
@!fazz: immagino che, anche limitando eventualmente la risposta alla sola parte in topic, sarebbe meglio evitare di continuare.

@PhoEniX-VooDoo: se ti ha impressionato il mio post #19, fatti 4 risate guardando questo (http://www.hwupgrade.it/forum/showpost.php?p=8911208&postcount=147). Ricordo che all'epoca misurava più di 64KB sull'editor di testo, ma non so quante ore impiegai per scriverlo. :p

PaulGuru
20-11-2014, 13:13
Cioè tu non hai nemmeno perso 5 minuti di tempo a leggere quello che ha scritto nVidia? :doh:
Io ho capito dove vuoi arrivare, il problema è che tu non lo sai spiegare :sofico:
il problema non c'è, ecco la risposta

CrapaDiLegno
21-11-2014, 14:34
2g
Volevo scusami per il post ritenuto OT.
È stato scritto offline in un arco di tempo piuttosto lungo e non c'era alcun avviso quando ho iniziato.

Comunque sia vedo che come in altri forum è meglio fermarsi al solito commento "wow che bello" "fantastico" piuttosto che "scaffale".
Sembra che renda più felici tutti.