Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > Articoli

NVIDIA Blackwell B200: due chip in uno per rivoluzionare l'intelligenza artificiale
NVIDIA Blackwell B200: due chip in uno per rivoluzionare l'intelligenza artificiale
Due GPU (die) su un unico package per un totale di 208 miliardi di transistor: la nuova GPU Blackwell di NVIDIA nasce per accelerare l'innovazione nel campo dell'intelligenza artificiale come mai prima d'ora. La nuova proposta è accompagnata da 192 GB di memoria HBM3E per una bandwidth di 8 TB/s. A comporre la nuova offerta di NVIDIA troviamo tre soluzioni: B100, B200 e GB200.
HP Envy Move, un PC All-In-One con la batteria che si può spostare facilmente
HP Envy Move, un PC All-In-One con la batteria che si può spostare facilmente
HP Envy Move non è un PC all-in-one come tutti gli altri: si può spostare facilmente e usare lontano dalla presa di corrente. Lo schermo touch consente di usarlo anche come un grande tablet e può diventare un display aggiuntivo. Il tutto condito da un'attenzione all'ambiente grazie all'uso di materiali riciclati.
MSI MPG 321URX QD-OLED: un monitor completo per i giocatori
MSI MPG 321URX QD-OLED: un monitor completo per i giocatori
MSI MPG 321URX QD-OLED è un monitor completo, con diagonale da 32 pollici, risoluzione UHD, porte HDMI 2.1, frequenza di aggiornamento di 240 Hz e con un pannello OLED che offre diverse caratteristiche interessanti per il pubblico dei giocatori
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 17-11-2014, 15:37   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75175
Link all'Articolo: http://www.businessmagazine.it/artic...elo_index.html

In occasione di SC14 NVIDIA annuncia la nuova proposta top di gamma della famiglia Tesla, una scheda dotata di due GPU montate sullo stesso PCB in abbinamento ciascuna a 12 Gbytes di memoria video. Ampio spazio anche a NVLink, la connessione tra GPU e CPU in arrivo dal 2016 che dovrebbe permettere di incrementare sensibilmente le prestazioni nei sistemi server per GPU Computing

Click sul link per visualizzare l'articolo.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 17-11-2014, 16:04   #2
PhoEniX-VooDoo
Bannato
 
L'Avatar di PhoEniX-VooDoo
 
Iscritto dal: Nov 2000
Messaggi: 15499
ma al netto delle frequenze e del quantitativo di memoria, cosa cambia tra una Titan-Z ed una K80?
PhoEniX-VooDoo è offline   Rispondi citando il messaggio o parte di esso
Old 17-11-2014, 17:27   #3
batou83
Senior Member
 
Iscritto dal: Jun 2014
Messaggi: 3008
La Titan-Z dovrebbe avere qualche core cuda in più, ma più o meno sono la stessa cosa come specifiche. Sostanzialmente cambia la funzione, la titan la puoi usare per tutto, la tesla va bene solo per il computing (mi pare non abbia nemmeno l'uscita video... ).
__________________
Trattative positive nel forum : molte!
batou83 è offline   Rispondi citando il messaggio o parte di esso
Old 17-11-2014, 18:38   #4
bombolo_flint
Senior Member
 
L'Avatar di bombolo_flint
 
Iscritto dal: Jan 2004
Messaggi: 3480
Quote:
Originariamente inviato da batou83 Guarda i messaggi
La Titan-Z dovrebbe avere qualche core cuda in più, ma più o meno sono la stessa cosa come specifiche. Sostanzialmente cambia la funzione, la titan la puoi usare per tutto, la tesla va bene solo per il computing (mi pare non abbia nemmeno l'uscita video... ).


Esatto non ha nessuna uscita video,ma è solo un'acceleratore grafico per algoritmi più impegnativi,calcoli scientifici.Per chi fa simulazioni numeriche e offrono una potenza necessaria per eseguire simulazioni di dimensioni maggiori ma con una velocità nettamente superiore.


Piccolo esempio delle capacità che può svolgere una NVIDIA TESLA.
__________________
Cooler Master Cosmos Infinity 30th Anniversary Full-Tower

Intel Core i9-14900K - Cores:24/32 - 36MB Smart Cache + 32MB Cache L2 - (5,8 GHz) + Thermal Grizzly Contact Frame + EK®-Quantum Velocity² DDC 4.2 PWM D-RGB - 480 mm - Asus ROG Maximus Z790 Extreme [E-ATX]

Corsair Dominator Platinum DDR5 (2x32GB) 64GB (6400 MHz) -
EK-Quantum Vector² Trio RTX 4090 D-RGB - 420 mm {24GB GDDR6X} - DELL UltraSharp 49" - 32:9: 5K Dual QHD 5120 x 1440

Ultima modifica di bombolo_flint : 17-11-2014 alle 18:46. Motivo: Aggiunta 4.0
bombolo_flint è offline   Rispondi citando il messaggio o parte di esso
Old 17-11-2014, 20:11   #5
Dinofly
Senior Member
 
L'Avatar di Dinofly
 
Iscritto dal: Dec 2002
Città: Milano
Messaggi: 2436
Con un paio di queste in SLI gira pure Unity!
__________________
Ryzen 58000x3d, Kraken x62, Aorus b550 elite v2, Sapphire rx6900xt, Kingston FURY Renegade 2x16G 3600 c16, Kingston FURY Renegade PCIe 4.0 NVMe , Seasonic 620w, NZXT h500, Quest 2, Xiaomi 34 gaming monitor 1440p 144hz.
Dinofly è offline   Rispondi citando il messaggio o parte di esso
Old 17-11-2014, 21:22   #6
Littlesnitch
Bannato
 
Iscritto dal: Jun 2013
Messaggi: 3016
Quindi nVidia stessa taglia la testa al toro e ci dice che non ci sarà nessuna Titan Maxwell a 28nm per natale... anzi non ci sarà proprio fino al nuovo PP. Altrimenti non avrebbe senso il lancio di questa scheda che ad occhio e croce dovrebbe costare sui 10000€.
Littlesnitch è offline   Rispondi citando il messaggio o parte di esso
Old 17-11-2014, 21:53   #7
PhoEniX-VooDoo
Bannato
 
L'Avatar di PhoEniX-VooDoo
 
Iscritto dal: Nov 2000
Messaggi: 15499
Quote:
Originariamente inviato da batou83 Guarda i messaggi
La Titan-Z dovrebbe avere qualche core cuda in più, ma più o meno sono la stessa cosa come specifiche. Sostanzialmente cambia la funzione, la titan la puoi usare per tutto, la tesla va bene solo per il computing (mi pare non abbia nemmeno l'uscita video... ).
Quote:
Originariamente inviato da bombolo_flint Guarda i messaggi
Esatto non ha nessuna uscita video,ma è solo un'acceleratore grafico per algoritmi più impegnativi,calcoli scientifici.Per chi fa simulazioni numeriche e offrono una potenza necessaria per eseguire simulazioni di dimensioni maggiori ma con una velocità nettamente superiore.


Piccolo esempio delle capacità che può svolgere una NVIDIA TESLA.
interessante
e se qualcuno vi avesse detto che Titan / Titan-Z hanno prestazioni pessime in double precision rispetto a Tesla K40 / K80 cosa pensereste quindi?

castrazioni a livello driver nvidia?
quel qualcuno è un incapace?
altro?
PhoEniX-VooDoo è offline   Rispondi citando il messaggio o parte di esso
Old 17-11-2014, 23:42   #8
Littlesnitch
Bannato
 
Iscritto dal: Jun 2013
Messaggi: 3016
Quote:
Originariamente inviato da PhoEniX-VooDoo Guarda i messaggi
interessante
e se qualcuno vi avesse detto che Titan / Titan-Z hanno prestazioni pessime in double precision rispetto a Tesla K40 / K80 cosa pensereste quindi?

castrazioni a livello driver nvidia?
quel qualcuno è un incapace?
altro?
Beh ma è ovvio che le Titan sono castrate in DP, altrimenti che senso avrebbero le Quadro e Tesla. Chi necessita del DP svolge lavori molto complessi che richiedono HW e SW certificato che deve macinare calcolo 24 su 24 per mesi se non anni ed ecco che quindi vengono tagliate le freq, i cura core, in modo da avere stabilità assoluta e contenere i consumi entro limiti accettabili.
Littlesnitch è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2014, 00:58   #9
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3287
Quote:
Originariamente inviato da Littlesnitch Guarda i messaggi
Beh ma è ovvio che le Titan sono castrate in DP, altrimenti che senso avrebbero le Quadro e Tesla. Chi necessita del DP svolge lavori molto complessi che richiedono HW e SW certificato che deve macinare calcolo 24 su 24 per mesi se non anni ed ecco che quindi vengono tagliate le freq, i cura core, in modo da avere stabilità assoluta e contenere i consumi entro limiti accettabili.
A parte che le Titan hanno il calcolo DP sbloccato. Il loro costo non è perché ai tempi facevano 5 frame in più di una GTX780 in BF4, ma proprio perché è sfruttabile in campo professionale per fare conti complessi ad alta velocità e con tanta memoria (cosa che le GTX non hanno).
Che poi una schiera di bimbimink@ abbia pensato di investirci uno stipendio per giocare a BF4 et Co e poi abbia espresso profonda delusione quando è uscita la 780Ti che andava di più e costava la metà, è una cosa che ancora una volta dimostra come sia giusto che qualcuno strizzi la mammella della mucca sprovveduta ogni tanto.

Cosa cambia da una Titan ad una Tesla?
Sono 2 cose completamente diverse. A parte che le Tesla non sono schede grafiche e al max le Titan si possono paragonare alle Quadro, le Titan non hanno la memoria ECC e non sono pensate per missioni critiche e come le Tesla (o Quadro), così come non hanno i driver e librerie certificate. Le Tesla non costano 4000 euro ciascuna per nulla. Anche se molti pensano che basta mettere mille mila core su un processore per avere il meglio del meglio per il calcolo, quello che conta sono sostanzialmente 2 cose: in primi l'efficienza. Se ho una scheda che va il 10% in meno ma consuma la metà, è molto meglio. Se proprio voglio potenza aggiungo le schede in più che mi servono ma risparmio enormemente sull'energia. Consumo di energia che non è quello di casa vostra: si parla di MW/h ed è il costo preponderante del funzionamento di un server HPC. Il costo di acquisto e installazione dei componenti è secondario.
La seconda cosa importante è il supporto: a chi sta facendo dei calcoli critici che una scheda ci metta la metà del tempo non interessa nulla se non ha la massima garanzia che i conti effettuati siano corretti al 100%. Pensate di fare una settimana di calcolo di fila per scoprire alla fine (o dopo qualche tempo) che le simulazioni sono sbagliate perché un algoritmo di una libreria o un chip di memoria è fallato. O anche il compilatore stesso. Anche loro possono avere bachi, anche seri. E infatti si certificano pure quelli.
Allo stesso tempo uno vuole che il proprio tempo (ed energia) sia usato al meglio, per cui non gliene frega niente di usare una libreria "open" gratuita (che tanto fa moda) ma che gli fa perdere il doppio del tempo di calcolo rispetto ad una certificata ma chiusa e a pagamento.
CUDA vive e sopravvive per questo, per buona pace dei bimbetti nutellosi che credono che far girare 2 filtri di Photoshopp più velocemente in OpenCL sia la summa di tutta la scienza informatica di un pezzo di silicio.

E' chiaro che nvidia e AMD si muovo su due piani differenti per quanto riguarda la questione calcolo tramite GPU. Mentre AMD è più concentrata a fare in modo che tale tecnica diventi più diffusa a livello consumer, usando quindi "tecnologia tradizionale", anche nel tentativo di sopperire al deficit che ha accumulato lato CPU rispetto a Intel, nvidia si è concentrata nel mercato di nicchia del super computer/server di calcolo dove può usare tecnologia diversa (più avanzata) e dove ha la possibilità di guadagnare molto di più.

Il suo accordo con IBM per la tecnologia nvlink sotto questo punto di vista è interessante. Perché se davvero funziona come promesso può davvero permettere a IBM e nvidia di costruire i super computer più efficienti del pianeta mentre Intel è alle prese ancora con i sui 50+ Pentium castrati su un bus non ben definito che a quanto pare non è riuscita a descriverne i vantaggi all'ultima conferenza di presentazione della loro remota nuova incarnazione di Knight Landing e dall'altra parte AMD propone schede (peraltro da gioco) da oltre 600W che non arrivano alla potenza di una Tesla da 300W. Non parliamo delle sue CPU.
Ancora, se davvero una GPU ha una capacità di calcolo parallela che sovrasta una "comune" CPU come ARM/x86 (i Power non sono proprio comuni da questo punti di vista), è possibile ottenere un server efficiente abbinando ad una"semplice" CPU ARM con nvlink una scheda (o più) di calcolo dedicata. Altra maniera di creare nuovi prodotti potenzialmente interessanti, mentre Intel si strozza da sola sempre di più con la propria (ormai costosissima) architettura che non va più da nessuna parte, stretta tra l'avanzata dell'armata ARM (che tra un po' sarà anche sui server non necessariamente adibiti al puro calcolo) e da quello che appare essere un grande balzo nel prossimo futuro della concorrenza nel campo HPC, molto prima che possa arrivare a sfruttare i 10nm e ottenere nuovamente un vantaggio dovuto al processo produttivo piuttosto che dalla creazione di una migliore architettura.

Altra cosa interessante è l'impegno che IBM sta mettendo nel creare il vero calcolo ibrido con la sua architettura Power. Dall'esperienza del Cell (e dall'efficienza enorme mostrata dal RoadRunner) deve aver capito che le unità di calcolo dedicate sono molto meglio di unità di elaborazione general purpose quando la CPU è destinata ad un determinato uso (il calcolo, appunto, non a far girare l'interfaccia del SO).
Oltre alla GPU esterna è possibile che IBM abbia intenzione di usare anche altro. Anche qui si gioca su due livelli ben diversi.

Ultima modifica di CrapaDiLegno : 18-11-2014 alle 01:01.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2014, 07:51   #10
PhoEniX-VooDoo
Bannato
 
L'Avatar di PhoEniX-VooDoo
 
Iscritto dal: Nov 2000
Messaggi: 15499
grazie, a me interessava solo la conferma che in una sessione di test una Titan ed una K40 ottengono risultati del tutto paragonabili in DP
PhoEniX-VooDoo è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2014, 08:09   #11
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Anche se molti pensano che basta mettere mille mila core su un processore per avere il meglio del meglio per il calcolo, quello che conta sono sostanzialmente 2 cose: in primi l'efficienza. Se ho una scheda che va il 10% in meno ma consuma la metà, è molto meglio. Se proprio voglio potenza aggiungo le schede in più che mi servono ma risparmio enormemente sull'energia. Consumo di energia che non è quello di casa vostra: si parla di MW/h ed è il costo preponderante del funzionamento di un server HPC. Il costo di acquisto e installazione dei componenti è secondario.
Falso: dipende tutto dalle esigenze. Se ho bisogno di avere dei dati prima possibile, l'aspetto energetico diventa secondario.
Quote:
Il suo accordo con IBM per la tecnologia nvlink sotto questo punto di vista è interessante. Perché se davvero funziona come promesso può davvero permettere a IBM e nvidia di costruire i super computer più efficienti del pianeta mentre Intel è alle prese ancora con i sui 50+ Pentium castrati
Quindi? Quale sarebbe il problema? L'importante è quello che riescono a fare.

D'altra parte è bene notare che di Maxwell ancora non si parla, mentre nVidia ha presentato questa scheda basata su due core... Kepler. Magari il perché ce lo potrà spiegare qualche "bambino nutelloso"...
Quote:
su un bus non ben definito
Come funzionano Knights Corner e Knights Landing è abbastanza chiaro. Ovviamente per chi sa informarsi; persino su Wikipedia si trovano dati in merito...
Quote:
che a quanto pare non è riuscita a descriverne i vantaggi all'ultima conferenza di presentazione della loro remota nuova incarnazione di Knight Landing
Quale sarebbe questa conferenza?
Quote:
Ancora, se davvero una GPU ha una capacità di calcolo parallela che sovrasta una "comune" CPU come ARM/x86 (i Power non sono proprio comuni da questo punti di vista), è possibile ottenere un server efficiente abbinando ad una"semplice" CPU ARM con nvlink una scheda (o più) di calcolo dedicata. Altra maniera di creare nuovi prodotti potenzialmente interessanti, mentre Intel si strozza da sola sempre di più con la propria (ormai costosissima) architettura che non va più da nessuna parte, stretta tra l'avanzata dell'armata ARM (che tra un po' sarà anche sui server non necessariamente adibiti al puro calcolo) e da quello che appare essere un grande balzo nel prossimo futuro della concorrenza nel campo HPC,
Intel è talmente strozzata che... Amazon: ARM Chipmakers Aren’t Matching Intel’s Innovation.

No, non è un PR di Intel ad aver fatto quella dichiarazione.
Quote:
molto prima che possa arrivare a sfruttare i 10nm e ottenere nuovamente un vantaggio dovuto al processo produttivo piuttosto che dalla creazione di una migliore architettura.
Al momento i 14nm sono più che sufficienti, considerato che la concorrenza annaspa. Ma in ogni caso i 10nm rimangono in roadmap.
Quote:
Altra cosa interessante è l'impegno che IBM sta mettendo nel creare il vero calcolo ibrido con la sua architettura Power. Dall'esperienza del Cell (e dall'efficienza enorme mostrata dal RoadRunner) deve aver capito che le unità di calcolo dedicate sono molto meglio di unità di elaborazione general purpose quando la CPU è destinata ad un determinato uso (il calcolo, appunto, non a far girare l'interfaccia del SO).
Infatti l'ha capito così bene che... Cell è morto.

E POWER è messa così bene che... ha dovuto creare un consorzio per cercare aiuto per lo sviluppo. D'altra parte che quest'architettura sia in declino lo hanno detto pure loro, qualche mese fa, indicando in ARM e... proprio Intel quali le cause d'erosione di questo mercato.
Quote:
Oltre alla GPU esterna è possibile che IBM abbia intenzione di usare anche altro. Anche qui si gioca su due livelli ben diversi.
Già. Aggiungiamo anche un altro livello: quello delle fab che ha venduto, che non le gioverà certo, visto che dovrà affidarsi a terzi, con tutte le problematiche che le altre fab stanno creando a chi si affida loro.

Comunque concordo sui "bambini nutellosi": il web, purtroppo, ne è pieno, e si vede da post come questi, per l'appunto...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2014, 12:18   #12
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3287
Eccolo, ci mancava. Basta pronunciare la parola Intel e voilà, eccolo che spunta come un paladino in difesa della sua donzella.

[quote=cdimauro;41795293]Falso: dipende tutto dalle esigenze. Se ho bisogno di avere dei dati prima possibile, l'aspetto energetico diventa secondario.[(/quote]
Sicoome sono sistemi che scalano quasi linearmente, se ho bisogno di avere il dato prima possibile aggiungo quante più schede di calcolo posso.
Il problema è proprio quel posso. Tutti i sistemi di calcolo sono costruiti per avere i dati il prima possibile. Sempre. Comunque. Altrimnti non si investirebbero centinaia di milioni di dollari in centinaia di migliaia di nodi e in MW di potenza. Il problema sono i limiti che questo "quanto prima" incontra. Spazio, energia e manutenzione sono le chiavi. Chi ha il miglior compromesso vince.

[quote=cdimauro;41795293]D'altra parte è bene notare che di Maxwell ancora non si parla, mentre nVidia ha presentato questa scheda basata su due core... Kepler. Magari il perché ce lo potrà spiegare qualche "bambino nutelloso"...[/quoyte]
Dai su, non fare il bambino nutelloso. Di Maxwell non si parla forse perché Maxwell con capacità DP per ora non esiste. D'altrode ciò non nega il fatto che il GK110 con un PP più vecchio sia più efficiente della soluzione Intel.
Quando avremo anche full Maxwell, vedremo il confronto. Sappiamo bene che a Intel piace paragonare i suoi prodotti futuri con quelli vecchi della concorrenza per farli sembrare interessanti.
Peccato che questo giro non ci sia riuscita (*).

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Intel è talmente strozzata che...
Perde un miliardo a trimestre per tentare di lanciare i suoi Atom nel mobile, non riesce a satuare la produzione a 14nm prevista, mentre nel mondo si vendono 2 miliardi di chip ARM e ci sono fonderie create apposta per realizzare solo SoC ARM.
L'innovazione Intel si chiama "processo produttivo". Punto. Sono 6 anni o più che Intel non ha nulla di nuovo da mettere sul piatto, e l'andamento delle prestazioni dei suoi processori ne sono la testimonianza.
Poi non ho capito cosa mi hai linkato... stai dicendo che gli ARM non sono pronti a sostituire gli Xeon dei grandi server come quelli di Amazon? Caspita, che novità. Che perspicacia. Che notizia bomba!
I 64 bit per ARM sono nati ieri, ci mancherebe che fossero già all'altezza degli Xeon (e non parlo solo di pure prestazioni).
Ma ti sei dimenticato che ci sono alcune compagnie che stanno creando chip per server ad hoc per i propri data center. Cosa che fino a pochi ani fa era impensabile. E che qualcun altro sta investendo in chip general purpose per server basati su archiettura ARM. Qualsiasi sia il successo di questi prodotti saranno sempre quote rubate a quello che oggi è il monopolio Intel.
E poi non dimenticare che i server Amazon funzionano sì con le CPU intel ma dietro hanno circa 10.000 GPU nvidia. Se il vero carico di lavoro è posto su queste, una futura CPU ARM con nvlink potrebbe essere un grattacapo per Intel anche con i server Amazon. Cerca di guardare al futuro.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Al momento i 14nm sono più che sufficienti, considerato che la concorrenza annaspa. Ma in ogni caso i 10nm rimangono in roadmap.
Al momento, un anno dopo la presunta data di lancio, dei 14nm neanche l'ombra. Non eri tu che dicevi che i 14nm erano in perfetta roadmap? Sì, certo, credici che i 10nm sono in roadmap. Se per roadmap intendi che rimangono nel grafico delle strategie future di Intel, sicuramente ci sono e si faranno.
Ma con quello che Intel ha perso con i 14nm, prima di recuperare gli investimenti ci vorrà molto più del previsto. Sempre che questi 14nm funzionino a dovere, perché sembra che vi sia qualche problema a farli partire a regime... un anno dopo. E i costi non sembrano proprio (ancora) alla portata di contrastare la produzione a 20nm dei SoC ARM.
E intanto gli altri non stanno a guardare... la concorrenza, quella che dici tu, oggi non è più solo la povera AMD che è alla frutta. Si chiama ARMata, che non è una minuscola azienda inglese che progetta circuiti intergrati, si chiama Apple, Samsung, Qualcomm, AMD, nvidia e le fonderie che prosperano con la vendita dei SoC ARM. Fonderie che non stanno affatto annaspando come negli anni precedenti. L'esplosione del mercato ARM ha permesso la creazione di un mercato parallelo a quello x86 che deprimeva tutto ciò che non ruotava intorno ad Intel/x86. E infatti abbiamo un processo produttivo creato solo ed esclusivamente per fare SoC ARM o comunque integrati a basso consumo. Che vuol dire che la richiesta e il rendimento è alto. Come se domani Intel decidesse di fare i 10nm solo per produrre solo ed esclusivamente i suoi Atom perché sa che così trarrebbe maggior profitto che ad investire su un processo in grado anche di fargli fare Xeon da 15 core a 3Ghz. Impensabile, viste le cifre in gioco (di costi da una parte e di pezzi vendibili dall'altra).
Come vedi i costi e le richieste di mercato sono cambiate negli ultimi anni e i 14nm che tu ritieni "suufficienti perché gli altri annaspano" rimangono troppo costosi proprio per il mercato in cui Intel vorrebbe entrare e probabilmente insuffienti a darle il gap necessario per competere con i 16nm Finfet l'anno prossimo. Poi vedremo come andranno le cose, ma non scommetterei al buio oggi sulle capacità competitive di Intel nel medio periodo come lo avrei potuto fare 10 anni fa. Per quanto i 14, 10, 8, 6 nm siano possibili a fronte di investimenti stratosferici, quello che non funziona più in questo ciclo che ha mantenuto in piedi l'azienda fino ad oggi è che il costo dei prodotti non diminuisce più come prima, anzi. E il numero di unità vendute non aumenta più ogni anno come ai bei tempi del boom dove faceva il bello e il cattivo tempo contro una concorrenza inadeguata.

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
Infatti l'ha capito così bene che... Cell è morto.
Il Cell è stato un processore rivoluzionario. Il suo problema non erano certo le prestazioni, i consumi o i costi di produzione (viste le esigue dimensioni).
E' però stato un processore non adatto alla programmazione come siamo abituati a farla. Ciò non toglie che ha dimostrato che piccole unità avanzate dedicate per il calcolo sono irraggiungibili per efficienza rispetto alle mastodontiche unità general purpose che Intel ci ha propinato fino a oggi (e continua a propinare).

Quote:
Originariamente inviato da cdimauro Guarda i messaggi
E POWER è messa così bene che... ha dovuto creare un consorzio per cercare aiuto per lo sviluppo. D'altra parte che quest'architettura sia in declino lo hanno detto pure loro, qualche mese fa, indicando in ARM e... proprio Intel quali le cause d'erosione di questo mercato.
Stai confondendo le caratteristiche avanzate di una architettura con la sua diffusione. Intel ha ucciso molte altre archietture superiori alla sua grazie alla sola capacità produttiva (che non ha nulla a che fare con la bontà dell'archiettura). L'architettura Power è usata in un ambito ben specifico, là dove ancora trova senso provare a fare degli investimenti. Purtroppo il mercato è piccolo in volumi in quel settore e i costi per chi non ha altri "sbocchi" sono immensi. Sempre la solita questione che la "potenza" di Intel va ben oltre al suo effettivo valore. E' in posizione dominante e ha grandi capacità di trarne particolare vantaggio.

Ed è per questo che l'accordo di licenza con nvidia apre una nuova porta (e speranza) a IBM. Come può portare nuova motivazione per l'adozione anche di ARM nel medesimo segmento. Segmento, quello dell'uso di acceleratori ad-hoc extra CPU, in rapida adozione.
Quello che volevo far notare è come invece Intel in questi anni, dopo la "cacciata" di nvidia dal mercato chipset, si sia sempre più chiusa in sé stessa e non vuole aprire la porta a terzi in nessun caso.
Il motivo può essere duplice: o si sente così forte da voler capitalizzare al massimo i rendimenti dovuti alle sole proprie capacità, oppure si sente minacciata e sa che ogni minima apertura è una crepa che può diventare una falla irreparabile (se apri ad un bus con condivisione di memoria e crei la possibilità di avere schede terze capaci di far sfiguare la tua enorme e costosa e poco efficiente CPU hai aperto la porta alla tua fine).

(*) Notizia di ieri che saranno proprio IBM e nvidia a costruire quello che probabilmente saranno i due super computer più potenti al mondo nel 2016. Probabilmente la promessa di queste due aziende di maggiore efficienza, dovuta alla storia precedente e alle tecnologie future, è più valida di quella di Intel, che sono anni che promette la rivoluzione nei vari campi ma, come è sempre stato, anche con un PP di vantaggio, riesce a malapena a concorrere. Forse la salveranno ancora una volta i Cinesi che dopo aver fatto un server basato su HD4780 senza ECC ed essere passati alle Xeon Phi, forse il prossimo giro potranno usare i SoC cinesi Rockchip con tecnologia x86 come da ultimi accordi (o sovvenzioni)
E' una battuta, eh, dai, non prendertela. Intel ti pagherà lo stipendio ancora per molto tempo, non ti preoccupare, non chiuderà battenti domani.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2014, 15:17   #13
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 6500
Quote:
Originariamente inviato da PhoEniX-VooDoo Guarda i messaggi
ma al netto delle frequenze e del quantitativo di memoria, cosa cambia tra una Titan-Z ed una K80?
cambia proprio il chip, la titan si basa su GK110 mentre questa sul nuovo GK210
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2014, 15:24   #14
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 6500
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Altra cosa interessante è l'impegno che IBM sta mettendo nel creare il vero calcolo ibrido con la sua architettura Power. Dall'esperienza del Cell (e dall'efficienza enorme mostrata dal RoadRunner) deve aver capito che le unità di calcolo dedicate sono molto meglio di unità di elaborazione general purpose quando la CPU è destinata ad un determinato uso (il calcolo, appunto, non a far girare l'interfaccia del SO).i.
veramente il RoadRunner è stato spento definitamente nel 2013 perche era l'HPC meno efficiente in classifica (parlando dei primi ovviamente) ormai superato da tutti gli altri HPC intel amd o ibridi. Quel sistema era potente all'inizio ma poi IBM ha subito un completo declino e praticametne è sparito da tutti i priogetti di HPC negli ultimi anno. Ora ci risprova solo perche sta preparando il nuovo power 8 ma per ora è messa davvero male.
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2014, 15:26   #15
PhoEniX-VooDoo
Bannato
 
L'Avatar di PhoEniX-VooDoo
 
Iscritto dal: Nov 2000
Messaggi: 15499
Quote:
Originariamente inviato da coschizza Guarda i messaggi
cambia proprio il chip, la titan si basa su GK110 mentre questa sul nuovo GK210
ah, quindi Titan e K40 sono entrambe basate su GK110, mentre Titan-Z e K80 differiscono per il fatto che nonostante entrambe siano basate su Kepler, la prima usa 2xGK110 mentre la seconda 2xGK210.

2 domande

- sempre in ambito test, Titan e K40 sono paragonabili a livello di performance in DP?
- cosa cambia da GK110 a GK210?
PhoEniX-VooDoo è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2014, 15:33   #16
coschizza
Senior Member
 
Iscritto dal: May 2004
Messaggi: 6500
Quote:
Originariamente inviato da PhoEniX-VooDoo Guarda i messaggi
ah, quindi Titan e K40 sono entrambe basate su GK110, mentre Titan-Z e K80 differiscono per il fatto che nonostante entrambe siano basate su Kepler, la prima usa 2xGK110 mentre la seconda 2xGK210.

2 domande

- sempre in ambito test, Titan e K40 sono paragonabili a livello di performance in DP?
- cosa cambia da GK110 a GK210?
a meta review trovi un riassunto sulle differenze principali

http://www.anandtech.com/show/8729/n...-k80-gk210-gpu
coschizza è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2014, 15:37   #17
PhoEniX-VooDoo
Bannato
 
L'Avatar di PhoEniX-VooDoo
 
Iscritto dal: Nov 2000
Messaggi: 15499
Quote:
Originariamente inviato da coschizza Guarda i messaggi
a meta review trovi un riassunto sulle differenze principali

http://www.anandtech.com/show/8729/n...-k80-gk210-gpu
stavo andando ad editare il post dicendo che ho trovato le info
PhoEniX-VooDoo è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2014, 16:58   #18
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 3287
Quote:
Originariamente inviato da coschizza Guarda i messaggi
veramente il RoadRunner è stato spento definitamente nel 2013 perche era l'HPC meno efficiente in classifica (parlando dei primi ovviamente) ormai superato da tutti gli altri HPC intel amd o ibridi. Quel sistema era potente all'inizio ma poi IBM ha subito un completo declino e praticametne è sparito da tutti i priogetti di HPC negli ultimi anno. Ora ci risprova solo perche sta preparando il nuovo power 8 ma per ora è messa davvero male.
Il RoadRunner è un progetto del 2003 realizzato in 3 fasi. Logico che nel 2013, dieci anni dopo, non può competere con le nuove archietture con 3 o 4 pp più avanzati. E ci mancherebbe altro. Nel 2009 quando ha battuto il muro del Petaflop era il server con la migliore efficienza. Consumava 1/2 del Server HPC più vicino (e più lento) in termini di prestazioni. E montava ancora i chip AMD, non propriamente i più efficienti. Il Cell quindi è stato rivoluzionario sotto il punto di vista dell'efficineza computazionale, dimostrando che non serve avere una CPU super mega complessa e monolitica per avere alte prestazioni ma serve avere unità di calcolo dedicate che possono essere indipendenti dalla CPU principale.
Dopo le GPU pure Intel c'è arrivata alla stessa conclusione. Peccato ce ancora non abbia capito che la parte x86 non serve (ma come detto, non le è possibile aprire uno spiraglio usando un bus "aperto" verso gli altri direttamente dalla CPU principale, equivarrebbe ad aprirsi la bara da sola).
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 18-11-2014, 23:54   #19
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Eccolo, ci mancava. Basta pronunciare la parola Intel e voilà, eccolo che spunta come un paladino in difesa della sua donzella.
Dovresti saperlo / immaginarlo, no?
Quote:
Sicoome sono sistemi che scalano quasi linearmente, se ho bisogno di avere il dato prima possibile aggiungo quante più schede di calcolo posso.
Il problema è proprio quel posso. Tutti i sistemi di calcolo sono costruiti per avere i dati il prima possibile. Sempre. Comunque. Altrimnti non si investirebbero centinaia di milioni di dollari in centinaia di migliaia di nodi e in MW di potenza. Il problema sono i limiti che questo "quanto prima" incontra. Spazio, energia e manutenzione sono le chiavi. Chi ha il miglior compromesso vince.
Se fosse come dici esisterebbe UNA sola soluzione adottata da tutti, e scalata a seconda delle esigenze. Non mi pare che sia così, e questo proprio perché scalare un sistema non è affatto semplice e le prestazioni non aumentano linearmente.
Quote:
Dai su, non fare il bambino nutelloso. Di Maxwell non si parla forse perché Maxwell con capacità DP per ora non esiste.
E magari non esisterà, visto che finora nelle slide si vedono soltanto Kepler e Pascal...
Quote:
D'altrode ciò non nega il fatto che il GK110 con un PP più vecchio sia più efficiente della soluzione Intel.
Quest'affermazione l'avevi già fatta mesi fa in un altro thread, a cui ho risposto riportando link e informazioni che la smentiscono. Discussione a cui non hai più partecipato.

Adesso torni nuovamente alla carica sullo stesso argomento. Non mi pare intellettualmente onesto.
Quote:
Quando avremo anche full Maxwell, vedremo il confronto. Sappiamo bene che a Intel piace paragonare i suoi prodotti futuri con quelli vecchi della concorrenza per farli sembrare interessanti.
Peccato che questo giro non ci sia riuscita (*).
Anche su questo vale quanto detto sopra: altra affermazione smentita e che riporti nuovamente a galla.
Quote:
Perde un miliardo a trimestre per tentare di lanciare i suoi Atom nel mobile, non riesce a satuare la produzione a 14nm prevista,
Quest'informazione da dove l'hai presa?
Quote:
mentre nel mondo si vendono 2 miliardi di chip ARM e ci sono fonderie create apposta per realizzare solo SoC ARM.
L'innovazione Intel si chiama "processo produttivo". Punto. Sono 6 anni o più che Intel non ha nulla di nuovo da mettere sul piatto, e l'andamento delle prestazioni dei suoi processori ne sono la testimonianza.
In 6 anni abbiamo visto l'arrivo delle AVX, delle AVX2, delle estensioni per l'hashing, e l'accelerazione di primitive di spostamento dati. Il prossimo anno arriveranno le AVX-512.

Direi che di carne al fuoco Intel ne ha messa e ne continuerà a mettere ancora, qualunque sparata tu possa fare in merito.
Quote:
Poi non ho capito cosa mi hai linkato... stai dicendo che gli ARM non sono pronti a sostituire gli Xeon dei grandi server come quelli di Amazon? Caspita, che novità. Che perspicacia. Che notizia bomba!
Non lo dico io, ma il responsabile del data center di Amazon.
Quote:
I 64 bit per ARM sono nati ieri, ci mancherebe che fossero già all'altezza degli Xeon (e non parlo solo di pure prestazioni).
La nuova architettura ARMv8 non ha nulla a che vedere riguardo all'utilizzo di un processore ARM in ambito server, tolta la possibilità di indirizzare più di 4GB di memoria "in maniera agevole" e le prestazioni mediamente migliore dovute alla nuova ISA.

Infatti esistono già da tempo (micro) server basati su ARM, ma che non hanno sfondato.

Dunque il fatto che ARMv8 sia una nuova architettura lascia il tempo che trova (anche perché tanto nuova non è ormai).
Quote:
Ma ti sei dimenticato che ci sono alcune compagnie che stanno creando chip per server ad hoc per i propri data center. Cosa che fino a pochi ani fa era impensabile. E che qualcun altro sta investendo in chip general purpose per server basati su archiettura ARM. Qualsiasi sia il successo di questi prodotti saranno sempre quote rubate a quello che oggi è il monopolio Intel.
Non c'è nessun monopolio, ma una posizione dominante.

Comunque la divisione server di Intel continua a crescere, e dunque più che di rubare quote di mercato a Intel sono gli altri produttori di soluzioni server che si stanno vedendo mancare il terreno da sotto i piedi...
Quote:
E poi non dimenticare che i server Amazon funzionano sì con le CPU intel ma dietro hanno circa 10.000 GPU nvidia. Se il vero carico di lavoro è posto su queste, una futura CPU ARM con nvlink potrebbe essere un grattacapo per Intel anche con i server Amazon. Cerca di guardare al futuro.
Il futuro non c'entra nulla. Bisogna guardare a come funziona un data center, un server, e magari avere un briciolo di esperienza di programmazione per capire l'utilizzo di una GPU in quest'ambito è e sarà nettamente ridotto rispetto a quello della CPU. Ciò non vuol dire che le GPU non abbiano motivo di essere utilizzate; sicuramente ci saranno scenari in cui eccellono (ad esempio lo scaling di un'immagine), ma il punto è che in generale si tratta di pochi scenari rispetto a quelli "più generali" dove è la CPU lo strumento principe per l'elaborazione.

Di fatti, e senza nemmeno avere queste conoscenze, il solo fatto che ci siano soltanto 10 mila GPU (SE ci sono) rispetto alle centina di migliaia di CPU utilizzate è una chiara prova / indicazione di come vanno realmente le cose.
Quote:
Al momento, un anno dopo la presunta data di lancio, dei 14nm neanche l'ombra. Non eri tu che dicevi che i 14nm erano in perfetta roadmap?
Esattamente.
Quote:
Sì, certo, credici che i 10nm sono in roadmap. Se per roadmap intendi che rimangono nel grafico delle strategie future di Intel, sicuramente ci sono e si faranno.
Ma con quello che Intel ha perso con i 14nm, prima di recuperare gli investimenti ci vorrà molto più del previsto. Sempre che questi 14nm funzionino a dovere, perché sembra che vi sia qualche problema a farli partire a regime... un anno dopo.
Considerato che Intel continua a guadagnare quote di mercato, non credo che avrà difficoltà a recuperare dagli investimenti per i 14nm.
Quote:
E i costi non sembrano proprio (ancora) alla portata di contrastare la produzione a 20nm dei SoC ARM.
E quando sarebbe partita la produzione di SoC ARM a 20nm?
Quote:
E intanto gli altri non stanno a guardare... la concorrenza, quella che dici tu, oggi non è più solo la povera AMD che è alla frutta. Si chiama ARMata, che non è una minuscola azienda inglese che progetta circuiti intergrati, si chiama Apple, Samsung, Qualcomm, AMD, nvidia e le fonderie che prosperano con la vendita dei SoC ARM. Fonderie che non stanno affatto annaspando come negli anni precedenti.
A no? Allora potresti cortesemente farmi sapere come sono messe coi nuovi processi produttivi? Perché non mi pare che le più recenti notizie in merito siano un loro segno di floridità.
Quote:
L'esplosione del mercato ARM ha permesso la creazione di un mercato parallelo a quello x86 che deprimeva tutto ciò che non ruotava intorno ad Intel/x86. E infatti abbiamo un processo produttivo creato solo ed esclusivamente per fare SoC ARM o comunque integrati a basso consumo. Che vuol dire che la richiesta e il rendimento è alto. Come se domani Intel decidesse di fare i 10nm solo per produrre solo ed esclusivamente i suoi Atom perché sa che così trarrebbe maggior profitto che ad investire su un processo in grado anche di fargli fare Xeon da 15 core a 3Ghz. Impensabile, viste le cifre in gioco (di costi da una parte e di pezzi vendibili dall'altra).
Come vedi i costi e le richieste di mercato sono cambiate negli ultimi anni e i 14nm che tu ritieni "suufficienti perché gli altri annaspano" rimangono troppo costosi proprio per il mercato in cui Intel vorrebbe entrare e probabilmente insuffienti a darle il gap necessario per competere con i 16nm Finfet l'anno prossimo.
Fammi capire: i 14nm sarebbero inutili e costosi, ma soltanto per Intel, giusto? Allora non si capisce perché le altre fonderie stiano facendo sforzi enormi per arrivare ai 16nm, o addirittura puntino ai 10nm. Sarà una follia generalizzata.
Quote:
Poi vedremo come andranno le cose, ma non scommetterei al buio oggi sulle capacità competitive di Intel nel medio periodo come lo avrei potuto fare 10 anni fa.
Solo di Intel? Bah...
Quote:
Per quanto i 14, 10, 8, 6 nm siano possibili a fronte di investimenti stratosferici, quello che non funziona più in questo ciclo che ha mantenuto in piedi l'azienda fino ad oggi è che il costo dei prodotti non diminuisce più come prima, anzi. E il numero di unità vendute non aumenta più ogni anno come ai bei tempi del boom dove faceva il bello e il cattivo tempo contro una concorrenza inadeguata.
Sono investimenti sostenuti da tutte le fonderie che contano, perché i vantaggi, evidentemente, ci sono a ridurre ancora le dimensioni dei transistor. Ma magari tu ne sai più di ingegneri e fisici, e potrai spiegare a TSMC, Samsung, e Globalfoundries che è molto meglio rimanere coi processi attuali...
Quote:
Il Cell è stato un processore rivoluzionario. Il suo problema non erano certo le prestazioni, i consumi o i costi di produzione (viste le esigue dimensioni).
Cell era un catorcio già all'epoca. E i suoi problemi erano proprio le prestazioni, i consumi, e i costi di produzione dovuti proprio all'enorme superficie del chip.

Se cerchi qui, proprio in questa sezione, troverai discussioni in merito già da ben prima che venisse presentato, e in cui ciò che fu scritto si è poi puntualmente verificato.

Cell va benissimo in ambiti di tipo DSP-like, ma non era certo un buon processore da infilare in una console o da pensare di essere usato in ambito desktop o server. Infatti è defunto.
Quote:
E' però stato un processore non adatto alla programmazione come siamo abituati a farla. Ciò non toglie che ha dimostrato che piccole unità avanzate dedicate per il calcolo sono irraggiungibili per efficienza rispetto alle mastodontiche unità general purpose che Intel ci ha propinato fino a oggi (e continua a propinare).
Forse perché gli ambiti applicativi sono totalmente diversi? Vedi sopra e, soprattutto, i vecchi thread in questa sezione.
Quote:
Stai confondendo le caratteristiche avanzate di una architettura con la sua diffusione. Intel ha ucciso molte altre archietture superiori alla sua grazie alla sola capacità produttiva (che non ha nulla a che fare con la bontà dell'archiettura).
Di questo se n'è parlato di recente (il thread della recente condanna a Intel per la causa collettiva che le era stata intentata da alcuni acquirenti dei Pentium 4), e ho postato dei link a riguardo che dimostrano l'esatto contrario.
Quote:
L'architettura Power è usata in un ambito ben specifico, là dove ancora trova senso provare a fare degli investimenti. Purtroppo il mercato è piccolo in volumi in quel settore e i costi per chi non ha altri "sbocchi" sono immensi. Sempre la solita questione che la "potenza" di Intel va ben oltre al suo effettivo valore. E' in posizione dominante e ha grandi capacità di trarne particolare vantaggio.
Peccato che la TOP500 dimostri un'altra realtà. Ma ne parlo meglio dopo.
Quote:
Ed è per questo che l'accordo di licenza con nvidia apre una nuova porta (e speranza) a IBM. Come può portare nuova motivazione per l'adozione anche di ARM nel medesimo segmento. Segmento, quello dell'uso di acceleratori ad-hoc extra CPU, in rapida adozione.
Quello che volevo far notare è come invece Intel in questi anni, dopo la "cacciata" di nvidia dal mercato chipset, si sia sempre più chiusa in sé stessa e non vuole aprire la porta a terzi in nessun caso.
Il motivo può essere duplice: o si sente così forte da voler capitalizzare al massimo i rendimenti dovuti alle sole proprie capacità, oppure si sente minacciata e sa che ogni minima apertura è una crepa che può diventare una falla irreparabile
Personalmente sono dell'idea che il mercato dei processori è libero, e ognuno può crearsene uno proprio. Se a Intel piace tenersi stretta la propria architettura e le sue tecnologie, fa benissimo, qualunque siano i motivi.
Quote:
(se apri ad un bus con condivisione di memoria e crei la possibilità di avere schede terze capaci di far sfiguare la tua enorme e costosa e poco efficiente CPU hai aperto la porta alla tua fine).
Questo della poca efficienza è un mantra che continui a ripetere da tempo, ma di cui "stranamente" non riporti fatti a supporto, nonostante le passate richieste.
Quote:
(*) Notizia di ieri che saranno proprio IBM e nvidia a costruire quello che probabilmente saranno i due super computer più potenti al mondo nel 2016. Probabilmente la promessa di queste due aziende di maggiore efficienza, dovuta alla storia precedente e alle tecnologie future, è più valida di quella di Intel, che sono anni che promette la rivoluzione nei vari campi ma, come è sempre stato, anche con un PP di vantaggio, riesce a malapena a concorrere. Forse la salveranno ancora una volta i Cinesi che dopo aver fatto un server basato su HD4780 senza ECC ed essere passati alle Xeon Phi, forse il prossimo giro potranno usare i SoC cinesi Rockchip con tecnologia x86 come da ultimi accordi (o sovvenzioni)
Checché tu ne dica, la realtà dice che:
- l'86% dei supercomputer nella TOP500 fa uso di processori Intel (bada bene: non ho considerato AMD);
- il 97% delle nuove entrate fa uso di processori Intel;
- il 17% dei supercomputer fa uso di processori di Xeon Phi.

Dati ufficiali, ovviamente. Con buona pace dei gufi...
Quote:
E' una battuta, eh, dai, non prendertela. Intel ti pagherà lo stipendio ancora per molto tempo, non ti preoccupare, non chiuderà battenti domani.
Vedi sopra: non c'è motivo di preoccupazione.

Sarebbe interessante, invece, capire cosa ci guadagni un pinco pallino qualsiasi a lanciare "campagne d'odio" e di disinformazione nei confronti di aziende "nemiche", fino al punto di farsi sputtanare pubblicamente (vabbé, l'anonimato dei nick è molto comodo per coprirsi le spalle).

Ma magari lo scopriremo su Kazzenger...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 19-11-2014, 00:01   #20
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26107
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Il RoadRunner è un progetto del 2003 realizzato in 3 fasi. Logico che nel 2013, dieci anni dopo, non può competere con le nuove archietture con 3 o 4 pp più avanzati. E ci mancherebbe altro. Nel 2009 quando ha battuto il muro del Petaflop era il server con la migliore efficienza. Consumava 1/2 del Server HPC più vicino (e più lento) in termini di prestazioni. E montava ancora i chip AMD, non propriamente i più efficienti. Il Cell quindi è stato rivoluzionario sotto il punto di vista dell'efficineza computazionale, dimostrando che non serve avere una CPU super mega complessa e monolitica per avere alte prestazioni ma serve avere unità di calcolo dedicate che possono essere indipendenti dalla CPU principale.
Allora non si capisce perché sia stato abbandonato da TUTTI i suoi creatori, quando avrebbero potuto riproporlo benissimo con processi produttivi aggiornati (come peraltro hanno fatto, finché l'hanno tenuto in vita).
Quote:
Dopo le GPU pure Intel c'è arrivata alla stessa conclusione.
Scusami, cos'avrebbe fatto Intel? A me pare, invece, che abbia deciso di puntare su una moltitudine di core "megacomplessi" (poi mi fornirai una dimostrazione di questa "megacomplessità", anche se te l'ho già chiesto tempo fa e aspetto ancora una risposta, tanto per cambiare) e "monolitici" (cosa intendi con ciò riguardo a una CPU non è affatto chiaro; sarebbe utile quanto meno una definizione).
Quote:
Peccato ce ancora non abbia capito che la parte x86 non serve
Cosa esattamente non servirebbe, e perché?
Quote:
(ma come detto, non le è possibile aprire uno spiraglio usando un bus "aperto" verso gli altri direttamente dalla CPU principale, equivarrebbe ad aprirsi la bara da sola).
Altra cosa tutt'altro che chiara. Quale bus "chiuso" utilizzerebbe Intel? Quali problemi creerebbe alla concorrenza? E cosa dovrebbe utilizzare, invece?

Vediamo se qualche risposta, possibilmente con qualche fondamento tecnico, la fornirai finalmente, perché ti capisci solo tu.
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


NVIDIA Blackwell B200: due chip in uno per rivoluzionare l'intelligenza artificiale NVIDIA Blackwell B200: due chip in uno per rivol...
HP Envy Move, un PC All-In-One con la batteria che si può spostare facilmente HP Envy Move, un PC All-In-One con la batteria c...
MSI MPG 321URX QD-OLED: un monitor completo per i giocatori MSI MPG 321URX QD-OLED: un monitor completo per ...
realme 12 Pro+ 5G: un potente mid-range con teleobiettivo sotto i 400 euro. La recensione realme 12 Pro+ 5G: un potente mid-range con tele...
Fujifilm Simulazione Pellicola – Guida all'uso Fujifilm Simulazione Pellicola – Guida all'uso
Dell amplia la collaborazione con NVIDIA...
Elon Musk parla nuovamente delle future ...
Comedy Wildlife Photography Awards: Niko...
realme: il 2024 è l'anno della co...
Salesforce: è iniziata la migrazi...
Sony Xperia 1 VI: addio al display 4K e ...
Il proprietario di Epic Games insult&ogr...
iliad aggiunge il roaming gratuito negli...
Amazon svende alcuni NAS decisamente int...
Hertz cambia rotta: il CEO dell'azienda ...
Microsoft promette: 'Copilot sarà...
ASUS annuncia la disponibilità in...
HPE GreenLake for File Storage si aggior...
Sony avrebbe interrotto la produzione di...
Ecco una wallbox completa e versatile, a...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 07:33.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Served by www1v
1