View Full Version : Da una immagine del die nuove info sulle GPU AMD Vega
Redazione di Hardware Upg
06-06-2017, 08:21
Link alla notizia: http://www.hwupgrade.it/news/cpu/da-una-immagine-del-die-nuove-info-sulle-gpu-amd-vega_69136.html
L'annuncio di Apple delle nuove soluzioni iMac Pro, assieme ad una immagine del die della GPU fornita da AMD, permettono di ricavare ulteriori informazioni sulla prossima generazione di GPU AMD top di gamma
Click sul link per visualizzare la notizia.
Sino a quando non si vedranno i bench questi discorsi sono aria fritta
goku4liv
06-06-2017, 09:07
ormai amd nel settore gpu è indietro anni luce rispetto a nvidia
CrapaDiLegno
06-06-2017, 09:52
Diciamo che è in ritardo. Grande ritardo.
Se Vega sarà una buona architettura, come da presupposti, allora non è detto che un cambio di strategia con Navi possa riportare AMD in carreggiata.
Ad AMD serve migliorare notevolmente l'efficienza computazionale della sua architettura in modo che possa fare chip più piccoli e meno energivori. A quel punto potrà fare concorrenza per davvero, invece che usare Golia contro di Davide di nvidia e sperare che siano i programmatori ad usare tecniche astruse per migliorare leggermente la sua di efficienza.
Se mantengono le promesse con Vega dove sembra che le frequenze si siano alzate con consumi sotto controllo significa che sono sulla buona strada (HBM a parte che è stata una scommessa che si è rivelata perdente per ben 2 generazioni, quindi per la prossima e terza volta si spera che abbiano capito).
giovanbattista
06-06-2017, 10:10
AMD stated that the die-shot appeared in one of its marketing slides, but may not be real.
pingalep
06-06-2017, 10:15
scusate ma io dai bench di prestazione per bitcoin opencl e simila vedo chip amd con molti più transistor e capacità di calcolo molto più elevate a parità di costo.
i chip nvidia 9*0 che guardavo per un possibile acquisto costavano di più consumavano meno ma avevano anche molti meno transistor e capacità di calcolo pura. nvidia si è fatta bene i conti e ha deciso che andava bene così perchè i giochi non sfruttano molta potenza e molte delle possibilità di accelerazione hardware, ma io ho scelto amd proprio perchè con opencl lavora molto meglio. per lo meno sotto i 200 euro
Ad AMD serve migliorare notevolmente l'efficienza computazionale della sua architettura in modo che possa fare chip più piccoli e meno energivori.
non è un problema, nel 2017.
quando nvidia deciderà di usare anche lei AC/ACE (sotto forma dei suoi tensor core, probabilmente), il die delle sue soluzioni crescerà del 30% e parallelamente anche il consumo, sempre a parità di PP.
finchè non scenderanno a 10nm credo che non avremmo modo di vedere Volta sulle GTX, perchè devono appunto compensare la maggiore complessità con la riduzione garantita dal PP.
il grande vantaggio lo otterrà in DX12, dove non sarà piu' limitata dalle CPU.
una Ti a basse risoluzioni è piu' strozzata di un pollo a cui tirano il collo; solo in un paio di giochi, realmente pesanti graficamente, mantiene linearità sulle risoluzioni superiori.
a meno chè Intel non faccia CPU da 7Ghz la strada è solo quella, e quella strada significa aumentare la complessità e quindi la dimensione ed i consumi.
quindi, come al solito, AMD non deve imparare nulla, ma magari insegna.
CrapaDiLegno
06-06-2017, 12:36
non è un problema, nel 2017.
quando nvidia deciderà di usare anche lei AC/ACE (sotto forma dei suoi tensor core, probabilmente), il die delle sue soluzioni crescerà del 30% e parallelamente anche il consumo, sempre a parità di PP.
finchè non scenderanno a 10nm credo che non avremmo modo di vedere Volta sulle GTX, perchè devono appunto compensare la maggiore complessità con la riduzione garantita dal PP.
il grande vantaggio lo otterrà in DX12, dove non sarà piu' limitata dalle CPU.
una Ti a basse risoluzioni è piu' strozzata di un pollo a cui tirano il collo; solo in un paio di giochi, realmente pesanti graficamente, mantiene linearità sulle risoluzioni superiori.
a meno chè Intel non faccia CPU da 7Ghz la strada è solo quella, e quella strada significa aumentare la complessità e quindi la dimensione ed i consumi.
quindi, come al solito, AMD non deve imparare nulla, ma magari insegna.
Eh? Ma che stai dicendo?
ACE con i tensor core? Ma lo sai almeno che cosa è l'Async computing e a che cosa serve? Mi sa di no.
E soprattutto, è evidente che non sai cosa siano i tensor core e dove siano messi.
Tutto il resto del ragionamento purtroppo fa acqua partendo da questa inutile affermazione che hai fatto.
In primis il tanto elogiato Async Computing non è altro che una tecnica per cercare di aumentare l'efficienza computazionale. Guardala come vuoi, ma non fa nulla che non si possa fare in altra maniera con architettura diversa che è già efficiente da parte sua. Il guadagno che dà, secondo quanto vediamo anche dagli esercizi di stile che ne abusano abbondantemente è di qualche punto percentuale. Diciamo il 20%?
La complessità che è necessaria per avere questo "pazzesco" aumento di capacità computazionale è più elevata del mettere il 20% di ALU in più o di aumentare del 20% la frequenza. 2 cose che non richiedono ai programmatori di scrivere motori ad hoc per questa o quella configurazione che supporta questa o quella implementazione dell'Async (che non è uguale nemmeno sullo stesso HW di AMD).
Se vogliamo metterla in questione di ottimizzazione per questa o per quella architettura, allora non lamentiamoci se poi nvidia fa di tutto perché i motori grafici girino meglio sul suo di HW. Visto che a quanto pare è quello che voi fanboy vorreste che gli sviluppatori facessero per AMD (e di fatti qualcuno fa pagato da AMD stessa).
Di che Volta parli? Non so se te ne sei accorto, ma ad nvidia non serve un Volta per far fronte ad AMD che con suoi 14nm fa comunque chip più grandi e più energivori. Se metterà sul mercato Volta consumer è per superare la sua stessa offerta, non quella della concorrenza che è già indietro, e quindi non le serve davvero fare molto per lasciarla là dove è. Vega con l'ASync andrà il 20% in più.. aspett... nuova versione del GP104, il GV104, con il 20% di potenza computazionale in più, meno del 20% di aumento di dimensione del die, consumi ridotti (basta anche quello per migliorare) eh, o cacchio, Vega con la HBM2 e 550mm^2 è ancora dietro...
Vega va quanto il GP102? A beh.. aspettt.. GV102, 20% di ALU in più.. a no, forse basta solo il 20% di frequenza in più (tanto consumo meno comunque) e l'architettura nuova... e voilà... 12 mesi di ulteriore controllo del mercato sia professionale che consumer...
Ah, ma vedrete con Navi, i nuovi driver, le DX12 che saranno sempre più sfruttate (dove, chi? e sopratutto QUANDO??) le cose saranno diverse.
L'ho sentito con Mantle e c'era GCN1.1. Poi GCN1.2 (mittico Fiji...). Poi sono arrivate le DX12 e Polaris, che sarà la nuova architettura che schiaccerà il potere di nvidia (200mm^2 di chippetto tradizionale lo hanno affogato in meno 2 settimane.. ah, ma l'async... guarda l'async che le permette di andare uguale con 1TFLOPS di potenza in più! Ah, che miracolo l'Async.... o che m3rda l'efficienza dell'architettura AMD quando non è aiutata dai programmatori con soluzioni ottimizzate per lei). E ora è la volta di Vega (che è un super monster chip... bello vincere facile con 500mm^2, HBM2, 12 e rotti TFLOPS di potenza e dire che sarà l'Async quello che fa la differenza, vero?).
Dai su. Bello sognare ma guardiamo i fatti e la realtà.
Vega non sarà un problema. Per quanto è un chip che ha un costo fuori budget per il mercato consumer e venderlo lì per AMD vuol dire perdere soldi. Magari buono per i bench e i fanboy che potranno gridare la miracolo e al "te lo avevo detto che la Ferrari avrebbe battuto la Panda!". Quindi ce ne saranno davvero poche di Vega consumer. Che se necessario saranno asfaltate dal prossimo chippetto con GDDR6 di nvidia. O magari basterà ancora solo la GDDR5X.
tuttodigitale
06-06-2017, 13:56
Ma lo sai almeno che cosa è l'Async computing e a che cosa serve? Mi sa di no.
Non è il solo, me lo spiegheresti?
In primis il tanto elogiato Async Computing non è altro che una tecnica per cercare di aumentare l'efficienza computazionale.
esattamente, ma ancora mi manca cosa faccia....
Il guadagno che dà, secondo quanto vediamo anche dagli esercizi di stile che ne abusano abbondantemente è di qualche punto percentuale. Diciamo il 20%?
in che senso abusare?
La complessità che è necessaria per avere questo "pazzesco" aumento di capacità computazionale è più elevata del mettere il 20% di ALU in più o di aumentare del 20% la frequenza.
è noto che il punto debole di GCN sono gli shader....e che le latenze si riducano aumentando il numero degli stadi...
2 cose che non richiedono ai programmatori di scrivere motori ad hoc per questa o quella configurazione che supporta questa o quella implementazione dell'Async (che non è uguale nemmeno sullo stesso HW di AMD).
quindi l'Async usa codice particolare per singola GPU mentre lo scheduler della GPU è li solo come elemento di contorno. Buono a sapersi....
Dai su. Bello sognare ma guardiamo i fatti e la realtà..
e guardiamola sta realtà:
https://linustechtips.com/main/topic/254704-amds-hawaii-is-officially-the-most-efficient-gpgpu-in-the-world-to-date-tops-green500-list/
-amds hawaii is officially the most efficient gpgpu in the world
ormai amd nel settore gpu è indietro anni luce rispetto a nvidia
eh? guarda che la rx 570 è il best buy del mercato mainstream e la rx 580 da' punti alla gtx 1060 tanto che si sono affrettati a far uscire la versione con la banda di memoria a 9Gbps per recuperare qualcosa
CrapaDiLegno
06-06-2017, 15:06
Che ti stai inventado anche tu?
Ma qui è la fiera del fanboy clueless o cosa?
Quello là viene a parlare di Tensor Core x l'Async computing, tu che parli di most efficient computing e fai finta di non sapere cosa sia l'Async quando invece non lo sai davvero.
A parte che o controllato e al solito hai postato un link fuffa, dato che sul sito del top Green 500 il primo (e unico) server con AMD installato è in 32 posizione dietro a una decina di altri server che montano nvidia K20/40/80 (tutti GK110 based) e ha efficienza di meno di 3GFLOPS per W.
L'Async è quello che ho detto. AMD l'ha implementato a modo suo, e lo scheduler è solo una parte della funzionalità (per inciso, se non lo sai, pure nvidia ha lo scheduler nella GPU per quello che può servire all'Async Computing).
Non c'è scritto da nessuna parte né che è necessario (e già, non è una feature considerata necessaria per le DX12) né che debba essere fatta come l'ha fatta AMD. E sì, serve il supporto esplicito dei programmatori per usarle l'Async, non è una funzionalità trasparente e soprattutto richiede che sia "tunata" a seconda dell'HW su cui si svolge il calcolo, dato che sul mercato ci sono GPU con 2, 4 e 8 ACE con 2, 3, 4 e 8GB di RAM, che a quanto sembra sono utili al suo uso dato che le schede con meno memoria sono anche quelle che beneficiano meno della cosa.
E sì, ci sono engine che ne abusano, nel senso che ne fanno un uso massiccio e sono, guarda caso, quelli che fino a ieri erano usati per mostrare i grandi vantaggi di AMD (sto parlando di AoS) salvo poi metterlo in secondo piano quando si è visto che con un paio di ottimizzazioni nei driver nvidia raggiunge migliori prestazioni senza l'Async. E in DX11. E ovviamente non si fa mai riferimento ai motiri DX12 in cui AMD non trae benefici.. ah, quelli sono scritti con i piedi perché non sono ottimizzati esplicitamente come i motori di DICE.
I fatti, che non sono le sciocchezze che tu e quell'altro dite, sono quelli che mostrano che l'async è un aiuto marginale a quello che serve per davvero ad AMD per fare la differenza. Differenza che nonostante tutti i bla bla che avete fatto dal lancio di Mantle a oggi non si è proprio vista dato che alla fine nvidia con il chippetto da 200mm^2 tiene a bada più che degnamente il chip da 230mm^2 di AMD che deve essere cloccato oltre i 1400Mhz a consumare 240W per fare uguale o giusto poco meglio.
Se siete così fanboy da fermarvi a guardare solo ed esclusivamente le barrette colorate ed estrarre bandiere e vuvuzela quando la barretta rossa supera quella verde, be', siete davvero messi male. Quando capirete qualcosa e farete il conto di quello che sono le risorse usate dalle GPU AMD vs quelle usate dalle GPU nvidia, vi accorgerete che ad nvidia non serve fare rivoluzioni o costruire GPU immense o mettere ACE del cacchio per rimanere alla pari con GPU che costano di più: le basta colmare quel piccolo gap che AMD ottiene solo ed esclusivamente (e questo per ora è assodato) quando esegue motori che sono ottimizzati per la sua specifica architettura (e neanche su tutta la serie, visto che le GPU più scrause o quelle più vecchie non traggono gli stessi benefici se il gioco è ottimizzato per le ultime GPU con 8 ACE).
Aumentare le ALU o la frequenza dà invece sempre e comunque vantaggi, anche se i programmatori non sfruttano questa o quella libreria o si preoccupano di spendere ulteriore tempo a fare codice in iperthreading per aiutare l'inefficienza delle GPU AMD.
D'altronde è AMD che sta cercando si fare salti mortali con l'HBM in cerca di una soluzione che le dia finalmente un minimo vantaggio, dato che altrimenti non c'è alcuna speranza. Ci ha provato con Fiji, fallendo miseramente, ci sta riprovando con Vega che forse (ma forse) ha qualche speranza. Sempre che come ho detto, AMD sia riuscita ad aumentare l'efficienza computazionale al di là dell'uso dell'Async, perché altrimenti, tranne che nei soliti 4 giochi (che usano lo stesso motore ottimizzato), rimarrà sempre e comunque indietro rispetto al chip più economico sviluppato da nvidia.
Se non avete capito questo, mi spiace. Potete continuare a sventolare bandiere rosse con le scritte rivoluzionarie di AMD. Vedrete che prima o poi qualcosa di buono per AMD avverrà. Nel frattempo io mi sono stancato e ho comprato una 1070 che di promesse e di link a cose che non hanno alcun valore ormai ne ho collezionati a sufficienza.
CrapaDiLegno
06-06-2017, 15:12
eh? guarda che la rx 570 è il best buy del mercato mainstream e la rx 580 da' punti alla gtx 1060 tanto che si sono affrettati a far uscire la versione con la banda di memoria a 9Gbps per recuperare qualcosa
Ma ancora?? Ma bastaaaaa!!!!!
ma come puoi dire che è il best buy una scheda che consuma coma la 1070 per andare come una 0160 3GB?
Come fai a dire che la 580 è un concorrente della 1060 se usa una GPU più grande e consuma fino al doppio?? (240W vs 120)
E va uguale o poco meglio solo nei giochi che sonio ottimizzati per AMD? Altrimenti rimane ancora indietro? Ma che concorrenza credi che sia questa?
Ma che cosa stai confrontando? I prezzi? ma sì, se AMD scende ancora un po' fra un po' te le fa trovare nelle uova di Pasqua in regalo. Peccato solo 2 cose: che non ne vende comunque (il suo market share è sceso) e che alla fine del trimestre ha un buco di bilancio. Però, dai, forse se le regala diventano il best buy assoluto di tutti i tempi!
Ma siamo su un forum tecnico o di bambini dell'asilo che guardano solo Trovaprezzi prima di commentare?
Imparate a guardare i fatti nel loro complesso: i prezzi di nvidia non scendono, il che vuol dire che AMD non sta facendo il suo lavoro. PUNTO.
Ma ancora?? Ma bastaaaaa!!!!!
ma come puoi dire che è il best buy una scheda che consuma coma la 1070 per andare come una 0160 3GB?
Come fai a dire che la 580 è un concorrente della 1060 se usa una GPU più grande e consuma fino al doppio?? (240W vs 120)
E va uguale o poco meglio solo nei giochi che sonio ottimizzati per AMD? Altrimenti rimane ancora indietro? Ma che concorrenza credi che sia questa?
Ma che cosa stai confrontando? I prezzi? ma sì, se AMD scende ancora un po' fra un po' te le fa trovare nelle uova di Pasqua in regalo. Peccato solo 2 cose: che non ne vende comunque (il suo market share è sceso) e che alla fine del trimestre ha un buco di bilancio. Però, dai, forse se le regala diventano il best buy assoluto di tutti i tempi!
Ma siamo su un forum tecnico o di bambini dell'asilo che guardano solo Trovaprezzi prima di commentare?
Imparate a guardare i fatti nel loro complesso: i prezzi di nvidia non scendono, il che vuol dire che AMD non sta facendo il suo lavoro. PUNTO.
Per significato della parola "best buy" si riferisce al prezzo, e per il prezzo trovato su trovaprezzi e negli shop la rx 570 è il best buy https://goo.gl/bIQkL1
Per quanto riguarda i confronti tra la 1060 e la 580 ne ho visti a diecine e le due schede sono nel complesso vicinissime ma, per quanto preferisca la gtx per i motivi energetici di cui parli, ho dovuto ammettere che le performance pendono a favore della 580, se con le 9gbps hanno spostato di nuovo l'ago della bilancia a loro favore non lo so
last but not least: quello che devo imparare sono cazzi miei e non sei certo tu il professore che me lo spiega
@CrapaDiLegno
Accidenti, proprio non riesci a rispondere senza arroganza. Dici che gli altri sono fanboy, ma dalle tue parole trasuda una palese partigianeria. Eh si, le parole sono importanti, e dicono tanto.
Ora, tralasciando i post precedenti (non ho tempo di rispondere, alcune cose sono corrette, altre non lo sono, e i toni sono sempre sbagliati per una discussione civile), voglio scrivere due appunti su quanto hai scritto.
Come fai a dire che la 580 è un concorrente della 1060 se usa una GPU più grande e consuma fino al doppio?? (240W vs 120)
Immagino che a lui i consumi interessino poco (si, trovo anche io come te che con la 580 abbiano esagerato nel tirarle il collo), e la GPU è solo marginalmente più grande (e non per questo più costosa per AMD).
Come già discusso in passato, a mio parere Polaris costa ad AMD meno di quanto GP 106 costa ad Nvidia.
E va uguale o poco meglio solo nei giochi che sonio ottimizzati per AMD? Altrimenti rimane ancora indietro? Ma che concorrenza credi che sia questa?
Ma che discorso è? Allora eliminiamo dall'equazione anche i giochi ottimizzati Nvidia e torniamo punto e accapo.
Ma che cosa stai confrontando? I prezzi? ma sì, se AMD scende ancora un po' fra un po' te le fa trovare nelle uova di Pasqua in regalo. Peccato solo 2 cose: che non ne vende comunque (il suo market share è sceso) e che alla fine del trimestre ha un buco di bilancio. Però, dai, forse se le regala diventano il best buy assoluto di tutti i tempi!
Qui hai scritto una marea di inesattezze.
Prima cosa, i prezzi di Polaris sono aumentati e non calati.
Secondo il market share non aumenta perchè le schede non si trovano: a quanto pare i miner ne stanno facendo incetta, le schede spariscono dal mercato e i prezzi rimangono alti.
Quindi il dipinto che ti sei fatto è piuttosto differente dalla realtà.
Immagino che a lui i consumi interessino poco (si, trovo anche io come te che con la 580 abbiano esagerato nel tirarle il collo), e la GPU è solo marginalmente più grande (e non per questo più costosa per AMD).
Come già discusso in passato, a mio parere Polaris costa ad AMD meno di quanto GP 106 costa ad Nvidia.
A me i consumi interessa, eccome, ma quando la scheda viene utilizzata il problema del consumo è marginale rispetto alle performance
CrapaDiLegno
06-06-2017, 16:49
Qui hai scritto una marea di inesattezze.
Prima cosa, i prezzi di Polaris sono aumentati e non calati.
Secondo il market share non aumenta perchè le schede non si trovano: a quanto pare i miner ne stanno facendo incetta, le schede spariscono dal mercato e i prezzi rimangono alti.
Quindi il dipinto che ti sei fatto è piuttosto differente dalla realtà.
Ahahah.. sarei io quello che è fanboy?
Ma vi rendete conto che state cercando giustificazioni che non hanno riscontro con i fatti?
Lasciamo stare la questione best buy che per ognuno il best è sempre personale e il prezzo non è sempre la sola discriminante (e di fatti vista la quantità venduta da AMD sembra essere proprio così), ma che stai a dì riguardo alle schede per minare?
Che altro vi state inventando come ulteriore giustificazione al fatto che AMD non vende?
In primo luogo vorrei avere le statistiche che mi dico quante sono queste fantomatiche schede che vanno ai miner.
Poi, che cosa c'entra il fatto che vano ad un miner o ad un videogiocatore? Una scheda venduta è registrata come una scheda venduta e fa market share. Che cosa vuol dire "spariscono dal mercato"? I miner vanno a rubarli dai magazzini di AMD prima che le spedisca ai rivenditori? Con questo intendi "spariscono dal mercato"? Ti rendi conto dell'assurdità che hai detto? Ed è una assurdità che suggerita dalla volontà di trovare una giustificazione per qualc0sa che non va nelle vendite di AMD.
I prezzi delle Polaris sono aumentate? E quest cosa indica? Maggiore richiesta o minore offerta? Perché io vedo che i prezzi di nvidia non si sono mossi serie 4xx o 5xx che sia, e a quanto pare il mercato si è ristretto.. quindi parliamo di fatti e non di pugnette come siete doliti fare (sarò anche arrogante, ma ad un certo punto quando si leggono queste caxxate immense a uno scappa pure la pazienza).
Il mercato si è ristretto. Che vuol dire che il numero assolto di schede vendute è diminuito. nvidia non ha toccato i prezzi nella fascia medio bassa, li ha cambiati nella alta dove non ha concorrenza. Segnale che effettivamente il mercato è in contrazione nonostante la mancanza assoluta di concorrenza in quella fascia.
Nella fascia medio bassa, nonostante la concorrenza, non ha toccato nulla. AMD ha aumentato i prezzi (quasi a indicare una maggiore richiesta). Se AMD avesse venduto di più nvidia probabilmente avrebbe venduto molto meno (ricordo che il mercato è in contrazione, quindi se uno aumenta in questo caso l'altro ha una fortissima perdita nvidia non ha risposto a quello che sarebbe dovuto essere una diminuzione forte delle vendite. L'ultima analisi indica che il market share di AMD è diminuito invece di aumentare.
Ora congiungi i puntini e tieni conto che le schede che sono vendute ai miner sono schede che sono tracciate e fanno parte dei conteggi delle schede vendute. A casa mia 2+2 non fa quello che dite voi. Ma siete liberi di credere lo stesso quello che volete. Non è mia intenzione convincervi di niente. E caro nick091, se tu non vuoi imparare nulla sono caxxi tuoi, ma non venire a parlare di patate mentre stiamo discutendo di cioccolato.
Rimane vero quello che ho detto (nonostante le vostre patetiche giustificazioni): GCN ha una efficienza computazionale inferiore all'architettura nvidia e deve compensare con più silicio (che solo calabar ritiene costare meno, per ragioni assolutamente irrazionali, ma tant'è, la questione è che rimangono più grandi e necessitano di più risorse, le architetture non si cambiano in un baleno e non è detto che con i prossimi PP la questione del costo inferiore, se mai c'è, rimarrà) e più corrente consumata. E questo porta AMD ad non essere competitiva, tanto che sono ormai 5 anni che nvidia fa quel che vuole con i prezzi (che sono l'indicatore ultimo di quanta concorrenza c'è... guarda caso la scheda "best buy" per prezzo è quella della rivale che deve svendere tutto pur di vendere qualcosa e questo comunque non basta a modificare le strategia di nvidia che prospera in una marea di soldi e margini altissimi).
Ora, ripeto e ribadisco, la questione concorrenza cambierà solo se AMD è riuscita a cambiare l'efficienza di Vega, perché 13TFLOPS di Vega, visto quello che è l'efficienza delle altre incarnazioni di GCN, non sono sufficienti per battere gli 11TFLOPS del GP102.
Quando sarà rilasciato Vega vedremo se ho ragione o meno. Vedremo se i prezzi cambieranno o se nvidia rimarrà con i suoi prezzi fissati già 2 mesi fa che già pongono Vega con l'HBM a margine zero per AMD se questa non va oltre il GP102.
E vedremo quante altre giustificazioni troverete. Ma già so quale saranno le prime parole ai primi risultati dei test: aspettate i driver maturi, perché non avete fatto i test con gli ultimi driver, i giochi sono vecchi, bisogna prendere tutta la suite di giochi basati sui motori di DICE per arrivare ad un malinconico solito finale "aspettate Navi" ne vedrete delle belle (magari passando per " e la overcloccate per consumare 400W forse arriva a superare la barretta").
Però se andrà di più, del fatto che la soluzione a tutti i mali è il miglioramento della efficienza computazionale "al di là dell'Aync" non lo dirà nessuno. Ma rimarrà comunque il ricordo che GCN è stata una architettura non concorrenziale.
CrapaDiLegno
06-06-2017, 17:10
A me i consumi interessa, eccome, ma quando la scheda viene utilizzata il problema del consumo è marginale rispetto alle performance
Ma di quali super performance che giustificano il doppio dei consumi stai parlando?
Di queste? E il confronto è con una FE...
http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review/7
http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review/8
http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review/9
http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review/10
http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review/11
http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review/12
http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review/13
tenendo conto di questi
http://www.anandtech.com/show/11278/amd-radeon-rx-580-rx-570-review/16
O tirando le somme:
https://www.techpowerup.com/reviews/Sapphire/RX_580_Nitro_Plus/30.html
https://www.techpowerup.com/reviews/Sapphire/RX_580_Nitro_Plus/28.html
Sarebbe questo il "miracolo" di AMD con Polaris10?
Sarebbero queste le performance per cui dici che nvidia ha rilasciato velocemente la versione con memoria a 9Gbps (che in realtà è stata annunciata prima della serie 500, ma vabbè, secondo voi è sempre nvidia quella in affanno).
Sono queste le performance che l'Async concede di cui nvidia deve preoccuparsi? (e secondo lucusta per il cui motivo ha realizzato i tensor core?)
Basta una custom...
Sarà. Ai fanatici di qualunque specie di certo i fatti non sono cosa importante. Meglio così però. Senza di voi la concorrenza non esisterebbe più già da un sacco di tempo. Per quel poco che vale... sempre meglio di zero assoluto.
@CrapaDiLegno
Non è che se uno dice una "fanboiata" questo ti autorizza a rispondere ancora più da fanboy. Se hai argomenti rispondi con argomenti e non accendendo i toni: quello lo fanno i fanboy.
Ad ogni modo: come pretendi che i prezzi delle nvidia calano se non calano neppure quelli delle schede AMD? A scanso di equivoci, parlo ovviamente della fascia in cui si trova Polaris, dato che nelle fasce superiori al momento non c'è concorrenza.
Evidentemente nel caso delle schede AMD c'è una domanda superiore all'offerta. Che questo sia dovuto ad una produzione scarsa o alle Polaris che vanno a ruba (l'acquisto in massa da parte dei miner è già avvenuto in passato con le schede AMD e proprio di recente se ne parlava perchè a causa dell'attuale valore delle criptovalute potrebbe essere esattamente quello che sta succedendo ora) al momento non è dato saperlo con precisione. Forse entrambe le cose.
Il punto è che se si ha difficoltà a trovare le schede Polaris (se non a prezzo elevato) sicuramente il problema del market share non è dovuto al fatto che la gente non vuole queste schede.
Il punto è capire di quale "market share" stiamo parlando. Se basato sui numeri di vendita ufficiali sicuramente hai ragione, che li compri un miner o un videogiocatore poco cambia. Se basati sulle piattaforme di gioco (come le statistiche di steam) naturalmente le cose cambiano.
Ad ogni modo tieni conto che arrivare in ritardo con i prodotti e avere una lineup non completa sicuramente non aiuta AMD a recuperare market share nel suo complesso, anche se Polaris 10 andasse bene da sola non basterebbe a ritirare su l'asticella per AMD.
Non parliamo poi dei settori dove AMD latita, come quello professionale (ma bisogna vedere in questo caso se tali settori sono inclusi nelle statistiche).
Insomma, evita di dire che qui la gente cerca di giustificare in tutti i modi AMD perchè fanboy: qui si sta discutendo cercando di interpretare quello che sta accadendo.
Mi spiace che questo vada contro la tua visione in cui le schede AMD fanno schifo, non le vuole nessuno e AMD le svende, ma proprio per questo sei tu che dimostri di essere di parte.
PS: le ragioni per cui ritengo che Polaris 10 possa costare meno di GP106 in produzione sono perfettamente razionali e verificabili, mi dispiace vedere che come al solito da questo orecchio tu non voglia sentire.
tuttodigitale
06-06-2017, 18:03
Quello là viene a parlare di Tensor Core x l'Async computing, tu che parli di most efficient computing e fai finta di non sapere cosa sia l'Async quando invece non lo sai davvero.
ho detto di non saperlo, perchè non me lo spieghi..
A parte che o controllato e al solito hai postato un link fuffa, dato che sul sito del top Green 500 il primo (e unico) server con AMD installato è in 32 posizione dietro a una decina di altri server che montano nvidia K20/40/80 (tutti GK110 based) e ha efficienza di meno di 3GFLOPS per W.
link fuffa...
GSI Helmholtz Center, quarto computer al mondo per efficienza (lista Giugno 2016) con 5272.1 MFLOPs/watt, nessun supercomputer con soluzioni nvidia ha fatto meglio (eccetto GP110 nei mesi successivi)
a cosa ti riferisci?
https://www.top500.org/green500/list/2016/06/
Eh? Ma che stai dicendo?
ACE con i tensor core? Ma lo sai almeno che cosa è l'Async computing e a che cosa serve? Mi sa di no.
E soprattutto, è evidente che non sai cosa siano i tensor core e dove siano messi.
bhè, io so' cos'è un vector processor, e sò anche quale sia e come viene utilizzata la funzionalità dell'asynchronous computing; tra l'altro sò anche dove sono in V100: ci hanno fatto interamente un processore da 815mm^2 a 12nm; interamente.
ad nvidia manca quella parte, e se vuole continuare ad aumentare le prestazioni della sua scheda piu' veloce, non ha tante alternative: o usa DX12 ed AC o non avrà vantaggio dai processori con piu' di 8 thread, quindi rimarrà legata solamente all'aumento di frequenza dei quad core, e non se lo puo' permettere.
e non accusare gli altri per quello che fai te in prima persona;
sei tu che sparli di una case senza avere il minimo pudore.
Ad AMD serve migliorare notevolmente l'efficienza computazionale della sua architettura in modo che possa fare chip più piccoli e meno energivori.
http://media.gamersnexus.net/images/media/2017/GPUs/rx-580/gx/rx580-bench-doom-1080p.png
io qua vedo che un polaris (580 gaming x) sta al 90% di una 1070 Fe.
probabile che consumi uguale, circa 180W, ma è un chip piu' piccolo del 26%; vero che è un cut chip, ma vero anche che i 4 SM che mancano non valgono i l 20% di quel chip... l'avessero fatto full con 16 SM non sarebbe stato da 250mm^2
inutile che ti dica che la 390X è alla pari ad una 1070 in questo gioco, che ha una dimensione da 438mm^2, ma che è 28nm!
a 16nm non sarebbe che da 260mm^2 e mantenendo la frequenza a 1050mhz starebbe ben al di sotto dei 180W.
gioco palesemente favorevole a GNC, ma oggi non credo che facciano ancora giochi in DX9, se non qualche indie...
quindi come puoi pretendere che nel 2018 inoltrato, quando sul mercato ci saranno Navi e Volta, si usino ancora prepotentemente le DX11 per i giochi AAA?
la nuova generazione di giochi sarà DX12, perchè anche nvidia dovrà usare le DX12.
quindi dire che ad AMD serve migliorare l'efficienza sulle DX11, operando una layer di emulazione che le strozza come cornacchie, mi sembra assurdo, soprattutto a giugno 2017 e con la presentazione di processori fino a 18 core e 36 thread.
possiamo invece dire che nvidia deve riuscire a capire come stringere i suoi chip di un buon 20% cercando anche d'integrare funzionalità che oggi non ha integrato nei suoi chip?
e non c'e' bisogno di alzare cosi' i toni, che nessuno ha chiamato in causa le mamme.
quando uscirà la nuova architettura (e probabilmente non sarà la prossima, visto che ci dovremmo sorbire pascal con le GDDR6x per almeno 6 mesi prima di vedere qualcosa di nuovo) riprenderemo il discorso.
ah... tra l'altro stai confrontando una soluzione DX12 ready quando le DX12 nemmeno esistevano.
mi sembra logico che ha subito il fatto di dover interpretare tramite driver, e quindi pesantemente via software, delle api per cui non era progettata (per altri motivi che esulano il gaming).
prova ora ad usare una 580 in DX12, se parte...
è tutto relativo.
si parla di tecnologia, non della scuadra del cuore.
CrapaDiLegno
06-06-2017, 23:12
@CrapaDiLegno
Non è che se uno dice una "fanboiata" questo ti autorizza a rispondere ancora più da fanboy. Se hai argomenti rispondi con argomenti e non accendendo i toni: quello lo fanno i fanboy.
Io ho portato numeri e cifre.
@
Ad ogni modo: come pretendi che i prezzi delle nvidia calano se non calano neppure quelli delle schede AMD? A scanso di equivoci, parlo ovviamente della fascia in cui si trova Polaris, dato che nelle fasce superiori al momento non c'è concorrenza.
Evidentemente nel caso delle schede AMD c'è una domanda superiore all'offerta. Che questo sia dovuto ad una produzione scarsa o alle Polaris che vanno a ruba (l'acquisto in massa da parte dei miner è già avvenuto in passato con le schede AMD e proprio di recente se ne parlava perchè a causa dell'attuale valore delle criptovalute potrebbe essere esattamente quello che sta succedendo ora) al momento non è dato saperlo con precisione. Forse entrambe le cose.
Fammi capire, perché faccio davvero fatica a seguire i vostri processi logici sconclusionati.
Allora, Nvidia ha diminuito i prezzi delle schede di fascia alta DOVE NON C'È CONCORRENZA, e ti chiedi perché dovrebbero scendere i prezzi della fascia media se non calano i prezzi di AMD?
Quale contorta teoria ti sei costruito per fare questa associazione "prezzi bassi di AMD necessari perché Nvidia abbassi i suoi"?
Quale parte dell'equazione" Nvidia ha abbassato i prezzi nella fascia alta dove AMD non c'è proprio" non riesci a metabolizzare?
Forse I motivi che tu ritieni indispensabili per la diminuzione dei prezzi non sono tali se non combaciano con quanto i fatti indicano, no?
Forse non serve che AMD abbassi ulteriormente i suoi prezzi, ma serve forse che Nvidia venda meno (come nella fascia alta?). Allora rifaccio il discorso: in un mercato in contrazione con 2 player, se io vendo di più, quindi mi permetto di alzare i prezzi visto che tanto vendo comunque quello che produco, di chi è la perdita di vendite? Quindi, qual è la mossa più semplice quando hai un margine enorme sui tuoi prodotti per evitare di perdere soldi con minori vendite? O sì, è trovare il nuovo punto di massima resa abbassando i prezzi. Fatto nella fascia alta dove AMD non c'è, perché non è stato fatto nella fascia medio bassa dove AMD a quanto pare concorre?
Forse, ed è una teoria che combacia con i fatti, ma sempre teoria rimane che può essere sostituita da una migliore che fa combaciare più cose di questa, è che non è AMD che vende di più ma semplicemente che AMD ha meno schede a disposizione. Le schede AMD salgono di prezzo ma in mancanza di queste molti sono costretti a comprare comunque Nvidia. Quindi la mancanza di offerta di AMD da salire i suoi prezzi ma anche le vendite di Nvidia che quindi non abbassa i prezzi.
Ergo la richiesta delle schede AMD può essere la stessa, oppure persino minore, quello che conta è che l'offerta non la soddisfa. Per le cause, vedere produzione di Ryzen 5 e 7 (che sembrano andare forte), di Vega, di Ryzen 3 e di quelle che dovrebbero essere le future APU (che probabilmente combaciano, visto che gli slot sono limitati e in Ryzen 3 senza iGPU avrebbe poco senso).
Quindi è probabile che AMD abbia sacrificato la produzione di Polaris sul quale ha margini ridottissimi (sebbene secondo quello che tu ritieni essere motivi validi AMD pagherebbe meno il silicio... Ma di fatti che confermino non ce ne sono).
E no, le fabbriche Samsung non sono un'opzione se non le hai contattate prima, visto che hanno già i loro clienti, compresi i concorrenti di AMD, servono mesi per mettere su le linee di produzione.
Il punto è che se si ha difficoltà a trovare le schede Polaris (se non a prezzo elevato) sicuramente il problema del market share non è dovuto al fatto che la gente non vuole queste schede.
Il punto è capire di quale "market share" stiamo parlando. Se basato sui numeri di vendita ufficiali sicuramente hai ragione, che li compri un miner o un videogiocatore poco cambia. Se basati sulle piattaforme di gioco (come le statistiche di steam) naturalmente le cose cambiano.
Ad ogni modo tieni conto che arrivare in ritardo con i prodotti e avere una lineup non completa sicuramente non aiuta AMD a recuperare market share nel suo complesso, anche se Polaris 10 andasse bene da sola non basterebbe a ritirare su l'asticella per AMD.
Non parliamo poi dei settori dove AMD latita, come quello professionale (ma bisogna vedere in questo caso se tali settori sono inclusi nelle statistiche).
Insomma, evita di dire che qui la gente cerca di giustificare in tutti i modi AMD perchè fanboy: qui si sta discutendo cercando di interpretare quello che sta accadendo.
Mi spiace che questo vada contro la tua visione in cui le schede AMD fanno schifo, non le vuole nessuno e AMD le svende, ma proprio per questo sei tu che dimostri di essere di parte.
Ma io ho detto tutt'altro rispetto al fatto che le schede AMD non le vuole nessuno perché fanno schifo. Sa buon fanboy però hai interpretato quelli che volevi con i pensieri che vorresti attribuire al nemico di AMD. La sorta di atteggiamento che hanno gli invasati quando si fanno esplodere nelle piazze... Vedono le cose come il peggio rispetto al loro pensiero distorto.
PS: le ragioni per cui ritengo che Polaris 10 possa costare meno di GP106 in produzione sono perfettamente razionali e verificabili, mi dispiace vedere che come al solito da questo orecchio tu non voglia sentire.
Razionali e verificabili solo a te che devi essere la persona più ricercata del pianeta per avere queste informazioni che sono tenute nascoste al resto dell'umanità, come il costo del wafer, la resa e la capacità produttiva. Però ci crediamo che AMD paga meno le sue GPU anche se sono più grandi.
ho detto di non saperlo, perchè non me lo spieghi..
Quale parte della semplice frase "serve ad aumentare l'efficienza computazionale" non hai compreso?
Vuoi la spiegazione di come AMD ha ottenuto la cosa? Basta che cerchi il link su anandtech e la trovi l'implementazione di AMD. Che lo so che volevi che te lo spiegassi per appigliarti a degli inutili dettagli perché pensi sia l'unico modo per fare le cose. Ma non è così. Infatti Nvidia ha efficienza maggiore senza richiedere l'aiuto del programmatore (cosa che credo non ti sua chiara nell'implementazione di AMD).
Visto che sei privo di argomentazioni a riguardo e i fatti mi danno più che ragione vuoi portare il discorso sul dito e non su quello che indica. Spiacente, ma non è parlando di FO4, registri, stadi e scheduler che le cose cambiano... 20% è e 20% rimane (e sono ottimista prendendo l'esempio migliore). E di questi in realtà non sai davvero quanto è async e quanto è ottimizzazione per AMD (che sono 2 cose diverse con dimostra Hitman).
Quindi non credo che vi sarà un inseguimento sull'uso di questi fantomatici ACE, ma semplicemente una corsa a aumentare comunque l'efficienza (dove AMD è indietro di brutto e con Vega porterà molto di quello che Nvidia ha già sviluppato da tempo, come il tiling, compressione di memoria, gestione migliore della cache e ROPs e miglioramento della gestione geometrica... La computazione è solo una parte dell'intera catena che porta i dati generati dalla CPU a diventare immagine nella GPU e i quasi 9TFLOPS di Fiji vs i 5.6 del GM200 qualcosa devono aver insegnato ad AMD.
link fuffa...
GSI Helmholtz Center, quarto computer al mondo per efficienza (lista Giugno 2016) con 5272.1 MFLOPs/watt, nessun supercomputer con soluzioni nvidia ha fatto meglio (eccetto GP110 nei mesi successivi)
a cosa ti riferisci?
https://www.top500.org/green500/list/2016/06/
OK, ecco il link... Che dice quindi? Quanta della potenza computazionale è generata dalle GPU rispetto alle CPU? Perché vedo sistemi con prestazioni maggiori (anzi enormemente maggiori) solo CPU based che sono più efficienti... Che cosa posso dedurre da quello che mi hai linkato?
Se non che tale sistema non esiste più nell'elenco dei sistemi più efficienti? Eppure con 5GFLOPS/W rientrerebbe ancora tra i migliori di oggi... Ma non c'è...
Forse hanno capito che senza GPU potevano essere ancora più efficienti (al pari dei sistemi che stanno sopra in classifica)?
Boh... Tanto comunque non ci azzecca una cippa con il discorso. E GCN non è efficiente. Mettiti l'animo in pace. Sarà per Vega. O forse Navi. Con le HBM3. Mentre la concorrenza usa i pezzi di scarto dei supermercati per fare comunque meglio. Chip più piccoli, che consumano meno, che vanno di più... La triade perfetta (qualifica, giro veloce e gara) . Finché AMD non rompe questa cosa rimarrà ad inseguire. Anche se sforna la GPU con mille mila FPS in più. Il costo x FPS non le è conveniente. Soprattutto se comunque è sempre dietro. Anche di un soffio. E investe centinaia di milioni di dollari per essere davanti di quel soffio pur di essere in cima ai grafici per una volta... Una... Dopo 5 anni... A no... Dimenticavo Terascale... Dopo 10 anni.
Questi sono fatti con cui confrontarsi.
La Juve ha perso la coppa dei campioni: pur bravi, belli ricchi e famosi che siano (e ancor di più dopo la finale) l'esito e uno è uno solo. Hanno perso. Anche se hanno fatto un gol. E rivedere la moviola 100 volte ti fa ammirare quanto sono stati bravi in quell'occasione è inutile. Il risultato finale è un altro. Per cambiarlo aspettiamo l'anno prossimo. Intanto per ora Nvidia 3, AMD 0, contro Kepler, Maxwell e Pascal. Aspettiamo Vega. Poi Volta. Poi Navi. E poi il nulla, dato che nessuna delle due ha detto come si chiameranno le architetture future. Però magari arriverà anche per AMD l'architettura buona che rompe il dominio Nvidia in tutti i campi.
tuttodigitale
07-06-2017, 00:00
chiedo scusa per il sarcasmo ma hai detto molte cose discutibili...
partiamo con ordine:
il codice che abilita l'elaborazione asincrona non è diverso né su nvidia e nè su AMD. Tutto quello che è richiesto è che l'HW esponga più code (esattamente come le CPU con il SMT).
Ma l'esecuzione di questo codice altamente parallelo, non garantisce l'elaborazione asincrona...come vengono eseguiti è a discrezione dell'HW...
il parallelo con le CPU è presto fatto....probabilmente l'esecuzione di 8 thread su una CPU con 1core/1 thread, è più veloce se questi vengono caricati singolarmente uno dopo l'altro, invece che contemporaneamente. Avere una CPU in grado di avvantaggiarsi di 8 threads, permette di abbattere le latenze, importantissimo nel caso di task time critical in ottica HSA....
la capacità di gestire un numero pazzesco di code, e ricavare da questo un aumentata efficienza computazionale è qualcosa che attualmente può fare solo GCN.
un pò alla volta ( :eek: ) nvidia si sta avvicinando con le sue architetture a GCN...
sulle ROPs, in verità nvidia ha copiato quello che fanno da anni i produttori di GPU ultramobile....
inoltre è assurdo che parli di inferiorità tecnologica di VEGA, quando questa introduce, una prima assoluta, HBCC e i primitive shader....novità che probabilmente, come spesso capita quando le idee sono buone, verranno prese in prestito anche dai concorrenti...
dimenticavo, che poi è attinente alla news, che AMD ha affermato che i 4 motori geometrici generano la bellezza di 11poligoni/clock, che è una enormità, non penso che VEGA ne avrà 8.
tuttodigitale
07-06-2017, 00:18
OK, ecco il link... Che dice quindi? Quanta della potenza computazionale è generata dalle GPU rispetto alle CPU? Perché vedo sistemi con prestazioni maggiori (anzi enormemente maggiori) solo CPU based che sono più efficienti...
moltissimo è dovuto alla GPU...
ti posto 2 numeri:
Computational Astrophysics Laboratory, RIKEN con 330.000 core a 2,3GHz (cpu da 8core@75W) fa 290Tflops, mentre il ASUS ESC4000 solo con 11.000core a 3 GHz (sulla carta meno efficienti dei precedenti) fa 316Tflops sempre a linpack....praticamente 300TFLOPs dipendono dalle sole soluzioni Hawaii...
è interessante che l'efficienza computazionale (rapporto potenza effettiva e quella teorica) è del 53% per l'ASUS e del 65% per il Riken....c'è anche da dire che in questi sistemi riveste particolare importanza il sistema di raffreddamento che può effettivamente fare la differenza. Tanté mi sembra che AMD se la possa giocare alla grande con VEGA...
CrapaDiLegno
07-06-2017, 00:53
bhè, io so' cos'è un vector processor, e sò anche quale sia e come viene utilizzata la funzionalità dell'asynchronous computing; tra l'altro sò anche dove sono in V100: ci hanno fatto interamente un processore da 815mm^2 a 12nm; interamente.
No, non lo sai, sennò non accostavi async computing e tensor core che sono 2 cose completamente diverse, usate per scopi diversi su 2 architetture diverse.
Ah, te lo dico un'altra volta, il chip si chiama GV100. Non è difficile. Ce la puoi fare anche tu.
ad nvidia manca quella parte, e se vuole continuare ad aumentare le prestazioni della sua scheda piu' veloce, non ha tante alternative: o usa DX12 ed AC o non avrà vantaggio dai processori con piu' di 8 thread, quindi rimarrà legata solamente all'aumento di frequenza dei quad core, e non se lo puo' permettere..
Ma chi te l'ha detto che servono gli ace per avere vantaggi con CPU sopra gli 8 thread? Dove hai una prova che le GPU Nvidia sono "strozzate"?
e non accusare gli altri per quello che fai te in prima persona;
sei tu che sparli di una case senza avere il minimo pudore.
Ma pudore di cosa? Che stai dicendo? Di che parli? Sei tu che tiri in ballo robe che non c'entrano una fava bollita.
http://media.gamersnexus.net/images/media/2017/GPUs/rx-580/gx/rx580-bench-doom-1080p.png
io qua vedo che un polaris (580 gaming x) sta al 90% di una 1070 Fe.
probabile che consumi uguale, circa 180W, ma è un chip piu' piccolo del 26%; vero che è un cut chip, ma vero anche che i 4 SM che mancano non valgono i l 20% di quel chip... l'avessero fatto full con 16 SM non sarebbe stato da 250mm^2
inutile che ti dica che la 390X è alla pari ad una 1070 in questo gioco, che ha una dimensione da 438mm^2, ma che è 28nm!
a 16nm non sarebbe che da 260mm^2 e mantenendo la frequenza a 1050mhz starebbe ben al di sotto dei 180W.
Solo il 20% in meno... Già... Guardiamo la dall'altra parte... È anche solo il 10% più veloce di una 1060... Vediamo... Diamo 5TFLOPS alla 1060 che è OC, diamo 6TLFOPS alla 580... 6/5 = 120%.
La 1070 ref è 6.5TFOPS... 6.7/6 = 111%...
Quindi, nonostante l'async le prestazioni stanno sotto al valore che dovrebbero avere ei confronti delle schede Nvidia che in questo particolare gioco hanno qualsiasi supporto all'async disabilitato (per motivi loro, ma questo è quanto).
Quale delle frasi "GCN è inefficiente nei confronti del l'architettura Nvidia" non hai compreso?
Anche perché Maxwell é in legacy, si scappi sa Maxwell abbandonato, fuggire sciocchi (cit.) e poi con i suoi 5.6TFLOPS sta sopra la 580 che ne sforna di più... Sarà che come ho detto la computazione non è l'unico t'aspetto da curare e AMD è indietro in molte altre cose?
gioco palesemente favorevole a GNC, ma oggi non credo che facciano ancora giochi in DX9, se non qualche indie...
quindi come puoi pretendere che nel 2018 inoltrato, quando sul mercato ci saranno Navi e Volta, si usino ancora prepotentemente le DX11 per i giochi AAA?
la nuova generazione di giochi sarà DX12, perchè anche nvidia dovrà usare le DX12.
quindi dire che ad AMD serve migliorare l'efficienza sulle DX11, operando una layer di emulazione che le strozza come cornacchie, mi sembra assurdo, soprattutto a giugno 2017 e con la presentazione di processori fino a 18 core e 36 thread.
possiamo invece dire che nvidia deve riuscire a capire come stringere i suoi chip di un buon 20% cercando anche d'integrare funzionalità che oggi non ha integrato nei suoi chip?
Questo gioco non è in DX12 prima di tutto. E nonostante super ottimizzazione a favore di AMD (e tutti i problemi che attribuisci ad Nvidia) sta avanti del 10%. Un trionfo senza eguali di cui Nvidia deve correre ai ripari ruviluzionando la sua architettura per renderla il 20% più piccola. Perché è scritto che tutti i giochi futuri saranno ottimizzati in questa maniera e con ancora un po di OC il chip da 230mmq andrà come quello da 330 castrato.
Il primo consumerà come 2 Titan X in SLI, ma ovviamente è una seria minaccia... A no, aspett.. OC del chip castrato e... Oppss, non c'è più Polaris negli specchietti.
Perché il chip da 230mmq OC vada quanto quello completo da 330mmq facciamo i calcoli con la 1080...opps, questo è il 35% più veloce con la frequenza base... Aspetta, facciamo i conti del PP come fosse a 16nm invece che 14... Il chip di AMD sarebbe di 260mmq... 330/260 = 126%... Più o meno stessi consumi... Nvidia avanti del 35% nel caso peggiore in assoluto. A si, certo, Nvidia ha problemi a tenere testa ad AMD senza async, senza "supporto alle DX12" (qualsiasi cosa voglia dire)... Deve cambiare completamente la sua architettura... Ecco perché Vega implementerà le stesse funzionalità di Nvidia, come il tile rendering, la compressione della memoria, le ROPs collegate alla L2, maggiore velocità geometrica... E già, è l'architettura Nvidia quella che ha problemi a tenere il passo con le nuove API.
quando uscirà la nuova architettura (e probabilmente non sarà la prossima, visto che ci dovremmo sorbire pascal con le GDDR6x per almeno 6 mesi prima di vedere qualcosa di nuovo) riprenderemo il discorso.
Già, vedremo se Vega avrà o meno aumentato l'efficienza computazionale senza Async e quindi dove si posizionerà rispetto alla concorrenza.
ah... tra l'altro stai confrontando una soluzione DX12 ready quando le DX12 nemmeno esistevano.
Per entrambe le DX12 sono arrivate dopo. Devi essere un po' confuso su come funziona la stesura di una nuova libreria grafica.
mi sembra logico che ha subito il fatto di dover interpretare tramite driver, e quindi pesantemente via software, delle api per cui non era progettata (per altri motivi che esulano il gaming).
prova ora ad usare una 580 in DX12, se parte...
Prova invece la contemporanea 6970. Ah, ma Nvidia è brutta e cattiva e la sua architettura non è DX12 ready (anche se da la biada all'architettura AMD in molte occasioni con chip più piccoli).
è tutto relativo.
si parla di tecnologia, non della scuadra del cuore.
Già, quindi di numeri di parla.
Ora, tolte le dimensioni dei chip, guarda le caratteristiche di Polaris 10, del GP104 e del GP106 e segna le differenze. A parte le ROPs a quale architettura, numeri sulla carta, Polaris si avvicina di più per risorse a disposizione?
E sei quindi così sicuro che Polaris sia DX ready visto poi quello che ottiene? Dovrebbe in teoria essere alla pari della 1070 almeno, dico almeno, quando le DX12, l'async (che è una feature voluta e introdotta da AMD nelle DX12) più le ottimizzazioni per GCN ci sono e si chiude un occhio ai consumi. Invece stiamo parlando di rimanere ancora indietro. E non faccio il confronto con il chip completo da 330mmq che è irraggiungibile qualunque cosa ti possa inventare per tirare il collo a polaris 10 (che nelle aspettative non doveva essere così lontano... E ma vedrete i driver, le DX12, le cavallette... Il terremoto! ).
Parliamo di numeri, cifre o di sogni per la propria squadra del cuore?
Alla fine Nvidia se ne è sbattuta altamente delle soluzioni AMD sin da quando è arrivato Tahiti e ha cominciato a essere sommersa da denaro che di certo non si aspettava dopo che AMD aveva mostrato di voler importunarla anche nel campo professionale con una architettura completa per il GPGPU.
Dubito su preoccuperà di Vega, tanto le basta abbassare un po' i prezzi per mandarla fuori mercato con la sua inutile HBM2.
Potrà cominciare a preoccuparsi da Navi in poi se vede che Vega e buona. Nel frattempo avrà già venduto abbastanza Volta e le DX12 forse saranno mature a sufficienza per capire come sfruttarle al meglio.
P. S: Discorso DX12: l'ottimizzazione per la particolare architettura conta come mai prima. I driver non possono più mitigare le scelte dei programmatori così come sistemare i bachi. Quindi quando si parla di come è chi ha realizzato il gioco non è più tanto secondario e AMD è stata brava a fare in modo che i primi giochi (e motori) DX12 fossero espressamente ottimizzare per la sua architettura.
Viceversa, a parte le SH foraggiate nessun'altra ha investito nelle DX12 perché devono ancora ammortizzare gli investimenti nei motori DX11 (che non è molto che sono sul mercato).
Quando dici i prossimi anni saranno a favore delle DX12, facciamo in tempo a vedere una nuova architettura post GCN prima che diventino le librerie di sviluppo principale. Lo si diceva alla loro presentazione e GCN 1.1 doveva fare la differenza, poi è arrivato GCN 1.2 e Maxwell e non si è visto nulla, poi Pascal e Polaris e siamo ancora a dire "il futuro, domani, vedremo, future proof".
Ti posso tranquillizzare: faremo questi identici discorsi al lancio di Vega e anche di Volta.
CrapaDiLegno
07-06-2017, 01:44
chiedo scusa per il sarcasmo ma hai detto molte cose discutibili...
partiamo con ordine:
il codice che abilita l'elaborazione asincrona non è diverso né su nvidia e nè su AMD. Tutto quello che è richiesto è che l'HW esponga più code (esattamente come le CPU con il SMT).
Ma l'esecuzione di questo codice altamente parallelo, non garantisce l'elaborazione asincrona...come vengono eseguiti è a discrezione dell'HW...
il parallelo con le CPU è presto fatto....probabilmente l'esecuzione di 8 thread su una CPU con 1core/1 thread, è più veloce se questi vengono caricati singolarmente uno dopo l'altro, invece che contemporaneamente. Avere una CPU in grado di avvantaggiarsi di 8 threads, permette di abbattere le latenze, importantissimo nel caso di task time critical in ottica HSA....
la capacità di gestire un numero pazzesco di code, e ricavare da questo un aumentata efficienza computazionale è qualcosa che attualmente può fare solo GCN.
un pò alla volta ( :eek: ) nvidia si sta avvicinando con le sue architetture a GCN...
sulle ROPs, in verità nvidia ha copiato quello che fanno da anni i produttori di GPU ultramobile....
inoltre è assurdo che parli di inferiorità tecnologica di VEGA, quando questa introduce, una prima assoluta, HBCC e i primitive shader....novità che probabilmente, come spesso capita quando le idee sono buone, verranno prese in prestito anche dai concorrenti...
dimenticavo, che poi è attinente alla news, che AMD ha affermato che i 4 motori geometrici generano la bellezza di 11poligoni/clock, che è una enormità, non penso che VEGA ne avrà 8.
Per te una risposta rapida. La gestione delle code non è l'async. Prova a pensarci bene. Una volta saturate le unità di calcolo 2 code o 1000 non fanno differenza. Neanche l'ordine è importante: i frame sono a cadenza fissa, non puoi posticipare niente (quindi tanto meno anticipare). I vantaggi dell'assicurazione son ben altri e ad oggi solo l'HW AMD lo implementa in maniera più completa. Con vantaggi discutibile rispetto alle risorse messe in gioco. E per motivi architetturali di cui Nvidia soffre meno.
Nel paragone con l'HT delle CPU (anche se non è la stessa cosa) e come tentare di eseguire 2 thread quando hai tanti o pochi stalli. Quale delle due opzioni riceve maggior vantaggio? E nell'altro caso, è davvero così un male? E se ne secondo caso risparmio sul supporto al secondo thread e investo invece in un core in più, faccio bene o male?
Quali sono gli scenari che favoriscono la prima soluzione con HT rispetto alla seconda con 2 core mono thread?
E se con 2 core più piccoli e teoricamente meno prestarti faccio più lavoro del mega core con HT anche quando il funzionamento dell'ht è al massimo (che su GPU non è così scontato e richiede lavoro da parte del programmatore diversamente dallo sfruttamento dei core in più), sono meglio o peggio? Se con i 2 core faccio sempre 100 perché riesco a tenerli occupati quasi sempre mentre con la soluzione HT faccio 70 quando non riesco a sfruttare il parallelismo e 90 quando ci riesco, sono da considerare "non future proof" perché non ottengo vantaggi quando programmo x sfruttare esplicitamente 2 thread separati? Anche se in assoluto ho prestazioni maggiori a parità di risorse usate?
Non volevo continuare a dirlo, ma quando l'async funziona sull'HW AMD le prestazioni reali sono sempre inferiori a quelle di Nvidia a parità di TFLOPS teorici (quindi di risorse, che siano al o ha che usano corrente). Differenza compensata da un maggior numero di risorse computazionali. C'è quindi da stupirsi? Da gridare al miracolo? Di profetizzare che Nvidia e quella che ha difficoltà e deve cambiare architettura se vuole rimanere competitiva?
Riguardo a chi copia chi, parliamone... Mi sembra che sia stata AMD che con GCN si sia avvicinata molto al concerto di smx di Nvidia, di scheduler HW, di geometry engine suddiviso e non unico, di rendering avanzato, di compressione del frame buffer e di tutti i dati per risparmiare VRAM e banda... E a poco a poco anche AMD sta giungendo alla soluzione di avere una architettura per il mercato gaming e una per quello professionale...
Per ora rimane diverso l'approccio con le unità di calcolo diverse da FP32 dove Nvidia mette quelle ottimizzare (FP16, FP64, INT8 o ora interi tensor core) solo nel mercato professionale con maggior usi di silicio ma con migliore efficienza energetica.
Vedremo se AMD continuerà con l'approccio "combinatorio".
Per il resto Nvidia è avanti rispetto a AMD su tutti i fronti, quindi non deve di certo aspettare la concorrenza nel sviluppare le sue future architetture. Di GCN in Maxwell, Pascal e Volta non c è nulla. D'altronde l'unica differenza che porta vantaggi ad AMD sono gli ace, ma per quanto detto prima dubito che avrebbero lo stesso impatto sullvarchitettuta Nvidia che preferisce usare lo stesso spazio per più unità o transistor da cliccare a maggior frequenza (con risultati che per ora le danno ampiamente ragione).
...se tu sapessi come computa un vector processor, ti saresti astenuto sul fatto che nvidia ha FP26/FP32/INT8 ed ora interi Tensor Core.
Un vector processor lo puoi semplicemente dividere in tanti virtuali sotto processori che operano all'unisono con dataset individuali.
In v100 si hanno solo Tensor Core FP128 che usi in sezioni discrete: 640 unità in FP128, 2560 in FP64 (x2), 5120 in FP32 (x4), 11240 in FP16 (x8), 22480 INT8 (x16).
O credi che siano tutte unità di calcolo distinte che fanno l'identica cosa ma solo a basi diverse?
Il problema ad usare un Tensor Core così esteso é che lavora con dataset univoci, ma li processa in parallelo, quindi o inizi il calcolo con 4 data FP32, o, se ne usi ad esempio solo 3, ti sei già perso 1/4 della possibilità di calcolo per il medesimo consumo, e devi aspettare che si svuoti per ricaricare.
Ogni scheda sopra la 1080 é già tirata per il collo, perché non associano la maggiore potenza computazionale alla proporzionale capacità e velocità della ram.
Finita la possibilità della ram, specialmente di banda, i core della GPU non viene sfruttata.
Basta che guardi la linearità prestazionale sulle risoluzioni.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.