PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 [199] 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348

ninja750
05-06-2018, 14:12
non è proprio così e prendi questo con le pinze ma se la 580 va come la 980ti nel 50% dei giochi e come una 970 nel restante 50%

uno dice va come la 970

uno dice va come la 980ti

chi ha ragione e perchè?

Ale55andr0
05-06-2018, 14:13
No secondo me coi 7nm tornano indietro,

e chi diamine ha detto questo?

che poi "this"... ma qual è il ritardo degli italiani che devono scrivere per forza in inglese? boh.

e qual'è il ritardo di chi non può soprassedere a tale, gravissima, cosa? :eek:

VanCleef
05-06-2018, 14:14
che poi "this"... ma qual è il ritardo degli italiani che devono scrivere per forza in inglese? boh.

Trovato il Maxim Castelli di hwupgrade! :fagiano: :sofico:

Gyammy85
05-06-2018, 16:58
Facciamo un bel poll, cosa mostreranno secondo voi domani? :D

Roland74Fun
05-06-2018, 17:03
Facciamo un bel poll, cosa mostreranno secondo voi domani? :D
Sinceramente io non ho tutto questo interesse. Finché ho una scheda video nel case che mi funziona e mi soddisfa potrebbero tirare fuori di tutto ma non dovendo comprare la cosa mi tocca solo di striscio.

Gyammy85
05-06-2018, 17:13
Io mi aspetto un pc-ONE con threadripper 2 e la vegona 20 tutta arancione.

Il nabbo di turno
05-06-2018, 17:43
Facciamo un bel poll, cosa mostreranno secondo voi domani? :D
Threadripper e slide su vega 20, nient'altro.

Ale55andr0
05-06-2018, 21:58
Come al solito, e lo dimostrate anche dopo che si è scritto che si sta discutendo normalmente, venite solo qua per fare caciare e sfogarvi...
Mi chiedo cosa vi porti a tutto ciò, ma andate sul thread nVidia a fare sto casino per nulla, perché venite qua...

Te ogni tot vieni qua a sfogarti su Vega, 1080, 2 anni dopocit. ma de chè?
cioè sei senza senso proprio, non porti nulla alla discussione e per di più inutile come il ghiaccio in antartide.


1) non devi dirmi tu quando scrivere e cosa

2) è un thread aspettando, parimenti quello verde, non il thread "lecchiamo il sedere a "nomemarchiopreferito". Si parla basandosi su cio che è alla luce del sole, e ci si specula in merito, nel bene, e nel male, da cui....


3)...il mio contributo, relativo a FATTI (ripeto) quindi piaccia o no, è perfettamente lecito. Se "tollerate" la pubblicità e gli slogheggi a base di pseudo-trollate "al contrario" 24/24 di gnammy et similia, potete "tollerare" un post ogni 500 (anche meno) mio in cui, dopo aver letto una ennesima sparata, scrivo di conseguenza. Più che dei miei "sfoghi" mi preoccuperei più di chi non ha evidentemente di meglio da fare che il PR (agratis, si spera) di amd piuttosto


Saluti

Gyammy85
06-06-2018, 06:43
:cool: :cool: :cool: :cool:

https://videocardz.com/newz/amd-confirms-7nm-gpus-are-coming-to-gamers

curioso di vedere la presentazione, vega 20 32 giga come quella del leak :cool: :cool:

#semprepiùavanti

Dicono che la roadmap non è cambiata, quindi vega 7 nm quest'anno e dopo Navi.

Gyammy85
06-06-2018, 06:56
Ecco il link all'evento, comincia al minuto 9.36

https://www.youtube.com/watch?time_continue=3&v=mhEu3RiCLpg

Foglia Morta
06-06-2018, 07:10
https://www.anandtech.com/show/12910/amd-demos-7nm-vega-radeon-instinct-shipping-2018

7nm di GF , stimano un die size ( che dicono essere sicuramente per difetto ) di 336mm2 , quindi direi che saranno più di 64cu

Gyammy85
06-06-2018, 07:26
https://www.anandtech.com/show/12910/amd-demos-7nm-vega-radeon-instinct-shipping-2018

7nm di GF , stimano un die size ( che dicono essere sicuramente per difetto ) di 336mm2 , quindi direi che saranno più di 64cu

Considera però che lo spazio non è solo cu, ricorda quanto successo con vega a 14...

Gyammy85
06-06-2018, 08:39
Peccato abbiano mostrato solo il cinema 4d, è possibile estrapolare in qualche modo da quello che si è visto il guadagno rispetto a vega 14 nm? A me è sembrato quasi istantaneo il rendering della moto quando aggiornava o non so cosa, nei video simili che avevo visto in precedenza non era così immediato...

HadesSaint
06-06-2018, 09:01
range 150-300w di potenza...un altro forno?

Gyammy85
06-06-2018, 09:10
range 150-300w di potenza...un altro forno?

Non sappiamo a cosa si riferisce questo range, ma i consumi saranno per forza di cose contenuti.
Stiamo parlando di una gpu da quasi 20 tf che attualmente è più veloce di qualsiasi cosa sul mercato, pure di gv100, forse competitiva pure lato tensor cores dato che a quanto pare attraverso standard open si potranno simulare.

HadesSaint
06-06-2018, 09:21
quindi sara' un bestiolina bella pesante!! ma domanda e' lato PRO o Gaming?

Gyammy85
06-06-2018, 09:25
Il problema non è mai stato il TDP ma come viene sfruttato.
Vega 64 per esempio non è che consuma molto di più di una 1080ti e anche le temperature sono simili (parlando di reference/FE).
Solo che va di meno, se avesse le stesse prestazioni di una 1080ti nessuno si lamenterebbe dei consumi.

Quindi è un forno confrontato alle schede nvidia con prestazioni simili (1080) ma non lo è in senso assoluto.

Quella slide comunque dice anche cose non vere tipo pcie 4 che ancora non esiste...certo abbiamo 1 tb di banda e 32 giga, ma non siamo sicuri del resto.
Dando per certo un 40-50% in più su vega fe, da cosa viene questa differenza?
Una parte sicuramente dalla banda in più, più sp? non credo, in questa fascia per ora non servono. Frequenze? forse, ma se è vero che qualcosa in vega non funziona per come doveva funzionare, semplicemente passando ai 7 nm avranno messo le cose a posto.

Gyammy85
06-06-2018, 09:27
quindi sara' un bestiolina bella pesante!! ma domanda e' lato PRO o Gaming?

Questa è solo pro, non è ben chiaro se lancino una rx vega a 7 nm.
Ma dati i tempi ristretti, vanno direttamente su navi secondo me, un pò come successe ai tempi della radeon 8000, dovevano fare una 8500xt ma abbandonarono tutto in favore di r300 per la rivoluzione. O magari shrinkano e scalano in fascia media tanto per avere qualcosa per far cassa stile polaris.

HadesSaint
06-06-2018, 09:37
infatti ora il dubbio e' passato..essendo PRO ci sta e poi con tutta quella potenza di calcolo!! :) sorry

Gyammy85
06-06-2018, 10:10
in teoria con 64CUx64SP a 2ghz (+20% sul Turbo 1.65ghz Vega10) sei a 32.8TF fp16 - 16.4TF fp32 - 8.2TF fp64, ovviamente in Turbo max/TDP 200~250watt (considerando che la liquid 1.65ghz è impostata a 345watt).

Sono valori di stima possibilissimi, ma 20TF ci vogliono 2.45ghz :sofico: è impossibile fare +50% di clock su Vega10 con i 7nm a meno che l'architettura sia stravolta e prossima a quella nVidia, di fatti le stime su nVidia 7nm parlano di quei clock li, ~2.5ghz Turbo...

Nei commenti su videocardz qualcuno parlava di 18 tf, non so in base a cosa, ma anche a 16 resta avanti alla titan v.
Per il fatto del gaming, dovrei rivedermi l'evento per leggere fra le righe, ma ufficialmente se ne riparla con navi, però non ci vorrebbe niente a fare una scheda tappabuchi provvisoria, dato che la gpu è la stessa della instinct. Potrebbero benissimo annunciarla dopo, dato che si parlava di una serie 600.
Magari hanno tutto quasi pronto per navi dato che sarà in sviluppo da molto tempo...

Vul
06-06-2018, 10:20
range 150-300w di potenza...un altro forno?

28 nm Maxwell >>>> 7 nm Vega :rock:

Gyammy85
06-06-2018, 10:31
28 nm Maxwell >>>> 7 nm Vega :rock:

Ecco la trollata del giorno :rolleyes:
Ma perché ti sei pigliato la 580?

sniperspa
06-06-2018, 10:41
Insomma niente di veramente nuovo fino all'anno prossimo, sarà da vedere come va questa Nano a questo punto

ninja750
06-06-2018, 10:56
Insomma niente di veramente nuovo fino all'anno prossimo, sarà da vedere come va questa Nano a questo punto

più che le prestazioni il costo

Gyammy85
06-06-2018, 11:04
@gridracedriver
Da notare come il 28 core intel sia già ufficialmente a 5 ghz per toms :asd:

Angeland
06-06-2018, 11:25
Tralasciando che qualche testata scrive esplicitamente di una variante gaming in uscita tra circa 6 mesi, mentre qualcun'altra dice che non ne hanno parlato minimamente.

A questo punto, le cose sono tre:

1) Lanciano tra circa 6 mesi la RX Vega a 7nm e per Navi se ne parla nel 2020 (imho scenario "peggiore")

2) Lanciano sempre tra circa 6 mesi la RX Vega a 7nm, relegandola a fascia media, e dopo poco tempo Navi per la fascia alta.

3) Non fanno un piffero per circa un anno, e dopo lanciano Navi in tutte le fascie.

Gyammy85
06-06-2018, 11:28
Navi ufficialmente è data per inizio 2019

Angeland
06-06-2018, 11:35
Navi ufficialmente è data per inizio 2019

Se rispettano i tempi, allora mi sa niente Rx Vega 7nm, avrebbe poco senso imho,oppure si avvererà il mio scenario n.2 :cool:

Gyammy85
06-06-2018, 11:45
Se rispettano i tempi, allora mi sa niente Rx Vega 7nm, avrebbe poco senso imho,oppure si avvererà il mio scenario n.2 :cool:

Dipenderà pure dalla quantità di chip imho...avendo visto che per nvidia si rimanda tutto all'anno prossimo, ci vanno cauti e non svelano tutto subito.
Non hanno parlato neanche dell'apu fenghuang...

Gyammy85
06-06-2018, 14:22
https://www.bitsandchips.it/9-hardware/10178-vega20-a-7nm-in-produzione-in-arrivo-nella-2h18

B&C analizza le slide fornite da AMD rigurdanti lo scaling dai 14nm GF (Vega10) ai 7nm TSMC (Vega20)

Fosse vero dovremmo avere Vega20 che in mero shrink di Vega10 starebbe in 245mmq (2x) 175watt(2x) 2.20ghz(>1.35x) :sofico:
una GPU così sarebbe minimo ai livelli della 1080ti~1170

Anandtech dalle foto stima la gpu in 335mmq a salire, per cui o la slide AMD dice il falso per quanto riguarda lo scaling (il che pure a me sembra tanto, starei più su un 1.7x), oppure a livello hardware ci sono aggiunte importanti che cubano quasi 100mmq, e sono tanti.

Tra le altre cose B&C si aspetta che facciano come con VegaFE e Vega64, ovvero prima la versione Pro e poi le versioni Consumer... mah chissà, a questo punto come dice Angeland potrebbe benissimo essere che la prossima fascia medio-alta sia Vega20 senza DP in Q4/2018-Q1/2019 e che Navi sia in realtà una Big GPU a 7nm sia Pro che Gaming.

Spazio ce n'è, se effettivamente Vega20 è grande circa 335-350mmq, niente vieta ad AMD di fare Navi a 7nm da 500~600mmq

ps. https://videocardz.com/76487/amds-7nm-vega-is-much-smaller-than-14nm-vega
VC stima il die in appena 290mmq... mah, chissà chi avrà ragione! anche se mi sembra un pochino sottostimato...

Dici questa slide?

https://s15.postimg.cc/jz6tdkq57/2018-06-06.png (https://postimg.cc/image/nisr3dsuv/)

Secondo me sono pure conservativi, poi dice >35%, quindi si potrà arrivare anche al 45-50% in più che è quello emerso dal leak del 3dmark.

Gyammy85
06-06-2018, 14:30
Sì, io dico questa, usando quei valori (e tenendo conto che stanno parlando di ML, non di gaming, potrebbe essere peggio o meglio ma non c'è modo di saperlo).

Era in risposta a grid, comunque lì si parla dei 7 nm in genere, indipendentemente dall'uso gaming o altro...

Gyammy85
06-06-2018, 14:57
Sì, ma come il transistor ti restituisce performance dipende da come lo usi :>

In ogni caso una volta assunto 1.35x di prestazioni (in tflops) e il rapporto tflops/tdp della MI25, si può ottenere facilmente un'ipotesi di consumo sulla MI33 (1.35x24.6 tflops = 33.21 tflops), cioè ~200W, non so come vengano 175W a grid

Però io non credo che il riferimento sia quello della MI25, perché l'hanno testata col rendering, quindi andrebbe confrontata con vega FE o la ssg...

Free Gordon
06-06-2018, 16:05
https://s15.postimg.cc/jz6tdkq57/2018-06-06.png (https://postimg.cc/image/nisr3dsuv/)

Chi è sto tizio?

E' lui il Wang di ATI?

Gyammy85
06-06-2018, 16:32
Ci sta invece, dichiarano che è una scheda per il DL/IA e compute fp64, che poi ci si possa fare rendering è scontato con 32GB di Vram a bordo :sofico:



Ok ho capito, quindi era come quando dichiaravano il 2.7x di Polaris, effettivamente se non consideriamo le prestazioni a pari clock è vero, altrimenti ci si ferma al 2x effettivo.

Quindi vuol dire che effettivo si ha un 1.5x di consumo in meno con 1.35x di prestazioni in più, totale 2.0x efficienza (1.5*1.35)

Alla fine era come prospettavo io 200~250watt, seguendo la mia logica dei dati dichiarati da GF/TSMC nel salto nodo.

Si è corretto quindi dire 350watt/1.5=230watt o 300/1.5=200watt con +35% di prestazioni minimo.

Rimane comunque l'incognita Die-Size, che pare essere superiore allo scaling dichiarato.

Vabbè ma non si possono fare calcoli in base alla manina di Lisa :asd:
Potrebbero pure aver aumentato l'ampiezza dell'infinity fabric

AceGranger
06-06-2018, 16:45
ma infatti, al 99% ci sono in hardware modifiche strutturali, perché c'è troppa distanza dal 2x dichiarato, ovvero 245mmq, il che è un bene significa che non sarà un semplice shrink.

ma quindi tirando le somme ora non arrivera Navi ma arrivera solo Vega sui 7nm ?

Gyammy85
06-06-2018, 16:49
ma quindi tirando le somme ora non arrivera Navi ma arrivera solo Vega sui 7nm ?

Si, navi a inizi 2019

Il nabbo di turno
06-06-2018, 17:09
Si, navi a inizi 2019

In verità di parla di vega 20 in versione gaming, e di navi per il q2/q3 2019, probabilmente fasce differenti...

sgrinfia
06-06-2018, 17:51
Chi è sto tizio?

E' lui il Wang di ATI?

é quello che si pompa Lisa..........

Gyammy85
06-06-2018, 18:28
Ci sta invece, dichiarano che è una scheda per il DL/IA e compute fp64, che poi ci si possa fare rendering è scontato con 32GB di Vram a bordo :sofico:


Che io sappia le instinct non hanno uscite video...

Il nabbo di turno
06-06-2018, 18:45
Secondo me, vega 20 se sarà sui 300/330 mm^2 come si ipotizza, sarà una fascia medio/alta stile 7970/280x, con navi vogliono approcciarsi alla progettazione a moduli, quindi mi aspetto delle fasce enthusiast/medio/basse( 120-150 mm^2 x2 dando la fascia media, x4 dando la enthusiast).

Tempi comunque un po' più dilatati per navi, non arriverà di sicuro a inizio 2019...

Angeland
06-06-2018, 19:23
Tanto per buttare giù due date, Vega 7nm versione gaming a fine anno, Navi in estate 2019 stile Vega 10 :cool:

Il nabbo di turno
06-06-2018, 20:41
Tanto per buttare giù due date, Vega 7nm versione gaming a fine anno, Navi in estate 2019 stile Vega 10 :cool:
è impossibile che arrivi quest'anno, credo che la vedremo al ces 2019...

Gyammy85
06-06-2018, 20:57
La prima vega instinct venne presentata a dicembre 2016, La rx uscì ad agosto 2017, ma era un periodo molto diverso, c'era ryzen da lanciare.

Per come la vedo io, potrebbero benissimo lasciare vega 7 nm in fascia medio alta e andare di navi in fascia alta e uber, e lanciarle in contemporanea.
Abbiamo ancora troppe poche informazioni, non si possono fare previsioni.

Gyammy85
06-06-2018, 21:24
https://s15.postimg.cc/5l3w5lisr/AMD-7nm-_VEGA-vs-14nm-_VEGA.jpg (https://postimages.org/)

Stimano <300 mm2

Qualcuno ipotizza queste specifiche

GPU Model:AMD Vega 20
Node:7nm FF
Die Size:300 mm2
Transistors (millions):17500
T.Density (M/mm2):24
Cores:4096
TMUS:346
ROPS:64
Core Clock *(max):1400MHz
Mem. Clock(max):1960 MHz
Mem. Size(max):32768 MB
Mem. Type(best):HBM2
Mem. Bus(max):4096-bit
Bandwidth(max):1Tb/s
FP32 Performance(max GFLOPs):16994

Arrow0309
07-06-2018, 08:42
Ma chi fa queste stime, qualcuno che non sa nemmeno fare i calcoli base come clock*2*fma=Gflops :D

1400mhz è il clock di Vega 56 sui 14nm e fanno 11'500 GF, la densità pure è quella dei 14nm ma è sbagliata in quanto 17500/300=58 M/mmq che è un enormità, le TMU sono messe a caso.

Ma dove hai trovato ste puttanate? :D

ti dico le mie:
GPU Model:AMD Vega 20
Node:7nm FF
Die Size:330 mm2
Transistors (millions):15000
T.Density (M/mm2):45
Cores:4096
TMUS:256
ROPS:128
Core Clock *(max):2100MHz
Mem. Clock(max):2400 MHz
Mem. Size(max):32 GB
Mem. Type(best):HBM2
Mem. Bus(max):4096-bit
Bandwidth(max):1.2Tb/s
FP32 Performance(max GFLOPs):17200
TDP:200~225watt

Spero che tu abbia ragione, non vedo l'ora che esce in versione liquid all in one (il top di gamma) se no la liquido io. :sofico:
È che sono passato al 4k finalmente, ho appena preso un 28" Samsung CH75 qled in arrivo oggi. :fagiano: :p
Dopo 3 gen nvidia e 5 vga sarò un po' emozionato di tornare con le rosse (che ho sempre avuto dalla Radeon 7200 in poi). :D
Btw:
Qualcuno anticipa una data d'uscita?

Arrow0309
07-06-2018, 09:39
Bisogna vedere però se sarà bene ottimizzata per il Gaming inizialmente, dato che in prima battuta uscirà solo per il mercato Pro, con i relativi costi esorbitanti (almeno 800/1000$), che però a quanto sappiamo non sono un problema per te :p

Come tempi, mi aspetto non prima di ottobre (Q4) per la Pro (loro dichiarano un generico H2 2018), e per la Gaming se davvero ci sarà dato che ancora non si può esserne sicuri, credo proprio poco prima di Natale o direttamente al Q1 2019.

Indubbiamente questa Vega20 da 330mmq aumenta le aspettative di quello che potrà essere però Navi, in quanto può essere una uarch Gaming che ricopre tutte le fasce (scalabile) e/o quindi anche una Big GPU da 500mmq e oltre.

Come dice Nabbo, anch'io mi aspetto quanto avvenuto con le serie hd7000 (Vega20) e poi rx200 (Navi), come dire Tahiti:Vega20 = Hawaii:Navi
LOL, avute sia le 7950 e poi 7970 ed anche la 290. :D
Speriamo di tornare a quei tempi, anche se la vedo dura con le verdi. :D

Gyammy85
07-06-2018, 09:49
LOL, avute sia le 7950 e poi 7970 ed anche la 290. :D
Speriamo di tornare a quei tempi, anche se la vedo dura con le verdi. :D

Verdi non pervenute, guarda la mia firma :O

mircocatta
07-06-2018, 10:14
la butto li, visto il x2 efficienza e +35% di prestazioni
partendo dalla vecchia vega, si potrebbe avere una gpu che va come una 1080ti con il consumo della 1080 liscia (180-200watt), decisamente NON male

FroZen
07-06-2018, 10:23
Mi "serve" una gpu non oltre i 500 che mi piloti il 3440x1440 a dettagli buoni tra i 60 e i 100fps..... fate vobis :O

Gyammy85
07-06-2018, 10:36
la butto li, visto il x2 efficienza e +35% di prestazioni
partendo dalla vecchia vega, si potrebbe avere una gpu che va come una 1080ti con il consumo della 1080 liscia (180-200watt), decisamente NON male

Ma anche più, lì indacano maggiore di...

Mi "serve" una gpu non oltre i 500 che mi piloti il 3440x1440 a dettagli buoni tra i 60 e i 100fps..... fate vobis :O

La vega nano.
:eek: :ops:

Arrow0309
07-06-2018, 11:22
Mi "serve" una gpu non oltre i 500 che mi piloti il 3440x1440 a dettagli buoni tra i 60 e i 100fps..... fate vobis :O
Possibile, tranne la prima condizione. :asd:

Vul
07-06-2018, 12:21
Possibile, tranne la prima condizione. :asd:

Senza maxare è assolutamente possibile.

Io gioco in dual screen con una 580 da 250 euro, certo devi abbassare qualcosa ma è fattibile.

Gyammy85
07-06-2018, 13:45
Grid come si possono raddoppiare solo le rops? Non bisogna mantenere i rapporti?

Angeland
07-06-2018, 14:16
Per quanto mi riguarda possono saltare Vega 20 gaming o relegarla a fascia media, voglio la big Navi :oink: :oink: :oink:

Se non ricordo male, Lisa ha espressamente detto che il prossimo passo sarà portare i 7nm sulle gpu da gaming, ma non ha specificato se saranno basate su Vega 20 o Navi (:oink: :oink: )

Vul
07-06-2018, 14:37
Per quanto mi riguarda possono saltare Vega 20 gaming o relegarla a fascia media, voglio la big Navi :oink: :oink: :oink:

Se non ricordo male, Lisa ha espressamente detto che il prossimo passo sarà portare i 7nm sulle gpu da gaming, ma non ha specificato se saranno basate su Vega 20 o Navi (:oink: :oink: )

Dormi tranquillo saranno ennesimi refresh quelli a 7 nm :asd:

Ma poi Navi non avrebbe più senso in ambito pro dove la latenza è un problema di minore importanza e si può parallelizzare i calcoli senza tanti problemi?

Stile Threadripper vs CoffeeLake/Ryzen 2.

Gyammy85
08-06-2018, 09:13
https://www.techspot.com/news/74985-new-amd-graphics-chief-david-wang-company-release.html

A quanto pare Wang afferma che hanno preferito in passato dedicarsi più al mercato AI che gaming e che saranno più determinati.
Comunque è lo stesso wang che era in ati :cool: :D

techfede
08-06-2018, 10:11
https://www.techspot.com/news/74985-new-amd-graphics-chief-david-wang-company-release.html

A quanto pare Wang afferma che hanno preferito in passato dedicarsi più al mercato AI che gaming e che saranno più determinati.
Comunque è lo stesso wang che era in ati :cool: :D
E' una buona prospettiva, ma non ha specificato una gpu gaming all'anno.

Gyammy85
08-06-2018, 10:14
E' una buona prospettiva, ma non ha specificato una gpu gaming all'anno.

Vabbè dai è sottinteso, se dice che hanno messo un pò da parte il gaming per l'IA e ora intende cambiare rotta...è il neo capo della divisione grafica quindi indica la direzione da seguire...

Gyammy85
08-06-2018, 11:08
Apprezzo il maggior impegno nel gaming ma il promettere una nuova gpu ogni anni potrebbe non essere la scelta migliore.
Se poi devi aspettare 6 mesi in più per il nuovo PP o cose del genere che fai? Esci con un prodotto già vecchio per rispettare una tempistica che nessuno ti ha chiesto?
Oppure fai il rebrand del rebrand?

Staremo a vedere...

https://s19.postimg.cc/iez8yyaz7/vega10_analized.jpg
Ho fatto i conti con precisione, le mie erano supposizioni per logica:
l'hbcc è da considerare insieme per il controller di memoria, in teoria AMD considera anche la L2 nel conteggio, io ho messo gli stessi colori infatti, ma non l'ho considerato nei mmq per Vega20, totale 12+12+26= 50mmq per Vega10 sui 14nm → circa 30mmq sui 7nm per Vega20.
Per le rops e geo sono (27+13)x2= 80mmq per Vega10 sui14nm → circa 50mmq sui 7nm per Vega20, ma non raddoppieranno anche i Geo ma solo le rops, quiondi 27x2= 55 per Vega10 sui 14nm → 35mmq sui 7nm per Vega20.
https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/7.html

quindi in linea teorica il mio conteggio di 245mmq + 30 per il bus doppio e + 35 = 310mmq, potrebbe essere corretto...

Ma la foto è di vega 10?
Si tutti convengono che sia intorno ai 300. Ma tolti 2 stack, in 486 mm2 cosa potrebbe starci a 7 nm?

Gyammy85
08-06-2018, 11:19
No gyammy, è la foto di Vega1000... ma che domande fai? :D
facevo tutto sto casino senza prendere la foto di Vega10, poi guarda le slide AMD, ho preso da li le parti hardware, trovare poi i mmq è un giochetto in autocad.

No pensavo che magari qualcuno avesse divulgato degli shot "rubati"
Che ne dici, a spanne cosa potrebbe entrare nello stesso spazio di vega 10 ma a 7 nm?
Io pensavo che per navi potrebbero spingersi a 96 cu, cioè 6144 sp, oltre non mi sembra ragionevole andare...
Sempre che non ridisegnino la logica delle cu...

Gyammy85
08-06-2018, 11:35
prova a fare i conti, per 96 CU, devi contare 2 cluster NCU da 16, 2 Geo + 32 rops e + 2 mb l2, i biit credo rimarrebbero sempre 4096, ma non ne sono sicuro se si possa non mantenere la proporzione tra rops e imc...
però poi devi rapportarli a 7nm, i valori che leggi li sono tutti ovviamente a 14nm... come scaling potresti usare un più realistico 1.7x, solo la cache credo scali a 2x, quindi dividere ad esempio 60mmq per 1.7 = 35mmq per 16 NCU

Si se lasciano le cose inalterate, ma potrebbero cambiare i rapporti fra le varie unità.
Siamo d'accordo che vega 20 non è semplicemente vega 10 shrinkata, ma non abbiamo sufficienti informazioni per fare ipotesi.
Se prendi il leak del 3dmark di vega 20, vedi che l'aumento di performance è consistente, in un'applicazione non pro, e siamo oltre il 35%.
Dato che i clock erano molto più bassi della vega fe, o hanno potenziato l'if, o hanno limato i colli di bottiglia, alle 128 rops non credo, come anche non credo che siano più di 64 cu. Ma tutto può essere, perciò...BOH :D

Angeland
08-06-2018, 14:07
Dormi tranquillo saranno ennesimi refresh quelli a 7 nm :asd:

Ma poi Navi non avrebbe più senso in ambito pro dove la latenza è un problema di minore importanza e si può parallelizzare i calcoli senza tanti problemi?

Stile Threadripper vs CoffeeLake/Ryzen 2.


:cry: :cry: :cry:

Gyammy85
08-06-2018, 14:35
:cry: :cry: :cry:

Dormi tranquillo, per vul sono tutti rebrand dal 2012 :asd:

DuttZ
09-06-2018, 16:09
Per Navi non si diceva che avrebbe adottato l'infinity fabric?
Per il computo totale degli NCU bisognerebbe sapere quanti ne ha ogni singolo die? Giusto o dico una castroneria?

Inviato dal mio LG-H870 utilizzando Tapatalk

Gyammy85
09-06-2018, 18:25
Per Navi non si diceva che avrebbe adottato l'infinity fabric?
Per il computo totale degli NCU bisognerebbe sapere quanti ne ha ogni singolo die? Giusto o dico una castroneria?

Inviato dal mio LG-H870 utilizzando Tapatalk

L'if c'è pure su Vega, ma per qualche ragione funziona bene solo su applicazioni pro.
Infatti si pensa che ne abbiano aumentato l'ampiezza, ma bisognerebbe avere qualche info in più su Vega 20. Staremo a vedere...

DuttZ
09-06-2018, 19:51
Sono tutte teorie, di ufficiale non si è mai visto nulla su Navi.Thanks


Inviato dal mio LG-H870 utilizzando Tapatalk

Free Gordon
10-06-2018, 13:56
Sai che bestia Vega20 con 4raster/4096sp/128rops/1.2TBs/16-32 GB 2.0ghz 200watt :sofico:



Le Rops (SPERIAMO DAVVERO) le rifanno con Navi, non con Vega...imho.

Vega20 sarà uno shrink alla fine...con qualche miglioria probabilmente..

Free Gordon
10-06-2018, 13:58
No questo ha l'aria di essere un tecnico secchione non un fonzie da palcoscenico :D

Ma chi sarà sto tizio..? :asd:
Qualcuno lo sa??
O passava di lì per caso?? :rotfl:


é quello che si pompa Lisa..........

:rotfl:

Gyammy85
10-06-2018, 15:04
Ma chi sarà sto tizio..? :asd:
Qualcuno lo sa??
O passava di lì per caso?? :rotfl:




:rotfl:

Uno che aveva già lavorato in ati anni addietro
È il nuovo responsabile del rtg

Gyammy85
11-06-2018, 07:54
se sarà soltanto uno shrink significa che stanno mentendo sullo scaling 2x allora, perché i conti non tornano, come non tornano i conti di Vega su Fiji che per i guru è soltanto uno shrink pure li :D

Eh ma son tutti shrink non lo sai? secondo me è la 7500 shrinkata
E meno male che hanno scritto da subito che ha 32 giga, se no "eh ma non può essere nei paper del board di Samsung non ci sono e neanche nella roadmap e neppure ovunque ma tanto 14 gigga bastano per fare tutto"

Gyammy85
11-06-2018, 08:03
Le Rops (SPERIAMO DAVVERO) le rifanno con Navi, non con Vega...imho.

Vega20 sarà uno shrink alla fine...con qualche miglioria probabilmente..

Ma il problema non erano le super unità dedicate mancanti per il rendering esclusivo dei poligoni dell'ue4? :D

Gyammy85
11-06-2018, 08:55
guarda, Vega10 è li, e non mi pare sia proprio uno shrink di Fiji :p
oltretutto per Vega il minor scaling è dovuto oltre alla novità hbcc in più, il power managment e sistema rops diverso anche dal fatto che le pipeline sono leggermente diverse e più votate al clock, non per altro sale di almeno 200mhz sopra a P20 e 300mhz sopra P10 il che però ha comportato ad un Die leggermente più grande, ma senza dimenticare che c'è la metà del bus per circa la stessa banda...


Non dirlo a me, lo so bene
Io mi baso sempre sul quel leak per ora, e guadagni così netti da qualche parte vengono. Comunque che il 14 nm per le gpu sia stato un mezzo fail penso sia ormai palese, come pure il maestoso lavoro di amd.

Gyammy85
11-06-2018, 09:13
Chissà quanto prende in Intel più che altro :sofico:



Non è tanto quello, ma AMD ha osato troppo ad utilizzare il PP di GF per fare Vega, con Polaris ci poteva stare ma con Vega dovevano utilizzare il PP di TSMC e si sono visti i limiti di GF soprattutto sul TDP, nettamente migliore basta guardare le stesse gpu nvidia fatte con il PP di GF gp107/108 che è sono chippini e tutte le altre, circa 200mhz in meno...
metti +150mhz a Vega in clock Max oppure gli stessi clock ma con TDP inferiori del 10~15%, altro che Fail...
Sicuramente il silicio GF gli sarà costato poco, e che costi benefici gli conveniva così ma non ne sarei tanto sicuro...

Secondo me qualcosa non è andata come loro si aspettavano, ma wang ha confermato che comunque avevano in mente di sfondare principalmente in altri settori, e abbiamo visto come anche una rozza vega 64 (senza andare a scomodare la fe) vada nel rendering e nel calcolo puro, pure rispetto a volta.

Gyammy85
11-06-2018, 09:32
Ma ci sono altri eventi in vista a parte l'E3?

Ubro92
11-06-2018, 09:32
Chissà quanto prende in Intel più che altro :sofico:



Non è tanto quello, ma AMD ha osato troppo ad utilizzare il PP di GF per fare Vega, con Polaris ci poteva stare ma con Vega dovevano utilizzare il PP di TSMC e si sono visti i limiti di GF soprattutto sul TDP, nettamente migliore basta guardare le stesse gpu nvidia fatte con il PP di GF gp107/108 che è sono chippini e tutte le altre, circa 200mhz in meno...
metti +150mhz a Vega in clock Max oppure gli stessi clock ma con TDP inferiori del 10~15%, altro che Fail...
Sicuramente il silicio GF gli sarà costato poco, e che costi benefici gli conveniva così ma non ne sarei tanto sicuro...

Vega è arrivato commercialmente tardi, non è che potevano far molto senza ritardare ulteriormente quindi la scelta era presentarlo cosi o non presentarlo affatto penso che anche l'implementazione di 2 moduli HBM invece che 4 come per le fury quindi 2048bit anzichè 4096bit penso sia proprio per contenere le dimensioni del chip e relativi consumi essendo molto ai limiti...

Per 1050/1050ti l'uso dei 14nm non ha portato miracoli è servito solo a rendere fattibili i 75w senza connettori ausiliari e l'aggiunta di un tpc in più se cosi non avessero fatto al massimo solo la 1050 poteva rientrare nei 75w, la 1050ti a 16nm sarebbe salita intorno agli 85w o prossima ai 90...

Free Gordon
11-06-2018, 11:39
se sarà soltanto uno shrink significa che stanno mentendo sullo scaling 2x allora, perché i conti non tornano, come non tornano i conti di Vega su Fiji che per i guru è soltanto uno shrink pure li :D


Vega è Fiji con qualche aggiunta/modifica ma non sostanziale lato gaming. :)

Le "aggiunte" sono state fatte anche per garantire clock migliori (e per aggiungere cose poco influenti lato gaming), perché senza quelle anche coi 14nm non avrebbe preso 1500mhz (partendo dai 1000 della vecchia architettura).

Ci sono i test con le due architetture a confronto allo stesso clock e si vedono poche differenze (a parte sparuti casi).
https://m.hardocp.com/article/2017/09/12/radeon_rx_vega_64_vs_r9_fury_x_clock_for/15
(There is no other conclusion we can come away with. Even at the highest difference we only experienced an 8% performance advantage clock for clock in two games. Most games were between 1% to 5% performance advantage. Given the nature of the dynamic clock speed on Vega this is within the margin for error. There were a few games that had almost exactly the same performance, or within 1FPS to 2FPS of each other.)

Non che Nvidia con Pascal rispetto a Maxwell abbia fatto di meglio...è semplicemente salita di clock (ovviamente partiva da una base migliore lato performance/consumi quindi non era necessario investire di più in stravolgimenti architetturali) e ha fatto qualche piccola modifica.
Con la differenza però che grazie alla maggior plasticità/versatilità delle loro ultime architetture, possono salire e scender di SP e di bus, facendo solo variare i clock e ottenendo performance in confronto alla concorrenza (esempio lampante, la 1080 liscia :) )

Per Vega20 il discorso sarà lo stesso...con qualche balzello a livello architetturale (lato gaming, come successo con Vega10) e una salita del clock grazie ai 7nm e altri affinamenti (che costano transistor ovviamente :) ).

Cmq sia...quel chip che si è visto con 32GB di HBM2 e più di 300mmq non rappresenta un chip dal costo medio o basso, non è un chip di fascia media, sarà un chip dai costi molti alti...anche causa 32GB di HBM2.

Il suo target di vendita NON è quello gaming, è già stato dichiarato.

Questo ancor più mi fa' pensare che quei 70-80mmq in più rispetto a uno scaling lineare di vega10 dai 14 ai 7nm, siano occupati da hw che poco serve ai giochi.. (a parte altre modifiche che serviranno per salire di clock).

Ubro92
11-06-2018, 14:34
scusa ma... cosa stai dicendo? :D

guarda che sta nei 75 watt perché clocka ben 200/300mhz meno a stock rispetto alle sorelle maggiori, questo anche perché nvidia per queste schede non ha dimezzato gp106, il 14nm GF poi è peggiore del 16nm TSMC, basta guardare i clock a def e in OC della 1050ti vs 1060 o 1080.
Hanno scelto il silicio GF non perché consuma meno, anzi figuriamoci, ma perché per una scheda da 100-150$ è meglio risparmiare sul silicio per aumentare i guadagni e i volumi piuttosto che puntare alle prestazioni assolute e selezionare silicio.

1050 24rops 1400/1520 75watt +100/120 mhz
1050ti 32rops 1300/1400 base/boost 75watt
1060 6GB 1500/1700 base/boost 120watt +200/300 mhz
1080 8GB 1600/1730 base/boost 180watt +300/340 mhz :eek:

in pratica nVidia non ha replicato lo schema della sorelle maggiori, 1GPC → 5SM → 16rops → 64bit (considerando che gp106 ha +64bit e 16rops), ma con GP107 ha fatto 1GPC → 3SM → 16 rops → 64bit (x2) questo ha comportato clock inferiori per non sforare i 75watt, altrimenti la 1050ti con i mhz della 1060/1080 sarebbe sui 90watt (45watt) se fosse sui 16nm ma almeno sui 120watt sui 14nm, guada che 300/400mhz a stock sono tanti eh, sono il 15~20% in meno di clock :sofico: .

Consideriamo che la 1050ti ha lo stesso numero di rops di Polaris pur utilizzando la metà del Bus, sembra quasi una scheda da 7nm (1GPC 8SM 32rops).

Hai ragione per 1050ti la struttura è ben diversa (https://www.pcgamesn.com/sites/default/files/Nvidia%20GTX%201050%20Ti%20GPU%20comparison.jpg), per un attimo tenevo a mente lo schema della GTX 750ti (https://assets.hardwarezone.com/img/2014/02/GPC.png)

Ubro92
11-06-2018, 14:57
ma che intendi?

ho una msi 1050ti gaming con connettore 6pin che sta a 1920mhz a 65 gradi in case chiuso non ventilato dopo mezz'ora di heaven tutto stock, le 1070/1080 quanto stanno di default?

avevo provato anche una asus ventola singola, anche lei stava sui 1900mhz, la mia 1080 fe stock mi pare scenda sotto i 1800mhz...

Lui intende la differenza fisica tra i due pp 14 vs 16nm:

https://cms.edn.com/ContentEETimes/Images/EETimes_cte/Linley%20node%20table%20x%20800.png

Dal punto di vista del clock massimo non ci sono differenze assolute, mediamente si cloccano esattamente quei 200mhz in più, se tu sei arrivato a 1.9ghz l'equivalente 16nm murerebbe intorno ai 2.1ghz...

Discorso diverso per quanto riguarda area/consumi dove con i 14nm si dovrebbe a pari clock recuperare un piccolo margine...

Free Gordon
11-06-2018, 15:03
oh mio dio, ma dopo un anno ancora che ne parliamo, lo sanno pure i sassi ormai :D

Che cosa sanno anche i sassi? :stordita:


l'hbcc poi non serve mica per salire di clock e la L2 in più neppure anzi,

E non serve granché nemmeno in gaming... (guarda i risultati sopra), è un bell'impiego di transistor :D ma non per il gaming nudo e crudo.

Bada bene, non sto qui facendo la ricerca dei difetti di Vega o delle pecche nelle innovazioni che introduce il mio discorso partiva dal fatto che Vega10, per ciò che concerne i giochi, non è granché diverso da Fiji :)
I risultati sono lì a confermarlo..
LA vera differenza è che clocka a 1550mhz. :)

E non sto nemmeno dicendo che Vega10 non abbia un mucchio di potenzialità inespresse che non vengono sfruttate ad oggi (è la storia di ATI... fidati che la conosco bene, sono ATIista da 18 anni :D ).


semmai il power management si quello serve, ma lo spazio che occupa in più oltre alle novità di cui prima è dovuto alle NCU che sostanzialmente mantengono lo stesso IPC che è Alto in AMD è bene ricordarlo, ma riuscendo a clockare +200mhz su Polaris e sullo stesso PP, che non è certamente adatto o il migliore in assoluto ad una GPU di quelle dimensioni. Se Vega10 fosse sui 16nm sarebbe almeno 30-40watt in meno, con 100mhz di clock in più, ma forse gli costava troppo come silicio per una scheda che non avrebbe comunque "venduto come il pane" cit.

Questo SE non è verificabile...perché non esiste una Vega a 16nm TSMC.
Chiaro che le NCU sono più grosse anche per salire di clock, mica ho parlato diversamente io. :)

Il succo del discorso resta che in gaming Vega è una 1080 lato performance e una 1080Ti lato consumi/spazio. :D
Not so good..

Non mi sto addentrare nello specifico dei perché di questa cosa, certamente la programmazione dei giochi DX11 non avvantaggia le AMD e anche sui DX12 ci sono ancora grosse lacune. I soliti vecchi discorsi triti e ritriti.

Gyammy85
11-06-2018, 18:30
Non ne ho idea, ma +50% di clock È una differenza architetturale.

Senza contare la differenza che va dal 10 al 20% nella review di computerbase a seconda dei giochi, con differenze a volte abissali nei minimi.
Probabilmente la stessa differenza in ipc che passa da sandy bridge a coffe lake, solo applicato alle schede video.
Ma son dettagli, fail.

Free Gordon
12-06-2018, 02:54
Sanno anche i sassi cosa c'è in Vega di diverso che in Fiji, di come va o come non va, che mi pare addirittura anacronistico parlarne adesso, il paragone andrebbe fatto su quel die shot di Vega10 e lo scaling dichiarato con i 7nm che non torna con le foto di Vega20, ci ballano 80mmq in più mica, +30% di silicio utilizzato, mica noccioline...
...ma tanto sarà soltanto uno shrink no? :read:

Come dicevo sopra, in quegli 80mmq in più ci saranno cose che servono poco nel gaming. ;)
Felice di essere smentito ma temo proprio che sarà così.

Cioè Vega20 non sarà sicuramente un'archi nuova, avrà di nuovo un incremento di clock (e anche lì probabilmente servono altri transistor) e qualche miglioria (quello che è stato Vega10) ma non mi aspetto nulla di più.

Il rischio sarà di trovarsi le prestazioni di una Fiji clockata più alta (2Ghz??), dato che difficilmente ci schioderemo dalle 64CU/64ROPs... :stordita:


Ciò di cui parli tu me lo aspetto (SI SPERA...) con Navi!!! :oink: :read: :O

Gyammy85
12-06-2018, 07:01
Come dicevo sopra, in quegli 80mmq in più ci saranno cose che servono poco nel gaming. ;)
Il rischio sarà di trovarsi le prestazioni di una Fiji clockata più alta (2Ghz??), dato che difficilmente ci schioderemo dalle 64CU/64ROPs... :stordita:
Quindi ancora una volta una normale furyx da 8 gigga a 5+ghz giggah

Fixed! :)
Secondo me in quegli 80 mmq c'è una monetina salvaspazio :cool:

Ricapitolando

Vega = fiji overclocked
Vega 20 = fiji supercharged

#architetturelongeve

Ma soprattutto

#itsalongtimefromnowkeepcalmandbuyeverythingTI

:) :)

Gyammy85
12-06-2018, 07:08
https://www.reddit.com/r/Amd/comments/8q8yar/amds_12nm_gpu_product_may_appear_in_2018/

(source 1) We plan to introduce new client and graphics products based on GF’s 12nm process technology in 2018 as a part of our focus on accelerating our product and technology momentum. (GF Press release)
(source 2) Mark Papermaster : AMD explained that in 2018 CPU and GPU products for clients will be released using 12 LP. ( CES Tech Day 2018 )
(source 3) About 12 nm GPU "I can not speak at the moment". (Computex 2018)

Free Gordon
12-06-2018, 10:05
Ricapitolando
Vega = fiji overclocked
Vega 20 = fiji supercharged
#architetturelongeve

Vedremo... :)
Per ora la prima (lato gaming) è VERA. ;)

Gyammy85
12-06-2018, 10:17
Vedremo... :)
Per ora la prima (lato gaming) è VERA. ;)

Anche se abbiamo dimostrato il contrario in decine di post nelle ultime pagine :asd:

Free Gordon
12-06-2018, 10:28
Vega = Fiji +50% clock.
:help:

Lato gaming è pressappoco così. :)

Non che Nvidia abbia fatto meglio rispetto a Maxwell, Pascal ha sostanzialmente alzato il clock e poco altro.

Il problema grossissimo di AMD è che quello che ha fatto Nvidia, a causa dell'architettura GCN, non se lo può permettere... :stordita:

AMD ha fatto un chip di fascia alta (Vega64) con lo shrink della vecchia fascia enthusiast (Fiji 600mmq 64CU --> Vega 480mmq 64CU)

Nvidia ha fatto un chip di fascia alta (GTX 1080) con un chip "nuovo" (2560sp) più minuto rispetto alla vecchia fascia enthusiast (3072sp)
(Titan/98oTi 600mmq..... GTX 1080 314mmq) semplicemente con l'incremento di clock.

Cioè coi 14nm AMD (PER COLPA DI GCN, non giriamoci intorno..) ha perso una FASCIA.... :mad: :mad: :mad:

Spero vivamente che Navi sia una sterzata grossa...ma bella grossa.

Su Vega20 non ho alcuna aspettativa se sarà (come pare) una riduzione a 7nm di Fiji/Vega 64CU...

Gyammy85
12-06-2018, 10:39
Lato gaming è pressappoco così. :)

Non che Nvidia abbia fatto meglio rispetto a Maxwell, Pascal ha sostanzialmente alzato il clock e poco altro.

Il problema grossissimo di AMD è che quello che ha fatto Nvidia, a causa dell'architettura GCN, non se lo può permettere... :stordita:

AMD ha fatto un chip di fascia alta (Vega64) con lo shrink della vecchia fascia enthusiast (Fiji 600mmq 64CU --> Vega 480mmq 64CU)

Nvidia ha fatto un chip di fascia alta (GTX 1080) con un chip "nuovo" (2560sp) più minuto rispetto alla vecchia fascia enthusiast (3072sp)
(Titan/98oTi 600mmq..... GTX 1080 314mmq) semplicemente con l'incremento di clock.

Cioè coi 14nm AMD (PER COLPA DI GCN, non giriamoci intorno..) ha perso una FASCIA.... :mad: :mad: :mad:

Spero vivamente che Navi sia una sterzata grossa...ma bella grossa.

Su Vega20 non ho alcuna aspettativa se sarà (come pare) una riduzione a 7nm di Fiji/Vega 64CU...

Amd ha gettato le basi per il futuro con una nuova architettura, nvidia si ritrova a raschiare il fondo del barile, dovendo ricavare una 1180ti gaming dalla pachidermica gtx 280 style titan v. Mi sa che i problemi grossi a sto giro non li ha amd...

Free Gordon
12-06-2018, 10:54
Amd ha gettato le basi per il futuro con una nuova architettura, nvidia si ritrova a raschiare il fondo del barile, dovendo ricavare una 1180ti gaming dalla pachidermica gtx 280 style titan v. Mi sa che i problemi grossi a sto giro non li ha amd...


Nvidia probabilmente arriverà con questa gen a saturare l'attuale architettura (non so..ipotizzo) ma AMD, questo limite lo ha già raggiunto 2 generazioni fa' con Fiji (64CU e 4geo)... :asd:

Se Vega20 sarà un cambio NETTO di architettura, ti darò ragione...
Se invece sarà (come penso) l'ennesimo balzello (lato gaming) con bump del clock grazie ai 7nm e qualche lieve modifica...beh, penso che sarà veramente dura tirar fuori un prodotto accettabile rispetto alla concorrenza. :)

Già Vega10 non lo è: "vendono" un chip che costa e consuma come una 1080Ti.. al prezzo di una 1080. :)

Non si va' avanti molto bene così. :fagiano:

Fortuna che è forte nel compute e nel mining... :oink:

Gyammy85
12-06-2018, 11:01
Nvidia probabilmente arriverà con questa gen a saturare l'attuale architettura (non so..ipotizzo) ma AMD, questo limite lo ha già raggiunto 2 generazioni fa' con Fiji (64CU e 4geo)... :asd:

Se Vega20 sarà un cambio NETTO di architettura, ti darò ragione...
Se invece sarà (come penso) l'ennesimo balzello (lato gaming) con bump del clock grazie ai 7nm e qualche lieve modifica...beh, penso che sarà veramente dura tirar fuori un prodotto accettabile rispetto alla concorrenza. :)

Già Vega10 non lo è: "vendono" un chip che costa e consuma come una 1080Ti.. al prezzo di una 1080. :)

Non si va' avanti molto bene così. :fagiano:

Fortuna che è forte nel compute e nel mining... :oink:

Eh, se al posto di usare CUDA uberworks usassero opencl, la vedresti tutta la potenza nel compute.
Comunque ricordo che una volta "i veri soldi si fanno nel pro e lì le radeon non vanno bene che non hanno l'architettura efficiente e i driver fanno schifo", ora diventa motivo si scherno?

Roland74Fun
12-06-2018, 12:49
A questo punto facciamo una comparazione con tutte le schede a parità di frequenza.
Ad esempio la mia ex R7 370 4GB. Con clock a 950 mhz portata a 1450 mhz come una 580? Oppure a 1800+ mhz come quelle delle altre marche?

Oppure mettiamo le schede che cammina 1800 mhz+ a 1300 come le RX480/580 e poi facciamo le comparazioni.

Ovvio quindi che diverse frequenze richiedano architettura differente.

melo86
12-06-2018, 14:02
Amd ha gettato le basi per il futuro con una nuova architettura, nvidia si ritrova a raschiare il fondo del barile, dovendo ricavare una 1180ti gaming dalla pachidermica gtx 280 style titan v. Mi sa che i problemi grossi a sto giro non li ha amd...

beh, in realtà nvidia ha avuto molto tempo per questa nuova architettura, e ancora non se ne sa praticamente nulla a parte qualche rumor... in base a cosa lo pensi?

Gyammy85
12-06-2018, 14:05
beh, in realtà nvidia ha avuto molto tempo per questa nuova architettura, e ancora non se ne sa praticamente nulla a parte qualche rumor... in base a cosa lo pensi?

In base alle prestazioni della titan v e in base al fatto che ad ogni intervista da 1 anno a questa parte Huang risponde "eh vabbè dai che pascal va ancora benone". In alcune occasioni hanno presentato pure le schede finte pur di far parlare di se, ora manco quello, fatti due conti...:fagiano:

Il nabbo di turno
12-06-2018, 15:01
In base alle prestazioni della titan v e in base al fatto che ad ogni intervista da 1 anno a questa parte Huang risponde "eh vabbè dai che pascal va ancora benone". In alcune occasioni hanno presentato pure le schede finte pur di far parlare di se, ora manco quello, fatti due conti...:fagiano:

Ma non lo sai che le gtx 1180 escono domani a 12nm e andranno il 30% in più della 1080 ti consumando 1/3?:eek:

ninja750
12-06-2018, 15:04
Ma non lo sai che le gtx 1180 escono domani a 12nm

beh quello è sicuro, qui nel mercatino sono comparse milioni di 1080/1080ti/1070

tutti in preda alla scimmia :D

melo86
12-06-2018, 17:57
Ma così a sbalzo dopo che lo stesso Huang ha dichiarato che non è previsto nessun lancio a breve? mah... :stordita:

Se avesse detto che le nuove schede sono vicine, con i magazzini ancora pieni, sai quante sberle? Penso che qualcuno che riesca ad arrivare a quel livello non sia così scemo.

Non sto dicendo che penso che siano vicine, sto solo dicendo che in ogni caso questa sarebbe stata la sola e unica risposta possibile.

Ton90maz
12-06-2018, 18:43
Ma ancora?

Il paragone con nVidia non regge e lo sai benissimo, Fiji rispetto a Maxwell fa CAGARE, e sbilanciata da matti ci sono giochi dove la FuryX va come la 980ti OC e giochi dove le prende dalla 980 OC, la base di partenza è importante non la si può tralasciare o non considerare...

Mentre l'AMD baracca (Vega) in alcuni giochi le prende dalla 1080 stock e la 1080 ti non la raggiunge neanche pregando. E' inutile tirare fuori i ben noti casi estremi.

Fiji era un cesso ma almeno competeva con il chippone nvidia in alcuni casi, la baracca manco quello

Gyammy85
12-06-2018, 18:51
Se avesse detto che le nuove schede sono vicine, con i magazzini ancora pieni, sai quante sberle? Penso che qualcuno che riesca ad arrivare a quel livello non sia così scemo.

Non sto dicendo che penso che siano vicine, sto solo dicendo che in ogni caso questa sarebbe stata la sola e unica risposta possibile.

Magazzini pieni? Ma non andavano a ruba? :fagiano:

Mentre l'AMD baracca (Vega) in alcuni giochi le prende dalla 1080 stock e la 1080 ti non la raggiunge neanche pregando. E' inutile tirare fuori i ben noti casi estremi.

Fiji era un cesso ma almeno competeva con il chippone nvidia in alcuni casi, la baracca manco quello

Baraccheon? Nuovo brand?

Ton90maz
12-06-2018, 18:59
Magazzini pieni? Ma non andavano a ruba? :fagiano:



Baraccheon? Nuovo brand?

Baraccheon SV


Peccato che faccio schifo con i programmi di grafica

Free Gordon
13-06-2018, 01:28
Il paragone con nVidia non regge e lo sai benissimo, Fiji rispetto a Maxwell fa CAGARE, e sbilanciata da matti ci sono giochi dove la FuryX va come la 980ti OC e giochi dove le prende dalla 980 OC, la base di partenza è importante non la si può tralasciare o non considerare...

E chi l'ha tralasciato? :stordita:
Anzi, l'ho scritto a chiare lettere... AMD non si può permettere di fare "solo" ciò che ha fatto Nvidia...



nVidia con il lavoro fatto su Maxwell in precedenza ha potuto fare un semplice shrink ed è arrivata prima sul mercato, AMD ha perso un anno facendo il refresh di Hawaii e progettazione quasi pari a 0 con Fiji (non ci vuole un genio a riempire i cluster di CU e mettere l'imc hbm invece che gddr), perché oltre allo shrink ha dovuto riprogettare la GPU per intero.

Refresh di Hawaii? Parli di Grenada? :mbe:
Non capisco a cosa ti riferisci quando dici che ha "riprogettato la GPU da zero".



E' stato ampiamente dimostrato che lato IPC Pascal non guadagna una virgola rispetto a Maxwell nel gaming,

E questo anche l'ho scritto, anche se alcune modifiche in realtà ci sono soprattutto per quanto riguarda l'async sotto dx12. ;)



mentre Vega mette delle pezze mica da ridere in quei casi dove Fiji fa schifo e mediamente clock to clock è sopra di un 10%,

Mi metti un link a questa cosa? Perché sinceramente non ho trovato riscontri (il link che ho messo io sopra diceva altre cifre..) e cmq c'è da considerare che Fiji ha 4GB di memoria e in molti casi i cali nel frame rate (o le medie basse) che può avere rispetto a Vega sono da riferirsi proprio a quella carenza (ormai difficilmente sostenibile.. ;) ) e non a fantomatici miglioramenti architetturali di Vega..

Cmq se hai dei nuovi link che mostrino bench clock to clock.. postali.



tutto questo legato ad un aumento di clock oltre il 50% con conseguente miglioramento la dove peccava molto, ovvero nel GP/s, ma certo 4 raster e 64 rops sempre quelle rimangono, ma adesso hanno quantomeno un rendimento superiore del 60% rispetto a prima, e si vede.

Il miglioramento di Vega rispetto a Fiji, nel gaming, è dovuto essenzialmente all'incremento di clock...più il fatto che non ha il limite dei 4GB (che sono da gestire costantemente via driver). ;)



PS:
oltretutto fai confronti sbagliati, la 1080 315mmq 2560cc/64rops@1800 256bit va confrontata con la 980 400mmq 2048cc/64rops@1300 256bit
nella stessa fascia scaling -25%, aumento del 25% degli cc e del 35% clock average.

ll confronto non è assolutamente sbagliato sei tu che non l'hai capito: è fatto in base alle prestazioni medie (ovviamente :D ) simili tra 1080 e Vega10.. e tra la somiglianza (eufemismo) architetturale tra Fiji e Vega10.. ;)

Free Gordon
13-06-2018, 01:45
- per quanto ne possiate dire, neanche la liquid è paragonabile ad una 1080ti ed ok, i soldi non si faranno in fascia 1080ti ma a volte è questione d'immagine

Ma certo che non ha una scheda paragonabile alla 1080Ti... mentre con Fiji aveva una scheda perlomeno "vicina" alla 980Ti. Anche se arrivata in ritardo ecc ecc..
Coi 14nm e la STASI sull'architettura gaming, AMD è finita proprio in una situazione di pupù... diciamolo chiaro.. :)


dall'altro lato abbiamo nvidia che prende maxwell, fa due cazzate, ne spara per 10x, tira fuori pascal, tutto gira tranquillamente senza richieste di ottimizzazioni particolari, addirittura physx ormai manco esiste più, consumi ridicoli, non ha un caxxo da fare prende il suo chip e tranquillamente senza che nessuno chieda nulla tira fuori varianti con sp e frequenze disumane, tensor core etc etc titan x, xp, v, mazinga z.

:rotfl:
proprio così...hanno un'architettura che partendo da Fermi...e passando per Maxwell, ha reso in maniera eccellente per quanto concerne il gioco, c'è poco da fare... :)


ora amd si ritrova ancora con sta patata bollente di vega e sperano di tirarle il collo sta volta a 7nm e qua tutti che parlate di "basta 2 tweak qui e tirano fuori il 20%" senza fare i conti con l'oste

:rotfl:
proprio così di nuovo...e per questo le schede da gioco a 7nm di AMD non le vedo per niente bene (a parte quelle di fascia bassa e medio/bassa) perché se tanto di mi da tanto i costi saranno cmq più alti della concorrenza e le prestazioni latiteranno...soprattutto quando si dovranno confrontare con 1180 liscia e Ti... :fagiano: :fagiano: :fagiano:

Se l'architettura resta quella (Fiji/Vega10 ecc..) l'unico piccolo vantaggio che potrà avere AMD è di tipo temporale...se GF (non so il perché) arriva prima di TSMC sul PP nuovo... ma durerà molto poco questo vantaggio... :rolleyes:



che già ha schede uber (anche nel prezzo) per quanto vuoi, che vanno più della 1080ti.... e non sappiamo che altro hanno in cantiere ma di certo la 1180 liscia non andrà meno di una 1080ti che amd ancora vede con il binocolo

tristissima verità...e mi dispiace davvero che le cose si siano messe così, causa sto carrozzone di GCN che è in ballo da 7 anni.... :rolleyes:



è grave quello che è successo, arriva raja che manco fosse il profeta in patria, non si sa che fa (vega non è suo, navi dicono sarà suo ma va via prima di partorirlo)... eppure lisa su sembra sapere il fatto suo.

Eh... è grave sì.. per fortuna che in questo 3d è pieno di ottimisti.. :asd: fortuna che qualcuno di questi ancora esiste. :D

Dal canto mio aspetto Navi...nella speranza che sia una sterzata forte in una direzione "giocosa" decisamente migliore. :)

Per Vega20 non ho alcuna speranza, dati i leak degli ultimi tempi (solita evoluzione GCN da 64CU, 4geo e 64ROPs) anche se penso che con quei 32GB di HBM2 @1TB/s e nuove soluzioni architetturali farà molto bene nella AI, Computing ecc ecc...

Ma sarà una scheda che se anche portata a 16 o 8GB + qualche sorta di cut, costerà un bel po' e non farà meglio della 1180 liscia. Stesso film di oggi con Vega64 = 1080 con più watt sul groppone...

Gyammy85
13-06-2018, 07:16
Si guarda è davvero messa male lato 7 nm, se nvidia non li ha fatti si vede che era meglio non farli.
Eh si la 1080ti occata la 1180 la vede col binocolo sicuro
Poi uno si toglie la giacca di pelle e vede che nell'ultimo anno la verità è che nvidia prima ti lancia la titan v flagship, poi si scopre che era un gommone (eh ma non è ottimizzata per il gaming perché 5000+sp e 600 giga di banda che con la turbocompressione diventano 6000 non bastano ecc...), poi "turing ampere le nuove architetture per i ggiochi", wow ma quindi ne faranno una per gta e l'altra per the witcher? no, pascal va ancora bene stay calm, poi ma insomma quando escono? uff che noiosi che siete, la strada è luuuunga. Ah no ma è una tattica in realtà escono domani :asd:
Manco il nome si sa, e già successo assicurato e gente che ha venduto le schede e passera 8 mesi con l'integrata :asd:
almeno la apple l'iphone n+1 lo sforna a cadenze regolari...

Gyammy85
13-06-2018, 07:33
Poi dire "è messa male sui 7 nm" è proprio il massimo, intanto qui la gente prevedeva eh ma minimo nel 2020 vedremo qualcosa a 7 nm, e già loro hanno pronte gpu e cpu.
Dopo che ci siamo convinti che è meglio restare al 2011 con dx11 e win 7 ci convinceremo pure che è meglio usare i chip marci rispetto a quelli nuovi...

Gyammy85
13-06-2018, 07:47
Gli ordini di grandezza di cui parli tu sono il 15%-20% a 4k, nei giochi normali ovvio, tutta la roba con ue4 si sa che va la metà, se nvidia va da quelli dell'udk non ci va per niente.

Gyammy85
13-06-2018, 07:55
15/20% 4k sono best case uberfeat on, poi ci sono i giochi normali e poi gli "ue4" lol

Ma prey non era un gioco sponsor AMD?

http://gamegpu.com/action-/-fps-/-tps/prey-mooncrash-test-gpu-cpu

Guarda in 4k

Si, fatto in partnership per limare i danni del cryengine alpha version :asd:

Gyammy85
13-06-2018, 08:21
Ma quindi non è più techdemo da oggi?

Piuttosto complimenti a nVidia che in questo gioco ha tirato fuori questi fps, però ecco una controprova di come li abbia presi la vorrei vedere :D

Infatti, 52 fps con la 580 a 1440p li farà a 900 mhz, io avevo la demo e mi teneva i 60 semifissi. Sto sito mettte 2 giochi con performance reali che scalano bene con le fasce e plausibili, e 7-8 con barrette verdi astronomiche e schede che vanno il doppio della mia che vanno quanto la mia :asd:
PS oh no, adesso mi toccherà editare che se posto un altro gioco di questo sito dove amd va bene mi piglio pure le bastonate :lol:

techfede
13-06-2018, 08:38
Io personalmente mi sento speranzoso solo perché vedo la Su come molto capace, e probabilmente si sono concentrati prima sul comparto CPU perché entrambi non sarebbero riusciti (e magari è anche per questo che Raja ha cambiato, non avrà avuto i fondi che voleva e continuavano a dirgli di aspettare tempi migliori), quindi spero porti il tocco magico anche nell'ambito video.

In alternativa, se la prossima vega uscirà a prezzi decenti e mi permetterà buone performance in ambito IA, penso che potrei sceglierla anche io come scheda tuttofare, ma dipenderà dalle prestazioni e costi di ambo gli schieramenti.

Gyammy85
13-06-2018, 08:53
Io personalmente mi sento speranzoso solo perché vedo la Su come molto capace, e probabilmente si sono concentrati prima sul comparto CPU perché entrambi non sarebbero riusciti (e magari è anche per questo che Raja ha cambiato, non avrà avuto i fondi che voleva e continuavano a dirgli di aspettare tempi migliori), quindi spero porti il tocco magico anche nell'ambito video.

In alternativa, se la prossima vega uscirà a prezzi decenti e mi permetterà buone performance in ambito IA, penso che potrei sceglierla anche io come scheda tuttofare, ma dipenderà dalle prestazioni e costi di ambo gli schieramenti.

Diciamo che è stato un insieme di cose, wang era prima in ati e lo hanno richiamato, lui stesso ammette che ultimamente si erano concentrati sul settore pro. Lui afferma di voler tornare a sfornare nuove schede con cadenza annuale, quindi immagino che avendo messo sul piatto l'architettura base non sia difficile potenziarla e migliorarla.
Per Raja, boh ora avrà più fondi, ma ha pure il contesto del "il mercato vuole la scheda per pugb, non cominciare con le tue solite fantasie, mettici le gddr5x e zitto". Sai quanti geni assorbiti dalle grandi social corporation alla fine fanno gli impiegatini?

Gyammy85
13-06-2018, 08:55
nvidia sta sulle balle a tutte le persone che ragionano, il problema è che essendo l'unica che ti offre determinati prodotti giocoforza se vuoi quel prodotto con quelle caratteristiche sei costretto a finanziare le sue "politiche". Per fortuna che almeno nella fascia media (polaris) amd è anche meglio, spero che l'evoluzione di polaris continui su questi risultati.

:asd: :asd:
Sindrome di stoccolma :sofico: :sofico:

Simedan1985
13-06-2018, 08:58
Le cose reali stanno così:

https://www.techpowerup.com/reviews/ASRock/RX_580_Phantom_Gaming_X/31.html

Per il resto le vostre visioni divine le potete anche andare a raccontare al prete

*prendo la recensione di questa 580 perchè la scala prestazioni è più aggiornata

*ps è la prima volta che vedo in classifica una custom che va meno della reference hahahahaha

techfede
13-06-2018, 09:09
L'altro dubbio che mi viene è, chissà quanto pesa sul progetto GPU il discorso di compatibilità con una APU.
Sicuramente la cosa porterà dei vincoli non da poco, e magari se riuscissero a dividere, anche magari di poco, le architetture, andrebbero meglio in entrambi i casi.

Gyammy85
13-06-2018, 09:17
1%, "va meno" in pratica invece di fare 60fps, fa 59.4fps :sofico:

comunque nessuno dice il contrario, ma quali visioni divine?

https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-2560-1440

mediamente è lo stesso che dice anche CBase che però è leggermente più favorevle ad AMD, che però ha la classifica interattiva e basta flaggare la gpu che ti interessa per far capire le % anche a chi non è molto sveglio :D

per esempio a stock la 1080ti è mediamente più veloce di Vega64 del 24% in QHD e Vega64 lo è del 65% in più rispetto alla rx580, in pratica scala esattamente come nVidia a detta di chi dice il contrario nel senso che GP106:P20 = GP104:Vega10, 1060:580= 1080:Vega64

La differenza quella è, dipende da quanti giochi "vecchi" ci mettono dentro.
Comunque è il solito discorso qui, una volta uno si comprava la scheda che andava bene nel gioco nuovo perché logicamente se va meglio nel gioco nuovo sarà più longeva, ma dato che tanto tutto quello che esce gira meglio su kepler che su maxwell di quanto è avanti, allora bisogna guardare alle medie...

ninja750
13-06-2018, 09:20
Dai pensate positivo, magari ci sarà più competizione nel 2020 e potremmo comprare le nVidia a meno :D

https://www.tomshw.it/intel-schede-video-dedicate-2020-anche-il-gaming-95040

i beneinformati dicevano che raja era stato chiamato in intel solo per le igpu :asd:

Gyammy85
13-06-2018, 09:26
L'altro dubbio che mi viene è, chissà quanto pesa sul progetto GPU il discorso di compatibilità con una APU.
Sicuramente la cosa porterà dei vincoli non da poco, e magari se riuscissero a dividere, anche magari di poco, le architetture, andrebbero meglio in entrambi i casi.

Io non capisco bene in che modo possa essere un vantaggio avere tante architetture diverse, da supportare via driver...lo puoi fare se comandi l'industria videoludica se no è esattamente la stessa cosa, di schede castrate qui e lì per compiacere il pubblico amd non saprebbe che farsene perché non ha le risorse nè la rinomanza nè la voglia per farlo. Poi ti ritrovi con (se e quando risuccederà) maxwell 970 uber gaming classified vs stufetta 290, che giocando a quantum break passa da 40 a 20 fps appena si accendono due luci...ovvio non era ottimizzata per il computing ma per il gaming, mica lo sapevano gli sviluppatori.
Ma fallo a parti invertite, cosa sarebbe successo? "il futuro è dx12 e questi qui non sono in grado come al solito".

Gyammy85
13-06-2018, 09:31
ahahhh, effettivamente... si può tranquillamente dire che le DX12 siano il più grosso Fail delle DX, peggio ancora delle DX10, sono passati 3 anni da quando ci sono le DX12 :sofico:

http://i.imgur.com/u5aCwAC.png

uhm...

Bella tabellina dove l'hai trovata?
Quindi polaris sarebbe gcn4 e vega gcn5?
Vega è quella più completa attualmente, volta a che punto è?

Ubro92
13-06-2018, 10:07
Pensa, è più DX12 ready Intel di nVidia, il 2020 non è lontano :D


Non sottovalutare Intel, si parla che nel 2020 dovrebbe iniziare la produzione delle prime GPU dedicate :sofico:

Gyammy85
13-06-2018, 10:32
https://en.wikipedia.org/wiki/Feature_levels_in_Direct3D

Si infatti Polaris/Tonga/Fiji (e qui si che si può dire che P10 è Tonga sui 14nm più 1mb L2) non hanno le conservative causa nessun accesso rops/l2 e il famoso primitive discard, eh ma è la stessa architettura cosa ci voleva a farlo prima :sofico:
è pubblica da 3 anni sta tabella, ovviamente la aggiornano man mano che escono uarch nuove, ad esempio hanno aggiunto Volta che è uguale a Pascal a parte il Tier3 delle conservative e coffe lake ma è uguale a kaby lake

Pensa, è più DX12 ready Intel di nVidia, il 2020 non è lontano :D

Aggiornato:
https://s19.postimg.cc/t5hersgg3/features_level_dx12.jpg

Cioè neanche volta arriva al full feature level di vega?
Ma floating point 16 bit significa il rate doppio rispetto al 32 bit? sapevo che volta lo facesse dato che lo fa pure gp100...

Ubro92
13-06-2018, 10:44
Cioè neanche volta arriva al full feature level di vega?
Ma floating point 16 bit significa il rate doppio rispetto al 32 bit? sapevo che volta lo facesse dato che lo fa pure gp100...

Infatti lo supporta sarebbe esattamente FP16x2: https://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/5

In basso uno screen con una comparazione tra Vega e Titan XP/V in FP16:

https://www.pcper.com/files/imagecache/article_max_width/review/2017-12-13/sandra-image_0.png

Fonte: https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-TITAN-V-Review-Part-2-Compute-Performance/Rendering-and-Compute-Perfor

FroZen
13-06-2018, 11:02
Cioè neanche volta arriva al full feature level di vega?
Ma floating point 16 bit significa il rate doppio rispetto al 32 bit? sapevo che volta lo facesse dato che lo fa pure gp100...

nvidia innova, sempre :O

microsoft ha scelto il partner sbagliato per le DX12 (cit.) :O

Gyammy85
13-06-2018, 11:05
Infatti lo supporta sarebbe esattamente FP16x2: https://www.anandtech.com/show/10325/the-nvidia-geforce-gtx-1080-and-1070-founders-edition-review/5

In basso uno screen con una comparazione tra Vega e Titan XP/V in FP16:

https://www.pcper.com/files/imagecache/article_max_width/review/2017-12-13/sandra-image_0.png

Fonte: https://www.pcper.com/reviews/Graphics-Cards/NVIDIA-TITAN-V-Review-Part-2-Compute-Performance/Rendering-and-Compute-Perfor

:eek: :eek:
Ma la titan v fa introrno ai 15 tf quindi in fp16 30, la liquid 13 quindi 26, e va comunque di più?

Ubro92
13-06-2018, 11:22
:eek: :eek:
Ma la titan v fa introrno ai 15 tf quindi in fp16 30, la liquid 13 quindi 26, e va comunque di più?

Vega spinge molto da quel punto di vista però se guardi gli altri test è la soluzione meno equilibrata per i vari ambiti professionali però anche i prezzi sono ben diversi :sofico:

Gyammy85
13-06-2018, 11:29
Vega spinge molto da quel punto di vista però se guardi gli altri test è la soluzione meno equilibrata per i vari ambiti professionali però anche i prezzi sono ben diversi :sofico:

Si ma in altri ambiti ho visto che comunque la differenza con la titan v non è abissale, cioè quel 20% fisiologico.
A questo punto vega nei giochi sta con mezza gpu spenta mi sa...focused on AI come dice wang, io sono fiducioso

Gyammy85
13-06-2018, 11:33
uhm, no dall'anno prossimo no, magari dal 2020 si dato che Intel farà pure le consumer e Intel è Intel...
Però le dx12 rimangono lo stesso un fail dato che dopo 3 anni non se le caga ancora nessuno, altro che di schede non ce ne sono...

Se non se le caga nessuno un motivo c'è :sofico:

Però io andrei cauto con quelle intel, si deve vedere cosa esce in realtà, non credo che basti raja per catapultare intel nel mercato discreto gaming, dovendo recuperare 20 anni buoni di know how della concorrenza...

AceGranger
13-06-2018, 11:42
uhm, no dall'anno prossimo no, magari dal 2020 si dato che Intel farà pure le consumer e Intel è Intel...
Però le dx12 rimangono lo stesso un fail dato che dopo 3 anni non se le caga ancora nessuno, altro che di schede non ce ne sono...

bè le DX mi pare vengano usate, non tutte le funzioni, anche perchè dipende dalle architetture in circolazione.

è che per molti DX12 = solo Async, ma se anche Intel arrivera con un'architettura con un gestore di thread hardware come quello nVidia, ho idea che l'Async lo saluti con la manina

Ubro92
13-06-2018, 12:42
Si ma in altri ambiti ho visto che comunque la differenza con la titan v non è abissale, cioè quel 20% fisiologico.
A questo punto vega nei giochi sta con mezza gpu spenta mi sa...focused on AI come dice wang, io sono fiducioso

Non centra nulla in gaming, esattamente come la titan V...
Le attuali vega sono costruite prettamente per l'ambito pro piuttosto che gaming inoltre vega non ha unità FP64 attive ma le emula infatti in questo contesto è nettamente inferiore...

Gyammy85
14-06-2018, 08:21
Wang dice che navi non sarà MCM

https://www.pcgamesn.com/amd-navi-monolithic-gpu-design

Dice che sarebbe come avere un cross allo stato attuale, per i giochi non funzionerebbe bene...ecco un passaggio interessante

Does that mean we might end up seeing diverging GPU architectures for the professional and consumer spaces to enable MCM on one side and not the other?

“Yeah, I can definitely see that,” says Wang, “because of one reason we just talked about, one workload is a lot more scalable, and has different sensitivity on multi-GPU or multi-die communication. Versus the other workload or applications that are much less scalable on that standpoint. So yes, I can definitely see the possibility that architectures will start diverging.”

antonioalex
14-06-2018, 08:32
nel frattempo https://www.techpowerup.com/245083/sony-closely-associated-with-amd-navi-development :D

Wang dice che navi non sarà MCM

direi che sia presto per un MCM, anche se speravo in una nuova arc, effettivamente il gcn se lo tirano da troppo tempo

Catan
14-06-2018, 08:37
praticamente per il mercato calcoli paralleli rispolvereranno le vga multi gpu con al posto del chip plx il bus if.

raiden_master_v5
14-06-2018, 08:50
Sources: AMD Created Navi For Sony's PlayStation 5, Vega Suffered

No, Sony didn't counter Microsoft with a brief announcement of the PlayStation 5 at its annual E3 event, but some fascinating details have emerged about the PS5, its graphics solution and just how involved in the process AMD was this time around. This isn't just a story for eager console gamers, either. It's part of a larger narrative about AMD's identity and its semi-custom chip business.

Speaking to industry sources this week under conditions of anonymity, I've learned that the PS5 will use both AMD's Zen and Navi graphics architectures. What isn't clear is whether the PS5 will incorporate a beefy SoC (system on a chip) or use separate Ryzen and Navi-based components.

Right now little is known about AMD's Navi graphics architecture, other than the fact it will use the 7nm process. That detail, however, is important. As it has done numerous times with its semi-custom clients, AMD has a solid history of developing integrated and discrete GPUs with low power envelopes perfect for a console.

Which brings us to, in my eyes, the more interesting revelation. According to my sources, Navi isn't just inside the Sony PS5; it was created for Sony. The vast majority of AMD and Sony's Navi collaboration took place while Raja Koduri -- Radeon Technologies Group boss and chief architect -- was at AMD.

Koduri joined up with Intel late last year as chief architect for its new Core and Visual Computing Group.

But the collaboration came at the expense of Radeon RX Vega and other in-development projects. Allegedly, Koduri saw up to a massive 2/3 of his engineering team devoted exclusively to Navi against his wishes, which resulted in a final RX Vega product Koduri was displeased with as resources and engineering hours were much lower than anticipated. As I mention in my companion report, the implication is that AMD CEO Dr. Lisa Su wanted to devote more energy into its semi-custom business than its desktop graphics division.

Taken as a solitary piece of news, this may sound borderline ridiculous. But when zooming out to a wider angle -- as I did today analyzing AMD's history of consumer graphics products and its semi-custom business -- it fits like a glove. The same sources who spoke to me about the PS5 had more to say about AMD's business motivations with Apple, Microsoft and Sony in the link below.
Beyond that, RX Vega has failed to find traction in the market. AMD launched its "Frontier Edition" of Vega that was a confusing (if sexy) hybrid between professional graphics and gaming. This was done before its dedicated RX gaming version to satisfy a promise that Vega would reach consumers within the deadline AMD promised.

Pull on that thread and it sheds more light on Vega's troubled development, due to the majority of Koduri's engineering team being swiped away not just to work on Navi, but to work on Navi for Sony.

On a related note, a new rumor emerged recently about Navi for desktop being merely a midrange part and not competing with Nvidia's high-end GeForce cards. That makes perfect sense if it was developed primarily for a console first.

The other interesting aspect to all of this is that my sources never mentioned Microsoft in the Navi conversations. This is pure speculation, but maybe Microsoft's next Xbox devices -- code-named "Scarlett" -- won't use Navi at all. Perhaps it will use a separate semi-custom solution incorporating Vega, or something else entirely that we're not privy to. Either way, the conversations I had referred to Navi in the past tense, as if it was already finished.

Perhaps Sony is closer to a PS5 than Microsoft is to a next-generation Xbox?

I've reached out to AMD and Sony for any further comments or clarification.


https://www.forbes.com/consent/?toURL=https://www.forbes.com/sites/jasonevangelho/2018/06/12/sources-amd-created-navi-for-sonys-playstation-5-vega-suffered/#42c8448324fd

AceGranger
14-06-2018, 08:57
praticamente per il mercato calcoli paralleli rispolvereranno le vga multi gpu con al posto del chip plx il bus if.

arriveranno a fare quello che sta facendo ora nVidia con nVlink e nVlink Switch

Gyammy85
14-06-2018, 09:11
https://www.forbes.com/consent/?toURL=https://www.forbes.com/sites/jasonevangelho/2018/06/12/sources-amd-created-navi-for-sonys-playstation-5-vega-suffered/#42c8448324fd

Si come Vega che è per il mining e amd lo sapeva boooooommmm

arriveranno a fare quello che sta facendo ora nVidia con nVlink e nVlink Switch

Meno male!!
Market approved enthusiast approved e youtube approved :)

raiden_master_v5
14-06-2018, 09:13
sono scappato dalle console, per poi ritrovarmi la scheda tanto attesa sulla nuova playstation:doh:

AceGranger
14-06-2018, 09:16
Si ma con calma eh :D

eh, a differenza di Intel, nVidia non ha dormito negli ultimi 3 anni.

antonioalex
14-06-2018, 09:24
sono scappato dalle console, per poi ritrovarmi la scheda tanto attesa sulla nuova playstation:doh:

pensa te che hanno già presentato un paio di tv con freesync per le future console :D , cmq, volente o nolente non potranno mai mettere dentro una ps5/xboxtwo una navi full, tra l'altro conta che sarà una versione altamente customizzata con numero di CU strano, perciò non preoccuparti, la pc musta race la puoi sempre avere, magari spendendo un milino solo per la vga :D

antonioalex
14-06-2018, 09:59
Wow, che :ciapet: mi stavo preoccupando :D

Comunque non capisco di cosa ci si meravigli, si sapeva ede era praticamente solo da confermare... almeno così le console future sappiamo che non costeranno un rene, e di conseguenza manco le gpu di fascia media.

ma infatti, è praticamente certa l'apu custom ryzen+navi sulle future console, + che altro sono le vram l'incognita, ma so già che per risparmiare andranno di gddr6 :D , cmq il pc, se non da subito, ma tempo max un anno, cmq sarà + potente anche delle future console, perciò di cosa ci si deve preoccupare? anzi, come giustamente dici, per chi gioca sopratutto con il pc, dovrebbe ringraziare le console se i prezzi delle vga non schizzano letteralmente alle stelle (sappiamo benissimo cosa succede se la richiesta è un po + alta del previsto :muro: )

Piedone1113
14-06-2018, 11:40
ma infatti, è praticamente certa l'apu custom ryzen+navi sulle future console, + che altro sono le vram l'incognita, ma so già che per risparmiare andranno di gddr6 :D , cmq il pc, se non da subito, ma tempo max un anno, cmq sarà + potente anche delle future console, perciò di cosa ci si deve preoccupare? anzi, come giustamente dici, per chi gioca sopratutto con il pc, dovrebbe ringraziare le console se i prezzi delle vga non schizzano letteralmente alle stelle (sappiamo benissimo cosa succede se la richiesta è un po + alta del previsto :muro: )

Non sarei così sicuro delle gddr6:
Un pcb più economico con alta produzione di hbm dovuta a ordinativi certi ed elevati in un formfactor più compatto potrebbe produrre costi simili ad un pcb classico con gddr6.

TheDarkAngel
14-06-2018, 11:52
Non sarei così sicuro delle gddr6:
Un pcb più economico con alta produzione di hbm dovuta a ordinativi certi ed elevati in un formfactor più compatto potrebbe produrre costi simili ad un pcb classico con gddr6.

Sulle future console è scontato l'uso delle hbm ma anche le future apu post AM4 saranno così almeno nella declinazione premium.

antonioalex
14-06-2018, 14:51
Non sarei così sicuro delle gddr6:
Un pcb più economico con alta produzione di hbm dovuta a ordinativi certi ed elevati in un formfactor più compatto potrebbe produrre costi simili ad un pcb classico con gddr6.

tu dici? attualmente il grosso problema non è produrre le hbm in massa, ma eliminare i costosi processi di assemblaggio e spedizione (le varie fabbriche distano svariate centinaia di km tra di loro), le hbm escono da una fabbrica, la gpu da un'altra ed spedite ad una terza per unirle sull'interposer ed infine spedite ai vari partner per saldare la gpu sul pcb della vga, fino a quando non si elimina tale problema la vedo abbastanza difficile usarle su macchine finite che non dovrebbero superare i 499$ al cliente finale, ecco perchè ho seri dubbi, ma chissà, in 2 anni potrebbero trovare una soluzione, magari una fab che gli dice "faccio tutto io" :sofico:

Piedone1113
14-06-2018, 16:50
tu dici? attualmente il grosso problema non è produrre le hbm in massa, ma eliminare i costosi processi di assemblaggio e spedizione (le varie fabbriche distano svariate centinaia di km tra di loro), le hbm escono da una fabbrica, la gpu da un'altra ed spedite ad una terza per unirle sull'interposer ed infine spedite ai vari partner per saldare la gpu sul pcb della vga, fino a quando non si elimina tale problema la vedo abbastanza difficile usarle su macchine finite che non dovrebbero superare i 499$ al cliente finale, ecco perchè ho seri dubbi, ma chissà, in 2 anni potrebbero trovare una soluzione, magari una fab che gli dice "faccio tutto io" :sofico:

Stai dicendomi che sony ha la fabbrica che produce il pcb, quella che produce i condensatori, quella che produce le gddr6, i connettori, i chip secondari, i mossfet ecc tutti nello stesso luogo?
Non lo sapevo, hai perfettamente ragione, non ci avevo pensato.

antonioalex
14-06-2018, 18:25
Stai dicendomi che sony ha la fabbrica che produce il pcb, quella che produce i condensatori, quella che produce le gddr6, i connettori, i chip secondari, i mossfet ecc tutti nello stesso luogo?
Non lo sapevo, hai perfettamente ragione, non ci avevo pensato.

mai detto questo, che sony stia contribuendo ok, ha qualche fabbriche per la parte elettrica si, ma la sony non ha ad esempio fab per il silicio, infatti io mi riferivo solo alla questione die gpu+hbm+interposer, lascia perdere tutto il resto, le hbm sono attualmente costose anche perchè l'iter per la produzione di gpu+hbm, oltre la stessa natura complessa delle hbm, comporta alcune lavorazioni/rischi che prima non esistevano, per l'appunto la saldatura sull'interposer, costosa e delicata, tornando a sony (ma anche ms credo che punterà su apu amd), potrebbe avere un ruolo chiave se ad esempio si presenta da tsmc con la borsa piena di soldi e commissionano tot pezzi al mese, a questo punto tsmc senza pensarci su 2 volte sarà disposta ad attrezzarsi per far uscire apu o gpu complete di interposer ed hmb

P.S.
era proprio a tsmc che mi riferivo, forse gli unici a poter dedicare una linea o + (dipende dalla mole di lavoro) solo per la fabbricazione di gpu+hbm

Gyammy85
14-06-2018, 18:31
E intanto un'altra gen di console by amd, a questo punto penso si vada oltre la semplice convenienza economica sulla pregiata concorrenza...:D

Ton90maz
14-06-2018, 19:34
E intanto un'altra gen di console by amd, a questo punto penso si vada oltre la semplice convenienza economica sulla pregiata concorrenza...:DMa figuriamoci, è solo una questione economica

Gyammy85
14-06-2018, 19:47
Ma figuriamoci, è solo una questione economica

Certo, vuoi mettere una bella gp104 con 100 sp in meno, 200 mhz un più? Solo che costa tanto e sossoldi.

Ton90maz
14-06-2018, 20:18
Certo, vuoi mettere una bella gp104 con 100 sp in meno, 200 mhz un più? Solo che costa tanto e sossoldi.

Se in qualche modo fosse economicamente conveniente metterebbero anche un criceto quantistico, di certo non hanno piazzato AMD per i cinesini asimmetrici o per qualche uber failure da sbloccare nel 2050. Con Zen sarà ancora più vantaggioso rimanere sulle APU AMD, non hanno neanche l'inculata della cpu-aborto come nel ciclo precedente.

Gyammy85
14-06-2018, 20:53
Se in qualche modo fosse economicamente conveniente metterebbero anche un criceto quantistico, di certo non hanno piazzato AMD per i cinesini asimmetrici o per qualche uber failure da sbloccare nel 2050. Con Zen sarà ancora più vantaggioso rimanere sulle APU AMD, non hanno neanche l'inculata della cpu-aborto come nel ciclo precedente.

Dire che l'hanno scelta solo perché costa meno è una frase fatta come un'altra.

Gyammy85
14-06-2018, 21:00
https://videocardz.com/76561/amd-radeon-pro-v340-is-the-first-7nm-graphics-card

Sembra che sia la scheda pro con vega 20 dati i 32 giga ma non è sicuro…

Ecco il link originale con 43 slide

https://benchlife.info/amd-radeon-pro-v340-with-32gb-hbm2-06142018/

Ton90maz
14-06-2018, 21:20
Dire che l'hanno scelta solo perché costa meno è una frase fatta come un'altra.No, è solo la cosa più logica. Perché se non fosse così quale sarebbe il motivo?
Per avere un sistema integrato? E' ovvio, ma rientra nei costi.
Per i consumi? Di certo non usi AMD
Per le prestazioni? Al punto che una delle due ha piazzato 35 MB di etumore sul portacinesi e si è ritrovata con un'equivalente di una 7770
Per l'architettura? Già e poi vai a vedere che metà delle esclusive Microsoft girano meglio su nvidia (Su Sony non sappiamo niente), non tutti sono come quantum break e forza motorsport 7

Gyammy85
14-06-2018, 21:28
No, è solo la cosa più logica. Perché se non fosse così quale sarebbe il motivo?
Per avere un sistema integrato? E' ovvio, ma rientra nei costi.
Per i consumi? Di certo non usi AMD
Per le prestazioni? Al punto che una delle due ha piazzato 35 MB di etumore sul portacinesi e si è ritrovata con un'equivalente di una 7770
Per l'architettura? Già e poi vai a vedere che metà delle esclusive Microsoft girano meglio su nvidia (Su Sony non sappiamo niente), non tutti sono come quantum break e forza motorsport 7

:asd: :asd:

Gyammy85
14-06-2018, 21:30
Com'è che non ha nessuna ventola?

Vero non l'avevo notato, sarà molto parca di consumi e calore.
Magari ha un chip poco potente e molta memoria, ottimizzato solo per quel tipo di calcoli, boh...

TheDarkAngel
14-06-2018, 21:39
Com'è che non ha nessuna ventola?Scheda da rack?

Vul
14-06-2018, 23:36
Ma chi parla dei costi dei pcb e` a conoscenza del fatto che il loro costo incide su una gpu in maniera infima vero? Ma proprio infima, parliamo di 5$ l`uno in casi estremi.

Vul
14-06-2018, 23:41
Se una gpu mcm necessita` di software scritto per un crossfire, tanto vale tornare ai tempi delle gpu a chip multiplo stile 295, 7990, 690..Dove sta il vantaggio dell'infinity fabric?

Free Gordon
14-06-2018, 23:54
era nella pagina dietro, ne abbiamo parlato ieri è un record a sto giro non è passato manco una settimana ma direttamente un giorno solo :asd: , te lo riposto così fai ancora meno fatica
https://www.hwupgrade.it/forum/showpost.php?p=45597408&postcount=58339

Secondo me invece Fiji come dicevo sopra è molto limitata (clock to clock) dal frame buffer di soli 4GB (che impattano soprattutto nei minimi) e dallo sviluppo/tweaking driver proprio di quell'aspetto (che ovviamente ora non viene più fatto come prima, non ne varrebbe la pena.. non ha venduto una fava :fagiano: ).

Un bel test sarebbe bloccare la ram di Vega64 a 4GB e rifare gli stessi test (credo con qualche tweak via bios si possa fare) e testare clock to clock, la differenza tra le due architetture (nei giochi) sarebbe più vicina al 5% che al 10% imho... ;)

mikael84
15-06-2018, 00:05
Secondo me invece Fiji come dicevo sopra è molto limitata (clock to clock) dal frame buffer di soli 4GB (che impattano soprattutto nei minimi) e dallo sviluppo/tweaking driver proprio di quell'aspetto (che ovviamente ora non viene più fatto come prima, non ne varrebbe la pena.. non ha venduto una fava :fagiano: ).

Un bel test sarebbe bloccare la ram di Vega64 a 4GB e rifare gli stessi test (credo con qualche tweak via bios si possa fare) e testare clock to clock, la differenza tra le due architetture (nei giochi) sarebbe più vicina al 5% che al 10% imho... ;)

La differenza sta quasi tutta nel culling;)
Il primitive discard risolve quasi tutti i problemi di quel chip, senza contate le HWS, il livello geometrico di Fury devasta i buffers.
Vega ha più latenze anche sugli shader array, per via della l1 meno accessibile ai gruppi di CU
Altri scaling rispetto a fury non ce ne sono.
La l2-rop's-ramdac però permette minimi decisamente migliori, ma la l2 così grossa spreca tanti cicli.

Free Gordon
15-06-2018, 00:09
L'altro dubbio che mi viene è, chissà quanto pesa sul progetto GPU il discorso di compatibilità con una APU.
Sicuramente la cosa porterà dei vincoli non da poco, e magari se riuscissero a dividere, anche magari di poco, le architetture, andrebbero meglio in entrambi i casi.


Hai centrato il punto... ;)

Il circolo vizioso è iniziato quando hanno creato GCN...con in mente le APU...:muro:

Free Gordon
15-06-2018, 00:44
https://www.forbes.com/consent/?toURL=https://www.forbes.com/sites/jasonevangelho/2018/06/12/sources-amd-created-navi-for-sonys-playstation-5-vega-suffered/#42c8448324fd

But the collaboration came at the expense of Radeon RX Vega and other in-development projects. Allegedly, Koduri saw up to a massive 2/3 of his engineering team devoted exclusively to Navi against his wishes, which resulted in a final RX Vega product Koduri was displeased with as resources and engineering hours were much lower than anticipated. As I mention in my companion report, the implication is that AMD CEO Dr. Lisa Su wanted to devote more energy into its semi-custom business than its desktop graphics division.

Tutto ciò ha molto senso... :D ora mi spiego molte cose.. :asd:

Free Gordon
15-06-2018, 00:46
La differenza sta quasi tutta nel culling;)
Il primitive discard risolve quasi tutti i problemi di quel chip, senza contate le HWS, il livello geometrico di Fury devasta i buffers.
Vega ha più latenze anche sugli shader array, per via della l1 meno accessibile ai gruppi di CU
Altri scaling rispetto a fury non ce ne sono.
La l2-rop's-ramdac però permette minimi decisamente migliori, ma la l2 così grossa spreca tanti cicli.

Una mixed-bag insomma...dove la vera differenza di prestazioni è data dall'incremento di clock (legato anche al pp nuovo ovviamente).
Del resto gli HWS sono stati introdotti prima con P10 e non sono esclusiva di Vega... ;)

Free Gordon
15-06-2018, 00:57
Sulle future console è scontato l'uso delle hbm ma anche le future apu post AM4 saranno così almeno nella declinazione premium.

Penso anche io...
Inoltre, speriamo che abbiano l'architettura post-GCN più che altro. :D




Dire che l'hanno scelta solo perché costa meno è una frase fatta come un'altra.

L'hanno scelta perché è l'unica casa (assieme ad Intel) che può fare delle "APU" x86, customizzarle e farle pagare una cifra accettabile. Tutto quì.

C'è un'intervista di Cerny del 2013, dove è spiegato tutto per bene.

E' evidente anche il motivo per cui tra i due non hanno scelto Intel... ;) :read:

Gyammy85
15-06-2018, 07:35
Comunque Wang non ha escluso niente in realtà, solo precisa che per il gaming non è la scelta migliore, e l'if serve essenzialmente a ridurre le latenze, che poi è uno dei fattori chiave del successo di ryzen.
Da quello che ho capito dell'intervista l'if non sarà abbandonato ma usato solo dove serve, poi non è che può sbottonarsi subito e dire tutto di roba che uscirà fra molti mesi...

Gyammy85
15-06-2018, 10:58
http://gamegpu.com/rts-/-%D1%81%D1%82%D1%80%D0%B0%D1%82%D0%B5%D0%B3%D0%B8%D0%B8/jurassic-world-evolution-test-gpu-cpu

Mi sembra palese guardando questo bench (non ue4 né sponsorizzato amd o nvidia quindi neutro) che sulla vega 64 air qualcosa non abbia funzionato per come doveva andare. Fossero andati di vega 56 ad aria e 64 solo liquido sarebbe stato molto meglio. Sicuramente la banda passante è insufficiente (in fullhd vanno tutte molto bene, 56 sopra la 1080 pure), ma a questo punto con 60 cu avremmo avuto una scheda che andava praticamente come la 64 consumando meno dato lo scarsissimo scaling del silicio sopra una certa soglia.

Gyammy85
15-06-2018, 11:25
Ho già capito che tra un anno avremo la 1180 che va come la 1080ti ma nei giochi nuovi sarà comunque appena meglio di vega 64 come la 1080 oggi :asd:

Del resto è così ad ogni generazione.

La cosa buffa è che nei giochi che hanno motori proprietari tipo questo l'andamento è simile, cioè le amd vanno bene pure in giochi tipo re7 che è sponsorizzato nvidia ma non usa motori "precucinati"
Poi resta idtech 6 che girando con vulkan le avvantaggia, il dunia di far cry che grazie alle ottimizzazioni geometriche e fp16 e quant'altro tiene il passo sia polaris che vega, e cryengine, abbastanza vecchietto dove poco ci puoi fare (vedi prey), con qualche eccezione tipo ryse dove le amd andavano bene.
E alla fine ue4, che disgraziatamente per qualche motivo gira male e sempre per qualche strano motivo viene usato per tutti i giochi competitivi.

Ubro92
15-06-2018, 13:08
http://gamegpu.com/rts-/-%D1%81%D1%82%D1%80%D0%B0%D1%82%D0%B5%D0%B3%D0%B8%D0%B8/jurassic-world-evolution-test-gpu-cpu

Mi sembra palese guardando questo bench (non ue4 né sponsorizzato amd o nvidia quindi neutro) che sulla vega 64 air qualcosa non abbia funzionato per come doveva andare. Fossero andati di vega 56 ad aria e 64 solo liquido sarebbe stato molto meglio. Sicuramente la banda passante è insufficiente (in fullhd vanno tutte molto bene, 56 sopra la 1080 pure), ma a questo punto con 60 cu avremmo avuto una scheda che andava praticamente come la 64 consumando meno dato lo scarsissimo scaling del silicio sopra una certa soglia.

Nello stesso link vedo che cambiando cpu da un 5960x 4.6ghz a un i3 2100 restando a 1080p i frame variando di una percentuale minima sia per Nvidia che AMD il che è tutto dire sull'engine :D

Gyammy85
15-06-2018, 13:25
Giammy Approved! :asd:

quella di prey non era invece certificata è bene ricordarlo :D

p.s.

assetto corsa passa a ue4, pcars è "nvidia"... si spera in f1 2018

Non mi tornavano alcuni risultati bassi della mia scheda, poi ho visto che non è il prey originale ma il dlc, quindi boh, avranno cambiato qualcosa...

Nello stesso link vedo che cambiando cpu da un 5960x 4.6ghz a un i3 2100 restando a 1080p i frame variando di una percentuale minima sia per Nvidia che AMD il che è tutto dire sull'engine :D

Avrà qualche blocco, sarà uno di quei giochi che non sfrutta il multicore, infatti gli fx stanno bassi, niente di strano. Certo avessimo avuto tutta quella vegetazione via gameworks ogni cosa tornerebbe al suo posto e torneremmo a parlare di scarsissima efficienza in gaming per le amd ma tant'è...

Gyammy85
15-06-2018, 13:26
Probabilmente ci sono giochi di 10 anni fa con una grafica migliore di quella :asd:

Pure fortnite sembra serious sam 2 in terza persona ma tant'è :asd:

Angeland
15-06-2018, 14:07
http://gamegpu.com/rts-/-%D1%81%D1%82%D1%80%D0%B0%D1%82%D0%B5%D0%B3%D0%B8%D0%B8/jurassic-world-evolution-test-gpu-cpu

Mi sembra palese guardando questo bench (non ue4 né sponsorizzato amd o nvidia quindi neutro) che sulla vega 64 air qualcosa non abbia funzionato per come doveva andare. Fossero andati di vega 56 ad aria e 64 solo liquido sarebbe stato molto meglio. Sicuramente la banda passante è insufficiente (in fullhd vanno tutte molto bene, 56 sopra la 1080 pure), ma a questo punto con 60 cu avremmo avuto una scheda che andava praticamente come la 64 consumando meno dato lo scarsissimo scaling del silicio sopra una certa soglia.

Già ero inscimmiato, visto che da ragazzino mi passavo le ore su Jurassic Park operation Genesis, adesso alla prima offerta decente su steam lo prenderò sicuramente :D

Tra l'altro con la Liquid piazzi le hbm2 a 1050hz-1100mhz e :oink: :oink:

Vul
15-06-2018, 14:33
Nello stesso link vedo che cambiando cpu da un 5960x 4.6ghz a un i3 2100 restando a 1080p i frame variando di una percentuale minima sia per Nvidia che AMD il che è tutto dire sull'engine :D

Scusa, ma meno un engine/api incidono sulla cpu.

Il carico lo vuoi distribuire sulla gpu e ridurre al minimo le draw call e lo scambio di dati fra cpu e gpu.

Quindi se un i3 e un i1000 si passano pochi punti % è solo che una cosa buona, non negativa.

Dipende sempre dal risultato, chiaramente, ma se parliamo di applicazioni graficamente avanzate, allora senza dubbio il fatto che i processori si passino poco è meglio.

Ton90maz
15-06-2018, 19:04
http://gamegpu.com/rts-/-%D1%81%D1%82%D1%80%D0%B0%D1%82%D0%B5%D0%B3%D0%B8%D0%B8/jurassic-world-evolution-test-gpu-cpu

Mi sembra palese guardando questo bench (non ue4 né sponsorizzato amd o nvidia quindi neutro) che sulla vega 64 air qualcosa non abbia funzionato per come doveva andare. Fossero andati di vega 56 ad aria e 64 solo liquido sarebbe stato molto meglio. Sicuramente la banda passante è insufficiente (in fullhd vanno tutte molto bene, 56 sopra la 1080 pure), ma a questo punto con 60 cu avremmo avuto una scheda che andava praticamente come la 64 consumando meno dato lo scarsissimo scaling del silicio sopra una certa soglia.Da notare la fury x che va meglio di un chip di uguali dimensioni come la 980 ti, da notare la 580 che batte la 1060, da notare la 290x che batte la 980.
La baracca invece batte solo il chippino, effettivamente sì, c’è qualcosa che non va. Non che siano novità comunque.

Gyammy85
16-06-2018, 09:45
Edit

Gyammy85
16-06-2018, 09:56
Sembra che la v340 non sia vega 20 ma una dual vega 10

Vul
16-06-2018, 12:38
suvvia... quindi le console attuali con quella mexxa di jaguar stanno a cavallo e poi ci lamentiamo che l'hw non viene sfruttato?

non entro nel merito del gioco in questione, ma se tra una cpu uber ed una di fascia bassa non ci sono differenze un bene non è, posso accettare che un i5 ed un i9 vadano uguali a pari frequenza ma non quando ci sono differenze epocali tra una cpu e l'altra...

Ma è proprio quello il punto, scrivere applicazioni che distribuiscano il carico di lavoro sulla gpu, non sulla cpu. Meno differenze ci sono e meglio è.

E' ovvio che la cpu inciderà sempre sui risultati, però guarda quando uscì Mantle e che bei risultati aveva sulle cpu dove un i3 ed un i7 andavano entrambi meglio di directx e anche molto similmente tra loro.

E' quella la direzione che dovremmo prendere.

Ed è proprio per quello che le console possono utilizzare con successo un apu Jaguar, perchè hanno api e software disegnati proprio per distribuire il lavoro al meglio e fare meno draw calls possibili.

Poi tu puoi essere scontento delle performance di queste console, posso anche capirti, personalmente penso avrebbero dovuto tirare fuori qualcosa di più potente, ma da un punto di vista prestazionale (considerando il costo e tutto) sono macchine estremamente efficienti se pensi alle performance che offrono per il loro consumo/dimensioni e costo.

Gyammy85
18-06-2018, 08:22
https://www.pcgamesn.com/amd-navi-monolithic-gpu-design?tw=PCGN1

Insomma le architetture saranno le stesse ma con tweaks per adattarle al gaming o al compute? Mi sembra la cosa migliore, del resto credo che a nessuno piacciano schede particolarmente castrate.

Gyammy85
18-06-2018, 09:09
http://www.guru3d.com/news-story/amd-will-release-an-raven-ridge-apu-graphics-driver-once-each-three-months.html

si accettano scommesse su entro quanti giorni faranno marcia indietro su questa decisione discutibile.... :rolleyes:

E' solo la conferma di quanto dichiarato in precedenza, non ci vedo niente di male, sono apu e quindi hanno un canale diverso rispetto alle normali discrete, anche se hanno vega dentro

Gyammy85
18-06-2018, 09:27
Tutto sta nel capire dov'è il tuo limite tra "stesse architetture con tweaks" e "architetture diverse.

Ha detto che MCM è una mossa sicuramente valida in pro e instinct ma ancora da verificare in gaming.
Questo potrebbe voler dire che per gaming resteranno sul monolitico ma per pro e instinct andranno di MCM e sicuramente saranno duce cose parecchio diverse.

Vedremo che indirizzo darà wang al rtg
Non credo che saranno poi così diverse le architetture, alla fine sulla gaming usano il monolitico, sul pro due gpu con mcm, anche per tr e epyc lo fanno, e i core sono identici ai ryzen desktop.

AceGranger
18-06-2018, 09:39
Vedremo che indirizzo darà wang al rtg
Non credo che saranno poi così diverse le architetture, alla fine sulla gaming usano il monolitico, sul pro due gpu con mcm, anche per tr e epyc lo fanno, e i core sono identici ai ryzen desktop.

le differenze fra GPU Pro e GPU Gaming sono nettamente piu marcate rispetto alle differenze fra CPU Consumer e CPU Pro.

Gyammy85
18-06-2018, 09:51
le differenze fra GPU Pro e GPU Gaming sono nettamente piu marcate rispetto alle differenze fra CPU Consumer e CPU Pro.

Lo so era per dire che se l'mcm funziona nel pro gli basterà prendere gli stessi chip gaming e metterli assieme imho, senza stravolgere l'architettura più di tanto.

Gyammy85
18-06-2018, 11:44
Ma per come sono strutturate le gpu, cosa cambierebbe fra metterne 2 da 3000 sp al posto di una da 6000? Tanto il consumo è quello, ci sarebbero più svantaggi che vantaggi imho. Con le cpu è diverso perché a conti fatti amd ha dimostrato che l'if è perfettamente paragonabile al die monolitico e molto più flessibile, così come l'smt che scala meglio rispetto all'ht.

Gyammy85
18-06-2018, 11:55
Cambia che se fai il die da 1024SP (esempio) e da questo puoi trarre 5 GPU diverse (1,2,3,4,6 blocchi) hai ottenuto di progettare un solo die (piccolo) invece di 5 (anche grandi), di fare solo un set di maschere in fonderia, di avere yelds enormemente maggiori perché pari a quelli del die piccolo, e anche di avere una discreta flessibilità nel portare sul mercato qul che serve, visto che per cambiare i rapporti di volume cambi solo il packaging, non anche la produzione, con i lead time enormi che ha, e hai forse anche qualche vantaggio nella dissipazione.

I vantaggi sono enormi, ma devi riuscire a fare tutto con un solo die e senza penalizzazioni in termini energetici e prestazionali (o penalittà ridicole rispetto ai vantaggi)

Ma il problema è sempre lo stesso, si lavora su frame da disegnare, e avresti 5 core da gestire, non sommi la potenza linearmente...

Free Gordon
18-06-2018, 12:56
ma è un buon risultato considerando che copre 3 mercati.

Lato gaming è un risultato "bello povero"...lato perf/watt e perf/area. :)

Ma il problema grosso quì, non è il lavoro fatto su Vega, il problema grosso è GCN..
Dalla Vega a 7nm non mi aspetto nulla di veramente "buono" lato gaming.. (l'unico che mi interessa ovviamente) proprio perché ipotizzo sia la stessa cosa di Fiji ---> Vega10 (GCN con l'ennesimo affinamento, in sostanza).

Free Gordon
18-06-2018, 13:02
Ho già capito che tra un anno avremo la 1180 che va come la 1080ti ma nei giochi nuovi sarà comunque appena meglio di vega 64 come la 1080 oggi :asd:
Del resto è così ad ogni generazione.

Il problema per chi ha vega...è di aspettare 3 anni per aver un perf/watt al pari della concorrenza.. ;)

Il problema di AMD è l'architettura GCN troppo sbilanciata sulle capacità di calcolo "pure" rispetto alla concorrenza e...ovviamente, la solita cronica assenza di collaborazione "vera" con le soft-house (anche se ultimamente qualcosa hanno fatto..ma non basta ancora).



Da notare la fury x che va meglio di un chip di uguali dimensioni come la 980 ti, da notare la 580 che batte la 1060, da notare la 290x che batte la 980.
La baracca invece batte solo il chippino, effettivamente sì, c’è qualcosa che non va. Non che siano novità comunque.

Aspetto altre rece e future rev. di driver, ma vista così.... direi che non c'è appunto da farti :D (ma non la chiamerei "baracca").

Free Gordon
18-06-2018, 13:11
Secondo me invece GCN di base è una buona architettura ma è vera la questione sulla collaborazione delle sh.
Dopo tutto quando le sh collaborano GCN da risultati incredibili... nelle console.

I giochi console sono programmati ad un livello differente rispetto a quelli PC.. checché se ne dica su DX12 e low level API.

la programmazione console è tutta un'altra cosa. Le scatolette rendono bene anche con hw molto inferiori perché i codici sono molto più ottimizzati (e l'ottimizzazione nel complesso è più veloce e costa meno che su PC, essendo l'hw unico).

Free Gordon
18-06-2018, 13:14
Fai bene a non aspettarti nulla lato gaming, visto che è un chip destinato alle MI e WX, niente RX.


edit

Free Gordon
18-06-2018, 13:15
Fai bene a non aspettarti nulla lato gaming, visto che è un chip destinato alle MI e WX, niente RX.


Quindi tu pensi che PER TUTTO IL 2018 non avremo nuove GPU gaming...?

Sarebbe molto peggio che vedere una Vega 7nm per il gioco.. :asd: perlomeno con una Vega20 gaming, resterebbero un po' in mercato..

Gyammy85
18-06-2018, 13:25
Comunque tornando un attimo a parlare di multi-gpu.

https://www.pcper.com/files/imagecache/article_max_width/news/2016-11-01/mankind1080-avg.png

https://www.pcper.com/files/imagecache/article_max_width/news/2016-11-01/mankind1080-plot.png

DX12 Multi-GPU scaling up and running on Deus Ex: Mankind Divided (https://www.pcper.com/news/Graphics-Cards/DX12-Multi-GPU-scaling-and-running-Deus-Ex-Mankind-Divided)

Se guardate il video noterete che in 1440p scala perfettamente al 100% e come vedete dal frametime non sembra avere problemi di minimi tipici del crossfire.

Ripeto che i mezzi già ci sono, basterebbe applicarli.
Se tutti i giochi fossero compatibili con il multigpu le vga potrebbero fermarsi alla fascia della 480 e se vuoi di più ne metti 2 o 3.
Ma fino a quando si potrà vendere una gpu monolitica enorme a prezzi stellari perchè dovrebbero farlo?

Nota: non so perchè la 1060 in queste prove non scala manco un po', però dovrebbe farlo benissimo anche lei e tutte le Nvidia.
Non è mia intenzione far credere che le AMD vadano meglio delle Nvidia in questo senso.

Anzi se vi guardate questo video vedrete che il multi-gpu con le Nvidia è meglio dello stesso SLI.
https://www.youtube.com/watch?v=uz1ZO5gLCT0

Nvidia ha eliminato quelsiasi tipo di multigpu con la 1060, difatti non è neanche possibile fare lo SLI, da qui è scaturito "il multigpu fa schifo"
Magari sbaglio...

Gyammy85
18-06-2018, 13:27
Quindi tu pensi che PER TUTTO IL 2018 non avremo nuove GPU gaming...?

Sarebbe molto peggio che vedere una Vega 7nm per il gioco.. :asd: perlomeno con una Vega20 gaming, resterebbero un po' in mercato..

Personalissima opinione, per me se ci sarà una vega gaming a 7 nm sarà per la fascia medio alta tipo polaris, e navi prenderà il posto di vega.

Gyammy85
18-06-2018, 13:40
Non devo pensare niente, l'han detto loro che Vega@7nm non è per il gaming.

Di qui al 2020 hanno due architetture, se devo pensare immagino Navi 1Q19 e la successiva 4Q20.

Loro non han detto niente, hanno fatto vedere vega 20 per la instinct (e se vogliamo dalla fase di test a quella dimostrativa è passato pochissimo tempo), dicendo che le gpu a 7 nm sarebbero arrivate presto pure per i gamers, non hanno escluso niente in realtà.

Gyammy85
18-06-2018, 13:42
Sbagli, Nvidia ha eliminato lo SLI perchè lo SLI è via driver Nvidia ma mGPU funziona perchè non avviene tramite i driver Nvidia.

Funziona una 1060 in mGPU con una 480 o una integrata Intel vuoi che non funzionino due 1060? :asd:

Ah avevo capito male...quindi quello scaling 0.0 punto zer0 è tutto di bravura? :D
trolololllool

Gyammy85
18-06-2018, 13:54
https://images.anandtech.com/doci/12233/7nm_vega_575px.jpg

Di sicuro non nel 2018.


Quella slide è vecchia, poi nessuno vieta che possano far uscire qualcosa anche se non esplicitato, anche sui 12 nm che qualche rumour c'era

Come ho scritto non volevo postare quei risultati per quella ragione, anche le Nvidia scalano bene in mGPU e meglio che in SLI.
Non so perchè le 1060 in quella prova non lo hanno fatto, magari è un problema del gioco che hanno corretto dopo.

Purtroppo la gente si inscimmia con i big chip 1080 come minimo ma se vuoi essere un master racer vero 1080ti o titan.
Se provi anche solo a ventilare l'ipotesi che due 1060 possano andare come una 1080 sei un pezzente, se poi provi a menzionare un mGPU di polaris non solo sei pezzente ma anche comunista e mangia bambini.
Quindi di prove ne trovi pochissime :(

Vabbè lo sai che io tendo a ironizzare :D

fraussantin
18-06-2018, 14:52
Va bene essere il più neutrali possibile ma sappiamo bene che non è ad AMD che non gli frega un caxxo ma è a Nvidia.Esatto e sopratutto a chi produce i giochi.

Quelli si che se ne sbattono dei pc.

Il gioco è ottimizzato per console. Le migliorie per pc spesso se le mettono è perchè qualcuno sgancia il necessario per implementarle. .. ( Nworks.. )

AceGranger
18-06-2018, 14:52
Finché possono tirare a campare con le DX11 le software house non metteranno mai ore uomo nell'implementare cose nuove. AMD non ha la forza per imporle e nVidia ci sguazza con Maxwell 4.0, quindi non ti aspettare aiuto nemmeno da loro.

L'unica speranza di innovazione, e mi vengono i conati a scriverlo, è che Intel sparigli le carte, ma vista la loro grande capacità di scrivere driver funzionanti e la situazione disperata in cui si trovano lato fonderie non sono molto ottimista che abbiano come priorità lo spingere uno standard di programmazione piuttosto che un altro.

il problema non sono le DX 11 ma che le GPU che arriveranno di fascia bassa e media ormai riusciranno a gestire il FHD e il 1440p e il multi GPU diventera ancora piu di nicchia perchè servira solo a chi vorra puntare al 4K o a quelle risoluzioni ultra-wide che sono la nicchia della nicchia.

Vul
18-06-2018, 15:04
La realtà è che il vero nome della fascia HEDT è "fessi".

Con una CPU ed una GPU di fascia media giochi senza alcun problema in FHD. E "media" vuol dire una RX560, non una RX580.

La realtà è che quel che ottieni in più da una CPU e una GPU di fascia più alta non è nemmeno vagamente comparabile all'esborso economico che richiede. Lo facciamo perché ci va, non perché realmente serva per poter giocare.

Esattamente.

Qui siamo su un forum di entusiasti di hardware e non è facile far capire che una 960 e un i3 di 6 anni fa bastano e avanzano a coprire le esigenze gaming della gran parte degli utenti.

Giochi tranquillamente a tutti i titoli online del momento.

Giochi tranquillamente a tutti i titoli single player più esigenti rinunciando a dettagli e filtri (entro i 1080p in particolare), anche perchè questi titoli esigenti sono già concepiti per andare a dettagli fra i medio bassi e i medio alti sulle console.

Chi acquista una 1060/570 gioca ben più che tranquillamente e a 1080p può maxare bene o male tutto sempre a quella risoluzione.

Per portare l'asticella grafica in avanti ci vorrebbero:

-una nuova generazione di console (non arriverà a lungo), una che sposti i dettagli minimi più avanti

-giochi graficamente più complessi della media odierna e anche più pesanti (pensate all'effetto che giochi quali il primo Crysis o Batman Arkham City hanno avuto sulla vendita di gpu). Anche se questo dovrebbe essere ottenuto grazie a reali benefici grafici, non motori grafici orrendi (vedi Bethesda). Player's Unknown Battleground, pesante e popolarissimo ha sicuramente venduto molte cpu e gpu, ma è stato un momento solo poi si è tornati a giochi meno esigenti.

Alla fine è il software a determinare le richieste di hardware, e alla gran parte delle persone non importa un fico secco di tecniche diverse di aliasing, anisotropo o ombre e riflessi ultra. Idem per la risoluzione.

AceGranger
18-06-2018, 15:13
:read:



mmmmmm ho sbagliato a quotare :D

Ton90maz
18-06-2018, 18:58
Come ho scritto non volevo postare quei risultati per quella ragione, anche le Nvidia scalano bene in mGPU e meglio che in SLI.
Non so perchè le 1060 in quella prova non lo hanno fatto, magari è un problema del gioco che hanno corretto dopo.

Purtroppo la gente si inscimmia con i big chip 1080 come minimo ma se vuoi essere un master racer vero 1080ti o titan.
Se provi anche solo a ventilare l'ipotesi che due 1060 possano andare come una 1080 sei un pezzente, se poi provi a menzionare un mGPU di polaris non solo sei pezzente ma anche comunista e mangia bambini.
Quindi di prove ne trovi pochissime :(Il problema è che una volta il multi gpu di schedine era hipster e basta, oggi è hipster e anche sconveniente, da quando la pollaggine ha spinto i prezzi dei cessi verso l’alto. Il mining è la storia delle gddr5x ha fatto il resto

I giochi console sono programmati ad un livello differente rispetto a quelli PC.. checché se ne dica su DX12 e low level API.

la programmazione console è tutta un'altra cosa. Le scatolette rendono bene anche con hw molto inferiori perché i codici sono molto più ottimizzati (e l'ottimizzazione nel complesso è più veloce e costa meno che su PC, essendo l'hw unico).Eppure non vedo queste enormi differenze con dei giochi ugualmente ottimizzati su pc.







Aspetto altre rece e future rev. di driver, ma vista così.... direi che non c'è appunto da farti :D (ma non la chiamerei "baracca").SV 64 :fagiano:

Vul
18-06-2018, 19:03
Eppure non vedo queste enormi differenze con dei giochi ugualmente ottimizzati su pc.


Non so, prova a fare una build con una cpu bulldozer low power e accoppiaci una 7850 e dimmi se hai la stessa grafica (e a onor di cronaca questa è un apu non una gpu+cpu che ha richieste di consumi differenti..).

Il paragone con la 7870 regge poco quando si considera la gran differenza in banda tra un apu e una gpu normale.

Gyammy85
18-06-2018, 20:47
Una navi 90 (5760 sp) la vedrei proprio bene, in fascia medio alta vega 56 al posto della 570 e vega 64 al posto della 580, ovviamente a 7nm, 1080+ e 1080ti+ rispettivamente...com'è?

Angeland
18-06-2018, 20:49
Una navi 90 (5760 sp) la vedrei proprio bene, in fascia medio alta vega 56 al posto della 570 e vega 64 al posto della 580, ovviamente a 7nm, 1080+ e 1080ti+ rispettivamente...com'è?


:oink: :oink: :oink: :sbav: :sbav: :sbav:

Gyammy85
18-06-2018, 20:56
:oink: :oink: :oink: :sbav: :sbav: :sbav:

Considerando che la titan v ne ha 5200-5400 mi pare e che la 1180ti viaggerà per quei lidi, mi sembra un numero plausibile, per mantenere sempre quel vantaggio in termini di tf puri. In base ad un calcolo grezzo, se in 480 mm2 ci sono 64cu a 14 nm, in base al die di vega 20 a 7 nm in quello stesso spazio 90 cu ci stanno.

Ton90maz
18-06-2018, 23:58
Non so, prova a fare una build con una cpu bulldozer low power e accoppiaci una 7850 e dimmi se hai la stessa grafica (e a onor di cronaca questa è un apu non una gpu+cpu che ha richieste di consumi differenti..).

Il paragone con la 7870 regge poco quando si considera la gran differenza in banda tra un apu e una gpu normale.Se ne occupava Digital Foundry di fare questi test, e nella maggior parte dei casi le console base andavano circa quanto una 750 ti occata o anche un po' meno, soprattutto la One. Logicamente non mancavano le eccezioni, soprattutto in quei titoli che si avvantaggiano dell'architettura GCN.

Ci sono anche diversi esempi a favore delle console ma non sono così estremi come qualcuno crede: tipo la One X che batte la RX 580 in 4K in FC5 probabilmente per via della maggiore banda passante ma che non raggiunge la 1070.

Sulla CPU secondo me non serve neanche fare confronti, sono così poco performanti che già anni fa ci voleva niente per batterle, oggi basta un pentium da 45 euro. Comunque non so quanto vadano i bulldozer low power ma tra le CPU desktop già un FX 6300 stock surclassa almeno le console base. Ad esempio TW3 su console nelle aree più pesanti va a:
28 fps (ps4, 1.6 GHz)
30 fps (one, 1.75 GHz)
40 fps (one x, 2.3 GHz)
Non l'ho mai visto scendere sotto i 30 in TW3, ammesso che la GPU non faccia da tappo

Gyammy85
19-06-2018, 07:55
Se ne occupava Digital Foundry di fare questi test, e nella maggior parte dei casi le console base andavano circa quanto una 750 ti occata o anche un po' meno, soprattutto la One. Logicamente non mancavano le eccezioni, soprattutto in quei titoli che si avvantaggiano dell'architettura GCN.

Ci sono anche diversi esempi a favore delle console ma non sono così estremi come qualcuno crede: tipo la One X che batte la RX 580 in 4K in FC5 probabilmente per via della maggiore banda passante ma che non raggiunge la 1070.

Sulla CPU secondo me non serve neanche fare confronti, sono così poco performanti che già anni fa ci voleva niente per batterle, oggi basta un pentium da 45 euro. Comunque non so quanto vadano i bulldozer low power ma tra le CPU desktop già un FX 6300 stock surclassa almeno le console base. Ad esempio TW3 su console nelle aree più pesanti va a:
28 fps (ps4, 1.6 GHz)
30 fps (one, 1.75 GHz)
40 fps (one x, 2.3 GHz)
Non l'ho mai visto scendere sotto i 30 in TW3, ammesso che la GPU non faccia da tappo

Si ma è inutile fare sempre riferimento ai soliti titoli, triti e ritriti, vecchi, ottimizzati per maxwell+intel i3 con tanti ghz e scalati su console che li eseguono a piedi scalzi sui chiodi e sui vetri.
Forza 7 gira a 60 a 4k sulla one x, guarda cosa tira fuori la ps4 con god of war o come si chiama, poi quell'altro film interattivo/gioco...sta cosa è ridicola ormai...

Ubro92
19-06-2018, 08:34
Raga state anche paragonando le patate con le cipolle...
Le console non sono così diverse dai pc, come API PS4 usa delle OpenGL proprietarie e One le DX, essendo un HW fisso sanno esattamente tarare il gioco per ridurre l'impatto sulla cpu/gpu a seconda del caso per avere uno psudo frame decente...

Ma la prima PS4 montava una 7790 e la maggior parte dei titoli girava a 720p@30fps erano pochi quelli che potevano aspirare anche solo ai 1080p@30fps nativi...

L'attuale PS4 pro monta una RX 580 in pratica già con questa qualcosa si riesce a tirare ma parliamo rispetto al pc di dettagli medi, con God of War (https://www.youtube.com/watch?v=xepW3bAyeeI&t=3s) il frame scende anche sotto i 40 fps e con Vampyr (https://www.youtube.com/watch?v=zmH6WWDplfE) il dettaglio è veramente lontano dal pc... Giusto per citare qualche esempio...

La vera differenza la fa più che altro anche l'OS che non ha servizi in background o attività secondarie, tutto l'HW è indirizzato al game, inoltre anche la ram di sistema è unificata con la vram, quindi gli FX hanno una BW decisamente più ampia di quanto visto su desktop con le DDR3 che se non erro oltre 1866 non andavano, e con le GDDR5 parliamo di un ampiezza di banda al pari di un Quad Channel DDR4 3600mhz quindi mi sembra normalissimo che un FX spinga, se non erro la PS4 ha anche 1GB DDR3 per lo swapping mentre la ONE è totalmente unificata con un clock anche maggiore e per pareggiare in BW servirebbe un Quad Channel DDR5 in quanto parliamo di 326gb/s contro i 231gb/s di ps4...

Ma è un discorso che lascia il tempo che trova, le console sono adatte a chi non interessa il dettaglio, e vuole una soluzione semplice dove mette il gioco e va senza pensare all'HW e senza porsi problemi per eventuale ottimizzazione dei dettagli oltre a fregarsene poco se sta giocando a 30fps o 60... Quindi sono mercati differenti e ben poco paragonabili...

Per le mie esigenze, a me piace anche rigiocare vecchi titoli, che in ambito console richiederebbero PS2/PS3/PS4 sempre in casa, peccato che però non puoi scalare un gioco PS2 in 4K o andare di texture pack e reshade con una console... :p

Gyammy85
19-06-2018, 09:28
La titan V è un die da 815 mm2 e se non ho capito male va già fuori dagli standard produttivi di TSMC.
Vero che ci sono i tensor core che occupano spazio ma non puoi usarla come metro di paragone.

Mi riferivo solo al numero di sp...

Gyammy85
19-06-2018, 10:27
Comunque 96 cu son troppe, più realistiche 88 max 90, poi bisogna vedere il rapporto con le tmu/rops a quanto lo mettono.

Gyammy85
19-06-2018, 11:22
Dipende se hanno trovato la quadra con le 16NCU, ed è già la seconda volta che fanno il cluster da 16, prima Fiji poi Vega, e l'hanno trovata perchè dovrebbero metterne meno? :D recuperi pochi watt... ad esempio con Polaris potevano osare leggermente di più, potevano metterne 40 che erano appena 4CU in più, erano circa 10mmq (2.5mmq ogni CU), davvero poca cosa...

Gli altri rapporti non possono variare, nel senso che non possono diminuire, al massimo aumentare perché già così sono al limite, e da Hawaii che sono fermi a 64rops, anche se in realtà è più sbilanciata Polaris di Vega come rops, P10 8 rops ogni 9CU (Tot 32rops 36CU), Vega10 16rops ogni 16NCU (Tot 64 rops 64 NCU) solo che sempre nei soliti 4 Geo, è più questo il limite che non le rops.

se ci saranno 6 Cluster (6 Geo), saranno almeno 96rops, 96NCU e sempre 4*96 TMU, poi bisogna vedere se e cosa hanno modificato nell'architettura.

Io credo che Vega20 comunque non sarà così, non tornerebbe molto con i 4 moduli memoria da 4096bit, è più probabile che sia Vega10 + doppi moduli vram, +clock e un altro bel ??? di spazio per chissà cosa, fossero le rops o addirittura i Geo portati ad 8 (8NCU x Geo), ma più probabile siano altri mb di L2 o L3 per HPC...

Ma infatti non credo che vadano oltre le 64 cu per vega 20, io parlavo di navi...del resto sarebbe stupido fare una vega più grossa e poi dover comunque riprogettare per navi...io sarei come scritto prima per il riciclo di vega a 7 nm in fascia medio alta...

Catan
19-06-2018, 11:30
considerando il disegno modulare a blocchi di 1024 sp, non credo che il chip (che sia vega o navi) a 7nm, sia sotto i 6 blocchi da 1024, quindi 6144 sp.
da li a declinare la fascia media da 4096 e la fascia bassa sui 2048.

Gyammy85
19-06-2018, 11:35
considerando il disegno modulare a blocchi di 1024 sp, non credo che il chip (che sia vega o navi) a 7nm, sia sotto i 6 blocchi da 1024, quindi 6144 sp.
da li a declinare la fascia media da 4096 e la fascia bassa sui 2048.

Ma come fulli 6144 sp?

Roland74Fun
19-06-2018, 14:13
Le console non sono così diverse dai pc...

Ma la prima PS4 montava una 7790 e la maggior parte dei titoli girava a 720p@30fps erano pochi quelli che potevano aspirare anche solo ai 1080p@30fps nativi...

L'attuale PS4 pro monta una RX 580 in pratica già con questa qualcosa si riesce a tirare ma parliamo rispetto al pc di dettagli medi....

....gli FX hanno una BW decisamente più ampia di quanto visto su desktop con le DDR3 che se non erro oltre 1866 non andavano....

A riprova di quel che dici basta vedere che gli emulatori di PS3 non cavano un ragno dal buco neppure con pc high-end,
mentre quello per PS4 riesce a far girare i titoli in 4k@60 fps. Questo è spiegato direttamente dagli sviluppatori nella pagina dell'emulatore col fattto che l'architettura della PS4 è basata su x86 e CNG o Polaris.
https://pcsx4.com/

Ricordo comunque che uncharted4 girava sulla PS4 in FHD@60fps.

I Jaguar non sono proprio uguali agli fx,
la versione Liverpool sulla prima PS4 ha 2 moduli da 4 core e la versione NEO sulla pro ha un clock poco più alto. I moduli di BD sono a 2 core a modulo che sgomitano per la cache L2 ed L3, mentre Jaguar non supporta il CMT il che vuol dire che l'esecuzione non viene condivisa. Su BD comunque si possono mettere le ram in OC anche a 2133 od anche di più tirando su il bus di sistema.

La Polaris da 4.2 theraflops assomiglia circa ad una RX470 leggermente depotenziata. Il che spiega il bisogno della riduzione di un po' di dettagli per i 60 FPS in FHD nei giochi più pesanti...

Detto ciò la PS4 per l'hardware che ha ed il prezzo è una bella macchina fatta apposta per quel che deve fare.

Gyammy85
19-06-2018, 15:10
Non ho cambiato la ram dallo schema che ho modificato, ho solo tolto "HBM2" perché non idea di cosa vogliano fare, ma sì, immaginavo tre stack o un bus da 384b.

Fra 12 e 16 c'è anche il 14, ma effettivamente non credo valga la pena cambiare quella parte, quel che manca sono i 6 geo invece di continuare con 4.

C'è anche il discorso features.
Sappiamo che cose tipo il primitive devono essere settate gioco per gioco o in maniera generalizzata via aggiornamento delle api (almeno ho capito così).
Se riescono in qualche modo a rendere trasparente questa cosa possono arrivare al picco di 11 poligoni per clock, se non di più con navi...praticamente sarebbe un mostro di efficienza partendo da soli 4 geo engine fisici, mettici lo shader core grosso e rbe potenziata...:eek: molto più avanti di gpu con unità dedicate...

melo86
19-06-2018, 15:39
Piccola correzione (pignola ,lo so..). N penso che si debba "settare" le primitive, si deve proprio scrivere il codice usando quelle api

Gyammy85
19-06-2018, 16:35
Vega 20 dovrebbe avere 1 TB di banda...

Gyammy85
19-06-2018, 17:21
si si, è già ufficiale basta guardare il chip che aveva in mano lisa su, ma erano elucubrazioni per cosa potrebbero fare dopo Vega20 aumentando i Cluster.

Certo che dopo aver fatto la prima gpu da 1 teraflop, potrebbero reclamizzarla come la prima gpu da 1 terabyte di banda :D

Ubro92
19-06-2018, 17:29
A riprova di quel che dici basta vedere che gli emulatori di PS3 non cavano un ragno dal buco neppure con pc high-end,
mentre quello per PS4 riesce a far girare i titoli in 4k@60 fps. Questo è spiegato direttamente dagli sviluppatori nella pagina dell'emulatore col fattto che l'architettura della PS4 è basata su x86 e CNG o Polaris.
https://pcsx4.com/

Ricordo comunque che uncharted4 girava sulla PS4 in FHD@60fps.

I Jaguar non sono proprio uguali agli fx,
la versione Liverpool sulla prima PS4 ha 2 moduli da 4 core e la versione NEO sulla pro ha un. Poco più alto. I moduli di BD sono a 2 core a modulo che sgomutano per la cache L2 ed L3, mentre Jaguar non supporta il CMT il che vuol dire che le l'esecuzione non viene condivisa. Su BD comunque si possono mettere le ram in OC anche a 2133 od anche di più tirando su il bus di sistema.

La Polaris da 4.2 theraflops assomiglia circa ad una RX470 leggermente depotenziata. Il che spiega il bisogno della riduzione di un po' di dettagli per i 60 FPS in FHD nei giochi più pesanti...

Detto ciò la PS4 per l'hardware che ha ed il prezzo è una bella macchina fatta apposta per quel che deve fare.

Bhè si paragonare i Jaguar agli FX è più una semplificazione,giusto per avere un confronto diretto con le cpu desktop in commercio, in quanto non esistono cpu Kabini a 8 core, le console è quasi come se accorpassero due cpu Athlon 5150/5370...

La PS4 monta praticamente una RX 480/580 con 36CU ovviamente però rispetto queste è penalizzata dal clock se non erro non arriva neanche a 1ghz il che la porta ai livelli di una RX 570/470, quella di Xbox invece è più interessante con ben 44 CU anche se 4 disabilitate quindi su 2816 solo 2560 sono attivi ma guadagna un bus a 384bit e 12GB di vram inoltre anche i clock arrivano a quasi 1.2ghz quindi un chip molto aggressivo seppur del tutto paragonabile a una RX 480/580 desktop dati i clock :p

La PS3 ha un HW completamente diverso, monta una CPU Cell che per emulare tutte le librerie e i set di istruzioni è veramente ostico, a quei tempi anche sviluppare per PS3 non era semplicissimo, infatti penso che sia stata una delle console più costose e complesse su cui sviluppare e l'emulatore non è da meno...

Per PS4 alla fine basterebbe riuscire ad emulare l'OS, un pò come fa Wine su Linux per eseguire applicativi Windows, purtroppo non ho ancora provato PCX4 quindi non mi sbilancio riguardo la maturità raggiunta ma non mi meraviglierebbe se in futuro il progetto di RPCX3 venisse abbandonato in favore di quello PS4 dati anche i "remake" PS3 rilasciati che girerebbero meglio e con minori richieste HW...

sgrinfia
19-06-2018, 18:29
A riprova di quel che dici basta vedere che gli emulatori di PS3 non cavano un ragno dal buco neppure con pc high-end,
mentre quello per PS4 riesce a far girare i titoli in 4k@60 fps. Questo è spiegato direttamente dagli sviluppatori nella pagina dell'emulatore col fattto che l'architettura della PS4 è basata su x86 e CNG o Polaris.
https://pcsx4.com/

Ricordo comunque che uncharted4 girava sulla PS4 in FHD@60fps.

I Jaguar non sono proprio uguali agli fx,
la versione Liverpool sulla prima PS4 ha 2 moduli da 4 core e la versione NEO sulla pro ha un clock poco più alto. I moduli di BD sono a 2 core a modulo che sgomitano per la cache L2 ed L3, mentre Jaguar non supporta il CMT il che vuol dire che l'esecuzione non viene condivisa. Su BD comunque si possono mettere le ram in OC anche a 2133 od anche di più tirando su il bus di sistema.

La Polaris da 4.2 theraflops assomiglia circa ad una RX470 leggermente depotenziata. Il che spiega il bisogno della riduzione di un po' di dettagli per i 60 FPS in FHD nei giochi più pesanti...

Detto ciò la PS4 per l'hardware che ha ed il prezzo è una bella macchina fatta apposta per quel che deve fare.

Ma poi sti 'emulatori! funzionano ?......., qualcuno a provato?.....

Roland74Fun
19-06-2018, 18:41
Ma poi sti 'emulatori! funzionano ?......., qualcuno a provato?.....

Quello della PS4 funziona. Ma solo coi giochi originali e l'account PSN.
Devi quindi avere anche la consolle.

Con la polaris che ha dentro giocare i suoi giochi con una scheda desktop pertebbe essere accattivante.

https://s8.postimg.cc/fq4avq7bp/PS4_PRO_GPU.jpg (https://postimg.cc/image/r2gwdig0h/)

Ora metto la 480 ed il processore agli stessi clock e faccio un po' di bench.

Roland74Fun
19-06-2018, 21:32
Ora metto la 480 ed il processore agli stessi clock e faccio un po' di bench.

Ok provato. Mi si è aperto un mondo.... di stuttering. Neanche posto i risultati per decenza fps dai 30 ai 40 ma con frametime osceni.

Questo ci fa capire quanto contano ottimizzazioni software e programmazione ad hoc.

Ubro92
19-06-2018, 21:45
Ho trovato alcuni bench di god of war con l'emulatore come cpu hanno usato un 8700K@5ghz:

https://s33.postimg.cc/9tjmdumrj/33027216_1256880044445131_7305226731789484032_n.jpg

Free Gordon
20-06-2018, 00:24
Non devo pensare niente, l'han detto loro che Vega@7nm non è per il gaming.
Di qui al 2020 hanno due architetture, se devo pensare immagino Navi 1Q19 e la successiva 4Q20.


Se è così...sono impanati e fritti.. :asd:

A Ottobre Nvidia esce con le 11x0....... :)

A meno che Navi non esca a Gennaio (e non al solito fine Marzo/inizio Aprile.. :fagiano: ) e sia una buona architettura (quindi una pesante evoluzione di GCN...non un maquillage tipo quelli avvenuti fino ad oggi da Tahiti a Vega)

Tra Ottobre e Aprile ci sarebbero 6 mesi senza concorrenza nel settore gaming... :doh:

Free Gordon
20-06-2018, 00:28
Guarda che sarebbe la stessa situazione vista nel 2016... gp104 vs nulla

No ma infatti...sappiamo tutti come è finita! :asd:

Ma continuiamo pure a perdere quote di mercato, massì....cosa vuoi che sia.. :D

Gyammy85
20-06-2018, 07:59
Se è così...sono impanati e fritti.. :asd:

A Ottobre Nvidia esce con le 11x0....... :)

A meno che Navi non esca a Gennaio (e non al solito fine Marzo/inizio Aprile.. :fagiano: ) e sia una buona architettura (quindi una pesante evoluzione di GCN...non un maquillage tipo quelli avvenuti fino ad oggi da Tahiti a Vega)

Tra Ottobre e Aprile ci sarebbero 6 mesi senza concorrenza nel settore gaming... :doh:

Paura!! :eek: :eek:

No ma infatti...sappiamo tutti come è finita! :asd:

Ma continuiamo pure a perdere quote di mercato, massì....cosa vuoi che sia.. :D

Finora le sta guadagnando, sarà per il mining, sarà per le techdemo, ma le guadagna.
Poi oh tanto le cose vanno sempre male, se vende poco venderà ancora meno perché nvidia tanto è meglio, se vende tanto dopo venderà zero perché tanto nvidia esce le nuove, se vende sia prima che dopo jensen tira fuori da sotto il letto il g100 che spacca tutto (cit.) quindi...

Se continuano a perderle con questo ritmo fra 10 anni AMD è monopolista.

:asd: :asd:

Vul
20-06-2018, 09:42
Il fatto che Nvidia abbia perso market share è abbastanza irrilevante alla luce del fatto che ha venduto sempre più gpu negli ultimi anni.


E' meglio avere l'80% di 1 milione di gpu vendute o il 65% di 10 milioni di gpu vendute?

Gli ultimi anni sono stati di gran lunga i più profittevoli per Nvidia, specie considerando che le loro gpu di fascia media (gp104) sono state vendute con un guadagno per scheda estremamente elevato. Sono chip piuttosto piccoli ed economici da produrre, di certo non "valgono" i 550/400 euro richiesti dalla 1080/1070 e già li avremmo visti a 100-150 euro in meno se non fosse stata per la domanda elevatissima degli ultimi anni (motivata in buona parte dal mining).

AceGranger
20-06-2018, 10:05
ahahhh, 35% di share facendo il minimo sforzo con Vega10 :sofico: 10% recuperato facendo praticamente nulla.


lo ha fatto con Polaris non con VEGA e lo ha guadagnato quasi tutto con il mining ;).


Ma cosa c'entra? lo stesso discorso vale anche per AMD eh, meglio avere il 20% di 1 milione di gpu vendute o il 35% di 10 milioni di gpu vendute?...
che poi sono numeri che ti sei inventato sulle vendite, si vendono sempre meno gpu discrete, semmai sono riusciti ad aumentare i guadagni raddoppiando quasi il prezzo a parità di silicio utilizzato, ma lo stesso vale anche per AMD con Polaris e non dipende dalla concorrenza, è dipeso principalmente dal Mining che ha fatto schizzare i prezzi delle gpu discrete. Con Vega10 effettivamente non ci guadagna come nVidia su gp104, ma di sicuro non è in perdita.

Ti ricordo che nel 2011 compravo la 6870, Barts XT Terasclae3 e non GCN tanto bistrattata da 255mmq (ma guarda un po' la stessa dimensione anzi superiore della fascia media di oggi da 230mmq :eek: ) a 150€ nonostante un MSRP iniziale di 240$ del 2010...

si ma i prezzi gonfiati non hanno fato guadagnare di piu ne AMD ne nVidia ma grossisti e rivenditori finali; ADM e nVidia hanno guadagnato di piu perchè hanno fatto sol-out; Su quanto effettivamente ci guadagino è presto detto, AMD ha un gross margin del 35% circa, e nVidia del 60%.
AMD ha aumentato il market share vendendo tante GPU di fascia bassa margiandoci meno, nVidia ha chiuso con fatturati e utili stellari monopolizzando la fascia medio/alta, alta e enthusiast.


e parliamo di GPU gaming, perchè in campo Pro AMD possiamo anche non contarla.

Catan
20-06-2018, 10:05
Ma come fulli 6144 sp?

vega è come 4 "die" virtuali modulari a 4096sp.
Quindi in teoria se "vogliono" e il processo da 7nm gli e lo permette, potrebbero realizzare un navi/vega o chi per loro, con 6 blocchi, considerando quanto "scala" il 7nm, vorrebbe dire che il chip sarebbe grande quando un vega o forse qualcosa meno.
Se hanno necessità di banda, potrebbero collegare 1 modulo hbm2 ad ogni "blocco" da 2048 sp. Quindi aumentando i bit attuali del 50% e la frequenza di quanto si poterà fare (non ricordo se si parla di arrivare a 2400mhz)
Considerando che la "fascia media" a 4096sp, a 7nm, sarebbe un chip il 50% più piccolo dell'attuale vega, inizierebbe ad essere pure "economico da fare" e un best buy per la fascia media.

Poi ovviamente prepari i soliti due cut a 5632 sp e 3584.

Se poi vuoi fare una fascia bassa a 2048sp e 1 stack hbm2 lo puoi fare.

TheDarkAngel
20-06-2018, 10:06
lo ha fatto con Polaris non con VEGA e lo ha guadagnato quasi tutto con il mining ;).

La produzione di vega è esaurita dal d1 :oink:

AceGranger
20-06-2018, 10:22
La produzione di vega è esaurita dal d1 :oink:

vuol dire solo che ne hanno prodotte poche, seno i fatturati di AMD avrebbero altri numeri.

TheDarkAngel
20-06-2018, 10:24
vuol dire solo che ne hanno prodotte poche, seno i fatturati di AMD avrebbero altri numeri.

O sono state vendute tutte quelle previste :p
Purtroppo i wafer sono occupati da bitmain, quindi quello che si poteva prenotare, è stato prenotato, prodotto e venduto. Sono andati comunque a vendere x10 rispetto a fiji

AceGranger
20-06-2018, 10:29
O sono state vendute tutte quelle previste :p
Purtroppo i wafer sono occupati da bitmain, quindi quello che si poteva prenotare, è stato prenotato, prodotto e venduto. Sono andati comunque a vendere x10 rispetto a fiji

eh ok, ma rimane che sicuramente ne hanno vendute numericamente poche, che poi questo fosse nei loro piani ci puo anche stare, ma il discorso era un'altro :) ; anche TitanXP sono state sold sold-OUT per un bel po di tempo, ma di certo non ne hanno prodotte tante quante le 1060...


Come vuoi, va bene, mettici dentro anche il mercato Pro, ma dopo che ho letto da Vul che hanno venduto 10 volte le gpu di qualche anno fa le ho lette proprio tutte :asd:

non lo so, quella parte non l'ho molto capita ma la cosa importante è che, indipendentemente dalle strategie, meriti o fortuna, AMD sia tornata in attivo in tutte le divisioni, sperando che questa nuova linfa porti a novita consistenti in campo GPU come avvenuto in quello CPU.

Gyammy85
20-06-2018, 10:56
sul serio vi illudete che amd ha recuperato quote di mercato per qualcosa di diverso dal mining? se non ci fosse stato il mining avrebbe venduto poche seppur ottime polaris e quasi niente vega


Se lo dici tu :asd:
A me è parso che ci fossero farm piene pure di schede nvidia, poi boh, saranno allucinazioni...
Per le prestazioni, mi pare che in passato fosse bastata una 4850 da 150 euro rozza e povera per far fuori le inarrivabili 8800 gtx e ultra in oro placcato titanio...

Vul
20-06-2018, 11:17
Ma cosa c'entra? lo stesso discorso vale anche per AMD eh, meglio avere il 20% di 1 milione di gpu vendute o il 35% di 10 milioni di gpu vendute?...
che poi sono numeri che ti sei inventato sulle vendite, si vendono sempre meno gpu discrete, semmai sono riusciti ad aumentare i guadagni raddoppiando quasi il prezzo a parità di silicio utilizzato, ma lo stesso vale anche per AMD con Polaris e non dipende dalla concorrenza, è dipeso principalmente dal Mining che ha fatto schizzare i prezzi delle gpu discrete. Con Vega10 effettivamente non ci guadagna come nVidia su gp104, ma di sicuro non è in perdita.

Ti ricordo che nel 2011 compravo la 6870, Barts XT Terascale3 e non GCN tanto bistrattata da ben 255mmq (ma guarda un po' la stessa dimensione anzi superiore della fascia media di oggi da 230mmq :eek: incredibile, ma la fascia media non era sui 315mmq del gp104? uhm...) a 150€ nonostante un MSRP iniziale di 240$ del 2010...

Inventato?

Sono anni che la vendita di gpu si è invertita ed è cresciuta, dal 2014 si sono vendute sempre più gpu su base annua.

Nvidia ha fatto più profitti nel nell'ultimo quarto del 2016 che nei quattro anni fra il 2007 e 2010.

Il confronto mm^2 silicio lascia un poco il tempo che trova, è tutto troppo dipendente da moltissimi fattori (volume chip richiesto, resa, bontà e maturità nodo, ecc) ma credo sia abbastanza assodato che Nvidia su gp104 in particolare abbia un profitto per chip estremamente elevato (anche perchè o stai vendendo tante più schede che in passato, o su quelle che vendi hai margini stratosferici, è una delle due o entrambe).

Vul
20-06-2018, 11:20
la situazione non è affatto drammatica, amd ha recuperato quote di mercato, è solo l'illusione che lo abbia fatto perchè "buone" come schede da gioco (non che non lo siano) che non torna (per lo meno su fascia vega), amd ha sempre fatto ottime schede video (tranne qualche modello) anche di recente e magari perdeva terreno. E' chiaro che quest'anno ha recuperato terreno grazie al mining, non è una colpa anzi per quanto mi riguarda è un merito (se lo hanno previsto).

del resto fiji in proporzione alla 980ti (la ex flagship nvidia) era molto più competitiva di vega con 1080ti eppure non ha venduto un caxxo..

semmai mi dispiace che amd non sia stata in grado di soddisfare la richiesta enorme di schede che ha avuto, se ha recuperato con quelle 4 vga aveva disponibili, se ne avesse avute di più avrebbe fatto sicuramente il botto.

bisogna vedere che grado di competitività avrà il refresh di vega e rivederci un anno dopo per valutarne gli aspetti commerciali nella speranza che il mining sia un brutto ricordo.

Neanche Nvidia è stata in grado di soddisfare la richiesta o i prezzi non sarebbero schizzati alle stelle.

Sia AMD che Nvidia non avevano previsto una tale domanda, e quando la domanda si è concretizzata non avevano slot presso tsmc/gf per produrre più chip.

Non è che se vedi che stai vendendo schede vai da tsmc/gf e gli fai "senti fammene altre 500 mila". Ci sono file piuttosto sostanziali per produrre chip, mica solo per cpu e gpu, mobile, fotocamere, embedded, smart tv, ecc, ecc.

Gyammy85
20-06-2018, 11:25
del resto fiji in proporzione alla 980ti (la ex flagship nvidia) era molto più competitiva di vega con 1080ti eppure non ha venduto un caxxo..


Non ha venduto per la storia dei 4 giga imho


Nvidia ha fatto più profitti nel nell'ultimo quarto del 2016 che nei quattro anni fra il 2007 e 2010.


Non c'era una reale concorrenza in fascia alta e le polaris stavano pian piano salendo.
Inutile confrontare con anni in cui non c'erano i social e quindi tutto il ritorno pubblicitario di youtube il mio nuovo piccì gaming ecc...

TheDarkAngel
20-06-2018, 11:25
Non è che se vedi che stai vendendo schede vai da tsmc/gf e gli fai "senti fammene altre 500 mila". Ci sono file piuttosto sostanziali per produrre chip, mica solo per cpu e gpu, mobile, fotocamere, embedded, smart tv, ecc, ecc.

tsmc è "martoriata" da bitmain :p
Si stima abbia fatto più profitti di nvidia negli ultimi trimestri ;)

Vul
20-06-2018, 11:32
Infatti:

https://seekingalpha.com/article/4182662-nvidia-appears-gpu-inventory-problem

Ammesso, e non concesso, questo rumor sia fondato è relativo a quando? All'ultimo quarto dopo due anni di gpu vendute ben sopra all'msrp?

Non ha venduto per la storia dei 4 giga imho

Ma anche per i consumi e calore...

Per le prestazioni relativamente più basse di 980ti (almeno alla release).

Perchè aveva un water cooler e la versione ad aria era un forno..

Perchè ne ha ordinate poche e al prezzo msrp non le vedevi per mesi dalla release.

Perchè AMD volenti o nolenti non ha lo stesso appeal di Nvidia presso i consumatori...

Ce ne sono di motivi..

Gyammy85
20-06-2018, 11:34
Infatti:

https://seekingalpha.com/article/4182662-nvidia-appears-gpu-inventory-problem

La nave con i container verdi è fantastica :D :D
In pratica hanno prodotto troppo? vende come il pane :asd:

Gyammy85
20-06-2018, 11:40
per carità non lo metto in dubbio è chiaro che è un peccato per amd perchè poteva risollevarsi ancora con più forza e farsi "i bagni" di soldi, nvidia non dico che non ne ha bisogno ma certo gode di una situazione più tranquilla

Gyammy85 per i 4gb? o perchè costava come una 980ti, scaldava, AIO e ok anche i 4gb? AMD ha sempre abituato che a qualche rinuncia corrispondeva altri pregi, con fiji se non altro le prestazioni erano all'altezza anche se i compromessi cominciavano ad essere più elevati rispetto ad una 390x (per fare un esempio) con una 980 liscia.

Ma che scalda se è a liquido :rotfl:
Poi perché dovrebbe essere uno svantaggio farla così? io avrei fatto solo vega 56 ad aria

AceGranger
20-06-2018, 11:45
Non ha venduto per la storia dei 4 giga imho


si certo, solo per quello :asd:


Non c'era una reale concorrenza in fascia alta e le polaris stavano pian piano salendo.


non c'era nemmeno prima e non c'è tutt'ora


Inutile confrontare con anni in cui non c'erano i social e quindi tutto il ritorno pubblicitario di youtube il mio nuovo piccì gaming ecc...

a livello di immagine nVidia stava messa uguale e aveva un market share che ha toccato anche il 70%.

fattura di piu perchè oggi il mercato enthusiast si è allargato ed è uscito dalla nicchia in cui stava prima e se lo è preso tutto nVidia; senza contare tutti i milioni della nuova fascia computing che prima non esisteva.

Ma che scalda se è a liquido :rotfl:
Poi perché dovrebbe essere uno svantaggio farla così? io avrei fatto solo vega 56 ad aria

perchè sei obbligato ad avere un cesso di AIO da sistemare da qualche parte e manco vai piu della concorrenza ?

Gyammy85
20-06-2018, 12:12
Ve lo lascio qui, non so niente del benchmark, quindi non so che commentare:

https://www.tweaktown.com/news/62278/vega-20-teased-aots-benchmark-amds-new-7nm-gpu-tested/index.html

Lo avevo visto ma senza riferimenti di clock non serve a niente.
L'unica cosa che si sa è che a 1100 di clock sta il 10% dietro la Vega fe a 1600 col 3dmark

Free Gordon
21-06-2018, 00:46
Sono andati comunque a vendere x10 rispetto a fiji

Va' bene... :D ok...ma siamo seri, Fiji non ha venduto una mazza...

10 * 0 fa sempre ZERO eh... :asd:

E' UNA BATTUTA.... per chi non lo avesse capito :read: :D



amd ha recuperato quote di mercato, è solo l'illusione che lo abbia fatto perchè "buone" come schede da gioco (non che non lo siano) che non torna (per lo meno su fascia vega), amd ha sempre fatto ottime schede video (tranne qualche modello) anche di recente e magari perdeva terreno. E' chiaro che quest'anno ha recuperato terreno grazie al mining, non è una colpa anzi per quanto mi riguarda è un merito (se lo hanno previsto).

Beh, è ben più che ovvio.
GCN è votata al computing e le GPU AMD hanno in media molta banda pura a disposizione (fuori dalle logiche di compressione/ottimizzazioni varie), quindi sicuramente si adattano bene ad un terreno come quello..
Non credo che le abbiano progettate per quello però... è successo... :)


del resto fiji in proporzione alla 980ti (la ex flagship nvidia) era molto più competitiva di vega con 1080ti eppure non ha venduto un caxxo..

Quotone..


semmai mi dispiace che amd non sia stata in grado di soddisfare la richiesta enorme di schede che ha avuto, se ha recuperato con quelle 4 vga aveva disponibili, se ne avesse avute di più avrebbe fatto sicuramente il botto.

Ma perché nessuno ha programmato nulla...(per quanto concerne il fenomeno "mining"). E' successo... stop...


bisogna vedere che grado di competitività avrà il refresh di vega e rivederci un anno dopo per valutarne gli aspetti commerciali nella speranza che il mining sia un brutto ricordo.

Il mining non calerà...(a meno che non arrivino gli ASIC dedicati anche per altre crypto) e ciò potrebbe essere proprio l'ancora di salvezza per le GPU GCN...

Free Gordon
21-06-2018, 00:54
fattura di piu perchè oggi il mercato enthusiast si è allargato ed è uscito dalla nicchia in cui stava prima e se lo è preso tutto nVidia; senza contare tutti i milioni della nuova fascia computing che prima non esisteva.

Chiaro...
Ma pare che a questo "piccolo" :sofico: particolare nessuno faccia caso quì dentro.

Dopo Hawaii, AMD ha perso completamente competitività proprio dove si fanno i soldoni..

Gyammy85
21-06-2018, 07:53
Ma come, ieri dicevi che i soldoni si fanno nel gaming e che rimarremo almeno 6 mesi o più senza concorrenza con le schede da gioco dato che è stato apertamente detto che Vega20 non sarà una RX, ma si aspetta Navi... deciditi, dove si fanno sti soldoni? :)

ma quando uscirà Navi a 7nm vs la serie 11xx di nVidia a 12nm già sul mercato, dirai le stesse cose? dirai che nVidia è in ritardo sui 7nm, che devono uscire in contemporanea, che non c'è concorrenza, ecc? :)

...Telefonata JHH LS parte 2°

LHH: allora lisa c'hai pensato, usciamo per settembre con ste schede?
LS: ma guarda, alla fine saltiamo qualche mese ma facciamo tutto a 7nm, sia Pro che Gaming... ti lascio qualche mese di vantaggio ok?
LHH: azz se me lo dicevi prima avremmo fatto la stessa cosa, va beh dai sarà per la prossima "Volta" , ahahhh
LS: ahahhh, carina questa... sei sempre il solito simpaticone ganzo, baci.

maddai :rolleyes:

Non si è mai potuto capire dove è giusto far soldi, prima si facevano in fascia media, poi nel pro, ora nella fascia bminkia gaming, domani chissà...
Io ancora devo vederla sta uber scheda da 12 nm, ma dove sono quelli che l'anno scorso piangevano e inveivano perché non sapevano specifiche prezzo custom temp ecc...6 mesi prima che uscisse vega?

AceGranger
21-06-2018, 08:28
Ma come, ieri dicevi che i soldoni si fanno nel gaming e che rimarremo almeno 6 mesi o più senza concorrenza con le schede da gioco dato che è stato apertamente detto che Vega20 non sarà una RX, ma si aspetta Navi... deciditi, dove si fanno sti soldoni? :)


il fatturato lo fai con tutto, l'utile con il Pro ( ora anche con l'enthusiast ).

Mancando totalmente in fascia enthusiast, totalmente in fascia computing e avendo una fascia risicatissima in fascia Pro non è difficile capire perchè AMD abbia quasi sempre avuto la divisone graphics con utili negativi o con valori risicati e il perchè il suo gross margin sia quasi al meta di quello nVidia....
ora la divisione sta in positivo, pero i furbacchioni hanno fuso insieme Ryzen con le GPU... ma anche cosi, basta guardare che AMD ha un utile che è 1/8 del fatturato, mentre quello nVidia è piu di 1/3 o che le sole Tesla fatturano i 2/3 di tutta la divisione GPU e Ryzen di AMD.... e indovina come saranno gli utili...


poi che non ti piaccia nVidia ok, ma santo cielo... AMD in campo GPU da Fiji ha semplicemente lavorato MALE; sta galleggiando con un'architettura che non regge la concorrenza e che non riesce a seguire nemmeno i mercati.

Gyammy85
21-06-2018, 08:51
il fatturato lo fai con il Gaming, l'utile con il Pro ( ora anche con l'enthusiast ).

Mancando totalmente in fascia enthusiast, totalmente in fascia computing e avendo una fascia risicatissima in fascia Pro non è difficile capire perchè AMD abbia quasi sempre avuto la divisone graphics con utili negativi o con valori risicati e il perchè il suo gross margin sia quasi al meta di quello nVidia....

:asd: :asd:
Ma è come la titan, non è gaming non è pro ma è gaming forse pro, comunque è bella compra compra :asd: :asd:
Il margine risicato lo ha storicamente perché deve uscire con la scheda più avanzata e costare 100 euro meno, per far scendere la nvidia che poi viene comprata dai supporters amd "io non son fanboy ma solo del mio portafoglio" :D
La legge del tutto 0, gaming 0, pro 0, console 0, ecc...e sommando sti zeri aumentano il fatturato del 50% sul 2016, niente male però, pensa se da zero passano a 1 :D :D
PS hanno semplicemente le divisioni cpu e gpu distinte da quelle embedded e semi custom, i settori quelli sono...aspetta che li separiamo per arrivare all'incontrovertibile fatto che gpu 0 e cpu 0,000001 :asd:

AceGranger
21-06-2018, 09:03
:asd: :asd:
Ma è come la titan, non è gaming non è pro ma è gaming forse pro, comunque è bella compra compra :asd: :asd:
Il margine risicato lo ha storicamente perché deve uscire con la scheda più avanzata e costare 100 euro meno, per far scendere la nvidia che poi viene comprata dai supporters amd "io non son fanboy ma solo del mio portafoglio" :D
La legge del tutto 0, gaming 0, pro 0, console 0, ecc...e sommando sti zeri aumentano il fatturato del 50% sul 2016, niente male però, pensa se da zero passano a 1 :D :D
PS hanno semplicemente le divisioni cpu e gpu distinte da quelle embedded e semi custom, i settori quelli sono...aspetta che li separiamo per arrivare all'incontrovertibile fatto che gpu 0 e cpu 0,000001 :asd:

non le hanno distinte, le hanno accorpate, perchè se le avessero avute distinte avresti avuto la divisione CPU e la divisione GPU come era prima, ma cosi è sicuramente piu semplice coprire la divisione che va male :asd:
50% dove ?

AMD nel 2016 ha fatturato 4.27 Miliardi e nel 2017 5.33, hanno aumentato del 24%

nVidia nel 2016 ha fatturato 6.91 Miliardi e nel 2017 9.71, hanno aumentato del 40%

tu parli sempre e solo perchè ti sta sulle balle nVida, la realta che vede la maggioranza delle persone è che AMD in campo GPU sta lavorando di merda da Fiji galleggiando con un architettura che non regge la concorrenza.


si no, ma aspettiamo qualche fanta-uber-feature delle DX 12 che nel duemilacredici fara funzionare al 394% GNC.

TheDarkAngel
21-06-2018, 09:34
Il mining non calerà...(a meno che non arrivino gli ASIC dedicati anche per altre crypto) e ciò potrebbe essere proprio l'ancora di salvezza per le GPU GCN...

Tolti i bitcoin che si fondano sulla continuità del codice e sull'enorme potenza computazionale a disposizione per renderli la creazione umana più inviolata ad oggi, le altre comunità di criptovalute forkano che è un piacere per evitare che gli asic possano minare e si è già fatto con successo, ecco perchè posso dire con "estrema" sicurezza che le gpu amd sono la fondazione ed i pilastri di qualsiasi cryptovaluta pow da qui ai prossimi anni. Aggiungo che a dispetto del comune pensiero, amd è ben conscia della cosa da almeno il 2012 ed ha sempre assecondato la questione, evitando proclami (emh slide) per non far venire crisi di pianto ai gamer che sono emotivi come gli adolescenti, ma ha sempre sostenuto l'aspetto computazionale delle sue gpu.

Gyammy85
21-06-2018, 09:41
non le hanno distinte, le hanno accorpate, perchè se le avessero avute distinte avresti avuto la divisione CPU e la divisione GPU come era prima, ma cosi è sicuramente piu semplice coprire la divisione che va male :asd:
50% dove ?

AMD nel 2016 ha fatturato 4.27 Miliardi e nel 2017 5.33, hanno aumentato del 24%

nVidia nel 2016 ha fatturato 6.91 Miliardi e nel 2017 9.71, hanno aumentato del 40%

tu parli sempre e solo perchè ti sta sulle balle nVida, la realta che vede la maggioranza delle persone è che AMD in campo GPU sta lavorando di merda da Fiji galleggiando con un architettura che non regge la concorrenza.


si no, ma aspettiamo qualche fanta-uber-feature delle DX 12 che nel duemilacredici fara funzionare al 394% GNC.

Il fatturato della divisione computing e graphics è passato da 1,967 miliardi nel 2016 a 3,029 nel 2017, un aumento del 54% circa. Quello è il core business, il resto è rimasto pressoché invariato...non buttarla sempre sull'odio per nvidia...

AceGranger
21-06-2018, 09:52
Il fatturato della divisione computing e graphics è passato da 1,967 miliardi nel 2016 a 3,029 nel 2017, un aumento del 54% circa. Quello è il core business, il resto è rimasto pressoché invariato...


Ryzen e mining e stop;


non buttarla sempre sull'odio per nvidia...


per favore... mantieni un minimo di integrita.

TheDarkAngel
21-06-2018, 09:58
interessante, tua opinione o ci sono fonti?

Non è mai stata fatta menzione pubblica fino a maggio/giugno 2017 dove per risolvere un problema specifico con il dag di ethash sulle polaris e successivamente per vega, amd rilasciò driver espressamente chiamati blockchain. In realtà dei driver fixati non firmati (non dei beta che sono sempre dei whql se no non andrebbero sui sistemi ms x64) giravano già da mesi tra gli sviluppatori amd che si erano accorti della problematica.
Per il periodo precedente è una mia opinione, perchè nessuno dava particolare enfasi ai bug fixati per la comunità miner eppure il supporto è stato dato per qualsiasi bug riscontrato. Sarebbe strano pensare il contrario, amd e nvidia fixano problematiche relative a programmi usati dallo 0,1% dei consumatori ed i miner sono sempre stati qualche punto %.
Potrei dirti che prima dei driver 11.6 non era possibile avere più di 4gpu inizializzate da windows, amd, almeno secondo la mia opinione, portò il limite a 8 per richiesta dei miner dato che prima era possibile solo su linux (ambito lavorativo) o con gli 11.7 levò la necessità di usare un dummy plug per non vedere l'hash rate ridotto, altri episodi specifici dovrei andarli a cercare e non ho voglia :fagiano:

techfede
21-06-2018, 10:02
interessante, tua opinione o ci sono fonti?
Io non so cosa di preciso faccia AMD, però vorrei solo far notare che le blockchain ad oggi non sono solo criptovalute, ma stanno nascendo parecchie altre applicazioni che ne traggono vantaggio, e da qualche parte i conti si devono fare.

Gyammy85
21-06-2018, 10:18
Tolti i bitcoin che si fondano sulla continuità del codice e sull'enorme potenza computazionale a disposizione per renderli la creazione umana più inviolata ad oggi, le altre comunità di criptovalute forkano che è un piacere per evitare che gli asic possano minare e si è già fatto con successo, ecco perchè posso dire con "estrema" sicurezza che le gpu amd sono la fondazione ed i pilastri di qualsiasi cryptovaluta pow da qui ai prossimi anni. Aggiungo che a dispetto del comune pensiero, amd è ben conscia della cosa da almeno il 2012 ed ha sempre assecondato la questione, evitando proclami (emh slide) per non far venire crisi di pianto ai gamer che sono emotivi come gli adolescenti, ma ha sempre sostenuto l'aspetto computazionale delle sue gpu.

Che amd potesse sapere nel 2012 che ci sarebbe stato il boom nel 2017 mi pare un pò forzato, semplicemente in ottica dx12 e vulkan hanno creato un'architettura versatile che avrebbe brillato coi codici più evoluti. Poi se la maggior parte delle cose è ferma alle dx11 del 2011 che possono farci?
Che colpa ne hanno se le nvidia di fascia alta vanno come le amd di fascia media nel computing?

Gyammy85
21-06-2018, 10:20
Ryzen e mining e stop;





per favore... mantieni un minimo di integrita.

Ok tutto mining.
Se passato il boom le quote continueranno a crescere per amd quale sarà la conclusione? amd ci truffa con le ubaficiurs?

TheDarkAngel
21-06-2018, 10:21
Che amd potesse sapere nel 2012 che ci sarebbe stato il boom nel 2017 mi pare un pò forzato, semplicemente in ottica dx12 e vulkan hanno creato un'architettura versatile che avrebbe brillato coi codici più evoluti. Poi se la maggior parte delle cose è ferma alle dx11 del 2011 che possono farci?
Che colpa ne hanno se le nvidia di fascia alta vanno come le amd di fascia media nel computing?

Tanto per sapere, dove avrei scritto quello che dici? :mbe:
Ho scritto che amd era già a conoscenza dell'uso delle sue schede in maniera più che hobbistica almeno dal 2012 dato che risolveva problematiche relative ai driver almeno dal 2011.

Gyammy85
21-06-2018, 10:25
Tanto per sapere, dove avrei scritto quello che dici? :mbe:
Ho scritto che amd era già a conoscenza dell'uso delle sue schede in maniera più che hobbistica almeno dal 2012 dato che risolveva problematiche relative ai driver almeno dal 2011.

Scusa avevo frainteso...si sono d'accordo su questo ;)

Gyammy85
21-06-2018, 10:31
Fonti? :fiufiu:

A ma piacerebbe sapere quante Vega hanno venduto (ma anche di polaris), non perchè credo ne abbiano vendute tante o poche ma proprio perchè non ne ho idea e si sparano un sacco di puttanate basate sul nulla.

Occorrerebbe sapere il ricarico dei vari venditori, scorporarlo e fare una divisione grezza dal fatturato, e avresti il numero di schede vendute...più o meno.

Gyammy85
21-06-2018, 10:32
Non solo non ci guadagna niente ma MS e Sony hanno scelto AMD perchè costa meno rispetto a... le apu Intel e le apu Nvidia :asd:

No ma avevano già pronte le apu con i3+gtx1065, ma costavano troppo e nessuno le ha volute.