PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 [194] 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345

Gyammy85
22-08-2017, 21:17
https://www.overclock3d.net/news/gpu_displays/amd_s_navi_architecture_will_reportedly_sport_ai_specific_circuits/1

Interessante il termine scalability per navi

Immagino una situazione r600-rv770, shrink con aumento considerevole delle unità di calcolo e miglioramento generale dell'efficienza a costi ridotti

Gyammy85
22-08-2017, 21:38
R600 passo' prima da RV670 (HD3870, che ho avuto). Vega potrebbe pure subire questo tipo di trattamento prima di Navi, ma considerando che gli shrink ottici non esistono piu' ne dubito.

In qualche slide si parlava anche di 14 nm+ per vega mi pare, forse una sorta di piccolo refresh

La 3870 era sostanzialmente la stessa rispetto alla 2900xt, andava praticamente uguale...

Gyammy85
22-08-2017, 22:07
Sostanzialmente si', ma fu uno shrink ottico, ora non si possono piu' fare, quindi si', piu' facile vedere un chip semplicemente revisionato con lo stesso processo (con i + sopra e sotto a far vedere che il processo e' migliorato oppure perche' e' l'LPU di Samsung o il 16FF di TSMC rinominato fantasiosamente 14FFA tipo il 12FFN).

Comunque non si capisce se è in programma nel 2018 o 2019, alcune slide la danno nel 2018...forse appena saranno disponibili i 7 nm?

Hadar
22-08-2017, 22:12
Comunque non si capisce se è in programma nel 2018 o 2019, alcune slide la danno nel 2018...forse appena saranno disponibili i 7 nm?Di cosa parli di navi o del mezzo refresh di Vega?
Vega 20 lo vedo simile a Polaris 20, fra un annetto.

Navi @7nm 2019 sicuro imho, fra un anno e mezzo minimo, se non vicino ai 2

Gyammy85
22-08-2017, 22:15
Di cosa parli di navi o del mezzo refresh di Vega?
Vega 20 lo vedo simile a Polaris 20, fra un annetto.

Navi @7nm 2019 sicuro imho, fra un anno e mezzo minimo, se non vicino ai 2

Io ricordo della slide che faceva vedere 14 nn+ per vega nel 2017...

fraussantin
22-08-2017, 22:38
Navi@7nm lo vedo 1Q19

http://images.anandtech.com/doci/11404/gpuroadmap.png

Nel mezzo non so bene cosa possono fare se non una revisione al massimo.

nella fascia sotto potrebbe esserci un Vega piccolo a sostituire Polaris oppure un Navi piccolo per fare da pipecleaner sui 7nm gia' 3Q18.

quindi navi 2019?

Hadar
22-08-2017, 22:38
quindi navi 2019?Vabbè, ma è la cosa più ovvia

fraussantin
22-08-2017, 22:53
Vabbè, ma è la cosa più ovvia

con amd nulla è ovvio ...


quindi il prossimo anno vega 14nm+ ottimizzano i consumi e overcloccano un pochino ( con dissi ad azoto ) per arrivare alla 2060 e sperano di sopravvivere?

55AMG
22-08-2017, 23:02
quindi navi 2019?Dal grafico sembra molto piú palese ultimi mesi 2018

Inviato dal mio SM-G935F utilizzando Tapatalk

DuttZ
22-08-2017, 23:04
io sto quasi pensando di fare il m*rd* e smollare la 480 a 400€ adesso a qualche minatore da strapazzo e farmi vega cut quando esce.Magari gli appioppi anche la mod per mining e la vendi a 500€ 😂😂😂

mircocatta
22-08-2017, 23:07
Dal grafico sembra molto piú palese ultimi mesi 2018

Inviato dal mio SM-G935F utilizzando Tapatalk

no no no no, non incominciamo a fare ipotesi in base ai grafici amd cercando di capire dove è piazzata la scritta vi prego, se no non se ne esce più dopo quello che è successo con vega, please

Hadar
22-08-2017, 23:08
Dal grafico sembra molto piú palese ultimi mesi 2018

Inviato dal mio SM-G935F utilizzando TapatalkSecondo il grafico di Vega, doveva uscire a fine 2016 se non ricordo male, eppure 😂😂
I 7nm li vedo possibili nel 2019

Gyammy85
23-08-2017, 07:40
Io penso di si, quantomeno se intendiamo la fascia alta.



Secondo quel grafico doveva uscire nel 2017.

Però la gente conta i pixel e quindi hanno deciso di farne uno più vago in modo che la gente non lo facesse, ma ovviamente ci risiamo :asd:

Ma io dico che comunque il grosso del lavoro lo hanno già fatto, i tempi saranno più ristretti

Hadar
23-08-2017, 08:00
Il punto è che non hanno il processo in mass production fino al Q3 se va bene.

Qualche speranza c'è invece per un 14+ che non sia come quello Intel ma sia effettivamente nuovo, tipo il Samsung 14LPU o il TSMC 16FF rimarchiato tipo quello nVidia (12FFN) in modo da permettere un refresh di Vega in tempi brevi/brevissimiMica l'hanno capito che è per i 7nm che uscirà nel 2019 (più i soliti ritardi di cui siamo abituati, di qualunque natura).
Anzi, secondo me esce prima zen 2 verso febbraio/marzo e poi Navi un trimestre più tardi circa

Gyammy85
23-08-2017, 19:11
Secondo il grafico di Vega, doveva uscire a fine 2016 se non ricordo male, eppure 😂😂
I 7nm li vedo possibili nel 2019

Comunque le instinct si sono viste a dicembre 2016, e molti pesavano fosse una dual polaris :asd

Gyammy85
23-08-2017, 21:52
Il fatto è che loro parlavano dei 7 nm già l'anno prossimo, quindi non dovrebbe essere molto lontana...

mircocatta
23-08-2017, 22:28
Il fatto è che loro parlavano dei 7 nm già l'anno prossimo, quindi non dovrebbe essere molto lontana...A parer mio gli conviene occupare i 7nm solo con le CPU per spingere l'acceleratore convincendo ancora i pochi che preferiscono intel..tanto le gpu vanno in sold out anche a 14nm

Gyammy85
24-08-2017, 15:17
https://segmentnext.com/2017/06/17/amd-navi-40-faster-than-amd-vega/

Gyammy85
29-08-2017, 15:32
nel 2018 è lecito aspettarsi un nuovo chip di fascia media? :stordita:
potrei anche aspettare questo invece di Vega56

Dovrebbe esserci vega 11, non saprei

Comunque i 7 nm dovrebbero risolvere i problemi di consumo e dare un bel boost di performance

Gyammy85
29-08-2017, 15:39
io però li vedo lontani più verso il 2019, ma dici già nel 2018? se fosse così potrei davvero aspettare :sofico:

A quanto dice amd sono messi bene coi 7 nm e dovrebbero essere pronti per metà 2018, ma perché vuoi aspettare così tanto? La 56 è una bella scheda l'avrei considerata anch'io se non fosse che voglio mantenermi entro i 300 euro...

The_SaN
29-08-2017, 15:40
io però li vedo lontani più verso il 2019, ma dici già nel 2018? se fosse così potrei davvero aspettare :sofico:

L'ultimo che lo ha fatto...:stordita:

Gyammy85
29-08-2017, 15:48
lui aspettava la fascia alta, ed è ben diverso che aspettare la fascia media... poi non sono uno che verrebbe a piangere sui forum per un pezzo di silicio :asd:

Lui ha preso quello che voleva prendere dal primo momento...;)

Gyammy85
29-08-2017, 15:56
visto come va attualmente Vega64 e quanto costa ha fatto bene però, solo che doveva farlo 9 mesi fa come gli avevamo consigliato :asd:

E sarebbe da 9 mesi nel thread aspettando volta a dire nvidia mi ha imbrogliato aveva detto 60 effepieffe fiffi a 4k in the widget 3 :asd: :asd:

Si scherza eh :flower:

Ale55andr0
29-08-2017, 16:42
Il fatto è che loro parlavano dei 7 nm già l'anno prossimo, quindi non dovrebbe essere molto lontana...

loro parlavano anche tipo "coming soon" a gennaio per vega, quindi se dicono 2018 si resta sul vago :stordita:

Ale55andr0
29-08-2017, 16:53
L'ultimo che lo ha fatto...:stordita:

mi è detta male, in altri periodi ci ero rimasto fregato per poco, per questo mi sono martoriato piuttosto che cedere, dovevo scegliere con cognizione di causa. L'ho fatto e sono soddisfatto. 650 sono un furto, per come va e per come è uscita come lo erano per nvidia (e ci sono post a testimoniare che lo dicevo) nonostante 1) fosse senza concorrenza, 2) volava e consumava meno rispetto la top rivale, ergo comunque poteva essere più giustificabile la cosa, eppure NON la ho giustificata

Lui ha preso quello che voleva prendere dal primo momento...;)

non dire scemenze su cio che non conosci e che riguarda cio che IO scelgo, grazie. Ci sta un thread intero in cui aspettato VEGA. Se volevo nvidia ebbasta prendevo nvidia 3 mesi fa coi prezzi ai minimi storici e con la migliore custom 11gbps a 520, non una liscia con un dissi inferiore (motivo in più per "ringraziare" amd), per cui evita provocazioni, che di trollate ne fai abbastanza con i tuoi hashtag

visto come va attualmente Vega64 e quanto costa ha fatto bene però, solo che doveva farlo 9 mesi fa come gli avevamo consigliato :asd:


Infatti il "culetto" continua a ridere..poi quando esce volta inizierà a bruciare, pazienza :boh:

Gyammy85
29-08-2017, 17:12
Grid ha la 6870 :O

Roland74Fun
29-08-2017, 21:11
ho tamponato con la PS3 e giochi vecchi negli ultimi anni.....

OT.
La mia PS3 non rimane accesa. Si spegne dopo 2 secondi. L'ho smontata tutta cambiato pasta termica sembra tutto a posto. Sarà morto l'alimentatore?
E un peccato buttarla, la PS2 invece rulla ancora di brutto. :boh:

Gyammy85
29-08-2017, 21:27
OT.
La mia PS3 non rimane accesa. Si spegne dopo 2 secondi. L'ho smontata tutta cambiato pasta termica sembra tutt a posto. Sarà morto l'alimentatore?
E un peccato buttarla, la PS2 invece rulla ancora di brutto. :boh:

Secondo me è la gpu amd maxpower che monta la ps3...solita fornetta amd

Roland74Fun
29-08-2017, 21:41
Secondo me è la gpu amd maxpower che monta la ps3...solita fornetta amd

Ma... ma... la GPU della PS3 è prodotta da Nvidia.:eek: :eek:
https://it.wikipedia.org/wiki/RSX_Reality_Synthesizer

Gyammy85
29-08-2017, 21:42
https://videocardz.com/71280/amd-vega-10-vega-11-vega-12-and-vega-20-confirmed-by-eec

In questa news di un mesetto fa c'è la tabella con tutte le varianti di vega...da notare la presenza di vega 11 pro e xt e vega 20 con 16 e 32 gb di memoria...saranno dual o versioni più potenti?

Gyammy85
29-08-2017, 21:43
Ma... ma... la GPU della PS3 è prodotta da Nvidia.:eek: :eek:
https://it.wikipedia.org/wiki/RSX_Reality_Synthesizer

Ah...beh...allora...è una feature! :)

Gyammy85
30-08-2017, 08:07
dipende dal modello, i primi facevano cacare :asd:
io ho la superslim 500gb, che adesso è riposta nell'armadio, se la vuoi ci mettiamo d'accordo :D

fine OT



Alla fine se la faranno Vega11 andrà grossomodo come Vega56, quindi comprare ad ottobre Vega56 sarebbe la stessa cosa dal punto di vista prestazionale, mi frena però il costo dato che potrebbe costare molto meno ai livelli di una 480/580 senza l'inflazione dei miner...

L'altro ieri per sfizio ho visto su trovaprezzi delle 580 4GB a 240€ spedite che oggi non ci sono già più e partono da 300€... a quel prezzo altro che Vega56 che al momento va solo il +35% per costare si presume il doppio, io dico che almeno 450~500€ ci vogliono se la 64 ne costa 630~680€.

Ripeto, una Fiji overclockata non la voglio, se sistemano in tempo ed abilitano tutto bene, altrimenti ciccia.

Non vedo perché vega 11 dovrebbe andare come la 56, essendo più piccola
Per il resto, va comunque più di una fiji occata nei giochi geometry bound, anche ora che i driver sono incompleti

Hadar
30-08-2017, 08:38
con V11 RX680 mi aspetto un +40% a salire su P10 RX580, sia perché a stima dovrebbe avere almeno 44CU +22% e sia perché avrà clock maggiori di un 10~15% utilizzando la Pipeline di Vega.

il tutto sui 350mmq circa, dopotutto manca un chip che stia in mezzo a P10 230mmq e V10 480mmqQuel chip dovrà battersela con la 2060 che andrà quanto la 1070(?).
Secondo te ce la fa?

Hadar
30-08-2017, 13:18
Riguardando queste vecchie slide leakate tempo fa... mi sembra ci abbiano preso per quanto visto fino ad ora. Nulla naturalmente vieta che AMD abbia cambiato i propri piani nel frattempo, però dà cmq un insight su quanto avessero in mente.


https://cdn.videocardz.com/1/2017/01/AMD-VEGA-10-specifications-1000x546.jpg

https://cdn.videocardz.com/1/2017/01/AMD-VEGA-20-specifications-1000x377.jpg


A conti fatti nascono un po' di domande:


a) 1TB/sec di banda passante con 4 stack di HBM2 suona bene, ma... se lo gode anche la sigola GPU quando non si riesce a sfruttare il crossfire, oppure viene sempre e cmq diviso equamente a metà?

b) cosa significa xGMI support for peer-to-peer GPU communication? Che non serve più il crossfire per far scalare (non si sa quanto) le prestazioni navi-style?

c) Non sembra che prevedano di fare schede con meno di 1TB/s di banda passante da oggi in poi.

d) ...quindi anche il refresh 14nm+ ripetutamente annunciato da fonti ufficiali sarà con 4 stack di memoria?

e) quanto caspita costerà?

f) sarà una buona idea comprare delle Veghe 10 limitate a 512 gb/sec se fra un anno escono quelle col terabite?Considera che non sono neanche 512 ma 484

Soulbringer
30-08-2017, 13:32
Se vabbè, 9 mesi è un'era geologica per le gpu.
Potrebbe già esserci un vega refresh se non addirittura Navi.

E non mi dire "eh se Navi esce con le tempistiche di AMD..."
Vega mi ha un poì deluso sia come prestazioni, che come tempi... un po' come tutto.
Tutti qua a dire "se l'avessero presentata XX mesi prima" ma non prendiamoci in giro, se vega è solo quello che abbiamo visto presentarla 1 anno fa cosa cambiava? Poco o niente, se non forse i prezzi più contenuti delle 1070 e 1080.

Però AMD con Ryzen ha dimostrato che se ha un buon prodotto in mano è in grado di fare belle cose anche come tempistiche e presentazioni.
Secondo me dovendo scegliere se spingere l'acceleratore su Vega o su Ryzen e hanno scelto il secondo (a ragionissima), ma se Navi (o Vega refresh) fosse un bel prodotto spingerebbero per averlo il prima possibile.

Beh oddio...se le avessero presentate un anno fa almeno sarebbero state schede che andavano come la concorrenza consumando un po' di più come ultimamente sempre succede. Inoltre, probabilmente, avrebbero avuto il tempo di migliorare e di presentare una concorrente alla 1080ti.
L'anno di ritardo è una cosa che amplifica notevolmente le pecche sui consumi e sulle prestazioni così così.

A me comunque la cosa che fa più paura è l'architettura che scala di merd@...ha ancora gli stessi limiti del precedente GCN. Oltre al fatto che non è pensata per il gaming.

Free Gordon
30-08-2017, 14:08
Non vedo perché vega 11 dovrebbe andare come la 56, essendo più piccola
Per il resto, va comunque più di una fiji occata nei giochi geometry bound, anche ora che i driver sono incompleti


Vega11 DEVE andare quasi come la 56... ;) Sennò sono fottuti. :)

Hadar
30-08-2017, 14:26
Il punto è che fare un chip più piccolo di V10 per andare quanto P10 ma con un die più grande non ha alcun senso, continui a fare P10 e amen.

Per avere senso deve risolvere i problemi attuali di V10, il che significa andare come va V10 ora con un die più piccolo, di fatto soppiantandolo in attesa che Navi possa fare la fascia sopra.



Chissà se sono vere, di certo se lo sono è roba interna o per i partner, non pensata per stampa/pubblico, infatti ci sono cose che già non tornano.

In quelle slide c'è un Vega 20 2H18 a 7nm, nelle slide recenti e ufficiali a 7nm c'è Navi, Vega è solo 14 e 14+ (di nuovo, non si sa cosa sia 14+, potrebbe essere il nulla come il 14LPU di Samsung).

Alla fine "i nomi sono solo accidenti", se la chiamano Vega 20 o Navi ci importa poco, ma quel Vega 20 sembra solo un rilancio nel computing, non certo un passo avanti nel gaming (cambia il rate DP e nient'altro a parte presumibilmente le frequenze, visto che siamo ancor a 300W nonostante i 7nm) e quella voce sull'xGMI sembra similare a NVLink. D'altra parte sono slide su ROCm, quindi ci sta che non si parli di novità relative al gaming, come è possibile che Vega e Navi arrivino a coesistere con Vega ancora più spinta sul computing e Navi a coprire il mercato gaming.

L'unica vera informazione utile, in ogni modo, è il 7nm nel 2H18. Se ce la fanno davvero sarà molto interessante, vorrebbe dire poter fare una RX580 passiva o quasi :DCon un 7nm nel 2018 navi potrebbe anche essere la fascia media con le gddr6
PS: io rimango dell'idea che i 7nm saranno usati nel 2019

Hadar
30-08-2017, 14:31
Dubito che le GDDR6 abbiano costi compatibili con la fascia media, proprio come le GDDR5X.Vabbè, le hbm2 non penso siano così tanto più economiche

Gyammy85
30-08-2017, 14:35
Vega11 DEVE andare quasi come la 56... ;) Sennò sono fottuti. :)

Non mi tornava il ragionamento di non prendere ora una vega 56 per prendere dopo una vega 11 che va come vega 56 :asd:

Vul
30-08-2017, 15:42
si possono fare solo stime e di Volta sono quelle più o meno, +40~50% sul chip precedente in tutte le fasce contando i clock a default più elevati oltre che ai CC, quindi gv106 in mezzo al gp104.



Seh, 40-50%, tra il 20-30%, su stesso nodo, è già grasso che cola.

Volta sembra a tutti gli effetti Maxwell 4.0, non vedo da dove puoi tirare fuori 40-50% in più.

Le frequenze sui 16nm tsmc sono già al limite (guarda quanto overclocka poco pascal rispetto a maxwell), per incrementarle ancora di più bisognerebbe fare chip davvero grandi (parliamo di un incremento di almeno 15% di transistor per sostenere queste frequenze maggiorate).

Ergo costo dei chip sensibilmente superiore (specie se il resto rimane piu o meno uguale).

E' impensabile che volta faccia 40-50% in più.

Per farlo, fondamentalmente, ci sarebbe bisogno di una congiuntura fra aumento di ipc astronomico, aumento di clock astronomico e aumento di rops piuttosto sostanziale.

Il tutto nelle stesse fasce di prezzo...?

Ma quando mai.

GV100 è un chip a dir poco immenso, ergo la direzione non è certo cambi radicali architettonici ma solo dimensioni maggiori.

AceGranger
30-08-2017, 20:04
Seh, 40-50%, tra il 20-30%, su stesso nodo, è già grasso che cola.

Volta sembra a tutti gli effetti Maxwell 4.0, non vedo da dove puoi tirare fuori 40-50% in più.

E' impensabile che volta faccia 40-50% in più.




GP100 sono 610mm2
GV100 sono 815mm2

GV100 aumenta la sua area del 33% e a parita di TDP:

CUDA da 3840 a 5120 = +42% ( in realta ne ha 5376 per ridondanza )
HBM2 bandwidth da 720 GB/s a 900 GB/s = +25%
NVLink Bandwidth da 160 GB/s a 300 GB/s = +87,5%
L2 Cache passata da 4MB a 6 MB = +50%
L1 Cache passata da 1,3 Mb a 10 MB = + 769%
Aggiunta tutta la parte di 640 Tensor Core ( 672 per ridondanza )
Altre migliorie che non elenco


ora con un aumento del 33% dell'area è arrivata a un +40% di potenza, nelle Volta Gaming aumenteranno praticamente solo i Cuda Core, la L1 e la L2 ( credo ), e invece di aumentare la banda delle HBM2 aumentera quella delle GDDR6 che pero dovrebbero essere piu efficienti mi pare del 10%.

niente Tensore Core, niente NVLink, quindi TDP e mm2 risparmiati, e credo un bel po sia di mm2 che di TDP.


nello stesso TDP sicuramente arriveranno a un +40%, visto che gia lo hanno fatto con le Tesla.


Le frequenze sui 16nm tsmc sono già al limite (guarda quanto overclocka poco pascal rispetto a maxwell), per incrementarle ancora di più bisognerebbe fare chip davvero grandi (parliamo di un incremento di almeno 15% di transistor per sostenere queste frequenze maggiorate).



nVidia ha bloccato il power limit con 2/3 resistenze di caduta, è una limitazione voluta, volendo un pelo potrebbero anche farle salire se volessero, non stanno stretti con il TDP.

Il tutto nelle stesse fasce di prezzo...?

Ma quando mai.

GV100 è un chip a dir poco immenso, ergo la direzione non è certo cambi radicali architettonici ma solo dimensioni maggiori.


tralasciando che non c'è scritto da nessuna parte che non possano aumentare i prezzi e riportarli come da lancio 1070 e 1080, il nuovo pp va a compensare parte dell'aumento della dimensione del chip e GV100 è enorme perchè ha anche un casino di roba che ai chip gaming non serve e che non avranno.


che nVidia possa arrivare a un +40'% è cristallino, che poi lo faccia e a quale prezzo sono un'altro paio di maniche.

IMHO, per me arrivera il +40%, i prezzi della 2070 e 2080 verranno riportati a quelli della 1070 e 1080 al lancio, e vendera a vagonate guadagnando un botto.

Gyammy85
30-08-2017, 21:03
Cavoli non vedo l'ora di comprarmi una 2070.

E il g100 che spacca tutto quanto costerà?

Gyammy85
30-08-2017, 21:06
Settordici milioni di cucuzze. :sofico:

Mi sembra anche giusto, siamo a 10x pascal come minimo

AceGranger
30-08-2017, 21:07
Cavoli non vedo l'ora di comprarmi una 2070.

non ti ci vedo con una nVidia, non ti dona :O

lol, se ora che io sto con AMD tu passi a nVidia è tipo il mondo che gira al contrario :asd:

Gyammy85
30-08-2017, 21:10
Siamo passati a #hypeforvolta?

Roland74Fun
30-08-2017, 21:11
Mi sembra anche giusto, siamo a 10x pascal come minimo
Si, ma alla fine tutta sta potenza.... a che serve, se poi in gioco appena spanwi i cheathers ti oneshottano all'istante? Loro se ne fregano di quanto ce l'hai grossa.... la scheda video. :( :(

Gyammy85
30-08-2017, 21:15
Si, ma alla fine tutta sta potenza.... a che serve, se poi in gioco appena spanwi i cheathers ti oneshottano all'istante? Loro se ne fregano di quanto ce l'hai grossa.... la scheda video. :( :(

Serve serve...metti che sei in mezzo ai grassworks, drop e stutter a manetta...poi arriva il tizio con la 2070 o meglio 2080 da 350w maxpoweredition con la certificazione dx12 nostutterbetterlife, si tuffa dentro mantenendo i 100 effepiesse granitici e ti backstubba. :boxe: :boxe:

AceGranger
30-08-2017, 21:24
E perché? Ne ho avute di nvidia.
Le ultime due erano amd ma le due precedenti nvidia.

Tra l'altro insieme alla rx480 ho avuto anche una gtx1060.

Inviato dal mio Redmi Note 4 utilizzando Tapatalk

bho cosi :D ti vedo piu con una AMD; ma poi non hai un monitor Freesync ?

Roland74Fun
30-08-2017, 21:31
....si tuffa dentro mantenendo i 100 effepiesse granitici e ti backstubba. :boxe: :boxe:

Ottimo, rende l'idea, ma il concetto di astroturfing rimane inarrivabile. :) :)

Black_Angel77
31-08-2017, 01:00
Ma la serie AMD RX 6........
arrivera fra quanto???
Grosso modo 6 mesi?? un anno?? 2??
volevo cambiare scheda, non ho assolutamente fretta, visto i prezzi folli attuali
stavo gia pensando alla prossima generazione :sofico:
grazie

Gyammy85
31-08-2017, 06:46
Ma la serie AMD RX 6........
arrivera fra quanto???
Grosso modo 6 mesi?? un anno?? 2??
volevo cambiare scheda, non ho assolutamente fretta, visto i prezzi folli attuali
stavo gia pensando alla prossima generazione :sofico:
grazie

Non c'è niente di confermato, non si sa se si chiamerà rx 600 e comunque passerà ancora qualche mese...

AceGranger
31-08-2017, 08:30
Come dicevamo pagine dietro, dipende dal silicio nuovo a 7nm quanto è distante:
- se arriva nel 2019 credo che faranno un ulteriore refresh nel 2018 sui 14nm+ per la serie 600 con magari un chip nuovo per la fascia media o addirittura alta, esempio V11 e V20 (in stile P10→P20).
- se arriva nel 2018 faranno chip nuovi per la serie 600.

Anche se le slide AMD non lasciano molto spazio a interpretazioni, con Vega hanno dichiarato 14nm e 14nm+, quindi mi aspetto che nel 2018 avremo Vega e/o qualche suo derivato sui 14nm+ per la serie 600, però prima intorno al Q2 2018.

https://scr3.golem.de/screenshots/1705/Vega-Navi-FAD-2017/thumb620/Vega-Navi-FAD-2017-02.png


https://www.overclock3d.net/gfx/articles/2017/05/20151147643l.jpg


è la stessa Slide degli Zen, credo anche io che nel 2018 vedremo un refresh generale 14nm+ e poi nel 2019 i 7nm

Vul
31-08-2017, 12:04
ma siete così sicuri di vega di fascia media?

Ma su quale pp?

Hadar
31-08-2017, 12:38
Secondo me non ha senso una vega di fascia media adesso o nei prossimi mesi, sarebbe la fotocopia di polaris.
Avrebbe senso su un nuovo PP, anche un 14nm+ se è migliore e permette un miglior rapporto frequenza consumi, ma in tal caso sarebbe tra un annetto circa.Beh, qualcosa contro la 2060 devono farla uscire nel 2018, aprile/giugno che sia.
Se ritardano pure in fascia medio/bassa siamo proprio alla frutta e caxxi amari per i consumer "mainstream"

devil_mcry
31-08-2017, 14:35
si scusa, volevo scrivere 4GB come a voler dire anche quella con meno caratteristiche che tanto cambia poco o nulla in FHD.

siamo sulla stessa barca, dovevamo prendere quella, ormai :D

Secondo me non hai speranza. La 570/580 comunque per me non ha senso con 8GB.

Sull'amazon francese si trovano le 570-4G a prezzi quantomeno decenti, certo se avessi saputo cosa stava per succedere con ETH mi sarei preso la 570 ITX pulse a 185 su Amazon IT quando ancora potevo per poter aspettare un paio d'anni in tranquillità, invece sono ancora con la 6870 e sto raschiando ogni barile per cercare almeno un usato che mi traghetti per un po'. Mi basterebbe una Tonga con il freesync per andare avanti :>

Ci sarebbe questa

EDIT

Free Gordon
31-08-2017, 16:07
si scusa, volevo scrivere 4GB come a voler dire anche quella con meno caratteristiche che tanto cambia poco o nulla in FHD. siamo sulla stessa barca, dovevamo prendere quella, ormai :D

A sto punto conveniva una 290 liscia a 200€.. .;) ai tempi che furono!

Con l'accelero sopra tenevano tutte i 1150mhz di core con tmax 70°.

Roland74Fun
08-09-2017, 17:29
......

Ubro92
08-09-2017, 19:55
Dire che nell'usato fino a 2-3 mesi fa si trovavano persino 980ti reference sui 250€... Ora è un macello lato prezzi, meno male che colsi l'occasione :)
Forse ora si potrebbe cercare una 290 sui 120-140€ che forse è l'unica opzione prezzo-prestazioni ancora valida e priva di iper-sovraprezzo...

Lunar Wolf
08-09-2017, 21:16
Ho appena preso una 580 usata a 228, se ci perdi un po' di tempo l'occasione la trovi anche ora :>
Asta sicuramente... Gli altri minimo 350 l'avrebbero venduta

sniperspa
08-09-2017, 21:19
Ho appena preso una 580 usata a 228, se ci perdi un po' di tempo l'occasione la trovi anche ora :>

Io non ho tempo e voglia di sbattermi per l'usato...controllo sul nuovo ogni giorno e vedo se salta fuori qualcosa quello si

Settimana prossima spero sia quella buona...son disposto ad arrivare massimo a 300 per una 8gb decente, giusto perchè mi hanno preso allo sfinimento :doh:

Ubro92
08-09-2017, 21:21
Ho appena preso una 580 usata a 228, se ci perdi un po' di tempo l'occasione la trovi anche ora :>

Concordo, anche se da quello che vedo non siamo mai ai livelli di un paio di mesi fa, ma rispetto al nuovo di sicuro ci sono proposte molto interessanti che comunque ti assicurano una buona longevità...

Ma oramai il target di prestazioni 980ti/1070/FuryX è tutto over 320+(usato) e vega 56 e 1070 sul nuovo possiamo anche stendere un grosso velo, se interessava quella fascia purtroppo le occasioni si sono ridotte e ci vuole veramente molta fortuna :(

Lunar Wolf
08-09-2017, 21:28
Concordo, anche se da quello che vedo non siamo mai ai livelli di un paio di mesi fa, ma rispetto al nuovo di sicuro ci sono proposte molto interessanti che comunque ti assicurano una buona longevità...

Ma oramai il target di prestazioni 980ti/1070/FuryX è tutto over 320+(usato) e vega 56 e 1070 sul nuovo possiamo anche stendere un grosso velo, se interessava quella fascia purtroppo le occasioni si sono ridotte e ci vuole veramente molta fortuna :(
Io ho preso la 56 a 405....attualmente se ne approfittano solo sulle polaris

Ubro92
08-09-2017, 22:03
Io ho preso la 56 a 405....attualmente se ne approfittano solo sulle polaris

Infatti è un ottimo prezzo, ma non so dove l'hai trovata (:D ), vega 56 non si trova quasi da nessuna parte e Vega 64 costa quando una 1080ti...


Quella che ho preso (Nitro L.E.) al day1 non stava sotto i 280, quindi alla fine l'ho presa al prezzo giusto :>

Infatti è un ottimo acquisto, considerando che è un chip recente, inoltre è praticamente nuova con quasi due anni pieni di garanzia quindi è un ottimo affare. Rimpiango i tempi in cui le RX 470 4GB costavano 160€ nuove...

Ma devo dire che anche a me è andata bene, spesi a maggio 285€ per una 980ti Xtreme Gaming con garanzia fino a marzo 2018 e mi sta dando moltissime soddisfazioni nonostante l'astio iniziale e devo ammetterlo si sente la presenza del pcb custom :sofico:

Einhander
10-09-2017, 10:35
sul thread ufficiale delle rx vega mikael ipotizzava vega 20 per il mercato compute...con unita dedicate alle operazione FP64

Free Gordon
10-09-2017, 11:20
sul thread ufficiale delle rx vega mikael ipotizzava vega 20 per il mercato compute...con unita dedicate alle operazione FP64


Le unità su GCN son sempre le stesse... è solo che nelle Vega20 saranno abilitate le ops FP64 ad un rate di 1/2 ;)

Quindi è come se avesse 32CU a 1600mhz,in teoria sono 6,5Tflops in FP64.

GV100 in teoria fa 7,5Tflops in FP64.

Credo che cmq per Vega20 il discorso performance sia tutto da vedere... Ma è probabile che Vega20 sia grande circa la metà di GV100. :) (come dimensioni del die, intendo).

Lunar Wolf
10-09-2017, 14:46
Per caso è stato confermato il rumor della rottura tra Amd e glofo?

Free Gordon
10-09-2017, 15:23
Per caso è stato confermato il rumor della rottura tra Amd e glofo?


rottura?

Gyammy85
10-09-2017, 16:48
rottura?

Sembra che per i 7 nm amd si stia rivolgendo a tsmc

Ale55andr0
10-09-2017, 17:05
Per caso è stato confermato il rumor della rottura tra Amd e glofo?

sarebbe ottimo fosse vero, visto che il pp di glofo mi è sempre passo na schifezza. Se no, quantomeno in caso di cambio di fonderia si vedrebbe confermata o meno la colpa dello stessa in termini di clock, consumi ecc dei chip grafici amd.
Per ryzen poi potrebbe significare un gran bel boost visto che già è efficiente e gli manca solo qualche centinaio di mhz a pari pp per sotterrare intel in modo totale

Lunar Wolf
10-09-2017, 17:13
sarebbe ottimo fosse vero, visto che il pp di glofo mi è sempre passo na schifezza. Se no, quantomeno in caso di cambio di fonderia si vedrebbe confermata o meno la colpa dello stessa in termini di clock, consumi ecc dei chip grafici amd.
Per ryzen poi potrebbe significare un gran bel boost visto che già è efficiente e gli manca solo qualche centinaio di mhz a pari pp per sotterrare intel in modo totale
Esatto. Gianni con polaris si son viste le capacità di glofo e non capisco perché non ha bussato a quelli di tsmc.

Almeno che non ci sia un qualche contratto.

Lunar Wolf
10-09-2017, 18:40
Ovvio ma intendo che magari qualche clausola del contratto in stile operatore telefonico... In caso di recesso tot mld da pagare.

Free Gordon
10-09-2017, 21:12
Sembra che per i 7 nm amd si stia rivolgendo a tsmc

che brutta fine per GloFo... :doh:

giovanbattista
10-09-2017, 21:19
Ma questo non dipende manco tanto da AMD, dipende più da glofo che avendo fama di essere la fonderia più veloce del east sicuramente avrà i 7nm pronti entro il 2021 :asd:

sembra si sia rivolta a TSMC x la prossima infornata o cmq che siano accordi nell'aria

Catan
11-09-2017, 13:00
Sembra che per i 7 nm amd si stia rivolgendo a tsmc

sono semplicemente i primi che li avranno, sulla carta i 7nm GF e TSMC si equivalgono (leggermente meglio i 7 tsmc con un transistor gate pitch di 54nm vs gf che dichiara 56).
Probabilmente pensano che ci sia grande richiesta, o semplicemente si fidano più di tsmc che ha eoni di esperienza nelle vga.
Non è stupida come strategia, vega20 complesso da far fare a tsmc e vega11 meno impegnativo da far fare a gf.
Diversificare è sempre una strategia vincente se non hai le fabbriche.

Catan
11-09-2017, 13:09
Infatti è così, pensavo che avreste provato a cercare "wafer supply agreement" su google per capire cosa fosse :D
E non lo dico per fare il simpatico, se volete cercare di capire bene come funziona cercatevelo perchè io potrei dire una marea di boiate nel cercare di spiegarlo, ho capito solo che AMD deve comprare a glofo un tot numero di wafer all'anno e sapevo che prima poteva andare a prenderli altrove solo se glofo non era in grado di soddisfare la richiesta di AMD, ma ora forse è cambiato.

ormai sono arrivati alla sesta revisione dell'accordo quella attuale prevede che amd debba comprare un numero fissato di wafer da qui al 2020. Se non ne compra deve pagare una penale. E questo già la mette in condizione in cui conviene sempre comprare wafer e produrre chip, a costo di abbassarli di prezzo. Se non ne compra perchè ne compra da altri, deve dare una ulteriore compensazione a seconda di quando ha ordinato fuori. Se supera il numero di wafer "definiti" amd può prendere da chi vuole.

Tra l'altro l'accordo vale per i 14 e 7nm, quindi se amd vuole prodotti a 10nm può prendere da chi gli pare.

tra l'altro una delle penali prevede che la ATIC (o il fondo mubadala, cioè gli arabi che hanno GF) possono comprare fino al 19.9% di amd con un prezzo fissato per azione di 5.98$ ad azione indipendentemente dal valore che hanno realmente (per un totale di 75mln di $).

non mi stupirebbe se amd pensa di esaurire gli ordini di wafer annuali con rizen e vega11 per GF e poi va da chi gli pare per vega20.

Insomma se amd non vuole pagare nulla, basta che si fa due conti, compra wafer previsti, magari fa stampare tanti ryzen e li abbassa di prezzo.

FroZen
11-09-2017, 13:47
Secondo me non hai speranza. La 570/580 comunque per me non ha senso con 8GB.

Sull'amazon francese si trovano le 570-4G a prezzi quantomeno decenti, certo se avessi saputo cosa stava per succedere con ETH mi sarei preso la 570 ITX pulse a 185 su Amazon IT quando ancora potevo per poter aspettare un paio d'anni in tranquillità, invece sono ancora con la 6870 e sto raschiando ogni barile per cercare almeno un usato che mi traghetti per un po'. Mi basterebbe una Tonga con il freesync per andare avanti :>

per 400 euri ti do la mia fury domani, e ci sto rimettendo......

FroZen
11-09-2017, 13:49
Spero che prima o poi sto accordo si esaurisca e siano liberi di comprare i wafer dove vogliono.

https://pbs.twimg.com/media/BiHIXs6CIAAc8Wk.jpg

Roland74Fun
11-09-2017, 13:51
per 400 euri ti do la mia fury domani, e ci sto rimettendo......
La fury a 1.600 euro.... :eek:

Direi che AMD farebbe meglio a smetterla di produrre schede video.
Che si dedichi a fare i refresh dei refresh ed i rebrand dei rebrand, dei suoi processorini da millemila core. :mad: :mad:

mikael84
11-09-2017, 14:20
sul thread ufficiale delle rx vega mikael ipotizzava vega 20 per il mercato compute...con unita dedicate alle operazione FP64

No nessuna unità dedicata, le FP64 sono emulate, questo il mio post:)
http://www.hwupgrade.it/forum/showpost.php?p=45005222&postcount=6138

sarebbe ottimo fosse vero, visto che il pp di glofo mi è sempre passo na schifezza. Se no, quantomeno in caso di cambio di fonderia si vedrebbe confermata o meno la colpa dello stessa in termini di clock, consumi ecc dei chip grafici amd.
Per ryzen poi potrebbe significare un gran bel boost visto che già è efficiente e gli manca solo qualche centinaio di mhz a pari pp per sotterrare intel in modo totale

Nvidia perde circa 100/150mhz con i 14

Gyammy85
11-09-2017, 15:35
https://pbs.twimg.com/media/BiHIXs6CIAAc8Wk.jpg

La fury a 1.600 euro.... :eek:

Direi che AMD farebbe meglio a smetterla di produrre schede video.
Che si dedichi a fare i refresh dei refresh ed i rebrand dei rebrand, dei suoi processorini da millemila core. :mad: :mad:

Vabbè almeno ora amd avrà accesso alla Serie A del silicio, andando da tsmc come intel e iNvidia.
E sempre per colpa di aemmeddi, se prima bastavano 999$ per il top di gamma intel, ora bisogna sborsarne 2000. :mad: :mad:

Catan
12-09-2017, 08:55
Spero che prima o poi sto accordo si esaurisca e siano liberi di comprare i wafer dove vogliono.

2020 non proprio dietro l'angolo. Realmente questi accordi ad amd convengono, perchè di base è lei che decide ancora i "processi" di GF. Il problema è che non ha potete decisionale su quando "attuarli".
Quello che converrebbe è fare un'accordo con GF solo per CPU e chipset e tenere fuori le VGA. Poi se GF è valida le fai da loro, se no vai da TSMC come hai sempre fatto, e ti usi GF solo per le fasce medie se tsmc non riesce.

Free Gordon
12-09-2017, 10:36
2020 non proprio dietro l'angolo. Realmente questi accordi ad amd convengono, perchè di base è lei che decide ancora i "processi" di GF. Il problema è che non ha potete decisionale su quando "attuarli".
Quello che converrebbe è fare un'accordo con GF solo per CPU e chipset e tenere fuori le VGA. Poi se GF è valida le fai da loro, se no vai da TSMC come hai sempre fatto, e ti usi GF solo per le fasce medie se tsmc non riesce.

Chissà come sarebbe Zen2 sul 7nm di TSMC...? :)

Catan
12-09-2017, 10:48
Chissà come sarebbe Zen2 sul 7nm di TSMC...? :)

sulla carta come quello di GF.;)
Pare che nella corsa ai 7nm a sto giro sia samsung quella "più attrezzata".

Realmente la domanda da farsi è...come sarebbe zen2 sui 10nm di intel:D :D :D

Ale55andr0
12-09-2017, 12:26
Nvidia perde circa 100/150mhz con i 14

ma nvidia non sta sui 16 TSMC?

Hadar
12-09-2017, 13:17
ma nvidia non sta sui 16 TSMC?Sì

mikael84
12-09-2017, 14:16
ma nvidia non sta sui 16 TSMC?



GP107, 1050/1050ti a scendere, sono 14, dalla 1060 GP106 in su sono 16 TSMC;)

Free Gordon
12-09-2017, 14:56
sulla carta come quello di GF.;)
Pare che nella corsa ai 7nm a sto giro sia samsung quella "più attrezzata".
Realmente la domanda da farsi è...come sarebbe zen2 sui 10nm di intel:D :D :D

Beh ma quello è assurdo anche chiederselo.. :D

Vul
12-09-2017, 15:08
GP107, 1050/1050ti a scendere, sono 14, dalla 1060 GP106 in su sono 16 TSMC;)

Non sono 14 reali, è solo marketing.

Sono sempre 16 ma a rese più elevate.

mikael84
12-09-2017, 15:20
Non sono 14 reali, è solo marketing.

Sono sempre 16 ma a rese più elevate.

Si ma non sono 16 TSMC, sono 14 Samsung. A pari chip si arriva a perdere anche 200mhz (dopo i 1900 non salgono).
Quindi non è la stessa cosa.

Ren
12-09-2017, 15:26
Non sono 14 reali, è solo marketing.

Sono sempre 16 ma a rese più elevate.

I nomi commerciali ormai sono tutti taroccatissimi (devi guardare i valori tecnici), ma il 14nm Samsung rimane sempre più denso dei 16nm TSMC.

Paradossalmente adesso la più onesta è intel...:sofico:

Catan
12-09-2017, 15:30
Non sono 14 reali, è solo marketing.

Sono sempre 16 ma a rese più elevate.

Si ma non sono 16 TSMC, sono 14 Samsung. A pari chip si arriva a perdere anche 200mhz (dopo i 1900 non salgono).
Quindi non è la stessa cosa.

i 14nm sono half node dei 16 quindi la cosa è quella.
la ITRS dice che per essere certificati 16/14 devi avere un Transistor gate pitch e un interconnect pitch di 70/56nm. TSMC dichiara che per i suoi 16-ha 88-70 (probabilmente continuano a dire che sono a 16 perchè stanno molto alti con i parametri) mentre samsung 78/68.
Quindi entrambe stanno fuori ma su quello samsung è migliore. Per quanto nemmeno i 14nm di samsung sono "reali".

Cmq è da questo che deriva il fatto che gli nvidia fatti da samsung salgono di più di quelli fatti da tsmc.

Gli unici che stanno dentro ai 16-14 è intel pelo pelo che dichiara un 70-52 per i suoi 14nm

Free Gordon
12-09-2017, 15:33
Cmq è da questo che deriva il fatto che gli nvidia fatti da samsung salgono di più di quelli fatti da tsmc.

E' il contrario.. ;)

mikael84
12-09-2017, 15:37
i 14nm sono half node dei 16 quindi la cosa è quella.
la ITRS dice che per essere certificati 16/14 devi avere un Transistor gate pitch e un interconnect pitch di 70/56nm. TSMC dichiara che per i suoi 16-ha 88-70 (probabilmente continuano a dire che sono a 16 perchè stanno molto alti con i parametri) mentre samsung 78/68.
Quindi entrambe stanno fuori ma su quello samsung è migliore. Per quanto nemmeno i 14nm di samsung sono "reali".

Cmq è da questo che deriva il fatto che gli nvidia fatti da samsung salgono di più di quelli fatti da tsmc.

Gli unici che stanno dentro ai 16-14 è intel pelo pelo che dichiara un 70-52 per i suoi 14nm

No assolutamente, perdono 200mhz e passa;)

Catan
12-09-2017, 15:42
Beh ma quello è assurdo anche chiederselo.. :D

conta che un 7nm certificato ha tgp 42 e ip 24, samsung dichiara 54-36, tsmc 54-40 e gf 56-40.
Sulla carta samsung permette di fare chip un 10% più piccoli (o a frequenze un 10% più altr:D :D :D ) rispetto a tsmc. A sua volta tsmc è boh, un 3% meglio di GF quindi non è un'incremento cosi "elevato" da farti cambiare fab (sopratutto se costi non ti convengono , tsmc è molto cara, o se sei bloccato da accordi pregressi).

Catan
12-09-2017, 15:44
E' il contrario.. ;)

No assolutamente, perdono 200mhz e passa;)

cioè mi state dicendo che i 16nm tsmc pompano più dei 14 nm samsung? Nonostante la disparità quasi del 10% (su carta) tra un processo ed un'altro.
Se è cosi tanto di cappello a tsmc, vuol dire che hanno wafer di silicio o linee di produzione molto buone. Va beh che tsmc è tsmc, quindi stiamo parlando della fonderia "ferrari" per i chip grafici (ed infatti è pure quella che si fà pagare di più a chip).

mikael84
12-09-2017, 15:57
cioè mi state dicendo che i 16nm tsmc pompano più dei 14 nm samsung? Nonostante la disparità quasi del 10% (su carta) tra un processo ed un'altro.
Se è cosi tanto di cappello a tsmc, vuol dire che hanno wafer di silicio o linee di produzione molto buone. Va beh che tsmc è tsmc, quindi stiamo parlando della fonderia "ferrari" per i chip grafici (ed infatti è pure quella che si fà pagare di più a chip).

Dici bene, però prova su strada, si comportano proprio così (come detto in precedenza, TSMC viaggia bene, c'è poco da fare).:)
Per il resto a livello di die sembrano più o meno equivalersi
Levando il collegamento al bus della 1060 sarebbero 157mmq2 su 132mmq2 (Samsung). Al GV107 devi però aggiungere 4 TPC (dai 5 ai 7,5mmq2 l'uno).
Chiaramente la 1060 finale è più grossa per il collegamento alla 192bit.:)

Gyammy85
13-09-2017, 10:39
Un periodo di sabbatico per Raja Koduri, a capo dell'AMD Radeon Technologies Group (http://www.hwupgrade.it/news/skvideo/un-periodo-di-sabbatico-per-raja-koduri-a-capo-dell-amd-radeon-technologies-group_71100.html)

:eek:

Commenti e ipotesi?
Sarà come con Ryzen quando Keller se ne è andato prima perchè ormai era pronto e quindi Navi è già pronta?
O non sa più dove sbattere la testa è usa l'escape pod? :asd:

Riprenderà a dicembre, non mi sembra una tragedia
Poi boh, bisogna necessariamente montare un caso?

Gyammy85
13-09-2017, 10:49
Nessun caso, però è appena uscita Vega, si vocifera di Vega 11, Vega 20, Navi, 14nm+, 7nm.
3 mesi di ferie del boss sono da interpretarsi come un "è già tutto impostato bene e posso assentarmi senza problemi" o come un "siamo nelle merda e mi prendo 3 mesi di ferie per schiarirmi le idee"?

Ma non era tutta roba data per l'anno prossimo?
In questo periodo devono solo fare i driver...
Anche nel titolo dell'articolo si parla di un suo maggiore coinvolgimento in futuro...

Roland74Fun
13-09-2017, 11:13
E poi dicono che AM3+ è una piattaforma morta.

Eccolo qui il nuovo bios per la mia Aura Pro gaming lightin ediscion. Ottimizzato per il MINING. :)


https://uploads.tapatalk-cdn.com/20170913/462e8ad6f15759c07f45f0deb8f942c5.jpg

#aemmidìtifaguadagnare.

Gyammy85
13-09-2017, 11:16
E poi dicono che AM3+ è una piattaforma morta.

Eccolo qui il nuovo bios per la mia Aura Pro gaming lightin ediscion. Ottimizzato per il MINING. :)


https://uploads.tapatalk-cdn.com/20170913/462e8ad6f15759c07f45f0deb8f942c5.jpg

#aemmidìtifaguadagnare.

#perlabollettafartipagare. :)

Hadar
13-09-2017, 13:31
Nessun caso, però è appena uscita Vega, si vocifera di Vega 11, Vega 20, Navi, 14nm+, 7nm.
3 mesi di ferie del boss sono da interpretarsi come un "è già tutto impostato bene e posso assentarmi senza problemi" o come un "siamo nelle merda e mi prendo 3 mesi di ferie per schiarirmi le idee"?Notizie negative (o probabili) riguardanti AMD non possono essere postate o discusse qui, cancella subito il post :asd:

Il lancio Delle RX Vega è stato ridicolo, i driver sono ancora acerbi e le prestazioni devono decollare in qualche modo per riprendere Nvidia(anche in perf/watt, eh).
Quindi non vedo nessun motivo per prendersi tre mesi di riposo "perchétuttovabbene", visto la situazione demmerda in cui si trova la sezione GPU di amd..
L'opzione 2 è sicuramente quella più probabile.

'Mo aspetto qualche battutina troll di gnammy.. Puoi, tranquillo :asd: :asd: :asd:

The_SaN
13-09-2017, 13:36
Nessun caso, però è appena uscita Vega, si vocifera di Vega 11, Vega 20, Navi, 14nm+, 7nm.
3 mesi di ferie del boss sono da interpretarsi come un "è già tutto impostato bene e posso assentarmi senza problemi" o come un "siamo nelle merda e mi prendo 3 mesi di ferie per schiarirmi le idee"?

Oppure un "ho lavorato come uno schiavo pere far quadrare il tutto in maniera decente e ho bisogno di respirare"

Ren
13-09-2017, 13:51
Notizie negative (o probabili) riguardanti AMD non possono essere postate o discusse qui, cancella subito il post :asd:

Il lancio Delle RX Vega è stato ridicolo, i driver sono ancora acerbi e le prestazioni devono decollare in qualche modo per riprendere Nvidia(anche in perf/watt, eh).
Quindi non vedo nessun motivo per prendersi tre mesi di riposo "perchétuttovabbene", visto la situazione demmerda in cui si trova la sezione GPU di amd..
L'opzione 2 è sicuramente quella più probabile.

'Mo aspetto qualche battutina troll di gnammy.. Puoi, tranquillo :asd: :asd: :asd:

:asd:

mikael84
13-09-2017, 14:45
AMD, dall'accordo con Amazon alle vacanze di Raja Koduri (https://www.tomshw.it/amd-dall-accordo-amazon-alle-vacanze-raja-koduri-88231)

Così ha tutto un altro sapore però: Amazon Web Services sfrutterà le soluzioni Radeon Pro per i servizi cloud.

Ennesima conferma che forse vega non prende la 1080ti in gaming ma in altri ambiti evidentemente ha molto da dire.

Non può prendere la 1080ti, ve l'ho sempre detto. Rapporto flops troppo basso e uscita BW peggio della Fury. Rapporto geometrico, lasciamo perdere.:)
Fronte virgola mobile, AMD deve emularsi le unità funzionali, ed il rapporto teorico è sballato o non ha rilievo.
Per farti un'esempio, AMD dovrebbe creare un core da 6144st ed un'uscita superiore ai 600gb/s in compressione.

Vega non fa altro che doppiare una 1060.
In ambito compute è diverso. AMD ha una potenza di calcolo elevatissima fp32, meno cicli, rop's da blending e una BW ottima, in quanto questi programmi non usano compressioni.
Praticamente il rapporto tra BW in compressione e non, è nullo o quasi, totalmente opposto sulle Nvidia, dove Vega mantiene in uscita anche più cache.:)

FroZen
13-09-2017, 14:46
La situazione demmerda è solo lato gaming, a fine anno vedrai degli aumenti a doppia cifra percentuali su HPC e professionale..... #ravensegna

L'industria del gaming è a nozze con nvidia e ha i margini più bassi, perchè scomodarlo?"Cihoilgeforceexperience ati fa schifo"!!!!

Attendo fiducioso una Vega MSI Lightning con HBM2 samsung :oink: :oink: :oink: :oink: ma non essendo liquidabili andrò sulla più accessibile sapphire reference :sofico: :fagiano:

FroZen
13-09-2017, 14:48
Non può prendere la 1080ti, ve l'ho sempre detto. Rapporto flops troppo basso e uscita BW peggio della Fury. Rapporto geometrico, lasciamo perdere.:)
Fronte virgola mobile, AMD deve emularsi le unità funzionali, ed il rapporto teorico è sballato o non ha rilievo.
Per farti un'esempio, AMD dovrebbe creare un core da 6144st ed un'uscita superiore ai 600gb/s in compressione.

Vega non fa altro che doppiare una 480/580.
In ambito compute è diverso. AMD ha una potenza di calcolo elevatissima fp32, meno cicli, rop's da blending e una BW ottima, in quanto questi programmi non usano compressioni.
Praticamente il rapporto tra BW in compressione e non è nullo o quasi, totalmente opposto sulle Nvidia, dove Vega mantiene in uscita anche più cache.:)

fify :O

diciamolo in parole povere: amd deve fare una gpu per tutto, nvidia ne fa una per ogni mercato

il budget di rtg è quello della sola carta igienica di nvidia

percui

forza amd!!!!!!!!!!!!!!!! :O

Gyammy85
13-09-2017, 14:52
Non può prendere la 1080ti, ve l'ho sempre detto. Rapporto flops troppo basso e uscita BW peggio della Fury. Rapporto geometrico, lasciamo perdere.:)
Fronte virgola mobile, AMD deve emularsi le unità funzionali, ed il rapporto teorico è sballato o non ha rilievo.
Per farti un'esempio, AMD dovrebbe creare un core da 6144st ed un'uscita superiore ai 600gb/s in compressione.

Vega non fa altro che doppiare una 1060.
In ambito compute è diverso. AMD ha una potenza di calcolo elevatissima fp32, meno cicli, rop's da blending e una BW ottima, in quanto questi programmi non usano compressioni.
Praticamente il rapporto tra BW in compressione e non, è nullo o quasi, totalmente opposto sulle Nvidia, dove Vega mantiene in uscita anche più cache.:)

Non è una novità, vega attualmente ha un throughput geometrico paragonabile a una 1070
Col primitive discard dovrebbe triplicare il tutto, ma uscirà coi driver 17.32...

mikael84
13-09-2017, 15:01
fify :O

diciamolo in parole povere: amd deve fare una gpu per tutto, nvidia ne fa una per ogni mercato

il budget di rtg è quello della sola carta igienica di nvidia

percui

forza amd!!!!!!!!!!!!!!!! :O

Si in effetti, ma il succo è quello.
Per il resto, dici bene.;)
Però non parlerei di fail, perchè non prende una TI, ci sono troppi fattori.

Non è una novità, vega attualmente ha un throughput geometrico paragonabile a una 1070
Col primitive discard dovrebbe triplicare il tutto, ma uscirà coi driver 17.32...

No sta ben sotto una 1060 con tassellazione, ora come ora. Infatti mi piacerebbe vedere un backfaceculling (praticamente heaven con queste schede);)

Guarda che ho detto la stessa cosa ma senza supercazzole tecniche :D

:p

Catan
13-09-2017, 15:53
La situazione demmerda è solo lato gaming, a fine anno vedrai degli aumenti a doppia cifra percentuali su HPC e professionale..... #ravensegna

L'industria del gaming è a nozze con nvidia e ha i margini più bassi, perchè scomodarlo?"Cihoilgeforceexperience ati fa schifo"!!!!

Attendo fiducioso una Vega MSI Lightning con HBM2 samsung :oink: :oink: :oink: :oink: ma non essendo liquidabili andrò sulla più accessibile sapphire reference :sofico: :fagiano:

sono scelte economiche e di strategia.
Nvidia ci ha provato con fermi a fare il chip unico, poi ha capito che non le conveniva e ha "diviso" le linee.
Se vega vende bene negli ambiti pro, ci saranno i soldi per fare la doppia declinazione di navi lato gaming e lato pro.

Ale55andr0
20-09-2017, 21:57
http://wccftech.com/amd-announces-2nd-gen-ryzen-vega-launching-12nm-2018/


notizia bivalente cpu/gpu

smoicol
20-09-2017, 22:19
mikael84 il chip su cui doveva lavorare amd era polaris, l'ultimo chip davvero valido che amd ha prodotto negli ultimi anni, bastava migliorare quella semplice architettura che a detta loro era economica per far uscire una bella scheda, invece a parte il tempo perso dietro soluzioni sballate e sbagliate, oggi davvero si chiedono miracoli ai driver che non possono sistemare cose sbagliate alla fonte.

mikael84
20-09-2017, 23:42
mikael84 il chip su cui doveva lavorare amd era polaris, l'ultimo chip davvero valido che amd ha prodotto negli ultimi anni, bastava migliorare quella semplice architettura che a detta loro era economica per far uscire una bella scheda, invece a parte il tempo perso dietro soluzioni sballate e sbagliate, oggi davvero si chiedono miracoli ai driver che non possono sistemare cose sbagliate alla fonte.

Il problema Smoicol è che se lavori a basso livello con un'architettura bilanciata, vai molto bene. Quando non riesci ad avere uno scaling con chip superiori, ti imbatti sui colli di bottiglia e non ne esci.
In gaming, AMD non ha unità funzionali, e deve emularle, emulando le sole LDS, i 12 TF AMD, diventano praticamente 9tf. Punto fortissimo ad esempio delle Tesla, che con le unità funzionali mantengono il teorico e raddoppiano le istruzioni per cuda.
Il livello geometrico, aumentando le unita di chip, non hanno scaling, quindi perdi tanto, e la BW non aiuta, vero freno a mano.
ottimo sul calcolo dinamico, dove ti avvali dei cicli migliori.

Polaris è un'ottimo chip proprio per questo, il vero problema è la scalabilità.
Io sulla carta, con GCN potrei annullare la prossima 2060 a poco e fare una vera lotta in fascia media, però non so come l'azienda la pensa.
Stiamo a vedere. :)

ninja750
21-09-2017, 10:36
non so come l'azienda la pensa.


a giudicare da come sono uscite queste vega (replay delle 2900XT) direi che pensa decisamente male

per carità facile dietro una scrivania pensare che polaris evoluta sarebbe potuta andare meglio ma tant'è..

majinbu7
21-09-2017, 11:17
Non è una novità, vega attualmente ha un throughput geometrico paragonabile a una 1070
Col primitive discard dovrebbe triplicare il tutto, ma uscirà coi driver 17.32...

https://media.giphy.com/media/HhTXt43pk1I1W/giphy.gif

smoicol
21-09-2017, 13:02
a giudicare da come sono uscite queste vega (replay delle 2900XT) direi che pensa decisamente male

per carità facile dietro una scrivania pensare che polaris evoluta sarebbe potuta andare meglio ma tant'è..

No aspetta sono numeri e se ne parlava tempo fà, un polaris leggermente più grosso con se non ricordo male 4cu in più e relativi sp, a pari frequenza della rx480, era vicina alla gtx1070, ripeto sulla carta, ma visto il flop vega vuoi che amd per farsi del male fra 6-9 mesi non faccia uscire un polaris2 con un altro nome? Sai quanta gente su ocn e tpu premeva amd nel fare un polaris solo leggermente più potente? Non ha ascoltato nessuno e i risultati si vedono, una vga più potente cge pernetteva di giocare bene a 2560x1440 dove la rx480/580 vuoi o non vuoi arranca.

ninja750
21-09-2017, 13:17
anche raddoppiando una polaris saresti arrivato dalle parti dell'attuale vega64 che almeno ha dalla sua una teorica longevità di architettura passando a nuovi processi produttivi, e saremmo qui a parlare di amd che non innova ma raddoppia

Catan
21-09-2017, 13:56
a giudicare da come sono uscite queste vega (replay delle 2900XT) direi che pensa decisamente male

per carità facile dietro una scrivania pensare che polaris evoluta sarebbe potuta andare meglio ma tant'è..

r600 ha gettato le basi del successo per amd fino alla 6970.
Se amd è convinta che quella archidettura e con le hbm2 sarà il suo successo per i prossimi 4 anni, continuerà su questa strada.
Alla fine r600 era un progetto sovradimensionato per il pp che c'era in quel momento, appena cambiato pp, ecco che esce rv770 e successone.
non è che sono tutti giri a vuoto.

Free Gordon
21-09-2017, 14:18
Diamo tempo al tempo...

Vega ora è una scheda VS GP104.. :)

Se la vendono al giusto prezzo, soprattutto la 56 è una buona scheda.

Come immaginavo tempo addietro, era difficile AMD producesse più di un chip all'anno dopo che negli ultimi anni, ha visto ridursi sempre più la sua quota di mercato (principalmente per colpa di AMD stessa eh! Senza dubbio ;) ).

Vul
21-09-2017, 14:41
Diamo tempo al tempo...

Vega ora è una scheda VS GP104.. :)

Se la vendono al giusto prezzo, soprattutto la 56 è una buona scheda.

Come immaginavo tempo addietro, era difficile AMD producesse più di un chip all'anno dopo che negli ultimi anni, ha visto ridursi sempre più la sua quota di mercato (principalmente per colpa di AMD stessa eh! Senza dubbio ;) ).

Peccato che GP104 sia un chip di fascia media rilasciato l'anno prima...

Catan
21-09-2017, 14:49
Peccato che GP104 sia un chip di fascia media rilasciato l'anno prima...

più che altro bisogna vedere il chip di fascia media di quest'anno.
Se l'aumento prestazionale è poco rispetto al gp104, non si spostano eccessivamente gli equilibri.
Purtroppo essendo "sfasate" nelle uscite, attualmente quello che per una casa è il chip "dell'anno scorso" per l'altra è il "chip nuovo da battere".
Vega56 ha alzato l'asta per la fascia dei 400$ e nvidia dovrà rispondere con qualcosa di meglio allo stesso prezzo.

mikael84
21-09-2017, 14:57
a giudicare da come sono uscite queste vega (replay delle 2900XT) direi che pensa decisamente male

per carità facile dietro una scrivania pensare che polaris evoluta sarebbe potuta andare meglio ma tant'è..

Non sono 2900xt 2 la vendetta.
Fare Polaris è facile in quanto hai la possibilità di sfruttare ogni stadio moltiplicatore al meglio, senza particolari colli di bottiglia.
I problemi nascono quando devi creare un chip potente, ma non riesci a mantenere uno scaling completo.
Inserire un GPC Nvidia è semplice, perchè permette di scalare in ogni reparto, tra cui quello geometrico e di backfaceculling.
In linea semplice, un polymorph engine elabora 0,33 triangoli al secondo, il prodotto ricavato (x5 TPC), passa ai 3 stadi del raster, in cui viene svolto un lavoro di backfaceculling (ecco perchè Heaven su nvidia va molto meglio).

AMD con Vega, nel calcolo puro e molto potente, ha una potenza simile ad una 1080ti, ed allo stesso tempo renderizza con minori cicli.
GCN può lavorare in Vec4 con soli 23 cicli.
La differenza passa per i giochi, dove bisogna emulare le unità funzionali, ed AMD vede il suo carico teorico quasi sempre perdere da 1/4 a 2/4 di prestazioni.

Vega è disegnata come una 1080, con 4 raster e soli 4 triangoli, purtroppo qua non c'è uno scaling.

La BW reale è inferiore a quella della Fury, ma quest'ultima ha un traffico decisamente minore.
Per rendere l'idea, sarebbe come costruire una 1080ti con la banda della 1070.

L'unica alternativa ora come ora è puntare agli 8 rasterizzatori e 4 stack HBM.
Così facendo possono giocarsela al meglio con GV104;)

Catan
21-09-2017, 17:37
Non sono 2900xt 2 la vendetta.
Fare Polaris è facile in quanto hai la possibilità di sfruttare ogni stadio moltiplicatore al meglio, senza particolari colli di bottiglia.
I problemi nascono quando devi creare un chip potente, ma non riesci a mantenere uno scaling completo.
Inserire un GPC Nvidia è semplice, perchè permette di scalare in ogni reparto, tra cui quello geometrico e di backfaceculling.
In linea semplice, un polymorph engine elabora 0,33 triangoli al secondo, il prodotto ricavato (x5 TPC), passa ai 3 stadi del raster, in cui viene svolto un lavoro di backfaceculling (ecco perchè Heaven su nvidia va molto meglio).

AMD con Vega, nel calcolo puro e molto potente, ha una potenza simile ad una 1080ti, ed allo stesso tempo renderizza con minori cicli.
GCN può lavorare in Vec4 con soli 23 cicli.
La differenza passa per i giochi, dove bisogna emulare le unità funzionali, ed AMD vede il suo carico teorico quasi sempre perdere da 1/4 a 2/4 di prestazioni.

Vega è disegnata come una 1080, con 4 raster e soli 4 triangoli, purtroppo qua non c'è uno scaling.

La BW reale è inferiore a quella della Fury, ma quest'ultima ha un traffico decisamente minore.
Per rendere l'idea, sarebbe come costruire una 1080ti con la banda della 1070.

L'unica alternativa ora come ora è puntare agli 8 rasterizzatori e 4 stack HBM.
Così facendo possono giocarsela al meglio con GV104;)

mike, secondo me il problema di banda lo hanno più sulla gestione dell'mc e la gestione degli accessi. Probabilmente pensavano di andare lisci e riciclare tutto quello imparato con fury, poi si sono resi conto che avere 4096bit@500mhz non è come averne 2048@1000 (che 1000 non sono ma va beh) per quanto il numeretto alla fine in termini di GB di banda sia uguale. Il secondo è un bus più facile da gestire a parità di "chiamate" (un pò come è stato il passaggio da ring bus a 512bit della 2900 al crossbar distribuito da 256bit delle 3870/4870). Ora sono passati da un bus sotto usato di fury ad uno leggermente saturato per l'aumento di capacità di calcolo di vega.
Probabilmente si sono fatti male i conti iniziali sullo sviluppo per l'ambito gaming della cosa. Passare a 4 stack ti da la soluzione immediata (quanto? 900 GB come volta?) per metterci una patch hardware a quello che puoi sistemare software. Non so quale delle due soluzioni sia più "veloce" nei tempi.
Una vega con 4 stack la fai ma comunque vega 64 e 56 le tieni, quindi comunque il lavoro sull'mc devi farlo.

Io in quest'ottica mi sono rivisto le vecchie milestone di nvidia ed oggettivamente avevano pianificato il salto da maxwell a volta. Poi dopo hanno deciso di rimandare volta per infilare dentro pascal.
Probabilmente ci hanno visto "lungo" nell'usare una generazione di mezzo che aveva ram utilizzare come le gddr5 o 5x e di usare le hbm2 con volta solo nell'ambito pro e calcolo distribuito.

Si spera che almeno amd abbia accumulato un vantaggio della gestione di queste memorie, visto che siamo già alla seconda iterazione e la terza potrebbe essere dietro l'angolo.

smoicol
21-09-2017, 19:06
Beh, ci riesce anche Vega56... che probabilmente è più scalabile come architettura. Con un dissipatore migliore del reference dovrebbe andare più che bene, e se LDLC.com riesce a venderla a 400 euro penso sia fattibile anche da tutti gli altri.

Il problema è che ci vogliono marginare tanto :)

No spè vega è vega nasce diverso da polaris, sappiamo tutti i limiti di polaris invece di vega conosciamo dov'è sbilanciata, polaris era ben bilanciata e memorie più veloci e qualche cu in più si potevano ottenere prestazioni da vega56

Catan
21-09-2017, 19:33
No spè vega è vega nasce diverso da polaris, sappiamo tutti i limiti di polaris invece di vega conosciamo dov'è sbilanciata, polaris era ben bilanciata e memorie più veloci e qualche cu in più si potevano ottenere prestazioni da vega56

co sta storia di "polaris" che potesse pompare di più non saprei...insomma con qualche cu in più (per mantenere il chip piccolo forse potevi arrivare a 2816, come le 290-390) e memorie veloci (se dovevi rivaleggiare con la 1070, anche a prezzo, vuol dire gddr5, clockate a 2000mhz, come poi è stato).

Ora senza scomodare i clock, un polaris da 2300 sp va come un hawaii da 2800sp. In genere le archidettura basate su gcn scalano abbastanza linearmente in performances con l'aumentare o il diminuire delle sp. La differenza tra i due è del 20% in termini di SP.

E' ragionevole pensare che una polaris a 2800sp sarebbe andata un 20% sopra una 390x, con bus dimezzato e rops dimezzate.
Tradotto stai praticamente chiedendo una hawaii aggiornata da gcn 1.2 a 1.4.

Che alla prova dei fatti sarebbe comunque andata forse come fury e sempre sotto un 15% alle 1070 e quindi sotto vega 56.

Ovviamente una vga cosi non potevi listarla a 249$ ma almeno a 300 se non a 350$ (50-100$ in meno della 1070 per essere competitivo)

Insomma avresti avuto una fascia media migliore di quella di adesso , ma non cosi tanto migliore. Certo ti saresti risparmiato fury, però da qui a dire che polaris con qualche sp in più sarebbe andata come una 1070/vega 56 ce ne vuole eh.

Realmente una buona vga tappabuchi sarebbe stata fare Fiji sempre da 4096 sp, gcn 4.0 come polaris e metterla su un bus da 512bit come hawaii. Questa sarebbe stata un bel giocattolino, presumo consumi un pò elevati se sforavano sui clock, ma se la tenevano attorno ai 1200mhz sarebbero andati lisci.

Dopo questa idea, avrei appunto fatto due "forche", un vega, con hbm2 fatta per il mercato pro e DL come volta, e una "fury" aggiornata e rivista all gcn 4.0 con magari un bus gddr5 o 5x da piazzare per il mercato desktop/mining

DuttZ
21-09-2017, 19:53
No aspetta sono numeri e se ne parlava tempo fà, un polaris leggermente più grosso con se non ricordo male 4cu in più e relativi sp, a pari frequenza della rx480, era vicina alla gtx1070, ripeto sulla carta, ma visto il flop vega vuoi che amd per farsi del male fra 6-9 mesi non faccia uscire un polaris2 con un altro nome? Sai quanta gente su ocn e tpu premeva amd nel fare un polaris solo leggermente più potente? Non ha ascoltato nessuno e i risultati si vedono, una vga più potente cge pernetteva di giocare bene a 2560x1440 dove la rx480/580 vuoi o non vuoi arranca.Clock to clock Polaris è meno efficiente di Vega

antonioalex
21-09-2017, 21:15
In più io vorrei sperare che tutte quelle cose che ci hanno messo dentro prima o poi le attivino e non restino solo dei nomi fighi nelle slide.

+ che altro la questione è se verranno sfruttate :D

mikael84
21-09-2017, 23:33
mike, secondo me il problema di banda lo hanno più sulla gestione dell'mc e la gestione degli accessi. Probabilmente pensavano di andare lisci e riciclare tutto quello imparato con fury, poi si sono resi conto che avere 4096bit@500mhz non è come averne 2048@1000 (che 1000 non sono ma va beh) per quanto il numeretto alla fine in termini di GB di banda sia uguale. Il secondo è un bus più facile da gestire a parità di "chiamate" (un pò come è stato il passaggio da ring bus a 512bit della 2900 al crossbar distribuito da 256bit delle 3870/4870). Ora sono passati da un bus sotto usato di fury ad uno leggermente saturato per l'aumento di capacità di calcolo di vega.
Probabilmente si sono fatti male i conti iniziali sullo sviluppo per l'ambito gaming della cosa. Passare a 4 stack ti da la soluzione immediata (quanto? 900 GB come volta?) per metterci una patch hardware a quello che puoi sistemare software. Non so quale delle due soluzioni sia più "veloce" nei tempi.
Una vega con 4 stack la fai ma comunque vega 64 e 56 le tieni, quindi comunque il lavoro sull'mc devi farlo.

Io in quest'ottica mi sono rivisto le vecchie milestone di nvidia ed oggettivamente avevano pianificato il salto da maxwell a volta. Poi dopo hanno deciso di rimandare volta per infilare dentro pascal.
Probabilmente ci hanno visto "lungo" nell'usare una generazione di mezzo che aveva ram utilizzare come le gddr5 o 5x e di usare le hbm2 con volta solo nell'ambito pro e calcolo distribuito.

Si spera che almeno amd abbia accumulato un vantaggio della gestione di queste memorie, visto che siamo già alla seconda iterazione e la terza potrebbe essere dietro l'angolo.

Il problema di base è il dato finale in banda che viene smorzato, pur con le ottimizzazioni l2-rop's per permettere un throughput più elevato (punto forte di Nvidia), le compressioni estreme 2:1, introdotte da Polaris e Pascal, non hanno alcun rilievo su Vega.
Attualmente in uscita via gaming (compressione 8/4/2:1) Vega mostra risultati simili a Fury, seppur quest'ultima dovrebbe avere un livello di compressione maggiore.
La banda senza compressione è addirittura più scarsa su vega che su fury, e la prima, per forza di cose occupa una porzione ben maggiore di BW.

Qua a livello hardware nei giochi si arriva ad appena i 400gb/s effettivi.
Utilizzare 4 stack, è sicuramente la soluzione, ma se devi perdere troppo all'uscita effettiva, per un chip che sarebbe costosissimo, meglio niente.
Polaris è stato esemplare, sfruttava tutta l'ampiezza.
Insomma sono fattori, per noi banali, ma andrebbero testati in laboratorio, cosa che sembra non abbiano fatto.
Per 2 stack, con tali chip, bisognerebbe andare di HBM3. Scartiamo i bus semplici, perchè servirebbe un 512bit via ddr5, molto più complesso

Nvidia utilizza le HBM solo nei chip pro, per una questione di BW e collegamenti, nei chip gaming non puoi utilizzare le HBM, in quanto i 6 GPC sono collegati a 4 stack e nei gaming dovresti utilizzare un collegamento totalmente a vuoto, che occupa spazio inutile e costi.:)
Ti faccio un'esempio:
Volta GV100/ 5120cc (2 tpc ridondanti)- 128 rop's-6mb l2 /900gb7s
Volta GV102/5120cc -96 rop's- 4,5mb l2/ 678 gb/s ddr6
(550-600/815mmq2):)

Inoltre via Nvlink puoi scrollare la memoria a singolo canale, i vantaggi ci sono in ambito pro. Nullo in gaming, dove ogni cosa deve passare via PCI e.
Nvidia ha anche le unità funzionali via D.U.2, ogni cuda può elaborare 512 istruzioni istantanee, senza pesare su altro.

Totix92
21-09-2017, 23:50
La banda senza compressione è addirittura più scarsa su vega che su fury, e la prima, per forza di cose occupa una porzione ben maggiore di BW.

Qua a livello hardware nei giochi si arriva ad appena i 400gb/s effettivi.


Stai dicendo che con vega AMD ha fatto dei passi indietro sulla compressione rispetto a Polaris e a Fiji? :mbe: :eek: :doh:

Gyammy85
22-09-2017, 07:43
Stai dicendo che con vega AMD ha fatto dei passi indietro sulla compressione rispetto a Polaris e a Fiji? :mbe: :eek: :doh:

https://i.imgflip.com/1wbc90.jpg (https://imgflip.com/i/1wbc90)

Catan
22-09-2017, 09:07
va beh non credo che sia un fattore di discriminazione avere o meno 30gb disponibili in più o in meno. Nono sono quelli che ti fanno esplodere le prestazioni. Certo averli non sarebbe stato male, ma in genere tutti qulli con vega che hanno portato le hbm2 da 950 a 1000 non mi pare abbiano riscontrato benefici astronomici.
Se poi vega satura anche 512gb di ram, è ovvio che la soluzione hmb2 a 2stack non è stata soppesata bene.

Catan
22-09-2017, 13:59
Certo se facessero funzionare le funzioni bloccate potrebbe anche darsi che la banda faccia un po' meno da tappo.

sicuramente, ma visto che hanno iniziato lo sviluppo dei driver desktop seri 2 mesi fa (sicuro dopo la presentazione di vega FE) toccherà aspettare.
Secondo me non prima di dicembre avremo tutte le funzioni sbloccate di vega. Forse proprio per l'arrivo di vega32-28 (a sto punto vega 32 andrà come una vega 64 a metà).

mikael84
22-09-2017, 14:21
va beh non credo che sia un fattore di discriminazione avere o meno 30gb disponibili in più o in meno. Nono sono quelli che ti fanno esplodere le prestazioni. Certo averli non sarebbe stato male, ma in genere tutti qulli con vega che hanno portato le hbm2 da 950 a 1000 non mi pare abbiano riscontrato benefici astronomici.
Se poi vega satura anche 512gb di ram, è ovvio che la soluzione hmb2 a 2stack non è stata soppesata bene.


Occhio che i valori di base sono teorici. In uscita, il rapporto in compressione, sia di Fury che di Vega sono compresi tra i 380/400gb/s circa, contro i 260/280 gb/s di una 480 (certo pur con la semplificazione del bus, il ratio teorico di Vega è leggermente minore).
Sorprende che l'uscita sia in compressione pari alla fury e minore (non di poco) senza compressione.
Rispetto a Fury, già con Polaris, hanno aggiunto addirittura una compressione maggiore di maxwell, dove il valore 2:1 non veniva compresso.
Solo questo doveva permettere di poter accedere a tutta l'ampiezza teorica.
Inoltre totalmente sballato il lavoro sulla l2-rop's unificata (fattore cardine di Nvidia).
Vega rispetto a Fury ha l'equivalente di quasi il doppio del ratio in rop's ed una cache mastodontica di 4mb l2. Su Nvidia 8 rop's producono circa 15 gb/s di BW in uscita effettiva.

Catan
23-09-2017, 22:48
Beh.. la differenza fra avere le memorie a 1100 e averle a 950 è percepibile, si parla di 4-6 fps.

Credo che un po' tutti qui dentro abbiamo overcloccato per molto meno... :D

Raja ha fatto bene a farsi le ferie, tanto ormai il prodotto è lanciato... non è certo lui che sviluppa in prima persona gli algoritmi da implementare nei driver: quando tornerà ci saranno driver un po' meno alpha e si sarà risparmiato una quantità di polemiche.

Quelli come lui cmq non staccano mai veramente... :)

se non metti la condizione di test 4-6 fps possono essere un valore alto o basso. Se sono 6 fps su un gioco che ne fa 30 è un conto, se sono 6 su uno che ne fa 100 è un'altro.
Tra l'altro realmente di "default" parliamo di hbm2 settate a 950mhz contro un target reale di 1000. Quindi la differenza uno dovrebbe vederla tra 950 e 1000.
Tra 950 e 1000 ci sta un 15% di oc in più che non è poco e in qualsiasi condizione avrebbe generato almeno un 8-10% di performances in più.Se invece le performances sono lineari con l'incremento, allora si vega in questo momento è affamata di banda^^

Gyammy85
25-09-2017, 09:35
http://www.guru3d.com/news-story/amd-might-replace-rx-500-cards-with-rx-vega-32-and-28.html

deadbeef
25-09-2017, 09:55
L'importante è che siano acquistabili a cifre dignitose, altrimenti possono pure rimpiazzare Polaris con un tostapane, avrebbero la stessa utilità nello rimanere sullo scaffale nel caso in cui costassero 350€+ come le attuali 580

Gyammy85
25-09-2017, 10:15
L'importante è che siano acquistabili a cifre dignitose, altrimenti possono pure rimpiazzare Polaris con un tostapane, avrebbero la stessa utilità nello rimanere sullo scaffale nel caso in cui costassero 350€+ come le attuali 580

A costo di sembrare ripetitivo, scordiamoci le amd che costano poco perché devono recuperare quote di mercato avendo la nomea di marca da discount

deadbeef
25-09-2017, 10:35
devono costare il giusto, non poco. Io 350€ per una scheda che rimpiazza la 580 non glieli do

bagnino89
25-09-2017, 10:38
A costo di sembrare ripetitivo, scordiamoci le amd che costano poco perché devono recuperare quote di mercato avendo la nomea di marca da discount

Anche se, effettivamente, dovrebbero recuperare quote di mercato, specie nella fascia alta... Parlo del settore gaming.

Gyammy85
25-09-2017, 10:39
devono costare il giusto, non poco. Io 350€ per una scheda che rimpiazza la 580 non glieli do

Qualche mese per l'uscita passa di sicuro...intanto è già partito il damage control

"Here's where the story gets weird, it is stated that the cards would be fitted with an expensive 4GB HBM2 chip. That means a 1024-bit wide memory bus. If correct, the products would battle the field where the GeForce GTX 1060 is active".

Gyammy85
25-09-2017, 11:35
Anche se, effettivamente, dovrebbero recuperare quote di mercato, specie nella fascia alta... Parlo del settore gaming.

Sicuramente, ma non lo fai abbassando i prezzi e rimettendoci

Roland74Fun
25-09-2017, 13:49
http://www.guru3d.com/news-story/amd-might-replace-rx-500-cards-with-rx-vega-32-and-28.html
Il primo commento è quello che conta...

"Go home AMD, your drunk. Releasing a mid-range card that doesn't have more than 4gb of ram is nuts. It's going to be gimped like the gtx1060 3gb is."

Ma anche il quarto.....

"More cheaper gpu for mining community."

Catan
25-09-2017, 14:23
Amd se vuole riprendere quote nel mercato vga (che è diverso da quello cpu) deve semplicemente, in fascia altissima, offrire prestazioni più alte. Poi se la scheda la lista anche a 100$ di più di nvidia, la gente la comprerà perchè è la top gamma non plus ultra.
Se amd vuole fare i numeri nella fascia best value allora basta che o offre un pelo di più allo stesso prezzo o prezzo leggermente inferiore (vega 56 a 400€).
Se vuole spingere in fascia media, basta che fa una vga che nei 200-250€ vada meglio del corrispettivo nvidia, anche del 5%. che in teoria già avrebbe visto che le 580 mediamente vanno un pelo di più delle 1060.

che vega 32 costi 350e è anacronistico , perchè o è ufficiale che vega 56 debba costare 500€ (e allora perde tutta la competitività) o questo vega 32 nasce appunto per i 250€.
Il problema sarà se consuma poco e i minatori ne faranno la nuova 480.

L'unico dubbio sono il singolo stack da hmb2 da 4gb. Già era pesante, a livello di immagine, su fury, adesso è proprio fuori mercato. Dovrebbero , a mio avviso, aspettare gli stack hbm2 da 8gb. In modo da poter vnedere le vega uber da 16gb e le vega 32-24 da 8gb con bus a 1024, quindi banda massima di 256gb.

The_SaN
25-09-2017, 14:26
Che vadano bene in mining è probabile grazie alle HBM.
Che consumino meno pure, alla stessa frequenza. Di default non saprei, cercheranno di spremerla bene secondo me.

Catan
25-09-2017, 14:36
Che vadano bene in mining è probabile grazie alle HBM.
Che consumino meno pure, alla stessa frequenza. Di default non saprei, cercheranno di spremerla bene secondo me.

si faranno il conto "costo vga, potenza hash rate, ricavo valuta" e vedranno...magari ci dice fortuna che vega 56 sarà sempre la migliore:D :D :D

Ren
25-09-2017, 15:03
Che vadano bene in mining è probabile grazie alle HBM.
Che consumino meno pure, alla stessa frequenza. Di default non saprei, cercheranno di spremerla bene secondo me.

Per minare ethereum le HBM2 non sono la scelta migliore perf/gbps. (troppa latenza)

deadbeef
25-09-2017, 15:49
Infatti, per il mining il top sono le gddr5x

Sent from my Le X620 using Tapatalk

Ren
25-09-2017, 15:58
Infatti, per il mining il top sono le gddr5x

Sent from my Le X620 using Tapatalk

Le migliori sono le GDDR5, senza X.:fagiano:

Le 5X hanno il prefetch 16 che rilassa moltissimo le latenze.

The_SaN
25-09-2017, 16:08
Ed è il motivo per cui le 1070 costano quasi quanto le 1080 :muro:

Più 1080 per tutti :O

Free Gordon
25-09-2017, 16:18
Più PILU per tutti :O

Edit :sofico:

Ubro92
25-09-2017, 18:24
Tanto a breve esce la 1070ti, una 1080 like con GDDR5 che in teoria dovrebbe essere il pane per i miner, lasciando la 1070 libera di scendere a un prezzo concorrenziale, giusto per togliere dal magazzino tutte le 1080 fallate ma non troppo e GDDR5 prima di volta :sofico:
Comunque si sa nulla sulle Apu mobile di Ryzen + Vega? E se ci saranno anche in ambito tablet (windows)?

Roland74Fun
25-09-2017, 18:26
E le 580 altrettanto :D

La migliore è la 480 8gb.

-Costava 250 euro
-Aveva il freesync
-Prestazioni ottime in FHD
-Consumi e temperature moderate.

Ma non è perché ce l'ho io eh? :D :D

Ubro92
25-09-2017, 18:42
La migliore è la 480 8gb.

-Costava 250 euro
-Aveva il freesync
-Prestazioni ottime in FHD
-Consumi e temperature moderate.

Ma non è che ce l'ho io eh? :D :D

250? C'era la XFX GTR sui 220-225€ con DOOM in omaggio quello si che era un best buy al tempo... Per non parlare delle 470 4GB sui 160€...

Roland74Fun
25-09-2017, 19:31
Nel mio caso avere il monitor freesync è stato decisivo, ma si trovavano anche delle ottime custom gtx 1060 quasi allo stesso prezzo.
Oggi prendi un palit con 270 euro. Se vuoi una gamigX devi andare già oltre i 300.
Ricordo pure delle 1070 custom sotto i 400 euro.

P.S. ot.
Ma non c'è qualcuno che nel mondo sa moddare i monitor per rendenderli usabili col g-sync?
Ricordo un tempo che qualcuno metteva un chippino su certe consolle per leggere i dischi.. hem...."stranieri"... :D :D

OvErClOck82
25-09-2017, 19:41
250? C'era la XFX GTR sui 220-225€ con DOOM in omaggio quello si che era un best buy al tempo... Per non parlare delle 470 4GB sui 160€...
un anno fa con 450 euri tondi tondi mi sono fatto l'accoppiata FS + 480... ora a malapena ci compri una 580 con quella cifra :asd:

Free Gordon
26-09-2017, 12:32
250? C'era la XFX GTR sui 220-225€ con DOOM in omaggio quello si che era un best buy al tempo... Per non parlare delle 470 4GB sui 160€...

Un anno fa' erano criticate.... ora sono un best buy!!! :sofico:

Gyammy85
26-09-2017, 14:50
https://venturebeat.com/2017/09/25/ataribox-runs-linux-on-amd-chip-and-will-cost-at-least-249/amp/

:asd: :asd:
Ma il pascal 10x maxwell non se lo fila nessuno?

Gyammy85
26-09-2017, 20:08
L'unica cosa impressionante è pensare che esiste qualcuno che spende soldi in quella cagata :asd:

TOP :D

Roland74Fun
26-09-2017, 20:34
L'unica cosa impressionante è pensare che esiste qualcuno che spende soldi in quella cagata :asd:
Perché scusa? È una grande novità.
Lascierari libere tante risorse alla scheda vidio che potrà boostare come non mai, in un turbine si effeppieseee da far fgirare la testa.
Oggi si può solo mettere la nitidezza dello schermo al minimo od in alternativa giocare senza occhiali (se sei miope).

deadbeef
26-09-2017, 22:28
a breve anche il cavo hdmi per zoomare sulle targhe in stile csi, ottenendo uno screen 8k da un divx 320x240

Gyammy85
28-09-2017, 08:10
è un film già visto, Tahiti → Tonga = Polaris10 → Vega11
fate voi le dovute proporzioni in prestazioni e costi, ma io dico stesse prestazioni allo stesso costo con consumi minori con il solo vantaggio delle librerie di Vega... poca roba insomma.

Potrebbero usare il 14nm+ e dare una bella spinta alle frequenze consumando meno...;)

devil_mcry
28-09-2017, 08:26
L'unica cosa impressionante è pensare che esiste qualcuno che spende soldi in quella cagata :asd:

Non riesce a togliere tutto l'aliasing però pensa tipo al di fuori del PC, per le console non sarebbe male qualcosa riesce a fare. Certo che 150 $ :asd:

Gyammy85
28-09-2017, 11:33
mah, addirittura a livello hardware... non credo dai :doh:

A livello hardware non ha niente che non va, anche se raja disse che l'infinity fabric su vega rende al meglio con applicazioni pro, ma in realtà, credo che abbia colli di bottiglia a livello di bandwidth, perchè utilizza la modalità meno efficiente (base) per il rendering dei poligoni e delle texture
Col primitive discard arriverebbe alle capacità teoriche della 1080ti da quel punto di vista

Free Gordon
28-09-2017, 11:34
non credo verrà già usato per V11, ma vediamo

Anche io credo che Vega11 non sarà sul 14+... ma anzi, potrebbe essere sul 16 TSMC.
Se fosse sul 16nm, Vega11 potrebbe anche uscire @1700mhz stock. Quindi 7flops.. ;)

Gyammy85
28-09-2017, 11:39
Non è una questione di credere o meno, è che non si sa se sono disabilitate nei driver perché non sono stati in grado di implementarle o se sono disabilitate perché non funzionano nell'hardware e abilitarle renderebbe le schede non funzionanti.

Si sa solo che tre mesi dopo l'uscita della prima scheda con Vega10 non funzionano.

Appena usciranno driver con codice 17.32 avremo un quadro più chiaro...wolf 2 esce a fine ottobre, qualcosa succederà

giovanbattista
28-09-2017, 12:16
Non è una questione di credere o meno, è che non si sa se sono disabilitate nei driver perché non sono stati in grado di implementarle o se sono disabilitate perché non funzionano nell'hardware e abilitarle renderebbe le schede non funzionanti.

Si sa solo che tre mesi dopo l'uscita della prima scheda con Vega10 non funzionano.


anche io sono dell'idea che non sempre 1+1=2 ma uscita il 13 agosto a ram e oggi è il 28 settembre vediamo quanto è passato, pallottotoliere e da dan 1.5 mesi.

Lunar Wolf
28-09-2017, 12:35
Appena usciranno driver con codice 17.32 avremo un quadro più chiaro...wolf 2 esce a fine ottobre, qualcosa succederà
Perché Wolf 2 userebbe qualcosa di Vega che non è stata abilitata?

Gyammy85
28-09-2017, 12:46
Perché Wolf 2 userebbe qualcosa di Vega che non è stata abilitata?

Dovrebbe supportare il rapid packed math, non so se è già attivo su vega

Catan
28-09-2017, 13:46
La Frontier è uscita l'ultimo giorno del Q2, fra tre giorni inizia il Q4. Ovvero la distanza son tre mesi.

La FE ha una Gaming Mode per testare le performance in game, quindi sì, conto da quel giorno :>

credo che la funzione gaming mode disabiliti tutte le cose che la FE usi come pro. Quei driver sono più che delle beta per le FE, forse pure peggio di quelli che ci sono desktop. Realmente dovresti partire dall'uscita delle desktop.

Catan
28-09-2017, 15:29
La funzione banalmente e' uno switch fra il driver della FE e il driver della RX.

appunto e seriamente i driver lato desktop li hanno iniziati a sviluppare seriamente a partire da agosto, nella più rosea delle ipotesi.

Vul
09-10-2017, 18:10
Navi ad agosto 2018:

http://www.guru3d.com/news-story/amd-navi-based-graphics-cards-might-arrive-in-august-2018.html

Probabilmente fake.

I 7nm GloFo arriveranno non prima degli ultimi mesi del 2018 e sono già prenotati per SoC mobile a detta stessa di GloFo.

Gyammy85
09-10-2017, 18:28
Secondo me è possibile dicono che i 7 nm vanno veloci come tempistiche...in tempo per la titan xv in argento stile 8700k

Angeland
09-10-2017, 20:55
Io ho in progetto un upgrade della GPU ( non imminente) e vorrei restare su AMD ( anche perché altrimenti dovrei cambiare pure monitor, causa G Sync).

Ma sinceramente tra la serie Vega che non mi entusiasma e Volta che dovrebbe uscire i primi mesi del 2018 non so che fare.

Angeland
10-10-2017, 08:28
non conosco le tue esigenze, ma avendo una fury direi che puoi tranquillamente aspettare l'anno prossimo e le novità di Volta prima e Navi poi appunto.

In effetti la Fury rulla ancora bene ( gioco a 3440x1440) era più che altro per inquadrare la situazione generale :)

The_SaN
10-10-2017, 08:37
non conosco le tue esigenze, ma avendo una fury direi che puoi tranquillamente aspettare l'anno prossimo e le novità di Volta prima e Navi poi appunto.

Forse non ho capito bene. Stai consigliando la Fury? :asd:
Brace yourselves, shitstorm is coming.

Angeland
10-10-2017, 08:43
Forse non ho capito bene. Stai consigliando la Fury? :asd:
Brace yourselves, shitstorm is coming.

:sofico: :sofico: :sofico:

Gyammy85
10-10-2017, 08:57
https://i.imgflip.com/1xcdlr.jpg (https://imgflip.com/i/1xcdlr)

Catan
10-10-2017, 09:43
Navi ad agosto 2018:

http://www.guru3d.com/news-story/amd-navi-based-graphics-cards-might-arrive-in-august-2018.html

Probabilmente fake.

I 7nm GloFo arriveranno non prima degli ultimi mesi del 2018 e sono già prenotati per SoC mobile a detta stessa di GloFo.

credo ci sia un'accordo GF/AMD in cui a fronte di ordini di altre gpu, la quota iniziale di chip navi può essere assegnata da TSMC.
Della serie, che amd rispetta il WAT facendo fare a GF tante mid-end (chip più piccoli, numero di wafer fisso, vuol dire tanti chip mid end).
Se non sbaglio i 7nm TSMC sono in linea con quella time-table.

Gyammy85
10-10-2017, 11:16
Parlano di un aumento del 40% delle prestazioni...unito al fatto che probabilmente navi avrà uno sfracello di sp oppure più gpu collegate con infinity fabric ne verrà fuori una bella bestia

Daytona
10-10-2017, 11:38
Navi ad agosto 2018:



nell'ultima decina d'anni , se la memoria non mi inganna, tra due architetture top non sono mai passati meno di circa due anni... per cui... :sofico:

Gyammy85
10-10-2017, 12:38
nell'ultima decina d'anni , se la memoria non mi inganna, tra due architetture top non sono mai passati meno di circa due anni... per cui... :sofico:

Non proprio...r600 metà 2007-rv770 metà 2008

55AMG
10-10-2017, 21:58
Però una seconda versione di vega a 14nm+ (qualunque cosa voglia dire) sembrerebbe confermata anche dalle slide AMD.
Ovviamente non si sa se un refresh, una vega small o una vega big.

Inviato dal mio Redmi Note 4 utilizzando TapatalkNe parlavano già al lancio.
Un refresh mirato ai consumi.

Ecco perchè le Custom tardano cosí tanto magari...

Inviato dal mio SM-G935F utilizzando Tapatalk

Gyammy85
11-10-2017, 08:06
Ne parlavano già al lancio.
Un refresh mirato ai consumi.

Ecco perchè le Custom tardano cosí tanto magari...

Inviato dal mio SM-G935F utilizzando Tapatalk

Sperando sempre che la fissa dei consumi sparisca...la gtx280 va ben 2 fps in più della 4870!!!111!!!1!!! si ma la 4870 consuma meno...

Vul
11-10-2017, 09:46
Parlano di un aumento del 40% delle prestazioni...unito al fatto che probabilmente navi avrà uno sfracello di sp oppure più gpu collegate con infinity fabric ne verrà fuori una bella bestia

Collegare più gpu sullo stesso memory controller non è come connettere due cpu insieme.

E non so nemmeno se questo sia una buona idea onestamente in applicazioni come i videogiochi dove latenza e throughtput sono entrambi fondamentali, e un approccio ala threadripper/epyc andrà inevitabilmente a distruggere la latenza.

Sinceramente l'unico vantaggio che avrebbe fare le gpu così non è per i gamer ma...per che utilizza le gpu per fare calcoli...

Vul
11-10-2017, 09:48
Però una seconda versione di vega a 14nm+ (qualunque cosa voglia dire) sembrerebbe confermata anche dalle slide AMD.
Ovviamente non si sa se un refresh, una vega small o una vega big.

Inviato dal mio Redmi Note 4 utilizzando Tapatalk

A questo punto onestamente preferirei un refresh di polaris maggiorato e a clock maggiori piuttosto che uno di vega.

Vega è una gpu che fa acqua da ogni dove lato gaming onestamente.

Ubro92
11-10-2017, 09:58
A questo punto onestamente preferirei un refresh di polaris maggiorato e a clock maggiori piuttosto che uno di vega.

Vega è una gpu che fa acqua da ogni dove lato gaming onestamente.

Mai dire mai, dai test che ho visto finora, la vera strozzatura di Vega sono queste HBM2, se avessero clock maggiori credo che le gpu renderebbero decisamente di più anche in ambito gaming e anche più di polaris in proporzione...

sieg87
11-10-2017, 09:58
A questo punto onestamente preferirei un refresh di polaris maggiorato e a clock maggiori piuttosto che uno di vega.

Vega è una gpu che fa acqua da ogni dove lato gaming onestamente.

Non proprio...se guardi la differenza tra 56 e 64...la 56 è molto più bilanciata...quindi una vega più piccolina (48?-40?) potrebbe essere una bella bestiolina

Vul
11-10-2017, 10:08
Acqua da ogni lato no.
Già vega 64 ha un rapporto perf/watt migliore delle 570/580 e vega 56 ha un rapporto migliore anche delle 470/480.
La 64 con il profilo power safe si avvicina alle nvida e la 56 probabilmente le prende.
Quindi come architettura vega è meglio di polaris, non è perfetta chiaro, ha problemi che vanno risolti.
Ma le prossime gpu saranno evoluzioni di vega non di polaris.

Ma non è vero.

Vega ha perf/watt peggiori di Polaris quando paragonata a 470/480 e di poco superiori a 570/580.

Peccato che le 570/580 escano a 1.15,1.1175 Volt di fabbrica e reggano profili overclockati anche a 0.15 in meno (la mia lo fa) e consumino mooooolto meno di quanto dichiarato.

Secondo me Vega fa acqua da ogni lato, io personalmente preferirei un miglioramento di Polaris (magari un po di ipc in più, più sp, più clock, non mi servirebbe tanto, basterebbe che prendesse la 1070 su per giu).

sieg87
11-10-2017, 10:30
Senza contare che non abbiamo ancora visto giochi che sfruttano a dovere vega, vedremo con wolfestein e altri giochi in uscita come va.

Fixed :D

Vul
11-10-2017, 10:33
Se posso prima di scrivere cazzate controllo quello che dicoe questa volta l'ho fatto.

https://tpucdn.com/reviews/AMD/Radeon_RX_Vega_64/images/perfwatt_2560_1440.png

Poi è vero che polaris si può undervoltare... come si può undervoltare anche vega del resto e potremmo discuterne all'infinito.
Recensioni fatte da professionisti dicono che vega ha un rapporto perf/watt migliore di polaris.
Senza contare che non abbiamo ancora visto giochi che sfruttano a dovere polaris, vedremo con wolfestein e altri giochi in uscita come va.

Io avevo guardato 1080p dove ci sono un po di differenze, ma anche secondo il tuo grafico 470 ha perf/watt migliori di vega 56, per il resto parliamo di nmila bios setting diversi, polaris un solo profilo ha e va meglio di metà dei profili di vega.

Ergo io non vedo come faccia Vega ad essere un architettura migliore di Polaris, anche e soprattutto considerando che parliamo di chip da 232 mm^2 contro delle padelle da 484 mm^2.

Einhander
13-10-2017, 10:37
Io avevo guardato 1080p dove ci sono un po di differenze, ma anche secondo il tuo grafico 470 ha perf/watt migliori di vega 56, per il resto parliamo di nmila bios setting diversi, polaris un solo profilo ha e va meglio di metà dei profili di vega.

Ergo io non vedo come faccia Vega ad essere un architettura migliore di Polaris, anche e soprattutto considerando che parliamo di chip da 232 mm^2 contro delle padelle da 484 mm^2.

beh no dai, e' abbastanza evidente che ogni scheda ha la sua risoluzione di riferimento...ovviamente il punto d'incontro tra le due e' il 1440p...se prendiamo vega 64 per il 1080p direi che non stiamo scegliendo il riferimento giusto.

La 64 non ha senso, almeno finche' le prestazioni sono queste, ma la 56 e' una signora scheda.

Se adesso il problema e' il settaggio del bios beh allora che ti devo dire?
Forse bisogna cambiare hobby...perche' se perdiamo ore a fare bench e settare voltaggi ecc ecc e poi ci scandalizziamo/lamentiamo per uno switch direi che siamo nell'incoerenza piu' totale :asd:

Di certo non c'e' lo stesso scarto in termini di Perf/watt che ha nvidia tra la 1060/1070/1080, ma quanto dice bivvoz e' vero.

Punto.

Vega paga caro la giovinezza dell'architettura e la fissa delle HBM, ma gia' Rez ha avuto modo di evidenziare notevoli aumenti di frequenze e quindi prestazioni gia' tra una gen di vega e l'altra :)

In sostanza credo che vega abbia molto da dare ancora lato ottimizzazioni...certo il tallone di achille e' sempre un'architettura non completamente scalabile come quella nVidia, ma dire che le perf/watt non ci siano in vega e' un po' una minkiata :D

P.s.: senza contare che Vega lato SEmipro e pro E' UN AFFARE rispetto alle quadro laddove e' possibile utilizzarla (ed ha fatto molto bene AMD a lanciarsi con maggiore convinzione in questo ambito...il radeon pro render in Cinema 4D e vari altri tool di riferimento ecc ecc)

Baboo85
13-10-2017, 20:05
Ciao a tutti,

mi iscrivo al thread con una domanda veloce: si sa nulla di quando usciranno le nuove schede AMD?

Potrei dover cambiare la mia e volevo sapere se aspettare (cosi' magari da spendere meno per quelle attuali) oppure comprare a breve che tanto se ne parlera' tra un bel po'.

Grazie :)

mircocatta
14-10-2017, 10:24
Prossimo risultato finanziario amd? Dovremmo essere a tiro per il terzo trimestre, si sa la data?

Lunar Wolf
14-10-2017, 10:54
Ciao a tutti,

mi iscrivo al thread con una domanda veloce: si sa nulla di quando usciranno le nuove schede AMD?

Potrei dover cambiare la mia e volevo sapere se aspettare (cosi' magari da spendere meno per quelle attuali) oppure comprare a breve che tanto se ne parlera' tra un bel po'.

Grazie :)Passa dopo agosto... Sarai più fortunato Prossimo risultato finanziario amd? Dovremmo essere a tiro per il terzo trimestre, si sa la data?Siamo nel forum dei mercati, finanza borse ecc? Scrivi a deathroma!

Gyammy85
14-10-2017, 11:32
Prossimo risultato finanziario amd? Dovremmo essere a tiro per il terzo trimestre, si sa la data?

Mi pare il 23 o 24

mircocatta
14-10-2017, 12:26
Mi pare il 23 o 24

grazie ;)

Free Gordon
19-10-2017, 00:53
https://www.techpowerup.com/237725/amd-navi-gpu-by-q3-2018-report

ma questo qualcuno l'aveva riportato?

Gyammy85
19-10-2017, 08:13
https://www.techpowerup.com/237725/amd-navi-gpu-by-q3-2018-report

ma questo qualcuno l'aveva riportato?

:eek: :eek:
Vai cosììììììììììììììììììììì
#poorvolta

Comunque è una di quelle notizie che faranno arrabbiare gli analisti del forum visto che amd aveva detto che qualcuno aveva detto che siccome raja aveva detto che se ne andava via perché glielo avevano detto che lisa su aveva detto che ryzen le hanno detto che sarà sui 7 nm che qualcuno ha detto che saranno la priorità, a detta di qualcuno. :help:

Gyammy85
19-10-2017, 08:20
Sì, e gli schemi sono nVidia.

Sono solo speculazioni.

Ah ecco, solito rumour...
Curioso come amd abbia introdotto prima di nvidia l'infinity fabric e ora si chiama mcm come quello di nvidia...:rolleyes:

Catan
19-10-2017, 09:49
Esatto, credo che l'approccio di AMD sia più corretto chiamarlo "cluster" perché non sono diversi moduli che formano un chip ma più chip completi di loro che possono essere affiancati per formare un chip di maggior potenza.
Come ryzen del resto.

MCM è un sigla che si usa da non meno di dieci anni su questi lidi (Intel Presler) ma che risale almeno agli anni 70, non è una terminologia nVidia ;)

le gpu sono cosi dall'alba dei tempi eh...la CU completa con il suo bel MC è di fatto già un cluster. Vega è già cosi, la potete vedere come un quad cluster da 1024 sp ogni uno.

Se poi stiamo dicendo che la "strada futura" sarà fare un dual gpu modello die Zen per amd, è molto probabile (anche se questo vorrebbe dire fare die più piccoli da integrare assieme). Semplicemente invece che usare il chip plx per le dual gpu di adesso, utilizzeranno l'IF.
Il vantaggio di usare l'IF è che le due gpu nell'unico package vedranno la memoria come un'unico buffer e non condivisa "da replicare". (Che non è cmq poco)-
Diciamo questo approccio multi gpu singolo die è un palliativo che ti torna utile di questi tempi, quando il salto tecnologico da un pp ad un'altro è ormai di 2 o 3 anni (e peggiorerà in futuro), probabilmente assisteremo a cicli in cui verranno fatti chip monolitici con il pp più rodato. Poi gli stessi chip ingranditi con il pp nuovo. Appena il pp arriva a "saturazione" in attesa del nuovo, invece di concentrarsi sui refresh, tireranno fuori una gpu "dual core" su singolo die connessa con IF..

Se prendono questa strada abituiamoci a vedere che le gpu nuove probabilmente andranno "meno" della gpu top gamma precedente dove erano due "core" uniti con IF nello stesso die.
O semplicemente, si potrebbe tornare all'epoca in cui le schede di fascia medio alta hanno il mono core di cluster e le schede top hanno più core integrati nello stesso die.

Purtroppo Dipende sempre dallo spazio e dal costo che il silicio ti da.
Attualmente, anche con il processo nuovo, mettere 2 vega sullo stesso die , pur con la riduzione di spazio dovuta al processo nuovo, ti genera un chip che ha dimensioni maggiori a vega, che non è piccolo. Quindi costo molto elevato.
A questo punto invece ti conviene prendere la base di vega e aggiungere altre 2 cu. Fai un chip che è grosso come vega ma il 50% "più potente" monolitico e di fatto hai aggiunto già due "core" al tuo die singolo senza smuovere l'IF.

Gyammy85
19-10-2017, 10:36
Capisco che sia una cosa che esiste da tempo, il fatto è che tpu potrebbe chiamarla tranquillamente infinity fabric invece di generico mcm...poi non capisco l'immagine in word 97 di nvidia sotto, quando si trolla di continuo amd per lo splendido slide marketing :rolleyes:

Catan
19-10-2017, 13:12
Stai confondendo il piano logico e quello fisico.

L'MCM è un oggetto composto da più chip "incollati insieme", come Presler, Threadripper, Epyc.

La modularità del design non c'entra niente :>

ho ben chiara la differenza su entrambe.
L'adozione dell'IF semplicemente sfuma questa cosa, dove semplicemente non hai più due oggetti fisici separati, uniti a livello logico, ma due oggetti separati, uniti a livello fisico (stesso die) che dialogano tramite IF.

Ecco oggettivamente una gpu è fatta cosi dall'alba dei tempi (per definizione ogni sp di una gpu è un core a ste stante, quindi un core x86 è quasi rapportabile ad 1 sp gpu). Pure quando non c'erano gli shader unificati ma avevano le "pipeline".

Dire l'IF sarà la svolta nel mondo delle gpu è, a mio avviso, sbagliato, perchè è una soluzione "perdente" a lungo andare nel mondo gpu (non tanto in quello cpu dove i die sono da sempre più piccoli).

Se hai un pp che ti permette di creare un die piccolo ed efficiente, probabilmente la hai anche per aumentare le sp in quel die semplicemente ripetendo le unità e facendo un die che occupa una superficie fino al limite tollerabile (tecnologico e di prezzo).
Se hai due die e li vuoi unire con l'IF, è ragionevole pensare che il die finale sarà pari alla somma dei due. Quindi non è molto conveniente ( se non nel risparmiare su un design di un chip nuovo).

Ti aiuta quando sei al limite del pp, vuoi lanciare una scheda da 999$ e quindi tiri fuori sto chippone nato dalla somma dei due chip con le quali equipaggi la scheda da 500$.

Quando progetti "l'erede" lo stai già progettando di base con più sp del singolo chip base che hai unito con un'altro con IF.

L'unico sistema sostenibile per questo sistema è un tic-toc alla intel...

parti con un pp vecchio e fai un chip, appena esce il pp nuovo che ti permette di miniaturizzare, ne unisci due insieme, poi sviluppi chip nuovo (con capacità computazionale superiore al primo chip) e poi lo riunisci con IF.
Però poi cosi hai la fascia "alta" vecchia, e la fascia media "nuova" ad ogni passaggio di tic-toc.

Catan
19-10-2017, 13:17
Mi sembrava chiaro si stesse parlando di cluster di die non di cluster di cu come è sempre stato.

per le considerazioni sopra, non ha senso parlare di cluster di die nello stesso silicio, perchè quando hai possibilità di fare un chip con maggiori sp, anzi con maggiori cu di sp associati ogni uno ad un mc, lo fai. E ti esce meglio che non metterne 4 "diversi" uniti con IF.

L'uso di IF, come sopra, ti è utile quando stai cosi impiccato in attesa del pp nuovo, che devi per forza uscire con qualcosa che sarà potente, ma grosso e costoso.

Catan
19-10-2017, 13:27
Di fatto questa lineup è coerente con la necessità di dare un controller ed uno stack ad ogni chip per avere una modularità completa senza overshoot di banda.



Già lo stesso vega è strutturato in questa maniera, 4 cluster da 1024 sp, ogni uno diviso in due blocchi da 512 (cosi se vuoi tagliare 512sp non perdi un mc) con ogni uno a disposizione un mc (ogni blocco visto che ne ha 8).
Se vega fosse uscito con 4 stack la cosa che dicevi tu era fattibilissima senza scomodare l'IF.
Il guadagno era che potevi offrire una intera line up a partire dal "mini die" con 1 stack fino al big die con 4 stack e 4 die.
Di contro è che dovevi tenere una linea produttiva per almeno 4 die diversi che ti costa e non poco.
(stesso motivo per cui tutti i ryzen nascono 8-16 e poi vengono tagliati a seconda di quello che serve fare, amd poteva fare tutta la fascia bassa con 4-8 con un die che era la metà, semplicemente ha scelto di non farlo, perchè la doppia linea produttiva costa ).

Catan
19-10-2017, 13:30
Se non costasse nulla o se progettare un chip da 250mm2 costasse come progettarne uno da 500 sarei daccordo.

Ma non è così, e avere un'unica linea produttiva a sparare mini-chip da assemblare in vario modo in base alla domanda del mercato:
- costa meno portarlo alla produzione, perché è un chip piccolo e perché ne sviluppi solo uno che poi assembli diversamente
- garantisce rese molto maggiori
- ottimizza e rende più flessibile la produzione, potendo variare l'offerta in base alla domanda con più facilità
- con l'interposer organico non ha il problema di quello usato oggi sulle GPU (reticolo)
- puoi anche superare la dimensione attualmente considerabile massima, perché produci sempre e comunque un solo chip piccolo, ti devi solo preoccupare di fare un package più grande, magari pure unificato top to bottom per semplificare e rendere ancora più flessibile il tutto

L'unica questione è se riesci o meno a farlo funzionare in modo trasparente come accade con le CPU. Se trovi questo modo, sei a posto.

E non sono per niente convinto dell'ipotesi di un chip hypervisor + n chip risorsa, perché fa perdere gran parte dei vantaggi. Il vantaggio c'è solo se la logica di controllo può essere distribuita su n chip hypervisor+risorsa scalando linearmente.

Se mi dici cosi stai facendo un normale approccio mcm e non con IF, cioè stai facendo epyc a partire dai zen.
IF è invece una cosa interna che ti serve per far dialogare 2 "core" su un solo pezzo di silicio. (il vantaggio di usare IF è proprio questo, che poi sia efficiente anche nel far dialogare un oggetto costituito da 4 entità fisiche separate, meglio del FSB o del bus HT è un dato di fatto, però non stai facendo nulla di innovativo a livello di progetto di un mcm. Sicuramente è meglio con IF che non il chip PLX per le schede dual gpu su singolo pcb)
Puoi fa pure il design modulare e fare il chip piccolo, ma se poi devi fare altre 3 maschere, risparmi solo sul disegno iniziale. E del lavoro per ottimizzare quello dove metti tanti chip piccoli vicino devi cmq farlo in sede di progettazione.

Catan
19-10-2017, 13:54
invece si, stai semplicemente facendo quello che facevi prima con multi cpu, prima lo facevi con hypertransport adesso con IF.
Dalla foto che posti l'IF è interno e fa dialogare i due "core" zen. Il die risultante dialoga tramite if con tutti e 4 i die sull'interposer e ogni die ha un collegamento IF univoco col die dirimpettaio dell'altro socket. Che sfruttando le interconnessioni IF che ha lui vede anche gli altri die dell'altro package.
E questo è un passo avanti per il mondo gpu rispetto all'approccio mcm classico.

Su una gpu lo vedo meno fattibile, perchè la gpu per definizione è il piccolo "core" zen equivalnente. o meglio è il piccolo die equivalente. Quindi IF può aiutarti a mettere due gpu insieme meglio del bus pci-ex? Sicuramente si.

Ha una reale utilità se poi devo prendere 4 chip piccoli, metterli sullo stesso interposer, ogni uno col suo quadratino di ram dipendente dal proprio memory controller e reso visibile agli altri tramite IF?
Secondo me no se puoi fare tutto con unico chip monolitico , mentenendo 1 linea produttiva e tagliandolo opportunamente senza dover implementare al suo interno/esterno un bus IF. (Come è strutturato Vega ora).

Eì una soluzione, a mio avviso, che puoi utilizzare solo quando il processo produttivo non ti permette di fare il chip monolitico più grosso e ti serve cuna maggiore potenza per non perdere il giro/scettro prestazionale, un pò come è successo con il divario temporale tra fury e vega.

E' una soluzione che a mio avviso, non è vincente, se non per far meglio quello che già sai fare , cioè le dual gpu, che è un passo avanti, ma non cosi tanto da dare una svolta.

Poi può darsi pure che mi sbaglio eh...

Foglia Morta
19-10-2017, 15:40
Ha una reale utilità se poi devo prendere 4 chip piccoli, metterli sullo stesso interposer, ogni uno col suo quadratino di ram dipendente dal proprio memory controller e reso visibile agli altri tramite IF?
Secondo me no se puoi fare tutto con unico chip monolitico , mentenendo 1 linea produttiva e tagliandolo opportunamente senza dover implementare al suo interno/esterno un bus IF. (Come è strutturato Vega ora).

Eì una soluzione, a mio avviso, che puoi utilizzare solo quando il processo produttivo non ti permette di fare il chip monolitico più grosso e ti serve cuna maggiore potenza per non perdere il giro/scettro prestazionale, un pò come è successo con il divario temporale tra fury e vega.

E' una soluzione che a mio avviso, non è vincente, se non per far meglio quello che già sai fare , cioè le dual gpu, che è un passo avanti, ma non cosi tanto da dare una svolta.

Poi può darsi pure che mi sbaglio eh...

Non è necessariamente vero che sia conveniente solo quando il reticolo non permette die size oltre una certa soglia.
https://cms.edn.com/ContentEETimes/Images/EETimes_cte/2a_Design_costs_IBS_x_800.png
https://www.eetimes.com/document.asp?doc_id=1331185&page_number=3

Tra i 14nm e i 7nm ci sarà un raddoppio dei costi , quindi oltre ai costi descritti nel grafico ci sono da considerare gli yields. Più è grosso il die e più silicio sprechi nei wafer ( che sono di forma circolare ) e più probabilità si hanno di incorrere in die difettosi. Nel caso di Epyc sprecando il 10% di silicio speso in ridondanze hanno guadagnato in yields oltre alla trafila di costi ( o comunque almeno una parte di quei costi ) descritti dal grafico sopra.
http://i.imgur.com/AcmTUqW.jpg

Quindi con i costi dell' interposer in calo e i costi di design in salita a un certo punto è inevitabile che sia la strada più conveniente.

Ormai pare chiarita l' intenzione di AMD di fare gpu multi-die: http://www.computermachines.org/joe/presentations/hpdc2014_top-pim_presentation.ppt . In AMD hanno descritto l' HBCC come una forward looking feature... ogni die con i suoi 4GByte di HBM con l' HBCC non saranno limitanti.

Free Gordon
20-10-2017, 01:06
https://pro.radeon.com/en/product/pro-series/radeon-pro-ssg/


Mi piacerebbe vedere come si comporta questa nelle applicazioni dedicate... con 2TB di memoria!! :D :oink: :sofico:

E' in uscita oggi a quanto pare! Figo! :cool:

Ton90maz
20-10-2017, 07:29
Non è necessariamente vero che sia conveniente solo quando il reticolo non permette die size oltre una certa soglia.
https://cms.edn.com/ContentEETimes/Images/EETimes_cte/2a_Design_costs_IBS_x_800.png
https://www.eetimes.com/document.asp?doc_id=1331185&page_number=3

Tra i 14nm e i 7nm ci sarà un raddoppio dei costi , quindi oltre ai costi descritti nel grafico ci sono da considerare gli yields. Più è grosso il die e più silicio sprechi nei wafer ( che sono di forma circolare ) e più probabilità si hanno di incorrere in die difettosi. Nel caso di Epyc sprecando il 10% di silicio speso in ridondanze hanno guadagnato in yields oltre alla trafila di costi ( o comunque almeno una parte di quei costi ) descritti dal grafico sopra.
http://i.imgur.com/AcmTUqW.jpg

Quindi con i costi dell' interposer in calo e i costi di design in salita a un certo punto è inevitabile che sia la strada più conveniente.

Ormai pare chiarita l' intenzione di AMD di fare gpu multi-die: http://www.computermachines.org/joe/presentations/hpdc2014_top-pim_presentation.ppt . In AMD hanno descritto l' HBCC come una forward looking feature... ogni die con i suoi 4GByte di HBM con l' HBCC non saranno limitanti.Mi risulta che quel diagramma (se è quello che penso io) sia abbastanza una troiata.

Gyammy85
20-10-2017, 07:32
https://pro.radeon.com/en/product/pro-series/radeon-pro-ssg/


Mi piacerebbe vedere come si comporta questa nelle applicazioni dedicate... con 2TB di memoria!! :D :oink: :sofico:

E' in uscita oggi a quanto pare! Figo! :cool:

Ecco un estratto del siggraph

https://www.youtube.com/watch?v=XIabK60BkC8

Riuscivano a lavorare in real time sul rendering di una scena del film indiano, quando hanno trollato la p6000 che si rifiutava di eseguirlo :O

Foglia Morta
23-10-2017, 20:57
Mi risulta che quel diagramma (se è quello che penso io) sia abbastanza una troiata.

pensa quel che ti pare ma i costi sono in continua ascesa e la pezza per rimediare a questo fatto pare sia ancora molto lontana ( wafer da 450mm )

http://www.digitimes.com/news/a20171023PD201.html

While Apple has started to release more orders to AMD for high-end GPUs needed for new iMac series since September 2017, Taiwan-based outsourced semiconductor assembly and test (OSAT) companies has stepped up 2.5D packaging for the GPUs, according to supply chain sources.

The new iMac series adopt GPUs supplied by AMD, with the super workstation-class 27-inch iMac Pro equipped with Radeon Pro Vega 56 GPU and 8GB HBM2 memory or Radeon Pro Vega 64 and 16GB HBM2 memory. The high-end GPUs are packaged using 2.5D technology while the general-spec GPUs use flip-chip packaging process. Siliconware Precision Industries (SPIL) handle the packaging for the iMac GPUs, with testing support from King Yuan Electronics, the sources said.

These Taiwan OSAT firms will be busy carrying out 2.5D and flip-chip packaging operations through the end of 2017 in line with the rollout of Apple's new iMac series, the sources said.

AMD's Vega series GPUs are fabricated by GlobalFoundries on 14nm process, but Taiwan Semiconductor Manufacturing Company (TSMC) has won the order from AMD to fabricate its NAVI GPUs using 7nm process technology. As TSMC is also keen on making deployments in advanced packaging technologies, it will continue to maintain coopetition relationships with local OSATs.

At the moment, ASE and SPIL are major players in the 2.5D IC packaging market, able to compete against TSMC's CoWoS (chip on wafer on substrate) 2.5D packaging technology, industry sources said.

TSMC will apply its CoWoS 2.5D packaging technology mainly to high-end GPUs or FPGAs needed for AI (artificial intelligence)-based supercomputer systems.

Both Nvidia and AMD hope to use GPUs as the computing cores of AI systems, including high-end graphic cards, vehicle-use platforms, and cloud computing. And accordingly, both 2.5D and 3D packaging technologies that can integrate high-end GPU chips and high bandwidth memory chips will become more popular with semiconductor customers, the sources said.

Catan
24-10-2017, 08:23
Azz questa si che è una notizia, quindi Navi sarà sui 7nm di TSMC e non di GF :eek:
Probabile che amd voglia saturare al più possibile l'offerta iniziale dei 7nm di GF, che non sarà così elevata vuoi per le rese di GF non sempre al passo con la concorrenza, con Zen2 per far maggior concorrenza ad Intel.

tanto il wat può agirarlo semplicemente producendo più zen2 e gpu mid-end.
Vuol dire che puntano molto sia su zen2 (capace di replicare il successo di zen) sia sulla declinazione mid di navi/vega o chi per lei.

Free Gordon
24-10-2017, 09:36
Bene che Navi sia sui 7nm di TSMC...

Forse così GF potrà concentrarsi meglio su Zen2 e tirare fuori un prodotto concorrenziale.

AceGranger
24-10-2017, 09:50
Ecco un estratto del siggraph

https://www.youtube.com/watch?v=XIabK60BkC8

Riuscivano a lavorare in real time sul rendering di una scena del film indiano, quando hanno trollato la p6000 che si rifiutava di eseguirlo :O

si bè, non è proprio come l'hanno spaccia li é.... diciamo che la verita sta nel mezzo :)

Free Gordon
24-10-2017, 10:31
si bè, non è proprio come l'hanno spaccia li é.... diciamo che la verita sta nel mezzo :)

e cioè?

Free Gordon
24-10-2017, 10:42
Non è che se GF si concentra il silicio migliora :D

Sinceramente spero di sì!
Non il silicio di per sé...ma non funziona proprio così.. :D Sicuramente se mettono tutte le risorse nella realizzazione di Zen2, l'implementazione sarà migliore.
Imho AMD con Vega ha capito che ha perso un 10% di prestazioni buono dandolo a GF. Poiché il progetto era di transizione, già con molti problemi di suo, tutto ciò ha comportato delle performance più basse delle aspettative.

Con Navi non può permettersi di sbagliare: deve andare su TSMC.

AceGranger
24-10-2017, 12:12
e cioè?

che sono andati a prendere la casistica di render GPGPU out of memory giusto per non far partire la Quadro P6000 da 24 Gb; ma gli studi come quelli, se hanno veramente necessita di render GPGPU di quella portata, non prendono una P6000, ma 2 Quadro GP100 che condividono la memoria via nVlink a 32Gb, o fino a 8 tesla sempre in nVlink a 128Gb....
e per quanto possano sembrare soluzioni costose ti ritrovi con macchine nettamente piu prestanti ed efficienti, anche perchè poi l'intera scena sta nella Vram e non in quella di sistema via HBCC...

anceh eprchè, se non ricordo male, i render veri e propri di Baahubali sono stati fatti con farm CPU, mentre AMD è stata impiegata per la visualizzazione real-time dei modelli assieme alle riprese, non per il render vero e proprio.

sono situazioni talmente particolari che il discorso si fa caso per caso, anche perchè con quelle realta, molte volte l'hardware usato dipende anche dagli accordi commerciali e pubblicitari che fanno.

che l'HBCC sia un plus non ci piove, ma non è che senza non fai il render....

Catan
24-10-2017, 13:35
tsmc non è che aspetta amd, ha una coda di oggetti da produrre per vari clienti , quindi anche qui hai il dubbio se non ci siano dei ritardi dovuta alla coda di clienti che tsmc ha già per accordi pregressi.
Se a navi ci pensa tsmc, amd deve comunque rispettare il wat con gf, quindi o gli fai fare le cpu e basta o le cpu e qualche gpu mid.
GF non migliora il pp o il suo silicio solo se deve fare le cpu, però può aumentarne i volumi se si dedica solo a quello. Sempre se poi non si prenda anche lei altri clienti e decida di assegnare parte del tempo macchina a loro. Il wat è annuale, quindi possono spalmare i wafer nell'anno.
Insomma ti garantisce su carta che il suo navi sarà meglio di un'ipotetico prodotto da gf. il fatto che gf non faccia navi non ti garantisce che migliori il suo pp per fare cpu più performanti a 7nm rispetto ad altri 7 nm. Oh poi capace che i 7nm di GF so meglio di tutti e amd la piglia nel didietro perchè i navi fatti da tsmc costano di più.

Free Gordon
24-10-2017, 13:53
che l'HBCC sia un plus non ci piove, ma non è che senza non fai il render....

;)

Catan
25-10-2017, 09:08
Con i volumi disponibili e quelli necessari di cui si parla il problema non si pone: se vuole crescere l'unica opzione che ha è prendersi dei wafer anche da tsmc.

su questo non ci piove, se hai tanta richiesta e la tua fabbrica (o quella con cui hai accordi) non riesce, devi andare a bussare da altri.
Può essere anche una manovra in cui i primi run del chip vengono fatti da tsmc che è il top fonderia sulla carta per le gpu intanto che aspetto che gf faccia dei tape out soddisfacenti con i 7nm per le gpu. Quando sono pronti anche loro, pagando meno le gpu, potrebbero avere il manico per un'ulteriore manovra aggressiva di taglio prezzi.

https://www.anandtech.com/show/11961/amd-announces-q3-earnings-71m-in-the-black
Non credo proprio, i wafer per le console li han sempre presi da TSMC. Più facile che stiano già producendo qualcosa da TSMC che ancora non abbiamo visto come SKU sul mercato. Raven Ridge? Vega 11? Polaris 30?

potrebbe funzionare modello "pago la multa perchè tanto i ricavi sono più alti". Sicuramente amd ha comunicato a gf che i soc per console sono fatti da tsmc e il wsa su di loro non sarà rispettato. Complice la contrazione del mercato console sui vecchi soc (xbox one e ps4 standard) hanno avuto una contrazione dei guadagni a cui va sottratto la penale da pagare a gf. cosa che gli permette di stare "sempre in utile" ma di meno rispetto agli scorsi anni.
A bilancio ci sono sempre comunque quei 340 mln che amd ha girato a GF per rivedere il wsa. Può essere che abbiano diviso la somma in varie sezioni e il reparto soc, complice la contrazione, ha accusato meno guadagni.
C'è di positivo che finalmente il reparto soc non è più l'ancora di salvezza di amd, complice un risorto reparto cpu e una reparto grafica che , per quanto stiamo faticando a vedere vega in volumi desktop, va bene su altri lidi.

Comunque il quadro che esce fuori è quello di una azienda sana e non in sofferenza, pronta a rilanciare su tutti e 3 i fronti aperti (va beh per i soc ti piace vincere facile, sono praticamente i monopolisti )

Catan
25-10-2017, 09:10
cosa significa WAT? è l'accordo tra GF e AMD ok, ma non trovo nulla in rete...

Perché si chiama WSA e non WAT :D

https://www.anandtech.com/show/10631/amd-amends-globalfoundries-wafer-supply-agreement-through-2020

ahhh ecco... grazie :)

ogni tanto so un cogli1;) ;) ;)

Gyammy85
25-10-2017, 09:16
Quindi in poche parole tsmc per le gpu e gf per le cpu?

Catan
25-10-2017, 10:08
Quindi in poche parole tsmc per le gpu e gf per le cpu?

un pò come era prima dell'acquisto di ati da parte di amd e della vendita di gf.
GPU da tsmc e CPU a dresda (e quando servivano pure da chartered o altri).
Poi il fondo che ha creato GF ha , ovviamente, trasformato la compagnia da solo cpu a tutto quanto, con amd invischiata dentro che per avere prezzi minori, di dover far tutto da loro.
Ora effettivamente pagando o meno, si è riuscita a sganciare almeno in parte, ritornando, almeno in parte alle gpu high end da tsmc (compresi i soc) e cpu e gpu mid-end da gf.

Catan
25-10-2017, 10:52
Va beh dai fa niente eri convinto si chiamasse in quel modo, non possiamo mica ricordarci sempre tutto a memoria con tutte le altre cose che abbiamo nella vita quotidiana :)
---
Credo che per come stanno le cose e per la qualità storica del silicio negli ultimi anni, anche se finalmente GF è abbastanza al passo sia con TSMC che con Intel, dovranno fare chipponi presso TSMC e chip medi e piccoli con GF.
Questo sia perché TSMC costa di più e non ha tanti slot liberi quindi conviene investire in prodotti meno diffusi ma più cari, mentre GF il contrario.

Se Vega che è un chippone ma con un uarch sviluppata per le alte frequenze arriva a 1500~1700mhz, un ipotetico Vega11 sul refresh dei 14nm grosso la metà o quasi potrebbe arrivare a 1700-1900mhz sostituendo degnamente P20 anche se leggermente più grosso.

Se non hanno problemi sul silicio si.
Il problema di GF é, a mio avviso, una scarsa specializzazione. Per quanto siano grandi (si sono comprati le fab amd, hanno finito quella a ny, hanno comprato chartered, che ne fanno la terza fab mondiale per capacità produttiva, dopo intel e samsung) non sono specializzati a fare una cosa. Non sono riusciti a mantenere la qualità nella produzione di cpu che le fab avevano prima con amd (il loro vero processo senza amd di mezzo è stato il 40nm bulk che non è ricordato per essere proprio il top del top come pp).
vogliono fare i soc arm e pure li ci sono fabbriche migliori, vogliono fare le gpu e le gpu uscite non sono proprio il top in termine di leakage e frequenza.
Usano gli stessi processi sviluppati con samsung, ma i loro sono sempre meno performanti dei colleghi.
Insomma hanno abbandonato il core bussiness delle cpu per dedicarsi a tutto, che può anche andare bene ed è giusto se vuoi farei soldi, mantenere almeno 1 o 2 linee di eccellenza avrebbe sicuramente giovato nel mentre che ti attrezzi per fare il resto.

Gyammy85
05-11-2017, 08:42
Va beh dai fa niente eri convinto si chiamasse in quel modo, non possiamo mica ricordarci sempre tutto a memoria con tutte le altre cose che abbiamo nella vita quotidiana :)
---
Credo che per come stanno le cose e per la qualità storica del silicio negli ultimi anni, anche se finalmente GF è abbastanza al passo sia con TSMC che con Intel, dovranno fare chipponi presso TSMC e chip medi e piccoli con GF.
Questo sia perché TSMC costa di più e non ha tanti slot liberi quindi conviene investire in prodotti meno diffusi ma più cari, mentre GF il contrario.

Se Vega che è un chippone ma con un uarch sviluppata per le alte frequenze arriva a 1500~1700mhz, un ipotetico Vega11 sul refresh dei 14nm grosso la metà o quasi potrebbe arrivare a 1700-1900mhz sostituendo degnamente P20 anche se leggermente più grosso.

Dipende da quanti sp ci infilano dentro, senza contare che probabilmente con navi introdurranno un qualche scheduler per avere il primitive discard in hardware imho...se vega è una prova della nuova architettura devono sfondare con questa usando tanta forza bruta stile passaggio da 320 a 800 sp con le 4800

ninja750
05-11-2017, 08:45
più che navi o lo shrink è inconcepibile come non siano ancora uscite schede custom e la nano

Gyammy85
05-11-2017, 08:48
più che navi o lo shrink è inconcepibile come non siano ancora uscite schede custom e la nano

Qualche custom è in preparazione, per la nano aspetteranno il refresh del silicio, nelle slide si accennava a qualcosa del genere
Comunque secondo me amd ha sbagliato a fare la 64 ad aria, doveva fare solo la 56 in quel modo e le 64 solo liquid come la furyx

Free Gordon
05-11-2017, 16:10
più che navi o lo shrink è inconcepibile come non siano ancora uscite schede custom e la nano

Ormai è chiaro che non gliene frega una mazza..
Vega è un progetto nato per aprire la strada all'IF nelle GPU e per restare in piedi nel settore professionale.

Bisognerà attendere Navi per avere un progetto ad hoc per il gaming, imho.

E molto probabilmente verrà fuori dall'integrazione di più gpu-die tramite interposer.. con le HBM a corredo.

Free Gordon
05-11-2017, 16:13
Qualche custom è in preparazione, per la nano aspetteranno il refresh del silicio, nelle slide si accennava a qualcosa del genere
Comunque secondo me amd ha sbagliato a fare la 64 ad aria, doveva fare solo la 56 in quel modo e le 64 solo liquid come la furyx

Si sarebbero lamentati tutti ci fosse stata solo la liquid.

Sarebbe stata una Fury 2 la vendetta per la stra-grande maggioranza del'audience..

Più che altro non avrebbero MAI dovuto inserire quella modalità Turbo veramente DANNOSA per il performance/watt

Catan
06-11-2017, 09:06
Si sarebbero lamentati tutti ci fosse stata solo la liquid.

Sarebbe stata una Fury 2 la vendetta per la stra-grande maggioranza del'audience..

Più che altro non avrebbero MAI dovuto inserire quella modalità Turbo veramente DANNOSA per il performance/watt

già concordo, a mio avviso, dovevano far uscire la vga con i settaggi del miglior "performaces/watt" e poi lasciare all'utente finale la possibilità di pompare la vga sotto oc come più desiderava ance a costo di far scendere il rapporto.

Gyammy85
06-11-2017, 09:08
Però nelle review mettono sempre la air, la liquid va comunque di più...
Secondo voi al ces 2018 si saprà qualcosina su Navi?

Gyammy85
06-11-2017, 09:15
Si saprà questo:
https://images.anandtech.com/doci/11404/gpuroadmap.png

Vabbè ma diranno qualcosa di più specifico imho, in fondo dovrebbe uscire nel corso dell'anno prossimo...tra l'altro le frasi sotto indicano performance increase sotto navi, il che confermerebbe l'ipotesi che vega sia più un test un pò come r600

Gyammy85
06-11-2017, 10:32
Le voci sotto non riguardano Navi, riguardano la roadmap per intero. L'unica cosa che quelle quattro voci dicono su Navi è che il team di sviluppo di Navi non è quello di Vega (Leapfrogging Design Teams)

No, secondo me non diranno niente su Navi.

Non ho capito bene, cosa significa leapfrogging?

Gyammy85
06-11-2017, 11:23
Io la slide la interpreto come team nuovo, focus sui settori pro per vega, aumento performance con navi, memorie nextgen per dopo navi

The_SaN
06-11-2017, 11:29
quindi in sostanza è lo stesso concetto, avanzare tecnologicamente in tempi brevi come fa Intel da 10 anni con i suoi team...

No dai, l'Intel degli ultimi anni non è il miglior esempio :asd:

Scherzi a parte, il concetto è proprio quello.

Vul
06-11-2017, 11:33
No dai, l'Intel degli ultimi anni non è il miglior esempio :asd:

Scherzi a parte, il concetto è proprio quello.

Santo cielo, Intel è l'esempio peggiore :asd:.

Son stati praticamente fermi per 8 anni.

deadbeef
06-11-2017, 12:17
Di Vega se n'è occupato il team cinese di Shangai (ricordate la foto con raja?), di Navi probabilmente se ne occuperà (lo sta già facendo?) il team americano ad Austin e sarà forse un redesign, perchè alla fine della fiera vega è un gcn allargato per salire di frequenza

Free Gordon
06-11-2017, 12:38
Di Vega se n'è occupato il team cinese di Shangai (ricordate la foto con raja?), di Navi probabilmente se ne occuperà (lo sta già facendo?) il team americano ad Austin e sarà forse un redesign, perchè alla fine della fiera vega è un gcn allargato per salire di frequenza

Speriamo negli ammeregani và...

Catan
06-11-2017, 13:18
è dai tempi di ati che c'è sempre il doppio team, quello che lavora sulla "attuale generazione" e quello che lavora sulla prossima.
La cosa si era un pò confusa quando hanno iniziato a sviluppare le gpu per console, quindi uno dei team si beccava anche il lavoro extra sul soc.
Probabilmente chi sta lavorando su navi è il team che ha lavorato su fury. Visto ce in genere il team vega poi viene assegnato alle future "evoluzioni" dell'archidettura (quindi ottimizzazioni e/o versioni potenziate/depotenziate). Ovviamente poi c'è sempre qualche senior che segue i due progetti, sopratutto se le due archidetture sono simili.

deadbeef
06-11-2017, 13:26
Vega è cinese... adesso è tutto chiaro :asd:

e i driver sono sviluppati dal team indiano :O

Free Gordon
06-11-2017, 13:39
Vega è cinese... adesso è tutto chiaro :asd:

:rotfl:

The_SaN
06-11-2017, 14:04
Io ricordo che fino a un anno fa in IPC c'era praticamente il doppio di differenza tra amd e intel pur viaggiando alla stessa frequenza grossomodo grazie agli sforzi in anno in anno, ok grazie al silicio per lo più, adesso quasi nullo ma è comunque in vantaggio anche se non più nel perf/watt.

Ma più che avere grandi incrementi di IPC da parte di Intel, abbiamo avuto un decremento con AMD data la sua "particolare" architettura.
Dalla terza/quarta generazione abbiamo assistito a incrementi davvero minimi, dovuti perlopiù ai cambi di processo produttivo.
Difficile giustificare i cambi forzati di piattaforma, al netto degli aggiornamenti lato RAM...

deadbeef
06-11-2017, 14:15
cerchiamo di non fare come con l'altra roadmap :O di cui si è dissezionato ogni pixel per stimare la data di uscita

The_SaN
06-11-2017, 14:35
ma quale decremento? :stordita:
bulldozer era comunque migliore di stars a 360°, quasi per niente in alcune cose o rivoluzionario in altre, ma non sufficiente a tenere il passo di sandybridge.
Direi che è un discorso sviscerato a sufficienza, ormai ritrito e anacronistico :)


Mi riferisco all' IPC single thread, in multi thread bulldozer non era per niente male, quando ben supportato.

The_SaN
06-11-2017, 14:37
cerchiamo di non fare come con l'altra roadmap :O di cui si è dissezionato ogni pixel per stimare la data di uscita

No dai, era divertente :D
Roba da CSI, con ingrandimenti inverosimili e teorie della cospirazione.

Daytona
06-11-2017, 15:45
su 7 vega 64 a 470€ :cool:

Ale55andr0
06-11-2017, 20:41
non proprio su nuove gpu ma..quasi :D

http://www.hwupgrade.it/news/cpu/processori-intel-core-con-gpu-amd-vega-sullo-stesso-package-nel-2018_72184.html

molto interessante, fantastico già su una super apu con hbm o una nuova potentissima console (playstation 5? :sofico: )

Hadar
06-11-2017, 22:04
non proprio su nuove gpu ma..quasi :D

http://www.hwupgrade.it/news/cpu/processori-intel-core-con-gpu-amd-vega-sullo-stesso-package-nel-2018_72184.html

molto interessante, fantastico già su una super apu con hbm o una nuova potentissima console (playstation 5? :sofico: )Niente zen sulle prossime console quindi? A me sembrava ottima come CPU sulle future Console... Consumi bassissimi, potenza multicore da vendere (prestazioni dalle stalle alle stelle da Jaguar) + Vega..

Ale55andr0
07-11-2017, 11:26
Niente zen sulle prossime console quindi? A me sembrava ottima come CPU sulle future Console... Consumi bassissimi, potenza multicore da vendere (prestazioni dalle stalle alle stelle da Jaguar) + Vega..

perchè no, ipotizzavo solo che ora è più facile immaginare un sistema "promiscuo" :)

Per le prossime io comunque immagino cpu e gpu separata...prendi un 1700 liscio che già oggi consuma e scalda poco e nel peggiore dei casi sta a 3.2ghz all core, immaginalo a 7 nanometri a bassissimo vcore, quanto vuoi che sia impossibile ritrovarselo sula console e magari con 2 o 300 mhz in più? per allora una simile cpu, mostruosa per una console ma di fascia bassa su pc quanto vuoi che costi? ci aggiungi una navi a 7 nm da 12-13tflop (fra 3 anni che sarà, fascia media?) e hai una bestia di console se consideri quanto più a fondo si può sfruttare l'hardware. Per dire, io su pro con 4 "miserabili" tflop e una cpu tablet da 2.1ghz ho visto l'eredità perduta (dlc di uncharted) e in certi livelli rimanevo veramente basito dalla resa

Ale55andr0
07-11-2017, 11:28
Uno dei tanti motivi per cui hanno scelto le HBM

no vabè, le hbm su console non le immagno nemmeno fra anni, già oggi con la one x si hanno 12 giga e al prossimo gigo saranno minimo 16, i costi sarebbero esorbitanti e le gddr continuano a essere sviluppate e prodotte, più facile 16 o 24gb di gddr6 standard sempre unificate

Ma perché fai già sti voli pindarici su per altre delle console che non sono nemmeno argomento del thread, come le Apu Intel per altro :rolleyes:

Sono appena uscite ps4 Pro e xb X e pensi che le prossime console siano così vicine? ma non ha senso...
le prossime console saranno sui 7nm direttamente e quindi su probabilmente su Zen2 e Navi o next-gen ulteriore

si parla in generale visto che parliamo di implementazioni di futuri prodotti amd, poi le console ormai hanno cicli di vita brevi e ps 5 puo scommettere che esce entro dicembre 2020...e per l'appunto non è che i 7 nanometri sono ad eoni, qualche anno

Gyammy85
07-11-2017, 11:31
perchè no, ipotizzavo solo che ora è più facile immaginare un sistema "promiscuo" :)

Per le prossime io comunque immagino cpu e gpu separata...prendi un 1700 liscio che già oggi consuma e sclada poco e nel peggiore dei casi sta a 3.2ghz all core, immaginalo a 7 nanometri, quanto vuoi che sia impossibile ritrovarselo sula console magari con 2 o trecento mhz in più? e per allora una simile cpu, mostruosa per una console ma di fascia bassa su pc quanto vuoi che costi? ci aggiungi una navi a 7 nm da 12-13tflop (fra 3 anni che sarà, fascia media?) e hai una bestia di console se consideri quanto più a fondo si può sfruttare l'hardware. Per dire, io su pro con 4 "miserabili" tflop e una cpu tablet da 2.1ghz ho visto l'eredità perduta (dlc di uncharted) e in certi livelli rimanevo veramente basito dalla resa

Molto probabilmente sarà così, non hanno utilizzato zen+vega sulla x per motivi di tempistiche...
In effetti uncharted è davvero maestoso graficamente...