PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 [118] 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348

Ale55andr0
13-07-2016, 11:16
Aprima un thread "Gruppo supporto morale per Ale55andro" ? :D

Magari anche il "gruppo trollatori anonimi"
"Ciao sono gridracedriver e sono 2 giorni che non vado a trollare nel thread delle verdi" :asd:


allora invito ufficialmente frozen e spiderman, ah e paulguru :O

Nelson Muntz
13-07-2016, 11:21
Questa volta non comprerò Nvidia perché le schede hanno un problema sul DVI che per me è fondamentale,

info ? :mbe:

Nelson Muntz
13-07-2016, 11:22
e paulguru :O

e' stato bannato

Ale55andr0
13-07-2016, 11:23
e' stato bannato

giuuura, non giocare così con i miei sentimenti :eek:

Nelson Muntz
13-07-2016, 11:24
giuuura, non giocare così con i miei sentimenti :eek:

ha trollato una volta di troppo nelle news , proprio parlando male di amd

Ale55andr0
13-07-2016, 11:27
ha trollato una volta di troppo nelle news , proprio parlando male di amd

non è proprio da lui parlare male di amd in una news :fiufiu:


/OT

davo30
13-07-2016, 11:33
Aprima un thread "Gruppo supporto morale per Ale55andro" ? :D

Magari anche il "gruppo trollatori anonimi"
"Ciao sono gridracedriver e sono 2 giorni che non vado a trollare nel thread delle verdi" :asd:

Fatemi un fischio che vengo a darvi manforte (fino al ban :sofico: )

Nelson Muntz
13-07-2016, 11:37
Se imposti più di 79hz sul monitor, al riavvio schermo nero...

Quindi devi lasciarlo sempre sotto quella frequenza, ed impostarla ogni volta, stando attento a non dimenticarti di rimetterla apposto prima di spegnere o riavviare :D

Scherzi ? Ma e' un problema di driver ? o bios ?
Io ho una 970 con 'vecchio' schermo a 120 hz fullhd no freesynch no gsync , collegato in dvi . Se e' cosi' allora ulteriore freno al cambio con 1070 , che comunque non era nei piani a breve per via del costo .

scilvio
13-07-2016, 12:34
ma non è che trattasi di bug relativo alla mancanza della pixel clock patch ? è da quando ho il monitor in firma che sia con la 7870 prima fino all'attuale 1080 applico la patch ai driver per poter superare il limite dei 330MHZ sulla DL-DVI.

appena installata la scheda la prima cosa che ho fatto prima di settare i 120hz è stata quella di patchare i driver e fare un profilo con CRU.

Raven
13-07-2016, 12:38
Apriamo un thread "Gruppo supporto morale per Ale55andro" ? :D


... contate su di me! :O

Ale55andr0
13-07-2016, 13:20
speriamo che con l'uscita della 1060 amd tiri fuori qualcos'altro :fagiano:

Ale55andr0
13-07-2016, 13:35
Magari stanno già binnando e escono una 480@1500Mhz aka 485. Oppure no :fagiano:

Sarebbe la gigaèrzemezzoediscion

no no, qualcos'altro di diverso a livello di chip, non di clock, perchè suppongo sapessero che alla 480 nvidia avrebbe risposto in qualche modo, quindi magari (ripeto, magari eh) hanno una contromossa non rivelata. Ovviamente dovrebbe essere pianificata da prima, non possono tirare fuori un nuovo chip dal nulla, bisogna vedere se hanno avuto questa lungimiranza. Io continuo a rimuginare sulla 48cu di scorpio che in un certo senso è bella che progettata (anche se è una apu), chissà magari potrebbe avere una controparte desktop con gddr5x e 1300/1400mhz, ovviamente mio pippone mentale :fagiano:

Ale55andr0
13-07-2016, 13:35
https://lh5.googleusercontent.com/-Vh4vy_QmuXw/U6lLhm9R9_I/AAAAAAAAAcA/Vv7OlulYgGQ/w640-h480/gif-tafazzi.gif

non colgo, so troppo fine :O

ELGAMOTH
13-07-2016, 13:46
Ma quel discorso della 490 entro il 2016, visto nelle slide AMD?

Sparito tutto?

Ovviamente presupponendo che la 490 non sia Vega.

Ale55andr0
13-07-2016, 13:52
Ma quel discorso della 490 entro il 2016, visto nelle slide AMD?

Sparito tutto?

a quanto pare si. Comunque era un rumor scritto in qualche articolo, la slide è la stessa di sempre, è sempre stata decentrata sulla sinistra rispetto il 2017 ma non significa nulla, sarà astigmatico chi l'ha fatta

Ovviamente presupponendo che la 490 non sia Vega.

questo forse non lo sa nemmeno AMD :D

ormai ogni giorno digito "r9 490" su google ed escono sempre i rumors di quando la 480 non era nemmeno uscita :asd:

ELGAMOTH
13-07-2016, 13:56
A me sembra una scemenza che AMD proponga una 490 con 2 gpu polaris a bordo.
La 490 (sempre imho chiaro) sarà vega 10 e potrebbe anche uscire entro il 2016 (novembre-dicembre).
E sinceramente spero che avrà memorie gddrx5 e non hbm2, hbm2 solo per vega 11, ma questa è solo una mia speranza (speranza per amd e ale55and0 :asd:, a me non interessa come scheda)

No io parlavo della slide di AMD che se avevi comprato una certa GPU fino al 31/12/2016 ti davano qualcosa (ricordarsi cosa) e tra le GPU c'era anche la 490.

Vedo se trovo la slide.
Questa:

http://www.overclock.net/content/type/61/id/2823561/width/700/height/1000/flags/LL

Ale55andr0
13-07-2016, 13:57
A me sembra una scemenza che AMD proponga una 490 con 2 gpu polaris a bordo.

togli pure il sembra..comunque non penso proprio che ci stiano pensando, credibilità 0 su quel fronte, non mi ci spippolerei in merito

La 490 (sempre imho chiaro) sarà vega 10 e potrebbe anche uscire entro il 2016 (novembre-dicembre).

boh, ma pare che AMD abbia confermato 2017 per vega (il bello è che mica vuol dire 01/01/2017 :asd: ), ma io di fatto non ho letto nulla su tale affermazione

E sinceramente spero che avrà memorie gddrx5 e non hbm2, hbm2 solo per vega 11, ma questa è solo una mia speranza (speranza per amd e ale55and0 :asd:, a me non interessa come scheda)

:asd:

beh, non credo sia così, perchè altrimenti potevano tirarla fuori molto prima del 2017 e con un prezzo sicuramente più basso di una hbm2 rompendo le palle alla 1070, ma sarebbe stato troppo furbo, meglio fare come il tafazzi la', ma non io, AMD :asd:

Lanzus
13-07-2016, 14:49
A me sembra una scemenza che AMD proponga una 490 con 2 gpu polaris a bordo.
La 490 (sempre imho chiaro) sarà vega 10 e potrebbe anche uscire entro il 2016 (novembre-dicembre).
E sinceramente spero che avrà memorie gddrx5 e non hbm2, hbm2 solo per vega 11, ma questa è solo una mia speranza (speranza per amd e ale55and0 :asd:, a me non interessa come scheda)

Come era una scemenza presentare nel 2016 una fascia media che performa come una fascia performance di 2 anni fa ... eppure. :rolleyes:

Spero veramente non si azzardino a presentare una dual in fascia 490, oltre a essere rischiosissimo (CS altalenante e DX12 ancora in alto mare) sarebbe un ulteriore colpo all'immagine aziendale di AMD: per pareggiare il chip piccolo dei concorrenti è costretta ad addirittura a fare a commercializzare una soluzione dual gpu ... :rolleyes:.

Lanzus
13-07-2016, 15:08
Non è una scemenza, è esattamente quello che succede quando si cambia il processo produttivo. Da sempre. E infatti nVidia farà la stessa identica cosa con la 1060. Che sorpresona, eh?


Sent from Tapatalk

Mi fixo da solo

Come era una scemenza presentare nel 2016 SOLO una fascia media che performa come una fascia performance di 2 anni fa ... eppure.


Nvidia andrà a coprire tutte le fasce di mercato con la 1060. Ad AMD mancano le schede in diretta competizione della 1070 e 1080 e non si prospettano nuove uscite quest'anno ...

La 1060 tra l'altro DOVREBBE performare piu' di una 980 ... staremo a vedere. La situazione di AMD se la concorrente dovesse performare come previsto non è delle piu' rosee...

Sarebbe una dual di chip minuscolo però.
Si collocherebbe subito sotto la 1080 che è si i chippino visto che il chippone sarà 1080ti, ma la 480 è un chip ancora più piccolo.
Certo capisco che molti non lo capirebbero o farebbero finta di non capirlo per trollare, però non ci sarebbe niente di male.

Chiaramente non ha comunque senso perchè non tutti i giochi scalano, a meno che amd non faccia una magia che rende il cf trasparente per i giochi facendo credere che è una gpu sola più cicciona.

Questa sarebbe una vera rivoluzione e solo in quel caso una soluzione doppia GPU sarebbe preferibile ad un singolo chip ...

street
13-07-2016, 15:09
No io parlavo della slide di AMD che se avevi comprato una certa GPU fino al 31/12/2016 ti davano qualcosa (ricordarsi cosa) e tra le GPU c'era anche la 490.

Vedo se trovo la slide.
Questa:

http://www.overclock.net/content/type/61/id/2823561/width/700/height/1000/flags/LL

giochi gratis con l'acquisto di una di quelle schede, è la promozione ex-neversettle forever

Gigibian
13-07-2016, 15:24
si ma se lo piazzano a un prezzo folle (le hbm 2 costano e sono 8gb...basti pensare alla fury x 4gb...), uscendo molto dopo la rivale, e con un buco nero (giusto per restare in tema :O ) fra questa e la 480 non hanno combinato proprio nulla.

E basta! :muro:

Cioè fammi capire: tu ti sei rivenduto la 290X PRIMA che uscisse pascal (1070/1080) e PRIMA che uscire polaris (480). Senza conoscere eventuali perfomance o prezzi.

Poi ti lamenti che la 1070 costa troppo (costa 100 euro meno della 980Ti e va un 10% in più , costa 200 euro meno della fury X e va il 20% di più ) ed allo stesso tempo ti lamenti che la 480 va troppo poco (costa come una 970 e va un po' di più ).

Si può sapere dove sta il problema? volevi una 1070 a 300 euro o una 480 che superava la 980 a 199 euro ? Bah.

Adesso mi rivendo la mia FIAT 500, perchè MI ASPETTO che domani la ferrari lanci il nuovo modello da 1000 cavalli a 10.000 euro...

aspetta e spera...:muro: :muro:

fraussantin
13-07-2016, 15:27
Come era una scemenza presentare nel 2016 una fascia media che performa come una fascia performance di 2 anni fa ... eppure. :rolleyes:



Il problema è che costa( eccetto particolari offerte ) quasi come la performante di 2 anni fa.

OvErClOck82
13-07-2016, 15:29
Il problema è che costa( eccetto particolari offerte ) quasi come la performante di 2 anni fa.



Mah due anni fa i prezzi erano ben più alti per le 970/980.


Inviato dal mio iPhone utilizzando Tapatalk

Ale55andr0
13-07-2016, 15:33
Come era una scemenza presentare nel 2016 una fascia media che performa come una fascia performance di 2 anni fa ... eppure. :rolleyes:
.


no vabè, quello in se' è normale, è l fatto di aver presentato quello e basta, promuvendolo pure come una sorta di svolta di non so quale tipo ( :doh: ) e lasciando presagire addirittura almeno 6 mesi di vuoto prima di vedere una fascia alta, che è assurdamente ridicolo :muro:

Ale55andr0
13-07-2016, 15:35
ero finta di non capirlo per trollare, però non ci sarebbe niente di male.



sarebbe IL male, ma scherzi? compri una fascia alta con due chippetti in cross che vanno un gioco si e uno no, che coi vecchi titoli ancor meno ecc...non ditele nemmeno per scherzare ste cose, che il demonio vi sente :read:

Mi fixo da solo

Come era una scemenza presentare nel 2016 SOLO una fascia media che performa come una fascia performance di 2 anni fa ... eppure.




this

E basta! :muro:

/cut

Si può sapere dove sta il problema? volevi una 1070 a 300 euro o una 480 che superava la 980 a 199 euro ? Bah.

:

l'ho spiegato 10 volte, se ciononostante non hai capito (è evidente stante quello che hai scritto) è un tuo problema e, per il resto, non sono affari tuoi

Lanzus
13-07-2016, 15:36
srebbe IL male, ma scherzi? compri una fascia alta con due chippetti in cross che vanno un gioco si e uno no, che oci vecchi titoli ancor meno ecc...non ditele nemmeno per scherzare ste cose, che spider-mans vi sente :read:

FTFY :asd:

Gigibian
13-07-2016, 15:42
sarebbe IL male, ma scherzi? compri una fascia alta con due chippetti in cross che vanno un gioco si e uno no, che coi vecchi titoli ancor meno ecc...non ditele nemmeno per scherzare ste cose, che il demonio vi sente :read:




this



l'ho spiegato 10 volte, se non hai capito (è evidente stante quello che hai scritto) è un tuo problema e per il resto, non sono affari tuoi

Problema? :asd: sisi proprio un problemone. :asd:

Non sono affari miei? :rotfl: :rotfl: :rotfl:
Ma se è un mese che ogni 3 post ne spunta fuori uno tuo che ti lamenti di nvidia come di amd...sei TU che l'hai fatto diventare affare mio (e di tutti i frequestatori di questi topic) sbandierando ai 4 venti e ripetendo sempre le stesse cose :asd:

Se era una cosa "privata" evita di scriverla nel forum, o perlomeno poi non ti lamentare se ricevi una considerazione su uno o più post che sottometti!:rolleyes:

Lanzus
13-07-2016, 15:44
Mah due anni fa i prezzi erano ben più alti per le 970/980.


Inviato dal mio iPhone utilizzando Tapatalk

La 970 non era uscita a 350 euro ?

fraussantin
13-07-2016, 15:46
Mah due anni fa i prezzi erano ben più alti per le 970/980.


Inviato dal mio iPhone utilizzando Tapatalk
La 980 si.

La 970 sui 320 se non ricordo male.

L'ho pagata io la msi 330 ma dopo i rincari del dollaro.

Se poi li paragoni alla serie x60 o amd x80 ...

Parlo di prezzi in store normali ( amazon , e affini ) non quegli importatori strani che ti fanno risparmiare 15 euro e poi di abbandonano un balia delle onde.

Catan
13-07-2016, 15:54
Facciamo un riassunto:

Vuoi una scheda che
- Vada come la parte bassa della fascia performance
- Costi come la parte alta della fascia mainstream
- Duri 4 anni che non vuoi rimettere le mani al pc

Se "duri 4 anni" vuol dire "mantenendo quel livello di performance" (cioè fascia performance) non esiste nessuna scheda che faccia 60FPS su un gioco uscito oggi e ne faccia 60 su un gioco uscito nel 2020, è una richiesta che ovviamente non ha senso.

Se "duri 4 anni" vuol dire "la compro oggi e pian piano scendo a compromessi per farmela durare" ha più senso comprare in fascia media e ricomprare in fascia media più avanti che comprare la fascia alta all'inizio: spendi uguale e hai garanzia e performance costanti nel tempo, oltre ad eventuali features che vengano fuori (per esempio vulkan, o DX12 o quel che è).

TL;DR: Se vuoi comprare ogni 4 anni il tuo segmento di mercato è il mainstream, visto che intendi scendere a compromessi nel tempo, quindi tanto vale farsene una ragione e prendere una scheda adeguata oggi e invece di aspettare quattro anni ne aspetti due per cambiarla. Oppure fra due anni hai cambiato hobby e ti continua a bastare quella e ritardi di un altro anno prima di cambiare. Quindi aspetta la 1060 e poi decidi cosa vuoi, IMAO.

Io ultimamente mi sto orientando su questo tipo di mercato (complice altre passioni che succhiano danari più di questa), vga della fascia 200-300€, tenerle 2 anni poi smollarle ad un 100€ e prendersi la nuova top della fascia media sempre spendendo nell'intorno di 250€

ELGAMOTH
13-07-2016, 15:54
Sempre i soliti discorsi :D :D
A quanto stava il cambio euro/dollaro 2 anni fa?

:mc: :mc: :mc:

boboviz
13-07-2016, 16:28
Cio cambia na mazza nel fatto che amd teccniamente è bella che dietro e che co sto gcn s'è portata appresso le magagne storiche e che sta in ritardo mostruoso

Al di là del linguaggio che utilizzi ad ogni piè sospinto, manda il tuo cv alla AMD, son sempre alla ricerca di ingegneri validi.

The_SaN
13-07-2016, 16:30
Fatemi un fischio che vengo a darvi manforte (fino al ban :sofico: )

Davo devi cambiare Avatar!



4GB means 8GB :O

Vul
13-07-2016, 16:42
se la 490 esce fra 6 mesi con hbm2 e va come la 1070 sarà un fail non c'è dubbio

Stai delirando, dipende tutto dal prezzo.

In ogni caso qualsiasi cosa lancino che vada come una 1070 e costi più di 400 euro fra sei mesi è un fail in ritardo di default, è inutile dirlo.

Quindi, non ha senso ciò che dici senza sapere il prezzo.

Vul
13-07-2016, 16:44
Se la 480 Nitro sta a 300, come è credibile (forse meno, considerando che la reference sta a 250), e la 1070 a 450 (considerando non una reference ma sempre una dual fan tipo la Nitro) i prezzi sono perfettamente allineati: +50% di prestazioni per +50% del prezzo.



La differenza è 44 %, non 50, differenza destinata a diminuire con il tempo e la maggiore diffusione di titoli vulkan e dx 12 (senza dimenticare quanto nvidia pecchi da 6-7 anni di supporto per i propri titoli più vecchi).

Ah, la 1070 non è che salga molto, quindi toccherebbe anche vedere l'occabilità della 480 e paragonarla a quella della 1070.

Vul
13-07-2016, 17:21
si ma stai tranquillo :D
quanto pensi possa costare una gpu del genere con hbm2, sentiamo?

lato tecnico invece ho già detto più volte che le soluzioni sono 2: o riprendere P10 xt +50% con 3456sp/64rops/6raster a ~1.2ghz o fare qualcosa di diverso con P10 pro x2 con 4096sp/64rops/8raster sempre a ~1.2ghz

nel primo caso vai come la 1070, nel secondo caso come la 1080...
magari poi si scoprirà che Vega sarà in due varianti proprio così
V10 xt 4096sp/64rops/8raster
V10pro 3456sp/64rops/8raster

con hbm2, ma vai come il gp104 uscitò 6 mesi prima almeno e a che prezzo?

Non avrebbe senso lanciare una gpu sovraprezzata che va come o meno la concorrenza. Forse l'unica eccezione in casa amd in questo senso è stata la fury, e visto il (non) successo di questa non avrebbe senso ripetere l'errore.

mikael84
13-07-2016, 17:49
si ma stai tranquillo :D
quanto pensi possa costare una gpu del genere con hbm2, sentiamo?

lato tecnico invece ho già detto più volte che le soluzioni sono 2: o riprendere P10 xt +50% con 3456sp/64rops/6raster a ~1.2ghz o fare qualcosa di diverso con P10 pro x2 con 4096sp/64rops/8raster sempre a ~1.2ghz

nel primo caso vai come la 1070, nel secondo caso come la 1080...
magari poi si scoprirà che Vega sarà in due varianti proprio così
V10 xt 4096sp/64rops/8raster
V10pro 3456sp/64rops/8raster

con hbm2, ma vai come il gp104 uscitò 6 mesi prima almeno e a che prezzo?

3584 ST dovrebbe essere il rapporto ideale per combattere la 1070, il problema sta a non sbilanciarlo troppo.
Dovresti fare 3584 /6 raster e ben 96 rop's. in virtù dell'ampiezza HBM.
Con 4 e 64 fai fury 2,0
Con 6 e 48 rop's, le HBM le puoi buttare o quasi, troppa ampiezza per nulla.:)

Ren
13-07-2016, 17:59
OMG siamo tornati a rx 480 vs gtx 970!
E bastaaaaa!!!

Vega che è già sovraprezzato.
Ancora non si sa un ciufolo, non è stato presentato, non si sa che memoria monta, non si sa niente di niente se non che si chiama vega 10 e si vocifera di un vega 11 non confermato.
Ma è già un fail sovraprezzato. :muro:

Richiudetelo sto thread.

Stai sereno che monta le HBM2. Servono per abbattere i consumi, inoltre le amd sono affamate di BW.

Se ne faranno due varianti di certo non usciranno insieme. (aspetta e spera)

L'ipotesi più ottimistica è un chip da circa 400-450mm2 con HBM2 2048bit con prestazioni superiori alla 1080 nella variante Top.

Consumi da almeno 225w.

Ren
13-07-2016, 18:03
3584 ST dovrebbe essere il rapporto ideale per combattere la 1070, il problema sta a non sbilanciarlo troppo.
Dovresti fare 3584 /6 raster e ben 96 rop's. in virtù dell'ampiezza HBM.
Con 4 e 64 fai fury 2,0
Con 6 e 48 rop's, le HBM le puoi buttare o quasi, troppa ampiezza per nulla.:)

A questo punto manterranno le 64rops, tanto sono RBGA16 fullrate (sono bw limited con quel formato). Ormai si son fissati con le rops 64bit.:doh:

Se non sono idioti aumenteranno i geo engine ad almeno 6

mikael84
13-07-2016, 18:11
Stai sereno che monta le HBM2. Servono per abbattere i consumi, inoltre le amd sono affamate di BW.

Se ne faranno due varianti di certo non usciranno insieme. (aspetta e spera)

L'ipotesi più ottimistica è un chip da circa 400-450mm2 con HBM2 2048bit con prestazioni superiori alla 1080 nella variante Top.

Consumi da almeno 225w.

Quoto tutto, uguale alle mie ipotesi.
Ora va solo bilanciato al meglio.

Se qualcuno possiede già una 480 tramite hwinfo si possono vedere i consumi delle nuove samsung. Gli spiego come fare.

Ren
13-07-2016, 18:16
Quoto tutto, uguale alle mie ipotesi.
Ora va solo bilanciato al meglio.

Se qualcuno possiede già una 480 tramite hwinfo si possono vedere i consumi delle nuove samsung. Gli spiego come fare.

Raddoppiare o quasi le performance della 480 con 230mm2 di partenza non è nulla di complicato, ma amd spesso si incarta da sola...:p

Probabilmente (per logica) consumano quanto le vecchie 7gbps/4gigabit.

Sono interessato di più alle GDDR5X:( , dato che montano il nuovo prefetch16 con latenze molto più rilassate...

mikael84
13-07-2016, 18:26
Raddoppiare o quasi le performance della 480 con 230mm2 di partenza non è nulla di complicato, ma amd spesso si incarta da sola...:p

Probabilmente (per logica) consumano quanto le vecchie 7gbps/4gigabit.

Sono interessato di più alle GDDR5X:( , dato che montano il nuovo prefetch16 con latenze molto più rilassate...

Infatti, il problema è cercare di bilanciarlo il possibile, non essendo scalabile come nvidia. Con Nvidia carichi un GPC ed hai tutto compreso il P.E. ogni 128 elementi.

Per le ddr5x 16n/64bit dovrai aspettare a qualche rebrand P10 AMD (il tuo avatar non aiuta):p
Con Nvidia non lo vedi, salvo che qualche testata le testi apposta ma è difficile.
Le multifase, hanno più controlli come la commutazione, il FBVDD ma non mi pare rilevino i consumi delle ram.:(

Vul
13-07-2016, 18:37
La 980 si.

La 970 sui 320 se non ricordo male.

L'ho pagata io la msi 330 ma dopo i rincari del dollaro.

Se poi li paragoni alla serie x60 o amd x80 ...

Parlo di prezzi in store normali ( amazon , e affini ) non quegli importatori strani che ti fanno risparmiare 15 euro e poi di abbandonano un balia delle onde.

Le prime settimane non si trovava nessuna 970 sotto i 390 in negozi affidabili e parlo delle referencette.

Ren
13-07-2016, 18:39
Infatti, il problema è cercare di bilanciarlo il possibile(

L'approccio al problem solving di AMD purtroppo ormai è noto...:sofico:

Hai un command processor che fa defecare ?
Noi aspettiamo le dx12.:O

Hai un geometry engine che non basta ?
Noi aspettiamo gli ACE.:gluglu:

Hai delle Rops con standard colore inutili ?
Noi aspettiamo i nuovi engine....:O

http://oubliettemagazine.com/wp-content/uploads/Se-la-montagna-non-viene-a-Maometto-allora-Maometto-va-alla-montagna.jpg

fraussantin
13-07-2016, 18:40
Le prime settimane non si trovava nessuna 970 sotto i 390 in negozi affidabili e parlo delle referencette.
Allora esistono le reference della 970 ?


Ho cercato un po di news e parlano di 335 euro e 570 ( 970 980)

Reference. Iva inclusa . Poi le reference della 970 non credo siano mai arrivate da noi.

FroZen
13-07-2016, 19:27
L'approccio al problem solving di AMD purtroppo ormai è noto...:sofico:

Hai un command processor che fa defecare ?
Noi aspettiamo le dx12.:O

Hai un geometry engine che non basta ?
Noi aspettiamo gli ACE.:gluglu:

Hai delle Rops con standard colore inutili ?
Noi aspettiamo i nuovi engine....:O

http://oubliettemagazine.com/wp-content/uploads/Se-la-montagna-non-viene-a-Maometto-allora-Maometto-va-alla-montagna.jpg

Bhe i player modificano l'industria attorno a loro, nvidia è sempre stata maestra in questo, ma gli ultimi annetti danno invece ragione a quei quattro pirla alla amd

O sbaglio?

Ren
13-07-2016, 19:45
Bhe i player modificano l'industria attorno a loro, nvidia è sempre stata maestra in questo, ma gli ultimi annetti danno invece ragione a quei quattro pirla alla amd

O sbaglio?

Non è questione di aver ragione. L'approccio AMD è "relativamente" vincente in un hardware chiuso come quello console.
Nel settore PC discrete se aspetti che gli altri ti risolvono il problema perdi quote di mercato & goodnight...

Nvidia invece di aspettare ha migliorato command processor e bilanciamento con dollari fumanti in R&D. Nulla cade dal cielo...

deadbeef
13-07-2016, 20:02
Se le premesse sono quelle viste con Doom in versione Vulkan, magari a stò giro AMD passa dalla ka$$a a riscuotere

Ren
13-07-2016, 20:08
Se le premesse sono quelle viste con Doom in versione Vulkan, magari a stò giro AMD passa dalla ka$$a a riscuotere

Hanno perso solo 2-3anni:mad: per "qualche" titolo ottimizzato.

Nell'attesa nvidia si è ripagata l'architettura nuova fiammante che non ha bisogno di grandi ottimizzazioni, inoltre consuma molto meno.

Quella che passa dalla cassa è nvidia che ci spenna con i suoi cippetti da 300mm2...:muro:

deadbeef
13-07-2016, 20:18
la ka$$a nvidia ce l'ha integrata :D

Ren
13-07-2016, 20:20
la ka$$a nvidia ce l'ha integrata :D

Sarà il verde che porta bene:p , invece del conto in rosso...:muro:

Ale55andr0
13-07-2016, 21:05
Quella che passa dalla cassa è nvidia che ci spenna con i suoi cippetti da 300mm2...:muro:


ci spenna solo se le porgiamo la coda...

FroZen
13-07-2016, 21:23
Non è questione di aver ragione. L'approccio AMD è "relativamente" vincente in un hardware chiuso come quello console.
Nel settore PC discrete se aspetti che gli altri ti risolvono il problema perdi quote di mercato & goodnight...

Nvidia invece di aspettare ha migliorato command processor e bilanciamento con dollari fumanti in R&D. Nulla cade dal cielo...

Da qui al 2018 fino a che non arriva volta probabile che li riprenda quei due tre anni persi...il solco è tracciato...altro che due o tre titoli, qualcuno si mangerà le mani gia con bf1

Consumi...siamo ancora a parlare di 20 30 50w di picco come la differenza fra la vita e la morte? Maddai su....

Potete farmi vedere che pascal fa il doppio dei triangoli che manco renato zero ai tempi d'oro o la uber tessellazione maxwell...salvo poi vedere che in situazioni reali non è mai ampimente utilizzato se non in bench sintetici o che su tw3 l'hw off ce lo avevano anche possessori di maxwell....insomma, non guardiamo solo a una parte dell'insieme altrimenti la fury x coi suoi millemila tflops sarebbe la regina e invece...

Hadar
13-07-2016, 21:29
Da qui al 2018 fino a che non arriva volta probabile che li riprenda quei due tre anni persi...il solco è tracciato...altro che due o tre titoli, qualcuno si mangerà le mani gia con bf1

Consumi...siamo ancora a parlare di 20 30 50w di picco come la differenza fra la vita e la morte? Maddai su....

Potete farmi vedere che pascal fa il doppio dei triangoli che manco renato zero ai tempi d'oro o la uber tessellazione maxwell...salvo poi vedere che in situazioni reali non è mai ampimente utilizzato se non in bench sintetici o che su tw3 l'hw off ce lo avevano anche possessori di maxwell....insomma, non guardiamo solo a una parte dell'insieme altrimenti la fury x coi suoi millemila tflops sarebbe la regina e invece...

LOL:sbonk:

Ren
13-07-2016, 21:36
Da qui al 2018 fino a che non arriva volta probabile che li riprenda quei due tre anni persi...il solco è tracciato...altro che due o tre titoli, qualcuno si mangerà le mani gia con bf1

Consumi...siamo ancora a parlare di 20 30 50w di picco come la differenza fra la vita e la morte? Maddai su....

I miliardi di fatturano bruciati(mai incassati) tornano indietro dal solco? :sofico:

I watt contano nel settore notebook e custom, altri miliardi che volano. :muro:

Devi usare le HBM2 in fascia alta aumentando i costi(=meno margine profitto), altrimenti ciaone con i watt.

Con le ottimizzazioni al massimo vai pari/poco più con i nuovi modelli nvidia. Sempre se qualche pigrone(sovvenzionato) non si "scorda" ;) di ottimizzare.

AMD per competere dovrà accontentarsi come al solito delle briciole in termini di profitto. (sempre meno soldi per fare ricerca) :cry:

FroZen
13-07-2016, 22:00
P10 cloccato e con voltaggi giusti è efficiente eccome tranquillo, apple su tutti ne userà un botto e altri arriveranno....io la vedo rosea, se ha superato il 2012 e il 2014 amd è tutto fuorché fuori dai giochi

Certo, zen deve convincere se no la vedo dura davvero e ci rimarranno giusto gli arm

Hbm2 o no ragionandola da utente ben venga, da azionista bho vedremo

Ren
13-07-2016, 22:17
P10 cloccato e con voltaggi giusti è efficiente eccome tranquillo, apple su tutti ne userà un botto e altri arriveranno....io la vedo rosea, se ha superato il 2012 e il 2014 amd è tutto fuorché fuori dai giochi

Certo, zen deve convincere se no la vedo dura davvero e ci rimarranno giusto gli arm

Hbm2 o no ragionandola da utente ben venga, da azionista bho vedremo

Vedo che non hai visto i clock di pascal 0.8v...:sofico:

Praticamente hanno cloccato a bestia, infischiandosene del efficienza perché tanto non c'è trippa per gatti.:muro:

Gli bastano cippetti overcloccati per battere amd, quindi massimizzano il profitto...:doh:

FroZen
13-07-2016, 22:26
Vedo che non hai visto i clock di pascal 0.8v...:sofico:

Praticamente hanno cloccato a bestia, infischiandosene del efficienza perché tanto non c'è trippa per gatti.:muro:

Gli bastano cippetti overcloccati per battere amd, quindi massimizzano il profitto...:doh:


http://www.overclock.net/content/type/61/id/2827828/

Questo è il solco

Ma poi non capisco una cosa...nvidia e amd vendono le gpu agli aib....noi sappiamo l'msrp che è il prezzo che l'aib dovrebbe tenere e non sappiamo il prezzo che nvidia o amd fanno al aib...percui che una vga costi 1 o 1000 la differenza la fa quante ne vendi e quale ricarico hai sul prezzo che fai all'aib...le kingpin da 1050€ ci guadagna solo evga non nvidia che gli ha venduto la gpu al "solito" prezzo

Ale55andr0
13-07-2016, 22:29
Vedo che non hai visto i clock di pascal 0.8v...:sofico:

Praticamente hanno cloccato a bestia, infischiandosene del efficienza perché tanto non c'è trippa per gatti.:muro:


..nel senso che anche tirate così so efficienti :fagiano:

Gli bastano cippetti overcloccati per battere amd, quindi massimizzano il profitto...:doh:

this, ma credo ormai lo abbiano cpaito tutti. Loro vendono chippetti a peso d'oro e gli utenti li riempiono di soldi..come se uno spendesse 100mila euro per un'auto da 1400cc 4 cilindri mappata alla morte e con una turbina da record e tutto felice perchè tanto "va forte" quando invece a quelle folli somme potrebbe avere un v8 da 5000cc che è ben altra sostanza e con margine inespresso.
...Amd in compenso ha deciso di lasciarci per tutto il 2016 col tre cilindri 1000cc per fare la rebellion :asd:

Ren
13-07-2016, 22:32
Questo è il solco



http://gamegpu.com/images/stories/Test_GPU/Action/DOOM/test/vulkan/doom_2560_v.jpg

Qui il solco è meno esagerato sulle fury vs 1070.

Ren
13-07-2016, 22:33
..nel senso che anche tirate così so efficienti :fagiano:



this, ma credo ormai lo abbiano cpaito tutti. Loro vendono chippetti a peso d'oro e gli utenti li riempiono di soldi..come se uno spendesse 100mila euro per un'auto da 1400cc 4 cilindri mappata alla morte e con una turbina da record e tutto felice perchè tanto "va forte" quando invece a quelle folli somme potrebbe avere un v8 da 5000cc che è ben altra sostanza e con margine inespresso.
...Amd in compenso ha deciso di lasciarci per tutto il 2016 col tre cilindri 1000cc per fare la rebellion :asd:

Metti pure il telaio zavorrato che aumenta i consumi.

Ale55andr0
13-07-2016, 22:35
http://gamegpu.com/images/stories/Test_GPU/Action/DOOM/test/vulkan/doom_2560_v.jpg

Qui il solco è meno esagerato.

chi avrà ragione? facendo i salomone di turno si eslcudono entrambi i risultati più alti e più bassi di una rece e si va di media...resterebbe un bel boost...io con mantle in thief guadagnavo un 20%...e sui minimi...
il punto è vulkan (derivato di mantle)=open GL...se sarà "diffuso" come open GL ce lo battiamo nella schiena....

FroZen
13-07-2016, 22:38
chi avrà ragione? facendo i salomone di turno si eslcudono entrambi i risultati più alti e più bassi di una rece e si va di media...resterebbe un bel boost...io con mantle in thief guadagnavo un 20%...e sui minimi...
il punto è vulkan (derivato di mantle)=open GL...se sarà "diffuso" come open GL ce lo battiamo nella schiena....

Linux

Una distro per gioco tra poco sarà tempo di spararcela sul ssd

skadex
13-07-2016, 22:39
Mi piace l'uniformità di tutti i grafici postati: solo limitandoci agli ultimi due la 480 ha oltre il 10% di oscillazione (da 79 a 71), la 980ti lo stesso (da 85,1 a 93), mentre la 970 passa in opengl da 61 a 50 ma riamumenta a 60 con vulkan lì dove invece nell'altro test perde 1,1 frames.
E' evidente che qualcuno di questi test fornisce risultati discutibili viste le oscillazioni molto ampie.

s12a
13-07-2016, 22:42
Qui il solco è meno esagerato sulle fury vs 1070.

Quale antialiasing hanno usato? L'Async Compute per il momento funziona (solo su AMD) in Doom+Vulkan solo se è disabilitato od impostato a TSSAA.

https://twitter.com/idSoftwareTiago/status/752590016988082180

FroZen
13-07-2016, 22:44
Mi piace l'uniformità di tutti i grafici postati: solo limitandoci agli ultimi due la 480 ha oltre il 10% di oscillazione (da 79 a 71), la 980ti lo stesso (da 85,1 a 93), mentre la 970 passa in opengl da 61 a 50 ma riamumenta a 60 con vulkan lì dove invece nell'altro test perde 1,1 frames.
E' evidente che qualcuno di questi test fornisce risultati discutibili viste le oscillazioni molto ampie.

Bhe se doom non ha bench integrato è facile che sia un percorso fatto a mano con tutte le variabili del caso (o come su tr che aveva effetti atmosferici random che cambiavano)

Ale55andr0
13-07-2016, 22:46
Quale antialiasing hanno usato? L'Async Compute per il momento funziona (solo su AMD) in Doom+Vulkan solo se è disabilitato od impostato a TSSAA.

https://twitter.com/idSoftwareTiago/status/752590016988082180


eeeeehhhh ditelo prima allora, che lo confrontiamo a fare vulkan in doom
4 su una rossa e su una verde se la seconda non lo sfrutta? :asd:

Ren
13-07-2016, 22:49
eeeeehhhh ditelo prima allora, che lo confrontiamo a fare vulkan in doom
4 su una rossa e su una verde se la seconda non lo sfrutta? :asd:

cmq almeno si risparmia sulla cpu.:p

http://gamegpu.com/images/stories/Test_GPU/Action/DOOM/test/vulkan/doom_proz_v.jpg

Puoi montare una cpu barbona su una 1080:sofico:

Nvidia con una cpu veloce non ha grandi colli di bottiglia.

egounix
13-07-2016, 23:12
#vivaimuletticoncpubarboneevuggiavelocisenzacollidibottigliaesenzabicchieridialcole

geb95
14-07-2016, 01:53
cmq almeno si risparmia sulla cpu.:p

http://gamegpu.com/images/stories/Test_GPU/Action/DOOM/test/vulkan/doom_proz_v.jpg

Puoi montare una cpu barbona su una 1080:sofico:

Nvidia con una cpu veloce non ha grandi colli di bottiglia.
Secondo voi con uma 1060 sarei meno cpu limited che con una 480?

Ho un I5 3450


Inviato dal mio P8 Lite utilizzando Tapatalk

J9AnGe
14-07-2016, 06:55
Ma osservando il grafico di DOOM con vulkan dove la amd con questa api ha una resa nettamente migliore che in openGL , quello che volevo chiedere e' come mai l'architettura amd e' cosi' penalizzata in openGL ?

s12a
14-07-2016, 07:35
OGL : Vulkan = DX11 : DX12

Con il set di istruzioni "AZDO (https://developer.nvidia.com/opengl-vulkan)" introdotto nelle OpenGL 4.5 in realtà si riuscirebbe ad avere un accesso con ridotto overhead alla GPU quasi al livello di Vulkan. Mi sembra che Doom usi OpenGL 4.3 per AMD ed OpenGL 4.5 per NVidia, ma:

1) In realtà il supporto completo ad una certa versione OpenGL non è limitante se le istruzioni necessarie presenti in versioni superiori sono di fatto supportate;
2) Non è chiaro se Doom di fatto usi il set di istruzioni precedentemente menzionate.

Tuttavia è vero anche che il supporto OpenGL su AMD non è mai stato eccelso, questo si vede particolarmente su Linux con i driver proprietari di ambo i produttori.

Lan_Di
14-07-2016, 11:40
eeeeehhhh ditelo prima allora, che lo confrontiamo a fare vulkan in doom
4 su una rossa e su una verde se la seconda non lo sfrutta? :asd:

ma come mai non lo sfrutta?

Antimo96
14-07-2016, 11:49
certo che se i giochi dx 12 e vulkan,dovessero aumentare in modo sensibile,per nvidia la vedo dura.Anche in rise of the tomb raider,con la nuova patch,la fury x recupera la 980 ti,in un gioco gameworks.
Considerando neo e scorpio poi,è altamente possibile che vulkan e dx 12 prendano piede in breve tempo.
Per ora ci sono bf1,watch dogs 2,i titoli microsoft(va beh,tranne forza ottimizzati male),deus ex e civilization 6,non poca roba insomma.

Gigibian
14-07-2016, 12:24
Forse mi sono perso qualcosa...
Per chi ha una NVIDIA, quale è il senso di patchare il gioco in DX12 ?
Non mi pare ci siano miglioramenti grafici...si perdono solo FPS...e spesso anche con AMD è lo stesso (AOS a parte che non fa testo )

http://www.hwupgrade.it/articoli/skvideo/4676/tr_2560.png

http://www.hwupgrade.it/articoli/skvideo/4676/hitman_3840.png

Inoltre questo grafico che segue dimostra quanto AOS sia volutamente programmato a cavolo in DX11, per mostrare quanto sono fighe le DX12, tant'è che la 1070 e la 1080 in DX11 vanno uguale, e la fury X in Dx11 va come una 960...

http://www.hwupgrade.it/articoli/skvideo/4676/ashes_2.png

Raven
14-07-2016, 12:26
Ok... Se davvero prenderanno piede ste nuove api, allora alla prossima generazione di schede anche nvidia si rimetterà in carreggiata (supporto vulkan ad hoc, ACE hardware, etc...) e via così... :O
(do sicuro l'attuale pascal, pur nella sua potenza, non mi pare essere molto future-proof, specie per chi ha intenzione di tenere una scheda video più di un anno...)

Inviato dal mio SM-N910F utilizzando Tapatalk

Simedan1985
14-07-2016, 12:27
DirectX 11...12...mantle ...Vulkan...opengl...Ace

Sapete una cosa ?? Non ci sto capendo più un caxxx ahahahaha ....forse dopo i 30 anni sta diventando vecchio!! hahahaha

Antimo96
14-07-2016, 12:33
i benchmark sopra sono 'vecchi'.Tomb raider è stato patchato con async,dando un boost del 25 alla fury x per esempio,mentre hitman(su amd) gira meglio rispetto al rilascio delle dx 12,anche se non si tratta di un distacco paragonabile ad altri titoli.

fraussantin
14-07-2016, 13:00
Ok... Se davvero prenderanno piede ste nuove api, allora alla prossima generazione di schede anche nvidia si rimetterà in carreggiata (supporto vulkan ad hoc, ACE hardware, etc...) e via così... :O
(do sicuro l'attuale pascal, pur nella sua potenza, non mi pare essere molto future-proof, specie per chi ha intenzione di tenere una scheda video più di un anno...)

Inviato dal mio SM-N910F utilizzando Tapatalk
Tipico di nvidia. Però se mettono in Volta gli ACE, e migliorano ancora l'architettura chi li raggiunge? E non oso immaginare i prezzi.
Forse mi sono perso qualcosa...
Per chi ha una NVIDIA, quale è il senso di patchare il gioco in DX12 ?
Non mi pare ci siano miglioramenti grafici...si perdono solo FPS...e spesso anche con AMD è lo stesso (AOS a parte che non fa testo )

http://www.hwupgrade.it/articoli/skvideo/4676/tr_2560.png

http://www.hwupgrade.it/articoli/skvideo/4676/hitman_3840.png

Inoltre questo grafico che segue dimostra quanto AOS sia volutamente programmato a cavolo in DX11, per mostrare quanto sono fighe le DX12, tant'è che la 1070 e la 1080 in DX11 vanno uguale, e la fury X in Dx11 va come una 960...

http://www.hwupgrade.it/articoli/skvideo/4676/ashes_2.png
Sono mesi che lo dico , ma sembra di parlare al muro.

Quando nascerà il primo gioco dx 12 non compatibile per dx 11 inizieranno i primi problemi per le verdi.

Per adesso abbiamo solo ( alcuni )vantaggi per le rosse , ma non vedo penalizzazioni o peggioramenti per le verdi.

Ale55andr0
14-07-2016, 13:05
certo che se i giochi dx 12 e vulkan,dovessero aumentare in modo sensibile,per nvidia la vedo dura.Anche in rise of the tomb raider,con la nuova patch,la fury x recupera la 980 ti,in un gioco gameworks.
Considerando neo e scorpio poi,è altamente possibile che vulkan e dx 12 prendano piede in breve tempo.
Per ora ci sono bf1,watch dogs 2,i titoli microsoft(va beh,tranne forza ottimizzati male),deus ex e civilization 6,non poca roba insomma.


ma più che altro vulkan, perchè in dx 12 non ho visto grossi incrementi ne per l'una ne per l'altra e in generale molta poca coerenza fra vari bench. Comunque bisogna anche vedere se gli sviluppatori si sbatteranno di default o se si dovrà mazzettare per (non) ottimizzare in dx12/vulkan.
Spero che con neo e scorpio le conversioni siano "più automatiche" dal punto di vista degli ace, perchè se un multipiatta su console usa gli ace su gcn e poi non lo fa una volta trasposto su pc sarebbe da class action e fossi in AMD denuncerei la cosa

Ale55andr0
14-07-2016, 13:07
Ok... Se davvero prenderanno piede ste nuove api, allora alla prossima generazione di schede anche nvidia si rimetterà in carreggiata (supporto vulkan ad hoc, ACE hardware, etc...) e via così... :O
(do sicuro l'attuale pascal, pur nella sua potenza, non mi pare essere molto future-proof, specie per chi ha intenzione di tenere una scheda video più di un anno...)

Inviato dal mio SM-N910F utilizzando Tapatalk


manco a me. Con la 1070 che poi mi pare un acquisto veramente pessimo se si va a vedere davvero COSA ci si porta a casa (chippetto minuscolo, clock estremi, niente ace, niente gddr5x a 450 e oltre :mbe: :fuck: :tie: ) Se però domani nvidia impazzisse e ci piazza la 1080 a 450 io impazzirei di rimando e la pijerei uguale, tanto anche senza dx12 spiGNe duro e piaGNerei con un occhio :D

traider
14-07-2016, 13:24
Se però domani nvidia impazzisse e ci piazza la 1080 a 450 io impazzirei di rimando e la pijerei uguale, tanto anche senza dx12 spiGNe duro e piaGNerei con un occhio :D

Bhè una 1080 a 450 euro credo che la prenderebbe l'intera popolazione mondiale , anche chi ha solo le console ps4 e xboxone , se ne prenderebbe una a quel prezzo .

fraquar
14-07-2016, 14:07
ma più che altro vulkan, perchè in dx 12 non ho visto grossi incrementi ne per l'una ne per l'altra e in generale molta poca coerenza fra vari bench. Comunque bisogna anche vedere se gli sviluppatori si sbatteranno di default o se si dovrà mazzettare per (non) ottimizzare in dx12/vulkan.
Spero che con neo e scorpio le conversioni siano "più automatiche" dal punto di vista degli ace, perchè se un multipiatta su console usa gli ace su gcn e poi non lo fa una volta trasposto su pc sarebbe da class action e fossi in AMD denuncerei la cosa

Perché giochi nativi dx12 non ce ne sono.

fraussantin
14-07-2016, 14:23
Perché nVidia ce li mette gratis? :>

volta non le fa nvidia?:p :p ooh manco quando parlo male di nvidia vi va bene ...

fraussantin
14-07-2016, 14:42
Non hai capito cosa stavo sottolineando. Dicevo che metterli in hardware costa spazio (è il motivo per cui ancora non li hanno) quindi dire che con quelli chi li raggiunge è un azzardo, perché non sai a cosa dovranno rinunciare :)
Ma è solo una questione di architettura e di prezzo.

E ad nvidia non mancano ne gli ingegneri , le la vergogna di sparare alto coi prezzi.

fraussantin
14-07-2016, 14:58
Quindi? E' esattamente quello il punto ed è quello di cui sto parlando. Se nVidia non è fallita è perché invece di ragionare come stai ragionando te si fa i conti in tasca e fa in modo di guadagnare da quel che produce (hint: si guadagna sui volumi, se i prezzi sono troppo alti non vendi e non guadagni)
Mah.. Non ho capito se lo fate a posta.

Prima si parlava di necessità degli ace E qualcuno ha ipotizzato che li potrebbe mettere nella prossima architettura.

Se lo farà nvidia di certo non le regalerà.

Visto i precedenti architettura next pascal + ace = vga bomba = prezzo da terroristi.

Visto il successo delle 1080 e delle 1070 mica si vergognano a metterle 100 euro in più.



Inviato dal mio Nexus 5 utilizzando Tapatalk

Hadar
14-07-2016, 15:45
http://videocardz.com/62250/amd-vega10-and-vega11-gpus-spotted-in-opencl-driver


Vega 10 adesso è diventato il chippone e Vega 11 il chippino.. XD:confused:

Ale55andr0
14-07-2016, 16:11
Non devi confonderti solo perchè un giornalista ha fatto confusione.
Spesso sbagliano pensando che 10 indichi la versione più grande come per polaris, invece in un intervista Koduri ha chiarito che il numero indica quale chip è stato sviluppato prima e non la sua dimensione o potenza.
In realtà non siamo proprio sicuri che vega 10 sarà più piccolo di vega 11, ma in realtà che importa? :D

La cosa interessante è che se ci sono i driver per vega10, per vega11 e per greenland... che diamine è greenland? :eek:

greenland è come si chiavano in generale le nuove gpu amd a 14nm e hbm2 qualche mese fa, non ti eccitare, così come le vecchie si chiamavano volcanic islands.

A proposito, l'ho già detto oggi che devono svegliarsi a cacciarle fuori che han fatto scendere il latte alle ginocchia? :asd:

Ale55andr0
14-07-2016, 16:13
Questo lo so, ma perchè c'è un driver?


e perchè no? so fermi a gcn dal 2011 ci mancava pure che non ci fosse già :asd:

Ale55andr0
14-07-2016, 16:30
:muro:

Se ci dono due schede (vega 10 e vega 11) perchè ci sono 3 driver (vega 10, vega 11 e greenland)?
A che serve greenland? Forse un generico per tutta la famiglia di gpu?
Claro? :Prrr:

stai a cavillare su un nome che si sapeva gia, sarà un errore o un ulteriore splittamento delle gpu vega, niente su cui non dormire

Ale55andr0
14-07-2016, 16:32
http://www.bitsandchips.it/8-gaming/7243-come-leggere-i-benchmark-di-doom-con-le-api-vulkan

ecco spiegato il boost di performance e le differenze nei bench.

con TSAA gli ACE sono abilitati
con SMAA gli ACE ancora non sono abilitati

e allora? il tsaa non lo supportano entrambe, o è AMD?

Ale55andr0
14-07-2016, 16:55
almeno si chiarisce perché alcuni siti davano le amd così davanti in alcuni casi, ID consiglia il tsaa per ora perché implementa la funziona ace mentre smaa no.

più avanti ci sarà aggiornamento anche per altri filtri.

TSAA è una invenzione nvidia mi pare o è il TXAA?... o entrambe? :D

l'ho chiesto io a te :asd: e poi scusa, se è roba nvidia a maggior ragione ci fanno na figuraccia

skadex
14-07-2016, 17:00
http://www.bitsandchips.it/8-gaming/7243-come-leggere-i-benchmark-di-doom-con-le-api-vulkan

ecco spiegato il boost di performance e le differenze nei bench.

con TSAA gli ACE sono abilitati
con SMAA gli ACE ancora non sono abilitati

Ecco era quello che aveva notato qualche post indietro. Adesso la cosa ha senso altrimenti volavano forchette di 10-20% in prestazione a caso tra le varie recensioni.
Grazie.

FroZen
14-07-2016, 17:47
Il txaa mi pare fisse stato presentato in pompa magna con kepler se non ricordo male

Lo avranno avuto tre titoli a dir bello

fraussantin
14-07-2016, 18:28
Il txaa mi pare fisse stato presentato in pompa magna con kepler se non ricordo male

Lo avranno avuto tre titoli a dir bello
Oltretutto è insulso come effetto.

Non mi piace per niente.

Ps ma gli ace danno vantaggi anche per il downsampling? ( o il relativo antialiasing che agisce a quel modo )

Perchè sarebbe molto interessante.

Ren
14-07-2016, 18:50
Oltretutto è insulso come effetto.

Non mi piace per niente.

Ps ma gli ace danno vantaggi anche per il downsampling? ( o il relativo antialiasing che agisce a quel modo )

Perchè sarebbe molto interessante.

Gli ACE sono perfetti per il post-processing, come L'AA via shader.

Come sempre il problema di amd è il command processor che si ingolfa come nulla, lasciando in idle le CU.

Nvidia non ha colli di bottiglia così evidenti,quindi i guadagni dagli shader asincroni sono minori.

Legolas84
14-07-2016, 18:52
Gli ACE sono perfetti per gli effetti di post-processing come L'AA via shader.

Come sempre il problema di amd è il command processor che si ingolfa come nulla, lasciando in idle le CU.

Nvidia non ha colli di bottiglia così evidenti,quindi i guadagni dagli shader asincroni sono minori.

Probabilmente è per questo che può anche permettersi di non implementarli in hardware? Il guadagno di NVIDIA nell'usare Async Compute è minore rispetto ad AMD che invece senza ha prestazioni sotto tono rispetto al potenziale della gpu giusto?

fraussantin
14-07-2016, 18:53
Gli ACE sono perfetti per il post-processing, come L'AA via shader.

Come sempre il problema di amd è il command processor che si ingolfa come nulla, lasciando in idle le CU.

Nvidia non ha colli di bottiglia così evidenti,quindi i guadagni dagli shader asincroni sono minori.
Ecco ora ho tutto più chiaro , anche sul perchè non le hanno messi e probabilmente non lo faranno.

Legolas84
14-07-2016, 18:57
Ecco ora ho tutto più chiaro , anche sul perchè non le hanno messi e probabilmente non lo faranno.

Ma guarda sono mesi che lo diciamo che è così... ;)

The_SaN
14-07-2016, 19:13
Ecco ora ho tutto più chiaro , anche sul perchè non le hanno messi e probabilmente non lo faranno.

Io, Mikael e altri utenti lo stiamo dicendo da settimane, mesi :D
AMD ha un architettura che ingolfa con certi tipi di carico e un driver dx11 che non scala in multithread.
Se poi consideriamo che la Fury è sbilanciatissima...(infatti è quella che giova di più dagli ACE)

Ren
14-07-2016, 19:16
Ecco ora ho tutto più chiaro , anche sul perchè non le hanno messi e probabilmente non lo faranno.

Nvidia credo (non girano molte info) usi un unico scheduler di tipo unificato. Il giga-thread.

Ad AMD piace aggiungerne di nuovi.:sofico:

L'ultima novità sono gli scheduler HWS che servono per gestire audio/VR e l'overhead dei driver.

Probabilmente è più semplice/economico introdurre nuovi scheduler che rimodernare il command processor (con annesse fixed function) di R600 memoria.:fagiano:

Ale55andr0
14-07-2016, 19:21
mah, per me gli ace sono un vantaggio a priori, non si può dire che nvidia non ne trarrebbe giovamento o poco, perchè di fatto, e mikael conferma, non li hanno proprio, e se in futuro li implementeranno allora mica vorrà dire che prima erano ineffienti a livello di architettura :stordita:, è sempre na roba che in qualche modo ti sgrava/potenzia ergo meglio avercela anzichè no

Hadar
14-07-2016, 19:26
http://videocardz.com/62257/first-3dmark-time-spy-benchmarks-hit-the-web
Potete vedere se è disponibile su steam?

s12a
14-07-2016, 19:30
http://videocardz.com/62257/first-3dmark-time-spy-benchmarks-hit-the-web
Potete vedere se è disponibile su steam?

Io avevo 3d mark demo installato e mi è arrivata una patch di 1.8 GB un paio di ore fa. Provato Time Spy 1.0 con successo. Sulla mia HD7770 OC ho un punteggio di 707 o giù di lì, sui 3-4 fps per ambo i test.

A parte questo, mi sembra strano che i risultati per le altre schede, appena usciti nelle testate online, sembrano rispecchiare le differenze prestazionali in DX11; le AMD non dovevano andare particolarmente bene in DX12?

The_SaN
14-07-2016, 19:32
mah, per me gli ace sono un vantaggio a priori, non si può dire che nvidia non ne trarrebbe giovamento o poco, perchè di fatto, e mikael conferma, non li hanno proprio, e se in futuro li implementeranno allora mica vorrà dire che prima erano ineffienti a livello di architettura :stordita:, è sempre na roba che in qualche modo ti sgrava/potenzia ergo meglio avercela anzichè no

Gli ACE non aggiungono né sgravano nulla, semplicemente evitano che la scheda abbia blocchi shader in idle.
Nvidia con la sua architettura riesce già ad ottimizzare molto il processo, avendo poche unità in idle, quindi ne gioverebbe poco. Avranno fatto 2 calcoli e avranno visto che il prezzo da pagare per migliorare così poco era troppo alto.
AMD invece ne ha molto bisogno per utilizzare al 100% le sue schede, e il salto si vede.

Legolas84
14-07-2016, 19:35
mah, per me gli ace sono un vantaggio a priori, non si può dire che nvidia non ne trarrebbe giovamento o poco, perchè di fatto, e mikael conferma, non li hanno proprio, e se in futuro li implementeranno allora mica vorrà dire che prima erano ineffienti a livello di architettura :stordita:, è sempre na roba che in qualche modo ti sgrava/potenzia ergo meglio avercela anzichè no
È un tuo pensiero, hai molti pensieri personali su molti argomenti :D
La realtà poi è un po' diversa, e NVIDIA ha un'architettura che si avvantaggia molto meno di async compute rispetto ad AMD che senza ha diversi problemi di efficienza...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Ale55andr0
14-07-2016, 19:42
È un tuo pensiero, hai molti pensieri personali su molti argomenti :D



la penso uguale in merito a tuoi :Prrr: :D

Galcone
14-07-2016, 20:44
...

mirkonorroz
15-07-2016, 18:01
Io ribadisco un mio concetto.

Sbilanciata(=architettura1) AND no soluzione ==> MALE
[Sbilanciata(=architettura1) AND soluzione(=ACE)](=architettura2) ==> BENE

Quindi ha poco senso continuare a dire architetturaAMD=MALE, intendendo architettura1, perche' in realta' esiste architettura2 che va BENE (anche se questo non vuol dire che non potrebbe andare meglio, s'intende...)

PS: BENE e MALE non prendeteli con troppo peso...

s12a
15-07-2016, 18:22
edit

Ale55andr0
16-07-2016, 15:06
è di circa due settimane fa ma non credo sia stato postato (o almeno io me lo sono perso :fagiano: ):


http://hardware.hdblog.it/2016/06/28/AMD-Vega-10-finita-la-fase-di-sviluppo/

mikael84
16-07-2016, 15:11
è di circa due settimane fa ma non credo sia stato postato (o almeno io me lo sono perso :fagiano: ):


http://hardware.hdblog.it/2016/06/28/AMD-Vega-10-finita-la-fase-di-sviluppo/

fury 2,0;)

Ale55andr0
16-07-2016, 15:20
fury 2,0;)

suppongo però che vi saranno le migliorie della attuale polaris 10, che pare meno schizzinosa in dx11 e che pur con meno cu, metà rops e meno banda è simile alle 290 (pur con un maggiore clock del core). Una fury x con 8 gigi, i miglioramenti di cui sopra e 200mhz in più non mi spiacerebbe :fagiano: spero siano a buon punto come dice apu :sperem: anche se "terminata la fase di sviluppo" può significare tutto e niente :fagiano:
dimenticavo: basta che non ci piazzino l'AIO forzato :mc:

fraussantin
16-07-2016, 15:21
fury 2,0;)
E che saltano la serie 490 ?

Sarebbero degli stolti.

... ... ...

Ale55andr0
16-07-2016, 15:26
E che saltano la serie 490 ?

Sarebbero degli stolti.

... ... ...

magari sarà quella la 490, non sappiamo nulla di come riorganizzeranno fasce e nomenclature a sto giro..per esempio al momento non esistono più le versioni "x" ma 460, 470 e 480

mikael84
16-07-2016, 15:26
suppongo però che vi saranno le migliorie della attuale polaris 10, che pare meno schizzinosa in dx11 pur con meno cu, metà rops e meno banda è simile alle 290 (pur con un maggiore clock del core). Una fury x con 8 gigi, i miglioramenti di cui sopra e 200mhz in più non mi spiacerebbe :fagiano: spero siano a buon punto come dice apu :sperem: anche se "terminata la fase di sviluppo" può significare tutto e niente :fagiano:
dimenticavo: basta che non ci piazzino l'AIO forzato :mc:

Si ci saranno anche quei miglioramenti, più 64 rop's e primitive discard.
Una fury a 1200 leggermente migliorata.

E che saltano la serie 490 ?

Sarebbero degli stolti.

... ... ...

La 490 sarà basata su specifiche alla fury con i vari miglioramenti sul culling e sull'overhead.
Una fury x pompata.:)

fraussantin
16-07-2016, 15:29
La 490 sarà basata su specifiche alla fury con i vari miglioramenti sul culling e sull'overhead.
Una fury x pompata.:)
Cosa intendi per fury pompata?

Mica un rebrand della 4 giga?




... ... ...

deadbeef
16-07-2016, 15:31
c'è aria di nuovo tormentone

mikael84
16-07-2016, 15:33
Cosa intendi per fury pompata?

Mica un rebrand della 4 giga?




... ... ...

No nessun rebrand, tutto nuovo, ma con specifiche simili
4096st/64 rop's e 512gb/s hbm2.
Ovviamente con 200mhz di clock in più e i miglioramenti di polaris

Ale55andr0
16-07-2016, 15:34
No nessun rebrand, tutto nuovo, ma con specifiche simili
4096st/64 rop's e 512gb/s hbm2.
Ovviamente con 200mhz di clock in più e i miglioramenti di polaris

in che fascia dici che si collocherà?

fraussantin
16-07-2016, 15:35
No nessun rebrand, tutto nuovo, ma con specifiche simili
4096st/64 rop's e 512gb/s hbm2.
Ovviamente con 200mhz di clock in più e i miglioramenti di polaris
Sarebbe buono.

Tirassero fuori anche un vs gddrx a 400 euro sarebbe il top.

... ... ...

Ale55andr0
16-07-2016, 15:38
Sarebbe buono.

Tirassero fuori anche un vs gddrx a 400 euro sarebbe il top.

... ... ...

a quel punto credo che ridurrebbero le cu (56?), non penso gli converrebbe dare due vega 4096 con la sola diversa memoria, anche perchè cambierebbe l'mc

mikael84
16-07-2016, 15:54
in che fascia dici che si collocherà?

La cut al livello della 1070, la full a cavallo tra 1070/1080, almeno in dx11 e tr ai primi dx12.
Per prendere una 1070 3584st mi sembra il rapporto perfetto.
La 1080, doppia al 100% ogni stadio moltiplicatore rispetto alla 1060 e Vega non lo farà in tutto, sopratutto se rimane legata a 4 raster e stessa cache.
Quindi non essendo completamente scalabile, difficilmente pareggerà appieno una 1080.;)

Sarebbe buono.

Tirassero fuori anche un vs gddrx a 400 euro sarebbe il top.

... ... ...

Solo HBM

fraussantin
16-07-2016, 15:59
a quel punto credo che ridurrebbero le cu (56?), non penso gli converrebbe dare due vega 4096 con la sola diversa memoria, anche perchè cambierebbe l'mc
Si però le hbm costeranno una sassata. ( sinceramente dubito che riusciranno a venderle al prezzo della 1070)

Se escono con una vga cara come le nvidia , una fascia rimane sempre scoperta.

... ... ...

Ren
16-07-2016, 16:14
Si però le hbm costeranno una sassata. ( sinceramente dubito che riusciranno a venderle al prezzo della 1070)

Se escono con una vga cara come le nvidia , una fascia rimane sempre scoperta.

... ... ...

Stiamo parlando di 50-70 dollari in più compreso di interposer.
Gli basta ridurre il margine sulla GPU. Di certo non fanno i big money alla nvidia, ma nemmeno ci perdono tutti sti soldi.

Purtroppo con quel efficienza energetica non possono fare altrimenti.

Nvidia non ha interesse nel ridurre i suoi margini per massacrare AMD sul prezzo. Sono avanti in performance anche con le GDDR5, quindi preferiscono fare cassa.

The_SaN
16-07-2016, 18:54
Comunque mi pare che avessero detto che Vega è proprio un altro progetto, quindi non credo che riprenderanno Polaris in tutto e per tutto.

Ale55andr0
16-07-2016, 19:05
resta comunque gcn 4.0, poi ovvio che sia un gpu diversa se gia di base cambiano tipo di memoria. Comunque se si rapportano i numeri a cio che fa polaris 10 con le sue unità elaborative, raddoppiando (o quasi) cu, tmu e rops i presupporsti per qualcosa di interessante ci sono tutti, anche sul profilo dell'efficienza visto che fury x, ovviamente in proporzione, pur mattonazzo a 28nm si comportava meglio delle 290x. Restano da vedere tempistiche e...costi. Di logica potrebbero comunque proporre una variante "ponte" fra la fascia media e quella altissima, forse proprio la 3500st ipotizzata da mickael, ma in quel caso sarebbe per forza un "ibrido", perchè in quella fascia a metà strada fra la mainstream e la enthusiast difficilmente ci si starebbe con i costi delle hbm 2, o almeno così suppongo

Ale55andr0
16-07-2016, 19:15
il problema è, quando?
se hanno solo finito lo sviluppo è già un miracolo se esce nel Q1 2017.


bisognerebbe capire cosa si intende per "sviluppo", coiè se comprensivo di tutte quelle fasi che precedono il lancio effettivo o no :fagiano:

Ren
16-07-2016, 19:27
bisognerebbe capire cosa si intende per "sviluppo", coiè se comprensivo di tutte quelle fasi che precedono il lancio effettivo o no :fagiano:

Probabilmente sono pronti per portarlo su silicio.

Ora inizia la fase di tape-out\stepping.

Alla prima infornata verificano se sono state raggiunte le frequenze target ed i bug. Poi se tutto procede bene vanno in produzione, altrimenti via di stepping correttivo.

Se gli dice culo al primo colpo :p (difficile) parliamo di 2-3mesi, più i tempi di produzione in volumi.

ninja750
16-07-2016, 19:34
La 490 sarà basata su specifiche alla fury con i vari miglioramenti sul culling e sull'overhead.
Una fury x pompata.:)

veramente rumours dei giorni passati la indicavano come una dual RX480

fraussantin
16-07-2016, 19:41
veramente rumours dei giorni passati la indicavano come una dual RX480
Se per dual intendono un cross in un unica Scheda, oltre a stare fuori col prezzo è una soluzione che non mi piace.

Doppio consumo e molto game che non lo sfruttano.

... ... ...

The_SaN
16-07-2016, 19:59
Se gli dice culo al primo colpo :p (difficile) parliamo di 2-3mesi, più i tempi di produzione in volumi.

Gianni, l'ottimismo è il profumo della vita! :O

Ale55andr0
16-07-2016, 20:02
veramente rumours dei giorni passati la indicavano come una dual RX480

per me quella voce non sta ne in cielo ne in terra

Ren
16-07-2016, 20:28
Gianni, l'ottimismo è il profumo della vita! :O

:D

Il mio avatar ti regala tanto ottimismo...:sofico:

https://www.youtube.com/watch?v=4dr4JrOPc8E
https://www.youtube.com/watch?v=ZWdWpCM9Gjs

mikael84
16-07-2016, 22:01
e chi te l'ha detto? :D

se Vega sarà 64CU nella versione XT e invece di montare l'imc ddr monta quello hbm2, seconda una mia stima sarà grande sui ~345 mmq anche con 8 raster raddoppiando in toto polaris tranne che nelle CU, rimanendo quindi molto più bilanciato con uno scaling prossimo a 1:1 sul fronte stream processor, quindi +75% dalla 480 per la stessa frequenza.

il problema è, quando?
se hanno solo finito lo sviluppo è già un miracolo se esce nel Q1 2017.

Non ci sarà nessun ottavo raster, saranno 4 x 64 rop's.;)

resta comunque gcn 4.0, poi ovvio che sia un gpu diversa se gia di base cambiano tipo di memoria. Comunque se si rapportano i numeri a cio che fa polaris 10 con le sue unità elaborative, raddoppiando (o quasi) cu, tmu e rops i presupporsti per qualcosa di interessante ci sono tutti, anche sul profilo dell'efficienza visto che fury x, ovviamente in proporzione, pur mattonazzo a 28nm si comportava meglio delle 290x. Restano da vedere tempistiche e...costi. Di logica potrebbero comunque proporre una variante "ponte" fra la fascia media e quella altissima, forse proprio la 3500st ipotizzata da mickael, ma in quel caso sarebbe per forza un "ibrido", perchè in quella fascia a metà strada fra la mainstream e la enthusiast difficilmente ci si starebbe con i costi delle hbm 2, o almeno così suppongo

A livello di single GPU nessuna variante, si passerà direttamente alle hbm2.
Sarebbe l'erede delle 290/390x

Ren
17-07-2016, 14:09
Non ci sarà nessun ottavo raster, saranno 4 x 64 rop's.;)

Ti vedo ottimista mike :sofico:

Senza DX12+async le 64CU dormiranno sonni tranquilli... :coffee:

Io continuo a sperare (forza gianni) in "almeno" 6 rasterizer.:bimbo:

mikael84
17-07-2016, 14:34
Ti vedo ottimista mike :sofico:

Senza DX12+async le 64CU dormiranno sonni tranquilli... :coffee:

Io continuo a sperare (forza gianni) in "almeno" 6 rasterizer.:bimbo:

8 raster mi pare utopia.:p
8 raster da 7 CU e 64 rop's...nahh, non ce lo vedo proprio.:)

6 raster sarebbe l'ideale se fossi io ingegnere o tu, ma i veri ingegneri sono per i colli di bottiglia.:read:

Se il valore è di 4096ST mi pare difficile suddividerli in 6, al massimo 3840st, che lasciano raster con più CU ed altri meno.....

60 CU sarebbero 10 CU a engine, e questo ci può stare, ma le rop's sarebbero così facendo 48 o 96 (che vedo difficili con 10 CU a raster, considerando poi la cut a 3456, 9 CU/raster in stile P10).

Insomma, la soluzione più logica mi pare 4/64r, poi felice di sbagliarmi, ma in 8 raster, si parlerebbe di 8 CU a raster e 7 per la Cut, sempre a 64 rop's la finisci.

Disegnare anche troppe rop's però è un bene prestazionale ma ti ruba tantissimi transistor, e salvo campionare msaa 8x, li stai buttando al cesso.:)

Le HBM ti portano purtroppo a scelte di progettazione, e come ben sai devi calcolare molti fattori.

Vul
17-07-2016, 15:11
Io un poco seguo il mondo dell'hardware, ma tu a volte per me parli geroglifico mikael84

Vul
17-07-2016, 15:17
Io gli farei fare il recensore di gpu su hwupgrade. Corsini non mi è mai piaciuto.

Ale55andr0
17-07-2016, 16:28
Ti vedo ottimista mike :sofico:

Senza DX12+async le 64CU dormiranno sonni tranquilli... :coffee:

Io continuo a sperare (forza gianni) in "almeno" 6 rasterizer.:bimbo:

tradotto 96 rop?

Ren
17-07-2016, 18:11
tradotto 96 rop?

Tradotto le vie del signore sono infinite...:sofico:

Le rop's sono in gruppi da 4. Se vuoi saturare il blocco (rasterizer) opti per 16rops o come in Polaris ti accontenti di 8 per aver un miglior bilanciamento geometrico, dato che i mm2 non sono infiniti.
Nessuno ti vieta di optare per 12rops per blocco.(scelta inusuale)

Ipotesi di mike è la meno costosa in termini di silicio e watt, ma anche la meno scalabile.
Praticamente per saturarla devi viaggiare in 4K+async post-processing, possibilmente con dx12/vulkan per via del command processor caccoloso.
Senza vento a favore dubito che possa superare la 1080.:mc:

Io opterei per una gpu più scalabile che mostri i denti anche in DX11, ma in amd ormai vanno al risparmio...:rolleyes:

Ale55andr0
17-07-2016, 18:36
in dx11 i miglioramenti ci sono stati mi pare, vedasi fallout 4 :fagiano:, considerato che tutto sommato con 32rop, 36cu e 256gb/s P10 non è dissimile dalla 290/390 (64 rop 40cu e 320gb/s) si dovrebbe rullare bene con vega se tutto il resto è bilanciato di conseguenza (cu, core clock, bandwidth ecc.).
Comunque mi viene da pensare che vega 10 sia "tarata" più per superare di poco la 1070 che giocarsela con la 1080 testa a testa, con il plus però di un bel boost in dx12/vulkan (o almeno si spera) e un prezzo non esagerato (anche se con le hbm2 non so proprio come farebbero in caso :asd: ) e Vega 11 che invece dovrebbe stare dalle parti della 1080ti, con la nuova titan in testa in solitaria e... un prezzo fuori da ogni pudore :asd:

Ren
17-07-2016, 18:42
in dx11 i miglioramenti ci sono stati mi pare, e ocnsiderato che tuto sommato con 32rop P10 non è dissimile dalla 290/390 con 64 si dovrebbe rullare bene su tutto il resto è bilanciato di conseguenza (cu, core clock, nadwidth ecc.).
Comunque mi viene da pensare che la eventuale vega light sia "tarata" più per superare di poco la 1070 che giocarsela con la 1080 testa a testa, con il plus però di un bel boost in dx12/vulkan (o almeno si spera :asd: ) e un prezzo non esagerato (anche se ocn le hbm2 non so proprio come farebbero in caso :asd: )

Se non vanno il 15-20% di più in dx11 per me flop...

Non ci scordiamo che:

1.Die più grande.
2.Memorie costose.
3.Consuma di più.
4.ha un ritardo di 6 mesi.
5.bisogna pregare per le ottimizzazioni.
6.se becchi un gioco come project cars\gameworks parte il bestemmione.

Ale55andr0
17-07-2016, 18:46
il 15-20% in più di cosa, sulla vecchia fury x? perchè mi pare abbastanza probabile e non particolarmente ostico come performance target: gia solo con l'incremento del clock rispetto la mattonella a 28nm ci si dovrebbe essere


la fury x consumava poco più della 980ti, grazie alle hbm, quindi con la nuova no nsi può che migliorare con un pp migliore. Il gameworsk non lo prescrive il dottore, e a volte lo disabilitano gli stessi verdi :D e poi può capitare anche un doom/aos :O :D

Ren
17-07-2016, 18:47
il 15-20% in più di cosa, sulla vecchia fury x? perchè mi pare abbastanza probabile e non particolarmente ostico come performance target: gia solo con l'incremento del clock rispetto la mattonella a 28nm ci si dovrebbe essere

Ovviamente della gtx1080.:angel:

OvErClOck82
17-07-2016, 18:48
Della gtx1080.

in dx11 la vedo un po' troppo ottimistica come situazione :stordita:

Ale55andr0
17-07-2016, 18:51
Della gtx1080.

....eehhh, vuoi anche il caffè servito da belen? :asd:

quel tipo di performance sarà più da vega11..sul ritardo di 6 mesi spero tu abbia torto anche se mi sa che hai ragione :mc:

PS: scusa, edito di continuo per sistemare/ampliare i post, vizio che non riesco a togliermi :p

Ren
17-07-2016, 18:54
....eehhh, vuoi anche il caffè servito da belen? :asd:

quel tipo di performance sarà più da vega11..sul ritardo di 6 mesi spero tu abbia torto anche se mi sa che hai ragione :mc:

PS: scusa, edito di continuo per sistemare/ampliare i post, vizio che non riesco a togliermi :p

No, voglio un amd che non mangia la polvere di un cippetto overcloccato con memorie da due soldi.:sofico:

Se gli dice culo, parliamo di paper launch per fine novembre.

Raven
17-07-2016, 18:56
Se gli dice culo, parliamo di paper launch per fine novembre.

http://e.deviantart.com/emoticons/s/sarcasticclap.gif

Ale55andr0
17-07-2016, 18:56
No, voglio un amd che non mangia la polvere di un cippetto overcloccato con memorie da due soldi.:sofico:

Se ci dice culo, parliamo di paper launch per fine novembre.

la 1080 non è poi un chippetto, lo è più la 1070 :)
le ggdr5x poi mi intrippano più delle hbm, non so perchè :D
...ah, ora che ci penso forse si: sarà perchè hai uno scatafascio di bandwidth uguale (fino e oltre 400gb/s a seconda del tipo) e risparmi un bel po' :D

Ren
17-07-2016, 19:00
la 1080 non è poi un chippetto, lo è più più la 1070 :)
le ggdr5x poi mi intrippano più delle hbm, non so perchè :D
ah, ora che ci penso forse si: sarà perchè hai uno scatafascio di bandwidth uguale (fino e oltre 400gb/s a seconda del tipo) e risparmi un bel po' :D

1080-1070 sono lo stesso cippetto.:p

Con il 60% in più di bw(con meno watt) non vuoi darmi nemmeno il 15% di performance in dx11 bilanciando un chip come si deve...;)

Ale55andr0
17-07-2016, 19:03
1080-1070 sono lo stesso cippetto.:p

Con il 60% in più di bw(con meno watt) non vuoi darmi nemmeno il 15% di performance in dx11 bilanciando un chip come si deve...;)

si ma io della 1070 considero solo le parti "attive" :O

la bw per me è un non problema da mo' e supera ampiamente il necessario con le hbm 2 (infatti per quello non capisco perchè si siano FISSATI quando loro stessi vanon uguale con 256gb/s anzichè 320 sulla P10 :doh: ) quindi non mi aspetto alcun boost extra per lo scatafascio di banda delle vega, probabilmente scelta dettata più dai consumi che dalle prestazioni

Ren
17-07-2016, 19:06
si ma io della 1070 considero solo le parti "attive" :O

la bw per me è un non problema e supera ampiamente il necessario con le hbm 2 (infatti per quello no capisco perchè si siano FISSATI quando loro stessi vanon uguale con 256gb/s anzichè 320 :doh: ). quindi non mi aspetto alcun boost extra per lo scatafascio di banda delle vega

Mica gli fanno lo sconto se sono fallati.:p

Parli della 290 ? (Color Compression+double L2 its the way)

ps. piantala con gli edit :sofico:

Ale55andr0
17-07-2016, 19:10
Parli della 290 ? (Color Compression+double L2 its the way)

della polaris 10 vs la 290/390.
In parole povere, per me vega con le gddr5x da 448gb/s andrebbe paro paro che con le hbm da 1tb/s, quel chip imho non sarà così potente da necessitare chissà quale valanga di dati in transito per evitare bottleneck..ma probabilmente con le gddr5x consumerebbero di più e forse per quello hanno deciso di martellarsi i maroni fra costi più alti (per noi e per loro) e soprattutto, questa attesa eterna :muro:

Ren
17-07-2016, 19:13
della polaris 10 vs la 290/390.
In parole povere, per me vega con le gddr5x da 448gb/s andrebbe paro paro che con le hbm da 1tb/s, quel chip imho non sarà così potente da necessitare chissà quale valanga di dati in transito per evitare bottleneck..ma probabilmente con le gddr5x consumerebbero di più e forse per quello hanno deciso di martellarsi i maroni fra costi più alti (per noi e per loro) e soprattutto, questa attesa eterna :muro:

cmq la bw in eccesso basta sfruttarla, con un giusto bilanciamento, invece di farla marcire.;)

HBM2 da 512gbsec con 2048bit di bus.;)

Grazie al ciufolo che con 448gbsec di gddr5x vai quasi uguale ma ti servono il triplo dei watt.:p

mikael84
17-07-2016, 20:13
Io un poco seguo il mondo dell'hardware, ma tu a volte per me parli geroglifico mikael84

Ma no:p , alla fine si parlava di un possibile rapporto di due valori rop's/raster.:)



la 1080 non è poi un chippetto, lo è più la 1070 :)
le ggdr5x poi mi intrippano più delle hbm, non so perchè :D
...ah, ora che ci penso forse si: sarà perchè hai uno scatafascio di bandwidth uguale (fino e oltre 400gb/s a seconda del tipo) e risparmi un bel po' :D

Le ddr5x così a bassi valori non mi piacciono nulla, l'unica nota davvero positiva è che con il nuovo prefetch puoi oltrepassare i limiti legati al bus. Quando si raggiungeranno i 14 gb/s di data rate ne riparleremmo.:)
Diciamo che per la 1080 è stata una scelta obbligata, perchè rispetto alla 1070 occupa più porzione di BW in quanto ha più ALU dialoganti. Già con la TI si arriva a porzioni di ben 270gb/s con MSAA2x, ma la media è sui 175-200gb/s.
Senza ddr5x dovevi almeno implementare un bus da 320bit, complicando tutto.

Sotto questo punto, le ddr5x sono ottime
320b/2ghz " 320gb/s
256b/10gb/s " 320gb/s

Su polaris mettere le ddr5x a 10gb/s ti cambia nulla a livello progettuale.
Diverso se puntavi a 64 rop's su un bus piccolo e più unità di calcolo, in quanto se già fai MSAA/SSAA, mangi tantissima BW;)

Se non vanno il 15-20% di più in dx11 per me flop...

Non ci scordiamo che:

1.Die più grande.
2.Memorie costose.
3.Consuma di più.
4.ha un ritardo di 6 mesi.
5.bisogna pregare per le ottimizzazioni.
6.se becchi un gioco come project cars\gameworks parte il bestemmione.

Capisco con quel'avatar :D, però considera che la 1080 ha il 100% su tutti gli stadi moltiplicatori rispetto alla 1060.
La 1080 la vedo ancora lontana, salvo che non cambiano realmente tutto, bilanciando bene tutto.
Con un'ulteriore 15/20% vai quasi al livello della prossima TI, roba che solo full Vega 6144 può dare. :)

N3OM4TR|X
17-07-2016, 20:22
della polaris 10 vs la 290/390.
In parole povere, per me vega con le gddr5x da 448gb/s andrebbe paro paro che con le hbm da 1tb/s, quel chip imho non sarà così potente da necessitare chissà quale valanga di dati in transito per evitare bottleneck..ma probabilmente con le gddr5x consumerebbero di più e forse per quello hanno deciso di martellarsi i maroni fra costi più alti (per noi e per loro) e soprattutto, questa attesa eterna :muro:

Premetto che sto aspettando la stessa scheda che aspetti tu. Solo che in piu' la voglio in formato ITX (Le speranze instillate da DeathRoma sono andate nel dimenticatoio ormai :doh: ).

Io non credo che le HBM2, ammesso che vengano davvero adottate in Vega 10, apporteranno un costo troppo elevato per l'utente finale, e credo neppure per AMD. Credo sia nell'interesse di Hynix stessa vendere senza sovrapprezzo, dacche' mi risulta AMD e' l'unica acquirente (nVidia usa Samsung), quindi un po' di accordi interni potrebbero puntare sulla quantita' come fonte primaria di introito.
In piu' il famoso Tera di bandwidth non credo proprio si vedra' perche' vorrebbe dire equipaggiare le GPU con 16 GB di HBM, quantita' abbastanza esagerata per un chip come Vega 10. Lo vedrei meglio con Vega 11 in versione per HPC dove servono.

Lanciamoci in un po' di sane previsioni.
- Vega 10 Full con 2 chip HBM2, versione da 2 Gbps per un totale di 512 GBps di bandwidth (= a Fury X) come il nosto ottimistico :asd: Ren dice poco sopra. Costo alto, ma non cosi' estremo.
- Vega 10 Cut con 2 chip HBM2 nella versione da 1,6 Gbps per circa 400 GBps di bandwidth al fine di ridurre i costi per AMD e per l'utente finale.

Veniamo alla mia domanda per i piu' esperti di architetture AMD (sorry, sono programmatore al 99% CUDA e quel 1% di OpenCL l'ho visto sulle vecchie VLIW AMD):
In cosa una proporzione SU:TMU:ROP = 4096:256:64 sarebbe sbilanciata per Vega 10? (e in cosa lo era per Fury?). Domanda probabilmente posta e riposta da altri ma onesta da parte mia, non sono per niente informato in merito. Scendete pure in tecnicismi se servisse alla completezza :)

Ren
17-07-2016, 20:23
Le ddr5x così a bassi valori non mi piacciono nulla, l'unica nota davvero positiva è che con il nuovo prefetch puoi oltrepassare i limiti legati al bus. Quando si raggiungeranno i 14 gb/s di data rate ne riparleremmo.:)


Ti credo che non ti piacciano. Le 10gbps considerando il prefetch-16 sono di sicuro una chiavica in termini di latenze...

Ren
17-07-2016, 20:30
Capisco con quel'avatar :D, però considera che la 1080 ha il 100% su tutti gli stadi moltiplicatori rispetto alla 1060.
La 1080 la vedo ancora lontana, salvo che non cambiano realmente tutto, bilanciando bene tutto.
Con un'ulteriore 15/20% vai quasi al livello della prossima TI, roba che solo full Vega 6144 può dare. :)

Concordo, se è una Fury 2 la vendetta:fagiano: , non mi aspetto nulla di buono.

Se non escono con qualcosa di meglio dopo sei mesi, hanno già toppato strategia.

Con il costo aggiunto delle HBM2, devono posizionarsi proprio tra la 1080-1080ti con il modello più spinto.

fraussantin
17-07-2016, 20:32
della polaris 10 vs la 290/390.
In parole povere, per me vega con le gddr5x da 448gb/s andrebbe paro paro che con le hbm da 1tb/s, quel chip imho non sarà così potente da necessitare chissà quale valanga di dati in transito per evitare bottleneck..ma probabilmente con le gddr5x consumerebbero di più e forse per quello hanno deciso di martellarsi i maroni fra costi più alti (per noi e per loro) e soprattutto, questa attesa eterna :muro:
Si chiaro , ma se per consumare di meno deve costare 100 euro in più...

Insomma 14 nanometri , non credo che consumerebbe quanto una 390x...

Poi boh!

... ... ...

Ale55andr0
17-07-2016, 20:40
Si chiaro , ma se per consumare di meno deve costare 100 euro in più...

... ... ...

quello è l'incognita: se escono dopo, e vanno più o meno simili alle top attuali nvidia, che hanno ottenuto a parte uscire in ritardo mostruoso? teoricamente devono puntare sul prezzo...ma come con le hbm? a meno che davvero hynix non ne produca a volumi più che sufficienti e con prezzi morigerati (relativamente parlando)

Ren
17-07-2016, 20:42
quello è l'incognita: se escono dopo, e vanno più o meno simili alle top attuali nvidia, che hanno ottenuto a parte uscire in ritardo mostruoso? teoricamente devono puntare sul prezzo...ma come con le hbm? a meno che davvero hynix non ne produca a volumi più che sufficienti e con prezzi morigerati (relativamente parlando)

Con le HBM2 ed un chip più grande non possono puntare sul prezzo.

Ale55andr0
17-07-2016, 20:50
Con le HBM2 ed un chip più grande non possono puntare sul prezzo.

se parli del 6144sp no sicuro, ma sul 4096 possono e devono. Ovviamente si parla di rapporto qualità prezzo sempre rapportato a un prodotto di fascia top eh, non è che gli si chiede di piazzarlo a 350$ tasse incluse :sofico:

fraussantin
17-07-2016, 20:57
se parli del 6144sp no sicuro, ma sul 4096 possono e devono. Ovviamente si parla di rapporto qualità prezzo sempre rapportato a un prodotto di fascia top eh, non è che gli si chiede di piazzarlo a 350$ tasse incluse :sofico:
Mah secondo me fanno una cazzata.

Oramai si è capito che le amd da 700 euro non se le compra nessuno.

Se ne vogliono fare una per apparenza ( nei bench ) ben venga , ma qui serve una vga da 400 euro.



... ... ...

Ren
17-07-2016, 20:57
se parli del 6144sp no sicuro, ma sul 4096 possono e devono. Ovviamente si parla di rapporto qualità prezzo sempre rapportato a un prodotto di fascia top eh, non è che gli si chiede di piazzarlo a 350$ tasse incluse :sofico:

Contro la 1070 prevedo faville per una fury 2 la vendetta del ricaduto in termini di guadagno. Per nvidia si intende...:sofico:
Mah secondo me fanno una cazzata.

Oramai si è capito che le amd da 700 euro non se le compra nessuno.

Se ne vogliono fare una per apparenza ( nei bench ) ben venga , ma qui serve una vga da 400 euro.

Dovevano infischiarsene dei watt allora...

mikael84
17-07-2016, 22:07
quello è l'incognita: se escono dopo, e vanno più o meno simili alle top attuali nvidia, che hanno ottenuto a parte uscire in ritardo mostruoso? teoricamente devono puntare sul prezzo...ma come con le hbm? a meno che davvero hynix non ne produca a volumi più che sufficienti e con prezzi morigerati (relativamente parlando)

Con (almeno) un 400mm2 ed hbm2 puntare sul prezzo è molto, molto, ma molto difficile.
Hanno fatto questa scelta e c'è poco da fare.:)

Io ho una scheda perfetta per te.
3584 ST, 6 raster, 48 rop's, 384bit ddr5x o 256 bit ddr5x 12gb/s (visto che a te piacciono molto), 2/3mb di cache.
Questa è l'anti 1070 perfetta.:)
Solo che io non disegno schede per AMD:p

Concordo, se è una Fury 2 la vendetta:fagiano: , non mi aspetto nulla di buono.

Se non escono con qualcosa di meglio dopo sei mesi, hanno già toppato strategia.

Con il costo aggiunto delle HBM2, devono posizionarsi proprio tra la 1080-1080ti con il modello più spinto.

Il problema che le hbm ti risparmiano qualche watt, ma tutto il bw è buttato, salvo mettere almeno 96 rop's e fare tanto blending con i filtri:p

L'anti 1080 per me sarebbe un chip con 4608st / 8 raster /64 rop's /più cache gating generale, 2mb l2 vanno bene.
Con il classico 4096 /4 /64, a parer mio vai tra 1070 e 1080, più sulla prima o sulla seconda solo in base ai titoli.:)

Ale55andr0
17-07-2016, 22:12
Mah secondo me fanno una cazzata.

Oramai si è capito che le amd da 700 euro non se le compra nessuno.

Se ne vogliono fare una per apparenza ( nei bench ) ben venga , ma qui serve una vga da 400 euro.



... ... ...

che guarda caso servirebbe a me :asd:

55AMG
17-07-2016, 22:15
che guarda caso servirebbe a me :asd:
Anche a me :asd:

Ale55andr0
17-07-2016, 22:16
Io ho una scheda perfetta per te.
3584 ST, 6 raster, 48 rop's, 384bit ddr5x o 256 bit ddr5x 12gb/s (visto che a te piacciono molto), 2/3mb di cache.
Questa è l'anti 1070 perfetta.:)
Solo che io non disegno schede per AMD:p

beh, apri un tuo brand che te la compro :asd:

Con il classico 4096 /4 /64, a parer mio vai tra 1070 e 1080, più sulla prima o sulla seconda solo in base ai titoli.:)

ma di per se andrebbe pure benissimo, se lo piazzano allo stesso prezzo di una 1070...

...comunque vedo in giro qualche 1080 pezzenti ediscion a circa 600 (ovviamente non disponibile in stock :asd: )
Se fra 2, massimo 3 mesi divengono disponibili e nvidia fa un primo taglio di prezzo "fisiologico" io gliela compro e amen, risparmierò altrove, magari prendendo un intel liscio anzichè un "k" che tanto manco overclokko e gioco sempre maxato con almeno un downsampling da 1440p

Ale55andr0
17-07-2016, 22:16
Anche a me :asd:

te se non stai attento va a finire che ti compri una 480 custom e poi te ne penti :O

55AMG
17-07-2016, 22:18
te se non stai attento va a finire che ti compri una 480 custom e poi te ne penti :O
Davvero 😅😅😅

Ale55andr0
17-07-2016, 22:21
Davvero ������

ecco, evita di fare sta caxxata, te lo proibisco :read: :D

Ren
17-07-2016, 22:25
Il problema che le hbm ti risparmiano qualche watt, ma tutto il bw è buttato, salvo mettere almeno 96 rop's e fare tanto blending con i filtri:p

L'anti 1080 per me sarebbe un chip con 4608st / 8 raster /64 rop's /più cache gating generale, 2mb l2 vanno bene.
Con il classico 4096 /4 /64, a parer mio vai tra 1070 e 1080, più sulla prima o sulla seconda solo in base ai titoli.:)

Appunto, fanno una cogli*nata doppia per risparmiare 50-70mm2 sul chip.

Una volta che sei costretto ad usare le hbm2 tanto vale sfruttarle.

Tanto nella fascia 350-400euro sei al limite del profitto con le hbm2.

Ale55andr0
18-07-2016, 08:46
Risparmi 15€ se va bene con quell'operazione, devono fare un taglio ben più che fisiologico per arrivare a 415€ in versione pezzent e disponibile :D

no no, ci mancherebbe, ovvio che a 415 è impossibile e nemmeno li prendevo in considerazione come ipotesi :sofico:, intendevo qualcosa tipo 500/550 e il pensierino lo farei in quel caso, che poi a quel livello deve scendere per forza prima o poi, visto che saranno disponibili in volumi, che esistono le inculation edition e che la 1080ti sarà da li a venire..resta però anche da vedere se allora vega sara realtà o sarà ancora un fantasma...

Free Gordon
18-07-2016, 17:34
ragazzi per cortesia, sfruttiamolo a dovere sto thread, voglio sapere tutto sulla 970, dalla prima stesura delle specifiche preliminari, al tape out, ai test interni, review guide, rumors e prime recensioni, evoluzioni delle performance, costo msrp, atteso, effettivo (in ogni stato ed in base al valore della valuta del tempo ed anche all'incidenza dell'iva). Non dimenticate il presunto memory gate, e se ci sono alcuni special o contenuti aggiuntivi, interviste a huang in mutande incluse. Ovviamente per tutte le versioni fin qui rilasciate, non dimenticate anche un link a trovaprezzi dove poterla comprare e segnalate anche eventuali annunci sull'usato.

:rotfl:

Free Gordon
18-07-2016, 17:38
Non è questione di aver ragione. L'approccio AMD è "relativamente" vincente in un hardware chiuso come quello console.
Nel settore PC discrete se aspetti che gli altri ti risolvono il problema perdi quote di mercato & goodnight...
Nvidia invece di aspettare ha migliorato command processor e bilanciamento con dollari fumanti in R&D. Nulla cade dal cielo...

Su console è un buon approccio. Pitecairn è tra l'altro il chip GCN meglio riuscito degli ultimi anni come rapporto perf/watt..
Gi sviluppatori console hanno un sacco di risorse in più da sfruttare e possono creare giochi impressionanti (non so se hai visto la demo di God of War per PS4.. :) ).

Nvidia è e sarà sempre davanti nel rapporto con i devs su pc e in fatto di sponsorizzazioni/ottimizzazione dayone. Lo fa' da una vita dai.. ;)

Free Gordon
18-07-2016, 17:40
I watt contano nel settore notebook e custom, altri miliardi che volano. :muro:


Credo che con P11 questa cosa sia ancora da verificare.. ;)
Speriamo bene. :)

Free Gordon
18-07-2016, 18:04
Gli ACE sono perfetti per il post-processing, come L'AA via shader.
Come sempre il problema di amd è il command processor che si ingolfa come nulla, lasciando in idle le CU.
Nvidia non ha colli di bottiglia così evidenti,quindi i guadagni dagli shader asincroni sono minori.


La struttura delle CU è differente in AMD, è chiaro che è più difficile per il CM di GCN gestire al meglio tutti gli sp e la potenza matematica "in più" che ha rispetto ad Nvidia..anche proprio per la struttura mezza vettoriale di GCN.

Gli ACE mettono una pezza a questo problema.

Semmai la domanda sarebbe:
AMD usando gli ACE (e quindi sfruttando meglio lo shader core) è più veloce di Nvidia che ha uno sfruttamento già ottimo.... a parità di spazio die consumato? :)

Ai posteri l'ardua... :)

Free Gordon
18-07-2016, 18:06
mah, per me gli ace sono un vantaggio a priori, non si può dire che nvidia non ne trarrebbe giovamento o poco, perchè di fatto, e mikael conferma, non li hanno proprio, e se in futuro li implementeranno allora mica vorrà dire che prima erano ineffienti a livello di architettura :stordita:, è sempre na roba che in qualche modo ti sgrava/potenzia ergo meglio avercela anzichè no

Il problema degli ACE è un "non" problema. Vedi sopra..

Ren
18-07-2016, 19:23
La struttura delle CU è differente in AMD, è chiaro che è più difficile per il CM di GCN gestire al meglio tutti gli sp e la potenza matematica "in più" che ha rispetto ad Nvidia..anche proprio per la struttura mezza vettoriale di GCN.

Gli ACE mettono una pezza a questo problema.

Semmai la domanda sarebbe:
AMD usando gli ACE (e quindi sfruttando meglio lo shader core) è più veloce di Nvidia che ha uno sfruttamento già ottimo.... a parità di spazio die consumato? :)

Ai posteri l'ardua... :)

I consumi nell'approccio nvidia sono irrilevanti, quindi hanno vinto due volte.
Nessun consumo e nessuna rottura di scatole per gli sviluppatori.

AMD spende pochi quattrini, quindi le sue soluzioni scaricano il collo di bottiglia sullo sviluppatore che non viene neanche sovvenzionato. Ad nvidia basta aggiornare la sua architettura, quando i giochi sono fatti(toh un regalo da AMD).

AMD deve pareggiare senza far affidamento su nessuno (nei PC) o in alternativa finanziare pesantemente gli sviluppatori senza aspettare che lo standard si diffonda da solo.

Sperare nel buon samaritano è una strategia idiota nel mercato PC.

FreeMan
18-07-2016, 19:23
@Free Gordon

Multiquote http://www.hwupgrade.it/forum/images_hwu/buttons/multiquote_off.gif questo sconosciuto... :rolleyes:

>bYeZ<

FroZen
19-07-2016, 11:53
Appppproposito del nuovo benchmark "dx12" TIME SPY

http://www.overclock.net/t/1606224/various-futuremarks-time-spy-directx-12-benchmark-compromised-less-compute-parallelism-than-doom-aots-also

Pascal deve vincere, sempre e comunque :O altrimenti il roi saluta :asd:

E rimettiamo questa simpatica tabella a memento

http://www.overclock.net/content/type/61/id/2831854/width/5000/height/1000/flags/LL

Ale55andr0
19-07-2016, 13:20
tutto molto bello, ma se certe caratteristiche non sono pienamente/ottimamente supportate da chi detiene la stragrande maggioranza del mercato non le vedremo mai implementate diffusamente dagli sviluppatori
..aPProposito...ma AMD ha un sito in cui pressarli e rompergli le pelotas per spammare aBBestia dicendogli di darsi na mossa? :D :asd:
o quantomeno, invitino pure me

https://www.youtube.com/watch?v=LhK2gf_VCTg

loGGiuro, non gli chiederò lo stipendio per quello ma almeno ammazzo il tempo e avrò qualche info in più su cui masturbarmi. Ah e a voi non le dirò perchè mi trattate male :O :Prrr:

Ale55andr0
19-07-2016, 13:25
A me frega relativamente, ad agosto/settembre mi prendo una 480 nitro che dovrà durare anni

povero cucciolo, mi spiace :(

:Prrr: :D :D

fraussantin
19-07-2016, 13:32
A me frega relativamente, ad agosto/settembre mi prendo una 480 nitro che dovrà durare anni, nel 2018 se nvidia butta fuori volta che supporta tutto questo e faranno i giochi compatibili la mia 480 nitro rullerà ancora alla grande, le 1060... purtroppooooo!
https://i.ytimg.com/vi/Cl-EmaLUZKU/default.jpg
Secondo me nel 2018 la 480 sarà da cambiare , come lo sarà la 1060.

O meglio si dovrà con entrambe scendere a compromessi.

Certo con la 480 potrai prenderne uma seconda a 100 euro usata, e tirare un altro po suo giochi che lo supportano.

Con la 1060 cambi e stop.

Oppure le tieni e scali.

Ale55andr0
19-07-2016, 13:49
Non spiacerti, è una scelta mica un obbligo. :)
Sarebbero soldi buttati per me cambiare scheda ogni anno.


ah su quello concordo, io le tengo 3-4 :sofico: ...a meno che non mi lascino a piedi prima fuori garanzia (cosa puntualmente accadutami le ultime due volte :mc: )
Comunque proprio in quell'ottica io preferisco puntare più in alto possibile per avere un prodotto prestazionalmente duraturo e stare in pace per un po' che prendere una fascia media che è gia giusta giusta quando la compri. E poi è anche più appagante avere nel case una gran bella fetta di silicio che un chippettino :D

Ale55andr0
19-07-2016, 14:28
io giocavo a 1080p scalato da 1440p o addirittura 1800p (ODIO l'alising e il solo shader aa ormai standard mi fa pena) e maxato e per me la 290 era da insufficiente a "per un pelo", e lo sarebbe anche la 480 (e la 1060..)
Io non compro per scendere a compromessi, il gioco me lo devo godere così com'è graficamente concepito al suo potenziale ideale. Se poi consideri che i giochi non vanno certo ad alleggerirsi capirai perchè per me ste schede so, scherzosamente parlando, dei pormoni. In base la tuo contesto invece capisco ;)

Free Gordon
19-07-2016, 15:31
Appppproposito del nuovo benchmark "dx12" TIME SPY
http://www.overclock.net/t/1606224/various-futuremarks-time-spy-directx-12-benchmark-compromised-less-compute-parallelism-than-doom-aots-also
Pascal deve vincere, sempre e comunque :O altrimenti il roi saluta :asd:
E rimettiamo questa simpatica tabella a memento
http://www.overclock.net/content/type/61/id/2831854/width/5000/height/1000/flags/LL

Francamente penso che sia tutto scontato... :asd:

Nvidia non si farà mai fottere su un 3dmark...sarebbe il colmo!! :rotfl:

Ale55andr0
19-07-2016, 15:56
Semi OT che mi interessa molto visto che anche io odio l'aliasing, ma non si riesce a forzare MSAA (adattivo magari) x4 o x8 via pannello AMD o in qualche altro modo.
Pure io sto FXAA o SMAA lo odio profondamente, imho li obbligano solo per vendere vga più potenti e schermi più costosi.

e allora devi andare di downsampling come faccio io...

mirkonorroz
19-07-2016, 17:14
Io penso di prendermi una nvidia usata solo per il fatto di far girare i giochi DX11 in modo da rendere giustizia al mio FX-8350, causa drivers DX11 AMD abbandonati: una specie di vendetta :stordita: :stordita:
Ovviamente tengo anche la fury. In ogni caso rimarrei cpu limited con entrambe le schede, ma in giochi tipo pcars (maledetto) dovrei guadagnare non poco, e visto che sono un maniaco dell'AA anche io...
Non mi e' piaciuta la trascuratezza nello sviluppo dei drivers DX11, comprese feature come quelle di forzare AA o magari il fatto di non aver implementato il vsync dinamico, che in tutti i FIFA (programmati da cani ok) funziona da Zeus con radeonpro.
Ah gia'... eppoi c'e' "ffffisics" che non guasta :sofico:
A parte gli scherzi poi ci sono i cuda cores e Cycles di Blender che reclama almeno un giro da anni ed anni.
Insomma da appassionato non posso prescindere da tutto :)

Ale55andr0
19-07-2016, 18:14
non è questione di arretratezza dei driver, è proprio la precedente variante di gcn ad avere quel problema, notevolmente ridotto nelle nuove.

mirkonorroz
19-07-2016, 19:21
non è questione di arretratezza dei driver, è proprio la precedente variante di gcn ad avere quel problema, notevolmente ridotto nelle nuove.

Mbho... ma se ogni 3x2 salta fuori il discorso che erano i drivers a non tenere conto del multitasking/parallelismo (?) :confused:

Io mi baso solo su quello che leggo su 'sto forum e mi sono/ero fatto l'idea che un po' era l'architettura ma molto erano i drivers.

Sono apertissimo anche a smentite, ma dovrebbero essere del tipo:

1. "anche se avessimo riscritto i drivers (dx11), a parita' di HW, il guadagno sarebbe stato comunque irrisorio"

oppure

2. "si sarebbero dovuti correggere/patchare/riscrivere anche molti giochi perche' nonostante si seguano delle API standard, sarebbe stato necessario intervenire anche a piu' basso livello"

Se comunque fosse vera la 1. allora evidentemente avevo capito male.

Ale55andr0
19-07-2016, 19:30
no è proprio l'archiettura che io sappia. Ora hanno notevolmente migliorato con gcn 4 in dx11, infatti vanno meglio le 480 delle vecchie in certi titoli cpu dipendenti

mirkonorroz
19-07-2016, 19:46
no è proprio l'archiettura che io sappia. Ora hanno notevolmente migliorato con gcn 4 in dx11, infatti vanno meglio le 480 delle vecchie in certi titoli cpu dipendenti

Questo e' buon segno, ed infatti tenevo in conto anche questo fatto, ma poiche' spessissimo anche mikael, in risposta, dice "sui drivers", pensavo che fossero la parte preponderante e comunque in parte anche isolabile ed ottimizzabile per se stessa.
A meno che lui non parli dei drivers solo come riassunto/semplificazione...

Mi piacerebbe venirne fuori, perche' comunque se fossero in gran parte anche i drivers, per me il fatto che le nuove schede, con nuovo HW, vadano meglio in dx11, perderebbe comunque un po' di importanza rispetto all'accaduto.
Cioe' le nuove schede dx12 quando eseguono codice scritto per dx11 eseguono driver dx11 ad oc per la scheda o eseguono codice vecchio piu' o meno valido anche per le vecchie schede? Se eseguono codice nuovo, quel codice nuovo poteva essere, almeno parzialmente, portato anche per le vecchie schede?
Il fatto e' che io ero rimasto che non avevano riscritto i drivers dx11, per le vecchie schede, o per pochi soldi o peggio per poca voglia, ma in realta' avrebbero dovuto scrivere da subito i drivers giusti che avessero meno overhead gia' da subito.
Se invece i drivers dx11 scritti all'inizio erano gia' il massimo per quell'HW (ma non mi sembrava) allora ok.

LurenZ87
20-07-2016, 07:54
Visto la situazione "poco rosea" di AMD, mi stava balenando un'idea in mente...

Non è che Vega sia un semplice raddoppio di Polaris 10 con le HBM2??? Stile Tonga XT e Fiji XT...

Inviato dal mio OnePlus 3 utilizzando Tapatalk

fraussantin
20-07-2016, 07:58
Visto la situazione "poco rosea" di AMD, mi stava balenando un'idea in mente...

Non è che Vega sia un semplice raddoppio di Polaris 10 con le HBM2??? Stile Tonga XT e Fiji XT...

Inviato dal mio OnePlus 3 utilizzando Tapatalk
Se fosse un raddoppio( di architettura non 2 chip) fatto con le palle ( consumi a parte ) arriverebbe alla 1080?







... ... ...

Free Gordon
20-07-2016, 08:01
Visto la situazione "poco rosea" di AMD, mi stava balenando un'idea in mente...
Non è che Vega sia un semplice raddoppio di Polaris 10 con le HBM2??? Stile Tonga XT e Fiji XT...
Inviato dal mio OnePlus 3 utilizzando Tapatalk

Se fosse un raddoppio effettivo di Polaris, andrebbe cmq meglio che un Fiji2 la vendetta con clock solo maggiori (come pare invece sia dagli ultimi leaks..)

LurenZ87
20-07-2016, 08:07
Se fosse un raddoppio( di architettura non 2 chip) fatto con le palle ( consumi a parte ) arriverebbe alla 1080?







... ... ...
Sicuramente, ma non so quanto possa essere competitiva sul lato del prezzo.
Se fosse un raddoppio effettivo di Polaris, andrebbe cmq meglio che un Fiji2 la vendetta con clock solo maggiori (come pare invece sia dagli ultimi leaks..)
Cioè una Fiji a 14nm???

Inviato dal mio OnePlus 3 utilizzando Tapatalk

fraussantin
20-07-2016, 08:24
Sicuramente, ma non so quanto possa essere competitiva sul lato del prezzo.

Cioè una Fiji a 14nm???

Inviato dal mio OnePlus 3 utilizzando Tapatalk
Beh lato prezzo , vengono a mancare i volumi.

Se i volumi fossero quelli delle 480 potrebbero uscire a 500$...

Ma costeranno di più.

Sarebbe bello se decidessero di rifare la doppia vs e quindi vendere la prima scelta a 600 $ e la seconda a 400$.

Ma è un sogno.



... ... ...

mirkonorroz
20-07-2016, 08:54
Vega probabilmente avra' un clock molto elevato tanto da provocare una forte rotazione, una leggera deformazione e una conseguente variazione della temperatura dal centro (minore), all'esterno (maggiore).
Penso si registrera' anche un eccesso di radiazione infrarossa, per cui scaldera' non poco.
Si potra' fare a meno dei led sui dissipatori in quanto si sa che e' una delle gpu piu' luminose.

Dal grafico si puo' vedere come ci sia ancora da lavorare sui drivers in quanto sembra si presentino dei picchi di stuttering, stranamente con immagini che danno sul blu.

https://snag.gy/1N7gtT.jpg

Potrebbero verificarsi anche dei leggeri oscuramenti ai bordi nell'immagine con alcuni monitor particolari.

E' da escludersi una doppia polaris, infatti e' singola, ma potra' essa stessa fare da polaris (certo manca ancora molto).

Il dissipatore custom produrra' il suono di una lira.

E' invece possibile la presenza di "pian[e]ti" (whine).

Fonte: https://it.wikipedia.org/wiki/Vega

Lanzus
20-07-2016, 09:08
Possiamo mettere il post sopra in OP ?

Ale55andr0
20-07-2016, 09:20
Visto la situazione "poco rosea" di AMD, mi stava balenando un'idea in mente...

Non è che Vega sia un semplice raddoppio di Polaris 10 con le HBM2??? Stile Tonga XT e Fiji XT...

Inviato dal mio OnePlus 3 utilizzando Tapatalk

non ti seguo, anche se fosse rosea di logica sarebbe così uguale, sono tutte gpu basate sulla medesima architettura e che si differenziano sostanzialmente per il numero di unità elaborative, ma è sempre così: anche la 1080 è più o meno raddoppio della 1060, ma che c'entra con l'essere o meno in una situazione rosea cio? :confused:


comunque non credo sarà un raddoppio, perchè dovrebbe avere 4608sp e 288tmu così, invece si parla di 4096/256

Ale55andr0
20-07-2016, 09:24
Se fosse un raddoppio( di architettura non 2 chip) fatto con le palle ( consumi a parte ) arriverebbe alla 1080?





teoricamente andrebbe a tratti anche più, ovviamente se mantenessero i 1266mhz di core. Le HBM2 dovrebbero garantire circa mezzo terabyte/s, quindi anche li si va al raddoppio rispetto P10. Due 480 in cross la avvicinano, ma sappiamo che il cross non scala al 100%, mentre con una gpu singola ci si avvicina di più all'approssimazione teorica. Il consumo della singola GPU con raddoppio esatto sarebbe comunque più basso per via del diverso tipo memorie, del fatto che sarebbero 8gb invece che 16gb da alimentare e del diverso mc, cosa questa che ha permesso gia alla fury x di avvicinare la 980Ti lato consumi pur col mattonazzo a 28nm della energeticamente esigente GCN

http://www.hwupgrade.it/articoli/skvideo/4398/amd-radeon-r9-fury-x-e-il-tempo-della-gpu-fiji_6.html


quindi vega potrebbe migliorare l'efficienza energetica rispetto P10, anzi mi stupirebbe il contrario


Sarebbe bello se decidessero di rifare la doppia vs e quindi vendere la prima scelta a 600 $ e la seconda a 400$.

Ma è un sogno.



.

al momento sono un sogno a priori, manco mezza parola di amd, nemmeno provano a distrarci dalla 1080. Un atteggiamento che francamente non capisco, visto che stanno con le pezze al culo. Manco il tempo di tirar fuori la 480 che abbiamo le rece delle 1060. AMD nulla, manco mezzo leak sulle top che non risalga a mesi anni fa.

Comunque DEVONO per forza fare una vga da 400, non possono passare da 250 della 480 a 600 di un vega full :doh:, a meno che si sono bevuti a titolo definitivo il cervello (il che non lo escludo vista la strategia demenziale degli ultimi mesi)

FroZen
20-07-2016, 09:31
L'idea che mi son fatto di sto limite sul dx11 è dato dall'approccio hardware di amd rispetto a nvidia sullo scheduler, su nvidia lo fanno via driver (quando amd ha fatto uscire mantle, dote tutti grazie aemmeddiiii) su amd lo deve fare la scheda ed evidentemente le dx11 hanno dei limiti sulla loro implemetazione

siluro85
20-07-2016, 09:50
da quello che ho capito leggendo qualcosa in giro si, lo scheduler è hw sulle amd quindi nelle gcn1.x possono provare a metterci una pezza via driver ma il grosso è quello. nelle polaris, ridisegnando il chip hanno potuto fare qualcosa meglio a livello hw. Poi credo che il problema sia venuto fuori prepotentemente con fiji che già è un chip sbilanciato e quel collo di bottiglia (che per dio potevano anche sistemare, ma qui credo entri in gioco il fattore € che non hanno) lo azzoppa, infatti in dx12 con l'uso degli async fiji recupera tanto..

riguardo a quello che diceva lurenz di situazione poco rosea credo intenda a livello € (vedi sopra) e quindi al posto di ridisegnare completamente il chip semplicemente moltiplicano le unità.

LurenZ87
20-07-2016, 10:09
non ti seguo, anche se fosse rosea di logica sarebbe così uguale, sono tutte gpu basate sulla medesima architettura e che si differenziano sostanzialmente per il numero di unità elaborative, ma è sempre così: anche la 1080 è più o meno raddoppio della 1060, ma che c'entra con l'essere o meno in una situazione rosea cio? :confused:


comunque non credo sarà un raddoppio, perchè dovrebbe avere 4608sp e 288tmu così, invece si parla di 4096/256
Intendevo dire che con poche risorse possono riuscire a tirare fuori una gpu da mandare contro la GP104, visto che non navigano in buone acque.

Inviato dal mio OnePlus 3 utilizzando Tapatalk

Ale55andr0
20-07-2016, 10:24
lo potevano fare pure da prima e a costi più bassi se non si fossero FISSATI con le hbm. Bastava andare di gddr5x, aumentavano cu/tmu/rops come per vega ed erano belle che pronte, ovviamente semplificando molto :D ma comunque ben prima che con le hbm...o a limite come diceva mickael84, lasciando le gddr5 lisce e facendo una 12gb 384bit
Andavano grossomodo uguale, costavano meno (a loro e a noi), anche se consumavano qualcosa in più (fottesega)

mirkonorroz
20-07-2016, 10:26
Mah... imho il ragionamento [di FroZen] per me sta in piedi fino ad un certo punto.

Non mi spiego che nel test del 3dmark una 7970 (la mia) metteva il turbo con le dx12/mantle.
Se e' cambiata solo la parte software, allora poteva cambiare anche prima.
Cioe', ok che magari il test 3dmark e' scritto ad hoc, ma in ogni caso se amd avesse pubblicizzato e insegnato a programmare per le sue gpu i vari sviluppatori di motori di gioco e di giochi, avremmo avuto un altro scenario.
Imho non e' stata tutta "colpa" dell'HW.

mirkonorroz
20-07-2016, 10:28
Ma scusate un secondo, se lo scheduler amd è hw e quello nvidia sw, quello nvidia non dovrebbe pesare di più sulla cpu? Invece è il contrario.
Spiegatemi un po' che sono abbastanza ignorante in materia :)

Magari era talmente implemetato male da risultare piu' inefficiente globalmente.
Pero' per me vale ancora quello che ho scritto sopra.

Ale55andr0
20-07-2016, 10:36
Infatti io a volte mi chiedo se AMD fa certe cose perchè ci prova e poi se vedono che non è la soluzione ideale non possono riprogettare tutto per motivi di costi e tempi, oppure se fanno le cose anche per altri fini.
Per esempio le HBM sulle fury non sono state poi così brillanti, mettevano 8GB di gddr5 e costavano meno con meno problemi, ma non è che l'esperienza sul campo con HBM servirà in futuro anche per altro?
Per esempio si parlava di APU con HBM e cose simili.

quindi per sperimentare sul mercato delle apu, spendono uno strafottio per le hbm (peraltro che senso ha? una apu è una soluzione economica per eccellenza e gli piazzi memorie che costano l'ira di dio? :asd:) col risultato di uscire in ritardo mostruoso sulla concorrenza (fottesega le slide, concorrono con nvidia NON con se stessi) per fare prodotti che alla fine non andranno certo il 20% più dei rivali a pari fascia impiegando memorie molto più costose e scarsamente disponibili in quantità. Il senso della cosa? nessuno. Uno può anche dire "lo sanno loro quello che fanno tu no sei mica ingegnè"..io però so anche che loro che "sanno quello che fanno" con il loro "sapere quello che fanno" si sono ridotti con una mano davanti e una dietro, hanno failato con le fury e i proclami di "world fastest gpu" NON rispettati nonostante siano usciti parecchio DOPO la rivale e ci hanno dato un 480 che in se non è male come prodotto eh, MA che in pratica serve a nulla: va come le vecchie, costa come le vecchie, in cosa avrebbero rivoluzionato e si sarebbero "ribellati" nel mondo del gaming? in nulla. Ovvio che se uno va sul nuovo con pc da fare si pija la nuova, ma è logica, mica la scoperta del sacro graal e della rivoluzione videoludica :mbe:
Quindi delle loro trovate e scelte commerciali e non mi fido il giusto: zero

siluro85
20-07-2016, 10:48
a livello di TF fiji spaccherebbe anche (8,6 è ai livelli della 1080 un pelo sotto) il problema è tutto il resto.. tipo che 1/4 di quei teraflop solitamente li usi per pulire dove non batte il sole.. :muro:

mirkonorroz
20-07-2016, 10:52
Chi lo ha detto che un'apu è una soluzione economica?
Il fatto che fino ad oggi lo sono state non vuole dire che lo saranno sempre.

Con al fury hanno dimostrato come sempre di avere un'ottima architettura, non so se hai notato che in doom con vulkan in 1440 va il 30% in più rispetto ad una 980ti e probabilmente vulkan replica quello che succede nelle console.

Chiaro che ormai è tardi, quando serviva andava uguale alla 980ti o meno.
Commercialmente è stato un fail, ma tecnicamente lo pensi sul serio?

Per me e' stato un "fail", non hardware, ma a livello software/drivers e solo dopo a livello commerciale. Se con Vulkan va il 30% in piu', dovevano investire prima sul software. Comunque almeno adesso sembra che ci stiano arrivando. Come si suol dire si vede che i tempi non erano abbastanza maturi, anche se mi spiace per tutti quei giochi dx11 male ottimizzati.

PS: Avrebbero dovuto fondare una loro casa di Videogames :D Magari con protagonista Ruby :oink:

Ale55andr0
20-07-2016, 11:00
Chi lo ha detto che un'apu è una soluzione economica?Il fatto che fino ad oggi lo sono state non vuole dire che lo saranno sempre.


se parliamo di quello che potranno essere o non essere parliamo del nulla. Quello che sono di fatto oggi nell'anno domini 2016 è quello. Ma non avrebbero senso nemmeno in prospettiva: una apu non permette MAI di avere, simultaneamente, una componente cpu e una gpu entrambe al top rispetto alle soluzioni discrete, quindi il senso di una apu costosa abbinata a memorie costose quale sarebbe commercialmente? nessuno. Un esercizio tecnologico che resterebbe costoso e che in assoluto non primeggerebbe in nulla


Con al fury hanno dimostrato come sempre di avere un'ottima architettura, non so se hai notato che in doom con vulkan in 1440 va il 30% in più rispetto ad una 980ti e probabilmente vulkan replica quello che succede nelle console.

Chiaro che ormai è tardi, quando serviva andava uguale alla 980ti o meno.
Commercialmente è stato un fail, ma tecnicamente lo pensi sul serio?

se l'architettura era nativamente ottima NON avevano bisogno di vulkan per rullare, perchè l'origine di quello è proprio una pezza alle carenze della architettura. L'api in se, tecnicamente non è un fail (a parte i limiti del'architettura che invece lo sono) ma commercialmente sarà un fail quantomeno fino a quando vulkan/dx12 non gli darà vantaggio concreto e consistente in almeno 4 giochi su 10 (senno che ce ne facciamo?), cosa remota dal venire e che anche in prospettiva non lascia presagire chissa quali sbocchi perchè sappiamo più che bene che nessuno si smazza per chi ha un quarto del mercato e ha i conti in difetto

Ale55andr0
20-07-2016, 11:01
PS: Avrebbero dovuto fondare una loro casa di Videogames :D Magari con protagonista Ruby :oink:


io sono anni che spero che qualcuno, non importa chi, si compri i diritti per la serie stalker e la serie thief per farli rinascere rispettando il loro spirito originario :sofico:

Nelson Muntz
20-07-2016, 11:05
Chiaro che ormai è tardi, quando serviva andava uguale alla 980ti o meno.
Commercialmente è stato un fail, ma tecnicamente lo pensi sul serio?

Proporre una scheda video con :
- AIO di serie (quanti , a parte qua sul forum , hanno voglia di smanettare con tubi e raddiatori?)
- con 4gb di ram (fottosega se hbm , il 90% della gente non sa manco cosa sia) quando la concorrenza te ne dava 6/12 (e guarda caso doom ti permette di attivare texture al massimo se hai almeno CINQUE giga , toh !)
- a prezzi non esattamente concorrenziali

e' stato il motivo del flop delle fury . Easy ! Il fatto che OGGI vada come e meglio di una 980ti e' una vittoria di pirro .

Ale55andr0
20-07-2016, 11:15
Il punto è che gcn è un'architettura che non va solo sulle gpu, ma anche nelle apu e nelle console.
Dovendo progettare una console e quindi sapendo che deciderai tu quali api verranno usate sempre, vorresti un gcn4 o pascal come architettura?
Tenendo conto ovviamente di prestazioni, consumi e area del die e quindi costi.

quanti titoli grazie alle console vanno meglio su amd? ok, è presto visti i molti crossgen MA fino a quando non hai mercato ne soldi puoi avere pure il monopolio delle console che tanto su pc c'è chi smazzetterà per non farti andare uncaxx/andare meglio loro

FroZen
20-07-2016, 11:21
Infatti io a volte mi chiedo se AMD fa certe cose perchè ci prova e poi se vedono che non è la soluzione ideale non possono riprogettare tutto per motivi di costi e tempi, oppure se fanno le cose anche per altri fini.
Per esempio le HBM sulle fury non sono state poi così brillanti, mettevano 8GB di gddr5 e costavano meno con meno problemi, ma non è che l'esperienza sul campo con HBM servirà in futuro anche per altro?
Per esempio si parlava di APU con HBM e cose simili.

P.s: certo sarebbe ora che tirassero fuori qualcosa di stupefacente con tutta questa "esperienza sul campo" con robe nuove che hanno fatto negli ultimi anni (HBM, HSA, ecc.)

bivvoz una cagata simile da te non me l'aspettavo

le hbm sono state NECESSARIE, ripeto NECESSARIE per abbattere il tdp della scheda e non avere una Fury X da 400W con gddr5

le apu hpc con hbm sono già in programma infatti

Ale55andr0
20-07-2016, 11:27
bivvoz una cagata simile da te non me l'aspettavo

le hbm sono state NECESSARIE, ripeto NECESSARIE per abbattere il tdp della scheda e non avere una Fury X da 400W con gddr5

le apu hpc con hbm sono già in programma infatti

che equivale a dire che è n'altra pezza (costosa e poco disponibile), stavolta hardware, dopo quella software delle api. Lavorare bene da subito senza dover tappar buchi no eh :fiufiu:
fortuna si rifanno lato marketing :doh:

FroZen
20-07-2016, 11:28
Ma scusate un secondo, se lo scheduler amd è hw e quello nvidia sw, quello nvidia non dovrebbe pesare di più sulla cpu? Invece è il contrario.
Spiegatemi un po' che sono abbastanza ignorante in materia :)

i driver nvidia fanno il lavoro che fa lo scheduler hw amd solo che le DX11 su amd mettono tutto in un'unica corsia, nvidia divide già prima grazie alle cpu su più corsie

percui se hai una cpu che può gestire più thread invece che avere un ipc forte (che lavora sulla singola corsia nel caso amd) avrai una maggiore parallellizzazione e quindi efficienza ... negli ultimi anni si è più puntato a aumentare i core che non l'ipc del singolo core nelle cpu

Ecco perchè al salire di cpu con ipc alti amd assottiglia la differenza rispetto a quelli nvidia e il problema non si pone....se invece hai un Pentium g con amd su certi scenari sei svantaggiato.....

Evidentemente dx12 e vulkan mettono la pezza a questa impossibilità dx11 di uscire dalla singola corsia quando ha a che fare con uno scheduler hw (che però da vantaggi innegabili per esempio nel compute e async)

corsia = thread

Ale55andr0
20-07-2016, 11:32
Si perchè dopo aver fatto la 295 da 500W il problema era dissipare 20-30W in più di ram? :rolleyes:

vedi che ci ho raGGione? :O :read:

mirkonorroz
20-07-2016, 11:35
che equivale a dire che è n'altra pezza (costosa e poco disponibile), stavolta hardware, dopo quella software delle api. Lavorare bene da subito senza dover tappar buchi no eh :fiufiu:
fortuna si rifanno lato marketing :doh:

Ale... ma non esiste che un software faccia da pezza all'HW, a meno di bug tipo cpu.

Semplicemente Mantle o Vulkan sono IL software (insieme ai drivers) per le schede AMD. L'errore e' non averli fatti=diffusi da subito.

Oppure in un'altra ottica piu' dalla tua parte:
Date solo le DX11 come partenza, sono state fatte delle gpu con una architettura non conforme (ottimizzate su) ad esse, ma con cose diverse in vista di un cambiamento globale.

FroZen
20-07-2016, 11:36
che equivale a dire che è n'altra pezza (costosa e poco disponibile), stavolta hardware, dopo quella software delle api. Lavorare bene da subito senza dover tappar buchi no eh :fiufiu:
fortuna si rifanno lato marketing :doh:

lavorare bene quindi signfica fare quello che fa nvidia? no giusto per capirci.....

sono strategie aziendali caxxo...... non puoi avere driver performanti anche per 7970 nel 2016 ma lamentarti che non si cambi architettura radicalmente...... o uno o l'altro.... altrimenti avresti un Kepler ogni due anni (vga che su titoli nuovi indirizzati da te produttore (gimpworks) castrano mostruosamente la precedente architettura!!!!!)....non eri quello che tiene vga per tre quattro anni? deciditi......

FroZen
20-07-2016, 11:43
Si perchè dopo aver fatto la 295 da 500W il problema era dissipare 20-30W in più di ram? :rolleyes:

cosa diavolo centra la 295, una dual gpu su unico pcb?

Torniamo nel passato........

Esce la fury x Hawaii ediscion 8gb ddr5 con tdp di 350W e die size di quasi 650mm (semrpe che sia possibile)......va un 20% in più a fatica di una 290x da 275W ed è limitata pesantemente in banda (l'mc rimane 512bit? devi riprogettare molto della gpu)....

esce la 980ti con tdp quasi la metà e che a def va di più con un die size minore

apriti cielo :doh:

FroZen
20-07-2016, 11:55
Devi imparare a leggere meglio i post di Frozen :asd:

vedi che ci ho raGGione? :O :read:

Però... il TPD è della GPU giusto? Non della vga.
Nel TPD della 290x non sono comprese le memorie, mentre nel TDP della fury x si essendo HBM :D
Infatti alla fine la differenza di consumo effettivo è poca.
Il TDP di una fury x con gddr5 sarebbe stato più basso non più alto, anche se poi avrebbe consumato di più... 20W forse mica un'esagerazione.

Si ma la fury x va un 20% in più quindi ha un rapp perf/watt del 20% migliore

No no e no

Le gpu possono essere al massimo intorno ai 600mmq... 4096sp 28nm su ddr5 sarebbe stato un metro quadrato! Capit adesso?!?!?!? NON SAREBBE ESISTITA MAI!!!!!!

Due anni che lo dico :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro: :muro:

Free Gordon
20-07-2016, 12:02
No, scusami ma proprio non ho capito :what:
L'uso di memoria gddr5 in che modo aumenta la dimensione del die?

E' il memory controller a 512Bit di Hawaii che occupa molto spazio die (e succhia pure assai...).
Per Fiji sarebbe stato un problema e avrebbe fatto salire non di poco i consumi (già alti di loro con 4096sp GCN..)

Le HBM le hanno messe perchè:

1) hanno svilupato le memorie in joint con Hynix.
2) hanno più bisogno di banda rispetto ad Nvidia, a causa della precisione delle ROPs AMD che hanno throughput maggiore ad alta precisione.
3) con le HBM1 riducevano i consumi e lo spazio occupato dal mem controller sul die. :)
4) faceva figo a livello promozionale "first HBM GPU in da world ecc ecc" ;)
4) hanno sviluppato l'interposer e la tecnologia HBM, non solo per le GPU...ma per le future APU (solo useranno le 2 e non le 1..ma gran parte della tecnologia la riutilizzeranno sicuro)

Free Gordon
20-07-2016, 12:08
Vega probabilmente avra' un clock molto elevato tanto da provocare una forte rotazione, una leggera deformazione e una conseguente variazione della temperatura dal centro (minore), all'esterno (maggiore).
Penso si registrera' anche un eccesso di radiazione infrarossa, per cui scaldera' non poco.
Si potra' fare a meno dei led sui dissipatori in quanto si sa che e' una delle gpu piu' luminose.
Dal grafico si puo' vedere come ci sia ancora da lavorare sui drivers in quanto sembra si presentino dei picchi di stuttering, stranamente con immagini che danno sul blu.
https://snag.gy/1N7gtT.jpg
Potrebbero verificarsi anche dei leggeri oscuramenti ai bordi nell'immagine con alcuni monitor particolari.
E' da escludersi una doppia polaris, infatti e' singola, ma potra' essa stessa fare da polaris (certo manca ancora molto).
Il dissipatore custom produrra' il suono di una lira.
E' invece possibile la presenza di "pian[e]ti" (whine).
Fonte: https://it.wikipedia.org/wiki/Vega

:asd:

Ale55andr0
20-07-2016, 12:17
lavorare bene quindi signfica fare quello che fa nvidia? no giusto per capirci.....

sono strategie aziendali caxxo...... non puoi avere driver performanti anche per 7970 nel 2016 ma lamentarti che non si cambi architettura radicalmente...... o uno o l'altro.... altrimenti avresti un Kepler ogni due anni (vga che su titoli nuovi indirizzati da te produttore (gimpworks) castrano mostruosamente la precedente architettura!!!!!)....non eri quello che tiene vga per tre quattro anni? deciditi......

ma non è che la mia vga dopo quattro anni andava il doppio, erano le altre a rallentare :asd:

con pascal il problema non c'è, è una evoluzione di maxwell quindi i driver so quelli e volta esce del duemila credici. Ah ti precedo, NO non mi interessa buttare 700 euro per un chip piccolo e overcloccato :read:. Le avessero prezzate il giusto il pensierino c'era (o ci sarà in caso di miracolosi cali :asd: )
La strategia aziendale non c'entra un piffero con le schede che non vanno in dx11, visto che la 480 con gcn 4 ha fatto un bel miglioramento in dx 11, ergo era una pecca dell'architettura, tutt'altro che desiderata o vista in ottica futura visto che non sta scritto da nessuna parte che per andare in dx12 devi arrancare in 11 per via di una precisa parte del chip ora "sistemata"...

Ale55andr0
20-07-2016, 12:38
No, scusami ma proprio non ho capito :what:
L'uso di memoria gddr5 in che modo aumenta la dimensione del die?

memory controller più complesso che ruba spazio e consumi

Ale55andr0
20-07-2016, 12:39
Non proprio, pensi che una fury x non possa dissipare agevolmente 30W in più?
Prima di rispondere clicka >QUI< (http://www.guru3d.com/articles_pages/amd_radeon_r9_fury_x_review,11.html) :asd:

guarda che ti stavo dando ragione dandomi ragione :O , nel senso che poteva consumare di più e costare meno frgandocene dei 30W e delle hbm

mirkonorroz
20-07-2016, 12:41
ma non è che la mia vga dopo quatro anni andava il doppio, erano le altre a rallentare :asd:

con pascal il problema non c'è, è una evoluzione di maxwell quindi i driver so queli e volta esce del duemila credici. Ah ti precedo, NO non mi interessa buttare 700 euro per un chip piccolo e overcloccato :read:. Le avessero prezzate il giusto il pensierino c'era (o ci sarà in caso di miracolosi cali :asd: )
La startegia aziendale non c'entra un piffero con le schede che non vanno in dx11, visto che la 480 con gcn 4 ha fatto un bel miglioramento in dx 11, ergo era una pecca dell'architettura, tutt'altro che desiderata o vista in ottica futura visto che non sta scritto da nessuna parte che per andare in dx12 devi arrancare in 11 per via di una precisa parte del chip ora "sistemata"...

Pero' mi verrebbe da pensare che se da subito la 290 avesse usato codice Mantle (per intendere ottimizzato), il problema architetturale sarebbe passato in secondo piano o comunque sarebbe slittato piu' avanti o considerato come passo di un progresso costante.

Diciamo che a me fa piu' effetto un discorso del genere.
La gpu e' quella che e' e non e' che ci puoi fare molto: e' fissa.
Ma se dopo anni ti dimostrano che la tua gpu poteva andare un bel po' di piu' con un software/driver adeguato, ti rompe un pochino...
Di base comunque uno sceglie di comprare la scheda ad un certo prezzo per come e' sia HW che SW in quel momento, infatti quello che a me rode un po' che non si possa/voglia fare nulla SUI drivers DX11 per recuperare performance sui "vecchi" giochi.

Ren
20-07-2016, 15:30
ed anche per avere l'IMC più piccolo e non sforare i 600mmq.

bivvoz si è fatto nvidiafidelizzare troppo da alcuni utenti di sto forum :asd:

Il motivo sono i consumi. Le HBM occupano più area;) .

La dram interface da 4096bit anche se più densa, occupa più spazio dei 512bit gddr5. I memory controller in tale configurazione sono 32 da 128bit.:eek:

Ma scusate un secondo, se lo scheduler amd è hw e quello nvidia sw, quello nvidia non dovrebbe pesare di più sulla cpu? Invece è il contrario.
Spiegatemi un po' che sono abbastanza ignorante in materia :)

Son due cose diverse.;)
Confondi lo scheduler dei cuda/cu con il command processor scheduler.

Per fare un esempio ad cazzum, il command processor è una sorta di direttore di orchestra che smista il lavoro tra CU e fixed function(rasterizer, geo, rops etc).

Pero' mi verrebbe da pensare che se da subito la 290 avesse usato codice Mantle (per intendere ottimizzato), il problema architetturale sarebbe passato in secondo piano o comunque sarebbe slittato piu' avanti o considerato come passo di un progresso costante.

Basta aprire il portafogli :D . AMD vuole la botte piene e la moglie ubriaca.

Ren
20-07-2016, 16:22
ma che sta a di :sofico:

"HBM memory bus is very wide in comparison to other DRAM memories such as DDR4 or GDDR5. An HBM stack of four DRAM dies (4-Hi) has two 128-bit channels per die for a total of 8 channels and a width of 1024 bits in total. A chip with four 4-Hi HBM stacks would therefore have a memory bus with a width of 4096 bits. In comparison, the bus width of GDDR memories is 32 bits, with 16 channels for a graphics card with a 512-bit memory interface."

il bus interface è da 1024 bit per GB HBM(4-Hi) usate in fij
quindi sono 4 imc vs 8 imc da 64bit di hawaii (512bit) o i 4 imc da 64bit di tonga (256bit)
tu parli dei singoli die che compongono la memoria e sono 128bit*2 canali *4die = 1024 bit

http://cdn.videocardz.com/1/2015/11/Tahiti-vs-Tonga-vs-Fiji-dieshots.jpg
http://cdn.overclock.net/6/61/61d01300_8df0f_AMD-Fiji-Tonga-Die-shots.jpeg
http://cdn.wccftech.com/wp-content/uploads/2013/12/AMD-Hawaii-GPU.jpg

e non era solo quello il problema, ma anche l'interposer massimo di ~1000mmq

Guarda che 4096bit+MC di hbm non portano nessun risparmio in diesize su fury, inoltre non hanno nemmeno ECC.

Pitcairn è fuori scala di parecchio a spanne 250mm2 contro i 212 reali.L'interfaccia è più piccola di quella di tonga.

Ogni modulo HBM 1024bit contiene 8 channel.

http://images.bit-tech.net/content_images/2015/05/an-overview-of-high-bandwidth-memory-hbm/hbm-13w.png

mirkonorroz
20-07-2016, 16:23
Io stavo per scrivere:

gli utenti esperti su HWU si prodigavano a scrivere guide (come quelle sull'OC) e spiegazioni sui forum e mi dicevo: sarebbe bello lo facessero anche mikael, Ren, grid, free Gordon e altri che mi scuso se ora non ricordo.

Almeno si imparerebbe qualcosa. Io mi sono tirato giu' un sacco di slilde ma hai voglia a capirci qualcosa cosi' da "quasi zero", poi con 'sto caldo :sofico:

ma vedo che anche gli esperti mi pare siano poco in accordo :sofico: :D

Ren
20-07-2016, 17:22
non sono 32 interface da 128bit sul die della gpu ma 128x2=256 linee e che grazie al tsv fa comunicare i 4die ed è come se fossero 1024 linee che si collegano poi sul die.

Appunto sono 128x2 x 4die riuniti nel logic die da 1024bit.

I canali sono 8, come vedi dalla slide, semplicemente sono divisi per die. Ogni die contiene 1024bit di interfaccia, ma può pilotarne solo 128x2.

L'interfaccia la ricordavo più grande on die, ma non consideri lo spazio dei memory controller.

cmq pitcairn(img fuori scala;) ) ha 6mm2 di interfaccia contro gli 8 di tonga (a spanne)...

Gyammy85
21-07-2016, 10:42
Qualche indicazione sulle performance di rx470 e rx460

http://wccftech.com/amd-radeon-rx-470-460-official-performance/

killeragosta90
21-07-2016, 14:23
Qualche indicazione sulle performance di rx470 e rx460

http://wccftech.com/amd-radeon-rx-470-460-official-performance/

Leggermente :old:

Gyammy85
21-07-2016, 15:56
Pensavo che alcune slide non si erano ancora viste...c'è quella con tutti i giochi dove la 470 tiene i 60 fps e la tabella col clock della 470...

Gyammy85
21-07-2016, 17:13
Questo forse non è stato ancora postato

https://www.reddit.com/r/Amd/comments/4tfovg/new_rx470_and_rx460_dx12_benches_vs_rx480gtx/?st=iqwikuh7&sh=19bd73e7

Free Gordon
21-07-2016, 20:09
La 460 per un miniITX un pò "ciccio" :D parrebbe interessante. ^_^

Daytona
21-07-2016, 22:02
P.S: cioè la situazione di AMD è più complessa, non ha solo le gpu a cui pensare come Nvidia.
AMD ha dei paletti che Nvidia non ha nella realizzazione di una nuova architettura per le gpu,

di che paletti parliamo ?! :confused:

IlCavaliereOscuro
21-07-2016, 22:06
Sul forum concorrente dicono che le 470 avranno prestazioni inferiori solo del 3% rispetto alle 480... Secondo voi è vero?

Ale55andr0
21-07-2016, 22:12
Sul forum concorrente dicono che le 470 avranno prestazioni inferiori solo del 3% rispetto alle 480... Secondo voi è vero?

in fin dei conti hanno "solo" 256sp (2048vs2304) in meno e sempre 32rop, può essere, se il clock del core sarà sufficientemente alto.
Nel frattempo ho letto in giro che scorpio (la nuova console microsoft) potrebbe avere un apu con ben 56cu/3584sp gcn 4 anche se basso clock (800-850mhz), cosa che mi preoccupa non poco per le caratteristiche che dovrà avere un buon pc per tenere il passo, stante le ottimizzazioni possibili su una console :mc:

Ren
21-07-2016, 22:18
in fin dei conti hanno "solo" 256sp (2048vs2304) in meno e sempre 32rop, può essere, se il clock del core sarà sufficientemente alto.
Nel frattempo ho letto in giro che scorpio (la nuova console microsoft) potrebbe avere un apu con ben 56cu/3584sp gcn 4 anche se basso clock (800-850mhz), cosa che mi preoccupa non poco per le caratteristiche che dovrà avere un buon pc per tenere il passo, stante le ottimizzazioni possibili su una console :mc:

Perchè secondo te sviluppano due versioni del gioco ?

Sinceramente di puzza di fiera del riciclo in 4k.:sofico:

Ale55andr0
21-07-2016, 22:19
Perchè secondo te sviluppano due versioni del gioco ?

no, ma la conversione su pc non avviene mai indolore e richiede SEMPRE più risorse a pari grafica...



Sinceramente di puzza di fiera del riciclo in 4k.:sofico:

chevvordì? :fagiano:

Ren
21-07-2016, 22:22
Sul forum concorrente dicono che le 470 avranno prestazioni inferiori solo del 3% rispetto alle 480... Secondo voi è vero?

Rimane un best buy anche con -10%.

Disponibilità ignota...:mad:

Dopo le gaffe iniziali degne di fantozzi, ora ci toccano pure i problemi di disponibilità...:rolleyes:

Ren
21-07-2016, 22:30
no, ma la conversione su pc non avviene mai indolore e richiede SEMPRE più risorse a pari grafica...





chevvordì? :fagiano:


mbare, ca sunu iochi riciclati in risoluzione 4K. :p


ma sei catanese o romano in trasferta? :sofico:

skadex
21-07-2016, 22:33
Sul forum concorrente dicono che le 470 avranno prestazioni inferiori solo del 3% rispetto alle 480... Secondo voi è vero?

E' stata postata anche nella sezione specifica di questo forum un link ad un test esterno dove però il dato era riferito a Aos in dx12 se ho letto bene e se ti riferisci a quello.
Lì va il 3% in meno sembrerebbe.
All'inizio mi era preso un colpo anche a me all'idea che la 470 andasse così forte...

Ale55andr0
21-07-2016, 22:45
mbare, ca sunu iochi riciclati in risoluzione 4K. :p


ma sei catanese o romano in trasferta? :sofico:

non credo proprio cambi solo la risoluzione...e poi se un consolaro del cacchio può giocare in 4k mica vojo essere da meno, io appartengo alla PC master race :O

davo30
21-07-2016, 22:47
Rimane un best buy anche con -10%.

Disponibilità ignota...:mad:

Dopo le gaffe iniziali degne di fantozzi, ora ci toccano pure i problemi di disponibilità...:rolleyes:
http://uploads.tapatalk-cdn.com/20160721/a6cc16803f262fb6f41580f39425d68c.jpg

Inviato dal mio XT1092 utilizzando Tapatalk

Ren
21-07-2016, 22:52
http://uploads.tapatalk-cdn.com/20160721/a6cc16803f262fb6f41580f39425d68c.jpg

Inviato dal mio XT1092 utilizzando Tapatalk

:D tacci loro

http://digilander.libero.it/starandstarlette/tomasB.jpg