PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 [54] 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348

Luca T
07-06-2015, 18:19
Non so se è stato già riportato ma le Fury dovrebbero essere 3 non 2.
Fury pro 3520-3712 ST a 950mhz
Fury XT 4096 a 950mhz
Fury Nano: 4096 a 1050mhz (quindi il top) e la inseriscono in fascia della Titan
La Fury Nano dovrebbe essere equipaggiata con l'AIO
http://www.3dcenter.org/

La top dovrebbe essere la nano?:confused: non la furyX?

Ma xt è nano sono identiche come chip? La nano sarebbe solo overcloccata di fabbrica?

smoicol
07-06-2015, 18:20
io aspetto la versione nano cosi mi faccio un itx con x99 e passa la paura

mikael84
07-06-2015, 18:26
La top dovrebbe essere la nano?:confused: non la furyX?

Ma xt è nano sono identiche come chip? La nano sarebbe solo overcloccata di fabbrica?

Si solo più clockata e con AIO di serie

Luca T
07-06-2015, 18:29
Si solo più clockata e con AIO di serie

Vabbè quindi nel caso uno prende la XT e liquida!

Ora sono davvero curioso dei prezzi

FroZen
07-06-2015, 19:31
Imho la fiji liscia dovrebbe asfaltare la 980.... Vediamo son curioso :D

Il nabbo di turno
07-06-2015, 20:41
Imho la fiji liscia dovrebbe asfaltare la 980.... Vediamo son curioso :D

Fiji liscia se la deve giocare con la 980 ti, altro che 980...

Ale55andr0
07-06-2015, 20:45
si sa nulla del clock della ram?

FroZen
07-06-2015, 21:00
Fiji liscia se la deve giocare con la 980 ti, altro che 980...

Devi avere in mente le fasce di prezzo....

Liscia 499
X aria 649
X nano liquido 899

Mi sono fatto questa idea...la liscia costera poco piu della 980 ma andra di piu imho... La 980ti e la titan x le vedo li a prestazioni ma su diverse fasce...

OEidolon
07-06-2015, 21:01
LOL ve la ricordate la prima immagine della 390 della xfx? era proprio vera :asd:

http://wccftech.com/xfx-radeon-r9-390x-double-dissipation-8-gb-graphics-card-pictured-hawaii-gpu-core-2816-stream-processors/

Il nabbo di turno
07-06-2015, 21:10
Devi avere in mente le fasce di prezzo....

Liscia 499
X aria 649
X nano liquido 899

Mi sono fatto questa idea...la liscia costera poco piu della 980 ma andra di piu imho... La 980ti e la titan x le vedo li a prestazioni ma su diverse fasce...

Si dai, 400 dollari in piu' per un aio e 250/500 core, mica si chiama nvidia...

appleroof
07-06-2015, 21:15
Non so se è stato già riportato ma le Fury dovrebbero essere 3 non 2.
Fury pro 3520-3712 ST a 950mhz
Fury XT 4096 a 950mhz
Fury Nano: 4096 a 1050mhz (quindi il top) e la inseriscono in fascia della Titan
La Fury Nano dovrebbe essere equipaggiata con l'AIO
http://www.3dcenter.org/

Credo sia interessante questo:

Non-reference models will come to market as early as mid-August or as late as early September. For the next month or more, only reference models will be released.
As expected, the supply of reference models will be limited.
We believe that the AMD Fury series is sufficiently competitive with the TITAN X and the GTX 980 Ti.
AMD Fury will have a GPU and memory on top of a small interposer, so the concentrated heat from the interposer region looks unsatisfactory concerning the TDP, but in the reference models this problem is limited.
The heat from the cooler is of a high level (like the TITAN X), but the noise level is of no concern.

Luca T
07-06-2015, 21:19
Devi avere in mente le fasce di prezzo....

Liscia 499
X aria 649
X nano liquido 899

Mi sono fatto questa idea...la liscia costera poco piu della 980 ma andra di piu imho... La 980ti e la titan x le vedo li a prestazioni ma su diverse fasce...

Se i prezzi fossero questi e le prestazioni della X-aria fossero in linea con la 980ti chi la compra?

Sarebbe Stesso prezzo stesse prestazioni ma meno RAM è più consumi!

mikael84
07-06-2015, 22:24
Imho la fiji liscia dovrebbe asfaltare la 980.... Vediamo son curioso :D

L'asfalta infatti, il problema ora è il prezzo, se fosse in linea con l'attuale 980, Nvidia deve alzare bandiera bianca ed abbassare di botto il prezzo

si sa nulla del clock della ram?

500/1ghz, dipende da come verrà impostato via bios

mikael84
07-06-2015, 22:28
Devi avere in mente le fasce di prezzo....

Liscia 499
X aria 649
X nano liquido 899

Mi sono fatto questa idea...la liscia costera poco piu della 980 ma andra di piu imho... La 980ti e la titan x le vedo li a prestazioni ma su diverse fasce...

Il problema è che già la 390x dovrebbe costare quel tanto e tra le 2 c'e'una differenza abissale. Se intorno ai 600 euro finali è cmq tanta roba e tanto di cappello ad AMD. Tanto i modelli spinti e uber per 256ST lasciano il tempo che trovano:)

Credo sia interessante questo:

Non-reference models will come to market as early as mid-August or as late as early September. For the next month or more, only reference models will be released.
As expected, the supply of reference models will be limited.
We believe that the AMD Fury series is sufficiently competitive with the TITAN X and the GTX 980 Ti.
AMD Fury will have a GPU and memory on top of a small interposer, so the concentrated heat from the interposer region looks unsatisfactory concerning the TDP, but in the reference models this problem is limited.
The heat from the cooler is of a high level (like the TITAN X), but the noise level is of no concern.

Si letto Apple, per il momento vediamo le prestazioni effettive. Questo successe anche con le 290 purtroppo:)

Vul
07-06-2015, 23:18
Devi avere in mente le fasce di prezzo....

Liscia 499
X aria 649
X nano liquido 899

Mi sono fatto questa idea...la liscia costera poco piu della 980 ma andra di piu imho... La 980ti e la titan x le vedo li a prestazioni ma su diverse fasce...

Eh si certo, 250 euro per un aio..

muppo
08-06-2015, 00:13
Se i prezzi fossero questi e le prestazioni della X-aria fossero in linea con la 980ti chi la compra?

Sarebbe Stesso prezzo stesse prestazioni ma meno RAM è più consumi!

se la liscia sta al pari o vicino alla ti voglio vedere chi compra la fury ma anche la ti e la titan x.
Finiscile le frasi please :fagiano:

Catan
08-06-2015, 00:17
beh questa è la solita ovvietà, le versioni pro sono sempre state le best buy...all'uscita tra la 290 e la 290x era ovvio chi fosse il vincitore del prezzo/prestazioni.

Ale55andr0
08-06-2015, 09:14
500/1ghz, dipende da come verrà impostato via bios

ergo sono andati al ribasso

Radeon80
08-06-2015, 11:09
http://videocardz.com/56154/amd-radeon-r7-370-leaked

sembra che nella serie r7/r9 3xx utilizzeranno di nuovo Pitcairn.
Francamente vedere una gpu gcn 1.0 nel 2015 non è il massimo.
:mad:

Il nabbo di turno
08-06-2015, 11:13
http://videocardz.com/56154/amd-radeon-r7-370-leaked

sembra che nella serie r7/r9 3xx utilizzeranno di nuovo Pitcairn.
Francamente vedere una gpu gcn 1.0 nel 2015 non è il massimo.
:mad:

#ribrezzo!

Non deve costare più di 120 euro...

Maury
08-06-2015, 11:18
http://videocardz.com/56154/amd-radeon-r7-370-leaked

sembra che nella serie r7/r9 3xx utilizzeranno di nuovo Pitcairn.
Francamente vedere una gpu gcn 1.0 nel 2015 non è il massimo.
:mad:

Ancora GCN 1.0 ?

Mi sembra esagerato sinceramente.

Il nabbo di turno
08-06-2015, 11:20
Ancora GCN 1.0 ?

Mi sembra esagerato sinceramente.

Più che altro vorrei sapere il prezzo, io più di 120/130 euro una scheda del genere non la pago...

Lanzus
08-06-2015, 11:20
http://videocardz.com/56154/amd-radeon-r7-370-leaked

sembra che nella serie r7/r9 3xx utilizzeranno di nuovo Pitcairn.
Francamente vedere una gpu gcn 1.0 nel 2015 non è il massimo.
:mad:

Madonna ... AMD con le pezze al culo davvero.

Il nabbo di turno
08-06-2015, 11:26
Madonna ... AMD con le pezze al culo davvero.

Ora, non per difendere amd sia chiaro, ma nvidia nel mobile fa di molto peggio, ancora girano i chip fermi nella serie 800m...
Ormai pure l'hd graphics integrata nei processori va di più...

muppo
08-06-2015, 11:34
Ora, non per difendere amd sia chiaro, ma nvidia nel mobile fa di molto peggio, ancora girano i chip fermi nella serie 800m...
Ormai pure l'hd graphics integrata nei processori va di più...

stavo per dire lo stesso
non che nvidia sia meglio eh in certi ambiti

Radeon80
08-06-2015, 11:36
http://www.pcgameshardware.de/AMD-Radeon-R9-285-2G-Grafikkarte-259969/News/Tonga-GPU-256-Bit-Interface-und-32-CUs-1160632/

posto questo link per parlare dell'immagine nella notizia stessa.
Dovrebbe essere un immagine di Tonga e si parla della questione del bus di memoria.
Guardando i 6 rettangoli che sono in alto,basso e nella parte destra della GPU(che dovrebbero essere i 6 canali di memoria a 64 bit ognuno)dovrebbero formare un bus a 384 bit e non a 256 bit.
Ma però guardando come sono strutturati tutti e 6 i canali,quelli di destra sono completamenti diversi rispetto agli altri 4.
Sono per caso sempre dei canali di memoria oppure hanno un altra tipologia di funzione?

riquoto quanto ho postato perchè secondo me è interessante per arricchire la discussione.

Il nabbo di turno
08-06-2015, 11:38
riquoto quanto ho postato perchè secondo me è interessante per arricchire la discussione.

Imho, in ottica tonga xt, meglio girare comunque con un bus a 256 bit, visti i costi del 384 bit.
Al massimo ciò che è veramente necessario, sono i 4gb di vram.

Free Gordon
08-06-2015, 11:39
Mi pare ovvio che le 370 siano delle 7870..

Pitcairn era un chip a sè, non è uno scarto. Ergo non avendo scarti così grossi da chip come Tonga o Tahiti...non puoi fare un chip 1.1 da questi ultimi per la fascia medio/bassa e bassa... e rebrandizzi al 100%.

Oppure fai come Nvdia...che è uscita con la 750 come test (test cmq che ha avuto poca efficacia perf/price...) oppure rebrandizzi tutto. I 16nm sono tra 12 mesi...chi rifarebbe mai il progetto di un chip del genere...magari con le features gcn1.2 per 12 mesi di mercato?? :)

Free Gordon
08-06-2015, 11:42
Imho, in ottica tonga xt, meglio girare comunque con un bus a 256 bit, visti i costi del 384 bit.
Al massimo ciò che è veramente necessario, sono i 4gb di vram.

Tonga XT imho a senso SOLO con un bus a 256bit e 4GB di ram... ;)
Consumi migliori, resa buona a 1080p (tanto sarà quella la res target per un chip del genere..).
Tutto starà nel vedere a che frequenza girerà. Se è sarà sui 1050, la vedo facilmente vicina alle prestazioni della 280x.

Il nabbo di turno
08-06-2015, 11:44
Tonga XT imho a senso SOLO con un bus a 256bit e 4GB di ram... ;)
Consumi migliori, resa buona a 1080p (tanto sarà quella la res target per un chip del genere..).
Tutto starà nel vedere a che frequenza girerà. Se è sarà sui 1050, la vedo facilmente vicina alle prestazioni della 280x.

In certe review la 285 è poco sotto alla 280x, che ha 2cu in più e 100 mhz in più sul core.
Tonga xt con 2048 core, 1ghz di frequenza e 4gb di vram, quel 10-15% in più rispetto alla 280x me lo deve dare tutto.

http://techreport.com/review/26997/amd-radeon-r9-285-graphics-card-reviewed/5

Il nabbo di turno
08-06-2015, 11:45
Mi pare ovvio che le 370 siano delle 7870..

Pitcairn era un chip a sè, non è uno scarto. Ergo non avendo scarti così grossi da chip come Tonga o Tahiti...non puoi fare un chip 1.1 da questi ultimi per la fascia medio/bassa e bassa... e rebrandizzi al 100%.

Oppure fai come Nvdia...che è uscita con la 750 come test (test cmq che ha avuto poca efficacia perf/price...) oppure rebrandizzi tutto. I 16nm sono tra 12 mesi...chi rifarebbe mai il progetto di un chip del genere...magari con le features gcn1.2 per 12 mesi di mercato?? :)

Al massimo fai un laser cut di tonga pro a 1280/1536 core e la butti come 370x.

devil_mcry
08-06-2015, 11:51
Ora, non per difendere amd sia chiaro, ma nvidia nel mobile fa di molto peggio, ancora girano i chip fermi nella serie 800m...
Ormai pure l'hd graphics integrata nei processori va di più...

Si ma sono schede ribrandizzate l'anno scorso ed erano GPU praticamente di fascia 0, senza pretese... Quelle di quest'anno non sono tutte Maxwell ecceto una che è kepler (la più low end)

Luca T
08-06-2015, 11:53
se la liscia sta al pari o vicino alla ti voglio vedere chi compra la fury ma anche la ti e la titan x.
Finiscile le frasi please :fagiano:

Io intendevo che se una Fury X ad aria va come una 980ti e costa uguale alla 980ti ma ha meno RAM e consuma di più la gente a parità di spesa prenderà la 980ti!

Che poi perché "liscia"? La pro sarebbe la "castrata" o la "ridotta"!

Liscia per me nel caso é la full-Chip base!

Il nabbo di turno
08-06-2015, 11:55
Si ma sono schede ribrandizzate l'anno scorso ed erano GPU praticamente di fascia 0, senza pretese... Quelle di quest'anno non sono tutte Maxwell ecceto una che è kepler (la più low end)

L'820m la vedo tutt'ora assieme agli i3/i5 u broadwell, e mi viene il magone al solo pensiero...

devil_mcry
08-06-2015, 11:57
L'820m la vedo tutt'ora assieme agli i3/i5 u broadwell, e mi viene il magone al solo pensiero...

Che la usino perchè ne hanno comprate a badilate non vuol dire che sia una GPU di quest'anno, come non sono di quest'anno gli i5 e i7 di 4° Gen su cui sono montate...

E' una GPU di marzo 2014 la 820m, dai su...

Il nabbo di turno
08-06-2015, 12:05
Che la usino perchè ne hanno comprate a badilate non vuol dire che sia una GPU di quest'anno, come non sono di quest'anno gli i5 e i7 di 4° Gen su cui sono montate...

E' una GPU di marzo 2014 la 820m, dai su...

E che significa scusa?Guarda che il core che monta è prodotto dal settembre 2010.
http://www.notebookcheck.net/NVIDIA-GeForce-GT-435M.35836.0.html

Ben 4 anni di rebrand....

Free Gordon
08-06-2015, 12:10
Al massimo fai un laser cut di tonga pro a 1280/1536 core e la butti come 370x.

hmmm.......se ci fosse ancora Yossarian ti darebbe una bella tirata d'orecchie! :sofico:

Perché AMD dovrebbe farsi da sola così del male economicamente?? :p

Luca T
08-06-2015, 12:10
Dai su solo 8 giorni :O

Il nabbo di turno
08-06-2015, 12:11
hmmm.......se ci fosse ancora Yossarian ti darebbe una bella tirata d'orecchie! :sofico:

Perché AMD dovrebbe farsi da sola così del male economicamente?? :p

Metti che hanno dei chip scartati, e succede...

devil_mcry
08-06-2015, 12:13
E che significa scusa?Guarda che il core che monta è prodotto dal settembre 2010.
http://www.notebookcheck.net/NVIDIA-GeForce-GT-435M.35836.0.html

Ben 4 anni di rebrand....

Si ma in primo luogo sono GPU non destinate all'uso ludico ed inoltre non è basata sul GF108 ma sul GF117, è il rebrand della GT620M uscita nel 2012 non della 435M del 2010.

Il GF117 è la seconda rev di Fermi...

Free Gordon
08-06-2015, 12:14
E che significa scusa?Guarda che il core che monta è prodotto dal settembre 2010.
http://www.notebookcheck.net/NVIDIA-GeForce-GT-435M.35836.0.html
Ben 4 anni di rebrand....

Sì è un Fermi... :D

Beh ma nell'era dei 28nm "eterni"...questo è un must ormai :D

Il nabbo di turno
08-06-2015, 12:19
Si ma in primo luogo sono GPU non destinate all'uso ludico ed inoltre non è basata sul GF108 ma sul GF117, è il rebrand della GT620M uscita nel 2012 non della 435M del 2010.

Il GF117 è la seconda rev di Fermi...

Si è una revisione del gf108, vero.
Ma dipende che revisione è, il numero dei core è lo stesso, cambia solo la frequenza di lavoro.

Il nabbo di turno
08-06-2015, 12:20
Potrebbe trattarsi di una revisione in stile gtx 460->560...

Free Gordon
08-06-2015, 12:27
Ma il discorso è un altro...

Nvidia ha fatto un'archi nuova, in mezzo a Kepler e Pascal.

AMD no.

AMD ha (come del resto sempre) fatto e farà un'archi nuova ogni 3 anni mezzo... Con tutti i vantaggi/svantaggi del caso.

Per il consumatore la domanda buona però è sempre la stessa.

Quanto va' la scheda e quanto costa? :)

Oggi si è aggiunta anche la "puttanata" (consentitemi) dei consumi. :)
Ma all'effettivo, non cambia di molto la domanda di cui sopra... :)

Per un gamer "drogato" che non ha proprio un cazzo da fare (uno che gioca quotidianamente con una media di 2 ore al giorno diciamo, per tutti i sacrosanti giorni dell'anno), le differenze di consumo incidono di una cifra irrisoria sulla bolletta annuale. :)
Per gli altri sono nulle le differenze.

Col salto sul nuovo PP a 16nm certo ci saranno differenze significative perf/watt. :) Ma la domanda buona per un gamer comune (diciamo il 99% delle persone normali :stordita: ) sarà sempre quella dai.... :fagiano:

Io ritengo che meno un chip consumi meglio sia...ovvio..ma se devo spendere dei soldi per un pc, quello che guardo è la perf/spesa. Essenzialmente.

appleroof
08-06-2015, 12:40
Ma il discorso è un altro...

Nvidia ha fatto un'archi nuova, in mezzo a Kepler e Pascal.

AMD no.

AMD ha (come del resto sempre) fatto e farà un'archi nuova ogni 3 anni mezzo... Con tutti i vantaggi/svantaggi del caso.

Per il consumatore la domanda buona però è sempre la stessa.

Quanto va' la scheda e quanto costa? :)

Oggi si è aggiunta anche la "puttanata" (consentitemi) dei consumi. :)
Ma all'effettivo, non cambia di molto la domanda di cui sopra... :)

Per un gamer "drogato" che non ha proprio un cazzo da fare (uno che gioca quotidianamente con una media di 2 ore al giorno diciamo, per tutti i sacrosanti giorni dell'anno), le differenze di consumo incidono di una cifra irrisoria sulla bolletta annuale. :)
Per gli altri sono nulle le differenze.

Col salto sul nuovo PP a 16nm certo ci saranno differenze significative perf/watt. :) Ma la domanda buona per un gamer comune (diciamo il 99% delle persone normali :stordita: ) sarà sempre quella dai.... :fagiano:

Io ritengo che meno un chip consumi meglio sia...ovvio..ma se devo spendere dei soldi per un pc, quello che guardo è la perf/spesa. Essenzialmente.

In generale il risparmio energetico su fasce alte è pure vero possa avere un peso relativo per la media degli utenti cui si rivolgono, però il fatto che meno tdp vuol dire meno calore e relativa più facilitá di OC no...

Inoltre se non si cercasse il limite avremmo oggi VGA da 500 watt :D come sembrava voler fare nVidia ai tempi di Fermi con le performance ad ogni costo, trovo invece ottima la strategia di aumentare le performance non dico a meno tdp, ma almeno a parità della gen precedente questo si, ed in quest'ottica (oltre al lato pratico dell'oc che dicevo) il "discorso consumi" assume ben altra importanza secondo la mia opinione, infatti ai tempi della VLIW il rapporto performance/watt delle GPU AMD era non a torto citato tra i vantaggi e i pregi delle stesse.

muppo
08-06-2015, 13:05
Io intendevo che se una Fury X ad aria va come una 980ti e costa uguale alla 980ti ma ha meno RAM e consuma di più la gente a parità di spesa prenderà la 980ti!

Che poi perché "liscia"? La pro sarebbe la "castrata" o la "ridotta"!

Liscia per me nel caso é la full-Chip base!

certo, però ancora non si sa ne se fury x andrà di meno, ne se costerà uguale alla ti e tantomeno se consumerà di più, sono solo supposizioni.

Per te liscia è full io intendevo il modello base, nemmeno si sanno i nomi ufficiali.

HadesSaint
08-06-2015, 13:21
ma sinceramente ora con la 290 OC conviene passare a questa Fury? Meglio aspettare icelake (next generation 14nm(se si chiamano cosi non ricordo))

Luca T
08-06-2015, 13:22
certo, però ancora non si sa ne se fury x andrà di meno, ne se costerà uguale alla ti e tantomeno se consumerà di più, sono solo supposizioni.

Per te liscia è full io intendevo il modello base, nemmeno si sanno i nomi ufficiali.

Ma infatti quotando un ipotesi di prezzo di Frozen avevo scritto

"Se i prezzi fossero questi e le prestazioni della X-aria fossero in linea con la 980ti chi la compra?"

devil_mcry
08-06-2015, 13:45
Ma il discorso è un altro...

Nvidia ha fatto un'archi nuova, in mezzo a Kepler e Pascal.

AMD no.

AMD ha (come del resto sempre) fatto e farà un'archi nuova ogni 3 anni mezzo... Con tutti i vantaggi/svantaggi del caso.

Per il consumatore la domanda buona però è sempre la stessa.

Quanto va' la scheda e quanto costa? :)

Oggi si è aggiunta anche la "puttanata" (consentitemi) dei consumi. :)
Ma all'effettivo, non cambia di molto la domanda di cui sopra... :)

Per un gamer "drogato" che non ha proprio un cazzo da fare (uno che gioca quotidianamente con una media di 2 ore al giorno diciamo, per tutti i sacrosanti giorni dell'anno), le differenze di consumo incidono di una cifra irrisoria sulla bolletta annuale. :)
Per gli altri sono nulle le differenze.

Col salto sul nuovo PP a 16nm certo ci saranno differenze significative perf/watt. :) Ma la domanda buona per un gamer comune (diciamo il 99% delle persone normali :stordita: ) sarà sempre quella dai.... :fagiano:

Io ritengo che meno un chip consumi meglio sia...ovvio..ma se devo spendere dei soldi per un pc, quello che guardo è la perf/spesa. Essenzialmente.

Si però tipo TeraScale è vero che è andata avanti vari anni però l'hanno evoluta in maggior misura rispetto a quello che ha visto GCN... Comunque un giocatore "drogato" non gioca solo 2h al giorno :D alza pure il tiro a 6 ore in media al giorno per uno che non fa niente ... :D io quando andavo all'uni d'estate nei giorni normali ne facevo anche di più :D

davo30
08-06-2015, 14:04
Ora, non per difendere amd sia chiaro, ma nvidia nel mobile fa di molto peggio, ancora girano i chip fermi nella serie 800m...
Ormai pure l'hd graphics integrata nei processori va di più...

E' vero, pero dopo tutto sto ritardo e rimandi, vedere ancora una Pitcairn fa ribrezzo. Capirei fosse stata degradata a un 350, ma vederla ancora come 370/370x.... Mi domando, ma da dicembre 2013 (data di uscita delle 2xx) ad oggi AMD cosa ha fatto??????

Raven
08-06-2015, 14:10
Una 7970 ha un bus a 384bit, 3Gb di ram e fa girare quasi tutto in fullHD a dettagli full... quindi è ancora una signora scheda... ;)
Cosa le manca (come feature) rispetto alle nuove?! :stordita:
Se la piazzassero a 150€ sarebbe un best buy assoluto, altroché! :O

devil_mcry
08-06-2015, 14:12
Una 7970 ha un bus a 384bit, 3Gb di ram e fa girare quasi tutto in fullHD a dettagli full... quindi è ancora una signora scheda... ;)
Cosa le manca (come feature) rispetto alle nuove?! :stordita:
Se la piazzassero a 150€ sarebbe un best buy assoluto, altroché! :O

Ma non si parla di una 7870? Pitcairn sono le vecchie 7870/7850

Raven
08-06-2015, 14:22
Ma non si parla di una 7870? Pitcairn sono le vecchie 7870/7850

:fagiano: ....

:eek:

Ritiro tutto!! :O

OEidolon
08-06-2015, 14:23
dai ragazzi, sti prezzi non sembrano tanto male :D

però mancano le Fury :fagiano:

http://wccftech.com/amd-radeon-300-series-pricing-confirmed-aggressive/

devil_mcry
08-06-2015, 14:27
dai ragazzi, sti prezzi non sembrano tanto male :D

però mancano le Fury :fagiano:

http://wccftech.com/amd-radeon-300-series-pricing-confirmed-aggressive/

389 per la 290x la porteranno a quasi sicuramente a 450€ in euro ... assurdo il piazzamento della 370. Quella scheda costa uguale da 3 anni -.-

Ad ora si trovano a 400€ le attuali 8GB, secondo me conviene puntare a prendere una 290x OC da 4GB, si risparmiano 100€ minimo per performance equivalenti, prima che diventeranno rare

appleroof
08-06-2015, 14:33
Non so se già postata videocardz.com/56171/sapphire-radeon-300-series-listed-online

Free Gordon
08-06-2015, 14:43
In generale il risparmio energetico su fasce alte...



Perché Hawaii non si occa bene e non scala bene? ;)

Non mi pare..

Certo che gli estremi non vanno mai bene...per nessuno. Ma questo penso che sia chiaro a tutti, AMD compresa... ;)

Free Gordon
08-06-2015, 14:46
Si però tipo TeraScale è vero che è andata avanti vari anni però l'hanno evoluta in maggior misura rispetto a quello che ha visto GCN... Comunque un giocatore "drogato" non gioca solo 2h al giorno :D alza pure il tiro a 6 ore in media al giorno per uno che non fa niente ... :D io quando andavo all'uni d'estate nei giorni normali ne facevo anche di più :D

si ma una MEDIA dai... su 365gg...non son più di due/forse tre ore... sennò cacchio è da andare al manicomio! :sofico:

Anche io in vita mia ho fatto delle giocate da 8 ore in una giornata...ma il giorno dopo avevo già un po' di nausea da vg.. :D

Free Gordon
08-06-2015, 14:50
ma sinceramente ora con la 290 OC conviene passare a questa Fury? Meglio aspettare icelake (next generation 14nm(se si chiamano cosi non ricordo))


Se hai soldi da buttare.... :sofico:

Oh poi ognuno col denaro ci fa' quel che vuole eh. :D


Io se avessi una cpu Intel "buona", ad una eventuale Fiji "pro" ci penserei anche...dipende ovviamente dal costo della scheda. Non spenderei mai più di 350 euro per una GPU, personalmente. Ma è una mia scelta.

Free Gordon
08-06-2015, 14:55
dai ragazzi, sti prezzi non sembrano tanto male :D

però mancano le Fury :fagiano:

http://wccftech.com/amd-radeon-300-series-pricing-confirmed-aggressive/


Beh... 390 IVATI euro per una 390X 8GB potrebbe essere un prezzo accettabile.
Se la frequenza sarà 1050mhz con buona dissipazione, dovrebbe stare sempre davanti alla 970.

Tonga full 4GB potrebbe essere una buona scheda per il mainstream a 240 euro.

FroZen
08-06-2015, 14:56
Articolo che mette fine definitivamente alla buffonata dx12 si/no/forse

http://www.extremetech.com/extreme/207598-demystifying-directx-12-support-what-amd-intel-and-nvidia-do-and-dont-deliver

Andiamo avanti :O

mircocatta
08-06-2015, 15:28
cmq fury è già uscito

per soli 8€, al cinema però :asd:

con questa ora vado a chiudermi nel mio stanzino della vergogna

si sa niente sulle misure dei fori per i dissi/waterblock?

devil_mcry
08-06-2015, 15:28
7870 quando è uscita non costava affatto 135$ :rolleyes:
http://www.techpowerup.com/reviews/AMD/HD_7850_HD_7870/ e queste sono le reference, 7850 250$ e 7870 350$ alcune custom della 7870 arrivavano anche a 400$...
http://www.techpowerup.com/reviews/AMD/R9_270X/ 270x (7870) a 200$ al lancio
http://www.techpowerup.com/reviews/Sapphire/R7_265_Dual-X/ 265 (7850) a 150$ al lancio

detto questo utilizzare ancora GCN 1.0 anche se nella fascia bassa aka R7 scoccia abbastanza, si avranno lo stesso le DX12, ma saranno poco fruibili anche se lo sarebbero comunque dato che la gpu è attualmente una fascia bassa
Hai ragione ricordavo male, cmq già a metà 2012 c'era stato il taglio di prezzo http://www.anandtech.com/show/6093/amd-radeon-hd-7970-7950-7870-price-cuts-inbound-7970ge-available-next-week

Comunque la 270x si trova ora a 148€ su Amazon, quelle schede li non andranno a costare meno che guadagno c'è? Nemmeno c'è un riposizionamento a ribasso anche se il prezzo di listino è minore di quello delle 270 tagliato (che era di 160$) perchè ormai con l'euro più debole il prezzo ufficiale in euro sarà simile

Antimo96
08-06-2015, 17:26
Spero che la 380 nitro da 4gb sia un tonga full e non una semplice 285 con 2gb di ram in più. La mia attesa sarebbe stata vana a quel punto...e andrei di nVidia

OEidolon
08-06-2015, 17:49
Spero che la 380 nitro da 4gb sia un tonga full e non una semplice 285 con 2gb di ram in più. La mia attesa sarebbe stata vana a quel punto...e andrei di nVidia

ma tonga full non sarebbe tonga xt? quindi bus a 384bit e 3 o 6gb di vram :what:

Catan
08-06-2015, 18:00
credo sia ancora discusso e nebuloso il tonga full che bus avrà...sulle sp siamo tutti d'accordo che sarà a 2048sp...
sul bus chi dice 256 a 4gb o chi 384 a 3 o 6. Magari poi creando qualche sovrapposizione di mercato tra la 380 a 4gb e la 380x a 3gb.

Per il resto se avrà un bus da 384 bit, saranno 6 unità da 64bit derivanti da hawaii, il che vorrebbe dire a priori una migliore gestione delle memorie rispetto a tahiti.

Antimo96
08-06-2015, 18:16
ma tonga full non sarebbe tonga xt? quindi bus a 384bit e 3 o 6gb di vram :what:

Giocando a 1080p con msaa modesto(2x/4x),non si dovrebbero avere problemi con un bus a 256.Stesso discorso per i 3 o 4gb di vram,a 1080 p non si dovrebbe avere problemi con nessuna delle due opzioni,considerando la compressione adottata dall'architettura della gpu.
L'importante è che sia un tonga con tutti i 2048 shaders sbloccati,e non il chip castrato della 285 con sola più vram.Un tonga xt desktop potrebbe andare il 10% più della 280x consumando e scaldando meno,senza considerare le varie features e il come renda nettamente meglio in certi ambiti
La 380x nemmeno viene accennata nelle tabelle sapphire e sinceramente mi preoccupa ciò.

Major Clock
08-06-2015, 18:27
Questo thread ha bisogno di più Kung Fury: https://www.youtube.com/watch?v=bS5P_LAqiVg

OEidolon
08-06-2015, 18:35
Giocando a 1080p con msaa modesto(2x/4x),non si dovrebbero avere problemi con un bus a 256.Stesso discorso per i 3 o 4gb di vram,a 1080 p non si dovrebbe avere problemi con nessuna delle due opzioni,considerando la compressione adottata dall'architettura della gpu.
L'importante è che sia un tonga con tutti i 2048 shaders sbloccati,e non il chip castrato della 285 con sola più vram.Un tonga xt desktop potrebbe andare il 10% più della 280x consumando e scaldando meno,senza considerare le varie features e il come renda nettamente meglio in certi ambiti
La 380x nemmeno viene accennata nelle tabelle sapphire e sinceramente mi preoccupa ciò.

non mettevo in dubbio il lato prestazionale, quanto invece la tua speranza che quella 380 nitro sia qualcosa di diverso da un tonga castrato ;)

Free Gordon
08-06-2015, 19:01
Articolo che mette fine definitivamente alla buffonata dx12 si/no/forse

http://www.extremetech.com/extreme/207598-demystifying-directx-12-support-what-amd-intel-and-nvidia-do-and-dont-deliver

Andiamo avanti :O


"Prior to DirectX 11, every new DirectX version was tied to new hardware requirements. From time to time, AMD or Nvidia might implement a specific feature in hardware before it became part of a future DirectX standard, but graphics cards were fixed to the DirectX APIs they supported at launch. Without the flexibility afforded by feature levels, the only gamers who could take advantage of DX12 would be those who purchased either a GCN 1.1, 1.2, or Maxwell GPU. Everyone else, including the millions of people with slightly older cards, would’ve been left out in the cold."

Ergo tutto sto casino è stato fatto per salvare Nvidia? :sofico:

devil_mcry
08-06-2015, 19:29
"Prior to DirectX 11, every new DirectX version was tied to new hardware requirements. From time to time, AMD or Nvidia might implement a specific feature in hardware before it became part of a future DirectX standard, but graphics cards were fixed to the DirectX APIs they supported at launch. Without the flexibility afforded by feature levels, the only gamers who could take advantage of DX12 would be those who purchased either a GCN 1.1, 1.2, or Maxwell GPU. Everyone else, including the millions of people with slightly older cards, would’ve been left out in the cold."

Ergo tutto sto casino è stato fatto per salvare Nvidia? :sofico:

No, li sta dicendo semplicemente che che quelle schede sono quelle DX12 o DX12.1. Senza i Tier le altre schede non sarebbero DX12 (e non lo sono perchè non supportano quasi l'async compute, guadagnano solo dalla diminuzione dell'overhead e sono la maggior parte perchè quanti hanno una 285 e quanti una 280x ad esempio?)

nVidia Kepler non la vende più come soluzione desktop (sono solo fondi di magazzino) mentre le CGN 1.0 sono ancora in giro oggi e sono le schede in vendita oggi.

Se avessero tolto le schede vecchie e richiesto features hw nuove (quelle incluse nelle dx12.1) come tier 0 cosa sarebbe successo alla full rebrand della serie 3?

okorop
08-06-2015, 19:30
Questo thread ha bisogno di più Kung Fury: https://www.youtube.com/watch?v=bS5P_LAqiVg

non c'è che dire un capolavoro della cinematografia :D

"Prior to DirectX 11, every new DirectX version was tied to new hardware requirements. From time to time, AMD or Nvidia might implement a specific feature in hardware before it became part of a future DirectX standard, but graphics cards were fixed to the DirectX APIs they supported at launch. Without the flexibility afforded by feature levels, the only gamers who could take advantage of DX12 would be those who purchased either a GCN 1.1, 1.2, or Maxwell GPU. Everyone else, including the millions of people with slightly older cards, would’ve been left out in the cold."

Ergo tutto sto casino è stato fatto per salvare Nvidia? :sofico:

e si :asd: :asd:

Antimo96
08-06-2015, 19:58
Cioè l'attore di hitler è uno dei 2 cantanti dei lonely island,ciò rende il film anche più strano :mbe:
Questa roba anni 80 la amo ahahah

Vul
08-06-2015, 20:03
#ribrezzo!

Non deve costare più di 120 euro...

Bah, comprai una sapphire 7870 a 140 nel lontano 2013.

Siamo ancora lì, anzi, sono pure cresciuti i prezzi.

Il nabbo di turno
08-06-2015, 20:05
http://wccftech.com/amd-radeon-300-series-pricing-confirmed-aggressive/

Sta sera faccio da matti!

Il nabbo di turno
08-06-2015, 20:07
Bah, comprai una sapphire 7870 a 140 nel lontano 2013.

Siamo ancora lì, anzi, sono pure cresciuti i prezzi.

Considera che la scheda è partita a quasi 300 euro nel 2012, la 270x è stata lanciata a 199 dollari nel tardo 2013, quindi 170-180 euro, prima dell'euro forte la trovavi a 149 euro spedita su amazon la sapphire dual x....

Il nabbo di turno
08-06-2015, 20:12
Imho a 130 euro col cacchio che trovo una vga dalle performance della 270x, non per dire, ma offre performance poco sotto/al pari di una 760....

Discorso simile per la 380 con 4gb di vram, per 220 euro, è un colpo alla 960 che costa quella cifra li con 2gb di vram...

Vul
08-06-2015, 20:27
Imho a 130 euro col cacchio che trovo una vga dalle performance della 270x, non per dire, ma offre performance poco sotto/al pari di una 760....

Discorso simile per la 380 con 4gb di vram, per 220 euro, è un colpo alla 960 che costa quella cifra li con 2gb di vram...

Si, ma è roba vecchia su.

E poi anche una 660ti è più veloce di una 270x eh. Ficuriamoci una 760.

Una volta in fascia media e medio bassa, aspettavi due anni gli fps raddoppiavano.

Io con il cavolo che compro vga prima dei 14nm.

Il nabbo di turno
08-06-2015, 20:45
Si, ma è roba vecchia su.

E poi anche una 660ti è più veloce di una 270x eh. Ficuriamoci una 760.

Una volta in fascia media e medio bassa, aspettavi due anni gli fps raddoppiavano.

Io con il cavolo che compro vga prima dei 14nm.

Insomma, la 270x se la gioca bene sia con la 660 ti che con la 760, che poi tra le due ci balla un 5%...
http://tpucdn.com/reviews/ASUS/GTX_960_STRIX_OC/images/perfrel_1920.gif

psychok9
08-06-2015, 21:04
No, li sta dicendo semplicemente che che quelle schede sono quelle DX12 o DX12.1. Senza i Tier le altre schede non sarebbero DX12 (e non lo sono perchè non supportano quasi l'async compute, guadagnano solo dalla diminuzione dell'overhead e sono la maggior parte perchè quanti hanno una 285 e quanti una 280x ad esempio?)

nVidia Kepler non la vende più come soluzione desktop (sono solo fondi di magazzino) mentre le CGN 1.0 sono ancora in giro oggi e sono le schede in vendita oggi.

Se avessero tolto le schede vecchie e richiesto features hw nuove (quelle incluse nelle dx12.1) come tier 0 cosa sarebbe successo alla full rebrand della serie 3?

Il discorso è un po' più complesso, credo che ognuno abbia tirato acqua al suo mulino e comunque pare a me la scelta alla fine più intelligente, tirare in DX12 più schede possibili è un bene per noi consumatori, starà poi al gioco sfruttare eventualmente tutto o in parte.

Ora inizieranno a dire che NV ha fatto apposta a non supportare pienamente le specifiche del FL 11.1 perché non conveniva ai giocatori citando questo link http://nvidia.custhelp.com/app/answers/detail/a_id/3196/ senza però capirci un cazzo di quello di cui si parla e prendendo per oro colato quel che il reparto PR-marketing di NV ha spacciato sotto forma di "comunicato per gli sviluppatori".

Le due funzionalità non supportate dell'hardware di NV non così innocue come vogliono far credere, ma hanno ripercussione su tutta la nuova meccanica delle UAV introdotta con D3D 11.1.
Infatti Microsoft - che ha sempre l'ultima parola - ha deciso di non esporre tramite cap-bit la terza funzionalità da loro supportata ("UAVs in the vertex, geometry and tessellation shaders") senza il supporto di quelle due funzionalità, inoltre non è esposta tramite cap-bit neanche la possibilità di passare da 8 a 64 UAV (cosa che il reparto PR-marketing di NV furbamente non cita), e la stessa cosa è accaduta con D3D 12.0.

Le funzionalità non riguardanti le UAV invece Microsoft ha deciso di esporle lo stesso anche al feature level 11.0 in quanto non rompono alcun meccanismo interno dell'API se prese sincolarmente e anche questo è accaduto nuovamente con D3D 12.0.

Per motivi di NDA non posso citare le fonti, ma posso solo dire che se in D3D12 fosse stato possibile esporre il FL 11.1 anche per Fermi, Kepler e Maxwell 1.0 la cosa sarebbe stata fatta e alla grande, ci avrebbero guadagnato tutti.
Paradossalmente ora i progetti minori o dove non ci sono le risorse per supportare ogni singola funzionalità o ogni singolo feature level è più facile che si sviluppi esclusivamente ancora attorno al feature level 11.0 in quanto quello supportato da tutti. Ovviamente per i progetti dove non vi sono questi problemi, lo sviluppo attorno a tutti i feature level e le funzionalità singole necessari agli sviluppatori continuerà ad esserci come è stato fatto fino ad ora (in molti più titolo che l'utente medio pensa, semplicemente sono cose nascoste al giocatore).

Tutto questo non è accaduto perché c'è stato dietro ad un complotto capitanato da AMD e Microsoft brutte e cattive ma perché le architetture Fermi, Kepler e Maxwell 1.0 hanno forti limitazioni nella gestione delle UAV che sono la chiave di algoritmi general purpose sia dedicati alla grafica che non. Chiamalo poco.
http://www.bitsandchips.it/9-hardware/5660-tier-e-feature-level-vediamo-di-fare-un-po-di-chiarezza

psychok9
08-06-2015, 21:10
http://wccftech.com/amd-radeon-300-series-pricing-confirmed-aggressive/

Sta sera faccio da matti!

Cioè? Se limano ancora... la 390X diverrebbe il best buy in quella fascia di prezzo. Speriamo bene :)
Se riuscissero a lanciare giochi che sfruttino CF/SLI in DX12 poi... sarebbe eccezzionale, finalmente più libertà di aggiungere schede ecc e gli 8GB sono davvero tanti.

devil_mcry
08-06-2015, 21:19
Il discorso è un po' più complesso, credo che ognuno abbia tirato acqua al suo mulino e comunque pare a me la scelta alla fine più intelligente, tirare in DX12 più schede possibili è un bene per noi consumatori, starà poi al gioco sfruttare eventualmente tutto o in parte.

E' la stessa cosa per GCN 1.0

Non supporta più delle 11_1, ha solo 2 async compute elaborabili (quindi nemmeno un incremento elevato sotto quel profilo) quindi cosa rimane? La diminuzione dell'overhead fine.

Ma il punto qual'è, tolte le 750/750Ti che però sono schede di fascia bassa (almeno secondo me poi è opinabile), le altre sono o non sono prodotti vecchi? Quando sono state vendute sono state vendute come schede DX11 e oggi sono tutte in EOL.

Quindi se avessero fatto le cose per bene, ovvero togliere i tier dx12 e dx12.1 e avessero fatto una sola nuova specifica come era capitato con le DX11 quante schede ci sarebbero oggi in commercio DX12? Una sola, Maxwell 2.0.

AMD cosa avrebbe venduto adesso con la nuova generazione?

Per inciso a me non frega niente delle DX12, per me non dovevano certificare le schede vecchie DX12, e fare una specifica nuova e solida. Ci hanno guadagnato tutti senno avevi voglia a vendere schede DX11.1 quando l'altro vendeva schede DX12...

Sono d'accordo che tutti ci guadagnano così, ma è un guadagno finto perchè molte VGA in commercio. Anche quelle DX12 (GCN 1.1 e 1.2) ad esempio sono 1+8 mentre Maxwell 2 è 1+31, non so nei numeri reali quanto impatterà realmente però la differenza è tanta...

IngMetallo
08-06-2015, 22:24
http://wccftech.com/amd-radeon-300-series-pricing-confirmed-aggressive/

Sta sera faccio da matti!

Non ci credo, non possono essere quelli i prezzi :O spero di sbagliarmi ovviamente :D

muppo
08-06-2015, 22:40
Non ci credo, non possono essere quelli i prezzi :O spero di sbagliarmi ovviamente :D

e per quale motivo?
con la 390x 8gb vanno a piazzarsi sulla stessa fascia di prezzo delle 970, ottimo direi per amd

valdio
09-06-2015, 00:47
Ragazzi ma più o meno una 390 non x andrebbe come una 970???

Free Gordon
09-06-2015, 01:44
come tier 0 cosa sarebbe successo alla full rebrand della serie 3?

Di rebrand gcn 1.0 ce n'è una nella lineup...la 370. ;)
Il resto è tutto "dx12" compliant, essendo 1.1 o 1.2

E' molto più grave il fatto che tutto Kepler, quindi il 70% buono delle schede Nvidia in commercio, non sia formalmente dx12.. :D

IngMetallo
09-06-2015, 07:54
e per quale motivo?
con la 390x 8gb vanno a piazzarsi sulla stessa fascia di prezzo delle 970, ottimo direi per amd

Seguo da poco questi thread, quindi sono meno preparato rispetto a voi altri :D Però da un'ipotetica 390x mi aspetto prestazioni migliori rispetto ad una 970, quindi quel prezzo mi sembra molto competitivo. A questo punto non resta che aspettare i primi benchmark :)

devil_mcry
09-06-2015, 09:21
Di rebrand gcn 1.0 ce n'è una nella lineup...la 370. ;)
Il resto è tutto "dx12" compliant, essendo 1.1 o 1.2

E' molto più grave il fatto che tutto Kepler, quindi il 70% buono delle schede Nvidia in commercio, non sia formalmente dx12.. :D

In che modo è grave? Sono schede vecchie in EOL che non sono state vendute come DX12. Senza considerare che oggi la maggior parte delle VGA in campo sono GCN 1.0 non 1.2 o 1.1 ... Quindi cosa cambia?

okorop
09-06-2015, 09:32
come scrivevo nel thread sulle maxwell, mi aspetto questo scenario:

390~970
390x~980
fury pro tra 980 e 980ti
fury xt ~980ti
fury nano ~ titan x

in teoria dovrebbe essere proprio così tuttavia sapremo come stanno le cose tra 7 giorni :fagiano:

mircocatta
09-06-2015, 09:37
fury nano?

HadesSaint
09-06-2015, 09:49
scusate ma tra le 390 e la fury la differenza sta nel GCN 1.1+ e nelle nuove memorie HBM e qualche cosa in piu sullo SP, BUS ecc?

Il nabbo di turno
09-06-2015, 09:50
In che modo è grave? Sono schede vecchie in EOL che non sono state vendute come DX12. Senza considerare che oggi la maggior parte delle VGA in campo sono GCN 1.0 non 1.2 o 1.1 ... Quindi cosa cambia?

Fino a settembre scorso, le vendevano, inoltre di gcn 1.0 nei rebrand c'è solo la 370...
Senza contare che forse gcn 1.0 sarà dx 12.1 11.1, mentre kepler dovrebbe essere 11.0.

Inoltre nel market share di nvidia, kepler detiene comunque una buona parte di market share.
A parte i fighetti da forum, chi ti va ad upgradare una 660 ad una 960, o una 770 con una 970?

hrossi
09-06-2015, 10:22
fury nano?

Yes.
http://hydra-media.cursecdn.com/wow.gamepedia.com/thumb/c/c6/LordBenjaminTremendouson.jpg/180px-LordBenjaminTremendouson.jpg

Hermes

FroZen
09-06-2015, 10:24
Fiji sarà GCN 1.pigreco , voilà!

vaax
09-06-2015, 10:25
non so voi ma sonotroppo curioso ..ormai conto i giorni ..che HYPE l uscita di fury :D :cool: :sofico:

hrossi
09-06-2015, 10:28
Per me più che hype son due balotas senza alcuna slide ufficiale da parte di Amd finora, e nemmeno una data precisa di presentazione. Sarà meglio per loro avere buoni prodotti da presentare. :D

Hermes

valdio
09-06-2015, 10:30
Io non ho più la mia 780 sotto il cofano, vado avanti con l'hd 4000,è dura attendere anche se manca pochissimo!

devil_mcry
09-06-2015, 10:30
Fino a settembre scorso, le vendevano, inoltre di gcn 1.0 nei rebrand c'è solo la 370...
Senza contare che forse gcn 1.0 sarà dx 12.1 11.1, mentre kepler dovrebbe essere 11.0.

Inoltre nel market share di nvidia, kepler detiene comunque una buona parte di market share.
A parte i fighetti da forum, chi ti va ad upgradare una 660 ad una 960, o una 770 con una 970?

Le schede oggi sul campo o sono kepler o sono GCN 1.0, sono pochissime le GCN 1.2 e un po' di più le GCN 1.1 ma comunque in maniera irrilevante rispetto a quelli che hanno nel tempo comprato le 7970, le 7970GHz, le 280x etc. Ovviamente vale anche per le 7950 e derivate. Poi ci sono ancora le generazioni più vecchie ma credo sia il meno.

Quindi il punto qual'è? Le feature dx11.1 e dx11.0 sono le stesse che già c'erano e ci sono da quando le schede sono nate, le features che le dx12 introduce sono solo di ottimizzazione e NON SONO dx 12.1 ma dx12 tier 0 (draw call, async compute, monitor)

Quindi le schede continueranno a fare graficamente quello che hanno fatto fino ad oggi, andranno meglio i sistemi con CPU meno performanti, fine della favola.

Posso capire chi ha un 770 tendenzialmente non l'ha cambiata con una Maxwell 2, ma chi ha una serie 6 è molto probabile che l'abbia fatto. Quasi tutti quelli con la 670 sono passati ad una 970 (che in OC va praticamente il doppio) e dopo 2 anni e mezzo (come nel mio caso) cambiare VGA mi sembra una spesa accettabile

HadesSaint
09-06-2015, 10:32
sistema memorie e bus totalmente diverso che in sostanza raddoppia la banda passante, SP 2816 gcn 1.1 vs 4096 gcn 1.2(forse 1.3) della versione XT/Nano (cambierà solo la frequenza probabilmente)...
secondo me la versione PRO avrà 3840sp, sarebbero pochini 3584sp, vorrebbe dire ben 8CU in meno

questi sono ancora dati unofficial o ufficiali? perche mi sa che personalmente a questo giro passo e aspetto il 2016

vaax
09-06-2015, 10:34
Per me più che hype son due balotas senza alcuna slide ufficiale da parte di Amd finora, e nemmeno una data precisa di presentazione. Sarà meglio per loro avere buoni prodotti da presentare. :D

Hermes

ma è proprio li la magia ;)

poi ovvio usciranno bombi con fury.. non si spiegherebbe tutto sto coprifuoco altrimenti
..infatti le info sui rebrand girano da un pezzo..

certo che se toppano sto lancio dopo aver visto e studiato le carteverdi son proprio babbidimin....

mircocatta
09-06-2015, 10:37
se avevano paura di sbottonarsi per paura che nvidia "tarasse" la 980ti in base alla performance delle fiji beh, ora potrebbero non averne più e rilasciare qualche slide!!!


oppure semplicemente le staranno rifacendo con excell per includere la 980ti nei grafici :asd:

speriamo che HIS rilasci una "nano" con waterblock, senza pompa e radiatore, così ci faccio un pensierone

FroZen
09-06-2015, 10:37
Per definizione non esiste nulla di ufficiale fino alla presentazione.... Pure di titan x fino a che il truzzo non l'ha presentata sul palco non si sapeva nulla...

vaax
09-06-2015, 10:41
o magari se la sono preparata con 4gb anche se pur hbm ...
e ora hanno paura a smollarla per questione di marketing ..
tipo che so 6 (ti) va piu di 4 :D
anche se credo che ormai quel che è fatto è fatto ... saranno tech vecchie anni :Prrr: :muro:

Lanzus
09-06-2015, 10:45
o magari se la sono preparata con 4gb anche se pur hbm ...
e ora hanno paura a smollarla per questione di marketing ..
tipo che so 6 (ti) va piu di 4 :D
anche se credo che ormai quel che è fatto è fatto ... saranno tech vecchie anni :Prrr: :muro:

Sarebbe un bal fail. Le presentano in pompa magna all'e3 con un evento dedicato al PC gaming (mai visto in tale manifestazione) con la presunzione di mostrare "la nuova era del PC gaming". :rolleyes:

Il nabbo di turno
09-06-2015, 10:47
Le schede oggi sul campo o sono kepler o sono GCN 1.0, sono pochissime le GCN 1.2 e un po' di più le GCN 1.1 ma comunque in maniera irrilevante rispetto a quelli che hanno nel tempo comprato le 7970, le 7970GHz, le 280x etc. Ovviamente vale anche per le 7950 e derivate. Poi ci sono ancora le generazioni più vecchie ma credo sia il meno.

Quindi il punto qual'è? Le feature dx11.1 e dx11.0 sono le stesse che già c'erano e ci sono da quando le schede sono nate, le features che le dx12 introduce sono solo di ottimizzazione e NON SONO dx 12.1 ma dx12 tier 0 (draw call, async compute, monitor)

Quindi le schede continueranno a fare graficamente quello che hanno fatto fino ad oggi, andranno meglio i sistemi con CPU meno performanti, fine della favola.

Posso capire chi ha un 770 tendenzialmente non l'ha cambiata con una Maxwell 2, ma chi ha una serie 6 è molto probabile che l'abbia fatto. Quasi tutti quelli con la 670 sono passati ad una 970 (che in OC va praticamente il doppio) e dopo 2 anni e mezzo (come nel mio caso) cambiare VGA mi sembra una spesa accettabile

La pensiamo sempre in un modo opposto noi due.

Secondo me a parte chi sta sui forum in pochi cambiano kepler con maxwell, alla fine guadagni quel 30-40% in più netto a parità di consumi, ma per cambiare, una persona comune lo deve proprio sentire il salto, minimo il doppio delle performance per spendere 300 euro rispetto a quando ho speso 300 euro 3 anni prima lo devi dare.

Un mio amico ha la 560 ti, su lol è platino, e ogni tanto gioca a gta V, non è che ha upgradato ad ogni nuova serie di nvidia o amd.
è più una cosa da forum cambiare spesso hardware più che necessità vera e propria.

Il nabbo di turno
09-06-2015, 10:50
o magari se la sono preparata con 4gb anche se pur hbm ...
e ora hanno paura a smollarla per questione di marketing ..
tipo che so 6 (ti) va piu di 4 :D
anche se credo che ormai quel che è fatto è fatto ... saranno tech vecchie anni :Prrr: :muro:

Al di la di tutto, 4gb sono messi alla frusta in rari casi, solo un gta V maxato supera i 4gb, e neppure la titan x assicura un buon frame rate a quella risoluzione.

Io mi aspetto che si, la scheda ogni tanto soffra con il quantitativo di vram in qualche gioco 4k, ma che meni anche forte quando la vram gli basta, e non solo come fps, ma anche come frame time...

francisco9751
09-06-2015, 10:50
piú che una cosa forum..diciamo che é una malattia :D :O

vaax
09-06-2015, 10:50
si si GAming ultimamente tira ... :oink:
non sono esperto ma il processo è ancora a 28nm?
cm sia ho molta fiducia in AMD ATI ..cavolo con tutti i cash delle varie playstation e xbox ...
in piu non presentano processori o skedozze da un pezzo giusto ? cavoli lavoreranno a qualcosa di serio ... speremm

okorop
09-06-2015, 10:51
piú che una cosa forum..diciamo che é una malattia :D :O

è una cosa da smanettoni di hardware, cambiare per avere un 50% in piu' non fa una vera e propria differenza e lo dice uno che ne ha cambiate molte di vga negli ultimi anni

si si GAming ultimamente tira ... :oink:
non sono esperto ma il processo è ancora a 28nm?
cm sia ho molta fiducia in AMD ATI ..cavolo con tutti i cash delle varie playstation e xbox ...
in piu non presentano processori o skedozze da un pezzo giusto ? cavoli lavoreranno a qualcosa di serio ... speremm

sarà sempre a 28nm, comunque si si spera che tirino fuori qualcosa di buono :D

Il nabbo di turno
09-06-2015, 10:54
piú che una cosa forum..diciamo che é una malattia :D :O

Sinceramente, è raro cambiare vga a ogni gen, poi quando si tratta di un salto non così netto...

Potrei capire quando una vga si rompe, o non ce la fa più a tirare certi giochi, ma qui si tratta di passare da una vga che tutto maxato con un gioco ti fa 60 fps, ad una che te ne fa 80/90 fps.

vaax
09-06-2015, 10:57
Al di la di tutto, 4gb sono messi alla frusta in rari casi, solo un gta V maxato supera i 4gb, e neppure la titan x assicura un buon frame rate a quella risoluzione.

Io mi aspetto che si, la scheda ogni tanto soffra con il quantitativo di vram in qualche gioco 4k, ma che meni anche forte quando la vram gli basta, e non solo come fps, ma anche come frame time...

be se parli di full hd sicuramente . senza filtri sono 10mb x frame

devil_mcry
09-06-2015, 10:59
La pensiamo sempre in un modo opposto noi due.

Secondo me a parte chi sta sui forum in pochi cambiano kepler con maxwell, alla fine guadagni quel 30-40% in più netto a parità di consumi, ma per cambiare, una persona comune lo deve proprio sentire il salto, minimo il doppio delle performance per spendere 300 euro rispetto a quando ho speso 300 euro 3 anni prima lo devi dare.

Un mio amico ha la 560 ti, su lol è platino, e ogni tanto gioca a gta V, non è che ha upgradato ad ogni nuova serie di nvidia o amd.
è più una cosa da forum cambiare spesso hardware più che necessità vera e propria.

LOL di sicuro è tutto meno che pesante e GTA 5 è fatto per andare anche su hw poco potenti, dove in effetti gira benino. Perchè ad esempio non prova a giocare a Killing Floor 2, ad The Old Blood o ad altri giochi più o meno recenti?

Io però gioco a tutto (come fanno tutte le persone che in questo forum sono appassionati di videogiochi, guardati i vari thread in merito), spendo ogni mese in media 30-40€ in giochi (online con il DD senno la cifra sarebbe più alta, poi dipende questo mese ho già speso di più e siamo solo al 9). La GTX 970 va stock il 70% in più della mia vecchia 670, non il 30-40%, overcloccata a 1500MHz di core e tutto ho praticamente raddoppiato gli FPS (esempio all'Unigine Heaven 4 sono passato da 32 FPS della mia sfigata 670 a 62 FPS e con la 970 posso ancora salire).

Ho comprato un monitor da 29'' 21:9 2560x1080 anche, impossibile da usare con una 670, dove già la 670 iniziava a faticare in FHD, tutti i giochi nuovi non giravano più a dettagli alti (tolto l'AA) figurati a risoluzione più alta. Sparare numeri e pensare di avere una visione chiara del mondo quando in realtà non si è un videogiocatore, si guardano benchmark e basta leggendo i numeri come fa comodo, non è un metro di misura della realtà. Non si tratta di visioni diverse, a me cambiare la VGA per fare benchmark non interessa io negli ultimi 10 anni ho avuto solo 4 schede video, la HD4850 1GB, la GTX460 1GB, la 670 e la 970 e come me ci sono molti altri, secondo te quale sarebbe il normale ciclo di vita di una VGA? 10 anni?

Il nabbo di turno
09-06-2015, 10:59
be se parli di full hd sicuramente . senza filtri sono 10mb x frame

Più che full hd, direi 2560x1440 al massimo e 4k alto...

Raven
09-06-2015, 10:59
Sinceramente, è raro cambiare vga a ogni gen, poi quando si tratta di un salto non così netto...


ermhh... qua c'è gente che ha cambiato anche 5 schede della stessa generazione! :O

:sofico:

francisco9751
09-06-2015, 11:03
io sono con la 260X @ 1440p :cry: :mad:
attendo le nuove schede con pieno supporto del 4k@60hz
cosí cambio monitor e vga assieme

vaax
09-06-2015, 11:08
Più che full hd, direi 2560x1440 al massimo e 4k alto...


mhhh 4k ...
32bit colore x 3840 x 2160 =33Mb frame che a 100fps sono 3 gb piu illuminazione varie ed eventuali ...
direi che 4gb non basteranno manco HBM se si usano certe risoluzioni

ovvio senza alcun filtro ...

Il nabbo di turno
09-06-2015, 11:08
LOL di sicuro è tutto meno che pesante e GTA 5 è fatto per andare anche su hw poco potenti, dove in effetti gira benino. Perchè ad esempio non prova a giocare a Killing Floor 2, ad The Old Blood o ad altri giochi più o meno recenti?

Io però gioco a tutto (come fanno tutte le persone che in questo forum sono appassionati di videogiochi, guardati i vari thread in merito), spendo ogni mese in media 30-40€ in giochi (online con il DD senno la cifra sarebbe più alta, poi dipende questo mese ho già speso di più e siamo solo al 9). La GTX 970 va stock il 70% in più della mia vecchia 670, non il 30-40%, overcloccata a 1500MHz di core e tutto ho praticamente raddoppiato gli FPS (esempio all'Unigine Heaven 4 sono passato da 32 FPS a 62 FPS e con la 970 posso ancora salire).

Ho comprato un monitor da 29'' 21:9 2560x1080 anche, impossibile da usare con una 670, dove già la 670 iniziava a faticare in FHD, tutti i giochi nuovi non giravano più a dettagli alti (tolto l'AA) figurati a risoluzione più alta. Sparare numeri e pensare di avere una visione chiara del mondo quando in realtà non si è un videogiocatore, si guardano benchmark e basta leggendo i numeri come fa comodo, non è un metro di misura della realtà. Non si tratta di visioni diverse, a me cambiare la VGA per fare benchmark non interessa io negli ultimi 10 anni ho avuto solo 4 schede video, la HD4850 1GB, la GTX460 1GB, la 670 e la 970 e come me ci sono molti altri, secondo te quale sarebbe il normale ciclo di vita di una VGA? 10 anni?

Una persona normale un gioco non lo va a prendere per la grafica, lo prende perchè gli piace il genere, se le ultime uscite non gli piacciono, può appagarti quanto ti pare come grafica, ma rimane sullo scaffale.

Guarda, il bench di gta v di guru3d, mostra che passare da una 960(praticamente la 670 a stock o poco più) ad una 970, c'è un guadagno del 45% circa...poi può anche darsi che ci siano casi in cui aumenta e diminuisce, ma su un gioco recente, che scala bene su tutte le piattaforme, il guadagno non è il doppio degli fps.
http://www.guru3d.com/index.php?ct=articles&action=file&id=15593
E nemmeno a 2560x1440, si è sotto al 50%.
http://www.guru3d.com/index.php?ct=articles&action=file&id=15594

Poi posso capire anche il cambio di monitor e tutto, ma di certo, una persona normale posso assicurarti che non ti cambia la vga se non raddoppia almeno le performance, sopratutto se devi spendere 350 euro a distanza di 2/3 anni.

okorop
09-06-2015, 11:09
io sono con la 260X @ 1440p :cry: :mad:
attendo le nuove schede con pieno supporto del 4k@60hz
cosí cambio monitor e vga assieme

devi aspettare le 14 nm mi sa queste sono tutte tappa buchi in attesa del nuovo pp

Il nabbo di turno
09-06-2015, 11:10
mhhh 4k ...
32bit colore x 3840 x 2160 =33Mb frame che a 100fps sono 3 gb piu illuminazione varie ed eventuali ...
direi che 4gb non basteranno manco HBM se si usano certe risoluzioni

ovvio senza alcun filtro ...

Non sempre scalano linearmente, ci sono casi in cui passare da un full hd a un 4k aumenta di 700 mb la quantità di vram.
Dipende dal gioco.

vaax
09-06-2015, 11:17
Non sempre scalano linearmente, ci sono casi in cui passare da un full hd a un 4k aumenta di 700 mb la quantità di vram.
Dipende dal gioco.

:cincin: ma non prendiamoci in giro 4 gb non bastano in 4k

Il nabbo di turno
09-06-2015, 11:19
:cincin: ma non prendiamoci in giro 4 gb non bastano in 4k

Tu inizia a mostrare qualche dato REALE, poi ne riparliamo....

Il nabbo di turno
09-06-2015, 11:23
http://www.digitalstorm.com/unlocked/video-memory-usage-at-4k-uhd-resolutions-idnum146/

Mi sembra chiaro, non superano i 4gb di vram usata :).

L'unico che realmente gli ha superati, è gta v.

vaax
09-06-2015, 11:25
io non so nulla ma non vorrai negare che 32 bit pixel X 3840 X 2160 =265.420.800 bit a frame

moltiplica il tutto per 100 fps e vedi quanta ram occupa ... (in piu ci sono effetti luce ecc)

qui non è questione di test o fonti affidabili .. semplice matematica .

Radeon80
09-06-2015, 11:30
http://videocardz.com/56205/amd-radeon-300-series-roadmap-leaked

in baso a tale immagine sembra che ci sarà una semplificazione nella fascia inferiori alla serie R9 390.
Vedendo i nomi delle GPU ho il presentimento che AMD farà qualcosa da suicidio.
Sembra che la R9 380,R7 370 e R7 360 siano della GPU tutte in versione Pro e quindi usciranno tutte castrate di base.
Quindi oltre ad essere dei rebrand mi viene da pensare che la versione full di Tonga non uscira e questo vale anche per le altre 2 GPU.

Il nabbo di turno
09-06-2015, 11:31
io non so nulla ma non vorrai negare che 32 bit pixel X 3840 X 2160 =265.420.800 bit a frame

moltiplica il tutto per 100 fps e vedi quanta ram occupa ... (in piu ci sono effetti luce ecc)

qui non è questione di test o fonti affidabili .. semplice matematica .

Ripeto, non è solo un fattore statici, quì il comportamento è variabile da gioco a gioco, ci sarà il gioco che in 4k non ti supera i 2gb, come quello che gliene servono 5gb, ma al di la di tutto, contano i test dei recensori che ti mostrano i grafici del REALE consumo della vram.

devil_mcry
09-06-2015, 11:34
Una persona normale un gioco non lo va a prendere per la grafica, lo prende perchè gli piace il genere, se le ultime uscite non gli piacciono, può appagarti quanto ti pare come grafica, ma rimane sullo scaffale.

Guarda, il bench di gta v di guru3d, mostra che passare da una 960(praticamente la 670 a stock o poco più) ad una 970, c'è un guadagno del 45% circa...poi può anche darsi che ci siano casi in cui aumenta e diminuisce, ma su un gioco recente, che scala bene su tutte le piattaforme, il guadagno non è il doppio degli fps.
http://www.guru3d.com/index.php?ct=articles&action=file&id=15593
E nemmeno a 2560x1440, si è sotto al 50%.
http://www.guru3d.com/index.php?ct=articles&action=file&id=15594

Poi posso capire anche il cambio di monitor e tutto, ma di certo, una persona normale posso assicurarti che non ti cambia la vga se non raddoppia almeno le performance, sopratutto se devi spendere 350 euro a distanza di 2/3 anni.

MA io manco lo ho GTA 5 (costa ancora 60€ e in sconto non si è trovato). Guardiamo i dati medi di techpowerup che di solito ti piacciono tanto

a 1440p la 670 (nella review della 960 OC) è data per il 91%, 93% la 960 stock e 100% la 960 OC. La 970 ottiene 152%.

Normalizzati sul result della 670 (quindi con il 100% su di lei) la 970 fa il 167% e questo su un set di titoli ridotti (che comunque non è 1 gioco). Aggiungici che la mia 670 era sfigata e che la 970 in generale in OC sale di più in % della 670 e vedi che si arriva ad un raddoppio. E ti ripeto, io le schede le ho entrambe (o meglio le avevo entrambe fino a venerdì che poi ho spedito la 670 e ci ho recuperato 1/3 della cifra della 970). All'unigine heaven 4 una mi faceva 32fps a 1080p, l'altra 62fps (ed è solo a 1500/7600). Se vuoi contestare anche quello...

Il nabbo di turno
09-06-2015, 11:36
http://videocardz.com/56205/amd-radeon-300-series-roadmap-leaked

in baso a tale immagine sembra che ci sarà una semplificazione nella fascia inferiori alla serie R9 390.
Vedendo i nomi delle GPU ho il presentimento che AMD farà qualcosa da suicidio.
Sembra che la R9 380,R7 370 e R7 360 siano della GPU tutte in versione Pro e quindi usciranno tutte castrate di base.
Quindi oltre ad essere dei rebrand mi viene da pensare che la versione full di Tonga non uscira e questo vale anche per le altre 2 GPU.

Già parte male con "fiji to be delayed", però effettivamente può prenderci sul fatto che siano gpu pro invece che xt.

Ora che ci penso, una 270/270x non va solo il 20% in più della 750 ti, ma circa il 30-35% in più, ma la 265 non è il 20% più veloce, è mediamente il 10-15% in più.
A meno che non sia una 265 cloccata a 1ghz invece che a 920 mhz, il 20% in più con la stessa frequenza la 265 rispetto alla 750 ti non lo prende.

vaax
09-06-2015, 11:36
ma guarda che secondo me tisbagli ..un frame in 4k pesa 30mb a 32bit di colore
poi se usano compressioni strane ancora non lo so ..ma non credo che riescano a scappare di molto .. parlo di texture stracazzute ovviamente ..ma si spera sempre che sfruttino tutto quello che si puo ...

anche se evidentemente dai test che posti non si sbattono a fare texture native in 4k ..........

cm ripeto .. forse sparo solo cazzate

Il nabbo di turno
09-06-2015, 11:41
MA io manco lo ho GTA 5 (costa ancora 60€ e in sconto non si è trovato). Guardiamo i dati medi di techpowerup che di solito ti piacciono tanto

a 1440p la 670 (nella review della 960 OC) è data per il 91%, 93% la 960 stock e 100% la 960 OC. La 970 ottiene 152%.

Normalizzati sul result della 670 (quindi con il 100% su di lei) la 970 fa il 167% e questo su un set di titoli ridotti (che comunque non è 1 gioco). Aggiungici che la mia 670 era sfigata e che la 970 in generale in OC sale di più in % della 670 e vedi che si arriva ad un raddoppio. E ti ripeto, io le schede le ho entrambe (o meglio le avevo entrambe fino a venerdì che poi ho spedito la 670 e ci ho recuperato 1/3 della cifra della 970). All'unigine heaven 4 una mi faceva 32fps a 1080p, l'altra 62fps (ed è solo a 1500/7600). Se vuoi contestare anche quello...

Si ma l'ultimo bench di tup mostra che in full hd da una 960/285 ad una 970 ci passa un 26%, e a 2560x1440p quasi il 30%.

http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980_Ti/31.html

Ma non toccava i 1200 mhz sul core la tua 670?Se è così alla faccia della sfiga, e chi prende 100 mhz in più sul core che deve fare?si spara?:confused:

Il nabbo di turno
09-06-2015, 11:43
ma guarda che secondo me tisbagli ..un frame in 4k pesa 30mb a 32bit di colore
poi se usano compressioni strane ancora non lo so ..ma non credo che riescano a scappare di molto .. parlo di texture stracazzute ovviamente ..ma si spera sempre che sfruttino tutto quello che si puo ...

anche se evidentemente dai test che posti non si sbattono a fare texture native in 4k ..........

cm ripeto .. forse sparo solo cazzate

No vabbe', io sul consumo della vram mi baso sui test, magari può darsi che ci sia uno scaling lineare del consumo della vram a parità di dettagli, però difficilmente ho visto giochi in grado di ciucciare 4gb di vram, un crysis 3 per quanto pesante, prende quei 3gb di vram, non oltre.

Free Gordon
09-06-2015, 11:56
come scrivevo nel thread sulle maxwell, mi aspetto questo scenario:

390~970
390x~980
fury pro tra 980 e 980ti
fury xt ~980ti
fury nano ~ titan x


Anch'io spererei in un posizionamento simile. :)

Nvidia poi uscirà con le 970 8GB e le 980 8GB clockate più in alto, ovviamente. ;)

devil_mcry
09-06-2015, 12:00
Si ma l'ultimo bench di tup mostra che in full hd da una 960/285 ad una 970 ci passa un 26%, e a 2560x1440p quasi il 30%.

http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980_Ti/31.html

Ma non toccava i 1200 mhz sul core la tua 670?Se è così alla faccia della sfiga, e chi prende 100 mhz in più sul core che deve fare?si spara?:confused:
Kepler ha il kepler boost. Quasi tutte boostavano sui 1150-1200 stock, la mia si fermava a 1110. Su hw credo fosse la più sfigata la media era 1250-1280 ad alcuni reggevano 1350 mentre io potevo tenerla a 1200 per l'unigine ma crashavano i driver su bf, alla fine la tenevo a 1170

Il nabbo di turno
09-06-2015, 12:08
Kepler ha il kepler boost. Quasi tutte boostavano sui 1150-1200 stock, la mia si fermava a 1110. Su hw credo fosse la più sfigata la media era 1250-1280 ad alcuni reggevano 1350 mentre io potevo tenerla a 1200 per l'unigine ma crashavano i driver su bf, alla fine la tenevo a 1170

Si, non è un esemplare fortunatissimo, comunque dai, se conti che partiva da 900 mhz scarsi, e arrivava a 1ghz con il turbo(reference), se la tenevi a 1170 non era poi così male.
Alla fine perdevi 100 mhz sul core, non un esemplare perfetto, ma ho visto di peggio.

francisco9751
09-06-2015, 12:10
devi aspettare le 14 nm mi sa queste sono tutte tappa buchi in attesa del nuovo pp
no ma non intendevo una scheda che mi permetta di giocare a tutto a 60fps..ma che abbia la hdmi 2.0 e quindi 60hz in 4k

anche perché ora sto giocando a giochi non recenti..quindi...

Tapatalked by LG G3

Free Gordon
09-06-2015, 12:11
io non so nulla ma non vorrai negare che 32 bit pixel X 3840 X 2160 =265.420.800 bit a frame
moltiplica il tutto per 100 fps e vedi quanta ram occupa ... (in piu ci sono effetti luce ecc)
qui non è questione di test o fonti affidabili .. semplice matematica .

E' il moltiplicare per 100fps che non ha senso.. ;)

vaax
09-06-2015, 12:14
Anch'io spererei in un posizionamento simile. :)

Nvidia poi uscirà con le 970 8GB e le 980 8GB clockate più in alto, ovviamente. ;)

per affossare la 980TI 6gb prima del tempo ..mah secondome i dadi sono tratti ...
vai ATI spakka tutto .. io la fury me la ricordo :cry:

vaax
09-06-2015, 12:17
E' il moltiplicare per 100fps che non ha senso.. ;)
be se devi printare 100 frame ogni secondo o meglio 1 frame ogni 10ms da qualche parte dovrai pure stiparle o no ?
poi sara il bus che fa da ricarica ma un minimo di buffer dovrai averlo ? sbaglio =?

cm si probablimente non ha senso moltiplicare in base ad un periodo di tempo di 1 s.

ma l ho detto anche sopra .. probabile putt... a

mi facevo solo 2 conti in testa

devil_mcry
09-06-2015, 12:19
Si, non è un esemplare fortunatissimo, comunque dai, se conti che partiva da 900 mhz scarsi, e arrivava a 1ghz con il turbo(reference), se la tenevi a 1170 non era poi così male.
Alla fine perdevi 100 mhz sul core, non un esemplare perfetto, ma ho visto di peggio.

Non hai capito... Kepler aveva due turbo. Quello statico che lo portava oltre il ghz in quasi tutte pure le ref e il kepler boost che sulle 670/680 le portava quasi al massimo. Per questo salivano poco. Le reference al 100% andavano realmente tutte sui 1150 almeno che non erano sfigate, alcune solo alzando il tdp limit salivamo a 1250+ perchè il kepler boost spingeva al massimo la gpu ed era variabile, dipendeva dalla vga. Senza considerare che la mia era pure overvoltata. Maxwell per fortuna non è più cosi ma la mia 670 overcloccata andava meno di alcune 670 stock reference o meno che fossero perchè meno fortunata

Fare il 15% in meno di una 670 buona (200mhz quasi) non è poco...è quasi la stessa differenza che c'è tra 970 e 980

devil_mcry
09-06-2015, 12:21
tra l'altro quel valore non lo trovi nelle specifiche perchè varia di scheda in scheda anche di tanto

Il nabbo di turno
09-06-2015, 12:24
Non hai capito... Kepler aveva due turbo. Quello statico che lo portava oltre il ghz in quasi tutte pure le ref e il kepler boost che sulle 670/680 le portava quasi al massimo. Per questo salivano poco. Le reference al 100% andavano realmente tutte sui 1150 almeno che non erano sfigate, alcune solo alzando il tdp limit salivamo a 1250+ perchè il kepler boost spingeva al massimo la gpu ed era variabile, dipendeva dalla vga. Senza considerare che la mia era pure overvoltata. Maxwell per fortuna non è più cosi ma la mia 670 overcloccata andava meno di alcune 670 stock reference o meno che fossero perchè meno fortunata

Fare il 15% in meno di una 670 buona (200mhz quasi) non è poco...è quasi la stessa differenza che c'è tra 970 e 980

Al di la di tutto, alla fine, io di 670 con daily oltre i 1300 mhz mi pare di non averle viste, o se ci sono, sono rare.
Alla fine perdevi quei 100 mhz, poco non è nei bench, ma alla fine le perfomance erano quelle di una 680 stock a 1ghz.
Anche nella sfiga, non ti andava poi così male.

Il nabbo di turno
09-06-2015, 12:26
tra l'altro quel valore non lo trovi nelle specifiche perchè varia di scheda in scheda anche di tanto

Sicuramente, tanto l'oc va a fortuna, però traendo una media, penso che 1200/1250 mhz sia un valore realistico.

vaax
09-06-2015, 12:29
visto che abbiamo spammato ovunque ..
vi sento di esperienza: una 980 liscia chenon va oltre i 1500 secondovoi esfigata?
non ho un riferimento occupandomene da poco ...

endOT

hrossi
09-06-2015, 12:34
Io non ho più la mia 780 sotto il cofano, vado avanti con l'hd 4000,è dura attendere anche se manca pochissimo!

Io sono con una 8800gt su socket 775, fai tu. :D

ma è proprio li la magia ;)

poi ovvio usciranno bombi con fury.. non si spiegherebbe tutto sto coprifuoco altrimenti
..infatti le info sui rebrand girano da un pezzo..

certo che se toppano sto lancio dopo aver visto e studiato le carteverdi son proprio babbidimin....

Boh, non credo, a parte che non è che le schede si progettano dall'oggi al domani e probabilmente il progetto più interessante (fiji + hbm), per non dire l'unico dato che il resto è rebrand, è totalmente diverso dalle schede nvidia GM200/204. Quindi anche volendo c'era poi poco da studiare questa volta. :boh:

Vero è che se poi queste fury-fiji non vanno come fucilate, Amd si giocherà un ulteriore fetta di clientela, sto giro anche tra i fanboy, credo. :cry:

Forza fury: - 6 giorni. :D

Hermes

vaax
09-06-2015, 12:42
si si intendevo che se le avranno pur fatto un fury vs 980 980ti o titan chessia tanto da vedere come stanno messi ...
non di copiare arch ...
io si spero .se rullano una non me la toglie nessuno .. ho quasi sempre preso ATI poi ultimamente non reggeva il confronto ..

francisco9751
09-06-2015, 12:44
raga basta ot..non ci interessa delle 670 del loro boost e della loro scalabilitá lineare o meno in OC.

Tapatalked by LG G3

°Phenom°
09-06-2015, 12:47
Nuovi render by msi:

http://www.overclock3d.net/gfx/articles/2015/06/09062811290l.jpg

http://www.overclock3d.net/gfx/articles/2015/06/09062811310l.jpg

devil_mcry
09-06-2015, 12:50
Al di la di tutto, alla fine, io di 670 con daily oltre i 1300 mhz mi pare di non averle viste, o se ci sono, sono rare.
Alla fine perdevi quei 100 mhz, poco non è nei bench, ma alla fine le perfomance erano quelle di una 680 stock a 1ghz.
Anche nella sfiga, non ti andava poi così male.

Erano abbastanza qua sul forum le schede da 1300MHz, meno quelle da 1350MHz.

Quello che era davvero insolito era trovare una 670 che non superasse i 1200 senza overvolt.

Le performance non erano quelle di una 680 perchè le 680 partivano da 1GHz, andavano in boost a 1.06GHz tutte e in Kepler Boost a 1110 in su anche loro.

Tutte le GK104 avevano il KB che le spingeva quasi al massimo di cosa poteva fare quel singolo DIE. Le specifiche del KB non le trovi nel sul sito del produttore ne da nVidia o nelle Review perchè non era uguale per tutte le schede.

Ma ogni 670 /680 e minori salivano ben oltre ai valori che GPU-Z riporta nella prima schermata e che erano visualizzabili nella seconda.

Per quello tu non hai mai visto 1300MHz, perchè in GPUZ non si vedono a meno di bios mod a cui viene tolto il KB, lo raggiungevano in modo dinamico e si vede dalle seconda tab. Per capire di cosa parlo ti devi documentare bene su cos'era il kepler boost e come funzionava e guardati un bel po' di pagine indietro del thread delle 670 e 680.

Per dire questa reference di 680 di anandtech arrivava a 1110MHz. http://www.anandtech.com/show/5699/nvidia-geforce-gtx-680-review/4
Ed era una reference, meno di quella non andava nessuna.

La mia era una OC e arrivava solo a 1110 con un KB di soli 30MHz mi pare

Radeon80
09-06-2015, 13:07
https://twitter.com/Alienware/status/608074379604467712

LA R9 M390X secondo me dovrebbe essere la M295X rinominata.

devAngnew
09-06-2015, 13:08
E' il moltiplicare per 100fps che non ha senso.. ;)

E' proprio così :)

be se devi printare 100 frame ogni secondo o meglio 1 frame ogni 10ms da qualche parte dovrai pure stiparle o no ?
poi sara il bus che fa da ricarica ma un minimo di buffer dovrai averlo ? sbaglio =?

cm si probablimente non ha senso moltiplicare in base ad un periodo di tempo di 1 s.

ma l ho detto anche sopra .. probabile putt... a

mi facevo solo 2 conti in testa

Infatti la gpu non conserva affatto 100 frame ma almeno 2 ossia il frame buffer che vedi su schermo e il back buffer (per il frame successivo) che deve essere calcolato a seconda della camera e dalla posizione del giocatore e ncp etc.
Per renderti conto ad esempio nel pannello controllo nvidia puoi fissare il numero max di frame pre-renderizzati uguale a 5 (se non erro) ma non é "necessario" ne bastano 2 per ottenere il max dei frame possibili dalla gpu.
:)

FreeMan
09-06-2015, 13:19
visto che abbiamo spammato ovunque ..
vi sento di esperienza: una 980 liscia chenon va oltre i 1500 secondovoi esfigata?
non ho un riferimento occupandomene da poco ...

endOT

Magari si potrebbe smettere di spammare invece di continuare.... E questo vale per tanti altri che stanno andando OT avendo perso di vista il topic del thread.

>bYeZ<

vaax
09-06-2015, 13:20
:D

discorso un po complicato .. cm buono a sapersi
ma quindi se memorizza solo 2 frame il bus lavora a 2x30mb x100 volte al secondo quindi un bus dati da 6000 mb al secondo :confused: :confused: mi sembra un po esagerato !

cm non ho la conoscenza per parlare di questo mi scuso per l eventuale OT

Free Gordon
09-06-2015, 13:52
:D

discorso un po complicato .. cm buono a sapersi
ma quindi se memorizza solo 2 frame il bus lavora a 2x30mb x100 volte al secondo quindi un bus dati da 6000 mb al secondo :confused: :confused: mi sembra un po esagerato !

cm non ho la conoscenza per parlare di questo mi scuso per l eventuale OT


No... ti sta dicendo che in 4K sono circa 70MB IN UN SECONDO... in memoria...

mircocatta
09-06-2015, 13:59
ma guarda che secondo me tisbagli ..un frame in 4k pesa 30mb a 32bit di colore
poi se usano compressioni strane ancora non lo so ..ma non credo che riescano a scappare di molto .. parlo di texture stracazzute ovviamente ..ma si spera sempre che sfruttino tutto quello che si puo ...

anche se evidentemente dai test che posti non si sbattono a fare texture native in 4k ..........

cm ripeto .. forse sparo solo cazzate

il problema è che a 4k non ci arrivi a 100fps maxxando i giochi
per cui prima di preoccuparci se bastano 4gb di vram a 4k preoccupiamoci se la gpu ce la può fare, e a 28nm ti informo che ancora non ci siamo, neanche la titan X ci riesce e quindi i suoi 12gb sono decisamente uno spreco di risorse e soldi

se non ci credi guardati i test delle 290x 4gb vs 8gb, vanno uguali praticamente in tutti i videogiochi anche in 4k

OEidolon
09-06-2015, 13:59
ma la M295X non è altro che Tonga XT http://en.wikipedia.org/wiki/List_of_AMD_graphics_processing_units#Radeon_Rx_M2xx_Series 2048sp 128 tmu 32rops 125w e clock a 750~800 mhz sul core vs 1792:112:32 della 285 desktop

non è poco per una 390x?

si infatti penso intendesse la M390X, come scritto nel twit linkato :stordita:

Catan
09-06-2015, 14:20
Contate che state anche facendo il gioco utilizzando solo il buffer fisico e non che tipo e ampiezza di bus (banda o bit) utilizza per interfacciarsi con il controller e sopratutto che tipo di compressione ed altre cose vengono applicate.

psychok9
09-06-2015, 15:28
A me continua arrivare pubblicità di AMD per il 16 con scritto it's coming... quindi Fury non dovrebbe ritardare. Questa attesa è snervante.
Nessun insider sotto NDA può almeno dirci se ne varrà la pena? Anche in PM XD

Inviato dal mio GT-I9305 utilizzando Tapatalk

FroZen
09-06-2015, 15:55
Nuovi alienware con 370 e m295x :O

Dopo i macbook pro con gpu amd le notizie buone continuano...

Ah si dice che amd rendera disponibile il vsr su 360 e 370 quindi firse non sono banali rebrand ....

Vul
09-06-2015, 16:01
mhhh 4k ...
32bit colore x 3840 x 2160 =33Mb frame che a 100fps sono 3 gb piu illuminazione varie ed eventuali ...
direi che 4gb non basteranno manco HBM se si usano certe risoluzioni

ovvio senza alcun filtro ...

Ma cosa centrano 100 fps? :asd:

Quindi secondo te più fps fai più ram usi? :muro:

Il frame buffer contiene dai 2 ai 4 frame, mica 100.

Io vi consiglio di leggervi questo articolo, non è possibile che nel 2015 ancora si pensi che la risoluzione cambi chissà cosa a livello di vram:

http://linustechtips.com/main/topic/198568-the-video-ram-information-guide/

Dire che 4gb sono ridondanti per i 1080p è equalmente sbagliato come dire che siano pochi per i 4k.

smoicol
09-06-2015, 16:06
Nuovi alienware con 370 e m295x :O

Dopo i macbook pro con gpu amd le notizie buone continuano...

Ah si dice che amd rendera disponibile il vsr su 360 e 370 quindi firse non sono banali rebrand ....

hanno sempre detto che aggiungevano nuove features

FroZen
09-06-2015, 16:16
Ok ma se sono in hardware...

appleroof
09-06-2015, 16:28
cut
Io vi consiglio di leggervi questo articolo, non è possibile che nel 2015 ancora si pensi che la risoluzione cambi chissà cosa a livello di vram:

http://linustechtips.com/main/topic/198568-the-video-ram-information-guide/

Cut

Per curiosità, chi è l'autore di quel post?

Ok ma se sono in hardware...

Il vsr dovrebbe essere implementato via driver, quindi sw

°Phenom°
09-06-2015, 16:29
Il vsr è software, teoricamente dovrebbe funzionare pure su gpu vecchissime.

FroZen
09-06-2015, 16:37
Quindi perché 285 e 290 non hanno lo stesso funzionamento in vsr se il software è lo stesso?

appleroof
09-06-2015, 16:44
Quindi perché 285 e 290 non hanno lo stesso funzionamento in vsr se il software è lo stesso?

la spiegazione più ovvia è che amd non le ha implementate via driver per tutti i prodotti, tramite qualche magheggio pare potersi cmq abilitare già su tutti http://forums.guru3d.com/showthread.php?t=397924

Il nabbo di turno
09-06-2015, 16:50
A quanto pare, la 370 sarebbe pitcairn pro, con il core a 980 mhz, in pratica, ci avevo preso.

devil_mcry
09-06-2015, 16:54
Quindi perché 285 e 290 non hanno lo stesso funzionamento in vsr se il software è lo stesso?

Marketing? Politiche di mercato?

Radeon80
09-06-2015, 17:00
A quanto pare, la 370 sarebbe pitcairn pro, con il core a 980 mhz, in pratica, ci avevo preso.

Proporre al posto della R9 270 e 270x un Pitcairn Pro che non è altro che una HD 7850 overclokkata e che quindi andrà di meno è pura follia.
Se verrà confermata tale roadmap sia AMD che Nvidia con questa ultima generazione di GPU avranno completamente distrutto la fascia da 150 ai 300 dollari che era diventato molto buona negli ultimi anni.
:mad:

Il nabbo di turno
09-06-2015, 17:08
Proporre al posto della R9 270 e 270x un Pitcairn Pro che non è altro che una HD 7850 overclokkata e che quindi andrà di meno è pura follia.
Se verrà confermata tale roadmap sia AMD che Nvidia con questa ultima generazione di GPU avranno completamente distrutto la fascia da 150 ai 300 dollari che era diventato molto buona negli ultimi anni.
:mad:

L'ultimo anno dei 28nm potrebbe essere veramente orribilante....

A questo punto davvero, non più di 120 euro per questa scheda, santa vergine maria!

Manco pitcairn xt, allora è proprio vero, ha le pezze al culo questa casa...

psychok9
09-06-2015, 18:48
la spiegazione più ovvia è che amd non le ha implementate via driver per tutti i prodotti, tramite qualche magheggio pare potersi cmq abilitare già su tutti http://forums.guru3d.com/showthread.php?t=397924

Io avevo abilitato il VSR su Tahiti/280X :D

devAngnew
09-06-2015, 18:51
Contate che state anche facendo il gioco utilizzando solo il buffer fisico e non che tipo e ampiezza di bus (banda o bit) utilizza per interfacciarsi con il controller e sopratutto che tipo di compressione ed altre cose vengono applicate.

Vero :)

:D

discorso un po complicato .. cm buono a sapersi
ma quindi se memorizza solo 2 frame il bus lavora a 2x30mb x100 volte al secondo quindi un bus dati da 6000 mb al secondo :confused: :confused: mi sembra un po esagerato !

cm non ho la conoscenza per parlare di questo mi scuso per l eventuale OT

Cerco di chiudere qui perché andiamo OT.
Oltre a quei due buffer devi tener conto ovviamente che in video-ram ci sono le texture (che si applicano agli elementi in scena), i modelli 3d, i materiali, la loro posizione, etc. etc.
Quindi la vram occupata é maggiore.
:) ;)

Il nabbo di turno
09-06-2015, 19:55
http://wccftech.com/amd-radeon-fury-x-specs-fiji/

Non ci si può nemmeno lamentare dei consumi, la fury pro consuma meno della 290x, e quella xt/nano è in linea con la 290x.

mikael84
09-06-2015, 20:00
http://wccftech.com/amd-radeon-fury-x-specs-fiji/

Non ci si può nemmeno lamentare dei consumi, la fury pro consuma meno della 290x, e quella xt/nano è in linea con la 290x.

Interessante il taglio della pro, sta volta hanno tagliato ben 8 CU, questo le rende a parità di clock un tantino distanti e la soluzione XT ha più senso

Il nabbo di turno
09-06-2015, 20:02
Interessante il taglio della pro, sta volta hanno tagliato ben 8 CU, questo le rende a parità di clock un tantino distanti e la soluzione XT ha più senso

Si, di solito 1 cu corrisponde a circa il 5% delle performance, a questo punto la fury pro la vedo bene a 599 dollari/euro.

Aspe, sono 4 cu, 4x128=512.

davo30
09-06-2015, 20:05
http://wccftech.com/amd-radeon-fury-x-specs-fiji/

Non ci si può nemmeno lamentare dei consumi, la fury pro consuma meno della 290x, e quella xt/nano è in linea con la 290x.

Intanto "fiji scalda e consuma come un reattore" sarà cmq l'ordine del giorno per i fanboy iNvidia :D

Ora sono curioso di vedere prezzi e bench. E sopratutto che venga rilasciata...

Il nabbo di turno
09-06-2015, 20:08
Intanto "fiji scalda e consuma come un reattore" sarà cmq l'ordine del giorno per i fanboy iNvidia :D

Ora sono curioso di vedere prezzi e bench. E sopratutto che venga rilasciata...

Dopo, "ma i driver fanno pena" oppure "la mattonella"....
E sono tutte cose che si leggono qui sul forum, ed è gente che spende una tombola in gpu, ma conoscenze degne di utenti da yahoo answer...

sgrinfia
09-06-2015, 20:43
Bò .......a me sembrano tutte speculazioni pro non sveliamo tutte le carte.

Ale55andr0
09-06-2015, 20:50
http://wccftech.com/amd-radeon-fury-x-specs-fiji/

Non ci si può nemmeno lamentare dei consumi, la fury pro consuma meno della 290x, e quella xt/nano è in linea con la 290x.

interessante, la fury x ad aria ha 1050mhz sul core, non 950, e conterà tre ventole assiali, ergo per quant quasi scontato, è rassicurante sapere che quella merda di dissipatore a bara da due soldi non sarà presente. Vero che la fury liscia ha un bel po di cu in meno, ma hanno mantenuto 128 rops e la banda di 512gb/s...secondo me sarà una bella bestiola uguale :D

ricapitolando 4096sp lanciati sopra il ghz, 128rops, 512gb/s di banda e architettura che sarà almeno la GCN1.2, fino a qualche mese fa se mi avessero detto che sarebbero state queste le specifiche per gpu a 28nani non ci avrei mai creduto


@Mikael a naso con quei numeri secondo te rispetto alla titan x come stanno messe le fury x?

psychok9
09-06-2015, 21:14
Dopo, "ma i driver fanno pena" oppure "la mattonella"....
E sono tutte cose che si leggono qui sul forum, ed è gente che spende una tombola in gpu, ma conoscenze degne di utenti da yahoo answer...

"I driver sono sempre più stabili se c'è scritto WHQL invece che beta" ("esperto" di youtube) :O

psychok9
09-06-2015, 21:19
http://wccftech.com/amd-radeon-fury-x-specs-fiji/

Non ci si può nemmeno lamentare dei consumi, la fury pro consuma meno della 290x, e quella xt/nano è in linea con la 290x.

Davvero ottime schede! L'unica è che ci sarà da aspettare molto... se nemmeno le 980 TI custom ancora arrivano...

Luglio/Agosto per AMD?

mikael84
09-06-2015, 22:07
Si, di solito 1 cu corrisponde a circa il 5% delle performance, a questo punto la fury pro la vedo bene a 599 dollari/euro.

Aspe, sono 4 cu, 4x128=512.

No sei fuori strada, ti spiego meglio.;)
1 CU (compute unit) è composto da 4 unità vettoriali, ogni unità vettoriale elabora 16 ALU (unità aritmetiche e matematiche) che si serve di un buffer cache per la parallelizzazione flusso dati migliore di 64kb.
4 CU composti da 64 ALU elaborano 256ST.

Per elaborare 4096ST, hai bisogno di 64 Compute unit con 4 unità vettoriali e 16ALU (4096ST)
Il chip da 3584 perde quindi 8 CU e le CU passano da 64 a 56.
56 " 4 "16, o ancora più semplice, 56 " 64 = 3584

mikael84
09-06-2015, 22:33
interessante, la fury x ad aria ha 1050mhz sul core, non 950, e conterà tre ventole assiali, ergo per quant quasi scontato, è rassicurante sapere che quella merda di dissipatore a bara da due soldi non sarà presente. Vero che la fury liscia ha un bel po di cu in meno, ma hanno mantenuto 128 rops e la banda di 512gb/s...secondo me sarà una bella bestiola uguale :D

ricapitolando 4096sp lanciati sopra il ghz, 128rops, 512gb/s di banda e architettura che sarà almeno la GCN1.2, fino a qualche mese fa se mi avessero detto che sarebbero state queste le specifiche per gpu a 28nani non ci avrei mai creduto


@Mikael a naso con quei numeri secondo te rispetto alla titan x come stanno messe le fury x?

Secondo me Fury ha buone possibilità di batterla ma molto dipenderà dai clock sopratutto a risoluzioni sopra il 1080p, quindi si possono ipotizzare diversi scenari.
Se prendiamo tonga e lo raddoppiamo, avremmo 3586 ST/64 rops e 352gb/s gddr5. In questa situazione il chip dovrebbe stare quasi a cavallo tra 980 e 980TI, con un'avvicinamento alla 980 in 1080p.
Se a questo chip gli aggiungiamo 125mhz di clock, 512ST (praticamente 300mhz puliti totali) 64rops veloci e quasi 200gb/s in HBM (fattore che conta limitatamente perchè il traffico dati non raggiunge mai simili ampiezze ma da cmq un vantaggio) trai le conclusioni:)

Pensa che a 1200 di clock, Fury supera 3 volte la potenza di una 285 matematicamente ma con 32 rops in più.

Insomma sui dati tecnici è molto molto potente, bisognerà vedere come si esprime sui vari giochi.
Tonga il chip di riferimento per compressione è un chip che se ottimizzato da molto e nei giochi pro Maxwell, quindi pro rops ha devastato la 280x, chip di base più potente:)

Catan
09-06-2015, 22:44
la fiji pro potrebbe essere anche il best buy per un itx gaming al top, viste le riduzioni del pcb che avranno rispetto a delle vga normali...

Oirasor_84
09-06-2015, 22:48
Secondo me Fury ha buone possibilità di batterla ma molto dipenderà dai clock sopratutto a risoluzioni sopra il 1080p, quindi si possono ipotizzare diversi scenari.
Se prendiamo tonga e lo raddoppiamo, avremmo 3586 ST/64 rops e 352gb/s gddr5. In questa situazione il chip dovrebbe stare quasi a cavallo tra 980 e 980TI, con un'avvicinamento alla 980 in 1080p.
Se a questo chip gli aggiungiamo 125mhz di clock, 512ST (praticamente 300mhz puliti totali) 64rops veloci e quasi 200gb/s in HBM (fattore che conta limitatamente perchè il traffico dati non raggiunge mai simili ampiezze ma da cmq un vantaggio) trai le conclusioni:)

Pensa che a 1200 di clock, Fury supera 3 volte la potenza di una 285 matematicamente ma con 32 rops in più.

Insomma sui dati tecnici è molto molto potente, bisognerà vedere come si esprime sui vari giochi.
Tonga il chip di riferimento per compressione è un chip che se ottimizzato da molto e nei giochi pro Maxwell, quindi pro rops ha devastato la 280x, chip di base più potente:)
Se raddoppi tonga e vicinissima alla 980ti giusto un 4% a 1080p se prendiamo i grafici di techpowerup come riferimento http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980_Ti/31.html

appleroof
09-06-2015, 22:52
Interessanti i dati sul tdp, se verranno confermati, probabilmente li gioca un ruolo importante il minor consumo delle hbm e relativa logica di controllo

mikael84
09-06-2015, 22:56
la fiji pro potrebbe essere anche il best buy per un itx gaming al top, viste le riduzioni del pcb che avranno rispetto a delle vga normali...

I dati ci sono tutti, che batta o ci vada vicino AMD ha tirato fuori un gran chip, ora bisogna vedere il prezzo. Questa scheda prezzata simil 980 (550-600) devasterebbe il mercato come ai tempi della 290

Se raddoppi tonga e vicinissima alla 980ti giusto un 4% a 1080p se prendiamo i grafici di techpowerup come riferimento http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_980_Ti/31.html

Raddoppiando tonga, raddoppia anche la 960 e diventa 980, e di conseguenza pareggiano a 1080p ma tonga starebbe tranquillamente sopra a 1440p. Ora aggiungi 125mhz di clock, (8CU, 150/200mhz in clock), 64 rops e 200gb di banda

Oirasor_84
09-06-2015, 23:05
I dati ci sono tutti, che batta o ci vada vicino AMD ha tirato fuori un gran chip, ora bisogna vedere il prezzo. Questa scheda prezzata simil 980 (550-600) devasterebbe il mercato come ai tempi della 290



Raddoppiando tonga, raddoppia anche la 960 e diventa 980, e di conseguenza pareggiano a 1080p ma tonga starebbe tranquillamente sopra a 1440p. Ora aggiungi 125mhz di clock, (8CU, 150/200mhz in clock), 64 rops e 200gb di banda
Si si ma che fury pro andrà più di una 980 è quasi sicuro,numeri alla mano dovrebbe essere molto vicina alla 980ti se non allo stesso livello

Ale55andr0
09-06-2015, 23:09
Secondo me Fury ha buone possibilità di batterla ma molto dipenderà dai clock sopratutto a risoluzioni sopra il 1080p, quindi si possono ipotizzare diversi scenari.
Se prendiamo tonga e lo raddoppiamo, avremmo 3586 ST/64 rops e 352gb/s gddr5. In questa situazione il chip dovrebbe stare quasi a cavallo tra 980 e 980TI, con un'avvicinamento alla 980 in 1080p.
Se a questo chip gli aggiungiamo 125mhz di clock, 512ST (praticamente 300mhz puliti totali) 64rops veloci e quasi 200gb/s in HBM (fattore che conta limitatamente perchè il traffico dati non raggiunge mai simili ampiezze ma da cmq un vantaggio) trai le conclusioni:)

Pensa che a 1200 di clock, Fury supera 3 volte la potenza di una 285 matematicamente ma con 32 rops in più.

Insomma sui dati tecnici è molto molto potente, bisognerà vedere come si esprime sui vari giochi.
Tonga il chip di riferimento per compressione è un chip che se ottimizzato da molto e nei giochi pro Maxwell, quindi pro rops ha devastato la 280x, chip di base più potente:)


grazie, molto esaustivo ;)

Capozz
09-06-2015, 23:15
Azz con quelle specifiche deve essere un bel mostro, sicuramente al livello della 980 ti, se non oltre

Antimo96
10-06-2015, 00:13
http://a.disquscdn.com/uploads/mediaembed/images/2141/5974/original.jpg
Non so se sia vera o meno

Albi80
10-06-2015, 00:30
Wow . Vedremo. Sembrerebbe una potenza

inviato dal mio Nokia 3210

psychok9
10-06-2015, 01:13
http://a.disquscdn.com/uploads/mediaembed/images/2141/5974/original.jpg
Non so se sia vera o meno
Spettacolo!!!

Inviato dal mio GT-I9305 utilizzando Tapatalk

Free Gordon
10-06-2015, 01:21
http://a.disquscdn.com/uploads/mediaembed/images/2141/5974/original.jpg
Non so se sia vera o meno

Se vero in 4K sarebbe un 10% meglio della TitanX.. Certo, non si arriverebbe a frame rate buoni per il 4K ma è un bel salto devo ammettere.

Ovvio che @1440 e ancor più @1080 la differenza si potrebbe ridurre sensibilmente.

Vul
10-06-2015, 02:24
Se vero in 4K sarebbe un 10% meglio della TitanX.. Certo, non si arriverebbe a frame rate buoni per il 4K ma è un bel salto devo ammettere.


Beh, oddio, considerando l'inutilità dell'AA a quella risoluzione e il fatto che i giochi in questione siano tra i più esigenti in commercio direi che in 4k ci giochi più che tranquillamente, specie se sei disposto ad abbassare 2/3 filtri.

Io onestamente tante volte non vedo queste differenze enormi tra ultra e high nel 99 % dei giochi, anzi, mi devo concentrare.

Questa scheda prezzata simil 980 (550-600) devasterebbe il mercato come ai tempi della 290

Peccato che i soldi si facciano nella fascia sotto i 350 euro..Onestamente il 99 % del mercato la snobberà e fra quelli interessati ci saranno quelli che "ormai siamo ad un passo dai 4k","ha solo 4gb ram","viva nvidia","consuma troppo". AMD doveva tirare fuori due schede per contrastare 960 e 970 a parte una top. Serviva tonga full.

Il nabbo di turno
10-06-2015, 07:35
No sei fuori strada, ti spiego meglio.;)
1 CU (compute unit) è composto da 4 unità vettoriali, ogni unità vettoriale elabora 16 ALU (unità aritmetiche e matematiche) che si serve di un buffer cache per la parallelizzazione flusso dati migliore di 64kb.
4 CU composti da 64 ALU elaborano 256ST.

Per elaborare 4096ST, hai bisogno di 64 Compute unit con 4 unità vettoriali e 16ALU (4096ST)
Il chip da 3584 perde quindi 8 CU e le CU passano da 64 a 56.
56 " 4 "16, o ancora più semplice, 56 " 64 = 3584

Ah ecco, grazie della precisazione!:D

Il nabbo di turno
10-06-2015, 07:39
Beh, oddio, considerando l'inutilità dell'AA a quella risoluzione e il fatto che i giochi in questione siano tra i più esigenti in commercio direi che in 4k ci giochi più che tranquillamente, specie se sei disposto ad abbassare 2/3 filtri.

Io onestamente tante volte non vedo queste differenze enormi tra ultra e high nel 99 % dei giochi, anzi, mi devo concentrare.



Peccato che i soldi si facciano nella fascia sotto i 350 euro..Onestamente il 99 % del mercato la snobberà e fra quelli interessati ci saranno quelli che "ormai siamo ad un passo dai 4k","ha solo 4gb ram","viva nvidia","consuma troppo". AMD doveva tirare fuori due schede per contrastare 960 e 970 a parte una top. Serviva tonga full.
La 960 non tanto, la gente un po' si è accorta che è un mezzo pacco, più la 970 da 350 euro che causa qualche grana.

mircocatta
10-06-2015, 07:54
se solo le amd andassero decentemente in pcars avrei già venduto lo sli di 970 in attesa di questa fury nano o come diavolo si chiamerà :muro:

FroZen
10-06-2015, 08:13
Si ma.... Il physx?! :O

FroZen
10-06-2015, 08:20
Fiji ha anche la gpu con librerie ad alta densità... Che insieme al nuovo mc e hbm ha permesso di mettere su un chip singolo un cf in hardware di 7970...tanta tanta roba...

FroZen
10-06-2015, 08:22
se solo le amd andassero decentemente in pcars avrei già venduto lo sli di 970 in attesa di questa fury nano o come diavolo si chiamerà :muro:

Con una fury anche con driver che girano a vuoto lo maxi a spallate :asd:

Ma con i nuovi beta hanno fixato la pioggia?

mircocatta
10-06-2015, 08:29
Con una fury anche con driver che girano a vuoto lo maxi a spallate :asd:

Ma con i nuovi beta hanno fixato la pioggia?

SE andasse anche solo come una 970 occata allora potrei farci il pensierino, tanto oculus rift non va con lo sli su pcars

°Phenom°
10-06-2015, 09:41
A me con gli ultimi driver va bene pc cars, forse non al livello di nvidia.
Comunque se mi dici i settaggi, risoluzione, meteo e circuito posso fare una prova e ti dico :)

mircocatta
10-06-2015, 09:58
A me con gli ultimi driver va bene pc cars, forse non al livello di nvidia.
Comunque se mi dici i settaggi, risoluzione, meteo e circuito posso fare una prova e ti dico :)
oddio non saprei, io con lo sli tengo tutto al massimo con ds4x a prescindere, solo erba su medio o basso
se metti tutto al massimo, erba medio, ds2x con singola vettura, tempesta a imola, per esempio?

devil_mcry
10-06-2015, 10:04
Beh i risultati sembrano buoni se sono veri quei test, ma come mai la Titan X va meno della 980Ti ?

FroZen
10-06-2015, 10:08
Questione di boost..... Lol mi immagino le rosicate di chi ha messo 1k per vedersi dopo due mesi e mezzo sorpassati da una reference che costa il 35% in meno (e due :asd: ) ...

Il nabbo di turno
10-06-2015, 10:09
Beh i risultati sembrano buoni se sono veri quei test, ma come mai la Titan X va meno della 980Ti ?

Nell'haeven 4,tomb raider e shadow of mordor, la titan x va leggermente meglio.
Pare strano negli altri ma sono più o meno allineate.

FroZen
10-06-2015, 10:09
Beh i risultati sembrano buoni se sono veri quei test, ma come mai la Titan X va meno della 980Ti ?

Buoni?! Avrebbe agganciato in performance /watt il miracoloso maxwell e si dice "buoni"?!

psychok9
10-06-2015, 10:09
Questione di boost..... Lol mi immagino le rosicate di chi ha messo 1k per vedersi dopo due mesi e mezzo sorpassati da una reference che costa il 35% in meno (e due :asd: ) ...

nVidia è un vampiro senza vergogna... ma se continua a vendere...

Free Gordon
10-06-2015, 10:13
Beh i risultati sembrano buoni se sono veri quei test, ma come mai la Titan X va meno della 980Ti ?

Me lo sono chiesto anch'io per la rece di hwupgrade.. :asd: tutti mi hanno insultato come complottista. :D

Cmq parrebbe legato al boost, che per la 980ti è mediamente più alto. Avevo fatto il calcolo e a fronte di una differenza di 25mhz di boost tra le due... (in base a un grafico uscito..non lo trovo ora) il 2% di clock mi pareva poco sinceramente per superare le prestazioni della TitanX che ha il 9% di sp e TMU in più.. Però la spiegazione DATA è quella. :D

Forse a 4K, dove le rops sono molto stressate, il boost avvantaggia notevolmente la ti che è a pari della X come dotazione hw (96rops a 96 e stessa banda a disposizione ;) ), dato che il collo di bottiglia principale probabilmente è lì.

gospel
10-06-2015, 10:17
beh diciamo che le nvidia vendono bene perchè i driver sono sempre supportati e rilasciati puntualmente ad ogni uscita di un titolo tripla a..con quelli ati invece bisogna aspettare sempre..
poi nvidia sgancia tanti soldi alle software house per rendere i loro giochi supportati meglio rispetto alla controparte..vedi the witcher 3 ad esempio..

Free Gordon
10-06-2015, 10:17
Buoni?! Avrebbe agganciato in performance /watt il miracoloso maxwell e si dice "buoni"?!

Hmmm beh.. questo non credo proprio. :p

Consumerà di più di Titan & co. per quanto riguarda i risultati sarebbero sicuramente ottimi, concordo con te.

devil_mcry
10-06-2015, 10:18
Questione di boost..... Lol mi immagino le rosicate di chi ha messo 1k per vedersi dopo due mesi e mezzo sorpassati da una reference che costa il 35% in meno (e due :asd: ) ...

Si sarebbe una risposta se non fosse che in altri test va di più o uguale. Nel senso è vero che stando a quanto dicono con 100MHz in più la 980Ti va uguale, ma qui non va solo uguale, va a volte di più, a volte di meno e atre volte uguale... Il boost non è di 200MHz su Maxwell in nessun caso

Free Gordon
10-06-2015, 10:19
beh diciamo che le nvidia vendono bene perchè i driver sono sempre supportati e rilasciati puntualmente ad ogni uscita di un titolo tripla a..con quelli ati invece bisogna aspettare sempre..
poi nvidia sgancia tanti soldi alle software house per rendere i loro giochi supportati meglio rispetto alla controparte..vedi the witcher 3 ad esempio..


Mi pare W3 giri meglio su AMD che su Nvidia.. ;)

FroZen
10-06-2015, 10:21
beh diciamo che le nvidia vendono bene perchè i driver sono sempre supportati e rilasciati puntualmente ad ogni uscita di un titolo tripla a..con quelli ati invece bisogna aspettare sempre..
poi nvidia sgancia tanti soldi alle software house per rendere i loro giochi supportati meglio rispetto alla controparte..vedi the witcher 3 ad esempio..

Cioe gli ultimi tre release in meno di un mese sono perche sono usciti tre titoli tripla a o perche hanno magagne?! Tic tac tic... Tw3 meglio lasciarlo fuori :asd:

Ale55andr0
10-06-2015, 10:24
Fiji ha anche la gpu con librerie ad alta densità... Che insieme al nuovo mc e hbm ha permesso di mettere su un chip singolo un cf in hardware di 7970...tanta tanta roba...


what? :stordita:

transistor vorrai dire

mikael84
10-06-2015, 10:31
Beh i risultati sembrano buoni se sono veri quei test, ma come mai la Titan X va meno della 980Ti ?

Semplice, purtroppo nelle reference avvengono troppi tagli(sopratutto con ventole preimpostate), non si riesce ad avere un'andamento costante e spesso i dati finali sballano

Titan x e oscillazioni
http://www.computerbase.de/2015-03/nvidia-geforce-gtx-titan-x-im-test/2/#abschnitt_die_turbotaktraten

980TI
http://www.computerbase.de/2015-06/geforce-gtx-980-ti-test-nvidia-titan/3/#abschnitt_die_turbotaktraten



Peccato che i soldi si facciano nella fascia sotto i 350 euro..Onestamente il 99 % del mercato la snobberà e fra quelli interessati ci saranno quelli che "ormai siamo ad un passo dai 4k","ha solo 4gb ram","viva nvidia","consuma troppo". AMD doveva tirare fuori due schede per contrastare 960 e 970 a parte una top. Serviva tonga full.

Chiaramente ma anche la fascia alta ha bisogno di una smossa verso il basso

muppo
10-06-2015, 10:32
Me lo sono chiesto anch'io per la rece di hwupgrade.. :asd: tutti mi hanno insultato come complottista. :D

Cmq parrebbe legato al boost, che per la 980ti è mediamente più alto. Avevo fatto il calcolo e a fronte di una differenza di 25mhz di boost tra le due... (in base a un grafico uscito..non lo trovo ora) il 2% di clock mi pareva poco sinceramente per superare le prestazioni della TitanX che ha il 9% di sp e TMU in più.. Però la spiegazione DATA è quella. :D

Forse a 4K, dove le rops sono molto stressate, il boost avvantaggia notevolmente la ti che è a pari della X come dotazione hw (96rops a 96 e stessa banda a disposizione ;) ), dato che il collo di bottiglia principale probabilmente è lì.

beh se ti capita un boost osceno sulla titanx e uno buono sulla ti è facile che quest'ultima vada di più, in più aggiungici che magari la titan x scalda di più e taglia ed ecco spiegate certe situazioni. poi è normale che a parità di clock è facile che la x vada qualche punto % in più.

gospel
10-06-2015, 10:32
Mi pare W3 giri meglio su AMD che su Nvidia.. ;)

e ti pare male..

infatti AMD appena uscito il gioco accusò NVIDIA di sabotare i giochi costringendoli ad usare le loro tecnlogie GameWorks e Hairworks..
Sono sicuro che senza nessuna patch TW3 su amd andava peggio rispetto ad nvidia..se con le ultime patch la situazione sia cambiata non saprei però.

Cioe gli ultimi tre release in meno di un mese sono perche sono usciti tre titoli tripla a o perche hanno magagne?! Tic tac tic... Tw3 meglio lasciarlo fuori :asd:

beh diciamo che ogni release dei driver viene rilasciata per ottimizzare l'ultimo gioco uscito..io sinceramente ho una 980 e ho riscontrato pochissime volte problemi con i driver nei giochi..quando anni fa presi una 7870 invece mi trovare a dover cristare parecchio per togliere lo stuttering in alcuni giochi come diablo (che invece con nvidia girava perfettamente)..e non venitemi a dire che una delle lacune di amd non siano i driver perchè non crede nessuno..

Free Gordon
10-06-2015, 10:51
e ti pare male..


Ehm..ma che recensioni hai visto?? :D

http://gamegpu.ru/rpg/rollevye/the-witcher-3-wild-hunt-v-1-04-test-gpu.html

Alcuni esempi: :D

7950 al pari di una 680...

280X che va come una 780......

290 liscia che sta davanti a una 780ti........

LA 290x è a 55fps di media, come la 970.......


Mi pare che non vada proprio male su AMD, no? :D

magnusll
10-06-2015, 10:54
e ti pare male..

infatti AMD appena uscito il gioco accusò NVIDIA di sabotare i giochi costringendoli ad usare le loro tecnlogie GameWorks e Hairworks..
Sono sicuro che senza nessuna patch TW3 su amd andava peggio rispetto ad nvidia..se con le ultime patch la situazione sia cambiata non saprei però.



beh diciamo che ogni release dei driver viene rilasciata per ottimizzare l'ultimo gioco uscito..io sinceramente ho una 980 e ho riscontrato pochissime volte problemi con i driver nei giochi..quando anni fa presi una 7870 invece mi trovare a dover cristare parecchio per togliere lo stuttering in alcuni giochi come diablo (che invece con nvidia girava perfettamente)..e non venitemi a dire che una delle lacune di amd non siano i driver perchè non crede nessuno..

TW3 gira una merda su Kepler e precedenti. L' unico chip dove gira bene e' Maxwell. Per le schede AMD, basta impostare un massimo sulla tassellazione e asfaltano le Kepler. Alla faccia dei driver magici nVidia e del fatto che smazzettano le software house per far andare meglio i giochi sulle loro schede... si, solo sulle ultime! Hai speso 550 euro per una 780ti l' anno scorso? Bravo ora cacciane altrettanti per la 980. E sbrigati mi raccomando senno' Huang non ha i soldi per comprarsi la ventesima Ferrari.

Va bene tutto ma santa madonna, per citare Witcher 3 come esempio del perche' nVidia sarebbe meglio di AMD ci vuole veramente un gran coraggio...

FroZen
10-06-2015, 11:06
beh diciamo che ogni release dei driver viene rilasciata per ottimizzare l'ultimo gioco uscito..io sinceramente ho una 980 e ho riscontrato pochissime volte problemi con i driver nei giochi..quando anni fa presi una 7870 invece mi trovare a dover cristare parecchio per togliere lo stuttering in alcuni giochi come diablo (che invece con nvidia girava perfettamente)..e non venitemi a dire che una delle lacune di amd non siano i driver perchè non crede nessuno..

Almeno non hai citato neverwinter nights :stordita:

Oh se sei felice con nvidia buon per te, sappi solo che ai tempi che amd (ati non esiste piu da anni) mandava fuori un driver ogni due settimane gli utenti nvidia sfottevano.... Oggi è un plus.... Amen.... Gioco da sei mesi con driver di dicembre e non sento la minima esigenza di update, ma non ho tw3 e pcars x completezza...

gospel
10-06-2015, 11:09
Ehm..ma che recensioni hai visto?? :D

http://gamegpu.ru/rpg/rollevye/the-witcher-3-wild-hunt-v-1-04-test-gpu.html

Alcuni esempi: :D

7950 al pari di una 680...

280X che va come una 780......

290 liscia che sta davanti a una 780ti........


Mi pare che non vada proprio male su AMD. :D

a me sembra di vedere che nelle prime posizioni ci sono solo schede nvidia. e sinceramente io vedo che una 295x va meno di una 970 e la prima costa il doppio della 970 e anche la 290x che costa come la 970 va leggermente peggio quindi qualche problema nei driver penso ci sia..

TW3 gira una merda su Kepler e precedenti. L' unico chip dove gira bene e' Maxwell. Per le schede AMD, basta impostare un massimo sulla tassellazione e asfaltano le Kepler. Alla faccia dei driver magici nVidia e del fatto che smazzettano le software house per far andare meglio i giochi sulle loro schede... si, solo sulle ultime! Hai speso 550 euro per una 780ti l' anno scorso? Bravo ora cacciane altrettanti per la 980. E sbrigati mi raccomando senno' Huang non ha i soldi per comprarsi la ventesima Ferrari.

Va bene tutto ma santa madonna, per citare Witcher 3 come esempio del perche' nVidia sarebbe meglio di AMD ci vuole veramente un gran coraggio...

ho scritto the witcher 3 perchè è notizia recente dell'attacco di amd contro nvidia per il suddetto gioco..ma potrei fare altri esempi senza problemi.

e sinceramente prima della 980 ho avuto una 780 che ho rivenduto perdendoci pochissimo. Per prendere la 980 ho dovuto aggiungere circa 120 euro in piu rispetto a quanto guadagnato dalla vendita della 780 ed era passato praticamente 1 anno tra le due..quindi non capisco questa tua dichiarazione..
è normale che per un appasionato tenere aggiornato i componenti comporti spese annuali...e la vga è una di queste..

FroZen
10-06-2015, 11:13
Hai venduto una 780 a 400 euro usata? Dammi il nome del pirla.... Ho una voodoo 5 che potrei piazzargli a 500€ vista la rarità del pezzo :asd:

magnusll
10-06-2015, 11:14
e sinceramente prima della 980 ho avuto una 780 che ho rivenduto perdendoci pochissimo. Per prendere la 980 ho dovuto aggiungere circa 120 euro in piu rispetto a quanto guadagnato dalla vendita della 780 ed era passato praticamente 1 anno tra le due..quindi non capisco questa tua dichiarazione..
è normale che per un appasionato tenere aggiornato i componenti comporti spese annuali...e la vga è una di queste..

E infatti tu sei nell' unica situazione in cui le nVidia attualmente convengono: cambi VGA piu' spesso di quanto cambi le mutande e hai i soldi per permettertelo e quindi sei sempre con l' ultima top di gamma.

Per qualunque altro cliente, specialmente visto l' andazzo emerso con Gameworks e TW3, le nVidia al momento sono soldi buttati.

Poi comunque non capisco il ragionamento per cui nVidia puo' rendere una scheda da 500 e passa euro alla stregua di un mattone dopo un solo anno e ci sono *I CONSUMATORI* che gli dicono "brava".
Posso capire gli azionisti, ma gente come te che posta qua sopra applaudendo queste pratiche io onestamente non la capisco.

devil_mcry
10-06-2015, 11:16
Almeno non hai citato neverwinter nights :stordita:

Oh se sei felice con nvidia buon per te, sappi solo che ai tempi che amd (ati non esiste piu da anni) mandava fuori un driver ogni due settimane gli utenti nvidia sfottevano.... Oggi è un plus.... Amen.... Gioco da sei mesi con driver di dicembre e non sento la minima esigenza di update, ma non ho tw3 e pcars x completezza...

Ma il fatto che i driver vengano aggiornati di frequente è sempre stata una buona cosa. Io onestamente non ricordo quando AMD li aggiornava in continuo, ricordo che i Detonator uscivano ogni 2x3 e quando sono passato ad AMD i Catalyst uscivano già 1 volta al mese (non so se prima uscivano più frequentemente). Non ho mai sentito nessuno lamentarsi perchè i driver non sono aggiornati di frequente al massimo il contrario. Quando uscì RAGE fu un'agonia prima che i driver fossero del tutto a posto (persino mi sparivano le texture inizialmente se non erro).

Poi il fatto che uno non li aggiorni (nemmeno io li aggiorno sempre ad ogni release) è una scelta, ma non aver la possibilità di farlo diventa una limitazione.

gospel
10-06-2015, 11:17
Almeno non hai citato neverwinter nights :stordita:

Oh se sei felice con nvidia buon per te, sappi solo che ai tempi che amd (ati non esiste piu da anni) mandava fuori un driver ogni due settimane gli utenti nvidia sfottevano.... Oggi è un plus.... Amen.... Gioco da sei mesi con driver di dicembre e non sento la minima esigenza di update, ma non ho tw3 e pcars x completezza...

per me è un plus perchè oggigiorno ogni volta che esce un gioco nuovo diventa sempre un terno al lotto riuscire a farlo girare in maniera egregia senza che i driver siano ottimizzati per esso.. Anche io sono capace di far girare un gioco nuovo con i driver vecchi di 6 mesi, ma sicuramente ho più chance che con quelli nuovi esso giri meglio.
sono proprio curioso di sapere se con i tuoi driver vecchi di dicembre riuscirai a far girare egregiamente batman in uscita oppure dovrai installare i driver nuovi che usciranno per ottimizzarlo..

poi considera anche che amd non fa uscire una scheda video da piu di 1 anno..nvidia invece nell'ultimo anno ha immesso sul mercato diversi modelli.

Detto questo, sarei ben felice di prendere una AMD in futuro se le performance sono accettabili..non sono sicuramente fissato sul marchio nvidia..ma al momento se uno vuole giocare senza problemi è costretto ad affidarsi a questo unico marchio..

FroZen
10-06-2015, 11:18
Dipende ... Se poi si arriva a questo:

Vero, capita sempre più sovente. Ma poi come fa un driver a far girare meglio un videogame e peggio un altro?
Sinceramente mi sto chiedendo se il driver contenga dei settaggi che bypassano quelli eventualmente impostati nei giochi.
Un driver per gta V.
Un driver per the witcher 3.
Un driver per heroes of the storm.

Ma non c'era già l'nVidia Gameworks a settare in automatico le impostazioni per i giochi in base all'hardware/driver della macchina? A che serve fare un driver specifico? E cosa fa questo driver specifico?

Hermes

gospel
10-06-2015, 11:20
Hai venduto una 780 a 400 euro usata? Dammi il nome del pirla.... Ho una voodoo 5 che potrei piazzargli a 500€ vista la rarità del pezzo :asd:

beh guarda che 1 anno fa quando sono uscite le 980, le 780 erano le top di gamma e quindi le vendevi a quei prezzi..un po' come oggi che si vendono le 980 a 450-500 euro e stanno uscendo le 980ti a circa 650 euro..

Free Gordon
10-06-2015, 11:20
Hai venduto una 780 a 400 euro usata? Dammi il nome del pirla.... Ho una voodoo 5 che potrei piazzargli a 500€ vista la rarità del pezzo :asd:

:rotfl:

gospel
10-06-2015, 11:21
Dipende ... Se poi si arriva a questo:

Vero, capita sempre più sovente. Ma poi come fa un driver a far girare meglio un videogame e peggio un altro?
Sinceramente mi sto chiedendo se il driver contenga dei settaggi che bypassano quelli eventualmente impostati nei giochi.
Un driver per gta V.
Un driver per the witcher 3.
Un driver per heroes of the storm.

Ma non c'era già l'nVidia Gameworks a settare in automatico le impostazioni per i giochi in base all'hardware/driver della macchina? A che serve fare un driver specifico? E cosa fa questo driver specifico?

Hermes

io utilizzo geforce experience e setta lui in automatico le impostazioni in base ai driver e all'hardware..

hrossi
10-06-2015, 11:27
Dipende ... Se poi si arriva a questo:

Vero, capita sempre più sovente. Ma poi come fa un driver a far girare meglio un videogame e peggio un altro?
Sinceramente mi sto chiedendo se il driver contenga dei settaggi che bypassano quelli eventualmente impostati nei giochi.
Un driver per gta V.
Un driver per the witcher 3.
Un driver per heroes of the storm.

Ma non c'era già l'nVidia Gameworks a settare in automatico le impostazioni per i giochi in base all'hardware/driver della macchina? A che serve fare un driver specifico? E cosa fa questo driver specifico?

Hermes

Puoi articolare meglio l'intervento? O rispondere direttamente alle mie perplessità sulla moda dei driver specifici?

Hermes


Edit.
Forse non tutti hanno la memoria lunga: http://www.geek.com/games/futuremark-confirms-nvidia-is-cheating-in-benchmark-553361/

gospel
10-06-2015, 11:32
Puoi articolare meglio l'intervento? O rispondere direttamente alle mie perplessità sulla moda dei driver specifici?

Hermes


Edit.
Forse non tutti hanno la memoria lunga: http://www.geek.com/games/futuremark-confirms-nvidia-is-cheating-in-benchmark-553361/

ricordo benissimo quella diatriba..sono passati però 12 anni e penso che anche ATI/AMD ne abbia fatte di cappellate nel corso di questi anni..

FroZen
10-06-2015, 11:41
beh guarda che 1 anno fa quando sono uscite le 980, le 780 erano le top di gamma e quindi le vendevi a quei prezzi..un po' come oggi che si vendono le 980 a 450-500 euro e stanno uscendo le 980ti a circa 650 euro..

Mmmm al debutto le 980 erano 500+ € e le 780 dopo l'uscita delle 290 erano nuove a 350... Oh meglio per te se un allocco ha pagato una 780 usata come nuova...

hrossi
10-06-2015, 11:44
Integro con la pagina dei driver nVidia.

http://s1.postimg.org/xxd1aza4r/un_anno_fa.jpg (http://postimg.org/image/xxd1aza4r/) http://s18.postimg.org/qgzeph6yd/oggi.jpg (http://postimg.org/image/qgzeph6yd/)

A sinistra quello che succedeva un anno fa: alla release dei nuovi driver si aveva una lista di giochi che ne beneficiavano.
A destra quello che succede oggi: ogni release di nuovi driver sembra sia specifica per un unico videogioco.

Così non è ovviamente, ma quello che nVidia cerca di far passare è che quel driver è appositamente creato per quel videogioco. Poi lo installi e scopri che alcune schede video 700 improvvisamente sono azzoppate, oppure che cominci ad avere crash vari (browser incluso).

Aggiungiamo la presenza del nVidia Geforce Experience che tra le varie funzioni ha quella di impostare i videogiochi in modo che possano rendere al massimo (sulla base di decisioni a noi ignote) ed ecco che uno si chiede come mai il driver sia specifico per un solo videogame, stando al comunicato sul sito nVidia. :boh: A voler pensare male l'idea è che il driver serve per quelli che poi il G-xp non lo installano sulla propria macchina. :Perfido:


ricordo benissimo quella diatriba..sono passati però 12 anni e penso che anche ATI/AMD ne abbia fatte di cappellate nel corso di questi anni..

Indubbiamente sarà vero, io sono ancora fermo ad una 8800gt (prima una ati 9800pro) quindi non ho seguito molto. Sicuramente le porcate le fanno tutti, dato che fanno i loro interessi. Detta volgarmente: i soldi. :D

Hermes

Nurabsa
10-06-2015, 11:51
"A voler pensare male l'idea è che il driver serve per quelli che poi il G-xp non lo installano sulla propria macchina" :asd:

oppure sono troppo onesti e bravi ma noi non siam degni :eek:

devil_mcry
10-06-2015, 11:51
Ma la storia dell'accelerazione del browser a me era capitata con la hd4850 quando l'avevo tirata di brutto. Comunque ad esempio ora capita ad alcuni utenti è vero, ma non a tutti (anzi ad una minoranza)

Quali siano i problemi non lo so, secondo me è dovuto all'oc e pure un utente con la scheda overcloccata l'ha detto ma sono problemi sporadici. Ci sono state cose in passato peggiori io ricordo con la 5770 che per molto tempo ho avuto paura ad aggiornare i driver perché prima di trovarne uno beta che risolvesse quelle maledette grey screen avevo tirato giù non pochi santi

E tra l'altro quando ho letto delle black screen su 290/290x quell'esperienza ha giocato la sua parte nella scelta (della 290x)

Raven
10-06-2015, 11:54
al momento se uno vuole giocare senza problemi è costretto ad affidarsi a questo unico marchio..

... scusa, ma questa è proprio una colossale fandonia...

Free Gordon
10-06-2015, 11:55
Ma il fatto che i driver vengano aggiornati di frequente è sempre stata una buona cosa..


Dipende :D
Io tengo gli omega di dicembre e per ora son felice così.. se i giochi vanno bene, preferisco non fare nulla, perché perder tempo ad aggiornare?

Tra l'altro.....è arrivato il tanto atteso fix (efficace intendo) per le Kepler su TW3? :sofico:

Scherzi a parte...

Il problema dei driver non esiste. Non è mai esistito. Esiste da sempre il "problema" dei rapporti commerciali e del testing effettuato sulle schede. :)

Purtroppo gli hw, anche se debbono rispettare le specs dx (e in questo OLTRETUTTO, storicamente ATI è sempre stata più rigorosa di Nvidia... ;) ) sono diversi e hanno punti di forza e di debolezza.

Se Rage non funzionava appena uscito su AMD, vai a vederti la storia della Id per capire come ha sempre funzionato il rapporto fra quella software house e le produttrici di hw. :D
(Ad es. uso di features specifiche ad hoc su hw Nvidia ecc :asd: )

Colpa di ATI sicuramente, ma solo in parte. ;)


ATI è sempre stata una spina nel fianco all'egemonia yankee di Nvidia nel settore del 3d ludico...e spesso Nvidia ha giocato sporco (arrivando al tarocco vero e proprio :asd: come nel caso del 3dmark ad es.) e questo oltre che un orgoglio è anche un handicap per AMD, divisa spesso fra incudine e martello.

Io discorso che faceva Frozen è reale, spesso ciò che può anche essere un pregio, visto sotto una certa ottica (magari quella dominante :D ) può essere un difetto: quando ATI (anni fà), faceva aggiornamenti driver più frequenti, al tutto veniva dato una valenza negativa. :)

Si ritorna al solito discorso: ATI (ora AMD) avrebbe fatto molti più soldi spendendo nel marketing che nella progettazione/affinamento del pp per le proprie architetture.
E' lì... dov'è particolarmente carente, buone capacità tecniche quel gruppo le ha..e le ha sempre avute. E purtroppo adesso, con l'andazzo che ha preso il mercato, rischia di perdere pure quelle.

Con una buona comunicazione con le software house, il tuo hw se vale 50, potrà valere anche 45-48... con una cattivo rapporto, il tuo hw che vale 60 o anche 70, vale 35...30... o meno.... (sono solo numeri a caso, non sto facendo paragoni vs realtà).

°Phenom°
10-06-2015, 11:55
I black screen riguardono il periodo subito dopo l'uscita delle stesse, poi fixato via driver. I bs poi si possono manifestare anche a causa di un oc instabile sulle ram.

egounix
10-06-2015, 11:57
... scusa, ma questa è proprio una colossale fandonia...

Questa è proprio una ca! Una vera cazz! À!! Una grande e gigantesca cazz à xx!!! :fagiano:

devil_mcry
10-06-2015, 11:59
I black screen riguardono il periodo subito dopo l'uscita delle stesse, poi fixato via driver. I bs poi si possono manifestare anche a causa di un oc instabile sulle ram.

Guarda c'era ancora gente che se ne lamentava un mesetto fa cpn le ultime release. Io non sono andato a leggere le pagine vecchie ma solo le ultime

FroZen
10-06-2015, 12:04
Questa è proprio una ca! Una vera cazz! À!! Una grande e gigantesca cazz à xx!!! :fagiano:

Ego, ti aspettiamo :asd:

hrossi
10-06-2015, 12:06
Ops, questo è il thread delle Radeon, così ecco un link: http://techfrag.com/2015/06/09/amd-radeon-fury-fiji-benchmark-results-leaked-online-beats-titan-x-performance/

Hermes

Free Gordon
10-06-2015, 12:06
I black screen riguardono il periodo subito dopo l'uscita delle stesse, poi fixato via driver. I bs poi si possono manifestare anche a causa di un oc instabile sulle ram.

Credo sia invece un problema hw di alcune schede, Phenom. ;)

La mia (credo sia una delle prime 290 reference) ad esempio, fino a che non ho modificato la freq. del pci-ex ha sempre fatto bs, con tutti i driver che ho provato...anche a default. ;)

E' un problema delle ram, in concomitanza con il downclock delle stesse, ma imho non è legato ai driver. Con tutti i driver li ho avuti, Omega compresi.

Credo sia proprio un problema hw di alcune schede che probabilmente vengono prodotte senza considerare attentamente alcune specifiche (probabilmente c'è qualche carenza nel progetto dal quel pdv) e su alcuni sistemi in particolare (e non su tutti), causano questo problema.

Un sacco di gente ha risolto il bs, cambiando mobo e mantenendo la stessa scheda e gli stessi driver ad esempio. Come si spiega questo? Mah.... :D

FroZen
10-06-2015, 12:08
Scommetto che soprattutto succede su piattaforme intel...

egounix
10-06-2015, 12:13
Scommetto che soprattutto succede su piattaforme intel...

P45 e cf di 4850.. Altra storia :stordita:

Strano che col 975x e cf di 3850 tutto ok

Lanzus
10-06-2015, 12:13
Io spero solo che con le DX12 AMD/nvidia vadano a perdere parte del controllo sui driver e che mano a mano parte delle istruzioni vengano gestite direttamente dall'API. Ultimamente Nvidia ci sta giocando un po' troppo ...

Ad ogni modo parte del problema è dovuto dalla "pigrizia" delle SH che scaricano buona parte dell'ottimizzazione dei loro titoli sulle hardware house ... che poi si trovano a fare il bello e il cattivo tempo.

Free Gordon
10-06-2015, 12:15
ricordo benissimo quella diatriba..sono passati però 12 anni e penso che anche ATI/AMD ne abbia fatte di cappellate nel corso di questi anni..


L'unica cappellata vera, è stata con R600. Ma è stato un passaggio complicato, dovuto all'acquisizione di AMD in corso. Probabilmente quella situazione ha influito molto sull'andamento di quel progetto.

Nvidia una cappellata simile (anzi peggio, dato che quel progetto poi è andato a morire, mentre VLIW è stato un successo alla fine) l'aveva fatta con la FX5800.

1:1 palla al centro. :D

°Phenom°
10-06-2015, 12:17
Credo sia invece un problema hw di alcune schede, Phenom. ;)

La mia (credo sia una delle prime 290 reference) ad esempio, fino a che non ho modificato la freq. del pci-ex ha sempre fatto bs, con tutti i driver che ho provato...anche a default. ;)

E' un problema delle ram, in concomitanza con il downclock delle stesse, ma imho non è legato ai driver. Con tutti i driver li ho avuti, Omega compresi.

Credo sia proprio un problema hw di alcune schede che probabilmente vengono prodotte senza considerare attentamente alcune specifiche (probabilmente c'è qualche carenza nel progetto dal quel pdv) e su alcuni sistemi in particolare (e non su tutti), causano questo problema.

Un sacco di gente ha risolto il bs, cambiando mobo e mantenendo la stessa scheda e gli stessi driver ad esempio. Come si spiega questo? Mah.... :D
Vero vero, c'è anche chi come te aveva avuto problemi legati a questo particolare, ma se non ricordo male i mesi dopo l'uscita delle vga era uscito un driver con fix bs, ora potrei sbagliarmi, ma ricordo così

gospel
10-06-2015, 12:22
... scusa, ma questa è proprio una colossale fandonia...

beh prendo per esempio the witcher 3 perchè i benchmark sono attuali..con una 290x o una 295x a 1080p non si riesce ad avere piu di 30/40fps a 1080p a settaggi ultra..mentre con una 980 la situazione è già molto meglio..

direi che quindi non è proprio una cavolata la mia affermazione..e con questo non voglio dire che sia la scheda il problema ma probabilmente le software house che ottimizzano i giochi con le chiappe..

devil_mcry
10-06-2015, 12:23
Dipende :D
Io tengo gli omega di dicembre e per ora son felice così.. se i giochi vanno bene, preferisco non fare nulla, perché perder tempo ad aggiornare?

Tra l'altro.....è arrivato il tanto atteso fix (efficace intendo) per le Kepler su TW3? :sofico:

Scherzi a parte...

Il problema dei driver non esiste. Non è mai esistito. Esiste da sempre il "problema" dei rapporti commerciali e del testing effettuato sulle schede. :)

Purtroppo gli hw, anche se debbono rispettare le specs dx (e in questo OLTRETUTTO, storicamente ATI è sempre stata più rigorosa di Nvidia... ;) ) sono diversi e hanno punti di forza e di debolezza.

Se Rage non funzionava appena uscito su AMD, vai a vederti la storia della Id per capire come ha sempre funzionato il rapporto fra quella software house e le produttrici di hw. :D
(Ad es. uso di features specifiche ad hoc su hw Nvidia ecc :asd: )

Colpa di ATI sicuramente, ma solo in parte. ;)


ATI è sempre stata una spina nel fianco all'egemonia yankee di Nvidia nel settore del 3d ludico...e spesso Nvidia ha giocato sporco (arrivando al tarocco vero e proprio :asd: come nel caso del 3dmark ad es.) e questo oltre che un orgoglio è anche un handicap per AMD, divisa spesso fra incudine e martello.

Io discorso che faceva Frozen è reale, spesso ciò che può anche essere un pregio, visto sotto una certa ottica (magari quella dominante :D ) può essere un difetto: quando ATI (anni fà), faceva aggiornamenti driver più frequenti, al tutto veniva dato una valenza negativa. :)

Si ritorna al solito discorso: ATI (ora AMD) avrebbe fatto molti più soldi spendendo nel marketing che nella progettazione/affinamento del pp per le proprie architetture.
E' lì... dov'è particolarmente carente, buone capacità tecniche quel gruppo le ha..e le ha sempre avute. E purtroppo adesso, con l'andazzo che ha preso il mercato, rischia di perdere pure quelle.

Con una buona comunicazione con le software house, il tuo hw se vale 50, potrà valere anche 45-48... con una cattivo rapporto, il tuo hw che vale 60 o anche 70, vale 35...30... o meno.... (sono solo numeri a caso, non sto facendo paragoni vs realtà).

Non ho Kepler ma da quel che so i driver fix per TW3 e Kepler sono usciti a fine maggio già, qui puoi vedere i report prestazionali http://www.reddit.com/r/pcgaming/comments/380hzl/legit_reviews_nvidia_35306_driver_now_available/

Aggiornare i driver non è sta gran perdita di tempo (proprio intesa in termini di tempo, ci vanno 2 minuti a scaricarli e nemmeno 2 ad installarli). Secondo me avere driver aggiornati piuttosto che non averli è una cosa positiva. Averli e non metterli è una scelta (non si installano da soli), non averli e non metterli diventa una forzatura.