PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 [51] 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347

Luca T
27-05-2015, 21:18
La 280 sparisce e viene sostituita da una variante 4gb della 285.

GCN 1.2(r9 285 e r9 380) dx 12.0 tier 3, mentre maxwell dx12.1 tier 1.
Ad entrambe comunque manca qualche funzionalità dx 12, ma per averle complete toccherebbe prendere una scheda a 16 nm l'anno prossimo.

Devia diceva che Tier 3 non viene usato per gaming :confused:

E che dovrebbe essere l'inverno con Maxwell rev.1 Tier 1 mentre rev.2 Tier 2

°Phenom°
27-05-2015, 21:50
Tier 1 è meglio di Tier 3? :mbe:

FroZen
27-05-2015, 21:56
Which hardware will be DX12-compatible? AMD said all of its Graphics Core Next-based Radeon GPUs (i.e. Radeon HD 7000 series and newer) will work with the new API. Nvidia pledged support for all Fermi, Kepler, and Maxwell (i.e. GeForce GTX 400 series and newer) parts. The keynote included a demo of Forza 5 running in DirectX 12 mode atop an Nvidia GPU. Finally, Intel said the integrated graphics in its existing Haswell processors will also have DX12 support. All in all, Microsoft estimates that 100% of new desktop GPUs, 80% of new gaming PCs, and 50% of PC gamers will be able to take advantage of the new API.

Capozz
27-05-2015, 21:59
AMD ha pubblicato un teaser di una scheda, probabilmente Fiji

https://www.youtube.com/watch?v=O5bVoIQrH7g

Raven
27-05-2015, 22:27
AMD ha pubblicato un teaser di una scheda, probabilmente Fiji

https://www.youtube.com/watch?v=O5bVoIQrH7g

7 secondi... alla faccia del teaser....:fagiano:

Free Gordon
28-05-2015, 00:15
Slide su DX12 e GCN. :)

http://www.slideshare.net/Fred8kins/amd-and-directx12

appleroof
28-05-2015, 06:15
Altra immagine videocardz.com/55704/amd-radeon-fiji-pictured-again

desmy
28-05-2015, 06:19
Ma quindi i rebrand saranno fatti pari pari (270x con 370x ecc) e non si avrà il tanto sperato abbassamento di fascia dei modelli vecchi? Speravo che AMD non potendo competere sulla tecnologia volesse rimediare con un migliore rapporto prezzo prestazioni ma non sembra essere così.

Obrigado
28-05-2015, 06:30
http://i.imgur.com/ilzNamHl.png

da questa si capisce che che le nuove saranno 4gb hbm1

pero' mi fa molto piacere visto che ho 2 gtx970 da 3.5gb almeno con i nuovi titoli arrivo a 7gb di vram.

ahahahahahahahahaa

Raven
28-05-2015, 08:18
http://i.imgur.com/ilzNamHl.png

da questa si capisce che che le nuove saranno 4gb hbm1

pero' mi fa molto piacere visto che ho 2 gtx970 da 3.5gb almeno con i nuovi titoli arrivo a 7gb di vram.

ahahahahahahahahaa

solo per sapere: ma sotto win10 un'eventuale SLI/CFX "raddoppia" la ram anche se un titolo è scritto in dx9-11 o sta cosa funziona SOLO per titoli basati sulle nuove dx12?!

FroZen
28-05-2015, 08:26
Esatto.... Gli ultimi titoli dx11 only avranno 4gb e li pilotera una singola fiji senza problemi ... Coi primi dx12 e il 4k ci staremo ancora dentro, con crysis 4 magari no e a quel punto seconda fiji o direttamente greenland 8gb hbm2...

Lanzus
28-05-2015, 08:29
solo per sapere: ma sotto win10 un'eventuale SLI/CFX "raddoppia" la ram anche se un titolo è scritto in dx9-11 o sta cosa funziona SOLO per titoli basati sulle nuove dx12?!

Se non usi API aggiornate non vedo come possa funzionare ... fosse retrocompatibile sarebbe una svolta epocale, quello si. Soprattutto per Nvidia e AMD che si ritroveranno a vendere molte piu configurazioni sli/cross.

egounix
28-05-2015, 08:29
http://i.imgur.com/ilzNamHl.png

da questa si capisce che che le nuove saranno 4gb hbm1

pero' mi fa molto piacere visto che ho 2 gtx970 da 3.5gb almeno con i nuovi titoli arrivo a 7gb di vram.

ahahahahahahahahaa

lololol e alla fine avrai piu' gb di ram di una 980 ti senza scomodare i segmenti lenti, e le palle sul rallentamento di 970+sli+4k?
lol :asd:

Raven
28-05-2015, 08:38
Solo con le DX12 dovrebbero implementarlo ;)

ah ok... sì insomma, basterà attendere i soliti 2/3 anni per cominciare a vedere i primi titoli "only dx12"!... :asd:

hrossi
28-05-2015, 08:47
Altra immagine videocardz.com/55704/amd-radeon-fiji-pictured-again

8pin + 8pin. :D

Dovrà combattere per forza contro la titanX che ha 6+8, le 980 reference se non sbaglio sono 6+6. :asd:
Of course non ha questo significato ;) ma 8+8 significa fame, tanta fame, o no?

Hermes

FroZen
28-05-2015, 08:51
Vuol dire non fondere i connettori del ali quando la spingi sui 400 450 w come le titan x overvoltate...

Ale55andr0
28-05-2015, 08:53
8pin + 8pin. :D

Dovrà combattere per forza contro la titanX che ha 6+8, le 980 reference se non sbaglio sono 6+6. :asd:
Of course non ha questo significato ;) ma 8+8 significa fame, tanta fame, o no?

Hermes

l'importante è che abbia anche potenza, tanta potenza, più di titan x, qualsiasi risultato diverso dalla superiorità lo considererò un fail, con o senza avvocati d'ufficio...e con 4 gb (1/3 di titan x...) guai a loro se faranno prezzi assurdi tipo 8 cartoni o giu di lì, perchè lo considererò come sopra....le hbm costano? so 4 chip quattro...quanti ce ne vogliono di gddr5 per fare un banco da 4 gb nelle attuali...io ne avevo 12 sulla 7970 da 3...

magnusll
28-05-2015, 09:01
l'importante è che abbia anche potenza, tanta potenza, più di titan x, qualsiasi risultato diverso dalla superiorità lo considererò un fail, con o senza avvocati d'ufficio...e con 4 gb (1/3 di titan x...) guai a loro se faranno prezzi assurdi tipo 8 cartoni o giu di lì, perchè lo considererò come sopra....le hbm costano? so 4 chip quattro...quanti ce ne vogliono di gddr5 per fare un banco da 4 gb nelle attuali...io ne avevo 12 sulla 7970 da 3...

In pratica perche' Fiji non sia un fail tu pretendi una scheda che vada piu' della Titan X e costi come minimo il 40% in meno.

Mi pare equilibrato :asd:

Raven
28-05-2015, 09:02
l'importante è che abbia anche potenza, tanta potenza, più di titan x, qualsiasi risultato diverso dalla superiorità lo considererò un fail, con o senza avvocati d'ufficio...e con 4 gb (1/3 di titan x...) guai a loro se faranno prezzi assurdi tipo 8 cartoni o giu di lì, perchè lo considererò come sopra....le hbm costano? so 4 chip quattro...quanti ce ne vogliono di gddr5 per fare un banco da 4 gb nelle attuali...io ne avevo 12 sulla 7970 da 3...

http://www.hokutonoken.it/altrichar/jako.jpg

Potenza! Voglio più potenza! Ho detto più potenza!!!




(sì ok, in Kenshiro era "luce", ma era per rendere l'idea! :O )

MrBrillio
28-05-2015, 09:09
A me di tutta la questione DX12 interessava davvero la possibilità di fare sistemi ibridi Nvidia/AMD, ma è rimasto un rumor mi sa...visto che nelle notizie che trapelano in questo periodo non se ne parla minimamente..peccato anche se sarebbe stato troppo bello.

Ale55andr0
28-05-2015, 09:17
In pratica perche' Fiji non sia un fail tu pretendi una scheda che vada piu' della Titan X e costi come minimo il 40% in meno.

Mi pare equilibrato :asd:


-ha 1/3 della ram di una titan
-amd è in ritardo MOSTRUOSO, ergo per forza devi stare avanti a prestazioni, è quello che si aspetta il 99% degli enthusiast, che sono quelli che attendono e che gli compreranno (?) la scheda, non l'utente che compra il pc da euronics
-la 980 ti costerà sicuramente meno di una titan x e non certo di 50 euro...
-...e avrà comunque più ram di fiji
-gira e rigira parliamo sempre di una vecchia architettura ritoccata
-1000 e rotti euro meno il 40% son sempre 6-700 euro, ergo non parliamo di spiccioli comunque, non ho detto mica 300 euro bundle compreso

ergo si, mi pare equilibratissimo

appleroof
28-05-2015, 09:18
8pin + 8pin. :D

Dovrà combattere per forza contro la titanX che ha 6+8, le 980 reference se non sbaglio sono 6+6. :asd:
Of course non ha questo significato ;) ma 8+8 significa fame, tanta fame, o no?

Hermes

Bè la presenza dell'aio di serie, anche se ancora a livello di rumors, già dava indicazioni in questo senso...

D'altra parte GCN non ha il performance/watt tra i suoi punti di forza, da questo punto di vista AMD e NVidia hanno fatto percorsi totalmente opposti invertendo le parti negli anni

hrossi
28-05-2015, 09:20
A me di tutta la questione DX12 interessava davvero la possibilità di fare sistemi ibridi Nvidia/AMD, ma è rimasto un rumor mi sa...visto che nelle notizie che trapelano in questo periodo non se ne parla minimamente..peccato anche se sarebbe stato troppo bello.

Si spera di no, penso che sarebbe una cosa piacevole per tutti usare schede combinate per avere più frames e le tecnologie proprietarie (ma credo cambiando connessione fisica poi).
Il fatto è che se anche sarà possibile :sperem:, come detto poco sopra lo sarà solo per i titoli Dx12 nativi, o con patch per quelli odierni dx12-ready. Ma temo pesanti patch, non so quante software house ci perdano tempo. :(

Intanto aspettiamo windows10 (settembre?) e le relative dx12 utilizzate nei driver. :D

Hermes

magnusll
28-05-2015, 09:21
-ha 1/3 della ram di una titan
-amd è in ritardo MOSTRUOSO, ergo per forza devi stare avanti a prestazioni, è quello che si aspetta il 99% degli enthusiast, che sono quelli che attendono e che gli compreranno (?) la scheda, non l'utente che compra il pc da euronics
-la 980 ti costerà sicuramente meno di una titan x e non certo di 50 euro...
-...e avrà comunque più ram di fiji
-1000 e rotti euro meno il 40% son sempre 6-700 euro, ergo non parliamo di spiccioli comunque, non ho detto mica 300 euro bundle compreso

ergo si, mi pare equilibratissimo

Se la scheda va piu' della Titan X (cioe' FA' PIU' FPS) vuol dire che avere meno ram e' ininfluente, quindi non si capisce perche' dovrebbero regalartela.

E per favore non venirmi a mettere in mezzo cazzate tipo "eh ma piu' ram significa essere al sicuro per il futuro". Basta vedere che fine ha fatto la Titan originale con Witcher 3.

hrossi
28-05-2015, 09:21
Bè la presenza dell'aio di serie, anche se ancora a livello di rumors, già dava indicazioni in questo senso...

D'altra parte GCN non ha il performance/power tra i suoi punti di forza, da questo punto di vista AMD e NVidia hanno fatto percorsi totalmente opposti invertendo le parti negli anni

Sì infatti, vediamo quanta fame avranno queste schede, non che poi uno con un 650W deve anche cambiare psu no? :D

Hermes

Ale55andr0
28-05-2015, 09:23
Se la scheda va piu' della Titan X (cioe' FA' PIU' FPS) vuol dire che avere meno ram e' ininfluente, quindi non si capisce perche' dovrebbero regalartela.



sticazzi che è ininfluente, perchè se è per giocare in 4 k, anche in cross, i giochi next gen staranno stretti e già OGGI alcuni toccano i 4 gb in 1080 se maxati (GTA5) o sono comunque molto esigenti (mordor) da quel punto di vista e la tendenza non è scendere, senza scomodare i lustri e gli eoni le scatolette possono allocare 5 gb per i game, e qualcosina in più se le "sbloccheranno" (si parla di 6gb)

°Phenom°
28-05-2015, 09:26
Sì infatti, vediamo quanta fame avranno queste schede, non che poi uno con un 650W deve anche cambiare psu no? :D

Hermes
Ma non penso proprio, un mio amico ha un cross di 290 con un 750w, dai leak le fiji consumano praticamente lo stesso di un 290, per cui..

appleroof
28-05-2015, 09:27
Per me invece l'ibrido avrebbe solo svantaggi: architetture/potenze/consumi calore tutto completamente diverso per me è sinonimo di inefficienza totale... Invece vedo la cosa molto interessante in ottica apu+discreta, magari con possibilità di spegnere completamente la discreta in 2d e fare sistemini davvero versatili e completi, oppure per affiancare ad esempio ad una 980 una 960 e scegliere se dedicarla ad aiutare il rendering oppure ad esempio dedicarla solo alla fisica..

Ale55andr0
28-05-2015, 09:30
con chi stai parlando? chi ha parlato di ibrido? :fagiano:

hrossi
28-05-2015, 09:32
Ma non penso proprio, un mio amico ha un cross di 290 con un 750w, dai leak le fiji consumano praticamente lo stesso di un 290, per cui..

Meglio così, ma i leak rimangono leak fino a quando c'è una review. Speriamo che consumino e scaldino pure meno delle 290x. :mano:

Hermes

magnusll
28-05-2015, 09:39
sticazzi che è ininfluente, perchè se è per giocare in 4 k, anche in cross, i giochi next gen staranno stretti e già OGGI alcuni toccano i 4 gb in 1080 se maxati (GTA5) o sono comunque molto esigenti (mordor) da quel punto di vista e la tendenza non è scendere, senza scomodare i lustri e gli eoni le scatolette possono allocare 5 gb per i game, e qualcosina in più se le "sbloccheranno" (si parla di 6gb)

Per giocare in 4k giochi next gen hai bisogno di schede next gen, non queste.

A settembre esce Windows 10 con le nuove Direct X (che per inciso presumibilmente favoriranno AMD sia perche' sono delle Mantle rimarchiate e sia perche' devono far girare pure il botolo che ovviamente e' bloccato su architettura GCN), e l' anno prossimo arrivano i 16nm. Appena esce la nuova generazione le schede di oggi le prendi, le infiocchetti e le butti nel cesso.

L' unica domanda che vale la pena di chiederti e' se la ram che hai sulla scheda oggi ti basta fino all' anno prossimo. E la risposta e':

- se giochi in 2k o meno 4GB bastano
- se giochi 4k o in multimonitor allora la Fiji non ti serve a un cazzo indipendentemente dalla potenza. Peraltro per configurazioni di questo tipo ti tocca andare su tri-sli di Titan X o roba simile

appleroof
28-05-2015, 09:46
con chi stai parlando? chi ha parlato di ibrido? :fagiano:

Ho dimenticato il quote :asd:

Mi riferivo ad hrossi e MrBrillio che parlavano di conf. Miste amd/Nvidia con le dx12

paolox86
28-05-2015, 09:48
Meglio così, ma i leak rimangono leak fino a quando c'è una review. Speriamo che consumino e scaldino pure meno delle 290x. :mano:



Hermes





Mah, finché il processo produttivo è questo dubito che con più shader e prestazioni maggiori dubito che consumeranno meno anche con tutte le possibili ottimizzazioni dell'architettura possibili.
Queste nuove memorie saranno sicuramente più efficienti ma faranno miracoli essendo dopo tutto alla prima apparizione? Credo che il consumo sarà trascurabile rispetto al chip.
Speriamo che sia veloce e possa mettere in crisi anche Nvidia e la sua politica dei prezzi anche se molti rumors prevedono che pure AMD opti per la mazzata al portafogli a questo turno

Ale55andr0
28-05-2015, 09:49
Per giocare in 4k giochi next gen hai bisogno di schede next gen, non queste.

chi compra oggi pensa a quello che c'è oggi, non a quello che c'è domani, e non concordo col fatto che servono schede next gen visto che con una coppia di super top i 4k li tiri





- se giochi in 2k o meno 4GB bastano


ripeto, io oggi i 4 gb li saturo in 1080, e l'architettura delle console porta già oggi scenari per cui la quantità ram di è importante a prescindere e non può diventare un limite possibile anche se non in ogni scenario, già mentre acquisti un prodotto nuovo di pacca che non paghi due lire

FroZen
28-05-2015, 09:49
Le hbm costano, hanno rese molto basse...

Ale55andr0
28-05-2015, 09:50
Ho dimenticato il quote :asd:

Mi riferivo ad hrossi e MrBrillio che parlavano di conf. Miste amd/Nvidia con le dx12


vabè in quel caso dovrai separare le schede che faranno a botte litigando dentro al case, no problem :D

Trokji
28-05-2015, 09:51
Vabè è eccessivo. chi si accontenta un po' come al solito potrà continuare ad usare le schede attuali (quelle compatibili) con le dx12. Ovvio che saranno super surclassate dalle prossime generazioni. Però il fatto che le dx12 faranno risparmiare tanta ram resta, almeno sulla carta (sono ottimista e penso che non ci vorranno giochi dx12 nativi ma basterà una patch fatta a regola d'arte, come mi aspetto avverrà ad esempio per witcher 3).
Questo non cambia il discorso su una scheda top come quella che dovrebbe essere di AMD.
Per il resto concordo, se AMD facesse una scheda che va pochissimo in più di una titan e costa uguale, consumano di più (probabile), avendo meno features ed essendo peggio supportata (probabile) la situazione rimarrebbe quella attuale. AMD può pensare di riprendere quote di mercato solo rilanciando, ovvero proponendo un prodotto che va di più ad un prezzo sensibilmente inferiore (o anche che va un filo meno ad un prezzo molto inferiore, che non rilancerebbe l'immagine come nel primo caso ma farebbe sicuramente guadagnare quote di mercato). Buona comunque l'idea della scheda più corta, magari sarà più compatibile con più case mini itx. Questa cosa di trailer e foto continue però non mi piace, anche perché sinceramente sono foto fatte a metà o 2 secondi di trailer (che poi non sono sicuro si possa chiamare trailer quello). Se sono usciti però ci saranno dei motivi (che possono essere legittimi, ma sperando che esca una scheda ottima ed a buon prezzo si spera sempre di vedere qualcosa di concreto più che questo tipo di cose)

appleroof
28-05-2015, 09:54
vabè in quel caso dovrai separare le schede che faranno a botte litigando dentro al case, no problem :D

:asd:

hrossi
28-05-2015, 09:55
oppure per affiancare ad esempio ad una 980 una 960 e scegliere se dedicarla ad aiutare il rendering oppure ad esempio dedicarla solo alla fisica..

Non è già possibile ora? Chiedo in quanto vedo anche sul thread delle titanX che c'è chi compra 750ti da affiancare e usare solo per physx. :mbe:

Hermes

Ale55andr0
28-05-2015, 09:55
Le hbm costano, hanno rese molto basse...

bella scusa, snoccioliamo numeri veri, non frasi fatte.
Quanto costa UNO di quei chip rispetto ad uno di ggdr 5?
su che pp stanno?
quanti ce ne vogliono per ottenere lo stesso quantitativo di ram?
il pcb e in generale le interconnessioni saranno più o meno complesse?
il memory controller della gpu sarà più o meno complesso?

per quanto mi riguarda come la metti metti se sparano un prezzo da urlo sarà per scelte di marketing, non perchè senno non hanno margini di guadagno adeguati. Poi ormai ho imparato che parlare "contro" amd con te come interlocutore è utile quanto, all'epoca, discutere con gaxel di game :asd: :p

Lanzus
28-05-2015, 10:02
La Vram è gestita malissimo a livello software. Ai produttori hardware costa meno infilarne di piu' che scrivere un driver decente in grando di allocare e smistare nel modo giusto. E in questo modo è anche molto piu' semplice scaricare il costo sul consumatore ... tutto fila. Se AMD si impegnasse di piu' lato software 4 gb potrebbe bastare. Se poi aggiungiamo la banda quasi doppia disponibile con le HBM direi che il 4 k ci puo' stare.

FroZen
28-05-2015, 10:05
Liberissimo di pensarla come vuoi... Non sto giustificando un prezzo che non c'è (fra l altro) potrebbero benissimo costare dieci volte i chip ddr5 da 12gb delle x per quanto mi riguarda (tecnologia in giro da sette anni, li conosci i discorsi di investimenti/ammortamenti/roi/economie di scala etc vero?) ... Sono le prestazioni che fanno gli msrp , percui se costera tanto vorra dire che andrà tanto in primis (il tetto ricordo essere i 999$ della titan x)....

Ti faccio una domanda: perche non hai una 290x 8gb nel case visto che sei fissato sul frame buffer? Amd é un anno che propone vga 8gb, come mai tutti a prendere 970 980 4gb?! Mmmmm....

magnusll
28-05-2015, 10:12
Ti faccio una domanda: perche non hai una 290x 8gb nel case visto che sei fissato sul frame buffer? Amd é un anno che propone vga 8gb, come mai tutti a prendere 970 980 4gb?! Mmmmm....

Perche' tanto alla fine 8GB non servono a un' emerita ceppa come Witcher 3 dimostra ampiamente. Oltretutto c'e' pure il discorso che tutti i discorsi su quanta memoria allochi sono aria fritta perche' non puoi sapere se la memoria allocata viene poi effettivamente utilizzata per generare il frame o e' solo il motore che se la prealloca "casomai servisse" e poi non la usa.

Alla fine quello che conta e' il numero dei frames. Il bello poi e' che da un lato si dice che la storiella dei 3.5 + 0.5 della GTX970 e' una tempesta in un bicchier d' acqua "perche' la scheda comunque va bene e se non te lo dicevano non te ne accorgevi mai", ma quando esce la Fiji con "soli" 4 GB "eh ma con 4 GB non ci fai un cazzo i giochi di adesso gia' ne saturano 5". E vabbe'...

appleroof
28-05-2015, 10:14
Non è già possibile ora? Chiedo in quanto vedo anche sul thread delle titanX che c'è chi compra 750ti da affiancare e usare solo per physx. :mbe:

Hermes

Si ma non è possibile l'altra alternativa che dicevo, ossia scegliere se invece far aiutare la scheda grossa da quella piccola per il rendering :D

Mi pare fosse possibile una volta con l'hybrid crossfire ma non ha avuto successo come soluzione (credo fosse inefficiente) infatti non ne sento parlare mai...

Invece con le dx12 ci sarebbe maggiore flessibilità, potendo scegliere gioco per gioco come utilizzare la piccola, è solo un'opportunità in più insomma ma secondo me comoda

appleroof
28-05-2015, 10:16
La Vram è gestita malissimo a livello software. Ai produttori hardware costa meno infilarne di piu' che scrivere un driver decente in grando di allocare e smistare nel modo giusto. E in questo modo è anche molto piu' semplice scaricare il costo sul consumatore ... tutto fila. Se AMD si impegnasse di piu' lato software 4 gb potrebbe bastare. Se poi aggiungiamo la banda quasi doppia disponibile con le HBM direi che il 4 k ci puo' stare.

AMD (e nvidia) possono impegnarsi quanto vuoi ma da quel punto di vista credo che il 90% sia in mano agli sviluppatori, con le dx12 dovrebbe migliorare pure questo aspetto della gestione vram infatti (lato sviluppatore)

MrBrillio
28-05-2015, 10:19
Bello vedere come tanti di voi ripongano così tante speranze nella prossima generazione di VGA...dai dai che l'anno prossimo con 200€ giocheremo in k4@120fps :asd:
Ormai ora hanno anche la scusa delle prestazioni in relazione ai consumi...e infatti la cosa delle hbm mi spaventa proprio perchè in molte slide compare proprio la relazione fra quei 2 parametri....va a finire che avremo schede che consumeranno quando un led e che andranno il 5% in più rispetto alle attuali...
In ogni caso se posso dire la mia i 4 Giga di ram iniziano a stare stretti oggi...o questi hanno progettato consci del fatto che le directx 12 sommeranno le memorie delle 2 vga in CF, o hanno cannato alla grande imho rilasciando OGGI (meglio dire dopodomani va) una VGA con un quantitativo di ram così.
Però anche pensare di appoggiarsi al multi gpu non la vedo troppo furba come mossa...non penso sia tantissima la gente che vuole più di una scheda video nel case..abbiamo sempre detto che è un mercato di nicchia, ed ora speriamo che tutti possano godere di quella possibilità come se fosse la cosa migliore da fare?

maurilio968
28-05-2015, 10:21
Su quello nemmeno io, però a parte che prima mi sono confuso e kepler era GK104 e 110 e non GK204 e 210, non ci sono 2 generazioni

di Kepler ho guardato. Certo ci sono schede GK210 ma sono Tesla e dubito che abbiano qualche senso in ambito ludico o qualche differenza architetturale.

Considerando comunque che le DX12 hanno solo l'ottimizzazione hardware (le features nuove sono nelle DX12.1 solo) penso che sia di fatto anche possibile la

cosa. In un Twitter e in qualche slide comunque nVidia aveva riportato che le DX12 saranno per tutte le GPU Fermi Kepler e ovviamente Maxwell. Potrebbe essere

una supercazzola ma dubito che siano davvero cosi scemi (come dubito che la prima gen di Fermi supporti davvero le DX12).

Edit

Anche stando al whitepaper di nvidia su kepler, non ci sono sostanziali differenze tra il gk110 e il 210 (cambiano solo alcuni registri e la massima memoria

condivisibile e poche altre cose). Lato consumer comunque non ci sono due rev di kepler

Oltre al feature level (11.0,11.1,12.0,12.1) vanno considerati i tier (1,2,3) che indicano la "potenza" hardware di cui è capace la scheda relativamente ad una o più feature principali (UAV "Unordered Access View" , Tiled Resource e Resource Binding)

Nel caso del Resource Binding per esempio


http://diit.cz/sites/default/files/microsoft_directx_12_resource_binding_tiers.png


Più il feature level è alto meglio è
Più il tier è alto meglio è

Una scheda VERAMENTE FULL directx12 in hardware deve essere non solo level features 12.1 ma anche tier 3 in tutte le features principali (UAV "Unordered Access View" , Tiled Resource e Resource Binding , ma ce ne sono altre)

Ciò premesso, io al momento so che la situazione è questa:

Make sure you separate Maxwell Gen 1 and Gen 2 when you talk about Maxwells, they have radically different feature sets.

Fermi, Kepler and Maxwell Gen 1 supports DX12 with unknown Feature Level. It's known they support minimum of 11_0, as that's what they do on DX11 too.
It's unlikely they could support 12_0 because they can't support 11_1 either ( they're lacking on the Typed UAV Tier department which is also one of the reasons they can't do 11_1 )

Maxwell Gen 2. supports DX12 Feature Level 12_1 with Resource Binding Tier 2. Conservative Rasterization Tier is probably 1, Tiled Resources Tier is probably 3 and Typed UAV Tier is probably 1. Rest of feature x tiers is unknown for Maxwell Gen 2.

GCN 1.0, 1.1 and 1.2 supports DX12 with unknown Feature Level: Resource Binding Tier is 3 but the Rest of feature x tiers is unknown at the moment.It's 11_1 minimum as they support it in DX11 too, but it might be 12_0 since they fulfill at least the UAV requirements on 12_0 and possibly the rest too. One possibility, too, is that GCN 1.0 would be 11_1 and GCN 1.1 & GCN 1.2 12_0

And for the sake of it, GCN "1.3" aka Fiji will be the first discrete GPU to support whole DX12. It should be DX12, FL 12_1 and all feature tiers at max. (While Maxwell Gen 2 supports Feature Level 12_1, it's limited to Tier 2 at least in Binding Resources)

Schema riassuntivo

http://img.photobucket.com/albums/v68/pjbliverpool/DX%20Feature%20Levels.jpg

magnusll
28-05-2015, 10:25
In ogni caso se posso dire la mia i 4 Giga di ram iniziano a stare stretti oggi...

Su quali giochi e a quali risoluzioni?

Ti faccio una domanda semplice semplice: secondo te come fa la 970 a far girare decentemente Shadow of Mordor (tanto per menzionarne uno tipicamente citato come assetato di ram) a 2k o meno?

Lanzus
28-05-2015, 10:30
Sta storia delle tier e dei feature level è una porcata allucinante. Trasparenza zero. Sembra fatta apposta per buttare fumo negli occhi.

Ale55andr0
28-05-2015, 10:30
Ti faccio una domanda: perche non hai una 290x 8gb nel case visto che sei fissato sul frame buffer? Amd é un anno che propone vga 8gb, come mai tutti a prendere 970 980 4gb?! Mmmmm....


semplice, quando l'ho presa non esistevano le versioni da 8 gigi, o quantomeno non ne sapevo nulla. Solo in seguito seppi di una ipotetica vaporx da 8giga, ma mesi dopo e ad un prezzo troppo alto, e comunque la potenza di una 290 rende inutile cercare versioni con molta ram, quantomeno in ottica di gpu singola


Se poi aggiungiamo la banda quasi doppia disponibile con le HBM direi che il 4 k ci puo' stare.

della banda te ne fai nulla se le texture non trovano spazio

Ale55andr0
28-05-2015, 10:33
Perche' tanto alla fine 8GB non servono a un' emerita ceppa come Witcher 3 dimostra ampiamente.

infatti in tw3 si vedono cose che non dovrebbero vedersi, come png che compaiono dal nulla e pop up vari se vai veloce a cavallo o ti giri in fretta, tutti dati che potevano caricare in ram senza far vedere queste ingenuità in un titolo di quel calibro

magnusll
28-05-2015, 10:37
infatti in tw3 si vedono cose che non dovrebbero vedersi, come png che compaiono dal nulla e pop up vari se vai veloce a cavallo o ti giri in fretta, tutti dati che potevano caricare in ram senza far vedere queste ingenuità in un titolo di quel calibro

Lascia che faccia anche a te una domandina facile.

Mi fai una lista di giochi attualmente esistenti che, giocati a 2k o meno, schiantano la GTX 970.

Perche' se la GTX970 basta con i suoi 3.5+0.5, a maggior ragione i 4 "veri" della Fiji hanno da bastare. E' matematica.

OEidolon
28-05-2015, 10:38
bella scusa, scoccioliamo numeri veri, non frasi fatte.
Quanto costa UNO di quei chip rispetto ad uno di ggdr 5?
su che pp stanno?
quanti ce ne vogliono per ottenere lo stesso quantitativo di ram?
il pcb e in generale le interconnessioni saranno più o meno complesse?
il memory controller della gpu sarà più o meno complesso?


se speri di pagare un prodotto appena lanciato sul mercato come se fosse a fine ciclo di vita mi sa che rimarrai deluso :fagiano:

maurilio968
28-05-2015, 10:40
Sta storia delle tier e dei feature level è una porcata allucinante. Trasparenza zero. Sembra fatta apposta per buttare fumo negli occhi.

Infatti è così.
Durante le riunioni tecniche c'è stata la battaglia tra nvidia amd e intel su quale tier "minimo" considerare per ottenere un certo feature level.

La verità in soldoni è che:

lato nvidia
fino a maxwell 1 in hardware sono sostanzialmente delle directx 11 nemmeno complete con alcune feature delle directx 12 già implementate
maxwell 2 fa molto meglio ma mancano diversi "pezzi" delle 12 in hardware
Notare che per avere 64 slot uav dobbiamo maspettare maxwell 2 mentre sono già presenti in gcn 1.0


lato amd
gcn 1.0 è comunque superiore come implementazione anche a maxwell 1
(gli slot uav sono 64 contro 8)
gcn 1.1 ed 1.2 aggiungono un tier 2 in tiled resources (contro il tier 1 fino a maxwell)

Se avessero fatto le cose chiaramente nessuna, ne amd ne nvidia, delle schede attuali comprese maxwell 2 potrebbe dirsi directx 12.
Invece pare che la nuova fiji gcn 1.3 lo sarà nel senso di un supporto full hardware. Vedremo.

Tutto questo sulla carta.
Poi si passa a chi sviluppa i giochi e a quali feature decide di usare.
Qui amd paga dazio ,perchè nvidia ha diciamo "supportato" (eufemismo) meglio gli sviluppatori, ed ha smosso le acque con mantle che poi è di fatto confluito nelle directx 12.
Probabilmente sfruttandoi meglio alcune feature già le schede amd gcn 1.1 avrebbero avuto diversi vantaggi rispetto alle nvidia almeno fino a maxwell 1.

Ale55andr0
28-05-2015, 10:42
Lascia che faccia anche a te una domandina facile.

Mi fai una lista di giochi attualmente esistenti che, giocati a 2k o meno, schiantano la GTX 970.

Perche' se la GTX970 basta con i suoi 3.5+0.5, a maggior ragione i 4 "veri" della Fiji hanno da bastare. E' matematica.


non è una questione di "schiantare", è una questione di avere assicurati gli "elementari" 300 orari in una vettura sportiva che costa i 200k euro. Quando prendo un prodotto al top, tu mi dave assicurare il velluto negli scenari più comuni sempre e comunque (i 1080p maxati non mi sembrano l'eresia..) Io i giochi che si ciullano la ram poi te li ho già indicati. In gta 5 per esempio io sfondo i 4200mb occupati in 1080p con tutto maxato, e infatti in alcune situazioni il gioco "singhiozza" quando c'è da caricare rapidamente texture e poligoni (esempio, scapiccolandosi con la macchina in una zona ricca di elementi visivi). Non mi lamento, ho una vga 300 euro, non da 600, ma se mi fai spendere il doppio e oltre io pretendo che tu, dal tuo conto, mi dai un prodotto al top a 360, anche per "quell'unmillesimo" caso critico. Poi che vi siano giochi programmati più o meno a muzzo è pacifico, ma non diamo sempre la colpa agli sviluppatori perchè gli open world ad alto dettaglio non possono prescindere dalla videoram anche se ben programmati (e gta 5 è un titolo ben ottimizzato, pochi caxxi)

MrBrillio
28-05-2015, 10:50
Su quali giochi e a quali risoluzioni?

Ti faccio una domanda semplice semplice: secondo te come fa la 970 a far girare decentemente Shadow of Mordor (tanto per menzionarne uno tipicamente citato come assetato di ram) a 2k o meno?

https://www.youtube.com/watch?v=ULpir6Z3wYg

Poi vabbhè shadow of mordor con texture ultra va oltre i 4...non so a fullhd ma a 1440p sicuramente...in 4 k ho provato ieri e andava oltre i 6.
Non ricordo bene Battlefield 4/HL, ma mi pare che rimanga sotto la soglia.
Oggi probabilmente non ce ne sono tanti di giochi che saturano quella banda (non contando mod grafiche), ma acquistare una VGA che probabilmente potrebbe essere in difetto con i giochi nuovi non so quanto valga la pena....cioè non so voi, ma io spero in un bel salto in avanti anche a livello tecnico dei giochi, e probabilmente anche solo il fatto di avere texture di alto livello tipo quelle di shadow of mordor tende a far salire di parecchio l'uso di Vram.
Poi non dimentichiamoci che la 390x dovrebbe essere una VGA per fascia enthusiast, e come tale si propone a chi ha almeno un 2k per le mani, e che sicuramente sta guardando con curiosità il 4k, aspettando una scheda che sia realmente 4k ready.

Ale55andr0
28-05-2015, 10:55
https://www.youtube.com/watch?v=ULpir6Z3wYg

Poi vabbhè shadow of mordor con texture ultra va oltre i 4...non so a fullhd ma a 1440p sicuramente...in 4 k ho provato ieri e andava oltre i 6.
Non ricordo bene Battlefield 4/HL, ma mi pare che rimanga sotto la soglia.
Oggi probabilmente non ce ne sono tanti di giochi che saturano quella banda (non contando mod grafiche), ma acquistare una VGA che probabilmente potrebbe essere in difetto con i giochi nuovi non so quanto valga la pena....cioè non so voi, ma io spero in un bel salto in avanti anche a livello tecnico dei giochi, e probabilmente anche solo il fatto di avere texture di alto livello tipo quelle di shadow of mordor tende a far salire di parecchio l'uso di Vram.
Poi non dimentichiamoci che la 390x dovrebbe essere una VGA per fascia enthusiast, e come tale si propone a chi ha almeno un 2k per le mani, e che sicuramente sta guardando con curiosità il 4k, aspettando una scheda che sia realmente 4k ready.

http://i61.tinypic.com/213m002.gif

magnusll
28-05-2015, 11:07
https://www.youtube.com/watch?v=ULpir6Z3wYg


Non ho capito ma dov'e' il problema li'? La 970 mantiene un frame rate costantemente superiore a 50 fps fino al WQHD. Crolla sui 4k ma li' poi bisognerebbe vedere se e' un problema di potenza piuttosto che di memoria.

Tra l' altro ironicamente quel video dimostra quel che dicevo io cioe' che l' allocazione di memoria mostrata dai programmini di monitoring non serve a un cazzo, perche' in quel video si sta regolarmente sopra i 4GB per cui se la memoria fosse effettivamente utilizzata per generare i frame la 970 che ne ha solo 3.5 non riuscirebbe mai e poi mai a mantenere quel frame rate.

Per il discorso 4k e "probabilmente in difetto coi giochi nuovi", ripeto quel che ho detto prima: se ti preoccupi dei giochi nuovi, aspetta le DX 12 e i 16 nanometri. Il doppio salto evolutivo a questo giro sara' massiccio per cui veramente non ha IL MINIMO SENSO comprarsi una scheda oggi (e specialmente una top di gamma da oltre 500 cocuzze) pensando alla "longevita' ".

devil_mcry
28-05-2015, 11:09
Sta storia delle tier e dei feature level è una porcata allucinante. Trasparenza zero. Sembra fatta apposta per buttare fumo negli occhi.

Sta storia del tier è una porcata perchè hanno spinto per far passare GPU vecchie come DX12 la dove possibile, perchè a tutti conveniva così. Questa cosa non è mai successa prima di adesso. Allora cosa hanno fatto? Le DX12 che sono arrangiate via SW e le DX12.1 che richiedono HW nuovo, ed infatti solo Maxwell 2 tra le schede in commercio è DX12.1 (da notare che comunque non tutte le features DX sono ludiche, ad esempio Kepler non supportava le features DX11 usate in ambito non ludico ma erano comunque schede DX11).

Ma questa cosa conviene soprattutto ad AMD perchè tanto una scheda di 2 anni fa che sia DX11 o 12 cambia poco, sono sempre schede vecchie, AMD quest'anno avrà in catalogo per lo più schede GCN 1.1, le stesse vendute già ora quindi va bene così.

magnusll
28-05-2015, 11:11
snip Joker che batte la mani

Quindi anche la GTX980 e' una merda, giusto?

Lanzus
28-05-2015, 11:29
Sta storia del tier è una porcata perchè hanno spinto per far passare GPU vecchie come DX12 la dove possibile, perchè a tutti conveniva così. Questa cosa non è mai successa prima di adesso. Allora cosa hanno fatto? Le DX12 che sono arrangiate via SW e le DX12.1 che richiedono HW nuovo, ed infatti solo Maxwell 2 tra le schede in commercio è DX12.1 (da notare che comunque non tutte le features DX sono ludiche, ad esempio Kepler non supportava le features DX11 usate in ambito non ludico ma erano comunque schede DX11).

Ma questa cosa conviene soprattutto ad AMD perchè tanto una scheda di 2 anni fa che sia DX11 o 12 cambia poco, sono sempre schede vecchie, AMD quest'anno avrà in catalogo per lo più schede GCN 1.1, le stesse vendute già ora quindi va bene così.

Si l'avevo intuito. La colpa è un parte di MS che ha sbandierato ai quattro venti le DX12 con troppo anticipo ...

Ma quindi la 980Ti ? DX12.0 sarà giusto ? La 390x invece già 12.1 ?

MrBrillio
28-05-2015, 11:33
La 980 è uscita 7 mesi fa (forse di più)...non è sicuramente male, ma per una scheda che esce in questo momento io personalmente non andrei sotto i 6 giga.

magnusll
28-05-2015, 11:39
La 980 è uscita 7 mesi fa (forse di più)...non è sicuramente male, ma per una scheda che esce in questo momento io personalmente non andrei sotto i 6 giga.

Il che significa Titan X da 1200 euro. O 980TI ad un prezzo che sara' sicuramente superiore alle 980.

Parliamoci chiaro: la verita' e' che se era Nvidia a tirar fuori schede top di gamma con HBM da 4 giga andava bene a tutti... e difatti non leggo NESSUNO che sconsiglia le 970 o le 980 perche' "hanno poca memoria".

Lo fa AMD e quindi e' un fail.

devil_mcry
28-05-2015, 11:41
Si l'avevo intuito. La colpa è un parte di MS che ha sbandierato ai quattro venti le DX12 con troppo anticipo ...

Ma quindi la 980Ti ? DX12.0 sarà giusto ? La 390x invece già 12.1 ?

Tutte le schede Maxwell 2° GEN sono DX12.1 (960, 970, 980, 980TI e Titan X)

FroZen
28-05-2015, 11:50
Volete vga 8gb hbm? Le avrete...... Nel q2 2016.

Volete una vga con piu di 4gb? Ci sono gia... 290x a 450 o titan x a 1200....

smoicol
28-05-2015, 12:03
Volete vga 8gb hbm? Le avrete...... Nel q2 2016.

Volete una vga con piu di 4gb? Ci sono gia... 290x a 450 o titan x a 1200....
la soluzione c'è, ritornare al fhd

smoicol
28-05-2015, 12:13
Io sono fermo al fhd da una vita :D


Inviato dal mio iPhone utilizzando Tapatalk

e allora una 970\980 basta e avanza, i 4gb idem e lascia perdere chi maxa tutto anche setting inutili che ammazzano solo gli fps

appleroof
28-05-2015, 12:30
Volete vga 8gb hbm? Le avrete...... Nel q2 2016.

Volete una vga con piu di 4gb? Ci sono gia... 290x a 450 o titan x a 1200....

Il punto è il chip, in casa AMD paradossalmente prendi una gpu più vecchia e prestazionalmente inferiore ma con più ram (nel caso della hawaii 8gb) o quella con la gpu più veloce ma meno vram :stordita:

Questo come "immagine" che verrà percepita, poco da fare, fu lo stesso a parti inverse con 680/7970 e 780ti/290x

Poi però personalmente intanto aspetto prima l'uscita definitiva della fjii per giudicare, inoltre non credo che 4gb siano particolarmente limitanti, tanto la 390x o come si chiamerà non penso proprio sarà ancora la scheda singola per il 4k (come non lo è la Titan X o 980ti) per quello tocca aspettare imho le future top 16nm rosse e verdi (senza parlare del discorso dx12 e ram che si somma/meglio gestita etc etc)

Raven
28-05-2015, 12:36
la soluzione c'è, ritornare al fhd

"ritornare"?!... io non l'ho mai abbandonato... :O

:sofico:

smoicol
28-05-2015, 12:38
Il punto è il chip, in casa AMD paradossalmente prendi una gpu più vecchia e prestazionalmente inferiore ma con più ram (nel caso della hawaii 8gb) o quella con la gpu più veloce ma meno vram :stordita:

Questo come "immagine" che verrà percepita, poco da fare, fu lo stesso a parti inverse con 680/7970 e 780ti/290x

Poi però personalmente intanto aspetto prima l'uscita definitiva della fjii per giudicare, inoltre non credo che 4gb siano particolarmente limitanti, tanto la 390x o come si chiamerà non penso proprio sarà ancora la scheda singola per il 4k (come non lo è la Titan X o 980ti) per quello tocca aspettare imho le future top 16nm rosse e verdi (senza parlare del discorso dx12 e ram che si somma/meglio gestita etc etc)

dove AMD mi ha deluso è nell'aspettativa, non nell'attesa premetto, perchè in tutto questo tempo tra slide viste e riviste, le cose si sono girate e rigirate, partendo da una vga super sulla carta, con memorie di nuova generazione, pp di nuova generazione e AIO di serie, per chi come noi appassionati era la vga che aspettavamo, invece poi, piano piano che arriva l'ora X, le cose si sono leggermente modificate, stesso pp, memorie hbm solo in versione 4gb, la 8gb continuerà ad utilizzare gddr5, chi parla di hawaii rimarchiato, insomma la solita storia di rebrand già vista.
altra cosa viste le ultime news? 390x sempre più vicina arrivano video e immagini, si un video di 7 secondi dove si vede quello che abbiamo già visto da 15 gg a questa parte. MAH

FroZen
28-05-2015, 12:39
Fullhd + downsampling dove si riesce... E sono a posto fino alla VR :sofico:

smoicol
28-05-2015, 12:39
"ritornare"?!... io non l'ho mai abbandonato... :O

:sofico:

eh si il problema più grande è per chi gioca oltre il fhd, oggi per chi è in fhd di vga valide ce ne sono eccome

FroZen
28-05-2015, 12:45
Sono sempre stati rumors.... Amd non è mai uscita dal "uscita q2 2015 e hbm 1", punto.... Sará la croce e delizia di fiji ste hbm: rivoluzionarie ok ma tecnologia acerba x rese e quindi tempistiche...metteteci win10 in uscita e i tempi si sono estesi troppo... Cmq sia il market share non lo fai con fiji o titan....

MrBrillio
28-05-2015, 12:46
Il che significa Titan X da 1200 euro. O 980TI ad un prezzo che sara' sicuramente superiore alle 980.
Parliamoci chiaro: la verita' e' che se era Nvidia a tirar fuori schede top di gamma con HBM da 4 giga andava bene a tutti... e difatti non leggo NESSUNO che sconsiglia le 970 o le 980 perche' "hanno poca memoria".
Lo fa AMD e quindi e' un fail.


No aspè, il discorso è un po' diverso..perchè chi acquista oggi una 970/980 (presumibilmente usata) lo fa per avere ottime prestazioni ad un prezzo inferiore rispetto alle VGA appena uscite o comunque che stanno per arrivare sul mercato...e se qualcuno dovesse chiedermi se l'acquisto di una 970 o di una 980 sarebbe un'ottimo acquisto in previsione di risoluzioni oltre al fullhd, probabilmente gli direi quello che penso, e cioè che con quel quantitativo di memoria fai poca strada...o meglio...sicuramente bisognerà scendere a compromessi da qui a qualche mese.
La 390x che sta per arrivare si pone come scheda per essere usata ad alte risoluzioni o su sistemi enthusiast, e quindi in teoria chi se la porterà a casa non la utilizzerà in fullhd, ecco perchè probabilmente non è furbissimo dotarla di soli 4 gb.
Prezzi a parte, è più logica la scelta di Nvidia di far uscire una 980Ti a 6gb, rispetto a quella di AMD di presentare sul mercato inizialmente una 390x a 4gb.
Il problema me lo ero posto anche io, tanto che per curiosità avevo chiesto proprio se le hbm occupassero meno memoria con qualche stratagemma, ma visto che non è così....
Ma sicuramente la 390x con 8 gb uscirà, e magari il ritardo potrebbe essere anche causato dal fatto che i rumors che la vedono con soli 4gb siano falsi, e che AMD sia corsa al riparo trovando il modo di dotarle del doppio della memoria.

Raven
28-05-2015, 12:59
Questo come "immagine" che verrà percepita, poco da fare, fu lo stesso a parti inverse con 680/7970 e 780ti/290x


questo sicuro... vedremo però se basteranno le rassicurazioni tipo "4gb basteranno per un pezzo" come lo furono quelle fatte al tempo per i 2Gb delle 680 e i 3Gb delle 780... ;)
Ne dubito (considerando che stavolta è AMD ad essere "sotto il riflettore")

(io ero "negativo", all'epoca, del giga in meno di nvidia, così come lo sono ora per i 4gb "mancanti" sulla top rossa)

paolox86
28-05-2015, 13:12
A 1440p, 4 GB (anzi 3,5+0,5), mi sono sempre stati sufficienti fino adesso. Sicuramente la prossima vga che comprerò sarà con 8 GB ma più per sicurezza, non credo che saranno molti i giochi che richiederanno tale quantitativo di ram video per andare al massimo. D'altronde Ps4 e Xbox one sono uscite da poco e non credo ci sarà qualcosa di nuovo a breve.....
Per il quadHD il discorso ovviamente cambia...

Ale55andr0
28-05-2015, 13:13
Quindi anche la GTX980 e' una merda, giusto?

ma che diamine c'entra? :doh:


vabè, lasciamo perdere

magnusll
28-05-2015, 13:18
Prezzi a parte, è più logica la scelta di Nvidia di far uscire una 980Ti a 6gb, rispetto a quella di AMD di presentare sul mercato inizialmente una 390x a 4gb.
Il problema me lo ero posto anche io, tanto che per curiosità avevo chiesto proprio se le hbm occupassero meno memoria con qualche stratagemma, ma visto che non è così....
Ma sicuramente la 390x con 8 gb uscirà, e magari il ritardo potrebbe essere anche causato dal fatto che i rumors che la vedono con soli 4gb siano falsi, e che AMD sia corsa al riparo trovando il modo di dotarle del doppio della memoria.

Premessa importante: non e' che ce l'ho con te eh, sia chiaro, o che voglio "vincere" la discussione o cazzate simili. Pero' andiamo un attimo ad analizzare la discussione che stiamo avendo.

Io stavo postando con Alessandro sull' argomento 4GB si / 4GB no, bastano fino al 4k, non bastano gia' dal 1080 ecc.

Arrivi tu e mi posti un video (evolve su GTX970) che in teoria dovrebbe dimostrare che gia' i giochi attuali a 1080 saturano i 4GB.

Mo', analizziamo un attimo i fatti che escono da quel video:

a) la GTX 970 rimane sopra i 50fps fino a quando non sali a 4k
b) l' occupazione di memoria segnalata dal programmino parte gia' che sta SOPRA i 4Gb (che sono 4096MB, li' parte che sta gia' a 4300 e rotti)
c) l' occupazione di memoria si mantiene pressoche' costante all' incrementare della risoluzione (parte da 4300 a 1080P per arrivare a 4700 al 4k)

Ora, se invece del solo numeretto "RAM" prendiamo in esame il panorama nel complesso, c'e' una sola cosa che risulta evidente da quel video:

il numeretto sull' occupazione di RAM non significa un cazzo.

Se significasse qualcosa, la 970 dovrebbe stare a zero fps gia' in fullhd (4.2 giga su 3.5 "veri") e la variazione tra il fullhd e il 4k dovrebbe essere massiccia.

In pratica quel video, visto le nostre posizioni nella discussione, avrei dovuto postarlo io, non tu.

Allora ti faccio una semplice domanda: sei sicuro che il bisogno di andare oltre i 4GB sia effettivo, cioe' dovuto a reali requisiti tecnici, e non un bisogno indotto dal marketing?
E' una domanda seria eh, non un tentativo di polemica. Il punto e' che tu ti stai orientando sul "ho bisogno di minimo 6GB" ma basandoti esattamente... su quali dati? Il numeretto affianco della scrittina RAM dei programmini di monitoring? Un numeretto che il video che hai postato tu stesso dimostra inequivocabilmente essere del tutto irrilevante?

[EDIT] Pardon, scusa, stavo guardando l' occupazione di RAM del sistema. Pero' il discorso vale lo stesso, si parte da 2100 e si arriva a 3100 in 4k.

amon.akira
28-05-2015, 13:35
ti prego, chiamalo col suo vero nome e cioè (W)QHD se a 16:9 o WQXGA se a 16:10 :cry:

ti concedo 2.5k se proprio vuoi :D

se il 1920*1080=sono 2milioni di pixel

e il 4k (quattro volte il 1080) sono 8 milioni di pixel

il 2k dovrebbe essere 2volte il 1080, quindi 4milioni

2560*1440= sono 3.7milioni, 2560*1600=giusto 4milioni (2k)

appleroof
28-05-2015, 13:55
questo sicuro... vedremo però se basteranno le rassicurazioni tipo "4gb basteranno per un pezzo" come lo furono quelle fatte al tempo per i 2Gb delle 680 e i 3Gb delle 780... ;)
Ne dubito (considerando che stavolta è AMD ad essere "sotto il riflettore")

(io ero "negativo", all'epoca, del giga in meno di nvidia, così come lo sono ora per i 4gb "mancanti" sulla top rossa)


Infatti mi aspetto che martelli in ogni post e thread delle rosse che 4gb sono pochi come facesti all'epoca per le verdi :asd:

A parte tutto, nel resto del post che hai quotato trovi già la mia opinione, il punto è che a parte sacrosanti attacchi di scimmia :D, razionalmente nè la Fiji nè gm200 hanno per me molto appeal perché per 4k da sole non bastano: per 1440p in giù la 980 rulla benissimo, e le 970/290x vanno molto bene, e a 1440p in giù da qui ai 16nm non vedo giochi che possano necessitare di più di 4gb di vram (parlo di vram necessaria per non aver problemi di stuttering, non allocata) , senza ripeto poi pensare alle dx12 etc

Poi con i 16nm per l'anno prossimo ste vga le vedo un brutto affare in partenza, arrivate tardi (ed infatti spero non influenzino l'uscita delle 16nm solo per motivi di mercato, non tecnici) poi mi sbaglierò...

L'unico difetto della Fiji, se avrà 4gb, è per le configurazioni multigpu che necessitano ora come ora per gli early adopters dei monitor 4k, li in effetti meglio una 980ti con 6gb (ma pure 5,5 + 0,5 :D) ma si tratta di casi limite ancora secondo me.

Cmq ripeto, aspettiamo l'uscita definitiva i test etc prima di giudicare

MrBrillio
28-05-2015, 14:03
Allora ti faccio una semplice domanda: sei sicuro che il bisogno di andare oltre i 4GB sia effettivo, cioe' dovuto a reali requisiti tecnici, e non un bisogno indotto dal marketing?
E' una domanda seria eh, non un tentativo di polemica. Il punto e' che tu ti stai orientando sul "ho bisogno di minimo 6GB" ma basandoti esattamente... su quali dati? Il numeretto affianco della scrittina RAM dei programmini di monitoring? Un numeretto che il video che hai postato tu stesso dimostra inequivocabilmente essere del tutto irrilevante?



A me del marketing interessa poco e niente sinceramente, cerco sempre di informarmi prima di acquistare senza dar troppo peso a quello che pubblicizzano le varie società...detto questo sì, per me far uscire una top di gamma oggi senza almeno 6 gb è una stupidata, perchè credo che sia una scheda che chi gioca in fullhd possa anche evitare, e che per chi gioca a 1440p/4k possa andare stretta da qui a qualche mese.
Shadow of Mordor con lo sli di 980 con le texture ultra stutterava perchè probabilmente saturava la memoria, con la Titan X questo non succede...poi se vuoi mi metto a fare i test sui titoli che utilizzo per vedere quanta memoria occupano, ma sono test inutili, poichè con la top di gamma che ho nel case non dovrei curarmi di questi aspetti....al contrario se la 390x dovesse avere solo 4gb di memoria chi la acquista potrebbe trovarsi a fare questi calcoli.

amon.akira
28-05-2015, 14:09
con la k non si intende ciò, ma semplicemente l'orizzontale nell'ordine dei 2000 pixel... infatti il FHD potrebbe essere definito 2k in quanto http://en.wikipedia.org/wiki/2K_resolution (guarda la tabella dove indica tra l'altro il QHD come 2.5k) e la risoluzione nativa esatta sarebbe 2048*1080
...anche UHD non è il 4k che ormai ha preso moda, UHD è 3840*2180, mentre il 4k 4096*2160 http://en.wikipedia.org/wiki/4K_resolution (guarda caso esattamente il doppio in entrambe le direzioni del 2k)

ps. tra l'altro così come si nomina il UHD come 4k allora si può definire il FHD come 2k in quanto UHD è 4 volte il FHD: 1920*2*1080*2

mi piangono sempre gli occhi quando leggo 2k inteso come QHD :cry: ...

quindi l orizzontale e non i pixel,, però in termini di prestazioni cosi non avrebbe senso parlare di 2k o 4k...quindi io gioco a 2k e chi gioca a 2,5k ha quasi il doppio dei miei pixel e quindi richiede quasi il doppio di prestazioni.

Raven
28-05-2015, 14:12
Infatti mi aspetto che martelli in ogni post e thread delle rosse che 4gb sono pochi come facesti all'epoca per le verdi :asd:


Te lo dico già da subito!... per una top, secondo me 4gb, oggi, sono "pochi"! :D

(mentre 8 non hanno senso su una 290/390, così come non ne avrebbero su una 970/980.... discorso SLI/CFX a parte!)

magnusll
28-05-2015, 14:21
A me del marketing interessa poco e niente sinceramente, cerco sempre di informarmi prima di acquistare senza dar troppo peso a quello che pubblicizzano le varie società...detto questo sì, per me far uscire una top di gamma oggi senza almeno 6 gb è una stupidata, perchè credo che sia una scheda che chi gioca in fullhd possa anche evitare, e che per chi gioca a 1440p/4k possa andare stretta da qui a qualche mese.
Shadow of Mordor con lo sli di 980 con le texture ultra stutterava perchè probabilmente saturava la memoria, con la Titan X questo non succede...poi se vuoi mi metto a fare i test sui titoli che utilizzo per vedere quanta memoria occupano, ma sono test inutili, poichè con la top di gamma che ho nel case non dovrei curarmi di questi aspetti....al contrario se la 390x dovesse avere solo 4gb di memoria chi la acquista potrebbe trovarsi a fare questi calcoli.

E pero' in The Witcher 3 le AMD top di gamma vanno meglio di una Titan (Kepler) che nonostante tutti i suoi GB fa schifo, facendo a malapena qualche frame in piu' di una scheda da 200 euro. E questo tra l' altro, per ironia della sorte, succede nel gioco di gran lunga piu' di alto profilo uscito negli ultimi mesi e con pesante sponsorizzazione Nvidia.

Perche' secondo te vale piu' un' ipotesi tutta da dimostrare ("magari tra qualche mese e' pieno di giochi che gia' in 2K vanno oltre i 4GB") piuttosto che un fatto acclarato? Anche considerando che coi 16m incombenti il periodo di tempo per "pentirsi" e' piuttosto limitato perche' tanto quando escono le nuove tocchera' cambiare comunque quindi al limite il problema ce l' avresti per 6 mesi o giu' di li.

MrBrillio
28-05-2015, 14:36
The Witcher 3 come ti hanno già fatto notare, non è che sia tutto sto capolavoro tecnologico..proprio ieri vedevo popparmi le ombre su una spiaggetta a un metro dal personaggio..attenzione, io non sto dicendo che se hai più memoria la scheda spinge di più, ma sicuramente vista la poca ottimizzazione nelle versioni pc dei giochi, avere qualche giga di vram in più fa sempre bene...anche perchè quando la saturi il divertimento se ne va a farsi friggere...io al vedo così: se ho una top di gamma non devo star lì a preoccuparmi troppo di questi aspetti, ma dovrei avere la libertà di maxare in tutta tranquillità il gioco :D
Oh poi sia chiaro..questo discorso è valido solo a risoluzioni oltre il fullhd, altrimenti i 4gb bastano e avanzano immagino...ma a quel punto chi se la inchiula la 390x? Come diceva qualcun'altro per quella risoluzione già ora ci sono proposte validissime.

psychok9
28-05-2015, 14:46
The Witcher 3 come ti hanno già fatto notare, non è che sia tutto sto capolavoro tecnologico..proprio ieri vedevo popparmi le ombre su una spiaggetta a un metro dal personaggio..attenzione, io non sto dicendo che se hai più memoria la scheda spinge di più, ma sicuramente vista la poca ottimizzazione nelle versioni pc dei giochi, avere qualche giga di vram in più fa sempre bene...anche perchè quando la saturi il divertimento se ne va a farsi friggere...io al vedo così: se ho una top di gamma non devo star lì a preoccuparmi troppo di questi aspetti, ma dovrei avere la libertà di maxare in tutta tranquillità il gioco :D
Oh poi sia chiaro..questo discorso è valido solo a risoluzioni oltre il fullhd, altrimenti i 4gb bastano e avanzano immagino...ma a quel punto chi se la inchiula la 390x? Come diceva qualcun'altro per quella risoluzione già ora ci sono proposte validissime.

D'accordo quasi su tutto, ma perché uno che gioca a 1080p non dovrebbe prendere una 390x/980ti? Giocare a 1080p ti permette di gestire meglio i filtri, e sicuramente di giocare più a lungo con la stessa scheda.
Tra l'altro ad alte risoluzioni (over 1440p) le AMD sembrano risentire meno del "colpo", Titan a parte.

Il nabbo di turno
28-05-2015, 15:04
Imho già una scheda come la 280x o una 680/770 si dimostrano nel 99% dei giochi schede dalla buona potenza per spingere i giochi in full hd, non andrei a giocare in full hd con una scheda che è più del doppio delle schede sopra citate.

magnusll
28-05-2015, 15:09
D'accordo quasi su tutto, ma perché uno che gioca a 1080p non dovrebbe prendere una 390x/980ti? Giocare a 1080p ti permette di gestire meglio i filtri, e sicuramente di giocare più a lungo con la stessa scheda.
Tra l'altro ad alte risoluzioni (over 1440p) le AMD sembrano risentire meno del "colpo", Titan a parte.

Perche' costano troppo e ora come ora con una 290X/970 il fullhd lo gestisci egregiamente. Per il futuro, vale quanto detto prima: tra DirectX 12 e 16nm, tra un anno si butta tutto nel cesso, inutile pensare al futuro in una situazione del genere.

The Witcher 3 come ti hanno già fatto notare, non è che sia tutto sto capolavoro tecnologico..proprio ieri vedevo popparmi le ombre su una spiaggetta a un metro dal personaggio..

Non sono d' accordo con la storiella "si ma Witcher 3 non conta perche' fa schifo", allora io posso dire alla stessa stregua "si ma Shadow of Mordor non conta perche' fa schifo". Se stiamo a fare il taglia e cuci solo sui giochi che supportano una teoria piuttosto che l' altra non ne usciamo piu'. Qua il fatto e' che Nvidia ha segato le Kepler, poche storie; il motore di Witcher non c'entra niente anche perche' gli ingegneri Nvidia ci hanno messo pesantemente le mani. Per questo secondo me la storiella "eh ma con 6gb sto piu' tranquillo" e' una cazzata, vallo a dire a chi s'e' comprato una Titan quanto sta tranquillo oggi grazie ai suoi 6 giga. Oltre al fatto che ribadisco che a meno di giochi fatti male apposta, 4GB non li saturi fino al 2k, e in realta' nella maggioranza dei casi non li saturi manco in 4k ma tanto li' non ti basta proprio la potenza della scheda quindi la quantita' di memoria e' ininfluente.

Vabbuo', tra qualche giorno (si spera) escono le recensioni e vediamo che succede. Tanto per quel che mi riguarda a meno di sorprese clamorose costeranno troppo entrambe quindi il problema non si pone.

J9AnGe
28-05-2015, 16:12
Scusate ma per capire il discorso 2k / 4k , ma qualcuno di voi che ha monitor di questo tipo ha bisogno di attivare l'antialiasing ? lo chiedo perche' quando avevo gtx 970 con DSR 2x mettevo FC3 a 2700 di risoluzione e l'AA era totalmente inutile , non utilizzando l'AA di ram libera ne resta un bel po' . chiedo e :) solo per capire .

moicano68
28-05-2015, 16:40
tier 1 è molto peggio di tier 3, già il 2 si salva al pelo... è indovinate perché M$ ha fatto tutti questi tier :rolleyes:

si ho confuso i numeri...mi sà che seguirò la via del risparmio a sto punto, dato che i prezzi nnn diminuiranno se rimarchiano e aggiungono GB..ma si alzeranno forse...andrò di GTX960 e quello che trovo per 170 euro...

Free Gordon
28-05-2015, 17:02
si ho confuso i numeri...mi sà che seguirò la via del risparmio a sto punto, dato che i prezzi nnn diminuiranno se rimarchiano e aggiungono GB..ma si alzeranno forse...andrò di GTX960 e quello che trovo per 170 euro...

A sto punto conviene una 280 liscia.. costa pure meno..

moicano68
28-05-2015, 17:12
A sto punto conviene una 280 liscia.. costa pure meno..

ma consuma di + e và meno..e n mi pare costi tanto mneno..ripeto ore le GTX960 partono dai 177 euro

moicano68
28-05-2015, 17:15
mi pare un buono modo per aspettare i 16nm e cacciare i money dove servono davvero ;)

io ho la fortuna che posso temporeggiare ancora, giocavo a titoli pre 2013 :D e devo fare SC:BL e Batman Origins sul PC

è 1 mese e mezzo romai che sto con la x195' pro e dato che non ha vertez shader 3 molti giochi anche risibili come grafica nemmeno partono...sperevao in quacosa di nuovo in fascia media..ma nisba..a sto punto giocando a 1680 x 1050 2 GB me li farò basta e guardo alla bolletta e via..fra 2 anni quando usciranno giochi dx12 e nuovoprocesso produttivo vedremo. Grazie a tt

Free Gordon
28-05-2015, 17:29
ma consuma di + e và meno..e n mi pare costi tanto mneno..ripeto ore le GTX960 partono dai 177 euro


Sì hai ragione la 280 va' di meno, mi son confuso con la x.. ;)

Il nabbo di turno
28-05-2015, 19:31
ma consuma di + e và meno..e n mi pare costi tanto mneno..ripeto ore le GTX960 partono dai 177 euro
Se ti fidi di comprare in uno store su trova prezzi dove se succede qualcosa la scheda è da buttare...
Ma in uno store decente,con una versione di marca decente,con il gioco bundle, e spedizione inclusa, parte da 210 euro.

devil_mcry
28-05-2015, 19:41
Se ti fidi di comprare in uno store su trova prezzi dove se succede qualcosa la scheda è da buttare...
Ma in uno store decente,con una versione di marca decente,con il gioco bundle, e spedizione inclusa, parte da 210 euro.

Veramente ho buttato un occhio e su trovaprezzi i primi prezzi per le 960 reference sono da siti affidabili, a 185 la prendi con il gioco (da quel che ho letto) e a 195 la prendi su amazon... Io comunque 177e non lìho trovata.

La 285 costa in media di più, la 280 è più lenta e costa 10 miseri euro in meno su Amazon


EDIT comunque c'è un aspetto che secondo me AMD sta davvero sottovalutando. Anni fa, tanti anni fa, nel PC di mio fratello fatto anche in economia fu installata una HD4670 perchè il suo alimentatore non era abbastanza potente... Chi acquista schede video da 130-170€ difficilmente spende 100€ di PSU (il mio Antec modulare HGC da 620 ad esempio costava e costa (+o-) così e non era nemmeno il migliore per il segmento di potenza). Usare tutte schede da 200-250w in questa fascia di prezzo non credo sia il massimo...

Il nabbo di turno
28-05-2015, 19:52
Veramente ho buttato un occhio e su trovaprezzi i primi prezzi per le 960 reference sono da siti affidabili, a 185 la prendi con il gioco (da quel che ho letto) e a 195 la prendi su amazon... Io comunque 177e non lìho trovata.

La 285 costa in media di più, la 280 è più lenta e costa 10 miseri euro in meno su Amazon

Si ma reference, vuoi paragonare una 280 dual x che senza toccare il voltaggio tira oltre i 1050 mhz sul core partendo da 900 mhz scarsi?
Reference vs costum non c'è gara, anche se di base la 960 è leggermente avanti alla 280(parliamo di un distacco del 5-10% in media), con un oc di 1100 mhz la 280 supera anche la 280x.

Il nabbo di turno
28-05-2015, 19:54
EDIT comunque c'è un aspetto che secondo me AMD sta davvero sottovalutando. Anni fa, tanti anni fa, nel PC di mio fratello fatto anche in economia fu installata una HD4670 perchè il suo alimentatore non era abbastanza potente... Chi acquista schede video da 130-170€ difficilmente spende 100€ di PSU (il mio Antec modulare HGC da 620 ad esempio costava e costa (+o-) così e non era nemmeno il migliore per il segmento di potenza). Usare tutte schede da 200-250w in questa fascia di prezzo non credo sia il massimo...

Non è che serva tutto sto miracolo di tecnologia, un bronze 630w da 50 euro come il thermaltake berlin una 280x la butta su.
Detto questo è un aspetto da non sottovalutare è vero, ma non serve chissà cosa.

Comunque è un fattore che fa gola ai pre assemblati, ma sui pre assemblati, trovandosi ali da 300/400w di dubbia fattura, una 750 è pure molto.

devil_mcry
28-05-2015, 20:01
Non è che serva tutto sto miracolo di tecnologia, un bronze 630w da 50 euro come il thermaltake berlin una 280x la butta su.
Detto questo è un aspetto da non sottovalutare è vero, ma non serve chissà cosa.

Comunque è un fattore che fa gola ai pre assemblati, ma sui pre assemblati, trovandosi ali da 300/400w di dubbia fattura, una 750 è pure molto.

Un bronze da 630w non è detto che eroghi tutte quei watt sulla linea PCI-E. La potenza di targa (e di picco, che sui modelli economici è ancora più pompata) è a volte distribuita in modo casuale, se inoltre i RAIL fossero separati completamente 250W non li hanno... e sono comunque 60€ di alimentatore (contro magari 150€ di scheda video). Guarda cosa comprano gli utenti, mio fratello ha preso LC Power per anni prima di prendere un Thermaltake modulare da 70€scarsi, non è così banale come pensi la situazione anche perchè se uno non può o non vuole spendere molto l'alimentatore è sempre l'ultima cosa su cui mette i soldi.

Si ma reference, vuoi paragonare una 280 dual x che senza toccare il voltaggio tira oltre i 1050 mhz sul core partendo da 900 mhz scarsi?
Reference vs costum non c'è gara, anche se di base la 960 è leggermente avanti alla 280(parliamo di un distacco del 5-10% in media), con un oc di 1100 mhz la 280 supera anche la 280x.


Reference intendo come dissipatore, sono già modelli con OC di casa e non credo scaldino così tanto da diventare ingestibili anche con quel dissy, al massimo fa un po' di casino

Therinai
28-05-2015, 20:15
non mi torna il discorso alimentatore: il mio corsair da 450W fa campare la config in firma, e il watmetro non va oltre i 200W...

Il nabbo di turno
28-05-2015, 20:17
Un bronze da 630w non è detto che eroghi tutte quei watt sulla linea PCI-E. La potenza di targa (e di picco, che sui modelli economici è ancora più pompata) è a volte distribuita in modo casuale, se inoltre i RAIL fossero separati completamente 250W non li hanno... e sono comunque 60€ di alimentatore (contro magari 150€ di scheda video). Guarda cosa comprano gli utenti, mio fratello ha preso LC Power per anni prima di prendere un Thermaltake modulare da 70€scarsi, non è così banale come pensi la situazione anche perchè se uno non può o non vuole spendere molto l'alimentatore è sempre l'ultima cosa su cui mette i soldi.




Reference intendo come dissipatore, sono già modelli con OC di casa e non credo scaldino così tanto da diventare ingestibili anche con quel dissy, al massimo fa un po' di casino

Non sottovalutare i dissi stock, mai!
Sono di scarsa fattura,rumorosi e inefficienti, e non garantiscono un oc degno.

Una 280 può diventare con un po' di oc(e di margini ne ha), una 280x, praticamente ci troviamo un confronto simile a 670 vs 7970 ghz edition, visto che la 960 è tra la 670 e la 680 per forza bruta a stock.
http://tpucdn.com/reviews/ASUS/GTX_960_STRIX_OC/images/perfrel_1920.gif

hrossi
28-05-2015, 20:18
Ma la tua 760 non è così affamata. :D

http://media.bestofmicro.com/E/H/389321/original/Power-Consumption-07-Torture.png

Hermes

devAngnew
28-05-2015, 20:18
AMD Press Conference at Computex Taipei 2015

AMD would like to cordially invite you to our press conference at Computex 2015. You will get the opportunity to see AMD’s latest products and leading-edge technologies, while experiencing immersive visual, computing, and gaming demonstrations.

During this event, AMD executives and special guests will be introducing new, comprehensive details on AMD’s 2015 product lineup.
Computex (http://www.amdcomputex.com.tw/)

AMD Radeon 300 series to arrive on June 16th

videocardz (http://videocardz.com/55734/amd-radeon-300-series-to-arrive-on-june-16th)

http://www.pcgamingshow.com/

Therinai
28-05-2015, 20:26
250W per una 280X... ho un dejavu, forse l'ho evitata proprio per questo :D

hrossi
28-05-2015, 20:26
COMPUTEX 2015 is from June 2 to June 5, 2015

La perplessità:
Tutto ciò non promette bene. Siamo sicuri poi che sto benedetto fiji ce lo presentano al computex? :cry:

La risposta:
AMD Radeon 300 series to arrive on June 16th

Quindi no, niente fiji per il computex. :eek: :cry: Pazzia!

La nuova perplessità: siamo sicuri poi che sto benedetto fiji ce lo presentano il 16/06 assieme alla serie 300? :muro:

Hermes

Il nabbo di turno
28-05-2015, 20:28
Ma se di picco consuma 200w la 7970, come la 7970 ghz a consumarne 270w?
http://tpucdn.com/reviews/Gigabyte/GTX_960_OC/images/power_peak.gif
Mistero della fede insomma...

FroZen
28-05-2015, 20:49
Aridaje.... Confondete al solito i picchi con il consumo medio.... Non li fa la mia 290 i 250 costanti...misurati alla presa...una 960 necessita di un 6pin, a quel punto non vedo perche non dovrebbe reggere un 2x6pin e una vga da 180w di tdp (280)... Ma mi pare siate un tantinello ot

Il nabbo di turno
28-05-2015, 20:51
Poi lui aveva una 460, che è molto più esosa di una 280.

devil_mcry
28-05-2015, 21:04
Poi lui aveva una 460, che è molto più esosa di una 280.

Il TDP della 460 era di 150-160w a seconda del modello le schede consumavano sui 150w reali, non consumava come una 280. Quella che dici tu era la 465.

Il nabbo di turno
28-05-2015, 21:04
Il TDP della 460 era di 150-160w a seconda del modello, non consumava come una 280. Quella che dici tu era la 465.

http://media.bestofmicro.com/A/H/254393/original/Power-Consumption.png

Dalla review di tom's non sembra.

devil_mcry
28-05-2015, 21:07
http://media.bestofmicro.com/A/H/254393/original/Power-Consumption.png

Dalla review di tom's non sembra.

Quello è il consumo dell'intero sistema, bastava leggere o guardare i numeri.

http://www.guru3d.com/articles-pages/geforce-gtx-460-review-%28roundup%29,13.html

Edit, nemmeno la 465, perchè il TDP della 280 è di 250w mentre la 465 era data per 200w

Il nabbo di turno
28-05-2015, 21:09
Si me ne sono accorto dopo che l'ho postato xD.
Comunque è un tdp di 160w, una 280 è più o meno sui 180w.
http://tpucdn.com/reviews/Gigabyte/GTX_960_OC/images/power_maximum.gif

Alla fine se reggi una 460, le reggi entrambe.

devil_mcry
28-05-2015, 21:14
Si me ne sono accorto dopo che l'ho postato xD.
Comunque è un tdp di 160w, una 280 è più o meno sui 180w.
http://tpucdn.com/reviews/Gigabyte/GTX_960_OC/images/power_maximum.gif

Alla fine se reggi una 460, le reggi entrambe.

Il TDP della 280 è di 250w non di 180

http://www.tomshw.it/files/2014/03/immagini_contenuti/53889/r9-280-03_t.jpg

In quel grafico non vedo la 280 (la 270x poi consuma 173w che è data per 180w di TDP non capisco come potrebbe fare 180W la 280) ed in effetti in questa review http://www.bit-tech.net/hardware/graphics/2014/05/19/amd-radeon-r9-280-review-feat-xfx/9

La 280 consuma 50w in più della 270x, che è un po' meno della differenza tra i 2 TDP

Il nabbo di turno
28-05-2015, 21:15
Il TDP della 280 è di 250w non di 180

http://www.tomshw.it/files/2014/03/immagini_contenuti/53889/r9-280-03_t.jpg

In quel grafico non vedo la 280 (la 270x poi consuma 173w che è data per 180w di TDP non capisco come potrebbe fare 180W la 280) ed in effetti in questa review http://www.bit-tech.net/hardware/graphics/2014/05/19/amd-radeon-r9-280-review-feat-xfx/9

La 280 consuma 50w in più della 270x, che è un po' meno della differenza tra i 2 TDP

C'è la 7950, la 280 con 100 mhz in meno.

devil_mcry
28-05-2015, 21:20
C'è la 7950, la 280 con 100 mhz in meno.

Non sono la stessa scheda. La 7950 aveva un TDP di soli 200w mentre la 280 ha un TDP di 250W, inoltre la differenza sono 133MHz (considera che la potenza cresce in forma quadratica, non è lineare) e non credo ci siano 280 con 2GB di RAM.

Inoltre, siccome le 280x in media salivano meno delle 7970GHz edition immagino che queste avevano un silicio migliore e quindi i rebrand fossero a tensioni più elevate. Ma sono speculazioni. I dati sono questi descritti.

Due post prima ti chiedevi come facevano ad esserci così tanti W di differenza tra una 7970 e una 7970GHz - 280x...

Il nabbo di turno
28-05-2015, 21:24
Non sono la stessa scheda. La 7950 aveva un TDP di soli 200w mentre la 280 ha un TDP di 250W, inoltre la differenza sono 133MHz (considera che la potenza cresce in forma quadratica, non è lineare) e non credo ci siano 280 con 2GB di RAM.

Inoltre, siccome le 280x in media salivano meno delle 7970GHz edition immagino che queste avevano un silicio migliore e quindi i rebrand fossero a tensioni più elevate. Ma sono speculazioni. I dati sono questi descritti.

Due post prima ti chiedevi come facevano ad esserci così tanti W di differenza tra una 7970 e una 7970GHz - 280x...

Sicuramente, ma anche dai test del guru, il consumo è quello.
http://www.guru3d.com/articles_pages/his_radeon_r9_280_iceq_x2_review,7.html

moicano68
28-05-2015, 21:27
Ma se di picco consuma 200w la 7970, come la 7970 ghz a consumarne 270w?
http://tpucdn.com/reviews/Gigabyte/GTX_960_OC/images/power_peak.gif
Mistero della fede insomma...

http://www.legitreviews.com/should-i-upgrade-my-geforce-gtx-460-to-a-geforce-gtx-960-video-card_157808/11 e ce ne sono altri..poi spero siano affidabili..ma si aprla di 70 watt in meno in media..:confused:

devil_mcry
28-05-2015, 21:28
Sicuramente, ma anche dai test del guru, il consumo è quello.
http://www.guru3d.com/articles_pages/his_radeon_r9_280_iceq_x2_review,7.html

E quanto consuma in quel test la HD7950?

moicano68
28-05-2015, 21:30
Si ma reference, vuoi paragonare una 280 dual x che senza toccare il voltaggio tira oltre i 1050 mhz sul core partendo da 900 mhz scarsi?
Reference vs costum non c'è gara, anche se di base la 960 è leggermente avanti alla 280(parliamo di un distacco del 5-10% in media), con un oc di 1100 mhz la 280 supera anche la 280x.

non sono reference..hanno tutte OC..o quasi tutte..io volevo davvero ripassare a AMD..ma ora ha pure aumentato i prezzi ultimamente..e a parità sinceramente io guardo i consumi che ti assicuro fanno a fine anno..ho visto usando da 1 mese e mezzo la 1950 pro e ho risparmiato quasi 20 euro...

Il nabbo di turno
28-05-2015, 21:31
E quanto consuma in quel test la HD7950?

Si vabbe', ma mica consuma 250w...

Il nabbo di turno
28-05-2015, 21:32
non sono reference..hanno tutte OC..o quasi tutte..io volevo davvero ripassare a AMD..ma ora ha pure aumentato i prezzi ultimamente..e a parità sinceramente io guardo i consumi che ti assicuro fanno a fine anno..ho visto usando da 1 mese e mezzo la 1950 pro e ho risparmiato quasi 20 euro...

Per reference intendo quelle con il dissi nero e una ventolina sulla parte destra, e su trovaprezzi ai primi posti ce ne sono troppe.

Therinai
28-05-2015, 21:33
Aridaje.... Confondete al solito i picchi con il consumo medio.... Non li fa la mia 290 i 250 costanti...misurati alla presa...una 960 necessita di un 6pin, a quel punto non vedo perche non dovrebbe reggere un 2x6pin e una vga da 180w di tdp (280)... Ma mi pare siate un tantinello ot

Chiaro che il picco è molto maggiore del medio, ma bisogna avere la garanzia di poter reggere il picco. Con un alimentatore da 450w io non metterei una sk video da 250w di tdp.

devil_mcry
28-05-2015, 21:35
Si vabbe', ma mica consuma 250w...

Guarda li la 7950 è data per 130w circa (ed è impossibile) mentre l'altra è data per 170w, anche questo troppo basso. Anche li la 270X consuma di più della 280... comunque.

La 280 consuma in media di più della 7950 c'è poco da fare. Io non ho mai detto che siano 250w veri di consumi, ma ha comunque 50W in più di TDP dell'altra e non consuma come la 7950. Consumerà minimo 40w in più dell'altra (che si traduce probabilmente in un consumo reale di 210-230w a seconda dei modelli)

moicano68
28-05-2015, 21:38
Per reference intendo quelle con il dissi nero e una ventolina sulla parte destra, e su trovaprezzi ai primi posti ce ne sono troppe.

io vedo molti dissi nons tock pure...cmq il mio ali è un buon 500watt di amrca 80+plus se nn ricordo male..enermax Modu 82+ bronze se nn erro
la 960 la danno sui 120 watt in quel sito che ho postato..e consuma circa 70 watt meno della 285..http://www.legitreviews.com/should-i-upgrade-my-geforce-gtx-460-to-a-geforce-gtx-960-video-card_157808/11

Il nabbo di turno
28-05-2015, 21:38
Guarda li la 7950 è data per 130w circa (ed è impossibile) mentre l'altra è data per 170w, anche questo troppo basso. Anche li la 270X consuma di più della 280... comunque.

La 280 consuma in media di più della 7950 c'è poco da fare. Io non ho mai detto che siano 250w veri di consumi, ma ha comunque 50W in più di TDP dell'altra e non consuma come la 7950. Consumerà minimo 40w in più dell'altra (che si traduce probabilmente in un consumo reale di 210-230w a seconda dei modelli)

Imho saranno 200-210w al massimo, siamo comunque lontani dai 250w preventivati.
Comunque boh, una differenza di 50w con 100 mhz di differenza non so come abbiano fatto, avranno toccato il voltaggio di sicuro, una cosa del genere non si spiega.

Il nabbo di turno
28-05-2015, 21:40
io vedo molti dissi nons tock pure...cmq il mio ali è un buon 500watt di amrca 80+plus se nn ricordo male..enermax Modu 82+ bronze se nn erro
la 960 la danno sui 120 watt in quel sito che ho postato..e consuma circa 70 watt meno della 285..

Il tuo è un buon ali, il problema magari sorge se ha molti anni sulle spalle.
Comunque, la 960 è una scheda che oltre i 150w non va a pieno carico, ma la prenderei solo costum(con 2 ventole per intenderci), perchè se no ti ritrovi un fornellino rumoroso.

FroZen
28-05-2015, 21:52
La mia 7950 dualx con boost aveva sul bios spinto 1,256 v :eek: x la serie... La tenevo a 1150-1500 a 1,22v... Il vcore delle 7950 a 800-1250 era 1,080v...amd sbraca sempre nei voltaggi def...non ho ancora provato a vedere la 290 in undervolt...

Le 960 reference hanno i 90 100 c sui vrm :asd: ma non ci sono i sensori quindi non ediste il problema :asd:

hrossi
28-05-2015, 22:04
Attenzione che Tdp e Consumo non sono la stessa cosa. ;)

Hermes

moicano68
28-05-2015, 22:13
Attenzione che Tdp e Consumo non sono la stessa cosa. ;)

Hermes

vero..ma confrontando e misurando nei test..la differenza c'è..che sia consumo reale o massimo teorico per calcolare la dissipazione..

J9AnGe
29-05-2015, 07:16
Non sono la stessa scheda. La 7950 aveva un TDP di soli 200w mentre la 280 ha un TDP di 250W, inoltre la differenza sono 133MHz (considera che la potenza cresce in forma quadratica, non è lineare) e non credo ci siano 280 con 2GB di RAM.

Inoltre, siccome le 280x in media salivano meno delle 7970GHz edition immagino che queste avevano un silicio migliore e quindi i rebrand fossero a tensioni più elevate. Ma sono speculazioni. I dati sono questi descritti.

Due post prima ti chiedevi come facevano ad esserci così tanti W di differenza tra una 7970 e una 7970GHz - 280x...

La 280x e' un Tahiti "XTL" invece la 7970/Ghz sono Tahiti "XT" , hanno gli stessi SP 2048 ma ce differenza , da un articolo : The new Tahiti XTL chip would bring lower power consumption, possibly new features such as AMD TrueAudio and full DirectX 11.2 support and even higher clocks

°Phenom°
29-05-2015, 08:40
Non supportano queste features, semplicemente xtl sta a rappresentare un diverso step, ma comunque la 280x sono peggiori nel complesso delle 7970ghz che a loro volta sono peggiori delle 7970 base, che erano dei mostri in oc, visto che alcuni le tenevano anche a quasi 1300mhz daily, mentre un risultato del genere per 280x e 7970ghz é quasi un utopia

smoicol
29-05-2015, 08:43
Non supportano queste features, semplicemente xtl sta a rappresentare un diverso step, ma comunque la 280x sono peggiori nel complesso delle 7970ghz che a loro volta sono peggiori delle 7970 base, che erano dei mostri in oc, visto che alcuni le tenevano anche a quasi 1300mhz daily, mentre un risultato del genere per 280x e 7970ghz é quasi un utopia

vero è proprio cosi, le prime 7970 erano ottime, ne ho avuta una che teneva i 1250 senza overvolt, poi per rma ho cambiato modello, ma non ho più trovato vga come quella

J9AnGe
29-05-2015, 09:56
Non supportano queste features, semplicemente xtl sta a rappresentare un diverso step, ma comunque la 280x sono peggiori nel complesso delle 7970ghz che a loro volta sono peggiori delle 7970 base, che erano dei mostri in oc, visto che alcuni le tenevano anche a quasi 1300mhz daily, mentre un risultato del genere per 280x e 7970ghz é quasi un utopia

Infatti non le supportano :) speriamo sia almeno vero che consumano un po meno , cmq a me del clock sinceramente interessa poco , la mia la lascio a default "1020" e mi va benissimo :)

°Phenom°
29-05-2015, 10:28
No, il consumo a parita di voltaggio é anchessó pressocché lo stesso

devil_mcry
29-05-2015, 11:21
Ma in generale sempre le prime VGA sono le migliori perchè dopo un po' iniziano a mettere ICs per le RAM di qualità peggiore (tipicamente Hynix se va bene altrimenti Elpida) che salgono meno in OC e le GPU anche.

Ma questo vale anche per le CPU, ad esempio i primi batch dei 4770K salivano tutti sui 4.8GHz-4.9GHz e solo i Devil (4790K) sono tornati a fare quei numeri quelli in mezzo, come il mio, che vogliono 150mV in più

jauntylol
29-05-2015, 13:08
indovinate perché M$ ha fatto tutti questi tier :rolleyes:

perchè se delle schede dx 11 non supportano feature introdotte con dx 11.1 non le supportano nemmeno in dx 12.

In ogni caso dx 12 fa una cosa sola, aumentare le prestazioni.

Tutte ste menate sui tier lasciano il tempo che trovano e sono piuttosto irrilevanti.

jauntylol
29-05-2015, 13:45
eh? non ho capito cosa dovrebbe c'entrare.

al 99,999% il motivo del tier 1 è colpa di Intel, del 2 di nvidia... ci metto quel millesimo di dubbio va...

poi pensate ciò che volete :O

DX 12 include le versioni precedenti di directx eh.

Se tu prendi una scheda che è compatibile DX 11, lo è anche anche con il 12.

Ma le features delle dx 11.1 e 11.2 non le e ovviamente le mancheranno quei tier in Directx 12.

Non vedo la difficoltà nel capire.

Se DX 11.1 ha introdotto dei buffer maggiori per gli shader e una scheda DX 11 non era compatibile con quella funzione non ne sarà capace neanche in DX 12.

Davvero, non capisco quale sia la difficoltà.

E poi soprattutto, ma che ve frega?

Non vedreste mai alcuna differenza fra DX 10 e 11, figuriamoci fra 11.1, 11 e 11.2 o fra i vari cosidetti tier delle DX 12.

°Phenom°
29-05-2015, 14:30
Rumors sul nome che potrebbe avere la nuova fiji : http://videocardz.com/55763/amd-fiji-to-be-codenamed-radeon-fury
Potrebbe essere chiamata Radeon Fury :)

http://cdn.videocardz.com/1/2015/05/radeon-fury.jpg

http://cdn.videocardz.com/1/2015/05/Radeon-Fury-Meme-645x363.png

Ahaha

devil_mcry
29-05-2015, 14:35
eh? non ho capito cosa dovrebbe c'entrare.

al 99,999% il motivo del tier 1 è colpa di Intel, del 2 di nvidia... ci metto quel millesimo di dubbio va...

poi pensate ciò che volete :O

Nemmeno le schede GCN sono tutte DX12 realmente, soprattutto le 1.0

Il fatto è che le DX12.1 che sono davvero quelle innovative da un punto di vista grafico, non le supportano nessuna GPU in commercio vecchia, solo Maxwell e forse GCN 1.3

Conveniva di più a chi far passare le vecchie GPU come DX12? Ad nVidia che tanto l'architettura nuova comunque l'ha fatta (ed è l'unica compatibile con le DX12.1), ad Intel che non fa GPU da gaming o ad AMD che rebrandizzerà il 90% tirando fuori un'intera nuova gen di rebrand?

Comunque le DX12 sono solo di ottimizzazione delle DX11, quel che cambia sono le DX12.1

devil_mcry
29-05-2015, 14:36
Rumors sul nome che potrebbe avere la nuova fiji : http://videocardz.com/55763/amd-fiji-to-be-codenamed-radeon-fury
Potrebbe essere chiamata Radeon Fury :)


Ahaha

Non sarebbe male, un ritorno al passato!

smoicol
29-05-2015, 14:43
sembra confermata la presentazione il 16 giugno

mi puzza il fatto che ati ha vietato a tutti i partner di pubblicare foto delle nuove vga

Raven
29-05-2015, 14:47
Rumors sul nome che potrebbe avere la nuova fiji : http://videocardz.com/55763/amd-fiji-to-be-codenamed-radeon-fury
Potrebbe essere chiamata Radeon Fury :)


uhu.... un nome che porta bene... sìsì... :O

http://www.tomshardware.com/reviews/ati-rage-fury-maxx-review,156.html

:doh:

jauntylol
29-05-2015, 14:55
Il fatto è che le DX12.1 che sono davvero quelle innovative da un punto di vista grafico, non le supportano nessuna GPU in commercio vecchia
Comunque le DX12 sono solo di ottimizzazione delle DX11, quel che cambia sono le DX12.1

A parte che innovativo è un parolone visto che in dieci anni le dx hanno introdotto poco e nulla.

Sono svariati i giochi in cui la differenza fra dx 9 e 11.2 è inesistente.

Tesselazione a parte non si è mai visto nulla di interessante in 10 anni.

In ogni caso, fonte per ciò che dici?

Perchè di solito le versioni aggiornate di dx non introducono mai nuove tecnologie grafiche, mai.

jauntylol
29-05-2015, 15:26
http://www.hwupgrade.it/forum/showpost.php?p=42522038&postcount=12816

mi pare lampante capire che senza il tier 1 nvidia si sarebbe trovare con un pugno di gpu adatte alle DX12 (solo la serie 900), e peggio ancora sarebbe messa Intel dove non avrebbe manco compatibilità per haswell...

M$oft non è stupida, ha fatto ciò anche per divulgare il più possibile Win 10 su più PC possibile fin da subito, fa comodo a tutti ed un po meno ad AMD...

non mi pare difficile da capire ;)

Poco rilevante, utte le schede necessiteranno di Win 10.

Poi, considerando anche solo la scarsa diffusione di dx 11 a parte gli ultimissimi anni, per quando avremo giochi che useranno dx 12 avremo già cambiaot pc 20 volte.

devil_mcry
29-05-2015, 15:29
http://www.hwupgrade.it/forum/showpost.php?p=42522038&postcount=12816

mi pare lampante capire che senza il tier 1 nvidia si sarebbe trovare con un pugno di gpu adatte alle DX12 (solo la serie 900), e peggio ancora sarebbe messa Intel dove non avrebbe manco compatibilità per haswell...

M$oft non è stupida, ha fatto ciò anche per divulgare il più possibile Win 10 su più PC possibile fin da subito, fa comodo a tutti ed un po meno ad AMD...

non mi pare difficile da capire ;)
Sarebbero fuori anche tutte le GCN 1.0 che ad oggi sono le AMD più diffuse, che vuol dire.

Windows 10 non ha bisogno di essere pompato, lo renderanno già gratis per tutti gli utenti W8 e forse pure W7, la gente aggiornerà senza dire niente, piange solo quando deve pagare.

Quale sarebbe il suo guadagno? Certo se avessero fatto le cose come in passato solo Maxwell 2 sarebbe stata un'architettura DX12, ma alla fine loro eventuali royality le avrebbero comunque prese (e le prendono già se ci sono) quindi...

Ripeto, le DX12 offrono solo un'ottimizzazione prestazionale soprattutto legato all'uso della CPU, le GPU vengono portate a DX12 al pari di come lo erano per le DX11. Le vere features nuove grafiche, portate dalle DX12.1 rimarranno appannaggio delle architetture nuove, non delle vecchie.

Caterpillar_WRT
29-05-2015, 17:18
Chi scommette che le Fiji le vedremo a Natale?:D

p.s. ritengo molto più probabile giugno 2016 con il nuovo pp:cool:

Free Gordon
29-05-2015, 17:27
Chi scommette che le Fiji le vedremo a Natale?:D

p.s. ritengo molto più probabile giugno 2016 con il nuovo pp:cool:


Fiji è sempre stato dato da AMD per fine 2 quarto 2015.

A fine Giugno la/le Fiji saranno fuori. ;)

Il nabbo di turno
29-05-2015, 17:37
Ma è anche giusto che ci sia il tier 1, almeno per il consumatore con prodotti un attimino più datati.
Comunque mi pare che gcn supporti la tier 3 addirittura...

Antimo96
29-05-2015, 17:57
Secondo voi ci sono possibilità di vedere un tonga xt con 3/4gb di ram?IL chip esiste per notebook.
Non vorrei aver aspettato tutto questo tempo per ritrovare nella fascia dei 200/250 euro,la solita r9 280x rimarchiata. :muro:

Il nabbo di turno
29-05-2015, 18:03
Secondo voi ci sono possibilità di vedere un tonga xt con 3/4gb di ram?IL chip esiste per notebook.
Non vorrei aver aspettato tutto questo tempo per ritrovare nella fascia dei 200/250 euro,la solita r9 280x rimarchiata. :muro:

Si ci sarà ;).

Moreno Morello
29-05-2015, 18:03
Io non ho capito quale dovrebbe competere con la 970 nella fascia dei 300-350 euro

Luca T
29-05-2015, 18:06
Io non ho capito quale dovrebbe competere con la 970 nella fascia dei 300-350 euro

La 290X rimarchiata

jauntylol
29-05-2015, 18:21
La 290X rimarchiata

Rumour.

Che mi dispiacerebbe fosse vero, perchè il problema delle 290 e 290x non sono quei pochi frame in più o meno ma i consumi.

devil_mcry
29-05-2015, 18:22
magari tu che sei un geek (ipotizzo), ma mica cambiano tutti PC ogni anno, anche chi gioca come me si tiene lontano dallo spendere a uffa... dal 2008 ad oggi ho avuto solo 2 vga, 8800gt e 6870, fai te. ho avuto la fortuna/sfortuna di saltare i 28nm per motivi "sociali" e non economici, ma ne avrei presa 1 al massimo, mica 3...



per me è tutto marketing, indifferentemente dal colore, ma senza il tier 1 sarebbero stati dx12 ready molte più gpu rosse (praticamente tutta la serie 200 più la 7790) delle verdi (solo la serie 900) e nessun PC con integrata Intel, e questi ultimi due vendor e soprattutto M$oft non vgolgiono di certo che accada ciò.
M$oft punta davvero molto su win10, talmente tanto che sarà l'ultimo SO a scadenza ciclica, vivrà di aggiornamenti continui ed era ora!

Ma infatti il punto del discorso non è cosa dovevano fare, hanno scelto di scremare l'ottimizzazione della cpu (dx12) dalle nuove features grafiche (dx12.1)

E' giusto? E' sbagliato? Bah è uguale, il fatto che MS al lancio esca con le DX12 e DX12.1 (che sarebbero le vere nuove features grafiche e non solo un'ottimizzazione delle vecchie) è una mossa per fare contenti i produttori di GPU ma sicuramente chi ci ha guadagnato di più da tutto questo scenario non è ne nVidia che le schede video vecchie non le vende più, ne Intel che al gaming ci punta senza troppo impegno, non prendiamo in giro.

Ti faccio una domanda, SE MS avesse deciso che per essere DX12 una VGA doveva supportare anche le features ora comprese nel DX12.1 come sarebbe stata presa la "nuova" serie R300 caratterizzata SOLO da GPU DX11/11.1 ? Sarebbero bastati 2 modelli enthusiast per fare contenti tutti?

Come ti ho detto da questa storia delle DX12 per me non ne guadagna nulla MS, ne guadagna quasi solo AMD che può vendere GPU vecchie marchiandole come DX12.

Antimo96
29-05-2015, 19:16
Ma la nuova serie sarà annunciata il 3 o il 16?Intendo specifiche e robe varie,per farmi almeno un idea di come farmi il pc nuovo.
Dopo tutto sto rimandare,secondo me amd offrirà ben più di una singola gpu totalmente nuova(2?Forse 3 magari).Cioè se fosse solo fiji la novità,non pochi ne sarebbero delusi dopo tanta attesa

Radeon80
29-05-2015, 19:20
Spero il 3 di giugno visto che il giorno prima Nvidia presenterà la GTX 980Ti.
Se verrà presentato il 16 mi chiedo che senso ha aspettare altri 13 giorni per presentarle.

Antimo96
29-05-2015, 19:27
Spero il 3 di giugno visto che il giorno prima Nvidia presenterà la GTX 980Ti.
Se verrà presentato il 16 mi chiedo che senso ha aspettare altri 13 giorni per presentarle.

Presentare fiji il 3 imho sarebbe un mossa ottima.Una gpu che va di più,a pari prezzo e con aio incluso,cosa che per averla sulla ti serviranno sicuro un 70/80 euro in più rispetto la reference.La oscurerebbe totalmente
Spero almeno diano le specifiche delle nuove r9 300 il 3 giugno,in modo tale che deciderò se aspettare ancora o andare di gtx 960.

Il nabbo di turno
29-05-2015, 19:35
Presentare fiji il 3 imho sarebbe un mossa ottima.Una gpu che va di più,a pari prezzo e con aio incluso,cosa che per averla sulla ti serviranno sicuro un 70/80 euro in più rispetto la reference.La oscurerebbe totalmente
Spero almeno diano le specifiche delle nuove r9 300 il 3 giugno,in modo tale che deciderò se aspettare ancora o andare di gtx 960.

Non è che porteranno chissà cosa le altre radeon, al massimo qualche decina di mhz in più e più vram.
Aspetterei in ogni caso la nuova serie.

belta
29-05-2015, 20:04
http://www.techpowerup.com/212979/amd-fiji-xt-sku-name-revealed-ati-rage-legacy-reborn.html

psychok9
29-05-2015, 21:37
Fiji si chiamerà Radeon Fury!
Saranno mostrate all'E3, 16-18 giugno.

Raven
29-05-2015, 22:38
Fiji si chiamerà Radeon Fury!
Saranno mostrate all'E3, 16-18 giugno.

Peccato non l'abbiano chiamata Kung Fury... :O

(se non sapete di cosa sto parlando, e se avete più di 30 anni, cercatelo su steam, guardatevelo e poi ringraziatemi! :O)

Ale55andr0
30-05-2015, 08:35
speriamo tenga fede al nome...

maurilio968
30-05-2015, 09:38
Ma è anche giusto che ci sia il tier 1, almeno per il consumatore con prodotti un attimino più datati.
Comunque mi pare che gcn supporti la tier 3 addirittura...

Solo la nuova fury (quasi certamente) è tier 3

Vedi sempre il mio post riassuntivo:

http://www.hwupgrade.it/forum/showpost.php?p=42522038&postcount=12816

Per esempio sul tiled resources e sul conservative rasterization che sono tra ipiù importanti (dovrebbero disciplinare quali parti vanno renderizzate subito e quali sono fuori scena e possono aspettare, funzione essenziale per sommare le ram delle configurazioni cross/sli in directx 12 dividendo tra più gpu le varie parti della scena da renderizzare) si ha che
Gcn 1.0 è: tier 1, nessun tier
Gcn 1.1 e 1.2 sono: tier 2, nessun tier
solo maxwell 2 è: tier 3, tier 1

DX 12 include le versioni precedenti di directx eh.

Se tu prendi una scheda che è compatibile DX 11, lo è anche anche con il 12.

Ma le features delle dx 11.1 e 11.2 non le e ovviamente le mancheranno quei tier in Directx 12.

Non vedo la difficoltà nel capire.

Se DX 11.1 ha introdotto dei buffer maggiori per gli shader e una scheda DX 11 non era compatibile con quella funzione non ne sarà capace neanche in DX 12.

Davvero, non capisco quale sia la difficoltà.


Dovresti guardre quello schema con calma.Dalle directx 10 (introduzione dei level features) la situazione non è per niente come la sintetizzi tu.


E poi soprattutto, ma che ve frega?

Non vedreste mai alcuna differenza fra DX 10 e 11, figuriamoci fra 11.1, 11 e 11.2 o fra i vari cosidetti tier delle DX 12.

I tier non sono una "menata": tier 1 è il minimo per avere quella feature in hardware e non emulata via software (driver)
Guarda che è proprio il level 12.1 a sparigliare la sistuazione,
le nuove schede tier 3 sul tiled resources ed almeno tier 1 sul conservative rasterization (come appunto maxwell 2 e la nuova fury) saranno quelle che potranno davvero beneficiare delle novità sulla gestione della ram vga in directx 12.

Vedere se poi all'atto pratico gli sviluppatori sfrutteranno le nuove possibilità è tutta un altra faccenda. Se lo faranno dovrebbe esserci un netto divario prestazionale con le schede che non saranno level feature 12.1. Se non lo faranno hai ragione tu, purtroppo: non vedremo differenze.
Ma se devo giocarmi un euro scommetto che a questo giro il salto prestazionale è troppo grosso e la mossa microsoft di "regalare" win 10 è un segnale: infatti le directx 12 su seven ve le scordate, quindi per non scontentare nessuno e sottrarre fette di mercato gaming su pc l'upgrade da win 7 a win 10 è libero per tutti.

FroZen
30-05-2015, 09:42
Amd sta puntando forte sul marketing .... Addirittura brad pitt per il trailer della nuova vga testata su bf5 :asd:

francisco9751
30-05-2015, 09:51
ma quindi non ci sará una versione depotenziata di tale gpu? (stile 290 e 290X) di questa fury?? D:

Tapatalked by LG G3

maurilio968
30-05-2015, 09:56
ma quindi non ci sará una versione depotenziata di tale gpu? (stile 290 e 290X) di questa fury?? D:

Tapatalked by LG G3

Penso che a questo giro ci sarà quella "potenziata" con 8 gb vram hbm.
Per le depotenziate: tutto dipende dal divario tra le rebrand+potenziamento e la fury ed ovviamente dai prezzi (se ci sarà o meno un "buco" sostanziale tra il prezzo della 390x 8gb gddr5 e la fury 4 gb hbm).

francisco9751
30-05-2015, 10:17
io avevo letto che la prima generazione di memorie hbm aveva il limite massimo di 4GB e che quindi non ci sarebbero state versioni da 8GB..bohhh...vedremo

Tapatalked by LG G3

maurilio968
30-05-2015, 10:22
io avevo letto che la prima generazione di memorie hbm aveva il limite massimo di 4GB e che quindi non ci sarebbero state versioni da 8GB..bohhh...vedremo

Tapatalked by LG G3

Sono previste per fine 2025/inizio 2016 quando sarà pronto un nuovo link interposer:

AMD riuscirà ad integrare ben 8GB di memoria HBM grazie ad una serie di miglioramenti al TSV Interposer sviluppati insieme a SK Hynix: la tecnologia in questione si chiama “Dual Link Interposer” (da 4-Hi a 8-Hi). Questo permetterà ad AMD di poter sfruttare una quantità maggiore di memoria senza dover attendere l'arrivo delle HBM di 2° generazione.

Qundi:
le prime fury 4gb hbm1 saranno 1x4-hi hbm1
Poi (inizio 2016) dovrebbero esserci le versioni 8gb hbm1 2x4-hi hbm1

In seguito invece si passerà alle hbm2 che sono comunque più performanti:

2x 4-HI HBM1 (which should technically be called 8-Hi-Hi according to nomenclature rules) features a 1024-bit interface, two prefetch operations per IO (dual command) and can push 128GB per second per pin. The tRC is 48nm, tCCD is 2ns (1tCK), and VDD is 1.2V.

The 4-Hi HBM2 (generation 2) features a 1024 bit interface, two prefetch operations per IO (dual command), 64 Byte access granularity (=I/O x prefetch) and can push 256 GB per second per pin. The tRC is 48nm, tCCD is 2ns (1tCK), and VDD is 1.2V.

Le hbm 2 dovrebbero essere le ram della successiva serie "rumored" come 4xx ovvero, se ricordo bene, artic island e "dovrebbero" uscire assieme a/subito dopo pascal sul nuovo pp.

Il nuovo “Dual Link Interposer” è il motivo per cui le prime fury non usciranno direttamente a 8gb (preferiscono uscire subito con il primo link interposer già stabile).

psychok9
30-05-2015, 11:53
Peccato non l'abbiano chiamata Kung Fury... :O

(se non sapete di cosa sto parlando, e se avete più di 30 anni, cercatelo su steam, guardatevelo e poi ringraziatemi! :O)

Rientro nella casistica :oink:
Cercherò! :D

alberto-91
30-05-2015, 12:34
sul prezzo della nuova r9 380x non si sa nulla ?

paolox86
30-05-2015, 13:36
Spettacolo, il nome Fury mi evoca tanti ricordi! Ho sempre una Fury maxx nel cassetto.... Che tempi!

mikael84
30-05-2015, 13:55
Sono previste per fine 2025/inizio 2016 quando sarà pronto un nuovo link interposer:

AMD riuscirà ad integrare ben 8GB di memoria HBM grazie ad una serie di miglioramenti al TSV Interposer sviluppati insieme a SK Hynix: la tecnologia in questione si chiama “Dual Link Interposer” (da 4-Hi a 8-Hi). Questo permetterà ad AMD di poter sfruttare una quantità maggiore di memoria senza dover attendere l'arrivo delle HBM di 2° generazione.

Qundi:
le prime fury 4gb hbm1 saranno 1x4-hi hbm1
Poi (inizio 2016) dovrebbero esserci le versioni 8gb hbm1 2x4-hi hbm1

In seguito invece si passerà alle hbm2 che sono comunque più performanti:

2x 4-HI HBM1 (which should technically be called 8-Hi-Hi according to nomenclature rules) features a 1024-bit interface, two prefetch operations per IO (dual command) and can push 128GB per second per pin. The tRC is 48nm, tCCD is 2ns (1tCK), and VDD is 1.2V.

The 4-Hi HBM2 (generation 2) features a 1024 bit interface, two prefetch operations per IO (dual command), 64 Byte access granularity (=I/O x prefetch) and can push 256 GB per second per pin. The tRC is 48nm, tCCD is 2ns (1tCK), and VDD is 1.2V.

Le hbm 2 dovrebbero essere le ram della successiva serie "rumored" come 4xx ovvero, se ricordo bene, artic island e "dovrebbero" uscire assieme a/subito dopo pascal sul nuovo pp.

Il nuovo “Dual Link Interposer” è il motivo per cui le prime fury non usciranno direttamente a 8gb (preferiscono uscire subito con il primo link interposer già stabile).

Si Maurilio proprio cosi':)

BieSseA
30-05-2015, 18:17
Da amante delle schede video non posso che definire interessantissima tutta la questione sulle nuove memorie HBM, il discorso del link interposer, la ridotta dimensione del PCB che finalmente farà pesare molto molto meno le schede video sulle nostre povere schede madri, la mia Asrock ne sa qualcosa :(

Insomma il mio hype per queste schede, la rivincita di AMD finalmente, è altissimo ;)

hrossi
30-05-2015, 18:26
Sul peso è da verificare poi con i prodotti reali. Non è che solo perchè è più piccolo poi scalda meno per forza. :D Ma se davvero usano un sistema ibrido a liquido con ventola/radiatore esterni allora la quantità di calore diventa davvero ininfluente, così come il peso sulla motherboard. :D

Hermes

bronzodiriace
30-05-2015, 18:26
Solo la questione g-sync mi lega ad Nvidia, se escono Monitor senza difetti di gioventù freesync passo a fury.

floop
30-05-2015, 18:33
Riepilogo veloce chi me lo fa?

Se ho capito avremo due 390x
Una con 4gb hbm e una con 8gb ddr5
Giusto?
Il resto sarà rebrand no?e la 390?

francisco9751
30-05-2015, 18:36
da quello che ho capito io ci sarà

Fury (nuova GPU 4GB HBM)
390X( rebrand della 290X)
390(rebrand della 290)

queste ultime due con memorie gddr5, da 4 o 8GB..

devil_mcry
30-05-2015, 18:43
Riepilogo veloce chi me lo fa?

Se ho capito avremo due 390x
Una con 4gb hbm e una con 8gb ddr5
Giusto?
Il resto sarà rebrand no?e la 390?

Saranno tutte un rebrand la serie R 300

390x = 290x 8GB OC
390 = 290 8GB OC
380X = Tonga Full
...

Mentre la Radeon Fury sarà Fiji con 4GB HBM

Raven
30-05-2015, 18:53
Se ho capito avremo due 390x
Una con 4gb hbm e una con 8gb ddr5
Giusto?


Mi sa che non hai capito... :fagiano:

Moreno Morello
30-05-2015, 18:57
Spero non piazzino la 390x a 400 euro

devil_mcry
30-05-2015, 18:58
Spero non piazzino la 390x a 400 euro

Probabilmente costerà così, le Radeon Fury sono date per un prezzo di lancio più alto, più simili alla 980Ti

hrossi
30-05-2015, 19:09
In attesa delle fiji, esattamente perchè uno dovrebbe comprare una 390x da 4gb Gddr5? :wtf:

Hermes

°Phenom°
30-05-2015, 19:11
Le 390x dovrebbero avere 8gb non 4gb

devil_mcry
30-05-2015, 19:12
la 380x tonga full se a 4gb sarà una bella schedozza e spero a ~200/250€ :cool:

Molti rumors la davano comunque per 3GB di RAM, però non so.

devil_mcry
30-05-2015, 19:14
In attesa delle fiji, esattamente perchè uno dovrebbe comprare una 390x da 4gb Gddr5? :wtf:

Hermes

Saranno da 8GB e probabilmente avranno più o meno lo stesso prezzo delle attuali 290x da 8GB. Però useranno memorie più veloci di 1GHz e la GPU un pelo più spinta (50MHz).

Lato GPU ci sono già delle 290x fatte così, lato RAM è un vantaggio non da poco

floop
30-05-2015, 19:17
ah quindi niente Fiji?

ma che combinano :muro:

°Phenom°
30-05-2015, 19:24
ah quindi niente Fiji?

ma che combinano :muro:

Fino alla 390x saranno rebrand, poi ci sarà la radeon fury con fiji e 4gb hbm

devil_mcry
30-05-2015, 19:24
ah quindi niente Fiji?

ma che combinano :muro:

Fiji usciranno come Radeon Fury, in stile Titan (anche se più economiche quasi di sicuro)

hrossi
30-05-2015, 19:27
Le 390x dovrebbero avere 8gb non 4gb

Saranno da 8GB e probabilmente avranno più o meno lo stesso prezzo delle attuali 290x da 8GB. Però useranno memorie più veloci di 1GHz e la GPU un pelo più spinta (50MHz).

Lato GPU ci sono già delle 290x fatte così, lato RAM è un vantaggio non da poco

Ok, riformulo, perchè uno dovrebbe comprare una equivalente rebrandizzata da 4gb Gddr5?

Certo che però a leggere poi questo: http://www.vcpost.com/articles/70965/20150530/amd-r9-390x-launched-2015-computex-taipei-4gb-hbm-cost.htm si torna nuovamente nel caos più totale. :asd:

:doh:

Hermes

Free Gordon
30-05-2015, 20:23
Fiji si chiamerà Radeon Fury!
Saranno mostrate all'E3, 16-18 giugno.


Rumors dicono che la 390x sia la Fiji pro... e che escano più avanti anche chip con 2048sp e 2GB di HBM... mah...mi sa di tavanata. :D

hrossi
30-05-2015, 21:58
ma 3 gb di ram non dovrebbe avere un bus da 192/384 bit sile nvidia? :stordita:

Di solito è così. :D

Hermes

mikael84
30-05-2015, 22:29
ma 3 gb di ram non dovrebbe avere un bus da 192/384 bit sile nvidia? :stordita:

Di solito è così. :D

Hermes

Non è stile Nvidia è che un bus di quelle dimensioni comporta simili tagli
Un bus da 512 bit è composto da 8 partizioni 64bit dual channel (16x32)=4gb o 8gb
Un bus da 384bit è di conseguenza composto da 6 partizioni dual channel (12x32= 384bit) =3/6gb
Un bus da 256 alias tonga ha 4 partizioni da 8 8x32bit=256bit) 2/4gb
http://www.tomshw.it/files/2014/09/immagini_contenuti/58769/radeon-285-gpu-diagram-1024_t.jpg

Antimo96
30-05-2015, 23:10
ci stavo pensando proprio ieri, sarei indeciso se puntare su una 290 magari usata o ad una 380 con chip haweii/Tonga ma preferirei di gran lunga se uscisse un Tonga potenziato con 4 gb di Ram mi sa tanto che pensiono la mia 6870 e vedo se nvidia farà qualcosa di simile, mi spiace ma la 960 a un bus troppo piccolo e la storia della 970 mi sta davvero troppo sulle balls :O

tutto ciò potrebbe portarmi al 2017~2018 senza troppi patemi con giochi usciti fino ad oggi :D
in più sa mai che queste DX12 riescano a sfruttare per bene un FX-8, rimarrei con la piatta AM3+ per quasi 8~9 anni fino al 2020 :asd:
cosa impensabile anche solo fino al 2010

ho anche la tua stessa scheda,praticamente siamo nella stessa situazione ahaha
960 troppo poco,970 troppo costosa e con il difetto del mezzo giga di ram.
Spero che rilasciano questa benedetta tonga full

psychok9
31-05-2015, 00:34
Ok, riformulo, perchè uno dovrebbe comprare una equivalente rebrandizzata da 4gb Gddr5?

Certo che però a leggere poi questo: http://www.vcpost.com/articles/70965/20150530/amd-r9-390x-launched-2015-computex-taipei-4gb-hbm-cost.htm si torna nuovamente nel caos più totale. :asd:

:doh:

Hermes

:doh:

Spero siano rumor totalmente infondanti... il 16 lo scopriremo :eek:

valdio
31-05-2015, 01:14
Ragazzi ma ci sarà qualcuno che le testerà prima o bisogna aspettare il 16?

°Phenom°
31-05-2015, 07:55
Al massimo credo che si potrá trovare qualche benchmark leaked se va bene, nulla di più

devil_mcry
31-05-2015, 08:16
ma 3 gb di ram non dovrebbe avere un bus da 192/384 bit sile nvidia? :stordita:

Tonga XT la danno con un bus di 384bit e 3GB di RAM gli ultimi rumors e anche i vecchi (quelli relativi ad una 285X mai uscita).

Se avrà un bus da 384bit avrà 3GB

nessuno29
31-05-2015, 08:36
Bhe Tonga XT in fondo già esiste o sbaglio?(Ed è con bus a 256bit quindi configurazione da 2\4gb di gddr5)

In pratica una M295x con 250mhz in più sul core.

devil_mcry
31-05-2015, 08:55
Bhe Tonga XT in fondo già esiste o sbaglio?(Ed è con bus a 256bit quindi configurazione da 2\4gb di gddr5)

In pratica una M295x con 250mhz in più sul core.

Si potrebbe essere anche quella, cioè alla fine sono rumors... Non è nemmeno detto che sia davvero XT poi nella serie nuova (ma penso di si)

hrossi
31-05-2015, 13:03
:doh:

Spero siano rumor totalmente infondanti... il 16 lo scopriremo :eek:

Lo spero anche io, però un Amd così abbottonata non s'è mai vista, non sta confermando nulla (e vabbeh) ma non sta neanche smentendo le voci più assurde ed improbabili. :confused: :boh: Il 16 è poco più in la, vedremo.

Però è assurdo lasciare così tanto spazio di manovra a nVidia per tutti questi mesi, veramente non la capisco questa strategia, cos'hanno fatto come fioretto il voto del silenzio fino al 16? :doh: :D

Hermes

Catan
31-05-2015, 13:04
io ho i miei dubbi sui 384 bit di tonga xt
intanto se gli cambi gli mc, non è più tonga ma un'altra cosa.
tahiti ha 6 mc da 64bit, tonga ne ha 4 che però sono una derivazione di quelli sulle 290, quindi su carta con una maggiore efficienza.
Se davvero vogliono tenere tonga, è inutile riprogettare il chip con altri 2 mc e chiamarlo tonga ancora (che ci siano delle sp sopite ci credo, che ci siano due mc nascosti non dichiarati no)

secondo me saranno 4gb a 256bit per la 380x e per la 380 ci saranno versioni a 4 e 2 gb

mikael84
31-05-2015, 13:26
Tonga XT la danno con un bus di 384bit e 3GB di RAM gli ultimi rumors e anche i vecchi (quelli relativi ad una 285X mai uscita).

Se avrà un bus da 384bit avrà 3GB

Tonga XT è in pratica la 295m mobile.
Tonga è una 290x con bus dimezzato che supporta la compressione/decompressione rops (GCN 1.2).
Per farla a 384 bit dovrebbero riscrivere gli MC, MC da 6 utilizzati solo con le 7970.
Difficilmente faranno un MC apposito per un rebrand.
La 290x ha 8 MC 64 bit dual channel ma su una base di 11 CU a raster e GPC, la 285 è simile ma integra 7CU a raster GPC

In linea di massima funziona cosi'. Tonga è stato pensato di base con 8 CU a raster. I raster sono 4, quindi i CU sono 32 totali, ognuno integra 64 shader e 4TMU che si occupano dei G.texel.
32x64= 2048 Shader engine collegati ai 4 MC 64 bit dual channel.

Tonga vista nella 285 è la versione castrata con 1 CU a raster per un totale di 4 (256 shader totali)

Micropoint_ITA
31-05-2015, 13:56
Amici, è da pazzi Vendere la mia 780directCUII x la nuova va 980ti?
Giocando a 1440 intendo...
Meglio attendere le Pascal?
Mi spiego meglio , giocando a 1440 su un pannello 144hz attualmente ho dai 45 ai 60 fps ovviamente in base al tipo di gioco. Se prendessi una 980ti presumo incrementerò 20 fps esatto? A questo punto, visto che gioco con un pannello con frequenze alte, ha più senso attendere ancora un anno ed aspettare pascal? La data di presentazione è confermata 2016, non è che uscendo anticipatamente le nuove 980ti anticiperanno anche le pascal? Mi pare di capire che presentino una nuova scheda ogni sei mesi, quindi, potrebbe addirittura uscire a gennaio del prossimo anno?
Ho creato un post simile in un'altra sezione ma questa mi sembra più indicata.

Grazie

Dimenticavo la cosa forse più importante, attualmente ho un processore vecchio molto vecchio ma comunque fa ancora il suo lavoro ossia un i5 2500k.
La mia paura è che quando uscirà Pascal il mio processore sarà obsoleto, obbligandomi a rifare il computer nuovo. Se così fosse allora mi prendo adesso la 980ti...

devil_mcry
31-05-2015, 14:02
Amici, è da pazzi Vendere la mia 780directCUII x la nuova va 980ti?
Giocando a 1440 intendo...
Meglio attendere le Pascal?
Mi spiego meglio , giocando a 1440 su un pannello 144hz attualmente ho dai 45 ai 60 fps ovviamente in base al tipo di gioco. Se prendessi una 980ti presumo incrementerò 20 fps esatto? A questo punto, visto che gioco con un pannello con frequenze alte, ha più senso attendere ancora un anno ed aspettare pascal?

Ho creato un post simile in un'altra sezione ma questa mi sembra più indicata.

Grazie

Dimenticavo la cosa forse più importante, attualmente ho un processore vecchio molto vecchio ma comunque fa ancora il suo lavoro ossia un i5 2500k.
La mia paura è che quando uscirà Pascal il mio processore sarà obsoleto, obbligandomi a rifare il computer nuovo. Se così fosse allora mi prendo adesso la 980ti...

sbagliato thread

smoicol
31-05-2015, 14:05
Amici, è da pazzi Vendere la mia 780directCUII x la nuova va 980ti?
Giocando a 1440 intendo...
Meglio attendere le Pascal?
Mi spiego meglio , giocando a 1440 su un pannello 144hz attualmente ho dai 45 ai 60 fps ovviamente in base al tipo di gioco. Se prendessi una 980ti presumo incrementerò 20 fps esatto? A questo punto, visto che gioco con un pannello con frequenze alte, ha più senso attendere ancora un anno ed aspettare pascal?

Ho creato un post simile in un'altra sezione ma questa mi sembra più indicata.

Grazie

Dimenticavo la cosa forse più importante, attualmente ho un processore vecchio molto vecchio ma comunque fa ancora il suo lavoro ossia un i5 2500k.
La mia paura è che quando uscirà Pascal il mio processore sarà obsoleto, obbligandomi a rifare il computer nuovo. Se così fosse allora mi prendo adesso la 980ti...
credo che la tua cpu non sia un problema, specie se overclokkata, passare a 980Ti invece per la tua risoluzione e per il tuo pannello è una buona cosa, ma aspetta prima test seri e poi decidi, perchè niente è scontato e se ti aspetti un incremento di 20fps, è bene valutare bene anche perchè è in uscita la r9 390x o radeon fury come la vuoi chiamare la chiami che se a buon prezzo sarà molto appetibile

siluro85
31-05-2015, 14:29
Forse il 3d aspettando le nuove nvidia è più indicato... ;) comunque personalmente aspetterei la 980 ti è le nuove amd per vedere...

Einhander
31-05-2015, 20:00
Peccato non l'abbiano chiamata Kung Fury... :O

(se non sapete di cosa sto parlando, e se avete più di 30 anni, cercatelo su steam, guardatevelo e poi ringraziatemi! :O)

Sono un backer di tale magnifica opera :asd:
E si ho piu' di 30 anni :asd:

No Life King
31-05-2015, 22:06
Sono un backer di tale magnifica opera :asd:


Anche io! :asd:
è un maledetto capolavoro! :asd:

davo30
01-06-2015, 01:01
Anche io! :asd:
è un maledetto capolavoro! :asd:

Siamo in 3 :D Orgasmico!

Cmq, per la serie "amd sono dei forni" vi presento la 980ti!

http://i.imgur.com/LEOm8hq.jpg

psychok9
01-06-2015, 01:27
http://arstechnica.co.uk/gadgets/2015/05/amd-takes-next-gen-gpu-battle-to-giant-half-acre-billboard-in-times-square/

AMD takes next-gen GPU battle to giant 25,000 sq ft billboard in Times Square
The sign, advertising the upcoming R9 390X, is also powered by AMD GPUs.

:sofico:

Ale55andr0
01-06-2015, 01:43
Siamo in 3 :D Orgasmico!

Cmq, per la serie "amd sono dei forni" vi presento la 980ti!

http://i.imgur.com/LEOm8hq.jpg

beh, se consideri quanto forte va...AMD comunque si deve svegliare

davo30
01-06-2015, 02:07
beh, se consideri quanto forte va...AMD comunque si deve svegliare

Beh, anche a suo tempo quando usci la 290x spingeva pesantemente, pero l'epiteto di forno non se lo tolse per un bel po (ancora oggi si vede scritto su questo forum).
Cmq questi sono i rilievi sulle reference, le custom avranno delle temperature indubbiamente migliori.


Ps. AMD si deve svegliare eccome, di sto passo Nvidia fa uscire la serie 1000

Radeon80
01-06-2015, 09:21
http://www.hardwareluxx.ru/index.php/news/hardware/grafikkarten/34800-gigabyte-radeon-r9-380x-g1-gaming.html

dovrebbe essere la r9 285 rinominata con 4 gb gddr5.
Secondo me poi dovrebbero lanciare anche la 380x alias full Tonga che con le migliorie rispetto sia Tahiti e Hawaii dovrebbe avvicinarla molto alla R9 290.

devil_mcry
01-06-2015, 09:26
Beh, anche a suo tempo quando usci la 290x spingeva pesantemente, pero l'epiteto di forno non se lo tolse per un bel po (ancora oggi si vede scritto su questo forum).
Cmq questi sono i rilievi sulle reference, le custom avranno delle temperature indubbiamente migliori.


Ps. AMD si deve svegliare eccome, di sto passo Nvidia fa uscire la serie 1000

Si ma la 290x andava a 99° praticamente... 83° di una 980 Ti reference sono quasi quelli di una 290x custom buona come la Tri-X (che è tra le migliori).

Ale55andr0
01-06-2015, 10:08
Beh, anche a suo tempo quando usci la 290x spingeva pesantemente

non mi pare la stessa cosa, rispetto la 780ti stava dietro (tralasciando il discorso dei driver attuali verdi sulla vecchia architettura), come anche all'epoca la 480 pur forno e assetata, stava davanti la 5870. Questa 980ti sta davanti, e lo fa in modo nettissimo, non di pochi punti percentuali ergo mi pare un paragone improprio. In relazione alle prestazioni le attuali amd scaldano sicuramente di più, e le referenc e dei forni lo sono per davvero e comuqnue in quel grafico il rilievo della 290 non è su una reference, ma su una trix oc...

Micropoint_ITA
01-06-2015, 10:13
Forse il 3d aspettando le nuove nvidia è più indicato... ;) comunque personalmente aspetterei la 980 ti è le nuove amd per vedere...

Vero...dato che sono interessato anche a amd (valuto cosa il mercato offre) niente in previsione? Non parlo delle 390 in uscita

Free Gordon
01-06-2015, 10:20
Era per dire che le 290 custom non sono così calde da generare problemi.

AMD ha fatto dei dissipatori inadatti per la serie 290, forse perché doveva far guadagnare qualcosa agli AIB con cui aveva degli accordi commerciali da tempo..

Certo, così facendo si sono fatti cattiva pubblicità da soli, mettendo in cattiva luce il loro stesso nome.

Free Gordon
01-06-2015, 10:26
non mi pare la stessa cosa, rispetto la 780ti stava dietro (tralasciando il discorso dei driver attuali verdi sulla vecchia architettura),

Inoltre... è sempre un discorso di driver.

All'uscita la 290x era dietro alla 780ti, lo sviluppo driver l'ha portata ad essere alla pari/sopra alla sua concorrente.

Certo che dipende tutto dai driver ma va' chiaramente fatto notare che una scheda come la 780liscia/t, di un'altra fascia di prezzo rispetto alle 290/x, a distanza di un anno, si trova ad essere alla pari o meno performante. ;)

Giustaf
01-06-2015, 11:15
Si ma non è che si può acquistare una vga oggi sperando che tra un anno vada uguale a quella che adesso gli da 10/15 fps di stacco.

davo30
01-06-2015, 11:35
non mi pare la stessa cosa, rispetto la 780ti stava dietro (tralasciando il discorso dei driver attuali verdi sulla vecchia architettura), come anche all'epoca la 480 pur forno e assetata, stava davanti la 5870. Questa 980ti sta davanti, e lo fa in modo nettissimo, non di pochi punti percentuali ergo mi pare un paragone improprio. In relazione alle prestazioni le attuali amd scaldano sicuramente di più, e le referenc e dei forni lo sono per davvero e comuqnue in quel grafico il rilievo della 290 non è su una reference, ma su una trix oc...

Si, ma stiamo parlando di una gpu dell'anno scorso (per la precisione anno e mezzo). Devi fare in rapporto a quando usci, grazie che adesso in rapporto alla 980ti, scalda di piu andando di meno, è una scheda vecchia.
Il mio discorso era che, se le reference AMD scaldano = forni, se lo fanno le Nvidia = eh, ma vanno di piu :D

Detto questo, AMD cosa ci vuole ancora per tirare fuori ste benedette schede? L'avvento del nostro signore? Stanno rasentando il patetico.....

Antimo96
01-06-2015, 11:39
La r9 380 sarà una r9 285 con 4gb di ram
http://videocardz.com/55996/gigabyte-radeon-r9-380-g1-gaming-marketing-materials-leak-out
La buona notizia?La r9 380x sarà quindi necessariamente un tonga completamente sbloccato.Anche perchè se fosse un rebrand della 7970,ci si troverebbe in una situazione in cui la gpu più debole avrebbe più ram.Impossibile imho.Spero che amd non mi faccia qualche sorpresa sgradita e rimuova la dvi-i...se no l'attesa sarà stata vana.

devil_mcry
01-06-2015, 11:44
La r9 380 sarà una r9 285 con 4gb di ram
http://videocardz.com/55996/gigabyte-radeon-r9-380-g1-gaming-marketing-materials-leak-out
La buona notizia?La r9 380x sarà quindi necessariamente un tonga completamente sbloccato.Anche perchè se fosse un rebrand della 7970,ci si troverebbe in una situazione in cui la gpu più debole avrebbe più ram.Impossibile imho.Spero che amd non mi faccia qualche sorpresa sgradita e rimuova la dvi-i...se no l'attesa sarà stata vana.

Perchè fiji non avrà meno ram della 390x :D? Comunque potrebbero mettere anche 6GB su una 7970, ma penso che sarà tonga full, non avrebbe senso

Comunque Tonga full se lo piazzassero sui 220€ e se salisse bene sarebbe un best buy. La 960 non è per niente appetibile come performance e la 290 è troppo vicino ai 300€. Manca proprio una GPU davvero buona su quella fascia di prezzo

Antimo96
01-06-2015, 11:48
Perchè fiji non avrà meno ram della 390x :D? Comunque potrebbero mettere anche 6GB su una 7970, ma penso che sarà tonga full, non avrebbe senso

Comunque Tonga full se lo piazzassero sui 220€ e se salisse bene sarebbe un best buy. La 960 non è per niente appetibile come performance e la 290 è troppo vicino ai 300€. Manca proprio una GPU davvero buona su quella fascia di prezzo
Li però sono memoria hbm..insomma sono giustificati aahaha.
Mi fa piacere di non essere l'unico ad aver notato che manca una gpu ''intermedia'' tra la 960 e la 290.
Cioè si passa dai 200 euro ai quasi 300,senza nessuno scheda intermedia eccetto la 280x,chè ha 3(4?) anni e i modelli decenti vengono venduti a troppo.
E mi sa che nvidia sarà costretta a presentare una nuova gpu di fascia media.La 285 e la gtx 960 vanno uguali,ora a pari(forse inferiore?) prezzo amd offrirà 2 gb di vram in più.
Non vedo l'ora che le presentino ufficialmente,così mi ordino questo benedetto pc con i5+380/x e via con la next gen XD

devil_mcry
01-06-2015, 11:53
Li però sono memoria hbm..insomma sono giustificati aahaha.
Mi fa piacere di non essere l'unico ad aver notato che manca una gpu ''intermedia'' tra la 960 e la 290.
Cioè si passa dai 200 euro ai quasi 300,senza nessuno scheda intermedia eccetto la 280x,chè ha 3(4?) anni e i modelli decenti vengono venduti a troppo.

Tonga ha una GPU più nuova e migliori features, non è full dx12 ma è la più vicina ad esserlo tra le attuali, inoltre ha un tassellator engine migliore (a 64x mi pare sia più performante di una 290x). nVidia avrebbe dovuto proporre una 960Ti ricavata da un GM204 (e non 206) ma non l'ha mai fatto...

OEidolon
01-06-2015, 12:00
Detto questo, AMD cosa ci vuole ancora per tirare fuori ste benedette schede? L'avvento del nostro signore? Stanno rasentando il patetico.....

la press conference è il 3 giugno ( http://www.amdcomputex.com.tw/ ), è inutile stare a scrivere ogni giorno che si muovano, si aspetta la data prevista e poi eventualmente ci si lamenta :O

come per le 370 che dovevano uscire EarlyApril2015, ma era solo la release del bios per quelle schede :muro:

ilrosso92
01-06-2015, 12:01
Quindi in sostanza secondo voi la r9 380x andrà poco meno di una 290 ? Bisogna capire quanto più performante sarà della 280x.

devil_mcry
01-06-2015, 12:06
Quindi in sostanza secondo voi la r9 380x andrà poco meno di una 290 ? Bisogna capire quanto più performante sarà della 280x.

Dovrebbe andare un 3-4% in più della 280x in realtà, non di più
Come fu per la 285 rispetto alla 280

Antimo96
01-06-2015, 12:09
Dovrebbe andare un 3-4% in più della 280x in realtà, non di più
Come fu per la 285 rispetto alla 280
E soprattutto sarà esente(dovrebbe) da tutti i problemi della 280x..temperature e consumi su tutti.Rumor dicono che forse un tonga full potrebbe avere 2240 shader..personalmente ne dubito,visto che in quel caso sarebbe veramente troppo vicina alla 290.Comunque non so perchè ma tonga va benissimo anche nei giochi nvidia,in the witcher 3 andava prima dei nuovi driver,faceva quasi 10 fps in più della 280x(che ora va qualche frame in più).

Free Gordon
01-06-2015, 12:14
Si ma non è che si può acquistare una vga oggi sperando che tra un anno vada uguale a quella che adesso gli da 10/15 fps di stacco.

Ah questo è sicuro ;) ma non c'entra granché con quel che dicevo :D

Il nabbo di turno
01-06-2015, 12:45
Dovrebbe andare un 3-4% in più della 280x in realtà, non di più
Come fu per la 285 rispetto alla 280

Ma insomma, la 285 è al pari della 7970(280x a 900 mhz sul core) e ha pure 1gb in meno.
Iniziali a dare 4gb di vram e 1 cu in più facendola partire da 1ghz, quel 10-15% in più rispetto alla 280x lo tira fuori tutto.

devil_mcry
01-06-2015, 12:47
Ma insomma, la 285 è al pari della 7970(280x a 900 mhz sul core) e ha pure 1gb in meno.
Iniziali a dare 4gb di vram e 1 cu in più facendola partire da 1ghz, quel 10-15% in più rispetto alla 280x lo tira fuori tutto.

At the end of the day it brings a very minor 3-5% performance increase over the R9 280 with virtually no change in price or power consumption. Functionally speaking it’s just an R9 280 with more features.

http://www.anandtech.com/show/8460/amd-radeon-r9-285-review/19

Poi tra l'altro è inutile andare a prendere confronti con schede troppo vecchie, non le testano mica tutte le vga (e si vede nei bench dei giochi nuovi). C'è una review curatissima di anandtech che analizza nel dettaglio Tonga senza fare supposizioni strane.

Il nabbo di turno
01-06-2015, 12:56
http://www.anandtech.com/show/8460/amd-radeon-r9-285-review/19

Poi tra l'altro è inutile andare a prendere confronti con schede troppo vecchie, non le testano mica tutte le vga (e si vede nei bench dei giochi nuovi). C'è una review curatissima di anandtech che analizza nel dettaglio Tonga senza fare supposizioni strane.

http://tpucdn.com/reviews/Gigabyte/GTX_960_OC/images/perfrel_1920.gif
è li li praticamente, senza contare questa è di una review abbastanza recente, quindi i driver sono aggiornati, non è una review di 8 mesi fa...

Radeon80
01-06-2015, 12:59
http://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/35529-directx-12-amd-vergleicht-sich-mit-nvidia-und-aeussert-sich-zu-crossfire-unter-dx12.html

Anche se probabilmente è già stato postato in questa notizia ci sono delle info potenzialmente interessanti sulle GPU GCN e il supporto dx12.
Naturalmente essendo AMD maestra di slide(:D ) potrebbero essere slide fuorvianti che non raccontano la verità riguardo al supporto alle dx12 da parte delle GPU AMD.

Radeon80
01-06-2015, 13:02
In certi giochi recenti la R9 285 riesce a distaccare la R9 280 anche del 25% tanto da stare alla parti della R9 280x,naturalmente in test in full HD.
In The Witcher 3 addirittura sta davanti in scioltezza alla R9 280x.
E' in base a tali risultati che ho ipotizzato che la R9 380x possa avvicinarsi parecchio alla R9 290.

devil_mcry
01-06-2015, 13:06
http://tpucdn.com/reviews/Gigabyte/GTX_960_OC/images/perfrel_1920.gif
è li li praticamente, senza contare questa è di una review abbastanza recente, quindi i driver sono aggiornati, non è una review di 8 mesi fa...

A prescindere che non so se per schede davvero vecchie come la 7970 rifanno i test, ma quel grafico dice la stessa cosa che ho detto io

Normalizzando sul punteggio della 280x, la 285 va solo l'88.1% contro il 93 della 7970 liscia e il 78% di una 7950.

Quindi la 280 liscia sarà intorno ad un 82-83%, va qualche punto percentuale in più della 280 che rimane comunque più vicina della 7970 e della 280x.

Una 380x andrà il 103-104% normalizzato sulla 280x non di più, quel grafico dice la medesima cosa di anandtech

devil_mcry
01-06-2015, 13:07
In certi giochi recenti la R9 285 riesce a distaccare la R9 280 anche del 25% tanto da stare alla parti della R9 280x,naturalmente in test in full HD.
In The Witcher 3 addirittura sta davanti in scioltezza alla R9 280x.
E' in base a tali risultati che ho ipotizzato che la R9 380x possa avvicinarsi parecchio alla R9 290.

Certo per la tassellazione

http://images.anandtech.com/doci/8460/Tessmark_575px.png

In tutti i giochi DX11 che usano il tassellator in modo pesante Tonga ha una marcia in più, come dicevo prima. A 64x che è il fattore in realtà stock da specifica sarebbe pure più veloce di una 290 se si parla solo di tassellazione

Il nabbo di turno
01-06-2015, 13:10
A prescindere che non so se per schede davvero vecchie come la 7970 rifanno i test, ma quel grafico dice la stessa cosa che ho detto io

Normalizzando sul punteggio della 280x, la 285 va solo l'88.1% contro il 93 della 7970 liscia e il 78% di una 7950.

Quindi la 280 liscia sarà intorno ad un 82-83%, va qualche punto percentuale in più della 280 che rimane comunque più vicina della 7970 e della 280x.

Una 380x andrà il 103-104% normalizzato sulla 280x non di più, quel grafico dice la medesima cosa di anandtech

Testeranno la 280x e gli caveranno quel 10% relativo alla frequenza.

Imho, secondo me la 380 grazie alla frequenza più alta(970 mhz contro 920) e 4gb di vram invece di 2, quel 10% in più alla 280 lo prendi sicuro.
E di li la 380x, che partirà da 1ghz e avrà 1 cu in più, sempre quel 10% in più prenderà rispetto alla 280x.

Raven
01-06-2015, 13:11
E di li la 380x, che partirà da 1ghz e avrà 1 cu in più, sempre quel 10% in più prenderà rispetto alla 280x.

... e quindi, in sintesi, chi oggi ha una 7970Ghz edition non la dovrà cambiare di sicuro per una 380x... :O

Il nabbo di turno
01-06-2015, 13:13
... e quindi, in sintesi, chi oggi ha una 7970Ghz edition non la dovrà cambiare di sicuro per una 380x... :O

Beh, ma anche chi aveva una 780 ti l'ha cambiata per una 980, nonostante si passassero neanche un 10%...

devil_mcry
01-06-2015, 13:15
Testeranno la 280x e gli caveranno quel 10% relativo alla frequenza.

Imho, secondo me la 380 grazie alla frequenza più alta(970 mhz contro 920) e 4gb di vram invece di 2, quel 10% in più alla 280 lo prendi sicuro.
E di li la 380x, che partirà da 1ghz e avrà 1 cu in più, sempre quel 10% in più prenderà rispetto alla 280x.

La 280x in boost va già a 1GHz anche lei e le due GPU avranno gli stessi shaders, la 7970GHz ED va a 1050 e probabilmente sarà molto molto vicina alla 380x se non uguale. Secondo me la differenza sarà la stessa che c'era con la 285, ci sarà un 4-5% non di più. Poi la 280x ha già 3 GB, a 1080p è davvero improbabile superarli. Sempre che con tutte le unità attive il bus a 256bit non inizi a castrare.

Raven
01-06-2015, 13:20
Beh, ma anche chi aveva una 780 ti l'ha cambiata per una 980, nonostante si passassero neanche un 10%...

L'utente AMD è mediamente più attento al portafoglio!... :O

Il nabbo di turno
01-06-2015, 13:21
La 280x in boost va già a 1GHz anche lei e le due GPU avranno gli stessi shaders, la 7970GHz ED va a 1050 e probabilmente sarà molto molto vicina alla 380x se non uguale. Secondo me la differenza sarà la stessa che c'era con la 285, ci sarà un 4-5% non di più. Poi la 280x ha già 3 GB, a 1080p è davvero improbabile superarli. Sempre che con tutte le unità attive il bus a 256bit non inizi a castrare.

Vedremo, ma io dico che a parità di frequenza, quel 10% in più l'avrà tutto.

Più che altro anche nei consumi, con il taglio del bus qualcosa si recupera, siamo nell'ordine dei 15w, ma butta via...

E comunque a parità di frequenza, la scheda viaggia come una 280x.
http://www.guru3d.com/articles_pages/amd_radeon_r9_285_review,20.html

Il nabbo di turno
01-06-2015, 13:22
L'utente AMD è mediamente più attento al portafoglio!... :O

Io direi anche qualcos'altro, dipende dalle persone comunque.
Di certo io non cambio una 7950 con una 285, ma nemmeno una 780 ti per una 980.

devil_mcry
01-06-2015, 13:33
Vedremo, ma io dico che a parità di frequenza, quel 10% in più l'avrà tutto.

Più che altro anche nei consumi, con il taglio del bus qualcosa si recupera, siamo nell'ordine dei 15w, ma butta via...

E comunque a parità di frequenza, la scheda viaggia come una 280x.
http://www.guru3d.com/articles_pages/amd_radeon_r9_285_review,20.html

Al firestrike viaggia uguale, ma per il discorso del tassellator del link sopra, però se guardi gli altri 2 bench presenti

Tomb Raider, stessa review 285 liscia 55 fps, 285 OC (un pelo maggiore alla 280x come clock) 59, 280x 63

Hitman AB stando a questo bench presente in review vecchie (visto che in tonga non c'era) link (http://www.guru3d.com/index.php?ct=articles&action=file&id=16068&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1) 285 43fps, 285 OC 45fps, 280x 51fps


Bioshock Infinite stranamente fa vedere che la 285 è più veloce ma vabeh diamo per buono che non abbiano fatto casini

Il nabbo di turno
01-06-2015, 13:41
Al firestrike viaggia uguale, ma per il discorso del tassellator del link sopra, però se guardi gli altri 2 bench presenti

Tomb Raider, stessa review 285 liscia 55 fps, 285 OC (un pelo maggiore alla 280x come clock) 59, 280x 63

Hitman AB stando a questo bench presente in review vecchie (visto che in tonga non c'era) link (http://www.guru3d.com/index.php?ct=articles&action=file&id=16068&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1) 285 43fps, 285 OC 45fps, 280x 51fps


Bioshock Infinite stranamente fa vedere che la 285 è più veloce ma vabeh diamo per buono che non abbiano fatto casini

Hai citato due titoli abbastanza mangerecci in fatto di vram, non mi sorprenderebbe se la 285 a dettagli alti invece di ultra andasse di più.

Secondo me non è un caso che bioshock vada di più con la 285 invece della 280x a parità di frequenza.

devil_mcry
01-06-2015, 14:06
Hai citato due titoli abbastanza mangerecci in fatto di vram, non mi sorprenderebbe se la 285 a dettagli alti invece di ultra andasse di più.

Secondo me non è un caso che bioshock vada di più con la 285 invece della 280x a parità di frequenza.

No Bioshock va di meno persino della 285 liscia, per quello è palesemente sfalsato quel test.

Inoltre stando al test dei russi il solito, Tomb Raider a 2560x1600 FXAA non arriva a 2GB di RAM

http://i.imgur.com/Ip6oXIl.png

E dubito pure Hitman visto che in 1200p con 8X di MSAA non arriva nemmeno a 1.5 http://www.guru3d.com/articles_pages/hitman_absolution_graphics_vga_performance_review_benchmark,7.html

E i test sono fatti solo a 2x

Il nabbo di turno
01-06-2015, 14:11
No Bioshock va di meno persino della 285 liscia, per quello è palesemente sfalsato quel test.

Inoltre stando al test dei russi il solito, Tomb Raider a 2560x1600 FXAA non arriva a 2GB di RAM

http://i.imgur.com/Ip6oXIl.png

E dubito pure Hitman visto che in 1200p con 8X di MSAA non arriva nemmeno a 1.5 http://www.guru3d.com/articles_pages/hitman_absolution_graphics_vga_performance_review_benchmark,7.html

E i test sono fatti solo a 2x
Anche su bitsandchips però la 285 a stock va come la 280x in bioshock.
http://www.bitsandchips.it/9-hardware/4771-sapphire-r9-285-itx-compact-oc-edition-potente-scheda-video-in-formato-slim?start=6

Comunque un tomb raider maxato quei 2gb li occupa tutti.
http://i.imgur.com/Ip6oXIl.png

devil_mcry
01-06-2015, 14:14
Anche su bitsandchips però la 285 a stock va come la 280x in bioshock.
http://www.bitsandchips.it/9-hardware/4771-sapphire-r9-285-itx-compact-oc-edition-potente-scheda-video-in-formato-slim?start=6

Comunque un tomb raider maxato quei 2gb li occupa tutti.
http://i.imgur.com/Ip6oXIl.png

Si ma il test Guru3D non l'ha fatto con 2x di SSAA, ma con l'FXAA e occupa meno di 2GB di RAM. Quindi il discorso che facevi non centra nulla, non è la RAM a fare la differenza in quel bench.

Comunque Bioshock effettivamente va peggio ovunque su 280x, anche su Anandtech, boh

Il nabbo di turno
01-06-2015, 14:20
Si ma il test Guru3D non l'ha fatto con 2x di SSAA, ma con l'FXAA e occupa meno di 2GB di RAM. Quindi il discorso che facevi non centra nulla, non è la RAM a fare la differenza in quel bench.

Comunque Bioshock effettivamente va peggio ovunque su 280x, anche su Anandtech, boh

Si ma il test di guru3d con tomb raider era a 1440p.
http://www.guru3d.com/articles_pages/amd_radeon_r9_285_review,20.html

devil_mcry
01-06-2015, 14:25
Si ma il test di guru3d con tomb raider era a 1440p.
http://www.guru3d.com/articles_pages/amd_radeon_r9_285_review,20.html

Ouuuuuu ma il grafico l'hai visto XD?

2560x1600 Ultra TressFX FXAA sono meno di 2GB di RAM occupata, è la penultima entry

Guru3D fa il test uguale a 2560x1440, avrà poca meno RAM occupata ma siamo li