View Full Version : AMD Radeon R9 Fury X: è il tempo della GPU Fiji
Free Gordon
26-06-2015, 11:33
errori del reparto marketing in un caso, errori del reparto tecnico in un altro caso :P
Sinceramente non credo ci sia nessun errore nel caso di Nvidia. :)
Hanno taciuto le specifiche corrette perché erano sconvenienti rispetto alla 980 (dire che è una scheda da 3.5GB non avrebbe funzionato bene a livello di vendite), tutto quì. ;)
AMD invece avrebbe sbagliato a mettere dei driver sul repository, danneggiandosi oltretutto...
Davvero.. non mi pare ci sia alcuna somiglianza tra le due cose eh...
Le HBM sono ram. Forniscono banda e riducono un po' i consumi. Con un bus tipo Hawaii (magari migliorato) e delle GDDR5 a 7ghz (e una banda teorica di 450GB/s), la Fury avrebbe avuto gli stessi risultati che ha ora, consumando di più. :)
E' un vantaggio tecnologico quello di AMD, perché è arrivata prima di Nvidia sulle HBM (ma cmq spesso ATI l'ha preceduta sul pp e innovazioni varie.. :) ) ma non le da un vantaggio prestazionale effettivo, solo di consumi riguardo al sottosistema memoria (solo una piccola parte di tutto il consumo del chip).
Con Nvidia sarà la stessa cosa eh... :)
Solo che Nvidia salterà subito alle HBM2...con tutti i pro e i contro del caso. :) AMD il test l'ha fatto, le basterà un "upgrade".
Nvidia deve ancora farlo (o lo sta facendo solo ora).
Questo credo sia un "vantaggio" per AMD sui 16nm... :) non uno svantaggio.
Lo so bene eh, solo che secondo me avrebbero dovuto lavorare prima su di un'archietettura più equilibrata, perchè appunto NVidia al momento secondo me sta avanti (al di la delle memorie) e quando farà il passo, certo lavorerà su di un campo "nuovo" ma non credo poi tanto. Il punto è il potenziale. NVidia al momento ne ha di più imho. E secondo me il vantaggio prestazionale si vede nel momento in cui memorie più lente e bus con meno banda sono "limitati" dai 4GB.
Sinceramente non credo ci sia nessun errore nel caso di Nvidia. :)
Hanno taciuto le specifiche corrette perché erano sconvenienti rispetto alla 980 (dire che è una scheda da 3.5GB non avrebbe funzionato bene a livello di vendite), tutto quì. ;)
sconvenienti perchè?voglio di.... la 980 costa quasi un 50% in più...
anche per la vram... NV ha sempre fatto schede con tagli strani: 320mb, 384mb,640mb,768mb, 896,1280, 1.5GB :asd:
dire che non avrebbe funzionato bene a livello di vendite mi sembra esagerato...ed infatti poi come si è visto la 970 con 3.5gb ha cmq continuato ad essere un campione di vendite visto che è un ottima scheda video...
pensavo che scherzassi e che non si era capito il mio sarcasmo ;) chiaro quello che dici tu!
io l'ho capito subito che eri sarcastico. lo sono molti tuoi post ultimamente ;)
CrapaDiLegno
26-06-2015, 12:00
Sei tu che spari perle a destra e manca: se ti sforzassi di interpretare quello che l'utente ha scritto, capiresti che parla di efficienza. E se tu avessi letto la recensione, avresti letto anche che viene scritto che i 4GB non rappresentano un limite. La grande banda passante permette un passaggio dati sufficientemente veloce da far si che i 4GB bastino anche alle risoluzioni più importanti. Questo lo hanno evidenziato in tutte le recensioni.
Ma io mi chiedo perchè i mod non pongano dei limiti ai tuoi interventi. Andrebbe meglio con 8GB? Forse. Era così per le 2900 con 1GB invece che 512MB, ma di poco davvero. Di fatto però 4GB bastano.
Anche io mi chiedo perché si possa commentare senza avere la minima conoscenza di quello di cui si parla. Ascoltare delle informazioni da radio bar-sotto-casa e riportarle non vi fa apparire molto informati.
Non c'è nessun equivalenza tra la banda e la capacità
Non ha alcun senso dire che la banda maggiore compensa i soli 4GB. Sono 2 cose diverse. Andare a 300 all'ora invece di 200 non compensa il fatto di avere un serbatoio da 40 litri invece che 60.
Per dire che i tuoi 40 litri equivalgono ai 60 devi dimostrare che consumi meno, o nel caso delle GPU, che riesci a comprimere i dati con il 50% in più di spazio guadagnato rispetto alla concorrenza (che pure lei già comprime i dati).
Parlare di banda in questo caso significa dimostrare di non aver capito nulla e che si sta riportando solo un mantra che continua a girare senza che nessuno capisca cosa voglia dire.
In tutte i casi in cui un gioco manda in crisi una 980/290X, manderà in crisi anche la Fury. Non c'è HBM o miracolo che i fanboy sperano in questa tecnologia che possa aiutare a risolvere il problema della capacità. E siccome le schede con 4GB sono già al limite di andare in crisi (e anche se le metti in SLI con tutta la potenza che vuoi, sempre 4GB per i dati hanno, quindi il problema non è potenza di calcolo) quando si attivano certi effetti o si installano le texture HD (che tutti fanno finta di ignorare... certo, tutti con monitor 4K per usare le texture low res della FullHD! Che genialata!) l'uso della memoria vera non quella di precaching misurata da Afterburner, aumenta e sfora i 4GB.
CrapaDiLegno
26-06-2015, 12:02
sconvenienti perchè?voglio di.... la 980 costa quasi un 50% in più...
anche per la vram... NV ha sempre fatto schede con tagli strani: 320mb, 384mb,640mb,768mb, 896,1280, 1.5GB :asd:
dire che non avrebbe funzionato bene a livello di vendite mi sembra esagerato...ed infatti poi come si è visto la 970 con 3.5gb ha cmq continuato ad essere un campione di vendite visto che è un ottima scheda video...
I tagli di memoria dipendono esclusivamente dal bus utilizzato.
Comunque la questione della 970 sottacciuta è presto detto: la 290X ha 4GB e nvidia non avrebbe certo potuto vendere una scheda dove c'è stampato 3.5GB.
la 290X ha 4GB e nvidia non avrebbe certo potuto vendere una scheda dove c'è stampato 3.5GB.
ma nvidia si è trovata spesso inferiore in fatto di quantitativo di vram, rispetto ad AMD.... ma questo non gli ha creto sti problemi gravi da non riuscire a vendere le sue gpu
I tagli di memoria dipendono esclusivamente dal bus utilizzato.
guarda che lo so:):)
PaulGuru
26-06-2015, 12:19
Sei tu che spari perle a destra e manca: se ti sforzassi di interpretare quello che l'utente ha scritto, capiresti che parla di efficienza. E se tu avessi letto la recensione, avresti letto anche che viene scritto che i 4GB non rappresentano un limite. La grande banda passante permette un passaggio dati sufficientemente veloce da far si che i 4GB bastino anche alle risoluzioni più importanti. Questo lo hanno evidenziato in tutte le recensioni.
Ma io mi chiedo perchè i mod non pongano dei limiti ai tuoi interventi. Andrebbe meglio con 8GB? Forse. Era così per le 2900 con 1GB invece che 512MB, ma di poco davvero. Di fatto però 4GB bastano.
Da quando la banda evita lo swap ???
Urge spiegazione tecnica, grazie.
Anche io mi chiedo perché si possa commentare senza avere la minima conoscenza di quello di cui si parla. Ascoltare delle informazioni da radio bar-sotto-casa e riportarle non vi fa apparire molto informati.
Non c'è nessun equivalenza tra la banda e la capacità
Non ha alcun senso dire che la banda maggiore compensa i soli 4GB. Sono 2 cose diverse. Andare a 300 all'ora invece di 200 non compensa il fatto di avere un serbatoio da 40 litri invece che 60.
Per dire che i tuoi 40 litri equivalgono ai 60 devi dimostrare che consumi meno, o nel caso delle GPU, che riesci a comprimere i dati con il 50% in più di spazio guadagnato rispetto alla concorrenza (che pure lei già comprime i dati).
Parlare di banda in questo caso significa dimostrare di non aver capito nulla e che si sta riportando solo un mantra che continua a girare senza che nessuno capisca cosa voglia dire.
In tutte i casi in cui un gioco manda in crisi una 980/290X, manderà in crisi anche la Fury. Non c'è HBM o miracolo che i fanboy sperano in questa tecnologia che possa aiutare a risolvere il problema della capacità. E siccome le schede con 4GB sono già al limite di andare in crisi (e anche se le metti in SLI con tutta la potenza che vuoi, sempre 4GB per i dati hanno, quindi il problema non è potenza di calcolo) quando si attivano certi effetti o si installano le texture HD (che tutti fanno finta di ignorare... certo, tutti con monitor 4K per usare le texture low res della FullHD! Che genialata!) l'uso della memoria vera non quella di precaching misurata da Afterburner, aumenta e sfora i 4GB.
Ma cosa ne sai te di cosa ed a che livello conosco io l'argomento? Rifletti invece: maggiore la banda, maggiore è la velocità di comunicazione tra processore e memorie. Il che significa che il quantitativo viene gestito più agilmente. Ma li leggete gli articoli? Basterebbe questo. Altrimenti come spiegate le prestazioni allineate alla concorrenza?
CrapaDiLegno
26-06-2015, 12:48
Ma cosa ne sai te di cosa ed a che livello conosco io l'argomento? Rifletti invece: maggiore la banda, maggiore è la velocità di comunicazione tra processore e memorie. Il che significa che il quantitativo viene gestito più agilmente. Ma li leggete gli articoli? Basterebbe questo. Altrimenti come spiegate le prestazioni allineate alla concorrenza?
Ma gestisci meglio solo la quantità di dati che hai nella memoria non quella che non c'è. Quando hai finito i dati nella memoria e te ne servono altri devi accedere alla memoria di sistema, sia con le HBM da mille milioni di GB/s sia con le DDR2. E quindi il tempo necessario per recuperare i nuovi dati è uguale per entrambe le soluzioni.
Per evitare questo problema non puoi far altro che avere più memoria installata. Anche se avessi banda infinita tra GPU e la sua memoria avresti lo stesso identico problema.
Le prestazioni allineate dipendono solo ed esclusivamente dal fatto che con quelle impostazioni la memoria non è satura. E si evince anche che la HBM non porta questi grandi vantaggi, visto che ha 1.5x la banda delle GTX ma in termini pratici porta a incrementi ridottissimi in prestazioni. Significa che né le GTX né la Fury usano tutta la banda a disposizione.
PaulGuru
26-06-2015, 12:54
Ma cosa ne sai te di cosa ed a che livello conosco io l'argomento? Rifletti invece: maggiore la banda, maggiore è la velocità di comunicazione tra processore e memorie. Il che significa che il quantitativo viene gestito più agilmente. Ma li leggete gli articoli? Basterebbe questo. Altrimenti come spiegate le prestazioni allineate alla concorrenza?
:sofico:
Quindi se un blocco texture occupa 5GB ( ipoteticamente parlando ) sulla Fury ne occuperà di meno ? LOL
Non si sà più come giustificare sto prodotto .....
CrapaDiLegno
26-06-2015, 12:55
ma nvidia si è trovata spesso inferiore in fatto di quantitativo di vram, rispetto ad AMD.... ma questo non gli ha creto sti problemi gravi da non riuscire a vendere le sue gpu)
Questo è vero, ma in questo caso la questione è più ostica, dato che non puoi montare fisicamente 3.5GB di RAM sulla scheda (e nemmeno 3 con quel bus), ma avresti dovuto giustificare i 512MB lenti.
E' ovvio che nvidia ha tenuto nascosto la cosa, dato che prestazionalmente le performance non sono impattate tranne con l'uso di impostazioni che ammazzano la scheda molto prima che il quantitativo di RAM diventi il collo di bottiglia.
Probabilmente sperava che nessuno se ne sarebbe accorto sottovalutando il fatto che nel mondo il curioso più curioso degli altri esiste sempre.
Ma gestisci meglio solo la quantità di dati che hai nella memoria non quella che non c'è. Quando hai finito i dati nella memoria e te ne servono altri devi accedere alla memoria di sistema, sia con le HBM da mille milioni di GB/s sia con le DDR2. E quindi il tempo necessario per recuperare i nuovi dati è uguale per entrambe le soluzioni.
Per evitare questo problema non puoi far altro che avere più memoria installata. Anche se avessi banda infinita tra GPU e la sua memoria avresti lo stesso identico problema.
Le prestazioni allineate dipendono solo ed esclusivamente dal fatto che con quelle impostazioni la memoria non è satura. E si evince anche che la HBM non porta questi grandi vantaggi, visto che ha 1.5x la banda delle GTX ma in termini pratici porta a incrementi ridottissimi in prestazioni. Significa che né le GTX né la Fury usano tutta la banda a disposizione.
In post precedenti ho chiaramente scritto che secondo me attualmente e presumibilmente per qualche tempo 4GB basteranno e sto dicendo che per le specifiche delle memorie e come vengono sfruttate il discorso di saturazione è relativo: non parliamo di singoli "blocchi" textures ma di quantità di essi che riescono ad essere disponibili immediatamente al processore. Avremmo veramente grossi vantaggi con una Fury X da 8GB?
:sofico:
Quindi se un blocco texture occupa 5GB ( ipoteticamente parlando ) sulla Fury ne occuperà di meno ? LOL
Non si sà più come giustificare sto prodotto .....
Ma per favore: prendi per il culo te stesso, non gli altri ed evita di mettermi in bocca castronerie che non ho detto. Nemmeno ti sforzi di capire gli altri e ti concentri solo sulle tue convinzioni senza fondamenti. Molti nemmeno ti rispondono più perchè ti hanno messo nella ignore list, rendiamoci conto.
Ci sono un paio di utenti che stanno qui (e non solo) per il puro gusto di flammare :asd:
siete una agonia
Tanto più che se leggete i post precedenti nemmeno io sono entusiasta dei risultati (che fiducioso penso miglioreranno di qualcosa con il tempo, come spesso successo con AMD) ma non certo per i "soli" 4GB di memoria. Non sto proprio tentando di difendere nulla ma cercando di essere obiettivo. Ed in ogni caso mi vengono in mente molte altre schede top di gamma sulle quali preferivano mettere un minor quantitativo di memoria ma più veloce. La 3870 Toxic da 512MB quando la Vapor-X e la liscia montavano anche 1GB. La 4870 Toxic da 1GB quando la Vapor-X e la liscia montavano anche 2GB e lo stesso per la 4890 Toxic sempre 1GB. Di casi simili ne abbiamo già visti parecchi.
Queste sono le 2 più grandi perle del forum :sofico:
4GB che diventano 8, un successo se AMD va di meno e consuma di più ..... bè che dire, il massimo del fanboysmo.
Potrebbe essere che essendo più veloce come banda e memorie, subisca meno gli effetti collaterali della VRam satura.
Ad esempio io con GTA5 ho notato che se sforo la VRAM con la 780ti, non cambia poi molto, un leggero pop up di poligoni e texture, ma dura solo un paio di frame, cosa appena percettibile.
Mentre invece sforando con la 960,, il ritardo nella generazione dei poligoni è abissale, anche un paio di secondi!
Sarei proprio curioso di vedere girare GTA5 in 4k con una (o due) Fury X, per scoprire se 4gb possono bastare veramente...
CrapaDiLegno
26-06-2015, 13:51
In post precedenti ho chiaramente scritto che secondo me attualmente e presumibilmente per qualche tempo 4GB basteranno e sto dicendo che per le specifiche delle memorie e come vengono sfruttate il discorso di saturazione è relativo: non parliamo di singoli "blocchi" textures ma di quantità di essi che riescono ad essere disponibili immediatamente al processore. Avremmo veramente grossi vantaggi con una Fury X da 8GB?
E secondo me invece 4GB nonbastano, dato che già oggi abbiamo esempi di sforamenti. Meglio con 8GB? Sicuramente, non avresti problemi appena installato un pack di texture HD.
Ma per favore: prendi per il culo te stesso, non gli altri ed evita di mettermi in bocca castronerie che non ho detto. Nemmeno ti sforzi di capire gli altri e ti concentri solo sulle tue convinzioni senza fondamenti. Molti nemmeno ti rispondono più perchè ti hanno messo nella ignore list, rendiamoci conto.
Be', ma sei tu che hai detto che con più banda i 4GB erano gestiti meglio. Quindi ho hai risposto a caso senza considerare che l'argomento è la capacità e non la banda, oppure se hai tentao una giustificazione semplicemente dimostri di non aver capito come funziona una RAM che fa da buffer tra la GPU e la memoria di sistema.
Be', ma sei tu che hai detto che con più banda i 4GB erano gestiti meglio. Quindi ho hai risposto a caso senza considerare che l'argomento è la capacità e non la banda, oppure se hai tentao una giustificazione semplicemente dimostri di non aver capito come funziona una RAM che fa da buffer tra la GPU e la memoria di sistema.
Non è che ho risposto a caso: è che secondo me, per le ragioni che ho detto, 4GB non sono un limite ed ho fatto le mie considerazioni al riguardo, come diversi altri prima di me nei post addietro.
KampMatthew
26-06-2015, 14:23
vabbè gente, tanto tra poco si cominceranno a vedere sul forum e basterà poco per fare un paio di test. Alla fine qui argomentazioni tecniche di un certo spessore non le ha date nessuno. :asd:
Indianarei
26-06-2015, 14:35
scommessa che se la prossima top nvidia oltre al nuovo processo produttivo a 16nm monterà 4gb di memorie hbm2 sarà fatta santa subito? :sofico:
scommessa che se la prossima top nvidia oltre al nuovo processo produttivo a 16nm monterà 3.5gb di memorie hbm2 veloci e 0,5GB di memorie hbm2 lente sarà fatta santa subito? :sofico:
*fixed*
In tutte i casi in cui un gioco manda in crisi una 980/290X, manderà in crisi anche la Fury. Non c'è HBM o miracolo che i fanboy sperano in questa tecnologia che possa aiutare a risolvere il problema della capacità. E siccome le schede con 4GB sono già al limite di andare in crisi (e anche se le metti in SLI con tutta la potenza che vuoi, sempre 4GB per i dati hanno, quindi il problema non è potenza di calcolo) quando si attivano certi effetti o si installano le texture HD (che tutti fanno finta di ignorare... certo, tutti con monitor 4K per usare le texture low res della FullHD! Che genialata!) l'uso della memoria vera non quella di precaching misurata da Afterburner, aumenta e sfora i 4GB.
In tutti i casi in cui un gioco manderà in crisi una Fury X, lo farà anche con la 980 Ti e Titan X, non sarà il quantitativo di memoria aggiuntivo a fare la differenza.
scommessa che se la prossima top nvidia oltre al nuovo processo produttivo a 16nm monterà 4gb di memorie hbm2 sarà fatta santa subito? :sofico:
Ti piace vincere facile :O
PaulGuru
26-06-2015, 15:08
Potrebbe essere che essendo più veloce come banda e memorie, subisca meno gli effetti collaterali della VRam satura.
Ad esempio io con GTA5 ho notato che se sforo la VRAM con la 780ti, non cambia poi molto, un leggero pop up di poligoni e texture, ma dura solo un paio di frame, cosa appena percettibile.
Mentre invece sforando con la 960,, il ritardo nella generazione dei poligoni è abissale, anche un paio di secondi!
Sarei proprio curioso di vedere girare GTA5 in 4k con una (o due) Fury X, per scoprire se 4gb possono bastare veramente...
Se necessita di più RAM swappa, dipende anche in che misura swappi però.
Se per caso superi i 4GB di VRAM di certo non puoi crearne di nuovi, semplicemente swapperà.
Ma poi mi chiedo: qualcuno è in grado di portare un esempio dove la vram è limitante?
Non a parole, un link a un bench dove la vram è piena e crea problemi o cali di prestazioni.
Perchè qua mi sembra che parliamo dello jeti, tutti ne parlano ma nessuno lo ha mai visto.
Io un po' vecchi li ho trovati.
http://www.wsgf.org/book/export/html/1340
L'ho già scritto 7 volte! :p
Esempio GTA5, ecco cosa accade quando si supera la vram, questo è successo con una gtx 960gtx 2gb in 1920x1200, ma la stessa cosa succede in 4k con uno SLI di 970gtx 4(o 3,5)gb, anche se era comunque decisamente pià veloce a ricostruire la scena.
http://i.imgur.com/4BvNlzdl.jpg (http://imgur.com/4BvNlzd)
http://i.imgur.com/CieLtFvl.jpg (http://imgur.com/CieLtFv)
http://i.imgur.com/6Zbn6sul.jpg (http://imgur.com/6Zbn6su)
http://i.imgur.com/3JBPbZ0l.jpg (http://imgur.com/3JBPbZ0)
Se con la Futy X non succede, allora mi rimangio tutto quello che ho detto e potrei comprarmene anche un paio! :p
CrapaDiLegno
26-06-2015, 15:13
scommessa che se la prossima top nvidia oltre al nuovo processo produttivo a 16nm monterà 4gb di memorie hbm2 sarà fatta santa subito? :sofico:
Se le monta su una scheda destinata al 4K, sarà presa a calci in faccia in maniera uguale, HBM si o no.
Tnx.
Però tornando a quando ho scritto poco fa, a me con la mia cacchetta di HD6850 1GB non fa così, mi carica tutte le texture immediatamente ma è come se fosse a risoluzione minore, poi dopo 1 istante diventano normali.
Mai visto pezzi mancanti a quel modo e con risoluzione più alta di 1080p e solo 1GB... mah.
Non a GTA5 però eh... magari le texture sono più leggere.
Solo su GTA5 fa quell'effetto, Shadow Of Mordor invece sempre in 4k con SLI di 970x se si impostano le texture HD (che in 4k su un 65'' sarebbero un must) stuttera davvero pesantemente.
Se poi ci piace moddare non ne parliamo, quando avevo la 670 4gb avevo moddato Skyrim fino ad occupare 3,9gb ed era splendido, ma quando poi sono passato alla 780ti 3gb ovviamente era diventato ingiocabile. :cry:
E ci son setup che superano anche gli 8gb...
Schede destinate al 4K esistono?
Secondo me è questo il punto.
Se si considera fury X per il 4K (ma anche titan X e 980ti) allora forse 4GB non bastano.
Ma secondo me per giocare a 4K non bastano comunque, manco con 100GB di vram.
Una sola forse no, perlomeno non con tutti i giochi (ma per tantissimi giochi basta e avanza, non tutti pretendono 60fps sempre e comunque).
Ma con un paio di GPU in SLI/CF allora il 4k diventerebbe tranquillamente alla portata di tutti i giochi, a parte quelli ottimizzati con i piedi che purtroppo come Batman ha dimostrato ci saranno sempre.
Ma poi mi chiedo: qualcuno è in grado di portare un esempio dove la vram è limitante?
Non a parole, un link a un bench dove la vram è piena e crea problemi o cali di prestazioni.
Perchè qua mi sembra che parliamo dello jeti, tutti ne parlano ma nessuno lo ha mai visto.
Io un po' vecchi li ho trovati.
http://www.wsgf.org/book/export/html/1340E' ovvio che più memoria è meglio che poca ed è sicuro che la cosa sia facilmente dimostrabile.
Ma qui il discorso è diverso, AMD ha scelto "scientemente" di puntare sulle memorie HBM, nonostante i costi e ben sapendo che ne avrebbe potuto utilizzare solo 4GB, un motivo ci sarà! Guarda caso 8GB di GDDR5 li ha riservati invece alle più economiche 390X...
Penso che una VGA la si debba valutare nel suo insieme, non fissandosi su singoli aspetti con le più astruse speculazioni che poi non trovano riscontro nella realtà dei fatti.
I fatti dicono (guardando vari test e dunque impostazioni e "parchi" giochi diversi) che è una VGA con prestazioni e consumi sovrapponibili a quelli della 980Ti (non sarà il singolo fps o qualche watt in più od in meno a modificare questo giudizio). E questa vicinanza penso sia dovuta al fatto che ormai con questo pp si sia arrivati al fondo del barile. Dunque ognuno può fare le sue scelte tranquillamente, valutando per esempio se gli serve l'HDMI 2.0 o se può tornargli più utile un buon raffreddamento a liquido.
Della differenza di memoria, personalmente, non me ne potrebbe fregare di meno, se poi i test non evidenziano prestazioni tali da far preferire un modello piuttosto che un altro.
Se solo il CF funzionasse veramente bene, potrei anche veramente fare un serio pensierino ad una coppia di 390x 8gb...
Ma a quanto leggo in giro (ed emerge anche da questa recensione con la 295x) è ancora la fiera dello stuttering. :cry:
Ma dato che costa la metà della fury X, ed ha il doppio di VRAM, un CF di 380x per chi vuole giocare in 4k senza spendere una follia, potrebbe essere la scelta migliore!
Da questa prova non sembra andare male, anche se gli FPS minimi rimangono bassini...
http://www.tweaktown.com/tweakipedia/91/amd-radeon-r9-390x-crossfire-4k/index.html
http://imagescdn.tweaktown.com/tweakipedia/9/1/91_411_amd-radeon-r9-390x-crossfire-4k.png
http://imagescdn.tweaktown.com/tweakipedia/9/1/91_441_amd-radeon-r9-390x-crossfire-4k.png
http://imagescdn.tweaktown.com/tweakipedia/9/1/91_431_amd-radeon-r9-390x-crossfire-4k.png
http://imagescdn.tweaktown.com/tweakipedia/9/1/91_451_amd-radeon-r9-390x-crossfire-4k.png
http://imagescdn.tweaktown.com/tweakipedia/9/1/91_471_amd-radeon-r9-390x-crossfire-4k.png
http://imagescdn.tweaktown.com/tweakipedia/9/1/91_481_amd-radeon-r9-390x-crossfire-4k.png
Che alla fine sia proprio la 390x la proposta AMD più interessante, anche se è stata oscurata dalla FuryX?
CrapaDiLegno
26-06-2015, 16:02
va beh ragazzi qual'è il problema, se sfora i 4gb verrà fatto un driver ad hoc come è stato fatto sulle 970 (rilasciato insieme a quello che ha fixato le performance su Kepler)
No. Se sfori la dimensione massima della VRAM non puoi fare nulla con i driver. I driver li puoi ottimizzare fino a che puoi usare la VRAM come cache (vedesi i consumi oltre i 4GB in alcune schede con memoria > 4GB che poi non provocano problemi quando si usano le stesse impostazioni con schede con soli 4GB, perché semplicemente cachano meno roba).
Ma se installi un pack di texture che richiedono più della VRAM disponibile, track. Sei fregato. Può aiutare in qualche caso la compressione, ma neanche questa fa miracoli. Infatti molti giochi con le texture HD a 4K sforano i 4GB e le schede che ne montano tale quantità vanno in crisi.
Anche nella recensione Corsini dice di aver avuto problemi con GTA V.
Aspetto sempre la recensione di Anandtech, che normalmente estende i test a situazioni che non sono le solite standard.
Test in 4K su Shadows of Mordor + Texture pack + FXAA:
http://www.tweakpc.de/hardware/tests/grafikkarten/radeon_r9_fury_x_vs_geforce_gtx_980_ti_benchmarks/s05.php?benchmark=mordor
Test in 4K su Shadows of Mordor + Texture pack + FXAA:
http://www.tweakpc.de/hardware/tests/grafikkarten/radeon_r9_fury_x_vs_geforce_gtx_980_ti_benchmarks/s05.php?benchmark=mordor
CVD ^^
Test in 4K su Shadows of Mordor + Texture pack + FXAA:
http://www.tweakpc.de/hardware/tests/grafikkarten/radeon_r9_fury_x_vs_geforce_gtx_980_ti_benchmarks/s05.php?benchmark=mordor
Ma non vedo gli FPS minimi, con uno SLI di 970 gira sui 60fps ma con delle stutterate frequenti e fastidiosissime, cosa che con texture "alte" non succede.
Senza un grafico accurato come questo (ma qui non specifica quali texture hanno utilizzato), certi test sono assolutamente inutili.
http://www.hwupgrade.it/articoli/skvideo/4398/mordor_4k_frame_time.png
Ma non vedo gli FPS minimi, con uno SLI di 970 gira sui 60fps ma con delle stutterate frequenti e fastidiosissime, cosa che con texture "alte" non succede.
Senza un grafico accurato come questo (ma qui non specifica quali texture hanno utilizzato), certi test sono assolutamente inutili.
Qui ci sono i minimi.
http://images.hardwarecanucks.com/image//skymtl/GPU/R9-FURY-X-2/R9-FURY-X-2-73.jpg
http://images.hardwarecanucks.com/image//skymtl/GPU/R9-FURY-X-2/R9-FURY-X-2-49.jpg
la Fury X non finisce mai sotto i fps minimi di una 390X 8GB, cosa che avverrebbe se la memoria fosse insufficiente.
Se riesci a trovare altri grafici, riportali pure :)
Qui ci sono i minimi.
http://images.hardwarecanucks.com/image//skymtl/GPU/R9-FURY-X-2/R9-FURY-X-2-73.jpg
http://images.hardwarecanucks.com/image//skymtl/GPU/R9-FURY-X-2/R9-FURY-X-2-49.jpg
la Fury X non finisce mai sotto i fps minimi di una 390X 8GB, cosa che avverrebbe se la memoria fosse insufficiente.
Se riesci a trovare altri grafici, riportali pure :)
Niente male allora... A sto punto sarei curioso sapere anche come si comporta con GTA5 in 4k, o meglio ancora vedere un confronto tra CF di Fury X e SLI di 980ti... :)
scusami, io non sono cosi tecnicamente preparato come te, ma uno altrettanto tecnicamente preparato mi ha detto che il driver rilasciato da nvidia (ma di cui non trovo il link anzi se lo avete sono curioso di leggerne la release note) che fixa il problema della vram della 970 praticamente quando si saturano i 3.5gb di vram gli altri 0.5 di vram si saturano a seguire e così viceversa e allora i software pensano "e allora che ha 4gb di vram veri?" e durante questa confusione generale saltano fuori i frames mancanti. Questa tecnica mi ha detto che si chiama bi-zona.
LOL, ma chi è questo altro utente, Oronzo Canà? :D
Dillo, ci stai trollando tutti!
PaulGuru
26-06-2015, 22:18
Tra l'altro se settiamo FXAAx16AF la fury passa abbondantemente la 980ti, interessante sta cosa.
Si certo episodi isolati.
Anche su certi bench gli FX superano gli intel.
:rolleyes:
La tanto proclamata GPU più potente del mondo va meno della 980Ti, ecco quale è l'unica verità.
Tra l'altro se settiamo FXAAx16AF la fury passa abbondantemente la 980ti, interessante sta cosa.
Dal test, la Fury migliora gradualmente, fino al sorpasso, sia abilitando FXAAx16AF che salendo di risoluzione.
Oh ma vi fa schifo fare dei test a 1080p? Su una scheda con 4 GB di memoria video tra l'altro.
bah
Flying Tiger
27-06-2015, 09:31
Oh ma vi fa schifo fare dei test a 1080p? Su una scheda con 4 GB di memoria video tra l'altro.
bah
Sono assolutamente daccordo con la tua considerazione , tra l' altro i 1080p sono ancora quelli di gran lunga più utilizzati e sarebbe stato interessante vedere come si comporta in questo contesto rispetto alla 980Ti ma anche a quella liscia e 780Ti....
:)
Oh ma vi fa schifo fare dei test a 1080p? Su una scheda con 4 GB di memoria video tra l'altro.
bah
Sono assolutamente daccordo con la tua considerazione , tra l' altro i 1080p sono ancora quelli di gran lunga più utilizzati e sarebbe stato interessante vedere come si comporta in questo contesto rispetto alla 980Ti ma anche a quella liscia e 780Ti....
:)
Andate nel thread ufficiale e troverete maggiori info al riguardo
PaulGuru
27-06-2015, 09:52
Non voglio dire che per questo allora è una figata, solo che forse è troppo presto per liquidarla. :D
Nessuno sta liquidando niente.
Non ha rispettato le aspettative.
Kommodore64
27-06-2015, 10:13
Oh ma vi fa schifo fare dei test a 1080p? Su una scheda con 4 GB di memoria video tra l'altro.
bah
http://tpucdn.com/reviews/AMD/R9_Fury_X/images/perfrel_1920.gif
Ale55andr0
27-06-2015, 12:40
secondo me la AMD ha fatto un errore di marketing, invece di fare spacconate del tipo piu veloce della titan, piu veloce di un 10% dell gtx 980ti ecc.. avrebbero dovuto puntare di più sull'evoluzione della scheda, interamente raffreddata a liquido, nuove memorie integrane nel chip grafico, molto margine di sviluppo futuro per la nuova gpu e non sto parlando solo di driver, molto frasche anche dopo molte ore di gioco...su questa ha un grosso margine di vantaggio sulla nvidia..poi alla fine va "quasi" come una gtx 980ti e costa anche un po meno...
insomma doveva pubblicizzare la fuffa (cosa che peraltro ha fatto) sperando che noi, scemi, ce ne sbattesismo delle prestazioni (cosa vui che contino :asd:). Beh, non è così. La nuovissima top , una scheda rivolta agli entusiasti e non ai casualoni, la attendevamo per le prestazioni, non per le pippe tecnologiche se fini a se stesse e non votate alle prestazioni, tecnologie che non le hanno permesso ne di battere, ne di pareggiare (sic!) la rivale, in nessun ambito, ne prestazionale, ne di efficienza energetica. "Alla fine va quasi come una 980ti" non si può sentire dopo tutto questo tempo, i numeri e le premese, è un fail colossale per le mire che aveva sta vga. Semplicemente ridicolo poi il margine che ha sulla 390 alle risoluzioni standard (1080 e 1440) con 4000sp, tutta quella banda e l'architettura gcn 1.2, doveva VOLARE rispetto alle sorelle. Hanno cannato, punto. SUl raffreddamento poi non scherziamo, anche un cane potrebbe fare un uscire una versione a liquido della 980, non è certo quella una feature esclusiva o di rilievo per far scegliere una vga inferiore su tutta la linea
roccia1234
27-06-2015, 13:26
La 980ti ha già visto due release driver ad hoc (che però continuano a crashare a valanga ogni volta che si apre Chrome, gg al "miglior supporto driver al mondo" cit.), la Fury X zero. Non fate i bimbetti amanti del marchio e aspettate di vedere come, se e quanto la situazione migliorerà con nuove release. Per il momento è meglio la 980ti, ma vuol dire tutto e niente.
Ma cosa vuoi, spalare emme su AMD ed esaltare i driver nvidia va di moda, e se lo fai sei un figo (o ti puoi sentire tale).
Se fossero i driver AMD a crashare di continuo, se ne leggerebbe dappertutto, con articoli e servizi pure sui tg. Ma visto che accade ad nvidia, tutto sta quasi passando in sordina.
Ah, non è solo chrome, ma anche TW3 ha notevoli problemi di crash con nvidia (assenti o molto inferiori su amd).
Free Gordon
27-06-2015, 13:45
Testato per bene l'OC dei componenti hw? (Se c'è)
Strani tutti questi crash (su AMD o Nvidia che siano..)
Testato per bene l'OC dei componenti hw? (Se c'è)
Strani tutti questi crash (su AMD o Nvidia che siano..)
Ci sono e sono stati finalmente "ammessi" da nVidia, che ieri ha rilasciato degli hotfix (che sembrano risolvere il problema di chrome a circa il 50% degli utenti), mentre su TW3 molti crashano comunque.
Dicono sia relativo a dei "timings" interni dei driver, ma siamo OT qua, quindi non mi dilungo.
Spaccamondi
27-06-2015, 14:18
Comincio a pensare seriamente che il video con il logo "nvidia" abbia dei messaggi subliminali.
Tiriamo le somme, la maggior parte dei giochi usa almeno 2 sofwtare proprietari e closed source di NVIDIA (hairworks e physx). Storicamente physx si è dimostrato volutamente lento (fino a un paio di anni fa continuava ad usare istruzioni x87 invece di SSE), inoltre c'è stata parecchia disinformazione poichè il software fisico più lento è sempre stato Physx (Quando è uscito physx c'era Newton che era più veloce di almeno un 40% in tutti i benchmark, e anche TUTT'OGGI Newton è un filino più veloce di physx senza contare che physx ha alcuni design flaw come un limite di 65k colliders, in pratica qualunque engine developer sano di mente o usa Newton, oppure passa ad una soluzione completa con Havok, poi ovviamente nessuno si fa i benchmark in casa e da retta solo ai rumors).
Ora se ipotizziamo che hairworks abbia fatto lo stesso giochetto, è onestamente un miracolo che AMD sia riuscita a tirare fuori una scheda che alle alte risoluzioni sia pari alla concorrente in quanto a prestazioni, senza contare che i giochi odierni sono ottimizzati appositamente per la concorrente, mentre per AMD non ci sono ancora ottimizzazioni (ne da parte dei driver, ne da parte dei giochi), inoltre se sono stati abbastanza furbi da lasciare "bloccate" alcune prestazioni che si sbloccheranno magicamente con i prossimi drivers sarebbe un bel colpetto contro NVIDIA (anche se la vedo dura perchè con il 75% circa di share può fare quello che vuole).
Da programmatore grafico penso che se potessi mettere le mani su entrambe le schede e potessi avere il tempo di ottimizzare per entrambe su quella AMD un 5-10% di performance in più si può spremere specialmente in post-processing). Poi ovviamente dal punto di vista pratico, ottimizzerei soltanto quello che il market manager mi dice che vale la pena di ottimizzare e quindi nella realtà le cose vanno diversamente.
filo mc-ati crossfire
27-06-2015, 14:27
Comincio a pensare seriamente che il video con il logo "nvidia" abbia dei messaggi subliminali.
Tiriamo le somme, la maggior parte dei giochi usa almeno 2 sofwtare proprietari e closed source di NVIDIA (hairworks e physx). Storicamente physx si è dimostrato volutamente lento (fino a un paio di anni fa continuava ad usare istruzioni x87 invece di SSE), inoltre c'è stata parecchia disinformazione poichè il software fisico più lento è sempre stato Physx (Quando è uscito physx c'era Newton che era più veloce di almeno un 40% in tutti i benchmark, e anche TUTT'OGGI Newton è un filino più veloce di physx senza contare che physx ha alcuni design flaw come un limite di 65k colliders, in pratica qualunque engine developer sano di mente o usa Newton, oppure passa ad una soluzione completa con Havok, poi ovviamente nessuno si fa i benchmark in casa e da retta solo ai rumors).
Ora se ipotizziamo che hairworks abbia fatto lo stesso giochetto, è onestamente un miracolo che AMD sia riuscita a tirare fuori una scheda che alle alte risoluzioni sia pari alla concorrente in quanto a prestazioni, senza contare che i giochi odierni sono ottimizzati appositamente per la concorrente, mentre per AMD non ci sono ancora ottimizzazioni (ne da parte dei driver, ne da parte dei giochi), inoltre se sono stati abbastanza furbi da lasciare "bloccate" alcune prestazioni che si sbloccheranno magicamente con i prossimi drivers sarebbe un bel colpetto contro NVIDIA (anche se la vedo dura perchè con il 75% circa di share può fare quello che vuole).
Da programmatore grafico penso che se potessi mettere le mani su entrambe le schede e potessi avere il tempo di ottimizzare per entrambe su quella AMD un 5-10% di performance in più si può spremere specialmente in post-processing). Poi ovviamente dal punto di vista pratico, ottimizzerei soltanto quello che il market manager mi dice che vale la pena di ottimizzare e quindi nella realtà le cose vanno diversamente.
come non quotarti in tutto!
Strato1541
27-06-2015, 14:45
Penso che intendesse di pubblicizzarla senza fare confronti con al concorrenza.
Alla fine che sia +-10% della 980ti interessa solo ad un gruppo ristretto di persone (anche si qui sono la maggioranza).
Se presentavano la fury x come la loro nuova scheda top di gamma senza fare gli sboroni ad un prezzo di lievemente più basso della 980ti (cosa che poi sarà comunque perchè adesso sappiamo il prezzo di listino ma in negozio sarà meno) ne vendevano comunque senza fare la figura degli sboroni.
Ora ne venderanno comunque perchè di fatto è una buona scheda anche se non è a livello dell 980ti.
Ma poi qua ci sono i goloidi che se va lo 0.2% in meno della concorrenza è una caccapupù :asd:
A seguire sti ragionamenti chi la compra una 980? o una 970? o le r9 300? Sono tutte inferiori alla 980ti.
E poi perchè dovrei comprare una 980ti se c'è la titan X che è meglio?
:asd:
P.S: io comunque aspetto le recensioni della fury nano :ciapet:
Quanto si parla di schede top, va già sa sè che si tratti di un mercato di nicchia..Quindi se prendiamo il mercato di nicchia e facciamo una interrogazione ecco che considerando solo essa ne esce che interessa a molti potenziali clienti, che saranno ben diversi dalla fascia media e da quella bassa.
Nella seconda parte sembra che perdi totalmente il filo, produrre la scheda più potente non è solo dimostrazione di forza ma anche di immagine, dato che chi la acquisterà lo farà perchè cerca il massimo ( massimo senza compromessi con l'attuale tecnologia), inoltre potrà vantarsi di averlo , aumentando apprezzamento verso il marchio che detiene tale "record".
Questa cosa avviene in tutti i settori, i numeri poi si fanno con la fascia media non con la fascia top chi compra la fascia media significa che cerca un compromesso tra le prestazioni e la spesa ( ecco perchè il tuo discorso non sta in piedi riguardo alla 980-70 390 etc)...
Mi spiace me si difende l'indifendibile, la fury x è una scheda veloce ma non è il top assoluto e nonostante vanti soluzioni innovative non supera, nè tanto meno eguaglia la concorrenza in quella fascia di prezzo, in un settore di nicchia dove l'importante è essere primi questo è un risultato non buono perchè la concorrenza resta da sola ad offrire le prestazioni più elevate così come era successo nelle ultime generazioni e come accade ancora più pesantemente nel settore cpu.
Ale55andr0
27-06-2015, 14:45
Alla fine che sia +-10% della 980ti interessa solo ad un gruppo ristretto di persone (anche si qui sono la maggioranza).
ma manco per sbaglio , perchè il ristretto gruppo che aspettava questa scheda è interessato PRINCIPALMENTE alle prestazioni (e non mi venire a dire che non è così, mentiresti sapendo di mentire). Hai presente gli entusiasti, gli appassionati, ecco...a LORO è dedicata questa vga, non ergo non ci stanno santi, e stucchevole leggere le solite difese d'ufficio che fanno acqua da tutte le parti. Ad oggi no nci stanno giustificazioni di sorta per non spendere una 50 e portarsi a casa una scheda più veloce, più parca e con più ram (980ti), solo ed eslusivamente un fanboy potrebbe scegliere la fury anche alla luce di quanto sia ridicolo il gap con la 390x stanti i numeri in gioco dell'architettura (cosa che fa davvero cheidersi cosa, dimanine, hanno combinato in AMD tutto questo tempo a parte propinarci ancoral a medesima architettura da eoni e autoreferenziarsi sul prodotto più veloce al mondo :rolleyes:)
Ma poi qua ci sono i goloidi che se va lo 0.2% in meno della concorrenza è una caccapupù :asd:
peccato che le differenze non siano certo dello 0.2% ma sono be più elevate eper guinta alle risoluzioni più usate (1080 e 1440) ogni volta per difendere ste schede si arrotonda a comodo in maniera piuttosto generosa, peccato che la realtà non sia così
A seguire sti ragionamenti chi la compra una 980? o una 970? o le r9 300? Sono tutte inferiori alla 980ti.
ma che discorso è? :doh: chi prende una 390 non è interessato a quanto vada una 980 ti essendo vga di un segmento commerciale diverso. Chi aspettava, e rispetto ASPETTAVA (o secondo te lo han fatto tanto per curiosità?) la SUPERTOP rosse non lo faceva certo sperando in una scheda scheda più lenta della controparte ma quantomeno una vga che se la giocava alla pari
in un settore di nicchia dove l'importante è essere primi questo è un risultato non buono perchè la concorrenza resta da sola ad offrire le prestazioni più elevate così come era successo nelle ultime generazioni e come accade ancora più pesantemente nel settore cpu.
Significa che se con i nuovi driver AMD riuscisse a guadagnare quel piccolo margine che al momento le manca per superare la 980Ti (tra l'altro, anche adesso, superiore non in tutti i giochi e situazioni), e se, come da alcuni ipotizzato, guadagnerà poi qualcos'altro con le Dx12, la 980Ti diventerà una scheda inutile?
Cioè, sul serio pensi che basti così poco per far decidere per una scheda al posto di un'altra e che tutti i verdi correrebbero a comprare la rossa?
Io penso che la cosa sposterebbe di pochissimo la situazione attuale, le due case hanno quote di mercato che tali rimarrebbero sia nel caso di supremazia di una che dell'altra VGA.
Strato1541
27-06-2015, 15:31
Significa che se con i nuovi driver AMD riuscisse a guadagnare quel piccolo margine che al momento le manca per superare la 980Ti (tra l'altro, anche adesso, superiore non in tutti i giochi e situazioni), e se, come da alcuni ipotizzato, guadagnerà poi qualcos'altro con le Dx12, la 980Ti diventerà una scheda inutile?
Cioè, sul serio pensi che basti così poco per far decidere per una scheda al posto di un'altra e che tutti i verdi correrebbero a comprare la rossa?
Io penso che la cosa sposterebbe di pochissimo la situazione attuale, le due case hanno quote di mercato che tali rimarrebbero sia nel caso di supremazia di una che dell'altra VGA.
Sulla storia dei driver un po sorvolo, ho avuto generazioni e generazioni di gpu sia "verdi" che "rosse", a parte la correzione di alcuni bug non ho mai visto miglioramenti cosi eclatanti, quindi la situazione possiamo dire che resterà questa +-5% ?
Detto questo io mi riferisco alla Titan X era quella scheda da battere, dato che è quella il top singola gpu, direi che è impossibile superarla.
Se fosse uscito qualcosa da piazzare lì e una fury liscia a competere con la 980ti ( ovviamente con le adeguate quantità di ram), allora sarebbe stato diverso.
Per il resto sarà il mercato a dire la sua , tra l'altro guardando la serie storica della suddivisione dello stesso, mai come nell'ultimo anno nvidia e amd sono state così lontane ( a sfavore di amd)
http://www.eurogamer.it/articles/2015-04-19-news-videogiochi-un-grafico-mostra-la-divisione-del-mercato-delle-gpu-tra-nvidia-e-amd
I continui ritardi nella presentazione delle gpu e i rebrand che vanno avanti a tutto spiano non hanno premiato fino ad ora.
La fury x che non supera la concorrenza, con meno ram e un prezzo elevato non sarà di aiuto alla risalita (negli ultimi 4 anni hanno presentato solo 2 core di punta mentre il resto della gamma resta invariata dai tempi della serie 7XXX) peggio ancora hanno fatto con le cpu..
Per recuperare bisogna che crei una linea completa e competitiva in tutto e per tutto, senza se e senza ma..
Strato1541
27-06-2015, 15:35
azz' i fanboy a volte non peggio dei vegani :asd:
Prova a confutare quanto detto da me con dimostrazioni attendibili e poi ne riparleremo.
Appioppare etichette da "bimbi" in un forum tecnico e in mezzo a discorsi fondati e seri direi che da credibilità zero.
Il tutto solo per screditare la verità, solo perchè non piace...Il che porta a rivoltare l'infantile termine verso che l'ha espresso..
tuttodigitale
27-06-2015, 15:45
Un po' di considerazioni generali sulla scheda (& concorrenti)
1) L'architettura è GCN 1.2, stessa della 285 - ovviamente con shader ritoccati. Non dice niente a nessuno? Si diceva GCN 2, poi quando è stato confermato il processo produttivo 28nm si era parlato di 1.3, ma alla fine è rimasta 1.2. Non credo che in tutto questo tempo AMD non abbia avuto migliorie anche minori a livello di architettura, mi vien da pensare (e onestamente sperare, per virtù di concorrenza) che abbiano alla fine deciso di "tenere nascosto" qualcosa per il prossimo processo produttivo, o che effettivamente un processo più raffinato sia necessario per "mettere in pratica" la nuova architettura. Vero, Fury X è una nuova scheda e ha cambiato memorie, ma architetturalmente è una "old gen" pompata, non una nuova architettura come Maxwell.
Maxwell a livello di architettura non è certo una rivoluzione rispetto a kepler, il più grande cambiamento oltre ad una ridistribuzione delle risorse è la compressione dei dati, novità che è stata introdotta solo con Tonga (che peraltro rimane il mistero sul perchè non vengono utilizzati i 2048sp e 384 bit e 48ROPs).
Test alla mano AMD su color compression ha lavorato peggio di nvidia (a onor di cronaca una prima seppur migliorabile implementazione era presente fin da kepler, che portava ad un risparmio del 10-12% ), e a complicare le cose c'è il fatto che hawaii era un chip assetato di bandwidth, nonostante il valore era elevato in assoluto, era comunque limitato.
Modifiche minori come aumento della cache l2, non sono certo quelle che fanno cambiare radicalmente il quadro complessivo.
AMD ha anche dichiarato che avevano solo 4mmq di margine per usare le memorie HBM. Probabilmente il progetto originale prevedeva un numero di ROPs maggiori (Tonga a quanto pare ne ha 48 per 2048sp) limitando non poco il fill rate.
Detto questo Fiji è next gen, come dimostra l'efficienza in linea con le soluzioni più recenti di nvidia.
2) Detto questo, il miglioramento in efficienza energetica è notevole, sicuramente aiutato non poco dalle nuove ram. Le quali, come tra l'altro immaginavo, non portano benefici sul piano degli fps puri, ma in quanto a stabilità dei frame sì, e questo si evince in TUTTE le recensioni. Fury X è stabilissima riguardo il tempo di rendering dei frame generati, e spero che come impressione questa sia confermabile dal sig. Corsini. Se non erro era un difetto spesso imputato ad alcune revisioni di schede AMD. Quindi in questo campo che dire? Semplicemente bene!
Le ram hanno aiutato, ma il grande miglioramento è dovuto ad ampio uso di power gating. E questo vale anche per la controparte verde.
3) La differenza di prestazioni rispetto la GeForce 980Ti, che cambia a seconda della risoluzione... servirebbe un test per capire quale ipotesi sia esatta, ovvero se i driver AMD soffrono di un overhead maggiore di quelli nVidia - e quindi risultino più lenti in ogni campo dove la VGA non è sfruttata al 100% - o se le nuove memorie fanno così tanta differenza all'aumentare dei pixel da renderizzare. Vedendo i risultati di Mantle propenderei per la prima ipotesi, ma non posso averne la certezza. Certo è che con le Directx 12, Vulkan e Mantle non credo che AMD ora come ora abbia l'interesse - o i mezzi - per mettersi pure a riscrivere tutte le chiamate dei driver standard, dato che una scheda come la Fury X - ovviamente - non scende a livelli di ingiocabilità. Sarà interessante verificare se qualche gioco aggiornerà le chiamate DX11 alle 12, senza aggiungere effetti, questo potrebbe darci qualche risposta.
La Fury mostra i muscoli proprio dove il fill rate dovrebbe limitarla: nel UHD, probabilmente il pixel fill rate è sufficientemente elevato.
Sono le GeForce a presentare un collo di bottiglia maggiore (teniamo a mente che parliamo solo del 5% tra la 980ti e la Fury X), e questo dovrebbe essere attribuibile alla "ridotta" potenza di calcolo delle ALU.
Se così fosse è estremamente probabile che la fury liscia a parità di clock possa avere prestazioni praticamente identiche alla X.
Quella dei driver potrebbe essere una spiegazione: non è certo un segreto (vedi anche recensioni dx11 vs Mantle) che le soluzioni nvidia richiedono meno potenza alla cpu per esprimere il massimo potenziale, tuttavia le prestazioni sarebbero scalate in maniera certamente diversa al variare della risoluzione.
Per chi ha parlato di ottimizzazione driver di una e dell'altra scheda... lato AMD c'è un chip "vecchio" ma un memory controller - immagino - completamente nuovo. Lato nVidia 980Ti... abbiamo sì una scheda uscita da pochissimo, ma con un'architettura di base identica alle 970 e 980 liscie, quindi di 9 mesi fa. Onestamente credo possa - per questo - migliorare un po' di più la Fury X di quanto possa farlo la 980Ti, però ovviamente la rivoluzione che hanno subito le Radeon 7000 dal lancio ad oggi non credo sia fattibile - GCN 1.x è GCN 1.x, e ormai lo conoscono bene.
Lato driver, bisogna ricordarsi che se la mettiamo sull'anzianità delle rispettive tecnologie, da una parte GCN 1.2 ha debuttato con Tonga (settembre 2014) dall'altra Maxwell con GM107 (febbraio 2014). Bisogna considerare:
1) il MC del tutto nuovo
2) la relativa lentezza di AMD nel proporre driver che sfruttano per intero le prestazioni della scheda,
3) AMD ha lanciato probabilmente con qualche settimana di anticipo la sua top di gamma per far fronte alla minaccia rappresentata dalla 780ti (anandtech e tanti altri siti importanti non hanno neppure ricevuto la scheda).
4) le vere prestazioni si vedranno con il debutto della Fury liscia.
Ma cavolo, chi davvero si sarebbe aspettato che la fury X sarebbe stata una scheda da 275W? L'efficienza energetica raggiunta da AMD supera le più rosee aspettative.
Sulla storia dei driver un po sorvolo, ho avuto generazioni e generazioni di gpu sia "verdi" che "rosse", a parte la correzione di alcuni bug non ho mai visto miglioramenti cosi eclatanti, quindi la situazione possiamo dire che resterà questa +-5% ?
Detto questo io mi riferisco alla Titan X era quella scheda da battere, dato che è quella il top singola gpu, direi che è impossibile superarla.
Se fosse uscito qualcosa da piazzare lì e una fury liscia a competere con la 980ti ( ovviamente con le adeguate quantità di ram), allora sarebbe stato diverso.
Per il resto sarà il mercato a dire la sua , tra l'altro guardando la serie storica della suddivisione dello stesso, mai come nell'ultimo anno nvidia e amd sono state così lontane ( a sfavore di amd)
http://www.eurogamer.it/articles/2015-04-19-news-videogiochi-un-grafico-mostra-la-divisione-del-mercato-delle-gpu-tra-nvidia-e-amd
I continui ritardi nella presentazione delle gpu e i rebrand che vanno avanti a tutto spiano non hanno premiato fino ad ora.
La fury x che non supera la concorrenza, con meno ram e un prezzo elevato non sarà di aiuto alla risalita (negli ultimi 4 anni hanno presentato solo 2 core di punta mentre il resto della gamma resta invariata dai tempi della serie 7XXX) peggio ancora hanno fatto con le cpu..
Per recuperare bisogna che crei una linea completa e competitiva in tutto e per tutto, senza se e senza ma..
E dagli con 'sto "meno RAM".
Parliamo di memorie diverse e di scelte diverse. Mica è un problema dotare le VGA di più memoria, AMD ha volutamente puntato sulle HBM anche se per forza di cose in quantità minore, ma le GDDR5 in quantità di 8Gb AMD le ha messe.... sulla scheda economica, e un motivo ci sarà ^^
Relativamente alla TitanX, è una inutile esercitazione di stile a cui ci ha abituato Nvidia, con un pessimo rapporto prestazioni/prezzo, presa in considerazione solo dai fan più accaniti, tutti gli altri un'occhiatina al prezzo la danno. Le prime Titan venivano battute dalle 780Ti, nonostante ciò mantenevano il prezzo, la cosa veniva giustificata dagli "estimatori" in quanto, dicevano, non erano schede da gioco. Ora lo sono diventate?
Le VGA Top da gioco che contano, al momento, sono appunto le 980Ti e le Fury X, se poi AMD avesse fatto una VGA in grado di battere le TitanX al prezzo di una 980Ti, ovviamente sarebbe stato interessante, lo sarebbe stato meno se per farlo avesse dovuto alzare di troppo i prezzi.
E dagli con 'sto "meno RAM".
Parliamo di memorie diverse e di scelte diverse. Mica è un problema dotare le VGA di più memoria, AMD ha volutamente preferito le HBM in quantità minore, ma le GDDR5 in quantità di 8Gb AMD le ha messe.... sulla scheda economica, e un motivo ci sarà ^^
Relativamente alla TitanX, è una inutile esercitazione di stile a cui ci ha abituato Nvidia, con un pessimo rapporto prestazioni/prezzo, presa in considerazione solo dai fan più accaniti, tutti gli altri un'occhiatina al prezzo la danno. Le prime Titan venivano battute dalle 780Ti, nonostante ciò mantenevano il prezzo, la cosa veniva giustificata dagli "estimatori" in quanto, dicevano, non erano schede da gioco. Ora lo sono diventate?
Le VGA Top da gioco che contano, al momento, sono appunto le 980Ti e le Fury X, se poi AMD avesse fatto una VGA in grado di battere le TitanX al prezzo di una 980Ti, ovviamente sarebbe stato interessante, lo sarebbe stato meno se per farlo avesse dovuto alzare di troppo i prezzi.
Mi risulta non sia stata una scelta ma una limitazione legata all'attuale tecnologia hbm. La scelta è stata quella di adoperarle ugualmente piuttosto che 8GB GDDR5, anche perchè ne sarebbe uscita una scheda troppo simile a tonga con 8GB. In ogni caso per la tipologia di memoria, allo stato attuale, non lo vedo come un limite.
Mi risulta non sia stata una scelta ma una limitazione legata all'attuale tecnologia hbm. La scelta è stata quella di adoperarle ugualmente piuttosto che 8GB GDDR5, anche perchè ne sarebbe uscita una scheda troppo simile a tonga con 8GB. In ogni caso per la tipologia di memoria, allo stato attuale, non lo vedo come un limite.Ho corretto poco prima del tuo mex, in maniera che si capisse meglio il concetto.
Intendevo dire che AMD ha puntato sulle HBM pur sapendo che sarebbe stata limitata a 4Gb, dunque si tratta di una scelta.
Ho corretto poco prima del tuo mex, in maniera che si capisse meglio il concetto.
Intendevo dire che AMD ha puntato sulle HBM pur sapendo che sarebbe stata limitata a 4Gb, dunque si tratta di una scelta.
Ci siamo capiti, tranqui ;)
Maxwell a livello di architettura non è certo una rivoluzione rispetto a kepler, il più grande cambiamento oltre ad una ridistribuzione delle risorse è la compressione dei dati, novità che è stata introdotta solo con Tonga (che peraltro rimane il mistero sul perchè non vengono utilizzati i 2048sp e 384 bit e 48ROPs).
Test alla mano AMD su color compression ha lavorato peggio di nvidia (a onor di cronaca una prima seppur migliorabile implementazione era presente fin da kepler, che portava ad un risparmio del 10-12% ), e a complicare le cose c'è il fatto che hawaii era un chip assetato di bandwidth, nonostante il valore era elevato in assoluto, era comunque limitato.
Modifiche minori come aumento della cache l2, non sono certo quelle che fanno cambiare radicalmente il quadro complessivo.
AMD ha anche dichiarato che avevano solo 4mmq di margine per usare le memorie HBM. Probabilmente il progetto originale prevedeva un numero di ROPs maggiori (Tonga a quanto pare ne ha 48 per 2048sp) limitando non poco il fill rate.
Detto questo Fiji è next gen, come dimostra l'efficienza in linea con le soluzioni più recenti di nvidia.
Innanzitutto grazie perché è piacevole parlare e discutere in modo civile e sensato!
Sul fatto che Fiji sia next gen concordo assolutamente, mi sembra che molti si stiano dimenticando che siamo da anni fermi ai 28nm, e sia AMD che nVidia con le ultime schede hanno fatto qualcosa di eccezionale secondo me rispetto alle prime gpu uscite con questa tecnologia. Il limite sulle ROPs di Fiji è evidente, e immaginavo fosse dovuto appunto ad un limite di grandezza del chip e/o di resa.
Le ram hanno aiutato, ma il grande miglioramento è dovuto ad ampio uso di power gating. E questo vale anche per la controparte verde.
Che tu sappia stesse cose usate per la R285 o hanno fatto un ulteriore passo in questo senso? Sono interessato a capire quanto diverso da GCN 1.2 "base" questo chip sia, oltre ovviamente al Memory Controller.
La Fury mostra i muscoli proprio dove il fill rate dovrebbe limitarla: nel UHD, probabilmente il pixel fill rate è sufficientemente elevato.
Sono le GeForce a presentare un collo di bottiglia maggiore (teniamo a mente che parliamo solo del 5% tra la 980ti e la Fury X), e questo dovrebbe essere attribuibile alla "ridotta" potenza di calcolo delle ALU.
Se così fosse è estremamente probabile che la fury liscia a parità di clock possa avere prestazioni praticamente identiche alla X.
Potrebbe essere che il raffreddamento a liquido sia utile ANCHE a differenziare il settore di prezzo della liscia con la X, posto che la liscia con dissi standard quasi sicuramente avrà momenti di throttle, e quindi si dovrà andare di soluzioni custom.
Quella dei driver potrebbe essere una spiegazione: non è certo un segreto (vedi anche recensioni dx11 vs Mantle) che le soluzioni nvidia richiedono meno potenza alla cpu per esprimere il massimo potenziale, tuttavia le prestazioni sarebbero scalate in maniera certamente diversa al variare della risoluzione.
Lato driver, bisogna ricordarsi che se la mettiamo sull'anzianità delle rispettive tecnologie, da una parte GCN 1.2 ha debuttato con Tonga (settembre 2014) dall'altra Maxwell con GM107 (febbraio 2014). Bisogna considerare:
1) il MC del tutto nuovo
2) la relativa lentezza di AMD nel proporre driver che sfruttano per intero le prestazioni della scheda,
3) AMD ha lanciato probabilmente con qualche settimana di anticipo la sua top di gamma per far fronte alla minaccia rappresentata dalla 780ti (anandtech e tanti altri siti importanti non hanno neppure ricevuto la scheda).
4) le vere prestazioni si vedranno con il debutto della Fury liscia.
Ma cavolo, chi davvero si sarebbe aspettato che la fury X sarebbe stata una scheda da 275W? L'efficienza energetica raggiunta da AMD supera le più rosee aspettative.
I driver AMD sì, effettivamente "subiscono" più la CPU, e non è la prima volta che le schede AMD perdono meno terreno salendo di risoluzione - con Fury la cosa è solo più evidente.
Per quanto riguarda la possibile ottimizzazione driver non me la sento di esprimermi, perché, appunto, le architetture nVidia e AMD ormai non sono nuove, giusto il memory controller lo è - e dal punto di vista prestazionale AMD può solo guadagnare visto il limite di utilizzo CPU.
Per l'efficienza energetica di GCN 1.2 abbinato a ram nuove su di una scheda di fascia top - perché comunque la fascia è quella - sono d'accordo, rispetto alla 290X è stato un lavoro incredibile. Come dissi tempo fa, è vero che la 980Ti consuma meno, ma è anche vero che PER ME la maggior espressione di Maxwell rigaurdo prestazioni/consumi/calore rimane la 980 liscia, che evidentemente è l'optimum per l'architettura.
tuttodigitale
27-06-2015, 21:27
LkMsWb
Tonga anche se sulla carta è in grado di superare tahiti del 20% a parità di clock, con caratteristiche equivalenti al vecchio chip ha mostrato consumi simili. AMD non ha lavorato sul power gating sulla prima incarnazione di gcn 1.2.
Sulle dimensioni del chip sappiamo che il limite è dato dalle dimensioni dell'interposer, posto sotto la gpu e le memorie hbm, pari a 1011mmq praticamente coincidenti con le dimensioni del reticolo usato nel processo litografico. Per superare tale limite bisognava far uso di esposizioni multiple che avrebbe fatto lievitare i costi. E' probabile che un chip con caratteristiche così in controtendenza (lo squilibrio venutasi a creare è praticamente opposto a quello di hawaii) sia nato per esigenze di produzioni.
Il raffreddamento a liquido da sempre è un gadget sfizioso e costoso. Da solo è in grado di differenziare la proposta X da quella liscia. Come dicevo sopra qualche ALU in meno non pregiudicherà certo le prestazioni visto che ad oggi, anche per l'evidente squilibrio dell'architettura, sono in parte sprecate.
Per chi non vuole il liquido attenda la Fury liscia.
Sui driver, oggi la differenza tra la gtx970/980 e le r9 290/x si è assottigliata. Per mezzo dei driver o nuovi titoli più vantaggiosi per le gpu Hawaii, questo non lo so.
Sui 4GB: il limite potrebbe rivelarsi tale solo in caso di crossfire. Queste schede sono appena sufficienti OGGI a far girare giochi in 4k, figuratevi se saranno in grado di farlo con giochi più esigenti di DOMANI.
Queste schede sono appena sufficienti OGGI a far girare giochi in 4k, figuratevi se saranno in grado di farlo con giochi più esigenti di DOMANI.Ma se così fosse, anche con i giochi odierni a 4K qualcosa si noterebbe, qualche segno di cedimento si dovrebbe vedere, all'aumentare della risoluzione. Invece nei test quello che risulta è che passando a 4K la FuryX migliora le prestazioni, riducendo il distacco con la 980Ti, a volte effettuando il sorpasso. L'impressione è l'esatto contrario, cioè che con l'aumentare della risoluzione, migliorino le prestazioni (relativamente alle altre VGA, ovviamente).
PaulGuru
28-06-2015, 01:11
Ma se così fosse, anche con i giochi odierni a 4K qualcosa si noterebbe, qualche segno di cedimento si dovrebbe vedere, all'aumentare della risoluzione. Invece nei test quello che risulta è che passando a 4K la FuryX migliora le prestazioni, riducendo il distacco con la 980Ti, a volte effettuando il sorpasso. L'impressione è l'esatto contrario, cioè che con l'aumentare della risoluzione, migliorino le prestazioni (relativamente alle altre VGA, ovviamente).
Dovrebbe essere davanti alla 980Ti, non ogni tanto o vicino.
PER ME la maggior espressione di Maxwell rigaurdo prestazioni/consumi/calore rimane la 980 liscia, che evidentemente è l'optimum per l'architettura.
per me , considerando che come hardware una 980Ti è aumentato di un 35% di shader , un 50% di ROPs, un 50% di TMU, un 50% di banda passante, per un aumento prestazionale ad alte risoluzioni mediamente del 36%, rispetto ad una 980 liscio:
http://abload.de/img/gtx-980ti-10-13pzsh1.jpg (http://abload.de/image.php?img=gtx-980ti-10-13pzsh1.jpg)
e che ha un consumo in gaming non molto più alto
http://abload.de/img/gtx-980ti-10-82alsml.jpg (http://abload.de/image.php?img=gtx-980ti-10-82alsml.jpg)
qui c'è un 18% di differenza
e con temperature che vanno per gli 80gradi su una 980 liscia, contro 84gradi su una 980 Ti
quindi la 980Ti non ha perso una mazza in efficienza ed è questa la massima espressione dell architettua Maxwell (e aggiungiamoci anche la Titan x va....) .
i consumi oer l ultima arrivata di AMD non sono malvagi, è l unica cosa che mi è piaciuta di sta scheda:
http://abload.de/img/power_idle0lj6y.gif (http://abload.de/image.php?img=power_idle0lj6y.gif) http://abload.de/img/power_average7vzm9.gif (http://abload.de/image.php?img=power_average7vzm9.gif) http://abload.de/img/power_maximum3ek31.gif (http://abload.de/image.php?img=power_maximum3ek31.gif)
http://abload.de/img/power_multimonxhj57.gif (http://abload.de/image.php?img=power_multimonxhj57.gif) http://abload.de/img/power_peak8bkjs.gif (http://abload.de/image.php?img=power_peak8bkjs.gif) http://abload.de/img/power_blurayzbsif.gif (http://abload.de/image.php?img=power_blurayzbsif.gif)
perché hanno fatto dei passi avanti notevoli rispetto ad Hawaii .
Certo la differenza di performance per watt è sempre a favore per la Nvidia senza dubbio, ma almeno non c'è una differenza imbarazzante come con Hawaii R9 vs maxwell GTX 970 - GTX 980.
certo che cmq il consumo in blu-ray fa storcere un po il naso, se comparato a quello della 980 ti eh..... però... magari lo risolveranno.
Sui 4GB: il limite potrebbe rivelarsi tale solo in caso di crossfire. Queste schede sono appena sufficienti OGGI a far girare giochi in 4k, figuratevi se saranno in grado di farlo con giochi più esigenti di DOMANI.
ma lo sai che penso io?
che fare tutte le volte il discorso "queste non sono adatte al 4K quella che uscirà la prossima volta lo sarà!!!"
ha poco senso....
perché puntualmente la prossima generazione dove ci saranno schede più potenti come presumo le GTX 1080 e le R9 Fury II, come al solito ci risaranno pure quei 3 - 4 giochi mattone che non si riuscirà a farli girare con alti frames e tutti gli effettini al max in 4K in singola, e quindi te ne serviranno 2. ed allora che si fa?? si torenà a dire per l ennesima volta che non va bene per il 4K aspettiamo la prossima generazione? un altra volta?ma tanto sarà sempre così.
la verità è che queste schede sono già pronte per il 4K da mo...nel periodo delle Kepler andavano in generale benone già una coppia di 780 OC, o meglio ancora di 780 ti o Titan varie. e dall'altra parte una coppia di 290 o meglio ancora 290x (nulla di così sconvolgente se ci pensate) il plus 3 schede di queste.
oggi con la coppia di 980 si va meglio ancora, con una coppia di 980Ti e di Fury si va di lusso generalmente... e si può giocarci anche in singola se si rinuncia a qualche effettino per niente impressionante e che leva un botto di frames come i capelli e peli fighi di un the witcher III ecc..
insomma ormai non c'è più nulla da aspettare... si può fare una config decente per quella risoluzione in tanti modi
per me , considerando che come hardware una 980Ti è aumentato di un 35% di shader , un 50% di ROPs, un 50% di TMU, un 50% di banda passante, per un aumento prestazionale ad alte risoluzioni mediamente del 36%, rispetto ad una 980 liscio:
qui c'è un 18% di differenza
e con temperature che vanno per gli 80gradi su una 980 liscia, contro 84gradi su una 980 Ti
quindi la 980Ti non ha perso una mazza in efficienza ed è questa la massima espressione dell architettua Maxwell (e aggiungiamoci anche la Titan x va....) .
Mi affido a techpowerup che fa i grafici comparativi fatti molto bene, a 1440p e 1080p:
http://tpucdn.com/reviews/AMD/R9_Fury_X/images/perfwatt_2560.gif
http://tpucdn.com/reviews/AMD/R9_Fury_X/images/perfwatt_1920.gif
La 980Ti è ammirevole come efficienza per una architettura top, ma ribadisco che l'optimum performance/prestazioni dell'architettura è la 980 - ciò non significa che comprerei la 980 rispettl alla 980 Ti eh, io ho la 970, onestamente non posso proprio permettermi di andare ancora sopra come prezzi. Potessi, effettivamente ad oggi reputo la 980 Ti più appetibile della liscia, al pari della Fury X per motivi differenti - sì, io sarei indeciso su quale acquistare, dato che non cambio scheda ogni 6 mesi, non ho interessi di 4k ma di Directx 12, Vulkan sì. Quindi sarei indeciso proprio perché non posso sapere in quanto tempo i titoli si adeguerannno, quanto andranno queste schede con le prossime librerie, il tutto aggiungendo che 1080p e 1440p sono giocabili senza problemi particolari con entrambe, benché una sia più lenta dell'altra (specie 1080p).
questa review da ragione a te.
dipende molto dalla rosa dei giochi testasti per le performance, e dal gioco scelto per il consumo in gaming.
io tra le due prenderei la 980ti perchè nel complesso la ritengo una gpu più riuscita
La Fury X mi ha deluso ma cmq questo non significa che la consideri addirittura incomprabile.
dico la mia :)
sto andando a memoria e chiedo scusa se sbaglio, non si era parlato che con le Dx 12 le memorie delle schede in CrossFire o Sli si raddoppiavano nel senso che si poteva usare tutta?...
Visto che si parla di 4k e una sola scheda video è limitante, il problema della memoria non si porrebbe in un futuro quando ci saranno de DX 12.
Pier2204
28-06-2015, 12:11
Tutti a sparare a zero su questa scheda, appena uscita e con possibili margini di miglioramento.
sta al 92% di una Titan X molto vicina a una 980Ti
Ora bisognerà vedere a quanto si troverà in commercio, il prezzo di uscita non lo considero neppure e sopratutto quanto potrà guadagnare in termini prestazionali con driver ottimizzati.
A proposito, la scheda da il meglio di se alle altissime risoluzioni, questo per dire quanto le discussioni dei soliti riguardo il limite dei 4 GB di Vram sia una panzana bella e grossa.
la scheda Radeon R9 Fury X guadagna terreno nei nostri test all'aumentare della risoluzione; questo mostra come, con le impostazioni utilizzate (che sono a 4K non tal da assicurare adeguata fluidità delle scene con tutte le schede), i 4 Gbytes di memoria video di questa soluzione non rappresentino un collo di bottiglia.
Per non parlare dei consumi che dovevano essere quelli di un formo, anche qui solo PANZANE.
Visti altri commenti dei Verdi qui mi sa che sta scheda è da osservare bene, per me riserva sorprese che smentiranno i soliti :asd:
PaulGuru
28-06-2015, 12:20
Tutti a sparare a zero su questa scheda, appena uscita e con possibili margini di miglioramento.
sta al 92% di una Titan X molto vicina a una 980Ti
Visti altri commenti dei Verdi qui mi sa che sta scheda è da osservare bene, per me riserva sorprese che smentiranno i soliti :asd:
Si osservare bene certo.
Intanto non solo non è davanti alle Nvidia ma è addirittura dietro pur consumando ed ingombrando di più.
Drivers miracolosi ? Continuare a svegliarsi sudati dai sogni a quanto pare non vi crea problemi ;)
PaulGuru
28-06-2015, 12:36
Ma poi qua ci sono i goloidi che se va lo 0.2% in meno della concorrenza è una caccapupù :asd:
Ti sei dimenticato di dire che questo modello era atteso come GPU più potente al mondo ;)
Piccolo particolare.
Perchè dovrei prendere questo modello quando la proposta Nvidia va di più, consuma meno, è meno ingombrante ed offre un supporto giochi migliore ?
Per il prezzo ? In pratica è una conferma che il riferimento del settore è ancora Nvidia.
PaulGuru, ma la tua è una crociata?
Consuma di più? Parliamo di consumi molto vicini, non parliamo delle differenze che c'erano con le altre serie, si tratta di differenze assolutamente trascurabili in prodotti di questo livello, sarebbe come decidere tra una Ferrari ed una Porsche, perché una fa un KM in più con un litro di benzina.
Il ripetere in continuazione il mantra dei consumi sa tanto di pretestuoso. Quando acquisti un monitor, se hanno consumi simili, vai a vedere se uno consuma 1 watt in più?
I consumi sono talmente vicini che cambiando recensione la FuryX diventa addirittura più parca nei consumi della 980Ti:
http://www.tomshw.it/data/thumbs/0/5/5/4/31-overview-idle-0ffb2280f42f1d0d4420a1a2a1465297b.jpghttp://www.tomshw.it/data/thumbs/0/5/5/4/32-overview-gaming-1592f06014b9a8dd3fdb89e113133e491.jpg
PaulGuru
28-06-2015, 12:44
PaulGuru, ma la tua è una crociata?
Consuma di più? Parliamo di consumi molto vicini, non parliamo delle differenze che c'erano con le altre serie, si tratta di differenze assolutamente trascurabili in prodotti di questo livello, sarebbe come decidere tra una Ferrari ed una Porsche, perché una fa un KM in più con un litro di benzina.
Il ripetere in continuazione il mantra dei consumi sa tanto di pretestuoso. Quando acquisti un monitor, se hanno consumi simili, vai a vedere se uno consuma 1 watt in più?
I consumi sono talmente vicini che cambiando recensione la FuryX diventa addirittura più parca nei consumi della 780Ti:
http://abload.de/img/power_peak8bkjs.gifhttp://abload.de/img/power_average7vzm9.gif
Dai 30 ai 40W in più.
Ininfluenti ? Per me sì se non fosse che allo stesso tempo va di meno.
Perchè dovrei comprare un prodotto tecnicamente arretrato ?
Allora la tua è proprio una crociata.
Ho detto che i valori sono talmente vicini che cambiando recensione cambiano i risultati.
A dimostrazione di ciò ti ho mostrato una recensione in cui la FuryX consuma meno sia in idle che in game (dunque sempre).
A che scopo mi mostri un'altra recensione, visto che è proprio quanto stavo sostenendo io che al cambiare della recensione cambiano i risultati, causa vicinanza estrema tra le prestazioni energetiche?
PaulGuru
28-06-2015, 12:59
Allora la tua è proprio una crociata.
Ho detto che i valori sono talmente vicini che cambiando recensione cambiano i risultati.
A dimostrazione di ciò ti ho mostrato una recensione in cui la FuryX consuma meno sia in idle che in game (dunque sempre).
A che scopo mi mostri un'altra recensione, visto che è proprio quanto stavo sostenendo io che al cambiare della recensione cambiano i risultati, causa vicinanza estrema tra le prestazioni energetiche?
Ricapitolando :
- Fury X va di meno : "si ma tanto in 4K non va comunque bene, e gli altri titoli vanno bene lo stesso"
- Fury X consuma di più : "si ma il divario è ininfluente, quindi facciamo finta di niente"
- Fury X ha meno VRAM : "si ma tanto è sufficiente, quindi va bene lo stesso"
A me sembrano tutte scuse per giustificarne ogni handicap, indipendentemente dal fatto che poi servano o meno, il prodotto rivale offre di più in tutti i settori ( o quasi ) e la Fury X ha deluso le aspettative.
Allora la tua è proprio una crociata.Sono uno di quelli che quì dentro ha postato meno. ;)
La crociata è di coloro che negano l'evidenza semmai.
Il prodotto ha deluso le aspettative, inutile girare la frittata e giustificarne le mancanze.
PaulGuru
28-06-2015, 13:04
Cioè non è che il secondo è na merda, sopratutto se staccato di poco dal primo.E chi lo ha detto questo ?
Ti sei dimenticato di dire che questo modello era atteso come GPU più potente al mondo ;)
Piccolo particolare.
.
il mio sogno era di vedere la fury x battere una titan x di un 10- 15% ed il tutto con un prezzo decente di contrasto con quello della titan🐈
e invece. . .😠😢
gd350turbo
28-06-2015, 13:14
Appunto...
Al mondo ci sono i primi e i Secondi...
AMD il ruolo di seconda lo ricopre benissimo !
tuttodigitale
28-06-2015, 13:24
Ma se così fosse, anche con i giochi odierni a 4K qualcosa si noterebbe, qualche segno di cedimento si dovrebbe vedere, all'aumentare della risoluzione. Invece nei test quello che risulta è che passando a 4K la FuryX migliora le prestazioni, riducendo il distacco con la 980Ti, a volte effettuando il sorpasso.
il mio era un discorso più generale.
Oggi i 4GB sembrano essere sufficienti per il 4k, tra un anno probabilmente non sarà così. Quello che volevo sottolineare è che le attuali top di gamma in configurazione singola a malapena possono garantire 35-40 fps medi in UHD, come è possibile immaginare che con giochi più pesanti la potenza di calcolo che già oggi non è sovrabbondante sia sufficiente per garantirne la giocabilità?
Il problema della longevità, riguarda solo chi vorrà una configurazione crossfire o sli (anche se stando alle ultime notizie, le dx12 permetterebbero di sfruttare in modo diverso la vram).
vedi tanti 35 - 40fps perchè nelle review usano spesso modalità di AA pesanti, come un msaa4x
e lo sai quanto costa come prestazioni? Tanto.
in un giochino come battlefield 4 ti dimezza quasi i frames.
ed allora ti credo che fa 45fps in 4K, ma tu usa solo un AA post tipo un SMAA, o un fxaa, ed allora vedrai che botto di frames anche a sta risoluzione in singola, e con che qualità.
senza contare che un altro 20% di prestazioni lo tiri su in oc, e che i test delle review tendono sempre a dare risultati più bassi di quelli che poi vedi fare agli utenti di un forum di appassionati.
il mio era un discorso più generale.
Oggi i 4GB sembrano essere sufficienti per il 4k, tra un anno probabilmente non sarà così. Quello che volevo sottolineare è che le attuali top di gamma in configurazione singola a malapena possono garantire 35-40 fps medi in UHD, come è possibile immaginare che con giochi più pesanti la potenza di calcolo che già oggi non è sovrabbondante sia sufficiente per garantirne la giocabilità?
Il problema della longevità, riguarda solo chi vorrà una configurazione crossfire o sli (anche se stando alle ultime notizie, le dx12 permetterebbero di sfruttare in modo diverso la vram).
Il tuo concetto è chiaro ed inappuntabile, quando parli dei modelli top in generale, ho qualche perplessità quando è mirato alla dotazione della FuryX.
Se la dotazione di memoria fosse realmente il collo di bottiglia nell'utilizzo a 4K, qualcosa si dovrebbe poter vedere già da adesso. Voglio dire, nell'aumentare della risoluzione e delle impostazioni, dovrei notare qualche segnale, una risposta diversa tra i modelli con diversa dotazione di memoria, invece la VGA con soli 4Gb riprende terreno su quella con 6Gb proprio al crescere della risoluzione ed all'appesantirsi delle impostazioni di gioco (vedi p.e. il link precedentemente postato: http://www.tweakpc.de/hardware/tests/grafikkarten/radeon_r9_fury_x_vs_geforce_gtx_980_ti_benchmarks/s05.php?benchmark=mordor).
Questo è in controtendenza con il ragionamento che vuole nella dotazione di vram la soluzione del problema per la compatibilità con i giochi futuri. Stando a quanto vedo, i 4 Gb di HBM sembra mi tutelino di più relativamente alle uscite future di giochi, o forse la dotazione di vram è un falso problema o non l'unico...
tuttodigitale
28-06-2015, 13:48
Ricapitolando :
- Fury X va di meno : "si ma tanto in 4K non va comunque bene, e gli altri titoli vanno bene lo stesso"
- Fury X consuma di più : "si ma il divario è ininfluente, quindi facciamo finta di niente"
- Fury X ha meno VRAM : "si ma tanto è sufficiente, quindi va bene lo stesso"
Questo non toglie che è una valida alternativa alla 980 ti, grazie alla presenza di un dissipatore silenziosissimo
Questo è in controtendenza con il ragionamento che vuole nella dotazione di vram la soluzione del problema per la compatibilità con i giochi futuri. Stando a quanto vedo, i 4 Gb di HBM sembra mi tutelino di più relativamente alle uscite future di giochi, o forse la dotazione di vram è un falso problema o non l'unico...
ma che ne sai che invece in futuro i 6GB non possano tornare utili e parare il culo in qualche situazione in giochi stracarichi di texture in HQ.
e da che cosa lo vedi che i 4GB della Fury X ti tutelerebbero di più? da un test di un gioco dove era già stato dimostrato in passato che anche con le schede da 4GB come la 980 ci si giocava bene?
a me sembra un po poco come prova.
semplicemente in questo cosa specifico i 6GB non servono. ma non è detto che non torneranno utili anche in futuro.
Questo non toglie che è una valida alternativa alla 980 ti, grazie alla presenza di un dissipatore silenziosissimo
che però fa fare quasi 110 gradi sui vrm che, com edicono su hw.fr, sono un bel limite per l'oc.
oc che come se non bastasse "dall'altra parte" ha un potenziale enorme.
ma che ne sai che invece in futuro i 6GB non possano tornare utili e parare il culo in qualche situazione in giochi stracarichi di texture in HQ.
e da che cosa lo vedi che i 4GB della Fury X ti tutelerebbero di più? da un test di un gioco dove era già stato dimostrato in passato che anche con le schede da 4GB come la 980 ci si giocava bene?
a me sembra un po poco come prova.
semplicemente in questo cosa specifico i 6GB non servono. ma non è detto che non torneranno utili anche in futuro.
Quello è un esempio (l'ho scritto) interessante perché non contemplava solo la risoluzione, ma basta guardare qualsiasi recensione per vedere che la FuryX guadagna sulla 980Ti all'aumentare della risoluzione, per esempio: http://www.tomshw.it/articoli/recensione-radeon-r9-fury-x-prestazioni-della-prima-scheda-video-amd-con-memoria-hbm-67759
Cosa succederà in futuro non lo sappiamo entrambi, possiamo valutare però quanto vediamo ora e farci un'idea, magari non su teorie ma su test.
più che guadagno in altissima risoluzione magari invece fury x soffre di cpu limited piu delle nvidia alle risoluzioni più basse che gli frenano un po di prestazioni comparandola alla Ti.
problema che sparisce completamente in ultra hd
più che guadagno in altissima risoluzione magari invece fury x soffre di cpu limited piu delle nvidia alle risoluzioni più basse che gli frenano un po di prestazioni comparandola alla Ti.
problema che sparisce completamente in ultra hd
Non conosco la risposta, prendo però atto del dato di fatto che la FuryX all'aumentare della risoluzione migliora le sue prestazioni relativamente alla 980Ti, in alcuni casi effettuando il sorpasso. Indipendentemente dal motivo, nonostante la dotazione di vram, sembrerebbe più pronta per i 4k.
sembrerebbe più pronta per i 4k.
io non me la sento di affermare una cosa del genere.
1 la Fury X non è migliore della 980ti in 4K, mediamente sono sullo stesso livello o forse la spunta la Ti ma di un 2% che è un niente.
2 per il fatto prestazionale che da il meglio in 4k....potrebbe dipendere da quello che ho scritto + su.
non è un segreto che i driver nvidia sono sviluppati meglio per quanto riguarda il discorso di rimuovere il collo di bottiglia della cpu, rispetto alle amd. quindi ho il forte sospetto che più che andar bene in alta risoluzione, fa peggio in quelle più basse per questo motivo.
3 perchè la scheda monta meno vram della 980 ti, e quindi non si sa in futuro cosa potrebbe succedere, ma le richieste tenderanno ad aumentare penso....
e magari un bel giorno ti esce un Crysis 4 sviluppato facendo accordi con nvidia e zachete... ti sfrutta + di 4GB di vram...
io non me la sento di affermare una cosa del genere.
1 la Fury X no è migliore della 980ti in 4K, mediamente sono suollo stesso livello o forse la spunta la Ti ma di un 2% che è un niente.
2 per il fatto prestazionale che da il meglio in 4k....potrebbe dipendere da quello che ho scritto + su.
non è un segreto che i drive invidia sono sviluppati meglio per quanto riguarda il discorso di rimuovere il collo di bottiglia della cpu, rispetto alle amd. quindi ho il forte sospetto che più che andar bene in alta risoluzione, fa peggio in quelle più basse per questo motivo.
3 perchè la scheda monta meno vram della 980 ti, e quindi non si sa in futuro cosa potrebbe succedere, ma le richieste tenderanno ad aumentare penso....
e magari un bel giorno ti esce un Crysis 4 sviluppato facendo accordi con nvidia e zachete... ti sfrutta + di 4GB di vram...
A me sembra che cadete dalle nuvole.
GTA 5 già ora sfora i 4gb di ram usati in 1080p maxato eh.
Anche perchè 500 mb circa della vram se li prende il sistema operativo (fra desktop, screensaver, aero).
quella è solo vram allocata. mentre io stavo facendo la ipotesi di un gioco che REALMENTE fa un uso di più di 4GB
Anche perchè 500 mb circa della vram se li prende il sistema operativo (fra desktop, screensaver, aero).
Se si gioca in modalità full screen esclusiva, la memoria video richiesta dagli altri processi non viene parcheggiata nella ram di sistema?
PaulGuru
28-06-2015, 17:04
Questo non toglie che è una valida alternativa alla 980 ti, grazie alla presenza di un dissipatore silenziosissimoAl prezzo di uno scatolotto da alloggiare con tanto di tubi.
Ingombra più di una tri-slot.
Se uno vuole farsi un CF si ritrova 2 radiatori di grosso spessore nel case solo per le VGA :rolleyes:
PaulGuru
28-06-2015, 17:20
PaulGuru, ma la tua è una crociata?
Consuma di più? Parliamo di consumi molto vicini, non parliamo delle differenze che c'erano con le altre serie, si tratta di differenze assolutamente trascurabili in prodotti di questo livello, sarebbe come decidere tra una Ferrari ed una Porsche, perché una fa un KM in più con un litro di benzina.
Il ripetere in continuazione il mantra dei consumi sa tanto di pretestuoso. Quando acquisti un monitor, se hanno consumi simili, vai a vedere se uno consuma 1 watt in più?
I consumi sono talmente vicini che cambiando recensione la FuryX diventa addirittura più parca nei consumi della 980Ti:
Incredibile !
Cioè fammi capire ...... mi hai linkato i grafici di THG spacciando che rivelassero consumi bassi e non linki il grafico del torture test ?
Caspita certo che quì si cade proprio in basso.
Hai linkato solo i test favorevoli ( fra l'altro senza alcuna specifica sul gioco che han fatto girare ) mentre il bench dedicato l'hai trascurato.
http://www.tomshw.it/data/thumbs/0/5/5/4/33-overview-torture-2c66704160baaa283439994d36ef5735d.jpg
Quasi 100W di differenza.
filo mc-ati crossfire
28-06-2015, 17:31
Incredibile !
Cioè fammi capire ...... mi hai linkato i grafici di THG spacciando che rivelassero consumi bassi e non linki il grafico del torture test ?
Caspita certo che quì si cade proprio in basso.
Hai linkato solo i test favorevoli ( fra l'altro senza alcuna specifica sul gioco che han fatto girare ) mentre il bench dedicato l'hai trascurato.
http://www.tomshw.it/data/thumbs/0/5/5/4/33-overview-torture-2c66704160baaa283439994d36ef5735d.jpg
Quasi 100W di differenza.
certo con 100 watt di differenza , in un anno ti ci compri 20 gelati :) ancora con sta storia dei consumi, ma dai :) senza offesa, ma 100 watt in + sai quanti soldi sono in un mese utilizzandola 24 su 24 in full??????
cioè la vedo una cosa ridicolissima sta storia dei 100 watt, come se uno che spende 2000 euro di pc, se ne stà fregando dei 5 euro in + al mese di corrente, e smettiamola dai! non prenderla come un'offesa ma sta cosa mi fà incacchiare come un suino!
Flying Tiger
28-06-2015, 17:40
certo con 100 watt di differenza , in un anno ti ci compri 20 gelati :) ancora con sta storia dei consumi, ma dai :) senza offesa, ma 100 watt in + sai quanti soldi sono in un mese utilizzandola 24 su 24 in full??????
cioè la vedo una cosa ridicolissima sta storia dei 100 watt, come se uno che spende 2000 euro di pc, se ne stà fregando dei 5 euro in + al mese di corrente, e smettiamola dai! non prenderla come un'offesa ma sta cosa mi fà incacchiare come un suino!
Si ma non è una questione di quanti gelati di compri o di quanto spendi in più in bolletta , quanto invece che ci sono 100W da dissipare visto che notoriamente più Watt si consumano più producono calore che devi ovviamente smaltire...
Non è che nella Fury hanno messo il dissipatore a liquido (tra l' altro anche con una implementazione diciamo discutibile se si guarda la temperatura raggiunta dai vrm) per renderla silenziosa o per fare un regalo a chi la compra come pare da qualche commento ,è che proprio sono stati costretti a metterlo se non volevano fare un prodotto che sarebbe stato più simile a un reattore di un jet che non a una scheda video...
E non mi pare in tutta franchezza una cosa di cui ci possa rallegrare...
:)
C'è un motivo se quel test si chiama Torture.
In quelle condizioni consuma 100W in più, ma bisogna anche essere realisti e valutare il consumo medio con i vari giochi attuali (che magari non sfruttano/stressano la scheda come quel torture test).
Tutto questo filone "green" su HWupgrade fa sicuramente piacere, immagino che tutti voteranno verdi alle prossime (chissà quando) elezioni :asd:
Ma poi il calore non viene comunque convogliato nel radiatore del liquido di raffreddamento che, convenientemente, si dovrebbe posizionare dove solitamente si installa la ventola di estrazione aria dal case? Non credo che anche con furmark o simili ci siano problemi di surriscaldamento dei componenti del pc. Ci sono test in rete a riguardo?
Considerato comunque che i consumi in idle sia a monitor singolo che multiplo (specialmente e finalmente!) li hanno ridotti ai livelli della concorrenza o quasi...
PaulGuru
28-06-2015, 18:04
certo con 100 watt di differenza , in un anno ti ci compri 20 gelati :) ancora con sta storia dei consumi, ma dai :) senza offesa, ma 100 watt in + sai quanti soldi sono in un mese utilizzandola 24 su 24 in full??????
cioè la vedo una cosa ridicolissima sta storia dei 100 watt, come se uno che spende 2000 euro di pc, se ne stà fregando dei 5 euro in + al mese di corrente, e smettiamola dai! non prenderla come un'offesa ma sta cosa mi fà incacchiare come un suino!
C'è un motivo se quel test si chiama Torture.
In quelle condizioni consuma 100W in più, ma bisogna anche essere realisti e valutare il consumo medio con i vari giochi attuali (che magari non sfruttano/stressano la scheda come quel torture test).
Tutto questo filone "green" su HWupgrade fa sicuramente piacere, immagino che tutti voteranno verdi alle prossime (chissà quando) elezioni :asd:
Non interessa a nessuno il plus sulla bolletta nè l'animo green, non è sotto l'ottica economica che si va a parare.
I 100W anche se negli scenari ludici non si presentano ci sono comunque i picchi o momenti in cui la scheda può arrivare a consumare così.
Tutta roba che si riversa sul carico dell'alimentatore e sul calore da dissipare.
Passerebbero in secondo piano se tutto ciò rispecchiasse una prestazione superiore alla rivale, e invece oltre a tutto ciò è pure dietro, il che simboleggia un architettura inferiore ( e pensare che ha pure le HBM ad aiutarla a contenere i consumi ).
Ma poi il calore non viene comunque convogliato nel radiatore del liquido di raffreddamento che, convenientemente, si dovrebbe posizionare dove solitamente si installa la ventola di estrazione aria dal case? Non credo che anche con furmark o simili ci siano problemi di surriscaldamento dei componenti del pc. Ci sono test in rete a riguardo?
Considerato comunque che i consumi in idle sia a monitor singolo che multiplo (specialmente e finalmente!) li hanno ridotti ai livelli della concorrenza o quasi...
Hai mai avuto un AIO con radiatore monoventola ?
Se lo posizioni sull'alloggiamento sul retro l'aria calda si riversa comunque dentro il case ( pure se metti la ventola a diretto contatto col case ), dal retro ne usce solo una parte.
Incredibile !
Cioè fammi capire ...... mi hai linkato i grafici di THG spacciando che rivelassero consumi bassi e non linki il grafico del torture test ?
Caspita certo che quì si cade proprio in basso.Non "spacciando che rivelassero consumi più bassi", ma proprio-proprio indicavano consumi più bassi ^^ Sia in idle (la maggior parte del tempo) che in game (quello che devono fare queste VGA, anche se per minor tempo durante la giornata).
Il torture test ed altre pippe no, non te le ho linkate, non mi interessano, se a te interessano, perché passi la giornata con la VGA in quelle condizioni, è un tuo problema, cercateli da te, penso di essere libero di linkare quello che a me sembra di interesse generale, ed il torture test, non lo è, serve solo per test specifici, non nell'uso quotidiano.
Hai mai avuto un aio con radiatore 120/140 ?
No, ma è irrilevante. La termodinamica mi dà ragione.
Anche se lo posizioni sull'alloggiamento della fan sul retro l'aria calda si riversa comunque dentro il case ( pure se metti la ventola a diretto contatto col case ), dal retro ne usce solo una parte.
Dentro al case di calore ne rimarrà comunque [molto] meno che con la scheda raffreddata tradizionalmente.
Se invece la metti con ventola in posizione di immissione non esce proprio per niente.
Se la metti in alto a meno che non hai un big tower ti ingombra parecchio visto che è un radiatore di grosso spessore ( più 25-30mm di ventola ).
Il sistema di raffreddamento di questa scheda è palesemente progettato per essere primariamente posizionato con il radiatore sul retro del case e la ventola che estrae aria dal pc.
http://i.imgur.com/azX4RkPl.png
http://support.amd.com/Documents/amd-radeon-r9-fury-x.pdf
Tutta roba che si riversa sul carico dell'alimentatore e sul calore da dissipare.E cosa succederebbe se in qualche rara frazione di tempo ci fosse quell'aumento di consumo? Ma sii serio.
PaulGuru
28-06-2015, 18:30
No, ma è irrilevante. La termodinamica mi dà ragione.
irrilevante un corno visto che sono tutti prodotti rimarchiati.
La termodinamica ti dà ragione solo sulla teoria.
Perchè invece secondo te i Corsair H60 e H80 per cosa sono progettati ? pensi che non siano i medesimi prodotti ?
La termodinamica ti darebbe ragione se le ventole soffiassero in maniera perfettamente rettilinea ( e invece generano un vortice e la pressione si sviluppa molto più sui bordi che frontalmente dove fra l'altro c'è un buco causato dall'area occupata dal rotore ) e se la struttura fosse sigillata, cosa che non è affatto.
Anche io presi gli AIO per quel motivo salvo poi ritrovarmi nella medesima situazione di un dissipatore tradizionale.
Il miglior posizionamento possibile per l'estrazione dell'aria calda è quello sul tetto, su questo c'è poco da discutere.
gd350turbo
28-06-2015, 18:31
certo con 100 watt di differenza , in un anno ti ci compri 20 gelati :) ancora con sta storia dei consumi, ma dai :) senza offesa, ma 100 watt in + sai quanti soldi sono in un mese utilizzandola 24 su 24 in full??????
cioè la vedo una cosa ridicolissima sta storia dei 100 watt, come se uno che spende 2000 euro di pc, se ne stà fregando dei 5 euro in + al mese di corrente, e smettiamola dai! non prenderla come un'offesa ma sta cosa mi fà incacchiare come un suino!
È molto più triste pensare che ci sia qualcuno che pensa che si scelga la scheda che consuma meno per risparmiare qualche euro di bolletta, parecchio triste
È molto più triste pensare che ci sia qualcuno che pensa che si scelga la scheda che consuma meno per risparmiare qualche euro di bolletta, parecchio triste
Mah, più che per gli euro in più in bolletta a me piace pensare di avere una scheda ben equilibrata con un occhio di riguardo verso consumi e temperature. Mi pare che abbiano fatto un buon lavoro e sono impaziente di vedere i risultati della Nano.
Mah, più che per gli euro in più in bolletta a me piace pensare di avere una scheda ben equilibrata con un occhio di riguardo verso consumi e temperature. Mi pare che abbiano fatto un buon lavoro e sono impaziente di vedere i risultati della Nano.
curioso anche io di vedere come andrà la NANO
http://abload.de/img/0-game-of-thrones-s042zutx.gif (http://abload.de/image.php?img=0-game-of-thrones-s042zutx.gif)
irrilevante un corno visto che sono tutti prodotti rimarchiati.
La termodinamica ti dà ragione solo sulla teoria.[...]
Benissimo, chiediamo a Paolo Corsini se fa un confronto fra la 980ti e la Fury X con le temperature interne del case al Furmark e durante una sessione di gioco tipica? Così vediamo se è come dici e soprattutto, in caso eventuale, se la differenza sarebbe insostenibile per il sistema come ci fai intuire.
filo mc-ati crossfire
28-06-2015, 19:29
Non interessa a nessuno il plus sulla bolletta nè l'animo green, non è sotto l'ottica economica che si va a parare.
I 100W anche se negli scenari ludici non si presentano ci sono comunque i picchi o momenti in cui la scheda può arrivare a consumare così.
Tutta roba che si riversa sul carico dell'alimentatore e sul calore da dissipare.
Passerebbero in secondo piano se tutto ciò rispecchiasse una prestazione superiore alla rivale, e invece oltre a tutto ciò è pure dietro, il che simboleggia un architettura inferiore ( e pensare che ha pure le HBM ad aiutarla a contenere i consumi ).
Hai mai avuto un AIO con radiatore monoventola ?
Se lo posizioni sull'alloggiamento sul retro l'aria calda si riversa comunque dentro il case ( pure se metti la ventola a diretto contatto col case ), dal retro ne usce solo una parte.
Bhe se fosse stato un 80% meno potente ti avrei dato ragione, mica c'è un abisso in prestazioni ----il che simboleggia un architettura inferiore ( e pensare che ha pure le HBM ad aiutarla a contenere i consumi ).
.-----
Non la vedo assolutamente come te, è la prima volta che viene utilizzata tale memoria, e come tutti ben sappiamo, ad ogni nuova uscita di un qualcosa di nuovo, inizialmente ci possono essere problemi, dire inferiore a parer mio è un esagerazione, ci stà che in base all'hype che c'era qualcuno è stato deluso, personalmente io non difendo nessuno, non comprerei fury, ne tantomeno 980ti, soldi buttati, per cosa dovrei prenderle? io gioco in full hd, la mia 290x ancora mi permette di giocare quasi a tutto più che decentemente..
Penso solamente, che prima si dovrebbe aspettare un po...
È molto più triste pensare che ci sia qualcuno che pensa che si scelga la scheda che consuma meno per risparmiare qualche euro di bolletta, parecchio triste
bhe , col mio discorso non centra chi sceglie chi, è un'altro il mio tipo di discorso, se non lo hai capito non è colpa mia. Io parlavo esplicitamente della storia del consumo, non di chi vada meglio.... il tuo commento è senza senso a mio avviso imho
PaulGuru
28-06-2015, 22:12
E cosa succederebbe se in qualche rara frazione di tempo ci fosse quell'aumento di consumo? Ma sii serio.
Chi ha parlato di frazioni di secondo ? Con lo scenario giusto potrebbe anche starci per un pezzo, se poi nei test delle recensioni usano specifici scenari di gioco piuttosto che altri è un altro discorso.
Benissimo, chiediamo a Paolo Corsini se fa un confronto fra la 980ti e la Fury X con le temperature interne del case al Furmark e durante una sessione di gioco tipica? Così vediamo se è come dici e soprattutto, in caso eventuale, se la differenza sarebbe insostenibile per il sistema come ci fai intuire.Per curiosità ma questa da dove è uscita ?
Si fai quel test e vedrai che la situazione rispetto ad una scheda analoga dissipata tradizionalmente è la medesima, con la sola differenza che con la Fury avrai l'ingombro della mattonella.
PaulGuru
28-06-2015, 22:17
Si parla di consumi
Prende in considerazione il Torture test
:rotfl:
E' ovvio che la AMD consuma di più rispetto alla 980ti, ma evitiamo di tirare in ballo argomentazioni folli e di fare gli ecohipster.Il torture test lo usi per vedere fino a quanto può consumare, non quanto consuma di media.
Non ci interessa la bolletta.
Ma poi in 4k un qualsiasi AA a che cavolo serve?Questa la dicevano pure 9 anni fa quando cominciò a diffondersi il 1080p sui monitor desktop. :rolleyes:
E' ovvio che prendi il torture test, vogliamo vedere fino a quanto può consumare, non quanto consuma di media.
Dipende da cosa vuoi misurare.
Se ti interessano i consumi reali della scheda in situazioni di gioco, allora il torture test non ha senso, perchè questo tipo di test cerca di sfruttare ogni transistor della scheda in modo da ottenere il massimo consumo, ma non è detto che in determinate applicazioni la scheda utilizzi tutte le sue parti.
Immaginiamo un esempio e poniamo che il test cerchi di far lavorare a massimo regime anche le unità di calcolo in doppia precisione, che nei giochi non vengono utilizzate.
In questo test risulterebbe penalizzato il chip con più silicio dedicato al calcolo in doppia precisione, che ne aumenterebbe i consumi nelle condizioni di test, ma la cosa non avrebbe alcun riscontro in un caso reale di gioco.
PaulGuru
28-06-2015, 22:30
Dipende da cosa vuoi misurare.
Se ti interessano i consumi reali della scheda in situazioni di gioco, allora il torture test non ha senso, perchè questo tipo di test cerca di sfruttare ogni transistor della scheda in modo da ottenere il massimo consumo, ma non è detto che in determinate applicazioni la scheda utilizzi tutte le sue parti.
Immaginiamo un esempio e poniamo che il test cerchi di far lavorare a massimo regime anche le unità di calcolo in doppia precisione, che nei giochi non vengono utilizzate.
In questo test risulterebbe penalizzato il chip con più silicio dedicato al calcolo in doppia precisione, che ne aumenterebbe i consumi nelle condizioni di test, ma la cosa non avrebbe alcun riscontro in un caso reale di gioco.
Le unità a doppia precisione sono solo un fattore.
Pier2204
28-06-2015, 23:07
@Paulguru
Dopo mille numeri snocciolati e decine di teorie la mia sensazione è che tu spari a prescindere su qualsiasi cosa fa AMD, ma non solo nelle schede grafiche.
Visto che sei così bravo potresti proporti come CEO dentro amd e imporre la nuova scheda video che va a 250 FPS in 4K, che costi 4.000 euro è irrilevante, l'importante è che arrivi prima nei Bench...
Le unità a doppia precisione sono solo un fattore.
Certamente... e quindi?
Anzi, ti dirò di più... erano solo un esempio del tutto ipotetico. ;)
Però dato che non riuscivi a capire perchè quel tipo di test non è significativo, ho provato ad illustrarti il concetto in questo modo.
Strato1541
28-06-2015, 23:30
@Paulguru
Dopo mille numeri snocciolati e decine di teorie la mia sensazione è che tu spari a prescindere su qualsiasi cosa fa AMD, ma non solo nelle schede grafiche.
Visto che sei così bravo potresti proporti come CEO dentro amd e imporre la nuova scheda video che va a 250 FPS in 4K, che costi 4.000 euro è irrilevante, l'importante è che arrivi prima nei Bench...
Io che seguo il forum da parecchio tempo vedo invece che tu e altri continuate a lodare amd a prescindere , con le stesse solite motivazioni usate in passato, (dato che è parecchio che una gpu amd non primeggia nettamente su nvidia) che possono essere ricapitolate così:
- ora va meno ma con i driver andrà di certo molto meglio
- costa uguale (anzi per ora di più) della concorrenza sebbene in diversi scenari sia inferiore e globalmente pure, tuttavia è valida( ma se costa pure di più!)
- la quantità di ram poco importa (ricordo però che in passato quando le gpu amd erano equipaggiate con più ram delle nvidia , esempio 2 gb 6970 vs 1,25 o 1,5 di gtx 570- gtx 580 la cosa per voi era importante, dato che non aveva senso avere meno ram sebbene non fosse necessaria all'epoca), ora che la ram servirebbe in quantità per il 4k (risoluzione da top gamma) di fatto 4 gb bastano..(sebbene ad un prezzo inferiore siano vendute gpu con ben 6 gb di ram)
-dato che la nessuna gpu è ancora adatta al 4 k allora va bene anche se va meno , tanto non è comunque sufficiente( e se si fa un cross o uno sli? allora non è meglio avere più ram?! e non diventa possibile in 4 k?!)
Detto questo scusate se sono polemico ma queste frittate rigirate le ho sentite milioni di volte e sono le stesse che girano nei thread delle cpu fx( uno scempio da principio ma ancora difese a spada tratta anche dopo anni di stasi in quel settore) e le stesse che si leggono quando si parla di gpu amd..
Ai posteri l'ardua sentenza..
Tutto sta a vedere se le singole obiezioni hanno un fondo di verità, in particolare:
- ora va meno ma con i driver andrà di certo molto meglio Non ci vedo nulla di strano, non è la prima volta che le gpu AMD migliorano dopo i primi test.
- costa uguale (anzi per ora di più) della concorrenza sebbene in diversi scenari sia inferiore e globalmente pure, tuttavia è valida( ma se costa pure di più!)Di che prezzi stai parlando? Se di quelli di listino mi sembra che la Fury costi di meno (non vorrei sbagliarmi, nel caso correggimi); se di quelli del negozio, aspetta almeno che escano, 'ste benedette schede.
- la quantità di ram poco importa (ricordo però che in passato quando le gpu amd erano equipaggiate con più ram delle nvidia , esempio 2 gb 6970 vs 1,25 o 1,5 di gtx 570- gtx 580 la cosa per voi era importante, dato che non aveva senso avere meno ram sebbene non fosse necessaria all'epoca), ora che la ram servirebbe in quantità per il 4k (risoluzione da top gamma) di fatto 4 gb bastano..(sebbene ad un prezzo inferiore siano vendute gpu con ben 6 gb di ram)Cioè una VGA più ha RAM più vale? A parte che le HBM costano più delle GDDR5, ma la stessa AMD vende una VGA nettamente più economica della FuryX e della 980Ti, nonostante sia dotata di ben 8Gb di vram.
-dato che la nessuna gpu è ancora adatta al 4 k allora va bene anche se va meno , tanto non è comunque sufficiente( e se si fa un cross o uno sli? allora non è meglio avere più ram?! e non diventa possibile in 4 k?!)Proprio nei test a 4K la FuryX mostra le sue dote migliori, praticamente quasi annullando le differenze con la 980Ti.
Non puoi pretendere che la gente dica quello che pensi tu, hai tue opinioni rispettabilissime, altri ne hanno altre, altri ancora sono qui a fare crociate contro un determinato marchio.
P.S. Hai dimenticato un'altra cosa che si dice di queste schede, cioè che sono nettamente più silenziose e scaldano molto meno e non vanno mai in throttling, grazie all'ottimo sistema a liquido compreso nel prezzo.
Non puoi pretendere che la gente dica quello che pensi tu, hai tue opinioni rispettabilissime, altri ne hanno altre, altri ancora sono qui a fare crociate contro un determinato marchio.
Si limitassero a questo! Invece parliamo di: se hai AMD, se non giochi almeno a 2K (meglio 4K) se non fai almeno 120 frame al secondo fissi, sei un giocatore di bassa lega. Uno che non si gode i giochi. A parte che non esistono solo i giochi in 3D fotorealistici, viene da chiedersi se queste persone riescono a goderseli veramente i giochi: io mi sto godendo un mucchio di classici con la R7 integrata ed ho messo da parte la discreta in attesa della Nano. Questi hanno 970/980 ma stanno qui a fare mirror climbing :asd:
Per non parlare delle lacune tecniche che hanno queste suddette persone :asd:
Fortuna che c'è la buddy list :rolleyes:
PaulGuru
29-06-2015, 06:32
@Paulguru
Dopo mille numeri snocciolati e decine di teorie la mia sensazione è che tu spari a prescindere su qualsiasi cosa fa AMD, ma non solo nelle schede grafiche.
Visto che sei così bravo potresti proporti come CEO dentro amd e imporre la nuova scheda video che va a 250 FPS in 4K, che costi 4.000 euro è irrilevante, l'importante è che arrivi prima nei Bench...
Se a te piace tanto essere preso per il cul0 buon per te, io no.
Il meglio di voi infatti lo avete dato di fronte all'uscita di Bulldozer.
KampMatthew
29-06-2015, 08:45
Continuo a dire che la scheda è interessante ma acquistarla al primo giorno a prezzo pieno è da fanboy
Onestamente non ho capito perchè questa dovrebbe essere una cosa negativa.
Se uno è affezionato ad un marchio e vuole premiarlo a modo suo, acquistando un prodotto appena uscito, che sia una vga, una lavatrice o un missile nucleare, perchè dovrebbe essere sbagliato?
Io non lo farei mai perchè bado più al mio portafogli e faccio sempre un confronto prezzo/prestazioni, infatti non ho mai preso una top gamma perchè non è mai conveniente in quei termini, ma non critico negativamente chi sceglie di farlo.
Per come conoscevo io l'accezione negativa del termine fanboy, pensavo fosse colui che a costo di arrampicarsi su mille specchi non avrebbe mai ammesso un problema, un difetto, l'inferiorità rispetto ad un altro prodotto. IL termine si è evoluto?
[QUOTE]Ma poi in 4k un qualsiasi AA a che cavolo serve?
almeno un AA leggero (FXAA,SMAA,EdgeAA ecc) serve, altrimenti vedi le scalettature anche a questa risoluzione, seppur in misura minore rispetto ad altre risoluzioni più basse, a parità di grandezza del pannello.
ma un AA peso a sta risoluzione te lo puoi risparmiare...ti ammazza le prestazioni e basta.
KampMatthew
29-06-2015, 09:09
Non ho detto che è sbagliato, ho detto che è da fanboy :D
Se uno è affezionato e vuole premiare il marchio è un fanboy, liberissimo di farlo ma fanboy resta.
Si forse fanboy è più negativo, ma del resto comprare un prodotto a prezzo pieno quando vale meno non è forse un voler negare che non vale quello che costa?
Probabilmente potremmo discuterne per giorni :asd:
Mmmmm, non proprio, altrimenti tutte le cose superflue non dovrebbero proprio esistere, la mela mozzicata non sarebbe mai arrivata dove sta, i telefonini da 5-6-8 € non li comprerebbe nessuno, la Bugatti non venderebbe un auto a 2 milioni di € perchè oggettivamente non li vale e con quella cifra si potrebbero sfamare chissà quante persone in Africa.
Il mondo è così, anzi, direi meno male che c'è gente che acquista, parlando di queste schede, ma come di tanti altri prodotti, i primi pezzi costano sempre di più perchè comunque ci devono anche ricaricare la ricerca e lo sviluppo, che poco non costa, poi magari quando cominciano rientrarci possono anche abbassare. Buttarsi sulle nuove mem sarà comunque costato parecchio, è una nuova tecnologia ed è tutta in salita, chiaramente questo però liveita i prezzi.
Che poi se io penso che sarebbero dovuti uscire già da subito con un prezzo più aggressivo, è un'altra cosa, dopo l'enorme vendita di 970/980 che ha tolto molti clienti ad amd, io sono uno di quelli perchè nel momento in cui mi serviva una vga ho valutato la 970 come miglior prodotto prezzo/prestazioni, pensavo si volessero rifare cercando di far rientrare clienti, evidentemente non hanno potuto o non hanno voluto, in ogni caso, azzi loro :asd:
[QUOTE=Sflao;42624485]
A 4k?
Io ho provato fino a 2880x1800 con il mio macinino e un smaa si vede, 4k mai provato.
un mio amico ha un 4K e ti garantisco che se non metti alcun tipo di AA le scalettature le vedi. meno che con altri monitor ma le vedi pure qui. sono rari i casi di giochi dove non le noti più.
però basta un smaa e va via tutto. inutile quindi fare i test con forme di AA più pesanti.
KampMatthew
29-06-2015, 09:18
l'acquisto al dayone è più da pirla che da fanboy. Perché al dayone non ti spinge solo il brand a comprare ma soprattutto la corsa all'ultima novità, tecnologia
E quindi? Se ho piacere di pagare uno sproposito una cosa appena uscita a te che problema ti causa? Dovresti esserne contento invece, più gente acquista subito meglio è per tutti. Anzi, dovresti ringraziare che quando decidi di comprare una cosa c'è già tanta gente prima di te che ha comprato, così hai il prezzo più basso e la garanzia che si è già lavorato su eventuali bug.
Tutti a dire "mai comprare subito ma dopo un po' di mesi che il prodotto è già rodato". Ma non ho capito se nessuno comincia a comprarlo questo rodaggio chi dovrebbe farlo. Si fa da solo?
a fare il figo sul forum.
Vabbè questa è una cosa che non mi interessa proprio, mi pare una cazzata appellarsi a certe cose, quasi una rosicata :asd:
Cioè, chi vuol fare il figo (?) lo faccia, a me non mi cambia nulla.
KampMatthew
29-06-2015, 09:28
Come ho detto possiamo parlarne per giorni, il punto fondamentale è che l'anno prossimo un Bugatti costa ancora quello che costa oggi, stassa cosa per un iphone, mentre la fury x tra 2 settimane costerà almeno un centone in meno :)
Ma è normale che sia così, anzi, la Bugatti il prossimo anno usata la trovi anche di più a quanto costava oggi nuova, specialmente se è una serie limitata, ma che c'entra questo?
Se io voglio buttare un centone in una settimana solo per lo sfizio di avere subito la scheda e di provarla prima di tutti perchè dovrei essere considerato un fesso? Mi devi dare delle giuste motivazioni, non puoi dire che perchè non lo faresti tu allora non deve farlo nessuno.
C'è chi spende soldi a mignotte, chi a schede grafiche, chi a ristoranti di lusso, chi in bottiglie di vino costose, ognuno ha i suoi sfizi da farsi passare e fa bene a farlo, la vita è una sola.
E quindi? Se ho piacere di pagare uno sproposito una cosa appena uscita a te che problema ti causa? Dovresti esserne contento invece, più gente acquista subito meglio è per tutti. Anzi, dovresti ringraziare ...
Oddio, in realtà il mercato non va proprio in questo modo.
Se c'è tanta gente disposta a comprare a prezzo elevato, semplicemente il venditore alza l'asticella del prezzo, speculandoci. É la legge della domanda e dell'offerta.
Quindi, in generale non è così positiva cosa per l'acquirente che tanta gente voglia acquistare a prezzo elevato. Poi ovviamente il discorso è abbastanza complesso, perchè stiamo parlando di una casa, AMD, che al momento è in difficoltà economica e non si tratta di speculazione ma di rientro nei costi.
Tornando al discorso, è fisiologico che ci sia sempre una certa quota di "fanboy" (benestanti probabilmente) disposta ad acquistare subito, ma non solo loro acquistano all'uscita, ma ci sono diverse nicchie di utenza che potrebbero essere interessate.
Per esempio chi vuole la scheda per testarla o svilupparci qualcosa sopra, chi deve svolgere compiti molto specifici per cui questa scheda si rivela particolarmente adatta per via della propria particolare architettura, e così via...
KampMatthew
29-06-2015, 09:49
Oddio, in realtà il mercato non va proprio in questo modo.
Se c'è tanta gente disposta a comprare a prezzo elevato, semplicemente il venditore alza l'asticella del prezzo, speculandoci. É la legge della domanda e dell'offerta.
Quindi, in generale non è così positiva cosa per l'acquirente che tanta gente voglia acquistare a prezzo elevato. Poi ovviamente il discorso è abbastanza complesso, perchè stiamo parlando di una casa, AMD, che al momento è in difficoltà economica e non si tratta di speculazione ma di rientro nei costi.
Tornando al discorso, è fisiologico che ci sia sempre una certa quota di "fanboy" (benestanti probabilmente) disposta ad acquistare subito, ma non solo loro acquistano all'uscita, ma ci sono diverse nicchie di utenza che potrebbero essere interessate.
Per esempio chi vuole la scheda per testarla o svilupparci qualcosa sopra, chi deve svolgere compiti molto specifici per cui questa scheda si rivela particolarmente adatta per via della propria particolare architettura, e così via...
Normalmente è così, ma il mercato tecnologico è diverso. Qualsiasi prodotto ha sempre un certo numero di compratori del primo momento e non per questo mi pare di vedere che i prezzi non scendano. Vedi i telefoni, quanta gente compra al day 1 telefoni da 6/700 € e quanti di questi telefono dopo 4-5 mesi non costano già 200 € in meno?
Poi come tu stesso dici in questo caso amd deve anche recuperare moneta e sopratutto con questa scheda deve anche recuperare l'investimento fatto per realizzare una scheda con nuove memorie. Un chip hbm da 1gb non costerà di certo come un vecchio chip ddr, ma è normale questo, non bisogna che si spiega il perchè.
Se proprio vogliamo lamentarci, io mi lamenterei più della 390x che è una semplice lavata di faccia di un chip già vecchio su cui hanno buttato 8 gb di memoria.
Certo il discorso vga è complesso, ma il punto fondamentale è che ci sono solo 2 produttori. Oggi esistessero ancora le vecchie glorie tutti questi discorsi non li stavamo facendo, perchè avremmo avuto 5-6 marchi a darsi battaglia per accaparrarsi clienti, come nel discorso dei telefoni, perchè calano molto velocemente di prezzo? Perchè ci sono millemila marchi, la concorrenza è altissima.
Se proprio vogliamo lamentarci, io mi lamenterei più della 390x che è una semplice lavata di faccia di un chip già vecchio su cui hanno buttato 8 gb di memoria.
Il problema grosso sono i consumi in questo caso, anche se ho visto che un'aggiustatina c'è stata. Il brutto dei rebrand è soprattutto questo: le schede scivolano di fascia ma mantengono più o meno quei consumi. La scheda rimane comunque molto valida.
Il problema grosso sono i consumi in questo caso, anche se ho visto che un'aggiustatina c'è stata. Il brutto dei rebrand è soprattutto questo: le schede scivolano di fascia ma mantengono più o meno quei consumi. La scheda rimane comunque molto valida.
non mi piace molto la 390x, in gaming ha dei consumi spropositati per la performance che ha.
e quando arriverà la FURY NANO credo non se la cagherà più nessuno sta scheda... :Perfido:
e intanto il calabrone che non dovrebbe volare...continua imperterrito a prendere in giro gli scettici:D
da parte di Matt Buck,Technical Support Engineer di AMD,ha provato la fury in cross 2-3-4 schede
3Dmark fsu:
AMD Radeon R9 Fury X = Overall Score 4.337 / GPU Score 4.260
Due AMD Radeon R9 Fury X = Overall Score 7.557 / GPU Score 7.754 (scaling 82%)
Tre AMD Radeon R9 Fury X = Overall Score 10.801 / GPU Score 11.599 (scaling 49,58%)
Quattro AMD Radeon R9 Fury X = Overall Score 13.286 / GPU Score 15.102 (scaling 30,2%)
test anche con alcuni giochi
http://www.tomshw.it/news/quattro-radeon-r9-fury-x-in-crossfirex-in-un-pc-potenza-da-vendere-67909
http://forums.overclockers.co.uk/showthread.php?p=28241851#post28241851
https://twitter.com/TheMattB81
e ricordo il tutto con i suoi miseri 4GB:eek: :read:
C'è chi spende soldi a mignotte, chi a schede grafiche, chi a ristoranti di lusso, chi in bottiglie di vino costose, ognuno ha i suoi sfizi da farsi passare e fa bene a farlo, la vita è una sola.
Io sti vizi li ho tutti :( :(
io prima il vizio ce lo avevo per l upgrade continuo senza fine del PC..., per le schede video... e sono arrivato a far follie.
poi ne sono uscito perchè ho capito che non ne valeva la pena, specialmente andà a spendere un millino e passa per una scheda video
Non interessa a nessuno il plus sulla bolletta nè l'animo green, non è sotto l'ottica economica che si va a parare.
Peggio mi sento allora, perché sta crociata sui consumi delle top di gamma è un po' futile.
I 100W anche se negli scenari ludici non si presentano ci sono comunque i picchi o momenti in cui la scheda può arrivare a consumare così.
No, per capire qual è il picco in un gioco bisogna vedere un grafico dei consumi istantanei sul singolo gioco.
Quei consumi sono da imputarsi evidentemente ad un carico di tutta la GPU+RAM del 100%.
Il che significa che TUTTE le unità sono in funzione (il che significherebbe sfruttare
la scheda al 100%).
Tutta roba che si riversa sul carico dell'alimentatore e sul calore da dissipare.
L'alimentatore non è un problema se compri una scheda di quella fascia. Soprattutto se consideriamo che negli ultimi anni in realtà i consumi si sono ridotti notevolmente a parità di prestazioni, ergo la tendenza è a diminuire, non a salire.
Le GPU si sono fermate per colpa del processo produttivo fermi.
Per il calore da dissipare c'è il raffreddamento a liquido (incluso nel prezzo) per cui ribadisco.
Passerebbero in secondo piano se tutto ciò rispecchiasse una prestazione superiore alla rivale, e invece oltre a tutto ciò è pure dietro, il che simboleggia un architettura inferiore ( e pensare che ha pure le HBM ad aiutarla a contenere i consumi ).
Peccato che le prestazioni sui giochi non possono essere confrontate con i consumi in torture test.
Sarebbe come dire che confronto due automobili su un percorso autostradale, e poi valuto i consumi su percorsi urbani.
Paradossalmente caro PaulGuru è del tutto possibile che sfruttando al 100% l'architettura di Fiji si ottengano prestazioni tali da giustificare quei consumi.
Non è che il consumo sia fine a se stesso, il consumo in torture test sta solo ad indicare il consumo con le unità pienamente operative, e se consideriamo la quantità di shader processor che ha Fiji è possibile che tutt'oggi non siano così sfruttate.
D'altro canto gli approcci di nVidia e AMD sono diammetralmente opposti. Oggi come oggi nVidia è avvantaggiata, ma solo uno sviluppatore di videogiochi può dirci dove evolverà il mercato.
Di certo con tutte ste consolate tutta questa potenza di calcolo (sia nVidia che AMD) è sprecata.
KampMatthew
29-06-2015, 10:32
Io sti vizi li ho tutti :( :(
E devi esserne contento, significa che ne hai la possibilità e che fai girare l'economia.
Io a parte il pc di cui non sento grandi necessità e le intrattenitrici :asd: (causa matrimonio) per il resto ci dò dentro bene. :D
e le intrattenitrici :asd: (causa matrimonio)
no ma poi....che tristezza dover pagare per far quella cosa li... imho.
fine ot.
KampMatthew
29-06-2015, 10:48
no ma poi....che tristezza dover pagare per far quella cosa li... imho.
fine ot.
Si, assolutamente d'accordo, io non ci sono mai stato, però mi riferivo a robe di alta classe, merce praticamente impossibile da trovare nella vita di tutti i giorni, non di certo a quelle per strada.
A me non piace, quindi probabilmente ho sbagliato a scrivere solo "causa matrimonio", non ci sono andato neanche quando ero single, ma non condanno chi spende 1000-2000€ per una nottata.
Vabbè rimanendo OT per me alta classe non è certo chi si vende, indipendentemente dal prezzo. Alta classe è la ragazza con la quale sto ora. E gioca con i videogiochi :D
Ma mi piace pensare che l'utente non si riferisse a pagare quanto più ad andare a patata in generale.
CrapaDiLegno
29-06-2015, 11:05
Un ultimo intervento, dato che questo thread ormai ha esaurito gli argomenti razionali:
e intanto il calabrone che non dovrebbe volare...continua imperterrito a prendere in giro gli scettici:D
da parte di Matt Buck,Technical Support Engineer di AMD,ha provato la fury in cross 2-3-4 schede
3Dmark fsu:
AMD Radeon R9 Fury X = Overall Score 4.337 / GPU Score 4.260
Due AMD Radeon R9 Fury X = Overall Score 7.557 / GPU Score 7.754 (scaling 82%)
Tre AMD Radeon R9 Fury X = Overall Score 10.801 / GPU Score 11.599 (scaling 49,58%)
Quattro AMD Radeon R9 Fury X = Overall Score 13.286 / GPU Score 15.102 (scaling 30,2%)
test anche con alcuni giochi
http://www.tomshw.it/news/quattro-radeon-r9-fury-x-in-crossfirex-in-un-pc-potenza-da-vendere-67909
http://forums.overclockers.co.uk/showthread.php?p=28241851#post28241851
https://twitter.com/TheMattB81
e ricordo il tutto con i suoi miseri 4GB:eek: :read:
Allora, evitiamo di fare queste uscite da very fanboy che non capiscono una cippa.
1,2,3,4,5,6,7,8 schede non cambiano l'uso della memoria se le impostazioni del gioco rimangono le stesse.
Quindi se il gioco non saturava la RAM a 4K con una scheda, non lo farà con 4. Quindi se il tuo intervento era per dire che il problema a 4K con 4 schede non sussiste, be', sei arrivato moooolto tardi, dato chele GTX980 sul mercato ormai da mesi già lo hanno dimostrato per questo tipo di giochi.
Interessante invece il fatto che non si sia usato GTA V come gioco o non si faccia mai riferimento all'uso della texture pack HQ che sono quello che migliora notevolmente la qualità grafica su un monitor 4K.
Il discorso della quantità di memoria ormai è diventato improponibile ai fanboy che continuano ad arrampicarsi sugli specchi. Vedremo le prossime uscite dei giochi. Ma già prevedo i soliti commenti sulle mazzette e sui complotti orditi contro AMD quando in 4K la memoria saturerà e queste schede avranno prestazioni peggiori delle 960.
E le DX12 non cambieranno nulla. Altro specchio da scalare per i fanboy.
@PaulGuru
I consumi di questa scheda raffreddata a liquido non sono per nulla importanti. Il calore è espulso tramite radiatore e non produce problemi agli altri componenti, per cui fossero veramente anche 100W in più, il problema non sussisterebbe. Concordo che comunque è indicazione che l'architettura GCN, nonostante l'HBM, sia ancora più di un passo indietro per quanto riguarda l'efficienza.
Ma, e ancora ma, il torture test non ha alcun significato. E' un test completamente inutile che non misura il lavoro effettuato, ma semplicemente quanto è il massimo a cui la scheda è permesso arrivare con l'assorbimento. E questo è un limite artificiale, dato che storicamente sia AMD che nvidia hanno inserito nei driver dei semplici rilevatori di questi test che impongono consumi limitati diversi da quelli possibili durante l'uso normale. Al prossimo rilascio di driver AMD potrebbe cappare il consumo a 100W in meno e non cambierebbe nulla.
Questione miracoli dei driver: basta. Davvero basta con questa storia.
A parte mostrare sempre una fiducia incondizionata che non può non essere scambiata per fanboysmo, ma anche fosse che i driver miracolosamente aumentassero le prestazoni del 10% rispetto ad oggi, cambierebbe qualcosa?
Farebbero davvero di questa scheda un prodotto migliore di quello che è?
La verità è che Fiji non è stato quello che tutti si aspettavano: un GM200 killer. Tra problemi di efficienza mascherati con il raffreddamento a liquido (voglio vedere quelle raffreddate ad aria come andranno), prestazioni inferiori all'atteso anche rispetto a quello sulla carta viste le differenze con Hawaii e i soliti "diver immaturi", la scheda non ha spostato di un millimetro la barra della competitività. Tanto che nvidia non ha dovuto ritoccare il suo prezzo di listino della GTX980Ti. Segno che tra un po', dopo la butade iniziale, il prezzo della Fury X è destinato a scendere. E non mi sembra proprio fosse quello l'obiettivo di AMD (cioè di rimanere nuovamente alle spalle del concorrente) nell'investimento in una tecnologia tanto costosa quanto prematuramente adottata come l'HBM.
Detto questo, l'ultimo acquisto intelligente a 28nm era la 970. Lo definisco intelligente perché è stata una sorpresa vedere quelle prestazioni con quel prezzo e quell'efficienza. Tutto quello che è venuto dopo è solo un esercizio di stile per succhiare soldi a chi è desideroso solo dell'ultimo frame/sec a tutti i costi (o per chi non ha capito cosa stesse comprando). La prossima generazione di almeno una delle due case (ma si spera di entrambe) farà piazza pulita di queste schede. E si avrà un confronto reale anche per quanto riguarda le DX12.
DX12 che, ancora una volta, sono prese come speranza per chi vuole giustificare l'acquisto di una scheda AMD oggi. Si mostrano certi bench senza alcun significato come motivazione del "e con le DX12 andrà meglio, vedete?" quando non ci sono driver ufficiali e soprattutto giochi con motori DX12 sul mercato. Ora che tutto vedrà la luce, Pascal e GCN2.0 saranno tra noi da un pezzo. E queste schede saranno equivalenti a quello che erano le 4870 o le GTX285 dei tempi andati.
Un ultimo intervento, dato che questo thread ormai ha esaurito gli argomenti razionali:
Allora, evitiamo di fare queste uscite da very fanboy che non capiscono una cippa.
1,2,3,4,5,6,7,8 schede non cambiano l'uso della memoria se le impostazioni del gioco rimangono le stesse.
Quindi se il gioco non saturava la RAM a 4K con una scheda, non lo farà con 4. Quindi se il tuo intervento era per dire che il problema a 4K con 4 schede non sussiste, be', sei arrivato moooolto tardi, dato chele GTX980 sul mercato ormai da mesi già lo hanno dimostrato per questo tipo di giochi.
Interessante invece il fatto che non si sia usato GTA V come gioco o non si faccia mai riferimento all'uso della texture pack HQ che sono quello che migliora notevolmente la qualità grafica su un monitor 4K.
Il discorso della quantità di memoria ormai è diventato improponibile ai fanboy che continuano ad arrampicarsi sugli specchi. Vedremo le prossime uscite dei giochi. Ma già prevedo i soliti commenti sulle mazzette e sui complotti orditi contro AMD quando in 4K la memoria saturerà e queste schede avranno prestazioni peggiori delle 960.
E le DX12 non cambieranno nulla. Altro specchio da scalare per i fanboy.
@PaulGuru
I consumi di questa scheda raffreddata a liquido non sono per nulla importanti. Il calore è espulso tramite radiatore e non produce problemi agli altri componenti, per cui fossero veramente anche 100W in più, il problema non sussisterebbe. Concordo che comunque è indicazione che l'architettura GCN, nonostante l'HBM, sia ancora più di un passo indietro per quanto riguarda l'efficienza.
Ma, e ancora ma, il torture test non ha alcun significato. E' un test completamente inutile che non misura il lavoro effettuato, ma semplicemente quanto è il massimo a cui la scheda è permesso arrivare con l'assorbimento. E questo è un limite artificiale, dato che storicamente sia AMD che nvidia hanno inserito nei driver dei semplici rilevatori di questi test che impongono consumi limitati diversi da quelli possibili durante l'uso normale. Al prossimo rilascio di driver AMD potrebbe cappare il consumo a 100W in meno e non cambierebbe nulla.
Questione miracoli dei driver: basta. Davvero basta con questa storia.
A parte mostrare sempre una fiducia incondizionata che non può non essere scambiata per fanboysmo, ma anche fosse che i driver miracolosamente aumentassero le prestazoni del 10% rispetto ad oggi, cambierebbe qualcosa?
Farebbero davvero di questa scheda un prodotto migliore di quello che è?
La verità è che Fiji non è stato quello che tutti si aspettavano: un GM200 killer. Tra problemi di efficienza mascherati con il raffreddamento a liquido (voglio vedere quelle raffreddate ad aria come andranno), prestazioni inferiori all'atteso anche rispetto a quello sulla carta viste le differenze con Hawaii e i soliti "diver immaturi", la scheda non ha spostato di un millimetro la barra della competitività. Tanto che nvidia non ha dovuto ritoccare il suo prezzo di listino della GTX980Ti. Segno che tra un po', dopo la butade iniziale, il prezzo della Fury X è destinato a scendere. E non mi sembra proprio fosse quello l'obiettivo di AMD (cioè di rimanere nuovamente alle spalle del concorrente) nell'investimento in una tecnologia tanto costosa quanto prematuramente adottata come l'HBM.
Detto questo, l'ultimo acquisto intelligente a 28nm era la 970. Lo definisco intelligente perché è stata una sorpresa vedere quelle prestazioni con quel prezzo e quell'efficienza. Tutto quello che è venuto dopo è solo un esercizio di stile per succhiare soldi a chi è desideroso solo dell'ultimo frame/sec a tutti i costi (o per chi non ha capito cosa stesse comprando). La prossima generazione di almeno una delle due case (ma si spera di entrambe) farà piazza pulita di queste schede. E si avrà un confronto reale anche per quanto riguarda le DX12.
DX12 che, ancora una volta, sono prese come speranza per chi vuole giustificare l'acquisto di una scheda AMD oggi. Si mostrano certi bench senza alcun significato come motivazione del "e con le DX12 andrà meglio, vedete?" quando non ci sono driver ufficiali e soprattutto giochi con motori DX12 sul mercato. Ora che tutto vedrà la luce, Pascal e GCN2.0 saranno tra noi da un pezzo. E queste schede saranno equivalenti a quello che erano le 4870 o le GTX285 dei tempi andati.
No dai non ci credo, e sarebbero gli altri i fanboy. Ultima spesa intelligente la 970, quella col trucchetto dei 3.5 giga di memoria invece di 4.
Ma sei un dipendente Nvidia?:sofico:
e intanto il calabrone che non dovrebbe volare...continua imperterrito a prendere in giro gli scettici:D
da parte di Matt Buck,Technical Support Engineer di AMD,ha provato la fury in cross 2-3-4 schede
3Dmark fsu:
AMD Radeon R9 Fury X = Overall Score 4.337 / GPU Score 4.260
Due AMD Radeon R9 Fury X = Overall Score 7.557 / GPU Score 7.754 (scaling 82%)
Tre AMD Radeon R9 Fury X = Overall Score 10.801 / GPU Score 11.599 (scaling 49,58%)
Quattro AMD Radeon R9 Fury X = Overall Score 13.286 / GPU Score 15.102 (scaling 30,2%)
test anche con alcuni giochi
http://www.tomshw.it/news/quattro-radeon-r9-fury-x-in-crossfirex-in-un-pc-potenza-da-vendere-67909
http://forums.overclockers.co.uk/showthread.php?p=28241851#post28241851
https://twitter.com/TheMattB81
e ricordo il tutto con i suoi miseri 4GB:eek: :read:
Aspettavo qualche test in CF, ma speravo in qualcosa di fatto un po meglio... :p
Ma perchè non vedo mai GTA5, che poi insieme a TW3 è l'unico gioco che vorrei far girare in 4k?
P.S. Ah ecco GTA5 in 4k, tutto sommato non sembra cavarsela male, ma vorrei vedere i settaggi ... :p
http://hexus.net/media/uploaded/2015/6/6d29fd03-39ae-4f94-b5d2-aec255d2aa8f.png
C'è chi spende soldi a mignotte, chi a schede grafiche, chi a ristoranti di lusso, chi in bottiglie di vino costose, ognuno ha i suoi sfizi da farsi passare e fa bene a farlo, la vita è una sola.
Io tolgo ristorante e vino, ma aggiungo moto e macchine veloci... :stordita:
Si, assolutamente d'accordo, io non ci sono mai stato, però mi riferivo a robe di alta classe, merce praticamente impossibile da trovare nella vita di tutti i giorni, non di certo a quelle per strada.
A me non piace, quindi probabilmente ho sbagliato a scrivere solo "causa matrimonio", non ci sono andato neanche quando ero single, ma non condanno chi spende 1000-2000€ per una nottata.
Concordo, io è un lusso che purtroppo mi posso permettere molto di rado, ma quell paio d'ore che ho passato con una pornostar, sono state indubbiamente le due ore più belle della mia vita. :p
Questione miracoli dei driver: basta. Davvero basta con questa storia.
A parte mostrare sempre una fiducia incondizionata che non può non essere scambiata per fanboysmo, ma anche fosse che i driver miracolosamente aumentassero le prestazoni del 10% rispetto ad oggi, cambierebbe qualcosa?
Farebbero davvero di questa scheda un prodotto migliore di quello che è?
La verità è che Fiji non è stato quello che tutti si aspettavano: un GM200 killer. Tra problemi di efficienza mascherati con il raffreddamento a liquido (voglio vedere quelle raffreddate ad aria come andranno), prestazioni inferiori all'atteso anche rispetto a quello sulla carta viste le differenze con Hawaii e i soliti "diver immaturi", la scheda non ha spostato di un millimetro la barra della competitività. Tanto che nvidia non ha dovuto ritoccare il suo prezzo di listino della GTX980Ti. Segno che tra un po', dopo la butade iniziale, il prezzo della Fury X è destinato a scendere. E non mi sembra proprio fosse quello l'obiettivo di AMD (cioè di rimanere nuovamente alle spalle del concorrente) nell'investimento in una tecnologia tanto costosa quanto prematuramente adottata come l'HBM.
Detto questo, l'ultimo acquisto intelligente a 28nm era la 970. Lo definisco intelligente perché è stata una sorpresa vedere quelle prestazioni con quel prezzo e quell'efficienza. Tutto quello che è venuto dopo è solo un esercizio di stile per succhiare soldi a chi è desideroso solo dell'ultimo frame/sec a tutti i costi (o per chi non ha capito cosa stesse comprando). La prossima generazione di almeno una delle due case (ma si spera di entrambe) farà piazza pulita di queste schede. E si avrà un confronto reale anche per quanto riguarda le DX12.
DX12 che, ancora una volta, sono prese come speranza per chi vuole giustificare l'acquisto di una scheda AMD oggi. Si mostrano certi bench senza alcun significato come motivazione del "e con le DX12 andrà meglio, vedete?" quando non ci sono driver ufficiali e soprattutto giochi con motori DX12 sul mercato. Ora che tutto vedrà la luce, Pascal e GCN2.0 saranno tra noi da un pezzo. E queste schede saranno equivalenti a quello che erano le 4870 o le GTX285 dei tempi andati.
Sinceramente? Si. AMD ci ha abituato ad avere anche consistenti miglioramenti grazie allo sviluppo drivers? Cosa negativa? No dato che la Fury si è dimostrata una buona scheda sotto molti punti di vista. Sarebbe stato molto peggio leggere di grossi problemi piuttosto che buone prestazioni che andranno in migliorare. Questo è solo un valore aggiunto.
Chi dice che ci si aspettava un GM200 killer? Io e penso tanti altri non l'abbiamo mai sperato: non deve essere necessariamente una guerra. Speravo in una scheda dalle caratteristiche valide, efficente ed equilibrata e penso che la Nano potrà essere ne più ne meno quel che cerco.
Non sto altresì tentando di difendere l'indifendibile: mi rendo conto perfettamente che l'archietettura non è rivoluzionaria e mi sarebbe davvero piaciuto trovare questo riscontro. Mi rendo conto anche che l'uso anticipato, rispetto a NVidia, della tecnologia HBM, per trovarsi con una scheda alla pari (che lo si voglia ammettere o no) con la concorrenza, non fa ben sperare. Cose già dette nei post precedenti.
Se cercate tra i miei altri post troverete sicuramente ammesso che a livello architetturale imho NVidia è avanti e la 970 la trovo una scheda straordinaria, però per una serie di ragioni hanno fatto in modo da farmi puntare la Nano e penso che l'attesa possa essere ripagata. Ah, no, non condivido ciò che ha fatto NVidia all'utenza con la 970, ma ciò non toglie i meriti che ha.
KampMatthew
29-06-2015, 11:28
Ma già prevedo i soliti commenti sulle mazzette e sui complotti orditi contro AMD quando in 4K la memoria saturerà e queste schede avranno prestazioni peggiori delle 960.
Vabbè questa è esagerata. :eek:
Ora che tutto vedrà la luce, Pascal e GCN2.0 saranno tra noi da un pezzo. E queste schede saranno equivalenti a quello che erano le 4870 o le GTX285 dei tempi andati.
Questo è lo stesso modo di ragionare di chi dice "con le dx12 andrà meglio". Non hai nulla di concreto in mano per dire cosa, come e quando succederà.
A me pare che in questa discussione manchi proprio l'obiettività. C'è chi vuole spalare merda a tutti i costi e chi la merda la vuole spacciare per oro.
Ma giudicare solo quello che è fattibile al momento no? Perchè parlare di ipotetici giochi che saturano o non saturano o che mettono in ginocchio.... La scheda la si compra oggi e va confrontata con tutto quello disponibile oggi. Il target di quste schede non è l'utenza che compra la scheda per tenerla 2-3-4 anni, al prossimo giro che sia anche fra 5 mesi la ricambia, perchè vuole sempre di più. Da che mondo è mondo è stato sempre così, il top di oggi sarà messo in ginocchio dal gioco di domani, ancor di più di quando si parla di giochi venduti in versione beta e di porting fatti coi piedi.
KampMatthew
29-06-2015, 11:37
No dai non ci credo, e sarebbero gli altri i fanboy. Ultima spesa intelligente la 970, quella col trucchetto dei 3.5 giga di memoria invece di 4.
Ma sei un dipendente Nvidia?:sofico:
In questa discussione ci vorrebbe la maestra d'asilo. E' assurdo.
Indipendentemente dal "trucchetto" la scheda era lodata ed osannata anche prima che si scoprisse il trucchetto. Non vedo come questa cosa possa abbassarne le prestazioni da un giorno all'altro.
La 970 è una scheda che permette di giocare a certi livelli a costo davvero contenuto e che sta dietro di pochi punti percentuale alla sorella maggiore che non ha nessun trucchetto ma che costava il doppio. Che Nvidia si sia comportata male è un'altra cosa, che esula dalle prestazioni della scheda.
Ricordo, prima che mi si dica che lavoro per Nvidia, che il sottoscritto ne veniva da 15-16 anni di ATI/AMD, quindi una certa esperienza ce l'ho, e la scheda l'avrei potuta tranquillamente restituire prendendo tutti i soldi spesi fino all'ultimo centesimo. Se non l'ho fatto, un motivo ci sarà. Oltre alle questioni di principio si guarda anche il rapporto prezzo prestazioni confrontandolo con la concorrenza.
CrapaDiLegno
29-06-2015, 11:44
No dai non ci credo, e sarebbero gli altri i fanboy. Ultima spesa intelligente la 970, quella col trucchetto dei 3.5 giga di memoria invece di 4.
Ma sei un dipendente Nvidia?:sofico:
Eh, purtroppo questo è il livello dei fanboy. Quelli rossi si distinguono però per la loro incapacità di coerenza totale o per avere sempre lo specchio più lungo. E continuare con post senza contenuto razionale.
Allora, sinceramente, per me nvidia avrebbe anche potuto metterci 2 criceti e un neurone di balena per fare andare la scheda. I bench hanno testimoniato che i numeri sono quelli e la scheda ha problema quando (e solo) la saturazione della VRAM è così esagerata per impostazioni che la mettono in ginocchio comunque (ci sono test assurdi dove in condizioni di non saturazione raggiunge i 20FPS per poi crollare a 5-6 quando si satura la VRAM... direi che sono test pressoché inutili a dimostrare che la VRAM è un problema su una scheda che non è in grado di sostenere i 4K se non in SLI. E con 2 SLI di 970 uno può comunque essere disposto a scendere a compromessi (se voleva il top senza compromessi non prendeva 2x970).
Quindi sì, la 970 è un acquisto intelligentissimo per chiunque sa cosa sta comprando. Tanto che con tutti i bla bla dei fanboy rossi fin qui letti, non c'è n'è uno tanto sciocco che possa indicare una soluzione AMD attualmente sul mercato che possa competere con essa.
Per chi vuole polemizzare, ci sono milioni di altri motivi per non aver dovuto comprare questa ma anche nessuna scheda AMD se per quello (stuttering a singola GPU? Chi? Come? Quando? Sample taroccati rispetto alle schede in commercio? Chi? Quando? 100W in più rispetto alla concorrenza per le stesse prestazioni? Davvero?).
Seghe mentali sulla questione "specifiche tenute nascoste" a parte, venire qui a pensare che la 970 con i suoi 3.5+0.5 GB di memoria non sia valida mentre la Fury X (scheda di livello superiore, come testimonia il suo prezzo doppio) con 4GB lo sia... non ci si può che fare una grassa risata... razionalità.. come dicevo a qualcuno manca... se poi ha le lenti rosse davanti, ancora di più.
In questa discussione ci vorrebbe la maestra d'asilo. E' assurdo.
Indipendentemente dal "trucchetto" la scheda era lodata ed osannata anche prima che si scoprisse il trucchetto. Non vedo come questa cosa possa abbassarne le prestazioni da un giorno all'altro.
La 970 è una scheda che permette di giocare a certi livelli a costo davvero contenuto e che sta dietro di pochi punti percentuale alla sorella maggiore che non ha nessun trucchetto ma che costava il doppio. Che Nvidia si sia comportata male è un'altra cosa, che esula dalle prestazioni della scheda.
Ricordo, prima che mi si dica che lavoro per Nvidia, che il sottoscritto ne veniva da 15-16 anni di ATI/AMD, quindi una certa esperienza ce l'ho, e la scheda l'avrei potuta tranquillamente restituire prendendo tutti i soldi spesi fino all'ultimo centesimo. Se non l'ho fatto, un motivo ci sarà. Oltre alle questioni di principio si guarda anche il rapporto prezzo prestazioni confrontandolo con la concorrenza.
Il trucchetto è imho piuttosto grave, ma sorvoliamo. Non avessi saputo della Nano, la 970 di dimensioni ridotte l'avrei presa molto volentieri e non è detto che non lo farò tra qualche tempo (come fatto spesso in passato con altre schede). Certo però che se vado al ristorante ed ordino della carne di cavallo, se poi mi portano del manzo.. certo se la carne è di qualità è di qualità, ma se pago per carne di cavallo..
E' successo in africa, leggevo ieri, con la differenza che si trattava di carne umana :asd:
Insomma meglio dichiarare subito le specifiche ond'evitare di essere presi per scorretti :O
KampMatthew
29-06-2015, 11:56
Insomma meglio dichiarare subito le specifiche ond'evitare di essere presi per scorretti :O
Assolutamente si, ma vedere chi fino al giorno prima osannava la 970 e il giorno dopo dire che merda di scheda è proprio indice di mancanza di neuroni, oppure ci sono ma staranno a riposo. Con tutta questa smania dei consumi... :asd:
CrapaDiLegno
29-06-2015, 12:03
Questo è lo stesso modo di ragionare di chi dice "con le dx12 andrà meglio". Non hai nulla di concreto in mano per dire cosa, come e quando succederà.
A me pare che in questa discussione manchi proprio l'obiettività. C'è chi vuole spalare merda a tutti i costi e chi la merda la vuole spacciare per oro.
Ma giudicare solo quello che è fattibile al momento no? Perchè parlare di ipotetici giochi che saturano o non saturano o che mettono in ginocchio.... La scheda la si compra oggi e va confrontata con tutto quello disponibile oggi. Il target di quste schede non è l'utenza che compra la scheda per tenerla 2-3-4 anni, al prossimo giro che sia anche fra 5 mesi la ricambia, perchè vuole sempre di più. Da che mondo è mondo è stato sempre così, il top di oggi sarà messo in ginocchio dal gioco di domani, ancor di più di quando si parla di giochi venduti in versione beta e di porting fatti coi piedi.
No, un attimo. Le cose sono ben diverse.
Sperare che le DX12 portino miracoli è un discorso basato sull'aria fritta. Perché per sostenerlo si posta la stessa identica slide di un test fatto con una configurazione con dei driver che non supportano ufficialmente nulla e con un solo test che dice poco o nulla.
Che il prossimo PP porti al raddoppio della densità dei transistor unito al dimezzamento dei consumi è questione reale. Storicamente, se guardi, tra uno shrink e il successivo ci sono sempre stati ampi margini di miglioramenti prestazionali. Puoi confrontare il G200 con Fermi (la seconda versione, che la prima era bacata di suo) o Fermi con Kepler. Lascio perdere su come abbia fatto nvidia a migliorare Maxwell vs Kepler sullo stesso PP, anche se questo è indica che una nuova architettura possa portare notevoli benefici che vanno oltre al PP usato (seppure credo che l'ultima revisione dei 28nm usata da nvidia non fosse proprio la stessa usata per Kepler).
E con il prossimo PP non siamo ad uno solo PP di vantaggio come storicamente è avvenuto, ma ad uno e mezzo (uno per la densità, e 2 per i consumi).
Quindi a meno di disastri come per Fermi, almeno una delle due dovrebbe presentare una architettura che si mangia queste ultime viste a colazione. Ecco perché ho detto una, ma speriamo entrambe (con entrambe sullo stesso piano i prezzi non possono certo essere quelli di questi 3 anni passati).
Per quello che accade oggi, non credo proprio che queste schede siano pensate per durare 5-6 mesi. Credo siano pochi coloro che possono permettersi di sostenere questi ritmi, anche tra i più fanboy/enthusiast.
Credo siano molti di più quelli che oggi ne acquistano una e tra un annetto se ne prendono un'altra per una configurazione SLI/CF.
Se così fosse, nessuno penserebbe mai che le Fury X possano supportare le DX12 un domani. Tra 6 mesi avremmo giusto degli embrioni di giochi (dicasi demo) con qualche supporto ad esse. Per avere un vero motore DX12 dovrà passare almeno un anno o forse anche 2.
Il fatti oggi dicono che già ci sono giochi che sforano i 4K quando modificati per sfruttare la IQ dei 4K. I fatti dicono che oggi non c'è sul mercato nessun gioco che supporti nativamente la qualità possibile dei 4K, ecco perché i test non mettono in evidenza che i 4GB non sono un problema.
La possibilità dei 4K è nata l'altro ieri con la fuori portata Titan X e il mese scorso con la sostenibile GTX980Ti. Ecco perché nessuno lo supporta ancora nativamente. Ma di certo lo sarà tra non molto. Decisamente prima che GTX980Ti o Fuxy X siano da considerarsi obsolete.
In questa discussione ci vorrebbe la maestra d'asilo. E' assurdo.
Indipendentemente dal "trucchetto" la scheda era lodata ed osannata anche prima che si scoprisse il trucchetto. Non vedo come questa cosa possa abbassarne le prestazioni da un giorno all'altro.
La 970 è una scheda che permette di giocare a certi livelli a costo davvero contenuto e che sta dietro di pochi punti percentuale alla sorella maggiore che non ha nessun trucchetto ma che costava il doppio. Che Nvidia si sia comportata male è un'altra cosa, che esula dalle prestazioni della scheda.
Ricordo, prima che mi si dica che lavoro per Nvidia, che il sottoscritto ne veniva da 15-16 anni di ATI/AMD, quindi una certa esperienza ce l'ho, e la scheda l'avrei potuta tranquillamente restituire prendendo tutti i soldi spesi fino all'ultimo centesimo. Se non l'ho fatto, un motivo ci sarà. Oltre alle questioni di principio si guarda anche il rapporto prezzo prestazioni confrontandolo con la concorrenza.
Con l'asilo stai messo male perché ho 56 anni:D
E per quanto riguarda schede che ti permettono di giocare a certi livelli a costo davvero contenuto, ti sei dimenticato di tutta la serie r9 290 che non mi pare costi tanto di più della 970.
Comunque non ho da tempo comprato e non comprerei una top di gamma Nvidia manco se andasse il doppio della concorrente AMD solo per come si pone sul mercato Nvidia (trucchetto come dici tu innocente della ram tagliata, acquisizione e distruzione di altre case produttrici per impadronirsi di brevetti oppure di farne scomparire il tipo di librerie proprietarie come i casi Ageya e 3Dfx, pesante intromissione nei giochi culminata con l'imposizione alle software house di immettere codici di riconoscimento dell'hardware che bloccano l'uso dell'hybrid physx a chi ha una doppia configurazione Amd - nvidia e conseguente impedimento nell'uso di una future presente nella scheda video Nvidia regolarmente acquistata, solamente perché si vuole affiancarla ad altra scheda video della società concorrente).
Per non parlare dei prezzi folli applicati alle proprie vga grazie proprio allo stuolo di fan boys disposti a tutto pur di poter affermare che la propria scheda video è un filin più veloce, condito ovviamente dai soliti gerghi: la 980ti asfalta la Fury X, ecc.
Continuo a ridermela e appena mi arriva la Fury X, a 580 euro ivati al day one, se vi interessa dato che avete a cuore il risparmio (vedi infatti come regalano le Titan X e le 980ti), ci gioco alla grande fregandomene altamente delle vostre solite menate e benchmark celoduristici.
Adieu:sofico:
Normalmente è così, ma il mercato tecnologico è diverso.
Ha le sue peculiarità (e in particolare il rapido e continuo calo dei prezzi dei prodotti), ma neanche lui sfugge alle primarie leggi di mercato.
Se proprio vogliamo lamentarci, io mi lamenterei più della 390x che è una semplice lavata di faccia di un chip già vecchio su cui hanno buttato 8 gb di memoria.
In realtà, come puntualizzato ufficialmente da AMD, non è lo stesso chip, tanto che non si chiama Hawaii ma Grenada.
Stessa architettura ma diverse migliorie interne, in particolare una rinnovata gestione energetica del chip (tanto che sono emersi alcuni test con driver nuovi che abilitavano queste novità in cui una 390X arrivava a consumare 30W in meno rispetto alla 290X nonostante le prestazioni superiori).
Oltretutto parlare di "chip già vecchio" per un'architettura che supporta il Tier 3 di DirectX 12 (ossia nessun limite hardware sul binding delle risorse, cosa che per inciso la concorrenza ad oggi ancora non fa) mi pare decisamente riduttivo.
non mi piace molto la 390x, in gaming ha dei consumi spropositati per la performance che ha.
e quando arriverà la FURY NANO credo non se la cagherà più nessuno sta scheda...
La Fury nano monta comunque un chip più grande e costoso, le schede non staranno affatto nella stessa fascia di prezzo. Se la differenza di prezzo si manterrà consistente, credo che la soluzione più economica possa ancora essere preferita da molti.
Questione miracoli dei driver: basta. Davvero basta con questa storia.
... ma anche fosse che i driver miracolosamente aumentassero le prestazioni del 10% rispetto ad oggi, cambierebbe qualcosa?
Farebbero davvero di questa scheda un prodotto migliore di quello che è?
Direi di si, il 10% migliore! :D
Quello che non capisco è il fastidio che ti da il fatto che la gente possa pensare che attraverso le nuove release dei driver il divario prestazionale possa ridursi o persino essere capovolto.
Capisco che affidarsi a questo sia una speranza un po' ingenua (se si deve comprare meglio farlo su ciò che un prodotto da, non su cosa promette), ma è anche vero che nell'ultimo periodo AMD ha ottenuto buoni risultati in questo senso (vedi il caso 290X-780TI), per cui un certo margine di recupero non è affatto da escludere.
Oltretutto, vista la situazione finanziaria di AMD, io non escluderei neppure che questa abbia rinunciato ad affinare i driver per le DX11, consapevole che le DX12 porranno da sole rimedio a certi problemi (tra cui il maggiore overhead dei driver AMD di cui si parla). Quindi non è neppure da escludere che in DX12 (che non sono così lontane) la scheda possa mostrare i muscoli.
PS: non sono d'accordo con te sul fatto che vedremo tra molto tempo le implementazioni delle DX12. Con Mantle ci sono voluti pochi mesi, figurati se le DX12 saranno da meno, per lo meno sui grandi motori grafici (quelli che si vendono a terzi).
Insomma, sperare nel driver miracoloso non ha senso secondo me (se poi qualcuno vuole farlo, beh, contento lui), ma trovo che ci siano le premesse per cui un certo recupero possa esserci.
Indipendentemente dal "trucchetto" la scheda era lodata ed osannata anche prima che si scoprisse il trucchetto.
Non proprio. Il nodo è venuto al pettine proprio perchè a causa del trucchetto molti acquirenti della scheda avevano riscontrato delle anomalie.
Ad un certo punto la questione era così evidente che Nvidia non ha potuto che rivelare le carte.
Certo, questo non toglie che la scheda in generale si comporti molto bene, ma a causa di questo trucchetto ha anche dei limiti.
Sicurmente, se oggi stiamo a recriminare sui 4GB della Fury X (che francamente trovo pochi anche io per una scheda del genere, al di la del fatto che oggi non siano un problema), allora per lo stesso motivo la 970 si scontrerà con i propri limiti prima di una scheda che monta 4GB di VRAM "paritari".
Eh, purtroppo questo è il livello dei fanboy. Quelli rossi si distinguono però per la loro incapacità di coerenza totale o per avere sempre lo specchio più lungo. E continuare con post senza contenuto razionale.
Allora, sinceramente, per me nvidia avrebbe anche potuto metterci 2 criceti e un neurone di balena per fare andare la scheda.
In questo tuo ragionamento è proprio la coerenza il problema.
Avere meno memoria per la Fury è un problema, ma per la 970 no.
Nvidia può mettere anche 2 criceti e un neurone purchè i test dimostrino che va bene, ma se AMD mette solo 4GB di VRAM, anche se ogni test oggi dimostra che non sono un limite, allora la Fury X è chiaramente limitata.
Non è che stiamo usando due pesi e due misure? ;)
KampMatthew
29-06-2015, 12:24
A parte il disorso sui futuri PP, dove tra l'altro si ragiona quasi per statistica perchè dalla teoria alla pratica ce ne passa e finchè non escono non sapremo mai cosa combineranno i produttori, tutto il resto sono supposizioni che puoi fare dal tuo punto di vista.
Quando venne fuori il primo Crisys tutti avrebbero scommesso il sedere che ad oggi chissà a cosa avremmo giocato, e invece sono passati 10 anni e a me pare che stiamo fermi, anzi, alcune uscite sono inspiegabilmente più pesanti dal punto di vista delle richieste hw ma di contro sono uno scempio in tutto e per tutto, grafica, IA, ecc.
Poi anche sta fissazione col 4k, finchè non usciranno giochi degni di tale piattaforma se mai usciranno, queste schede diventeranno pezzi da museo, ma non lo dico io, lo dice l'evoluzione che c'è stata nel tempo dei videogiochi. Una lentezza assurda.
Certo poi se uno per sentirsi realizzato deve giocare per forza in 4k tutto sparato al massimo anche se vede merda e spendere 7 stipendi ci sta pure, ognuno è libero di fare quello che vuole.
Che poi si voglia/debba confrontare questa scheda con la 980ti, che può essere sovraprezzata per i motivi più disparati, che sia sotto o sopra o consumi o non consumi, sono tutte disquisizioni che si possono fare, ma con obiettività. Sparare a zero e basta prendendo a paragone "quello che uscirà", per me non ha senso, magari sbaglio, ma io quando compro una vga non compro mai con la speranza che duri l'eternità, la sua longevità è una cosa che valuto man mano che passa il tempo e in base ai giochi che escono valuto se vale la pena cambiarla o no. Ma quando la compro vedo come fa girare quello disponibile al momento.
Anche per la 980ti o la titan o quello che vuoi, domani usciranno applicazioni che le metteranno in ginocchio, ma non per questo sono delle schede che fanno schifo.
Capisco anche che molti avevano aspettative estremamente alte, chiaramente quando il marketing spara troppo in alto senza allinerasi a quelli che l'hw lo progettano, fa più danni che altro.
CrapaDiLegno
29-06-2015, 12:26
In questo tuo ragionamento è proprio la coerenza il problema.
Avere meno memoria per la Fury è un problema, ma per la 970 no.
Nvidia può mettere anche 2 criceti e un neurone purchè i test dimostrino che va bene, ma se AMD mette solo 4GB di VRAM, anche se ogni test oggi dimostra che non sono un limite, allora la Fury X è chiaramente limitata.
Non è che stiamo usando due pesi e due misure? ;)
Ma la 970 non ha la potenza di calcolo della Fury X! Sono schede poste in 2 fasce diverse. La 970 va in crisi con i framerate molto prima di poter essere in grado di sfruttare 4GB di RAM (o 3.5GB veloci, perché comunque gli 0.5 lenti come dimostrato possono essere usati per i dati che non sono bandwidth critici) per i dati di una singola scena! Se vuoi giocare con delle slideshow molto prima che la memoria sia satura e poi addormentarti quando questa lo sarà allora sì, 4GB sono pochi sulla 970.
KampMatthew
29-06-2015, 12:47
Con l'asilo stai messo male perché ho 56 anni:D
E per quanto riguarda schede che ti permettono di giocare a certi livelli a costo davvero contenuto, ti sei dimenticato di tutta la serie r9 290 che non mi pare costi tanto di più della 970.
La 290 non costava così tanto di più ma non aveva delle features che aveva la serie 9xx. Poi se uno deve prendere una scheda normalmente tende a prende un prodotto più nuovo perchè, si spera, possa avere un supporto più duraturo rispetto ad una che sta già da 2 anni sul mercato.
Comunque non ho da tempo comprato e non comprerei una top di gamma Nvidia manco se andasse il doppio della concorrente AMD solo per come si pone sul mercato Nvidia
E' una tua scelta che io non giudico, fai come meglio credi.
(trucchetto come dici tu innocente della ram tagliata,
Citami dove ho scritto che si tratta di un trucchetto innocente.
Ho detto solo che al di là della scorrettezza di nvidia, la scheda prima e dopo che si è venuto a sapere funzionava uguale, quindi se ti stava bene prima ti doveva stare bene anche dopo, a meno che non farne una questione di principio.
acquisizione e distruzione di altre case produttrici per impadronirsi di brevetti oppure di farne scomparire il tipo di librerie proprietarie come i casi Ageya e 3Dfx, pesante intromissione nei giochi culminata con l'imposizione alle software house di immettere codici di riconoscimento dell'hardware che bloccano l'uso dell'hybrid physx a chi ha una doppia configurazione Amd - nvidia e conseguente impedimento nell'uso di una future presente nella scheda video Nvidia regolarmente acquistata, solamente perché si vuole affiancarla ad altra scheda video della società concorrente).
Certo, queste cose non piacciono nemmeno a me. Ma non è che non acquistando una loro scheda risolvi il mondo. Se per assurdo da domani nessuno acquista più una sola vga nvidia e questa fallisce, dopo domani ti ritrovi con una 290 a 800 €.
Per non parlare dei prezzi folli applicati alle proprie vga grazie proprio allo stuolo di fan boys disposti a tutto pur di poter affermare che la propria scheda video è un filin più veloce, condito ovviamente dai soliti gerghi: la 980ti asfalta la Fury X, ecc.
E infatti come ho già detto ho sempre preso ati perchè l'ho sempre ritenuta migliore come prezzo/prestazioni. chiaramente ognuno ha le sue necessità. Se uno vuole spendere 300 € in più per avere 3 fps in più son fatti suoi, a me cosa frega?
Continuo a ridermela e appena mi arriva la Fury X, a 580 euro ivati al day one, se vi interessa dato che avete a cuore il risparmio (vedi infatti come regalano le Titan X e le 980ti), ci gioco alla grande fregandomene altamente delle vostre solite menate e benchmark celoduristici.
Adieu:sofico:
Pobabilmente nella foga di voler avere ragione a tutti i costi non ti sei reso conto che io non sto facendo il tifo per nessuno e non sto dicendo che questa scheda è una merda, anzi, tutt'altro.
Vabbè, inutile perdere altro tempo su questa discussione, buon proseguimento (rosicamento) a tutti voi, sia di destra che di sinistra :asd:
Mamma mia che problemi! Come ho vissuto finora con la HD 5870 e la GTX 560 con tutta questa carenza di memoria :eek:
https://media0.giphy.com/media/10LIfKymIigJQk/200.gif
chi li fermerà?
http://abload.de/img/8bbfuu6o.gif (http://abload.de/image.php?img=8bbfuu6o.gif)
CrapaDiLegno
29-06-2015, 13:14
Mamma mia che problemi! Come ho vissuto finora con la HD 5870 e la GTX 560 con tutta questa carenza di memoria :eek:
Non giocavi certo a 4K, risoluzione in pieno target della Fury X e della GTX980Ti.
Ci si chiede perché sulla scheda di fascia inferiore (che a supportare il 4K non arriva se non CF) AMD abbia piazzato 8 GB di RAM...
Io gioco a 1440p con una scheda che ha 1.5+0.5 di RAM (660Ti). Ovviamente devo andare di compromessi di brutto, ma di sicuro la memoria è l'ultimo dei miei problemi, visto che la scheda scende a frame ingiocabili molto prima che la RAM saturi.
Sto aspettando i 16nm per cambiare.
CrapaDiLegno
29-06-2015, 13:17
https://media0.giphy.com/media/10LIfKymIigJQk/200.gif
Aahahah... ci sta tutto :D
Non giocavi certo a 4K, risoluzione in pieno target della Fury X e della GTX980Ti.
Ci si chiede perché sulla scheda di fascia inferiore (che a supportare il 4K non arriva se non CF) AMD abbia piazzato 8 GB di RAM...
Io gioco a 1440p con una scheda che ha 1.5+0.5 di RAM (660Ti). Ovviamente devo andare di compromessi di brutto, ma di sicuro la memoria è l'ultimo dei miei problemi, visto che la scheda scende a frame ingiocabili molto prima che la RAM saturi.
Sto aspettando i 16nm per cambiare.
Tu te lo chiedi, altri si sono già dati risposta. C'è anche il thread ufficiale se vuoi. Spero comunque che tu abbia colto il significato del mio intervento sarcastico.
Non giocavi certo a 4K, risoluzione in pieno target della Fury X e della GTX980Ti.
Ci si chiede perché sulla scheda di fascia inferiore (che a supportare il 4K non arriva se non CF) AMD abbia piazzato 8 GB di RAM...
Semplice: HBM al momento arriva a 4GB, la scheda di fascia inferiore monta le "tradizionali" GDDR5.
Non sai quante persone (non informate chiaramente) confrontano le VGA sulla base del quantitativo di RAM.
Io gioco a 1440p con una scheda che ha 1.5+0.5 di RAM (660Ti). Ovviamente devo andare di compromessi di brutto, ma di sicuro la memoria è l'ultimo dei miei problemi, visto che la scheda scende a frame ingiocabili molto prima che la RAM saturi.
Sto aspettando i 16nm per cambiare.
Appunto, ci sono schede in cui la RAM non serve a nulla, se non a vendere.
Detto ciò l'esplosione dei 4K è abbastanza recente... a momenti neanche i vari sistemi operativi sono molto preparati e te lo dice uno che ha un XPS15 che monta un pannello 4K 3200x1800.
Ma la 970 non ha la potenza di calcolo della Fury X!
E ha anche meno memoria non "castrata". ;)
E gli SLI si possono fare anche con la 970, e i texture pack ad alta definizione si possono usare anche con la 970. Ma il problema sembra esserci solo con la Fury X.
Oltretutto la 970 non è che sia proprio una schedina da nulla, e ti ricordo che i limiti a causa del giochetto della memoria sono già saltati fuori (il che significa che sono comunque casi reali, per quanto di nicchia).
Come ho già detto, io sono il primo a non essere contento dei soli 4 GB della Fury X. E non perchè siano un limite, ma perchè un prodotto del genere non deve rischiare di essere limitato in futuro.
Ahahahah non lo avevo visto il nuovo dredd... sembra un ragazzino che sta giocando con il casco del padre :rotfl:
Devono smetterla di rifare i film o almeno cominciare a farli bene.
troppo grande il casco del nuovo Dredd
a momenti ci entrano due teste :asd:
però tutto sommato mi è parso abbastanza caxxuto
fine ot.
filo mc-ati crossfire
29-06-2015, 14:03
troppo grande il casco del nuovo Dredd
a momenti ci entrano due teste :asd:
però tutto sommato mi è parso abbastanza caxxuto
fine ot.
scusate l'ot ma sta uscendo un nuovo film di dredd^???????
scusate l'ot ma sta uscendo un nuovo film di dredd^???????
no no.
l' ultimo film di Dredd è uscito nel 2012
CrapaDiLegno
29-06-2015, 14:14
Semplice: HBM al momento arriva a 4GB, la scheda di fascia inferiore monta le "tradizionali" GDDR5.
Non sai quante persone (non informate chiaramente) confrontano le VGA sulla base del quantitativo di RAM.
Non è "tanto semplice". Delle limitazioni della HBM si è consapevoli da quando è stata annunciata (2010). Il fatto che AMD non possa montare più di 4GB sulla top gamma ma usando altra tecnologia lo ha potuto (e voluto) fare con la fascia inferiore dimostra che 4GB oggi sono al limite.
Gli 8GB sulla 390X non hanno senso se non in configurazione CF a 4K. Sulla Fury X non serve un CF per arrivare a supportare il 4K, ma purtroppo il limite dei 4GB c'è ed è irrisolvibile.
Quello che voglio dire è che cosa possa o non possa fare AMD sulle sue schede ha poco valore: quello che conta è quello che fa. 4GB su una top gamma destinata al 4K (o come pubblicizza lei a 3x1 1440p che chiama 6K che ha ancora più pixel della 4K) sono pochi. Il giochino di voler acciuffare i polli con 8GB sulla 390X le dà ancora più torto, se possibile.
E ha anche meno memoria non "castrata". ;)
E gli SLI si possono fare anche con la 970, e i texture pack ad alta definizione si possono usare anche con la 970. Ma il problema sembra esserci solo con la Fury X.
Oltretutto la 970 non è che sia proprio una schedina da nulla, e ti ricordo che i limiti a causa del giochetto della memoria sono già saltati fuori (il che significa che sono comunque casi reali, per quanto di nicchia).
Come ho già detto, io sono il primo a non essere contento dei soli 4 GB della Fury X. E non perchè siano un limite, ma perchè un prodotto del genere non deve rischiare di essere limitato in futuro.
Sì, con lo SLI arrivi a supportare i 4K, ma è una scheda a cui non si chiede il "no compromesso". Altrimenti ti fai lo SLI di 980. Che però, anche quelle con soli 4GB hanno lo stesso identico problema della Fury X.
Ciò che dico io è che se si è riusciti a mettere in crisi la 970 con 3.5GB di RAM non sono quei 0.5GB di RAM in più che salveranno la Fury X. Anche perché quei 0.5GB di RAM sulla 970 ci sono, sono più veloci della memoria di sistema e possono essere usati per i dati non critici (e mi sembra che con gli ultimi driver nvidia abbia sistemato questo problema). Quindi teoricamente 4GB sfruttabili ci sono comunque sulla 970 al pari della Fury X.
Concludendo, se con uno SLI di 970 (che sono il prezzo di una GTX980Ti/Fury X) posso accettare compromessi, con un CF di Fury X direi di no. Il problema dei 4GB sono tutti lì. Anche perché la concorrenza si presenta con una scheda che va leggermente di più e non ha questo limite che, non facciamo finta di nulla, è ormai vicinissima alla soglia di saturazione in molti casi. La longevità delle due soluzioni è abbastanza evidente e costringerà a chi ha preso una Fury oggi a dover necessariamente cambiare al prossimo giro. Non sono quindi i soliti 20, 30, 50 euro in meno (che poi è prevedibile diventeranno 100) a fare la differenza su nvidia, se chi acquista sa cosa sta facendo.
C'è di buono che l'abbassamento dei prezzi della Fury X schiaccerà il prezzo (esagerato) della 980. E a ruota quindi quelle delle Fury di fascia inferiore e quindi della 390X... e quindi della 970. Più sotto credo non avverranno modifiche visto il gap di prezzi che ci sono.
Non è "tanto semplice". Delle limitazioni della HBM si è consapevoli da quando è stata annunciata (2010). Il fatto che AMD non possa montare più di 4GB sulla top gamma ma usando altra tecnologia lo ha potuto (e voluto) fare con la fascia inferiore dimostra che 4GB oggi sono al limite.
Gli 8GB sulla 390X non hanno senso se non in configurazione CF a 4K. Sulla Fury X non serve un CF per arrivare a supportare il 4K, ma purtroppo il limite dei 4GB c'è ed è irrisolvibile.
Quello che voglio dire è che cosa possa o non possa fare AMD sulle sue schede ha poco valore: quello che conta è quello che fa. 4GB su una top gamma destinata al 4K (o come pubblicizza lei a 3x1 1440p che chiama 6K che ha ancora più pixel della 4K) sono pochi. Il giochino di voler acciuffare i polli con 8GB sulla 390X le dà ancora più torto, se possibile.
Sì, con lo SLI arrivi a supportare i 4K, ma è una scheda a cui non si chiede il "no compromesso". Altrimenti ti fai lo SLI di 980. Che però, anche quelle con soli 4GB hanno lo stesso identico problema della Fury X.
Ciò che dico io è che se si è riusciti a mettere in crisi la 970 con 3.5GB di RAM non sono quei 0.5GB di RAM in più che salveranno la Fury X. Anche perché quei 0.5GB di RAM sulla 970 ci sono, sono più veloci della memoria di sistema e possono essere usati per i dati non critici (e mi sembra che con gli ultimi driver nvidia abbia sistemato questo problema). Quindi teoricamente 4GB sfruttabili ci sono comunque sulla 970 al pari della Fury X.
Concludendo, se con uno SLI di 970 (che sono il prezzo di una GTX980Ti/Fury X) posso accettare compromessi, con un CF di Fury X direi di no. Il problema dei 4GB sono tutti lì. Anche perché la concorrenza si presenta con una scheda che va leggermente di più e non ha questo limite che, non facciamo finta di nulla, è ormai vicinissima alla soglia di saturazione in molti casi. La longevità delle due soluzioni è abbastanza evidente e costringerà a chi ha preso una Fury oggi a dover necessariamente cambiare al prossimo giro. Non sono quindi i soliti 20, 30, 50 euro in meno (che poi è prevedibile diventeranno 100) a fare la differenza su nvidia, se chi acquista sa cosa sta facendo.
C'è di buono che l'abbassamento dei prezzi della Fury X schiaccerà il prezzo (esagerato) della 980. E a ruota quindi quelle delle Fury di fascia inferiore e quindi della 390X... e quindi della 970. Più sotto credo non avverranno modifiche visto il gap di prezzi che ci sono.
Non è la stessa tipologia di ram, non è la stessa architettura, quindi non ha senso dire che limitata la 970 lo è anche la Fury X solo perchè vantano lo stesso quantitativo di vram. Ed ora che chi compra la 390X è un pollo. Insomma non va bene nulla, a meno che non si tratti di NVidia?
Comunque i driver sembrano il tallone d'achille di amd (che ricordo non ha implementato alcune funzioni dx 11 relative al multi threading). Qua la differenza con driver di terze parti su ryse:
http://tpucdn.com/reviews/AMD/Catalyst_14.12_Performance/images/ryse_1080.gif
http://tpucdn.com/reviews/AMD/Catalyst_14.12_Performance/images/ryse_2160.gif
roccia1234
29-06-2015, 15:13
Comunque i driver sembrano il tallone d'achille di amd (che ricordo non ha implementato alcune funzioni dx 11 relative al multi threading). Qua la differenza con driver di terze parti su ryse:
http://tpucdn.com/reviews/AMD/Catalyst_14.12_Performance/images/ryse_1080.gif
http://tpucdn.com/reviews/AMD/Catalyst_14.12_Performance/images/ryse_2160.gif
Quali driver di terze parti? :mbe: :confused:
Si scusa, sono gli omega di amd, ma associerò a vita gli omega driver ai vecchi driver amd al tempo delle 9800 pro :asd:
Il fatto che AMD non possa montare più di 4GB sulla top gamma ma usando altra tecnologia lo ha potuto (e voluto) fare con la fascia inferiore dimostra che 4GB oggi sono al limite.Mi sembra una conclusione forzata, tirata per i capelli pur di farcela stare ^^
Il fatto che, pur conoscendo i limiti attuali, AMD abbia optato per 4GB di HBM sulla sua VGA top ed abbia invece relegato le GDDR5 in quantità doppia, sulla sua scheda di fascia inferiore, significa semmai l'esatto contrario, cioè che AMD reputa le HBM più adatte ad una top di gamma, anche se in quantità ridotta.
E' ovvio che potendo avrebbe messo 8GB di HBM, ma dovendo scegliere tra 8 o più GB di GDDR5 e 4GB di HBM, ha preferito costruire la sua VGA su queste memorie, pur se in quantitativo inferiore.
Comunque i driver sembrano il tallone d'achille di amd (che ricordo non ha implementato alcune funzioni dx 11 relative al multi threading). Qua la differenza con driver di terze parti su ryse:
Tocca comunque vedere se il miglioramento è dovuto ad 'ottimizzazioni' ad hoc per quel gioco oppure da effettivi miglioramenti a tutto tondo ad esempio con l'overhead dei driver.
Mi sembra una conclusione forzata, tirata per i capelli pur di farcela stare ^^
Il fatto che, pur conoscendo i limiti attuali, AMD abbia optato per 4GB di HBM sulla sua VGA top ed abbia invece relegato le GDDR5 in quantità doppia, sulla sua scheda di fascia inferiore, significa semmai l'esatto contrario, cioè che AMD reputa le HBM più adatte ad una top di gamma, anche se in quantità ridotta.
E' ovvio che potendo avrebbe messo 8GB di HBM, ma dovendo scegliere tra 8 o più GB di GDDR5 e 4GB di HBM, ha preferito costruire la sua VGA su queste memorie, pur se in quantitativo inferiore.
Piano però: se non usava le HBM che ne veniva fuori dato che l'archietettura è sempre la stessa?
Piano però: se non usava le HBM che ne veniva fuori dato che l'archietettura è sempre la stessa?Infatti ho detto che ha preferito le HBM come base per il progetto della nuova VGA, pur conoscendone i limiti.
Concludendo, se con uno SLI di 970 (che sono il prezzo di una GTX980Ti/Fury X) posso accettare compromessi, con un CF di Fury X direi di no.
Non discuto assolutamente sul diverso target delle due schede. Volevo solo far notare l'approccio diametralmente opposto con cui hai trattato la problematica in un caso e nell'altro.
Il punto è che in questo modo si ha l'impressione che ha ben descritto un altro utente poco sotto, e che cito:
Non è la stessa tipologia di ram, non è la stessa architettura, quindi non ha senso dire che limitata la 970 lo è anche la Fury X solo perchè vantano lo stesso quantitativo di vram. Ed ora che chi compra la 390X è un pollo. Insomma non va bene nulla, a meno che non si tratti di NVidia?
CrapaDiLegno
29-06-2015, 15:52
Non è la stessa tipologia di ram, non è la stessa architettura, quindi non ha senso dire che limitata la 970 lo è anche la Fury X solo perchè vantano lo stesso quantitativo di vram. Ed ora che chi compra la 390X è un pollo. Insomma non va bene nulla, a meno che non si tratti di NVidia?
HBM... quale miracolo... inutile continuare con la tiritera che non sono uguali di qui o di là. Saranno differenti, più veloci, meno latenze, consumi, spazi etc..., ma la capacità è la capacità e la banda esterna è sempre la stessa.
Basta arrampicarsi sugli spechi credendo nelle fate e negli elfi.
La tua ultima frase la dice tutta su quanto hai i filtri rossi sugli occhi.
Allora, o gli 8GB sulla 390X sono il quantitativo giusto per le risoluzioni fino a 4K (considerando uno CF di 390X), o i 4GB sulla Fury X sono pochi.
Siccome io ritengo quest'ultima l'opzione corretta, ritengo che 8GB sulla 390X siano per i polli.
Sostenere entrambe le opzioni è impossibile a meno di non avere gli occhi (e i neuroni) divergenti.
Certo che anche tu che passi le tue giornate a discutere con uno che si chiama CrapaDiLegno hai la testa dura :D
Basterebbe fare un discorso sensato che sia coerente per confutare le mie idee. Siccome non ci riuscite (dato che non è possibile sostenere 2 teorie opposte contemporaneamente), non potete far altro che andare in difesa e continuare ad arrampicarvi.
Poiché mi piace vedervi salire così tanto là dove non ci riuscirebbe nessun altro, mi diverto a stimolarvi per farvi continuare.
Mi sembra una conclusione forzata, tirata per i capelli pur di farcela stare ^^
Il fatto che, pur conoscendo i limiti attuali, AMD abbia optato per 4GB di HBM sulla sua VGA top ed abbia invece relegato le GDDR5 in quantità doppia, sulla sua scheda di fascia inferiore, significa semmai l'esatto contrario, cioè che AMD reputa le HBM più adatte ad una top di gamma, anche se in quantità ridotta.
E' ovvio che potendo avrebbe messo 8GB di HBM, ma dovendo scegliere tra 8 o più GB di GDDR5 e 4GB di HBM, ha preferito costruire la sua VGA su queste memorie, pur se in quantitativo inferiore.
Ecco cosa intendevo come sostegno di due teorie insostenibili. Per far sì che la cosa funzioni, come per tutte le teorie astruse, bisogna creare qualcosa di fantascientifico, misterioso (e che pretenda assoluta fede mistica) in mezzo che le colleghi: e queste sono le caratteristiche mirabolanti delle HBM i cui 4GB di capacità non sono 4GB ma un numero a caso più grande sufficiente a eguagliare il valore della concorrenza. Come dire che una damigiana, se realizzata in polimeri speciali (o grafene?) piuttosto che con il vetro, con le stesse misure, potrebbe contenere più vino... perché dentro ci sta sempre il vino se non l'avete capito.
E' ovvio che AMD non ha considerato le HBM "più capaci" delle GDDR5. Ha voluto usare le HBM per motivi altri (tra i quali che hanno maggiori prestazioni, sebbene non così strabilianti con 1.5x quello che fanno le GDDR5 sulla GTX980Ti e riducono i consumi) ma questo le ha imposto diversi e pesanti limitazioni con cui deve convivere e farli passare in sordina.
Prova solo a pensare di usare Fiji su una scheda professionale con soli 4GB di RAM. Ci realizzi giusto le entry level. Oppure se vuoi puoi andare in giro a dire che 4GB su una scheda professionale il cui scopo è fare elaborazione di grandi quantità di dati sono più che sufficienti perché sono HBM (polimeri speciali, signori!). Vediamo se li convinci che i tuoi 4GB sono più grandi di quelli della concorrenza (sembra il classico indovinello se pesa di più un chilo di fieno o un chilo di ferro...).
Si era mica parlato di GTA5 e the witcher 3 in 4K che potevano essere problematici per i 4GB?
http://36646d87786feafc0611-0338bbbce19fc98919c6293def4c5554.r0.cf1.rackcdn.com/images/EEoWFjkpTk2r.jpg
http://ec0c5a7f741a6f3bff65-dd07187202f57fa404a8f047da2bcff5.r85.cf1.rackcdn.com/images/wDOp39UqTaeN.jpg
Non mi pare si comporti male.
Almeno come fps, se poi c'è qualche problema grafico non è dato sapere.
Rettifico, è dato sapere invece:
Quindi stando a questa recensione i 4GB si fanno sentire con gta5 a 1440p e 4k, solo con settaggi avanzati (quali?) e MSAA (che in realtà a 4k serve a un cazzo), ma si fanno sentire.
TW3 non va nemmeno vicino a saturare i 4gb in 4k.
GTA 5 può facilmente sforarli a 1080p.
Non capisco il confronto.
In ogni caso quando si sfora la ram i giochi usano la cache dell'hard disk, se si ha un pc e un hard disk veloce il calo di framerate non è assolutamente così grande.
Una cosa che mi piacerebbe vedere tuttavia è il replacing della roba che l'os mette nella vram sulla cache del pc nei giochi.
Esempio:
L'os usa 500 mb vram in win 8.1.
Gioco X ne usa 3.8.
I driver potrebbero riallocare la roba dell'os nella cache e utilizzare i 0.5 gb di vram rimanenti nel gioco.
Nel caso di 970 che ha il problema dei 0.5 gb lenti invece è addirittura preferibile allocare la roba dell'os nella ram lenta e il gioco nella cache. Ma immagino sia troppo sbatti per gli ingegneri nvidia.
Pier2204
29-06-2015, 16:00
HBM... quale miracolo... inutile continuare con la tiritera che non sono uguali di qui o di là. Saranno differenti, più veloci, meno latenze, consumi, spazi etc..., ma la capacità è la capacità e la banda esterna è sempre la stessa.
Basta arrampicarsi sugli spechi credendo nelle fate e negli elfi.
La tua ultima frase la dice tutta su quanto hai i filtri rossi sugli occhi.
Allora, o gli 8GB sulla 390X sono il quantitativo giusto per le risoluzioni fino a 4K (considerando uno CF di 390X), o i 4GB sulla Fury X sono pochi.
Siccome io ritengo quest'ultima l'opzione corretta, ritengo che 8GB sulla 390X siano per i polli.
Sostenere entrambe le opzioni è impossibile a meno di non avere gli occhi (e i neuroni) divergenti.
Basterebbe fare un discorso sensato che sia coerente per confutare le mie idee. Siccome non ci riuscite (dato che non è possibile sostenere 2 teorie opposte contemporaneamente), non potete far altro che andare in difesa e continuare ad arrampicarvi.
Poiché mi piace vedervi salire così tanto là dove non ci riuscirebbe nessun altro, mi diverto a stimolarvi per farvi continuare.
Ecco cosa intendevo come sostegno di due teorie insostenibili. Per far sì che la cosa funzioni, come per tutte le teorie astruse, bisogna creare qualcosa di fantascientifico, misterioso (e che pretenda assoluta fede mistica) in mezzo che le colleghi: e queste sono le caratteristiche mirabolanti delle HBM i cui 4GB di capacità non sono 4GB ma un numero a caso più grande sufficiente a eguagliare il valore della concorrenza. Come dire che una damigiana, se realizzata in polimeri speciali (o grafene?) piuttosto che con il vetro, con le stesse misure, potrebbe contenere più vino... perché dentro ci sta sempre il vino se non l'avete capito.
E' ovvio che AMD non ha considerato le HBM "più capaci" delle GDDR5. Ha voluto usare le HBM per motivi altri (tra i quali che hanno maggiori prestazioni, sebbene non così strabilianti con 1.5x quello che fanno le GDDR5 sulla GTX980Ti e riducono i consumi) ma questo le ha imposto diversi e pesanti limitazioni con cui deve convivere e farli passare in sordina.
Prova solo a pensare di usare Fiji su una scheda professionale con soli 4GB di RAM. Ci realizzi giusto le entry level. Oppure se vuoi puoi andare in giro a dire che 4GB su una scheda professionale il cui scopo è fare elaborazione di grandi quantità di dati sono più che sufficienti perché sono HBM (polimeri speciali, signori!). Vediamo se li convinci che i tuoi 4GB sono più grandi di quelli della concorrenza (sembra il classico indovinello se pesa di più un chilo di fieno o un chilo di ferro...).
Ma i 4 GB è un limite insormontabile?... chiedo, perchè so che tra poco esce anche la versione a 8GB...
Attualmente con i giochi 4GB sono sufficenti anche nei 4K, come i bench dimostrano... o mi sbaglio?
CrapaDiLegno
29-06-2015, 16:02
Non discuto assolutamente sul diverso target delle due schede. Volevo solo far notare l'approccio diametralmente opposto con cui hai trattato la problematica in un caso e nell'altro.
Il punto è che in questo modo si ha l'impressione che ha ben descritto un altro utente poco sotto, e che cito:
Il punto indicato è estratto dal manuale "filosofia dell'elettronica per principianti".
Per quanto riguarda il doppio peso ancora non l'ho capito. Prova a rispondere 4GB sua una 750Ti sarebbero tanti o pochi? Perché? Cosa distingue una 750Ti da una 970 e questa da una 980Ti? Se riesci a rispondere vedrai che non ci sono 2 pesi o 2 misure.
Un'auto che non fa i 2Km/l non ha bisogno di un serbatoio da 120litri. Se mi fai una macchina che consuma 2Km/l ma con il serbatoio da 60 litri, scusa se per me è una sciocchezza, mentre non ritengo tale la cosa se me ne monti uno da 40 su una Punto.
CrapaDiLegno
29-06-2015, 16:05
Ho semplicemente riportato i test di entrambi perchè si diceva fossero i giochi più problematici per la memoria, se TW3 non lo è non guardarlo, non era un confronto.
Confronta la fury x con la 980ti e vedrai che non si comporta diversamente a 4k rispetto ad altre risoluzioni.
Però poi dicono che impostando msaa e altre impostazioni avanzate a 4k i frame sono crollati a 6fps dove la 980ti (superclocked bisogna dire) ne fa 17 e la titan x 22.
Situazioni limite certo, nessuno imposterebbe mai un msaa su 4k e chissà che altre impostazioni avanzate, però giusto tenerne conto.
Sono impostazioni quasi assurde oggi, ma sono significative del fatto che siamo al limite. Poco di più e sei fregato. Basta un set di texture fatte come si deve per i 4K che trovo decisamente più utili di 4xAA.
Ecco cosa intendevo come sostegno di due teorie insostenibili. Per far sì che la cosa funzioni, come per tutte le teorie astruse, bisogna creare qualcosa di fantascientifico, misterioso (e che pretenda assoluta fede mistica) in mezzo che le colleghi: e queste sono le caratteristiche mirabolanti delle HBM i cui 4GB di capacità non sono 4GB ma un numero a caso più grande sufficiente a eguagliare il valore della concorrenza. Come dire che una damigiana, se realizzata in polimeri speciali (o grafene?) piuttosto che con il vetro, con le stesse misure, potrebbe contenere più vino... perché dentro ci sta sempre il vino se non l'avete capito.
E' ovvio che AMD non ha considerato le HBM "più capaci" delle GDDR5. Ha voluto usare le HBM per motivi altri (tra i quali che hanno maggiori prestazioni, sebbene non così strabilianti con 1.5x quello che fanno le GDDR5 sulla GTX980Ti e riducono i consumi) ma questo le ha imposto diversi e pesanti limitazioni con cui deve convivere e farli passare in sordina.
Prova solo a pensare di usare Fiji su una scheda professionale con soli 4GB di RAM. Ci realizzi giusto le entry level. Oppure se vuoi puoi andare in giro a dire che 4GB su una scheda professionale il cui scopo è fare elaborazione di grandi quantità di dati sono più che sufficienti perché sono HBM (polimeri speciali, signori!). Vediamo se li convinci che i tuoi 4GB sono più grandi di quelli della concorrenza (sembra il classico indovinello se pesa di più un chilo di fieno o un chilo di ferro...).
Non ho mai scritto che le HBM sono più capaci, né fatto considerazioni su vram e VGA pro, se possibile evita di mettermi in bocca cose che non ho detto e magari prova ad attenerti a quanto uno scrive.
Ho semplicemente detto che AMD, nel progetto per la sua nuova VGA, potendo scegliere tra tanta vram tradizionale e poca HBM, ha optato per quest'ultima sulla top di gamma e ha relegato la vram tradizionale (ben 8GB) su di una VGA inferiore.
Mi sembra sia un dato di fatto e non ci sia molto da commentare, fattene una ragione.
CrapaDiLegno
29-06-2015, 16:08
Ma i 4 GB è un limite insormontabile?... chiedo, perchè so che tra poco esce anche la versione a 8GB...
Attualmente con i giochi 4GB sono sufficenti anche nei 4K, come i bench dimostrano... o mi sbaglio?
Non c'è nessuna versione da 8GB in arrivo. Il suo costo sarebbe spropositato con questa versione delle HBM. Magari, in futuro arriverà quando le HBMv2 saranno realizzate, ma a quel punto questa GPU sarà fascia media.
PaulGuru
29-06-2015, 16:09
Di certo con tutte ste consolate tutta questa potenza di calcolo (sia nVidia che AMD) è sprecata.
Usa il 1440p e vedrai che c'è ben poco di sprecato.
CrapaDiLegno
29-06-2015, 16:10
Non ho mai scritto che le HBM sono più capaci, né fatto considerazioni su vram e VGA pro, se possibile evita di mettermi in bocca cose che non ho detto e magari prova ad attenerti a quanto uno scrive.
Ho semplicemente detto che AMD, nel progetto per la sua nuova VGA, potendo scegliere tra tanta vram tradizionale e poca HBM, ha optato per quest'ultima sulla top di gamma e ha relegato la vram tradizionale (ben 8GB) su di una VGA inferiore.
Mi sembra sia un dato di fatto e non ci sia molto da commentare, fattene una ragione.
Certo che è un dato di fatto, ma la motivazione quale sarebbe? Che le HBM sono migliori in quale modo per compensare gli 8GB possibili con le GDDR5?
Se non passi per la fantateoria, non capisco quale sia la ragione per tale scelta che tu reputi sensata.
Certo che è un dato di fatto, ma la motivazione quale sarebbe? Che le HBM sono migliori in quale modo per compensare gli 8GB possibili con le GDDR5?
Se non passi per la fantateoria, non capisco quale sia la ragione per tale scelta che tu reputi sensata.
Ma chi ha mai parlato di sensato o meno? Non rigiriamo la frittata sperando sulla scarsa memoria delle perone.
Tu hai affermato che il fatto che AMD abbia messo 8GB di vram sulla 390X significa che 4GB sono al limite. Io ti ho risposto che "E' ovvio che potendo avrebbe messo 8GB di HBM, ma dovendo scegliere tra 8 o più GB di GDDR5 e 4GB di HBM, ha preferito costruire la sua VGA su queste memorie, pur se in quantitativo inferiore."
Mi sembra una cosa di un'ovvietà estrema, visto che è proprio ciò che ha fatto AMD.
Qui non si discuteva di cosa sia meglio o di cosa pensi io, ma di cosa abbia scelto AMD e di cosa AMD abbia reputato ottimale per la sua top di gamma. Avendo AMD optato per le HBM, la risposta mi sembra semplice, ovvia e non suscettibile di discussione, visto che è un dato di fatto che la FuryX adotti le HBM.
CrapaDiLegno
29-06-2015, 19:29
Ma chi ha mai parlato di sensato o meno? Non rigiriamo la frittata sperando sulla scarsa memoria delle perone.
Tu hai affermato che il fatto che AMD abbia messo 8GB di vram sulla 390X significa che 4GB sono al limite. Io ti ho risposto che "E' ovvio che potendo avrebbe messo 8GB di HBM, ma dovendo scegliere tra 8 o più GB di GDDR5 e 4GB di HBM, ha preferito costruire la sua VGA su queste memorie, pur se in quantitativo inferiore."
Mi sembra una cosa di un'ovvietà estrema, visto che è proprio ciò che ha fatto AMD.
Qui non si discuteva di cosa sia meglio o di cosa pensi io, ma di cosa abbia scelto AMD e di cosa AMD abbia reputato ottimale per la sua top di gamma. Avendo AMD optato per le HBM, la risposta mi sembra semplice, ovvia e non suscettibile di discussione, visto che è un dato di fatto che la FuryX adotti le HBM.
Scusa, ma il tuo discorso cosa significa? Lo sappiamo che le Fury montano 4GB per limitazione della tecnologia usata. Dato di fatto. Incontrovertibile. E immodificabile.
La tua frase rivolta al mio commento
Mi sembra una conclusione forzata, tirata per i capelli pur di farcela stare dando come giustificazione un dato di specifica non ha alcun senso.
Cioè, il mio ragionamento sulla validità o meno della capacità della memoria è tirato per i capelli perché la Fury monta 4GB? Non sense a tutto campo. Credo che lo specchio sia finito, vero?
La questione è se 4GB, per scelta, costi, tecnologia o quant'altro su una siffatta scheda siano tanto o pochi. Non prendere atto di cosa ha fatto o scelto AMD. Per quello non serve una discussione.
Io reputo che siano pochi. Sono terribilmente vicini al limite di saturazione quando si alzano le impostazioni al livello che una immagine 4K meriterebbe.
Il tutto assecondato dal fatto che sulle 390X di GB ce ne sono 8. Non me ne frega che AMD abbia reputato che le HBM siano meglio o peggio sulla sua top. La quantità, per me e per molti altri a quanto leggo, non basta. Se avesse installato le HBMv2 con 1TG/s di banda ma solo 2GB? Sarebbe stata una scelta intelligente solo perché AMD ha reputato che è giusto così?
Per le sue scelte AMD mi chiede 600 e rotti euro. I prezzi non sono ancora né chiari né stabili dato che sembra che le scorte siano minime. Comunque non me la regala. E per quel quantitativo di euro che vuole potrò essere libero di capire se ne vale la pena oppure no?
Se me la regalasse, pure 512MB per giocare a 1024x768 sarebbero buoni. Ma purtroppo non è così. Se non giochi a 4K 4GB possono bastare ed esserne felici a lungo ed essere venduta al prezzo che compete per una scheda di quella fascia senza compromessi (GTX980). Ma questa è una scheda TOP. Quella senza compromessi. Quella che AMD dice essere in grado di gestire 12milioni di pixel. Non i 4 scarsi della 2560x1440. Quella che è spacciata per "rivoluzione epocale".
Quindi se si arriva al punto di volerla svalutare ulteriormente pur di dare ragione alle scelte compiute, allora va bene. Tutto è lecito (con prezzo allineato però). Ma se la si vuole difendere per il posto che le è stato dato, allora no. Non c'è ragionamento che tenga.
Quindi, per finire, o gli 8GB sulla 390X sono uno specchietto per polli o i 4GB della Fury sono pochi. Una delle due. Non si può reputare entrambe vere. Se non riuscite a risolvere il dilemma, vuol dire che non siete imparziali e anche se non ve ne accorgete avete dei filtri rossi sugli occhi.
Toglieteli, fate un bel respiro e pensateci bene.
Ci riprovo, poi ci rinuncio.
Tu hai detto:
Il fatto che AMD non possa montare più di 4GB sulla top gamma ma usando altra tecnologia lo ha potuto (e voluto) fare con la fascia inferiore dimostra che 4GB oggi sono al limite.
Da qui è nata la discussione.
Ora, se vuoi dimostrare, in base al comportamento di AMD, che 4GB oggi sono al limite, sbagli, perché proprio il comportamento di AMD, cioè dotare una scheda inferiore di 8GB e la top di gamma di 4GB di HBM, dimostra che AMD è convinta dell'esatto contrario, cioè che 4GB possono essere sufficienti.
Puoi sostenere tranquillamente che per te 4GB sono al limite, ma se sostieni che il comportamento di AMD lo conferma, allora sbagli, perché scegliendo di dotare la sua VGA top di soli 4 GB significa che la vede in maniera diametralmente opposta.
Era un semplice appunto e non capisco perché per un concetto così banale si stia trascinando la discussione da un bel po'.
Se poi sei così interessato alla mia opinione, ti dirò che, alla luce dei test, con i giochi attuali, sembra che AMD abbia ragione. La Fury sembra stia dando il meglio proprio all'aumentare della risoluzione, ciò significa che il progetto (per il quale, tra le altre cose, si è preferito optare per soli 4GB), è buono, perlomeno con i giochi attuali a 4K, per quelli futuri vedremo.
Usa il 1440p e vedrai che c'è ben poco di sprecato.
Non è una questione di risoluzione, è una questione di giochi pensati per le console e portati ad-minchiam su PC.
Certo che è un dato di fatto, ma la motivazione quale sarebbe? Che le HBM sono migliori in quale modo per compensare gli 8GB possibili con le GDDR5?
Mamma mia quanto la tiri per lunghe, e molla un po' la presa figlio mio...
AMD ha scelto di usare HBM per la sua top di gamma per i motivi noti (larghezza di banda, maggiore densità e consumi inferiori).
Il max che poteva montare allo stato attuale è 4GB.
Giusto? Sbagliato? Oltraggio alla corte?
Se lo capisci bene, altrimenti lascia perdere, sei pesante :rolleyes: .
Posso capire che può sembrare strano che la 390X abbia 8GB, ma ribadisco che come tutte le cose è una questione di marketing (oggettivamente non cambia NIENTE dalla 290X).
Poi se c'è qualcuno che pensa che la 980Ti possa risultare più longeva (mesi? anni?) per via dei 6GB di RAM e un 10% in più di performance, pace.
Abbiamo capito che AMD vi sta sulle palle, ma non potete tediare tutto il forum tra te e PaulGuru :asd:
Il punto indicato è estratto dal manuale "filosofia dell'elettronica per principianti".
Non mi riferivo al contenuto tecnico nel messaggio citato, non è di quello che si stava parlando.
Che poi tutti i torti non li ha. Sappiamo bene come diverse architetture possano sfruttare in modo differente la stessa quantità di memoria e come esistano tecniche di compressione migliori di altre.
Certo, questo non fa diventare i 4GB di questa scheda 8GB, ma può incidere.
Per quanto riguarda il doppio peso ancora non l'ho capito.
Non l'hai capito? Seriamente?
Per una scheda dici che la memoria non conta (cito: "potrebbe montare due criceti e un neurone") ma contano i le prestazioni sul campo, per l'altra, dove i test con i giochi attuali sono positivi, allora guardi la memoria montata.
Da una parte ti prodighi a difendere una scheda per la quale si è mentito spudoratamente in relazione alle specifiche e si è omesso di dire che non tutta la memoria è accessibile con la larghezza di banda dichiarata e che non esiti a definire il miglior acquisto possibile, dall'altra ti prodighi con altrettanto ardore a spulciare i difetti e i potenziali limiti della scheda.
Anche la 970, sebbene di fascia inferiore alle Fury X, rientra in quella fascia in cui 4 GB si possono sfruttare, ma per lei sicuramente non sarà in alcun modo un limite, giusto?
Che poi, chiariamoci (anche per evitare ulteriori fraintendimenti), non sto dicendo assolutamente che la Fury X sia perfetta, che non abbia difetti, che sia la miglior scheda, ecc... anche perchè non lo penso affatto.
Ma di fronte a certi ragionamenti come quello che ha dato vita a questo scambio di opinioni, beh, un appunto andava fatto.
La tua ultima frase la dice tutta su quanto hai i filtri rossi sugli occhi.
Allora, o gli 8GB sulla 390X sono il quantitativo giusto per le risoluzioni fino a 4K (considerando uno CF di 390X), o i 4GB sulla Fury X sono pochi.
Siccome io ritengo quest'ultima l'opzione corretta, ritengo che 8GB sulla 390X siano per i polli.
Sostenere entrambe le opzioni è impossibile a meno di non avere gli occhi (e i neuroni) divergenti.
Il punto indicato è estratto dal manuale "filosofia dell'elettronica per principianti".
Chi sei tu per giudicare me? E sinceramente: la frase in grassetto si contraddice nella forma a mio modo di vedere. Ti direi di riflettere ma probabilmente non sei nemmeno in grado. Ho anche tentato di spiegare che ho sia AMD che NVidia e che ritengo la 970 una best buy ma sembra che vi interessi solo leggere le cose in difesa della scheda onesta che è la Fury. Qui tentare di riportare equilibrio significa passare dall'altra parte della barricata a causa di elementi come te.
Kommodore64
29-06-2015, 23:00
Incredibilmente ho seguito tutti i vostri discorsi fin qui soprattutto per mera curiosità.
Parto dal presupposto che per me la Fury X è un'ottima scheda e pur non essendo perfetta ha un suo perchè.
Però quello che non riesco a capire è una cosa: capisco il voler introdurre nel mercato le nuove memorie HBM, ma perchè mettere 8GB alla 390X e 4GB alla Fury X?
Non sarebbe stato meglio il contrario?
Anche dal punto di vista del puro marketing (oltre che magari a quello prestazionale per il 4K).
Si sà che la gente guarda al numerino più grande.
Il discorso sul minor consumo non mi convince pienamente, forse per l'introduzione alle HBM si poteva aspettare il "prossimo giro" con le disponibilità di diversi quantitativi di memorie.
Non capisco il tipo di scelta fatta da parte di AMD in questo caso.
Comunque anche se non ha rispettato le aspettative di qualcuno (forse troppo pompate) la reputo un'ottima alternativa.
Incredibilmente ho seguito tutti i vostri discorsi fin qui soprattutto per mera curiosità.
Parto dal presupposto che per me la Fury X è un'ottima scheda e pur non essendo perfetta ha un suo perchè.
Però quello che non riesco a capire è una cosa: capisco il voler introdurre nel mercato le nuove memorie HBM, ma perchè mettere 8GB alla 390X e 4GB alla Fury X?
Non sarebbe stato meglio il contrario?
Anche dal punto di vista del puro marketing (oltre che magari a quello prestazionale per il 4K).
Si sà che la gente guarda al numerino più grande.
Il discorso sul minor consumo non mi convince pienamente, forse per l'introduzione alle HBM si poteva aspettare il "prossimo giro" con le disponibilità di diversi quantitativi di memorie.
Non capisco il tipo di scelta fatta da parte di AMD in questo caso.
Comunque anche se non ha rispettato le aspettative di qualcuno (forse troppo pompate) la reputo un'ottima alternativa.
Semplicemente non si poteva fare il contrario, causa limiti tecnologici, così ha dotato la Fury X di 4GB HBM e la 390X di 8GB per diversificarla ulteriormente dall'offerta già esistente della 290X. Non ha le HBM? Almeno ha più ram (e c'è a quanto pare chi tiene particolarmente al numeretto). Siccome seppure l'architettura sia la medesima, la Fury è avanti, evidentemente il suo perchè lo ha.
Incredibilmente ho seguito tutti i vostri discorsi fin qui soprattutto per mera curiosità.
Parto dal presupposto che per me la Fury X è un'ottima scheda e pur non essendo perfetta ha un suo perchè.
Però quello che non riesco a capire è una cosa: capisco il voler introdurre nel mercato le nuove memorie HBM, ma perchè mettere 8GB alla 390X e 4GB alla Fury X?
Non sarebbe stato meglio il contrario?
Anche dal punto di vista del puro marketing (oltre che magari a quello prestazionale per il 4K).
Perché non potevano proprio mettere 8GB di HBM con questa versione di memorie, sono con la prossima generazione di HBM sarà possibile. E la 390X dovevano differenziarla in qualche modo dalla 290X... ecco quindi 390X 8GB e Fury X 4GB, una per marketing, l'altra perché proprio non potevano farla diversamente.
Kommodore64
29-06-2015, 23:28
Semplicemente non si poteva fare il contrario, causa limiti tecnologici, così ha dotato la Fury X di 4GB HBM e la 390X di 8GB per diversificarla ulteriormente dall'offerta già esistente della 290X. Non ha le HBM? Almeno ha più ram (e c'è a quanto pare chi tiene particolarmente al numeretto). Siccome seppure l'architettura sia la medesima, la Fury è avanti, evidentemente il suo perchè lo ha.
Perché non potevano proprio mettere 8GB di HBM con questa versione di memorie, sono con la prossima generazione di HBM sarà possibile. E la 390X dovevano differenziarla in qualche modo dalla 290X... ecco quindi 390X 8GB e Fury X 4GB, una per marketing, l'altra perché proprio non potevano farla diversamente.
Scusate, pensavo di essere stato chiaro.
Io dicevo di mettere gli 8GB GDDR5 alla Fury X e 4GB HBM o sempre GDDR5 alla 390X, per me sarebbe stato più logico.
Sò che bisogna aspettare per le HBM a 8GB, infatti avevo scritto:
forse per l'introduzione alle HBM si poteva aspettare il "prossimo giro" con le disponibilità di diversi quantitativi di memorie.
La differenza tra la 290X e la 390X non la fa i 4GB in più se non a 4K, ma queste schede non sono adatte singolarmente per tale risoluzione.
Scusate, pensavo di essere stato chiaro.
Io dicevo di mettere gli 8GB GDDR5 alla Fury X e 4GB HBM o sempre GDDR5 alla 390X, per me sarebbe stato più logico.
Sò che bisogna aspettare per le HBM a 8GB, infatti avevo scritto:
La differenza tra la 290X e la 390X non la fa i 4GB in più se non a 4K, ma queste schede non sono adatte singolarmente per tale risoluzione.
L'architettura è la medesima
Kommodore64
29-06-2015, 23:36
L'architettura è la medesima: i risultati sarebbero stati solo che peggiori.
Why?
Why?
Le Fury (Fiji) derivano dall'architettura Tonga, più recente (l'ultima vista della serie precedente sebbene a sua volta derivata da Tahiti), con il die size ridotto così da permettere l'integrazione delle HBM e meno esosa in termini elettrici, mentre le 390X dall'evoluzione di Hawaii XT chiamata Grenada XT, sempre con bus delle memorie di 512bit. Si prestava meglio semplicemente. Invertire le cose avrebbe sbilanciato di molto la situazione, presumibilmente avrebbe fatto aumentare i prezzi ed avrebbe reso più difficile definire le varie fasce di prezzi.
filo mc-ati crossfire
30-06-2015, 00:27
A volte mi sembra di vedere un asilo nido in questo forum, non voglio offendere nessuno, qui' si parla di fury x, se si è fanboy VERDE, evitate di commentare sempre la con solita zuppa, avete stancato le menti di tutti, io parlo chiaro, sono simpatizzante amd, e non vuol dire FANBOY, vuol dire che ammetto che la concorrenza è un pelo avanti, la cosa sarebbe stata diversa se sto passo lo avesse fatto nvidia...
Certe cose non le capisco, fà una cagata nvidia come il fattore dei 3,5gb, tutti contenti e felice, amd COME SEMPRE, ficca dentro una nuova tecnologia, perchè qui dentro gran parte della gente, non sà che nel 70% dei casi è SEMPRE STATA AMD A PORTARE ARIA FRESCA, e nvidia a seguirla... Ma purtroppo tanta gente cammina con le bistecchee e non fette negli occhi..
Fà una cosa nuova AMD, non risulta magari come ci si aspettava e si parte, AMD Fà SCHIFO, ecc ecc...
Ha uscito una vga che costa meno, ha un 10% medio minore di performance generali , pur montando 4 e non 6 giga, io questo non lo chiamo flop, potrà limitare in futuro in 4k e ci sta, ma una vga CHE ORA QUANDO è USCITA, con 2 gb di vram in meno, addirittura in 4k a volte la passa... non avrei tanto di ridire...
Scusate per il poema, ma di sti fanboy non se ne puo' più!
PaulGuru
30-06-2015, 06:40
A volte mi sembra di vedere un asilo nido in questo forum, non voglio offendere nessuno, qui' si parla di fury x, se si è fanboy VERDE, evitate di commentare sempre la con solita zuppa, avete stancato le menti di tutti, io parlo chiaro, sono simpatizzante amd, e non vuol dire FANBOY, vuol dire che ammetto che la concorrenza è un pelo avanti, la cosa sarebbe stata diversa se sto passo lo avesse fatto nvidia...
Certe cose non le capisco, fà una cagata nvidia come il fattore dei 3,5gb, tutti contenti e felice, amd COME SEMPRE, ficca dentro una nuova tecnologia, perchè qui dentro gran parte della gente, non sà che nel 70% dei casi è SEMPRE STATA AMD A PORTARE ARIA FRESCA, e nvidia a seguirla... Ma purtroppo tanta gente cammina con le bistecchee e non fette negli occhi..
Fà una cosa nuova AMD, non risulta magari come ci si aspettava e si parte, AMD Fà SCHIFO, ecc ecc...
Ha uscito una vga che costa meno, ha un 10% medio minore di performance generali , pur montando 4 e non 6 giga, io questo non lo chiamo flop, potrà limitare in futuro in 4k e ci sta, ma una vga CHE ORA QUANDO è USCITA, con 2 gb di vram in meno, addirittura in 4k a volte la passa... non avrei tanto di ridire...
Scusate per il poema, ma di sti fanboy non se ne puo' più!
Molti altri invece pensano che simpatizzante Nvidia = fanboy.
AMD ha portato sempre aria fresca ? Quindi il frame rate dinamico, la fisica avanzata, il 3D attivo e il primo chipset con supporto al multigpu chi li ha portati ? Comunque sia non ce ne frega nulla.
Del caso 970 nessuno è stato felice, ma è un modello che non in molti hanno.
Nvidia non prende in giro la gente, non dice che tirerà fuori la GPU più potente per poi scoprire che va di meno.
Idem con le CPU all'uscita di Phenom 1 e Bulldozer, con tanto di slide, proclami di competitività e screen taroccati con photoshop !
Non è fanboysmo, è solo che c'è gente a cui non piace essere presa per i fondelli.
Kommodore64
30-06-2015, 08:06
Le Fury (Fiji) derivano dall'architettura Tonga, più recente (l'ultima vista della serie precedente sebbene a sua volta derivata da Tahiti), con il die size ridotto così da permettere l'integrazione delle HBM e meno esosa in termini elettrici, mentre le 390X dall'evoluzione di Hawaii XT chiamata Grenada XT, sempre con bus delle memorie di 512bit. Si prestava meglio semplicemente. Invertire le cose avrebbe sbilanciato di molto la situazione, presumibilmente avrebbe fatto aumentare i prezzi ed avrebbe reso più difficile definire le varie fasce di prezzi.
Il mio "perchè" era rivolto a "i risultati sarebbero stati solo che peggiori".
Scusami ma la "spiegazione" sul minor consumo (come avevo già scritto nel mio primo post) non mi convince pienamente.
Anche il discorso dei maggiori costi non lo fanno, anche perchè se 8GB GDDR5 sarebbero costati meno avrei messo quelli nella Fury X così da avere un prezzo ancora più competitivo oltre ad essere più appetibile visto che dal punto di vista del marketing funziona più il numerino più alto.
Ripeto non sto dicendo che la Fury X non sia valida anzi, tutto il contrario, solamente che non capisco la scelta di AMD (non dico che sia propriamente sbagliata), soprattutto per un discorso di marketing.
Capisco il voler introdurre per primo le nuove memorie HBM ma personalmente avrei messo 8GB (GDDR5) sulla Fury X e 4GB (GDDR5 o HBM) sulla 390X (tanto per le schede fino alla 390X la differenza prestazionale non la fà avere 4 o 8 GB anche perchè non sono destinate al 4K ... parlando di un sistema a singola scheda).
@filo mc-ati crossfire: spero che non sia rivolto al mio intervento anche perchè in questo momento storico (che dura da molto tempo) sono rosso dalla testa ai piedi.
Ho pure scritto in modo da non cercare di "offendere" (assurdo) gli eventuali affezionati di una marca o dell'altra (cosa che non mi riguarda e non concepisco).
Ormai in questo forum non si può neanche più esprimere una propria opinione, boh.
http://store.steampowered.com/hwsurvey/videocard/
Tra le schede NVidia più diffuse troviamo la 760, subito seguita dalla 970.
http://t.imgbox.com/jyEghA5s.jpg (http://imgbox.com/jyEghA5s)
Ecco da dove viene la fisica avanzata. Potete vedere anche almeno tre/quattro NVidia nella foto.
Ed ovviamente NVidia non ha mai detto che avrebbe tirato fuori la scheda più veloce per poi andare di meno, però la 480 era abbastanza una presa in giro, la 5950 non ne parliamo e pure la faccenda delle 970 non è stata considerata che tale. Poi l'utenza si tappa il naso ed acquista in ogni caso perchè ad oggi è un best buy e lo dimostrano anche le indagini, altro che modello che non molti anno.
Ma bisognerebbe informarsi prima di parlare, piuttosto che uscire dal nulla dandosi l'appellativo del Guru.
Il mio "perchè" era rivolto a "i risultati sarebbero stati solo che peggiori".
Scusami ma la "spiegazione" sul minor consumo (come avevo già scritto nel mio primo post) non mi convince pienamente.
Anche il discorso dei maggiori costi non lo fanno, anche perchè se 8GB GDDR5 sarebbero costati meno avrei messo quelli nella Fury X così da avere un prezzo ancora più competitivo oltre ad essere più appetibile visto che dal punto di vista del marketing funziona più il numerino più alto.
Ripeto non sto dicendo che la Fury X non sia valida anzi, tutto il contrario, solamente che non capisco la scelta di AMD (non dico che sia propriamente sbagliata), soprattutto per un discorso di marketing.
Capisco il voler introdurre per primo le nuove memorie HBM ma personalmente avrei messo 8GB (GDDR5) sulla Fury X e 4GB (GDDR5 o HBM) sulla 390X (tanto per le schede fino alla 390X la differenza prestazionale non la fà avere 4 o 8 GB anche perchè non sono destinate al 4K ... parlando di un sistema a singola scheda).
Mi spiace non essere stato esaustivo: essenzialmente per andare di più hanno dovuto montare le HBM su di un'archietettura già esistente ma revisionata. Tutto qui. Le due archietetture sono molto simili ma in produzione Hawaii (290) è costato più di Tonga (285 evoluto in Fury), anche causa bus a 512 bit, quindi partire da li avrebbe creato la serie di problemi che ho elencato sopra (die size maggiore, consumi, costi..).
Kommodore64
30-06-2015, 08:22
Mi spiace non essere stato esaustivo: essenzialmente per andare di più hanno dovuto montare le HBM su di un'archietettura già esistente ma revisionata.
Sapevo di un miglioramento prestazionale ma in percentuale a quanto ammonta dal punto di vista pratico?
Sapevo di un miglioramento prestazionale ma in percentuale a quanto ammonta dal punto di vista pratico?
Non posso darti percentuali. Non so nemmeno se vai nel thread ufficiale se c'è qualcuno che può farlo, però al di la dei fattori che ho elencato sopra (per i quali Hawaii non sarebbe stato un buon punto di partenza a differenza di Tonga, per Fiji), puoi ben constatare che prestazionalmente ora le cose sono chiare: Fury è sopra la 390X e vicino alla concorrenza. Avessero fatto il contrario probabilmente avremmo avuto un 2900 XT redux.
ps
http://wccftech.com/amd-fiji-feautres-hbm-9x-faster-than-gddr5/
CrapaDiLegno
30-06-2015, 08:29
Per quanto riguarda la memoria, direi discussione finita.
Chi acquista la Fury si accontenti dei 4GB ma poi non si lamenti quando i giochi li sforeranno. Fine.
Il mio "perchè" era rivolto a "i risultati sarebbero stati solo che peggiori".
Scusami ma la "spiegazione" sul minor consumo (come avevo già scritto nel mio primo post) non mi convince pienamente.
Anche il discorso dei maggiori costi non lo fanno, anche perchè se 8GB GDDR5 sarebbero costati meno avrei messo quelli nella Fury X così da avere un prezzo ancora più competitivo oltre ad essere più appetibile visto che dal punto di vista del marketing funziona più il numerino più alto.
Ripeto non sto dicendo che la Fury X non sia valida anzi, tutto il contrario, solamente che non capisco la scelta di AMD (non dico che sia propriamente sbagliata), soprattutto per un discorso di marketing.
Capisco il voler introdurre per primo le nuove memorie HBM ma personalmente avrei messo 8GB (GDDR5) sulla Fury X e 4GB (GDDR5 o HBM) sulla 390X (tanto per le schede fino alla 390X la differenza prestazionale non la fà avere 4 o 8 GB anche perchè non sono destinate al 4K ... parlando di un sistema a singola scheda).
Ma le HBM sono state create per superare i limiti delle GDDR5. Con costi, ora, decisamente superiori, ma che nel medio periodo saranno sicuramente inferiori a quelli necessari per ottenere gli stessi risultati con le GDDR5.
Montare le HBM su una scheda in cui tutta la "potenza" che le HBM offrono è come montare un motore 12 cilindri sul telaio della Panda.
Tutta la banda che le HBM offrono non sono usate su una GPU come Hawaii.
Fiji è un chip decisamente più grande e potente rispetto a Hawaii e lì la banda maggiore ha un senso. Così come, parlando di marketing, è meglio mettere le innovazioni sul top della gamma, non su un chip vecchio. Altrimenti uno si chiederebbe perché esiste un chip molto più potente con tecnologia vecchia rispetto a uno più lento che monta l'ultimo ritrovato tecnologico.
Infine la tua opzione avrebbe richiesto di progettare 2 nuove GPU, un Hawaii con memory controller per HBM e un Fiji con memory controller GDDR5. Quest'ultimo comunque sarebbe stato meno potente per il fatto che molto spazio sul die sarebbe stato usato per il controller a 512bit.
Ormai in questo forum non si può neanche più esprimere una propria opinione, boh.
Un'opinione è sempre consentita. E' quando la difesa o la giustificazione diventa irrazionale che le cose cominciano a farsi contorte. E abbastanza divertenti.
Fiji deriva da Tonga e Tonga ha un die size ridotto rispetto ad Hawaii. Se fossero partiti da Hawaii, anche considerando lo spazio richiesto dalle HBM, ne sarebbe venuto un die ancora più ingombrante, probabilmente.
In ogni caso, le percentuali all'atto pratico le vedremo con il tempo, solo ritengo difficile fare un paragone tra Fury ed una 285, anche perchè sono state apportate diverse migliorie, seppur mantenendo certe limitazioni.
Concordo quasi in toto con la seconda parte del post di CDL
CrapaDiLegno
30-06-2015, 08:43
Non l'hai capito? Seriamente?
Per una scheda dici che la memoria non conta (cito: "potrebbe montare due criceti e un neurone") ma contano i le prestazioni sul campo, per l'altra, dove i test con i giochi attuali sono positivi, allora guardi la memoria montata.
Da una parte ti prodighi a difendere una scheda per la quale si è mentito spudoratamente in relazione alle specifiche e si è omesso di dire che non tutta la memoria è accessibile con la larghezza di banda dichiarata e che non esiti a definire il miglior acquisto possibile, dall'altra ti prodighi con altrettanto ardore a spulciare i difetti e i potenziali limiti della scheda.
Anche la 970, sebbene di fascia inferiore alle Fury X, rientra in quella fascia in cui 4 GB si possono sfruttare, ma per lei sicuramente non sarà in alcun modo un limite, giusto?
Che poi, chiariamoci (anche per evitare ulteriori fraintendimenti), non sto dicendo assolutamente che la Fury X sia perfetta, che non abbia difetti, che sia la miglior scheda, ecc... anche perchè non lo penso affatto.
Ma di fronte a certi ragionamenti come quello che ha dato vita a questo scambio di opinioni, beh, un appunto andava fatto.
Mi sembra che anche tu abbia buone ventose per cercare di portare polemica (sterile) su un'opinione che tirata per i capelli dovrebbe risultare "due pesi, due misure".
Non hai risposto alla questione cosa distingue una 750Ti/970/980Ti, quindi ovvio che il discorso che poni non ha alcun senso.
Schede come le 970/980/290/290X/390X non hanno la potenza di arrivare a elaborare 4K se non in SLI/CF. Quindi a meno di non volere fare tale configurazione, lavorano perfettamente con 4GB di RAM. O anche meno. Se vuoi andare a 4K, usi i 4GB con le limitazioni che portano, oppure ti compri le versioni con 8 GB. A quel punto sei perfettamente 4K "compliant" e la memoria su queste schede ha senso.
Il discorso è veramente banale, e non capisco come possa essere tirato per accusarmi di "difendere una parte" e "denigrare l'altra".
Semplicemente una fascia di schede funziona perfettamente con 4GB e risoluzioni inferiori a 4K mentre un'altra fascia che arriva a gestire il 4K avrebbe bisogno di più di 4GB, dato che questo è il limiti minimo inferiore per avere la qualità grafica a 4K.
Non mi sembra di aver fatto voli pindarici, come altri qui, per giustificare il perché di una scelta piuttosto che un'altra. E ne deriva che, se capite cosa state comprando e non avete un monitor 4K, la 970 è stato il miglior acquisto possibile per mesi. E non lo dico solo io, accusato di fanboysmo verde ogni volta che mi azzardo a fare una critica contro AMD, ma mi sembra che pure il mercato abbia decretato che la 970 sia un prodotto che vale tutto quello che costa, diversamente da altre soluzioni (tra cui pongo anche la 980 che secondo me è overpriced di brutto).
Kommodore64
30-06-2015, 08:45
Non posso darti percentuali. Non so nemmeno se vai nel thread ufficiale se c'è qualcuno che può farlo, però al di la dei fattori che ho elencato sopra (per i quali Hawaii non sarebbe stato un buon punto di partenza a differenza di Tonga, per Fiji), puoi ben constatare che prestazionalmente ora le cose sono chiare: Fury è sopra la 390X e vicino alla concorrenza. Avessero fatto il contrario probabilmente avremmo avuto un 2900 XT redux.
ps
http://wccftech.com/amd-fiji-feautres-hbm-9x-faster-than-gddr5/
Quindi per te Fury X è sopra alla 390X per via delle HBM?
Non ci sarebbe stato un simile divario con le GDDR5?
Ma le HBM sono state create per superare i limiti delle GDDR5.
Prestazionalmente parlando quanto ci passa più o meno tra le due tecnologie?
Così come, parlando di marketing, è meglio mettere le innovazioni sul top della gamma, non su un chip vecchio
Su questo sono d'accordo, ma dal punto di vista del puro marketing per me poteva essere più appetibile 8GB anche se GDDR5 rispetto ai 4GB anche se HBM.
Però se oltre al minor consumo le HBM hanno anche un notevole vantaggio (in termini pratici) rispetto alle GDDR5 allora a questo punto la scelta di AMD è condivisibile.
Quindi per te Fury X è sopra alla 390X per via delle HBM?
Non ci sarebbe stato un simile divario con le GDDR5?
Prestazionalmente parlando quanto ci passa più o meno tra le due tecnologie?
Su questo sono d'accordo, ma dal punto di vista del puro marketing per me poteva essere più appetibile 8GB anche se GDDR5 rispetto ai 4GB anche se HBM.
Però se oltre al minor consumo le HBM hanno anche un notevole vantaggio (in termini pratici) rispetto alle GDDR5 allora a questo punto la scelta di AMD è condivisibile.
IMHO no, nemmeno con 8 o più GB, tantomeno in 4K. Hanno fatto la scelta migliore per la competitività senza rischiare di creare un altro mostro. Inoltre AMD si spera integrerà queste memorie anche nelle APU ora rendendo ancora più competitivo il comparto grafico integrato, molto dipendente dalla qualità delle memorie.
Dal link che ti ho postato puoi vedere la differenza tra le due tecnologie, ma all'atto pratico si vedrà solo con il tempo.
Inoltre AMD si spera integrerà queste memorie anche nelle APU ora rendendo ancora più competitivo il comparto grafico integrato, molto dipendente dalla qualità delle memorie.
Dal link che ti ho postato puoi vedere la differenza tra le due tecnologie, ma all'atto pratico si vedrà solo con il tempo.
ma in futuro magari si.. ma ne dovrà passare di tempo prima che una apu diventi degna di una banda passante così elevata , da volerci le HBM
Kommodore64
30-06-2015, 09:00
IMHO no, nemmeno con 8 o più GB, tantomeno in 4K. Hanno fatto la scelta migliore per la competitività senza rischiare di creare un altro mostro. Inoltre AMD si spera integrerà queste memorie anche nelle APU ora rendendo ancora più competitivo il comparto grafico integrato, molto dipendente dalla qualità delle memorie.
Dal link che ti ho postato puoi vedere la differenza tra le due tecnologie, ma all'atto pratico si vedrà solo con il tempo.
Quindi ora tutto sta nel "quantificare" il vantaggio prestazionale delle HBM sulle GDDR5.
Per cui per me soltanto il tempo mi farà dire che la scelta delle memoria sia stata la migliore, sia dal punto di vista pratico ma anche da quello del marketing (il discorso del "numerino" più alto).
Quindi ora tutto sta nel "quantificare" il vantaggio prestazionale delle HBM sulle GDDR5.
Per cui per me soltanto il tempo mi farà dire che la scelta delle memoria sia stata la migliore, sia dal punto di vista pratico ma anche da quello del marketing (il discorso del "numerino" più alto).
Che sia stata una scelta migliore è visibile già da ora stando ai risultati, ma per quantificare ci vorrà tempo, certo. Tempo per i drivers, tempo per toccare con mano, tempo per mettere alla prova. Al momento abbiamo un prodotto valido quanto la concorrenza e che finalmente è tornato ad avere un occhio di riguardo all'efficienza (parlo in specifico per la Nano, in attesa di avere riscontro).
PaulGuru
30-06-2015, 09:40
Non è una questione di risoluzione, è una questione di giochi pensati per le console e portati ad-minchiam su PC.
Dovè la novità ?
Kommodore64
30-06-2015, 09:41
Che sia stata una scelta migliore è visibile già da ora stando ai risultati, ma per quantificare ci vorrà tempo, certo. Tempo per i drivers, tempo per toccare con mano, tempo per mettere alla prova. Al momento abbiamo un prodotto valido quanto la concorrenza e che finalmente è tornato ad avere un occhio di riguardo all'efficienza (parlo in specifico per la Nano, in attesa di avere riscontro).
Concordo pienamente sul prodotto valido, anzi per me è validissimo.
Il mio discorso era incentrato più dal punto di vista del puro marketing ("numerino" più alto) e meno dal punto di vista prestazionale (nel 4K ... discorso 8GB o 4GB).
Sapevo che le HBM avrebbero portato dei vantaggi (consumi/prestazioni) ma sinceramente non credevo che dal punto di vista pratico il vantaggio prestazionale poteva essere così evidente come da quanto tu affermi.
Infatti dal tuo punto di vista sembrerebbe che la differenza sia netta a dispetto delle "memorie standard", dando gran parte del merito proprio alle memorie HBM per il vantaggio del circa 20% rispetto alla 390X:
http://tpucdn.com/reviews/AMD/R9_Fury_X/images/perfrel_3840.gif
Se così fosse allora anche per me la scelta risulta essere la migliore ("numerino" o no le prestazioni vengono prima).
una discussione interessante sulla scelta dei 4GB su una high end del 2015
del famoso forum Beyond3D
https://forum.beyond3d.com/threads/is-4gb-enough-for-a-high-end-gpu-in-2015.56964/page-5
ci sono anche dei video a 4K
tipo questo:
http://gfycat.com/FrequentTiredBurro
Concordo pienamente sul prodotto valido, anzi per me è validissimo.
Il mio discorso era incentrato più dal punto di vista del puro marketing ("numerino" più alto) e meno dal punto di vista prestazionale (nel 4K ... discorso 8GB o 4GB).
Sapevo che le HBM avrebbero portato dei vantaggi (consumi/prestazioni) ma sinceramente non credevo che dal punto di vista pratico il vantaggio prestazionale poteva essere così evidente come da quanto tu affermi.
Infatti dal tuo punto di vista sembrerebbe che la differenza sia netta a dispetto delle "memorie standard", dando gran parte del merito proprio alle memorie HBM per il vantaggio del circa 20% rispetto alla 390X:
http://tpucdn.com/reviews/AMD/R9_Fury_X/images/perfrel_3840.gif
Se così fosse allora anche per me la scelta risulta essere la migliore ("numerino" o no le prestazioni vengono prima).
E' anche una questione di spazi, consumi, temperature e via dicendo. E' un vantaggio non esclusivamente prestazionale, dovuto alla banda certo, visibile al momento alle alte risoluzioni dove probabilmente la cpu è meno limitante (sarei curioso di vedere test dove la cpu viene progressivamente portata in oc).
E' un vantaggio non esclusivamente prestazionale, dovuto alla banda certo.
infatti il vantaggio prestazionale rispetto alle GDDR5 è dovuto solo alla banda passante che puoi raggiungere valori decisamente più elevati.
anche se per ora con il livello di potenza raggiunto dalle gpu di oggi, ancora si può competere senza problemi anche utilizzando le GDDR5 vedi GTX 980 Ti 6144mb
infatti il vantaggio prestazionale rispetto alle GDDR5 è dovuto solo alla banda passante che puoi raggiungere valori decisamente più elevati.
anche se per ora con il livello di potenza raggiunto dalle gpu di oggi, ancora si può competere senza problemi anche utilizzando le GDDR5 vedi GTX 980 Ti 6144mb
Sono due architetture diverse ed al momento, per come sono le applicazioni, NVidia è avanti. AMD ha fatto quel che poteva ed imho è apprezzabile, anche se il rovescio della medaglia si avrà quando giocheranno ad armi pari con le HBM2. Inutile dire che AMD dovrà farsi trovare pronta con un'architettura nuova e si spera efficiente ed equilibrata.
Kommodore64
30-06-2015, 09:57
E' anche una questione di spazi, consumi, temperature e via dicendo. E' un vantaggio non esclusivamente prestazionale, dovuto alla banda certo, visibile al momento alle alte risoluzioni dove probabilmente la cpu è meno limitante (sarei curioso di vedere test dove la cpu viene progressivamente portata in oc).
Però consumi e temperature (fattori in generali molto importanti per me, ecco perchè reputo la GTX 970 in un certo senso la migliore per un certo tipo di utenza) in questo caso potevano passare in secondo piano rispetto al "numerino" più alto.
In pratica la sto mettendo solo da un punto di vista del marketing, quindi per le vendite l'8 attrae di più rispetto al 4, ma se c'è dietro un discorso (anche) prestazionale a livello pratico (HBM) per me tutto questo cade drasticamente.
Sono due architetture diverse ed al momento, per come sono le applicazioni, NVidia è avanti. AMD ha fatto quel che poteva ed imho è apprezzabile, anche se il rovescio della medaglia si avrà quando giocheranno ad armi pari con le HBM2. Inutile dire che AMD dovrà farsi trovare pronta con un'architettura nuova e si spera efficiente ed equilibrata.
certo è apprezzabile.
magari evendo utilizzato per prima le hbm gli darà un qualche vantaggio al prossimo giro..chissà..
Mi sembra che anche tu abbia buone ventose per cercare di portare polemica (sterile) su un'opinione che tirata per i capelli dovrebbe risultare "due pesi, due misure".
A me sembra che tu continui a rigirare la frittata pur di non ammettere un chiaro atteggiamento nei confronti dei ragionamenti che fai sulle schede dell'una e dell'altra marca.
Tu non hai detto "4 GB (pardon, 3,5) sono sufficienti per la 970", hai detto molto chiaramente "non importa cosa monti, perchè i risultati prestazionali sono buoni".
Ora perchè questo stesso ragionamento non vale per le altre schede? Non era una ragionamento relativo il tuo, era un'affermazione assoluta. Un'affermazione chiaramente volta a minimizzare lo "scandalo" dei 3,5+0,5 GB della 970.
Che poi i 4GB di Fiji siano un rischio maggiore per il futuro concordo, che sia una scheda più costosa e quindi si sia meno propensi a prendersi rischi anche. Ciò non toglie che il principio assoluto che hai affermato ("non importa cosa monti, contano i risultati") sia diventato non valido quando ti sei messo a criticare una scheda i cui risultati sul campo sono buoni, a dispetto di questo limite.
Insomma, mi pare di essermi ampiamente ripetuto su questo argomento, a questo punto, se non capisci cosa stavo criticando del tuo discorso, pace.
Sono del resto sicuro che altri utenti avranno ben capito.
Quindi per te Fury X è sopra alla 390X per via delle HBM?
Non ci sarebbe stato un simile divario con le GDDR5?
Se ci fossero state le GDDR5 Fiji sarebbe stato un altro chip.
I vantaggi delle HBM non si limitano alla maggiore bandwidth, dai un'occhiata al mio commento #218 in cui ho provato a fare il punto della situazione.
Però consumi e temperature (fattori in generali molto importanti per me, ecco perchè reputo la GTX 970 in un certo senso la migliore per un certo tipo di utenza) in questo caso potevano passare in secondo piano rispetto al "numerino" più alto.
In pratica la sto mettendo solo da un punto di vista del marketing, quindi per le vendite l'8 attrae di più rispetto al 4, ma se c'è dietro un discorso (anche) prestazionale a livello pratico (HBM) per me tutto questo cade drasticamente.
No è già successo troppe volte imho. NVidia ha fatto bene proprio perchè è stata attenta a questi particolari.
Free Gordon
30-06-2015, 10:28
http://www.businessmagazine.it/news/microsoft-interessata-ad-amd-il-rumor-online_57865.html
Io credo sia un'ottima notizia. :)
Kommodore64
30-06-2015, 10:33
Se ci fossero state le GDDR5 Fiji sarebbe stato un altro chip.
I vantaggi delle HBM non si limitano alla maggiore bandwidth, dai un'occhiata al mio commento #218 in cui ho provato a fare il punto della situazione.
OK thx, ho letto (già lo avevo fatto :)).
Non sto ignorando tutti gli altri vantaggi che ci sono, però la mia domanda è specifica ed è sempre la stessa (probabilmente ancora non si può rispondere con esattezza):
In soldoni a livello pratico che vantaggio si ha nelle prestazioni con le memorie HBM?
Se c'è è così netta con le GDDR5?
Ripeto conosco tutti gli altri vantaggi che comporta avere le memorie HBM ma volevo capire la scelta di AMD: Architetturale? Efficienza/Consumi? Marketing? Prestazionale?
Per mia modesta opinione se non è prestazionale a livello di marketing attirava più gli 8GB.
Per il resto posso anche essere d'accordo con voi.
No è già successo troppe volte imho. NVidia ha fatto bene proprio perchè è stata attenta a questi particolari.
Condivido la seconda parte, invece per la prima anche ma non dal punto di vista del marketing.
Però NVIDIA è un pò più furba nel marketing, sà dell'importanza del "numerino" (come gli smartphone con i numeri dei core).
Vabè comunque voleva essere solo un mio pensiero sulla scelta di AMD, che se poi le memorie HBM danno quel vantaggio prestazionale che tu affermi sarà completamente smontata.
Che poi potrei anche sbagliarmi: potrebbero attirare di più le "memorie nuove" che le "memorie vecchie" invece del numero più alto dei GB.
http://www.businessmagazine.it/news/microsoft-interessata-ad-amd-il-rumor-online_57865.html
Io credo sia un'ottima notizia. :)
Interessante.
Giangilpredo
30-06-2015, 10:34
E' sempre molto divertente vedere i battibecchi tra fanboy amd e nvidia ogni qual volta esce una nuova scheda video (anche se "a campione" mi pare che i primi siano in numero nettamente superiore ai secondi).
Kommodore64
30-06-2015, 10:40
E' sempre molto divertente vedere i battibecchi tra fanboy amd e nvidia ogni qual volta esce una nuova scheda video (anche se "a campione" mi pare che i primi siano in numero nettamente superiore ai secondi).
Ma scambiarci opinioni senza fare "guerre" inutili no?
Anche questo tuo messaggio però non porta benefici in tal senso.
Se ci fossero state le GDDR5 Fiji sarebbe stato un altro chip.
Leggendo meglio tra le righe questa tua frase si può dedurre che con un altro chip probabilmente la Fury X non avrebbe avuto le stesse prestazioni attuali, quindi le HBM sono state fondamentali per riuscire ad inserire un chip più prestante contribuendo (indirettamente ma forse anche direttamente) a rendere la Fury X più performante rispetto ad un eventuale utilizzo delle GDDR5.
Confermi questa mia interpretazione?
Ma scambiarci opinioni senza fare "guerre" inutili no?
Anche questo tuo messaggio però non porta benefici in tal senso.
Leggendo meglio tra le righe questa tua frase si può dedurre che con un altro chip probabilmente la Fury X non avrebbe avuto le stesse prestazioni attuali
con le GDDR5 magari avebbe consumato di più, e sarebbe uscita una scheda meno compatta rispetto a come 'l han fatto con le HBM...
ma sulle prestazioni un chip con un 45% di shader in più rispetto ad una 290X sarebbe andato bene anche con una banda passante di 450GB ottenibili con un bus a 512bit e memorie GDDR5 a 7GHz
Kommodore64
30-06-2015, 11:27
con le GDDR5 magari avebbe consumato di più, e sarebbe uscita una scheda meno compatta rispetto a come 'l han fatto con le HBM...
ma sulle prestazioni un chip con un 45% di shader in più rispetto ad una 290X sarebbe andato bene anche con una banda passante di 450GB ottenibili con un bus a 512bit e memorie GDDR5 a 7GHz
E' quello che penso anche io ma sembra che non tutti sono della stessa opinione.
E' quello che penso anche io ma sembra che non tutti sono della stessa opinione.
a me sembra logico pensarla così.
amd le hbm le avrà usate anche per test, di modo di esser preparata alla prossima gen (importante) a 16nm ....e per sfruttare cmq i benefici delle hbm che offrono
(dal post di calabar)
- consumi contenuti
- riduzione dello spazio necessario sulla scheda
- controller più semplice, con conseguente spazio risparmiato sul die (si parla di un risparmio di circa 50mm^2, quasi un dimezzamento)
c'è anche il discorso della banda passante elevata ma quella per la potenza che ha sta gpu , si poteva ottenere adeguata anche con le gddr5 spinte.... solo che si sarebbero persi questi benefici che danno le HBM.
Leggendo meglio tra le righe questa tua frase si può dedurre che con un altro chip probabilmente la Fury X non avrebbe avuto le stesse prestazioni attuali, quindi le HBM sono state fondamentali per riuscire ad inserire un chip più prestante contribuendo (indirettamente ma forse anche direttamente) a rendere la Fury X più performante rispetto ad un eventuale utilizzo delle GDDR5.
Confermi questa mia interpretazione?
Si, il concetto è più o meno quello.
In soldoni a livello pratico che vantaggio si ha nelle prestazioni con le memorie HBM?
Se c'è è così netta con le GDDR5?
A mio parere le HBM influiscono sulle prestazioni principalmente in tre modi:
- Bandwidth più ampia. Può portare ad aumenti di prestazioni in casi in cui sia richiesta molta bandwidth, in generale credo incida in modo abbastanza marginale.
- Area risparmiata sui die. Il controller HBM è significativamente più piccolo di quello GDDR5 di Haway. Questo ha consentito di inserire 50mm^2 di unità di calcolo in più all'interno di Fiji, e questo ha sicuramente un certo impatto sulle prestazioni.
- Consumi minori. Questo permette di "tirare" un po' più il chip per ottenere qualcosa in più in termini di prestazioni.
CrapaDiLegno
30-06-2015, 12:13
E' quello che penso anche io ma sembra che non tutti sono della stessa opinione.
E' difficile, se non impossibile per noi comuni mortali, capire le motivazioni che hanno spinto AMD a usare le HBMv1 su un progetto come Fiji.
Prestazionalmente parlando, le HBM hanno 512GB/s ovvero 1.5x la banda delle GDDR5 montate sulle GTX980Ti e le Titan X. Quel numero non è ottenibile usando le GDDR5 oggi, a meno di non usare un bus immenso, più grande di 512bit. Che già di suo è enorme.
Come già detto più volte, con il bus da 512bit di Hawaii (e quindi replicabile su Fiji) e le GDDR5 a 7GHz (le stesse usate da nvidia) la banda sarebbe arrivata a 450GB/s. Quindi solo il 13% in meno rispetto a quanto oggi ottenuto con le HBM e il 33% in più rispetto a quello a disposizione delle GPU nvidia.
Alla "semplicità" di raggiungere quel valore, che non avrebbe richiesto l'uso di una tecnologia costruttiva tanto complessa per aggiungere le HBM su interposer, si aggiungono però diversi altri svantaggi.
In primis la dimensione del controller da 512bit. Lo spazio usato per questo componente toglie spazio ad altre risorse oppure aumenta i costi. Il consumo di un tale bus inoltre non è proprio trascurabile. Poi aggiungi il consumo delle memorie e vedi che ti mangi parecchia del TDP di una scheda completa.
Io non so perché AMD sia giunta a pensare che le HBM le avrebbero dato qualche vantaggio, ma posso solo ipotizzare 2 cose, non necessariamente mutuamente escludibili, escludendo il fatto che AMD non sia in grado di fare un bus a 512bit@7GHz (che è possibile, ma non ci credo) o che non abbia le stesse tecnologie di nvidia sulla gestione della memoria che le permettono di usare bande inferiori per gli stessi risultati.
1. GCN è una architettura poco efficiente (sicuramente meno di quello che era il VLIW o le soluzioni concorrenti fatte sullo stesso PP). Per riuscire a limitare i consumi hanno dovuto risparmiare su tutto, compreso i consumi delle memorie (e del bus da 512bit che collega le GDDR5 che come dicevo non consuma poco soprattutto quando va a 7GHz). La riduzione delle dimensioni del die portata da questa cosa ha permesso di aggiungere molti più shader a prezzo "contenuto" rispetto ad averli insieme al controller GDDR5. La revisione di tutto il progetto ha prodotto un minimo di aumento di efficienza, anche se buona parte di questa è nascosta dal fatto che con il liquido giri a una temperatura molto bassa (e dal fato che non tutte le risorse sono state davvero maggiorate rispetto ad Hawaii). Sono curioso di vedere le versioni ad aria come si comporteranno. Granada, che è la revisione di Hawaii, ha dimostrato che l'aumento di efficienza c'è, ma è davvero poco. Quindi è ragionevole pensare che qui abbiano raggiunto questi risultati sfruttando quello che le HBM permettono (più varie "accortezze" sulla scheda, tipo limitare il numero di VRM che porta a non sostenere alcun overclock e con temperature decisamente alte per questi ultimi).
2. La versione HBMv1 non porta particolari vantaggi rispetto alla GDDR5, quindi il fatto che AMD si sia accollato il costo della ricerca per usarle potrebbe essere dato da 2 fattori:
1. Volontà di fare esperienza con il metodo di produzione che richiede l'interposer. Valutare costi e migliorare il tutto per la prossima generazione dove tale tecnologia sarà maggiormente sfruttata anche su schede non propriamente enthusiast
2. Tutti i test e le simulazioni fatte non hanno mostrato la possibilità di superare una GPU come il GM200 e quindi AMD ha deciso di voler provare la carta "novità" come immagine "di marketing". Insieme ai guadagni prestazionali e di consumo, ha ritenuto che avrebbero fatto meglio che una scheda "forno" con 8GB di RAM.
Tutte le scelte fatte si sono portate dietro due cose:
1. Costi di produzione elevate: il die di Fiji a quanto sembra è grande come quello del GM200. In più serve l'interposer e le memorie HBM, che anche loro per nuovo sistema di produzione a strati, non devono certo essere economiche (la resa delle HBM non sarà certo spaziale).
2. Il limite di 4GB. Si può far finta che non sia un problema con i giochi di oggi che il 4K neanche se lo sognavano quando sono stati creati, ma di certo saranno un limite appena si proverà a fare qualcosa di più per tale risoluzione. Già alcune mod che mettono le texture HiRes fanno sforare i 4GB a 4K. Quando non lo sono le impostazioni (spinte) stesse.
Quindi 4GB bastano per i giochi con i motori semplici (che con 4K non è che guadagnino molto in termini qualitativi) ma già giochi con motori complessi (o poco ottimizzati) arrivano pericolosamente al limite dei 4GB di RAM usata.
AMD ovviamente non può certo dire che 4GB sono pochi e fa di tutto per dimostrare che invece sono quanto basta (seppur poi monta 8GB sulla 390X). Il tempo ci dirà se ha avuto ragione.
A mio parere le HBM influiscono sulle prestazioni principalmente in tre modi:
- Bandwidth più ampia. Può portare ad aumenti di prestazioni in casi in cui sia richiesta molta bandwidth, in generale credo incida in modo abbastanza marginale.
se non addirittura per niente.
imho questo non è una gpu talmente potente di aver bisogno di tutta sta banda.
una gpu che avrà bisogno di una banda passante che non sarà più possibile ottenere con le GDDR5 saranno le prossime a 16nm, che saranno il doppio più potenti di queste di ora.
CrapaDiLegno
30-06-2015, 12:25
A me sembra che tu continui a rigirare la frittata pur di non ammettere un chiaro atteggiamento nei confronti dei ragionamenti che fai sulle schede dell'una e dell'altra marca.
Tu non hai detto "4 GB (pardon, 3,5) sono sufficienti per la 970", hai detto molto chiaramente "non importa cosa monti, perchè i risultati prestazionali sono buoni".
Ora perchè questo stesso ragionamento non vale per le altre schede? Non era una ragionamento relativo il tuo, era un'affermazione assoluta. Un'affermazione chiaramente volta a minimizzare lo "scandalo" dei 3,5+0,5 GB della 970.
Che poi i 4GB di Fiji siano un rischio maggiore per il futuro concordo, che sia una scheda più costosa e quindi si sia meno propensi a prendersi rischi anche. Ciò non toglie che il principio assoluto che hai affermato ("non importa cosa monti, contano i risultati") sia diventato non valido quando ti sei messo a criticare una scheda i cui risultati sul campo sono buoni, a dispetto di questo limite.
Insomma, mi pare di essermi ampiamente ripetuto su questo argomento, a questo punto, se non capisci cosa stavo criticando del tuo discorso, pace.
Sono del resto sicuro che altri utenti avranno ben capito.
Ma non è la stessa cosa, cacchio!
Le 970 non hanno il collo di bottiglia delle memorie, quindi stare lì a discutere se 3.5GB o i 4GB sono sufficienti è sciocco. Alle risoluzioni che queste schede supportano, tutti i test hanno mostrato che il frame rate cade a livelli ignobili prima che la memoria saturi. Quindi, il fatto che sulla scheda ci siano 3,4, 1000GB o 2,3,4,56,64 ROPs (folletti o gnomi) non cambia nulla. Anche con test tirati "fuori specifiche" la scheda non incontra problemi con la memoria. Schianta prima (e in maniera perfettamente proporzionale a quello che fa la 980 che ha i famosi 4GB a banda piena).
Con la Fury X è diverso. La scheda produce framerate più che ottimi ma sta appena sotto la soglia di saturazione della RAM. Test appena più spinti, quelli che mettono in crisi le 970/980 per saturazione, mostrano che la scheda ha problemi, altro che. E' una scheda top gamma, indirizzata ai 4K non una creata con tutti i compromessi come la mia 660Ti, che se schianta per saturazione a 1440p so già che devo iniziare a mastruziare con i settaggi. Pensare che 4GB non saranno un limite, personalmente, è da ingenui (o fan sfegatati in grado di tapparsi il naso davanti a qualsiasi cagat@ prodotta).
Poi ripeto, il soldi non sono miei, io non li spenderei né per questa né per la 980Ti, e francamente, non posso che essere felice se più gente acquista AMD per ovvie questioni di concorrenza.
Quindi, non posso che concludere con un comprate le Fury (X o non) che sono ottime schede!
filo mc-ati crossfire
30-06-2015, 12:53
Il mio "perchè" era rivolto a "i risultati sarebbero stati solo che peggiori".
Scusami ma la "spiegazione" sul minor consumo (come avevo già scritto nel mio primo post) non mi convince pienamente.
Anche il discorso dei maggiori costi non lo fanno, anche perchè se 8GB GDDR5 sarebbero costati meno avrei messo quelli nella Fury X così da avere un prezzo ancora più competitivo oltre ad essere più appetibile visto che dal punto di vista del marketing funziona più il numerino più alto.
Ripeto non sto dicendo che la Fury X non sia valida anzi, tutto il contrario, solamente che non capisco la scelta di AMD (non dico che sia propriamente sbagliata), soprattutto per un discorso di marketing.
Capisco il voler introdurre per primo le nuove memorie HBM ma personalmente avrei messo 8GB (GDDR5) sulla Fury X e 4GB (GDDR5 o HBM) sulla 390X (tanto per le schede fino alla 390X la differenza prestazionale non la fà avere 4 o 8 GB anche perchè non sono destinate al 4K ... parlando di un sistema a singola scheda).
@filo mc-ati crossfire: spero che non sia rivolto al mio intervento anche perchè in questo momento storico (che dura da molto tempo) sono rosso dalla testa ai piedi.
Ho pure scritto in modo da non cercare di "offendere" (assurdo) gli eventuali affezionati di una marca o dell'altra (cosa che non mi riguarda e non concepisco).
Ormai in questo forum non si può neanche più esprimere una propria opinione, boh.
no che centri tu, il mio commento era rivolto a tutta la comunità, senza offendere nessuno, e solo che stanca sta roba, sentire sempre le stesse cose, da anni..
E' difficile, se non impossibile per noi comuni mortali, capire le motivazioni che hanno spinto AMD a usare le HBMv1 su un progetto come Fiji. - CUT
Ma pensare che abbiano fatto la scheda con HBM semplicemente perché
1) Testano le memorie
2) Testano il controller nuovo
punti 1 e 2 da considerare tenendo conto che l'architettura è sempre GCN 1.2, quindi non nuova - affinata come processo produttivo, certo, ma non nuova
3) Consumi (come è stato detto già)
4) Diversità? Ovvero:
Con controller tradizionale la scheda comunque non sarebbe andata quanto una Titan X, giusto? Ma con controller tradizionale non avrebbero MAI potuto fare schede così corte, senza parlare della preannunciata NANO. E a quel punto a chi avrebbe venduto AMD? Pensate che le 390X saranno dei best buy? Una scheda pari alla Fury X, con 8GB di ram ma con consumo ancora più elevato, di dimensioni maggiori e via discorrendo secondo voi sarebbe stata DAVVERO più appetibile della Fury X come è uscita? Avreste fatto il discorso "Fury X GDDR5 da 8GB meglio della 980Ti perché ha 8 giga rispetto a 6 di ram"? Siate onesti...
Per me alla fine han fatto l'unica decisione sensata essendo ancorati alla vecchia architettura - e la nuova evidentemente non è realizzabile con questo processo produttivo, non con rese soddisfacenti almeno.
Kommodore64
30-06-2015, 13:44
no che centri tu, il mio commento era rivolto a tutta la comunità, senza offendere nessuno, e solo che stanca sta roba, sentire sempre le stesse cose, da anni..
Allora pardon :).
Comunque ringrazio (in ordine cronologico) Max_R, LkMsWb, CrapaDiLegno, calabar e Sflao per aver scambiato opinioni/informazioni con me.
Mi piace avere questi scambi di idee, lo ritengo molto costruttivo.
Allora pardon :).
Comunque ringrazio (in ordine cronologico) Max_R, LkMsWb, CrapaDiLegno, calabar e Sflao per aver scambiato opinioni/informazioni con me.
Mi piace avere questi scambi di idee, lo ritengo molto costruttivo.
Grazie a te!
Ora, al di la di tutti i discorsi fatti, qualcuno ha trovato qualche notizia che permetta di quantificare il costo delle memorie HBM?
Intendo il costo di acquisto, escludendo tutti i costi relativi alla realizzazione del nuovo controller, al PCB, ecc...
Leggevo altrove che le GDDR5 a 7GHz sono tutt'altro che economiche oggi. Tenendo conto degli altri risparmi a cui le HBM portano, mi piacerebbe farmi un'idea effettiva di quanto la loro adozione possa aver inciso sui costi della scheda.
filo mc-ati crossfire
30-06-2015, 15:02
cmq sia, io penso che a 500 euro sarebbe un prezzo bomba per sta vga, e ci arriverà credo, nel giro di 3-5 mesi e forse scenderà anche sotto, poi fanculo i 4gb io giochero' per altri 3-4 anni in full hd xD
cmq sia, io penso che a 500 euro sarebbe un prezzo bomba per sta vga, e ci arriverà credo, nel giro di 3-5 mesi e forse scenderà anche sotto, poi fanculo i 4gb io giochero' per altri 3-4 anni in full hd xD
Mi è arrivata stamattina a 580 euro. Va molto bene non fa rumore e non scalda 48 gradi in full.:)
poi fanculo i 4gb io giochero' per altri 3-4 anni in full hd
Beh oddio, non è che in FullHD questa scheda dia proprio il meglio di se.
A meno che non recuperi del tutto con il passaggio alle DX12 (cosa che non escluderei, se il problema, come alcuni dicono, è l'eccessivo overhead dei driver AMD in DX11), per il fullHD oggi sembra esserci di meglio.
Certo, poi bisognerà anche valutare il base al prezzo, tra qualche mese.
filo mc-ati crossfire
30-06-2015, 15:14
Beh oddio, non è che in FullHD questa scheda dia proprio il meglio di se.
A meno che non recuperi del tutto con il passaggio alle DX12 (cosa che non escluderei, se il problema, come alcuni dicono, è l'eccessivo overhead dei driver AMD in DX11), per il fullHD oggi sembra esserci di meglio.
Certo, poi bisognerà anche valutare il base al prezzo, tra qualche mese.
ovviamente, non ti nego che già adesso io con il negozio che ho potrei prenderla parecchio sotto i 600, ma in questo momento lo stato mi uccide di tasse e non posso spendere 1 euro xD
filo mc-ati crossfire
30-06-2015, 15:15
Mi è arrivata stamattina a 580 euro. Va molto bene non fa rumore e non scalda 48 gradi in full.:)
ti prego fammi unigine valley in fullh ( solo per rendermi conto della differenza) e postalo xD anche heaven se riesci xD
CrapaDiLegno
30-06-2015, 16:04
cmq sia, io penso che a 500 euro sarebbe un prezzo bomba per sta vga, e ci arriverà credo, nel giro di 3-5 mesi e forse scenderà anche sotto, poi fanculo i 4gb io giochero' per altri 3-4 anni in full hd xD
Ah, se giochi in FullHD 4GB bastano e stra avanzano. Ma come ti è già stato detto le perfomance di questa scheda a basse risoluzioni non sono proprio il massimo. Se vuoi proprio Fiji per uno schermo FullHD magari aspetta la Nano che dovrebbe andare più o meno uguale a quelle risoluzioni e costare e consumare di meno. Ed è ad aria, quindi niente impicci con l'AIO.
CrapaDiLegno
30-06-2015, 16:16
Ora, al di la di tutti i discorsi fatti, qualcuno ha trovato qualche notizia che permetta di quantificare il costo delle memorie HBM?
Intendo il costo di acquisto, escludendo tutti i costi relativi alla realizzazione del nuovo controller, al PCB, ecc...
Leggevo altrove che le GDDR5 a 7GHz sono tutt'altro che economiche oggi. Tenendo conto degli altri risparmi a cui le HBM portano, mi piacerebbe farmi un'idea effettiva di quanto la loro adozione possa aver inciso sui costi della scheda.
Credo che costi e rese siano segretissimi. Probabilmente non lo sapremo mai per davvero, a parte qualche rumor.
Però non è difficile pensare che non siano proprio economiche.
Il procedimento di creazione degli strati della HBM è uno dei primi ad usare questa tecnica, per cui ben lontana da essere ottimizzata = economica. La quantità prodotta di queste HBM non è elevata e quindi non si hanno i vantaggi dell'economia di scala.
Serve un interposer che è anch'esso una fetta di silicio enorme su cui fare le "piste" per connettere il bus a 4x1024bit. Questo credo sia realizzato con PP diverso e molto più economico.
Le GDDR5 non saranno economiche in assoluto, ma molto probabilmente molto più economiche della HBM.
Conta il fatto che si risparmia sui mm^2 di silicio per un controller più piccolo e sulla PCB dove non serve tirare un bus da 512 linee a 6+GHz.
Dubito assai che in questo momento le ultime 2 compensino i costi aggiunti dell'HBM. Ma è altrettanto vero che ottenere la stessa banda con le GDRR5 richiederebbe un bus più grande di 512bit seppur con memorie a 7GHz.
Quindi costo aggiunto dipende da quale è il punto di riferimento: se la banda in assoluto o l'accontentarsi di quello che è possibile con le GDDR5 e un bus sostenibile.
filo mc-ati crossfire
01-07-2015, 00:26
Ah, se giochi in FullHD 4GB bastano e stra avanzano. Ma come ti è già stato detto le perfomance di questa scheda a basse risoluzioni non sono proprio il massimo. Se vuoi proprio Fiji per uno schermo FullHD magari aspetta la Nano che dovrebbe andare più o meno uguale a quelle risoluzioni e costare e consumare di meno. Ed è ad aria, quindi niente impicci con l'AIO.
sinceramente l'aio, è una delle cose che mi attrae di più della fury, poco rumore, basse temperature, posso mettere fino a 4 radiatori nel mio case, 3 da 120 ed uno da 240, non vedo il problema xD
PaulGuru
01-07-2015, 06:38
A mio parere le HBM influiscono sulle prestazioni principalmente in tre modi:
- Bandwidth più ampia. Può portare ad aumenti di prestazioni in casi in cui sia richiesta molta bandwidth, in generale credo incida in modo abbastanza marginale.
- Area risparmiata sui die. Il controller HBM è significativamente più piccolo di quello GDDR5 di Haway. Questo ha consentito di inserire 50mm^2 di unità di calcolo in più all'interno di Fiji, e questo ha sicuramente un certo impatto sulle prestazioni.
- Consumi minori. Questo permette di "tirare" un po' più il chip per ottenere qualcosa in più in termini di prestazioni.Fra la 390X e la Fury X ci sono il +45% circa di stream processors di differenza a pari di frequenza.
La differenza con Fury X è totalmente giustificato da ciò.
Dubito che le HBM abbiano influito sulle prestazioni, al massimo solo per tenere più lineare il calo di frame all'aumentare della risoluzione.
Sul resto sono d'accordo.
CrapaDiLegno
01-07-2015, 08:17
sinceramente l'aio, è una delle cose che mi attrae di più della fury, poco rumore, basse temperature, posso mettere fino a 4 radiatori nel mio case, 3 da 120 ed uno da 240, non vedo il problema xD
A questo punto allora non c'è niente che ti blocchi dal comprarla. Se poi un domani prendi un monitor 1440p continuerai a non avere alcun problema.
Buon divertimento.
Fra la 390X e la Fury X ci sono il +45% circa di stream processors di differenza a pari di frequenza.
La differenza con Fury X è totalmente giustificato da ciò.
Il punto è che, senza le memorie HBM, quel +45% di shader in più non ci sarebbe stato, perchè una parte di quell'area sul die sarebbe stata occupata dal più ingombrante controller per le memorie GDDR5.
Il punto è che, senza le memorie HBM, quel +45% di shader in più non ci sarebbe stato, perchè una parte di quell'area sul die sarebbe stata occupata dal più ingombrante controller per le memorie GDDR5.
E saremmo tornati al Tonga delle 285
Ahahahah non lo avevo visto il nuovo dredd... sembra un ragazzino che sta giocando con il casco del padre :rotfl:
Devono smetterla di rifare i film o almeno cominciare a farli bene.
Veramente il film del 2012 è migliore in tutto rispetto a quella cagatella con Stallone
filo mc-ati crossfire
01-07-2015, 12:05
Veramente il film del 2012 è migliore in tutto rispetto a quella cagatella con Stallone
ci credo che non l'ho mai visto? forse perchè ero piccolo ma quello di stallone mi divertiva un sacco!
sembra che ci siano alcuni problemi per le FURY X. quindi attenzione.
http://www.overclock.net/t/1562358/various-fury-x-pump-whine-buzz-noise-issue
un thread per ora di 50 pagine
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.