PDA

View Full Version : AMD Radeon 300 e Radeon Fury: specifiche tecniche e primi test


Redazione di Hardware Upg
18-06-2015, 14:58
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/4393/amd-radeon-300-e-radeon-fury-specifiche-tecniche-e-primi-test_index.html

Giungono al debutto le nuove schede video AMD Radeon della famiglia 300, modelli per sistemi desktop destinati a videogiocatori dai budget di spesa molto diversi. Provate le prime due schede di questa famiglia, i modelli Asus R9 380 Strix OC e R7 370 Strix OC, ma non mancano le informazioni tecnche ufficiali sulla scheda Radeon R9 Fury X, proposta top di gamma raffreddata a liquido con una GPU completamente nuova

Click sul link per visualizzare l'articolo.

Mantis-89
18-06-2015, 15:10
950 Watt per la R7 260 mi sembrano un po' tantini :asd:

bobby10
18-06-2015, 15:18
non mi hanno soddisfatto i test comparativi...

va bè che è tutto un rebrand alla fine

macellatore
18-06-2015, 15:22
Vabbè ma hanno preso le due piu' scarse o quasi,
che vanno poco piu' di una GTX 960.

Attendiamo le recensioni delle R390... e delle Fury
(che non supportano HDMI 2.0 purtroppo)

marchigiano
18-06-2015, 15:30
questa memoria hbm dovrebbero metterne un po on die sulle apu altrimenti la vedo brutta...

sintopatataelettronica
18-06-2015, 15:55
950 Watt per la R7 260 mi sembrano un po' tantini :asd:

E' che ha l'inverter.. e quando non la usi per giocare può anche condizionare l'ambiente :D

sintopatataelettronica
18-06-2015, 16:01
Seriamente... per ora è abbastanza deludente tutto quanto, soprattutto il discorso dei consumi: ci staremo anche come rapporto costo/prestazioni ma decisamente improponibile il rapporto prestazioni/watt (che è un dato importante a livello di calore e problematiche di dissipazione termica all'interno del case, mica per quanto incide sulla bolletta).. cioè 275w-250w per quelle schede (e come si piazzano nel mercato anche rispetto alla concorrenza) è davvero tanto.. sono veramente dispiaciuto

Vul
18-06-2015, 16:16
la 370 è una gran bella scheda se la piazzano al prezzo delle attuali 270.

notare il netto salto energetico, chissà perchè poi, i 4gb e le prestazioni che devastano una 750ti dal 20 al 40 %

.338 lapua magnum
18-06-2015, 16:30
la 370 è una gran bella scheda se la piazzano al prezzo delle attuali 270.
notare il netto salto energetico, chissà perchè poi, i 4gb e le prestazioni che devastano una 750ti dal 20 al 40 %
ma anche no visto che è pitcairn pro sparato a palla.
decisamente meglio pitcairn xt a pari freq.

koni
18-06-2015, 16:33
la 370 va come o un po' di più dell'integrata di un i5-5675c ?
dato che la iris6200 va di più di una 750

FroZen
18-06-2015, 16:39
Seriamente... per ora è abbastanza deludente tutto quanto, soprattutto il discorso dei consumi: ci staremo anche come rapporto costo/prestazioni ma decisamente improponibile il rapporto prestazioni/watt (che è un dato importante a livello di calore e problematiche di dissipazione termica all'interno del case, mica per quanto incide sulla bolletta).. cioè 275w-250w per quelle schede (e come si piazzano nel mercato anche rispetto alla concorrenza) è davvero tanto.. sono veramente dispiaciuto

Quelli che menzioni tu sono tdp delle fury ovvero le top, che sono uguali a quelli nvidia... La rece parla di 370 380 che sono molto inferiori...

Marko#88
18-06-2015, 16:40
Seriamente... per ora è abbastanza deludente tutto quanto, soprattutto il discorso dei consumi: ci staremo anche come rapporto costo/prestazioni ma decisamente improponibile il rapporto prestazioni/watt (che è un dato importante a livello di calore e problematiche di dissipazione termica all'interno del case, mica per quanto incide sulla bolletta).. cioè 275w-250w per quelle schede (e come si piazzano nel mercato anche rispetto alla concorrenza) è davvero tanto.. sono veramente dispiaciuto

+1
Curiosissimo di vedere le Fury all'opera invece!

Vul
18-06-2015, 16:58
ma anche no visto che è pitcairn pro sparato a palla.
decisamente meglio pitcairn xt a pari freq.

ma anche si.

Io guardo le prestazioni.

Sotto i 150 euro puoi comprare una scheda della concorrenza ugualmente competitiva? Neanche per sogno.

la 370 va come o un po' di più dell'integrata di un i5-5675c ?
dato che la iris6200 va di più di una 750
Ma in che pianeta? :asd:

370>750ti>750>iris 6200.

Una 370 andrà minimo il doppio di iris 6200 e se alzi i dettagli molto ma molto di più.

sintopatataelettronica
18-06-2015, 16:59
Quelli che menzioni tu sono tdp delle fury ovvero le top, che sono uguali a quelli nvidia... La rece parla di 370 380 che sono molto inferiori...

Nono.. leggiti bene la tabella e tutto l'articolo: quelli che cito (purtroppo) son i consumi delle schede re-brand di fascia media.. che è rimasto del tutto invariato dalla serie 2xx .. a fronte di un incremento prestazionale del 10% (innalzamento frequenze)

di Fury nessun dato relativo ai consumi ancora c'è.

.338 lapua magnum
18-06-2015, 17:08
ma anche si.
Io guardo le prestazioni.
anche io
Sotto i 500 euro puoi comprare una scheda della concorrenza ugualmente competitiva? Neanche per sogno.
si ma il post era riferito al raffronto tra r7 370 (pitcairn pro/1050Mhz) vs r9 270 (pitcairn xt/945Mhz), per me decisamente meglio la 270, con due click la porti sul giga e può vantare il chip completo.
poi nella comparativa generale chi ha preso hawaii ha un ottimo acquisto visto quanto spinge e come dici te in questa fascia di prezzo la concorrenza latita.

Vul
18-06-2015, 17:12
anche io

Una 270 umilia una 750ti senza se e senza ma.

si ma il post era riferito al raffronto tra r7 370 (pitcairn pro/1050Mhz) vs r9 270 (pitcairn xt/945Mhz), per me decisamente meglio la 270, con due click la porti sul giga e può vantare il chip completo.

Scusa, volevo scrivere 150 euro :asd:

poi nella comparativa generale chi ha preso hawaii ha un ottimo acquisto visto quanto spinge e come dici te in questa fascia di prezzo la concorrenza latita.

ah si, la mancanza di concorrenza è lampante :asd:

CrapaDiLegno
18-06-2015, 17:23
Scusate sono di frettissima, ma non vedo il test dei consumi (che dovrebbe essere significativo) e soprattutto un confronto con le schede 2xx che vanno a rimpiazzare.
Ci sarà una aggiunta al test?

Vrs
18-06-2015, 18:09
Nono.. leggiti bene la tabella e tutto l'articolo: quelli che cito (purtroppo) son i consumi delle schede re-brand di fascia media.. che è rimasto del tutto invariato dalla serie 2xx .. a fronte di un incremento prestazionale del 10% (innalzamento frequenze)

di Fury nessun dato relativo ai consumi ancora c'è.

No io leggo che la 380 ha un tdp di 190w(che è in effetti rimasto invariato essendo tonga) e la 370 di 110w

Le fury si sa già ufficilamente che avranno 275w di tdp tranne la Nano che pur avendo, secondo indiscrezioni, prestazioni superiori alla 290x avrà tpd (dato ufficiale) di 175w!!!

Gildor
18-06-2015, 18:12
Era un pò che attendevo queste recensioni, thx.

Non ho capito se la 380 è la vers. da 2 o 4 GB di vram.
In ogni caso le prestazioni della 380 mi piacciono, cercavo proprio una scheda da 4 gb che potesse accompagnarmi per i futuri acquisti di vga con le nuove memorie HBM e che non costasse cifre ridicole come le 970 di nvidia con la vram azzoppata a 3.5

sintopatataelettronica
18-06-2015, 18:18
No io leggo che la 380 ha un tdp di 190w(che è in effetti rimasto invariato essendo tonga) e la 370 di 110w

Le fury si sa già ufficilamente che avranno 275w di tdp tranne la Nano che pur avendo, secondo indiscrezioni, prestazioni superiori alla 290x avrà tpd (dato ufficiale) di 175w!!!

Delle fury non ne ho idea.. ma la tabella in apertura all'articolo è chiara e le 390 e 390x elencate lì non sono le fury: sono i rebrand di 290 e 290x (hawaii) .. e consumano 275w (come facevano le 290)..

Il dato delle 380 invece è 190w come dici tu (mi ricordavo i 250w delle 280 precedenti e ho citato quello pensando che fosse lo stesso, invece lì han ridotto un pò almeno).

Il mio giudizio resta invariato (e lo dico con rammarico).. tutto - per il momento - abbastanza deludente..
Aspettiamo fury.

re.polver
18-06-2015, 18:18
Perchè non progettano un socket per la GPU e la RAM video, così sarà possibile aggiornare solo questi due elementi come accadde analogamente per le schede madri.

WarDuck
18-06-2015, 18:26
Speravo che queste R3xx montassero tutte HBM, invece ho scoperto malamente che non è così :(

Di fatto sono versioni leggermente overcloccate delle R2xx.

Aspettando Fury... la R9 Nano viene data sui 175W a leggere le slides.

Probabilmente HBM costano ancora molto essendo una nuova tecnologia, ma forse a questo punto valeva la pena aspettare e far uscire direttamente le R3xx tutte con HBM.

Avrebbero avuto sicuramente una riduzione notevole dei consumi (che ricordo alla fine è il vero difetto delle schede AMD di questa generazione).

sintopatataelettronica
18-06-2015, 18:26
tranne la Nano che pur avendo, secondo indiscrezioni, prestazioni superiori alla 290x avrà tpd (dato ufficiale) di 175w!!!

sarebbe davvero ottimo un tdp di 175w su una schedina del genere.. ma visto quello che costerà, le mie speranze erano più sull'ottimizzazione dei consumi nella fascia media (che è davvero minimo)

sintopatataelettronica
18-06-2015, 18:30
Avrebbero avuto sicuramente una riduzione notevole dei consumi (che ricordo alla fine è il vero difetto delle schede AMD di questa generazione).

Sì, è l'unico vero difetto che hanno .. e dai rebrand mi aspettavo soprattutto passi in avanti in questo senso, per questo son dispiaciuto.

La fury nano sembra invece essere una proposta fantastica e decisamente appetibile.. ma ha un prezzo per ora troppo alto, almeno per me.

tmx
18-06-2015, 19:00
Della fury sono usciti dei bench vs 980ti, a 4k:
http://i.imgur.com/BIqmOXb.png
Forniti da amd a quanto sembra? Erano poco fa su reddit.

Malek86
18-06-2015, 19:37
Uhm, pensavo meglio come consumi, si vede che non hanno cambiato molto. Mi sa che la GTX 960 rimarrà il mio prossimo acquisto.

sgrinfia
18-06-2015, 19:39
Perchè non progettano un socket per la GPU e la RAM video, così sarà possibile aggiornare solo questi due elementi come accadde analogamente per le schede madri.

Perché devono vendere:asd: , infatti il 90%dei guasti delle schede video e dovuto alle ram , e non al processore grafico.

DukeIT
18-06-2015, 21:11
Il dato delle 380 invece è 190w come dici tu (mi ricordavo i 250w delle 280 precedenti e ho citato quello pensando che fosse lo stesso, invece lì han ridotto un pò almeno).

Il mio giudizio resta invariato (e lo dico con rammarico).. tutto - per il momento - abbastanza deludente..
Aspettiamo fury.
Ma il tuo giudizio, mi sembrava avessi scritto fosse dovuto all'eccessivo consumo (calore, rumore), quando parlavi di un TDP di 275-250W, come può rimanere invariato sapendo che invece è di 190-110W? A me sembra una bella differenza...

Lagash
18-06-2015, 21:11
Sono trascorsi 2 giorni dall'annuncio fatto da AMD all'E3 di Las Vegas

Seriously?

Italia 1
18-06-2015, 21:46
Ma la Fury non ha le memorie a 500 mhz ? Ed i test della scheda dove sono ? Dal titolo pensavo ci fosse anche quella

maxsy
18-06-2015, 21:58
finalmente!

ho fatto di tutto per non prendere una 750ti (anche messo le fascette per tenere fermo il guscio della mia 5770 rotto da un bel po).

anche perche' una 750ti, che e' un ottima scheda, la vendono ad un prezzo troppo alto.

non ho letto tutta la rece, ma ci sono indiscrezioni rigurado i prezzi?

calabar
18-06-2015, 22:49
A me interessa HDMI 2.0 sulla 360, qualcuno ha notizie?

Lights_n_roses
18-06-2015, 23:00
Peccato che nell'articolo manchi il confronto con la R9 280X

carlottoIIx6
18-06-2015, 23:01
come si può chiamare consumo (che il wattaggio medio per il tempo di esecuzione) il picco massimo di tensione, che non si sa neanche quanto dura??

macellatore
18-06-2015, 23:11
A me interessa HDMI 2.0 sulla 360, qualcuno ha notizie?

Sulle Fury non ci sarà, quindi presumo non ci sia neanche sulla umile 360.

FaMe.it
19-06-2015, 08:23
Io quoto carlotto..Non si può dire che il consumo della scheda è il suo picco massimo..I giochi mica ti fanno stare la gpu al 100% costantemente anzi...Apparte questo io sto ancora su 6950 (portata a 1ghz) e queste schede visti i primi benchmark cominciano a farmi gola.

CrapaDiLegno
19-06-2015, 08:35
certo è significativo come ultimo appiglio. Te lo dico io, la 390x consuma circa 80w più della 980 liscia. Ecco una recensione

http://www.guru3d.com/articles-pages/msi-radeon-r9-390x-gaming-8g-oc-review,1.html

la MSI R9390X OC 8GB GDDR5 Twin Frozr V 512bit 2*DVI/HDMI/DP l'ho vista già disponibile a 509€ iva inclusa, in linea (prezzo day one non dimentichiamolo) con le 980.

Come significativo intendevo il test. Dato che queste nuove schede sono semplicemente dei puri rebrand (io pensavo almeno un refresh di Hawaii a GCN 1.2 e invece no) l'unica cosa che cambia sono i consumi. Perché un overclock di 100MHz lo fai su qualsiasi scheda grafica senza alcun problema. Sopratutto se parte da 180W invece che 280W.
E se uno trova queste schede migliori delle precedenti solo perché con 100 e più MHz in più si avvicinano alle prestazioni della 980 liscia, allora vuol dire che non ha capito nulla di informatica e sono contento che crei concorrenza.
Acquistatele, che sono fantastiche!

Sflao
19-06-2015, 10:05
la 380 mediamente andrà un 15% + della GTX 960 ma con consumi del 40 - 50% superiori. non mi piace.
qui ci sono altre review comprese le 390 e 390X:

http://www.overclock.net/t/1560901/various-r7-r9-300-series-reviews


In attesa di Fury - Fury X perchè sono curioso di vedere come andranno

brancamenta
19-06-2015, 10:25
Vanno di più con frequenze più basse ma consumano molto di più. Dov'è la novità? Niente di nuovo.

Sflao
19-06-2015, 10:29
http://abload.de/img/amd-radeon-r9-fury-x-x9zab.png (http://abload.de/image.php?img=amd-radeon-r9-fury-x-x9zab.png)

http://videocardz.com/56728/amd-radeon-r9-fury-x-reviewers-guide

sintopatataelettronica
19-06-2015, 11:52
come si può chiamare consumo (che il wattaggio medio per il tempo di esecuzione) il picco massimo di tensione, che non si sa neanche quanto dura??

Io quoto carlotto..Non si può dire che il consumo della scheda è il suo picco massimo..I giochi mica ti fanno stare la gpu al 100% costantemente anzi...

vabbè.. tecnicismi a parte è tanto per capirse :D

E una scheda con un picco massimo di tensione più alto alla fine consumerà (che è il problema minore) e scalderà (che è il vero, unico difetto di questa generazione di schede AMD - prestazioni e costi sono straordinari) di più di una che ha un TDP di molto inferiore..

Da qui la delusione e il dispiacere sotto questo punto di vista per questo rebrand della fascia media..
Le Fury si vedrà .. la nano sembra ottima sotto tutti gli aspetti, ma costa veramente tanto..

[K]iT[o]
19-06-2015, 14:36
Ormai AMD è sinonimo di delusione tecnologica, si limitano a rincorrere tirando fuori chip che consumano troppo, consigliarne l'acquisto è un dispetto.
Mah se ne riparla l'anno prossimo, ma dopo 4 anni ormai le speranze si stanno dileguando.

DukeIT
19-06-2015, 15:04
iT[o];42593471']Ormai AMD è sinonimo di delusione tecnologica, si limitano a rincorrere tirando fuori chip che consumano troppo, consigliarne l'acquisto è un dispetto.
Mah se ne riparla l'anno prossimo, ma dopo 4 anni ormai le speranze si stanno dileguando.
Noto con piacere che, dai tempi dei chip Fermi, è cambiato radicalmente l'atteggiamento verso i consumi. A quei tempi ad una VGA prestazionale si doveva chiedere solo di avere, appunto, prestazioni (non si guardava nemmeno il prezzo), adesso, indipendentemente da prestazioni e prezzo (che spesso ripaga con gli interessi dei maggiori consumi), si guarda quasi esclusivamente ai consumi.

In questo articolo stiamo parlando comunque di rebrand, dove in ogni caso AMD è riuscita ad aumentare le prestazioni e la dotazione di memoria senza aumentare i consumi, non si tratta però del test dei nuovi chip Fury, per quelli conviene aspettare ancora un po', prima di pronunciarsi

sintopatataelettronica
19-06-2015, 15:36
iT[o];42593471']Ormai AMD è sinonimo di delusione tecnologica, si limitano a rincorrere tirando fuori chip che consumano troppo, consigliarne l'acquisto è un dispetto.
Mah se ne riparla l'anno prossimo, ma dopo 4 anni ormai le speranze si stanno dileguando.

La delusione è per il rebrand della fascia media che hanno fatto.

La serie fury sembra invece alquanto promettente.. soprattutto la nano.

sintopatataelettronica
19-06-2015, 15:37
Noto con piacere che, dai tempi dei chip Fermi, è cambiato radicalmente l'atteggiamento verso i consumi. A quei tempi ad una VGA prestazionale si doveva chiedere solo di avere, appunto, prestazioni (non si guardava nemmeno il prezzo), adesso, indipendentemente da prestazioni e prezzo (che spesso ripaga con gli interessi dei maggiori consumi), si guarda quasi esclusivamente ai consumi.

sì.. si guarda di più ai consumi: ma solo perché più consumo e più watt significano più calore e maggiori problemi nella dissipazione termica :D

WarDuck
19-06-2015, 20:33
iT[o];42593471']Ormai AMD è sinonimo di delusione tecnologica, si limitano a rincorrere tirando fuori chip che consumano troppo, consigliarne l'acquisto è un dispetto.


Mah, rincorrere... certo AMD è in una situazione di difficoltà (da questo punto di vista spero in una acquisizione da parte di Samsung), ma tuttavia a livello prestazionale è lì alla pari con nVidia. Quando era nVidia che rincorreva e aveva schede che consumavano troppo?

Dopodiché Fury sarà la prima scheda in commercio ad avere memorie HBM, e non mi sembra una cosa da poco considerato anche che GCN è molto più longevo di quanto ci saremmo potuti attendere (questo non è forse un plus dal punto di vista ingegneristico?).

Comunque: http://techreport.com/review/28499/amd-radeon-fury-x-architecture-revealed

Diversi estratti:


Nvidia will likely emphasize geometric complexity and tessellation, and AMD will probably push for prettier pixels instead of more polygons.

Ed in particolare:

He also noted that the question of workloads—how the GPU is used by game developers—is key to the performance question. Fiji has a lot more shader computing power than the GM200. Some workloads are better suited for Fiji's balance resources, while others are not. That fact will likely add fuel to the disputes around vendor-specific optimizations in games, as I've already noted.


At the end of the day, what's happened is that we appear to have arrived at a strange sort of parity between to two major GPU players in these high-end chips. Both built GPUs that are about 600 square millimeters. AMD invested in HBM and carried over the GCN architecture with relatively minor tweaks. Nvidia invested in a truly new GPU microarchitecture with Maxwell but stuck with legacy GDDR5 memory. The resulting GPUs have dramatically different respective strengths, and early indicators point to them being pretty closely matched in current games.

Rough parity in the GPU race isn't anything new. Long ago, ATI's David Nalasco explained this dynamic to me by pointing out that both of the major GPU firms have "a lot of smart people" and the constraints they're up against tend to be shared in common. It's logical to expect a tight race.

What's remarkable about 2015's version of that race is that AMD and Nvidia have taken very different paths to a similar destination.

In soldoni: sono alla pari, ma entrambe stanno percorrendo strade diverse per arrivare all'obiettivo.

Quello che è realmente preoccupante, a prescindere da nVidia o AMD, e che questa volta come non mai tutto è nelle mani degli sviluppatori di games, e alle conseguenti ottimizzazioni specifiche (alla faccia delle API standard).

Pier2204
19-06-2015, 21:01
http://abload.de/img/amd-radeon-r9-fury-x-x9zab.png (http://abload.de/image.php?img=amd-radeon-r9-fury-x-x9zab.png)

http://videocardz.com/56728/amd-radeon-r9-fury-x-reviewers-guide

In questo grafico si evince che la storia dei 4K con soli 4 GB di vram è più una teoria che altro, non c'è un gioco dove La R9 Fury non primeggia...

opt3ron
20-06-2015, 18:10
Certo che chiamare rebrand queste schede non rende giustizia ad amd.
Esclusa la 370 tutte le schede sono compatibili al 100% con le dx12 mentre nessuna nVidia ,neanche la titan x, lo é.

calabar
21-06-2015, 01:53
Esclusa la 370 tutte le schede sono compatibili al 100% con le dx12 mentre nessuna nVidia ,neanche la titan x, lo é.
Non proprio. Le schede AMD GNC sono le uniche a supportare il "Tier 3" di DX12, che riguarda i limiti hardware nel binding delle risorse (ossia in Tier 3 non ci sono limiti hardware), ma questo non significa supporto pieno alle DX12 e alle sue funzionalità.
Maxwell 2.0 per esempio è l'unica a supportare il "Level 12.1" delle DirectX 12 (credo che anche GNC 1.3 di Fiji supporti "solo" il 12.0, ma non ne sono sicuro), che però non significa la coperatura completa delle caratteristiche delle nuove DirectX.

Una cosa però è certa, GNC se la cava mediamente meglio delle ultime architetture Nvidia nel supporto DX12.

opt3ron
21-06-2015, 10:08
Quindi si può dire che AMD ha schede che supportano al 100% le dx12 e
Che ne nVidia ne AMD hanno schede che supportano al 100% le dx12.1
Microsoft ,per non far sfigurare le nVidia e favorire la concorrente con mantle, nel parlare della compatibilità ha inserito anche le dx12.1 , già che c'era poteva parlare anche delle dx13 o delle dx14.

sintopatataelettronica
21-06-2015, 11:41
Certo che chiamare rebrand queste schede non rende giustizia ad amd.

e come le chiameresti, allora ?
nuove architetture ? rivoluzionario step tecnologico ?
:confused:

DukeIT
21-06-2015, 12:34
e come le chiameresti, allora ?
nuove architetture ? rivoluzionario step tecnologico ?
:confused:Certo che no, ma rebrand significa il semplice cambio di nome ad un prodotto, cosa già avvenuta in passato.
Qui in effetti sono migliorate le prestazioni senza peggiorare i consumi ed è cambiata la dotazione di memoria, non possiamo dire di essere di fronte ad una nuova architettura, ma nemmeno che si tratti di un rebrand, altrimenti le diverse VGA di una serie che utilizza la medesima architettura, dovrebbero essere definite rebrand, dovremmo chiamare rebrand le 980Ti e le TitanX, ma pure le 980 rispetto alle 970...
AMD sta facendo un'operazione diversa da Nvidia nella nomenclatura delle VGA: mentre Nvidia utilizza nuovi chip per le nuove serie con nomi numericamente crescenti che ne definiscono le prestazioni, AMD, già dalla precedente serie, pur utilizzando una nomenclatura numericamente crescente in base alle prestazioni, utilizza però chip diversi, già utilizzati in serie precedenti, all'interno della medesima serie.
Si tratta in ogni caso di schede diverse ed affinate ed ogni marchio propone nuove architetture ad ogni cambio di generazione, però, mentre Nvidia ad ogni nuova serie riserva totalmente chip nuovi, AMD utilizza anche chip precedenti.
Che la cosa sia positiva o negativa bisogna valutarla nell'unico modo disponibile all'utente finale: rapporto prezzo prestazioni. Se questo permette ad AMD di contenere i costi con il risultato di offrire prodotti validi ad un buon prezzo, perché dovrei valutare negativamente la cosa?

sintopatataelettronica
21-06-2015, 17:26
Certo che no, ma rebrand significa il semplice cambio di nome ad un prodotto, cosa già avvenuta in passato.
Qui in effetti sono migliorate le prestazioni senza peggiorare i consumi ed è cambiata la dotazione di memoria, non possiamo dire di essere di fronte ad una nuova architettura, ma nemmeno che si tratti di un rebrand,

sì, vero.. non avevo notato il raddoppio della memoria nelle 390 rispetto alle 290.. tecnicamente non è un rebrand

e schifo 'ste schede non lo fanno di certo: sono buone e concorrenziali a livello di prestazioni (come lo era pure serie precedente).. resta però la delusione lato "consumi" (calore)

calabar
21-06-2015, 18:10
Quindi si può dire che AMD ha schede che supportano al 100% le dx12 e
Che ne nVidia ne AMD hanno schede che supportano al 100% le dx12.1
Direi di no.
Il feature level non comprende tutte le "feature" di directx12, quindi è difficile parlare di supporto completo.
Tieni conto che le DX12 nascono per girare sulle schede attuali (al contrario delle altre progettate per le schede future), e per questo hanno creato tier e feature level per definire il livello di compatibilità. Ma sono comunque delle semplificazioni.
Francamente neppure io ho ben capito a che livello sia realmente il supporto da parte delle diverse architetture, per il momento si possono fare solo paragoni sulle due scale che sono state definite.

sì, vero.. non avevo notato il raddoppio della memoria nelle 390 rispetto alle 290.. tecnicamente non è un rebrand

e schifo 'ste schede non lo fanno di certo: sono buone e concorrenziali a livello di prestazioni (come lo era pure serie precedente).. resta però la delusione lato "consumi" (calore)
In realtà pare che anche i chip non siano identici, quelli delle hd 3xx hanno integrato dell'hardware per favorire il risparmio energetico.
Ho letto altrove che con i nuovi driver che usciranno per questa serie e sfrutteranno questa peculiarità hardware, le 390x arriveranno a consumare 30-40 W in meno delle 290X nonostante le frequenze maggiori e la maggiore quantità di VRAM.

PaulGuru
21-06-2015, 20:48
In questo grafico si evince che la storia dei 4K con soli 4 GB di vram è più una teoria che altro, non c'è un gioco dove La R9 Fury non primeggia...
Con le slide AMD vince sempre ! ;)
Poi quanto si parla di supporto ai nuovi titoli ecco che c'è sempre la magagna nei confronti di Nvidia.

Si non c'è titolo in cui non primeggia, hai ragione, peccato che siano tutti sotto i 60fps di media. :rolleyes:

DukeIT
21-06-2015, 21:07
Si non c'è titolo in cui non primeggia, hai ragione, peccato che siano tutti sotto i 60fps di media. :rolleyes:?
Più sono bassi i fps, più è importante primeggiare, diversamente in un titolo dove entrambe le VGA superassero i 200 fps, poco interesserebbe chi vince.

PaulGuru
21-06-2015, 23:09
?
Più sono bassi i fps, più è importante primeggiare, diversamente in un titolo dove entrambe le VGA superassero i 200 fps, poco interesserebbe chi vince.
Il 4K è un test ad hoc per massimizzare il vantaggio di quel tipo di RAM.
Se guardiamo il 1440p o 1080p scommetto che influirà di meno.

Sotto i 60 perdi fluidità e non spendo quelle cufre per giocare con compromessi.
L'unica cosa che puoi dire è che la Fury a 4K fa un po' meno skifo delle Nvidia ( se facciamo finta di non vedere il supporto penoso di AMD ).

No un titolo che gira a 200fps non interessa a nessuno, ma quì nessuno di media arriva nemmeno a 60, figurati averli costanti.

DukeIT
21-06-2015, 23:30
Il 4K è un test ad hoc per massimizzare il vantaggio di quel tipo di RAM.
Se guardiamo il 1440p o 1080p scommetto che influirà di meno.

Sotto i 60 perdi fluidità e non spendo quelle cufre per giocare con compromessi.
L'unica cosa che puoi dire è che la Fury a 4K fa un po' meno skifo delle Nvidia ( se facciamo finta di non vedere il supporto penoso di AMD ).

No un titolo che gira a 200fps non interessa a nessuno, ma quì nessuno di media arriva nemmeno a 60, figurati averli costanti.
Se vuoi giocare a 4K con quei titoli, quelle sono le prestazioni. Rimane il concetto che ad alti fps è inutile primeggiare, non cambia nulla, mentre a bassi fps è preferibile la VGA più veloce. Quando dici che essendo bassi i fps conta poco la supremazia di AMD, dici una cosa inesatta: se, come detto, entrambe le VGA fossero sopra i 200 fps, allora si che le differenze non conterebbero bulla.

PaulGuru
21-06-2015, 23:33
Se vuoi giocare a 4K con quei titoli, quelle sono le prestazioni. Rimane il concetto che ad alti fps è inutile primeggiare, non cambia nulla, mentre a bassi fps è preferibile la VGA più veloce.
Discorso ok se parlassimo di una fascia media .... su questa fascia a bassi fps non ci perdi nemmeno tempo, o fai un multi GPU o quel +5% è utile a ben poco.

DukeIT
21-06-2015, 23:51
Discorso ok se parlassimo di una fascia media .... su questa fascia a bassi fps non ci perdi nemmeno tempo, o fai un multi GPU o quel +5% è utile a ben poco.La fascia alta in FHD, diventa media a 4k. I pochi interessati a quelle risoluzioni devono accontentarsi, questo è il massimo, visto che stiamo parlando delle VGA top Nvidia/AMD.
Poi c'è il multi-gpu, in alternativa il rimanere in FHD se si vuole fluidità, od il 4K se si accettano compromessi (minor fluidità o impostazioni più basse).
Personalmente ritengo che il FHD durerà ancora parecchio, almeno a casa mia.

Sflao
22-06-2015, 08:26
Se vuoi giocare a 4K con quei titoli, quelle sono le prestazioni. .

anche perchè sti dementi che hanno fatto i test, dove possibile hanno attivato un inutile MSAA8x o 4x, o addirittura il super sampling AA.....che a quella risoluzione te li puoi risparmiare alla grande

s12a
22-06-2015, 08:37
anche perchè sti dementi che hanno fatto i test, dove possibile hanno attivato un inutile MSAA8x o 4x, o addirittura il super sampling AA.....che a quella risoluzione te li puoi risparmiare alla grande
Purtroppo non è così, l'aliasing si nota anche in 4k; dipende soprattutto dalla densità di pixel del monitor e quella dei modelli di questa risoluzione che vanno per la maggiore non è sufficientemente elevata da poterlo disattivare senza differenze visive. Ad esempio, un 32" 4k ha una densità di 137 PPI contro i circa 96 PPI di un tipico 23" FHD.

Sflao
22-06-2015, 08:44
fai conto che addirittura un 40 4K è paragonabile, come densità di pixel , ad un 2560x1440 da 27 pollici...(ed i modelli 32-28 4K sarebbero anche migliori)
e con una densità di pixel del genere ti basta un FXAA-SMAA o un qualunque tipo di AA post processing o MSAA 2x

s12a
22-06-2015, 09:20
Test con e senza anti-aliasing:

http://i.imgur.com/4qr0zw2.png

Sflao
22-06-2015, 09:27
non ho capito questo tuo ultimo messaggio cmq riprendendo questo pezzo del tuo precedente post:

"che vanno per la maggiore non è sufficientemente elevata da poterlo disattivare senza differenze visive"

qui nessuno ha parlato di disattivare del tutto l'aa, ma, invece, a queste risoluzioni così alte e con un certo livello di densità di pixel, di usare la forma più leggera

1 perchè si ottiene già un ottima qualità

2 per massimizzare le prestazioni

Sflao
22-06-2015, 09:32
invece per giocare ---senza alcuna forma di AA--- e senza quasi nessun alisaing dell immagine ci vorrebbe un 8K.
mentre con un 4K l'aliasing non si noterà --solo in rari casi--

s12a
22-06-2015, 09:58
non ho capito questo tuo ultimo messaggio
Il senso è che raddoppiando la dimensione del font così come la distanza di visione (simulando quindi un PPI doppio), disattivando l'antialiasing il testo mostrato risulterà comunque di bassa di qualità, si noteranno le seghettature. Questo succede anche a distanze maggiori. Per evitare ciò e fare completamente a meno dell'AA serve una densità di pixel molto maggiore, come appunto fai notare nell'ultimo messaggio.

Vul
22-06-2015, 11:01
Test con e senza anti-aliasing:

http://i.imgur.com/4qr0zw2.png

Dipende dalla dimensione del monitor.


http://content.hwigroup.net/images/articles/bf3%202013-10-10%2012-57-18-52-original.jpg

Io in questa immagine vedo necessità di AA solo sui cavi (e solo su alcune parti di questi).

In movimento, non con uno screen dove cerco il "pelo nell'uovo" non me ne fregherebbe nulla.

s12a
22-06-2015, 11:08
Non mi sembra un buon esempio. L'immagine fa eccome uso di antialiasing. Ecco un ingrandimento del 400% (nearest neighbor) dove la cosa è evidente:

http://i.imgur.com/ZV5Wwv6.png

Altro dettaglio:

http://i.imgur.com/CplimVm.png http://i.imgur.com/2dygsvo.png

PaulGuru
22-06-2015, 13:54
La fascia alta in FHD, diventa media a 4k. I pochi interessati a quelle risoluzioni devono accontentarsi, questo è il massimo, visto che stiamo parlando delle VGA top Nvidia/AMD.
Poi c'è il multi-gpu, in alternativa il rimanere in FHD se si vuole fluidità, od il 4K se si accettano compromessi (minor fluidità o impostazioni più basse).
Personalmente ritengo che il FHD durerà ancora parecchio, almeno a casa mia.
Non c'è solo il FHD e il 4K, esiste anche il 1440p per cui sti prodotti van benissimo, anzi sono proprio ad hoc.

Per il 4K non ci sono compromessi, uno si fa lo SLI / CF e basta.

Sflao
22-06-2015, 14:08
Non mi sembra un buon esempio. L'immagine fa eccome uso di antialiasing. Ecco un ingrandimento del 400% (nearest neighbor) dove la cosa è evidente:

[img]http://i.imgur.com/ZV5Wwv6.png

Altro dettaglio:

[img]http://i.imgur.com/CplimVm.png [img]http://i.imgur.com/2dygsvo.png

ovviamente in questa immagine c'è AA di post processing, se non addirittura MSAA2x o 4x + AA post processing ;)

escludo il pesantissimo MSAA da solo perchè ha una qualità cagosa.

Sflao
24-06-2015, 08:18
http://abload.de/img/350x700px-ll-2ad93f73gtuyf.png (http://abload.de/image.php?img=350x700px-ll-2ad93f73gtuyf.png)

http://abload.de/img/350x700px-ll-5eaff57c5gula.png (http://abload.de/image.php?img=350x700px-ll-5eaff57c5gula.png)

http://abload.de/img/350x700px-ll-37dff5539eu8g.png (http://abload.de/image.php?img=350x700px-ll-37dff5539eu8g.png)

http://abload.de/img/350x700px-ll-66d1349a16ufx.png (http://abload.de/image.php?img=350x700px-ll-66d1349a16ufx.png)

http://abload.de/img/350x700px-ll-83de3750hqubu.png (http://abload.de/image.php?img=350x700px-ll-83de3750hqubu.png)

http://abload.de/img/350x700px-ll-982f4559czuyu.png (http://abload.de/image.php?img=350x700px-ll-982f4559czuyu.png)

http://abload.de/img/350x700px-ll-7643237dvau00.png (http://abload.de/image.php?img=350x700px-ll-7643237dvau00.png)

http://abload.de/img/350x700px-ll-751540061su6r.png (http://abload.de/image.php?img=350x700px-ll-751540061su6r.png)

http://abload.de/img/9buiv.png (http://abload.de/image.php?img=9buiv.png)

http://abload.de/img/350x700px-ll-a254b8b8w2uwt.png (http://abload.de/image.php?img=350x700px-ll-a254b8b8w2uwt.png)

Sflao
24-06-2015, 08:32
SE queste sono le prestazioni e questo è il potenziale di overclock...(che è mediocre...) allora la 980Ti ha vinto contro la Fury X raffreddata a liquido.
in attesa di altre review.

Marko#88
24-06-2015, 09:46
Non mi sembra un buon esempio. L'immagine fa eccome uso di antialiasing. Ecco un ingrandimento del 400% (nearest neighbor) dove la cosa è evidente:


Ma tu mentre giochi fai screenshot e ti guardi i crop 400% o giochi e ti godi il gioco? :rolleyes:

s12a
24-06-2015, 09:47
Ma tu mentre giochi fai screenshot e ti guardi i crop 400% o giochi e ti godi il gioco? :rolleyes:

Che l'immagine faccia uso di antialiasing si nota al volo ed il crop al 400% era un modo per dimostrarlo.

Marko#88
24-06-2015, 11:09
Che l'immagine faccia uso di antialiasing si nota al volo ed il crop al 400% era un modo per dimostrarlo.

Va bene, riformulo: tu mentre giochi ti fai le seghe sull'aa o ti godi il gioco?

PaulGuru
24-06-2015, 11:59
Test con e senza anti-aliasing:

http://i.imgur.com/4qr0zw2.png

ha ragione
poi se c'è chi "non vede" o chi "fa finta di non vedere" è un altra cosa, ma anche su 4K di sicuro su qualche titolo specie i next gen ancora di più, almeno un FXAA o analoghi ci vogliono.