Radeon R9 290X: AMD ridefinisce la scheda top di gamma

Al debutto la nuova proposta di fascia alta di AMD per il mercato delle schede video desktop, basata sulla nuova GPU nota con il nome in codice di Hawaii. L'architettura alla base rimane quella delle GPU Tahiti, migliorata e affinata oltre che notevolmente velocizzata grazie all'aumento degli stream processors e al bus memoria da 512bit. Il tutto condito da un prezzo di listino molto aggressivo, e da prestazioni allineate a quelle di GeForce GTX Titan
di Paolo Corsini pubblicato il 24 Ottobre 2013 nel canale Schede VideoAMDGeForceRadeonNVIDIA
364 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoDiamo un pò di numeri se no qui non si capisce una mazza:
la differenza di prestazioni per watt tra
Titan e R9 290X è del 7,9% a favore di Titan,
GTX780 e R9 290x è del 5,3%
Invece, la HD5870 era più efficiente della GTX480 del 62% . (fonte techpowerup)
lla HD5870 era più efficiente della GTX580 del 23%. In definitiva la seconda reicarnazione di Fermi ha portato ad un aumento dell'efficienza del 32%.
Parliamo di cose molto diverse. E' vero la R9 290x consuma poco meno della GTX480, ma le varie Titan, GTX680, GTX780 consumano molto ma molto di più della HD5870 (80-120W in più, in alcuni casi il doppio quindi)
PS la r9 290x in configurazioni multi-monitor è la più efficiente di tutte, superando la TITAN di un buon 10-15%....
PPS valutare i prezzi di schede video uscite il giorno prima non è corretto. Già dalla prossima settimana vedremo prezzi in alcuni casi già allineati a listino
PPPS a rileggere questi numeri mi è venuta quasi la nostalgia per l'architettura vliw...
E' un vero piacere rileggerti!!
Yoss in Hawaii AMD ha usato transistor ad alta densità a tuo avviso ?
se li hanno usati, è stato solo per il MC (mi fa pensare il fatto che si sia passati da 384 a 512 bit risparmiando il 20% di spazio). D'accordo le ottimizzazioni ma questa mi pare eccessiva anche perché i 28 nm sono "fuori" da un po' e molte cose sono già state limate in precedenza
ciao Apple, non è proprio così. Il GPU boost 2 limita la frequenza del chip in base alla temperatura e/o al consumo. Titan lavora con tensione di circa 1,162 V e la temperatura di "soglia" è impostata a 80°C di default. Con queste impostazioni, in game, nonostante ciò che dichiari nVidia, il chip non supera mai la frequenza di boost di 875/880 MHz. Per poterlo fare è necessario cambiare la velocità di rotazione della ventola (portandola all'85%) e si riesce ad arrivare ad una frequenza di boost di circa 995 MHz, oppure,s e si vuole andare oltre, aumentare leggermente la tensione (di circa 36-38 mV perché oltre diventa instabile e la protezione tende a riabbassarla automaticamente ai valori di default indipendentemente da quanto è stato impostato) e portare la soglia della temperatura a 94-95°C. In questo modo è possibile raggiungere una frequenza massima di boost attorno ai 1130 MHz (oltre il sistema va in crash e non è possibile compensare aumentano ancora la tensione di alimentazione). Le prestazioni salgono con questi ultimi accorgimenti di circa il 15-20% a seconda dei titoli ma anche i consumi aumentano arrivando a superare quelli di hawaii. Inoltre c'è da considerare che la rilevazione avviene in una arco di tempo tale da non potersi considerare istantanea e con la funzione "boost frequency" i chip nVidia hanno continue oscillazioni della frequenza di funzionamento che non permettono di affermare che il chip lavori "stabile" a una determinata frequenza
a parità di dissipatore dovrebbe valere tra hawaii e titan o 780 GTX. Non credo che il dissipatore di hawaii abbia una qualità eccelsa
Il fatto che le temperature non variassero di molto dipende dal "limitatore" di temperatura impostato sul chip. Però tieni conto che il limitatore funziona in modo tale che se hai impostato di default un valore di 80°C, come la temperatura si avvicina a quel limite la frequenza di funzionamento di abbassa. In questo modo, su scene con carichi elevati hai continui picchi di frequenze in alto e in basso che limitano le temperature ma anche le prestazioni
Io mi sono persuaso che invece gk110 non è stato progettato per i 20 nm (ed infatti esiste da più di un anno, se ci metti il tapeout esiste da almeno marzo/aprile 2012, troppo presto per progettare un chip per quel pp, anche se fosse stato pronto, il pp a 20nm, per fine di quest'anno come previsto inizialmente) mentre Hawaii si, ed è stato riadattato ai 28nm (forse analogamente a Cayman che era per i 32nm e poi fu fatto per i 40nm)
il fatto che esista da oltre un anno vuol dire poco. GK110 è un chip molto complesso e di enormi dimensioni e ha costretto nVidia, per poter avere un maggior boost di frequenze in game, a disabilitare il DP sulla 780 per abbassare i consumi in caso di aumento delle frequenze. La mia idea è che se ci fossero stati i 20 nm, la 780 non sarebbe uscita affatto perché il vero GK110, di fatto, è titan
Pare inoltre (ma devo ritrovare la fonte) che su Hawaii Amd abbia usato transistor ad alta densità, se fosse vero questo potrebbe contribuire a spiegare, oltre alle frequenze tirate, i consumi e di conseguenza il calore esagarati di questo chip, non credi?
come ho risposto a Maury, penso che se sia stato fatto uso di transistor ad alta densità questo sia avvenuto solo per il memory controller. I transistor ad alta densità possono causare un aumento della temperatura da smaltire (a causa del fatto che le connessioni sono disposte su tre dimensioni) ma non dei consumi del chip. Quelli sono conseguenza del numero di transitor e di altri fattori legati alle caratteristiche del PP e delle librerie utilizzate
Beh, hanno messo 12 unità e ne hanno spenta una per aumentare le rese...
A parte il discorso accoppiamento rops ecc, imho era meglio spenderci un pò di più sul chip (parlo di grandezza) e giocarsela meglio dal pdv consumi/calore..no?
nVidia e AMD/ATi hanno un approccio diverso alla progettazione del layout del chip. Quello di nVidia tende al superscalare, quello di AMD al vettoriale. Ognuno ha vantaggi e svantaggi a seconda dell'applicazione che ci deve girare e di come è ottimizzata. L'approccio di nVidia, a livello di unità di calcolo è più efficiente per watt (molte energia la spende per la logica di controllo delle unità di calcolo) quello di AMD è più efficiente per unità di superficie (meno circuiti di controllo, feedback, ecc, ma molte più unità di calcolo per unità di superficie). Inoltre, questo porta anche a vantaggi e svantaggi sul piano dei blocchi e non solo delle singole unità funzionali. L'architettura di GK110 risulta più efficiente nelle operazioni geometriche e ha più texture unit. Quella di AMD va meglio con le operazioni matematiche quando c'è la possibilità di ottenere un elevato parallelismo (ad esempio molte applicazioni di tipo GPGPU), è nettamente superiore nelle operazioni di rendering e ha latenze inferiori negli accessi alle memorie e nelle operazioni che implicano trasferimento di dati dai registri. Quindi, limitare il confronto a dimensioni, watt e temperature e molto "riduttivo". C'è anche da aggiungere che a questo giro, nVidia ha fatto un eccellente lavoro nel contenere consumi e temperature (il limitatore di tensione, temperatura e consumo funziona veramente bene)
Certo che non potevano prevedere tutto per filo e per segno...(leggasi comsumi esagerati) però fà strano vedere una Titan consumare 50W in meno.....
titan lavora anche a frequenze di molto inferiori
E nel caso fosse un'archi nuova, si prospetterebbe la famosa prova del fuoco della doppietta "nuovo PP, archi nuova"
se Maxwell è un'architettura nuova, la transizione da Kepler avverrà ancora a 28 nm e solo poi si passerà ai 20 con la nuova architettura già collaudata.
Domandona: secondo te, AMD ad oggi è ancora avanti di mezzo nodo nel pp (o in generale nel rapporto con TSMC), oppure a causa del ritardo sui 20nm di TSMC ha perso questo vantaggio?
no, non è più in vantaggio. Entrambe hanno avuto modo di collaudare bene i 28 nm e sono pronte a passare ai 20
Quì la domanda è se non sai davvero o non vuoi dire...
si, un'idea ce l'ho ma, al momento, preferisco tenermela.
Ho visto dai test del fillrate su Hawai.
La gpu di XboxONE e quella di PS4 hanno questo stesso schema secondo te?
si, suppongo che l'approccio per le RBE sia quello utilizzato per hawaii a livello di operazioni di blending.
Sicuramente AMD farà GPU più grosse ma non penso con architetture molto differenti, perché sennò il progetto Mantle se ne va' a farsi benedire.
Nvidia non si sa se farà un cambio netto di architettura (non credo) ma tutte e due le case scaleranno ai 20nm appena possono / appena sarà conveniente.
Fino a qualche tempo fà, AMD era in vantaggio sull'half node, ma il salto ai 20nm è un nodo intero, quindi probabile che AMD ed Nvidia arrivino più o meno insieme sui 20nm ma AMD dovrebbe uscire prima con i 16 finFET. Tutta teoria cmq.
Se Maxwell è atteso per aprile 2014, AMD farà almeno un refresh @20nm della 290X, magari con una 290XT.
TUTTI i migliori motori di rendering GPGPU sono CUDA, o come nel caso di Vray RT dove è presente sia OpenCL che CUDA, la versione CUDA va molto meglio, motivo per cui nessuno usa le AMD.
Ad oggi, OpenCL nei software professionali di grafica è praticamente a quota zero, e dove c'è o vanno meglio le nVidia o è irrilevante avere nVidia o AMD come nel caso della suite Adobe; nel futuro, che non sara certo nel breve periodo, vedremo.
questo perché opencl è mono sviluppato ma non necessariamente inferiore a CUDA, anzi. Lo stesso approccio utilizzato in CTM da AMD permette un controllo delle funzioni della GPU a livello molto più basso rispetto a CUDA. Il fatto che CUDA sia più sviluppato e diffuso significa solo che nVidia è stata brava a introdurlo prima e a convincere le SW house ad utilizzarlo ma non che le GPU di nVida siano migliori. I test sintetici danno la misura delle prestazioni REALI di un chip, contrariamente a quello che puoi pensare e permettono anche di individuare punti di forza e punti deboli (e ottimizzare di conseguenza).
VRay è un motore per CAD e fa uso molto limitato di GPGPU. Il GPGPU è un'altra cosa. Questo intendevo con la differenza tra CAD e GPGPU
questo non lo metto in dubbio, il mio è un sempice spaccato di quello che è la realta, che sia idealmente uguale o migliore non è che importi molto è... conta quello che ci puoi fare; non so tu, ma io compro una VGA in base a quello che posso fare non a quello che in un futuro non definito potro forse fare.
e in cosa sarebbe limitato ? visto che funziona interamente su GPU, la impegna al 100%, e sono calcoli matematici, perchè mai quello dovrebbe essere limitato, mentre la decrittazione di password, il mining o un calcolo di fluidodinamica non dovrebbero esserlo ?
Nvidia non si sa se farà un cambio netto di architettura (non credo) ma tutte e due le case scaleranno ai 20nm appena possono / appena sarà conveniente.
Fino a qualche tempo fà, AMD era in vantaggio sull'half node, ma il salto ai 20nm è un nodo intero, quindi probabile che AMD ed Nvidia arrivino più o meno insieme sui 20nm ma AMD dovrebbe uscire prima con i 16 finFET. Tutta teoria cmq.
Se Maxwell è atteso per aprile 2014, AMD farà almeno un refresh @20nm della 290X, magari con una 290XT.
Cioè fammi capire, ATI rimarrà con la stessa architettura perchè sennò Mantle non sarà più compatibile ?
Comunque sia Nvidia ha in arrivo Maxwell, ATI invece volevo sapere più nello specifico .... a breve ha in previsione un altro nomignolo o no ?
Maxwell dall'ultima news sembrerebbe essere parecchio diverso con GM100 :
Clock frequencies would be maintained at different levels for each product tier as listed below:
GeForce GM100: 930 MHz Core / 1 GHz Boost
Tesla GM100: 850 MHz (2.61 TFlops DP)[/I]
http://wccftech.com/alleged-nvidia-maxwell-architectural-specifications-unveiled-project-denver-maxwell-refresh/
e in cosa sarebbe limitato ? visto che funziona interamente su GPU, la impegna al 100%, e sono calcoli matematici, perchè mai quello dovrebbe essere limitato, mentre la decrittazione di password, il mining o un calcolo di fluidodinamica non dovrebbero esserlo ?
limitato perché operazioni di raytracing, modellazione 3D o rendering, proprie dei programmi di CAD sono tipiche delle GPU e il fatto che impieghino al 100% la GPU significa solo che tramite CUDA o chi per esso riescono a sfruttare al meglio l'hardware a disposizione. In VRay una TMU svolge il compito per cui è stata progettata. Nelle applicazioni di tipo GPGPU più "estreme" (soli calcoli matematici) ad esempio, le TMU sono utilizzate per "mappare" le istruzioni; un'operazione di memory read si traduce in una di texture fetch e una di memory write in una di pixel filling che coinvolge le RBE. Per questo le tesla non hanno uscite video. Questo senza tener conto che per il rendering non serve la DP
Ciao yossarian
Guarda che è come dice Apple, te lo confermo.
ho posseduto due Titan ed ora una 780 GTX e queste schede vanno ben oltre il boost.
c'è un ulteriore boost che le manda oltre 876mhz.
se ci sono le condizioni giuste, la scheda mediamente sarà circa sui 1000mhz (non confequenza fissa al 100%).
è proprio così.
poi si se il carico di lavoro è leggero la scheda si downclocca... se supera gli 80 gradi idem, e se supera il limite di potenza sotto carico pesante uguale.
Beh certo.
Pensavo cmq che con GCN l'approccio di AMD fosse leggermente cambiato...ma effettivamente anche quì, se si fà un banale conto delle ALU si vede che son molte di più per superficie rispetto a Nvidia. La solita vecchia storia.
Però con con R580 ha reso... con R600 no...
Per la serie 7 io avrei preferito vedere una cosa così:
Vliw4 per i giochi, con un gozzigliardo di sp e texture unit...e una roba simile a GCN per le professionali Fire....
.....Ma GCN probabilmente è strutturata così perchè parte del progetto Fusion, non è vero?
Cmq a me sembra un'altra ATI da quando è tornato Koduri.
Ok.
Hmm...male per AMD, o sbaglio?
Dimmela in PVT..!!!
Non lo dico a nessuno!!!!!!
Ti devo fare una domanda sull'eSRAM......
Guarda che è come dice Apple, te lo confermo.
ho posseduto due Titan ed ora una 780 GTX e queste schede vanno ben oltre il boost.
c'è un ulteriore boost che le manda oltre 876mhz.
se ci sono le condizioni giuste, la scheda mediamente sarà circa sui 1000mhz (non confequenza fissa al 100%).
è proprio così.
poi si se il carico di lavoro è leggero la scheda si downclocca... se supera gli 80 gradi idem, e se supera il limite di potenza sotto carico pesante uguale.
qui c'è un test su titan fatto da hardocp con frequenze rilevate in game.
http://www.hardocp.com/article/2013...ew#.Umu0IHAYzfU
questa è un'altra review da cui risulta che un boost superiore ad 1 GHz si può raggiungere con un leggero overvolt
http://www.digitalversus.com/graphi...15386/test.html
ora c'è da capire se quella di cui parlate è una frequenza stabile di funzionamento in caso di pieno carico o di picchi più o meno istantanei di frequenza perché, nel secondo caso, fa veramente poco testo a livello di calore e consumi
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".