View Full Version : I primi presunti benchmark delle future schede Radeon top di gamma
Redazione di Hardware Upg
27-11-2014, 10:51
Link alla notizia: http://www.hwupgrade.it/news/skvideo/i-primi-presunti-benchmark-delle-future-schede-radeon-top-di-gamma_55076.html
Appaiono online, da una fonte asiatica, i primi benchmark riferiti alla scheda Radeon R9 390X; si tratta di informazioni non ufficiali ma che lasciano immaginare prestazioni elevate ed efficienza energetica finalmente di buon livello
Click sul link per visualizzare la notizia.
AceGranger
27-11-2014, 11:04
"Molto interessanti anche i dati sul consumo complessivo del sistema: il dato indicato è di poco superiore a quello della scheda GeForce GTX 980 di NVIDIA, modello che è capace di esprimere una elevatissima efficienza nel funzionamento con applicazioni 3D."
quindi rimarranno a 28 nm ?
gd350turbo
27-11-2014, 11:45
Per adesso pare di si...
Aspettano di sfruttare (commercialmente) per benino i 28 nm, poi dopo si vedrà !
Già non sarebbe male una R9 390, al livello prestazionale e consumi della GTX 980, ma al prezzo della GTX 970.
è alquanto probabile, a detta di alcuni utenti in grado di leggere il cantonese/cinese semplificato che la scheda in questione sia la 380X e non la 390X.
Considerando i consumi ed il solito approccio di AMD per architetture dal poco costo ed altamente scalabili, è probabile che una 390X ed una 395X2 siano fattibili.
Sbav
CrapaDiLegno
27-11-2014, 12:48
"Molto interessanti anche i dati sul consumo complessivo del sistema: il dato indicato è di poco superiore a quello della scheda GeForce GTX 980 di NVIDIA, modello che è capace di esprimere una elevatissima efficienza nel funzionamento con applicazioni 3D."
quindi rimarranno a 28 nm ?
Per forza. Non ho mai capito chi continua a dire che i nuovi chip dovessero essere a 20nm, dato che questo processo produttivo non è adatto a chip con alti consumi come le GPU. E i 16nm sono distanti almeno altri 12 mesi.
è alquanto probabile, a detta di alcuni utenti in grado di leggere il cantonese/cinese semplificato che la scheda in questione sia la 380X e non la 390X.
Considerando i consumi ed il solito approccio di AMD per architetture dal poco costo ed altamente scalabili, è probabile che una 390X ed una 395X2 siano fattibili.
Sbav
Be', insomma, basso costo e altamente scalabili quando? Con CGN nessuna di queste è più vera. I mm^2 sono diventati tanti anche per AMD che ha abbandonato il falso mito del "piccolo è bello". Guarda come sono evoluti i chip AMD dalla serie 3xxx (dove dopo l'errore del R600 erano passati al "piccolo è bello") a oggi. Altro che bassi costi. Al massimo bassi prezzi.
Per quanto riguarda la scalabilità... ogni GPU scala bene finché si riesce a farla consumare poco. Altrimenti oltre ad un esercizio di stile le dual GPU diventano una sfida tecnologica quasi comica (raffreddamenti a liquido, ventole da propulsori Jet e cuffie obbligatorie). Con zero vantaggi, dato che 2 schede separate si raffreddamno meglio e vanno di più.
Tedturb0
27-11-2014, 13:09
se i grafici sono veritieri, a sto giro bye bye nVidia..
20% di prestazioni in piu al modico prezzo di 5% di consumo in piu
Se veri, scheda decisamente interessante ( anche se avrei preferito non superare i consumi di una 980 )
Staremo a vedere se confermati e a che prezzi ( nvidia sta approffittando della non concorrenza e le 980 al momento sono vendute decisamente in sovrapprezzo...)
roccia1234
27-11-2014, 14:15
Se non si rivelasse un fake, sembra una scheda decisamente interessante.
Sinceramente i consumi, finchè stanno a questo livello, imho sono un non-problema.
Basta abbinarci un dissipatore decente (silenzioso e che tenga basse le temp) e dubito che quei 10-15 w in più in load costituiscano un problema.
Piuttosto, lavorerei più sui consumi in idle/2d.
Già, e speriamo che stavolta risolvano una volta per tutte il problema dei consumi elevati in caso di multimonitor, per lo meno per le schede di fascia bassa (per le quali in genere l'utilizzatore sta più attento ai consumi).
tuttodigitale
27-11-2014, 23:31
è alquanto probabile, a detta di alcuni utenti in grado di leggere il cantonese/cinese semplificato che la scheda in questione sia la 380X e non la 390X.
Considerando i consumi ed il solito approccio di AMD per architetture dal poco costo ed altamente scalabili, è probabile che una 390X ed una 395X2 siano fattibili.
Sbav
il basso costo in questo momento è dovuto all'anzianità dei 28nm, non certo al die size da fascia media che ha contraddistinto la fascia alta di AMD dal debacle di r600.
La filosofia piccolo è bello, mantenuto anche in questa generazione di PP, (Tahiti è più piccolo di GF104, prodotto di fascia media della concorrenza della passata generazione) ha come obiettivo principale quello di presentare un chip di media-alta complessità in anticipo. Il vantaggio è stato di circa 7-8 mesi quando la concorrenza ERA COSTRETTA a produrre chip enormi, per essere competitiva con le soluzioni VLIW, che nelle ultime 3 generazioni hanno offerto un vantaggio prestazionale per mmq che ha oscillato tra il 30-70% (con le prestazioni per watt che in un caso ha superato l'unità).
Con il passaggio a GCN, il vantaggio si è dissolto.
secondo me è a 20 nm.
Non ci credo che amd ferma sui 28 nm da anni abbia prodotto un chip che consuma la metà di una 290 andando il 25-30 % di una 290x.
Tra l'altro, è un engineering sample, quindi prestazioni sono destinate a crescere e consumi a diminuire.
CrapaDiLegno
28-11-2014, 11:18
il basso costo in questo momento è dovuto all'anzianità dei 28nm, non certo al die size da fascia media che ha contraddistinto la fascia alta di AMD dal debacle di r600.
La filosofia piccolo è bello, mantenuto anche in questa generazione di PP, (Tahiti è più piccolo di GF104, prodotto di fascia media della concorrenza della passata generazione) ha come obiettivo principale quello di presentare un chip di media-alta complessità in anticipo. Il vantaggio è stato di circa 7-8 mesi quando la concorrenza ERA COSTRETTA a produrre chip enormi, per essere competitiva con le soluzioni VLIW, che nelle ultime 3 generazioni hanno offerto un vantaggio prestazionale per mmq che ha oscillato tra il 30-70% (con le prestazioni per watt che in un caso ha superato l'unità).
Con il passaggio a GCN, il vantaggio si è dissolto.
Scusa se non ti ho capito.
L'andamento dei mm^2 dei chip AMD indica che la filosofia "piccolo è bello" è stata solo un modo per dire: non ce la facciamo (economicamente) a fare chip grandi, accontentatevi di questi piccoli e per maggiore potenza, mettetene 2.
Di fatto, negli anni, con l'esperienza (e il fatto che l'architettura VLIW è rimasta più o meno sempre sempre quella) i chip di AMD sono cresciuti e così anche la loro concorrenzialità rispetto alle soluzioni nvidia. Il vantaggio del VLIW era una maggiore (diciamo anche enorme) efficienza per la pipeline 3D ma una grande inefficienza per quanto riguarda il GPGPU. Cosa sempre negata a destra e a manca (sopratutto fanboy rossi) e poi risultata evidente quando AMD si è presentata con CGN (fosse stata la VLIW buona, non avrebbe rifatto tutto da zero copiando parte dell'architettura della concorrenza). E cosa che i fanboy verdi hanno sempre sostenuto. nvidia doveva fare chip grandi perché era maggiormente indirizzata al GPGPU piuttosto che alla semplice pipeline 3D.
CGN ha la particolarità di essere molto più efficiente del VLIW per il GPGPU (azzerando di fatto quello che era il vantaggio di nvidia in questo campo) ma a sua volta ha perso la competitività nel rendering 3D, cosa che nvidia aveva già abbandonato eoni prima con il G200 (chip peraltro non riuscito al massimo in senso assoluto, decisamente meno competitivo del G80 che aveva asfaltato la concorrenza).
La filosofia "piccolo è bello" è stata quindi solo un diversivo usato negli anni per fare finta che le proprie soluzioni fossero competitive con quelle della concorrenza. Concorrenza che giocava però già da molto tempo in 2 mercati diversi adottando i compromessi necessari. Ora che le capacità reali sono uguali per entrambe le architetture si vede che i compromessi li deve fare anche AMD e che le sue soluzioni devono necessariamente crescere in dimensioni per essere competitive.
Tahiti sarà anche più piccolo del "vetusto" GF104 (realizzato a 40nm) ma è più grande del suo diretto competior a 28nm che è il GK104 (uscito 3 mesi dopo, non 7 o 8). Cosa che ha fatto letteralmente un regalo immenso a nvidia che ha piazzato il chip con un prezzo stratosferico basato sulle prestazioni (relative a quelle offerte dalla concorrenza) invece legato alla sua dimensione.
Ora AMD ha compreso che per competere ad armi pari con nvidia deve necessariamente mettere anche lei qualche quintale di shader e ROPs, altrimenti rimane indietro.
Il problema vero però è uno solo ed è in qualche modo legato ad una scelta di AMD che io personalmente non ho compreso del tutto. Fare un chip grande (oltre i 500mm^2) ha un costo enorme in R&D e per la produzione. nvidia compensa questo extra costo con la vendita del chip nel mercato professionale con margini ben diversi da quelli che si permette nel mercato videoludico. Il basso guadagno (o perfino la perdita) è ben sottolineata dal fatto che il GK110 è stato ritirato da tale mercato appena possibile, sostituito da un chip 100 e rotti mm^2 più piccolo che va uguale. E diciamocelo, non è che i GK110 nvidia li abbia regalati o svenduti come con le vecchie mattonelle rispetto ai chipetti più piccoli della concorrenza. Anzi.
AMD invece va a produrre chip enormi che vende solo nel mercato consumer. Per quanto, il mercato professionale non la supporta (o viceversa, ma la sostanza non cambia).
Che costi ha questa cosa? In termini di immagine sicuramente l'impatto positivo è importante, ma vediamo anche che l'impatto sul bilancio è stato pesante in tutti questi anni in cui le dimensioni crescevano. Sarà sostenibile?
La scelta di AMD di fare chip con capacità GPGPU avanzate ma senza avere il mercato in cui venderle la trovo davvero assurda. Un chip grande come Hawaii (che è già tagliuzzato nel GPGPU rispetto a Tahiti) con la sola capacità di fare rendering 3D (fosse anche la vecchia VLIW) avrebbe una efficienza enorme che nessun Maxwell potrebbe avere. Invece ci sono risorse usate per fare GPGPU che vengono supportate da 4 filtri di Adobe e poco più. Mah. Ovvio che per costruirsi un mercato professionale serve un chip in grado di fare quello che fa Tahiti e Co, ma mi sarei aspettato a questo punto un investimento anche nel supporto del mercato professionale (tipo Tasla di nvidia) che non mi sembra di aver visto.
è perché allora nVidia ce l'ha fatta?
Perché probabilmente ha lavorato prima a un chip ottimizzato a 28nm perchè aveva già capito che i 16nm sarebbero stati più distanti del previsto. Il processo a 28nm ora come ora è maturo a sufficienza per garantire maggiore efficienza. Basta progettarci un nuovo chip sopra. Ovvero, basta investirci un pacco di soldi. AMD probabilmente ha aspettato che i 16nm fossero davvero troppo distanti prima di imbarcarsi in un investimento così grande ma di breve termine. Se è vero che il chip ha queste prestazioni deve essere una bella mattonella e il suo sviluppo a 28nm piuttosto che a 16nm ha un costo elevato. D'altronde l'alternativa è rimanere senza nulla di nuovo per altri 12 mesi, consegnando di fatto il mercato a nvidia (o a ridursi a svendere sottocosto di brutto le propria soluzioni Hawii based, dato che il nuovo Tonga non sembra essere uscito propriamente bene).
è perché allora nVidia ce l'ha fatta?
lo capite o no che i 20nm di TSMC sono al 99% per produrre i chip di Apple?
più avanti verranno utilizzati per altri SoC, o al massimo per le GPU di fascia bassa, ma tra un anno...
Questa scheda, che è la prossima fascia media (380x e non 390x) e non top di gamma, va più di una 980.
Kekko1978
29-11-2014, 21:51
se i grafici sono veritieri, a sto giro bye bye nVidia..
20% di prestazioni in piu al modico prezzo di 5% di consumo in piu
Ogni nuova generazione manda sempre a casa come prestazioni la attuale, se no non uscirebbe, è sempre stato così e lo sarà, rimane il fatto che ad oggi Maxwell soprattutto nella soluzione GTX 970 ha fatto fare affari d'oro ad Nvidia e non so se ai primi dell'anno questi nuovi "mostri" potranno godere di tutta questa fortuna.
Più che altro sarei grato a chi è in grado di rispondere a questo quesito:
ammesso e concesso che i valori siano questi, le GDDR5 sono acreditate di un consumo da 1.5v a 1.75v(mi pare sia il massimo ma non sono sicuro) mentre le HBM di SkHynix entro e non oltre 1.2v, questo risparmio energetico quanti Watt totali può far risparmiare nel cosumo totale(dando per paritario il restante consumo)?
Inoltre le GDDR5 con bus come quelli da 512bit cosumano uguale o più di quelle a 256bit oppure non cambia?
Grazie mille.
IronDany87
01-12-2014, 11:26
secondo me siamo ancora lontani per sfruttare i 4k :) dovremmo aspettare forse altre 2 Generazioni ?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.