PDA

View Full Version : AMD '14 GPU Tech Day: le nuove schede Radeon live dalle Hawaii


Redazione di Hardware Upg
25-09-2013, 21:05
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/3776/amd-14-gpu-tech-day-le-nuove-schede-radeon-live-dalle-hawaii_index.html

AMD annuncia con il proprio GPU Tech Day le novità attese a partire dalla stagione natalizia, con la famiglia di schede della serie Hawaii a rappresentare la principale novità dal versante hardware ma con altri annunci previsti che andranno a privilegiare la componente software

Click sul link per visualizzare l'articolo.

bimbotenero
25-09-2013, 21:16
che sia la volta buona che possiamo cambiare scheda video salendo di prestazioni rispetto la 1950xt???
..ah dimenticavo.. 500euri non li posso spendere...

Korn
25-09-2013, 21:35
si ed è anche meglio di una s3 virge...

zoeid
25-09-2013, 21:42
io sono pronto per una nuova scheda, sicuramente più di 250€ non gli lascio, quindi mi toccherà una 7970ghz

mirkonorroz
25-09-2013, 21:46
A me interesserebbe sapere quanto consuma in rapporto ad una 7970.

T2OJAN
25-09-2013, 21:50
La vogliooooo B-)

NightStalker
25-09-2013, 22:57
così a occhio, la 250 è la nuova fascia medio-bassa (7770 o forse 7750)

la 260 la nuova 7850... o forse 7790... difficile dirlo
la 270 la nuova 7870
la 280 la nuova 7950
la 290 la nuova 7970

chissa di quanto avranno aumentato le performance rispetto alla generazione predecente a parità di fascia... sono curioso

mihos
25-09-2013, 22:59
così a occhio, la 250 è la nuova fascia medio-bassa (7770 o forse 7750)

la 260 la nuova 7850... o forse 7790... difficile dirlo
la 270 la nuova 7870
la 280 la nuova 7950
la 290 la nuova 7970

chissa di quanto avranno aumentato le performance rispetto alla generazione predecente a parità di fascia... sono curioso

A giudicare dal benchmark pubblicato la R9 260X batte la 7970, possibile?

dobermann77
25-09-2013, 23:02
Ma siamo sicuri che escano quest'anno?

Beh, in effetti c'e' Battlefield in bundle...
speriamo si sbrighino!

Ma solo le 290 supporteranno le DX 11.2? No dai...

Artins90
26-09-2013, 01:09
Speriamo che il Mantle funzioni sulle HD7xxx se quello che dicono è vero potrebbe essere una vera e propia rivoluzione in ambito gaming su PC, forse si finira con l'abbandono di DX nel futuro e 2 diverse custom API per Nvidia e AMD

Malek86
26-09-2013, 01:24
Una sola cosa la vedo un po' maluccio: il fatto che in sostanza stiano creando una nuova API, portando ulteriore frammentazione in un ambiente in cui già ci sono DirectX e OpenGL. Dal punto di vista delle performance potrebbe essere la cosa migliore, ma bisogna vedere come sarà il supporto ai vari sistemi operativi.

Per esempio, dato che non parlano di Linux in quelle slide... supponiamo che almeno inizialmente il Mantle sia compatibile solo con Windows. Come andrebbe ad influire questo progetto sullo Steambox? Abbasserebbe le sue possibilità di successo?

A giudicare dal benchmark pubblicato la R9 260X batte la 7970, possibile?

Credo che quei punteggi si riferiscano al solo test Firestrike per la grafica (non il sistema completo, altrimenti non avrebbe senso perchè la CPU influirebbe...).

Se è così, la mia HD7850 ottiene 4500 in quel test, decisamente superiore alla 260X. Invece la 270X la batte abbastanza agilmente. Ma entrambe dovrebbero essere ben dietro alla HD7970.

Interessante la storia del Mantle comunque... anche per via del fatto che è compatibile (a quanto pare) anche con le 7xx0. Ma la cosa è abbastanza irrilevante secondo me: perchè i giochi comincino a sfruttarle davvero, ci vorrà almeno qualche anno, e allora avrò già cambiato scheda video :')

Però mi sa che questa serie R7 la salto. La mia 7850 l'ho presa da appena sei mesi, e voglio farmela durare. Inoltre a quanto pare, non sembra ci siano cambiamenti epocali di architettura. Vedremo con la prossima serie.

7stars
26-09-2013, 05:02
Mantle, sarò proprio curioso di vedere la differenza in BF4, peccato che si debba aspettare fino a Dicembre... a dire il vero sulla mia rig già il Frostbite 2 va benissimo. Cmq sembra che avremo un inverno molto "caldo" :asd:

paulgazza
26-09-2013, 09:20
Per esempio, dato che non parlano di Linux in quelle slide... supponiamo che almeno inizialmente il Mantle sia compatibile solo con Windows. Come andrebbe ad influire questo progetto sullo Steambox? Abbasserebbe le sue possibilità di successo?

Credo che quei punteggi si riferiscano al solo test Firestrike per la grafica (non il sistema completo, altrimenti non avrebbe senso perchè la CPU influirebbe...).

Se è così, la mia HD7850 ottiene 4500 in quel test, decisamente superiore alla 260X. Invece la 270X la batte abbastanza agilmente. Ma entrambe dovrebbero essere ben dietro alla HD7970.

Interessante la storia del Mantle comunque... anche per via del fatto che è compatibile (a quanto pare) anche con le 7xx0. Ma la cosa è abbastanza irrilevante secondo me: perchè i giochi comincino a sfruttarle davvero, ci vorrà almeno qualche anno, e allora avrò già cambiato scheda video :')



Mantle potrebbe essere la svolta per AMD, se sapranno sfruttarlo lato marketing.
Ora che hanno le GPU sulla maggior parte delle console in commercio (e sulla "next-gen X1 e PS4), potrebbe darle anche su pc quel vantaggio prestazionale difficilmente colmabile...
Due domande restano aperte (oltre alle prestazioni effettive, vedremo più avanti):
- Quanto consumano?
- Come evolveranno i prezzi (da ambo i lati) ?
- Quando scade l'NDA? (ok, avevo detto due domande, lo so :D )

Per quanto riguarda i tuoi dubbi, altrove ho letto che sarà inizialmente per windows, ma multipiattaforma. Che questo significhi "console" o "linux" è presto per dirlo.

3DMark è chiaramente FireStrike, è indicato a lato sulla slide:
http://www.hwupgrade.it/articoli/skvideo/3776/7.jpg
Altrove ho trovato alcuni valori di riferimento per il benchmark, e non sembra questo gran salto prestazionale: la 290X equivale alle 7970GE, la 280X alla 7950, ...
avranno fatto qualche ottimizzazione a livello di arhcitettura, ma niente di eccezionale, come era del resto previsto

Mparlav
26-09-2013, 09:47
La R9 280X è una HD7970 rinominata e viene 299$ come prezzo di riferimento, lievemente inferiore a quello attuale.

La R9 290X:
11 CUs (compute units)
44 SMIDs (11 per CU)
2,816 stream processors
176 TMUs (Texture Mapping Units)
44 ROPs (Raster Operating Units)
4GB GDDR5 VRAM
5+1+1 phase design
2 x DVI ports
1 x HDMI
1 x DisplayPort
8-Pin plus 6-Pin power connectors (300W TDP)
non c'è il connettore crossfire, passa tutto dal pci-e (non escludo che il requisito pci-e 3.0 diventi obbligatorio)

E' prevista anche una R9 290, ma non so' cosa abbiano "castrato" dalle specifiche della 290X.

I prezzi dovrebbero essere 599$ e 499$ per le nuove gpu.

tuttodigitale
26-09-2013, 09:50
Mantle potrebbe essere la svolta per AMD, se sapranno sfruttarlo lato marketing.
Ora che hanno le GPU sulla maggior parte delle console in commercio (e sulla "next-gen X1 e PS4), potrebbe darle anche su pc quel vantaggio prestazionale difficilmente colmabile...
Due domande restano aperte (oltre alle prestazioni effettive, vedremo più avanti):
- Quanto consumano?
- Come evolveranno i prezzi (da ambo i lati) ?
- Quando scade l'NDA? (ok, avevo detto due domande, lo so :D )

Per quanto riguarda i tuoi dubbi, altrove ho letto che sarà inizialmente per windows, ma multipiattaforma. Che questo significhi "console" o "linux" è presto per dirlo.

3DMark è chiaramente FireStrike, è indicato a lato sulla slide:
http://www.hwupgrade.it/articoli/skvideo/3776/7.jpg
Altrove ho trovato alcuni valori di riferimento per il benchmark, e non sembra questo gran salto prestazionale: la 290X equivale alle 7970GE, la 280X alla 7950, ...
avranno fatto qualche ottimizzazione a livello di arhcitettura, ma niente di eccezionale, come era del resto previsto
che la r9 290 vada quanto la HD7970GE ho seri dubbi...le specifiche sono molto diverse:
BUS 512bit vs 384. Se vogliamo questo è il dato meno influente, Tahiti non era certamente bandwidth limited, almeno con i giochi attuali. Sembrerebbe più una scelta per dotare l'ammiraglia di un quantitativo maggiore di RAM, e allo stesso tempo un tentativo di abbattere i consumi dovuto alle gddr5 (la frequenza di funzionamento deòòa RAM sono quelle delle HD5000, schede del 2009...)
2816 vs 2048 SP.. si passa dalle sole 32 ROPs a 44, per un incremento delle specifiche pari al 37%...(anche se alla luce di tutte le altre soluzioni GCN uscite dopo a Tahiti mi sarei aspettato un incremento per le ROPs superiore a quello del numero dei stream processors)
Secondo me le prestazioni a parità di clock di una 290x saranno almeno del 35% superiori rispetto ad una HD7970, anche se mi aspetto velocità di clock per la gpu sensibilmente inferiore.
E' una scheda che può competere sulla carta tranquillamente con la GTX780. Il chip è grande 424 mmq vs 369mmq di Tahiti: +15%. Sarei molto deluso nel costatare che Hawaii abbia prestazioni per mmq inferiori a Tahiti..

roccia1234
26-09-2013, 09:51
che sia la volta buona che possiamo cambiare scheda video salendo di prestazioni rispetto la 1950xt???
..ah dimenticavo.. 500euri non li posso spendere...

Mica c'è bisogno di spendere 500€... pure le schede da meno di 100€ vanno più di una x1950xt :asd: .

Malek86
26-09-2013, 10:01
Mantle potrebbe essere la svolta per AMD, se sapranno sfruttarlo lato marketing.
Ora che hanno le GPU sulla maggior parte delle console in commercio (e sulla "next-gen X1 e PS4), potrebbe darle anche su pc quel vantaggio prestazionale difficilmente colmabile...
Due domande restano aperte (oltre alle prestazioni effettive, vedremo più avanti):
- Quanto consumano?
- Come evolveranno i prezzi (da ambo i lati) ?
- Quando scade l'NDA? (ok, avevo detto due domande, lo so :D )

Per quanto riguarda i tuoi dubbi, altrove ho letto che sarà inizialmente per windows, ma multipiattaforma. Che questo significhi "console" o "linux" è presto per dirlo.

Altri problemi che potrebbero presentarsi:

- essendo una cosa diversa dal DirectX, è probabile che MS farà di tutto per ostacolarla. Non è detto che ci riescano, ma sicuramente ci proveranno.
- essendo anche una cosa diversa da OpenGL, e probabilmente proprietaria, anche quelli che preferiscono i software aperti probabilmente cercheranno di osteggiarla.
- anche se fosse multipiatta, bisognerà vedere se verrà sviluppata in parallelo. Se fosse come i driver AMD attuali, che escono prima su Windows e più tardi su Linux, sarebbe comunque più comodo per i giocatori restare su Windows, visto che avrebbero le performance migliori all'uscita dei giochi (in genere i driver vengono aggiornati direttamente all'uscita dei giochi importanti).
- ho sempre il dubbio che si potrebbe andare verso un futuro in stile 1998, dove c'erano un sacco di API diverse tipo Glide, PowerVR, etc. e comprare una marca anzichè un'altra migliorava le prestazioni in certi giochi e le abbassava in altri.

Zappa1981
26-09-2013, 10:14
mah a me sembra interessante questa nuova api e francamente ci speravo da un sacco. E' giusto che ci sia concorrenza anche in ambito software e che ci siano più scelte per noi anche perchè nasce tutto per migliorare le prestazioni e questo non può far altro che bene. Le schede amd sono sempre state penalizzate dall unione intel nvidia che vedeva le directx e windows in particolare spalleggiare i verdi e non i rossi se poi ci mettiamo i driver amd vabeh erano bacati fino a qualche versione fa.. ora sembra che le cose cambieranno alla grande e in meglio vediamo e poi sono convinto che avere una tua libreria grafica sia la cosa migliore, ci puoi lavorare e puoi ottimizzarla aggiornarla come e quando vuoi senza aspettare i comodi di terzi che ti fanno solo perdere tempo o che ti remano contro magari per qualche bustarella...soprattutto sui bench

Lanfi
26-09-2013, 10:35
Anche a me, di questa presentazione, la cosa che ha intrigato di più è Mantle. Chiaramente per ora è un oggetto misterioso...però se porterà davvero i benefici prestazionali previsti e renderà più facile il lavoro dei programmatori potrebbe fare il botto.

Per quanto riguarda le possibilità di diffusione di titoli Mantle developed io direi che bisogna ricordare una cosa: le nuove console (ps4 e xbox one) sono essenzialmente dei computer con scheda video amd. E questo potrebbe essere un notevole volano per spingere Mantle...

Catan
26-09-2013, 10:49
Di base credo anche io che il miglior annuncio sia mantle.
E' il risultato di aver messo la sua archidettura grafica gnc dentro a tutte le console (anche wii u), che starà anche dentro la steambox e nei pc.
Ergo archidettura comune, ottimizzazioni comuni per tutti (ed in genere sulle console si ottimizza molto). Su chi ha timori per linux...se valve spinge sulla steambox ed effettivamente anche la steambox è una "console/pc" con cpu+gpu amd, prima o poi le api arrivano anche su linux.

Sulle nuove vga, le aspettavo con ansia per pensionare la 6970, però il fatto che nella fascia che volevo prendere, quella dei 300€ (magari 250€) ci sia la 7950-70 rebrandata non è che mi faccia impazzire. Potevano proporre una gpu con le stesse caratteristiche ma con la gpu nuova, anche se va capito effettivamente se possa gestire un bus a 384bit senza dover essere ridisegnata (per ora mi pare che possa gestire i 256bit e i 512), vediamo questa 290 oppure toccherà aspettare immancabilmente 4 o 5 mesi dall'uscita per vedere una sicura r9 285 con gpu decurtata e bus a 512bit o una r9 275 con gpu pompata ma che ha un bus a 256bit.
La cosa migliore è che facessero una operazione in stile 7870XT, dove si prende una gpu delle serie r9 290 e viene riadattata e ridisegnata per gestire il bus a 384bit (con la gpu delle 7870XT hanno preso le gpu della serie 7900 e le hanno riadattate per gestire il bus a 256bit)

paulgazza
26-09-2013, 11:04
Per amd non è fondamentale spingere su linux. Questo è un problema di Valve (vedi annunci di questi giorni). Tra l'altro, appena letto che con SteamOS hanno avuto una collaborazione molto stretta con nVidia, quindi le Steam Machine, almeno all'inizio, monteranno nVidia.
E, ciliegina, sembra che Mantle sarà una tecnologia aperta a tutti (fonte: TGM)

A occhio, il fatto che il paradigma di Mantle sia lo stesso di quello esistente sulle nuove console, ne faciliterà il porting verso il pc. Visto che, esclusive a parte, gli sviluppatori devono programmare per X1 (AMD+DirectX p AMD+Mantle), PS4 (AMD+Mantle) e PC (Directx o Mantle), supportare la tecnologia AMD non dovrebbe essere un grosso sacrificio.

gd350turbo
26-09-2013, 11:37
http://videocardz.com/46006/amd-radeon-r9-290x-specifications-confirmed-costs-600

Secondo me si collocherà tra la 780 e la titan...
Del resto il prezzo ipotizzato di 600 $ lo confermerebbe
Poi cè la variante da 4 e 6 gb

Io sono di parte, è vero, ma non mi sembra di vedere chissà che capolavoro di scheda...

300 watt da dissipare e 5-1-1 fasi di alimentazione, contro 250 watt e 6-2 fasi, non lo vedo un gran bel risultato, puntano tantissimo sui 300 gb/sec di bandwidth, contro i 288 di nvidia, 12 gb/sec di differenza su 288, non credo che siano molto avveritibli, si vedranno nei bench, ma dubito che nell'uso normale, comportino differenze notabili.

Così come vedo ora le cose, sta cercando di correre dietro ad nvidia, ma contando 8/9 mesi di progresso tecnologico, non mi pare un grosso risultato !

http://www.hwupgrade.it/articoli/skvideo/3776/7.jpg

7000 punti al 3dmark firestrike ?

http://www.3dmark.com/fs/882677 :cool:

PacK8
26-09-2013, 12:01
...

7000 punti al 3dmark firestrike ?

...
Non per fare l'avvocato del diavolo ma la slide che riporti non da un valore preciso ma solo un'indicazione approssimativa di "oltre" i 7000 punti. Vuol solo dire che l'ammiraglia è ancora in fase di test.

boboviz
26-09-2013, 12:01
Ho il sospetto che Mantle (seppur limitato ai giochi) sia uno dei tasselli che AMD sta mettendo insieme con l'HSA Foundation e il forte supporto all'OpenCL.

gd350turbo
26-09-2013, 12:21
Non per fare l'avvocato del diavolo ma la slide che riporti non da un valore preciso ma solo un'indicazione approssimativa di "oltre" i 7000 punti. Vuol solo dire che l'ammiraglia è ancora in fase di test.

Quindi hanno dichiarato solo 7000 punti per stare sul sicuro ?

Sarebbe la prima volta che succede da quando sono state inventate le schede video !

devil_mcry
26-09-2013, 12:23
che sia la volta buona che possiamo cambiare scheda video salendo di prestazioni rispetto la 1950xt???
..ah dimenticavo.. 500euri non li posso spendere...

meno male che qualcuno ha scritto la boiata del giorno, mancava
Mica c'è bisogno di spendere 500€... pure le schede da meno di 100€ vanno più di una x1950xt :asd: .


va più veloce pure l'igp integrata in haswell o richalnd lol

Malek86
26-09-2013, 12:28
Il programma Raptr per ottimizzare le opzioni dei giochi in base al mio sistema, l'ho appena provato... i risultati mi sembrano discutibili.

Ecco cosa mi suggerisce per Far Cry 3. MSAA 8X sulla mia HD7850 e Core i3? Ehhh. Già coi miei settaggi va appena sui 30/40fps :stordita:

https://pbs.twimg.com/media/BVFQrA5CcAAgnl3.png:large

bimbotenero
26-09-2013, 12:30
Stanno lavorando per ottimizzare la divisione del carico di lavoro sui diversi core delle CPU..
ergo, si dovrebbero finalmente avere dei vantaggi seri nel utilizzo di CPU multicore rispetto a prima..
e quindi le CPU AMD potrebbero recuperare quello svantaggio in ambito gaming che oggi e' (quasi) l'ultimo tassello che le relega dietro la controparte Intel..

Speriamo bene...

Ps Caro devil_mcry.. ogni tanto mangiatela una risata...

Aenil
26-09-2013, 12:30
la novità più interessante IMHO (e se viene confermata dai fatti) è mantle :) semvra promettere bene e sopratutto rende giustizia alla potenza delle GPU di oggi, l'unica perplessità è sulla risposta di NVIDIA, insomma che per via di scelte differenti non si torni al punto di inizio :D

7stars
26-09-2013, 12:35
col mio crossfire al firestrike faccio 7706 :asd: a 1050mhz core

PaulGuru
26-09-2013, 12:53
se costasse veramente 399$ e andasse più di Titan potrei provare veramente a comprarla.

Ares17
26-09-2013, 13:29
Quindi hanno dichiarato solo 7000 punti per stare sul sicuro ?

Sarebbe la prima volta che succede da quando sono state inventate le schede video !

Da quel grafico vedo 6600-6700 per la 280x e 8000 per la 290x, a meno che non sappia cosa cosa sono le ordinate in un sistema cartesiano.

devil_mcry
26-09-2013, 13:31
Stanno lavorando per ottimizzare la divisione del carico di lavoro sui diversi core delle CPU..
ergo, si dovrebbero finalmente avere dei vantaggi seri nel utilizzo di CPU multicore rispetto a prima..
e quindi le CPU AMD potrebbero recuperare quello svantaggio in ambito gaming che oggi e' (quasi) l'ultimo tassello che le relega dietro la controparte Intel..

Speriamo bene...

Ps Caro devil_mcry.. ogni tanto mangiatela una risata...
Aspetto che esca una VGA più veloce della mia voodoo II senza spendere 500euro

XD

devil_mcry
26-09-2013, 13:35
se costasse veramente 399$ e andasse più di Titan potrei provare veramente a comprarla.

Ci credo poco, le 7970 al D1 non erano cosi economiche fermo restando che da noi sarebbero cmq almeno 399€, tra iva e cazzate varie

In ogni caso se fossero davvero più veloci di titan e costassero anche 499 sarebbe cmq una gran cosa, e onestamente sarebbe solo un bene visto che nvidia grazie alla serie hd7000 ha riciclato il gk104 su tutte le fasce per la serie 600 e per la fascia medio alta per la 700 quando inizialmente il gk110 (come è messo nella titan) era previsto per la 680

mefistole1978
26-09-2013, 13:44
azz e' uguale alla gtx 285...
http://techwiki.hardwarecanucks.com/productimages/1147_4330_1_1_1_1_1.jpg

copia e incolla praticamente

gd350turbo
26-09-2013, 14:03
se costasse veramente 399$ e andasse più di Titan potrei provare veramente a comprarla.

Ah bè si...
Sognare non costa nulla !


Da quel grafico vedo 6600-6700 per la 280x e 8000 per la 290x, a meno che non sappia cosa cosa sono le ordinate in un sistema cartesiano.

Il fondo scala è 7000, quindi potrebbe essere anche 7999... Per ora lo giudico un punteggio inferiore alle aspettative, poi si vedrà !

mihos
26-09-2013, 15:41
se costasse veramente 399$ e andasse più di Titan potrei provare veramente a comprarla.

pare che il prezzo sia 600$

PacK8
26-09-2013, 16:32
Quindi hanno dichiarato solo 7000 punti per stare sul sicuro ?

Sarebbe la prima volta che succede da quando sono state inventate le schede video !
E lo trovi strano? queste GPU sono DX11.2, quindi i driver devono essere ottimizzati per Windows 8.1 per funzionare al meglio. Sarebbe forse stato "normale" mostrare in una presentazione un benchmark fare a malapena i 7000 punti con dei driver Alpha e sotto Windows 7/8 ? io penso di no.

gd350turbo
26-09-2013, 16:35
E lo trovi strano? ti vorrei far notare che queste GPU sono DX11.2 quindi i driver dovranno essere ottimizzati per Windows 8.1 per funzionare al meglio. Sarebbe forse stato "normale" fare a malapena i 7000 punti con dei driver Alpha e sotto Windows 7/8 ?.

Si a dir la verità lo trovo molto strano...
Poi ovviamente, parere personale !
La mia impressione è che ancora abbiano poco o nulla in mano e che stiano sparando "a caso".

Ares17
26-09-2013, 18:05
Il fondo scala è 7000, quindi potrebbe essere anche 7999... Per ora lo giudico un punteggio inferiore alle aspettative, poi si vedrà !

Ogni rettangolo sono 1000 pt, essendocene 8 massimo nel grafico e colorati per intero potrebbero essere anche più di 8000 (finendo il nono rettangolo fuori dal grafico), ma dovrebbero essere almeno 8000 pt (ti concedo 7999), ma non certo 7000 (+15% )

Vul
26-09-2013, 19:58
Dichiarare quanto fanno in firestrike è inutile.

Aspettiamo prima i bench reali prima di tirare conclusioni.

PaulGuru
26-09-2013, 20:06
Ci credo poco, le 7970 al D1 non erano cosi economiche fermo restando che da noi sarebbero cmq almeno 399€, tra iva e cazzate varie

In ogni caso se fossero davvero più veloci di titan e costassero anche 499 sarebbe cmq una gran cosa, e onestamente sarebbe solo un bene visto che nvidia grazie alla serie hd7000 ha riciclato il gk104 su tutte le fasce per la serie 600 e per la fascia medio alta per la 700 quando inizialmente il gk110 (come è messo nella titan) era previsto per la 680
Ovvio il che però vuol dire che se la compri da shop tipo prokoo ti verrebbe a costare qualche decina meno, quindi rientrerebbe nelle mie possibilità a patto che riesca a vendere la mia attuale 770 DirectCu II

tuttodigitale
26-09-2013, 20:23
http://videocardz.com/46006/amd-radeon-r9-290x-specifications-confirmed-costs-600

Secondo me si collocherà tra la 780 e la titan...
Del resto il prezzo ipotizzato di 600 $ lo confermerebbe

se quello che dici verrà confermato vuol dire che R9 290x avrà non solo un prezzo inferiore (600 dollari vs 649) ma anche maggiori prestazioni. Non male.


300 watt da dissipare e 5-1-1 fasi di alimentazione, contro 250 watt e 6-2 fasi, non lo vedo un gran bel risultato,.
Notoriamente AMD dichiara un TDP maggiore di nvidia a parità di consumi...vedi GTX770 e HD7970GE.
Rinforzare l'alimentatore è indispensabile visto che a parità di Watt consumati, ipotizzando che questo chip abbia frequenze inferiori (si parla di soli 800MHz), vuol dire che assorbirà un maggior quantitativo di corrente.


puntano tantissimo sui 300 gb/sec di bandwidth, contro i 288 di nvidia, 12 gb/sec di differenza su 288, non credo che siano molto avveritibli, si vedranno nei bench, ma dubito che nell'uso normale, comportino differenze notabili.
ma anche no. 300GB/s sono poca cosa se teniamo presente le dimensioni del bus costituito dalla bellezza di 512 fili.
288GB/s non è solo il bandwidth della GTX780 ma anche della HD7970 GE.
Capisci bene se AMD avesse puntato tutto sul bandwidth non avrebbe certo usato memorie da 4,7 GHz.... con delle comuni gddr5 da 6 GHz il bandwidth avrebbe raggiunto quota 382 GB/s...
I lmotivi che ha spinto AMD, imho, a questa soluzione è principalmente uno:
1)minori consumi. E questo imho è il maggior pregio della soluzione 4GB gddr5 da 4700MHz vs 6GB gddr5 da 6000MHz,
Sui costi non sono poi tanto convinto che un bus da 512 bit sia economicamente vantaggioso.
Risparmiare i Watt dissipati dalle memorie (che non sono pochi) permette di alzare il clock della GPU quel tanto da renderla appetibile. Abbiamo parlato di specifiche superiori del 37% a parità di clock rispetto a Tahiti, senza contare un dato fondamentale: la frequenza di funzionamento:
Hawaii girerà a soli 800MHz contro i 1000 di Tahiti. Sulla carta la potenza bruta salirà solo del 10%. Se i dati sulla frequenza di clock verranno confermati Tahiti teoricamente avrà prestazioni per mmq superiori a quelle di Hawaii, fatto che di per sé non smentirebbe le parole di AMD (tahiti ha maggiori prestazioni per mmq rispetto a gk110), ma questo ipotizzando che AMD dopo ben 20 mesi non abbia migliorato l'architettura.


Così come vedo ora le cose, sta cercando di correre dietro ad nvidia, ma contando 8/9 mesi di progresso tecnologico, non mi pare un grosso risultato !

A parte io vedo nvidia in seria difficolta in campo gpu. AMD nel gpgpu ha un architettura più matura rispetto a nvidia, se pensi che fino a 2 anni fa, AMD era MOLTO indietro ed oggi è davanti, direi che tra le due è nvidia che sta inseguendo (la prima gpu a 40 e 28nm erano di AMD...)

PS sembra quasi che gk110 dovesse uscire castrato nel 2013 a 1000 euro e non nel 2012 per intero a 500 euro e AMD avrebbe proposto come controoffensiva la HD7990...soluzione che guardacaso è uscita con la messa in commercio delle schede basate su gk110.

PPS se Hawaii esce solo adesso i motivi sono 2:
1) AMD voleva attendere i 20nm dati per imminenti da TMSC, tanto che la gpu Hawaii non doveva essere messa in produzione. Oggi sappiamo che la fonderia ha non pochi problemi con il nuovo processo produttivo, anche se il chip da 4096SP e 64 ROPs di AMD è praticamente pronto.
2) nvidia non ha innovato un bel niente, in quanto dà un prodotto migliore con un esborso molto maggiore. Ergo non si sono verificati i classici cali del valore dei vecchi prodotti con conseguente innalzamento del rapporto prestazioni/prezzo.

gd350turbo
27-09-2013, 08:49
Notoriamente AMD dichiara un TDP maggiore di nvidia a parità di consumi...vedi GTX770 e HD7970GE.
Rinforzare l'alimentatore è indispensabile visto che a parità di Watt consumati, ipotizzando che questo chip abbia frequenze inferiori (si parla di soli 800MHz), vuol dire che assorbirà un maggior quantitativo di corrente.


E questa non mi pare una nota di merito, con il mondo che sta andando in direzione del risparmio energetico...
poi cercare di risparmiare sul consumo delle ram, boh, non sono un ingegnere, ma non mi pare una cosa saggia...


A parte io vedo nvidia in seria difficolta in campo gpu. AMD nel gpgpu ha un architettura più matura rispetto a nvidia, se pensi che fino a 2 anni fa, AMD era MOLTO indietro ed oggi è davanti, direi che tra le due è nvidia che sta inseguendo (la prima gpu a 40 e 28nm erano di AMD...)


Leggendo quello che è uscito finora, non mi da questa impressione...
Vedo che pompano su truaudio, 300gb/sec, dx 11.2, mantle, e questo mi da l'impressione, che il prodotto in se non sia un granchè e che tentino di di farlo apparire migliore con questi accessori, come si fa in tanti altri campi, ad esempio ti do una macchina che non va neanche a spingerla ma ti do il navigatore, il bluetooth, il tetto apribile e tanti bei colori !

Nvidia ti da una scheda video, punto.

Il tempo ci dirà quale sarà la tecnica vincente !

gd350turbo
27-09-2013, 09:02
Dichiarare quanto fanno in firestrike è inutile.

Aspettiamo prima i bench reali prima di tirare conclusioni.

Anche perchè dichiarare quei valori li è controproducente !

7stars
27-09-2013, 22:58
E questa non mi pare una nota di merito, con il mondo che sta andando in direzione del risparmio energetico...
poi cercare di risparmiare sul consumo delle ram, boh, non sono un ingegnere, ma non mi pare una cosa saggia...



Leggendo quello che è uscito finora, non mi da questa impressione...
Vedo che pompano su truaudio, 300gb/sec, dx 11.2, mantle, e questo mi da l'impressione, che il prodotto in se non sia un granchè e che tentino di di farlo apparire migliore con questi accessori, come si fa in tanti altri campi, ad esempio ti do una macchina che non va neanche a spingerla ma ti do il navigatore, il bluetooth, il tetto apribile e tanti bei colori !

Nvidia ti da una scheda video, punto.

Il tempo ci dirà quale sarà la tecnica vincente !
mi sembra un po' superficiale la tua valutazione, come se per te contasse soltanto l'hardware...purtroppo non è così perché i livelli di astrazione sono importantissimi nel software, soprattutto con architetture nuove. L'esempio dell'automobile non è adeguato in questo caso. Allora potrei ribaltare e dirti che una Ferrari è inutile se non la sai guidare o tu sei Vettel e al tuo posto fai gareggiare Maldonado (directx) :asd: (qualcuno mi ha detto però che attira la patata :rotfl: è pur vero ma è sempre sprecata, poi magari la patata se non la sai guidare non è che ti stima tantissimo...)

PaulGuru
28-09-2013, 10:15
Questa scheda è di nuovo a 28nm, altro non è che una risposta alle Nvidia che sono presenti da un pezzo.
Mentre AMD si sta concentrando su queste schede, la cosiddetta Nvidia "in difficoltà" sta preparando Maxwell a 20nm.

Nvidia indietro nel GPGPU ? Nvidia è la regina quasi indiscussa nel GPU computing ( quello vero, non i chippetti integrati nel die di cpu di fascia bassa ) in mercati dove AMD nemmeno è presente come la linea Tesla e il linguaggio CUDA che oramai detiene quasi il monopolio.

7stars
28-09-2013, 13:37
Questa scheda è di nuovo a 40nm, altro non è che una risposta alle Nvidia che sono presenti da un pezzo.
Mentre AMD si sta concentrando su queste schede, la cosiddetta Nvidia "in difficoltà" sta preparando Maxwell a 28nm.

Nvidia indietro nel GPGPU ? Nvidia è la regina quasi indiscussa nel GPU computing ( quello vero, non i chippetti integrati nel die di cpu di fascia bassa ) in mercati dove AMD nemmeno è presente come la linea Tesla e il linguaggio CUDA che oramai detiene quasi il monopolio.
40nm? :asd: mamma mia quante fesserie sto leggendo in questi giorni...e CUDA poi? secondo me tu non sai nemmeno come è fatto...qui si parla di specifiche ottimizzazioni a basso livello per cui CUDA non è stato sviluppato, non c'entra niente con questa discussione...e cmq leggiti un po' questo http://www.ll.mit.edu/HPEC/agendas/proc07/Day3/10_Hensley_Abstract.pdf

PaulGuru
28-09-2013, 14:01
40nm? :asd: mamma mia quante fesserie sto leggendo in questi giorni...e CUDA poi? secondo me tu non sai nemmeno come è fatto...qui si parla di specifiche ottimizzazioni a basso livello per cui CUDA non è stato sviluppato, non c'entra niente con questa discussione...e cmq leggiti un po' questo http://www.ll.mit.edu/HPEC/agendas/proc07/Day3/10_Hensley_Abstract.pdf
Scusa volevo dire 28nm e 20 per la prox Nvidia.

°Phenom°
28-09-2013, 14:15
Ma discutete con quel troller di paul? :D 40nm :rotfl:

PaulGuru
28-09-2013, 14:20
Ho solo fatto confusione, magari sarebbe ora di crescere.

7stars
30-09-2013, 18:24
vi posto una dichiarazione di Huddy che lavorava per AMD, per farvi capire quali sono i limiti di directx e dell'astrazione ad alto livello, e quindi uno dei motivi per cui bisogna andare oltre (o meglio, lower) :asd:
"On consoles, you can draw maybe 10,000 or 20,000 chunks of geometry in a frame, and you can do that at 30-60fps. On a PC, you can't typically draw more than 2-3,000 without getting into trouble with performance, and that's quite surprising - the PC can actually show you only a tenth of the performance if you need a separate batch for each draw call."

Vul
30-09-2013, 20:07
Non è che ci sarebbero 10 volte più fps eh su pc intendiamoci ma i tempi di accesso alle memorie sarebbero molto più bassi (motivo per cui l'industria vuole spostarsi su linux e cestinare windows e le sue directx al più presto).

Comunque io non vedo l'ora di vedere i benchmark :D