PDA

View Full Version : Sapphire Vapor-X R9 290X 8GB: la memoria raddoppia


Redazione di Hardware Upg
06-11-2014, 11:18
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/4202/sapphire-vapor-x-r9-290x-8gb-la-memoria-raddoppia_index.html

AMD presenta le prime schede video Radeon R9 290X dotate di 8 Gbytes di memoria video; nella proposta di Sapphire troviamo frequenze overcloccate di default e l'efficiente sistema di raffreddamento Vapor-X a 3 ventole in grado di assicurare un funzionamento silenzioso. Il raddoppio della memoria video è capace di portare benefici con la risoluzione 4K?

Click sul link per visualizzare l'articolo.

HeDo88TH
06-11-2014, 11:32
Mah, già 4Gb di memoria _per giocare_ sono IMHO troppi, 8 è una pura mossa di marketing. In ambito professionale ci può stare, per il gaming è solo hype.

roccia1234
06-11-2014, 11:40
Mah, già 4Gb di memoria _per giocare_ sono IMHO troppi, 8 è una pura mossa di marketing. In ambito professionale ci può stare, per il gaming è solo hype.

Non dirlo a voce alta... che è pieno di gente che giura e spergiura che 8gb di vram, oggi come oggi, siano fondamentali!! Con solo 4gb hai dei rallentamenti per esaurimento vram! :read: :doh:

Littlesnitch
06-11-2014, 11:42
Anch'io credevo fosse così.
Ma purtroppo li scimmie che lavorano per le SH e che fanno quegli insulsi portino che ci rifilano da anni, adesso che hanno molta RAM sulle console ti costringono ad averla anche su PC dove non servirebbe.
Pensa te se un gioco di merda con grafica ridicola come COD deve consumare 5Gb di VRam
http://www.guru3d.com/articles_pages/call_of_duty_advanced_warfare_vga_graphics_performance_benchmark_review,6.html

Cloud76
06-11-2014, 11:46
A parte l'utilità o meno...

Comunque, perché viene detto questo?:
Parliamo di 4K più che di 2.560x1.440 pixel e se possibile di configurazioni a due GPU con tecnologia Crossfire

In configurazione crossfire ok che spingi di più dal punto di vista elaborativo ma hai anche un maggior spreco di memoria visto che il quantitativo di memoria utilizzabile non è che raddoppia, più memoria c'è e più se ne spreca.

hrossi
06-11-2014, 11:57
Eccole finalmente, meglio che escano così presto. :D

Hermes

calabar
06-11-2014, 11:57
@Cloud76
Perché con una configurazione crossfire hai maggiori prestazioni ma lo stesso quantitativo di memoria.
Per cui, se con le capacità di una singola scheda hai difficoltà a sfruttare i 4 GB di Vram, con due schede hai la potenza necessaria per utilizzare impostazioni video che necessitano di tanta memoria.

C'è poi il discorso di chi acquista una scheda ogni 3-4 anni e crede che gli 8 GB possano non portare grandi vantaggi oggi, ma che possano farlo tra qualche anno. É ovviamente una supposizione, ma secondo me non ha tutti i torti.

Avatar0
06-11-2014, 12:04
Recensire la prima scheda 8gb su giochi di cui solo Thief (che non è neanche dx11 e 64bit only) non è di vecchia generazione, è veramente una genialata.

Non è un caso che Thief sia l' unico titolo che riceve un bel guadagno in termini di fps.
Sull' utilità e sui vantaggi di possedere una scheda da 8gb ORA si può ampiamente discutere, ma almeno che venga recensita al massimo delle odierne possibilità non mi sembra chiedere troppo.

Svecchiare il parco titoli ?

Ale55andr0
06-11-2014, 12:07
Recensire la prima scheda 8gb su giochi di cui solo Thief (che non è neanche dx11 e 64bit only) non è di vecchia generazione, è veramente una genialata.

Non è un caso che Thief sia l' unico titolo che riceve un bel guadagno in termini di fps.
Sull' utilità e sui vantaggi di possedere una scheda da 8gb ORA si può ampiamente discutere, ma almeno che venga recensita al massimo delle odierne possibilità non mi sembra chiedere troppo.

Svecchiare il parco titoli ?

considera comunque che thief è un gioco a priori ottimizzato per amd

roccia1234
06-11-2014, 12:18
Anch'io credevo fosse così.
Ma purtroppo li scimmie che lavorano per le SH e che fanno quegli insulsi portino che ci rifilano da anni, adesso che hanno molta RAM sulle console ti costringono ad averla anche su PC dove non servirebbe.
Pensa te se un gioco di merda con grafica ridicola come COD deve consumare 5Gb di VRam
http://www.guru3d.com/articles_pages/call_of_duty_advanced_warfare_vga_graphics_performance_benchmark_review,6.html

Vabbè, ma hai preso il maggior/peggior rappresentante della feccia videoludica... mi stupisco anche che occupi ""solo"" 5gb di vram.

Ma si può sapere che diavolo ci ficcano in 5gb di vram??
Leggendo la recensione, ci sono pure texture che fanno vomitare (cit. letterale) e la quanittà di vram usata NON CAMBIA passando da fullHD a 4k.

Nonsense. Cos'è, ci ficcano cose a casaccio giusto per riempirla e far cambiare vga ai polli che ci cascano?

Overb00st
06-11-2014, 12:22
Questi test sono solo un "ripasso" di una 290x 4gb leggermente clocckata, gli 8gb di vram non saranno mai sfruttati da una singola scheda. Non capisco perché nell'introduzione si scriva

Parliamo di 4K più che di 2.560x1.440 pixel e se possibile di configurazioni a due GPU con tecnologia Crossfire.

e nelle considerazioni finali

Tutto questo ipotizzando che la GPU non diventi, con questo così elevato carico di lavoro, il collo di bottiglia finale in quanto se così fosse la memoria addizionale non permetterebbe di migliorare valori di frames troppo bassi per assicurare adeguata giocabilità.

effettuando poi test a gpu singola :confused:

AceGranger
06-11-2014, 12:49
Vabbè, ma hai preso il maggior/peggior rappresentante della feccia videoludica... mi stupisco anche che occupi ""solo"" 5gb di vram.

Ma si può sapere che diavolo ci ficcano in 5gb di vram??
Leggendo la recensione, ci sono pure texture che fanno vomitare (cit. letterale) e la quanittà di vram usata NON CAMBIA passando da fullHD a 4k.

Nonsense. Cos'è, ci ficcano cose a casaccio giusto per riempirla e far cambiare vga ai polli che ci cascano?

io non sono un video giocatore, ma da quello che leggo ogni tanto nelle news mi pare di capire che gli attuali giochi siano delle perle di ottimizzazione lato PC... credo che effettivamente con le nuove console con 8 Gb di ram, i nuovi porting potrebbero funzionare meglio su GPU con molta piu ram.

Cloud76
06-11-2014, 13:08
@Cloud76
Perché con una configurazione crossfire hai maggiori prestazioni ma lo stesso quantitativo di memoria.
Per cui, se con le capacità di una singola scheda hai difficoltà a sfruttare i 4 GB di Vram, con due schede hai la potenza necessaria per utilizzare impostazioni video che necessitano di tanta memoria.

C'è poi il discorso di chi acquista una scheda ogni 3-4 anni e crede che gli 8 GB possano non portare grandi vantaggi oggi, ma che possano farlo tra qualche anno. É ovviamente una supposizione, ma secondo me non ha tutti i torti.

Appunto, come dicevo con due GPU spingi di più ma sprechi metà della RAM a causa del crossfire. Prima sprecavi 4GB ora ne sprechi 8 e sarà sempre peggio....
Per come la vedo io, che non riesco a digerire la concezione delle due schede in parallelo sprecando la RAM (tanto per dire una baggianata, preferirei schede apposite per il crossfire, senza RAM e unite tramite un bridge che implementa la RAM che risulta così in condivisione e aggiornabile a discrezione... magari è una vaccata ma è comunque più logico e senza sprechi).
Comunque tornando al discorso di prima... il problema è che ci vogliono schede più veloci e scenari appositi per sfruttare 8GB e non le schede che abbiamo ora da mettere in configurazione multipla, poi ovvio che ci sarà comunque qualche ambito a trarne qualche beneficio anche con l'attuale generazione ma poca roba....

FroZen
06-11-2014, 13:34
Insomma ste 290X sono ancora al top prestazionalmente e con consumi uguali se non inferiori alle tanto decantate 780ti negli scenari più tosti (4k).....ma nei forum al solito si sputa su tutto ciò che è rosso...ah il marketing!

bluefrog
06-11-2014, 13:42
Dico la mia: probabilmente come test andavano usati giochi che sfruttano un maggiore quantitativo di ram come il nuovo CoD (vedere qui http://www.guru3d.com/articles_pages/call_of_duty_advanced_warfare_vga_graphics_performance_benchmark_review,8.html ), Shadow of Mordor con le texture HD, Ryse Son of Rome con il Supersampling...forse in questi casi si sarebbe vista un'eventuale differenza rispetto ai 4GB.

CrapaDiLegno
06-11-2014, 13:51
La spiegazione di questo comportamento è legata all'efficienza del sistema di raffreddamento, che non solo è sensibilmente più silenzioso di quello reference ma porta la scheda ad operare a temperature più contenute senza per questo dover spingere le ventole ad una elevata velocità di rotazione. La diretta conseguenza è quindi un minor consumo richiesto dal sistema di raffreddamento, che incide quindi meno di quanto accada per la reference board sul consumo complessivo del sistema.
Ma anche no, Corsini!
Tra le due schede ci sono 30-40W di differenza, e questo non è spiegabile da alcun sistema di raffreddamento migliore. Non ci sono ventole che consumano 40W. Servirebbe una ventola aggiuntiva per raffreddare le ventola stessa.

La differenza è spiegabile nella selezione dei chip. Non tutti i chip escono uguali. Alcuni escono bene, alcuni escono male. Quelli male male (per consumi/parti non funzionanti) vengono declassati alle versioni tagliate delle schede. Quelli "normali" vanno sulle schede stock e gran parte delle schede custom. Quelli che vogliono offrire qualcosa di più (e meglio) usano GPU che consumano leggermente meno. Magari a loro costa di più, ma risparmiano sul sistema di raffreddamento e alimentazione per un sistema overcloccato che altrimenti consumerebbe ancora di più e necessiterebbe di parti più costose per poter scrivere sulla scatola "Ultra mega super iper OC con 25MHz in più di fabbrica!!!"

Sapo84
06-11-2014, 14:02
Ma si può sapere che diavolo ci ficcano in 5gb di vram??
Leggendo la recensione, ci sono pure texture che fanno vomitare (cit. letterale) e la quanittà di vram usata NON CAMBIA passando da fullHD a 4k.

Nonsense. Cos'è, ci ficcano cose a casaccio giusto per riempirla e far cambiare vga ai polli che ci cascano?
Se leggi bene la recensione lo spiegano, il gioco carica in vram tutte le texture, fintanto che c'è memoria libera.
Questo non vuol automaticamente dire che con meno vram le prestazioni scendano (dubito che caricare le texture in memoria offra chissà quali vantaggi), per quello bisognerebbe fare degli altri test.
Se poi grazie a questa "cache" delle texture le prestazioni effettivamente risultano migliori, complimenti agli sviluppatori per aver trovato un modo di sfruttare tutta la vram delle schede odierne. (e spero che non si voglia replicare le scenette "ma sui nuovi windows mi segna che non ho ram libera, Microsoft merda, W XP")

@CrapaDiLegno: conta anche che il leakage di un chip aumenta all'aumentare della temperatura, quindi far girare un chip a temperature inferiore può diminuirne i consumi.

CrapaDiLegno
06-11-2014, 14:13
Appunto, come dicevo con due GPU spingi di più ma sprechi metà della RAM a causa del crossfire. Prima sprecavi 4GB ora ne sprechi 8 e sarà sempre peggio....
Per come la vedo io, che non riesco a digerire la concezione delle due schede in parallelo sprecando la RAM (tanto per dire una baggianata, preferirei schede apposite per il crossfire, senza RAM e unite tramite un bridge che implementa la RAM che risulta così in condivisione e aggiornabile a discrezione... magari è una vaccata ma è comunque più logico e senza sprechi).
Comunque tornando al discorso di prima... il problema è che ci vogliono schede più veloci e scenari appositi per sfruttare 8GB e non le schede che abbiamo ora da mettere in configurazione multipla, poi ovvio che ci sarà comunque qualche ambito a trarne qualche beneficio anche con l'attuale generazione ma poca roba....
Sarebbe la soluzoine ideale. Purtroppo non stai considerando che il bus deve aumentare per avere la stessa banda per ogni GPU che aggiungi al sistema. Altrimenti divideresti la banda disponibile per ciascuna GPU e quindi diminuiresti le prestazioni, invece di aumentarle.

FroZen
06-11-2014, 14:51
Ma anche no, Corsini!
Tra le due schede ci sono 30-40W di differenza, e questo non è spiegabile da alcun sistema di raffreddamento migliore. Non ci sono ventole che consumano 40W. Servirebbe una ventola aggiuntiva per raffreddare le ventola stessa.



Ma se alle titan/780 avevano dovuto fare dei bios ad hoc per togliere dal controllo del consumo\tdp la parte dedicata alla ventola se no tagliavano le frequenze anche quando non dovevano? Fidati che una ventola assiale dal 20 al 100% ha una bella differenza di consumo elettrico....la differenza tra chip è anche quello una discriminante ma a default NON può essere che una 290x consuma 200W e un'altra 240.......ma sarà vero se hai una 290x a 30% di fan e un'altr<a al 80%....

roccia1234
06-11-2014, 15:08
Se leggi bene la recensione lo spiegano, il gioco carica in vram tutte le texture, fintanto che c'è memoria libera.
Questo non vuol automaticamente dire che con meno vram le prestazioni scendano (dubito che caricare le texture in memoria offra chissà quali vantaggi), per quello bisognerebbe fare degli altri test.
Se poi grazie a questa "cache" delle texture le prestazioni effettivamente risultano migliori, complimenti agli sviluppatori per aver trovato un modo di sfruttare tutta la vram delle schede odierne. (e spero che non si voglia replicare le scenette "ma sui nuovi windows mi segna che non ho ram libera, Microsoft merda, W XP")


Ecco, questa sarebbe una cosa mooolto positiva :) .
Se poi fanno anche in modo di mettere in cache (ram di sistema) anche parti di gioco... tanto di cappello.
Oggi come oggi abbiamo ssd da 500/600 Mb/s in lettura, e quantità di ram di sistema di almeno 8 gb, di cui, normalmente, windows si prende circa 1,5 gb.
Bene, facciamo che 3-4gb servano per l'esecuzione del gioco, i rimanenti 2-3gb possono essere sfruttati per precaricare i dati del livello/scenario successivo in maniera del tutto trasperante per l'utente, e in tal modo si ridurrebbero notevolmente i tempi di attesa (nuovo livello, nuova area, ecc ecc ecc).
Se si ha più ram (molti qua dentro hanno anche 16gb di ram su pc da gioco), il vantaggio sarebbe anche più evidente... tanto con gli ssd attuali sarebbe questione di pochi secondi.
Vabbè, basta sognare :(

Jena73
06-11-2014, 15:26
Anch'io credevo fosse così.
Ma purtroppo li scimmie che lavorano per le SH e che fanno quegli insulsi portino che ci rifilano da anni, adesso che hanno molta RAM sulle console ti costringono ad averla anche su PC dove non servirebbe.
Pensa te se un gioco di merda con grafica ridicola come COD deve consumare 5Gb di VRam
http://www.guru3d.com/articles_pages/call_of_duty_advanced_warfare_vga_graphics_performance_benchmark_review,6.html

quotone, siamo ai limite dell'assurdo ormai...

bronzodiriace
06-11-2014, 15:54
Il problema si pone esclusivamente se ci si aspetta di giocare con le conversioni delle console. In questo caso 3gb o 4gb di memoria video può diventare limitante considerando che lo sviluppatore per effetto del porting da console a pc non ottimizza più di tanto il codice per hw più performanti.

Un esempio è quel laser game di Mordor che satura 3gb di vram con texture al max (disponendo di grafica altalenante ma con alte richieste di memoria video). In più mettici che un 1440p comunque pesa sulla vram rispetto ad un 1080p e vedi che forse 4gb o max 6gb sono l'hot spot.

Ricordandoci sempre che crysis 3 occupa all'incirca, vanilla, 1gb di memoria video.


La colpa è a monte (lazy dev), anche perchè le texture di Mordor non sono meritevoli di occupare 4gb di memoria video (ovvio non viene occupata solo con le texture, ma incide).

Brajang
06-11-2014, 16:19
40w di consumo delle ventole? ma che state dicendo? Un ventilatore da pavimento ne consumerà 10 ed è tutta un'altra storia...

NukeZen
06-11-2014, 17:15
Così gli effetti dei porting da PS4 e XBOXOne si fanno già sentire? I producer corrono ai ripari pompando ram per ovviare a certe, diciamo lacune?

Sarebbe interessante fare dei bench comparativi tra medesime schede, come la R9 290x a 4 e 8 gb di memoria, con titoli multipiattaforma appena usciti come The Evil Within (di cui ho la demo, e ho difficolta a far girare a 60fps stabili con tutti gli effetti al massimo a 1080 con 8gb Ram di sistema, FX8350 e una R9 290x appunto a 4 gb o_O ora non avrò un pc "entusiast", ma nemmeno uno scarto da discarica...). Giusto per scrupolo.

FroZen
06-11-2014, 17:17
Fate una semplice prova: un dissipatore reference con una assiale da 7000 giri, fate partire un bench in auto e poi con ventola fissa al 100% e prova a vedere il delta consumo con un wattmetro alla presa.....

bagnino89
06-11-2014, 17:24
Ma vi risulta che queste schede abbiano problemi di black screen? Leggo molta gente lamentarsi di questo problema. Ma è mai possibile? Persino io due anni fa ebbi problemi di black screen con una 7870 e anche allora era un problema noto.

appleroof
06-11-2014, 17:30
Anch'io credevo fosse così.
Ma purtroppo li scimmie che lavorano per le SH e che fanno quegli insulsi portino che ci rifilano da anni, adesso che hanno molta RAM sulle console ti costringono ad averla anche su PC dove non servirebbe.
Pensa te se un gioco di merda con grafica ridicola come COD deve consumare 5Gb di VRam
http://www.guru3d.com/articles_pages/call_of_duty_advanced_warfare_vga_graphics_performance_benchmark_review,6.html

Ho letto la spiegazione già data sull'utilizzo della vram in quel gioco quindi non aggiungo altro, magari leggiamole bene le rece e non fermiamoci ai grafici....

Ma anche no, Corsini!
Tra le due schede ci sono 30-40W di differenza, e questo non è spiegabile da alcun sistema di raffreddamento migliore. Non ci sono ventole che consumano 40W. Servirebbe una ventola aggiuntiva per raffreddare le ventola stessa.


Bè no, un chip raffreddato meglio consuma meno per minore leakage, se vai nei thread degli appassionati che mettono a liquido le loro VGA vedrai che queste consumano meno di quanto farebbero ad aria anche se iperoccate

Poi vero che non tutti i chip escono uguali etc etc

Ma vi risulta che queste schede abbiano problemi di black screen? Leggo molta gente lamentarsi di questo problema. Ma è mai possibile? Persino io due anni fa ebbi problemi di black screen con una 7870 e anche allora era un problema noto.

Eh....il marketing

TigerTank
06-11-2014, 18:10
In poche parole le schede attuali con 8GB hanno abbondanza di vram che toglie ogni dubbio/paranoia sui 4K....peccato che comunque non basti la potenza della gpu e quindi devi comprarne 2 raddoppiando anche la spesa per il plus di vram. :)
E non è detto che questo basti...perchè dipende comunque dal buon funzionamento del multigpu.
Imho tanto vale "accontentarsi" dei 1440p e nel caso di nvidia usare il dsr quando c'è margine, rinviando il gaming su 4K a tempi migliori ;)

Littlesnitch
06-11-2014, 20:09
Ho letto la spiegazione già data sull'utilizzo della vram in quel gioco quindi non aggiungo altro, magari leggiamole bene le rece e non fermiamoci ai grafici....


SI ho letto anch'io, e l'avevo letto nella recensione. Rimane il fatto che già AC ha come requisiti consigliati almeno 4Gb di VRam, tutto per effetto delle nuove console e porting fatti alla ca... .. ...e!
Fatto sta che 8Gb di VRam sono solo l'ultima trovata di marketing utile a coprire la pigrizia e incapacità delle SH in combutta con i produttori di HW.

TigerTank
06-11-2014, 21:07
SI ho letto anch'io, e l'avevo letto nella recensione. Rimane il fatto che già AC ha come requisiti consigliati almeno 4Gb di VRam, tutto per effetto delle nuove console e porting fatti alla ca... .. ...e!
Fatto sta che 8Gb di VRam sono solo l'ultima trovata di marketing utile a coprire la pigrizia e incapacità delle SH in combutta con i produttori di HW.

O semplicemente il quantitativo obbligatorio dato dal bus a 256bit delle schede attuali, per cui non possono farle da 6GB. Cmq anche giustificando così gli 8GB resta il fatto che una sola gpu non basterebbe :D

bobby10
06-11-2014, 23:51
Al momento sono vga inutili e costose
Quando cominceranno a tornare davvero utili gli 8gb saranno vga superate.

Mparlav
07-11-2014, 11:36
Qui c'è una recensione con le Sapphire Vapor-X 8GB in CF testate in 4K:
http://www.kitguru.net/components/graphic-cards/zardon/sapphire-r9-290x-vapor-x-8gb-cf-review/

differenze risibili con la 295X2 eccetto sui fps minimi con Thief, anche se dubito che faccia differenza sulla giocabilità.

La 290X VaporX 8GB è cara e costa oltre 500 euro (le Msi e le XFX 8GB viaggiano sui 400 euro), tanto quanto 2x 290 Tri-X, oppure contro i 560 euro per 2x GTX970 4GB.

TigerTank
07-11-2014, 12:10
Cmq io credo sia inutile una recensione che parla di nuove schede con 8GB di vram e nella quale vengono analizzati solo gli fps ottenuti. Credo che in tal caso sia basilare anche vedere quanta vram di quegli 8GB viene utilizzata/allocata in rapporto alle 3-4GB attuali.

roccia1234
07-11-2014, 14:15
Non mi è chiaro questo punto:

Nella parte superiore trova posto un pulsante con il logo Sapphire e un piccolo led blu: permette di selezionare il bios tra quello Legacy e la versione UEFI a seconda delle preferenze personali dell'utente.

Sottintende che la vga ha un suo bios/UEFI.. nel quale si può navigare, modificare impostazioni, ecc ecc? :eek: Sbaglio o è la prima volta che si vede una cosa del genere?

Oppure si riferisce al bios/UEFI della mobo? Ma in quel caso, mi sfugge quel "a seconda delle preferenze personali dell'utente"... cioè, non è l'utente che sceglie se la sua mobo ha bios legacy o uefi... o uno o l'altro. E in questo caso sapphire avrebbe potuto mettere uno switch automatico al posto che manuale.

Chi mi illumina? :stordita:

wolverine
09-11-2014, 20:36
Non mi è chiaro questo punto:



Sottintende che la vga ha un suo bios/UEFI.. nel quale si può navigare, modificare impostazioni, ecc ecc? :eek: Sbaglio o è la prima volta che si vede una cosa del genere?

Oppure si riferisce al bios/UEFI della mobo? Ma in quel caso, mi sfugge quel "a seconda delle preferenze personali dell'utente"... cioè, non è l'utente che sceglie se la sua mobo ha bios legacy o uefi... o uno o l'altro. E in questo caso sapphire avrebbe potuto mettere uno switch automatico al posto che manuale.

Chi mi illumina? :stordita:

Se non erro c'è anche una nvidia che ha lo switch legacy/uefi (hybrid bios). :)

http://oi57.tinypic.com/1624j00.jpg

Vicino dove ci dovrebbe essere il molex per l'alimentazione extra se noti che uno switch.