View Full Version : Radeon R9 280X: le soluzioni MSI e Sapphire
Redazione di Hardware Upg
14-10-2013, 16:53
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/3800/radeon-r9-280x-le-soluzioni-msi-e-sapphire_index.html
Alla prova dei fatti la nuova proposta di AMD per il segmento di fascia medio alta del mercato delle schede video desktop: analizzate le schede Sapphire R9 280X Toxic e MSI R9 280X Twin Frozr Gaming OC, modelli che grazie a differenti livelli di overclock pareggiano il conto con le schede Radeon HD 7970 GHz Edition
Click sul link per visualizzare l'articolo.
CrapaDiLegno
14-10-2013, 16:58
Ancora un po' di overclock e questo Tahiti spicca il volo come un razzo...30W in più del GK110 montato sulla 780.
Quanto dura un chip tirato così?
Manca comunque il riferimento alla 280X "liscia" nelle tabelle.
lagoduria
14-10-2013, 17:11
Bella recensione...per le quattro o cinque persone su 100 che giocano tutto a 2560 x 1440. Recensione invece abbastanza inutile per tutti gli altri. Grazie :rolleyes:
Bella recensione...per le quattro o cinque persone su 100 che giocano tutto a 2560 x 1440. Recensione invece abbastanza inutile per tutti gli altri. Grazie :rolleyes:
Mi associo: test a 1920x1200 o 1920x1080 sarebbero stati graditi. Alla fin fine, dati i prezzi, adesso si tratta di schede di fascia media o medio-alta.
rimango un pò peplesso da questa generazione.
E ' vero che non si sente il bisogno di ulteriore potenza con le attuali vga in commercio ma tanto a vale a questo punto tenersi la propria. Vga piuttosto inutili e se le 7970 costeranno meno per me saranno sempre da preferire dato che sono le stesse schede.
MuadDibb
14-10-2013, 17:53
Mi associo: test a 1920x1200 o 1920x1080 sarebbero stati graditi. Alla fin fine, dati i prezzi, adesso si tratta di schede di fascia media o medio-alta.
Son d'accordo con te, piu' test sarebbero stati graditi... ma alla fine, parliamo delle 7970 che ben conosciamo!!
Questi test servono solo a dirci: compratevi una 7970 G.E. usata e campate felici perchè alla fine, son tali e quali!! :D :D :D :D :D
Vecchie schede, vecchi risultati. Uniche novita' restano le 290, ma almeno all'inizio i prezzi saranno alti. Restero' in attesa che le 290 scendano sotto i 300€...
Ancora un po' di overclock e questo Tahiti spicca il volo come un razzo...30W in più del GK110 montato sulla 780.
Quanto dura un chip tirato così?
Manca comunque il riferimento alla 280X "liscia" nelle tabelle.
secondo me durano poco...
chissà se non saranno fallate per colpa di dei condensatori di scarsa qualità come 7870....
masicuro
14-10-2013, 18:34
Son d'accordo con te, piu' test sarebbero stati graditi... ma alla fine, parliamo delle 7970 che ben conosciamo!!
Questi test servono solo a dirci: compratevi una 7970 G.E. usata e campate felici perchè alla fine, son tali e quali!! :D :D :D :D :D
quoto!;)
Paolo Corsini
14-10-2013, 19:54
Manca comunque il riferimento alla 280X "liscia" nelle tabelle.
Non avevo un sample di R9 280X reference, ecco perché non ci sono le misure per questo tipo di scheda.
Alla fin fine ste schede son anche troppo a 1920.
Paolo Corsini
14-10-2013, 20:15
Bella recensione...per le quattro o cinque persone su 100 che giocano tutto a 2560 x 1440. Recensione invece abbastanza inutile per tutti gli altri. Grazie :rolleyes:
Prendo atto del fatto che tutti volete misure a 1920x1080: la mia scelta per i 2560x1440 è stata dettata dalla volontà di mettere maggiormente sotto stress queste schede, lasciando quella di 1920x1080 pixel per soluzioni di fascia più bassa. Per le top di gamma vorrei eseguire test a 2560x1440 oltre che a 4k.
Usando Fcat la parte di testing di ogni scheda è molto più lunga e complessa rispetto a quanto avviene con i classici test con frames al secondo medi, ma i risultati che si ottengono ritengono che giustifichino il tempo impiegato. Quello che in assoluto è più costoso in termini di tempo è tutta la parte di gestione dei dati ottenuti e l'elaborazione dei grafici: potendo velocizzare questa parte allora non vedo problemi a raddoppiare il numero di test estendendo il tutto anche ad altre risoluzioni. Spero di avere tempo questa settimana per fare qualche prova, anche se la vedo un po' difficile.
In ogni caso anche con risoluzione di 2560x1440 si ottengono dei dati che aiutano a capire quale sia il comportamento a 1920x1080; la prima risoluzione corrisponde a circa 3,7 Mpixel mentre la secondoa a 2 Mpixel. Fare un banale rapporto con i frames al secondo ottenuti a 2560x1440 pixel permette di avere una indicazione di riferimento, ipotizzando che la scheda video sia l'unico collo di bottiglia, su quanto ottenibile a 1920x1080 a parità di impostazioni qualitative.
Lights_n_roses
14-10-2013, 20:28
Mi pare di aver capito che entrambe le schede oscillano in frequenza dal valore di base clock a quello di boost, questa è una cosa che non mi piace molto specialmente perchè spesso queste 280X hanno valori di base clock inferiori ad 1 ghz. Inoltre queste due schede in particolare sono da scartare, la msi per la temperatura troppo elevataa dei VRM e la toxic perchè costa e costerà troppo a mio avviso. Non c'è da dimenticarsi che questi sono prodotti di transizione un po come lo fu la serie HD 3000 dal momento che il prossimo anno usciranno le schede a 20 nm ben diverse.
Prendo atto del fatto che tutti volete misure a 1920x1080: la mia scelta per i 2560x1440 è stata dettata dalla volontà di mettere maggiormente sotto stress queste schede, lasciando quella di 1920x1080 pixel per soluzioni di fascia più bassa. Per le top di gamma vorrei eseguire test a 2560x1440 oltre che a 4k.
Usando Fcat la parte di testing di ogni scheda è molto più lunga e complessa rispetto a quanto avviene con i classici test con frames al secondo medi, ma i risultati che si ottengono ritengono che giustifichino il tempo impiegato. Quello che in assoluto è più costoso in termini di tempo è tutta la parte di gestione dei dati ottenuti e l'elaborazione dei grafici: potendo velocizzare questa parte allora non vedo problemi a raddoppiare il numero di test estendendo il tutto anche ad altre risoluzioni. Spero di avere tempo questa settimana per fare qualche prova, anche se la vedo un po' difficile.
In ogni caso anche con risoluzione di 2560x1440 si ottengono dei dati che aiutano a capire quale sia il comportamento a 1920x1080; la prima risoluzione corrisponde a circa 3,7 Mpixel mentre la secondoa a 2 Mpixel. Fare un banale rapporto con i frames al secondo ottenuti a 2560x1440 pixel permette di avere una indicazione di riferimento, ipotizzando che la scheda video sia l'unico collo di bottiglia, su quanto ottenibile a 1920x1080 a parità di impostazioni qualitative.
Il punto rimane però.
Se l'utenza gioca a 1920 vuole sapere come vanno le schede innanzitutto a 1920. Anche perchè ci sono schede che vanno parecchio più veloce a 2560 di quanto facciano a 1920. E le 280x sono relativamente più veloci delle 770 a 2560 mentre a 1920 la musica cambia.
Secondo me i test a 2560 dovrebbero aver dedicata una paginetta.
Renditi conto che dalla recensione l'unica cosa che si vede è che nessuna di quelle schede è valida per giocare a 2560, 30 fps su crysis, 40 su far cry..Bench del genere scoraggiano all'acquisto di qualsiasi soluzione, secondo me o scendi almeno di dettagli a 2560 o i test così han poco senso perchè non fanno che dare informazioni su quanto non bastino queste schede a quella risoluzione senza dare informazioni su ciò che avviene a 1920.
io dico, se vanno forte a 4k a maggior ragione andranno forte 1080p no? :D
ragionamento terra terra xD
poi io che ho un 1920x1080 al massimo prenderei una R9 270X se avessi bisogno di un ricambio..
A mio avviso le R9 280 sono già oltre la fascia medio-bassa (che posso rappresentare benissimo io :Prrr: )
ottimo articolo e ottima la scelta di usare come test i 1440p!!
dai su.. ormai ste schede dovrebbero reggere tranquillamente tutti i giochi maxati a 1080p... se compro una scheda performante oggi, voglio che viaggi bene a 1440p, risoluzione che davvero è un altro pianeta rispetto ai 1080... i 1080 li considero scontati :D
per fortuna parliamo di PC e non di consoline con hardware ai minimi termini...
Emilio GTX
14-10-2013, 22:00
Ho apprezzato molto la misurazione della temperatura dei vrm, non mene faccio niente di un buon dissipatore sul chip se poi mi si spacca la scheda per i vrm. Qualcuno sa quando saranno acquistabili? Sono orientato sul modello Asus, Sapphire mi ha deluso in passato due volte (5870 fallata, 7870 pure)
ottimo articolo e ottima la scelta di usare come test i 1440p!!
dai su.. ormai ste schede dovrebbero reggere tranquillamente tutti i giochi maxati a 1080p... se compro una scheda performante oggi, voglio che viaggi bene a 1440p, risoluzione che davvero è un altro pianeta rispetto ai 1080... i 1080 li considero scontati :D
per fortuna parliamo di PC e non di consoline con hardware ai minimi termini...
Beato te che hai un buon monitor come il pb :D
Comunque si anche io sono d'accordo che già dai tempi della 7970 siamo in overkill per i 1080p.
CrapaDiLegno
14-10-2013, 22:25
Non avevo un sample di R9 280X reference, ecco perché non ci sono le misure per questo tipo di scheda.
E' un peccato perché così non si comprende quanto è la potenza data da questo brutale overclock al chippetto che succhia energia come una idrovora.
Mi piacerebbe vedere una GTX780 portata a consumare la stessa energia quanto va in più.
Inoltre non si sa quanto la 280X vada di meno o più nella realtà rispetto alla 7970G.E., dato che sulla carta la prima ha frequenze inferiori, e non di poco.
Ho apprezzato molto la misurazione della temperatura dei vrm, non mene faccio niente di un buon dissipatore sul chip se poi mi si spacca la scheda per i vrm. Qualcuno sa quando saranno acquistabili? Sono orientato sul modello Asus, Sapphire mi ha deluso in passato due volte (5870 fallata, 7870 pure)
eccone un altro che si è beccato una 7870 fallata...
meno male che non l'ho presa...
a comunque il problema non era solo di sapphire
http://www.behardware.com/news/12705/black-screens-and-radeon-hd7870-a-solution.html
io avevo una 7870 vtx3d, 0 problemi.
Quando si dice che la marca non fa il prodotto...
Prendo atto del fatto che tutti volete misure a 1920x1080: la mia scelta per i 2560x1440 è stata dettata dalla volontà di mettere maggiormente sotto stress queste schede, lasciando quella di 1920x1080 pixel per soluzioni di fascia più bassa. Per le top di gamma vorrei eseguire test a 2560x1440 oltre che a 4k.
Usando Fcat la parte di testing di ogni scheda è molto più lunga e complessa rispetto a quanto avviene con i classici test con frames al secondo medi, ma i risultati che si ottengono ritengono che giustifichino il tempo impiegato. Quello che in assoluto è più costoso in termini di tempo è tutta la parte di gestione dei dati ottenuti e l'elaborazione dei grafici: potendo velocizzare questa parte allora non vedo problemi a raddoppiare il numero di test estendendo il tutto anche ad altre risoluzioni. Spero di avere tempo questa settimana per fare qualche prova, anche se la vedo un po' difficile.
In ogni caso anche con risoluzione di 2560x1440 si ottengono dei dati che aiutano a capire quale sia il comportamento a 1920x1080; la prima risoluzione corrisponde a circa 3,7 Mpixel mentre la secondoa a 2 Mpixel. Fare un banale rapporto con i frames al secondo ottenuti a 2560x1440 pixel permette di avere una indicazione di riferimento, ipotizzando che la scheda video sia l'unico collo di bottiglia, su quanto ottenibile a 1920x1080 a parità di impostazioni qualitative.
secondo me il dato 1080p, la risoluzione del 99% dei monitor in uso, serve eccome soprattutto perchè aiuta a scegliere le schede. spesso mi capita coi clienti che chiedono delucidazioni di non riuscire a capire quanto di più vada una 770/780 rispetto a una 760 o meno. questo perchè troppo spesso vengono cambiate le risoluzioni in base alla scheda video.
riterrei, imho, utile (nel 2013/2014) avere come risoluzione reference la 1080p per tutte le schede video sopra i 50€, e poi magari mettere dei test di 1 titolo "rappresentativo" i test a risoluzioni più basse per le schede economiche, per far capire a cosa bisogna rinunciare se scendi di fascia, e test a risoluzione maggiore per capire dove arriva la scheda di fascia alta.
non è stato raro in passato vedere schede che vanno meglio di altre fino ad sempio al 1680x1050 e crollare a 1080p, magari perchè avevano 1.5gb di ram invece di 2 di un modello concorrente.
dimenticavo: non sempre, anzi quasi mai e solo per curiosità personale, uso i bench per confronto. il 90% delle volte li uso per capire se la scheda x è indicata per giocare e guardo gli fps che fa indipendentemente dalle altre
carlottoIIx6
15-10-2013, 02:14
Ancora un po' di overclock e questo Tahiti spicca il volo come un razzo...30W in più del GK110 montato sulla 780.
Quanto dura un chip tirato così?
Manca comunque il riferimento alla 280X "liscia" nelle tabelle.
che vuoi che siano? :D inoltre ha 20 gradi di meno che secondo me conta di più nella comunque improbabile usura.
carlottoIIx6
15-10-2013, 02:19
Prendo atto del fatto che tutti volete misure a 1920x1080: la mia scelta per i 2560x1440 è stata dettata dalla volontà di mettere maggiormente sotto stress queste schede, lasciando quella di 1920x1080 pixel per soluzioni di fascia più bassa. Per le top di gamma vorrei eseguire test a 2560x1440 oltre che a 4k.
Usando Fcat la parte di testing di ogni scheda è molto più lunga e complessa rispetto a quanto avviene con i classici test con frames al secondo medi, ma i risultati che si ottengono ritengono che giustifichino il tempo impiegato. Quello che in assoluto è più costoso in termini di tempo è tutta la parte di gestione dei dati ottenuti e l'elaborazione dei grafici: potendo velocizzare questa parte allora non vedo problemi a raddoppiare il numero di test estendendo il tutto anche ad altre risoluzioni. Spero di avere tempo questa settimana per fare qualche prova, anche se la vedo un po' difficile.
In ogni caso anche con risoluzione di 2560x1440 si ottengono dei dati che aiutano a capire quale sia il comportamento a 1920x1080; la prima risoluzione corrisponde a circa 3,7 Mpixel mentre la secondoa a 2 Mpixel. Fare un banale rapporto con i frames al secondo ottenuti a 2560x1440 pixel permette di avere una indicazione di riferimento, ipotizzando che la scheda video sia l'unico collo di bottiglia, su quanto ottenibile a 1920x1080 a parità di impostazioni qualitative.
costatando il comportamento buono a 2560x1440, non è difficile pensare che a 1920x1080 andranno piu che bene.
approfitto per dare un suggerimento. di solito ai consumi si mettono i watt.
suggerirei invece di sostituire-integrare questo dato con il consumo in kwh presi al wattometro dopo un ora di gioco reale per avere una stima vera dell'energia.
costatando il comportamento buono a 2560x1440, non è difficile pensare che a 1920x1080 andranno piu che bene.
Il problema è stabilire quanto sia questo bene. Onestamente accingendomi a comperare una scheda video io cerco di fare un acquisto un minimo longevo in base all'hardware (video) che ho o che riterrò opportuno avere a disposizione, quindi vedere che ad un'altra risoluzione la scheda va più o meno bene mi dice poco e mi permette di fare scarse previsioni. D'accordo, per fare previsioni ci vorrebbe la sfera di cristallo e ancora d'accordo, non tutti comperano una scheda video vecchia di due anni con la prospettiva di tenersela per un po', ma perché non dovrei essere rappresentativo anch'io come uno che va sui 2560x1440 visto che questa scheda ORA rappresenta la fascia MEDIA (quindi un acquisto destinato a persone che non cambiano GPU ogni 3x2)?
Paolo Corsini
15-10-2013, 08:22
E' un peccato perché così non si comprende quanto è la potenza data da questo brutale overclock al chippetto che succhia energia come una idrovora.
Mi piacerebbe vedere una GTX780 portata a consumare la stessa energia quanto va in più.
Inoltre non si sa quanto la 280X vada di meno o più nella realtà rispetto alla 7970G.E., dato che sulla carta la prima ha frequenze inferiori, e non di poco.
Lato memoria le frequenze sono identiche.
Lato GPU
7970 GHz Edition: clock default 1GHz, clock boost 1,05 GHz
R280X: clock default 850 MHz, clock boost 1 GHz
Entrambe stanno per la maggior parte del tempo con clock boost attivo durante l'esecuzione di giochi 3D. La differenza indicativa è nell'ordine di qualche punto percentuale, stimo meno del 5% visto che la scheda MSI che ha 900 MHz di clock di default e 1,05 Ghz clock boost è preessoché appaiata alla 7970 GHz Edition
CrapaDiLegno
15-10-2013, 08:30
che vuoi che siano? inoltre ha 20 gradi di meno che secondo me conta di più nella comunque improbabile usura.
Vorrei ricordare che l'usura non la fa solo il calore, ma anche la tensione a cui viene alimentato il chip.
A tensioni alte si innesca il fenomeno della elettromigrazione che, anche a temperature di funzionamento normali, erode fisicamente le piste e i transistor.
La tensione a cui lavora questa versione di Tahiti è parecchio alta per un chip a 28nm. Ecco perché mi sorge il dubbio su quanto effettivamente possa durare.
Poi ovviamente, se uno cambia scheda una volta all'anno il problema spero non si ponga, ma io non la comprerei mai usata.
Vorrei ricordare che l'usura non la fa solo il calore, ma anche la tensione a cui viene alimentato il chip.
A tensioni alte si innesca il fenomeno della elettromigrazione che, anche a temperature di funzionamento normali, erode fisicamente le piste e i transistor.
La tensione a cui lavora questa versione di Tahiti è parecchio alta per un chip a 28nm. Ecco perché mi sorge il dubbio su quanto effettivamente possa durare.
Poi ovviamente, se uno cambia scheda una volta all'anno il problema spero non si ponga, ma io non la comprerei mai usata.
ti rigrazio per questo chiarimento, adesso si spiegano molte cose...
@CrapaDiLegno
In realtà la tolleranza varia da chip a chip, è praticamente impossibile fare un paragone tra chip tanto differenti su questo dato.
Oltretutto i chip sono in genere piuttosto "robusti", è piuttosto raro che siano loro a cedere, per cui non me ne farei proprio una preoccupazione, a meno che non saltino fuori difetti concreti.
La 780 comunque direi che è stata messa li per riferimento. Il chip è troppo grande e costoso per fare un paragone diretto.
Con un chip del genere è più facile giocare con la frequenza e trovare un livello di consumi più contenuto, soprattutto in questo caso dove le schede sono un po' "tirate" e questo sicuramente va un po' a scapito dell'efficienza.
Ma non mi pare affatto che la differenza sui consumi sia così consistente da parlare di "chippetto che succhia energia come una idrovora", che sembra propaganda sterile da fanboy.
tuttodigitale
15-10-2013, 11:48
@CrapaDiLegno
In realtà la tolleranza varia da chip a chip, è praticamente impossibile fare un paragone tra chip tanto differenti su questo dato.
Oltretutto i chip sono in genere piuttosto "robusti", è piuttosto raro che siano loro a cedere, per cui non me ne farei proprio una preoccupazione, a meno che non saltino fuori difetti concreti. .
senza contare che le schede video che hanno una gpu che lavora a soli 65°C in full load sono più uniche che rare. Poi ricordo che le Tahiti fin dal debutto si occava a 1150MHz praticamente sempre senza nessun tipo di overvolt.
Paradossalmente il consumo sale anche per la componentistica di maggior qualità che fa da contorno. (l'alimentazione è a 10 fasi ad esempio)
CrapaDiLegno
15-10-2013, 12:54
A me sembra che 1.26V siano tanti.
Poi ue, liberi di comprare quello che volete a me non viene in tasca niente e tantomeno ne perdo.
Poi non nascondete il fatto che certi modelli si rompono dopo pochissimo per "chissà quale ragione". La ragione c'è. Se la si conosce.
Certo, è la ragione non è praticamente mai la rottura del chip.
Poi ripeto, sono valutazioni che non hanno senso su chip differenti.
Littlesnitch
15-10-2013, 16:57
A me sembra che 1.26V siano tanti.
Poi ue, liberi di comprare quello che volete a me non viene in tasca niente e tantomeno ne perdo.
Poi non nascondete il fatto che certi modelli si rompono dopo pochissimo per "chissà quale ragione". La ragione c'è. Se la si conosce.
Io ho 2 7970 dal day one sempre a 1,25v e girano a 1200Mhz da oramai 24 mesi quindi tutto il discorso che fai per coprire la sonora sconfitta di nVidia nel rapporto prezzo prestazioni non regge. Le 2 7970 sono 2 reference Asus liquidate con WB EK.
Per evitare incomprensioni e accuse sterili aggiungo che ho anche uno Sli di 780 con il quale ho sostituito 2 670. Ma alla luce di questi test è evidente come con i 28nm il vincitore è AMD. Aggiungendo poi che stanno per uscire le 290 che avranno almeno ancora un 20%..... beh AMD ha davvero lavorato bene. Aggiungiamo pure che la 780 è una scheda fatta uscire solo per marketing e riciclo chip fallati come la Titan proposta ad un prezzo folle utile solo a spennare fanboy incalliti.
tuttodigitale
15-10-2013, 19:49
A tensioni alte si innesca il fenomeno della elettromigrazione che, anche a temperature di funzionamento normali, erode fisicamente le piste e i transistor.
A me sembra che 1.26V siano tanti.
Poi ue, liberi di comprare quello che volete a me non viene in tasca niente e tantomeno ne perdo.
Poi non nascondete il fatto che certi modelli si rompono dopo pochissimo per "chissà quale ragione". La ragione c'è. Se la si conosce.
Crapadilegno dalle tue parole sembrerebbe che l'elettromigrazione è un fenomeno del tutto assente alle tensioni stock e che l'esistenza del fenomeno sia di per sè causa di rottura.
Parliamo di 0,1V di tensione operativa in più rispetto alla reference board, e 1,2V è la tensione operativa del gk104 montato nella gtx770 e di tutte le versioni OC della r9 280x. Voglio far presente che Intel adottava per le sue cpu basate su 32nm BULK una "pericolosa" tensione di 1,332V. Parliamo di cose molto differenti, ma giusto per sottolineare che non è una tensione spropositata e senza entrare in dettaglio si rischia davvero di dire cazz@te.
Spesso a rompersi in una scheda grafica sono le RAM e i condensatori. Il 99% dei danni riguarda questi componenti. E sulla TOXIC almeno quest'ultimi dovrebbero essere di maggior qualità.
Per carità io non metto le mani sul fuoco sulla durata della scheda grafica, tanto meno se penso quante schede video ho visto soccombere, ma allo stesso tempo non posso non sottolineare il fatto che non vedo nessun motivo per cui un modello con componentistica di maggior qualità venduta ad un prezzo superiore deve necessariamente avere una durata inferiore..
Il punto rimane però.
Se l'utenza gioca a 1920 vuole sapere come vanno le schede innanzitutto a 1920. Anche perchè ci sono schede che vanno parecchio più veloce a 2560 di quanto facciano a 1920
giusto in parte. Ma queste sono schede di fascia alta. Parliamo di 250 euro a salire .
L'ultima frase la puoi rigirare anche in quest'altro modo: ci sono schede che all'aumentare della risoluzione hanno un calo maggiore.
Calo dovuto no a chissà a strane congetturei ma a limiti HW ben precisi, come la bandwidth (220vs 300GB/s). Anzi proprio perchè la mole dei dati è destinata ad aumentare con i giochi next-gen (8GB delle console non sono li per bellezza) è prevedibile un ulteriore gap a favore della proposta di Sapphire. Divario che diventerà insommontabile nel momento in cui oltre ad essere bandwidth limited la Vram inizia a scarseggiare.
Test a risoluzioni più basse e senza filtri e anche una GTX680 come termine di paragone sono benvenuti. Di certo non si può dire che nel recensire schede di questo livello il test a 2560x1600 non era prioritario rispetto al FHD.
Il punto è un altro:
la GTX770 replica sostanzialmente le prestazioni di una HD7970GE, e con soli 2GB di Vram, senza giochi a 60-70 euro in più, fa pena nel gpgpu, e soprattutto prive del supporto alle API MANTLE (ipotizziamo nel peggior dei casi, un +10% per le HD7970 nei giochi che ne faranno uso). attualmente è fuori mercato,
Ha senso spendere più del doppio (520 euro vs 250) per una GTX780 che ha prestazioni superiori del 22%, o forse sarebbe meglio un CF di HD7950 (340 euro) o di HD7970 (500 euro)
Se la GTX780 ha senso lo ha anche la Sapphire Toxic che con 370 euro ti permette di portarti a casa una scheda che va poco meno di una GTX780 e con un ricco bundle. Il gioco potrebbe valere la candela
Il fatto è che con le r9 290 alle porte è davvero difficile raccomandare una scheda grafica che non sia una HD7970GE o una R9 280x.
PS da sempre tra le schede da 250 euro e quelle da 500, il divario prestazionale era intorno al 60% e non certo un misero 20.
dobermann77
15-10-2013, 20:15
Insomma, è meglio questa R9 280X o la Geforce 770?
Costano piu' o meno uguali vedo.
marchigiano
15-10-2013, 21:05
ma la 780 va di più e consuma meno? :eek:
CrapaDiLegno
15-10-2013, 22:51
ma la 780 va di più e consuma meno? :eek:
Eh, è quello che ho fatto notare dal post n. 1.
@tuttodigiale
Se la tensione e i consumi non fossero un serio problema, la AMD avrebbe mandato fuori non la GHz Edition, ma GHz e 200 Edition come standard.
Invece c'è solo un partner che ha voglia di rischiare a fare questo tipo di operazioni. Perchè a priori non sai quanto durerà un chip in quelle condizioni. E se non vuoi che si parli di chip rotti, be', stiamo sempre parlando di una scheda con la possibilità di ciucciare 375W (te lo scrivo in lettere, così capisci meglio, trecentosettantacinque watt) che passano tutte per dei componenti che sono super stressati. Qualcosa prima o poi cederà, e in quelle condizioni cederà più prima che poi.
Ah, per il GPGPU, quando hai finito di godere sugli inutili benchmark sintetici fatti con l'inutile OpenCL (magari quelli di Sisandra che li ha realizzati proprio in collaborazine con AMD), puoi passare a guardare le prestazioni negli applicativi di produttivtà reali. Potresti capire cosa è e a cosa serve per davvero il GPGPU oltre che a produrre sterili barrette colorate.
@littlesnitch
Difficile fare un discorso con uno che parla "di sonora sconfitta sui 28nm" da parte di uno o dell'altro. Io di sonore sconfitte non ne ho ancora viste. Anzi. Se vogliamo essere sinceri e guardare i numeri reali, e non quelli che uno vuole vedere (rapporto prezzo/prestazioni??? Ma chi se ne frega se vendi la metà del tuo unico concorrente!), questo giro nvidia ride da gennaio 2011 (presentazione di Tahiti): vende a prezzo da top il chippetto che nella passata generazione era destinato alla fascia media, cioè a meno di metà del suo prezzo.
AMD invece fatica a vendere il suo chip top gamma che deve rivaleggiare proprio con lo sputazzo di nvidia. E poi arriva la Titan e compagnia bella (cioè GK110 in tutti i tagliuzzamenti possibili) che fanno il bello e il brutto tempo perché a quel livello non c'è null'altro.
Il prezzo prestazioni vincente lo vedi solo tu dato che AMD sta cercando di svendere Tahiti in tutti i modi, persino regalando chili di giochi in bundle e overcloccandolo a più non posso per superare un chip della concorrenza molto più piccolo ed economico da produrre.
Il GK104 e Tahiti si equivalgono a seconda di quanto overclocchi uno o l'altro, mentre il GK110 per ora non ha rivali, per quanta energia tu possa fornire a Tahiti senza farlo fondere. Nella sua forma più scarsa presente sul mercato il GK110, consuma meno e va di più. Il prezzo, anche per quello è fuori di melone.
D'altronde il discorso è sempre lo stesso se non l'avessi capito: il prezzo lo fa il mercato. Se hai richiesta sostenuta fai i prezzi alti, se nessuno vuole quello che offri devi scendere di prezzo per farlo diventare appetibile.
Se questa è una "sonora sconfitta", be', mi piacerebbe essere uno che prende una parte dei proventi di questa sconfitta, non essere uno di quelli che paga le conseguenze della vittoria.
Io non partecipo per nessuno, tanto a me non va in tasca proprio un bel niente che sia uno o l'altro a fare la scheda video del momento da mezzo testone (o testone intero!) più veloce al mondo. Anzi, davvero spero che questa nuova 290X vada come la Titan e faccia abbassare i prezzi perché finora tutto il lavoro di AMD non ha fatto che far produrre a nvidia una pletora di inutili schede (dalla 650 Ti, alla 650 Ti Boost, passando per la nuova 750 e la 760 e si parla anche di qualcos'altro di intermedio) di "chip fallati" venduti a prezzi astronomici che tanto bastano a competere. Se questo è il meglio che possiamo aspettarci dai prodotti AMD, allora non vedo cosa ci sia da gioire o parlare di "sonora sconfitta". Ripeto, la passata generazione i chippetti grandi come il GK104 erano in un'altra fascia venduti a metà del prezzo di oggi.
ma la 780 va di più e consuma meno? :eek:
E costa il doppio.
Littlesnitch
16-10-2013, 10:39
@littlesnitch
Difficile fare un discorso con uno che parla "di sonora sconfitta sui 28nm" da parte di uno o dell'altro. Io di sonore sconfitte non ne ho ancora viste. Anzi. Se vogliamo essere sinceri e guardare i numeri reali, e non quelli che uno vuole vedere (rapporto prezzo/prestazioni??? Ma chi se ne frega se vendi la metà del tuo unico concorrente!), questo giro nvidia ride da gennaio 2011 (presentazione di Tahiti): vende a prezzo da top il chippetto che nella passata generazione era destinato alla fascia media, cioè a meno di metà del suo prezzo.
AMD invece fatica a vendere il suo chip top gamma che deve rivaleggiare proprio con lo sputazzo di nvidia. E poi arriva la Titan e compagnia bella (cioè GK110 in tutti i tagliuzzamenti possibili) che fanno il bello e il brutto tempo perché a quel livello non c'è null'altro.
Il prezzo prestazioni vincente lo vedi solo tu dato che AMD sta cercando di svendere Tahiti in tutti i modi, persino regalando chili di giochi in bundle e overcloccandolo a più non posso per superare un chip della concorrenza molto più piccolo ed economico da produrre.
Il GK104 e Tahiti si equivalgono a seconda di quanto overclocchi uno o l'altro, mentre il GK110 per ora non ha rivali, per quanta energia tu possa fornire a Tahiti senza farlo fondere. Nella sua forma più scarsa presente sul mercato il GK110, consuma meno e va di più. Il prezzo, anche per quello è fuori di melone.
D'altronde il discorso è sempre lo stesso se non l'avessi capito: il prezzo lo fa il mercato. Se hai richiesta sostenuta fai i prezzi alti, se nessuno vuole quello che offri devi scendere di prezzo per farlo diventare appetibile.
Se questa è una "sonora sconfitta", be', mi piacerebbe essere uno che prende una parte dei proventi di questa sconfitta, non essere uno di quelli che paga le conseguenze della vittoria.
Io non partecipo per nessuno, tanto a me non va in tasca proprio un bel niente che sia uno o l'altro a fare la scheda video del momento da mezzo testone (o testone intero!) più veloce al mondo. Anzi, davvero spero che questa nuova 290X vada come la Titan e faccia abbassare i prezzi perché finora tutto il lavoro di AMD non ha fatto che far produrre a nvidia una pletora di inutili schede (dalla 650 Ti, alla 650 Ti Boost, passando per la nuova 750 e la 760 e si parla anche di qualcos'altro di intermedio) di "chip fallati" venduti a prezzi astronomici che tanto bastano a competere. Se questo è il meglio che possiamo aspettarci dai prodotti AMD, allora non vedo cosa ci sia da gioire o parlare di "sonora sconfitta". Ripeto, la passata generazione i chippetti grandi come il GK104 erano in un'altra fascia venduti a metà del prezzo di oggi.
No difficile è fare un discorso con chi vive in un mondo parallelo dove il verde è dominante... io i chip li ho avuti tutti e stressati tutti, e nVidia vende solo avendo orde di fanboy simili a te che vedono i miracoli e credono nella storiella che GK110 fosse destinato alle geforce. Tanto finchè ci siete voi a comprare gli scarti delle Tesla a 1000Eur :doh:
marchigiano
16-10-2013, 13:05
E costa il doppio.
anche di più :eek:
anzi costa meno della gtx770... forse una versione con frequenze rilassate potrebbe pareggiare con la 770 sia le prestazioni che i consumi?
tuttodigitale
16-10-2013, 13:29
Eh, è quello che ho fatto notare dal post n. 1.
i grafici sono auto-esplicativi.
Ho detto anche che la GTX780 ha senso anche se ho fatto notare che forse è la prima volta che una scheda venduta a 650 euro a listino vada solo il 20% in più di una prezzata ufficialmente a 300.
Il divario di prezzo è lo stesso che c'era tra
6800 liscia vs 6800 ultra
x1800xl vs X1900xtx
hd4850 vs HD4870x2 (dual gpu)
HD5850 vs HD5970 (dual gpu)
HD7850 vs HD7970
tra le prime e le seconde, mi sembra che il gap prestazionale sia un tantino più marcato rispetto alle schede basate su Tahiti rispetto alla gtx780, tanto che quelli che hanno un budget limitato a 500 euro farebbero bene a pensare ad una soluzione Crossfire/SLI di schede da 300 euro.
Se la tensione e i consumi non fossero un serio problema, la AMD avrebbe mandato fuori non la GHz Edition, ma GHz e 200 Edition come standard.
Chi ha detto che i consumi non sono un problema? Entro certi limiti non sono certamente insommontabili.
Poi il problema a salire di frequenza è anche un problema di resa del chip.
Molti occano la propria gpu tahiti a 1125MHz con la tensione di 1,156V, con zero problemi. Se i tecnici di Sapphire hanno ritenuto che la tensionedi 1,256 V adeguata, noi che materiali abbiamo per dire che il chip morirà prematuramente?
Tenendo presente, come ulteriore prova che quello dici non trova fondamento, vedo che nvidia fa girare gk104 alla tensione di 1,2V e Intel le sue cpu a 1,332..
. E se non vuoi che si parli di chip rotti, be', stiamo sempre parlando di una scheda con la possibilità di ciucciare 375W (te lo scrivo in lettere, così capisci meglio, trecentosettantacinque watt) che passano tutte per dei componenti che sono super stressati. Qualcosa prima o poi cederà, e in quelle condizioni cederà più prima che poi.
Il problema non sono dei chip rotti per elettromigrazione, anche perchè di solito il primo effetto che ha l'eletromigrazione è proprio l'aumento della temperatura del chip: se Tahiti sta a 65°C con raffreddamento ad aria convenszionale, imho non si corre nessun pericolo dovuta alla superiore ddp di funzionamento, ma non bisogna trascurare il maggior assorbimento di corrente.
E' chiaro che a parità di componenti che circondano il chip, quello che dici sulla durata è vero.
Ma tu non vuoi capire che la componentistica è stata adeguata (evidentemente con costi di produzione maggiori)
Ah, per il GPGPU, quando hai finito di godere sugli inutili benchmark sintetici fatti con l'inutile OpenCL (magari quelli di Sisandra che li ha realizzati proprio in collaborazine con AMD), puoi passare a guardare le prestazioni negli applicativi di produttivtà reali. Potresti capire cosa è e a cosa serve per davvero il GPGPU oltre che a produrre sterili barrette colorate.
Di quale chip parliamo? Mi sembra che si parlasse di gk104 o sbaglio?
Più che una GTX770 per il gpgpu ti consiglierei una GTX580 usata.
tuttodigitale
16-10-2013, 14:21
Difficile fare un discorso con uno che parla "di sonora sconfitta sui 28nm" da parte di uno o dell'altro.
Attenzione a non cadere nell'errore di guardarti allo specchio mentre scrivi
Io di sonore sconfitte non ne ho ancora viste. Anzi.
come non detto
Ma chi se ne frega se vendi la metà del tuo unico concorrente!), questo giro nvidia ride da gennaio 2011 (presentazione di Tahiti):.
O mio Dio a Gennaio l'unica a godere era AMD visto che poteve vendere la HD7970 a 549 euro. Le GTX680 era disponibili sugli scaffali solo a fine Aprile. AMD si è goduta 4 mesi di dominio assoluto.
vende a prezzo da top il chippetto che nella passata generazione era destinato alla fascia media, cioè a meno di metà del suo prezzo.
Ma anche AMD ha lievitato i prezzi..Ti ricordo che il prezzo di lancio delle HD5870 era di 350 euro
AMD invece fatica a vendere il suo chip top gamma che deve rivaleggiare proprio con lo sputazzo di nvidia. E poi arriva la Titan e compagnia bella (cioè GK110 in tutti i tagliuzzamenti possibili) che fanno il bello e il brutto tempo perché a quel livello non c'è null'altro.
va precisato che lo "sputazzo" di nvidia non è molto più piccolo di Tahiti: è un chip da ben 294mmq. Dalle hd3800 il top di gamma di AMD è un chip di dimensioni medio-grandi. Sembra quasi che Tahiti sia una mattonella quando in realtà è più piccolo di Cayman.
Poi non è assolutamente vero che AMD ha avuto problemi di produzione maggiore di nvidia. Semmai è vero il contrario. AMD era 7 mesi in anticipo rispetto a nvidia nella produzione del chip.
Andrebbe detto per onesta intellettuale che oggi i GCN di gamma inferiore sono i chip con le più alte prestazioni per watt e per mmq. Anche se non parlerei di vittoria netta (al max un +10% in efficienza)
Il top di gamma previsto all'inizio del 2012. praticamente pronta, era la dual HD7990 da 649 euro..
D'altronde il discorso è sempre lo stesso se non l'avessi capito: il prezzo lo fa il mercato. Se hai richiesta sostenuta fai i prezzi alti, se nessuno vuole quello che offri devi scendere di prezzo per farlo diventare appetibile.
Il mercato non sempre premia i prodotti migliori, ma anche il marchio.
nvidia da sempre è vista come azienda di maggior qualità rispetto ad ATI. Quindi non diamogli troppo peso, se no finiamo per dire che Samsung assembla smartphone meglio di Motorola.
Punto 2. Il mercato non è fatto di sola domanda ma anche di offerta. Magari nvidia non può produrre chip gf110 in quantità. Se non avesse avuto problemi di carattere produttivo la TITAN sarebbe costata 600 euro e avrebbe avuto tutti i cuda core abilitati.
nvidia non disabiliterenne la stragrande dei chip se fossero perfettamente funzionanti
e non la prezzerebbe a 1000 euro, per vendere quattro in croce, e buttare i restanti gk110 nell'immondizia.
AMD già 5 anni fa aveva capito che per non essere in ritardo con il passaggio a un nuovo PP, era indispensabile ridurre le dimensioni del chip a livelli umani (300-360mmq). Nvidia l'ha fatto per la prima volta nel 2012, e direi con ottimi risultati e tutti si sono dimenticati che la vera top di gamma AMD doveva essere la dual gpu. Ma le difficoltà dovute al parto della mattonella da 551/561mmq ha fatto si che la casa californiana adottasse la linea di AMD con una piccola variante: visto che il chip gk104 in quel momento aveva prestazioni migliori (dovuto più al debacle dei driver di AMD con i giochi basati sul motore grafico Frostbite 2 che a limiti HW) ha deciso di proporre la GTX680 al prezzo folle di 500 euro, prezzo che rimarrà stabile per 2 mesi a causa della scarsa reperibilità (quello di marzo è stato un paper launch).
Se vogliamo dirla tutta, ci abbiamo perso un pò noi, comuni consumatori.
Il prezzo di 300 euro non era il prezzo on-street di fine carriera ma il prezzo che le schede basate su Tahiti dovevano avere se si fosse seguite le orme di RV770, Cypress e Cayman, ma dall'altra parte c'era bisogno di un valido sostituto di Gt200, GF100 e GF110, ovvero di gk110.
A nvidia gli è andata di lusso che la prima incarnazione dell'architettura GCN (e solo questa) avesse una scarsa efficienza (sia in termini di mmq che di Watt) , ma il fatto che AMD non abbia fatto uscire una revisione subito sta a significare che i 400 euro richiesti per comprare la HD7970 era ritenuti più che adeguati (siamo 100 euro oltre lo street price delle 2 generazioni precedenti .)
tuttodigitale
16-10-2013, 16:12
anche di più :eek:
anzi costa meno della gtx770... forse una versione con frequenze rilassate potrebbe pareggiare con la 770 sia le prestazioni che i consumi?
In realtà la scheda che replica al 96-98% le prestazioni e i consumi della GTX770, esiste da un bel pezzo ed è la HD7970GE
http://images.anandtech.com/graphs/graph6994/55190.png
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_770/images/perfrel_1920.gif
se contiamo che costa meno, ha diversi giochi in bundle, ha 1GB di Vram in più....
Christian Karner
26-10-2013, 21:11
Qualche anima pia mi saprebbe dire se il nuovo bottone per lo switch del bios ha la stessa funzione del dual bios delle 7970?
Chiedo questo perchè vorrei modificare il bios in sicurezza, ma non riesco a capire se il bios uefi è semplicemente un altro bios, e quindi può essere flashato anch'esso senza problemi oppure no.
Chiavica
14-11-2013, 16:16
Sapete dirmi come si comporta la 280x versione Asus directCu II da 3gb? Grazie.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.