PDA

View Full Version : Schede Radeon R9 290X retail più lente del previsto?


Redazione di Hardware Upg
06-11-2013, 09:08
Link alla notizia: http://www.hwupgrade.it/news/skvideo/schede-radeon-r9-290x-retail-piu-lente-del-previsto_49557.html

Con il debutto delle schede R9 290 di AMD si apre online un potenziale caso di prestazioni delle schede in commercio inferiori a quelle di cui sono capaci i modelli forniti da AMD. Il nostro punto di vista a riguardo, con qualche dato inedito

Click sul link per visualizzare la notizia.

gd350turbo
06-11-2013, 09:23
Bhè se io avessi un azienda che produce oggetti, qualsiasi tipo di oggetto, e ne dovessi scegliere alcuni da inviare per recensioni, non gli sceglierei certamente a caso !

Ed amd, come penso tutte le altre ditte, lo fanno sicuramente !

dobermann77
06-11-2013, 09:26
Queste 290/290x sono al momento ancora troppo poco esaminate.

Attendo le recensioni degli utenti di quelle con il cooling custom.

dobermann77
06-11-2013, 09:27
Ma io continuo a non capire perchè non hanno semplicemente messo un dissipatore più performante :mbe:

Infatti. E' per questo che ho dei dubbi che un dissipatore piu' performante risolva.

calabar
06-11-2013, 09:28
Se la differenza è troppo marcata però parte il "caso", come avvenuto in questa situazione, anche se per il momento il problema sembra essere limitato.
Certo che con una scheda così temperatura-dipendente basta relativamente poco per far variare le prestazioni. Probabilmente AMD avrebbe fatto bene a montare un dissipatore più efficace e farla pagare qualcosina in più, per lo meno la top di gamma.

Phenomenale
06-11-2013, 09:30
Niente di strano, gli esemplari da recensione sono tutti selezionatissimi.
Ricordo il caso "haswell", gli ES inviati alle redazioni prendevano tutti i 4,8GHz erano dei mostriciattoli da overclock. Nel canale "retail" :asd: se becchi l' haswell sfortunello oltre i 4,3GHz proprio non ce lo mandi (a meno di scoperchiare).

Niente di strano che AMD mandi GPU "cherry picked" ai recensori di siti di overclocker's ;)

Capozz
06-11-2013, 09:59
Infatti. E' per questo che ho dei dubbi che un dissipatore piu' performante risolva.

Secondo la recensione di toms montando un Accelero Xtreme III le prestazioni della scheda migliorano decisamente, e cala drasticamente anche la rumorosità.
Insomma, chi prende una 290 metta in conto anche 50 euro di dissi aftermarket, altrimenti si ritrova con un case arroventato, la scheda con prestazioni inferiori al previsto e diventa sordo.

street
06-11-2013, 10:02
Ma io continuo a non capire perchè non hanno semplicemente messo un dissipatore più performante :mbe:

ci ho pensato anche io, e alla fine credo sia perchè parte degli introiti deriva dai partners, e in questo modo danno loro la possibilità di fare schede con raffreddamenti custom.
Se direttamente mettessero dissipatori molto più silenziosi & efficaci toglierebbero la possibilità di schede custom, vendute con sovrapprezzo.

Mi rendo conto sia una cosa stupida, ma è l' unica che mi è venuta in mente.

Dumah Brazorf
06-11-2013, 10:03
Probabilmente non ho letto bene... ok non ho letto proprio :stordita:, si parla di ventola cappata al 40-50%, ovviamente nel pannello di controllo c'è un'opzione per sbloccarla al 100% vero? Altrimenti sono pazzi furiosi ad AMD.
Voglio dire, nel 2000 sopportavamo roba come la Delta EHE Ultra, nel 2013 mi bloccano le ventole mandando volutamente la gpu in thermal throttling? Possono anche giurare e spergiurare che sono progettate per resistere a 95°C ma è chiaro come il sole che dureranno meno e probabilmente è quello che vogliono.

Paolo Corsini
06-11-2013, 10:09
Ovviamente da pannello è possibile fissare la velocità di rotazione della ventola manualmente, partendo dal 20% sino al 100% a passi di 1%

Capozz
06-11-2013, 10:15
Probabilmente non ho letto bene... ok non ho letto proprio :stordita:, si parla di ventola cappata al 40-50%, ovviamente nel pannello di controllo c'è un'opzione per sbloccarla al 100% vero? Altrimenti sono pazzi furiosi ad AMD.
Voglio dire, nel 2000 sopportavamo roba come la Delta EHE Ultra, nel 2013 mi bloccano le ventole mandando volutamente la gpu in thermal throttling? Possono anche giurare e spergiurare che sono progettate per resistere a 95°C ma è chiaro come il sole che dureranno meno e probabilmente è quello che vogliono.

Ovviamente si può alzare, ma oltre il 40% la scheda diventa praticamente inutilizzabile.

http://www.youtube.com/watch?v=QQhqOKKAq7o

Un Eurofighter le fa un baffo :asd:

Capisco che vogliano lasciare spazio ai partner, ma un dissipatore del genere è veramente indecente.

TigerTank
06-11-2013, 10:24
Solita tattica...un pò come successo con i processori haswell. Dalle prime recensioni sembravano tutti miracolosi in OC e invece quelli che ad esempio arrivano a 4500Mhz con 1,25V sono tanto fortunati quanto rari.
Cmq dal punto di vista delle temperature queste amd mi ricordano quei fail che furono le prime Fermi Nvidia.

anac
06-11-2013, 10:31
ennesima conferma che la 290 e' la best buy e per la 290x sono 100 euro in piu' buttati

PaulGuru
06-11-2013, 11:10
http://www.hwupgrade.it/news/skvideo/schede-radeon-r9-290x-retail-piu-lente-del-previsto_49557.html

http://www.hwupgrade.it/immagini/amd_loop_gpu.png

La cosa non è una leggerezza se mi va a downcloccare la scheda per ogni picco oltre i 95° stan messi male praticamente stuttering a manetta e inusabilità con Tamb elevate.

Mparlav
06-11-2013, 11:13
ennesima conferma che la 290 e' la best buy e per la 290x sono 100 euro in piu' buttati

Non è una novità: era così anche per le 7950 e le 6950.
Quest'ultime potevi pure "sbloccarle" per farci una 6970 (senza effetti secondari, visto che ne ho 2 così da quasi 3 anni :)

Certo quel dissy delle Hawaii sembra uguale a quello reference delle schede precedenti e non va' più bene.

Io fornirei ai partner il layout standard, la gpu ed il bios di riferimento.
Poi al debutto, lascerei che ognuno esordisca con il proprio dissy e "personalizzazione".
E' stato già fatto in passato, ma mai con la fascia alta.

PaulGuru
06-11-2013, 11:14
Niente di strano, gli esemplari da recensione sono tutti selezionatissimi.
Ricordo il caso "haswell", gli ES inviati alle redazioni prendevano tutti i 4,8GHz erano dei mostriciattoli da overclock. Nel canale "retail" :asd: se becchi l' haswell sfortunello oltre i 4,3GHz proprio non ce lo mandi (a meno di scoperchiare).

Niente di strano che AMD mandi GPU "cherry picked" ai recensori di siti di overclocker's ;)

E questo cosa centra ? :confused:
Stai parlando di "overclock", non di non riuscire a mantenere la frequenza di default, la frequenza con cui vengono fatte le reviews.

Ti faccio notare che siamo quasi in inverno, con 20° di Tamb e già succedono ste cose, che forse non hai inteso che tutto ciò si traduce un stuttering evidente per via dei numerosi picchi negativi di frequenza e ad Agosto cosa farà ? Andrà alla metà della frequenza in modo costante ?

Grandi numeroni nelle reviews e poi quando la compri rimani fregato ?
Dove sono i grandi contestatori della ex GTX 480 ?

skadex
06-11-2013, 11:22
Se fosse presente stuttering in base ai grafici su visti si sarebbero già evidenziati nelle recensioni senza contare che diversi utenti nel forum già la possiedono ma al momento sia recensori che utenti hanno segnalato che non c'è; evidentemente sembrerebbe non influire da questo punto di vista.
Resta da capire la scelta del dissipatore però: ho sono completamente rimbecilliti oppure sono così convinti di avere un mostro di scheda (che ancora non ha presentato tutto il potenziale) da annichilire tutti con le normali varianti custom (con l'incognita mantle in arrivo).
Vedremo a breve immagino perchè arriveranno entro gennaio tutte le risposte senza contare la nuova proposta Nvidia.

TigerTank
06-11-2013, 11:25
E questo cosa centra ? :confused:
Stai parlando di "overclock", non di non riuscire a mantenere la frequenza di default, la frequenza con cui vengono fatte le reviews.

Ti faccio notare che siamo quasi in inverno, con 20° di Tamb e già succedono ste cose, che forse non hai inteso che tutto ciò si traduce un stuttering evidente per via dei numerosi picchi negativi di frequenza e ad Agosto cosa farà ? Andrà alla metà della frequenza in modo costante ?

Grandi numeroni nelle reviews e poi quando la compri rimani fregato ?
Dove sono i grandi contestatori della ex GTX 480 ?

Il punto è che è meglio non fidarsi mai al 100% delle recensioni, perchè spesso basate su pezzi selezionati, ma solo delle prove/esperienze degli utenti che le acquistano e testano. IMHO.

Paolo Corsini
06-11-2013, 11:26
http://www.hwupgrade.it/news/skvideo/schede-radeon-r9-290x-retail-piu-lente-del-previsto_49557.html

http://www.hwupgrade.it/immagini/amd_loop_gpu.png

La cosa non è una leggerezza se mi va a downcloccare la scheda per ogni picco oltre i 95° stan messi male praticamente stuttering a manetta e inusabilità con Tamb elevate.
Lo stuttering lo vedresti dai dati del frame time, e come puoi vedere da quanto ho pubblicato nella recensione non ce n'è

PaulGuru
06-11-2013, 11:54
Lo stuttering lo vedresti dai dati del frame time, e come puoi vedere da quanto ho pubblicato nella recensione non ce n'è
Si ma ad ogni castrazione di frequenza corrisponde un calo di frames, anche se il picco dura 1ms, subisci lo scatto in game.
Se stai andando a 60 o 120 fissi con vsynch ad ogni castrazione scende di frame.

io85
06-11-2013, 11:57
già! inoltre i test non sono stati effettuati in un chassis chiuso, ma su di un banco di prova..per le temperature non è proprio lo stesso, sicuramente nel chassis il caldo si fa più sentire!

calabar
06-11-2013, 12:10
Si ma ad ogni castrazione di frequenza corrisponde un calo di frames, anche se il picco dura 1ms, subisci lo scatto in game.
Se stai andando a 60 o 120 fissi con vsynch ad ogni castrazione scende di frame.
Il calo è molto più graduale di quanto credi, e la variabilità dovuta al tempo di elaborazione dei diversi frame è maggiore di quella data dalla riduzione del clock.
Quindi no, non provoca shuttering, come del resto evidenziato dalla recensione.

già! inoltre i test non sono stati effettuati in un chassis chiuso, ma su di un banco di prova..per le temperature non è proprio lo stesso, sicuramente nel chassis il caldo si fa più sentire!
Al contrario, in un case ben fatto e ben ventilato l'aerazione è migliore.

Crash01
06-11-2013, 12:14
calabar, case ben fatto quanto vuoi..ma su banchetto le temp son più basse :)

Mparlav
06-11-2013, 12:31
calabar, case ben fatto quanto vuoi..ma su banchetto le temp son più basse :)

Dipende.
Possono anche essere più alte.

Un esempio di uso peggiorativo:
http://www.overclockersclub.com/reviews/microcool_banchetto_101/4.htm

il banchetto lo si usa per la comodità di montare/smontare le componenti, ed ovviamente i recensori rientrano tra i principali utilizzatori.

io85
06-11-2013, 12:38
Dipende.
Possono anche essere più alte.

Un esempio di uso peggiorativo:
http://www.overclockersclub.com/reviews/microcool_banchetto_101/4.htm

il banchetto lo si usa per la comodità di montare/smontare le componenti, ed ovviamente i recensori rientrano tra i principali utilizzatori.

il tuo è un esempio, ma ci saranno anche banchetti che migliorano le temperature. comunque, data la natura del test che serviva per capire la temp media della gpu in una sessione gioco, non capisco perchè il test non è stato fatto su un chassis normale che avrebbe dato un risultato più accurato.

PaulGuru
06-11-2013, 12:44
Non giriamoci attorno e non arrampichiamoci sugli specchi, con una scheda così è difficile che un case anche ben areato sia meglio ma anche se fosse cambierebbe poco o nulla perchè il vero problema è che tutto ciò si verifica ora che siamo in inverno ( quasi ), figurati durante la stagione estiva.

E in più c'è da aggiungerci che la ventola già al 50% sembra una turbina.

Non stiamo nemmeno parlando di overclock ma di reggere in modo stabile una frequenza di default, frequenza con cui dovrebbe funzionare alla grande sempre e in qualunque condizione ( salvo casi estremi ).

CrapaDiLegno
06-11-2013, 13:02
La soluzione con la turbo fan può anche avere meno problemi nei case, ma quelle custo open air sicuramente in un case soffriranno di più dato che i 250W e oltre li dissipano dentro. E per quanto sia ventilato, la temperatura interna si alzerà sicuramente di più rispetto a quella ambientale in cui sono testate queste con turbo fan.

La soluzione ideale sarebbe dissipatore open air e banchetto, ma non so quanti abbiano un banchetto a casa per il PC da gioco.

Resta il fatto che le soluzioni presentate sono altamente temperature dipendenti e il dissipatore montato è di una indecenza spropositata portando a variabilità di prestazioni notevoli. Mi piacerebbe sapere come vanno in un case chiuso oggi (e nelle prossime settimane) in Australia.

Paolo Corsini
06-11-2013, 13:18
Si ma ad ogni castrazione di frequenza corrisponde un calo di frames, anche se il picco dura 1ms, subisci lo scatto in game.
Se stai andando a 60 o 120 fissi con vsynch ad ogni castrazione scende di frame.
Vero, ma di quanto? Se l'oscillazione è ampia quetso è visualizzabile a schermo, viceversa no. Vai pure a vedere i grafici del frame time, di microstuttering specifico per le schede R9 290 non ne trovi

CrapaDiLegno
06-11-2013, 14:02
Vero, ma di quanto? Se l'oscillazione è ampia quetso è visualizzabile a schermo, viceversa no. Vai pure a vedere i grafici del frame time, di microstuttering specifico per le schede R9 290 non ne trovi
Le R9 290 con la ventola al 47% sembrano giusto al limite per non subire il throttling, ma le R9 290X al 40% hanno degli andamenti piuttusto "nervosi" e dire che non via sia microstuttering in quelle condizioni significa dire o che la metodologia applicata non li rileva oppure che a 900MHz la scheda produce gli stessi frame di quando va a 700Mhz (o anche meno).

Mparlav
06-11-2013, 14:26
il tuo è un esempio, ma ci saranno anche banchetti che migliorano le temperature. comunque, data la natura del test che serviva per capire la temp media della gpu in una sessione gioco, non capisco perchè il test non è stato fatto su un chassis normale che avrebbe dato un risultato più accurato.

Certo che potresti migliorare, mettendo 1 o più ventole che sparano aria sulle componenti ed evitano il ristagno d'aria, ovviamente a scapito del rumore, visto che non hai "filtri" con l'esterno.
Altri invece, piazzano il banchetto in corrispondenza dello split del condizionatore.

Ma i recensori usano i banchetti per la comodità, sono pochi quelli che testano nei case (se vai in rete, ci sono pure quelli).

PaulGuru
06-11-2013, 14:46
Vero, ma di quanto? Se l'oscillazione è ampia quetso è visualizzabile a schermo, viceversa no. Vai pure a vedere i grafici del frame time, di microstuttering specifico per le schede R9 290 non ne trovi
Se scendi sotto il refresh del monitor anche di 1 frame è sufficiente.

Mparlav
06-11-2013, 15:07
Più che altro credo che il banchetto sia più standard.
Non dovrebbero esserci altri movimenti d'aria se non quelli generati dal hw in esame ovviamente.

Mentre in un case dipende da case a case, alcuni possono peggiorare la situazione perché fanno ristagnare l'aria calda, altri la possono migliorare perché migliorano il flusso d'aria.
Imho il bancheto è più corretto per i test.

Poi nell'uso di tutti i giorni chi mette una 290x (ma anche una 780 o una titan) nella propria macchina deve sapere che sono schede ad alte prestazioni che scaldano tanto e che quindi devono essere messe in un case adeguato.

Sono d'accordo con te.

D'altronde l'hanno capito tutti che le R9 sono schede che consumano da fascia alta; e quando ti metti nel case una scheda da 200 o da 250W, è opportuno prendere tutti i dovuti accorgimenti nella ventilazione del case.

Io col dissy reference non la comprerei, lasciamo lavorare i partner.
Lasciamo che debutti la GTX 780 ti.
E lasciamo che arrivino pure le GTX 780 Ghz edition con lo step B1.

Finalmente dopo mesi di stagnazione e "noia", si profila un periodo interessante per le schede video e per i prezzi :)

PaulGuru
06-11-2013, 15:28
Sono d'accordo con te.

D'altronde l'hanno capito tutti che le R9 sono schede che consumano da fascia alta; e quando ti metti nel case una scheda da 200 o da 250W, è opportuno prendere tutti i dovuti accorgimenti nella ventilazione del case.

Io col dissy reference non la comprerei, lasciamo lavorare i partner.
Lasciamo che debutti la GTX 780 ti.
E lasciamo che arrivino pure le GTX 780 Ghz edition con lo step B1.

Finalmente dopo mesi di stagnazione e "noia", si profila un periodo interessante per le schede video e per i prezzi :)
200-250 ?

La 290x è dichiarata 300W di TDP e 275 per la liscia.
Precauzioni o no il problema non è il case o il banchetto di turno, è il dissipatore venduto assieme alla scheda per raffigurare al meglio la grande qualità costruttiva di queste schede.

Simpatico sentir parlare di precauzioni e giustificazioni per la cosa quando invece per la 480 volavano gli insulti ;)

skadex
06-11-2013, 16:07
E' il gioco delle parti, quando una è più esosa di energia dell'altra la si accusa fino a cambiarsi i ruoli a parti invertite, in Italia succede anche per cose ben più importanti :stordita:
In generale il consumo intorno ai 300 watt non è un problema se si decide di comprare schede di questa fascia (io per principio non lo faccio, mi da fastidio che una scheda abbia tali consumi, è come se si sacrificasse la progettazione per il risultato...magari non è vero ma mi danno sempre questa impressione sia Nvidia che Amd), mentre è vero che da un pò di generazioni a questa parte Amd (che tengo da 2 pc nel mio case sia chiaro visto che ha sempre la best buy in questi ultimi anni) non cura bene nè in termini di calore nè in termini di rumore. In questi casi si deve sempre optare per le custom che in effetti migliorano drasticamente la situazione. In ogni caso come detto il beneficio dal prezzo delle 290x è evidente visto che adesso è possibile prendere anche le 780 a prezzi umani e non mi sembra poco. Con le custom prevedo altri prezzi in discesa e se mantle funziona può succedere di tutto (se invece non va nvidia rialza i prezzi e amd riabbassa di sicuro).

pincapobianco
06-11-2013, 16:16
cioè uno deve spendere poco comprando una scheda AMD rispetto alle più costose Geforce però poi deve accettare tutta una serie di compromessi:

1) la scheda comprata in retail è più lenta di quelle arrivate alle redazioni stampa (tattica di marketing davvero truffaldina)
2) è rumorosa
3) consuma un casino di più di una Geforce
4) è fatta con plastica e altri materiali scadenti
5) ha i classici problemi di drivers delle schede AMD, con tanto di hotfix continui per ogni gioco che esce, crash, errori, bestemmie, attese di patch
6) ha un supporto nello stereo 3D pari quasi a zero, mentre 3D Vision ha un supporto capillare e di alta qualità
7) i giochi Physix hanno sempre dato problemi e ne continuano a dare (in ultimo il recente Batman Arkham Origins)
8) sono tecnologicamente migliori delle Geforce e sempre più veloci delle Geforce ma sempre con tutti i compromessi di cui sopra. Fate voi due conti.

Personalmente, continuerò a comprare Geforce perché AMD non mi ha mai ispirato fiducia e mai me ne ispirerà.

LurenZ87
06-11-2013, 16:22
ragazzi con 10€ e 15 minuti di orologio potrete avere questi risultati...

http://www.hwlegendshack.com/out.php/t7558_tombraider-2013-11-05-12-27-42-482.jpg (http://www.hwlegendshack.com/out.php/i7558_tombraider-2013-11-05-12-27-42-482.jpg)

non credo serva aggiungere altro ;)

Mparlav
06-11-2013, 16:36
200-250 ?

La 290x è dichiarata 300W di TDP e 275 per la liscia.
Precauzioni o no il problema non è il case o il banchetto di turno, è il dissipatore venduto assieme alla scheda per raffigurare al meglio la grande qualità costruttiva di queste schede.

Simpatico sentir parlare di precauzioni e giustificazioni per la cosa quando invece per la 480 volavano gli insulti ;)

Il TDP dichiarato è una cosa, i W sono un'altra, ma questo già lo sapevi.

Ma d'altronde, hai visto forse nei miei post giustificare in qualche modo il dissipatore reference della R9?
Cerca pure, ad iniziare dalla recensione della 290X :)

roccia1234
06-11-2013, 16:43
Ovviamente si può alzare, ma oltre il 40% la scheda diventa praticamente inutilizzabile.

http://www.youtube.com/watch?v=QQhqOKKAq7o

Un Eurofighter le fa un baffo :asd:

Capisco che vogliano lasciare spazio ai partner, ma un dissipatore del genere è veramente indecente.

Porca miseria al 100% :asd: .

Penso di avere un phon più silenzioso :asd:

Albi80
06-11-2013, 17:23
cioè uno deve spendere poco comprando una scheda AMD rispetto alle più costose Geforce però poi deve accettare tutta una serie di compromessi:

1) la scheda comprata in retail è più lenta di quelle arrivate alle redazioni stampa (tattica di marketing davvero truffaldina)
2) è rumorosa
3) consuma un casino di più di una Geforce
4) è fatta con plastica e altri materiali scadenti
5) ha i classici problemi di drivers delle schede AMD, con tanto di hotfix continui per ogni gioco che esce, crash, errori, bestemmie, attese di patch
6) ha un supporto nello stereo 3D pari quasi a zero, mentre 3D Vision ha un supporto capillare e di alta qualità
7) i giochi Physix hanno sempre dato problemi e ne continuano a dare (in ultimo il recente Batman Arkham Origins)
8) sono tecnologicamente migliori delle Geforce e sempre più veloci delle Geforce ma sempre con tutti i compromessi di cui sopra. Fate voi due conti.

Personalmente, continuerò a comprare Geforce perché AMD non mi ha mai ispirato fiducia e mai me ne ispirerà.

Appunto . Queste sono le classiche frasi di uno che non ha mai comprato AMD . :asd: .
... i driver ... :asd:

pincapobianco
06-11-2013, 18:39
Appunto . Queste sono le classiche frasi di uno che non ha mai comprato AMD . :asd: .
... i driver ... :asd:

ho avuto schede Ati/Amd in passato a cominciare dalla 9600 a 64mb nel lontano 2003, poi la X800, poi la 3870, poi la 4870, e infine la 7870. Inoltre un mio amico ha appena comperato la 290x e ha numerosi problemi con i drivers in quasi tutti i giochi. E comunque, le geforce le paghi di più ok, saranno più lente ok, saranno tecnologicamente meno avanzate delle schede amd però a me ispirano più fiducia e non mi hanno mai dato problemi in nessun campo.

LurenZ87
06-11-2013, 18:45
ho avuto schede Ati/Amd in passato a cominciare dalla 9600 a 64mb nel lontano 2003, poi la X800, poi la 3870, poi la 4870, e infine la 7870. Inoltre un mio amico ha appena comperato la 290x e ha numerosi problemi con i drivers in quasi tutti i giochi. E comunque, le geforce le paghi di più ok, saranno più lente ok, saranno tecnologicamente meno avanzate delle schede amd però a me ispirano più fiducia e non mi hanno mai dato problemi in nessun campo.

chi, tuo cuGGGino???

:rotfl: :rotfl: :rotfl:

è da una settimana che sta nel case e ancora non ho avuto un crash, anzi uno, dovuto ai beta7 con BF4 e risolto con i beta8. Chissà quali sono questi "quasi tutti i giochi"...

skadex
06-11-2013, 18:46
cioè uno deve spendere poco comprando una scheda AMD rispetto alle più costose Geforce però poi deve accettare tutta una serie di compromessi:

1) la scheda comprata in retail è più lenta di quelle arrivate alle redazioni stampa (tattica di marketing davvero truffaldina)
2) è rumorosa
3) consuma un casino di più di una Geforce
4) è fatta con plastica e altri materiali scadenti
5) ha i classici problemi di drivers delle schede AMD, con tanto di hotfix continui per ogni gioco che esce, crash, errori, bestemmie, attese di patch
6) ha un supporto nello stereo 3D pari quasi a zero, mentre 3D Vision ha un supporto capillare e di alta qualità
7) i giochi Physix hanno sempre dato problemi e ne continuano a dare (in ultimo il recente Batman Arkham Origins)
8) sono tecnologicamente migliori delle Geforce e sempre più veloci delle Geforce ma sempre con tutti i compromessi di cui sopra. Fate voi due conti.

Personalmente, continuerò a comprare Geforce perché AMD non mi ha mai ispirato fiducia e mai me ne ispirerà.

Non mi pare sia così:
1) non si sa, se devo stare a quanto dicono gli utenti nel forum sembrerebbe di no o comunque in maniera irrilevante.
2) questo è vero, ma la custom costerà nn molto di più se non si vuole prendere un dissi in proprio per la garanzia.
3) non tanto vero, consuma un pò di più ma niente di straordinario rispetto alla sua rivale diretta.
4) Può darsi, non conosco tutto ciò che hanno usato perciò non mi esprimo
5) Sarà da 5 anni che leggo di questa leggenda e temo non morirà mai; ci sono problemi tanto quanto con le schede Nvidia; io non ne ho MAI avuti su tanti sistemi provati.
6) non mi esprimo, non conosco l'argomento
7)Physix è proprietaria Nvidia che significa ? E' come dire che in tomb raider le Nvidia vanno male con Tress Fx più tutti i problemi avuti con la prima versione del gioco. Questo fa dire che Nvidia fa schede orrende ? Speriamo piuttosto che le strategie di marketing non ci portino a scenari come nei primi anni 2000 altrimenti rimpiangeremo di brutto la situazione attuale.
8) Vero per quanto riguarda rumore e calore nelle ultime 2 generazioni (hd6*** e hd7***) ma è altrettanto vero che le custom hanno più valore per Amd che per Nvidia e si annulla completamente lo svantaggio pur rimanendo la differenza di prezzo in genere decisamente a vantaggio di Amd.
Il tutto per dire: non c'è alcun compromesso se non quello di attendere schede che abbiano un dissi come si deve (non si capisce in effetti questa strategia autolesionista e qui concordo), dopodichè la scelta è puramente personale.

sweetlou
06-11-2013, 19:35
Tempo qualche settimana e arriveranno sul mercato le varie Windforce, DirectCu etc 15-20 C° in meno e rumorosità decisamente minore;quelle col dissy reference hanno senso solo per quanti le metteranno a liquido

calabar
06-11-2013, 19:39
Se scendi sotto il refresh del monitor anche di 1 frame è sufficiente.
Si scende al di sotto delle soglie di refresh in ogni caso, i frame hanno tempi di elaborazione differenti e gli fps salgono e scendono. Quindi dove sta il problema?

Il turbo basato sulla temperatura consente anzi di sfruttare meglio la scheda, ottenendo prestazioni superiori a quanto otterresti con una frequenza fissa che ti costringerebbe ad essere più conservativo.

Albi80
06-11-2013, 20:04
ho avuto schede Ati/Amd in passato a cominciare dalla 9600 a 64mb nel lontano 2003, poi la X800, poi la 3870, poi la 4870, e infine la 7870. Inoltre un mio amico ha appena comperato la 290x e ha numerosi problemi con i drivers in quasi tutti i giochi. E comunque, le geforce le paghi di più ok, saranno più lente ok, saranno tecnologicamente meno avanzate delle schede amd però a me ispirano più fiducia e non mi hanno mai dato problemi in nessun campo.

Fammi capire .Nonostante tu abbia continuato e continuerai a comprare Nvidia , hai avuto quasi tutte le generazioni AMD ? E hai soprasseduto ai tremendi problemi di AMD con i suoi driver ? E hai dovuto destreggiarti tra il mare di driver fix che escono quotidianamente ?

PaulGuru
06-11-2013, 22:16
Fammi capire .Nonostante tu abbia continuato e continuerai a comprare Nvidia , hai avuto quasi tutte le generazioni AMD ? E hai soprasseduto ai tremendi problemi di AMD con i suoi driver ? E hai dovuto destreggiarti tra il mare di driver fix che escono quotidianamente ?
C'è gente a cui il masochismo piace.

CrapaDiLegno
06-11-2013, 23:03
Si scende al di sotto delle soglie di refresh in ogni caso, i frame hanno tempi di elaborazione differenti e gli fps salgono e scendono. Quindi dove sta il problema?
Il problema sta quando la variazione è oscillante. La diminuzione dei frame in maniera lenta perché la scena cambia lentamente è sopportabile (e spesso non percepibile) ma quando ti ritrovi ad andare a scatti (microstuttering) la cosa è piuttosto fastidiosa.
E una GPU che passa da 950MHz a meno di 700 è quasi certo che genererà stuttering. Se non lo fa, come detto, o il sistema di rilevazione è errato o la scheda è inutile che vada a 950Hz che tanto genera gli stessi frame a 700MHz.

Il turbo basato sulla temperatura consente anzi di sfruttare meglio la scheda, ottenendo prestazioni superiori a quanto otterresti con una frequenza fissa che ti costringerebbe ad essere più conservativo.
Se il turbo funzionasse come tale direi di sì, ma se il turbo funziona al contrario cioè si rallenta la scheda in modo repentino quando esce dai parametri termici impostati) allora non è un vantaggio. Il turbo serve per andare a 35FPS invece che rimanere sulla soglia dei 30 (faccio un esempio). E' un vantaggio. L'andare da 35 a 28 e poi tornare a 34 e poi scendere a 27 e poi risalire a 35 e così via in pochi secondi non fa del turbo un vantaggio, ma una scocciatura. Meglio allora impostare 30 fissi e andare lisci. La variazione del frame rate è più fastidiosa di un frame rate più basso ma costante. Che è il principio per cui il Crossfire è sotto accusa: genera più frame medi sulla carta ma poi nella realtà da fastidio l'altalena continua.

@Albi80
La questione di driver di AMD non è una cosa storica ormai passata e dimenticata. Chi non ha mai provato una scheda nvidia certamente non capisce la differenza.
La prova è appunto la questione dello stuttering. C'è gente che ha spergiurato per anni che il crossfire non avesse alcun problema per poi accorgersi che invece al confronto con la soluzione nvidia mostra decisamente qualche mancanza. E più di una.
Però fino a che qualcuno non lo ha denunciato pubblicamente tutti a spergiurare che "2 schede il meil che one" (giusto per ripetere le stesse cose che dice il marketing AMD) senza aver mai verificato che la soluzione mono GPU monolitica mattonella succhiaenergia (rispetto alla singola GPU AMD) di nvidia non solo ha sempre reso meglio anche se molti (quelli che hanno sempre spergiurato che di problemi con i driver AMD non ce n'erano) non capivano perché costasse così tanto (e nvidia riusciva a venderle senza problemi rispetto alle soluzioni dual di AMD che sulla carta avevano le barrette molto più lunghe).

Oggi è ancora così: AMD non ha problemi, i driver funzionano bene come quelli nvidia, è una storia vecchia trita e ritrita, non è vero, sono anni che sono alla pari etc... etc... per poi scoprire che non è affatto così.
Sul desktop ho nvidia, mai un crash (e dico mai) in 5 e rotti anni che uso questa scheda, su un portatile abbastanza vecchio ho l'integrata Intel e mai un problema, sul portatile da lavoro ho una AMD e ogni tanto il driver crasha e deve riavviarsi Exploer. E non uso giochi lì.
Il tuo portatile o desktop con GPU AMD funziona bene? Son contento per te. Il mio prossimo non monterà una scheda AMD di certo. 20 euro in più e risolvo a monte tutti i problemi.
Va bene essere morti di fame, ma non a quel punto. Almeno nel mio caso. Tu continua pure a credere di essere al passo con il restante 2/3 della popolazione che usa un PC con VGA discreta. L'autoconvinzione può essere un rimedio. Se non funzionasse, magari prova le soluzioni alternative. Potresti scoprire un mondo diverso, anche se purtroppo ti costeranno 20 euro in più.

[quote]C'è gente a cui il masochismo piace./quote]
Oppure ha creduto alternativamente a chi ti diceva che i driver erano a posto o a quelli che lo sarebbero stati da lì a poco (credo di aver sentito l'affermazione i-prossimi-driver-risolveranno-i-problemi-sulle-schede-AMD continuamente da quando AMD ha acquistato ATI nel lontano 2006).
Io ancora sto aspettando che sia così. Tra un po' vado in pensione però... be', se non allungano ancora l'età pensionabile :D

leonardo73
07-11-2013, 01:28
Personalmente, continuerò a comprare Geforce perché AMD non mi ha mai ispirato fiducia e mai me ne ispirerà.

ma te non eri quello che non giocava su pc?
http://www.hwupgrade.it/forum/showthread.php?p=40196199#post40196199

o eri ironico di la, o stai bellamente trollando

pincapobianco
07-11-2013, 04:40
[QUOTE=CrapaDiLegno;40235062]

La questione di driver di AMD non è una cosa storica ormai passata e dimenticata. Chi non ha mai provato una scheda nvidia certamente non capisce la differenza.
La prova è appunto la questione dello stuttering. C'è gente che ha spergiurato per anni che il crossfire non avesse alcun problema per poi accorgersi che invece al confronto con la soluzione nvidia mostra decisamente qualche mancanza. E più di una.
Però fino a che qualcuno non lo ha denunciato pubblicamente tutti a spergiurare che "2 schede il meil che one" (giusto per ripetere le stesse cose che dice il marketing AMD) senza aver mai verificato che la soluzione mono GPU monolitica mattonella succhiaenergia (rispetto alla singola GPU AMD) di nvidia non solo ha sempre reso meglio anche se molti (quelli che hanno sempre spergiurato che di problemi con i driver AMD non ce n'erano) non capivano perché costasse così tanto (e nvidia riusciva a venderle senza problemi rispetto alle soluzioni dual di AMD che sulla carta avevano le barrette molto più lunghe).

Oggi è ancora così: AMD non ha problemi, i driver funzionano bene come quelli nvidia, è una storia vecchia trita e ritrita, non è vero, sono anni che sono alla pari etc... etc... per poi scoprire che non è affatto così.
Sul desktop ho nvidia, mai un crash (e dico mai) in 5 e rotti anni che uso questa scheda, su un portatile abbastanza vecchio ho l'integrata Intel e mai un problema, sul portatile da lavoro ho una AMD e ogni tanto il driver crasha e deve riavviarsi Exploer. E non uso giochi lì.
Il tuo portatile o desktop con GPU AMD funziona bene? Son contento per te. Il mio prossimo non monterà una scheda AMD di certo. 20 euro in più e risolvo a monte tutti i problemi.
Va bene essere morti di fame, ma non a quel punto. Almeno nel mio caso. Tu continua pure a credere di essere al passo con il restante 2/3 della popolazione che usa un PC con VGA discreta. L'autoconvinzione può essere un rimedio. Se non funzionasse, magari prova le soluzioni alternative. Potresti scoprire un mondo diverso, anche se purtroppo ti costeranno 20 euro in più.

C'è gente a cui il masochismo piace./quote]
Oppure ha creduto alternativamente a chi ti diceva che i driver erano a posto o a quelli che lo sarebbero stati da lì a poco (credo di aver sentito l'affermazione i-prossimi-driver-risolveranno-i-problemi-sulle-schede-AMD continuamente da quando AMD ha acquistato ATI nel lontano 2006).
Io ancora sto aspettando che sia così. Tra un po' vado in pensione però... be', se non allungano ancora l'età pensionabile




concordo con ogni singola parola che hai detto. Finalmente qualcuno che dice le cose come stanno senza peli sulla lingua. E quanto mi è piaciuta la frase che ti ho messo in grassetto :asd:

!fazz
07-11-2013, 09:02
Il problema sta quando la variazione è oscillante. La diminuzione dei frame in maniera lenta perché la scena cambia lentamente è sopportabile (e spesso non percepibile) ma quando ti ritrovi ad andare a scatti (microstuttering) la cosa è piuttosto fastidiosa.
E una GPU che passa da 950MHz a meno di 700 è quasi certo che genererà stuttering. Se non lo fa, come detto, o il sistema di rilevazione è errato o la scheda è inutile che vada a 950Hz che tanto genera gli stessi frame a 700MHz.


Se il turbo funzionasse come tale direi di sì, ma se il turbo funziona al contrario cioè si rallenta la scheda in modo repentino quando esce dai parametri termici impostati) allora non è un vantaggio. Il turbo serve per andare a 35FPS invece che rimanere sulla soglia dei 30 (faccio un esempio). E' un vantaggio. L'andare da 35 a 28 e poi tornare a 34 e poi scendere a 27 e poi risalire a 35 e così via in pochi secondi non fa del turbo un vantaggio, ma una scocciatura. Meglio allora impostare 30 fissi e andare lisci. La variazione del frame rate è più fastidiosa di un frame rate più basso ma costante. Che è il principio per cui il Crossfire è sotto accusa: genera più frame medi sulla carta ma poi nella realtà da fastidio l'altalena continua.

@Albi80
La questione di driver di AMD non è una cosa storica ormai passata e dimenticata. Chi non ha mai provato una scheda nvidia certamente non capisce la differenza.
La prova è appunto la questione dello stuttering. C'è gente che ha spergiurato per anni che il crossfire non avesse alcun problema per poi accorgersi che invece al confronto con la soluzione nvidia mostra decisamente qualche mancanza. E più di una.
Però fino a che qualcuno non lo ha denunciato pubblicamente tutti a spergiurare che "2 schede il meil che one" (giusto per ripetere le stesse cose che dice il marketing AMD) senza aver mai verificato che la soluzione mono GPU monolitica mattonella succhiaenergia (rispetto alla singola GPU AMD) di nvidia non solo ha sempre reso meglio anche se molti (quelli che hanno sempre spergiurato che di problemi con i driver AMD non ce n'erano) non capivano perché costasse così tanto (e nvidia riusciva a venderle senza problemi rispetto alle soluzioni dual di AMD che sulla carta avevano le barrette molto più lunghe).

Oggi è ancora così: AMD non ha problemi, i driver funzionano bene come quelli nvidia, è una storia vecchia trita e ritrita, non è vero, sono anni che sono alla pari etc... etc... per poi scoprire che non è affatto così.
Sul desktop ho nvidia, mai un crash (e dico mai) in 5 e rotti anni che uso questa scheda, su un portatile abbastanza vecchio ho l'integrata Intel e mai un problema, sul portatile da lavoro ho una AMD e ogni tanto il driver crasha e deve riavviarsi Exploer. E non uso giochi lì.
Il tuo portatile o desktop con GPU AMD funziona bene? Son contento per te. Il mio prossimo non monterà una scheda AMD di certo. 20 euro in più e risolvo a monte tutti i problemi.
Va bene essere morti di fame, ma non a quel punto. Almeno nel mio caso. Tu continua pure a credere di essere al passo con il restante 2/3 della popolazione che usa un PC con VGA discreta. L'autoconvinzione può essere un rimedio. Se non funzionasse, magari prova le soluzioni alternative. Potresti scoprire un mondo diverso, anche se purtroppo ti costeranno 20 euro in più.


C'è gente a cui il masochismo piace.
Oppure ha creduto alternativamente a chi ti diceva che i driver erano a posto o a quelli che lo sarebbero stati da lì a poco (credo di aver sentito l'affermazione i-prossimi-driver-risolveranno-i-problemi-sulle-schede-AMD continuamente da quando AMD ha acquistato ATI nel lontano 2006).
Io ancora sto aspettando che sia così. Tra un po' vado in pensione però... be', se non allungano ancora l'età pensionabile :D

5g per flame

!fazz
07-11-2013, 09:02
...
concordo con ogni singola parola che hai detto. Finalmente qualcuno che dice le cose come stanno senza peli sulla lingua. E quanto mi è piaciuta la frase che ti ho messo in grassetto :asd:
allora ti piace pure la sanzione

!fazz
07-11-2013, 09:06
@all al prossimo accenno di flame, di post non strettamente in topic si sanziona direttamente

tuttodigitale
07-11-2013, 09:54
la scheda comprata in retail è più lenta di quelle arrivate alle redazioni stampa (tattica di marketing davvero truffaldina)
Partiamo da un fatto certo: le AMD r9 290x destinate alla stampa non hanno mai superato 1GHz di clock. E fino a prova contraria tutte le r9 290x possono raggiungere questa frequenza, anche se con una rumorosità maggiore o con minor frequenza.
Nvidia, non dichiara un limite superiore. Nel caso di GTX680 inviate alla stampa ci sono state schede che sfioravano i 1200 MHz e schede che si sono fermate ad un più tranquillo 1095 (qui su Hwupgrade), in tutti i casi superiori ai 1058 dichiarati. Se hai comprato una scheda che non va più di 1058MHz non puoi farci niente. Per questo non sono un fans della tecnologia turbo-core sulle gpu. Guadagni si o no il 5% di prestazioni, ma non dai prestazioni certe all'acquirente (nel caso della GTX680 tra un ottima scheda e una che semplicemente rispetta le specifiche ci passa il 15% di prestazioni)


2) è rumorosa
balle. In quiet-mode, tanto basta per superare di slancio la GTX780, non lo è.
http://tpucdn.com/reviews/AMD/R9_290X/images/fannoise_load.gif

consuma un casino di più di una Geforce
consuma un casino. Punto. Non sono i 28W che li separa dalla Titan che rendono la 290x inefficiente o rendono le Geforce top di gamma delle schede ecologiche.


ha i classici problemi di drivers delle schede AMD, con tanto di hotfix continui per ogni gioco che esce, crash, errori, bestemmie, attese di patch
:mc:

Ale55andr0
07-11-2013, 11:07
e-d-i-t

calabar
10-11-2013, 10:50
Il problema sta quando la variazione è oscillante. La diminuzione dei frame in maniera lenta perché la scena cambia lentamente è sopportabile (e spesso non percepibile) ma quando ti ritrovi ad andare a scatti (microstuttering) la cosa è piuttosto fastidiosa.
E una GPU che passa da 950MHz a meno di 700 è quasi certo che genererà stuttering.
C'è un solo piccolo problema: sei smentito dai fatti.
Corsini ha detto più volte come la scheda non mostri microshuttering, e la cosa la si può vedere chiaramente dai grafici (che, ti ricordo, utilizzano una metodologia introdotta da Nvidia).

Ripeto: la variabilità introdotta dai tempi differenti di calcolo dei frame è superiore a quella dovuta alle variazioni di frequenza. Quindi l'incidenza di quest'ultima è relativa.

Se il turbo funzionasse come tale direi di sì, ma se il turbo funziona al contrario cioè si rallenta la scheda in modo repentino quando esce dai parametri termici impostati) allora non è un vantaggio.
Guarda che è la stessa identica cosa.
Dire che la scheda va a 1ghz e poi scende se la temperatura è troppo elevata o dire che va a 800 mhz e sale se la temperatura lo permette sono due modi diversi per descrivere la stessa identica cosa.
Senza questo turbo la scheda (dell'esempio) sarebbe stata cloccata a 800 mhz fissi e sarebbe stata più lenta, perchè non sarebbe stata sfruttata nei momenti in cui la temperatura lo permetteva.

EDIT: oops pardon, non avevo visto la sospensione.

anac
11-11-2013, 15:44
problema in parte risolti da quello che hanno scritto oggi su tom's la soluzione è stata di aumentare la velocità di rotazione delle ventole .......
anche con questo trucchetto di amd c'è ancora una differenza del 6% sulla scheda mandata per la recensione e quella comprata in negozio ......