View Full Version : Sapphire Tri-X R9 290X OC: la scheda custom con GPU Hawaii
Redazione di Hardware Upg
12-02-2014, 17:14
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/3918/sapphire-tri-x-r9-290x-oc-la-scheda-custom-con-gpu-hawaii_index.html
Grazie all'utilizzo di un sistema di raffreddamento custom, indicato da Sapphire con il nome di Tri-X, la scheda R9 290X OC permette di ottener eprestzioni velocistiche superiori alla reference board AMD con temperature e rumorosità ben più contenute. Ecco la ricetta, in termini di design della scheda, per il chip Hawaii
Click sul link per visualizzare l'articolo.
Ale55andr0
12-02-2014, 17:38
gran bella scheda
MuadDibb
12-02-2014, 17:53
Potremmo dire che... E' questa la 290X!!
Le nostre "Reference" sono, x cosi dire, delle Low Cost!! :D :D :D :D
Ale55andr0
12-02-2014, 18:08
mi sfugge una cosa: nella rece si fa riferimento a trixx per l'overclock, ma non viene detto se si è reso necessario, oltre al +20% nel "power tune", agire anche overvoltando o meno la gpu, e se no, perchè non si è agito via CCC visto che power tune e clock sono settabili anche da li se non si toccano voltaggi
giubox360
12-02-2014, 18:47
di gran lunga meglio una amd 290 MSI gaming o la Asus dc II che hanno PCB custom e sono meno ingombranti!;)
dav1deser
12-02-2014, 19:00
@Corsini
Attenzione ai colori dei grafici, anche in una stessa pagina i colori delle linee dei grafici non rappresentano sempre la stessa scheda, esempio in metro 2033, nel grafico FPS la 780ti è arancione, nel grafico percentile è verde. Certo, non è un errore, ma non aiuta la leggibilità.
E a quando i test in crossfire? C'è ancora da rispondere alla domanda di come vanno le schede in CF su PCI-Ex 2.0 (visto che si diceva che il nuovo sistema di crossfire era permesso dalla banda del PCI-Ex 3.0).
mi sfugge una cosa: nella rece si fa riferimento a trixx per l'overclock, ma non viene detto se si è reso necessario, oltre al +20% nel "power tune", agire anche overvoltando o meno la gpu, e se no, perchè non si è agito via CCC visto che power tune e clock sono settabili anche da li se non si toccano voltaggi
hm loro nell'overclock non hanno mai toccato i voltaggi, quindi direi che cosi va benissimo. imho nei fps non so ancora se sarebbe buona cosa mettere anche i max fps o meno, dato che non costerebbe loro niente
Ale55andr0
12-02-2014, 19:37
a quel punto non capisco perchè non occare dal ccc, a meno che non permetta di impostare la gpu 1130mhz :confused:
Finalmente la 290X che tutti aspettavano, con l'unica pecca di essere uscita tardivamente.
Non ho capito, e non mi sembra sia spiegato, perché nel test Alien VS Predator la scheda si mantiene fissa a 1040Mhz con linee praticamente piatte e temperatura di circa 73°C mentre nel test Furmark pur rimanendo tra i 74-75°C la frequenza parte direttamente intorno ai 950Mhz (anche subito all'inizio che praticamente è a 50°C) e va così per tutto il test.
Visto che è ben lontana dalla temperatura di 95°C in cui interviene il Thermal Throttle....
dav1deser
12-02-2014, 22:12
Non ho capito, e non mi sembra sia spiegato, perché nel test Alien VS Predator la scheda si mantiene fissa a 1040Mhz con linee praticamente piatte e temperatura di circa 73°C mentre nel test Furmark pur rimanendo tra i 74-75°C la frequenza parte direttamente intorno ai 950Mhz (anche subito all'inizio che praticamente è a 50°C) e va così per tutto il test.
Visto che è ben lontana dalla temperatura di 95°C in cui interviene il Thermal Throttle....
Questione di Power limit/protezione driver contro i software di stress
Ok ma sta quasi come la uber che però sfiora i 95°C... o è troppo conservativa una o è troppo poco conservativa l'altra...
L'articolo sostiene che a 1030MHz durante 5 bench di Alien vs predators si verifichi il throttling dovuto alle temperature..la domanda è: questo è dovuto alla gestione delle ventole impostata su "quiet"? Impostando una curva/andamento manuale delle ventole, si eviterebbe? Mi auguro che sia così :p
Che senso ha usare furmark!? :mbe: :mbe: :mbe:
dobermann77
13-02-2014, 07:23
Ma la recensione di Kaveri? :D
iorfader
13-02-2014, 08:11
ma perchè avete impostato metro soltanto su high? potete maxare tutto e mettere ssa 0.5x e vi andrà ugualmente a 60fps a quella risoluzione o comunque 55 minimo, testato di persona con una reference
per quanto riguarda crysis 3, per elevata, intendete high o very high? cioè questo è una testata per appassionati, date i termini giusti alle cose, dubito fortemente che un utente medio(che credo vogliate raggiungere quando limate i termini) si sprechi a comprare una scheda di queste.
Goofy Goober
13-02-2014, 08:24
di gran lunga meglio una amd 290 MSI gaming o la Asus dc II che hanno PCB custom e sono meno ingombranti!;)
ne sei sicuro?
ho visto le la Tri-X è l'unica che tiene i VRM molto freschi tra queste custom...
Goofy Goober
13-02-2014, 09:19
il sensore sui vrm non è messo come sulle altre, ma i vrm sono raffreddati. ci sarà da fidarsi?
Avevo letto la stessa cosa, ma appunto, chi si fida?
Strano che degli ingegneri non abbiano pensato a mettere il sensore per mostrare quanto "bene" lavora il loro dissipatore.
devilred
13-02-2014, 09:28
eprestzioni velocistiche corregete nu se po' vede'
Tratto dall'articolo:
Tutto questo con un costo addizionale di circa 50,00€ rispetto a quanto vengono proposte le schede Radeon R9 290X basate sulla reference board AMD, cifra a nostro avviso più che giustificata dal rendimento del sistema di raffreddamento.
Cifra più che giustificata? A me sembra un tantino esagerata come differenza.
Qui abbiamo una scheda con un dissipatore diverso, quindi togli il costo del dissipatore originale (che ovviamente non paghi in quanto non c'è) che quanto potrà costare, se lo dovessi comprare, tra i 30 e 40 euro? Non so non ne ho idea. Comunque con queste cifre vuol dire che per questo dissipatore si paga 80-90 euro... :eekk:
Resta comunque una turbina dentro il case, con quei valori di rumorosità...
Invece qualcuno sa spiegarmi come mai sotto carico consumi 33W in meno della reference con BIOS uber, sebbene sia overclockata? Non è possibile sia tutto merito del sistema di raffreddamento più efficiente...
dado1979
13-02-2014, 15:01
di gran lunga meglio una amd 290 MSI gaming o la Asus dc II che hanno PCB custom e sono meno ingombranti!;)
Eh si... il problema principale di queste schede R9 290 290X è l'ingombro... ma che dite?!?!
Il problema era la temperatura delle reference unita alla loro variabilità... cosa vuoi che cambi avere una scheda top 2 cm + o meno lunga?
jotaro75
13-02-2014, 15:13
scusate ma io non ho capito di che prezzo si parla per questa scheda...
dado1979
13-02-2014, 15:17
Parte da 390 euro la R9 290 Tri-X e 470 euro la R9 290X Tri-X
jotaro75
13-02-2014, 17:12
Parte da 390 euro la R9 290 Tri-X e 470 euro la R9 290X Tri-X
grazie ;)
dissipatore migliore, montato a regola d'arte ed in garanzia. Su una reference costa uguale, ma te lo devi montare tu, invalidare la garanzia e poi puoi godere della vendita del dissipatore originale che tutti accorreranno a comprare a peso d'oro :sofico:
Già, ma la mia 290 Shappire reference con bios della Tri-x e accelero Extreme 3 a 1040-1300 mhz in full con ventole in auto (dagli 800 ai 1100 giri circa) praticamente impossibile da sentire anche se ci metti l'orecchio vicino sta a 60-62 gradi massimo, ovviamente senza overvoltare.
Se metto le ventole dell'accelero al 100% (rumore molto basso o comunque di molto inferiore a queste custom) con overvolt di +100 e anche +125 millivolt, vado anche a 1230-1500 mhz senza il minimo artefatto e con temperatura massima di 70/72 gradi.
Pertanto mi spiace ma preferisco nettamente la reference + accelero.
Peraltro sta per essere messo in commercio l'accelero extreme 4 (circa 70 euro) che è specifico per la serie r-290/x e ha una piastra dissipante anche per memorie e vrm e ha un efficienza ovviamente di molto superiore a questi dissipatori custom.
Per il discorso perdita garanzia non posso obbiettare, ma una volta assicuratosi che la scheda funziona bene, ovvero passato il periodo di garanzia l'accelero è su un altro pianeta per rumorosità e prestazioni.
Bye
mhmh turbina.... fa meno rumore delle nvidia reference che sono date per silenziose (e lo sono).
per il discorso consumi... credo sia legato al fatto che non essendoci drop di frequenze il consumo è più lineare di una scheda che fa sali e scendi
È proprio questo il fatto, sta alla pari di una nvidia reference, il che vuol dire che non può competere con un nvidia custom. Mi aspettavo facesse un pelino meglio quel mammoccione con tre ventole sopra la vga :D
Che intendi con consumo più lineare?
mirkonorroz
13-02-2014, 21:05
Anche per me andava aggiunta una tra le migliori custom nvidia (che non so quale sia), per un confronto piu' diretto (ma anche comodo) soprattutto su temperature e consumi (nella tabellina dei consumi non c'e' nemmeno la nvidia di questa comparativa). Lo so che poi per molti i consumi non contano etc. etc.
giavial non ho detto che l'accelero fa schifo ho solo detto che 50 euro per una custom non sono una truffa considerando tutto.
graal92 le reference nVidia montano dissipatori tosti e puoi fare il confronto quando vuoi ci sono le dcuII sia 290x che 780ti.
consumo lineare... mhmg intendo che forse con voltaggi e frequenze fisse consuma di meno che con voltaggi e frequenze che fanno sali e scendi spesso, solo una mia teoria eh
Son d'accordo, non ero polemico, volevo portare la mia esperienza personale perché alcuni potrebbero pensare che il dissipatore custom in argomento sia uguale per prestazioni all'accelero essendo anche questo triventola e simile per dimensioni.
Circa il dissipatore della Asus Direct CU II, parlo per esperienza avendolo avuto sulla mia ex 7970, nutro dubbi circa le prestazioni e soprattutto il rumore che secondo me sarà superiore a quello della Shappire triventola.
Bye
tuttodigitale
14-02-2014, 15:57
È proprio questo il fatto, sta alla pari di una nvidia reference, il che vuol dire che non può competere con un nvidia custom. Mi aspettavo facesse un pelino meglio quel mammoccione con tre ventole sopra la vga :D
pari? ma ne sei proprio sicuro?
http://www.hwupgrade.it/articoli/skvideo/3918/rumore_full.png
secondo questi grafici una gtx780Ti reference produce un rumore che ha la stessa intensità di 3 r9 290x custom.
Ed evidenza anche il fatto che la r9 290x in modalità quiet non è rumorosa.
Invece qualcuno sa spiegarmi come mai sotto carico consumi 33W in meno della reference con BIOS uber, sebbene sia overclockata? Non è possibile sia tutto merito del sistema di raffreddamento più efficiente...
consumo lineare... mhmg intendo che forse con voltaggi e frequenze fisse consuma di meno che con voltaggi e frequenze che fanno sali e scendi spesso, solo una mia teoria eh
quelli di techpowerup con la reference impostata in modalità uber hanno rivelato consumi inferiori rispetto alla modalità quiet....latua teoria non è per niente campata in aria
http://tpucdn.com/reviews/AMD/R9_290X/images/power_average.gif
pari? ma ne sei proprio sicuro?
secondo questi grafici una gtx780Ti reference produce un rumore che ha la stessa intensità di un crossfire di 3 r9 290x custom.
Ed evidenza anche il fatto che la r9 290x in modalità quiet non è rumorosa.
Si pero tieni conto che una 780ti la si overclocca facilmente intorno ai 1200-1250mhz rimanendo temperature e rumorosità praticamente invariate... Quindi il boost prestazionale è nettamente a favore di Nvidia in questa fascia...
Addirittura anche una 780 tenuta a 1250 nel gaming se la cava leggermente meglio di queste R9 290/290X...
Spero che AMD nella prossima generazione con il nuovo processo produttivo migliori l'efficenza del chip in quanto attualmente sono potenti ma poco efficienti dal punto di vista temperature consumi e overclock...
la 290x non è la scheda più veloce è chiaro. E' una scheda che con i giusti correttivi in termini di dissipazione si avvicina molto ad una 780ti (tra default e default oppure oc ed oc) costando sensibilmente meno a fronte di un consumo di corrente superiore. Ognuno faccia la scelta che reputa pìù opportuna :)
Rimarrebbe il particolare che mi fa da molto tempo propendere per AMD e non per Nvidia, la qualità grafica intesa come purezza e brillantezza colori. Provare per credere, anche smanettando con tutti i settaggi che vorrete non saranno mai così limpidi e vivaci i colori nvidia. Leggevo di un utente che la pensa come me che ha fatto le prove con i video proiettori e con nvidia vede malissimo e sbiadito pur avendo alzato al massimo la relativa regolazione di nitidezza, mentre con amd vede in maniera ottimale anche a metà scala.
Dalla parte di nvidia (visto che poi le prestazioni si equivalgono più o meno)io sono del parere che c'è il physx e forse una maggiore semplicità di settaggio e compatibilità driver. Anche per la fluidità in singola gpu le due marche si equivalgono ormai.
Negativissima secondo me da parte di Nvidia è la gestione delle feature proprietarie come appunto il physx, dato che è arrivata al punto di costringere le software house a porre blocchi software che impediscano l'uso dell'hybrid physx agli utenti misto AMD-Nvidia, penalizzando di fatto i compratori anche di proprio hardware. Perché se permettete io che ho acquistato pur sempre una 640 GT non posso utilizzare la fisica hardware sui nuovi titoli come AC4 e Batman Arkham Origins.
Infine ricordo che solo grazie all'uscita della serie 290 i prezzi di Nvidia per le Titan e per le 780 sono scesi dalle assurde vette in cui erano.
Rimarrebbe il particolare che mi fa da molto tempo propendere per AMD e non per Nvidia, la qualità grafica intesa come purezza e brillantezza colori. Provare per credere, anche smanettando con tutti i settaggi che vorrete non saranno mai così limpidi e vivaci i colori nvidia. Leggevo di un utente che la pensa come me che ha fatto le prove con i video proiettori e con nvidia vede malissimo e sbiadito pur avendo alzato al massimo la relativa regolazione di nitidezza, mentre con amd vede in maniera ottimale anche a metà scala.
Dalla parte di nvidia (visto che poi le prestazioni si equivalgono più o meno)io sono del parere che c'è il physx e forse una maggiore semplicità di settaggio e compatibilità driver. Anche per la fluidità in singola gpu le due marche si equivalgono ormai.
Negativissima secondo me da parte di Nvidia è la gestione delle feature proprietarie come appunto il physx, dato che è arrivata al punto di costringere le software house a porre blocchi software che impediscano l'uso dell'hybrid physx agli utenti misto AMD-Nvidia, penalizzando di fatto i compratori anche di proprio hardware. Perché se permettete io che ho acquistato pur sempre una 640 GT non posso utilizzare la fisica hardware sui nuovi titoli come AC4 e Batman Arkham Origins.
Infine ricordo che solo grazie all'uscita della serie 290 i prezzi di Nvidia per le Titan e per le 780 sono scesi dalle assurde vette in cui erano.
Per i colori non mi risulta, non mi pare ci siano mai state variazioni tangibili tra i due produttori e ad essere onesto è la prima volta che sento una cosa del genere...
Il Physx è una tecnologia proprietaria di nvidia esattamente come sta facendo AMD attualmente con Mantle quindi personalmente, non mi lamento se la società che ha sviluppato e investito per una determinata funzionalità successivamente decida di tenerla proprietaria piuttosto che svenderla...
E non credo che con Mantle AMD faccia diversamente...
In realtà i prezzi erano scesi da prima, verso ottobre addirittura ci sono state promozioni in cui vendevano le 780 a 360€... Certo è ovvio che l'uscita delle R9 abbiano smosso le acque ma vista la poca efficienza del chip di AMD non c'è stata una reale competizione tra i due produttori infatti i prezzi sono addirittura aumentati per le top gamma Nvidia o per lo meno gia da mesi sono stabili...
Io spero vivamente che ci sia maggior competizione perchè alla fine siamo sempre noi a rimetterci se una società sovrasta sull'altra, e visto che la 5870 inizia ad arrancare è bene che si smuovano un po le acque :sofico:
Il Physx è una tecnologia proprietaria di nvidia esattamente come sta facendo AMD attualmente con Mantle quindi personalmente, non mi lamento se la società che ha sviluppato e investito per una determinata funzionalità successivamente decida di tenerla proprietaria piuttosto che svenderla...
Non tieni conto che io ho acquistato un prodotto Nvidia, la mia 640GT. Perché non posso usufruire di Physx? Peraltro alcuni clienti AMD hanno acquistato carte ben più costose della mia 640GT e sono bloccati come me. Non mi pare corretto.
Comunque siamo ot e la chiudo qui.
Ciao
Il Physx è una tecnologia proprietaria di nvidia esattamente come sta facendo AMD attualmente con Mantle quindi personalmente, non mi lamento se la società che ha sviluppato e investito per una determinata funzionalità successivamente decida di tenerla proprietaria piuttosto che svenderla...
Non tieni conto che io ho acquistato un prodotto Nvidia, la mia 640GT. Perché non posso usufruire di Physx? Peraltro alcuni clienti AMD hanno acquistato carte ben più costose della mia 640GT e sono bloccati come me. Non mi pare corretto.
Comunque siamo ot e la chiudo qui.
Ciao
Pure io sto usando una 5870 accoppiata a una GTX 260 e come te trovo fastidiosa questa limitazione ma è anche vero che 4 anni fa fino ad ora il 90% dei titoli funge con hybrid mod quindi per chi è attualmente interessato a questa features è ovvio che AMD a priori la deve scartare nel caso di upgrade infatti io sono orientato verso una GTX 780...
Contrariamente ho amici a cui poco importa del physx e quindi considerano mantle molto piu interessante e preferiscono investire su questo...
Oltre a cio ritengo a priori migliore avere un unica GPU nel case...
Per i colori non mi risulta, non mi pare ci siano mai state variazioni tangibili tra i due produttori e ad essere onesto è la prima volta che sento una cosa del genere...
sbagli, ci sono state moltissime analisi che confermanvano proprio la migliore qualità visiva di amd, più e più volte sui forum ci sono stati questi discorsi.
certo questi discorsi magari valgono per quelli che cambiano proiettore perchè il nero non è abbastanza scuro e spendono 1000€ solo per quello però il fatto è quello
Littlesnitch
15-02-2014, 12:12
sbagli, ci sono state moltissime analisi che confermanvano proprio la migliore qualità visiva di amd, più e più volte sui forum ci sono stati questi discorsi.
certo questi discorsi magari valgono per quelli che cambiano proiettore perchè il nero non è abbastanza scuro e spendono 1000€ solo per quello però il fatto è quello
Confermo anch'io. I colori sono molto più naturali su Amd, ma da sempre. Provato e riprovato, anche se adesso il margine si è assottigliato ma rimane sempre tangibile. Il massimo della differenza si notava tra la 8800GTX e le 1950, la 8800 era un altro mondo come prestazioni ma era presa a calci dei denti sui colori. Non so da cosa dipenda questo ma è uno dei vantaggi di AMD.
pari? ma ne sei proprio sicuro?
Eh si, ne sono sicuro, controlla le due immagini appena dopo quella che hai postato tu va...
Per la nitidezza dei colori vi riferite a uscite analogiche giusto? Perchè su uscite digitali dovrebbero essere identiche le schede amd o nvidia...o no?
Littlesnitch
15-02-2014, 12:28
Eh si, ne sono sicuro, controlla le due immagini appena dopo quella che hai postato tu va...
Per la nitidezza dei colori vi riferite a uscite analogiche giusto? Perchè su uscite digitali dovrebbero essere identiche le schede amd o nvidia...o no?
No, sia su DVI che HDMI che DP i colori sono differenti. La differenza si nota ancora di più se colleghi il PC ad una TV.
Strana sta cosa non la avevo mai sentita...da che cosa potrebbe dipendere? Credevo che quei parametri li gestisse windows, indipendentemente dalla vga
Ale55andr0
15-02-2014, 20:03
sbagli, ci sono state moltissime analisi che confermanvano proprio la migliore qualità visiva di amd, più e più volte sui forum ci sono stati questi discorsi.
confermo, quantomeno con vga di un paio di generazioni fa, non so le attuali a esser onesto....sono anni che lo vado predicando ma non mi ascolta nessuno :O
e per inciso la brillantezza digitale non compensava alcunchè (proprio no), possono ripeterlo fino alla fine del mondo che era solo una questione di "impostazioni di fabbrica", ma per me non è risultato affatto così e ho dato dato retta a quel che ho visto dato che alla fine ognuno decide da se e per se': per i miei occhi e a pari monitor non ci fu partita, anche la sola visione del desktop era migliore sulla Ati (4870) mentre la nvidia (8800gtx 768mb) era smorta e spenta anche al solo colpo d'occhio. Ripeto però che sulle attuali non posso esprimermi non avendole confrontate, magari adesso non esiste più alcun gap
confermo, quantomeno con vga di un paio di generazioni fa, non so le attuali a esser onesto....sono anni che lo vado predicando ma non mi ascolta nessuno :O
e per inciso la brillantezza digitale non compensava alcunchè (proprio no), possono ripeterlo fino alla fine del mondo che era solo una questione di "impostazioni di fabbrica", ma per me non è risultato affatto così e ho dato dato retta a quel che ho visto dato che alla fine ognuno decide da se e per se': per i miei occhi e a pari monitor non ci fu partita, anche la sola visione del desktop era migliore sulla Ati (4870) mentre la nvidia (8800gtx 768mb) era smorta e spenta anche al solo colpo d'occhio. Ripeto però che sulle attuali non posso esprimermi non avendole confrontate, magari adesso non esiste più alcun gap
diciamo che io ho seguito la questione ma ai tempi non ero assultamente in grado di preferire una o l'altra per mancanza di dinero, cioè bastava che il rosso si assomigliasse al rosso e che i fps fossero decenti :muro:
Bho sinceramente ho fatto varie prove sia con cavo analogico (VGA e DVI) che con digitale (HDMI) e collegando sia la GTX 260 che 5870 non ho notato differenze nei colori le uniche differenze che ho notato e direi ovviamente sono tra analogico e digitale nella definizione...
Poi non so se sono ceco io o bho... O forse le differenze sono talmente marginali da non essere apprezzabili se non si mette uno di fianco all'altro... Cmq non è un parametro fondamentale visto che comunque i colori sono modificabili anche da schermo oltre che dal pannello driver e con gli schermi IPS di oggi direi che rimane solo un simpatico oggetto di discussione con poco riscontro realistico...
Ale55andr0
16-02-2014, 11:25
Bho sinceramente ho fatto varie prove sia con cavo analogico (VGA e DVI) che con digitale (HDMI) e collegando sia la GTX 260 che 5870 non ho notato differenze nei colori le uniche differenze che ho notato e direi ovviamente sono tra analogico e digitale nella definizione...
Poi non so se sono ceco io o bho... O forse le differenze sono talmente marginali da non essere apprezzabili se non si mette uno di fianco all'altro... Cmq non è un parametro fondamentale visto che comunque i colori sono modificabili anche da schermo oltre che dal pannello driver e con gli schermi IPS di oggi direi che rimane solo un simpatico oggetto di discussione con poco riscontro realistico...
per me la differenza la si notava a colpo d'occhio, quindi, nel mio caso la differenza non era affatto marginale, ovvio che non è che una faceva il rosso e l'altra il giallo, si intende :D poi magari ci sta che uno sia più o meno "sensibile". Ci sono persone che non vedono molta differenza fra un plasma e un lcd ad esempio, o altre che preferiscono l'LCD ( :asd: ) e li si parla di differenze davvero sensibili. Lo stesso vale per il mondo dell'audio dove c'è che apprezza la resa di impianti da decine di migliaia di euro e chi sostine di sentire benissimo col compattone. Per quanto concerne fattori non legati alla mera colorimetria invece, riguardo a prestazioni con materiale video (deinterlacing, scaling ecc) in passato ai test HQV (azienda leader nel settore video professionale cinematografico) le Ati avevano una marcia in più, ma li la cosa era appunto confutata da test tecnici specifici.
Comunque c'è un utente del forum nvidia che passando da AMD a quest'ultima la differenza l'ha notata (mikael84 mi pare), altri come te che avendole avute anch'essi entrambe invece non la notano
°Phenom°
16-02-2014, 12:13
Ho notato la stessa differenza (se pur non marcatissima) nel passare dallo SLi di gtx 260 sp216 alla 7970, la qualità è in generale migliore su AMD.
P.s. è la mia prima rossa questa.
Littlesnitch
16-02-2014, 21:49
Bho sinceramente ho fatto varie prove sia con cavo analogico (VGA e DVI) che con digitale (HDMI) e collegando sia la GTX 260 che 5870 non ho notato differenze nei colori le uniche differenze che ho notato e direi ovviamente sono tra analogico e digitale nella definizione...
Poi non so se sono ceco io o bho... O forse le differenze sono talmente marginali da non essere apprezzabili se non si mette uno di fianco all'altro... Cmq non è un parametro fondamentale visto che comunque i colori sono modificabili anche da schermo oltre che dal pannello driver e con gli schermi IPS di oggi direi che rimane solo un simpatico oggetto di discussione con poco riscontro realistico...
La differenza c'è e si vede benissimo. E te lo dico da possessore di 4 nVidia al momento. Come monitor ho 2 Dell IPS e puoi regolarli quanto vuoi che la resa cromatica di cada AMD risulta sempre più naturale.
<Masquerade>
16-02-2014, 21:57
Bho sinceramente ho fatto varie prove sia con cavo analogico (VGA e DVI) che con digitale (HDMI) e collegando sia la GTX 260 che 5870 non ho notato differenze nei colori le uniche differenze che ho notato e direi ovviamente sono tra analogico e digitale nella definizione...
quoto al 100%.
e sono possessore di un 5850 e 780. quindi ho provato sia nvidia ed amd/Ati
Littlesnitch
16-02-2014, 22:12
quoto al 100%.
e sono possessore di un 5850 e 780. quindi ho provato sia nvidia ed amd/Ati
Sul monitor che hai in sign la differenza si vede eccome... Ma è una differenza che esiste da sempre.
<Masquerade>
16-02-2014, 22:19
Sul monitor che hai in sign la differenza si vede eccome... Ma è una differenza che esiste da sempre.
non c'è punta differenza, riprovai di recente la 5850, in giochi come i the witcher, tomb raider , crysis ed altri ed è identica.
quindi concordo con ubro92
Che sogno.. Spero di riuscire a prenderla un giorno: dopo la prematura morte della mia His HD 6970 IceQ Turbo, il ritorno alla Sapphire HD 5870 Toxic è stato un po' amaro :)
xeno the holy
04-03-2014, 00:12
le nostre referenze sono lowcost ma questa ammazza quanto cost
tutankamon
03-08-2014, 19:53
Consiglio a tutti quelli interessati di rimandare l'acquisto a una revisione successiva dell'hardware di queste schede, attualmente una buona percentuale delle persone che acquista una di queste schede incappa in problemi che compromettono l'esperienza finale, provate a fare una ricerca r9 290 black screen o bsod 0xa00001 troverete migliaia di post di gente che ha problemi, anche sul forum AMD.
Volevo chiedere a questo proposito alla redazione di fare un articolo su questo problema che è diffusissimo e a quanto pare AMD non ha ancora preso una posizione ufficiale, in pratica non si sa se sta vendendo una montagna di schede con un evidente difetto di fabbrica oppure se è un problema drivers, se le testate del settore iniziassero a interessarsi della cosa credo che AMD sarebbe costretta a far chiarezza in maniera ufficiale.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.