View Full Version : AMD Radeon HD 6970 e HD 6950: tempo di Cayman
Xam the elder
16-12-2010, 00:53
dai che siamo tutti delusi
cmq amd è brava a tagliare i prezzi se si mette male
Ale55andr0
16-12-2010, 00:54
In ogni caso mi sembra più un arrampicarsi il tuo discorso.. altri giochi come gta???è un caso praticamente unico, a parte che con la patch 7 si arriva ad occupare al max un 1gb con tutto al massimo, volutamente credo, dato che non vedo differenze almeno dalle ultime volte con cui ci ho giocato..
..
Ti ho parlato di gta moddato con enb, riflessi, prfondità di campo infinita, antialiasing applicato anche sulle mutande dei passanti...un orgasmo visivo...che costa un'enormità in termini di memoria (te li prende trandquillo 2gb in full HD, io ho dovuto limitarmi a 1280 e superavo il giga e due...ovviamente scatti a desra e a manca...ma ragazzi, na roba da non credere visivamente :eek: ). Giochi del genere, diverranno lo standard senza richiedere mod, ed i due gb fanno comodo, la potenza elaborativa della 6970 è allineata alla 570 e sufficente per i prossimi 2 anni, ed i 2gb sono ormai uno standard senza tagli strani (1,2gb?! 768mb?!)
Ale55andr0
16-12-2010, 00:59
dai che siamo tutti delusi
cmq amd è brava a tagliare i prezzi se si mette male
è dei negozi italiani che non ti devi fidare...
FOSTERLAND
16-12-2010, 01:00
Sono curioso di vedere quanto ci metto a passare da fanboy Ati a fanboy NVIDIA.
Cmq i rossi sono ridicoli ad attaccarsi al consumo per pararsi da un ovvio flop.
Già fatto!
blackshard
16-12-2010, 01:05
Scherziamo? Le 6900 sono pessime sostitute delle 5800, chi ha una 5800 se la tenga stretta che non ha nessun motivo di upgrade.
Sostitute non significa che se hai una 5800 la devi sostituire con una 6900, ma che le 6900 vanno a sostituire i modelli 5800. Ti devono spiegare anche l'ABC?
Esilaranti tutti 'sti commenti sui consumi contenuti, sembra che qui nessuno abbia condizionatore, lavastoviglie, tv, freezer, e decine di altri elettrodomestici in casa, come se su una vga da 300 e passa euro contassero 50 o 60 watt di differenza, roba che si aggancia alla bolletta mensile con una sola lampadina.
Il bello è che spesso viene da gente che consiglia effettivamente il Xfire come panacea ai difetti di performance :asd:
Almeno tirate in ballo rumore e temperature, roba un pelo più significativa.
:help:
Strato1541
16-12-2010, 01:06
Ti ho parlato di gta moddato con enb, riflessi, prfondità di campo infinita, antialiasing applicato anche sulle mutande dei passanti...un orgasmo visivo...che costa un'enormità in termini di memoria (te li prende trandquillo 2gb in full HD, io ho dovuto limitarmi a 1280 e superavo il giga e due...ovviamente scatti a desra e a manca...ma ragazzi, na roba da non credere visivamente :eek: ). Giochi del genere, diverranno lo standard senza richiedere mod, ed i due gb fanno comodo, la potenza elaborativa della 6970 è sufficente per i prossimi 2 anni ed i 2gb sono ormai uno standard senza tagli strani ed inutili (1,2gb?! 768mb?!)
gta è fuori da 2 anni eppure mi sembra si sia seguita un'altra strada nella programmazione dei giochi, infatti è l'unico caso citabile e anche messo in condizioni particolari, diventa quello che dici tu...
Tagli strani di ram??Per noi umani che siamo abituati al sistema decimale saranno strani, non c'è scritto da nessuna parte che devono raddoppiarsi per forza, anche perchè le texture quando vengono scritte non rispettano quello che dici tu..
Detto questo meglio ha 2 gb.. inutili.. come lo erano sulle 9800gt 1gb..
Anche perchè in ogni caso se i 2 gb non servissero entro 1anno sarebbe già totalmente annullato il tuo discorso in quanto ci saranno nuove soluzioni più potenti che faranno miglior uso della memoria sicuramente e intanto si ha la scheda con 2 gb che fà "figo" e basta..
Piuttosto di 2 gb si poteva lavorare in altro per me è abbastanza marketing punto, il tuo discorso lo dimostra ancora di più..
Il mio punto di vista è questo il tempo ci dirà cosa è vero, l'unica cosa certa è che anche i titoli più esosi attualmente faticano a saturare 700mb eccetto gta 4, questo è un dato di fatto..
leoneazzurro
16-12-2010, 01:08
Evitiamo di creare i soliti flame, per piacere?
ghiltanas
16-12-2010, 01:31
da quello che leggo in giro conviene 1 6850 o una gtx460 fino al fullhd senza grandi pretese, in fin dei conti queste schede reggono qualsiasi gioco a condizione di levare i filtri e max dettagli e facendo un po di oc vdef, il che porta a pensare che forse oggi comprare gpu da oltre 150 euro è uno spreco per la maggior parte della gente
sicuramente prezzo/prestazione non esiste niente di paragonabile al crossfire di 6850 o lo sli di gtx460 acquistabili a 300euro
di certo come soluzione su singola gpu credo che la scelta migliore in base ai prezzi che vedo sia la gtx570
315euro:
http://www.trovaprezzi.it/categoria.aspx?id=28&libera=gtx570&prezzomin=-1&prezzomax=-1
la gtx570 da prestazioni leggermente migliori della 6970 che sta a 370euro:
http://www.trovaprezzi.it/categoria.aspx?libera=6970&id=28&prezzoMin=&prezzoMax=&sbox=sb
e conta che sia l'hd6850 sia la gtx460 salgono alla grande ;)
sinceramente nn riesco a trovare dei punti di forza per cui dire vale la pena prenderle in considerazione ...
ok qualcuno dice che physX e' inutile , stiamo parlando di vga da gaming mica di cose utili ... per esempio gli effetti in mafia 2 a me son piaciuti ... ne avrei potuto far a meno? sicuramente ... ma visto che aggiungono un qualcosa in piu' perche' precludermi la possibilita'.
cuda , a molti non serve e ad altri si' .. chi ha l'esigenza di coniugare l'utilizzo gaming e l'utilizzo un po' piu' serio forse e' piu' tentato da una NVIDIA.
il 3D ... su NVIDIA e' ben implementato ... su AMD bug a iosa in un sacco di titoli, non va' il crossfire, pochi monitor compatibili , software sviluppati da terzi che funzionano con pochi giochi in dx9 .. insomma una feature inutilizzabile.
Ok le AMD hanno Eyfinity supportato sulla singola scheda... a parte Giuliacci alle previsioni del tempo chi lo utilizza per giocare su 3 monitor in 2D qui sul forum??
Non e' che attiri poi molto... magari mi sbaglio...
Qualcuno con lo SLI e' 3 monitor in 3D surround mi pare di averlo visto invece... se me lo potessi permettere tre monitor in 3D me li farei al volo! a qualcuno farebbe schifo??
570 e 580 hanno un bel dissipatorino efficiente di serie ... queste nuove AMD la solita ventola radiale che fa un bel casino ... e anche qui si puo' chiudere un occhio
magari se spendi tutti sti soldi ne hai anche per liquidarle...
Discorso overclock ... almeno nella serie 5 le prime reference si salvavano , poi con l'avvento dei pcb blu manco quelle!
Queste escono con sto misterioso powertune regolabile da CCC overdrive da -20% a +20% ... a me puzza di fregatura , mi sa che piu' di tanto non si schiodano...
mah, vedo tanti discorsi sulla dimensione del chipset , sulla memoria sui profitti delle due rivali ... ma che vi frega? da consumatore io guardo cio' che offrono e se me lo posso permettere ... per tutti i motivi sopra la scelta e' ovvia, personale e condivisibile o meno :rolleyes:
blackshard
16-12-2010, 01:47
[...cut...]
mah, vedo tanti discorsi sulla dimensione del chipset , sulla memoria sui profitti delle due rivali ... ma che vi frega? da consumatore io guardo cio' che offrono e se me lo posso permettere ... per tutti i motivi sopra la scelta e' ovvia, personale e condivisibile o meno :rolleyes:
Hardware Upgrade: il sito sulla tecnologia. Così c'è scritto sopra a tutto.
Pensavo non fosse fuori luogo parlare della tecnologia di questo o quel chip...
La logica dell'ingabbiare il cittadino nel (gretto) ruolo di "consumatore" la trovo decisamente ristretta e, onestamente, mi inquieta pure abbastanza.
Tornando alla hd6970, non capisco nemmeno tanto il discorso sul "flop": è allineata ad una gtx570 (a volte sta poco sopra, a volte poco sotto) e lo ottiene con meno SP della hd5870 e 10W di consumo in più, con un *possibile* miglioramento dei driver nel futuro prossimo.
Le temperature in-game sono allineate o inferiori alle gtx che però montano il vapour chamber (edit: pardon, anche le hd hanno il vapour chamber), i consumi inferiori su tutta la gamma. Non riesco proprio a comprendere dove sarebbe un flop :confused:
Certo che diciamocelo ci aspettavamo tutti di più da questa nuova sfornata.
Quantomeno per tenere alta la tensione e tesa la concorrenza.
Tutto rimandato in primavera, con il processo dei 28 nm sempre se arriveranno a farlo ....
Ciauzzz
l'unica cosa fuori luogo e' la saccenza di certe risposte
penso che prima di acquistare una scheda per per i videogiochi guardi le prestazioni e le features annesse ... non chi ce l'ha piu' grosso e quanto ci mangia sopra l'una o l'altra ... poi che se ne possa discutere mica lo vieta nessuno, ma tutti sti discorsoni per girare la frittata proprio no.
che palle leggere sempre che i negozi sono dei ladri perchè si trovano in giro dei ladri che vendono a prezzi bassi... avete stufato con sta storia.
cmq ho visto disponibili le 6970 sapphire a circa 290€... secondo me non è male come scheda per quel prezzo
LordShaitan
16-12-2010, 04:43
Giusto. Volevo far intendere che non andrebbero paragonati i chip in se ma le schede "per intero".
Vero, sono d'accordo ;)
A parte che si tratta della HD6970 (altrimenti non si capisce il tuo mex), per quanto riguarda il rumore, su questa recensione leggo che la HD6970 registra 5 dB (non 6,5 ^^) in più della GTX570, se invece vado a leggermi Anandtech, la HD6970 registra 3,3 dB in meno e, come facevo notare, ancora più contrastanti sono le differenze tra GTX580 e HD6970 tra HWUpgrade e Anandtech, mentre, p.e., Techpower dà le due schede allo stesso livello di rumore.
Detto questo, il rumore dipende sia dalla velocità di rotazione della ventola, ma anche dall'efficienza dell'intero dissipatore, quindi non esiste una correlazione tra rumore e calore.
Semmai si può pensare, con sistemi di dissipazione identici, che le GTX570/580 scaldino di più, visto che hanno consumi maggiori. Resta il fatto che non essendo identici i dissipatori, per stabilire quanto si scaldino le schede in esame, non rimanga che... il termometro :)
Si scusate intendevo la 6970 ovviamente, ero un po' stordito quando ho scritto il post :D
Si i Db sono 5, che comunque in termini di rumorosità percepita è quasi il doppio!
Comunque, il tuo esempio non mi sembra corretto.
Come detto sopra, si dovrebbe fare il confronto delle schede per intero, e non solo del chip.
Se anche GF110 scalda di più di per sè, ma col dissipatore vapor chamber che ti dà Nvidia alla fine scalda uguale e con meno rumore (oppure scalda meno a parità di rumore, il che è innegabile, se aumento la rotazione della ventola fino a raggiungere i Db della AMD la temperatura scende) allora contano le temperature del prodotto finale. :)
I confronti a parità di dissipatore non hanno senso, perlomeno per il consumatore, se poi tra noi appassionati vogliamo confrontare i chip ben venga, ma è diverso da un confronto tra le schede :)
io sono restio a lamentarmi...
ve la immaginate la situazione del mercato ORA, se dopo la strusciata presa da nvidia nello scorso anno, con ATI che ha dominato il mercato con HD5000, pure ste 6900 abbattevano la concorrenza??
sinceramente non sono dispiaciuto che nvidia abbia retto il colpo. anzi, ci voleva per ristabilire un pò di ordine nel mercato.
un colpo al cerchio e un colpo alla botte. e forse questa situazione, darà un'impulso, per una nuova guerra sui prezzi(che a noi non fa mai male).
e cmq per ste HD6000, che a me convincono ben poco, non mi sembra il caso di mettersi a piangere... ormai è chiaro che sono dei tappabuchi, messi da ATI in attesa DELLA VERA NUOVA SERIE, le HD7000.
non capisco perche' tutta questa delusione...
hanno fatto esattamente quello che mi aspettavo, e IMHO la 6950 per 250 euro e' un affarone
Uah :S leggera delusione.
leddlazarus
16-12-2010, 08:16
non capisco certi commenti.
quando è uscita la 480 che andava di + della 5870 non andava bene perchè consumava troppo e si scaldava troppo.
ora la 6970 va di + della 5870 e consuma meno e scalda meno ma non va bene lo stesso.
quando metteranno in vendita la 6990 al prezzo della 580 non andrà bene lo stesso perchè.....
inoltre la 6990 sarà fattibilissima in quanto non sarà esosissima di watt, cosa da vedere con + attenzione per le 580x2.
in un pcb la circuiteria di alimentazione è importante e farne 1 sola che regga 2 chip potrebbe essere difficile da progettare anche come ingombri.
resta il fatto poi che il consumo secondo me dovrebbe essere un fattore importante.
se insieme ad una scheda devo comprarmi 200€ di alimentatore per farla girare non mi sembra accettabile.
leddlazarus
16-12-2010, 08:20
e cmq per ste HD6000, che a me convincono ben poco, non mi sembra il caso di mettersi a piangere... ormai è chiaro che sono dei tappabuchi, messi da ATI in attesa DELLA VERA NUOVA SERIE, le HD7000.
che amd stia adottando la tecnica tick/tock di intel?
cmq l'architettura è decisamente diversa dalla serie 5000, e la 6870 ha meno "processori" della 5870, organizzati diversamente.
potrebbe essere la base per un futuro chip ad alte prestazioni come dici tu.
poi un'occhiata ai prezzi fa sempre bene.
scrat1702
16-12-2010, 09:58
Come al solito i fanboy nVidia si sono scatenati, supportati ,come spesso accade negli ultimi tempi, da una review sbilanciata a favore di nVidia mentre basta guardare le altre review per farsi un'idea piu precisa.
1. Queste schede sono sotto le aspettative dal lato prestazionale, un po forse dovuto ai driver, ma il resto per i chiari limiti del PP a 40nm incompatibile ormai con le strategie AMD. Mi auguro che la redazione possa fare un review in occasione del lancio di Antilles e rifare i test delle 69XX.
2. Leggendo una decina di review mediamente a risoluzioni dal FullHD in su la 580 e di un 10% piu veloce della 6970, percio come altri hanno fatto notare, la differenza prestazionale tra il TOP single GPU (questo e un confronto inutile e aiuta solo l'orgoglio dei fanboy verdi) Amd-nVidia e del 10% ma calera un pochino con le seguenti release driver (spero IMHO) percio diciamo che Amd ha recuperato un 10%. Cmq sul lato consumi nVidia e ancora indietro e con un chip grosso quasi il doppio va il 10% in piu e Antilles sara almeno un 30% piu veloce della 580 a vedere i risultati in Xfire.
3. I prezzi sono allineati alle prestazioni (quelli consigliati) anche se oggi con i dati oggettivi di cui disponiamo la scelta piu logica e la 570 per il FullHD e la 6870 per i 1680. Oltre c'e solo la 580 ad oggi e in attesa dei driver Amd perche sinceramente un 5970 oggi e una scelta sconsigliabile con la 6990 in arrivo. Sinceramente non capisco il posizionamento della 6950 :confused: credo che calera molto di prezzo quando uscira la 560.
blackshard
16-12-2010, 10:00
l'unica cosa fuori luogo e' la saccenza di certe risposte
Con chi ce l'hai?
allora contano le temperature del prodotto finale.
Ma chi se ne frega delle temperature? Finché non raggiungono il limite di sopportazione del silicio, che importanza può avere che una scheda raggiunga i 60,70 o gli 80°?
Sicuramente il parametro fondamentale è il rumore, ma la misurazione della sola intensità sonora non indica la qualità del rumore. Ci sono rumori che si tollerano bene anche a intensità alte e altri che a intensità bassissime danno comunque fastidio. Un fischio dà fastidio a 40db, una vibrazione ad una nota musicale particolare a 70db è ascoltabilissima. Purtroppo i fonometri usati sono strumenti "stupidi" e per tanto misurano quello che riescono ma non dicono nulla sulla vera sopportabilità di un rumore che non è legata solo alla sua intensità.
E poi queste nuove schede non hanno proprio un consumo contenuto come la serie precedente. La 6970 consuma in media 30W in meno della 570. Ora venitemi a dire che 30W in più per 2 ore al giorno sono quello che fa la differenza sulla vostra bolletta elettrica.
se insieme ad una scheda devo comprarmi 200€ di alimentatore per farla girare non mi sembra accettabile.
Sì, certo, spendi 350-500 euro per una scheda grafica da quasi 200-250W e poi la alimenti con un dispositivo cinese che ha una efficienza del 50% con un rumore elettrico pazzesco in uscita e ti lamenti che una scheda consuma 50W più di un'altra. O che poi ti muore in meno di 6 mesi.
Se non hai i soldi per cambiare le gomme alla Porche, meglio non acquistarla, non ti sembra?
Ah, qui non è riportato ma a quanto pare cambiare le impostazioni del PowerTune equivale a perdere la garanzia della scheda. Anche diminuendo il valore!
E, sempre a quanto pare, il sistema si limita quando usate giochi come Metro2033. Quindi se volete giocare con titoli seri a tutta birra, dovete perdere la garanzia. O accontentarvi del consumo che AMD ha imposto come massimo alla scheda. Bella mossa da parte di AMD.
blackshard
16-12-2010, 10:16
3. I prezzi sono allineati alle prestazioni (quelli consigliati) anche se oggi con i dati oggettivi di cui disponiamo la scelta piu logica e la 570 per il FullHD e la 6870 per i 1680. Oltre c'e solo la 580 ad oggi e in attesa dei driver Amd perche sinceramente un 5970 oggi e una scelta sconsigliabile con la 6990 in arrivo. Sinceramente non capisco il posizionamento della 6950 :confused: credo che calera molto di prezzo quando uscira la 560.
Veramente è il contrario, a 1680 la 570 è più veloce, a 1920 e oltre la hd6970 è più veloce e, a volte, a 2560x1600 è anche più veloce della 580 (tipo F1 2010).
Poi se si degnassero di leggere i risultati e non solo di guardare la "classifica" nei benchmark noterebbero ben altre cose. Evidentemente a qualche fanboy non è andato proprio giù il fatto che la 480 sia stata recepita (anche dal giornalismo) un flop vero, quindi adesso si "vendicano" millantando la stessa cosa di questa hd6970.
Comunque IMHO la miglior soluzione in questa fascia rimane la hd6950: consuma molto meno, ha prestazioni non molto distaccate e costa molto meno. Di gran lunga preferibile a qualsiasi prodotto di fascia top.
blackshard
16-12-2010, 10:23
Ah, qui non è riportato ma a quanto pare cambiare le impostazioni del PowerTune equivale a perdere la garanzia della scheda. Anche diminuendo il valore!
Mi pare più che plausibile, ma fonte?
E, sempre a quanto pare, il sistema si limita quando usate giochi come Metro2033. Quindi se volete giocare con titoli seri a tutta birra, dovete perdere la garanzia. O accontentarvi del consumo che AMD ha imposto come massimo alla scheda. Bella mossa da parte di AMD.
Quindi il benchmark di metro2033 dovrebbe essere limitato?
E comunque la stessa cosa fanno anche le gtx570/gtx580, vedi le temperature con furmark. Disattivando il controllo del consumo sulle gtx succede questo:
http://images.anandtech.com/graphs/graph4061/34664.png
Ale55andr0
16-12-2010, 10:47
:)
http://www.tomshw.it/cont/articolo/radeon-hd-6970-e-6950-guerra-aperta-a-gtx-570-e-580/28600/1.html
http://www.techpowerup.com/reviews/HIS/Radeon_HD_6970/
http://www.guru3d.com/article/radeon-6950-6970-review/
http://www.anandtech.com/show/4061/amds-radeon-hd-6970-radeon-hd-6950
comunque la mancanza di una concorrente per la 580 io "la sento". Con la 570 vedo due schede perfettamente quivalenti (chechè ne dica qualcuno): chi preferisce Phsyx (non mi ricordo MAI come scrive, spero di aver imbroccato :D) e il 3D si piglia la nVidia, chi è ingolosito dai 2gb si piglia la Ati. Poi c'è sempre chi va a simpatia e sceglie un marchio a priori. Attendiamo la 6990, io comunque, avrei preferito un maggiore sviluppo sul single GPU, sono sicuro che volendo 1920SP li si poteva fare, restando simili in consumi e temperature con la 580, tanto la dual la si poteva fare benissimo con due chip meno esosi (tipo mettere insieme due 6870), anzi, sono sicuro che nVidia la farà :) e magari sarà furba aspettando 6990 per fare anche la la scheda singola più veloce in assoluto (da quel che ho visto 5970 è ancora il top, anche se di poco)
leoneazzurro
16-12-2010, 10:47
Mi sembrava di avere chiesto niente flame, e quindi niente provocazioni e cose come "i rossi", "i verdi" e compagnia bella.
E comunque la stessa cosa fanno anche le gtx570/gtx580, vedi le temperature con furmark.
No, è diverso. Le schede 6900 hanno una serie di "sensori" che misurano il carico di elaborazione e determinano in anticipo di limitare o meno la corrente. Questo permette una granularità di intervento migliore rispetto al sistema tradizionale che è posto a monte dell'alimentazione che misura solo gli ampere in ingresso rispetto alla temperatura del chip.
A monte di tutto c'è sempre il sistema tradizionale (così se si fa casino con il PowerTune o lo si disabilita in qualche modo o questo fallisce per suo conto a determinare il giusto consumo non si brucia niente), ma il concetto di intervento delle due soluzioni è completamente diverso.
Il sistema usato da nvidia è quello "tradizionale" a monte dell'alimentazione, per cui interviene solo per consumi che vanno ben oltre a quelli massimi consentiti. Ed è attivato tramite driver solo per alcuni specifici test (come appunto FurMark). Nell'uso quotidiano non interviene mai (a meno che non avete tappato la griglia di areazione della scheda).
Con questo PowerTune invece sembra che il livello di consumo imposto da AMD alla scheda sia insufficiente per tenere il carico necessario anche per giochi impegnativi come Metro2033. E probabilmente non è l'unico che ne è affetto.
Per le fonti, basta leggere "altri" siti di tecnologia. Alcuni dei quali non so non possono essere linkati qui per correttezza (anche se credo nella libera circolazione delle informazioni, dato che se qui una informazione non c'è e non si può linkare ad altri siti concorrenti è equivalente alla censura dal mio punti di vista).
Per quanto riguarda la limitazione con Metro: http://www.anandtech.com/show/4061/amds-radeon-hd-6970-radeon-hd-6950/9. L'impatto minimo ma c'è. E non è detto che nel futuro la cosa non si ripresenti con qualche altro super titolo che impegna la oltremodo la scheda.
Ale55andr0
16-12-2010, 11:01
Mi sembrava di avere chiesto niente flame, e quindi niente provocazioni e cose come "i rossi", "i verdi" e compagnia bella.
Dici a me? :confused:
Casco dalle nuvole, dov'è che avrei provocato? ho messo un paio di link sulle review (più ce ne sono, più si ha una visione globale), detto la mia su quel che poteva fare Ati e non ha fatto, quello che imho accadrà in futuro e ipotizzato i punti di vista nella scelta della vga... questo è flammare? :stordita:
DarthFeder
16-12-2010, 11:10
No, è diverso. Le schede 6900 hanno una serie di "sensori" che misurano il carico di elaborazione e determinano in anticipo di limitare o meno la corrente. Questo permette una granularità di intervento migliore rispetto al sistema tradizionale che è posto a monte dell'alimentazione che misura solo gli ampere in ingresso rispetto alla temperatura del chip.
A monte di tutto c'è sempre il sistema tradizionale (così se si fa casino con il PowerTune o lo si disabilita in qualche modo o questo fallisce per suo conto a determinare il giusto consumo non si brucia niente), ma il concetto di intervento delle due soluzioni è completamente diverso.
Il sistema usato da nvidia è quello "tradizionale" a monte dell'alimentazione, per cui interviene solo per consumi che vanno ben oltre a quelli massimi consentiti. Ed è attivato tramite driver solo per alcuni specifici test (come appunto FurMark). Nell'uso quotidiano non interviene mai (a meno che non avete tappato la griglia di areazione della scheda).
Con questo PowerTune invece sembra che il livello di consumo imposto da AMD alla scheda sia insufficiente per tenere il carico necessario anche per giochi impegnativi come Metro2033. E probabilmente non è l'unico che ne è affetto.
Per le fonti, basta leggere "altri" siti di tecnologia. Alcuni dei quali non so non possono essere linkati qui per correttezza (anche se credo nella libera circolazione delle informazioni, dato che se qui una informazione non c'è e non si può linkare ad altri siti concorrenti è equivalente alla censura dal mio punti di vista).
Per quanto riguarda la limitazione con Metro: http://www.anandtech.com/show/4061/amds-radeon-hd-6970-radeon-hd-6950/9. L'impatto minimo ma c'è. E non è detto che nel futuro la cosa non si ripresenti con qualche altro super titolo che impegna la oltremodo la scheda.
Ma non c'è un modo per disattivare questa tecnologia che oltre a limitare i consumi sembra limitare anche la potenza della scheda?
Gualmiro
16-12-2010, 11:24
Ma chi se ne frega delle temperature? Finché non raggiungono il limite di sopportazione del silicio, che importanza può avere che una scheda raggiunga i 60,70 o gli 80°?
Dopo un paio d'anni di gaming (e di questi tempi sono più che plausibili, vedasi chi gira ancora con le 8800GTX) in cui la scheda video sta a 85 °C, le prestazioni non sono le stesse manco per idea.
Quel che è vero è che la maggiore possibilità di rottura della GPU e delle RAM video è quasi irrilevante, cambierai la scheda di certo prima che il calore prolungato possa averne seriamente compromessi chip e memorie; il problema è che tutta la GPU al 99.9% la cambi anche se ti si sgalla un condensatore sul PCB (esempio per dire un problemaccio stupido ma che scava la fossa alla scheda video), e quelli se son resistenti alle alte correnti in gioco, non lo sono altrettanto ai 98 °C a cui Furmark spreme la GTX480.
Le temperature sono irrilevanti finché a 70 °C ci arrivi solo con Furmark, 85 °C e passa in uso giornaliero non sono una grande trovata.
Inoltre considera anche, a parità di temperature rilevata AMD vs NVidia, la maggiore quantità di calore della seconda.
Avere la stessa temperatura sul package del die se poi un die è i 35% più grande dell'altro non è la stessa cosa.
L'unica cosa è che negli ultimi anni (da G80 in poi) NVidia sembra molto meno "fragile" di AMD quanto a tolleranza alle temperature.
mah, vedo tanti discorsi sulla dimensione del chipset , sulla memoria sui profitti delle due rivali ... ma che vi frega? da consumatore io guardo cio' che offrono e se me lo posso permettere ... per tutti i motivi sopra la scelta e' ovvia, personale e condivisibile o meno
non puoi togliere le menate sulle schede video ai nerd :D
a parte gli scherzi, ovvio che ognuno sceglie e valuta secondo quello che preferisce... c'è chi cerca di farsi un'idea filtrando i dati ufficiali attraverso quel che ti dice un minimo di conoscenza tecnica dell'argomento, c'è chi fa scegliere l'amico esperto o chiede sui forum. ;)
dei profitti AMD e NVidia pure quello, per quanto è dato sapere finché non usciranno le prossime trimestrali di cassa, è importante.
Esempio secco: 6970 vs gtx570, prestazionalmente simili forse leggero vantaggio di NVidia, la seconda offre più features extra e notoriamente ha un brand più forte di AMD/Radeon/ATi messi insieme. Sapere quanto le schede sono profittevoli per le due case ti indica in linea di massima ed al netto delle politiche di vendita più o meno aggressive quale delle due schede andrà allineandosi con l'altra sul versante prezzi dal momento che quest'ultimi sono sensibilmente differenti al lancio dell'ultima arrivata 6970
...ok, lo ammetto, sono anche un po' menate da bar sport :sofico:, ma ho adocchiato la GTX570 per l'anno nuovo e non vorrei che mi salisse su fino a 400 dollari :D
piccolo OT:
continuo a non capire chi nella diatriba AMD vs NVidia dapprima tira in ballo il fatto dei migliori consumi per contribuire alla causa dei primi, e poi finisce sempre per consigliare i CF delle varie HD6850 e HD6950. A me suona un po' contraddittoria la cosa...
Perchè un crossfire di 6850 consuma meno di una di una 580, costa MOLTO meno ed in certi giochi va anche più forte. Quindi perchè non inserirlo nella comparativa ?
nono aspetta... il CF di 6850 è un'ottima soluzione, beninteso.
Quello che stona è tirare fuori la faccenda dei consumi migliori di AMD quando questi sono nel caso specifico del tutto paragonabili a quelli di NVidia, leggermente migliori in full e leggermente peggiori in idle (mi riferisco al classico esempio 2x6850 vs GTX580).
Già che chi valuta CF/SLI e schede top di gamma dei consumi mi sa che se ne freghi abbastanza a prescindere visto che si parla in ogni caso di 400-450W di sola/e GPU. In questo caso tutto si può tirare fuori fuorché la manciata di Watt di differenza secondo me.
Il discorso regge molto di più se parliamo di prezzo come giustamente hai ricordato tu. Anche il maggior costo di schede madri compatibili con CF è coperto dal sensibile risparmio della soluzione AMD.
A quanto pare no, non è disattivabile. E' proprio una scelta di AMD per contenere i consumi, in maniera un po' artificiale a dire la verità. Ma non è la scelta in sè che è in discussione. Anche se la cosa non è pubblicizzata tanto quanto il supporto al EyeInfinity, chissà perchè.
Il fatto è che lo strumento che viene messo a disposizione per ridurre questa limitazione invalida la garanzia. E peggio la invalida per qualsiasi valore viene settato, anche un valore di consumo minore di quello di fabbrica.
E questo anche se a monte rimangono tutti gli altri controlli di assorbimento corrente e temperature.
Viene il dubbio che questi chip siano in qualche modo "delicati". Più del consueto.
Il fatto è che lo strumento che viene messo a disposizione per ridurre questa limitazione invalida la garanzia. E peggio la invalida per qualsiasi valore viene settato, anche un valore di consumo minore di quello di fabbrica.
Ma dove è scritta questa cosa? Mi posti cortesemente il link in cui AMD comunica l'invalidità della garanzia in caso di variazione delle soglie di Powertune? Mi sembra molto strano, visto che è lei stessa a permettere, via catalyst, di variare questo valore ed inoltre ha pubblicizzato lei stessa questa possibilità nelle slide mostrate per la presentazione della serie 6900. Allora dovrebbe essere la stessa cosa per l'overclock, sempre via catalyst, ma non mi pare assolutamente che sia così.
Bye!
@Gualmiro
Dovresti sistemare il post perchè sballa tutto il layout della pagina nel browser.
Le temperature sono irrilevanti finché a 70 °C ci arrivi solo con Furmark, 85 °C e passa in uso giornaliero non sono una grande trovata.
Cioè tutti quelli che hanno acquistato le 8800 Ultra o una GTX280/295 o le schede serie 2xxx e 3xxx di AMD hanno una scheda rotta oggi per va delle temperature pazzesche che raggiungevano. E' questo che vuoi dire?
E cosa c'entra la temperatura con la dimensione del die? Se un componente sta a 80° ci sta sia che sia 350 o 500 mm^2. Se quello che intendi è che quello più grande andrà a consumare di più, anche qui dipende da come è fatto il sistema di dissipazione. Bisogna anche dire che die più grandi si possono permettere consumi maggiori, con stessa efficienza di dissipazione rispetto ad un die più piccoli. Quelli piccoli, a parità di potenza assorbita aumenteranno la propria temperatura in misura maggiore.
E comunque, ripeto, a meno di non arrivare a temperature estreme la temperatura raggiunta dal chip è ininfluente, sia che rimanga a 60, 70, 80 o anche vicino ai 90°.
E per chi se lo domanda, la temperatura della stanza non dipende dalla temperatura raggiunta dal chip. Ma solo dalla potenza che questo assorbe.
Gualmiro
16-12-2010, 11:45
Ma dove è scritta questa cosa? Mi posti cortesemente il link in cui AMD comunica l'invalidità della garanzia in caso di variazione delle soglie di Powertune? Mi sembra molto strano, visto che è lei stessa a permettere, via catalyst, di variare questo valore ed inoltre ha pubblicizzato lei stessa questa possibilità nelle slide mostrate per la presentazione della serie 6900. Allora dovrebbe essere la stessa cosa per l'overclock, sempre via catalyst, ma non mi pare assolutamente che sia così.
Bye!
Da qualche parte la ricordano anche nei press release sheet.... appena ho tempo li cerco. 99.9% sicuro anche io che sia così.
Ad ogni modo attenzione, se mandi una scheda in assistenza AMD lo vede subito se hai mai usato PowerTune.
Quello che AMD esplicitamente non copre è la scheda bruciata dall'uso selvaggio di PowerTune, presuppone troppi step da fare da parte dell'utente, una serie di avvertimenti, inserimenti di password e rotture di vario genere tali che loro dicono alla fine "ragazzo, io ti avevo avvertito che poi la bruciavi" :D .
Usare PowerTune normalmente non invalida niente.
ATi overdrive è un discorso ancora differente... loro lo mettono lì, chi lo vuole usare se lo abilta/sblocca e lo usa.
La garanzia non c'è in nessun momento della procedura (salvo diversi accordi ovviamente), decade appena nei CMOS delle frequenze massime e minime mai tenute dalla scheda ci viene scritto qualcosa di fuori specifica.
Ma dove è scritta questa cosa?
Ma da utenti avanzati come siete usare Google è un problema?
Da un sito italiano:
Inoltre bisogna dire che usare PowerTune è come overcloccare. Se la morte della vostra HD 6000 sarà relativa a PowerTune, la garanzia non la coprirà.
Allora dovrebbe essere la stessa cosa per l'overclock, sempre via catalyst, ma non mi pare assolutamente che sia così.
E invece è così. Se overclocchi ti freghi la garanzia. Leggere i contratto d'uso prima no, eh?
System Shock
16-12-2010, 11:58
A quanto pare no, non è disattivabile. E' proprio una scelta di AMD per contenere i consumi, in maniera un po' artificiale a dire la verità. Ma non è la scelta in sè che è in discussione. Anche se la cosa non è pubblicizzata tanto quanto il supporto al EyeInfinity, chissà perchè.
Il fatto è che lo strumento che viene messo a disposizione per ridurre questa limitazione invalida la garanzia. E peggio la invalida per qualsiasi valore viene settato, anche un valore di consumo minore di quello di fabbrica.
E questo anche se a monte rimangono tutti gli altri controlli di assorbimento corrente e temperature.
Viene il dubbio che questi chip siano in qualche modo "delicati". Più del consueto.
Questa storia non mi piace , ma allora se si overclocca questa scheda , il limitatore di tdp entra in funzione ed annulla ogni vantagio che l'aumento di frequenza potrebbe dare ?
Per chi si chiede ancora perché Cayman è stato in ritardo, questa potrebbe essere una risposta ragionevole.
http://www.xtremesystems.org/forums/showthread.php?t=263668
Che se confermata indica che qualcosa non ha funzionato nella progettazione. Tipo il fatto che le frequenze scelte non fossero proprio quelle originali pù basse e che il dissipatore è dovuto "crescere" di conseguenza.
O che la scheda sia stata fatta di fretta e furia... ma con un anno di vantaggio ritengo la cosa poco probabile.
Redazione, notizie a riguardo? Anche la vostra 6850 sembra "limata".
ma allora se si overclocca questa scheda , il limitatore di tdp entra in funzione ed annulla ogni vantagio che l'aumento di frequenza potrebbe dare ?
Esatto. A meno di non spostare lo slider del PowerTune tutto a DX che implica un consumo massimo possibile di 300W (e perchè secondo voi ci sono i connettori da 6+8 pin se la scheda consumasse davvero "solo" 190W max?)
Ma da utenti avanzati come siete usare Google è un problema?
Cos'è, adesso anche l'educazione è passata di moda? Chiedere informazioni adesso è diventato un lusso? Condividere le informazioni tra di noi è diventato un peccato da estirpare?
Da un sito italiano:
Io comunque avevo chiesto il link in cui AMD dichiarava che l'utilizzo di Powertune invalidava la garanzia, non le generiche chiacchiere di un sito italiano.
E invece è così. Se overclocchi ti freghi la garanzia. Leggere i contratto d'uso prima no, eh?
Nessuno dei miei grossisti ha mai fatto problemi di questo tipo, quando ho mandato schede in RMA dei miei clienti sono sempre state sostituite.
Comunque ti ho segnalato, la prossima volta ti consiglio di usare più educazione verso il prossimo, non mi pare che trattare con strafottenza gli altri sia nè sinonimo di intelligenza nè un comportamento corretto da tenere in un forum.
Gualmiro
16-12-2010, 12:11
@Gualmiro
Dovresti sistemare il post perchè sballa tutto il layout della pagina nel browser.
emh... e che gli posso fare? non ho trovato caratteracci fantasma
:boh:
Cioè tutti quelli che hanno acquistato le 8800 Ultra o una GTX280/295 o le schede serie 2xxx e 3xxx di AMD hanno una scheda rotta oggi per va delle temperature pazzesche che raggiungevano. E' questo che vuoi dire? ovviamente no :D
ho riletto il mio post, e mi sembra chiaro. dico solo che avere 85-90 °C è più pericoloso che averne 60-65.
E cosa c'entra la temperatura con la dimensione del die? Se un componente sta a 80° ci sta sia che sia 350 o 500 mm^2. Se quello che intendi è che quello più grande andrà a consumare di più, anche qui dipende da come è fatto il sistema di dissipazione. Bisogna anche dire che die più grandi si possono permettere consumi maggiori, con stessa efficienza di dissipazione rispetto ad un die più piccoli. Quelli piccoli, a parità di potenza assorbita aumenteranno la propria temperatura in misura maggiore.
dimensione del die e temperatura mica ce li ho messi io sullo stesso piano
quello che ho scritto è che due die distinti, uno il 35% più grande dell'altro, a parità di temperatura hanno due quantità di calore enormemente differenti da dover smaltire.
al chip secco non interessano menate varie per fondersi ovviamente, è una questione di mera temperatura.
bene, ma una volta assodato che nessuna scheda video fonde :D per il resto del PCB tutta la varia componentistica, paste rosse e stagnature varie cambia molto avere un chip che riverbera più o meno calore sul resto della scheda.
E comunque, ripeto, a meno di non arrivare a temperature estreme la temperatura raggiunta dal chip è ininfluente, sia che rimanga a 60, 70, 80 o anche vicino ai 90°.
per riassumere quello che dicevo prima, per me il tuo ragionamento è valido per un chip idealmente molto molto piccolo.
l'avere grosse dimensioni ed alta temperatura mette in inutile sofferenza anche la componentistica vicina, che poi è la parte più sensibile delle schede video degli ultimi anni. a meno di non fare overclock veramente selvaggio, nove volte su dieci le schede video che sono da buttare lo sono per ragioni che non stanno né sul chip né sulle memorie
System Shock
16-12-2010, 12:14
Esatto. A meno di non spostare lo slider del PowerTune tutto a DX che implica un consumo massimo possibile di 300W (e perchè secondo voi ci sono i connettori da 6+8 pin se la scheda consumasse davvero "solo" 190W max?)
E se uno sposta lo slider perde la garanzia ? :mbe:
Scrambler77
16-12-2010, 12:14
La redazione non si è accorta di questo:
http://www.xtremesystems.org/forums/showthread.php?t=263668
:asd:
..... si parlava di OC e garanzie
"New AMD PowerTune technology: Designed with intelligent power tuning features, including the introduction of enhanced power containment, the AMD Radeon™ HD 6900 series automatically adjusts GPU power draw by dynamically controlling clock speeds, allowing gamers advanced performance inside of the power envelope they specify.[ii]
[ii] AMD’s product warranty does not cover damages caused by adjusting clocks and voltages even when such adjustments are enabled via AMD OverDrive™ software."
fonte -> http://blogs.amd.com/press/2010/12/15/amd-launches-its-most-advanced-enthusiast-gpu-ever-amd-radeon%E2%84%A2-hd-6900-series-graphics/
non capisco perche' tutta questa delusione...
hanno fatto esattamente quello che mi aspettavo, e IMHO la 6950 per 250 euro e' un affarone
a parte che come prezzo sta ancora sui 290€ ma a questo punto una 5870 a 236€ è ancora di più un affarone no?
Scusa ma proprio non riesco a vederlo questo affarone considerando che la 6950 va pochi fps di più della 5870.
blackshard
16-12-2010, 13:14
No, è diverso. Le schede 6900 hanno una serie di "sensori" che misurano il carico di elaborazione e determinano in anticipo di limitare o meno la corrente. Questo permette una granularità di intervento migliore rispetto al sistema tradizionale che è posto a monte dell'alimentazione che misura solo gli ampere in ingresso rispetto alla temperatura del chip.
A monte di tutto c'è sempre il sistema tradizionale (così se si fa casino con il PowerTune o lo si disabilita in qualche modo o questo fallisce per suo conto a determinare il giusto consumo non si brucia niente), ma il concetto di intervento delle due soluzioni è completamente diverso.
Il sistema usato da nvidia è quello "tradizionale" a monte dell'alimentazione, per cui interviene solo per consumi che vanno ben oltre a quelli massimi consentiti. Ed è attivato tramite driver solo per alcuni specifici test (come appunto FurMark). Nell'uso quotidiano non interviene mai (a meno che non avete tappato la griglia di areazione della scheda).
Con questo PowerTune invece sembra che il livello di consumo imposto da AMD alla scheda sia insufficiente per tenere il carico necessario anche per giochi impegnativi come Metro2033. E probabilmente non è l'unico che ne è affetto.
Per le fonti, basta leggere "altri" siti di tecnologia. Alcuni dei quali non so non possono essere linkati qui per correttezza (anche se credo nella libera circolazione delle informazioni, dato che se qui una informazione non c'è e non si può linkare ad altri siti concorrenti è equivalente alla censura dal mio punti di vista).
Per quanto riguarda la limitazione con Metro: http://www.anandtech.com/show/4061/amds-radeon-hd-6970-radeon-hd-6950/9. L'impatto minimo ma c'è. E non è detto che nel futuro la cosa non si ripresenti con qualche altro super titolo che impegna la oltremodo la scheda.
Mmmh, ho letto bene lo spezzone di articolo che in precedenza aveva saltato.
Dunque powertune è un turbo mode al contrario: se la scheda arriva a consumare più di un certo valore, powertune interviene abbassando la frequenza del core.
Rileggendo la recensione della gtx580 trovo che non è molto diverso dall'approccio di nvidia:
http://www.anandtech.com/show/4008/nvidias-geforce-gtx-580/3
solo che nvidia ha usato dei sensori esterni al chip per controllare l'assorbimento di corrente, mentre amd userebbe un approccio più granulare tenendo conto del consumo in base al carico derivato dall'uso degli SP e degli altri componenti del chip.
Non so se sia il caso di allarmarsi per una cosa del genere per il semplice fatto che questo tipo di limitazione è controproducente in relazione alle prestazioni, nel senso che il trucco di abbassare la frequenza del chip potrebbe essere dannoso per le performance nei benchmark. Però, come mostra anandtech, a parte limitare furmark, powertune ha limitato marginalmente solo metro 2033 in qualche breve frangente. In genere però vedendo che crysis a 2560x1600 non viene limitato, penso che si può andare sul sicuro anche in futuro.
Gabriyzf
16-12-2010, 13:15
corsi e ricorsi storici: ati ha fatto lo stesso di quello che ha fatto nvidia dopo G80: si è seduta sugli allori.
speriamo in un abbassamento di prezzi generale (perlomeno a partire dall'anno nuovo).
blackshard
16-12-2010, 13:19
..... si parlava di OC e garanzie
"New AMD PowerTune technology: Designed with intelligent power tuning features, including the introduction of enhanced power containment, the AMD Radeon™ HD 6900 series automatically adjusts GPU power draw by dynamically controlling clock speeds, allowing gamers advanced performance inside of the power envelope they specify.[ii]
[ii] AMD’s product warranty does not cover damages caused by adjusting clocks and voltages even when such adjustments are enabled via AMD OverDrive™ software."
fonte -> http://blogs.amd.com/press/2010/12/15/amd-launches-its-most-advanced-enthusiast-gpu-ever-amd-radeon%E2%84%A2-hd-6900-series-graphics/
Voglio vedere se prenderanno anche a te per il c*lo come hanno fatto con me quando in un altro thread ho fatto notare questa cosa.
blackshard
16-12-2010, 13:22
a parte che come prezzo sta ancora sui 290€ ma a questo punto una 5870 a 236€ è ancora di più un affarone no?
Scusa ma proprio non riesco a vederlo questo affarone considerando che la 6950 va pochi fps di più della 5870.
Consuma un botto di meno, va' un po' di più, filtri migliorati. Il suo price tag se non erro è 300 dollari, quindi poco più di 250 euro.
System Shock
16-12-2010, 13:24
E se uno sposta lo slider perde la garanzia ? :mbe:
Mi rispondo da solo: anche aumentando solo di un mhz la frequenza della gpu si perde la garanzia.
Quindi è lo stesso discorso immagino valga per il power limit.
Ma quello che mi interessa sarebbe sapere se hanno messo dei registri che tengono conto di queste impostazioni, immagino di no.
Quindi vale il solito discorso uno fa le impostazioni senza esagerare, poi se si rompe qualcosa , supponendo che quasi sicuramente non sia colpa dell'OC, si rispedisce in rma.
mah, vedo tanti discorsi sulla dimensione del chipset , sulla memoria sui profitti delle due rivali ... ma che vi frega? da consumatore io guardo cio' che offrono e se me lo posso permettere ... per tutti i motivi sopra la scelta e' ovvia, personale e condivisibile o meno :rolleyes:Ovvio che ognuno di questi parametri influisce negli ecquilibri tra prezzo/prestazioni/consumi/temperature. Per questo ce ne frega. Sono dettagli non da poco per chi, come me, è interessato a non avere una schede che punta tutto sulla potenza bruta.
leoneazzurro
16-12-2010, 13:37
Dici a me? :confused:
Casco dalle nuvole, dov'è che avrei provocato? ho messo un paio di link sulle review (più ce ne sono, più si ha una visione globale), detto la mia su quel che poteva fare Ati e non ha fatto, quello che imho accadrà in futuro e ipotizzato i punti di vista nella scelta della vga... questo è flammare? :stordita:
Stavo dicendo a tutti in generale, ho visto alzarsi il tono della discussione.
Avevo giá iniziaot a scrivere il mio post prima che tu inviassi il tuo.
Se avessi voluto dire qualcosa a te, ti avrei quotato.
(e i chiarimenti si chiadono in via privata, in caso contrario si tratta di contestazioen pubblica ed é sanzionabile)
emh... e che gli posso fare? non ho trovato caratteracci fantasma
No hai solo sbagliato a fare i quote. Anche nel post dove ho quotato. Se li sistemi dovrebbe tornare tutto a posto.
l'avere grosse dimensioni ed alta temperatura mette in inutile sofferenza anche la componentistica vicina, che poi è la parte più sensibile delle schede video degli ultimi anni.
Sì, cioè no. Avere un componente a 80° vicino, che sia una piastrella o un singolo transistor di potenza non fa alcuna differenza. La temperatura è quella e influisce allo stesso modo sul componente esterno.
Concordo che 60° sono un valore "più bello" di 80°. E che a 60° la componentistica tutta ne risenta di meno. Ma come detto, visti i precedenti di schede con temperature simili (anche se c'è gente che crede che il GF100 abbia raggiunto il record) non mi sembra un problema.
Volevo far notare che le temperature qui misurate sono per case aperti senza il giusto flusso d'aria che invece è presente nei case meglio costruiti. Infatti non ci sono utenti che lamentano temperature di 90°, ma molto inferiori. Quindi l'allarmismo per le temperature critiche che molte schede mostrano (o hanno mostrato nel passato) non è giustificato.
Io comunque avevo chiesto il link in cui AMD dichiarava che l'utilizzo di Powertune invalidava la garanzia, non le generiche chiacchiere di un sito italiano.
Le generiche chiacchiere di un qualsiasi sito italiano ti dovrebbero far venir in mente che probabilmente la cosa possa essere fondata sia che AMD metta un cartello grande come una casa della validità della cosa sul suo sito oppure non lo faccia e la lasci scritta nelle norme d'uso consuete dei suoi prodotti. Anche perché tutte queste review sono "generiche chiacchiere" e quindi non vedo il perché ti affanni tanto a leggerle per trovarne informazioni utili. Non troverai mai sul sito AMD la conferma delle valutazioni di questi bench. Da cui, sicuramente, i dati riportati sono falsi, secondo la tua visione del mondo dell'informazione.
Comunque ti ho segnalato, la prossima volta ti consiglio di usare più educazione verso il prossimo, non mi pare che trattare con strafottenza gli altri sia nè sinonimo di intelligenza nè un comportamento corretto da tenere in un forum.
Grazie per la segnalazione. Magari vinco qualche premio ;)
Per il resto quello che penso io è che uno può non sapere una informazione, e fin lì nessun problema. Ma quando viene rivelata, trovarsi da soli le fonti che confermano o smentiscono è questione solo di saper usare i mezzi che ci sono messi a disposizione. Chiedere le fonti (e quindi link esterni) 2 minuti dopo aver letto il post significa non averci nemmeno provato.
Io non segnalo certo qualcuno alla redazione per la sua incapacità di far qualcosa (tipo non riuscire ad essere educato con certe persone) ma è ovvio che ciascuno si segnala automaticamente al mondo per quello che è. E val certamente di più.
Scusate la polemica ma mi sembra che si stia rasentando il ridicolo.
Gualmiro
16-12-2010, 14:22
Ma quello che mi interessa sarebbe sapere se hanno messo dei registri che tengono conto di queste impostazioni, immagino di no.
Ovviamente al momento attuale non si sa, ma al 99.99% sì.
Non è tanto per beccare chi fa overclock, è solo prassi, soprattutto in fase di sviluppo avanzata. Una volta che li hai lì non vai certo a cambiare un progetto per far sparire due insignificanti rom.
Per quanto ne so io, tutte le AMD/ATi almeno dai tempi della mitica 9600 hanno dispositivi del genere a bordo, e verosimilmente li hanno da sempre un po' tutti CPU e GPU dal Celeron133 in poi.
Nella maggior parte dei casi comunque non è cosa che in RMA controllano, a meno che non sia palese che la schede si è scassata proprio a causa dell'overclock stesso.
Se facessero girare anche le scatole a chi fa overclock perderebbero altri clienti, o magari proibirebbero di vendere schede dal design custom che con specifici accordi si appoggiano comunque alla garanzia del costruttore AMD (prassi comune in usa e giappone, mi sa che in europa è proibita... non saprei)
Però, come mostra anandtech, a parte limitare furmark, powertune ha limitato marginalmente solo metro 2033 in qualche breve frangente. In genere però vedendo che crysis a 2560x1600 non viene limitato, penso che si può andare sul sicuro anche in futuro.
Sì, la limitazione come detto è praticamente ininfluente. Però stai dimenticando che Crysis è un gioco vecchio di 3 anni e non sfrutta tutte le capacità delle schede moderne,mentre Metro2033 è proprio uno dei primi giochi a tentare di farlo. Ed è già al limite del consumo consentito da AMD su queste schede.
Per il futuro non sarei così sicuro.
Quello che ancora non capisco è perché limitare così tanto le prestazioni (al limite di intaccarle in uso normale) su un sistema che in teoria è dimensionato (nella parte di alimentazione) a 300W. Qualche problema più serio di robustezza del chip?
Comunque anche le 69xx ancora hanno tutti i vecchi controlli sull'assorbimento di corrente come le vecchie schede oltre al PowerTune. Volevo solo segnalare che nvidia non è stata la prima a mettere il sistema di controllo dell'assorbimento sulle proprie schede, ma la sua è una strategia copia di quello che AMD ha fatto sulla serie 5xxx. A questo giro AMD ha voluto "esagerare" con il controllo. Forse per testare qualche soluzione da usare in futuro anche nei processori.
blackshard
16-12-2010, 14:51
Sì, la limitazione come detto è praticamente ininfluente. Però stai dimenticando che Crysis è un gioco vecchio di 3 anni e non sfrutta tutte le capacità delle schede moderne,mentre Metro2033 è proprio uno dei primi giochi a tentare di farlo. Ed è già al limite del consumo consentito da AMD su queste schede.
Per il futuro non sarei così sicuro.
Quello che ancora non capisco è perché limitare così tanto le prestazioni (al limite di intaccarle in uso normale) su un sistema che in teoria è dimensionato (nella parte di alimentazione) a 300W. Qualche problema più serio di robustezza del chip?
Comunque anche le 69xx ancora hanno tutti i vecchi controlli sull'assorbimento di corrente come le vecchie schede oltre al PowerTune. Volevo solo segnalare che nvidia non è stata la prima a mettere il sistema di controllo dell'assorbimento sulle proprie schede, ma la sua è una strategia copia di quello che AMD ha fatto sulla serie 5xxx. A questo giro AMD ha voluto "esagerare" con il controllo. Forse per testare qualche soluzione da usare in futuro anche nei processori.
In effetti il discorso su metro2033 ha senso. Dubito comunque che ci siano problemi di affidabilità del chip, altrimenti avrebbero abbassato clock e tensione già da subito (in genere così si fa).
Sulle hd5xxx non ricordavo di componentistica atta a limitare la corrente assorbita, ricordavo però che limitavano furmark via driver già dai tempi delle hd4xxx.
Comunque quello che mi fa girare le scatole è che siamo arrivati veramente a livelli assurdi con i consumi, talmente assurdi che ci si deve inventare questo genere di trucchetti per rimanere entro le specifiche. E le specifiche, a conti fatti, sono del tutto aleatorie. Questo per me non è affatto progresso.
LordShaitan
16-12-2010, 15:53
Ma chi se ne frega delle temperature? Finché non raggiungono il limite di sopportazione del silicio, che importanza può avere che una scheda raggiunga i 60,70 o gli 80°?
Sicuramente il parametro fondamentale è il rumore
Vedo che non hai letto i miei altri post, altrimenti avresti visto che ho detto la stessa cosa che dici tu:
E guarda che le temperature, dal momento che non inficiano l'affidabilità della scheda, interessano proprio per via del rumore minore che si può avere su una scheda più fresca.
Il rumore è anche uno dei motivi principali di chi passa al liquido ;)
La prossima volta prima di quotarmi leggi con più attenzione ;)
Sostitute non significa che se hai una 5800 la devi sostituire con una 6900, ma che le 6900 vanno a sostituire i modelli 5800. Ti devono spiegare anche l'ABC?
E a te devono spiegare la logica?
1- Una sostituta è buona quando effettivamente porta qualcosa di più rispetto al predecessore.
2- Chi passa da una Nvidia 400 a una 500 guadagna sotto ogni aspetto (performance, temperature, i vostri amati consumi, efficienza in generale), chi passa da una AMD 5000 a una 6000 guadagna solo uno sputo in performance. Quindi sì, chi ha una scheda di serie 5000 se la tenga stretta, che una 6950 va praticamente come una 5870 e non porta nessun particolare beneficio.
Veramente è il contrario, a 1680 la 570 è più veloce, a 1920 e oltre la hd6970 è più veloce e, a volte, a 2560x1600 è anche più veloce della 580 (tipo F1 2010)
volevi dire SOLO F1 2010 vero? Sviste casuali...
Vedo che non hai letto i miei altri post, altrimenti avresti visto che ho detto la stessa cosa che dici tu:
Scusa devo aver capito male. Ma come detto se il problema è solo il rumore, a rumore sostenibile non ha importanza che la scheda sia a 60° piuttosto che 80°.
Dubito comunque che ci siano problemi di affidabilità del chip, altrimenti avrebbero abbassato clock e tensione già da subito (in genere così si fa).
Se così avessero fatto queste schede sarebbero state alla pari delle vecchie 5850/70, quindi altro che mezzo flop! Meglio limare il consumo quando ritengono sia necessario.
E le specifiche, a conti fatti, sono del tutto aleatorie. Questo per me non è affatto progresso.
Le specifiche indicano un consumo massimo delle periferiche PCI-E di 300W. Qui siamo ben lontani dal raggiungerle, per cui il motivo di questa restrizione è ancora da comprendere. Il voler tenere un consumo massimo contenuto è una motivazione, ma arrivare al limite di frenare le prestazioni nell'uso normale della scheda per ottenerlo mi pare eccessivo per giustificarla.
per avere temperature simili alla 580, la 6970 è più rumorosa ---> a parità di rumore è più calda :D
Come detto sopra, si dovrebbe fare il confronto delle schede per intero, e non solo del chip.
Se anche GF110 scalda di più di per sè, ma col dissipatore vapor chamber che ti dà Nvidia alla fine scalda uguale e con meno rumore (oppure scalda meno a parità di rumore, il che è innegabile, se aumento la rotazione della ventola fino a raggiungere i Db della AMD la temperatura scende) allora contano le temperature del prodotto finale. :)
Ma guarda che ero io a dire che non ha senso fare confronti ipotizzando dissipatori o rumori uguali, bisogna semplicemente misurare quello che ogni scheda fa, punto e basta.
Sei tu che partivi dal rumore per dimostrare che la GTX580 scalda di meno.
Ovviamente, se il tuo ragionamento era quello di dire che il chip scalda meno, visto che hanno tmp simili ma con un rumore inferiore per Nvidia, ti facevo notare che in quel caso entrava in gioco l'efficienza del dissipatore e che semmai, per avere un'idea del calore prodotto dal chip, avrebbe più senso fare riferimento ai dati di consumo.
Relativamente al rumore, poi, fai riferimento ai dati del test di HWU, il quale dice che la GTX580 è più silenziosa della HD6970 di 4,7 dB, ma ci sono dati diametralmente opposti nel WEB, p.e. Anandtech dice che è la HD6970 ad essere più silenziosa di ben 5,3 dB, Techpower dice invece che producono lo stesso rumore...
edit@ Ho in parte capito cosa intendevi con il tuo primo mex, cioè che, prendendo le VGA come stanno, se aumento la velocità di rotazione della ventola della GTX580 fino ad avere una pressione sonora uguale a quella della HD6970, a quel punto otterrò una VGA meno calda. Rimane la mia obiezione che ciò è valido in questo test, ma se vado a guardarmi altri test trovo dati ben diversi relativi al rumore, quindi meglio valutare le tmp da una parte ed il rumore dall'altra, magari andandosi a vedere anche altri test, visto che per il rumore, da quanto si evince, con metodoglogie diverse si arriva a risultati diametralmente opposti, quindi è un dato troppo variabile per poter essere utilizzato per fare ipotesi relative ad altri parametri.
Come mai non vedo Bad Company2 nei giochi utilizzati per i test eppure è molto valido e le AMD in questo gioco fanno anche bella figura?
Strato1541
16-12-2010, 16:57
Si può andare avanti all'infinito.. a questo punto la cosa più sensata che si possa dire è.. aspettiamo un mesetto che i prezzi si assestino e che un pò di utenti le provino, così che si possano avere le impressioni di chi le prova.
Io dubito fortemente che hwp o altri siti facciano appositamente rilevazioni tendenziose(stando sui siti più conosciuti e menzionati anche da riviste informatiche, il gruppetto di amici che fà prove magari è un pò meno attendibile per molte ragioni)..
C'è anche da dire che i titoli testati girando per la rete dai vari siti non sono sempre gli stessi, è quindi difficile stilare una lista uguale per tutti e fare delle statistiche precise.Anche le configurazioni sono spesso diverse.. chi con 980x e scheda madre gigabyte, chi con 920 oc 4 ghz e scheda madre asus.. chi con 975 etc..Poi le memorie..Poi il banco prova.. sono tante variabili he.. tutte da riconsiderare ogni volta..Ah dimenticavo anche le diverse versioni dei driver.
Tutto questo per dire andiamoci piano a fare allusioni alla scarsa professionalità di un sito o di un altro e leggiamo le cose in modo coerente e onesto..
Perchè in questa occasione (ma anche in altre) passano nell'ombra quelle che sono le prestazioni pure(vedi 6950 che và poco più di una 5870) e si và a parare in consumi e temperature, quando da una nuova generazione ci si aspetta certo efficienza ma anche prestazioni maggiorate degne di nota rispetto alla precedente..e in questo frangente siccome è avvenuto in modo marginale in questa occasione si cerca di farlo passare in sordina..
LordShaitan
16-12-2010, 16:58
Ma guarda che ero io a dire che non ha senso fare confronti ipotizzando dissipatori o rumori uguali, bisogna semplicemente misurare quello che ogni scheda fa, punto e basta.
Sei tu che partivi dal rumore per dimostrare che la GTX580 scalda di meno.
Ovviamente, se il tuo ragionamento era quello di dire che il chip scalda meno, visto che hanno tmp simili ma con un rumore inferiore per Nvidia, ti facevo notare che in quel caso entrava in gioco l'efficienza del dissipatore e che semmai, per avere un'idea del calore prodotto dal chip, avrebbe più senso fare riferimento ai dati di consumo.
Relativamente al rumore, poi, fai riferimento ai dati del test di HWU, il quale dice che la GTX580 è più silenziosa della HD6970 di 4,7 dB, ma ci sono dati diametralmente opposti nel WEB, p.e. Anandtech dice che è la HD6970 ad essere più silenziosa di ben 5,3 dB, Techpower dice invece che producono lo stesso rumore...
edit@ Ho in parte capito cosa intendevi con il tuo primo mex, cioè che, prendendo le VGA come stanno, se aumento la velocità di rotazione della ventola della GTX580 fino ad avere una pressione sonora uguale a quella della HD6970, a quel punto otterrò una VGA meno calda. Rimane la mia obiezione che ciò è valido in questo test, ma se vado a guardarmi altri test trovo dati ben diversi relativi al rumore, quindi meglio valutare le tmp da una parte ed il rumore dall'altra, magari andandosi a vedere anche altri test, visto che per il rumore, da quanto si evince, con metodoglogie diverse si arriva a risultati diametralmente opposti, quindi è un dato troppo variabile per poter essere utilizzato per fare ipotesi relative ad altri parametri.
Esatto ora hai capito ;)
Alla fine diciamo le stessa cosa :D
Anche perchè sono d'accordo con te, se le review sono così discordanti su questo aspetto non resta che fare una media dei dati forniti dalle stesse, oppure attendere qualche user review attendibile...mah, certo che sarebbe meglio se i siti si uniformassero con gli strumenti e i metodi di rilevamento :(
Scusa devo aver capito male. Ma come detto se il problema è solo il rumore, a rumore sostenibile non ha importanza che la scheda sia a 60° piuttosto che 80°.
Tranquillo! Comunque sono d'accordo con te ;)
Come mai non vedo Bad Company2 nei gioc
Se è per quello manca anche StarCraft 2 dove le amate configurazioni dual GPU valgono la metà, inclusa "la scheda più potente del pianeta", che non va di più di una 6870. E Antilles non farà tanto meglio.
Quindi?
psychok9
16-12-2010, 17:02
Di solito c'è lo shrink, stavolta sono saltati i 32nm per tutti... e quindi via di 28nm... dove penso faranno anche dei cambi anche nell'architettura.
Altro che tick/tock :)
Inoltre mi pare che il mercato chieda prezzi più bassi, (guarda il successo delle gtx 460/6850) e non prestazioni assurde per software e giochi che non esistono... ;) e per un mercato che è striminzito... e con bassi margini di vendita. Le console poi fanno il resto...
A me sinceramente queste schede ingolosirebbero non poco... se potessi cambiarla :)
Ale55andr0
16-12-2010, 17:11
Inoltre mi pare che il mercato chieda prezzi più bassi, (guarda il successo delle gtx 460/6850) e non prestazioni assurde per software e giochi che non esistono... ;)
Perchè dici questo? :confused: Giocare in 1920x1200 ormai non è più uno stralusso, i prezzi dei monitor sono crollati, e se guardi bene le recensioni delle top di Ati ed nVidia (580-6970) non mi pare di vedere a 1920x1200 full detail cose come 150fps, ma un numero di fotogrammi adeguato a giocare "gustosamente" e ad avere frame minimi tali da non vedere scatti nelle situazioni concitate (bisogna sempre lasciare un margine no?)... quindi non vedo nessuno spreco o prestazioni "assurde", ma prestazioni adeguate a divertirsi senza compromessi :)
asefello
16-12-2010, 17:44
di positivo dell' uscita della serie GTX 5xx e HD 69xx è il crollo dei prezzi della 5970 che rimane scheda a 40nm e DX11 che nulla ha in meno delle nuove nate, anzi... e che secondo il listino attuale costa dalle 40 alle 80€ in meno della top di gamma NVIDIA e va più forte;
aspettiamo la 6990 per mettere la parola fine su quale sarà la scheda di vertice del primo trimestre 2011 su singolo PCB a meno che Nvidia nn tolga una dual GPU raffraddata ad azoto :ciapet: :ciapet: :ciapet: per tenere il PCB fresco :Prrr:
Di solito c'è lo shrink, stavolta sono saltati i 32nm per tutti... e quindi via di 28nm... dove penso faranno anche dei cambi anche nell'architettura.
L'architettura l'hanno già cambiata con Cayman. Non è che tutti i mesi si può creare una architettura nuova. La cosa ha un costo non indifferente e richiede anche abbastanza tempo. Al max possono "tunare" quello che ormai hanno creato.
Certo che ormai il bus a 256bit ha raggiunto il max. A meno di non usare memorie da 7+GHz la banda è ormai questa. Se vi sarà una cosa che modificheranno a 28nm sarà probabilmente la dimensione del bus (che a sua volta influirà sulle dimensioni del die... che se cresce ancora un po' magari per dare anche più spazio ai buffer interni quando il numero di shader aumenterà, raggiunge le dimensioni delle piastrelle di nvidia :) ).
aspettiamo la 6990 per mettere la parola fine su quale sarà la scheda di vertice del primo trimestre 2011 su singolo PCB
E cosa di nuovo porterebbe tale scheda quando oggi puoi già fare un cross di 6970 e sapere già che andrai più forte? Solo il fatto che compare il nome della scheda nei benchmark come sigla semplice invece che con il prefisso CrossFire? Utile.
LordShaitan
16-12-2010, 18:00
E cosa di nuovo porterebbe tale scheda quando oggi puoi già fare un cross di 6970 e sapere già che andrai più forte? Solo il fatto che compare il nome della scheda nei benchmark come sigla semplice invece che con il prefisso CrossFire? Utile.
Porterebbe che non tutti hanno una scheda madre che supporta il Crossfire, e per loro la 6990 sarebbe la scelta migliore.
Poi bisogna anche vedere il prezzo, se costerà meno di un cross di 6970 e andrà poco di meno sarebbe un'altro vantaggio.
asefello
16-12-2010, 18:20
E cosa di nuovo porterebbe tale scheda quando oggi puoi già fare un cross di 6970 e sapere già che andrai più forte? Solo il fatto che compare il nome della scheda nei benchmark come sigla semplice invece che con il prefisso CrossFire? Utile.
andare più forte ora non ha senso ma tra 2 anni magari puoi fare un cross di 6990 che non sarà paragonabile ad un cross di 6970 e poi l'idea di occupare due PCIe ora proprio non me gusta tra controller, schede audio e schede di rete...
si continua a parlare di soluzioni sli-crossfire quasi fossero convenienti quando invece sono tutt'altro che esenti da problemi di driver e\o compatibilita' e non parliamo dei consumi e del calore. Singola scheda tutta la vita per quanto mi riguarda.
scrat1702
16-12-2010, 18:46
Porterebbe che non tutti hanno una scheda madre che supporta il Crossfire, e per loro la 6990 sarebbe la scelta migliore.
Poi bisogna anche vedere il prezzo, se costerà meno di un cross di 6970 e andrà poco di meno sarebbe un'altro vantaggio.
Ma LOL!!! Indicaci almeno una mobo di questo volpone immaginario che non supporti il crossfire!!! Se parliamo di Sli il discorso cambia ma con il cross problemi non ce ne sono, soprattutto considerando il costo di queste schede! E proprio una coincidenza limite, piu plausibile la spiegazione di non voler occupare 2 slot per problemi di spazio se uno ha molte periferiche nel Pc e visto che parliamo di enthusiast e piu probabile.
DarthFeder
16-12-2010, 18:53
Ma LOL!!! Indicaci almeno una mobo di questo volpone immaginario che non supporti il crossfire!!! Se parliamo di Sli il discorso cambia ma con il cross problemi non ce ne sono, soprattutto considerando il costo di queste schede! E proprio una coincidenza limite, piu plausibile la spiegazione di non voler occupare 2 slot per problemi di spazio se uno ha molte periferiche nel Pc e visto che parliamo di enthusiast e piu probabile.
Difficilmente schede madri mini-micro ATX hanno il secondo slot Pci-Express...
Ecco i "volponi", e sono tutt'altro che immaginari :rolleyes: conosco diverse persone che per motivi di spazio si sono fatti sistemi dalle dimensioni ridotte in modo da poterli attaccare alla tv in salotto, senza tuttavia rinunciare alle prestazioni. Un PhenomII/i5+vga gaming in un case miniATX ci stanno, due vga no.
LordShaitan
16-12-2010, 18:58
Ma LOL!!! Indicaci almeno una mobo di questo volpone immaginario che non supporti il crossfire!!! Se parliamo di Sli il discorso cambia ma con il cross problemi non ce ne sono, soprattutto considerando il costo di queste schede! E proprio una coincidenza limite, piu plausibile la spiegazione di non voler occupare 2 slot per problemi di spazio se uno ha molte periferiche nel Pc e visto che parliamo di enthusiast e piu probabile.
E' inutile che lolli :D
Innanzitutto ce n'è più di una, soprattutto nel segmento mini-micro-atx, scelto spesso per computer da lan-party o per problemi di spazio.
Secondo, il discorso si può estendere anche a configurazioni con più gpu, ovvero, se una scheda madre supporta solo 2 VGA, e l'utente volesse un Crossfire con 3x 6970, può comunque farsi un CrossfireX con 2 6990 (4 VGA)
Poi chiaramente uno può dire, ma se spende tutti sti soldi per le vga perchè non si cambia anche la mobo? Beh non a tutti và di smontare tutto e formattare solo per un cambio di VGA, o magari ha finito il budget, e questa sarebbe la scelta giusta per loro.
Sono casi limite? SI. Ma l'utenza di queste schede è talmente ristretta che bisogna considerare anche questi.
Poi chiaramente ci sono anche le varie periferiche PCI come già detto.
EDIT:
Difficilmente schede madri mini-micro ATX hanno il secondo slot Pci-Express...
Ecco i "volponi", e sono tutt'altro che immaginari :rolleyes: conosco diverse persone che per motivi di spazio si sono fatti sistemi dalle dimensioni ridotte in modo da poterli attaccare alla tv in salotto, senza tuttavia rinunciare alle prestazioni. Un PhenomII/i5+vga gaming in un case miniATX ci stanno, due vga no.
Mi hai preceduto :D
blackshard
16-12-2010, 19:52
E a te devono spiegare la logica?
1- Una sostituta è buona quando effettivamente porta qualcosa di più rispetto al predecessore.
2- Chi passa da una Nvidia 400 a una 500 guadagna sotto ogni aspetto (performance, temperature, i vostri amati consumi, efficienza in generale), chi passa da una AMD 5000 a una 6000 guadagna solo uno sputo in performance. Quindi sì, chi ha una scheda di serie 5000 se la tenga stretta, che una 6950 va praticamente come una 5870 e non porta nessun particolare beneficio.
1- Ok, una sostituta è buona quando è >= rispetto a quello che sostituisce, ma non troppo, sennò non è più una sostituta. La hd6970 mi pare raggiunga i livelli di una gtx570, cosa che la hd5870 non faceva. Lo fa con un consumo appena marginalmente superiore. Insomma, tutto il mondo SA' che le hd69xx avrebbero sostituito le hd58xx, mentre tu cadi dalle nuvole. Andiamo, perchè ti vuoi così male?
(hwupgrade trivia: chi è la sostituta della gtx480? La gtx570 o la gtx580?)
2- Ma perchè secondo te chi ha una gtx480 dovrebbe cambiarla e spendere altre 500 euro per comprare una gtx580? Io penso che nessuno si sentirà offeso se dico che uno che fa' una cosa del genere è un demente, così come è un completo demente chi si toglie una hd5870 e prende una hd6970. Veramente questi so' numeri abbi pazienza.
volevi dire SOLO F1 2010 vero? Sviste casuali...
Ok, se proprio vuoi che sia pedante non mi faccio problemi a spaccare il capello. Eccoti accontentato:
In AvP la hd6970 a 1920x1200 in su' va' meglio della gtx570
In Crysis Warhead la hd6970 a 2560x1200 va' meglio della gtx570 (a 1920x1200 perde per 2 fps su 34)
In Dirt2 la gtx570 va' sempre meglio della hd6970
In Far Cry 2 la hd6970 va' meglio della gtx570 a 2560x1600 (a 1920x1200 perde per 5 fps su 113)
In Hawx la gtx570 va' sempre meglio della hd6970
In Just Cause 2 la hd6970 va' meglio della hd6970 a 2560x1600 (anche se a 1920x1200 perde di quasi 20fps su 119, sarà la memoria da 2gb?)
In Mafia 2 la hd6970 va' meglio della gtx570 a 2560x1600 e quasi raggiunge la gtx580 per 2 fps (a 1920x1200 rispetto alla gtx570 perde di 1fps su 87)
In metro2033 la hd6970 va' sempre meglio della gtx570 e quasi raggiunge la gtx580
In resident evil la hd6970 va' decisamente meglio della gtx570 da 1920x1200 in su', e a 2560x1600 per 3 fps su 88 non raggiunge la gtx580.
In F1 2010 va' sempre meglio della gtx580.
Totale:
Ora io non so quali fette di salame offuscano gli occhi della gente ma vedo che su 10 giochi:
a 1920x1200 in 3 giochi la hd6970 va' meglio (AvP, Resident Evil, F1 2010) , su 3 perde per minimo 1 e massimo 5 fps (Crysis Warhead, Mafia 2, Far Cry 2), in 4 va' peggio della gtx570.
a 2560x1600 in 8 (otto) giochi la hd6970 va' meglio della gtx570, in due va' peggio.
In tre occasioni a 2560x1600 lo scarto rispetto alla gtx580 è di meno di 3 fps (metro2033, resident evil e mafia2), negli altri casi si attesta sulla decina di fps in genere.
In una occasione (F1 2010, unico gioco DX11) va' meglio della gtx580 a tutte le risoluzioni.
Tirando le somme:
Possiamo dire, dopo quanto esposto, che a 1920x1200 equivale ad una gtx570?
Possiamo dire, dopo quanto esposto, che a 2560x1600 supera la gtx570 e scalfisce anche la gtx580?
Dimmi tu cosa possiamo dire.
scrat1702
16-12-2010, 20:08
Difficilmente schede madri mini-micro ATX hanno il secondo slot Pci-Express...
Ecco i "volponi", e sono tutt'altro che immaginari :rolleyes: conosco diverse persone che per motivi di spazio si sono fatti sistemi dalle dimensioni ridotte in modo da poterli attaccare alla tv in salotto, senza tuttavia rinunciare alle prestazioni. Un PhenomII/i5+vga gaming in un case miniATX ci stanno, due vga no.
E' inutile che lolli :D
Innanzitutto ce n'è più di una, soprattutto nel segmento mini-micro-atx, scelto spesso per computer da lan-party o per problemi di spazio.
Secondo, il discorso si può estendere anche a configurazioni con più gpu, ovvero, se una scheda madre supporta solo 2 VGA, e l'utente volesse un Crossfire con 3x 6970, può comunque farsi un CrossfireX con 2 6990 (4 VGA)
Poi chiaramente uno può dire, ma se spende tutti sti soldi per le vga perchè non si cambia anche la mobo? Beh non a tutti và di smontare tutto e formattare solo per un cambio di VGA, o magari ha finito il budget, e questa sarebbe la scelta giusta per loro.
Sono casi limite? SI. Ma l'utenza di queste schede è talmente ristretta che bisogna considerare anche questi.
Poi chiaramente ci sono anche le varie periferiche PCI come già detto.
EDIT:
Mi hai preceduto :D
Eh si adesso tutti gli enthusiast hanno case e mobo micro ATX :muro: Ma dai su quanti sono gli utenti di 5970 (6990) che hanno una mo0bo micro ATX??? E azzardo anche qualora avessero una mobo del genere si prendono almeno una GENE che guarda caso hanno 2 slot Pci-Ex!
Percio il vostro discorso non sta molto in piedi ;)
DarthFeder
16-12-2010, 20:30
Eh si adesso tutti gli enthusiast hanno case e mobo micro ATX :muro: Ma dai su quanti sono gli utenti di 5970 (6990) che hanno una mo0bo micro ATX??? E azzardo anche qualora avessero una mobo del genere si prendono almeno una GENE che guarda caso hanno 2 slot Pci-Ex!
Percio il vostro discorso non sta molto in piedi ;)
Io ho solo detto che conosco persone che l'hanno fatto, non ho detto che TUTTI hanno una miniATX, o che queste persone costituiscono la fascia dominante del mercato.
Prendi atto che ci sono, e basta :)
Conosco una persona che ha una comunissima Asrock miniATX e ci ha montato un PhenomII e una 5870: se uno non è interessato a fare overclocking o ad avere una mobo con millemila funzioni non è detto che prenda mobo di fascia alta. E comunque dai, la gene potrà avere due slot pci-e, ma nessun sano di mente metterebbe sul serio due vga di fascia alta in una scatoletta che ha ventilazione praticamente pari a zero :asd:
Ps: i pc per lanparty che vanno tanto di moda negli usa montano miniATX e vga di fascia alta, e non è affatto detto che siano asus gene...
LordShaitan
16-12-2010, 20:32
Eh si adesso tutti gli enthusiast hanno case e mobo micro ATX :muro: Ma dai su quanti sono gli utenti di 5970 (6990) che hanno una mo0bo micro ATX??? E azzardo anche qualora avessero una mobo del genere si prendono almeno una GENE che guarda caso hanno 2 slot Pci-Ex!
Percio il vostro discorso non sta molto in piedi ;)
Guarda che non esistono solo gli enthusiast, ma anche i GAMER, ovvero persone non particolarmente appassionate di hardware ma che vogliono giocare ai videogiochi senza compromessi, e per loro una scheda madre micro ATX và benissimo, soprattutto come dicevo per i LAN party.
Inoltre, anche nel caso in cui comprassero una GENE, vale il discorso del CrossfireX con 2x 6990, decisamente superiori a 2x 6970.
Quindi il nostro discorso sta in piedi ;)
Totenrune
16-12-2010, 20:39
Come tutti, mi sarei aspettato prestazioni ben superiori. Rispetto ai prezzi massimi indicati per 6950 e 6970, a questo punto conviene spendere qualcosa di più per la 570. In ogni caso, le prestazioni delle nuove AMD non è che si discostino poi molto dalle nostre beneamate HD5850 e HD5870 :)
che amd stia adottando la tecnica tick/tock di intel?
non penso ci siano dubbi, almeno per quanto riguarda queste ultime 2-3 serie.
cmq l'architettura è decisamente diversa dalla serie 5000, e la 6870 ha meno "processori" della 5870, organizzati diversamente.
ma non si può definire un'architettura NUOVA(comè stata FERMI per nvidia). la nuova sarà NI(HD7000). questa SI è solo un'ibrida, per provare qualche carateristica della futura architettura.
2- Chi passa da una Nvidia 400 a una 500 guadagna sotto ogni aspetto (performance, temperature, i vostri amati consumi, efficienza in generale), chi passa da una AMD 5000 a una 6000 guadagna solo uno sputo in performance. Quindi sì, chi ha una scheda di serie 5000 se la tenga stretta, che una 6950 va praticamente come una 5870 e non porta nessun particolare beneficio.
ma questo è ovvio.
le serie 400, a differenza della 500, è stata una serie tutt'altro che buona(esclusa la 465). le 500, sono ottime vga che sono la vera evoluzione di FERMI e che hanno polverizzato la vecchia serie 400, la quale era solo "un'abbozzo di FERMI".
la situazione è diversissima per ATI, la cui serie HD5000 era ottima in tutto e per tutto. per proporre una nuova serie decisamente migliore, avrebbe dovuto proporre interamente la nuova architettura(NI), la quale, forse non è ancora pronta o chissà cosa... cosi si sono limitati a offirire SI, che presenta alcuni tratti della futura architettura, e che appunto non si discosta di molto da HD5000
System Shock
16-12-2010, 21:51
Ovviamente al momento attuale non si sa, ma al 99.99% sì.
Non è tanto per beccare chi fa overclock, è solo prassi, soprattutto in fase di sviluppo avanzata. Una volta che li hai lì non vai certo a cambiare un progetto per far sparire due insignificanti rom.
Per quanto ne so io, tutte le AMD/ATi almeno dai tempi della mitica 9600 hanno dispositivi del genere a bordo, e verosimilmente li hanno da sempre un po' tutti CPU e GPU dal Celeron133 in poi.
Nella maggior parte dei casi comunque non è cosa che in RMA controllano, a meno che non sia palese che la schede si è scassata proprio a causa dell'overclock stesso.
Se facessero girare anche le scatole a chi fa overclock perderebbero altri clienti, o magari proibirebbero di vendere schede dal design custom che con specifici accordi si appoggiano comunque alla garanzia del costruttore AMD (prassi comune in usa e giappone, mi sa che in europa è proibita... non saprei)
Grazie per la risposta veramente esaudiente ;)
Ma dai, state scherzando vero?
Sto parlando di inserire una 5970 (o 6990) in un case fatto per motherboard mini-ATX. Ma sapete quanto è lunga una 5970? Non ci sta nella gran parte dei case per ATX normali e voi la volete montare in un case per mini-ATX, così, tanto per risparmiare spazio.
Sì, perchè raffreddare una 5970 (o 6990 che sia) è più facile che 2 6970. 2 forni da raffreddare con una ventola sono meglio di 2 forni da raffreddare con 2 ventole. Con 2 schede e 2 ventole separate l'aria raccolta e sparata fuori dal case è doppia.
E poi, sì, tutti mettono in un mini case per schede mini-ATX un alimentatore da 700 è più watt per alimentare un cross fire. No, quello non deve essere raffreddato. Anzi, metto il tutto in un armadietto sotto la TV così almeno non sento neanche il rumore delle ventole.
E sicuro. 2x6990 sono un affare. E' risaputo da tempo che sistemi a 3 più GPU scalano in maniera perfetta e che montare 3 o (perchè no?) 4 GPU porta vantaggi notevoli in tutti i giochi.
Farsi un 2x6990 tra 2 anni? Ma a quel punto ci saranno schede single GPU che andranno altrettanto forti e non avranno nessun problema di supporto driver (che in una soluzione quad GPU è critica oltremodo). E consumeranno molto meno che la soluzione 2x6990.
Ma per favore. Qui si è caduti nel ridicolo assoluto per cercare di arrampicarsi sugli specchi.
Se si vuole fare uno SLI/Crossfire con tutti i problemi annessi, posso anche concepirlo. Ma che mi si dica che c'è un qualche vantaggio a farlo su scheda singola per le baggianate che avete elencato qui, signori... suvvia. C'è gente che ha un Q.I. più alto di 80 tra chi vi legge!
Manca solo che esca qualcuno che vuole usare la 6990 con un Atom su mini-ITX e siamo a posto.
La 6990 sarà una scheda tanto inutile quanto la 5970. Se uno vuole una configurazione crossfire perchè vuole le prestazioni nei giochi supportati, se lo fa oggi con una coppia 6970. Aspettare la 6990 per dire che si ha (o esiste) la scheda grafica più potente sulla terra è stupido. Perchè non è vero. Serve solo per pubblicità. La 6990 è una soluzione, come un'altra, che ha gli stessi svantaggi di una coppia di schede separate. Non porta nulla di nuovo che oggi non sia già possibile ottenere. Solo che andrà di meno e dovrà sottostare alle specifiche di consumo PCI-E. Cosa che 2 schede separate non devono.
Avere invece una scheda a singola GPU che va più veloce invece è una cosa che permette di ottenere risultati che prima non erano possibili. E li si ottiene sempre, indipendentemente dal supporto dei driver realizzati ad hoc per ogni singolo gioco che vorremmo giocare. Che non è poco, per chi vuole realmente giocare. E in questo caso non c'è una soluzione come un'altra che ha gli stessi vantaggi.
Mi sembra chiaro che la questione crossfire su singolo PCB sia solo pretestuosa e non abbia alcun fondamento razionale che la possa sostenere. E guarda caso è sostenuta solo da una singola schiera di fan di una determinata casa: quella che con scheda a singola GPU arriva sempre seconda ;)
Se necessitate di 2 GPU per elevarvi a supremi dominatori dei bench, non è un problema. Ma che queste siano sensate solo se stanno su singola scheda la vedo come una caz**ta immane. Che però, giustamente e alquanto inutilmente, vi fa godere nei bench (e soltanto in quelli, visto che nella vita reale 2 schede separate sono meglio. Lo sono sempre state e sempre lo saranno se non cambia la tecnologia di sfruttamento delle GPU separate in maniera radicale). E senza ombra di dubbio, una soluzione equivalente su singola GPU ha un vantaggio indiscutibile. E forse anche più di uno.
blackshard
16-12-2010, 23:01
la situazione è diversissima per ATI, la cui serie HD5000 era ottima in tutto e per tutto. per proporre una nuova serie decisamente migliore, avrebbe dovuto proporre interamente la nuova architettura(NI), la quale, forse non è ancora pronta o chissà cosa... cosi si sono limitati a offirire SI, che presenta alcuni tratti della futura architettura, e che appunto non si discosta di molto da HD5000
Qui spiega in italiano abbastanza chiaro cos'è Cayman:
http://www.dinoxpc.com/articolo/Radeon+HD+6970+ed+il+nuovo+approccio+di+AMD_1158-2.htm
direi molto interessante.
Qui spiega in italiano abbastanza chiaro cos'è Cayman:
http://www.dinoxpc.com/articolo/Radeon+HD+6970+ed+il+nuovo+approccio+di+AMD_1158-2.htm
direi molto interessante.Grazie per il link molto interessante ;)
Ale55andr0
16-12-2010, 23:09
La 6990 sarà una scheda tanto inutile quanto la 5970.
Dissento :O
Aggiungo: non credo proprio che delle vga più economiche in crossfire possano tenere testa alla 6990 che avrà gpu più potenti e memorie più veloci, oltre che un quantitativo di videoRAM maggiore (sarà sicuramente una 2+2, quindi volerà in 2560x1600). Pur non simpatizzando assolutamente per le multi GPU, non vedo dove stia l'inutilità nell'avere una scheda high end nel prezzo e nelle prestazioni e che occupa un solo slot, senza contare che così ci si può fare un quad crossfire (a proposito, chissà se scalerà bene come le nuove in semplice crossfire :)). Inoltre l'esercizio teccologico è tale e quale a GTX580, ognuno sceglie le proprie strade per arrivare ad un fine prefissato. Se dovessimo ragionare così allora dovrebbero esistere solo complessissime cpu singlecore da 10ghz, quando con 4 o più core meno complessi e spinti ottieni comuqnue una potenza totale equivalente. Mi pare che il calcolo parallelo sia ormai la norma è la strada che verrà perseguita in futuro
Se uno vuole una configurazione crossfire perchè vuole le prestazioni nei giochi supportati, se lo fa oggi con una coppia 6970. Aspettare la 6990 per dire che si ha (o esiste) la scheda grafica più potente sulla terra è stupido. Perchè non è vero.
Qua proprio non ti seguo, la 6990 sarà molto probabilmente la vga iù veloce in assoluto, a meno che anche nVidia non voglia realizzare una dual (credo di sì, ma non ci metto la mano sul fuoco, bisognerà vedere poi le tempistica, se esce dopo è ovvio che sarà più veloce)
Ed in ogni caso, come successo fin dal primo Radeon (e pure prima :asd:) è sempre meglio dare il beneficio del driver :asd:
Inoltre l'esercizio teccologico è tale e quale a GTX580
Ma non credo proprio. Cosa ti sfugge del ragionamento riguardo ai driver ad hoc per ogni gioco/applicazione che deve girare su una configurazione multi GPU?
non credo proprio che delle vga più economiche in crossfire possano tenere testa alla 6990 che avrà gpu più potenti e memorie più veloci
GPU più potenti di cosa se è necessario che il consumo massimo sia contenuto in 300W? Secondo te la 5970 ha le 2 GPU AMD più potenti esistenti? Mai notato che 2x5870 danno la biada alla 5970 in tutte le condizioni?
Memorie più veloci? La 6970 monta memorie da 5.5GHz! Mica da 2 o 3! Cosa credi che le memorie da 6+ GHz crescano sulle piante e costino 2 lire?
4 GPU non scalano minimamente come 2. Sempre se si hanno vantaggi e non problemi. Vedere i test dove sono usati Crossfire o SLI di 3 o più schede.
2+2 GB sarebbero un vantaggio su una soluzione a doppia GPU? O signùr... chi gli spiega pazientemente qualcosa su come funziona uno SLI? Grazie mille
Se dovessimo ragionare così allora dovrebbero esistere solo complessissime cpu singlecore da 10ghz, quando con 4 o più core meno complessi e spinti ottieni comuqnue una potenza totale equivalente
Infatti non è così, altrimenti invece di Fermi oggi avremmo soluzioni 4x o 8x di G92 e invece si Cayman soluzioni analoghe di RV870 (aka il chip della serie 4xxx di AMD).
Invece i chip di nvidia sono sempre di circa 500mm^2 da 3 serie e con PP che da 80nm è arrivato a 40nm (= Fermi è 4 volte un G80) e quelli di AMD sono passati da 256mm^2 a 390mm^2. I transistor sono passati da poco più di mezzo miliardo a 2,6/3 miliardi.
Come vedi le soluzioni multi GPU sono soluzioni di nicchia utili solo nel campo consumer per quei 4 giochi in croce che supportano SLI/Crossfire. Infatti tali soluzioni sono una inezia rispetto al venduto. Per tutto il resto avere una GPU singola da 10GHz e qualche decina di miliardi di transistor è molto meglio. Ed è per tale motivo che entrambe le case fanno di tutto per arrivarci. Anche se chi arriva secondo si nasconde dietro la finta coperta del multichip (ma intanto ad ogni generazione ha il die che cresce continuamente, diminuisce il gap con il numero di transistor rispetto alla concorrenza e alza le frequenze cosa che non avrebbe senso se con 2,3,4 GPU meno potenti riuscisse ad avere gli stessi risultati, no?).
blackshard
17-12-2010, 00:31
Come vedi le soluzioni multi GPU sono soluzioni di nicchia utili solo nel campo consumer per quei 4 giochi in croce che supportano SLI/Crossfire. Infatti tali soluzioni sono una inezia rispetto al venduto. Per tutto il resto avere una GPU singola da 10GHz e qualche decina di miliardi di transistor è molto meglio. Ed è per tale motivo che entrambe le case fanno di tutto per arrivarci. Anche se chi arriva secondo si nasconde dietro la finta coperta del multichip (ma intanto ad ogni generazione ha il die che cresce continuamente, diminuisce il gap con il numero di transistor rispetto alla concorrenza e alza le frequenze cosa che non avrebbe senso se con 2,3,4 GPU meno potenti riuscisse ad avere gli stessi risultati, no?).
A questo giro, secondo me, la soluzione multichip ATi sarà simile alla hd5970, cioè due hd6950 accoppiati. Memorie più veloci non servono, i bus sono raddoppiati.
Il vero problema è che sarà completamente inutile, come sono inutili tutte le attuali schede di fascia ultra alta, perchè tanto non c'è risoluzione a cui ti può necessitare così tanta potenza. La scheda più veloce è solo uno specchietto per le allodole, non ti porta soldi perchè vende, ti porta soldi perchè ti fa pubblicità (e tutti quelli che gridano alla hd6970 "flop" perchè non va' come o più della gtx580 lo stanno a dimostrare). A questo serve avere "la scheda più potente", a far parlare gli utenti.
Riguardo al chippone che è venuto fuori con cayman, il link a dinoxpc che ho postato è interessante da questo punto di vista: spiega che cayman sarebbe dovuto essere a 32nm e per problemi di produzione non lo è stato. La cosa che dovrebbe rattristare i più (non me) è che la produzione a 28nm slitterà al 2012, quindi nel 2011 ci terremo queste schede più o meno fino alla fine, con eventuali rebranding e rimpasti, miscugli, e soluzioni esotiche.
Ale55andr0
17-12-2010, 00:31
Ma non credo proprio. Cosa ti sfugge del ragionamento riguardo ai driver ad hoc per ogni gioco/applicazione che deve girare su una configurazione multi GPU?
Nulla dal momento che le vedo scalare tranquillamente con "i titoloni di grido"
GPU più potenti di cosa se è necessario che il consumo massimo sia contenuto in 300W? Secondo te la 5970 ha le 2 GPU AMD più potenti esistenti? Mai notato che 2x5870 danno la biada alla 5970 in tutte le condizioni?
La 5970 monta le stesse gpu della 5870, con la differenza che hanno clock più contenuti, ti basti sapere però che raggiungono le frequenze della 5870 tranquillamente senza prendere versioni custom... e che la versione toxic della 5970 si spinge addirittura sopra le specifiche dela single gpu 5870 (900vs 850)....ah, e monta 2+2gb...alla medesime frequenze della 5870 (che monta però solo 1gb...)
Dove sta il problema nell'usare quindi due gpu da 1536 SP con clock leggermente più basso? Scommettimao che uscirà una Shappire 6990 toxic? Scommettiamo che maciullerà due 6870 in crossfire (così come la 6990 liscia)?
Memorie più veloci? La 6970 monta memorie da 5.5GHz! Mica da 2 o 3! Cosa credi che le memorie da 6+ GHz crescano sulle piante e costino 2 lire?
4 GPU non scalano minimamente come 2. Sempre se si hanno vantaggi e non problemi. Vedere i test dove sono usati Crossfire o SLI di 3 o più schede.
2+2 GB sarebbero un vantaggio su una soluzione a doppia GPU?
O signùr... chi gli spiega pazientemente qualcosa su come funziona uno SLI? Grazie mille
memorie più veloci rispetto le 6850 e 6870...le schede che secondo qualche utente sarebbero da preferire in crossfire rispetto la 6990, e che a mio avviso invece le prenderebbero (vedi sopra)...per il resto... guarda che lo so che le gpu usano ognuna la propria memoria...non devi spiegarmi nulla...dico solo che la potenza elaborativa di un crossfire onboard con 2gb dedicati ad ogni gpu dotata di 1536SP garantisce prestazioni eccellenti a 2560x1600, ergo la 6990 sarà un mostro...
Le 6000 in crossfire scalano meglio che in passato, che ne sappiamo se il quad crossfire con le nuove 6000 non segue questa tendenza? :)
Per le altre menate, in generale, rammento che il crossfire non è nato ieri, ma lo ha proposto Ati già con la vecchissima Ati Rage Fury Maxx 64mb... e da allora il multi gpu non è stato abbandonato (vodoo 6000)...ne verrà abbandonato in futuro, il supporto c'è e ci sarà, le rogne capitano anche con le single gpu non è che sono rose e fiori a priori, non facciamo la situazione drammatica perchè non lo è...
Come vedi le soluzioni multi GPU sono soluzioni di nicchia utili solo nel campo consumer per quei 4 giochi in croce che supportano SLI/Crossfire. Infatti tali soluzioni sono una inezia rispetto al venduto. Per tutto il resto avere una GPU singola da 10GHz e qualche decina di miliardi di transistor è molto meglio. Ed è per tale motivo che entrambe le case fanno di tutto per arrivarci. Anche se chi arriva secondo si nasconde dietro la finta coperta del multichip (ma intanto ad ogni generazione ha il die che cresce continuamente, diminuisce il gap con il numero di transistor rispetto alla concorrenza e alza le frequenze cosa che non avrebbe senso se con 2,3,4 GPU meno potenti riuscisse ad avere gli stessi risultati, no?).
Opinione del tutto personale che non condivido. Peace ;)
LordShaitan
17-12-2010, 04:29
Ma dai, state scherzando vero?
Sto parlando di inserire una 5970 (o 6990) in un case fatto per motherboard mini-ATX. Ma sapete quanto è lunga una 5970? Non ci sta nella gran parte dei case per ATX normali e voi la volete montare in un case per mini-ATX, così, tanto per risparmiare spazio.
Sì, perchè raffreddare una 5970 (o 6990 che sia) è più facile che 2 6970. 2 forni da raffreddare con una ventola sono meglio di 2 forni da raffreddare con 2 ventole. Con 2 schede e 2 ventole separate l'aria raccolta e sparata fuori dal case è doppia.
E poi, sì, tutti mettono in un mini case per schede mini-ATX un alimentatore da 700 è più watt per alimentare un cross fire. No, quello non deve essere raffreddato. Anzi, metto il tutto in un armadietto sotto la TV così almeno non sento neanche il rumore delle ventole.
E sicuro. 2x6990 sono un affare. E' risaputo da tempo che sistemi a 3 più GPU scalano in maniera perfetta e che montare 3 o (perchè no?) 4 GPU porta vantaggi notevoli in tutti i giochi.
Farsi un 2x6990 tra 2 anni? Ma a quel punto ci saranno schede single GPU che andranno altrettanto forti e non avranno nessun problema di supporto driver (che in una soluzione quad GPU è critica oltremodo). E consumeranno molto meno che la soluzione 2x6990.
Ma per favore. Qui si è caduti nel ridicolo assoluto per cercare di arrampicarsi sugli specchi.
Se si vuole fare uno SLI/Crossfire con tutti i problemi annessi, posso anche concepirlo. Ma che mi si dica che c'è un qualche vantaggio a farlo su scheda singola per le baggianate che avete elencato qui, signori... suvvia. C'è gente che ha un Q.I. più alto di 80 tra chi vi legge!
Manca solo che esca qualcuno che vuole usare la 6990 con un Atom su mini-ITX e siamo a posto.
La 6990 sarà una scheda tanto inutile quanto la 5970. Se uno vuole una configurazione crossfire perchè vuole le prestazioni nei giochi supportati, se lo fa oggi con una coppia 6970. Aspettare la 6990 per dire che si ha (o esiste) la scheda grafica più potente sulla terra è stupido. Perchè non è vero. Serve solo per pubblicità. La 6990 è una soluzione, come un'altra, che ha gli stessi svantaggi di una coppia di schede separate. Non porta nulla di nuovo che oggi non sia già possibile ottenere. Solo che andrà di meno e dovrà sottostare alle specifiche di consumo PCI-E. Cosa che 2 schede separate non devono.
Avere invece una scheda a singola GPU che va più veloce invece è una cosa che permette di ottenere risultati che prima non erano possibili. E li si ottiene sempre, indipendentemente dal supporto dei driver realizzati ad hoc per ogni singolo gioco che vorremmo giocare. Che non è poco, per chi vuole realmente giocare. E in questo caso non c'è una soluzione come un'altra che ha gli stessi vantaggi.
Mi sembra chiaro che la questione crossfire su singolo PCB sia solo pretestuosa e non abbia alcun fondamento razionale che la possa sostenere. E guarda caso è sostenuta solo da una singola schiera di fan di una determinata casa: quella che con scheda a singola GPU arriva sempre seconda ;)
Se necessitate di 2 GPU per elevarvi a supremi dominatori dei bench, non è un problema. Ma che queste siano sensate solo se stanno su singola scheda la vedo come una caz**ta immane. Che però, giustamente e alquanto inutilmente, vi fa godere nei bench (e soltanto in quelli, visto che nella vita reale 2 schede separate sono meglio. Lo sono sempre state e sempre lo saranno se non cambia la tecnologia di sfruttamento delle GPU separate in maniera radicale). E senza ombra di dubbio, una soluzione equivalente su singola GPU ha un vantaggio indiscutibile. E forse anche più di uno.
Ahah sei troppo forte, non hai capito niente e ti arrabbi come se ti avessimo offeso la mamma :D
Allora, provo a rispiegartelo così magari lo capisci col tuo QI superiore ad 80 ;)
Non ho mai detto che TUTTI hanno bisogno di questa scheda, o che questa scheda è indispensabile:
Sono casi limite? SI. Ma l'utenza di queste schede è talmente ristretta che bisogna considerare anche questi.
E' stato chiesto a chi potrebbe servire questa scheda e l'ho detto. Sono pochi? Sicuramente. Esistono? Certo.
Questa poi è fantastica:
Mi sembra chiaro che la questione crossfire su singolo PCB sia solo pretestuosa e non abbia alcun fondamento razionale che la possa sostenere. E guarda caso è sostenuta solo da una singola schiera di fan di una determinata casa: quella che con scheda a singola GPU arriva sempre seconda ;)
Ahah cioè tu mi stai dando del fan ATI?? Ma ti rendi conto che ho scritto in firma che ho 3 GTX 480? LOL! :D:D
Ma per favore. Qui si è caduti nel ridicolo assoluto per cercare di arrampicarsi sugli specchi.
Arrampicarmi sugli specchi? E per cosa, dato che sono un utente NVidia? :D
Se necessitate di 2 GPU per elevarvi a supremi dominatori dei bench, non è un problema. Ma che queste siano sensate solo se stanno su singola scheda la vedo come una caz**ta immane. Che però, giustamente e alquanto inutilmente, vi fa godere nei bench (e soltanto in quelli, visto che nella vita reale 2 schede separate sono meglio.
Ancora? Ma non l'hai capito che io la 6990 non la voglio e non la comprerò mai? :D
Stavo solo spiegando perchè qualcuno la potrebbe volere, una fascia ristretta di utenti, nella quale io non rientro. Stai combattendo contro i mulini a vento ;)
Lascia perdere và, e arrabbiati di meno che ti rovini la salute, si può anche discutere senza insultarsi, tanto più che dato che non capisci il senso dei post altrui, dovresti avere più umiltà ;)
LordShaitan
17-12-2010, 04:31
cut
LordShaitan
17-12-2010, 04:31
cut
Secondo te la 5970 ha le 2 GPU AMD più potenti esistenti? Mai notato che 2x5870 danno la biada alla 5970 in tutte le condizioni?Onestamente preferisco una scheda che va un po' meno del crossfire di schede singole ma che integra entrambe la gpu su un singolo pcb. Lo trovo più comodo e le prestazioni quasi non ne risentono. Ho avuto sia la sfortunata e controversa Rage Fury Maxx, che le 3870X2 e 4870X2, oltre che le Voodoo 5. Queste schede hanno assolutamente il loro perchè ed avrei preso pure una 5970 Toxic, se l'avessi trovata!
E non faccio bench ;)
illidan2000
17-12-2010, 09:48
Difficilmente schede madri mini-micro ATX hanno il secondo slot Pci-Express...
Ecco i "volponi", e sono tutt'altro che immaginari :rolleyes: conosco diverse persone che per motivi di spazio si sono fatti sistemi dalle dimensioni ridotte in modo da poterli attaccare alla tv in salotto, senza tuttavia rinunciare alle prestazioni. Un PhenomII/i5+vga gaming in un case miniATX ci stanno, due vga no.
io ho già la 4870x2, e non avrei spazio per altro su pcix, visto il controller SAS e la scheda audio.
inoltre due schede consumano più di una "doppia".
e la 4870x2 è la scheda più duratura che abbia mai avuto, senz'altro un affare, per quanto l'ho pagata (400e dopo un paio di mesi dall'uscita, due anni fa)
io ho già la 4870x2, e non avrei spazio per altro su pcix, visto il controller SAS e la scheda audio.
inoltre due schede consumano più di una "doppia".
e la 4870x2 è la scheda più duratura che abbia mai avuto, senz'altro un affare, per quanto l'ho pagata (400e dopo un paio di mesi dall'uscita, due anni fa)Scheda eccezionale. Peccato ultimamente abbia cominciato a dare di matto. Sono passato ad una 5870 Toxic che dovrebbe garantirmi + o - le stesse prestazioni, dato che la 4870X2 sarebbe rimasta ancora a lungo senza costringermi a compromessi.
scrat1702
17-12-2010, 10:13
Guarda che non esistono solo gli enthusiast, ma anche i GAMER, ovvero persone non particolarmente appassionate di hardware ma che vogliono giocare ai videogiochi senza compromessi, e per loro una scheda madre micro ATX và benissimo, soprattutto come dicevo per i LAN party.
Inoltre, anche nel caso in cui comprassero una GENE, vale il discorso del CrossfireX con 2x 6990, decisamente superiori a 2x 6970.
Quindi il nostro discorso sta in piedi ;)
Scusa ma cerchiamo di rimanere coerenti e di seguire il filo di un discorso.... siamo partiti dalla tua affermazione che la 6990 serve a chi non ha una mobo compatibile con il crossfire...... adesso invece termini il doscorso di fare addirittura un quad crossfire che e inutile, non scala un piffero cosi come il triple e quad Sli!
Guarda che poi una 5970 in un case per microATX non c'entrera MAI!!!'
Ho la fortuna di avere parecchi amici e conoscenti con PC gamer e enthusiast e per hobby, assieme proviamo tutte le configurazioni possibili di HW che ci sono in giro. Inoltre faccio da sponsor ad un team che fa LAN party e partecipano anche a campionai nazionali e internazionali, e guarda caso tutti con UD7 UD9 o Maximus e a leggere un po di sign qui sul forum non ho notato nessuno con una VGA da 500Eur e una mobo da 50Eur!
Scusa ma cerchiamo di rimanere coerenti e di seguire il filo di un discorso.... siamo partiti dalla tua affermazione che la 6990 serve a chi non ha una mobo compatibile con il crossfire...... adesso invece termini il doscorso di fare addirittura un quad crossfire che e inutile, non scala un piffero cosi come il triple e quad Sli!Difatti, serve anche in quel caso...
@LordShaitan
Il mio discorso non era diretto proprio a te.
Ormai questa cosa della scheda singola con doppia GPU è diventata una barzelletta. 2 schede separate che vanno di più non sono da considerare uguali alla stessa soluzione su singola scheda. Ma la singola scheda con 2 GPU è da comparare ad una soluzione a singola GPU. Una cosa ridicola.
C'è gente che, ci scommetto la tredicesima, è in ansia in attesa che esca la 6990 che braserà la 580 su tutti i fronti. "ah guarda guarda, la scheda è in alto alle classifiche! Guarda che figata! AMD rulez! Fa la scheda più veloce del mercato"... etc etc... vedesi i commenti all'uscita della 5970. Poi però non si accorgono che una soluzione migliore (ma con gli stessi identici problemi di configurazione) la possono avere OGGI usando 2x6970. Però questa soluzione non è una scheda. No. E' una a cosa che nei bench non entra come unità singola. E quindi non li fa godere (non è la soluzione più veloce del mercato che interessa, è la scheda più veloce!).
La soluzione a doppia scheda consumerà anche di più, ma va di più! E se overclocchi la scheda dual puoi benissimo overcloccare anche le schede singole. Ma che discorso!
Che poi esista gente che vuole mettere mezzo metro di scheda da 300W in in case mini-ATX non ci sono dubbi. Che esista gente che si è fatto un HTPC con un ATOM e voglia una scheda grafica sufficientemente potente e infili una 5970 su una mini-ITX può anche essere. Ma AMD non credo proprio costruisca queste schede per questi "sbandati" della tecnologia.
Ripeterò all'infinito questa storia: la scheda singola con 2 GPU è inutile. Serve solo per pubblicità. E lo è di più se usa il CrossFire che è disponibile su tutte le schede madri. Lo SLI è già diverso, ma sarebbe altrettanto pretestuoso credere che utenti "enthusiast" che comprano queste schede non abbiano pensato ad una scheda SLI enabled prima (o anche durante).
La questione dell'avere "troppa" potenza con uno SLI/CrossFire non mi interessa. La potenza non è mai troppa, sopratutto se uno guarda in ottica di tenersi la scheda per qualche tempo, invece di volerla cambiare ogni 6 mesi.
Quello che è indubbio è che una soluzione a singola GPU non è comparabile ad una multi GPU per la questione dei driver ad hoc.
Someone
Come sempre i suoi post peccano di parzialità e si è notata un elevata tendenza a cercare lo scontro personale dopo aver aver analizzato il suo comportamento sul forum e tutti i tuoi precedenti messaggi con decisione collegiale lo staff di hwupgrade ha deciso di commissionarle un ban alla persona con il divieto di reiscrizione
distinti saluti
Lo staff di Hwupgrade
gabriele_burgazzi
17-12-2010, 12:23
Come avete richiesto e gran voce e come vi avevamo promesso, abbiamo aggiornato poco fa buona parte dei grafici inserendo anche la configurazione con due GeForce GTX 460 in SLI. I grafici sono stati semplicemente sostituiti a quelli vecchi, quindi, qualora non li visualizzate potrebbe essere necessario svuotare la cache del vostro browser.
Ciao a tutti
Ale55andr0
17-12-2010, 12:42
@LordShaitan
Il mio discorso non era diretto proprio a te.
Ormai questa cosa della scheda singola con doppia GPU è diventata una barzelletta. 2 schede separate che vanno di più non sono da considerare uguali alla stessa soluzione su singola scheda. Ma la singola scheda con 2 GPU è da comparare ad una soluzione a singola GPU. Una cosa ridicola.
C'è gente che, ci scommetto la tredicesima, è in ansia in attesa che esca la 6990 che braserà la 580 su tutti i fronti. "ah guarda guarda, la scheda è in alto alle classifiche! Guarda che figata! AMD rulez! Fa la scheda più veloce del mercato"... etc etc... .
Per me è assurdo quello che dici: se il prezzo è comparabile e le prestazioni soddisfacenti cosa ti frega del numero delle gpu? Ognuno raggiunge un fine come meglio crede. Ho già fatto l'esempio motoristico, c'è chi punta ad un motore grande e grosso, chi ad uno piccolo e sovralimentato, chi preferisce frazionare molto e chi va di 4 cilindri, se poi il risultato in termini di performance/ consumi/ guidabilità ecc... traggono solo benefici, vorrei capire dove stia il problema :rolleyes:. Perdonami ma mi sembra un discorso di parte il tuo, e ti ricordo che le dual le ha fatte anche nvidia, tra l'altro in alcuni casi con due schede unite in modo grossolano e non un singolo pcb...ma anche li', dove stà il problema? mi fai una scheda che costa 50 euro in più (su 500...) e mi da un bel più 40% di performance? bene hai fatto un'ottimo lavoro :)
EDIT: non mi ero accorto del intervento del mod, mi scuso e la pianto.
Ale55andr0
17-12-2010, 12:46
Come avete richiesto e gran voce e come vi avevamo promesso, abbiamo aggiornato poco fa buona parte dei grafici inserendo anche la configurazione con due GeForce GTX 460 in SLI.
Ciao a tutti
Grazie :)
LordShaitan
17-12-2010, 15:56
Come avete richiesto e gran voce e come vi avevamo promesso, abbiamo aggiornato poco fa buona parte dei grafici inserendo anche la configurazione con due GeForce GTX 460 in SLI. I grafici sono stati semplicemente sostituiti a quelli vecchi, quindi, qualora non li visualizzate potrebbe essere necessario svuotare la cache del vostro browser.
Ciao a tutti
Grazie! :)
Scusa ma cerchiamo di rimanere coerenti e di seguire il filo di un discorso.... siamo partiti dalla tua affermazione che la 6990 serve a chi non ha una mobo compatibile con il crossfire...... adesso invece termini il doscorso di fare addirittura un quad crossfire che e inutile, non scala un piffero cosi come il triple e quad Sli!
Guarda che poi una 5970 in un case per microATX non c'entrera MAI!!!'
Ho la fortuna di avere parecchi amici e conoscenti con PC gamer e enthusiast e per hobby, assieme proviamo tutte le configurazioni possibili di HW che ci sono in giro. Inoltre faccio da sponsor ad un team che fa LAN party e partecipano anche a campionai nazionali e internazionali, e guarda caso tutti con UD7 UD9 o Maximus e a leggere un po di sign qui sul forum non ho notato nessuno con una VGA da 500Eur e una mobo da 50Eur!
Guarda, rileggiti il post che ho scritto prima di questo e capirai il senso del mio discorso, evidentemente non mi ero spiegato abbastanza bene.
Comunque, se un gamer ha un determinato budget, con una 6990 e una scheda madre economica avrà prestazioni superiori rispetto ad una 6970 ed una mobo più cara, quindi non vedo perchè un GAMER dovrebbe prediligere una mobo da 250€.
Poi chiaro che se ha il budget alto è un' altro discorso, meglio mobo bella e 2 o 3 6970. (Ovviamente tutto questo se il prezzo della 6990 sarà inferiore a quello di due 6970 di almeno 100€, altrimenti davvero non ha senso).
Per quanto riguarda il 3-Way SLI che scala male...scala male solo se la cpu non riesce a stargli dietro o se la risoluzione è troppo bassa per sfruttarlo. A me scala benissmo (ho pure fatto dei bench sul thread del gf100).
Difatti, serve anche in quel caso...
Esatto, l'uno non esclude l'altro...;)
ho il caimano nel case, 6970, i ultimi driver (10.12?) supportano la scheda o devo usare i driver del cd?
blackshard
17-12-2010, 18:03
ho il caimano nel case, 6970, i ultimi driver (10.12?) supportano la scheda o devo usare i driver del cd?
I nuovi 10.12a (versione preview) lo supportano ufficialmente.
I nuovi 10.12a (versione preview) lo supportano ufficialmente.
ok, messi, e ora sessione a starcraft per testarla :asd:
illidan2000
17-12-2010, 18:46
ok, messi, e ora sessione a starcraft per testarla :asd:
dai bench postati su hwupgrade dovrebbe andare grossomodo uguale alla 4870x2, vero?
scrat1702
17-12-2010, 19:00
Grazie! :)
Guarda, rileggiti il post che ho scritto prima di questo e capirai il senso del mio discorso, evidentemente non mi ero spiegato abbastanza bene.
Comunque, se un gamer ha un determinato budget, con una 6990 e una scheda madre economica avrà prestazioni superiori rispetto ad una 6970 ed una mobo più cara, quindi non vedo perchè un GAMER dovrebbe prediligere una mobo da 250€.
Poi chiaro che se ha il budget alto è un' altro discorso, meglio mobo bella e 2 o 3 6970. (Ovviamente tutto questo se il prezzo della 6990 sarà inferiore a quello di due 6970 di almeno 100€, altrimenti davvero non ha senso).
Per quanto riguarda il 3-Way SLI che scala male...scala male solo se la cpu non riesce a stargli dietro o se la risoluzione è troppo bassa per sfruttarlo. A me scala benissmo (ho pure fatto dei bench sul thread del gf100).
Esatto, l'uno non esclude l'altro...;)
Beh difficilmente uno che ha un budget cosi alto non ha i soldi per prendersi una mobo da 100Eur che supporta XFire ;)
Poi diciamo che chi gioca e spende molti soldi in HW generalmente ha mobo adeguate e non Asrock da 50Eur.
Per cio che riguarda il 3-Way SLI leggendo qui (http://www.guru3d.com/article/geforce-gtx-580-3-way-sli-review/11) non e che scali un granche, anche se scala meglio di 3 schede in Xfire, cmq il gioco non vale 500Eur di scheda, forse 3 470 in Sli hanno un senso ma non ne ho mai avute 3 disponibili assieme e poi ho una Zotac AMP percio il discorso Sli diventa abbastanza complicato :D
LordShaitan
17-12-2010, 19:08
Beh difficilmente uno che ha un budget cosi alto non ha i soldi per prendersi una mobo da 100Eur che supporta XFire ;)
Poi diciamo che chi gioca e spende molti soldi in HW generalmente ha mobo adeguate e non Asrock da 50Eur.
Per cio che riguarda il 3-Way SLI leggendo qui (http://www.guru3d.com/article/geforce-gtx-580-3-way-sli-review/11) non e che scali un granche, anche se scala meglio di 3 schede in Xfire, cmq il gioco non vale 500Eur di scheda, forse 3 470 in Sli hanno un senso ma non ne ho mai avute 3 disponibili assieme e poi ho una Zotac AMP percio il discorso Sli diventa abbastanza complicato :D
Infatti in quel test sono cpu limited, hanno il processore a 3750 MHz, ce ne vogliono almeno 4200 o meglio 4400 ;) Inoltre la differenza a 2560x1600 si inizia a vedere, quindi a 5670x1080 è ancora più evidente. ;)
Per quanto riguarda la mobo, dipende, ci può benissimo essere chi ha un budget diciamo di 600€, e magari la 6990 costerà 550€ e quindi ecco la mobo da 50€ (sto dicendo cifre a caso), con 600€ avrebbe potuto avere una 6970 e una mobo migliore ma ci avrebbe perso in prestazioni.
Ripeto, non dico che sia la norma, dico che situazioni del genere, anche se rare, posso esserci.
E ripeto, io la 6990 non la comprerei (infatti ho un 3-Way SLI).
E ripeto, io la 6990 non la comprerei (infatti ho un 3-Way SLI).
E perchè uno dovrebbe prendersi 3 schede spendendo una cifra anzichè una sola spendendo la metà (e anche meno)? Quali sono i pro da giustificare quasi 700€ di differenza?
A che risoluzione giochi Lord? ;)
LordShaitan
17-12-2010, 19:23
E perchè uno dovrebbe prendersi 3 schede spendendo una cifra anzichè una sola spendendo la metà (e anche meno)? Quali sono i pro da giustificare quasi 700€ di differenza?
A che risoluzione giochi Lord? ;)
Gioco a 5760x1080 ;)
Quindi, potendo permetterselo ovviamente, è molto meglio avere 3 gpu :)
The Gold Bug
17-12-2010, 19:24
E perchè uno dovrebbe prendersi 3 schede spendendo una cifra anzichè una sola spendendo la metà (e anche meno)? Quali sono i pro da giustificare quasi 700€ di differenza?
A che risoluzione giochi Lord? ;)
Dalla firma direi a 5760*1080
dai bench postati su hwupgrade dovrebbe andare grossomodo uguale alla 4870x2, vero?
spero proprio di no, cmq incrementi visibili non ne vedo, gia la 4870x2 era potente di suo, mi reinstallerò metro 2033, che me lo provo in dx11
ho il caimano nel case, 6970, i ultimi driver (10.12?) supportano la scheda o devo usare i driver del cd?
l'hai presa troppo presto. ci vorranno ancora un paio di release di drivers, per farla andare veramente bene.
per quanto riguarda l'altro discorso sui soldi che si spendono per le vga: per noi appassionati è normale spendere cifre enormi per componenti hardware. io stesso, andrei di volata a comprarmi 2-3 vga se me lo potessi permettere, non lo nego. quando uno ha passione in una cosa, spende tanti soldi per tale cosa, è normale.
se poi si vuole parlare DELL'UTILITA' PRATICA di avere 2-3 vga in multi gpu, allora è tutta un'altra cosa. non è molto utile, in effetti. ci credete se vi dico che con la mia 5830, @1680x1050 gioco tutti gli ultimi giochi al max(escluso metro 2033 a cui devo disattiavre l'AA)??
tuttavia, ciò non toglie che a breve, appena avrò i soldi necessari, aggiornerò tutta la piattaforma, compresa la/le vga. questo lo faccio per pura passione, perchè come vi ho già spiegato, attulamente, prendendo in considerazione L'UTILITA' REALE, un cambio di piattaforma o di vga non mi servirebbe a niente.
quindi badate bene a distinguere acquisti dettati da un'utilità reale, e acquisti dettati solo dalla passione e quindi dall'aver voglia di avere l'ultima tecnologia nel case.
io rispetto tutte e due le tipologie d'acquisto, ma solo una è realmente utile :)
LordShaitan
17-12-2010, 20:37
l'hai presa troppo presto. ci vorranno ancora un paio di release di drivers, per farla andare veramente bene.
per quanto riguarda l'altro discorso sui soldi che si spendono per le vga: per noi appassionati è normale spendere cifre enormi per componenti hardware. io stesso, andrei di volata a comprarmi 2-3 vga se me lo potessi permettere, non lo nego. quando uno ha passione in una cosa, spende tanti soldi per tale cosa, è normale.
se poi si vuole parlare DELL'UTILITA' PRATICA di avere 2-3 vga in multi gpu, allora è tutta un'altra cosa. non è molto utile, in effetti. ci credete se vi dico che con la mia 5830, @1680x1050 gioco tutti gli ultimi giochi al max(escluso metro 2033 a cui devo disattiavre l'AA)??
tuttavia, ciò non toglie che a breve, appena avrò i soldi necessari, aggiornerò tutta la piattaforma, compresa la/le vga. questo lo faccio per pura passione, perchè come vi ho già spiegato, attulamente, prendendo in considerazione L'UTILITA' REALE, un cambio di piattaforma o di vga non mi servirebbe a niente.
quindi badate bene a distinguere acquisti dettati da un'utilità reale, e acquisti dettati solo dalla passione e quindi dall'aver voglia di avere l'ultima tecnologia nel case.
io rispetto tutte e due le tipologie d'acquisto, ma solo una è realmente utile :)
Beh dipende, per te è inutile perchè giochi a 1680x1050, ma se si gioca a risoluzioni elevate è utile invece ;)
l'hai presa troppo presto. ci vorranno ancora un paio di release di drivers, per farla andare veramente bene.
per quanto riguarda l'altro discorso sui soldi che si spendono per le vga: per noi appassionati è normale spendere cifre enormi per componenti hardware. io stesso, andrei di volata a comprarmi 2-3 vga se me lo potessi permettere, non lo nego. quando uno ha passione in una cosa, spende tanti soldi per tale cosa, è normale.
se poi si vuole parlare DELL'UTILITA' PRATICA di avere 2-3 vga in multi gpu, allora è tutta un'altra cosa. non è molto utile, in effetti. ci credete se vi dico che con la mia 5830, @1680x1050 gioco tutti gli ultimi giochi al max(escluso metro 2033 a cui devo disattiavre l'AA)??
tuttavia, ciò non toglie che a breve, appena avrò i soldi necessari, aggiornerò tutta la piattaforma, compresa la/le vga. questo lo faccio per pura passione, perchè come vi ho già spiegato, attulamente, prendendo in considerazione L'UTILITA' REALE, un cambio di piattaforma o di vga non mi servirebbe a niente.
quindi badate bene a distinguere acquisti dettati da un'utilità reale, e acquisti dettati solo dalla passione e quindi dall'aver voglia di avere l'ultima tecnologia nel case.
io rispetto tutte e due le tipologie d'acquisto, ma solo una è realmente utile :)Il ragionamento che fai non è neanche poi tanto sbagliato, peccato però che confondi l'utilità con la necessità. Che tu ci creda o no, le dual gpu, pur non essendo assolutamente necessarie (per fortuna si tratta di un lusso), possono tornare assolutamente utili ;)
scrat1702
17-12-2010, 23:20
Infatti in quel test sono cpu limited, hanno il processore a 3750 MHz, ce ne vogliono almeno 4200 o meglio 4400 ;) Inoltre la differenza a 2560x1600 si inizia a vedere, quindi a 5670x1080 è ancora più evidente. ;)
Per quanto riguarda la mobo, dipende, ci può benissimo essere chi ha un budget diciamo di 600€, e magari la 6990 costerà 550€ e quindi ecco la mobo da 50€ (sto dicendo cifre a caso), con 600€ avrebbe potuto avere una 6970 e una mobo migliore ma ci avrebbe perso in prestazioni.
Ripeto, non dico che sia la norma, dico che situazioni del genere, anche se rare, posso esserci.
E ripeto, io la 6990 non la comprerei (infatti ho un 3-Way SLI).
No guarda non sono assolutamente CPU limited ;) Poi sicuramente non lo sono a 1900 e a 2560! Si c'e una piccola differenza ma non tale da giustificare i 500Eur. Guarda non ho mai provato il surround e non lo provero finche non sara risolto il problema delle cornici dei monitor, percio non saprei cosa cambia tra 2 o 3 VGA!
Poi l'ultima riga e un commento da fanboy (senza offesa e non ti sto dando del fanboy).... vedendo i bench della 6970 e facile ipotizzare che 2 6990 vadano piu delle tue 3 480 e alla pari di 3 580.... percio risparmiando 400Eur vai uguale, potresti argomentare la tua affermazione?
LordShaitan
18-12-2010, 00:14
No guarda non sono assolutamente CPU limited ;) Poi sicuramente non lo sono a 1900 e a 2560! Si c'e una piccola differenza ma non tale da giustificare i 500Eur. Guarda non ho mai provato il surround e non lo provero finche non sara risolto il problema delle cornici dei monitor, percio non saprei cosa cambia tra 2 o 3 VGA!
Poi l'ultima riga e un commento da fanboy (senza offesa e non ti sto dando del fanboy).... vedendo i bench della 6970 e facile ipotizzare che 2 6990 vadano piu delle tue 3 480 e alla pari di 3 580.... percio risparmiando 400Eur vai uguale, potresti argomentare la tua affermazione?
Si guarda, sono assolutamente cpu limited, penso di intendermene abbastanza di queste configurazioni dato che le ho testate ;)
Te l'ho detto, ci vogliono almeno 4,2 GHz.
E lo dicono pure loro, ti riporto le loro parole nelle conclusioni:
"With 3-way you'll run into heaps of curiosities like power consumption, noise levels and then the CPU bottlenecks - that last one is just sheer dreadful"
Lo dicono anche nella recensione sul 4-Way SLI di GTX 480 che trovi qua: http://www.guru3d.com/article/geforce-gtx-480-3way-sli-review/1
Dalle conclusioni: "If you want to go 3-way .. then you better have a massively overclocked core i7 processor as you'll run into all kinds of CPU bottlenecks. And that's a luxury problem I admit, hehe :)
Get this, our Core i7 965X processor is overclocked at default at 3750 MHz, and man .. it's just not enough to satisfy three GTX 480 cards most of the time."
Per argomentare la mia frase sulla 6990, ti dico che ho scritto che non comprerei UNA 6990, due non lo so come andranno, comunque dubito fortemente che andranno come 3 580, perlomeno nei giochi, nei bench magari sì.
Se veramente andassero come 3 580 allora la scelta dipende da tanti fattori, come costi, alimentatore, scheda madre, features ecc.
il problema del multi gpu, non è tanto nel multi gpu stesso, quanto NEI GIOCHI.
è innegabile, che i giochi odierni scalino MALE SU 2 O PIU' GPU, a causa della struttura del gioco stesso(derivante dalle console) non adatta al multi gpu.
nei bench è tutta un'altra cosa, visto che testano la potenza teorica di uno sli/crossfire. ma nei giochi la realtà è ben diversa, e molta potenza teorica generata da 2 o più vga, in pratica non viene sfruttata.
non parlo per sentito dire, visto che fino ad un anno fa ero un felice possessore di un sistema crossfire.
per quanto riguarda il cpu limited, alle altissime risoluzioni è quasi ininfluente all'atto pratico.
LordShaitan
18-12-2010, 03:13
il problema del multi gpu, non è tanto nel multi gpu stesso, quanto NEI GIOCHI.
è innegabile, che i giochi odierni scalino MALE SU 2 O PIU' GPU, a causa della struttura del gioco stesso(derivante dalle console) non adatta al multi gpu.
nei bench è tutta un'altra cosa, visto che testano la potenza teorica di uno sli/crossfire. ma nei giochi la realtà è ben diversa, e molta potenza teorica generata da 2 o più vga, in pratica non viene sfruttata.
non parlo per sentito dire, visto che fino ad un anno fa ero un felice possessore di un sistema crossfire.
Scusa ma a che risoluzione giochi? Perchè dal full HD in su scalano bene invece (soprattutto con 2 gpu, con 3 ci vuole almeno 2560x1600 per vedere miglioramenti).
per quanto riguarda il cpu limited, alle altissime risoluzioni è quasi ininfluente all'atto pratico.
Quello che dici è vero, ma con una sola gpu, per le configurazioni multi gpu il discorso è diverso.
Con 2 o ancora di più con 3 si è cpu limited anche alle alte risoluzioni, anche se il carico grafico è maggiore e la maggior parte del lavoro lo fanno le vga e non la cpu, perchè la potenza di elaborazione grafica è tale che il processore non riesce a stare dietro alle vga.
Chiaramente questo collo di bottiglia diminuisce al salire della risoluzione, ma c'è.
Scusa ma a che risoluzione giochi? Perchè dal full HD in su scalano bene invece (soprattutto con 2 gpu, con 3 ci vuole almeno 2560x1600 per vedere miglioramenti).
so bene che il mutli gpu ha senso più che altro alle alte risoluzioni. io giocavo a 1680x1050(risoluzione medio-alta), generalmente andava benone, ma alcuni giochi si vedeva che NON SCALAVANO, vanificando il multi-gpu.
stesso problema ad un mio amico con GTX295 e monitor 1920x1050. con altri giochi casomai, non sempre li stessi, ma il problema c'era eccome sia per me sia per lui.
poi, ora è probabile che con gli ultimissimi giochi, le ultimissime vga e a risoluzioni altissime(tu disponi di tutti e 3 gli ingredienti) la situazione sia nettamente migliorata.
Quello che dici è vero, ma con una sola gpu, per le configurazioni multi gpu il discorso è diverso.
Con 2 o ancora di più con 3 si è cpu limited anche alle alte risoluzioni, anche se il carico grafico è maggiore e la maggior parte del lavoro lo fanno le vga e non la cpu, perchè la potenza di elaborazione grafica è tale che il processore non riesce a stare dietro alle vga.
Chiaramente questo collo di bottiglia diminuisce al salire della risoluzione, ma c'è.
su questo hai perfettamente ragioni. quando il carico di lavoro è altissimo, anche se grava sulle sole vga, il processore cmq per le poche operazioni che deve fare, rimane indietro. qualsiasi processore penso, anche quelli di fascia altissima, creano un minimo di collo di bottiglia in presenza di 2-3 vga.
quello che dico io, è che tale collo di bottiglia, deve essere infinitesimale, per tanto, non credo falsi i bench in maniera considerevole.
LordShaitan
18-12-2010, 17:20
so bene che il mutli gpu ha senso più che altro alle alte risoluzioni. io giocavo a 1680x1050(risoluzione medio-alta), generalmente andava benone, ma alcuni giochi si vedeva che NON SCALAVANO, vanificando il multi-gpu.
stesso problema ad un mio amico con GTX295 e monitor 1920x1050. con altri giochi casomai, non sempre li stessi, ma il problema c'era eccome sia per me sia per lui.
poi, ora è probabile che con gli ultimissimi giochi, le ultimissime vga e a risoluzioni altissime(tu disponi di tutti e 3 gli ingredienti) la situazione sia nettamente migliorata.
su questo hai perfettamente ragioni. quando il carico di lavoro è altissimo, anche se grava sulle sole vga, il processore cmq per le poche operazioni che deve fare, rimane indietro. qualsiasi processore penso, anche quelli di fascia altissima, creano un minimo di collo di bottiglia in presenza di 2-3 vga.
quello che dico io, è che tale collo di bottiglia, deve essere infinitesimale, per tanto, non credo falsi i bench in maniera considerevole.
Boh, io ho sempre avuto multi gpu, prima con 2 8800GT a 1680x1050 (che all'epoca era una risoluzione alta), poi una GTX 295 a 1920x1080 e nella maggior parte dei giochi mi scalavano bene, certo in alcuni no ma erano la minoranza.
Per il collo di bottiglia, dipende, magari da 4.0 GHz a 4.2 GHz non c'è un abisso, ma ti assicuro che se dai 4.2 del mio i7 930 torno ai 2.8 di default, la differenza è enorme.
scrat1702
19-12-2010, 09:22
Boh, io ho sempre avuto multi gpu, prima con 2 8800GT a 1680x1050 (che all'epoca era una risoluzione alta), poi una GTX 295 a 1920x1080 e nella maggior parte dei giochi mi scalavano bene, certo in alcuni no ma erano la minoranza.
Per il collo di bottiglia, dipende, magari da 4.0 GHz a 4.2 GHz non c'è un abisso, ma ti assicuro che se dai 4.2 del mio i7 930 torno ai 2.8 di default, la differenza è enorme.
Beh che discorso! Paragonare 2.8 e 4.2Ghz certo che la differenza e enorme ma gia 3.8 sono abbastanza per non creare grossi colli di bottiglia.
E anche vero che di solito quando provo le varie Vga lo faccio con un
[email protected]:)
LordShaitan
19-12-2010, 17:02
Beh che discorso! Paragonare 2.8 e 4.2Ghz certo che la differenza e enorme ma gia 3.8 sono abbastanza per non creare grossi colli di bottiglia.
E anche vero che di solito quando provo le varie Vga lo faccio con un
[email protected]:)
Se la cpu fosse ininfluente alle alte risoluzioni non cambierebbe neanche con la cpu a 2.8! Comunque la differenza c'è anche per 400 MHz,e a seconda delle configurazioni può essere più o meno grande.
Con la cpu a 4.6 per forza che non vedi colli di bottiglia :D
greensheep
19-12-2010, 17:26
certo, il processore non è ininfluente, ma sicuramente meno influente rispetto a basse risoluzioni. si tra 2.8 e 4.2 c'è un abisso di differenza ma tra 3.8 e 4.2 no. a meno che tu giudichi 1% un'abisso
Aldebaran69
19-12-2010, 18:01
certo che sono impressionanti . pero- secondo me- i driver sono immaturi
Pier2204
19-12-2010, 18:13
A parte Metro 2033, da come dite è un vero mattone, non ce l'ho quindi non saprei, mi spiegate quale gioco attualmente in commercio non è gestibile ad alte risoluzioni (1920 X 1200) con tutto attivo, da una configurazione single GPU come una HD5870 e un quad di media potenza come un Phenom II 965BE? io non faccio OC.
Io ancora devo trovare un gioco al quale sono costretto di abbassare filtri, antialising o risoluzione perche mi va a scatti....gioco sempre con tutto al massimo. Fallaut 3, Quake 4, Starcraft II, Mass Effect 2, Dragon Age, Flight Simulator X, problemi zero.
Se come dice Randy88 lo si fa per passione posso capire, ma 1920 X 1200 non è certo bassa risoluzione.
Con una HD6970 non credo ci possano essere problemi anche a risoluzioni maggiori, tipo 2560 X 1600, forse qualcosa si deve sacrificare, ma penso poco.
Crossfire o SLI con schede di questa fascia per me sono giustificate solo quando si dispone di più monitor con risoluzioni assurde, oppure nel caso di un crossfire di schede di fascia media per avere ottimi risultati con un costo minimo. Diversamente non ne vedo un'utilizzo concreto con i giochi attuali.
illidan2000
20-12-2010, 14:34
spero proprio di no, cmq incrementi visibili non ne vedo, gia la 4870x2 era potente di suo, mi reinstallerò metro 2033, che me lo provo in dx11
beh, la 4870x2 va leggermente meglio di una 5870, così come la 6970...
beh, la 4870x2 va leggermente meglio di una 5870, così come la 6970...
ora stavo provando metro 2033, e devo dire che in dx11 @af16x @1920x1200 tutto su massimo, gira veramente bene, se non ricordo male la 4870x2 oltre 1280x800 andava a scatti (sempre tutto su massimo, in dx10 però)
interessante articolo di semiaccurate ( per chi mastica l'inglese) sulle motivazioni di questo cayman al di sotto delle aspettative... a quanto pare è in gran parte colpa di TSMC, che ha saltato il 32 nm e ha costretto amd a riadattare un'architettura pensata per i 32 nm (cayman) sui 40 nm attuali... da qui il numero inferiore di stream processors rispetto ai rumors, e le prestazioni al debutto poco entusiasmanti ( ma comunque, imho, come performance per watt sono notevoli, e non ho ancora visto un confronto in overclock con una 580/570) dovute al fatto che, ritrovandosi con lo stesso processo produttivo da utilizzare per la nuova generazione, avrebbero dovuto tagliare SP o ridurre le frequenze per restare nei margini di consumo ipotizzati... quindi la nuova architettura è più efficiente a parità di watt, ma una volta tanto non è colpa di amd se il risultato non è quello sperato, anzi nell'articolo si sottolinea come, se avessero impiegato un'altra logica dietro alle evoluzioni dell'architettura(ovvero qualcosa di non retrocompatibile col vecchio processo produttivo), non avrebbero potuto fare proprio niente, e si sarebbero trovati a dover saltare una generazione di GPU :eek:
:read:
http://www.semiaccurate.com/2010/12/20/what-happened-amds-northern-islands/
interessante articolo di semiaccurate ( per chi mastica l'inglese) sulle motivazioni di questo cayman al di sotto delle aspettative... a quanto pare è in gran parte colpa di TSMC, che ha saltato il 32 nm e ha costretto amd a riadattare un'architettura pensata per i 32 nm (cayman) sui 40 nm attuali... da qui il numero inferiore di stream processors rispetto ai rumors, e le prestazioni al debutto poco entusiasmanti ( ma comunque, imho, come performance per watt sono notevoli, e non ho ancora visto un confronto in overclock con una 580/570) dovute al fatto che, ritrovandosi con lo stesso processo produttivo da utilizzare per la nuova generazione, avrebbero dovuto tagliare SP o ridurre le frequenze per restare nei margini di consumo ipotizzati... quindi la nuova architettura è più efficiente a parità di watt, ma una volta tanto non è colpa di amd se il risultato non è quello sperato, anzi nell'articolo si sottolinea come, se avessero impiegato un'altra logica dietro alle evoluzioni dell'architettura(ovvero qualcosa di non retrocompatibile col vecchio processo produttivo), non avrebbero potuto fare proprio niente, e si sarebbero trovati a dover saltare una generazione di GPU :eek:
:read:
http://www.semiaccurate.com/2010/12/20/what-happened-amds-northern-islands/Grandissimo ;)
Tuvok-LuR-
21-12-2010, 12:35
Ero indeciso se prendere la 6870, ma alla fine ho preso la 6950 per 250 euro.
A questo prezzo mi sembra senza dubbio la scheda da prendere.
Certo se si ha qualche soldino in più anche la 570 non è un brutto acquisto
MiKeLezZ
21-12-2010, 14:33
interessante articolo di semiaccurate ( per chi mastica l'inglese) sulle motivazioni di questo cayman al di sotto delle aspettative... a quanto pare è in gran parte colpa di TSMC, che ha saltato il 32 nm e ha costretto amd a riadattare un'architettura pensata per i 32 nm (cayman) sui 40 nm attuali... da qui il numero inferiore di stream processors rispetto ai rumors, e le prestazioni al debutto poco entusiasmanti ( ma comunque, imho, come performance per watt sono notevoli, e non ho ancora visto un confronto in overclock con una 580/570) dovute al fatto che, ritrovandosi con lo stesso processo produttivo da utilizzare per la nuova generazione, avrebbero dovuto tagliare SP o ridurre le frequenze per restare nei margini di consumo ipotizzati... quindi la nuova architettura è più efficiente a parità di watt, ma una volta tanto non è colpa di amd se il risultato non è quello sperato, anzi nell'articolo si sottolinea come, se avessero impiegato un'altra logica dietro alle evoluzioni dell'architettura(ovvero qualcosa di non retrocompatibile col vecchio processo produttivo), non avrebbero potuto fare proprio niente, e si sarebbero trovati a dover saltare una generazione di GPU :eek:
:read:
http://www.semiaccurate.com/2010/12/20/what-happened-amds-northern-islands/C'è solo una piccolissima differenza che in realtà è una grandissima differenza per la chiave di lettura.
La stessa cosa vale per NVIDIA con GF110 e GF104.
Per cui sostanzialmente parliamo di aria fritta, o troviamo giustificazioni che non sono valide.
C'è solo una piccolissima differenza che in realtà è una grandissima differenza per la chiave di lettura.
La stessa cosa vale per NVIDIA con GF110 e GF104.
Per cui sostanzialmente parliamo di aria fritta, o troviamo giustificazioni che non sono valide.Peccato che l'approccio delle due ditte al problema sia stato leggermente diverso :asd:
ora stavo provando metro 2033, e devo dire che in dx11 @af16x @1920x1200 tutto su massimo, gira veramente bene, se non ricordo male la 4870x2 oltre 1280x800 andava a scatti (sempre tutto su massimo, in dx10 però)
non scherziamo la 4870x2 a metro 2033 lo fa girare in full hd con 8x di af stabile sui 55 fps e ovviamente tutto su max
non scherziamo la 4870x2 a metro 2033 lo fa girare in full hd con 8x di af stabile sui 55 fps e ovviamente tutto su max
ora non so dirlo con precisione, perchè sono passati dei mesi, ma ricordo che con la 4870x2 tutto sparato al massimo mi andava decisamente a scatti ;)
http://sphotos.ak.fbcdn.net/hphotos-ak-snc4/hs948.snc4/74099_1634849441037_1530729977_1601214_8222578_n.jpg
eccolo qui tutto in full l'ho finito come gioco e al massimo nelle sessioni piu estreme si scendeva a 37 fps solo un dettaglio non poteva essere attivato ma non ricordo quale
Strato1541
21-12-2010, 17:17
Qui un articolo interessante sui consumi , così da paragonare la 6970 con la 570 che è la diretta concorrente.
http://www.guru3d.com/article/geforce-gtx-570-review/8
Credo che l'articolo parli chiaro..Personalmente penso appunto che tutti i dicorsi sui consumi debbano essere giustamente ridimensionati, data la reale incidenza del costo/consumo di corrente per le schede di fascia alta.
ArteTetra
22-12-2010, 12:31
Per chi è rimasto deluso e si aspettava che AMD prendesse lo scettro della scheda a singola GPU più veloce, dovete ricordare che questo non succederà mai (tranne rare eccezioni, comunque per brevi periodi) perché la strategia di AMD è di fare chip più piccoli di NVIDIA e di metterne insieme due per avere la scheda top di gamma.
La 5970 ne è un ottimo esempio, dopo più di un anno è ancora al top e la GTX 580 è riuscita solo a pareggiare.
La vera antagonista della GTX 580 sarà la 6990 (dual GPU), e le premesse per un netto superamento di prestazioni con comunque costi e consumi accettabili ci sono tutte.
Ale55andr0
22-12-2010, 14:19
Si, ma molto probabilmente nVidia uscirà anche lei con una dual, per cui le basterà aspettare per regolarsi quel tanto che basta per superare 6990 (lo dico da "tifoso rosso")
Si, ma molto probabilmente nVidia uscirà anche lei con una dual, per cui le basterà aspettare per regolarsi quel tanto che basta per superare 6990 (lo dico da "tifoso rosso")
Io dubito che Nvidia possa fare un dual-gpu in grado di avere consumi e temperature "normali" o almeno relativamente basse da contrastare quelle di amd
ArteTetra
22-12-2010, 14:30
Sì, ma con quali chip? Due GF110 (GTX 580) insieme consumano troppo, due chip più deboli rischiano di essere solo poco più potenti della 580 stessa, portando in più svantaggi in termini di costo e consumi.
Vedremo. :boh:
Edit: 0x87k mi ha preceduto.
LordShaitan
22-12-2010, 15:29
io penso che Nvidia aspetterà la GTX 560 per fare una dual, se riescono ad ottenere prestazioni simili alla 470 con consumi ridotti potrebbero riuscire ad avere una dual valida.
Strato1541
22-12-2010, 15:39
Per chi è rimasto deluso e si aspettava che AMD prendesse lo scettro della scheda a singola GPU più veloce, dovete ricordare che questo non succederà mai (tranne rare eccezioni, comunque per brevi periodi) perché la strategia di AMD è di fare chip più piccoli di NVIDIA e di metterne insieme due per avere la scheda top di gamma.
La 5970 ne è un ottimo esempio, dopo più di un anno è ancora al top e la GTX 580 è riuscita solo a pareggiare.
La vera antagonista della GTX 580 sarà la 6990 (dual GPU), e le premesse per un netto superamento di prestazioni con comunque costi e consumi accettabili ci sono tutte.
Nvidia fece la medesima cosa con la 295 , che non fù infatti eguagliata dalla 5870..
Qullo che sarà si vedrà, in ogni caso una dul gpu porta dei problemi in più questo è un dato di fatto , motivo per cui molti utenti se possono evitano l'acquisto.
Bisogna anche considerare la fascia risicata di utenti che hanno comprato una 5970 a distanza di 1 anno, sono certo che il top a singola gpu sia esso ati o nvidia è certamente più venduto di una dual.
Ale55andr0
22-12-2010, 17:29
Sì, ma con quali chip? Due GF110 (GTX 580) insieme consumano troppo, due chip più deboli rischiano di essere solo poco più potenti della 580 stessa, portando in più svantaggi in termini di costo e consumi.
Vedremo. :boh:
Edit: 0x87k mi ha preceduto.
si gioca su diversi parametri, può benissimo usare gpu come quelle che monta la 570 facendole lavorare con clock e memorie meno veloci. Sicuramente anche 6990 seguira un'approccio simile, dubito che sarà un crossifire identico al 100% a due 6970 sullo stesso pcb. Poi posso anche sbagliare eh :)
io penso che Nvidia aspetterà la GTX 560 per fare una dual, se riescono ad ottenere prestazioni simili alla 470 con consumi ridotti potrebbero riuscire ad avere una dual valida.
ma la gtx 560 quando uscirà? sostituirà l'attuale 460?
Ok, quindi la gtx580 rimane comunque superiore. Ottimo.
LordShaitan
22-12-2010, 21:28
ma la gtx 560 quando uscirà? sostituirà l'attuale 460?
Si sostituirà la 460, ma mi sa che bisognerà aspettare ancora qualche mese.
Si sostituirà la 460, ma mi sa che bisognerà aspettare ancora qualche mese.
acc
scrat1702
22-12-2010, 23:08
ma la gtx 560 quando uscirà? sostituirà l'attuale 460?
Si sostituirà la 460, ma mi sa che bisognerà aspettare ancora qualche mese.
Si parla del 20 gennaio, percio tra non molto!
scrat1702
22-12-2010, 23:19
Nvidia fece la medesima cosa con la 295 , che non fù infatti eguagliata dalla 5870..
Qullo che sarà si vedrà, in ogni caso una dul gpu porta dei problemi in più questo è un dato di fatto , motivo per cui molti utenti se possono evitano l'acquisto.
Bisogna anche considerare la fascia risicata di utenti che hanno comprato una 5970 a distanza di 1 anno, sono certo che il top a singola gpu sia esso ati o nvidia è certamente più venduto di una dual.
Beh non credo che siano state vendute tante piu 480 che 5970 :)
Se parliamo di 5870 allora sicuramente ne hanno vendute molte di piu anche perche 2 5870 vanno parecchio piu di una 5970 e danno meno problemi di solito!
scrat1702
22-12-2010, 23:22
io penso che Nvidia aspetterà la GTX 560 per fare una dual, se riescono ad ottenere prestazioni simili alla 470 con consumi ridotti potrebbero riuscire ad avere una dual valida.
Non ci vorrà molto a raggiungere la 470 visto che già la 460 con un overclock non estremo la raggiunge e per la 560 si parla di clock attorno agli 850Mhz con tutti i 384 shader attivi perciò mi sa tanto che la 470 le prenderà su tutti i fronti specie su consumi e calore visto che si tratterà quasi sicuramente di GF114 e che consumerà grosso modo come GF104
Si parla del 20 gennaio, percio tra non molto!
ah be
fino al 20 gennaio posso aspettare. se viene prezzata come la gtx 460 magari le dirette concorrenti scenderanno un pò. c'è un thread "aspettando..."?
Dry Patrick
29-12-2010, 11:24
Ciao,
esponi un problema oggettivo per il quale penso ad una soluzione da tempo, ma che non è di semplice implementazione.
Problema 1: dividere le schede tra ATI e NVIDIA. Facile, facendo barre di colore adeguato, se si inserisce per ogni grafico una singola risoluzione. Meno facile, per non dire molto incasinato, se si usano più risoluzioni per grafico.
Problema 2: far capire bene a cosa corrisponda una scheda. Posso inserire accanto al nome anche alcune delle specifiche, secondo questo esempio
Radeon HD 5970 (2 GPU, 775 MHz; 2x1600sp; 2GB @ 4.000MHz)
ma si capisce facilmente che l'arricchimento in termini di informazione pregiudica lo spazio lasciato alla parte grafica con le barre prestazionali peggiorando di molto la lettura.
...
Potrei suggerire di utilizzare diversi colori di sfondo per il nome delle schede, o anche per il grafico stesso, magari con un opacita del 25-30% in modo da non compromettere la facilità di lettura, e di fornire al volo un informazione in più. Per configurazioni Multi-GPU l' opacità dello sfondo potrebbe venir raddoppiata.
http://www.hwupgrade.it/news/skvideo/radeon-hd-6950-trasformate-in-6970-via-bios_34900.html
visto che anche la 6950 ha il doppio bios, è una softmod a prova di scemo :D
e qui
http://www.techpowerup.com/downloads/1920/HD_6950_to_HD_6970_Flashing_Tools.html
c'è il pack già pronto per flashare il bios
Considerati i prezzi attuali ed i consumi, la scheda più adatta al momento come rapporto prestazioni/costo pare la 6950 o mi sbaglio. Io al momento ho la 5770 quella cond DDR5, e considerando che costa solo 80 euro in più della mia e le prestazioni/consumi sono molto migliori della mia potrebbe essre una ottima scelta.
Altrimenti che cosa potrei comprare di meglio nella stessa fascia di prezzo ?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.