View Full Version : [Thread ufficiale] Aspettando R800 - le nuove GPU ATI DX11
leoneazzurro
13-09-2009, 02:01
cmq la gtx 295 va il 69% in piu' della 4890:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/22/
Con quelle specifiche la 5870, ha un architettura che è esattamente il doppio di quella della 4890 (il doppio delle alu, il doppio delle rops, ed il doppio delle tmu), con lo stesso core clock. Senza considerare poi 5,8 ghz perle ram (contro i 4 ghz della 4890) ed i miglioramenti architetturali....
A 400$ questa 5870 per non essereun flop non puo' andare solo come la gtx 295...ovvero "solo" il 69% in piu' della 4890...per non essere un flop deve essere sempre e cmmq sopra della gtx 295 di almeno un 20%...altrimenti sarebbe deludente imho...
La banda passante non é raddoppiata, in quelle occasioni in cui si é limitati dalla banda non puó andare al doppio della velocitá. Poi bidogna vedere quali migliorie architetturali sarebbero implementate e che potrebbero fare sí che l´incremento prestazionale sia piú accentuato (si parlava del redesign delle TMU e poco si sa sui RBE, oltre che delle caratteristiche proprie delle DX11).
mackillers
13-09-2009, 02:04
Non é detto: i due "core" (ma sarebbe piú corretto chiamarli "array di SIMD") non lavorerebbero in modalitá AFR, che é quella che causa piú problemi di ridondanza e congestione delle risorse, bensí in modalitá SFR, ossia la scena verrebbe divisa in modo da allocare la stessa quantitá di lavoro tra i due array in maniera "trasparente" al software, che é poi piú o meno quello che fa uno solo dei "core" quando distribuisce il carico di lavoro tra i vari SIMD. Ossia, invece di avere un unico enorme Dispatch Processor che controlla 20 SIMD, si avrebbe un arbiter che alloca il lavoro tra i due array in modalitá SFR e poi due Dispatch Processor che controllano ognuno 10 SIMD. Perché questo? L´unica ragione che mi viene in mente é la semplicitá costruttiva: probabilmente la complessitá aumenta esponenzialmente con il numero dei SIMD da gestire, ed inoltre si puó replicare il design di uno dei "Core" sul chip Juniper quasi direttamente. Le perplessitá che mi vengono in mente sono quelle relative alla gestione della geometria e della ricostruzione dell´immagine, che tra qualche giorno spero che vengano risolte. Ad esempio, se ogni "core" avesse la propria unitá di setup e tessellazione, avremmo una capacitá di gestione dei triangoli piú che raddoppiata rispetto alle 4870, ed in certi casi questo sarebbe importante.
Ti ringrazio per la spiegazione ben fatta..
ma resto pure io del idea che per la versione 5870 vedo più promettente uno schema a "core monolitico"
sarebbe invece un bel passo avanti se la X2 avesse un approccio a Chip unico con i due array di SIMD gestiti in modalità SFR, ma ognuno con il propria unità setup e tessellatore, ma con controller memoria condiviso.. magari a 512mbit:D :D
la si potrebbe chiamare 5990 e non X2 a tutti gli effetti non sarebeb una scheda Crossfire no?
e questo fa pensare non sia stato seguito questo approccio quindi:stordita:
A parte il fatto che il ragionamento parte dal presupposto (sbagliato) che Cypress abbia la stessa architettura di RV770, quest'ultimo è costituito di 10 cluster, ognuno dei quali conta 16 shader processors (che possono eseguire 5 operazioni e blabla quindi per un totale di 80SP). Il totale fa 800 stream processors o 160 shaders, divisi comunque in 10 cluster.
Raddoppi i cluster e hai i 1600SP di Cypress. Disabiliti due cluster e ne hai 1440, se li disabiliti uno per "core" ne hai 720 da un lato e 720 dall'altro.
Senza contare che niente ci obbliga a pensare che i cluster di Cypress siano sempre di 16 shaders e non di 17, 30 o 50, benché sembri abbastanza logico pensare che rimangano 16 per cluster.
Quindi non ci sono problemi ad avere 1440SP e il fatto che siano 1440 non è un limite al fatto che sia un'architettura "dual core" più di quanto lo siano 1600SP.
Tutto ciò ovviamente non significa che l'architettura sia questa, ma solo che la possibilità rimane anche con 1440SP.
Sono sicuramente 16*20 SIMD, dato che credo che il diagramma visto sia vero... ;)
http://img3.abload.de/img/cp09nd1q.jpg
cmq la gtx 295 va il 69% in piu' della 4890:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/22/
Con quelle specifiche la 5870, ha un architettura che è esattamente il doppio di quella della 4890 (il doppio delle alu, il doppio delle rops, ed il doppio delle tmu), con lo stesso core clock. Senza considerare poi 5,8 ghz perle ram (contro i 4 ghz della 4890) ed i miglioramenti architetturali....
A 400$ questa 5870 per non essereun flop non puo' andare solo come la gtx 295...ovvero "solo" il 69% in piu' della 4890...per non essere un flop deve essere sempre e cmmq sopra della gtx 295 di almeno un 20%...altrimenti sarebbe deludente imho...
Io terrei un po' basse le aspettative, soprattutto quelle ingiustificate... :sofico:
C'è un problema di banda, come ti è già stato spiegato, e di progressione non esattamente lineare delle performance del chip. E l'architettura di ATI scala ancora meglio di quella derivata da G80... Ricordo che al tempo di GT200 molti si aspettavano performance stratosferiche sulla base delle specifiche, ed io spiegai che non era possibile proprio per questo: indovina chi ebbe ragione? :asd: ;)
Mi sembrerebbe quasi incredibile se andasse così forte, stiamo parlando di un miglioramento di circa il 100% sulla HD4890, cosa che penso sia impossibile.
Da quello che si è sentito in giro la HD5870 potrebbe essere un 50% più veloce di una GTX285, che io già reputerei un risultato incredibile, ossia la porrebbe come scheda al livello della GTX295, forse un pelo sopra.... Stiamo comunque parlando di una scheda che andrebbe più del doppio di una HD4870, circa il 70-75% in più di una HD4890 (consumando poco meno in full) ed un 10-20% in più di una HD4870X2... A me parrebbero già questi salti prestazionali straordinari, per un chip che è molto più piccolo della controparte...
Aspettiamo verifiche Le performance che cerchi mi sa che c'è qualche dubbio che persino GT300 riuscirà a fornirle... :asd:
Considera che se anche andasse un filo meglio della GTX295, ATI avrebbe lo scettro delle performance per molti mesi, da fine settembre fino all'uscita di GT300 X2, perchè ho serissimi dubbi che un solo GT300 vada meglio di un doppio RV870 con queste prestazioni. ;)
Andrea deluxe
13-09-2009, 08:52
comunque quella roba scritta sul sito di maxshine e' pura fantasia.....
2 die su unico package......
e quanti pin dovrebbe avere?
e quanto grande dovrebbe essere?
davyjones
13-09-2009, 08:52
lo teneva un mio amico un 32'' però HD-Ready se l'è tenuto per un annetto sulla scrivania...ma poi mi chiamava tutti i giorni esasperato che me lo voleva appioppare..
Alla fine l'ha messo in salone e si è preso un 26'' FHD. per me son troppo grandi...gia con il 22 ci sto bene...10 in più e oltre che mio padre me caccia di casa..divento mezzo cieco..
io ti sto leggendo su un t260, beh non tornerei mai indietro per na diagonale minore....
l'integrazione sarà tipo i quad core penryn: non on die , bensì "on package". 2 cypress distinti nello stesso package e non in un unico die. Spero che sia così e he saranno collegati tramite sideport...
io direi di incrociare tutti le dita...affinchè sia cosi'...almeno in questo modo la x2 acquisterà un senso e non sarà piu' un banale crossfire...
Non si diceva che il sideport fosse stato eliminato da rv870???
<^MORFEO^>
13-09-2009, 08:52
C'è la possibilità di un 2x1440SP invece che 2x1600SP, oltre ad un sampling per utilizzare solo i die funzionanti a tensioni selezionate.
Inoltre il sistema "a panino" non mi sembra aderente alla filosofia di avere costi ridotti che muove AMD da qualche anno.
E poi c'è sempre la possibilità di aumentare i layers del PCB, esigenza che in parte è possibile ridurre con la dimensione dello stesso, ma non potendo fare PCB di un metro quadro dovranno spendere di più in questo componente...
Non sono d'accordo :)
Innanzitutto allora non si verrebbe a chiamare 5870x2 ma si chiamerebbe logicamente 5850x2... (cosa di cui non si è ancora MAI parlato)
E come seconda cosa, a loro mettere 1440SP o 1600SP non cambia assolutamente nulla visto che il chip resta comunque lo stesso, con le stesse dimensioni fisiche. L'unica cosa che penso cambi siano i consumi e quel 5% (numero buttato li a caso) di calore prodotto in meno!
Si, si possono andare ad aumentarei layers del PCB ma resta pur sempre il problema del resto della circuiteria che non può essere implementata fra i layers... Mi viene subito da pensare alla RAM che in teoria dovrebbero essere di 4GB nella versione 5870x2... (sicuramente ne faranno questa versioe per l'ultimo bimbominkia del momento) Una soluzione sarebbe quella di mettere tutti i chip della RAM sul lato posteriore della scheda che, visto anche l'utilizzo della piastra metallica nella 5870 stock, non sarebbe neanche poi una così brutta idea! :rolleyes:
Resta poi anche da capire come verranno gestiti quei 4GB di RAM dalla scheda... 2+2 o 4 condivisi? Io spero si realizzi la seconda ipotesi :O
Ti ringrazio per la spiegazione ben fatta..
ma resto pure io del idea che per la versione 5870 vedo più promettente uno schema a "core monolitico"
sarebbe invece un bel passo avanti se la X2 avesse un approccio a Chip unico con i due array di SIMD gestiti in modalità SFR, ma ognuno con il propria unità setup e tessellatore, ma con controller memoria condiviso.. magari a 512mbit:D :D
la si potrebbe chiamare 5990 e non X2 a tutti gli effetti non sarebeb una scheda Crossfire no?
e questo fa pensare non sia stato seguito questo approccio quindi:stordita:
non credo che amd faccia così
il vantaggio delle x2 è che hanno costi di progettazioni molto bassi, visto che le gpu sono uguali a quelli della scheda singola;)
<^MORFEO^>
13-09-2009, 09:03
....
Aspettiamo verifiche Le performance che cerchi mi sa che c'è qualche dubbio che persino GT300 riuscirà a fornirle... :asd:
Considera che se anche andasse un filo meglio della GTX295, ATI avrebbe lo scettro delle performance per molti mesi, da fine settembre fino all'uscita di GT300 X2, perchè ho serissimi dubbi che un solo GT300 vada meglio di un doppio RV870 con queste prestazioni. ;)
Ma parlando seriamente all'atto pratico...
La 5870 sembra essere una bomba, poco più di una 4870x2. Uao!
GT300 ancora più potente di 5870. weilaaaa.....!
5870x2 ancora più potente! Mi aspetto che sia 1,6-1,7 volte la 5870... ma è mostruosa!!!!
GT300 X2 che cosa sarà???? :eek:
Cioè ho capito cosa sarà, ma che utilità potrà mai avere??? A me sembra che quella scheda (SE la fanno, bisogna infatti vedere come riescono a stare con i consumi gli invidiosi :rolleyes: ) sarà troppo anche verso la fine del 2010! :fagiano:
Come al solito i cinesi ci danno tante soddisfazioni... :asd:
Questi mi sa che manco sanno cos'è un NDA... :sofico:
http://www.it.com.cn/diy/xianka/img/2009/09/12/23/diy_090912_5870_3.jpg
http://img195.imageshack.us/img195/1355/21239137.jpg
http://www.it.com.cn/diy/xianka/img/2009/09/12/23/diy_090912_5870_2.jpg
Pare sia lunga come una GTX295... :eek:
Sembra valida la parte di alimentazione, a 5 fasi per la gpu e 2 per le memorie, a quanto dicono nell'articolo...
http://209.85.129.132/translate_c?hl=it&ie=UTF-8&sl=zh-CN&tl=en&u=http://www.it.com.cn/diy/xianka/ati/kx/2009/09/13/00/622984.html&rurl=translate.google.it&usg=ALkJrhiolRyTUfwMIXI-9oneh4Bb-rTVFQ
<^MORFEO^>
13-09-2009, 09:31
Come al solito i cinesi ci danno tante soddisfazioni... :asd:
Questi mi sa che manco sanno cos'è un NDA... :sofico:
http://www.it.com.cn/diy/xianka/img/2009/09/12/23/diy_090912_5870_3.jpg
http://img195.imageshack.us/img195/1355/21239137.jpg
http://www.it.com.cn/diy/xianka/img/2009/09/12/23/diy_090912_5870_2.jpg
Pare sia lunga come una GTX295... :eek:
Sembra valida la parte di alimentazione, a 5 fasi per la gpu e 2 per le memorie, a quanto dicono nell'articolo...
http://209.85.129.132/translate_c?hl=it&ie=UTF-8&sl=zh-CN&tl=en&u=http://www.it.com.cn/diy/xianka/ati/kx/2009/09/13/00/622984.html&rurl=translate.google.it&usg=ALkJrhiolRyTUfwMIXI-9oneh4Bb-rTVFQ
:old:
queste foto le avevo già viste tipo 1 settimana fa... quindi ti puoi immaginare quanto abbiano rispettato l'NDA :asd:
ghiltanas
13-09-2009, 09:39
Ma parlando seriamente all'atto pratico...
La 5870 sembra essere una bomba, poco più di una 4870x2. Uao!
GT300 ancora più potente di 5870. weilaaaa.....!
5870x2 ancora più potente! Mi aspetto che sia 1,6-1,7 volte la 5870... ma è mostruosa!!!!
GT300 X2 che cosa sarà???? :eek:
Cioè ho capito cosa sarà, ma che utilità potrà mai avere??? A me sembra che quella scheda (SE la fanno, bisogna infatti vedere come riescono a stare con i consumi gli invidiosi :rolleyes: ) sarà troppo anche verso la fine del 2010! :fagiano:
boh, infatti credo che la 5850 faccia al caso mio...poi sinceramente nn mi garba spendere troppo in sto periodo, ci sono troppi cambiamenti in giro, fra chipset proci ecc ecc
ps l'unica cosetta, vorrei 2gb di mem video onboard :D
Andrea deluxe
13-09-2009, 09:48
boh, infatti credo che la 5850 faccia al caso mio...poi sinceramente nn mi garba spendere troppo in sto periodo, ci sono troppi cambiamenti in giro, fra chipset proci ecc ecc
ps l'unica cosetta, vorrei 2gb di mem video onboard :D
idem:D
Sphaider
13-09-2009, 09:56
iscritto!!
non vedo l'ora di acquistarla :sbavvv:
hardstyler
13-09-2009, 10:08
mi auguro che tra 10 giorni ma anche meno saltino fuori bench veritieri, foto veritiere, brand che le hanno già in catalogo e insomma che si sappia tutto dai!! Anche perchè guardo solo la 5870 e l'eventuale X2, passerei anche a nvidia volendo però ero sempre rimasto infastidito dai driver, certo, di tempo ne è passato dall'ultima....saranno 3 anni credo....vedremo...io cerco oltre ovviamente alle prestazioni che tutt'ora non mi servono, un qualcosa che non scaldi un botto e che sia silenzioso e mi sa che la 5870 a livello di rumore sarà come la mia attuale....uff...spero che i driver li diano per davvero lunedì a tutti quanti così che le possano testare e pubblicarne i risultati fregandosene dell'nda, poi se acquisterò subito o a febbraio è un altro discorso!
mi auguro che tra 10 giorni ma anche meno saltino fuori bench veritieri, foto veritiere, brand che le hanno già in catalogo e insomma che si sappia tutto dai!! Anche perchè guardo solo la 5870 e l'eventuale X2, passerei anche a nvidia volendo però ero sempre rimasto infastidito dai driver, certo, di tempo ne è passato dall'ultima....saranno 3 anni credo....vedremo...io cerco oltre ovviamente alle prestazioni che tutt'ora non mi servono, un qualcosa che non scaldi un botto e che sia silenzioso e mi sa che la 5870 a livello di rumore sarà come la mia attuale....uff...spero che i driver li diano per davvero lunedì a tutti quanti così che le possano testare e pubblicarne i risultati fregandosene dell'nda, poi se acquisterò subito o a febbraio è un altro discorso!
Beh sapphire farà uscire la vapor chamber edition di lì a poco se il tuo problema è il rumore e il calore. Ma la mia ex 4870 era molto silenziosa... in idle non la sentivo proprio...
ertruffa
13-09-2009, 10:25
Beh sapphire farà uscire la vapor chamber edition di lì a poco se il tuo problema è il rumore e il calore. Ma la mia ex 4870 era molto silenziosa... in idle non la sentivo proprio...
confermo io ad oggi ho una 4870 pcb blu e in idle 42-43 gradi e ventola al 20% non la sento.
tornando in speriamo che da domani comincino ad uscire un po' di bench:cry:
speriamo in una versione da 2gb:muro:
HackaB321
13-09-2009, 10:25
Non é detto: i due "core" (ma sarebbe piú corretto chiamarli "array di SIMD") non lavorerebbero in modalitá AFR, che é quella che causa piú problemi di ridondanza e congestione delle risorse, bensí in modalitá SFR, ossia la scena verrebbe divisa in modo da allocare la stessa quantitá di lavoro tra i due array in maniera "trasparente" al software, che é poi piú o meno quello che fa uno solo dei "core" quando distribuisce il carico di lavoro tra i vari SIMD. Ossia, invece di avere un unico enorme Dispatch Processor che controlla 20 SIMD, si avrebbe un arbiter che alloca il lavoro tra i due array in modalitá SFR e poi due Dispatch Processor che controllano ognuno 10 SIMD. Perché questo? L´unica ragione che mi viene in mente é la semplicitá costruttiva: probabilmente la complessitá aumenta esponenzialmente con il numero dei SIMD da gestire, ed inoltre si puó replicare il design di uno dei "Core" sul chip Juniper quasi direttamente. Le perplessitá che mi vengono in mente sono quelle relative alla gestione della geometria e della ricostruzione dell´immagine, che tra qualche giorno spero che vengano risolte. Ad esempio, se ogni "core" avesse la propria unitá di setup e tessellazione, avremmo una capacitá di gestione dei triangoli piú che raddoppiata rispetto alle 4870, ed in certi casi questo sarebbe importante.
L'altro vantaggio, lo hai detto implicitamente, sarebbe la "trasparenza" al software e quindi maggiore semplicità di scrittura dei driver. Il bilanciamento dei carichi tra "core" verrebbe gestito via hardware come già adesso avviene tra cluster dello stesso "core".
Andrea deluxe
13-09-2009, 10:31
http://i27.tinypic.com/2vcvnf5.jpg
L'altro vantaggio, lo hai detto implicitamente, sarebbe la "trasparenza" al software e quindi maggiore semplicità di scrittura dei driver. Il bilanciamento dei carichi tra "core" verrebbe gestito via hardware come già adesso avviene tra cluster dello stesso "core".
Un arbiter a monte...il punto è comprendere se questo genere di architettura non implichi molte ridondanze...
Ciao Hacka.. =) ;)
DakmorNoland
13-09-2009, 10:38
Beh le dimensioni per la 5870 1GB se fossero confermate mi sembrano buone, dovrebbe entrare un pò in tutti i case un minimo decenti. :)
Io in effetti stavo facendo un pensierino alla 5850 come prezzo, però prima voglio vedere bene le prestazioni perchè già ora ho notato che la 4870 e la 260GTX stanno a poco più di 100 in discesa! Se all'uscita di queste staranno a 100 sarà dura decidere! :)
Credo anche io che la 5870 starà sulle medie della GTX295, non di più..
Cmq il bello di questa scheda è, che se mantiene le promesse, sarà la conferma dell'ottimo lavoro iniziato da ATI con R600, molto bistrattato ma alla fine lungimirante (come sempre in casa ATI, del resto :D ).
Sicuramente la lungimiranza che ha avuto ATI con R600 è nettamente maggiore di quella che ebbe Nvidia con G80, infatti nelle forme base queste due architettura danno vittoria alla soluzione Nvidia ma man mano che le unità aumentano si nota come la strada percorsa da Nvidia la porti a scontrarsi con grossi problemi quali la creazione di chipponi e di conseguenza a basse rese produttive (G200 vedeva solo 4 chip su 10 funzionanti e solo 1 di quei 4 poteva diventare una GTX280), grosse difficoltà a riprogettare anche minimamente l'architettura (tutt'oggi nn ci sono le DX10.1). In compenso si ha una maggiore efficienza e sfruttamento del chip in quanto tutto il processo viene gestito dallo scheduler interno alla GPU (quindi via hardware) cosa diversa dall'architettura di ATI dove il lavoro è fatto via software.
La banda passante non é raddoppiata, in quelle occasioni in cui si é limitati dalla banda non puó andare al doppio della velocitá. Poi bidogna vedere quali migliorie architetturali sarebbero implementate e che potrebbero fare sí che l´incremento prestazionale sia piú accentuato (si parlava del redesign delle TMU e poco si sa sui RBE, oltre che delle caratteristiche proprie delle DX11).
E' verissimo infatti avendo raddoppiato buona parte delle unità è molto probabile che possa essere bandwidth limit anche se nn avendo informazioni sulle presunte modifiche al bus è difficile fare queste previsioni.
Sono sicuramente 16*20 SIMD, dato che credo che il diagramma visto sia vero... ;)
http://img3.abload.de/img/cp09nd1q.jpg
Io terrei un po' basse le aspettative, soprattutto quelle ingiustificate... :sofico:
C'è un problema di banda, come ti è già stato spiegato, e di progressione non esattamente lineare delle performance del chip. E l'architettura di ATI scala ancora meglio di quella derivata da G80... Ricordo che al tempo di GT200 molti si aspettavano performance stratosferiche sulla base delle specifiche, ed io spiegai che non era possibile proprio per questo: indovina chi ebbe ragione? :asd: ;)
Mi sembrerebbe quasi incredibile se andasse così forte, stiamo parlando di un miglioramento di circa il 100% sulla HD4890, cosa che penso sia impossibile.
Da quello che si è sentito in giro la HD5870 potrebbe essere un 50% più veloce di una GTX285, che io già reputerei un risultato incredibile, ossia la porrebbe come scheda al livello della GTX295, forse un pelo sopra.... Stiamo comunque parlando di una scheda che andrebbe più del doppio di una HD4870, circa il 70-75% in più di una HD4890 (consumando poco meno in full) ed un 10-20% in più di una HD4870X2... A me parrebbero già questi salti prestazionali straordinari, per un chip che è molto più piccolo della controparte...
Aspettiamo verifiche Le performance che cerchi mi sa che c'è qualche dubbio che persino GT300 riuscirà a fornirle... :asd:
Considera che se anche andasse un filo meglio della GTX295, ATI avrebbe lo scettro delle performance per molti mesi, da fine settembre fino all'uscita di GT300 X2, perchè ho serissimi dubbi che un solo GT300 vada meglio di un doppio RV870 con queste prestazioni. ;)
E' quasi improbabile perchè un raddoppio delle unità nn porta ad un +100% in quanto entrano in gioco altri fattori, primo tra tutti l'efficienza dell'architettura (del resto un vliw deve avere dei compilatori software veramente buoni) e poi la banda passante che se con Rv770 era assolutamente sufficiente adesso nn si sa se basterà. Se ci sarà un +100% vuol dire che avremo delle modifiche grosse agli SP, alle Rop's, alle TU ecc più profonde di quelle che pensavamo (cmq nn dimentichiamoci che anche se computerbase è attendibile nn ha una valenza assoluta in quanto i driver per Rv870 ai recensori AMD li rilascerà domani)
Mercuri0
13-09-2009, 10:42
Un arbiter a monte...il punto è comprendere se questo genere di architettura non implichi molte ridondanze...
A me tutto ciò pare poco convincente, e sopratutto è una cosa che rientrerebbe nei "dettagli" progettuali dello scheduler (mi sembra sia quello il pezzo, no?)
In sostanza, anche se funzionasse così, non ce lo direbbero: nei diagrammi si vedrebbe sempre un blocco unico.
http://i27.tinypic.com/2vcvnf5.jpg
Mi sfugge da dove salta fuori quella 5870x2 e come mai la 4850x2 sia più lunga della 4870x2, alla fine tuttalpiù hanno la stessa dimensione di pcb ma nn più grande
Andrea deluxe
13-09-2009, 10:46
Mi sfugge da dove salta fuori quella 5870x2 e come mai la 4850x2 sia più lunga della 4870x2, alla fine tuttalpiù hanno la stessa dimensione di pcb ma nn più grande
la 4850 non e' mai uscita reference, infatti quella e' una build by sapphire ed e' piu' lunga di una 4870 x2 reference
la 5870x2 e' saltata un po' di tempo fa sul sito chiphell!
stesso sito che ha fatto saltare prima di tutti le foto della 5870.
michelgaetano
13-09-2009, 10:48
la 4850 non e' mai uscita reference, infatti quella e' una build by sapphire ed e' piu' lunga di una 4870 x2 reference
la 5870x2 e' saltata un po' di tempo fa sul sito chiphell!
stesso sito che ha fatto saltare prima di tutti le foto della 5870.
Ma sicuri fosse una 5870X2? Non ricordo proprio la foto :mbe:
Andrea deluxe
13-09-2009, 10:53
Ma sicuri fosse una 5870X2? Non ricordo proprio la foto :mbe:
http://i403.photobucket.com/albums/pp112/erocker414/rv870x2_chiphell.jpg
la 4850 non e' mai uscita reference, infatti quella e' una build by sapphire ed e' piu' lunga di una 4870 x2 reference
la 5870x2 e' saltata un po' di tempo fa sul sito chiphell!
stesso sito che ha fatto saltare prima di tutti le foto della 5870.
ah nn ricordavo che la 4850x2 nn fosse reference
raffaele1978
13-09-2009, 10:56
Attualmente quale è la scheda video più veloce a singolo chip presente sul mercato?
Attualmente quale è la scheda video più veloce a singolo chip presente sul mercato?
quel bidone della GTX285 :asd:
michelgaetano
13-09-2009, 10:59
http://i403.photobucket.com/albums/pp112/erocker414/rv870x2_chiphell.jpg
Certo che è brutta forte... :fagiano:
quel bidone della GTX285 :asd:
Beh bidone per il prezzo insulso principalmente...
Andrea deluxe
13-09-2009, 11:01
Certo che è brutta forte... :fagiano:
Beh bidone per il prezzo insulso principalmente...
:asd:
Certo che è brutta forte... :fagiano:
Beh bidone per il prezzo insulso principalmente...
Si, giusta osservazione ...
Infatti per farvi poter dire di possedere la scheda più veloce a singolo chip sul mercato Nvidia fa pagare 100 euro in più rispetto alla molto più conveniente GTX275 (che va solo un 5% in meno e che reputo il miglior affare del momento per quanto riguarda le schede singole da FullHD, cali di prezzo a parte) ...
:cool:
michelgaetano
13-09-2009, 11:03
Si, giusta osservazione ...
Infatti per farvi poter dire di possedere la scheda più veloce a singolo chip sul mercato Nvidia fa pagare 100 euro in più rispetto alla molto più conveniente GTX275 (che va solo un 5% in meno) ...
:cool:
Sì, praticamente porta a pensare che la 285 abbia vram placcate d'oro :asd:
cut
Che abbia un prezzo spropositato lo sappiamo bene però anche come ha detto gianni1879 attento al linguaggio che c'è gente suscettibile
Andrea deluxe
13-09-2009, 11:17
Visti i consumi complessivi di quella ipotetica soluzione ridurne i consumi potrebbe rivelarsi necessario (come lo è stato per la GTX295, per esempio, che non è una doppia top, mauna doppia GTX275, proprio per motivi termici e di alimentazione).
.
vista la potenza della singola..... e' quasi sicuro....
per quanto riguarda la 5850, resta solo da capire se e' solo:
una gpu con cut laser delle tmu (difettose e non)
una gpu piu' piccola contenente meno shader (tmu)
una gpu locckata solo a livello di bios.....:Perfido:
ghiltanas
13-09-2009, 11:18
ora c'avete tutti quell'avatar li? :stordita: nn vi si distingue + :asd:
Andrea deluxe
13-09-2009, 11:21
ora c'avete tutti quell'avatar li? :stordita: nn vi si distingue + :asd:
appena monto la 5870 2gb nel mio case, rimetto il mio avatar:D
ora c'avete tutti quell'avatar li? :stordita: nn vi si distingue + :asd:
quoto stavo quotando Andrea ma in realtà volevo quotare Ratatosk
Che di una 5870x2 se ne sia parlato noi non vuol dire che ne abbiano parlato loro...
Visti i consumi complessivi di quella ipotetica soluzione ridurne i consumi potrebbe rivelarsi necessario (come lo è stato per la GTX295, per esempio, che non è una doppia top, mauna doppia GTX275, proprio per motivi termici e di alimentazione).
Dubito, ma così fosse non sarebbero più 4, ne metterebbero direttamente solo 2.
Be ma se la x2 nn fosse fatta come sono state fatte le x2 :D
cmq può anche essere che la x2 sia basata su un nuovo step della gpu magari con consumi minori oppure su chip selezionati apposta per mantenere bassi voltaggi. in entrambi i casi si giustificherebbero i 600$
Come no? Lui ha la versione PhysX, io quella senza :D
:asd: siete proprio matti
Che abbia un prezzo spropositato lo sappiamo bene però anche come ha detto gianni1879 attento al linguaggio che c'è gente suscettibile
Io parlavo della scheda non sottoindevo certo dei commenti verso chi per un motivo o per l'altro l'ha acquistata, non vedo perchè si debbano offendere. :rolleyes:
in ogni caso rettifico: "bidone" con "scheda video dal pessimo rapporto-qualità prezzo"
Simedan1985
13-09-2009, 11:28
ragazzi scusate ,avrei una domandina ,ho informato un mio amico dell'uscita della 5870 era intenzionato a prenderla,ma mi chiedeva se con il suo q6600 era cpu limit.... io gli ho detto che se lo riesce a portare mminimo a 3.2 nn dovrebbe aver molti problemi.Voi che mi dite??
michelgaetano
13-09-2009, 11:33
Come no? Lui ha la versione PhysX, io quella senza :D
Perdonate ma: :asd: :asd: :asd:
ragazzi scusate ,avrei una domandina ,ho informato un mio amico dell'uscita della 5870 era intenzionato a prenderla,ma mi chiedeva se con il suo q6600 era cpu limit.... io gli ho detto che se lo riesce a portare mminimo a 3.2 nn dovrebbe aver molti problemi.Voi che mi dite??
Se gioca da 1680 in su, a 3,2 non ha il minimo problema (te lo dico da possessore).
Se vuole prendere una 5870 per giocare sotto quella risoluzione, è semplicemente stupido :sofico:
Io parlavo della scheda non sottoindevo certo dei commenti verso chi per un motivo o per l'altro l'ha acquistata, non vedo perchè si debbano offendere. :rolleyes:
in ogni caso rettifico: "bidone" con "scheda video dal pessimo rapporto-qualità prezzo"
E' innegabile che la GTX275 e la 4890 abbiano un rapporta prestazioni / prezzo nettamente superiore alla GTX285 però ti ho semplicemente avvertito che nn tutti siamo ugualmente suscettibili. Uno che ha appena acquistato la GTX285 si potrebbe ritenere offeso anche se ha fatto un acquisto dal nostro punto di vista, di persone informate e nn ignoranti (nel sento grammaticale della parola), scorretto. Ecco perchè i mod cercano di evitare che si possano creare commenti che possano scatenare flame
Italia 1
13-09-2009, 11:35
... che aumentando le impostazioni grafiche al massimo non si è cpu limited.
Domanda simpatica riguardo il Sideport nella 58xx: c'è o no ?
Se c'è, sarà possibile abilitarlo pure sulla 4870x2 (come le pipeline sulle 6800 , cioè Rivatuner ??? Visto che nei driver a questo punto c'è...se c'è)
michelgaetano
13-09-2009, 11:36
E' innegabile che la GTX275 e la 4890 abbiano un rapporta prestazioni / prezzo nettamente superiore alla GTX285 però ti ho semplicemente avvertito che nn tutti siamo ugualmente suscettibili. Uno che ha appena acquistato la GTX285 si potrebbe ritenere offeso anche se ha fatto un acquisto dal nostro punto di vista, di persone informate e nn ignoranti (nel sento grammaticale della parola), scorretto. Ecco perchè i mod cercano di evitare che si possano creare commenti che possano scatenare flame
Gli stessi possessori in realtà sanno che la scheda è un "bidone" dal punto di vista prezzo/prestazioni, ma cercano il top e avendo disponiblità economica, come gli dai torto :D
Stiamo andando OT però ^^"
NvidiaMen
13-09-2009, 11:43
:cincin: :mano:
grazie :)
Ma non si tratta di appoggiare l'uno o l'altro...non è una contesa...
Ho riportato solo i fatti visto che non c'è mezzo bench che confermi quello che dice nvidiamen (senza offesa o polemica è :mano: )
Il punto è che crysis in dx10 non gestisce mezzo poligono in piu' della controparte dx 9...sia che lo dica cevat yierly o nvidiamen...portatemi degli screenshot o dei bench, visto che queste sono cose facilmente verificabili...
Ed inoltre affermare che con 2 gtx 295 (4 gpu) si è notevolmente cpu-limited ad un gioco come crysis, solo perchè si perde qualche fps a 1900x1200 è una cosa infondata...visto che già di persè queste tecnologie (SLI/CROSSFIRE) non sono molto ottimizzate...figuriamoci quando entrano in gioco 4 GPU...Serve si un processore piu' potente...ma non per la potenza in se del comparto grafico, quanto per la gestione del quad-sli...
Buondì a tutti.
Volevi un test per verificare la scalabilità, con la sola frequenza, della CPU in Crysis?? Con una sola scheda video in modo da non attribuire a Crossfire o SLI eventuali latenze nell'elaborazione dei frames in AFR? Ed ovviamente senza che questa, essendo una scheda non di altissimo livello, risultasse in GPU limited nascondendo le differenze che vi sarebbero in Crysis all'aumentare della potenza elaborativa della CPU per quel che interessa i soli due soli threads che utilizza?
Bene...eccoti accontentato con un bench che usa una sola GTX 280 a 1680x1050 ed una serie di CPU con e senza OC.
Come puoi osservare tra un Core i7@2,66Ghz ed un Core i7@3,84Ghz vi sono, non manco 1, ma quasi 30 frames...
Ripeto non appena avrò una 5870 (che prestazionalmente risulta più del doppio di una GTX280) eseguirò personalmente dei test (anche a 1920x1200) per verificare personalmente (e non per terze persone) quanto la frequenza del processore incida in game...
http://img186.imageshack.us/img186/5870/017crisys.th.jpg (http://img186.imageshack.us/i/017crisys.jpg/)
Il link del test qui (http://www.tomshardware.com/reviews/Intel-Core-i7-Nehalem,2057-25.html).
michelgaetano
13-09-2009, 11:47
Buonmattino a tutti.
Volevi un test per verificare la scalabilità, con la sola frequenza, della CPU in Crysis?? Con una sola scheda video in modo da non attribuire a Crossfire o SLI eventuali latenze nell'elaborazione dei frames in AFR? Ed ovviamente senza che questa, essendo una scheda non di altissimo livello, risultasse in GPU limited nascondendo le differenze che vi sarebbero in Crysis all'aumentare della potenza elaborativa della CPU per quel che interessa i soli due soli threads che utilizza?
Bene...eccoti accontentato con un bench che usa una sola GTX 280 a 1680x1050 ed una serie di CPU con e senza OC.
Come puoi osservare tra un Core i7@2,66Ghz ed un Core i7@3,8Ghz vi sono, non manco 1, ma quasi 30 frames...
Ripeto non appena avrò una 5870 (che prestazionalmente risulta più del doppio di una GTX280) eseguirò personalmente dei test (anche a 1920x1200) per verificare personalmente (e non per terze persone) quanto la frequenza del processore incida in game...
http://img186.imageshack.us/img186/5870/017crisys.th.jpg (http://img186.imageshack.us/i/017crisys.jpg/)
Il link del test qui (http://www.tomshardware.com/reviews/Intel-Core-i7-Nehalem,2057-25.html).
http://www.hwupgrade.it/articoli/cpu/2274/crysis.png
GPU, gtx 285.
Tra il 750 (2,66 ghz) e il 975 (3,33) vi è 1 frame di differenza a 1600*1200, risoluzione anche inferiore a 1920*1080 o 1920*1200.
Buondì a tutti.
Volevi un test per verificare la scalabilità, con la sola frequenza, della CPU in Crysis?? Con una sola scheda video in modo da non attribuire a Crossfire o SLI eventuali latenze nell'elaborazione dei frames in AFR? Ed ovviamente senza che questa, essendo una scheda non di altissimo livello, risultasse in GPU limited nascondendo le differenze che vi sarebbero in Crysis all'aumentare della potenza elaborativa della CPU per quel che interessa i soli due soli threads che utilizza?
Bene...eccoti accontentato con un bench che usa una sola GTX 280 a 1680x1050 ed una serie di CPU con e senza OC.
Come puoi osservare tra un Core i7@2,66Ghz ed un Core i7@3,8Ghz vi sono, non manco 1, ma quasi 30 frames...
Ripeto non appena avrò una 5870 (che prestazionalmente risulta più del doppio di una GTX280) eseguirò personalmente dei test (anche a 1920x1200) per verificare personalmente (e non per terze persone) quanto la frequenza del processore incida in game...
http://img186.imageshack.us/img186/5870/017crisys.th.jpg (http://img186.imageshack.us/i/017crisys.jpg/)
Il link del test qui (http://www.tomshardware.com/reviews/Intel-Core-i7-Nehalem,2057-25.html).
Interessante..
Però 30 frames su 150 è un 25%.. la scheda video incide ben di più.. questo solo per precisare.. comunque da quel test pare che anche la cpu conta :)
EDIT: visto l'altro test.. questo confonde di più le carte in tavola :D
michelgaetano
13-09-2009, 11:53
Interessante..
Però 30 frames su 150 è un 25%.. la scheda video incide ben di più.. questo solo per precisare.. comunque da quel test pare che anche la cpu conta :)
EDIT: visto l'altro test.. questo confonde di più le carte in tavola :D
Non confonde le carte in tavola, e il perchè è presto detto.
Come fa Crysis a fare 160 frames a 1680?
Semplice (e va anche visto se si arriva a questi frames), coi dettagli al minimo. A chi interessa Crysis con quel livello di dettaglio? Se si fanno frames così alti è semplicemente perchè la vga non è impegnata come dovrebbe.
Quando invece "il gioco si fa duro" (:D), sappiamo bene i risultati che si hanno, e quanto la cpu conti in modo marginalissimo (ripeto, quasi 700 mhz sugli i7 si tramutano in 1 frame di differenza).
Italia 1
13-09-2009, 11:56
Ancora si trovano bench senza Phenom II ???
Non confonde le carte in tavola, e il perchè è presto detto.
Come fa Crysis a fare 160 frames a 1680?
Semplice (e va anche visto se si arriva a questi frames), coi dettagli al minimo. A chi interessa Crysis con quel livello di dettaglio? Se si fanno frames così alti è semplicemente perchè la vga non è impegnata come dovrebbe.
Quando invece "il gioco si fa duro" (:D), sappiamo bene i risultati che si hanno, e quanto la cpu conti in modo marginalissimo (ripeto, quasi 700 mhz sugli i7 si tramutano in 1 frame di differenza).
in effetti 160 fps sono tanti.. non credo che tutto al max neppure un cross 295 riesca a farli.. speriamo nella 5870 (a very hig) :D
Poi comunque passare da 80 a 160 ha poca rilevanza.. dato che supera la freq di renfresh della maggior parte dei monitor e non è percebibile dall'occhio umano..:fagiano:
michelgaetano
13-09-2009, 11:57
Ancora si trovano bench senza Phenom II ???
Se per quello, io ormai i bench di Toms li evito a prescindere, ci sono testate molto più accurate.
in effetti 160 fps sono tanti.. non credo che tutto al max neppure un cross 295 riesca a farli.. speriamo nella 5870 (a very hig) :D
Poi comunque passare da 80 a 160 ha poca rilevanza.. dato che supera la freq di renfresh della maggior parte dei monitor e non è percebibile dall'occhio umano..:fagiano:
Il punto è che non vedi neanche i 60 frames con una 285 e i7 @ 3,33 ghz a 1680 e high, come puoi pensare di farne 160?
Se poi dobbiamo giocare Crysis coi livelli di dettaglio di Doom (:asd:), è un altro discorso.
gianni1879
13-09-2009, 11:58
Ragazzi cercate di tornare in topic e di evitare polemiche superflue ;)
michelgaetano
13-09-2009, 12:00
Ragazzi cercate di tornare in topic e di evitare polemiche superflue ;)
Hai ragione gianni, sorry :doh:.
NvidiaMen
13-09-2009, 12:00
http://www.hwupgrade.it/articoli/cpu/2274/crysis.png
GPU, gtx 285.
Tra il 750 (2,66 ghz) e il 975 (3,33) vi è 1 frame di differenza a 1600*1200, risoluzione anche inferiore a 1920*1080 o 1920*1200.
Carissimo michelgaetano è normale che i due test diano risultati differenti. Quello che posti te è falsato dal GPU limited della singola GTX285 la quale in 1920x1200 in high DX9 (no very high DX10) non riesce ad andare oltre un certo risultato. In questo modo è impossibile desumere quanto la CPU possa incidere all'aumentare della propria frequenza.
Quel che ho postato io si riferisce ad un'impostazione 1680x1050 non di very high, altrimenti con una GTX280 si sarebbe ottenuto lo stesso risultato (non significativo), e non si sarebbe potuta osservare la differenza prestazionale tra un i7@default ed un i7@OC nella gestione poligonale in game.
Ricordo che ci troviamo nel thread di "aspettando R800" e non di "aspettando R600" nel quale si avrà a che fare con schede video pari a due volte (con la 5870) o quattro volte (con la 5870x2) più potenti di una GTX285 (che è stata utilizzata nel test che hai postato) e che a maggior ragione potranno far evidenziare fenomeni di CPU limited anche a 1920x1200 in very high...
Se gioca da 1680 in su, a 3,2 non ha il minimo problema (te lo dico da possessore).
Se vuole prendere una 5870 per giocare sotto quella risoluzione, è semplicemente stupido :sofico:
io il q6600 lo tengo più o meno a default e mi va bene con quasi tutti i giochi,altro che overcloccarlo a 3.2:Prrr: :fagiano:
NvidiaMen
13-09-2009, 12:01
Ragazzi cercate di tornare in topic e di evitare polemiche superflue ;)
Per me il discorso è chiuso. Torniamo tutti IT. ;)
Wing_Zero
13-09-2009, 12:06
Buondì a tutti.
Volevi un test per verificare la scalabilità, con la sola frequenza, della CPU in Crysis?? Con una sola scheda video in modo da non attribuire a Crossfire o SLI eventuali latenze nell'elaborazione dei frames in AFR? Ed ovviamente senza che questa, essendo una scheda non di altissimo livello, risultasse in GPU limited nascondendo le differenze che vi sarebbero in Crysis all'aumentare della potenza elaborativa della CPU per quel che interessa i soli due soli threads che utilizza?
Bene...eccoti accontentato con un bench che usa una sola GTX 280 a 1680x1050 ed una serie di CPU con e senza OC.
Come puoi osservare tra un Core i7@2,66Ghz ed un Core i7@3,84Ghz vi sono, non manco 1, ma quasi 30 frames...
Ripeto non appena avrò una 5870 (che prestazionalmente risulta più del doppio di una GTX280) eseguirò personalmente dei test (anche a 1920x1200) per verificare personalmente (e non per terze persone) quanto la frequenza del processore incida in game...
http://img186.imageshack.us/img186/5870/017crisys.th.jpg (http://img186.imageshack.us/i/017crisys.jpg/)
Il link del test qui (http://www.tomshardware.com/reviews/Intel-Core-i7-Nehalem,2057-25.html).
[OT] (mi scuseranno i moderatori ma voglio replicare)
Io non capisco se fai sul serio o dici x scherzo!?!?!?
Ma che bench hai postato?
1) Qui si stava parlando di risoluzione 1920x1200. e tu mi posti un test a risoluzioni minime
2) Qui OVVIAMENTE si parlava di settare crysys a livello massimo...e non al minimo come nel tuo test...
Grazie al piffero che che con le impostazioni di crysis al minimo sei cpu-limited...fai 160 fps..è normale...con quelle impostazioni (cosi' basse ed inutili da testare!) la scheda grafica potrebbe tirare fino a 300 fps...ed è la cpu a limitarla a 160... ...e cmq 160 o 130 che sia sei sempre sopra la soglia della giocabilità..e di molto...proprio come dicevo prima io!
Hai postato un bench che nn dice assolutamente nulla! e che anche con un 8800gt avresti una differenza di fps con quelle impostazioni li...
TU AFFERMAVI che vi erano differenze SOSTANZIALI tra un core i7 @ 4 ghz rispetto ad uno @ 3.2 a 1900x1200 in DX 10 impostazioni VERY HIGH.
BENE. DIMOSTRAMELO (in pvt):)
Quel bench li è semplicemente fuoriluogo ed inutile!
Per me il discorso è chiuso, visto che i bench che dimostrano che la frequenza del processore quelle risoluzioni non incide per nulla ci sono, ce ne sono molti e li ho anche postati :)
Torniamo IT prego.
Interessante..
Però 30 frames su 150 è un 25%.. la scheda video incide ben di più.. questo solo per precisare.. comunque da quel test pare che anche la cpu conta :)
EDIT: visto l'altro test.. questo confonde di più le carte in tavola :D
Il test mostrato da NvidiaMen è volutamente capzioso e tendenzioso...che senso ha testare Crysis a dettaglio minimo...? E' ovvio che in quelle circostanze la VGA ha un peso relativissimo rispetto alla CPU...
Senza test del genere non ci sarebbero utenti che per Nehalem a suo tempo hanno speso 1000 euroz... :(
Tornando IT ..nessuno disconosce l'importanza della CPU in questo o quell'altro game..semplicemente molti di noi sostengono che a partire da 1680*1050 con tutti i setting al max qualsivoglia game (che non sia quake3) non è CPU-bonded....: un Phenom2 e qualsivoglia core2duo cloccato perbene non costituiscono alcun limite alla fruibilità delle nuove VGA...
Per me il discorso è chiuso. Torniamo tutti IT. ;)
Se il discorso è chiuso smettila di fare disinformazione... =) Hai il tuo Nehalem, lo stai cloccando a 4ghz, ti stai divertendo...STOP; a meno che tu non abbia interessi specifici con intel non cercare di convincere gli altri della bontà della tua tesi scellerata...;)
Il test mostrato da NvidiaMen è volutamente capzioso e tendenzioso...che senso ha testare Crysis a dettaglio minimo...? E' ovvio che in quelle circostanze la VGA ha un peso relativissimo rispetto alla CPU...
Senza test del genere non ci sarebbero utenti che per Nehalem a suo tempo hanno speso 1000 euroz... :(
Tornando IT ..nessuno disconosce l'importanza della CPU in questo o quell'altro game..semplicemente molti di noi sostengono che a partire da 1680*1050 con tutti i setting al max qualsivoglia game (che non sia quake3) non è CPU-bonded....: un Phenom2 e qualsivoglia core2duo cloccato perbene non costituiscono alcun limite alla fruibilità delle nuove VGA...
Infatti poi mi sono corrett..:D
Ritornando IT.. quando sarà che finalmente scadrà l'NDA?
Si sa il giorno preciso? :confused:
cut
Tornando IT ..nessuno disconosce l'importanza della CPU in questo o quell'altro game..semplicemente molti di noi sostengono che a partire da 1680*1050 con tutti i setting al max qualsivoglia game (che non sia quake3) non è CPU-bonded....: un Phenom2 e qualsivoglia core2duo cloccato perbene non costituiscono alcun limite alla fruibilità delle nuove VGA...
Basta che nelle dx11 il post processing sia fatto dalla gpu e non dalla cpu ed allora molte cose cambieranno. Speriamo bene. Magari poi se si programmasse utilizando altri compiler oltra a quelli intel magari qualcosina ne viene pure fuori......
Kharonte85
13-09-2009, 12:31
Nuove Radeon, facciamo il punto
12/09/2009 [ Manolo De Agostini ]
Sommario: Il web inondato dalle foto e specifiche tecniche delle prime schede ATI Radeon con supporto alle DirectX 11.
Le prime schede DirectX 11 di AMD sono sempre più realtà e le specifiche tecniche, nonché fattezze delle serie HD 5800, sembrano essere sempre più sicure.
Qualche giorno fa vi abbiamo mostrato alcune immagini e riportato alcuni dati: in quel momento non potevamo assicurare la veridicità delle informazioni, ma oggi sembra che quanto trapelato sia del tutto veritiero, sia le foto che i dati. Facciamo, quindi, il punto della situazione mettendo insieme le informazioni trapelate su diversi siti esteri.
La serie Radeon HD 5800 sarà costituita da due schede, entrambe basate su chip RV870, realizzato a 40 nanometri ma con un'area di 338 mm², per 2,1 miliardi di transistor. Un bel bestione, come potete vedere anche dall'immagine qui sotto.
http://www.tomshw.it/articles/20090912/ati-radeon-hd-5800-naked_b.jpg
La circuiteria di alimentazione del core è costituita da quattro fasi digitali PWM, e il PCB ha spazio per un'ulteriore fase. Il circuito che si occupa dei chip di memoria ha due fasi. Dall'immagine si notano due connettori di alimentazione ausiliaria a 6 pin, ma c'è spazio per configurazioni 8 + 6 pin.
La scheda è dotata di due connessioni CrossFire, una porta DisplayPort, una HDMI e due DVI-D. Chi desidererà realizzare configurazioni a sei monitor, potrà farlo grazie a un'edizione dedicata con ben 6 porte mini-DisplayPort.
http://www.tomshw.it/articles/20090912/ati-eyefinity-sei-mini-displayport_b.jpg
Parlando di specifiche tecniche, sembra che avremo più versioni tra cui scegliere: HD 5870 2 GB, HD 5870 1 GB e HD 5850 1 GB. Per tutte l'interfaccia dovrebbe essere a 256 bit. Il core delle HD 5870 dovrebbe avere 1600 stream processors attivi, 80 TMU e 32 ROPs. Le schede HD 5850, invece, si differenzieranno grazie a 1440 stream processors, 72 TMU e 32 ROPs.
Diverse anche le frequenze, sulle quali la situazione non è così chiara: il core delle schede HD 5870 lavorerà a tra 800 e 850 MHz, mentre la memoria GDDR5 a 4,8/5,2 GHz. La versione HD 5850, invece, lavorerà a 700/725 MHz e 4/4,4 GHz. Queste frequenze sono differenti rispetto a quelle circolate nei giorni scorsi, quindi su questi dati manteniamo una leggera diffidenza. In linea di massima, comunque, i dati saranno più o meno questi.
I prezzi riportati nei giorni scorsi - 299 dollari per la Radeon HD 5850 1GB, 399 dollari per la Radeon HD 5870 1GB e 449 dollari per la Radeon HD 5870 2GB – sembrano confermati. Le schede saranno svelate al pubblico il 23 settembre.
Nel frattempo emerge che AMD sta lavorando anche alle versioni minori, nome in codice Juniper, che prenderanno il nome di Radeon HD 5770 e HD 5750. Le schede dovrebbero avere un'interfaccia di memoria a 128 bit, mentre il prezzo dovrebbe essere inferiore ai 200 dollari. Il debutto dovrebbe essere fissato per il mese di ottobre.
http://www.tomshw.it/news.php?newsid=19356
Dany16vTurbo
13-09-2009, 12:43
quindi la 5850 avrebbe anche meno TMU ...
Una curiosità: secondo voi al lancio delle nuove schede, la 4870x2 potrebbe vedere scendere il proprio prezzo?
Vedo che attualmente la disponibilità è scarsa e probabilmente i rivenditori vorranno svuotare il loro stock in favore delle nuove...
Che ne pensate?
michelgaetano
13-09-2009, 12:49
Una curiosità: secondo voi al lancio delle nuove schede, la 4870x2 potrebbe vedere scendere il proprio prezzo?
Vedo che attualmente la disponibilità è scarsa e probabilmente i rivenditori vorranno svuotare il loro stock in favore delle nuove...
Che ne pensate?
Dovremmo vedere un minimo di cali sulle schede precedenti :)
scusate....
http://www.microsofttranslator.com/BV.aspx?ref=IE8Activity&a=http%3a%2f%2farticle.pchome.net%2fcontent-967094.html
è gia old...???:D
Dovremmo vedere un minimo di cali sulle schede precedenti :)
Bene, almeno questo è un po' rassicurante :)
Una curiosità: secondo voi al lancio delle nuove schede, la 4870x2 potrebbe vedere scendere il proprio prezzo?
Vedo che attualmente la disponibilità è scarsa e probabilmente i rivenditori vorranno svuotare il loro stock in favore delle nuove...
Che ne pensate?
Vai di Crossfire con due 4870 ... ora sono scese parecchio ... perderanno qualche euro ancora dopo ...
E' un'altra opzione che prendo in considerazione personalmente ... stiamo a 250 euro ... ;)
Se la 5850 costerà intorno ai 250 euro e avrà prestazioni simili alle 4870X2 allora buonanotte alle DX11 e faccio così ...
Vai di Crossfire con due 4870 ... ora sono scese parecchio ... perderanno qualche euro ancora dopo ...
E' un'altra opzione che prendo in considerazione personalmente ... stiamo a 250 euro ... ;)
io ho 2 4850.. :)
io ho 2 4850.. :)
che vanno quanto una 275 ... mi son fatto tutti i conti ... in quel caso andrei direttametne sulla 275 .. :cool:
che vanno quanto una 275 ... mi son fatto tutti i conti ... in quel caso andrei direttametne sulla 275 .. :cool:
insomma dipende dalla situazione.. comunque tutte e 2 occate a liquido e da 1gb non è malaccio come sistema (in molte occasioni vanno più di una 280, in altre meno), il fatto è che già ne avevo una ed allora ho deciso di aggiungere la seconda.
Il problema è che il pc è 2 mesi che è dal tecnico ed ancora non si decide a testarlo ed a ripararlo epr cui non posso godermele :cry:
insomma dipende dalla situazione.. comunque tutte e 2 occate a liquido e da 1gb non è malaccio come sistema (in molte occasioni vanno più di una 280, in altre meno), il fatto è che già ne avevo una ed allora ho deciso di aggiungere la seconda.
Il problema è che il pc è 2 mesi che è dal tecnico ed ancora non si decide a testarlo ed a ripararlo epr cui non posso godermele :cry:
Uno che monta 2*4850 porta il PC dal tecnico? :mbe:
:D
DakmorNoland
13-09-2009, 13:28
insomma dipende dalla situazione.. comunque tutte e 2 occate a liquido e da 1gb non è malaccio come sistema (in molte occasioni vanno più di una 280, in altre meno), il fatto è che già ne avevo una ed allora ho deciso di aggiungere la seconda.
Il problema è che il pc è 2 mesi che è dal tecnico ed ancora non si decide a testarlo ed a ripararlo epr cui non posso godermele :cry:
Ma infatti la 275 non le vede nemmeno da lontano 2 4850 da 1GB!! Sono nettamente sopra alla 285GTX altro che!! :D
insomma dipende dalla situazione.. comunque tutte e 2 occate a liquido e da 1gb non è malaccio come sistema (in molte occasioni vanno più di una 280, in altre meno), il fatto è che già ne avevo una ed allora ho deciso di aggiungere la seconda.
Il problema è che il pc è 2 mesi che è dal tecnico ed ancora non si decide a testarlo ed a ripararlo epr cui non posso godermele :cry:
scusa ma per quale problema e' dal tecnico ????
Andrea deluxe
13-09-2009, 13:38
:confused:
tecnico
:confused:
Vai di Crossfire con due 4870 ... ora sono scese parecchio ... perderanno qualche euro ancora dopo ...
E' un'altra opzione che prendo in considerazione personalmente ... stiamo a 250 euro ... ;)
Se la 5850 costerà intorno ai 250 euro e avrà prestazioni simili alle 4870X2 allora buonanotte alle DX11 e faccio così ...
Avevo pensato anche io al crossfire di 4870 ma dovendole mettere a liquido dovrei prendere 2 waterblock e 2 piastre dissipanti per la circuiteria (sono con Ybris da 5 anni oramai), e andrei a spendere circa 2x60€ di waterblock + 2x25€ di piastre dissipanti... la convenienza sparisce praticamente!
Andrei a spedere 170 euro solo di raffreddamento, al quale aggiungere il costo delle schede.
Alla fine la X2 la prenderei di seconda mano e le abbinerei il full cover di Ybris, che regala temperature da favola sui VRM, sulle memorie e ovviamente sulle GPU :)
E poi il mio principale problema era il pcb di colore rosso, che volevo bandire dal mio case, avendo fatto una integrazione un po' particolare.
In che senso buonanotte alle DX11?
insomma dipende dalla situazione.. comunque tutte e 2 occate a liquido e da 1gb non è malaccio come sistema (in molte occasioni vanno più di una 280, in altre meno), il fatto è che già ne avevo una ed allora ho deciso di aggiungere la seconda.
Il problema è che il pc è 2 mesi che è dal tecnico ed ancora non si decide a testarlo ed a ripararlo epr cui non posso godermele :cry:
Tecnico ? :mbe:
Tecnico ? :mbe:
Sì perchè come già detto in vecchi post la mobbo non dava segni di vita.. quindi dato che non posso testare i singoli pezzi, per sapere di preciso dov'è il guasto non mi rimane che rivolgermi ad un tecnico che possa testarli 1 ad 1
In che senso buonanotte alle DX11?
Nel senso che scegliendo una soluzione con le schede attuali che abbia una potenza comparabile alle nuove arrivate si potrebbe tranquillamente fare a meno delle DX11 per questa generazione di schede, tanto i giochi DX11 non sono destinati a sconvolgerci a breve.
Non sono che considerazioni soggettive. Ognuno ha le sue esigenze, qualcuno aspetta, qualcuno ha fretta, qualcuno vuole subito i giochi DX11, qualcun'altro può aspettare ... :)
Questa è un'ipotesi. Certo è che se devo spendere uguale o pochissimo meno, per avere le stesse prestazioni, ma maggiori consumi e rinunciando alla compliance DX11 direi che la risposta si da da sola...
mi state facendo rotolare dalla sedia con sti avatar :asd: :asd:
michelgaetano
13-09-2009, 14:17
mi state facendo rotolare dalla sedia con sti avatar :asd: :asd:
Oddio l'ho visto ora anch'io :rotfl:
Nel senso che scegliendo una soluzione con le schede attuali che abbia una potenza comparabile alle nuove arrivate si potrebbe tranquillamente fare a meno delle DX11 per questa generazione di schede, tanto i giochi DX11 non sono destinati a sconvolgerci a breve.
Non sono che considerazioni soggettive. Ognuno ha le sue esigenze, qualcuno aspetta, qualcuno ha fretta, qualcuno vuole subito i giochi DX11, qualcun'altro può aspettare ... :)
Anche io sono dello stesso parere.
Non so quali differenze vi siano con le DirectX11, ma a me sembra spesso solo una trovata commerciale a volte.
Io non ho fretta, mai comprato una VGA al day one e mai lo farò :p
Comunque avevo intuito bene quello cosa volevi intendere, ma volevo essere sicuro :)
Questa è un'ipotesi. Certo è che se devo spendere uguale o pochissimo meno, per avere le stesse prestazioni, ma maggiori consumi e rinunciando alla compliance DX11 direi che la risposta si da da sola...
:sbonk: per l'avatar.
Io voglio vedere quanto vanno ste schede, mi sono rotto di stare con l'integrata!
michelgaetano
13-09-2009, 14:24
Crossfire Sparta Edition by Capitan Crasy :D
Sto pensando di modificare il mio :rotfl:
Le DX11 saranno la base per le prossime console. GLi sviluppatori hanno tutto l'interesse a lavorarci e fare engine nativamente compliant, cosa che non è avvenuta cone le DX10 a causa dei compromessi a ribasso che le hanno contraddistinte e che ne hanno decretato oltre alla scarsa adozione anche la vita breve.
Auguriamocelo davvero, perchè è davvero un periodo (lungo) di magra :|
Crossfire Sparta Edition by Capitan Crasy :D
Le DX11 saranno la base per le prossime console. GLi sviluppatori hanno tutto l'interesse a lavorarci e fare engine nativamente compliant, cosa che non è avvenuta cone le DX10 a causa dei compromessi a ribasso che le hanno contraddistinte e che ne hanno decretato oltre alla scarsa adozione anche la vita breve.
:D
Quello che spero è che le prossime console saranno tutte DX11.5, così da essere anche relativamente proiettate alle prossime API. :)
Si sa qualcosa circa la retrocompatibilità con DX9?
Voglio dire...si potrà giocare ad un titolo DX11 con la vga DX10.1 e il sistema operativo con DX9? :asd: (che bella scaletta eh?)
Nel caso ovviamente sarebbe Windows XP...
Si sa qualcosa circa la retrocompatibilità con DX9?
Voglio dire...si potrà giocare ad un titolo DX11 con la vga DX10.1 e il sistema operativo con DX9? :asd: (che bella scaletta eh?)
Nel caso ovviamente sarebbe Windows XP...
Non credo che sia possibile..
Casomai mi chiedo se sia possibile che le schede dx 10.1 siano anche schede compatibili con le dx 11.. tempo fa pareva di sì, comunque ancora nessuno lo sa
Severnaya
13-09-2009, 14:47
Penso che con queste schede la ATI riuscirà a tornare in testa... dopo anni che non l'avevamo più vista dominare la fascia alta.
Radeon 9700? :D
Ovviamente ci giochi in DX9.
Non credo sia possibile fare una cosa del genere. Per dire, se hai una VGA DX10.1 come puoi andare ad usare un tassellatore che non c'è?
Ecco quello che volevo sapere.
Teoricamente si potrebbe emulare il tassellatore via software, ma non avrebbe molto senso, sarebbe tutt'altro che prestante e ovviametne scaricherebbe il carico sulla cpu.
Ovviamente ci giochi in DX9.
Non credo sia possibile fare una cosa del genere. Per dire, se hai una VGA DX10.1 come puoi andare ad usare un tassellatore che non c'è?
Non lo so.. forse emulando tale tecnologia via software anziché hardware.. ammesso sia possibile. Tempo fa fu detto che probabilmente le 10.1 erano in realtà portabili ad 11.. ovviamente con perdite di prestazioni (almeno immagino).
Però non ne ho idea.. vedremo :)
Nel senso che scegliendo una soluzione con le schede attuali che abbia una potenza comparabile alle nuove arrivate si potrebbe tranquillamente fare a meno delle DX11 per questa generazione di schede, tanto i giochi DX11 non sono destinati a sconvolgerci a breve.
Non sono che considerazioni soggettive. Ognuno ha le sue esigenze, qualcuno aspetta, qualcuno ha fretta, qualcuno vuole subito i giochi DX11, qualcun'altro può aspettare ... :)
Ciao, ti do ragione sul fatto che magari con schede comparabili come potenza ci si possa godere i titoli dx11. Quello che invece trovo interessante è che pur tu avendo una cpu con più di un core non ti stuzzichi l'idea di vedere magari "qualche " fps in più derivato da minor overhead... Se mi posso permettere come mai?
NvidiaMen
13-09-2009, 15:06
Non confonde le carte in tavola, e il perchè è presto detto.
Come fa Crysis a fare 160 frames a 1680?
Semplice (e va anche visto se si arriva a questi frames), coi dettagli al minimo. A chi interessa Crysis con quel livello di dettaglio? Se si fanno frames così alti è semplicemente perchè la vga non è impegnata come dovrebbe.
Quando invece "il gioco si fa duro" (:D), sappiamo bene i risultati che si hanno, e quanto la cpu conti in modo marginalissimo (ripeto, quasi 700 mhz sugli i7 si tramutano in 1 frame di differenza).
[OT] (mi scuseranno i moderatori ma voglio replicare)
Io non capisco se fai sul serio o dici x scherzo!?!?!?
Ma che bench hai postato?
1) Qui si stava parlando di risoluzione 1920x1200. e tu mi posti un test a risoluzioni minime
2) Qui OVVIAMENTE si parlava di settare crysys a livello massimo...e non al minimo come nel tuo test...
Grazie al piffero che che con le impostazioni di crysis al minimo sei cpu-limited...fai 160 fps..è normale...con quelle impostazioni (cosi' basse ed inutili da testare!) la scheda grafica potrebbe tirare fino a 300 fps...ed è la cpu a limitarla a 160... ...e cmq 160 o 130 che sia sei sempre sopra la soglia della giocabilità..e di molto...proprio come dicevo prima io!
Hai postato un bench che nn dice assolutamente nulla! e che anche con un 8800gt avresti una differenza di fps con quelle impostazioni li...
TU AFFERMAVI che vi erano differenze SOSTANZIALI tra un core i7 @ 4 ghz rispetto ad uno @ 3.2 a 1900x1200 in DX 10 impostazioni VERY HIGH.
BENE. DIMOSTRAMELO (in pvt):)
Quel bench li è semplicemente fuoriluogo ed inutile!
Per me il discorso è chiuso, visto che i bench che dimostrano che la frequenza del processore quelle risoluzioni non incide per nulla ci sono, ce ne sono molti e li ho anche postati :)
Torniamo IT prego.
Il test mostrato da NvidiaMen è volutamente capzioso e tendenzioso...
Se il discorso è chiuso smettila di fare disinformazione... =) Hai il tuo Nehalem, lo stai cloccando a 4ghz, ti stai divertendo...STOP; a meno che tu non abbia interessi specifici con intel non cercare di convincere gli altri della bontà della tua tesi scellerata...;)
Sono moderatore in un altro forum... ringraziate che qui il mio "collega" ha chiuso un occhio sul vostro modo "gentile" di rivolgervi ad un'altra persona...
Precisiamo le cose: la storia che non vi sia neanche un solo fps di differenza al variare del clock della CPU in High Quality a 1920x1200 è PURA disinformazione.
Riguardo al test DX10 a 1920x1200 in High Quality sarebbe bastato credere a ciò che testai io con la mia ex 4870x2 MSI OC alternando un OpteronX2@2,816 ed un Phenom X4 940@3,5ghz ed ottenendo un guadagno di ben 11 frames (da 22fps a 33fps)... Ma non essendo, i miei test, equiparabili a dei bench ufficiali di un sito acclamato come legionhardware capisco più che bene il vostro scetticismo...
Tuttavia senza rispondermi in modo così "pepato", se la vostra volontà era semplicemente quella di farmi segnalare test di Crysis a 1920x1200 High Quality in grado di dimostrare come su di uno stesso identico processore con poco meno di 1ghz in più si rilevi il 20% in più di frames a parità di impostazioni delle scheda video (senza svenarsi ad usare una GTX295 o peggio un SLI di GTX295, ma una semplice GTX280) eccovi serviti...
Nel grafico (per evitare discussioni ho fatto sempre riferimento al sito che voi ritenete attendibile, ovvero legionhardware, ma con un test più aggiornato, cioè in DX10, di quel che avete postato voi) notare come un 9650@2,66ghz risenta di ben il 20% di frames in meno rispetto alla stessa CPU cloccata a 3,60ghz:
24fps (9650@2,66ghz) x 1,2 = 29 fps (9650@3,60ghz)
incremento "quasi" proporzionale all'innalzamento del clock della CPU (in tal caso pari al 35%):
9650@2,66ghz x 1,35 = 9650@3,60ghz
Il tutto fatto a 1920x1200 in High Quality DX10 (che, come tutti ben sappiamo, ha addirittura ha attivi più effetti rispetto alla controparte DX9 (http://www.tomshw.it/news.php?newsid=10200) a carico della GPU) con una "poveretta" e singola GTX280 quindi nulla di trascendentale come invece potrebbe essere utilizzando una 5870, o peggio, una 5870x2 le quali, rispettivamente, duplicano e quadruplicano la GTX280 utilizzata nel test, rendendo, nei prossimi giorni, il fenomeno di CPU limited ancor più evidente.
http://img338.imageshack.us/img338/667/crysis01.th.jpg (http://img338.imageshack.us/i/crysis01.jpg/)
Link qui (http://www.legionhardware.com/document.php?id=775&p=4) all'articolo fatto sul vostro sito di riferimento ed in DX10 (non DX9 come ciò che avevate linkato in precedenza) laddòve il carico sulla CPU aumenta (proprio come affermava Cevat Yerly CEO di Crytek).
PS: non lavoro per Intel, anzi è da 5 anni che ho sempre avuto piattaforme AMD, ma per motivi di lavoro (uso 3Dsmax e Cinema4D) a questo giro son dovuto andare sulle soluzioni di SantaClara...
michelgaetano
13-09-2009, 15:07
Ovviamente ci giochi in DX9.
Non credo sia possibile fare una cosa del genere. Per dire, se hai una VGA DX10.1 come puoi andare ad usare un tassellatore che non c'è?
Esattamente.
Speriamo comunque che rendano i titoli scalabili, cioè che chi ha directx 10.1 possa sfruttarle, idem per le 10 che sono state ignorate o quasi.
michelgaetano
13-09-2009, 15:09
Questo è possibile, anzi, se programmato a modo un motore DX11 dovrebbe proprio fare questo.
Ecco, e permetterebbe a chi ha le 10.1 di sfruttare almeno in (seppur minore) parte le novità, cosa che sarebbe benvenuta. :D
Esattamente.
Speriamo comunque che rendano i titoli scalabili, cioè che chi ha directx 10.1 possa sfruttarle, idem per le 10 che sono state ignorate o quasi.
Anche te con l'avatar nuovo? :asd:
ma queste nuove schede video presentano qualche novità nella gestione delle codifiche audio dei bluray? sarà possibile trasportare tali flussi in bitstream all'ampli?
Sono moderatore in un altro forum... ringrazia che qui il mio "collega" ha chiuso un occhio sul tuo modo "gentile" di rivolgerti ad un'altra persona...
Precisiamo le cose: la storia che non vi sia neanche un solo fps di differenza al variare del clock della CPU in High Quality a 1920x1200 è PURA disinformazione.
Senza rispondere in modo così "pepato" e se vuoi test a 1920x1200 High Quality che dimostrino come su di uno stesso identico processore con poco meno di 1ghz in più si rilevi il 20% in più di frames a parità di impostazioni delle scheda video (senza svenarsi ad usare una GTX295 o peggio un SLI di GTX295, ma una semplice GTX280) eccoti (o eccovi) servito(i)...
Nel grafico (per evitare discussioni ho fatto sempre riferimento al sito che voi ritenete attendibile, ovvero legionhardware) notare come un 9650@2,66ghz risenta di un 20% di frames in meno rispetto alla stessa CPU cloccata a 3,60ghz:
24fps (9650@2,66ghz) x 1,2 = 29 fps (9650@3,60ghz)
Il tutto fatto a 1920x1200 in High Quality con una poveretta e singola GTX280 quindi nulla di trascendentale come invece potrebbe essere utilizzando una 5870, o peggio, una 5870x2.
http://img338.imageshack.us/img338/667/crysis01.th.jpg (http://img338.imageshack.us/i/crysis01.jpg/)
Link qui (http://www.legionhardware.com/document.php?id=775&p=4) all'articolo fatto sul tuo sito di riferimento ed in DX10 (non DX9 come ciò che avevi linkato in precedenza) laddòve il carico sulla CPU aumenta.
PS: non lavoro per Intel, anzi è da 5 anni che ho sempre avuto piattaforme AMD, ma per motivi di lavoro (uso 3Dsmax e Cinema4D) son dovuto andare sulle soluzioni di SantaClara...
Ciao, interessante spiegazione,ora prendete quresto che dico un pizzichino di sale questo che sto per dire, non sono ne un ingegnere ne altro.. Non so per quale caso strano ma gli effetti di post processing che immangino siano impostati su high che sgravano molto sulla cpu in questo caso vengono effetuati molto più efficentemente su cpu intel che su cpu amd, nonostante la fpu del k10 è abbastanza pompata, ora vorrei chiederti un particolare, che tu sappia sono gli effetti di post processing integers od in floating point? Perchè molte cose non tornano.
NvidiaMen
13-09-2009, 16:00
Ciao, interessante spiegazione,ora prendete quresto che dico un pizzichino di sale questo che sto per dire, non sono ne un ingegnere ne altro.. Non so per quale caso strano ma gli effetti di post processing che immangino siano impostati su high che sgravano molto sulla cpu in questo caso vengono effetuati molto più efficentemente su cpu intel che su cpu amd, nonostante la fpu del k10 è abbastanza pompata, ora vorrei chiederti un particolare, che tu sappia sono gli effetti di post processing integers od in floating point? Perchè molte cose non tornano.
Tranquillo, io son ingegnere, ma la laurea in queste cose serve a ben poco...
Riguardo alla tua osservazione sulla supremazia Intel su AMD in questo particolare test, direi che non si evidenzia in alcun modo.
Ciò che non deve trarre in inganno nel grafico è la frequenza effettiva alla quale lavora la CPU. Se osservi con attenzione alla frequenza di 3,00ghz la situazione è la seguente:
1) Intel (Core 2 Quad Q9650@3,0ghz) con 25fps
2) AMD (Phenom X4 9950@3,00ghz) con 24fps
3) Intel (Core 2 Duo E6850@3,00ghz) con 23fps
Come vedi siamo lì, anzi un Phenom II x4 (che non appare nel test) avrebbe certamente dato un risultato migliore a parità di frequenza (3ghz) rispetto al Phenom 9950 (quello col bug per intenderci...) inserito nella comparativa.
Ribadisco quanto scritto in precedenza...:doh:
....
....nessuno disconosce l'importanza della CPU in questo o quell'altro game..semplicemente, molti di noi sostengono che a partire da 1680*1050 con tutti i setting al max qualsivoglia game (che non sia quake3) non è CPU-limited....: un Phenom2 e qualsivoglia Core2duo cloccato perbene non costituiscono alcun limite alla fruibilità delle nuove VGA...
Se insinsti non so cosa altro aggiungere..
In merito alla mia precedente risposta "poco ortodossa"..non vi era e non c'è nulla di personale... pertanto ti invito a non confondere l'essere spigolosi con l'essere offensivi.. :) :cincin:
NvidiaMen
13-09-2009, 16:17
Ribadisco quanto scritto in precedenza...:doh:
Se insinsti non so cosa altro aggiungere..
In merito alla mia precedente risposta "poco ortodossa"..non vi era e non c'è nulla di personale... pertanto ti invito a non confondere l'essere spigolosi con l'essere offensivi.. :) :cincin:
Tranquillo Milotto, tutto ok. :cincin: :mano: ;)
Dopo questa lunga divagazione ritorniamo in TOPIC altrimenti Gianni si arrabbia e non ha tutti i torti... Speriamo davvero che domani esca qualche leak-bench sulla 5870...:D
Tranquillo, io son ingegnere, ma la laurea in queste cose serve a ben poco...
Riguardo alla tua osservazione sulla supremazia Intel su AMD in questo particolare test, direi che non si evidenzia in alcun modo.
Ciò che non deve trarre in inganno nel grafico è la frequenza effettiva alla quale lavora la CPU. Se osservi con attenzione alla frequenza di 3,00ghz la situazione è la seguente:
1) Intel (Core 2 Quad Q9650@3,0ghz) con 25fps
2) AMD (Phenom X4 9950@3,00ghz) con 24fps
3) Intel (Core 2 Duo E6850@3,00ghz) con 23fps
Come vedi siamo lì, anzi un Phenom II x4 (che non appare nel test) avrebbe certamente dato un risultato migliore a parità di frequenza (3ghz) rispetto al Phenom 9950 (quello col bug per intenderci...) inserito nella comparativa.
Grazie per la risposta :)
Questa è un'ipotesi. Certo è che se devo spendere uguale o pochissimo meno, per avere le stesse prestazioni, ma maggiori consumi e rinunciando alla compliance DX11 direi che la risposta si da da sola...
Per questo dicevo che si tratta di considerazioni soggettive non volevo far diventare la mia osservazione una regola da seguire valida per tutti ...
Io che posso far passare i consumi in secondo piano e che non vedo per ora titoli all'orizzonte tali da farmi scegliere le DX11 potrei avere fretta a chiudere ora la scelta della VGA senza aspettare sino a quando saranno disponibili effettivamente sul mercato.
Ciao, ti do ragione sul fatto che magari con schede comparabili come potenza ci si possa godere i titoli dx11. Quello che invece trovo interessante è che pur tu avendo una cpu con più di un core non ti stuzzichi l'idea di vedere magari "qualche " fps in più derivato da minor overhead... Se mi posso permettere come mai?
In sincerità ho scelto il PhenomII 720 perchè offriva quando l'ho scelto (un mesetto fa scarso) il miglior rapporto qualità-prezzo-prestazioni rapportato al mio budget, visto anche se sale con una faclità disarmante in frequenza. Il suo compito principale è quello di non tappare troppo le prestazioni della scheda video. Qualche frame in più non credo mi cambi la vita, preferisco scegliere una scheda dalla quale mi aspetto un livello medio di prestazioni più o meno alte in relazione a quello che c'è in circolazione e al monitor che utilizzo (un livello di prestazioni dove la manciata di frame in più o in meno non compromette certo la godibiltià ... ovvero in una zona abbastanza lontana dai <30 fps).
Andrea deluxe
13-09-2009, 18:00
chiedo perdono per l'ot!
resident evil 5 1920*1200 AA2x AF16X v-sync off gts250 @ 756-1836-2484
grafico su 3200mhz
grafico giu' 4000mhz
http://img132.imageshack.us/img132/953/immaginedq.png (http://img132.imageshack.us/i/immaginedq.png/)
mackillers
13-09-2009, 18:02
Tranquillo, io son ingegnere, ma la laurea in queste cose serve a ben poco...
Riguardo alla tua osservazione sulla supremazia Intel su AMD in questo particolare test, direi che non si evidenzia in alcun modo.
Ciò che non deve trarre in inganno nel grafico è la frequenza effettiva alla quale lavora la CPU. Se osservi con attenzione alla frequenza di 3,00ghz la situazione è la seguente:
1) Intel (Core 2 Quad Q9650@3,0ghz) con 25fps
2) AMD (Phenom X4 9950@3,00ghz) con 24fps
3) Intel (Core 2 Duo E6850@3,00ghz) con 23fps
Come vedi siamo lì, anzi un Phenom II x4 (che non appare nel test) avrebbe certamente dato un risultato migliore a parità di frequenza (3ghz) rispetto al Phenom 9950 (quello col bug per intenderci...) inserito nella comparativa.
Ecco ho apprezzato i fatto tu abbia portato altri test da quello che si diceva prima, c'è da dire che imho con i Cor I7 che sono più veloci questa differenza sarebbe diventata minore..
comunque una risposta a questo quesito ve la potrò dare io tra 1-2 mesi (non compro mai appena esce un nuovo modello)
Visto che la 5870 la monterò sopra un Phenom II:)
Ciao a tutti e non esageriamo i toni pur non concordando con Nvidiamen devo dire che ha sempre portato congetture e test a supporto delle sue tesi..
mackillers
13-09-2009, 18:03
[QUOTE=Andrea deluxe;28866589]chiedo perdono per l'ot!
resident evil 5 1920*1200 AA2x AF16X v-sync off
grafico su 3200mhz
grafico giu' 4000mhz
Si stava parlando solo di Crysis e solamente in DX 10 Very High... in tute le altre configurazioni si dava per scontato cambiasse poco o nulla:)
il quesito era: la maggior complessità strutturale delle scene in DX10 crea un pesante lavoro per la CPU tale da poter limitare certe schede top gamma?
ma scusate non basta fare un test a bassa risoluzione? visto che il lavoro della CPU a quelle risoluzioni non cambia? se entrambe supera i 60-70 FPS non limiteranno mai una scheda più potente a risoluzioni Full HD +
povera ati si impegna tanto poi quando esce il gt300 abbaserà la cresta lol :D :D :D
povera ati si impegna tanto poi quando esce il gt300 abbaserà la cresta lol :D :D :D
Questo è uno dei classici interventi da conservare... Ratatoooosk... :O :asd:
Bastoner
13-09-2009, 18:19
povera ati si impegna tanto poi quando esce il gt300 abbaserà la cresta lol :D :D :D
:mbe:
:rolleyes:
TheDarkAngel
13-09-2009, 18:19
povera ati si impegna tanto poi quando esce il gt300 abbaserà la cresta lol :D :D :D
http://digilander.libero.it/arosati76/thx4info.gif
grazie di esistere
povera ati si impegna tanto poi quando esce il gt300 abbaserà la cresta lol :D :D :D
mi sa che sta volta non sarà proprio così.. cmq io sono indeciso se prendere o no le 5800, mi sa che a sto giro passo visto che per PC non sta uscendo nessun gioco che mette in crisi le 4800.. (e poi sono appena passato da una 4850 a una 4870 1gb a costo zero :D )
NvidiaMen
13-09-2009, 18:22
Ciao a tutti e non esageriamo i toni pur non concordando con Nvidiamen devo dire che ha sempre portato congetture e test a supporto delle sue tesi..
Ti ringrazio di cuore per la tua schiettezza, anche se non capisco in cosa non concordi dato che, numeri alla mano, la situazione in DX10 1920x1200 High Quality è quella che risulta dai test...
ma scusate non basta fare un test a bassa risoluzione? visto che il lavoro della CPU a quelle risoluzioni non cambia? se entrambe supera i 60-70 FPS non limiteranno mai una scheda più potente a risoluzioni Full HD +
Ero quello che avevo fatto io prima, ma son stato aggredito di faziosità in quanto Crysis scalava in modo lineare all'aumentare della frequenza della CPU...
Successivamente ho postato test in full-HD in High Quality DirectX10 è la scalibilità della CPU si è riconfermata...
Cmq no problem direi di chiuderla qui... se siamo tutti daccordo.... ;)
Non credo sia possibile fare una cosa del genere. Per dire, se hai una VGA DX10.1 come puoi andare ad usare un tassellatore che non c'è?
Non saprei, sai?
In realtà, per le schede che hanno la tessellation non DX11 compliant potrebbe esserci uno spiraglio, ossia fare in modo da avere 2 path per la tessellazione: uno attraverso i vertex shaders (ATI DX10, DX10.1 e gpu Xbox360) l'altro come richiedono le DX11...
Sarebbe un modo per ampliare il parco di gpu sulle quali giochi con la tessellation girerebbero meglio... :stordita:
Italia 1
13-09-2009, 18:27
Ma scusate... con l'ultimo download directx, quello di agosto, mi pare di aver capito che anche Vista diventava DirectX 11...
Polpi_91
13-09-2009, 18:27
povera ati si impegna tanto poi quando esce il gt300 abbaserà la cresta lol :D :D :D
Appena arriva Gianni mi sa che mette sotto naftalina un pochino non solo la battuta ma anche l'utente.
Comunque tornano IT, queste schede hanno una potenza di calcolo mostruosa e mi stà venendo una scimmia pazzesca perchè oltre che a migliorare la qualità con cui giocherò avro anche un boos micidiale nel calcolo distribuito (BOINC)
ghiltanas
13-09-2009, 18:29
Ma scusate... con l'ultimo download directx, quello di agosto, mi pare di aver capito che anche Vista diventava DirectX 11...
si anche vista dovrebbe supportarle adesso..cmq se hai quel sistema lo puoi verificare te tranquillamente :)
Italia 1
13-09-2009, 18:44
No, ho Win7 64 bit.. niente Vista. Per ora l'unico gioco che sto usando DX 10 è Crysis
Foglia Morta
13-09-2009, 18:57
Non saprei, sai?
In realtà, per le schede che hanno la tessellation non DX11 compliant potrebbe esserci uno spiraglio, ossia fare in modo da avere 2 path per la tessellazione: uno attraverso i vertex shaders (ATI DX10, DX10.1 e gpu Xbox360) l'altro come richiedono le DX11...
Sarebbe un modo per ampliare il parco di gpu sulle quali giochi con la tessellation girerebbero meglio... :stordita:
So che ce ne è una di Microsoft ma al momento ho trovato solo la slide di nVidia :asd:
Il tessellatore DX11 compliant è un superset del tessellatore della X360 . Praticamente codice pensato per il tessellatore della X360 funziona anche sul nuovo tessellatore , mentre viceversa no :)
http://gallery.techarena.in/data/516/medium/Pipeline-3D-rendering-Direct3D-11.jpg
Ovviamente ci giochi in DX9.
Non credo sia possibile fare una cosa del genere. Per dire, se hai una VGA DX10.1 come puoi andare ad usare un tassellatore che non c'è?
Forse non ho inteso il puro senso della frase ma...il tessellator in hardware esiste già da R600.Ora non conosco le modifiche ad esso apportate nei requisiti delle Dx11,credo però che si possa renderlo retrocompatibile con le versioni precedenti....
Leggi di mercato permettendo....
p.s. bello batman :sbonk: :sbonk:
HackaB321
13-09-2009, 19:05
Un arbiter a monte...il punto è comprendere se questo genere di architettura non implichi molte ridondanze...
Ciao Hacka.. =) ;)
Ciao Milotto.
In effetti perlomeno avresti la ridondanza di un dp in più. Il problema più grande però penso sia la difficoltà creare un chip in grado di gestire la ripartizione equilibrata di carico di un singolo frame tra più core.
Questo è uno dei classici interventi da conservare... Ratatoooosk... :O :asd:
Rata: ALT+Z :D
Non saprei, sai?
In realtà, per le schede che hanno la tessellation non DX11 compliant potrebbe esserci uno spiraglio, ossia fare in modo da avere 2 path per la tessellazione: uno attraverso i vertex shaders (ATI DX10, DX10.1 e gpu Xbox360) l'altro come richiedono le DX11...
Sarebbe un modo per ampliare il parco di gpu sulle quali giochi con la tessellation girerebbero meglio... :stordita:
Quoto!
letto in netto ritardo...
Qua da me la linea è fantasma....
Kharonte85
13-09-2009, 19:17
E' retrocompatibile. Il punto è che quello attuale non è avanticompatibile con le DX11 ;)
:rotfl: (anche per l'immagine avatar)
si anche vista dovrebbe supportarle adesso..cmq se hai quel sistema lo puoi verificare te tranquillamente :)
Io ho vista64 come lo verifico? (ho controllato dal dxdiag e risulta ancora dx10 :stordita: )
E' retrocompatibile. Il punto è che quello attuale non è avanticompatibile con le DX11 ;)
Per effettiva deficienza hardware o voleri monetari?:stordita:
michelgaetano
13-09-2009, 19:24
:rotfl: (anche per l'immagine avatar)
Io ho vista64 come lo verifico? (ho controllato dal dxdiag e risulta ancora dx10 :stordita: )
Avanticompatibile mancava anche a me :asd: :asd:
Per le directx, installa la versione di agosto e apri la schermata che mostrava mi pare ghiltanas poco addietro.
ghiltanas
13-09-2009, 19:31
:rotfl: (anche per l'immagine avatar)
Io ho vista64 come lo verifico? (ho controllato dal dxdiag e risulta ancora dx10 :stordita: )
devi avere le ultime dx rilasciate, poi vai nel pannello nvidia e clicchi su system information in basso a sx, ti dice tutto ;)
Kharonte85
13-09-2009, 19:44
Per le directx, installa la versione di agosto e apri la schermata che mostrava mi pare ghiltanas poco addietro.
devi avere le ultime dx rilasciate, poi vai nel pannello nvidia e clicchi su system information in basso a sx, ti dice tutto ;)
Le dx le avevo già istallate (Os: vista 64bit SP2 home premium)...anche in questo modo mi continua a dire dx10.0...devo cominciare a preoccuparmi? :mc:
devi avere le ultime dx rilasciate, poi vai nel pannello nvidia e clicchi su system information in basso a sx, ti dice tutto ;)
io le ho scaricate.. ma c'è ancora scritto 10 :cry:
Però su questo pc ho una 8600 GS e win vista 32 bit.. ma non dovrebbe apparire lo stesso?
michelgaetano
13-09-2009, 19:47
Le dx le avevo già istallate (Os: vista 64bit SP2 home premium)...anche in questo modo mi continua a dire dx10.0...devo cominciare a preoccuparmi? :mc:
Mhh... hai l'SP 2? (non so quanto c'entri, ci provo :asd:)
Andrea deluxe
13-09-2009, 19:56
appena provato....
http://img22.imageshack.us/img22/4330/cattura11b.jpg (http://img22.imageshack.us/i/cattura11b.jpg/)
:confused:
Kharonte85
13-09-2009, 19:57
Mhh... hai l'SP 2? (non so quanto c'entri, ci provo :asd:)
Meglio che ti levi quegli scarichi e la maschera perchè mi sa che non ci vedi :sofico:
@ Rata: vale la stessa cosa :asd: ho detto prima che anche il dxdiag mi da lo stesso responso (so guardare il dxdiag :fagiano: )...
Secondo me per vista non sono ancora abilitate...per ora vedo solo screen con win7 :fagiano:
michelgaetano
13-09-2009, 19:58
Meglio che ti levi quegli scarichi e la maschera perchè mi sa che non ci vedi :sofico:
No cioè, l'ho anche quotato... non ho parole :sofico: :asd:
È la maschera, sì... :asd:
1) si sa se è confermata una architettuta full-mimd x nvidia gt 300 ?????
2) cosa sono le GDDR5 + ??? rispetto alle Gddr5 normali??
chiedo qui anche se off-topic , xchè molto + seguto questo topic. :)
michelgaetano
13-09-2009, 20:17
1) si sa se è confermata una architettuta full-mimd x nvidia gt 300 ?????
2) cosa sono le GDDR5 + ??? rispetto alle Gddr5 normali??
chiedo qui anche se off-topic , xchè molto + seguto questo topic. :)
Non è il post adatto, hai già chiesto nel thread apposito. Aspetta ti arrivi risposta lì, qui è quasi il regno dell'OT e i mod hanno già chiuso più volte.
Ciao Milotto.
In effetti perlomeno avresti la ridondanza di un dp in più. Il problema più grande però penso sia la difficoltà creare un chip in grado di gestire la ripartizione equilibrata di carico di un singolo frame tra più core.
La stessa (eventuale) stima dinamica del carico di lavoro da assegnare ai due CORE..è di per se un lavoro...:)
ertruffa
13-09-2009, 20:56
ok per oggi niente.speriamo che domani si cominci,visto che dovrebbero fornire i driver per ste benedette 5870:mad:
Strano che non ci siano altri bench in giro...
Comunque da domani, con i nuovi driver, credo che i cinesi faranno la loro parte :O
Polpi_91
13-09-2009, 21:39
Strano che non ci siano altri bench in giro...
Comunque da domani, con i nuovi driver, credo che i cinesi faranno la loro parte :O
almeno ogni tanto sono utili :asd:
comunque non credo che su vista siano ancora state attivate le DX11
Italia 1
13-09-2009, 21:54
Se Vista funziona come 7, basta scrivere "Dxdiag" sulla casella "cerca", cliccare invìo, sulla prima scheda ci sono le directx del SO, sulla 2° quelle della scheda video...
http://www.megaportal.it/imghost/2009/09/13/2253161252875196.jpg
http://www.megaportal.it/imghost/2009/09/13/2253531252875233.jpg
Ma scusate... con l'ultimo download directx, quello di agosto, mi pare di aver capito che anche Vista diventava DirectX 11...
No, credo non centi proprio nulla, le Dx11 per Vista verranno rilasciate tramite aggiornamento dedicato da Microsoft.
So che ce ne è una di Microsoft ma al momento ho trovato solo la slide di nVidia :asd:
Il tessellatore DX11 compliant è un superset del tessellatore della X360 . Praticamente codice pensato per il tessellatore della X360 funziona anche sul nuovo tessellatore , mentre viceversa no :)
Beh, a questo punto se facessero almeno all'inizio codice pensato per i tessellator pre DX11 potrebbero usufruirne tutti, no? :stordita:
Italia 1
13-09-2009, 22:25
Qui, dove si può scaricare l'SDK per directx 11m dice che con questo appunto si possono creare applicazioni directx 11 per 7 e Vista...
http://www.microsoft.com/downloads/details.aspx?FamilyID=b66e14b8-8505-4b17-bf80-edb2df5abad4&displaylang=en
Quindi.... pare proprio che su Vista lo mettano a breve... e visto che l'SDK e le ultime directx sono uscite lo stesso giorno, pensavo abilitassero le 11 su Vista
Qui, dove si può scaricare l'SDK per directx 11m dice che con questo appunto si possono creare applicazioni directx 11 per 7 e Vista...
http://www.microsoft.com/downloads/details.aspx?FamilyID=b66e14b8-8505-4b17-bf80-edb2df5abad4&displaylang=en
Ovviamente, per noi utenti comuni basta il runtime.
http://www.microsoft.com/downloads/details.aspx?displaylang=en&FamilyID=04ac064b-00d1-474e-b7b1-442d8712d553
Ma non è necessario installarlo, anche se non lo fate ci pensano gli installer dei giochi a farlo. :-P
Wing_Zero
13-09-2009, 23:55
Sono moderatore in un altro forum... ringraziate che qui il mio "collega" ha chiuso un occhio sul vostro modo "gentile" di rivolgervi ad un'altra persona...
Precisiamo le cose: la storia che non vi sia neanche un solo fps di differenza al variare del clock della CPU in High Quality a 1920x1200 è PURA disinformazione.
Riguardo al test DX10 a 1920x1200 in High Quality sarebbe bastato credere a ciò che testai io con la mia ex 4870x2 MSI OC alternando un OpteronX2@2,816 ed un Phenom X4 940@3,5ghz ed ottenendo un guadagno di ben 11 frames (da 22fps a 33fps)... Ma non essendo, i miei test, equiparabili a dei bench ufficiali di un sito acclamato come legionhardware capisco più che bene il vostro scetticismo...
Tuttavia senza rispondermi in modo così "pepato", se la vostra volontà era semplicemente quella di farmi segnalare test di Crysis a 1920x1200 High Quality in grado di dimostrare come su di uno stesso identico processore con poco meno di 1ghz in più si rilevi il 20% in più di frames a parità di impostazioni delle scheda video (senza svenarsi ad usare una GTX295 o peggio un SLI di GTX295, ma una semplice GTX280) eccovi serviti...
Nel grafico (per evitare discussioni ho fatto sempre riferimento al sito che voi ritenete attendibile, ovvero legionhardware, ma con un test più aggiornato, cioè in DX10, di quel che avete postato voi) notare come un 9650@2,66ghz risenta di ben il 20% di frames in meno rispetto alla stessa CPU cloccata a 3,60ghz:
24fps (9650@2,66ghz) x 1,2 = 29 fps (9650@3,60ghz)
incremento "quasi" proporzionale all'innalzamento del clock della CPU (in tal caso pari al 35%):
9650@2,66ghz x 1,35 = 9650@3,60ghz
Il tutto fatto a 1920x1200 in High Quality DX10 (che, come tutti ben sappiamo, ha addirittura ha attivi più effetti rispetto alla controparte DX9 (http://www.tomshw.it/news.php?newsid=10200) a carico della GPU) con una "poveretta" e singola GTX280 quindi nulla di trascendentale come invece potrebbe essere utilizzando una 5870, o peggio, una 5870x2 le quali, rispettivamente, duplicano e quadruplicano la GTX280 utilizzata nel test, rendendo, nei prossimi giorni, il fenomeno di CPU limited ancor più evidente.
http://img338.imageshack.us/img338/667/crysis01.th.jpg (http://img338.imageshack.us/i/crysis01.jpg/)
Link qui (http://www.legionhardware.com/document.php?id=775&p=4) all'articolo fatto sul vostro sito di riferimento ed in DX10 (non DX9 come ciò che avevate linkato in precedenza) laddòve il carico sulla CPU aumenta (proprio come affermava Cevat Yerly CEO di Crytek).
PS: non lavoro per Intel, anzi è da 5 anni che ho sempre avuto piattaforme AMD, ma per motivi di lavoro (uso 3Dsmax e Cinema4D) a questo giro son dovuto andare sulle soluzioni di SantaClara...
Tranquillo poi lo ringrazio via pm il tuo collega, non ti preoccupare di questo...
Mi sn davvero stufato cmq...
questa volta il bench che hai postato:
1) crysis è impostato su high e non su very high...a very high sicuramente le differenza tra le cpu si azzererebbero
2) una volta di nuovo leggi il grafico in modo capzioso...è normale che a 2.66 ghz ci siano 4 fps di differenza rispetto a 3.60 ghz (poi capirai, 4 su 30..vabbè cmq..)...ma hai oppurtunamente evitato di dire che tra 3.0ghz e 3,60ghz c'è 1 solo fps di differenza...2.66 ghz per un quad core penryn sn daccordo anche io che non sia il top, e qualche fps lo perdi...pero' come vedi da 3 ghz a 3.60ghz c'è solo 1 fps...le differenze di annullano asintoticamente all'aumentare della frequenza
come sicuramente nn ci sarebbe nessun fps di differenza tra un i7 a 3.2 rispetto ad uno a 4 ghz...
Bah, mi sn stufato di risponderti sempre le stesse cose.
Buon proseguimento da solo, io la smetto qui :)
E ritorno IT.
Qualcuno sa le specifiche delle GDDR5+??
mackillers
14-09-2009, 00:16
Tranquillo poi lo ringrazio via pm il tuo collega, non ti preoccupare di questo...
Mi sn davvero stufato cmq...
questa volta il bench che hai postato:
1) crysis è impostato su high e non su very high...a very high sicuramente le differenza tra le cpu si azzererebbero
2) una volta di nuovo leggi il grafico in modo capzioso...è normale che a 2.66 ghz ci siano 4 fps di differenza rispetto a 3.60 ghz (poi capirai, 4 su 30..vabbè cmq..)...ma hai oppurtunamente evitato di dire che tra 3.0ghz e 3,60ghz c'è 1 solo fps di differenza...2.66 ghz per un quad core penryn sn daccordo anche io che non sia il top, e qualche fps lo perdi...pero' come vedi da 3 ghz a 3.60ghz c'è solo 1 fps...le differenze di annullano asintoticamente all'aumentare della frequenza
come sicuramente nn ci sarebbe nessun fps di differenza tra un i7 a 3.2 rispetto ad uno a 4 ghz...
Bah, mi sn stufato di risponderti sempre le stesse cose.
Buon proseguimento da solo, io la smetto qui :)
E ritorno IT.
Qualcuno sa le specifiche delle GDDR5+??
Guarda sono d'accordo con te sul fatto che con CPU più potenti il vantaggio sparirebbe, e che fra quelle elencate il vantaggio non sia elevatissimo..
ma il fatto che non sia in accordo non vuol dire affatto che bisogni alterarsi verso chi la pensa in modo diverso:)
Seconda di poi il vantaggio anche se limitato si presenta ad un livello di frames molto basso si potrebbe dedurre che quello sia il limite più alto che tali cpu possano reggere.
questo potrebbe dimostrare il fatto che le tesi di Nvidiamen non siano completamente errate.
Dico potrebbe perchè a livelli di risoluzione più bassa ma con gli stessi dettagli non mi pare ci sia questo limite, sono propenso perciò a pensare sia un limite più dovuto alal potenza delle VGA.
DETTO questo stiamo calm oramai mancano pochi giorni appena qui sul forum cominceremo ad avere queste VGA capiremo.
si potrà fare una prova con settaggi massimi in DX10 ed a bassa risoluzione e poi ad alta. con la cpu prima defoult o downcloccata e poi overcloccata così vedremmo se nel caso della 5870 questo "limite della CPU" possa essere importante ed influente.
per conto mio penso che la CPU influirà ma poco e comunque molte delle CPU attuali e del ultimo anno circa permetterano comunque di giocare in modo fluido..
e qua là!! Ratatosk appunta anche questa così dopo ci facciamo qualche risata:D
peace and love gente non ci scaldiamo che intel amd ati & co non ci pagheranno mai a nessuno per i nostri scleri:)
mackillers
14-09-2009, 00:17
Qualcuno sa le specifiche delle GDDR5+??
Penso siano semplicemente le versioni da 0,4ms.. praticamente una semplice evoluzione di frequenza e timings niente altro. insomam sparata da marketing:)
Lo dicevo io che i cinesi ci danno sempre un mucchio di soddisfazioni... :O
RV870
http://img188.imageshack.us/img188/1605/20090914122130798.png (http://img188.imageshack.us/i/20090914122130798.png/)
Dual core? :stordita:
sickofitall
14-09-2009, 06:23
se fosse vero non ci vedrei nulla di nuovo in questi chip, sarebbero 2x rv770 con le istruzioni dx11?:confused:
Snake156
14-09-2009, 06:31
è confermata la data del 23 settembre per la presentazione al pubblico?
architettura simil dual core per abbatere i costi
AMD ha fatto la mossa giusta;)
Kharonte85
14-09-2009, 08:05
Sbaglio o è molto diverso dallo schema che era saltato fuori tempo addietro?
Decisamente diverso...questo schema spiegherebbe il raddoppio paro paro :fagiano: .
<^MORFEO^>
14-09-2009, 08:06
http://www.tomshw.it/news.php?newsid=19357 Giochi DX11 di prossima uscita ;)
ammazza che bona l'architettura dual core su una gpu, si si ecco spiegato davvero il raddoppio quoto
Foglia Morta
14-09-2009, 08:08
Lo dicevo io che i cinesi ci danno sempre un mucchio di soddisfazioni... :O
RV870
http://img188.imageshack.us/img188/1605/20090914122130798.png (http://img188.imageshack.us/i/20090914122130798.png/)
Dual core? :stordita:
oltre all' eyefinity display controller , all' uvd e porta PCI-E cosa c'è scritto sull'altro blocco ?
NvidiaMen
14-09-2009, 08:13
Tranquillo poi lo ringrazio via pm il tuo collega, non ti preoccupare di questo...
Mi sn davvero stufato cmq...
questa volta il bench che hai postato:
1) crysis è impostato su high e non su very high...a very high sicuramente le differenza tra le cpu si azzererebbero
2) una volta di nuovo leggi il grafico in modo capzioso...è normale che a 2.66 ghz ci siano 4 fps di differenza rispetto a 3.60 ghz (poi capirai, 4 su 30..vabbè cmq..)...ma hai oppurtunamente evitato di dire che tra 3.0ghz e 3,60ghz c'è 1 solo fps di differenza...2.66 ghz per un quad core penryn sn daccordo anche io che non sia il top, e qualche fps lo perdi...pero' come vedi da 3 ghz a 3.60ghz c'è solo 1 fps...le differenze di annullano asintoticamente all'aumentare della frequenza
come sicuramente nn ci sarebbe nessun fps di differenza tra un i7 a 3.2 rispetto ad uno a 4 ghz...
Bah, mi sn stufato di risponderti sempre le stesse cose.
Buon proseguimento da solo, io la smetto qui :)
E ritorno IT.
Qualcuno sa le specifiche delle GDDR5+??
Diciamo che un pò immaginavo tu non fossi stato comunque daccordo... Ringrazio invece mackillers per la sua estrema gentilezza e puntualità.
Riguardo al test su Crysis ricordo che il tutto è iniziato parlando di rv870 (5870 e 5870x2) che è oggetto di questo thread e della possibilità che con TALI SCHEDE si possano presentare problemi di CPU limited.
Faccio notare che il test che ho postato e che critichi è stato eseguito con UNA SEMPLICE (ad oggi) GTX280 (quindi neanche una GTX295, una 4870x2, o peggio un SLI o Crossfire di tali schede) ed in DX10 1920x1200 in High Quality (che in ogni caso è PIU' PESANTE per la VGA rispetto a quello DX9 sempre High Quality, e non Very High Quality, che hai postato in precedenza te). Esso dimostra, in ogni caso, come comunque vi sia scalabilità all'aumentare della frequenza della CPU.
Faccio notare inoltre, se si osserva bene il grafico, che alle frequenze più spinte il divario, a differenza di ciò che dici te, aumenta. Infatti a passi di 300mhz di OC abbiamo:
1) 1 FPS tra 2,66ghz e 3,00ghz;
2) 2 FPS tra 3,00ghz e 3,30ghz;
3) 2 FPS tra 3,30ghz e 3,60ghz.
http://img338.imageshack.us/img338/667/crysis01.th.jpg (http://img338.imageshack.us/i/crysis01.jpg/)
Un incremento lineare tendenzaialmente crescente o a limite, se vuoi, costante con un totale di ben 5 FPS che, su 24FPS di base, equivale al 20% in più. Ripeto il tutto è nato dalla considerazione sulla scalabilità della CPU con questo gioco con le prossime 5870 e 5870x2 (le quali portano più in là il limite delle VGA evidenziando maggiormente i limiti dei processori odierni), per cui credo che la mia osservazione non sia assolutamente fuori luogo, anzi abbia un più che solido fondamento.
Poi se vuoi continuare ad opporre giudizio padronissimo di farlo, il forum è libero, seppur nei limiti della libertà altrui, però non depone a tuo favore ed alla stima che io nutro verso di te e per la tua dedizione a questo bel thread.
Buonamattino a tutti, NM.
michelgaetano
14-09-2009, 08:16
cut
Chiudete per favore questo discorso e aprite un thread a riguardo?
ilratman
14-09-2009, 08:22
Chiudete per favore questo discorso e aprite un thread a riguardo?
quoto il thread a riguardo è un'ottima idea!
<^MORFEO^>
14-09-2009, 08:24
Lo dicevo io che i cinesi ci danno sempre un mucchio di soddisfazioni... :O
RV870
http://img188.imageshack.us/img188/1605/20090914122130798.png (http://img188.imageshack.us/i/20090914122130798.png/)
Dual core? :stordita:
Io la vedo come una grossa furbata da parte di AMD/ATI...
Perchè, si sono accorti che l'RV770 è stato un buon chip e poteva rendere ancora bene quindi perchè non riutilizzarlo come ha fatto anche nVidia negli ultimi 2 anni? :rotfl:
In più, hanno potuto risparmiare parecchio per quanto riguarda i costi di ricerca e sviluppo della nuova serie di schede visto che hanno solamente rimpicciolito a 40nm il chip precedente e ci hanno aggiunto qualche controller in più!
Inoltre sanno già con che chip hanno a che fare... Comprese le sue qualità e i suoi difetti anche in ambiente di programmazione e sviluppo driver!
Inoltre inoltre (:D) adesso nessuno gli vieta di raddoppiare nuovamente questo chip portandolo a 3200SP ecc ecc in caso di soluzione estrema :fagiano:
E con questo ragionamento vedo anche più fattibile la creazione di una 5870x2 mono-chip... Troppe fantasie? :stordita:
ilratman
14-09-2009, 08:27
Io la vedo come una grossa furbata da parte di AMD/ATI...
Perchè, si sono accorti che l'RV770 è stato un buon chip e poteva rendere ancora bene quindi perchè non riutilizzarlo come ha fatto anche nVidia negli ultimi 2 anni? :rotfl:
In più, hanno potuto risparmiare parecchio per quanto riguarda i costi di ricerca e sviluppo della nuova serie di schede visto che hanno solamente rimpicciolito a 40nm il chip precedente e ci hanno aggiunto qualche controller in più!
Inoltre sanno già con che chip hanno a che fare... Comprese le sue qualità e i suoi difetti anche in ambiente di programmazione e sviluppo driver!
Inoltre inoltre (:D) adesso nessuno gli vieta di raddoppiare nuovamente questo chip portandolo a 3200SP ecc ecc in caso di soluzione estrema :fagiano:
E con questo ragionamento vedo anche più fattibile la creazione di una 5870x2 mono-chip... Troppe fantasie? :stordita:
è sempre dura il lunedì mattina vero? ;)
cmq concordo con te è stata una furbata non da poco e che permetterà successivi sviluppi interessanti!
cpu 8 core e gpu 8 core! :D
<^MORFEO^>
14-09-2009, 08:41
Credo che questa visione sia un po' naìf :Z
La cosa "semplice" sarebbe stata raddoppiare il numero dei SIMD.
Qui sarebbe stato fatto qualcosa di molto diverso, affrontando tutta una serie di problematiche relative al bilanciamento del carico sui due Engines e dovendo quindi rivedere molto.
Si,ma questo studio è sicuramente più leggero e meno costoso che sviluppare una nuova architettura da 0 con tutti i relativi problemi e step che ci sono di mezzo... Non ti pare?
Un conto è partire da 0 ed un altro è lavorare e ottimizzare una cosa già sviluppata in precedenza...
Tu cosa ne pensi dei 4 core affiancati al posto di soli 2 com'è adesso la 5870? Sarebbe una cosa possibile? :fagiano:
Secondo me ce la potrebbero fare tranquillamente...
davyjones
14-09-2009, 08:42
Io la vedo come una grossa furbata da parte di AMD/ATI...
Perchè, si sono accorti che l'RV770 è stato un buon chip e poteva rendere ancora bene quindi perchè non riutilizzarlo come ha fatto anche nVidia negli ultimi 2 anni? :rotfl:
In più, hanno potuto risparmiare parecchio per quanto riguarda i costi di ricerca e sviluppo della nuova serie di schede visto che hanno solamente rimpicciolito a 40nm il chip precedente e ci hanno aggiunto qualche controller in più!
Inoltre sanno già con che chip hanno a che fare... Comprese le sue qualità e i suoi difetti anche in ambiente di programmazione e sviluppo driver!
Inoltre inoltre (:D) adesso nessuno gli vieta di raddoppiare nuovamente questo chip portandolo a 3200SP ecc ecc in caso di soluzione estrema :fagiano:
E con questo ragionamento vedo anche più fattibile la creazione di una 5870x2 mono-chip... Troppe fantasie? :stordita:
è sempre dura il lunedì mattina vero? ;)
cmq concordo con te è stata una furbata non da poco e che permetterà successivi sviluppi interessanti!
cpu 8 core e gpu 8 core! :D
mmm, non sono pienamente d'accordo: più che una furbata a me sembra una scelta ingegneristica ben ponderata, d'altronde per quanto possa essere conveniente riprendere il design di rv770, portare il tutto ad una soluzione tecnica come sopra credo necessiti di molte revisioni e riprogettazioni.
Inoltre di queste gpu dual core targate Ati se ne parlava già ai tempi del rilascio della 4870 x2 o poco dopo adesso non ricordo bene...semmai, più che di furbata io parlerei di ottima evoluzione di un progetto a lungo termine;) , del quale non conosciamo ancora le implicazioni future: se ci pensate abbiamo da una parte nvidia con la sua architettura full MIMD (domanda per i più tecnici: full mimd significa unità di fetching multiple a valle del dispatch processor???? lo chiedo col cappello in mano e consapevole di poter aver sparato una enorme minXXXXta:D ), dall'altra Ati con la strada delle gpu "dual core"...
Io la vedo come una grossa furbata da parte di AMD/ATI...
Perchè, si sono accorti che l'RV770 è stato un buon chip e poteva rendere ancora bene quindi perchè non riutilizzarlo come ha fatto anche nVidia negli ultimi 2 anni? :rotfl:
In più, hanno potuto risparmiare parecchio per quanto riguarda i costi di ricerca e sviluppo della nuova serie di schede visto che hanno solamente rimpicciolito a 40nm il chip precedente e ci hanno aggiunto qualche controller in più!
Inoltre sanno già con che chip hanno a che fare... Comprese le sue qualità e i suoi difetti anche in ambiente di programmazione e sviluppo driver!
Inoltre inoltre (:D) adesso nessuno gli vieta di raddoppiare nuovamente questo chip portandolo a 3200SP ecc ecc in caso di soluzione estrema :fagiano:
E con questo ragionamento vedo anche più fattibile la creazione di una 5870x2 mono-chip... Troppe fantasie? :stordita:
...a mio avviso state prendendo un granchio...lo schema è stato fatto così per mostrare il grande numero di texture units...ma il chip non è "doppio"...infatti tutte le altre unità non sono speculari...
...ciao Andrea...
Kharonte85
14-09-2009, 08:50
RV870
http://img188.imageshack.us/img188/1605/20090914122130798.png (http://img188.imageshack.us/i/20090914122130798.png/)
http://img3.abload.de/img/cp09nd1q.jpg
Trova le differenze...:sofico:
Lo dicevo io che i cinesi ci danno sempre un mucchio di soddisfazioni... :O
RV870
[ ... ]
Dual core? :stordita:
Azzpita...! :eek:
quindi è una GPU è DUAL CORE nativa...!!
(...) Qui sarebbe stato fatto qualcosa di molto diverso, affrontando tutta una serie di problematiche relative al bilanciamento del carico sui due Engines e dovendo quindi rivedere molto.
ecco infatti mi stavo proprio chiedendo: non ci sono svantaggi rispetto a un'approccio/architettura single core? (intendo come nelle cpu, in cui in alcuni casi i sw sfruttano un solo core...)
scusate l'ignoranza... :stordita:
EDIT: Come non detto se fosse così... :
...a mio avviso state prendendo un granchio...lo schema è stato fatto così per mostrare il grande numero di texture units...ma il chip non è "doppio"...infatti tutte le altre unità non sono speculari...
...ciao Andrea...
Severnaya
14-09-2009, 08:53
io sto male se vedo uno schema così per più di 3 secondi! ! ! :sofico:
ghiltanas
14-09-2009, 09:00
ma con la scalabilità come funzionerà? :fagiano:
anche la 5850 sarà dual core quindi?
Foglia Morta
14-09-2009, 09:01
Hai notato il doppio rasterizer? :Perfido:
Penso proprio che il doppio rasterizzatore abbia a che fare con l' SFR . Curioso di leggere le recensioni
ghiltanas
14-09-2009, 09:07
i consumi mi pareva fossero già stati postati, cmq nn si sa mai:
http://www.expreview.com/?action-viewnews-itemid-8414
grazie per la risposta :)
la differenza col campo CPU è che la grafica ha una forte parallelizzazione intrinseca, che sicuramente facilita la possibilità di trovare una soluzione adeguata.
soprattutto questo passaggio mi "solleva" :)
mircocatta
14-09-2009, 09:11
cos'è tutto questo stupore nel vedere che è una gpu dual core nativa?
mi sembra che sia da giovedì se non prima che se ne parla in questo thread :stordita:
mircocatta
14-09-2009, 09:15
Vantaggi e svantaggi sono nella natura di ogni scelata architetturale. Semplicemente viene scelta la soluzione che permetta di minimizzare i costi e massimizzare le prestazioni, dato un limite massimo al TDP che si vuole sostenere (in considerazione, anche, dei costi sia della componentistica elettronica che di quella termica) e al prezzo di mercato cui si voglia proporre in base ai margini desiderati (aumentare artificialmente questi è possibile anche prevedere a priori una svalutazione competitiva del prodotto all'arrivo sul mercato di eventuali soluzioni concorrenti e concorrenziali).
Insomma le variabili sono abbastanza :D
Dal punto di vista strettamente "tecnico" gli svantaggi ci sono solo se la soluzione trovata non funziona, la differenza col campo CPU è che la grafica ha una forte parallelizzazione intrinseca, che sicuramente facilita la possibilità di trovare una soluzione adeguata.
Come ho detto spesso sono più curioso di vedere il dettaglio dell'architettura che non i benchmark :D
ma sopratutto i problemi da lui citati ci sarebbero se le due gpu lavorassero in afr (come sulle 4870x2 ecc ecc)
ma siccome lavorano in sfr... ;)
ghiltanas
14-09-2009, 09:20
Se quello schema è vero la 5850 sarebbe così:
ma allora 1280 sp e basta? :fagiano:
mackillers
14-09-2009, 09:22
Bhè già le attuali GPU hanno una enorme quantità di unita di esecuzione (con tutte le differenze e discriminanti del caso ovviamente) e quindi sono già delle semi GPU 1600core:D
difatti i recenti sviluppi di programmazione generica (o General Propouse) si applicazioni nei campi in cui gli eseguibili garantiscano dei vantaggi con un elaborazione fortemente parallela si devono cioè poter usare tutte le unità assieme senza che esse aspettino il risultato di alcune di esse come invece avviene nella maggior parte delle normali applicazioni elaborate dalla CPU
mackillers
14-09-2009, 09:22
ma allora 1280 sp e basta? :fagiano:
No dalle screen prese alal presentazione il numero degli SP sembra certo a 1440..
ghiltanas
14-09-2009, 09:26
Perché?
Sono 20 SIMD, io ne ho tolti 2, uno per lato: 1600-160=1440 ;)
ma che cavolo di conto ho fatto? :wtf:
Lo dicevo io che i cinesi ci danno sempre un mucchio di soddisfazioni... :O
RV870
http://img188.imageshack.us/img188/1605/20090914122130798.png (http://img188.imageshack.us/i/20090914122130798.png/)
Dual core? :stordita:
Che GPU ganza, dual-core multi-stream processor... Perbacco cosa mi ha combinato l'AMD! :eek:
Io la vedo come una grossa furbata da parte di AMD/ATI...
Perchè, si sono accorti che l'RV770 è stato un buon chip e poteva rendere ancora bene quindi perchè non riutilizzarlo come ha fatto anche nVidia negli ultimi 2 anni? :rotfl:
In più, hanno potuto risparmiare parecchio per quanto riguarda i costi di ricerca e sviluppo della nuova serie di schede visto che hanno solamente rimpicciolito a 40nm il chip precedente e ci hanno aggiunto qualche controller in più!
Inoltre sanno già con che chip hanno a che fare... Comprese le sue qualità e i suoi difetti anche in ambiente di programmazione e sviluppo driver!
Inoltre inoltre (:D) adesso nessuno gli vieta di raddoppiare nuovamente questo chip portandolo a 3200SP ecc ecc in caso di soluzione estrema :fagiano:
E con questo ragionamento vedo anche più fattibile la creazione di una 5870x2 mono-chip... Troppe fantasie? :stordita:
Beh il progetto, per quanto "riciclato", è stato nobilitato da un'idea di fondo sensazionale che promette addirittura di aggirare il problema del multi-gpu computing attuale e sfruttare pienamente i due core a disposizione come se fosse un solo core con un numero di SP equivalente... ;)
Più che 5870x2 potrebbero chiamarla 5890 oppure fanno una nuova famiglia (5970) e la dotano di una bella GPU quad-core :D
Inoltre potrebbero fare una versione X3 come con i Phenom e chiamarla 5880 (o 5950)! :sofico:
Così come le versioni con 1 core fallato diventerebbero delle specie di schede "Sempron" e così potrebbero fare delle schede tipo HD5770 e HD5750 et similia... :sofico:
secondo me ragazzi vi state facendo fuorviare dalle foto dell'archidettura.
a sembra si, che per le unità shader siano state messe in Fila per due invece che fila unica, ma che siano cmq intercomunicanti tra loro, e non blocco 1 parla solo con blocco 1 e blocco 2 parla solo con blocco 2.
mi sembra solo una soluzione costruttiva "geometrica" per l'ottimizzazione dello stampaggio del chip, quindi questo schema a "farfalla" non dovrebbe portarci a fare voli troppo pindarici e credere che sia "dual gpu".
senza contare che poi finisce e parte tutto dall'UDP (ultra dispace processor).
quindi come da r600 in poi è lui che si occupa di ripartire il lavoro tra i vari sotto array dei microcore.
quindi per lui averne 22 o 22 in fila numerati da 0 a 21 o averne 2 in fila per 2 sempre tra 0 a 21 è semplicemente uno spostamento fisico di ottimizzazzione costruttiva.
diverso discorso se invece le chiamate fatte all o dall UDP fossero di tipo 0-10 o 0-9A e 0-10 o 0-9B a quel punto invece si potrebbe parlare di archidettura dual core "pura" visto che le chiamate sono speculari a 2 unità differenti quindi A e B.
poi bisogna vedere se le chiamate singole devo essere mirrorate quindi se l'unità 0A deve obbligatoriamente fare quello che fa la 0B e questo vuol dire che ne peggiore dei casi l'archidettura di rv870 risultarebbe un 800x2 piu che un 1600.
ma non credo quindi credo che siano indipendenti tra loro.
quindi bisogna solo vedere come sono chiamati gli array.
se sono numerati contigui, allora non è dual core, è dual core solo per la geometria costruttiva.
se invece sono considerate 2 unità distinte bèh allora vi avvallo la soluzione "dual core";)
La domanda ritorna ad essere quella: se in realtà sono semplicemente 20 SIMD e basta, raffigurati (e costruiti) in quel modo per semplicità costruttiva, a cosa servono i due rasterizers?
O lo schema non è sufficientemente dettagliato da farci capire, o lo schema è un fake ;)
beh in ogni caso nn mi sembra il tipo di schema che di solito mettono sulle slide amd, magariè un disegno di altri... e quindi meno dettagliato!
Foglia Morta
14-09-2009, 10:00
non aggiungono nulla a quanto già visto ma sono foto nuove:
http://img225.imageshack.us/img225/1443/37208259.th.jpg (http://img225.imageshack.us/i/37208259.jpg/)
http://img225.imageshack.us/img225/2081/33210077.th.jpg (http://img225.imageshack.us/i/33210077.jpg/)
http://img225.imageshack.us/img225/1933/76612387.th.jpg (http://img225.imageshack.us/i/76612387.jpg/)
http://img225.imageshack.us/img225/8061/42292063.th.jpg (http://img225.imageshack.us/i/42292063.jpg/)
michelgaetano
14-09-2009, 10:08
non aggiungono nulla a quanto già visto ma sono foto nuove:
http://img225.imageshack.us/img225/1443/37208259.th.jpg (http://img225.imageshack.us/i/37208259.jpg/)
http://img225.imageshack.us/img225/2081/33210077.th.jpg (http://img225.imageshack.us/i/33210077.jpg/)
http://img225.imageshack.us/img225/1933/76612387.th.jpg (http://img225.imageshack.us/i/76612387.jpg/)
http://img225.imageshack.us/img225/8061/42292063.th.jpg (http://img225.imageshack.us/i/42292063.jpg/)
Non riesco neanche a capire se a lato dopo averla montata ha quella plastica rossa :stordita: Per il resto, non è la eyefinity vista l'uscita
ghiltanas
14-09-2009, 10:12
ma l'areazione sarà effeciente? :mbe: mi pare un pò troppo "blindata", ci sarà un buon flusso d'aria dentro quella cosa? :fagiano:
Wing_Zero
14-09-2009, 10:13
Diciamo che un pò immaginavo tu non fossi stato comunque daccordo... Ringrazio invece mackillers per la sua estrema gentilezza e puntualità.
Riguardo al test su Crysis ricordo che il tutto è iniziato parlando di rv870 (5870 e 5870x2) che è oggetto di questo thread e della possibilità che con TALI SCHEDE si possano presentare problemi di CPU limited.
Faccio notare che il test che ho postato e che critichi è stato eseguito con UNA SEMPLICE (ad oggi) GTX280 (quindi neanche una GTX295, una 4870x2, o peggio un SLI o Crossfire di tali schede) ed in DX10 1920x1200 in High Quality (che in ogni caso è PIU' PESANTE per la VGA rispetto a quello DX9 sempre High Quality, e non Very High Quality, che hai postato in precedenza te). Esso dimostra, in ogni caso, come comunque vi sia scalabilità all'aumentare della frequenza della CPU.
Faccio notare inoltre, se si osserva bene il grafico, che alle frequenze più spinte il divario, a differenza di ciò che dici te, aumenta. Infatti a passi di 300mhz di OC abbiamo:
1) 1 FPS tra 2,66ghz e 3,00ghz;
2) 2 FPS tra 3,00ghz e 3,30ghz;
3) 2 FPS tra 3,30ghz e 3,60ghz.
http://img338.imageshack.us/img338/667/crysis01.th.jpg (http://img338.imageshack.us/i/crysis01.jpg/)
Un incremento lineare tendenzaialmente crescente o a limite, se vuoi, costante con un totale di ben 5 FPS che, su 24FPS di base, equivale al 20% in più. Ripeto il tutto è nato dalla considerazione sulla scalabilità della CPU con questo gioco con le prossime 5870 e 5870x2 (le quali portano più in là il limite delle VGA evidenziando maggiormente i limiti dei processori odierni), per cui credo che la mia osservazione non sia assolutamente fuori luogo, anzi abbia un più che solido fondamento.
Poi se vuoi continuare ad opporre giudizio padronissimo di farlo, il forum è libero, seppur nei limiti della libertà altrui, però non depone a tuo favore ed alla stima che io nutro verso di te e per la tua dedizione a questo bel thread.
Buonamattino a tutti, NM.
Il mio giudizio è opposto al tuo, e questo si è già capito più volte :)
Non voglio fare polemica o altro e sinceramente mi sn un pò stancato di continuare questo OT.
Quello che per me non sta ne in cielo nè in terra è il fatto che continui a basare i tuoi giudizi su bench "incompleti", come quello appena postato (dove nn sn presenti nè phenom x2 nè core i7) , e non impostati su very high quality...quando invece ci sono decine di bench che ti abbiamo postato in pagine addietro che dimostrano come la differenza sia quasi nulla :)
Inoltre, stavi portando avanti la tesi, a mio parere prima di fondamento, secondo cui crysis in dx10 very high fosse più pesante perchè ha una "complessità poligonlae maggiore": cosa decisamente infondata in quanto la qualità grafica in DX 10 è IDENTICA, e come sempre ti sfido a dimostrarmi il contrario, a quella in dx9. Crysis in dx 10 è piu' pesante unicamente perchè il motore essendo completamente dx9, facendo il porting in dx10, hanno peggiorato le prestazioni...penso che la maggiore lentezza sia solo un esempio di non-buona programmazione.
Per il resto, mi dispiace se ho contribuito a peggiorare la stima che avevi nei mie confronti, ma tant'è :)
Quando sn in disaccordo nn posso nn postare.
Basta OT e continuiamo in pvt se vuoi :) (anche se cmq sia nn penso sia veramente OT in quanto stiamo discutendo se con una 5870 si è o meno cpu-limited)
Saluti
Wing
http://img225.imageshack.us/img225/1443/37208259.th.jpg (http://img225.imageshack.us/i/37208259.jpg/)
gli occhioni di batman:D
<^MORFEO^>
14-09-2009, 10:15
ma l'areazione sarà effeciente? :mbe: mi pare un pò troppo "blindata", ci sarà un buon flusso d'aria dentro quella cosa? :fagiano:
A mio avviso, proprio perchè è così ben chiusa e blindata allora ci sarà un ottimo flusso d'aria... Infatti il flusso d'aria grazie al percorso obbligado, non va a disperdersi ma va a colpire proprio le zone sensibili della scheda ;)
Wing_Zero
14-09-2009, 10:19
allora è confermata l'architettura dual-core anche per il singolo rv870 :(
peccato :(
Spero che un arichitettura di questo tipo non abbatti le prestazioni rispetto a 20 simd in un unico "die" grafico .
A mio avviso, proprio perchè è così ben chiusa e blindata allora ci sarà un ottimo flusso d'aria... Infatti il flusso d'aria grazie al percorso obbligado, non va a disperdersi ma va a colpire proprio le zone sensibili della scheda ;)
*;)
papafoxtrot
14-09-2009, 10:21
Ma non si dovrebbero vedere i due connettori 6 pin ?
ghiltanas
14-09-2009, 10:22
A mio avviso, proprio perchè è così ben chiusa e blindata allora ci sarà un ottimo flusso d'aria... Infatti il flusso d'aria grazie al percorso obbligado, non va a disperdersi ma va a colpire proprio le zone sensibili della scheda ;)
si però in uscita la grata è veramente piccola :fagiano:
A mio avviso, proprio perchè è così ben chiusa e blindata allora ci sarà un ottimo flusso d'aria... Infatti il flusso d'aria grazie al percorso obbligado, non va a disperdersi ma va a colpire proprio le zone sensibili della scheda ;)
Sarà ma io preferirò metterla a liquido.. la distanza dei fori sarà la stessa della 4850? :confused:
papafoxtrot
14-09-2009, 10:25
Lo dicevo io che i cinesi ci danno sempre un mucchio di soddisfazioni... :O
RV870
http://img188.imageshack.us/img188/1605/20090914122130798.png (http://img188.imageshack.us/i/20090914122130798.png/)
Dual core? :stordita:
Beh mi pare comunque un bello schema se fosse un dual core di questo tipo!!
Caspita gente il memory controller è tutto condiviso, le cache sono condivise, il dispatch è unico!!!
Non ci vedo ridondanze :sbav:
:winner: :winner: :winner: :winner: :winner:
<^MORFEO^>
14-09-2009, 10:29
si però in uscita la grata è veramente piccola :fagiano:
Non centra molto...
Se lo hai mai visto, guarda quanto è grande il buco di uscita della pistola di un compressore d'aria... Non arriva a 5 millimetri di diametro ma spara aria molto molto forte! Questo era solo per farti un esempio ;)
Quello che conta è la potenza e l'efficienza delle ventola nel convogliare l'aria nel percorso obbligato che risulta essere una soluzone migliore di quelle che consistono nella sola ventola appoggiata sul dissipatore ;)
Metà dell'aria sparata da quella ventola va persa infatti
Ma non si dovrebbero vedere i due connettori 6 pin ?
no è fotografata su tutti i lati tranne quello dei connettori;)
ghiltanas
14-09-2009, 10:32
Non centra molto...
Se lo hai mai visto, guarda quanto è grande il buco di uscita della pistola di un compressore d'aria... Non arriva a 5 millimetri di diametro ma spara aria molto molto forte! Questo era solo per farti un esempio ;)
Quello che conta è la potenza e l'efficienza delle ventola nel convogliare l'aria nel percorso obbligato che risulta essere una soluzone migliore di quelle che consistono nella sola ventola appoggiata sul dissipatore ;)
Metà dell'aria sparata da quella ventola va persa infatti
è anche questo che mi preoccupa :p
ps il compressore ce l'ho a casa, so com'è fatto :)
<^MORFEO^>
14-09-2009, 10:32
http://img171.imageshack.us/img171/7157/in1.jpg
http://img233.imageshack.us/img233/8946/in1a.jpg
http://img225.imageshack.us/img225/2705/in2.jpg
http://img268.imageshack.us/img268/7362/in3b.jpg
http://img141.imageshack.us/img141/3861/in4.jpg
http://img170.imageshack.us/img170/2173/in5.jpg
http://img43.imageshack.us/img43/1066/in6z.jpg
http://img43.imageshack.us/img43/1949/in7m.jpg
http://img141.imageshack.us/img141/6951/pn8.jpg
Finalmente foto a risoluzione decente... Dite che queste violano il segreto imposto da ATI fino al 23? :asd:
ilratman
14-09-2009, 10:33
Non centra molto...
Se lo hai mai visto, guarda quanto è grande il buco di uscita della pistola di un compressore d'aria... Non arriva a 5 millimetri di diametro ma spara aria molto molto forte! Questo era solo per farti un esempio ;)
Quello che conta è la potenza e l'efficienza delle ventola nel convogliare l'aria nel percorso obbligato che risulta essere una soluzone migliore di quelle che consistono nella sola ventola appoggiata sul dissipatore ;)
Metà dell'aria sparata da quella ventola va persa infatti
hai anche mai sentito il rumore che fa l'aria in uscita dalla pistola di un compressore? ;)
le soluzioni di questo tipo sono e rimarranno rumorosissime qualsiasi cosa cerchino di fare!
Athlon 64 3000+
14-09-2009, 10:34
Come è successo sia per la serie HD 3800 che 4800 partner come la Sapphire quasi sicuramente faranno versioni personalizzate di questa scheda con PCB e dissipatori completamente diversi.
Non centra molto...
Se lo hai mai visto, guarda quanto è grande il buco di uscita della pistola di un compressore d'aria... Non arriva a 5 millimetri di diametro ma spara aria molto molto forte! Questo era solo per farti un esempio ;)
Quello che conta è la potenza e l'efficienza delle ventola nel convogliare l'aria nel percorso obbligato che risulta essere una soluzone migliore di quelle che consistono nella sola ventola appoggiata sul dissipatore ;)
Metà dell'aria sparata da quella ventola va persa infatti
in effetti però è piccolina
http://img141.imageshack.us/img141/3861/in4.jpg
speriamo che l'efficacia della ventola non sia dipendente da un regime troppo alto di rotazione
hai anche mai sentito il rumore che fa l'aria in uscita dalla pistola di un compressore? ;)
le soluzioni di questo tipo sono e rimarranno rumorosissime qualsiasi cosa cerchino di fare!
Un altro punto è anche questo ... quanto tempo ci vorrà prima di vedere le versioni che differiscono dalla reference board ? ..
michelgaetano
14-09-2009, 10:35
Non è confermato nulla :D
Come dicevo sopra, non ce ne frega nulla di come è strutturata, se la soluzione funziona bene e across the board.
Esatto, finchè va come una normale gpu single core, chissenefrega (parlando puramente di prestazioni, si intende) di quel che c'è dentro. :D
Sembra di metallo :mbe:
Sotto sembra davvero metallo, ma sopra sembra normale plastica... :mbe:
Kharonte85
14-09-2009, 10:35
Finalmente foto a risoluzione decente... Dite che queste violano il segreto imposto da ATI fino al 23? :asd:
Noooo...ma che vai dicendo...:sofico:
Comunque io vedo due connettori da 6 e stop :)
Secondo voi quanto è lunga? Piu' o meno di una gtx 260?
michelgaetano
14-09-2009, 10:37
Certo che nulla di nulla su 5850... secondo voi nessuna possibilità di un unico 6 pin? :stordita: :cry:
bronzodiriace
14-09-2009, 10:38
Certo che nulla di nulla su 5850... secondo voi nessuna possibilità di un unico 6 pin? :stordita: :cry:
dipenderà molto anche dalla frequenze. :)
ghiltanas
14-09-2009, 10:39
Certo che nulla di nulla su 5850... secondo voi nessuna possibilità di un unico 6 pin? :stordita: :cry:
mmm mi sa di no...il consumo è attestato sui 170w
<^MORFEO^>
14-09-2009, 10:40
hai anche mai sentito il rumore che fa l'aria in uscita dalla pistola di un compressore? ;)
le soluzioni di questo tipo sono e rimarranno rumorosissime qualsiasi cosa cerchino di fare!
Infatti, se leggi bene non ho mai parlato di rumorosità di questa soluzione :asd:
Mi sono limitato alla sola efficienza :Prrr:
Noooo...ma che vai dicendo...:sofico:
Comunque io vedo due connettori da 6 e stop :)
Secondo voi quanto è lunga? Piu' o meno di una gtx 260?
i 2 connettori a 8 pin riserviamoceli per la 5870x2 :Perfido:
mircocatta
14-09-2009, 10:41
hai anche mai sentito il rumore che fa l'aria in uscita dalla pistola di un compressore? ;)
le soluzioni di questo tipo sono e rimarranno rumorosissime qualsiasi cosa cerchino di fare!
però più è stretto e piccolo il percorso e più l'aria è accelerata, quindi a parità di tempo porta via più calore
Kharonte85
14-09-2009, 10:41
Riguardandole attentamente ho notato alcune cose:
1. In una foto si è dimenticato di nascondere il S/N, gli faranno un culo come una mongolfiera :asd:
2. Ci sono una marea di placeholder sul PCB, segno che è previsto si possa procedere con alcune modifiche successive.
3. I due connettori di alimentazione PCIe sono 1.0 (6pin), ma uno dei due ha la possibilità di essere installato nella versione 2.0 (8pin).
4. La ram è solo su un lato e non ci sono i placeholder per il lato opposto
Vero (complimenti per la vista) possiamo presumere che quel connettore ci sia nella versione 2gb e/o in quella che ha le connessioni per i monitor...
Beh mi pare comunque un bello schema se fosse un dual core di questo tipo!!
Caspita gente il memory controller è tutto condiviso, le cache sono condivise, il dispatch è unico!!!
Non ci vedo ridondanze :sbav:
:winner: :winner: :winner: :winner: :winner:
Infatti quello, come ha detto Catan, non sembra lo schema di una GPU "dual core".
Se è vero che l'UDP è unico, o ci troviamo dinnanzi ad un solo core MIMD composto da 20 cores SIMD (hanno solo raddoppiato i cores SIMD, causando però una crescita più che lineare della logica di controllo) o lo schema omette di dire che l'UDP funziona come due DP dedicati + al logica per gestire l'sfr.
Un buon schema di una GPU "dual core" dovrebbe, infatti, esplicitare la presenza di DP dedicati ad ogni core MIMD.
Vedendo l'assoluta mancanza di ridindanze, tuttavia, mi viene da pensare alla prima ipotesi.
ilratman
14-09-2009, 10:46
però più è stretto e piccolo il percorso e più l'aria è accelerata, quindi a parità di tempo porta via più calore
quello che conta è la portata, se esce 1mc di aria da quella fessura piccola oppure da 1mq di apertura l'effetto è uguale perchè sempre lo stesso calore asporti!
Infatti, se leggi bene non ho mai parlato di rumorosità di questa soluzione :asd:
Mi sono limitato alla sola efficienza :Prrr:
i 2 connettori a 8 pin riserviamoceli per la 5870x2 :Perfido:
non per niente porti le cuffie fin da piccolo! :asd:
leoneazzurro
14-09-2009, 10:48
Lo dicevo io che i cinesi ci danno sempre un mucchio di soddisfazioni... :O
RV870
http://img188.imageshack.us/img188/1605/20090914122130798.png (http://img188.imageshack.us/i/20090914122130798.png/)
Dual core? :stordita:
Non è dual core in senso stretto, perchè anche se ci sono delle parti ridondanti, ci sono parecchie parti in comune, la gestione del frame è "singola" e la ricostruzione del frame completo avviene nello shader export, a quanto pare. Diciamo che più o meno era come ipotizzavo, se il diagramma è vero può esserci una allocazione dinamica del lavoro in modalità SFR "trasparente" tra i due array di Shader, con in più una doppia rasterizzazione e hyerarchical Z, che eliminano i colli di bottiglia nella gestione SFR della scena (ogni rasterizzatore elabora la geometria solo della parte di scena che compete ad ogni rispettivo array - e questo porta ad un raddoppio del triangle setup rate rispetto alle soluzioni viste sino ad oggi). Hmm.. come viene gestita la tessellazione in questo caso? C'è un tessellatore per ogni rasterizzatore oppure una sola unità che "serve" entrambi gli array? Questo non è visibile nel diagramma.
Kharonte85
14-09-2009, 10:49
Ma avete notato che questa scheda somiglia più alle ultime nvidia piuttosto che alle ultime ATI? PCB nero, dissipatore coperto e look carenato...:D
Foglia Morta
14-09-2009, 10:51
IMO non è fake, bench fatti da ATi
http://www.semiaccurate.com/forums/showpost.php?p=4786&postcount=4
Probably not, as that would breach the NDA.
For those ATI in-house benchmarks,
Roughly,
HD 5870: +10% to +155% over GTX 285 (in 17 games, total 40 configurations), -25% to +95% compared to GTX 295 with AA/AF enabled (AA: 2x-8x, AF: 8x/16x, in 16 games)
HD 5870 CrossFireX: (2 GPU) +/-0% to +90% over GTX 295 SLI*, (3 GPU) +10% to +160% over GTX 295 SLI* (in 15 games)
HD 5850: -25% to +120% over GTX 285 (in 19 games, total 50 configurations)
*I believe it should be a single GTX 295 (i.e. GTX 275 SLI), as only GTX 275 and GTX 285 are mentioned in system configuration list.
One game tested is Wolfenstein, and most are regulars of ATI in-house benchmarks. And 8.66 Beta 2 Driver was used.
P.S. NDA expires on 23rd September, from what I've heard.
<^MORFEO^>
14-09-2009, 10:54
non per niente porti le cuffie fin da piccolo! :asd:
Hai capito tutto allora! :D
IMO non è fake, bench fatti da ATi
http://www.semiaccurate.com/forums/showpost.php?p=4786&postcount=4
Probably not, as that would breach the NDA.
For those ATI in-house benchmarks,
Roughly,
HD 5870: +10% to +155% over GTX 285 (in 17 games, total 40 configurations), -25% to +95% compared to GTX 295 with AA/AF enabled (AA: 2x-8x, AF: 8x/16x, in 16 games)
HD 5870 CrossFireX: (2 GPU) +/-0% to +90% over GTX 295 SLI*, (3 GPU) +10% to +160% over GTX 295 SLI* (in 15 games)
HD 5850: -25% to +120% over GTX 285 (in 19 games, total 50 configurations)
*I believe it should be a single GTX 295 (i.e. GTX 275 SLI), as only GTX 275 and GTX 285 are mentioned in system configuration list.
One game tested is Wolfenstein, and most are regulars of ATI in-house benchmarks. And 8.66 Beta 2 Driver was used.
P.S. NDA expires on 23rd September, from what I've heard.
Alla faccia :eek:
IMO non è fake, bench fatti da ATi
http://www.semiaccurate.com/forums/showpost.php?p=4786&postcount=4
Probably not, as that would breach the NDA.
For those ATI in-house benchmarks,
Roughly,
HD 5870: +10% to +155% over GTX 285 (in 17 games, total 40 configurations), -25% to +95% compared to GTX 295 with AA/AF enabled (AA: 2x-8x, AF: 8x/16x, in 16 games)
HD 5870 CrossFireX: (2 GPU) +/-0% to +90% over GTX 295 SLI*, (3 GPU) +10% to +160% over GTX 295 SLI* (in 15 games)
HD 5850: -25% to +120% over GTX 285 (in 19 games, total 50 configurations)
*I believe it should be a single GTX 295 (i.e. GTX 275 SLI), as only GTX 275 and GTX 285 are mentioned in system configuration list.
One game tested is Wolfenstein, and most are regulars of ATI in-house benchmarks. And 8.66 Beta 2 Driver was used.
P.S. NDA expires on 23rd September, from what I've heard.
pare mostruoso però.. soprattutto se il triple fosse effettivamente utilizzabile :eek:
ghiltanas
14-09-2009, 10:57
Fa veramente schifo, ma alla fine non credo ce ne freghi più di tanto, va messa capovolta dentro al cabinet e nel 99,9% dei casi non è nemmeno visibile perché il cabinet stesso non ha la finestra di plexi.
L'importante è che spinga :asd:
Ad ogni modo io aspetto di vedere i custom design di Sapphire prima di fare l'acquisto :D
anch'io, in special modo aspetto la 5850 da 2gb..
Però muoversi cacchio, aspetto la piccola per il sistema nuovo, e dopo nn vedo l'ora di provarla con stalker in uscita e dirt2 (oltre ovviamente a crysis sparato a bomba :stordita: )
Lo STALKER DX11 lo aspetto anche io :D
Tu con codesto avatar sei costretto al crossfire! :O
ormai deve mancar poco allora se escono già questi dati
michelgaetano
14-09-2009, 11:05
Tu con codesto avatar sei costretto al crossfire! :O
:asd: Non dimenticare gli spartani :asd:
ormai deve mancar poco allora se escono già questi dati
Oggi è 14, l'nda è il 23. Le testate hanno quindi 8-9 giorni per fare tutti i test del caso :D
Manca poco insomma :D
mircocatta
14-09-2009, 11:09
IMO non è fake, bench fatti da ATi
http://www.semiaccurate.com/forums/showpost.php?p=4786&postcount=4
Probably not, as that would breach the NDA.
For those ATI in-house benchmarks,
Roughly,
HD 5870: +10% to +155% over GTX 285 (in 17 games, total 40 configurations), -25% to +95% compared to GTX 295 with AA/AF enabled (AA: 2x-8x, AF: 8x/16x, in 16 games)
HD 5870 CrossFireX: (2 GPU) +/-0% to +90% over GTX 295 SLI*, (3 GPU) +10% to +160% over GTX 295 SLI* (in 15 games)
HD 5850: -25% to +120% over GTX 285 (in 19 games, total 50 configurations)
*I believe it should be a single GTX 295 (i.e. GTX 275 SLI), as only GTX 275 and GTX 285 are mentioned in system configuration list.
One game tested is Wolfenstein, and most are regulars of ATI in-house benchmarks. And 8.66 Beta 2 Driver was used.
P.S. NDA expires on 23rd September, from what I've heard.
non sono risultati molto costanti nei giochi, passare da +10 a +155 ce ne passa :stordita:
non sono risultati molto costanti nei giochi, passare da +10 a +155 ce ne passa :stordita:
Quoto ... detta così non dice nulla ...
michelgaetano
14-09-2009, 11:14
non sono risultati molto costanti nei giochi, passare da +10 a +155 ce ne passa :stordita:
Dipende, se tra quei titoli ci sono le schifezze tipo ET:QW dove una Nvidia va 9600 GT asfalta una 4870 o giù di lì... :asd:
Dipende, se tra quei titoli ci sono le schifezze tipo ET:QW dove una Nvidia va 9600 GT asfalta una 4870 o giù di lì... :asd:
beh, se sono bench fatti da ATI sarebbero autolesionisti ..
si sa già la lunghezza esatta della 5870?
mi ricordo che c'era un (bel) pò di pagine fa uno schemino, ma non era preciso preciso...
<^MORFEO^>
14-09-2009, 11:19
Dipende, se tra quei titoli ci sono le schifezze tipo ET:QW dove una Nvidia va 9600 GT asfalta una 4870 o giù di lì... :asd:
Si, ma non vi siete accorti di una cosa molto importante...
Li hanno comparato la 5870 con scheduccie come la GTX 280 e la GTX295, Facile così!!! Ma vi ricordo che la vera rivale della 5870 è la GTX 250 che è molto più veloce della 5870x4 a detta di nVidia! :O
:asd:
Ma manco morto faccio un CF :D
(beh se si scoprisse che il CF è SFR pure lui, un giorno potrei anche pensarci, giacché ho comprato una mobo con x38 proprio per non avere sorprese... :rolleyes: )
Intendo che nel tuo avatar hai 4 tubi di scappamento della scheda al posto degli occhi di Zorro (ehm Batman).
Orai l fatto è che una singola scheda ne ha 2.. per cui ne risulta che devi fare un cross :)
Sarebbe comico prendere questa scheda per poi giocarci a doom 3 o a giochi anche più vecchi (cosa che potrebbe accadermi) :D
michelgaetano
14-09-2009, 11:28
http://www.hwupgrade.it/articoli/skvideo/2176/4870_260.png
Qui va da -14% a +38%
E' solo un esempio, non una delle recensioni più felici sull'argomento, ma il senso è chiaro, no? ;)
Più che chiaro, ricordo quella recensione :asd:
Ad ogni modo al momento mi limito ad ignorare quei numeri, voglio le solite recensioni di anandtech, computerbase, techpowerup, guru3d etc. Altre testate raccomandabili da suggerire?
COmunque, non per iettare, quei numeri mi ricordano le prestazioni del CF :stordita: :help:
Si, ma non vi siete accorti di una cosa molto importante...
Li hanno comparato la 5870 con scheduccie come la GTX 280 e la GTX295, Facile così!!! Ma vi ricordo che la vera rivale della 5870 è la GTX 250 che è molto più veloce della 5870x4 a detta di nVidia! :O
:asd:
Non può nulla contro la bATiman Crossfire Sparta Edition :asd:
mackillers
14-09-2009, 11:28
si però in uscita la grata è veramente piccola :fagiano:
In effetti è l' unico mio dubbio.. ma visto che ho deciso di aspettare se il dissi stock non mi convincerà prenderò una versione non reference
ma dubito non sia buono negli ultimi anni sia i dissi AMD che Nvidia si sono rillevati abbastanza silenziosi e efficaci, sopratutto i Dual Slot.
si sa già la lunghezza esatta della 5870?
mi ricordo che c'era un (bel) pò di pagine fa uno schemino, ma non era preciso preciso...
cmq nel caso non ci sia, volevo vedere se mi ci sta nel case e
la 5870 naked a me risulta 25,2 cm abb precisi, dalla staffa di metallo inclusa fino alla fine, prendendo la 4850 (edit: 4870 :doh: ) come riferimento:
http://img9.imageshack.us/img9/2424/5870252.th.jpg (http://img9.imageshack.us/i/5870252.jpg/)
michelgaetano
14-09-2009, 11:31
In effetti è l' unico mio dubbio.. ma visto che ho deciso di aspettare se il dissi stock non mi convincerà prenderò una versione non reference
ma dubito non sia buono negli ultimi anni sia i dissi AMD che Nvidia si sono rillevati abbastanza silenziosi e efficaci, sopratutto i Dual Slot.
Mah, ci sono dissipatori non reference letteralmente da sballo. Per la 4850 ad esempio quello Gainward Golden Sample: mentre scrivo sono a 33° e ad agosto non superavo i 53° in Crysis (il tutto a 700/1100 contro i 625/993 di fabbrica); la 4850 reference ricordiamo tutti quanto faceva :muro: . Stesso discorso per la 4870, con la Toxic/Vapor-x.
Insomma, se o dossipatori ricalcheranno quanto (abbastanza tristemente) visto con le 48x0, io aspetterei soluzioni non reference senza indugio.
Quello che preferisco sui benchmark è Anandtech. Non si è mai peritato a bastonare chi se lo è meritato senza sudditanze o eccessi di cautela verso chicchessia.
Per i dettagli architetturali attendo Anandtech stesso e HWU.
Anche io per schiettezza (credo ricordi la cosa della 250 o anche come han parlato di PhysX) e approfondimento. L'unica cosa che ho notato è che lì i risultati sono sempre leggermente migliori che altrove (ma non roba della rece incriminata di hwu almeno).
Alla fine cerco sempre di fare una sorta di media tra quei siti che dicevo prima, guardando anche ad HWU ed altri per vedere se le medie coincidono.
mackillers
14-09-2009, 11:48
MichealGaetano tu mi sembri informato.. i dissi stock della 4870 erano validi?
quanto a prestazioni almeno..
a sto giro mi piacerebeb una VaporX o una tossic mi sembrano davvero ben fatti:)
per quanto riguarda CrossFire e simili io prenderò di sicuro la normale e se fra un anno ho bisogno di più potenza ne cerco una uguale (che si sarà deprezzata nel frattempo) oppure la compro usata sul forum:)
Sli e Cross non saranno il massimo del efficenza energetica e prestazionale ma con la 8800 mi hanno permesso un bel boos con pochi soldi in più 100 euro circa spedizione compresa per avere le stesse prestazioni con una scheda nuova ne avrei dovuti spendere almeno 250/300.
http://www.czechgamer.com/pics/clanky/RobertVarga_14-09-2009-11-29-47_hd5870hawx.jpg
Buono! :cool:
Foglia Morta
14-09-2009, 11:56
non c'è scritto l'unità di misura :stordita:
http://img27.imageshack.us/img27/2468/1252923429584.png
Peccato solo che ciò ci dica poco, in base ai giochi usati il giudizio sulle prestazioni può cambiare troppo :/
Troppa differenza :stordita:
Comunque parlando di dissipatore, chissà se l'accelero twin turbo e simili saranno compatibili, ormai vedendo le temperature e la silenziosità della mia 4850 rispetto al dissi stock non posso farne a meno :asd:
cut
Ma la scala qual'è ? Perchè ogni tanto ste slide sono farlocche, si vedono sti grafici che schizzano in alto e poi magari ogni linea simboleggia un 5% di differenza :D
michelgaetano
14-09-2009, 12:00
http://www.czechgamer.com/pics/clanky/RobertVarga_14-09-2009-11-29-47_hd5870hawx.jpg
Non male.
MichealGaetano tu mi sembri informato.. i dissi stock della 4870 erano validi?
quanto a prestazioni almeno..
a sto giro mi piacerebeb una VaporX o una tossic mi sembrano davvero ben fatti:)
Quello stock della 4870 è molto rumoroso in full load. Se lasciato a default rimane quasi inudibile, ma gira così lento che la scheda è una fornace (parliamo di idle che si aggira attorni ai 70°). Una volta sistemato decentemente la situazione migliore, leggevo di temperature sui 60 o poco + in idle con ventola alzata di rpm ma ancora non fastidiosa; in full si è oltre gi 80 abbondantemente.
Una Toxic ha temperature sensibilmente inferiori, rimanendo molto più silenziosa.
Aspettiamo comunque di vedere come vanno questi dissipatori stock, se alla Ati non sono stupidi (e non credo lo siano, perchè con la 4890 hanno migliorato il dissipatore stock della 4870 e alzati gli rpm, e quel dissipatore è davvero okay) non dovremmo vedere le fornaci dello scorso anno.
Ma la scala qual'è ? Perchè ogni tanto ste slide sono farlocche, si vedono sti grafici che schizzano in alto e poi magari ogni linea simboleggia un 5% di differenza :D
Sono fps, nessuna scala.
cataflic
14-09-2009, 12:02
Ma la scala qual'è ? Perchè ogni tanto ste slide sono farlocche, si vedono sti grafici che schizzano in alto e poi magari ogni linea simboleggia un 5% di differenza :D
:asd: :asd: :asd::asd::asd::asd::asd::asd::asd::asd:
http://www.pctunerup.com/up/results/_200909/20090914130540_RobertVarga_14-09-2009-11-29-47_hd5870vantage1.jpg
http://www.czechgamer.com/pics/clanky/RobertVarga_14-09-2009-11-29-47_hd5870vantage.jpg
inutile per quanto mi riguarda ma posto lo stesso
non c'è scritto l'unità di misura :stordita:
http://img27.imageshack.us/img27/2468/1252923429584.png
mmmmm
mi state dicendo che COD WAW tutto a manetta fà + FPS di COD WAW liscio??
avevo toppato... :rolleyes:
la 4870 ref. è 24,1cm, quindi la 5870 naked è 25,8-25,9cm
può essere?
http://img188.imageshack.us/img188/913/5870258.th.jpg (http://img188.imageshack.us/i/5870258.jpg/)
e btw non mi ci sta. sfigs...
Foglia Morta
14-09-2009, 12:07
mmmmm
mi state dicendo che COD WAW tutto a manetta fà + FPS di COD WAW liscio??
Probabilmente dice che in quella situazione il divario con la 285 aumenta , ma se non c'è l'unità di misura non c'è la certezza
michelgaetano
14-09-2009, 12:07
mmmmm
mi state dicendo che COD WAW tutto a manetta fà + FPS di COD WAW liscio??
No, quello è solo indice prestazionale (quanto fa la 5870 - secondo Ati :asd: - sulla 285), non indica gli fps fatti.
mmmmm
mi state dicendo che COD WAW tutto a manetta fà + FPS di COD WAW liscio??
no
285 = 100%
5870 = XXX%
a quei relativi AA\AF
Wing_Zero
14-09-2009, 12:10
Sono fps, nessuna scala.
oddio, io penso ci sia una sorta di scala farlocca...
http://img27.imageshack.us/img27/2468/1252923429584.png
del tipo che la base parte da + fps, tipo si parte da 60 fps. e poi i bench sn fatti in percentuale...
Mi spiego
1) se fossere FPS puri, tutte le stanghette verdi sono uguali, vuol dire che la gtx 285 fa sempre lo stesso numero di fps su tutti i giochi...:stordita: :stordita:
2) Se fossero valori percentuali, del tipo, le stanghette verdi sn il 100% degli fps che fa la 285, e quelle rosse sn la veriazione percentuale della 5870: significherebbe che una staghetta rossa doppia rispetto alla verde (presa come unità di misura di base) implicherebbe che la 5870 fa il doppio degli fps... Anche qui mi sembra strano che , ad esempio, in devil may cry 4 la 5870 fa 6 volte(!) gli fps della 285 (tipo 60 contro 360!!)...
<^MORFEO^>
14-09-2009, 12:13
Ma la scala qual'è ? Perchè ogni tanto ste slide sono farlocche, si vedono sti grafici che schizzano in alto e poi magari ogni linea simboleggia un 5% di differenza :D
Penso sia la classica scala 1.0 - 1.1 - 1.2 e così via... Di solito per questi grafici usano sempre quella
Penso sia la classica scala 1.0 - 1.1 - 1.2 e così via... Di solito per questi grafici usano sempre quella
quoto! quindi ogni tacca indica il 10% in più... ;)
Foglia Morta
14-09-2009, 12:16
quoto! quindi ogni tacca indica il 10% in più... ;)
no... basta confrontare con quanto postato prima ( che quasi sicuramente si riferisce proprio a quel grafico ) per vedere che non può essere quella la scala.
Altre persone in altri forum hanno detto +50% di media sulla 285. Quel 50% potrebbe essere rappresentato dalla linea rossa tratteggiata
quindi quella tratteggiata orizzontale dovrebbe indicare il 25%, che probabilmente è lo stacco medio dalla 285 :)
oddio, io penso ci sia una sorta di scala farlocca...
del tipo che la base parte da + fps, tipo si parte da 60 fps. e poi i bench sn fatti in percentuale...
Mi spiego
1) se fossere FPS puri, tutte le stanghette verdi sono uguali, vuol dire che la gtx 285 fa sempre lo stesso numero di fps su tutti i giochi...:stordita: :stordita:
2) Se fossero valori percentuali, del tipo, le stanghette verdi sn il 100% degli fps che fa la 285, e quelle rosse sn la veriazione percentuale della 5870: significherebbe che una staghetta rossa doppia rispetto alla verde (presa come unità di misura di base) implicherebbe che la 5870 fa il doppio degli fps... Anche qui mi sembra strano che , ad esempio, in devil may cry 4 la 5870 fa 6 volte(!) gli fps della 285 (tipo 60 contro 360!!)...
Questo è scontato (nella logica del marketing)... praticamente il grafico è "tagliato" in basso.
Credo ci sia necessariamente un'altra slide in cui indicano il valore della media (la linea tratteggiata, suppongo)... idee? A occhio potrebbe essere mediamente superiore di un 50%...
Comunque quoto chi ha detto che ha un po' il "sapore" (amaro) dei benchmark delle x2, vista l'incostanza. E' vero che i driver saranno ancora un po' acerbi...
mannaggia hanno tagliato proprio il pezzo più utile :asd:
Foglia Morta
14-09-2009, 12:20
quindi quella tratteggiata orizzontale dovrebbe indicare il 25%, che probabilmente è lo stacco medio dalla 285 :)
no... basta leggere quanto hanno detto altre persone presenti al press event
quindi quella tratteggiata orizzontale dovrebbe indicare il 25%, che probabilmente è lo stacco medio dalla 285 :)
Oddio, se è vero che è più o meno equivalente ad una GTX295, il 25% sulla 285 mi sembra poco. Quelle linee potrebbero essere 20-25% ognuna...
Non è dual core in senso stretto, perchè anche se ci sono delle parti ridondanti, ci sono parecchie parti in comune, la gestione del frame è "singola" e la ricostruzione del frame completo avviene nello shader export, a quanto pare. Diciamo che più o meno era come ipotizzavo, se il diagramma è vero può esserci una allocazione dinamica del lavoro in modalità SFR "trasparente" tra i due array di Shader, con in più una doppia rasterizzazione e hyerarchical Z, che eliminano i colli di bottiglia nella gestione SFR della scena (ogni rasterizzatore elabora la geometria solo della parte di scena che compete ad ogni rispettivo array - e questo porta ad un raddoppio del triangle setup rate rispetto alle soluzioni viste sino ad oggi). Hmm.. come viene gestita la tessellazione in questo caso? C'è un tessellatore per ogni rasterizzatore oppure una sola unità che "serve" entrambi gli array? Questo non è visibile nel diagramma.
In ogni caso è una struttura che sembra modulare, non è escluso che le prossime gpu siano quad e pure octa :sofico:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.