View Full Version : [Thread ufficiale] Aspettando R800 - le nuove GPU ATI DX11
michelgaetano
12-09-2009, 10:39
edit
Lui che c'entra in questo? Evitiamo flames gratuiti su.
gianni1879
12-09-2009, 10:39
Ma infatti io a certi post non risponderei neanche.
O al massimo: 'e la marmotta confezionava la cioccolata!'
che a quanto pare va di piu della 5870 grazie a pysix :asd: vero hal? ;)
Io direi solo questo :
http://www.overclock.net/customavatars/avatar65891_14.gif :asd:
evitiamo questo genere di battute e frecciatine???
3gg di sospensione giusto per riflettere
Per tutti gli altri
ogni intervento che sarà palesemente OT, principio di flame, frecciatine a destra e a sinistra, spam:
sarà punito senza se e senza ma.
Siete avvisati
ghiltanas
12-09-2009, 11:01
domandina sull'eyefinity:
ma sarà utilizzabile con qualunque gioco? oppure con alcuni sarà possibile utilizzarlo e con altri no?
<^MORFEO^>
12-09-2009, 11:04
Ma ci sono conferme ufficiali per un'eventuale 5870x2 o sono solo le supposizioni e speranze degli utenti?
Perchè la vedo un pò difficile da realizzare... L'unica soluzione sarebbero i due PCB contrapposti con il dissipatore nel mezzo perchè altrimenti non so quanto lunga dovrebbe venire se fossero messe le due GPU sullo stesso PCB :asd:
Foglia Morta
12-09-2009, 11:05
domandina sull'eyefinity:
ma sarà utilizzabile con qualunque gioco? oppure con alcuni sarà possibile utilizzarlo e con altri no?
mano a mano che testano aggiorneranno la lista:
http://www.hwupgrade.it/articoli/skvideo/2280/14.jpg
http://www.widescreengamingforum.com/forum/viewtopic.php?t=16780
Per la barba di Merlino, 24 monitor insieme!! :eek:
mano a mano che testano aggiorneranno la lista:
http://www.hwupgrade.it/articoli/skvideo/2280/14.jpg
Lista interessantissima Grazie Foglia
Può darsi che lo abbiate già postato ma per sicurezza:
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/683-hd58xx-entgueltige-spezifikationen-und-weitere-informationen
;)
Foglia Morta
12-09-2009, 11:14
Lista interessantissima Grazie Foglia
Di nulla ma non ho fatto molta fatica... è nell'articolo su Eyefinity di hwupgrade: http://www.hwupgrade.it/articoli/skvideo/2280/ati-eyefinity-la-prima-tecnologia-delle-gpu-dx11_index.html
:D
Di nulla ma non ho fatto molta fatica... è nell'articolo su Eyefinity di hwupgrade: http://www.hwupgrade.it/articoli/skvideo/2280/ati-eyefinity-la-prima-tecnologia-delle-gpu-dx11_index.html
:D
Comunque il supporto è già per diversi giochi, molto interessante
michelgaetano
12-09-2009, 11:18
Comunque il supporto è già per diversi giochi, molto interessante
Sì, ci sono già molti dei migliori giochi in giro, bene :D
ghiltanas
12-09-2009, 11:20
Sì, ci sono già molti dei migliori giochi in giro, bene :D
manca uno dei migliori...the witcher :(
Può darsi che lo abbiate già postato ma per sicurezza:
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/683-hd58xx-entgueltige-spezifikationen-und-weitere-informationen
;)
Comunque la scheda mi piace come è fatta
Uffa però non c'è ancora niente di realmente interessante a due giorni dalla presentazione alla stampa... si sanno solo i dati di funzionamento e poco altro..
per esempio, il dissipatore sarà confermato questo orrendo nero e rosso? Ci saranno sicuramente soluzioni alternative, ma si sa già qualcosa? Qualche test in confronto ad altre schede (interessantissimo il confronto con la gtx285 e la hd5870 a mio avviso) da qualche sito che l'ha testata? O bisognerà aspettare il 22 settembre per l'uscita nei negozi che i vari sample vengano mandati nei siti internet? Non ce la faccio più ad aspettare foto, risultati e recensioni!!! :)
ghiltanas
12-09-2009, 11:29
finchè nnscade l'nda nn ci si può fare nulla :boh:
michelgaetano
12-09-2009, 11:29
manca uno dei migliori...the witcher :(
Eh, per quello ho detto molti :(
Uffa però non c'è ancora niente di realmente interessante a due giorni dalla presentazione alla stampa... si sanno solo i dati di funzionamento e poco altro..
I drivers verranno consegnati lunedì a quanto sembra, non puoi aspettarti molto al momento.
per esempio, il dissipatore sarà confermato questo orrendo nero e rosso? Ci saranno sicuramente soluzioni alternative, ma si sa già qualcosa? Qualche test in confronto ad altre schede (interessantissimo il confronto con la gtx285 e la hd5870 a mio avviso) da qualche sito che l'ha testata? O bisognerà aspettare il 22 settembre per l'uscita nei negozi che i vari sample vengano mandati nei siti internet? Non ce la faccio più ad aspettare foto, risultati e recensioni!!! :)
Come sopra. Riguardo al dissipatore, è troppo presto per parlare di dissi delle case.
Simedan1985
12-09-2009, 11:33
La scheda mi piace assai ..consumi bassi ,alte prestazioni ecc diciamo che è la scheda single gpu perfetta,almeno questo si prospetta:) .Pero sinceramente vorrei lasciare la mia 275 x un eventuale x2.
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/683-hd58xx-entgueltige-spezifikationen-und-weitere-informationen
scusatemi se sono gia state postate.
Edit:
scusate gia postate.
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/683-hd58xx-entgueltige-spezifikationen-und-weitere-informationen
scusatemi se sono gia state postate.
Edit:
scusate gia postate.
Prima o poi me lo dovrò imparare il crucco... :asd:
michelgaetano
12-09-2009, 11:50
Prima o poi me lo dovrò imparare il crucco... :asd:
Il cinese ci tornerebbe più utile :asd:
<^MORFEO^>
12-09-2009, 11:51
Uffa però non c'è ancora niente di realmente interessante a due giorni dalla presentazione alla stampa... si sanno solo i dati di funzionamento e poco altro..
per esempio, il dissipatore sarà confermato questo orrendo nero e rosso? Ci saranno sicuramente soluzioni alternative, ma si sa già qualcosa? Qualche test in confronto ad altre schede (interessantissimo il confronto con la gtx285 e la hd5870 a mio avviso) da qualche sito che l'ha testata? O bisognerà aspettare il 22 settembre per l'uscita nei negozi che i vari sample vengano mandati nei siti internet? Non ce la faccio più ad aspettare foto, risultati e recensioni!!! :)
Scusa, ma che ti importa del colore e della forma del dissipatore? L'importante è che funzioni e che faccia bene il suo dovere! Che poi sopra ci sia hello kitty o Barlusca, a me poco interessa! Tanto il case è chiuso e non si vede nulla... :fagiano:
Ruby :sofico:
http://pc.watch.impress.co.jp/video/pcw/docs/315/056/html/17.flv.html
http://www.flickr.com/photos/amd_unprocessed/3907249086/in/set-72157622329726222/
Ati ha implementato una nuova tecnologia in questa demo: Boobies Physics:oink: :D
Vorrei sapere chi è quella bella rossa in carne e ossa che hanno preso come modella per Ruby, è proprio picchiabile (per la serie: fatti tre rosse e sarai immortale :O) :)
A parte le battute è davvero spettacolare :)
Ma da quest'immagine si riesce a capire che moduli di GDDR5 monta?
http://www.wsgfmedia.com/generaladmission/pics/3x2setup-card.jpg
La GTS 250 è più veloce della 5870:
http://venturebeat.com/2009/09/10/amd-introduces-a-graphics-chip-that-can-power-six-computer-displays/
Acer, Dell, HP, MSI and Toshiba are creating computers using AMD’s latest graphics chips. In response, Nvidia said in a statement, “The gaming world has moved to dynamic realism, which depicts actual physical movement more realistically than ever before. For example, the No. 1 PC game coming out next week is ‘Batman: Arkham Assyum,’ which takes advantage of graphics plus physics to give it extraordinary realism. Because we support GPU-accelerated physics, our $129 card that’s shipping today is faster than their new RV870 (code name for new AMD chips) that sells for $399.”
Hanno paura, semplice. :asd:
Vorrei sapere chi è quella bella rossa in carne e ossa che hanno preso come modella per Ruby, è proprio picchiabile (per la serie: fatti tre rosse e sarai immortale :O) :)
A parte le battute è davvero spettacolare :)
Hanno paura, semplice. :asd:
Però vi vorrebbe un po' di realismo.. non possono dire che la loro scheda, nettamente inferiore per potenza di calcolo, vada più veloce della 5870.. basterebbe dire noi abbiamo physx e loro no (a proposito finalmente ati manderà la fisica tramite opencl con queste schede? quando la vedremo?) :)
mi pare comunque che il problema delle schede ati più che mai sia che ci sono enormi potenzialità mal sfruttate..
già la serie 4 era un mostro di potenza teorica che non poteva essere utilizzata appieno in vari ambiti per problemi di ottimizzazioni, programmi eccetra..
qui si rischia che si ripeta la stessa cosa.. perdipiù dubito che la tecnologia multischermo al suo massimo livello (che è quello che interessa di più) cioé con cornici inesistenti si possa vedere prima di 1 anno ed a prezzi "di massa"(spero di essere smentito..:mc: )
Bastoner
12-09-2009, 12:04
La GTS 250 è più veloce della 5870:
http://venturebeat.com/2009/09/10/amd-introduces-a-graphics-chip-that-can-power-six-computer-displays/
Acer, Dell, HP, MSI and Toshiba are creating computers using AMD’s latest graphics chips. In response, Nvidia said in a statement, “The gaming world has moved to dynamic realism, which depicts actual physical movement more realistically than ever before. For example, the No. 1 PC game coming out next week is ‘Batman: Arkham Assyum,’ which takes advantage of graphics plus physics to give it extraordinary realism. Because we support GPU-accelerated physics, our $129 card that’s shipping today is faster than their new RV870 (code name for new AMD chips) that sells for $399.”
MA LOL non ci posso credere
Italia 1
12-09-2009, 12:08
Una domanda che mi veniva stamattina in mente: è mai successo che una singola scheda di nuova generazione superasse uno SLI o Crossfire della generazione precedente ? Intendo: una 7900 gtx andava piu di 2 6800 ultra ? Non mi pare... la 8800 gtx andava piu di una 7950gx2 ? In questo caso una 5870 va piu di una 4870x2/ 2 4870...
Ma da quest'immagine si riesce a capire che moduli di GDDR5 monta?
http://www.wsgfmedia.com/generaladmission/pics/3x2setup-card.jpg
Mi pare di leggere un 4 nel suffisso, quindi potrebbero essere le Samsung da 0.4ns, ossia da 5GHz in DDR rimanendo in specifica... Il che le garantirebbe una banda anche un pelo superiore ad una GTX285 stock (sui 160GB/sec).
http://www.samsung.com/global/business/semiconductor/productList.do?fmly_id=675
Una domanda che mi veniva stamattina in mente: è mai successo che una singola scheda di nuova generazione superasse uno SLI o Crossfire della generazione precedente ? Intendo: una 7900 gtx andava piu di 2 6800 ultra ? Non mi pare... la 8800 gtx andava piu di una 7950gx2 ? In questo caso una 5870 va piu di una 4870x2/ 2 4870...
la 4870 dovrebbe andare un po' di più della 3870X2.. comunque pare che il balzo con la 5870 sarà notevole, o forse addirittura di più :D
I moduli gddr5 mi sembrano dei samsung ;)
Una domanda che mi veniva stamattina in mente: è mai successo che una singola scheda di nuova generazione superasse uno SLI o Crossfire della generazione precedente ? Intendo: una 7900 gtx andava piu di 2 6800 ultra ? Non mi pare... la 8800 gtx andava piu di una 7950gx2 ? In questo caso una 5870 va piu di una 4870x2/ 2 4870...
da quello che mi ricordo io la 8800gtx manco la vedeva la 7950gx2...
cmq dalle specifiche la 4870x2 dovrebbe andare meno di una singola 5870
parlano di physx...ma grazie al cacchio, è una tecnologia proprietaria, che come tale ha probabilmente le ore contate...
Sicuro, ora arrivano le nuove schede con supporto OpenCL e non dimentichiamoci pure del supporto GPGPU contenuto nelle Dx11.
Andrea deluxe
12-09-2009, 12:23
Sicuro, ora arrivano le nuove schede con supporto OpenCL e non dimentichiamoci pure del supporto GPGPU contenuto nelle Dx11.
siete troppo ottimisti sul fatto che physx possa arrivare su ati......
michelgaetano
12-09-2009, 12:29
la 4870 dovrebbe andare un po' di più della 3870X2.. comunque pare che il balzo con la 5870 sarà notevole, o forse addirittura di più :D
La 4870 la asfalta, la 4850 è pari nelle medie, ma superiore all'atto pratico (no multigpu, consumi etc)
mackillers
12-09-2009, 12:30
io vi dico solo una cosa:
quando avevo il quad sli di 295, se tenevo il mio i7 a 3200mhz crysis non era fluido (i picchi di frame c'erano ma non erano stabili e costati) ma se entravo nel bios e impostavo 4ghz improvvisamente il gioco diventava "GIOCABILE" (frame costanti)
considerando che giocavo sul mio dellone 27" 1920x1200 AA0x AF16x tutto al max dx10
quando avevo solo una gtx280 la differenza tra 3200 e 4000 era poca e impercettibile senza gurdare fraps.
hum mi pare strano, magari dipende dal fatto che una configurazione con 4 VGA richiede molto dispendio di risorse dei driver per bilanciare il carico sulle GPU.. la butto li ehh
Wing_Zero
12-09-2009, 12:34
siete troppo ottimisti sul fatto che physx possa arrivare su ati......
Physix nn DEVE arrivare su ati...
Non so se il concetto è chiaro cmq...vediamo di fare un po' di chiarezza, perchè spesso sento parlare di "physix" come fosse chissà cosa...
Le librerie "Physix" sono delle librerie per la gestione della fisica che possono essere sfruttate SOLO tramite il linguaggio di programmazione CUDA che implmenta la gestione delle chiamate physix.
Allo stesso modo, ad esempio, si parlava di ATI che volesse implmentare le librerie HAVOK tramite ATI STREAM, l'equivalente di CUDA per nvidia....
Sia CUDA che ATI STREAM sono entrambi linguaggi di programmazione proprietari...
A livello pratico si potrebbero usare le librerie physix ed havok accelerate in hardware con la scheda video sia con schede nvidia che ati...il problema è solo che per ragione di marketing e licenze, le librerie physix possono essere sfruttate solo tramite CUDA e quindi per forza di cose solo con schede video nvidia.
Se qualcuno riuscisse ad implmentare physix con ATI STREAM (ma nonsi puo' fare per questioni di licenze) allora avremmo l'accelerazione physix anche sulle schede ATI.
Quello che spero io è avere un MOTORE DI GESTIONE DELLA FISICA OPENSOURCE , sfruttabile tramite le OPENCL (anche queste sn API Open SOURCE) le quali sono già supportate SIA da ATI che da NVIDIA.
Ma penso che questa rimarrà una speranza vana...
Wing_Zero
12-09-2009, 12:37
Non credo che arrivi su hardware AMD, credo piuttosto che smetterà di esistere...
il punto è, come ho spiegato nel posto precedente, che non deve "arrivare" niente. Non lo possono implmentare e basta :)
Heaven-lord
12-09-2009, 13:07
ma quando esce effettivamente? Spulciando un po' il 3d ho visto che la presentano ora alla stampa e i driver escono lunedi...ma quando arriva nei negozi?
ma quando esce effettivamente? Spulciando un po' il 3d ho visto che la presentano ora alla stampa e i driver escono lunedi...ma quando arriva nei negozi?
La presentazione/lancio è il 23 Settembre. Non si sa bene se sarà disponibile in volumi o meno, ma si pensa di si.
Heaven-lord
12-09-2009, 13:26
23 settembre disponibilità e recensioni
La presentazione/lancio è il 23 Settembre. Non si sa bene se sarà disponibile in volumi o meno, ma si pensa di si.
urca che velocità! grazie!
cmq, il punto è che a me non interessano tanto le schede nuove ma i tagli di prezzo che riguarderanno le ati 48xx. Ma credo che bisognerà aspettare almeno altre 2 sett...no?
La GTS 250 è più veloce della 5870:
http://venturebeat.com/2009/09/10/amd-introduces-a-graphics-chip-that-can-power-six-computer-displays/
Acer, Dell, HP, MSI and Toshiba are creating computers using AMD’s latest graphics chips. In response, Nvidia said in a statement, “The gaming world has moved to dynamic realism, which depicts actual physical movement more realistically than ever before. For example, the No. 1 PC game coming out next week is ‘Batman: Arkham Assyum,’ which takes advantage of graphics plus physics to give it extraordinary realism. Because we support GPU-accelerated physics, our $129 card that’s shipping today is faster than their new RV870 (code name for new AMD chips) that sells for $399.”
Mi pare evidente che siano mooolto preoccupati, speriamo solo che nn si passi da un monopolio ad un altro :cry:
Sparate a zero simili le si fanno per salvare il salvabile, va bhe vedremo cosa tireranno fuori
Mi pare evidente che siano mooolto preoccupati, speriamo solo che nn si passi da un monopolio ad un altro :cry:
Impossibile. Nvidia è un pò come intel nel mercato dei processori. Fa molto più brand. Anche se sfornasse un prodotto inferiore, i fidelizzati al marchio la comprerebbero solo per il nome e per le presunte ottimizzazioni. Basta guardare il rebranding attuato negli ultimi tempi che ha permesso a nvidia di vendere per l'ennesima volta una architettura vecchia di 2 anni spacciandola come nuova.
gianni1879
12-09-2009, 13:36
Prima o poi me lo dovrò imparare il crucco... :asd:
Il cinese ci tornerebbe più utile :asd:
:ot:
Impossibile. Nvidia è un pò come intel nel mercato dei processori. Fa molto più brand. Anche se sfornasse un prodotto inferiore, i fidelizzati al marchio la comprerebbero solo per il nome e per le presunte ottimizzazioni. Basta guardare il rebranding attuato negli ultimi tempi che ha permesso a nvidia di vendere per l'ennesima volta una architettura vecchia di 2 anni spacciandola come nuova.
quella delle presunte ottimizzazioni con il duo Intel - Nvidia è proprio forte :asd: cmq AMD ha capito che ha bisogno di fare pubblicità e si sta muovendo nella direzione giusta (fortunatamente). Già vedere giochi come DiRT 2 e C&C 4 (i quali hanno una lunga schiera di appassionati) è un ottima cosa ;) Che poi ci siano schiere di appassionati Verdi che farebbero tutto per il maschio siamo d'accordo ma la politica di AMD attuata con la serie 4 è stata veramente vantaggiosa e se venderanno una 5850 con prestazioni da 4870x2 al prezzo della GTX285 sarà innegabile vantaggioso per molti fare il passaggio
Andrea deluxe
12-09-2009, 13:59
e chi lo vuole...
io!
cosi non mi devo comprare 2 sk video!
5870 prima
g380 dopo
io!
cosi non mi devo comprare 2 sk video!
5870 prima
g380 dopo
Credo che se prendessi un Ageia risolveresti tutto ;)
Cmq con Win 7 si possono mettere 2 VGA di marche differenti, o per lo meno l'aveva detto Microsoft, quindi anche che so una 9600GT la usi solo per la fisica e per tutto il resto la 5870
Andrea deluxe
12-09-2009, 14:06
Credo che se prendessi un Ageia risolveresti tutto ;)
Cmq con Win 7 si possono mettere 2 VGA di marche differenti, o per lo meno l'aveva detto Microsoft, quindi anche che so una 9600GT la usi solo per la fisica e per tutto il resto la 5870
sono cambiate le cose marco....
1) nvidia ha bloccato anche in windows 7 la possibilita' di utilizzare grafica ati e fisica nvidia contemporaneamente.
2) la skedina pci ageia non e' piu' supportata a dovere e se paragonata ad una 96-9800gt fa pieta'!
in alto mare!
vabbe mi godo la 5870 fino a mafia 2 e poi prendo lo shrink di g380.....(e gia' che mi ci trovo mi compro pure batman budget)
sniperspa
12-09-2009, 14:07
Credo che se prendessi un Ageia risolveresti tutto ;)
Cmq con Win 7 si possono mettere 2 VGA di marche differenti, o per lo meno l'aveva detto Microsoft, quindi anche che so una 9600GT la usi solo per la fisica e per tutto il resto la 5870
Questa mi è nuova!
ma indipendentemente dalla scheda madre si può fare una cosa simile?!
sono cambiate le cose marco....
1) nvidia ha bloccato anche in windows 7 la possibilita' di utilizzare grafica ati e fisica nvidia contemporaneamente.
2) la skedina pci ageia non e' piu' supportata a dovere e se paragonata ad una 96-9800gt fa pieta'!
in alto mare!
vabbe mi godo la 5870 fino a mafia 2 e poi prendo lo shrink di g380.....(e gia' che mi ci trovo mi compro pure batman budget)
Già.. purtroppo ormai l'ageia ha scarso supporto (di per sé per i videogiochi e non per la fisica dei benchmark farebbe ancora egregiamente il suo lavoro consumando molto meno)
Basta guardare il rebranding attuato negli ultimi tempi che ha permesso a nvidia di vendere per l'ennesima volta una architettura vecchia di 2 anni spacciandola come nuova.
Si che va uguale all' architettura nuova di ati:D
sono cambiate le cose marco....
1) nvidia ha bloccato anche in windows 7 la possibilita' di utilizzare grafica ati e fisica nvidia contemporaneamente.
2) la skedina pci ageia non e' piu' supportata a dovere e se paragonata ad una 96-9800gt fa pieta'!
in alto mare!
vabbe mi godo la 5870 fino a mafia 2 e poi prendo lo shrink di g380.....(e gia' che mi ci trovo mi compro pure batman budget)
Fatta la legge trovato l'inganno ;) Peccato però....
Questa mi è nuova!
ma indipendentemente dalla scheda madre si può fare una cosa simile?!
Assolutamente si però nn l'ho ancora provato se funziona
mackillers
12-09-2009, 14:30
La GTS 250 è più veloce della 5870:
http://venturebeat.com/2009/09/10/amd-introduces-a-graphics-chip-that-can-power-six-computer-displays/
Acer, Dell, HP, MSI and Toshiba are creating computers using AMD’s latest graphics chips. In response, Nvidia said in a statement, “The gaming world has moved to dynamic realism, which depicts actual physical movement more realistically than ever before. For example, the No. 1 PC game coming out next week is ‘Batman: Arkham Assyum,’ which takes advantage of graphics plus physics to give it extraordinary realism. Because we support GPU-accelerated physics, our $129 card that’s shipping today is faster than their new RV870 (code name for new AMD chips) that sells for $399.”
hum scusate magari mi confondo .. ma la GTS 250 non è un G92 rimarchiato?..
stai forse dicendo che una 8800GTS 512mb cloccata poco oltre i 700Mhz andrebbe di più di una 5870??:eek: :eek:
mi sembra assia improbabile.. per jnon dire impossibile:D
Mercuri0
12-09-2009, 14:30
siete troppo ottimisti sul fatto che physx possa arrivare su ati......
Difatti... "Physx" tra un pò muore anche su nVidia.
hum scusate magari mi confondo .. ma la GTS 250 non è un G92 rimarchiato?..
stai forse dicendo che una 8800GTS 512mb cloccata poco oltre i 700Mhz andrebbe di più di una 5870??:eek: :eek:
mi sembra assia improbabile.. per jnon dire impossibile:D
E' una sparata senza alcun senso logico nn so se perchè hanno paura o perchè vogliono salvare il salvabile.....
Mercuri0
12-09-2009, 14:36
hum scusate magari mi confondo .. ma la GTS 250 non è un G92 rimarchiato?..
stai forse dicendo che una 8800GTS 512mb cloccata poco oltre i 700Mhz andrebbe di più di una 5870??:eek: :eek:
mi sembra assia improbabile.. per jnon dire impossibile:D
Invece è facile, basta pagare gli sviluppatori in modo che programmino il gioco in modo che "Se la scheda è ATI, allora fa 3fps"
Però non è detto che questo possa essere un modello di business conveniente per nVidia.
mackillers
12-09-2009, 14:38
Se la rinominano in GTS350 poi va ancora più veloce![/QUOTE]
Si ma diamine poi io con che scusa cambio la mia 8800GTS 512mb / 9800GTX / 9800GTX+ /GTS250 / GTS350???
maremma quante VGA ho comprato avrò speso un fottio:D :D
p.s. sfotto sfotto ma ste 2 vga le ho amate davvero mai durata così tanto una VGa presi la prima a260 euro e dopo non cedendo alle luisnghe delel nuove archiettture presi la seconda usata a 100euro.. mai spesa fù più azzeccata!!:)
E' una sparata senza alcun senso logico nn so se perchè hanno paura o perchè vogliono salvare il salvabile.....
Penso che il fatto sia: abbiamo ancora tante vecchie schede nei magazzini.. G300 (o come si chiama) non è magari questo mostro di potenza (forse andrà come la 5870 pur uscendo dopo o forse pure un 10% in meno).. alcuni giochi sfruttano physx che ati non ha.. allora sfruttiamo physx (finché c'è) :stordita:
Mercuri0
12-09-2009, 14:42
alcuni giochi sfruttano physx che ati non ha.. allora sfruttiamo physx (finché c'è) :stordita:
C'è da dire che AMD farà la stessa campagna sulle Directx11. A quanto pare hanno sostenuto qualche casa per fare uscire 3-4 giochi col bollino DX11 nel periodo di delle 5870 e di Windows 7.
Sul GT300 non ho letto tantissimo, ma che sia una GPU ancora più vocata al calcolo generico? (forse spiegherebbe ulteriormente questa dichiarazione di nVidia).
Il fatto è che forse per nVidia, non avendo una CPU, la strategia di CUDA è forse più importante e impellente di quanto non sia per AMD
C'è da dire che AMD farà la stessa campagna sulle Directx11. A quanto pare hanno sostenuto qualche casa per fare uscire 3-4 giochi col bollino DX11 nel periodo di delle 5870 e di Windows 7.
massì è stato lo stesso con le dx 10.1.. però non mi risulta che fossero di loro proprietà.. nel caso di physx nvidia ha l'esclusiva
Andrea deluxe
12-09-2009, 14:53
Invece è facile, basta pagare gli sviluppatori in modo che programmino il gioco in modo che "Se la scheda è ATI, allora fa 3fps"
Però non è detto che questo possa essere un modello di business conveniente per nVidia.
nvidia lo usera' come cavallo di battaglia..... sto maledetto physx....
se la cosa gli va bene, ci ritroveremo con un parco giochi diviso a meta':
giochi per le sk nvidia
giochi per tutte le sk video!
poi magari fanno pure qualche capolavoro.... con physx.....
viaaaaaaaaaa tutti a comprare nvidia....
:sbonk:
anche quelli che fanno gli snob quando si parla di physx...(cancellano la firma....)
io non ho problemi..... mi prendo prima 5870 e poi g380, ma chi rimane fregato e' chi non se lo puo' permettere purtroppo....o chi e' affezionato ad un solo marchio verde o rosso che sia....io sono infedele
Mercuri0
12-09-2009, 14:56
massì è stato lo stesso con le dx 10.1.. però non mi risulta che fossero di loro proprietà.. nel caso di physx nvidia ha l'esclusiva
Già, per questo prima muore meglio è. Tra l'altro physx non è una tecnologia, è solo una strategia commerciale.
Invece è facile, basta pagare gli sviluppatori in modo che programmino il gioco in modo che "Se la scheda è ATI, allora fa 3fps"
:rolleyes: Io qui stavo scherzando, ma a quanto pare esiste un modo per "sbloccare" Batman Asylum con Physx (dai 5 ai 30fps sulle ati)
http://rage3d.com/board/showpost.php?p=1336007626&postcount=44
(non l'ho neanche letto a dire il vero)
matt92tau
12-09-2009, 15:04
:rolleyes: Io qui stavo scherzando, ma a quanto pare esiste un modo per "sbloccare" Batman Asylum con Physx (dai 5 ai 30fps sulle ati)
http://rage3d.com/board/showpost.php?p=1336007626&postcount=44
(non l'ho neanche letto a dire il vero)
Se Physx si può usare anche sulle ATI, Nvidia è fregata e non può più usare Physx come cavallo di battaglia
Futura12
12-09-2009, 15:08
Physix non è tecnologia Nvidia,e la può supportare anche Ati.....io spero di no perchè mi sta un po sul cazzo e spero finisca presto questa storia.
Ci sono anche i driver apposta per la fisica AMD-ATI
Impossibile. Nvidia è un pò come intel nel mercato dei processori. Fa molto più brand. Anche se sfornasse un prodotto inferiore, i fidelizzati al marchio la comprerebbero solo per il nome e per le presunte ottimizzazioni. Basta guardare il rebranding attuato negli ultimi tempi che ha permesso a nvidia di vendere per l'ennesima volta una architettura vecchia di 2 anni spacciandola come nuova.
Triste ma vero....:(
Futura12
12-09-2009, 15:16
E cmq se pensate che AMD starà a guardare mentre Nvidia fa cash con Physix vi sbagliate di grosso,sarà anche meno potente della casa verde...ma soldi e tecnologia la possiedono anche loro.
Per me Nvidia deve solo tacere per il momento...visto che sta indietro e concentrarsi sulle lore gpu invece di tirar fuori ogni giorno una pacchianata nuova...supportata solo da loro perchè hanno sganciato più dollari.
siete troppo ottimisti sul fatto che physx possa arrivare su ati......
Io non dicevo questo ma l'esatto contrario.
Ovvero la speranza che le OpenCL (o il supporto alla fisica integrato nelle Dx11) diventino uno standard spazzando via tutte le soluzioni proprietarie.
linguaggio di programmazione CUDA
Più ch eun linguaggio di programmazione diciamo che è un'architettura, alla quale possono appoggiarsi pure le OpenCL, se non sbaglio.
il punto è, come ho spiegato nel posto precedente, che non deve "arrivare" niente. Non lo possono implmentare e basta :)
A dire il vero tempo fa si mormorava dei tentativi di nVidia di far supportare ad Ati tale tecnologia in modo da farla diventare uno standard a tutti gli effetti. Tentativi sempre respinti da Ati.
Comunque finch'è non ci sarà un contatto e una volontà tra le due software house Ati non può implementare nulla, proprio perchè non hanno le specifiche a disposizione.
Physix non è tecnologia Nvidia,e la può supportare anche Ati
Ma quando mai? Physx era stato inizialmente sviluppato da Ageia, software house poi acquisita da nVidia nel 2008. Ergo Physx è di nVidia.
Futura12
12-09-2009, 15:26
PhysiX è solo un nome. il codice sorgente è disponibile.
<^MORFEO^>
12-09-2009, 15:35
Piccolo riassunto di Tom's sulla serie 58xx: http://www.tomshw.it/news.php?newsid=19356
Futura12
12-09-2009, 15:38
Speriamo che la 5850 prenda agevolmente gli 800Mhz di clock a quel punto la 70 non dovrebbe essere poi cosi lontana a veder le specifiche (un po come 275 vs 285)...ma lol neanche sono uscite e gia penso ad overcloccare:asd:
Speriamo che la 5850 prenda agevolmente gli 800Mhz di clock a quel punto la 70 non dovrebbe essere poi cosi lontana a veder le specifiche (un po come 275 vs 285)...ma lol neanche sono uscite e gia penso ad overcloccare:asd:
Però (salvo che quegli stream in più non rappresentino un forno fortemente limitante per i clock) a differenza della serie 4 qui assistiamo ad un core diverso non solo per le frequenze..
QUindi a meno che la 5870 non abbia una differenza di prezzo molto alta con la 50 penso che sarebbe meglio la 5870..:read: :D
La 5850 comunque come dovrebbe essere come prestazioni? un 20% rispetto alla 70 (dovrebbe andare come 2 4850.. )?
Futura12
12-09-2009, 15:43
Però (salvo che quegli stream in più non rappresentino un forno fortemente limitante per i clock) a differenza della serie 4 qui assistiamo ad un core diverso non solo per le frequenze..
QUindi a meno che la 5870 non abbia una differenza di prezzo molto alta con la 50 penso che sarebbe meglio la 5870..:read: :D
Si ma capisci pure a me,gia 250 euro per me non sono noccioline,se poi diventano i probabili 320€ della 5870 allora preferisco salvaguardare un po il conto e avere un pizzico di prestazioni in meno.
La differenza c'è anche nelle TMU ma tanto mi pare che sono gia sovrabbondanti
gianni1879
12-09-2009, 15:43
Physix non è tecnologia Nvidia,e la può supportare anche Ati.....io spero di no perchè mi sta un po sul cazzo e spero finisca presto questa storia.
Ci sono anche i driver apposta per la fisica AMD-ATI
non capisco perchè dovete sempre usare paroloni forti..
2gg di sospensione
PhysiX è solo un nome. il codice sorgente è disponibile.
Dove hai letto che il sorgente e open ? Sapevo che sdk per integrarlo nei giochi fosse free non per fornire l'accelerazione tramite schede diverse da quelle nvidia.
Va bhe mi risponderai al ritorno.
Kharonte85
12-09-2009, 15:46
La GTS 250 è più veloce della 5870:
http://venturebeat.com/2009/09/10/amd-introduces-a-graphics-chip-that-can-power-six-computer-displays/
Acer, Dell, HP, MSI and Toshiba are creating computers using AMD’s latest graphics chips. In response, Nvidia said in a statement, “The gaming world has moved to dynamic realism, which depicts actual physical movement more realistically than ever before. For example, the No. 1 PC game coming out next week is ‘Batman: Arkham Assyum,’ which takes advantage of graphics plus physics to give it extraordinary realism. Because we support GPU-accelerated physics, our $129 card that’s shipping today is faster than their new RV870 (code name for new AMD chips) that sells for $399.”
Oibò...non è un bel segno che nvidia se ne esca con queste dichiarazioni...significa che al momento non ha in mano nulla per rispondere a questa scheda.
Invece in AMD sono decisamente convinti:
AMD Says Its New Chip Beats Rival Nvidia's
By DON CLARK
Of THE WALL STREET JOURNAL
Advanced Micro Devices Inc. (AMD) is claiming for the first time in several years that its upcoming line of graphics chips surpass that of rival Nvidia Corp. (NVDA)
AMD, which has been going head-to-head with Nvidia since acquiring graphics-chip maker ATI Technologies several years ago, said during a demonstration Thursday that its next-generation of graphics chips -- which are used to simulate three-dimensional environments in videogames and other applications -- will offer speeds 2.5 times faster than models AMD introduced last year.
"Without dispute, AMD will be the graphics leader in the world," said Rick Bergman, who heads AMD's products group.
Nvidia officials disputed the claim. Drew Henry, the general manager of its graphics chip operations, said the company's current chips -- because they have special circuitry that accelerates physical actions in games -- are still faster than AMD's. He said Nvidia is also planning a next generation of chips with even greater performance, but didn't say when they will be released.
Though AMD has long tried to leapfrog Nvidia, lately it has stressed lower prices more than processing speed, choosing to package two chips together for high-end offerings rather than offer the fastest single chip.
AMD Thursday also disclosed a new technology, enabled by the new chips, that can drive up to six computer displays so that they act like one massive monitor. Such chips ordinarily can only manage one or two displays at a time.
The multi-display technology, called Eyefinity, is designed to allow consumers to play videogames or run other software with the action moving among the six displays-typically arrayed with three displays on top and three right beneath.
Though customers could opt to purchase a single large display, that option is typically much more expensive than yoking multiple inexpensive displays together. The technology also offers image quality that is much more precise than current high-definition displays.
AMD didn't disclose pricing of the new products, which are typically sold in graphics cards, but said those details will be available when the chips are formally launched later this month.
The technology announcements coincide with a new branding effort designed to stress what PCs are used for, rather than technical specifications-particularly for the microprocessors that AMD sells in competition with Intel Corp. (INTC)
Nathan Brookwood, an analyst at the market-research firm Insight 64, said that while AMD is clearly behind Intel in the performance of its microprocessor chips, it might be able to gain ground if it can convince consumers to focus on the visual aspects of the computing experience, where AMD graphics chips excel.
--By Don Clark, The Wall Street Journal; 415-765-6115; don.clark@wsj.com
http://djnewsplus.com/rssarticle/SB125260688617390297.html
<^MORFEO^>
12-09-2009, 15:47
Com'è stato per lo sblocco del quarto core sui Phenom 2 x3, spero che qualcuno trovi anche il modo di portare la 5850 dai 1440 SP ai 1600SP (:Perfido:) della sorellona visto che sicuramente sono lo stesso chip solo in versione castrata... :rolleyes:
Comunque ritengo che i prezzi dichiarati siano troppo alti! Per me diventerà conveniente acquistare la 5870 quando arriverà al massimo a 250 euro... :O
Può essere potente quanto vuole, ma io 350-400 euro non glie li do neanche morto visto che basta aspettare l'uscita di nVidia per vedere questi prezzi diventare realtà!
Si ma capisci pure a me,gia 250 euro per me non sono noccioline,se poi diventano i probabili 320€ della 5870 allora preferisco salvaguardare un po il conto e avere un pizzico di prestazioni in meno.
La differenza c'è anche nelle TMU ma tanto mi pare che sono gia sovrabbondanti
Sì ovvio che parlavo in generale.. penso che i bench e le prime prove ci schiariranno le idee.. vedremo che quegli stream in più daranno un boost prestazionale discreto o no.. inotlre vedremo se i chip delle 5870 saranno più selezionati, avranno migliorie in quanto alimentazione eccetra (oppure se generando più calore al contrario la 5870 andrà incontro ad overclock ridotti rispetto alla 50 )..ovvio sono tutte cose da smanettoni.. ma penso che per uno che poi ha intenzione di overcloccare/ottimizzare la scheda video potranno essere informazioni interessanti.. chiaro che parlo in generale, indipendentemente dal prezzo.. per ora 300 euro seppure non molti forse per un simile prodotto, per molte persone possono essere troppi in assoluto.. :)
Com'è stato per lo sblocco del quarto core sui Phenom 2 x3, spero che qualcuno trovi anche il modo di portare la 5850 dai 1440 SP ai 1600SP () della sorellona visto che sicuramente sono lo stesso chip solo in versione castrata...
Anche questo sarà un'altra cosa interessante da verificare.. :D
La 5850 a 299 dollari :mbe:
gianni1879
12-09-2009, 16:03
Si che va uguale all' architettura nuova di ati:D
avevo anche detto stop ai tentativi di flame...
3gg di sospensione, inoltre devi editare la firma come da regolamento.
capitan_crasy
12-09-2009, 16:07
Chiedo scusa se tale notizia era già stata postata...
http://www.pctunerup.com/up/results/_200909/20090912170621_RadeonHD5850card1.jpg
http://www.pctunerup.com/up/results/_200909/20090912170647_RadeonHD5850card2.jpg
New information about the solutions on base of graphic processor RV870 continuously appears. This news does not concern the elder representative radeon HD 5870, but the radeon HD 5850.
In the first photograph, it is possible to estimate the overall design and overall card sizes . The length of the printed-circuit board, is not strongly shorter than in Radeon HD 5870. We cannot fail to note the massive cooling system, which occupies the place of two expansion slots , it is supplied with turbine . For additional power answers only one six-pin connector, which limits the energy consumption Of radeon HD 5850 to 150 W. On the second slide it is possible to estimate the construction of radiator. This topology already became classical for the upper price range video card. Several heat pipes are connected to the separate radiator, which in turn, is cooled by the airflow from the turbine. There is a radiator, which answers for cooling the power-supply system. AMD mastered the lesson Of radeon HD 4850, whose cooling system was not enough and equipped Radeon HD 5850 with an adequate cooling system.
Clicca qui... (http://xtreview.com/addcomment-id-9927-view-Radeon-HD-5850-more-details.html)
Kharonte85
12-09-2009, 16:08
Com'è stato per lo sblocco del quarto core sui Phenom 2 x3, spero che qualcuno trovi anche il modo di portare la 5850 dai 1440 SP ai 1600SP (:Perfido:) della sorellona visto che sicuramente sono lo stesso chip solo in versione castrata... :rolleyes:
Comunque ritengo che i prezzi dichiarati siano troppo alti! Per me diventerà conveniente acquistare la 5870 quando arriverà al massimo a 250 euro... :O
Può essere potente quanto vuole, ma io 350-400 euro non glie li do neanche morto visto che basta aspettare l'uscita di nVidia per vedere questi prezzi diventare realtà!
La 5850 a 299 dollari :mbe:
Sì e la 5870 a 399 dollari...
Quando si diceva che AMD/ATI presentava schede con prezzi aggressivi perchè costretta dalle necessità del mercato e dalla presenza di nvidia si coglieva nel segno.
Queste aziende non fanno beneficenza...se hanno deciso di proporre questi prezzi significa che sono convinti di avere in mano la carta vincente e anche di guadagnare sia quote di mercato sia avere ampi margini di guadagno data l'assenza della concorrenza (non diverso da quello che fece Nvidia a suo tempo con G80).
Sono convinto che questi prezzi sonoil migliore indizio a conferma di prestazioni assolutamente notevoli (probabilmente mai viste).
Sì e la 5870 a 399 dollari...
Quando si diceva che AMD/ATI presentava schede con prezzi aggressivi perchè costretta dalle necessità del mercato e dalla presenza di nvidia si coglieva nel segno.
Queste aziende non fanno beneficenza...se hanno deciso di proporre questi prezzi significa che sono convinti di avere in mano la carta vincente e anche di guadagnare sia quote di mercato sia avere ampi margini di guadagno data l'assenza della concorrenza (non diverso da quello che fece Nvidia a suo tempo con G80).
Bisogna anche dire però che ora AMD/ATI esce fuori con una scheda che non dovrebbe avere rivali per qualche mese (probabilmente) e neppure di poco.
Quindi anche metterla a 500/600 euro volendo sarebbe stato giustificato.
Il discorso è che evidentemente non è un discorso solo di immagine, ma voglio comunque riuscire a venderne un buon numero fin dall'inizio (nonostante non sia un prezzo esattamente di massa )
Un pò me lo aspettavo, dato che in base alla potenza erogata da questi piccoli mostri il prezzo che un bel pò di noi avevamo fissato sui 200€ circa per la 5850 è stato subito declassato dopo prime immagini e commenti degli addetti ai lavori.
halduemilauno
12-09-2009, 16:17
un'ultriore e interessante riepilogo...
http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/september/alle_details_atis_radeon_5000er_serie/
c'è anche un'accenno alle probabili prestazioni...
"Nach AMD-Angaben soll zumindest die HD 5870 etwa 50 Prozent schneller als die GTX 285 sein."
Kharonte85
12-09-2009, 16:17
Chiedo scusa se tale notizia era già stata postata...
http://www.pctunerup.com/up/results/_200909/20090912170621_RadeonHD5850card1.jpg
http://www.pctunerup.com/up/results/_200909/20090912170647_RadeonHD5850card2.jpg
New information about the solutions on base of graphic processor RV870 continuously appears. This news does not concern the elder representative radeon HD 5870, but the radeon HD 5850.
In the first photograph, it is possible to estimate the overall design and overall card sizes . The length of the printed-circuit board, is not strongly shorter than in Radeon HD 5870. We cannot fail to note the massive cooling system, which occupies the place of two expansion slots , it is supplied with turbine . For additional power answers only one six-pin connector, which limits the energy consumption Of radeon HD 5850 to 150 W. On the second slide it is possible to estimate the construction of radiator. This topology already became classical for the upper price range video card. Several heat pipes are connected to the separate radiator, which in turn, is cooled by the airflow from the turbine. There is a radiator, which answers for cooling the power-supply system. AMD mastered the lesson Of radeon HD 4850, whose cooling system was not enough and equipped Radeon HD 5850 with an adequate cooling system.
Clicca qui... (http://xtreview.com/addcomment-id-9927-view-Radeon-HD-5850-more-details.html)
Accidenti...se quella è davvero la HD5850 ha la stessa lunghezza della sorellona...speravo fosse piu' corta :fagiano:
michelgaetano
12-09-2009, 16:17
Bisogna anche dire però che ora AMD/ATI esce fuori con una scheda che non dovrebbe avere rivali per qualche mese (probabilmente) e neppure di poco.
Quindi anche metterla a 500/600 euro volendo sarebbe stato giustificato.
Il discorso è che evidentemente non è un discorso solo di immagine, ma voglio comunque riuscire a venderne un buon numero fin dall'inizio (nonostante non sia un prezzo esattamente di massa )
Beh, GTX 280 e 260 al lancio le ricordiamo, non so neanche quanto sia giusto lamentarsi :D
Io come altri, aspetterò calino di prezzo e vi sia maggiore necessità nei giochi che seguo; queste (per prezzi e prestazioni) son schede enthusiast :)
Accidenti...se quella è davvero la HD5850 ha la stessa lunghezza della sorellona...speravo fosse piu' corta :fagiano:
Speriamo nella dissipazione :sperem: Ma sembra dual slot con aria fuori o sbaglio?
interessante come la potenza teorica della 70 sia OLTRE il doppio la scheda rispettiva della generazione precedente :stordita:
Fino a qualche settimana fa quelle immagini delle schede erano cosiderate dei fake, dato che ancora non si sapeva nulla :mbe:
Foglia Morta
12-09-2009, 16:29
Chiedo scusa se tale notizia era già stata postata...
http://www.pctunerup.com/up/results/_200909/20090912170621_RadeonHD5850card1.jpg
http://www.pctunerup.com/up/results/_200909/20090912170647_RadeonHD5850card2.jpg
New information about the solutions on base of graphic processor RV870 continuously appears. This news does not concern the elder representative radeon HD 5870, but the radeon HD 5850.
In the first photograph, it is possible to estimate the overall design and overall card sizes . The length of the printed-circuit board, is not strongly shorter than in Radeon HD 5870. We cannot fail to note the massive cooling system, which occupies the place of two expansion slots , it is supplied with turbine . For additional power answers only one six-pin connector, which limits the energy consumption Of radeon HD 5850 to 150 W. On the second slide it is possible to estimate the construction of radiator. This topology already became classical for the upper price range video card. Several heat pipes are connected to the separate radiator, which in turn, is cooled by the airflow from the turbine. There is a radiator, which answers for cooling the power-supply system. AMD mastered the lesson Of radeon HD 4850, whose cooling system was not enough and equipped Radeon HD 5850 with an adequate cooling system.
Clicca qui... (http://xtreview.com/addcomment-id-9927-view-Radeon-HD-5850-more-details.html)
è il fake che avevo postato a Febbraio... ogni tanto torna fuori :D : http://www.hwupgrade.it/forum/showpost.php?p=26261081&postcount=1542
michelgaetano
12-09-2009, 16:32
è il fake che avevo postato a Febbraio... ogni tanto torna fuori :D : http://www.hwupgrade.it/forum/showpost.php?p=26261081&postcount=1542
Strana tutta questa segretezza su 5850...
L'unica altra che abbiamo in foto è Juniper quindi?
Foglia Morta
12-09-2009, 16:35
Strana tutta questa segretezza su 5850...
L'unica altra che abbiamo in foto è Juniper quindi?
Si... era molto probabilmente Juniper anche se non lo avevano scritto. Della 5850 ancora non si sono viste immagini che io sappia
Fantomatico
12-09-2009, 16:35
Penso che con queste schede la ATI riuscirà a tornare in testa... dopo anni che non l'avevamo più vista dominare la fascia alta.
michelgaetano
12-09-2009, 16:36
Si... era molto probabilmente Juniper anche se non lo avevano scritto. Della 5850 ancora non si sono viste immagini che io sappia
E mi viene da pensare difficilmente ne vedremo a questo punto finio alle recensioni, dal momento che tutto (o quasi) quello che abbiamo visto finora è leak dalle press AMD :stordita:
Confidiamo in chiphell :asd:
Penso che con queste schede la ATI riuscirà a tornare in testa... dopo anni che non l'avevano più vista dominare la fascia alta.
beh insomma.. direi che più o meno nella fascia alta con nvidia erano in pari.. la 4870X2 nella maggior parte dei casi equivalente alla 295 (a conti fatti).. un triple di 4890 superava grandemente in linea teorica le 2 soluzioni, ma d'altra parte nvidia poteva permette di mettere un quad di 285.. però alla fine parliamo solo di configurazioni per i bench.. direi che sostanzialmente vedevamo un quadro di parità, con la differenza che chi voleva risparmiare un po' di solito sceglieva ati.
Forse come tu dici ati davvero avrà il top (e nemmeno di poco) delle prestazioni in ambito schede video...credo l'ultima volta che ciò si era verificato fosse con la 1900xt :)
<^MORFEO^>
12-09-2009, 16:49
Sì e la 5870 a 399 dollari...
Quando si diceva che AMD/ATI presentava schede con prezzi aggressivi perchè costretta dalle necessità del mercato e dalla presenza di nvidia si coglieva nel segno.
Queste aziende non fanno beneficenza...se hanno deciso di proporre questi prezzi significa che sono convinti di avere in mano la carta vincente e anche di guadagnare sia quote di mercato sia avere ampi margini di guadagno data l'assenza della concorrenza (non diverso da quello che fece Nvidia a suo tempo con G80).
Sono convinto che questi prezzi sonoil migliore indizio a conferma di prestazioni assolutamente notevoli (probabilmente mai viste).
Sono d'accordo con te e con questa giusta linea dei prezzi...
Non mi aspettavo sicuro che ATI/AMD proponesse delle schede simili in totale assenza di concorrenza a prezzi molto competitivi... Sarebbe stupido e contro producente da parte dell'azienda e visto che non è che navighino nell'oro, questo li aiuterà sicuramente a fare un pò di cassa... Cosa che sicuramente non guasta in fatto di sponsorizzazioni per altri giochi :rolleyes:
Io dicevo solo che fino a quando i prezzi non ritorneranno in stile "competitivo", queste schede le guarderò solo che sugli scaffali! Per adesso la mia 4870 basta e avanza a 1680x1050... Se prendessi un 5870 sarei come minimo costretto a comprarmi un 26" da 1920.. :O
Accidenti...se quella è davvero la HD5850 ha la stessa lunghezza della sorellona...speravo fosse piu' corta :fagiano:
Da come me lo ricordavo io, quelle erano img fake...
Io come altri, aspetterò calino di prezzo e vi sia maggiore necessità nei giochi che seguo; queste (per prezzi e prestazioni) son schede enthusiast :)
Così a spanne...non credo scenderanno di prezzo per un bel pezzo :rolleyes:
ATI ha fatto un bel lavoro con la 5870, IMHO...ha preso una 4870x2 e l'ha "corretta" ora il CF tra le "GPU" è una sorta di pin to pin e i transistor in più sono per le nuove librerie, le migliorie degli effetti (vedi AA) e il supporto di più monitors...
Senza notevoli investimenti di risorse in R&S ha "spolverato" un prodotto già esistente...lo ha migliorato e ha aggiunto quanto era possibile aggiungere...rendendolo attuale e innovativo sotto diversi aspetti.
Ad ottobre appena arriverà sul mercato a circa 400 euri...assisteremo probabilmente ad un ridimensionamento dei prezzi nei top di gamma dx 10 (e solo quelli) di qulasivoglia produttore...
NVIDIA faticherà parecchio a mantenere un minimo di redditività nell'ultimo quarto e cmq, solo svendendo ciò che è in grado di offrire già oggi:O Punterà tutto su GT300 che per mantenere le aspettative...sarà "costato" uno sproposito a livello ingegneristico...e come tale, offrirà prestazioni molto superiori ad un prezzo altrettanto adeguato...tutto dipenderà dalla bontà del progetto, sarà scalabile come quello dell'antagonista?
In ogni caso per i prossimi 2-3 mesi (speriamo non di più per il bene dei nostri portafogli;) ) presumo che nella fascia bassa avremo le varie 275 e 285 che costeranno solo una manciata di euri in più della serie 4000...le 5850 e 295 nella fascia media...la 5870 nella fascia medio-alta...a seguire 5870x2. Appena NVIDIA lancerà il suo mostro, TOP delle gpu singole, se non sarà accompagnato da tutta la linea per ogni segmento e particolarmente aggressiva nei prezzi...ATI non scenderà di un centesimo...ed anche se così fosse, i costi in termini di efficenza sostenuti da ATI per la serie 5000...le permetterebbero cmq di garantire una certa redditività...ben superiore alla concorrente...
Vedremo cosa succederà...ovviamente, tutto IMHO :Prrr:
Quelli di tom's hardware parlano anche di 5770 e 5750, precisamente qui (http://www.tomshw.it/news.php?newsid=19356), ma è sicuro che ci siano?almeno avrebbero prezzi accettabili...
Kharonte85
12-09-2009, 16:56
è il fake che avevo postato a Febbraio... ogni tanto torna fuori :D : http://www.hwupgrade.it/forum/showpost.php?p=26261081&postcount=1542
Ottimo si puo' ancora sperare che sia piu' corta...:D
Penso che con queste schede la ATI riuscirà a tornare in testa... dopo anni che non l'avevano più vista dominare la fascia alta.
Di sicuro tornerà in testa e ci mancherebbe altro.
Onestamente più che la dimostrazione di forza bruta mi fa piacere constatare che dopo lo scempio assoluto della serie 2900 Ati si sia rimboccata le maniche e abbia ricominciato la graduale salita. La 3800 non era una grande serie ma almeno toglieva tutti i difetti della precedente, con la 4800 si sono messi in corsia di sorpasso (grazie anche ai prezzi), ora speriamo che avvenga quello definitivo e si torni ai tempi della mitica serie x1900.
Così a spanne...non credo scenderanno di prezzo per un bel pezzo :rolleyes:
ATI ha fatto un bel lavoro con la 5870, IMHO...ha preso una 4870x2 e l'ha "corretta" ora il CF tra le "GPU" è una sorta di pin to pin e i transistor in più sono per le nuove librerie, le migliorie degli effetti (vedi AA) e il supporto di più monitors...
Senza notevoli investimenti di risorse in R&S ha "spolverato" un prodotto già esistente...lo ha migliorato e ha aggiunto quanto era possibile aggiungere...rendendolo attuale e innovativo sotto diversi aspetti.
Ad ottobre appena arriverà sul mercato a circa 400 euri...assisteremo probabilmente ad un ridimensionamento dei prezzi nei top di gamma dx 10 (e solo quelli) di qulasivoglia produttore...
NVIDIA faticherà parecchio a mantenere un minimo di redditività nell'ultimo quarto e cmq, solo svendendo ciò che è in grado di offrire già oggi:O Punterà tutto su GT300 che per mantenere le aspettative...sarà "costato" uno sproposito a livello ingegneristico...e come tale, offrirà prestazioni molto superiori ad un prezzo altrettanto adeguato...tutto dipenderà dalla bontà del progetto, sarà scalabile come quello dell'antagonista?
In ogni caso per i prossimi 2-3 mesi (speriamo non di più per il bene dei nostri portafogli;) ) presumo che nella fascia bassa avremo le varie 275 e 285 che costeranno solo una manciata di euri in più della serie 4000...le 5850 e 295 nella fascia media...la 5870 nella fascia medio-alta...a seguire 5870x2. Appena NVIDIA lancerà il suo mostro, TOP delle gpu singole, se non sarà accompagnato da tutta la linea per ogni segmento e particolarmente aggressiva nei prezzi...ATI non scenderà di un centesimo...ed anche se così fosse, i costi in termini di efficenza sostenuti da ATI per la serie 5000...le permetterebbero cmq di garantire una certa redditività...ben superiore alla concorrente...
Vedremo cosa succederà...ovviamente, tutto IMHO :Prrr:
Wait, ma sta roba che ha preso la scheda precedente e ci ha solo aggiunto qualcosa è nuova per me... :stordita:
Allora tanto vale attendere nvidia, che almeno avrà un'architettura nuova e più efficiente, no? :stordita:
Quelli di tom's hardware parlano anche di 5770 e 5750, precisamente qui (http://www.tomshw.it/news.php?newsid=19356), ma è sicuro che ci siano?almeno avrebbero prezzi accettabili...
se ci saranno dubito che usciranno a breve.. penso che ati per un po' voglia continuare a vendere la serie 4 (2-3 mesi penso).
magari sbaglio però.. se sbaglio meglio così :D
Wait, ma sta roba che ha preso la scheda precedente e ci ha solo aggiunto qualcosa è nuova per me... :stordita:
Allora tanto vale attendere nvidia, che almeno avrà un'architettura nuova e più efficiente, no? :stordita:
secondo me non è una semplice 4870X2 unita.. io penso ci siano delle differenze considerevoli in termini di architettura..
Kharonte85
12-09-2009, 17:00
Sono d'accordo con te e con questa giusta linea dei prezzi...
Non mi aspettavo sicuro che ATI/AMD proponesse delle schede simili in totale assenza di concorrenza a prezzi molto competitivi... Sarebbe stupido e contro producente da parte dell'azienda e visto che non è che navighino nell'oro, questo li aiuterà sicuramente a fare un pò di cassa... Cosa che sicuramente non guasta in fatto di sponsorizzazioni per altri giochi :rolleyes:
Io dicevo solo che fino a quando i prezzi non ritorneranno in stile "competitivo", queste schede le guarderò solo che sugli scaffali! Per adesso la mia 4870 basta e avanza a 1680x1050... Se prendessi un 5870 sarei come minimo costretto a comprarmi un 26" da 1920.. :O
Su questo sono scelte personali, io piu' di 300e Max per una scheda non li spendo per principio...avendo tu già una scheda del genere faresti benissimo ad aspettare (che è la stessa cosa che vorrei fare io salvo scimmia [pero' ho una 8800gts 512mb quindi sarei piu' scusato in caso di "cedimento" :D ])
Penso che la politica dei prezzi di Ati sia corretta. È vero che approfitta dell'effetto novità e della concorrenza in ritardo (il che è legittimo), ma è vero anche che per il consumatore resta l'ottimo scenario, nel quale paghi il prodotto per quel che effettivamente vale. Attualmente è davvero difficile farsi fottere sui prezzi (se si ha l'accortezza di usare Trovaprezzi), perché le schede in circolazione coprono tutte le fasce di mercato proporzionalmente alle prestazioni. E i prezzi della serie 58xx mi sembrano ben studiati da questo punto di vista... non sono aggressivi, ma neanche troppo salati.
Semmai il punto è... quanto può tagliare Ati? Da qui alle nuove nVidia il prezzo scenderà sicuramente di 50$. È lecito aspettarsi di più? Magari altri 50 dollaroni in occasione del lancio della 5870x2...
se ci saranno dubito che usciranno a breve.. penso che ati per un po' voglia continuare a vendere la serie 4 (2-3 mesi penso).
magari sbaglio però.. se sbaglio meglio così :D
che io sappiale 57xo dovrebbe uscire una o due settimane dopo le 58x0.
però non mi ricordo dove l'ho letto...:stordita:
ma io sarei interessato alla 5850, e come non esserlo, certo i 299dollari sono tanti, che poi saranno i 250E.
credo che gia a 200E sarà una bella vga.
quindi credo che oggettivamente toccherà aspettare il solito mese alla presentazione.
Wait, ma sta roba che ha preso la scheda precedente e ci ha solo aggiunto qualcosa è nuova per me... :stordita:
Allora tanto vale attendere nvidia, che almeno avrà un'architettura nuova e più efficiente, no? :stordita:
a dirla tutta...me ne frego del produttore...m'interessa solo avere il maggior rapporto prezzo/prestazioni al momento dell'esborso :D
La cosa migliore per chi non ha fretta...è attendere entrambe ;)
Ma visto e considerato che io in pretazioni grafiche attualmente...:mc:
:cry:
Kharonte85
12-09-2009, 17:09
Penso che la politica dei prezzi di Ati sia corretta. È vero che approfitta dell'effetto novità e della concorrenza in ritardo (il che è legittimo), ma è vero anche che per il consumatore resta l'ottimo scenario, nel quale paghi il prodotto per quel che effettivamente vale. Attualmente è davvero difficile farsi fottere sui prezzi (se si ha l'accortezza di usare Trovaprezzi), perché le schede in circolazione coprono tutte le fasce di mercato proporzionalmente alle prestazioni. E i prezzi della serie 58xx mi sembrano ben studiati da questo punto di vista... non sono aggressivi, ma neanche troppo salati.
Semmai il punto è... quanto può tagliare Ati? Da qui alle nuove nVidia il prezzo scenderà sicuramente di 50$. È lecito aspettarsi di più? Magari altri 50 dollaroni in occasione del lancio della 5870x2...
Non si puo' prevedere nulla perchè tutto dipenderà dalle prestazioni del nuovo chip Nvidia...
leoneazzurro
12-09-2009, 17:10
Ricorderò male, ma PhysX su Batman era così pesante che diverse persone avevano framerate da schifo anche con delle 280 :fagiano: (al punto che alcuni consideravano di abbinare una scheda solo per la fisica).
Ma la GTS 250 è avanti :asd: :sofico:
Confermo che Batman non ha frame rate esaltanti con Physx attivato: mio fratello ha una 8800 GTS640 e il gioco era palesemente ingiocabile (slideshow) anche a 1024x768. Sicuramente la situazione migliora con schede piú potenti, ma certo non penso a miracoli.
A parte ció, ci sono voci che a breve ATI possa presentare la propria soluzione per le librerie fisiche (probabilmente insieme ad Havok) basata su OpenCL
NvidiaMen
12-09-2009, 17:15
Mi spiace molto per gli investimenti fatti da nVidia per l'acquisizione di Ageia e il conseguente porting delle librerie PhysX su GPU con licenze proprietarie. Non assolutamente per la validità delle stesse, ma esclusivamente per la proprietà intellettuale che, di fatto, ne limiterà FORTEMENTE l'impiego nell'immediato futuro soprattutto con l'introduzione a standard aperto delle librerie DirectX11.
Quest'ultime librerie Microsoft, infatti, potranno far eseguire alla GPU, attraverso il Computer Shader, elaborazioni generalmente demandate alla CPU come lo è, ad esempio, la fisica su motori x86 (come il "vecchio" Havok).
La presenza di questo Computer Shader permetterà di realizzare librerie fisiche (esterne?) polivalenti in grado di poter essere eseguite indifferentemente da CPU o GPU: mi chiedo se questo avverrà o meno con il contributo di Intel (fortemente interessata, a differenza di nVidia, ad un'integrazione delle propria tecnologia elaborativa come standard) la quale con il suo Havok FX potrà, se vorrà, contribuire allo standard aperto OpenCL oppure potrà esserci uno scenario nel quale Microsoft sviluppi per conto proprio delle librerie fisiche sotto lo standard egemone DirectX.
Quel che voglio dire è che agendo in questo modo il marketing nVidia, che anni fà distrusse il colosso 3DFX, rischia di incorrere nello stesso errore che decretò la sconfittà degli avversari di un tempo i quali vennero seppelliti insieme alle loro gloriose librerie GLIDE. Le librerie Glide, al tempo, erano ENORMEMENTE più diffuse delle attuali librerie fisiche PhysX, tant'è che quando se ne parlava sembrava ci si riferisse ad un standard anzichè a delle API grafiche vincolate da licenza. Tuttavia la validità delle stesse (leggasi ottimizzazioni di velocità e di effetti supportati) rispetto alla controparte DirectX di un tempo non fu sufficiente a dare un corso a quella esperienza che si concluse con la riaffermazione delle DirectX come standard aperto su piattaforme PC Microsoft.
Stesso discorso e medesima conclusione si è avuta anche con altre tecnologie proprietarie, questa volta hardware, sconfitte dallo standard che di fatto dominava e domina il mercato come le oramai defunte piattaforme Commodore di Amiga e, in questi ultimi anni, quelle PowerPC su Apple soppiantate dalle architetture x86 evolute, con un occhio sempre rivolto alla retrocompatibilità, in x64.
Grazie all'introduzione del Computer Shader di DirectX11 nei prossimi mesi molto di ciò che adesso appare confuso in termini di supporto alla fisica verrà delineato con precisione e dovizia soprattutto perchè dietro ci sono grossi interessi da parte di Intel (con Larrabee) e di AMD (con Fusion). L'idea è quella di permettere l'esecuzione dei calcoli in maniera flessibile sia su CPU che su GPU senza limitazioni di sorta sul brand o sul processore (grafico o di sistema) che elabora le istruzioni. Un qualcosa che PhysX per come è strutturata non prevede di fare essendo chiusa in sè stessa così come lo è CUDA. Tempo addietro abbiamo visto un "Gelato" (http://www.nvidia.com/object/io_1212045140642.html) (al SIGGRAPH 2007 chi lo ricorda?) che si squagliò dopo che nVidia si rese conto che una tecnologia proprietaria non poteva andare da nessuna parte tant'è che con la release 2.2 lo rese free e nè bloccò lo sviluppo (http://www.xtremehardware.it/notizie/gelato-pro-by-nvidia-%C3%A8-ora-disponibile-gratuitamente-200806031420/)...
Stessa tecnica sembra seguire con PhysX... si acquista una tecnologia e la si sviluppa fino ad un certo punto (consapevoli di vederla a tutti gli effetti come un costo più che come un investimento) con il solo scopo di poterla "richiamare" nei casi disperati di ritardo tecnologico come questo... Se andate a guardare alla fine è proprio ciò che si è verificato con le dichiarazioni bestemmia da parte del marketing nVidia di questi giorni riguardo ad una presunta superiorità di una GTS250 nei confronti di una perla di tecnologia (nel rapporto potenza-consumi-innovazione) come lo è l'architettura RV870 di ATI/AMD...
Chi vivrà vedrà...
Sì e la 5870 a 399 dollari...
Quando si diceva che AMD/ATI presentava schede con prezzi aggressivi perchè costretta dalle necessità del mercato e dalla presenza di nvidia si coglieva nel segno.
Queste aziende non fanno beneficenza...se hanno deciso di proporre questi prezzi significa che sono convinti di avere in mano la carta vincente e anche di guadagnare sia quote di mercato sia avere ampi margini di guadagno data l'assenza della concorrenza (non diverso da quello che fece Nvidia a suo tempo con G80).
Sono convinto che questi prezzi sonoil migliore indizio a conferma di prestazioni assolutamente notevoli (probabilmente mai viste).
Sì e no. :)
Se mai la HD5870 andasse più o meno al livello di una GTX295, AMD potrebbe venderla anche a 499$, seguendo il discorso che da tempo si fa nei thread simili a questo... O addirittura ad un prezzo leggermente superiore, visto comunque il risparmio di energia, calore, l'assenza dei problemi del multigpu e le features varie migliori. E sono convintissimo che ci sarebbe parecchia gente che la comprerebbe.
Così come a suo tempo avrebbe potuto vendere la HD4870 al prezzo della GTX260.
ATI si potrebbe trovare nell'invidiabile posizione di NVidia a fine 2006: possibilità di lanciare una scheda della nuova generazione diversi mesi prima della concorrenza, e con una potenza tale da porsi tra le schede enthusiast.
NVidia la 8800GTX la sparò a 600€ al lancio. Soldi comunque non buttati, in quanto fu molto longeva come vga, ma non era qualcosa che NVidia poteva prevedere, quindi non entrò certo nelle logiche di determinazione del prezzo... ;)
Poi certamente il fatto che la nuova flagship mono gpu costi più della precedente al lancio, fa presagire una certa potenza, ma comunque, se le prestazioni fossero quelle prospettate (ossia la scheda più veloce sul mercato o quasi), devo dire che comunque sarebbe un ottimo prezzo.
La verità è che appunto ci sono molti altri fattori che determinano il prezzo di un bene, come mille altre volte ho detto, altrimenti una Nissan GT-R costerebbe quanto una Lamborghini, tanto per fare un'esempio... :D
Nel caso delle vga, ci sono tra gli altri: i costi di produzione (ricordo che RV870 si potrebbe trovare nella fascia di performance di una scheda che ha 2 gpu da 470 mm2 senza NVIO, il tutto con una gpu da 330 mm2 circa NVIO incluso, stando ai rumors), la necessità di aumentare le proprie quote di mercato, ecc...
Ottimo si puo' ancora sperare che sia piu' corta...:D
Dalle immagini che ho postato qualche pagina fa sembrano abbastanza lunghe... :boh:
Italia 1
12-09-2009, 17:23
Cioè... la 5870 ha 2.1 miliardi di transistor.... hanno piu che raddoppiato rispetto alla 4870 !!
http://www.xbitlabs.com/misc/picture/?src=/images/video/geforce-gtx200-theory/specs.png&1=1
Altra domandina: Visto che la scheda video può essere usata per fare calcoli da Cpu... sarà possibile usare la scheda stessa per aumentare le prestazioni di un gioco ? Cioè... alcune unità potrebbero venire utilizzate come supplemento alla cpu durante il gioco stesso ??
Ma ci sono conferme ufficiali per un'eventuale 5870x2 o sono solo le supposizioni e speranze degli utenti?
Perchè la vedo un pò difficile da realizzare... L'unica soluzione sarebbero i due PCB contrapposti con il dissipatore nel mezzo perchè altrimenti non so quanto lunga dovrebbe venire se fossero messe le due GPU sullo stesso PCB :asd:
Non è cosi difficile sai... per la prima volta la 5870x2 non saranno due gpu su un pcb ma verrano integrate due GPU incollate un po come aveva fatto intel con i primi Pentium Dual CORE. Quindi alla fin fine la 5870x2 non sarà poi tanto più grande della 5870 a singola gpu.
Ciauz!
Mi spiace molto per gli investimenti fatti da nVidia per l'acquisizione di Ageia e il conseguente porting delle librerie PhysX su GPU con licenze proprietarie. Non assolutamente per la validità delle stesse, ma esclusivamente per la proprietà intellettuale che, di fatto, ne limiterà FORTEMENTE l'impiego nell'immediato futuro soprattutto con l'introduzione a standard aperto delle librerie DirectX11.
Quest'ultime librerie Microsoft, infatti, potranno far eseguire alla GPU, attraverso il Computer Shader, elaborazioni generalmente demandate alla CPU come lo è, ad esempio, la fisica su motori x86 (come il "vecchio" Havok).
La presenza di questo Computer Shader permetterà di realizzare librerie fisiche (esterne?) polivalenti in grado di poter essere eseguite indifferentemente da CPU o GPU: mi chiedo se questo avverrà o meno con il contributo di Intel (fortemente interessata, a differenza di nVidia, ad un'integrazione delle propria tecnologia elaborativa come standard) la quale con il suo Havok FX potrà, se vorrà, contribuire allo standard aperto OpenCL oppure potrà esserci uno scenario nel quale Microsoft sviluppi per conto proprio delle librerie fisiche sotto lo standard egemone DirectX.
Quel che voglio dire è che agendo in questo modo il marketing nVidia, che anni fà distrusse il colosso 3DFX, rischia di incorrere nello stesso errore che decretò la sconfittà degli avversari di un tempo i quali vennero seppelliti insieme alle loro gloriose librerie GLIDE. Le librerie Glide, al tempo, erano ENORMEMENTE più diffuse delle attuali librerie fisiche PhysX, tant'è che quando se ne parlava sembrava ci si riferisse ad un standard anzichè a delle API grafiche vincolate da licenza. Tuttavia la validità delle stesse (leggasi ottimizzazioni di velocità e di effetti supportati) rispetto alla controparte DirectX di un tempo non fu sufficiente a dare un corso a quella esperienza che si concluse con la riaffermazione delle DirectX come standard aperto su piattaforme PC Microsoft.
Stesso discorso e medesima conclusione si è avuta anche con altre tecnologie proprietarie, questa volta hardware, sconfitte dallo standard che di fatto dominava e domina il mercato come le oramai defunte piattaforme Commodore di Amiga e, in questi ultimi anni, quelle PowerPC su Apple soppiantate dalle architetture x86 evolute, con un occhio sempre rivolto alla retrocompatibilità, in x64.
Grazie all'introduzione del Computer Shader di DirectX11 nei prossimi mesi molto di ciò che adesso appare confuso in termini di supporto alla fisica verrà delineato con precisione e dovizia soprattutto perchè dietro ci sono grossi interessi da parte di Intel (con Larrabee) e di AMD (con Fusion). L'idea è quella di permettere l'esecuzione dei calcoli in maniera flessibile sia su CPU che su GPU senza limitazioni di sorta sul brand o sul processore (grafico o di sistema) che elabora le istruzioni. Un qualcosa che PhysX per come è strutturata non prevede di fare essendo chiusa in sè stessa così come lo è CUDA. Tempo addietro abbiamo visto un "Gelato" (al SIGGRAPH 2007 chi lo ricorda?) che si squagliò dopo che nVidia si rese conto che una tecnologia proprietaria non poteva andare da nessuna parte tant'è che con la release 2.2 lo rese free e nè bloccò lo sviluppo (http://www.nvidia.com/object/io_1212045140642.html)...
Stessa tecnica sembra seguire con PhysX... si acquista una tecnologia e la si sviluppa fino ad un certo punto (consapevoli di vederla a tutti gli effetti come un costo più che come un investimento) con il solo scopo di poterla "richiamare" nei casi disperati di ritardo tecnologico come questo... Se andate a guardare alla fine è proprio ciò che si è verificato con le dichiarazioni bestemmia da parte del marketing nVidia di questi giorni riguardo ad una presunta superiorità di una GTS250 nei confronti di una perla di tecnologia (nel rapporto potenza-consumi-innovazione) come lo è l'architettura RV870 di ATI/AMD...
Chi vivrà vedrà...
:mano: :mano:
Fantomatico
12-09-2009, 17:36
beh insomma.. direi che più o meno nella fascia alta con nvidia erano in pari.. la 4870X2 nella maggior parte dei casi equivalente alla 295 (a conti fatti).. un triple di 4890 superava grandemente in linea teorica le 2 soluzioni, ma d'altra parte nvidia poteva permette di mettere un quad di 285.. però alla fine parliamo solo di configurazioni per i bench.. direi che sostanzialmente vedevamo un quadro di parità, con la differenza che chi voleva risparmiare un po' di solito sceglieva ati.
Forse come tu dici ati davvero avrà il top (e nemmeno di poco) delle prestazioni in ambito schede video...credo l'ultima volta che ciò si era verificato fosse con la 1900xt :)
Esattamente, ha avuto un buon successo con la serie HD48** però secondo me l'ultimo vero modello di fascia alta è stata la x1900xtx, da allora non ho più visto un chip della casa canadese che sapesse ottenere le migliori prestazioni velocistiche.
Crossfire e SLI a parte, io personalmente valuto sempre i chip singoli per capire la validità di un prodotto... vorrei che questa volta potesse uscire un modello capace di battere una GTX 285, senza ricorrere al multigpu,tanto per far capire.
Quello che mi pare assurdo, è che anche le precedenti schede video della ATI, come la HD4850 e la HD4870 ,sulla carta (:read: ) godono di una tecnologia pari se non superiore alla casa californiana , eppure alla fine rendono quasi sempre meno. Un esempio concreto è quello della HD4870, che pur avendo memorie GDDR5 con frequenze paurose, è inferiore a una GTX 260, un' ottima scheda ma che non altro che un' evoluzione della precedente architettura delle 8800...
Quello che mi pare assurdo, è che anche le precedenti schede video della ATI, come la HD4850 e la HD4870 ,sulla carta (:read: ) godono di una tecnologia pari se non superiore alla casa californiana , eppure alla fine rendono quasi sempre meno.
Beh, il fatto che stai confrontando chip con enormi differenze in termini di grandezza non basta? RV770 è grande meno della metà del primo GT200 a 65nm. ;)
Un esempio concreto è quello della HD4870, che pur avendo memorie GDDR5 con frequenze paurose, è inferiore a una GTX 260, un' ottima scheda ma che non altro che un' evoluzione della precedente architettura delle 8800...
Veramente è un po' inferiore alla GTX260 216SP, non certo alla 192SP, che fu la prima ad essere lanciata e con la quale la HD4870 si confrontò all'inizio. ;)
Esattamente, ha avuto un buon successo con la serie HD48** però secondo me l'ultimo vero modello di fascia alta è stata la x1900xtx, da allora non ho più visto un chip della casa canadese che sapesse ottenere le migliori prestazioni velocistiche.
Crossfire e SLI a parte, io personalmente valuto sempre i chip singoli per capire la validità di un prodotto... vorrei che questa volta potesse uscire un modello capace di battere una GTX 285, senza ricorrere al multigpu,tanto per far capire.
Quello che mi pare assurdo, è che anche le precedenti schede video della ATI, come la HD4850 e la HD4870 ,sulla carta (:read: ) godono di una tecnologia pari se non superiore alla casa californiana , eppure alla fine rendono quasi sempre meno. Un esempio concreto è quello della HD4870, che pur avendo memorie GDDR5 con frequenze paurose, è inferiore a una GTX 260, un' ottima scheda ma che non altro che un' evoluzione della precedente architettura delle 8800...
Guarda che comunque le versioni overclocked della 4890 non presentavano grosse differenze sulla 285.. certo comunque sul single chip non aveva (ha) la supremazia.
Quello che dici è veor, la potenza teorica della serie 4 è mostruosa comparata alla controparte nvidia.. tuttavia poi nei programmi e nei giochi per motivi vari rende sempre molto molto meno del valore teorico
capitan_crasy
12-09-2009, 17:45
Non è cosi difficile sai... per la prima volta la 5870x2 non saranno due gpu su un pcb ma verrano integrate due GPU incollate un po come aveva fatto intel con i primi Pentium Dual CORE. Quindi alla fin fine la 5870x2 non sarà poi tanto più grande della 5870 a singola gpu.
Ciauz!
E' un ipotesi affascinante ma non so quanto sia tecnicamente possibile un approccio multichip package per unire le due GPU...
leoneazzurro
12-09-2009, 17:47
Quello che mi pare assurdo, è che anche le precedenti schede video della ATI, come la HD4850 e la HD4870 ,sulla carta (:read: ) godono di una tecnologia pari se non superiore alla casa californiana , eppure alla fine rendono quasi sempre meno. Un esempio concreto è quello della HD4870, che pur avendo memorie GDDR5 con frequenze paurose, è inferiore a una GTX 260, un' ottima scheda ma che non altro che un' evoluzione della precedente architettura delle 8800...
A parte che non é vero, mediamente la 4870 era legermente superiore alla GTX260, cosa che ha costretto Nvidia al lancio della GTX 260 -216, ma stai confrontando GPU con dimensioni del die enormemente differenti: voglio dire, la 4870 misura circa 260 mm^2, la 4890 poco meno di 290 mm^2, mentre le GTX260-285 hanno una dimensione del chip di oltre 400mm^2. Quindi la tecnologia di ATI gli consente di competere con nvidia un chip di dimensioni inferiori e meno costoso. Se ATI avesse voluto fare un chippone da 1200+SP, di dimensioni paragonabili a quelle di nvidia, avrebbe potuto tranquillamente battere la concorrenza su tutti i fronti. Non lo ha fatto perché ha preferito concentrare le sue risorse sulla fascia piú remunerativa del mercato.
E' un ipotesi affascinante ma non so quanto sia tecnicamente possibile un approccio multichip package per unire le due GPU...
Beh.. più che ipotesi direi che siano dei rumors che circolano nel web!
Riporto un pezzo dell'articolo:
"the HD 5870 X2 will not feature two separate GPUs, but two RV770 cores stacked on top of each other, the same we've seen on Pentium-D. If things go that way, users will be able to set up three HD 5870 X2 cards on a single motherboard, which would give them an extremely great amount of horsepower"
Qui il link al forum:
http://www.maxishine.com.au/forums/viewtopic.php?f=40&t=7806
A parte che non é vero, mediamente la 4870 era legermente superiore alla GTX260, cosa che ha costretto Nvidia al lancio della GTX 260 -216, ma stai confrontando GPU con dimensioni del die enormemente differenti: voglio dire, la 4870 misura circa 260 mm^2, la 4890 poco meno di 290 mm^2, mentre le GTX260-285 hanno una dimensione del chip di oltre 400mm^2. Quindi la tecnologia di ATI gli consente di competere con nvidia un chip di dimensioni inferiori e meno costoso. Se ATI avesse voluto fare un chippone da 1200+SP, di dimensioni paragonabili a quelle di nvidia, avrebbe potuto tranquillamente battere la concorrenza su tutti i fronti. Non lo ha fatto perché ha preferito concentrare le sue risorse sulla fascia piú remunerativa del mercato.
Io direi che è anche questione di costi e time to market... NVidia se n'è accorta prima con GT200 (difficoltà a contrastare i prezzi di ATI) ed ora con GT300 (difficoltà a lanciare fisicamente il prodotto).
P.S.: la prima GTX260 aveva un chip ancora più grande, 576 mm2, senza NVIO. ;)
Primi bench 5850 e 5870.
La 5850 sta tra i 2 ed 20 FPS sopra ad una GTX285
La 5870 sta tra i 10 ed 30 FPS sopra ad una GTX285
Qui il link: http://forum.beyond3d.com/showpost.php?p=1329964&postcount=2223
Fantomatico
12-09-2009, 18:02
A parte che non é vero, mediamente la 4870 era legermente superiore alla GTX260, cosa che ha costretto Nvidia al lancio della GTX 260 -216, ma stai confrontando GPU con dimensioni del die enormemente differenti: voglio dire, la 4870 misura circa 260 mm^2, la 4890 poco meno di 290 mm^2, mentre le GTX260-285 hanno una dimensione del chip di oltre 400mm^2. Quindi la tecnologia di ATI gli consente di competere con nvidia un chip di dimensioni inferiori e meno costoso. Se ATI avesse voluto fare un chippone da 1200+SP, di dimensioni paragonabili a quelle di nvidia, avrebbe potuto tranquillamente battere la concorrenza su tutti i fronti. Non lo ha fatto perché ha preferito concentrare le sue risorse sulla fascia piú remunerativa del mercato.
Sì avete ragione, non avevo considerato quest'aspetto , che non è assolutamente da trascurare...
;)
Primi bench 5850 e 5870.
La 5850 sta tra i 2 ed 20 FPS sopra sopra ad una GTX285
La 5870 sta tra i 10 ed 30 FPS sopra sopra ad una GTX285
Qui il link: http://forum.beyond3d.com/showpost.php?p=1329964&postcount=2223
Ottimo.. guardo subito..:eek: :D
Fantomatico
12-09-2009, 18:06
Guarda che comunque le versioni overclocked della 4890 non presentavano grosse differenze sulla 285.. certo comunque sul single chip non aveva (ha) la supremazia.
Quello che dici è veor, la potenza teorica della serie 4 è mostruosa comparata alla controparte nvidia.. tuttavia poi nei programmi e nei giochi per motivi vari rende sempre molto molto meno del valore teorico
Sì infatti, è soprattutto per l'ultimo aspetto che sono rimasto basito...
Ma alla fine non è neanche così tanto "incredibile": la hd4850 avrà pure molti stream processors in più rispetto ad una 8800GT (800 contro 112), ma nel 2006 la situazione è stata analoga: la 7900GT con 24 pixel shaders contro i 48 della x1900xt, anche se nel primo caso mi pare assurdo quel numero di SP: con quelli avrebbe dovuto far girare Crysis in qualsiasi modalità senza far fatica lol, è ovvio che l'architettura non è sfruttata fino a fondo.... quella delle 8800, sarà vecchia quanto volete, ma è utilizzata a pieno.
markko88
12-09-2009, 18:10
Primi bench 5850 e 5870.
La 5850 sta tra i 2 ed 20 FPS sopra sopra ad una GTX285
La 5870 sta tra i 10 ed 30 FPS sopra sopra ad una GTX285
Qui il link: http://forum.beyond3d.com/showpost.php?p=1329964&postcount=2223
è un fake...
sono solo supposizoni dell'autore del post, come lui stesso scrive
è un fake...
sono solo supposizoni dell'autore del post, come lui stesso scrive
già.. che peccato..:(
Simedan1985
12-09-2009, 18:16
Primi bench 5850 e 5870.
La 5850 sta tra i 2 ed 20 FPS sopra ad una GTX285
La 5870 sta tra i 10 ed 30 FPS sopra ad una GTX285
Qui il link: http://forum.beyond3d.com/showpost.php?p=1329964&postcount=2223
Scusate ma i vantaggi nn mi sembrano kissa di quanto o sbaglio:stordita:
edit : menu male che è un fake
michelgaetano
12-09-2009, 18:16
Scusate ma i vantaggi nn mi sembrano kissa di quanto o sbaglio:stordita:
È un fake ed è anche specificato, inutile commentare quei dati.
è un fake...
sono solo supposizoni dell'autore del post, come lui stesso scrive
Opps... si è vero mi ero fatto prendere dall'entusiasmo e non avevo nemmeno letto ma solo visto il grafico del bench. Sembra che ancora non ci sia modo di vedere queste schede video testate da qualcuno. Va beh chi vivrà vedrà!
michelgaetano
12-09-2009, 18:25
Opps... si è vero mi ero fatto prendere dall'entusiasmo e non avevo nemmeno letto ma solo visto il grafico del bench. Sembra che ancora non ci sia modo di vedere queste schede video testate da qualcuno. Va beh chi vivrà vedrà!
10 giorni alla fin fine, senza contare i leak :D
ghiltanas
12-09-2009, 18:35
http://www.pctunerup.com/up/results/_200909/th_20090912193432_dx11.jpg (http://www.pctunerup.com/up/image.php?src=_200909/20090912193432_dx11.jpg)
dai che presto usiamo le lib grafiche indicate in questo screen :cool:
ghiltanas
12-09-2009, 18:45
per le mie esigenze credo che già la 5850 andrà bene, ovvio che la 70 mi piacerebbe di +, però penso che per giocare a 1920*1080 senza svenarsi, vado benissimo la sorellina minore
michelgaetano
12-09-2009, 18:45
http://www.pctunerup.com/up/results/_200909/th_20090912193432_dx11.jpg (http://www.pctunerup.com/up/image.php?src=_200909/20090912193432_dx11.jpg)
dai che presto usiamo le lib grafiche indicate in questo screen :cool:
Speriamo ci siano titoli che permettano di sfruttarle e che le nuove schede vadano forte :D
OT: bello sfondo! Dove lo hai preso? :D
ghiltanas
12-09-2009, 18:46
nn me lo ricordo :p ...se lo trovo te lo dico in pvt
Sì infatti, è soprattutto per l'ultimo aspetto che sono rimasto basito...
Ma alla fine non è neanche così tanto "incredibile": la hd4850 avrà pure molti stream processors in più rispetto ad una 8800GT (800 contro 112), ma nel 2006 la situazione è stata analoga: la 7900GT con 24 pixel shaders contro i 48 della x1900xt, anche se nel primo caso mi pare assurdo quel numero di SP: con quelli avrebbe dovuto far girare Crysis in qualsiasi modalità senza far fatica lol, è ovvio che l'architettura non è sfruttata fino a fondo.... quella delle 8800, sarà vecchia quanto volete, ma è utilizzata a pieno.
..non proprio..
In realtà Amd e Nvidia quando parlano di SP non si riferiscono alla stessa cosa.
Per fare un confronto più equo dovremmo confrontare gli SP di Nvidia con gli Shader cores, non con gli spu. Gli SP di Nvidia, infatti, sono capaci di eseguire fino a tre operazioni per ciclo di clock, così come gli Shader cores sono capaci di eseguire 5 operazioni per ciclo di clock (attraverso istruzioni vliw).
Il contare ogni alu come Sp è solo una mossa di marketing di AMD, ma in realtà il confronto è tra 160 shader cores capaci di eseguire sino a 5 operazioni e 240 stream processors capaci di eseguire sino a 3 istruzioni. Compensa il tutto una superiore frequenza degli Sp di nvidia e una distanza maggiore dal picco teorico degli shader cores di Amd. Così si spiegano le prestazioni tutto sommato simili.
Iscritto!my first forum!
salve a tutti.:)
Andrea deluxe
12-09-2009, 19:09
Iscritto!my first forum!
salve a tutti.:)
benvenuto!
sasasi91
12-09-2009, 19:09
guardate qua un video con la nuova tecnologia eyefinity
http://altadefinizione.hdblog.it/2009/09/12/video-nuova-ati-radeon-eyefinity-in-azione/
Com'è stato per lo sblocco del quarto core sui Phenom 2 x3, spero che qualcuno trovi anche il modo di portare la 5850 dai 1440 SP ai 1600SP (:Perfido:) della sorellona visto che sicuramente sono lo stesso chip solo in versione castrata... :rolleyes:
!
:eek: :sperem:
Fantomatico
12-09-2009, 19:33
nn me lo ricordo :p ...se lo trovo te lo dico in pvt
Lol manda anche a me un messaggio privato, volevo farti la stessa domanda. xD
Per chi si chiedeva come andrà la HD5870 con Crysis, una presentazione di Eyefinity col CryEngine3... Per farlo andare a quella risoluzione o avevano 4 schede o hanno ottimizzato parecchio il motore grafico.... :)
http://pc.watch.impress.co.jp/video/pcw/docs/315/056/html/11.flv.html
Per chi si chiedeva come andrà la HD5870 con Crysis, una presentazione di Eyefinity col CryEngine3... Per farlo andare a quella risoluzione o avevano 4 schede o hanno ottimizzato parecchio il motore grafico.... :)
http://pc.watch.impress.co.jp/video/pcw/docs/315/056/html/11.flv.html
Eyefinity non è compatibile con il CF. Per ora. Quindi era una scheda sola ;)
Infatti, ciò mi spaventa e mi fa sorgere spontanee due considerazioni:
- CryEngine 3 è stato pesantemente ottimizzato, per mantenere una resa pari o superiore con risorse hardware minori;
- RV870 è un mostro di potenza che spinge veramente tanto.
oppure
è una via di mezzo tra le due. :D
Kharonte85
12-09-2009, 19:46
A parte che non é vero, mediamente la 4870 era legermente superiore alla GTX260, cosa che ha costretto Nvidia al lancio della GTX 260 -216, ma stai confrontando GPU con dimensioni del die enormemente differenti: voglio dire, la 4870 misura circa 260 mm^2, la 4890 poco meno di 290 mm^2, mentre le GTX260-285 hanno una dimensione del chip di oltre 400mm^2. Quindi la tecnologia di ATI gli consente di competere con nvidia un chip di dimensioni inferiori e meno costoso. Se ATI avesse voluto fare un chippone da 1200+SP, di dimensioni paragonabili a quelle di nvidia, avrebbe potuto tranquillamente battere la concorrenza su tutti i fronti. Non lo ha fatto perché ha preferito concentrare le sue risorse sulla fascia piú remunerativa del mercato.
In verità c'è anche il dato del consumo...non so come abbiano fatto adesso a raddoppiare gli SP (anche considerando il pp40nm) e mantenere un consumo simile alla hd4890 ma con la tecnologia precedente non potevano spingersi oltre senza raggiungere l'olimpo dei consumi (cosa avvenuta con la X2 che è aberrante da questo punto di vista) e avere problemi nella dissipazione...
Fantomatico
12-09-2009, 19:46
Infatti, ciò mi spaventa e mi fa sorgere spontanee due considerazioni:
- CryEngine 3 è stato pesantemente ottimizzato, per mantenere una resa pari o superiore con risorse hardware minori;
- RV870 è un mostro di potenza che spinge veramente tanto.
oppure
è una via di mezzo tra le due. :D
Sono quasi convinto sia la seconda...gg, che poi il cryengine 3 è inferiore al 2,al massimo uguale, non oltre...considerando che è diventato multipiattaforma.
Cmq leggevo poco fa quel che state già discutendo da un po':
http://www.tomshw.it/news.php?newsid=19344
Ma c'è veramente qualcuno che farà così? Oddio
:asd: Io la trovo una pazzia...molto meglio un 24'' a 1920 x 1200.
Sono quasi convinto sia la seconda...gg, che poi il cryengine 3 è inferiore al 2,al massimo uguale, non oltre...considerando che è diventato multipiattaforma.
Cmq leggevo poco fa quel che state già discutendo da un po':
http://www.tomshw.it/news.php?newsid=19344
Ma c'è veramente qualcuno che farà così? Oddio
:asd: Io la trovo una pazzia...molto meglio un 24'' a 1920 x 1200.
Per me avendo soldi a sufficienza e facendo monitor adatti, senza cornici.. è una grande trovata! poi i monitor andrebbero "girati" attorno a chi guarda così sarebbe più immersivo :sofico:
Infatti, ciò mi spaventa e mi fa sorgere spontanee due considerazioni:
- CryEngine 3 è stato pesantemente ottimizzato, per mantenere una resa pari o superiore con risorse hardware minori;
- RV870 è un mostro di potenza che spinge veramente tanto.
oppure
è una via di mezzo tra le due. :D
Credo entrambe le cose :D
Il CE3 sicuramente è stato ottimizzato di brutto per farlo girare anche su console, però la 5870 deve essere veramente una bestia :D
Megakirops
12-09-2009, 19:48
se si potessero sbloccare gli sp dormienti sule hd5850 sarebbe davvero un sogno........mi sembra di tornare ai tempi della serie 9000 o delle x800gt portate a x850xt PE (io l'ho fatto :D) o delle x19xx portate a firegl
se si potessero sbloccare gli sp dormienti sule hd5850 sarebbe davvero un sogno........mi sembra di tornare ai tempi della serie 9000 o delle x800gt portate a x850xt PE (io l'ho fatto :D) o delle x19xx portate a firegl
Si sarebbe trppo figo :D
Eyefinity non è compatibile con il CF. Per ora. Quindi era una scheda sola ;)
Quello lo sapevo, ma avevo capito che per ovviare praticamente fanno renderizzare solo una parte degli schermi ad ogni scheda, avendo letto che il demo con l'aeroplano girava su un pc con 4 RV870 (ed un PSU da 1200W... :asd: ). :fagiano:
Tra l'altro, piccola parentesi, ma la fonte di chi ha detto 2.7 TFlops?
Perchè finora io ho capito che AMD ha detto che la HD5870 in termini di potenza di calcolo è 2.5 volte più performante della HD4870, il che vorrebbe dire attorno a 3 TFlops? :stordita:
Qui per esempio parlano di 2.5 TFlops, che indicherebbe che la HD5870 ha clocks simili a quelli di una HD4870, ma non quadra quel 2.5, visto che la HD4870 fa 1.2 TFlops.
http://translate.google.it/translate?u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2Fnews%2F20090911_315056.html&sl=ja&tl=en&hl=it&ie=UTF-8
Kharonte85
12-09-2009, 19:50
Vero. Come è vero che 1200SP non avrebbero consumato come 2x800 ;)
infatti 1200 era il numero che prevedevo per questa nuova scheda...mi sbagliavo e di tanto :fagiano: non so come abbiano fatto :stordita:
Per chi si chiedeva come andrà la HD5870 con Crysis, una presentazione di Eyefinity col CryEngine3... Per farlo andare a quella risoluzione o avevano 4 schede o hanno ottimizzato parecchio il motore grafico.... :)
http://pc.watch.impress.co.jp/video/pcw/docs/315/056/html/11.flv.html
ma...veramente scatta...:sofico:
Foglia Morta
12-09-2009, 19:52
Quello lo sapevo, ma avevo capito che per ovviare praticamente fanno renderizzare solo una parte degli schermi ad ogni scheda, avendo letto che il demo con l'aeroplano girava su un pc con 4 RV870 (ed un PSU da 1200W... :asd: ). :fagiano:
Tra l'altro, piccola parentesi, ma la fonte di chi ha detto 2.7 TFlops?
Perchè finora io ho capito che AMD ha detto che la HD5870 in termini di potenza di calcolo è 2.5 volte più performante della HD4870, il che vorrebbe dire attorno a 3 TFlops? :stordita:
Qui per esempio parlano di 2.5 TFlops, che indicherebbe che la HD5870 ha clocks simili a quelli di una HD4870, ma non quadra quel 2.5, visto che la HD4870 fa 1.2 TFlops.
http://translate.google.it/translate?u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2Fnews%2F20090911_315056.html&sl=ja&tl=en&hl=it&ie=UTF-8
ho postato tempo fa una slide della presentazione...
850 mhz per la gpu , 1200 ( x 4 ) le gddr5 , 1600 sp. questa: http://www.hwupgrade.it/forum/showpost.php?p=28842847&postcount=9114
che poi sono le specifiche che nApoleon ha già detto da quasi un mese
Kharonte85
12-09-2009, 19:57
Io li prevedevo per RV790, per questa ne prevedevo 2000. Sei in buona compagnia :asd:
Almeno mi consolo che non ci hai preso nemmeno tu :Prrr:
:D
Mi hanno ingannato appunto perchè sono rimasti conservativi con RV790 quindi pensavo che...invece....:eek:
mackillers
12-09-2009, 19:58
Credo entrambe le cose :D
Il CE3 sicuramente è stato ottimizzato di brutto per farlo girare anche su console, però la 5870 deve essere veramente una bestia :D
Non saprei alla fine non è un motore multipiattaforma come gli altri... in realtà è nato ed è stato evoluto su pc (Crysis e successivamente WarHead),
adesso ne realizzano un evoluzione per un pò tutti ma la base è un motore PC, anzi il motore grafico PC per eccellenza imho la versione di Cryengine 3 x pc sarà molto simile al attuale ma migliorata ed ottimizzata qua e la e con un framework di programmazione migliorato.
alla fin fine è più economico anche per loro il lavoro vero e proprio lo avranno fatto su console, staremo a vedere su console come gira:)
Sono quasi convinto sia la seconda...gg, che poi il cryengine 3 è inferiore al 2,al massimo uguale, non oltre...considerando che è diventato multipiattaforma.
Cmq leggevo poco fa quel che state già discutendo da un po':
http://www.tomshw.it/news.php?newsid=19344
Ma c'è veramente qualcuno che farà così? Oddio
:asd: Io la trovo una pazzia...molto meglio un 24'' a 1920 x 1200.
sinceramente fino a che si sono quelle cornici lo trovo una schifezza.
infatti 1200 era il numero che prevedevo per questa nuova scheda...mi sbagliavo e di tanto :fagiano: non so come abbiano fatto :stordita:
Il raddoppio di SP viene praticamente assorbito dal cambio di processo produttivo, penso che l'incremento di die size sia attribuibile più al raddoppio delle TMU...
ma...veramente scatta...:sofico:
Ehehe, se consideri che comunque ognuno di quegli schermi mostra probabilmente 2560x1600 punti, considerando anche l'ipotesi che ci sia una scheda per schermo, il risultato non mi pare malaccio... :sofico:
ho postato tempo fa una slide della presentazione...
850 mhz per la gpu , 1200 ( x 4 ) le gddr5 , 1600 sp. questa: http://www.hwupgrade.it/forum/showpost.php?p=28842847&postcount=9114
che poi sono le specifiche che nApoleon ha già detto da quasi un mese
Grazie, non l'avevo vista. :)
Tutto quadra dunque. Se i clock a stock sono quelli, le memorie come pensavo saranno sicuramente quelle da 0.4 ns, quindi overclockabili senza problemi almeno fino a 5.0GHz, visto che rimani in specifica...
un'ultriore e interessante riepilogo...
http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/september/alle_details_atis_radeon_5000er_serie/
c'è anche un'accenno alle probabili prestazioni...
"Nach AMD-Angaben soll zumindest die HD 5870 etwa 50 Prozent schneller als die GTX 285 sein."
Ottimo. Visto come conducono i test nella redazione di computerbase il tutto si tradurrebbe in una media dell'8% sopra la GTX295 e di un 18% sopra la 4870x2 (questa medie è fatta considerando sia i test con e senza filtri). Se ci aggiungiamo i driver immaturi e tutti i nn problemi di un chip singolo potremmo (anzi imo si arriverà) arrivare ad un +25% senza filtri dalla 4870x2 e ad un +12/13% sopra la GTX295 sempre senza filtri. Invece con i filtri considerando che hanno raddoppiato le rops e che forse sono state migliorate c'è da aspettarsi che l'intera attuale generazione sia sotterrata.
Io mi aspettavo (e mi aspetto) un sostanziale pareggio tra la 295 e la 5870, ma avendo molta fiducia in computerbase mi fa ben sperare; in ogni caso AMD ha realmente estratto il coniglio dal cappello!
(nn oso immaginare la 6870 :asd:)
Io li prevedevo per RV790, per questa ne prevedevo 2000. Sei in buona compagnia :asd:
Stai già preparando i multi-quote per tutti quelli che si erano sbilanciati? :D
Stai già preparando i multi-quote per tutti quelli che si erano sbilanciati? :D
:asd:
NvidiaMen
12-09-2009, 20:06
Infatti, ciò mi spaventa e mi fa sorgere spontanee due considerazioni:
- CryEngine 3 è stato pesantemente ottimizzato, per mantenere una resa pari o superiore con risorse hardware minori;
- RV870 è un mostro di potenza che spinge veramente tanto.
oppure
è una via di mezzo tra le due. :D
Oppure, ipotesi più probabile, hanno applicato una patch che attiva il tassellatore interno. Si spiega così come un "semplice" Phenom 965 x4 possa garantire un flusso di dati geometrici talmente dettagliato (e che sin dal primo Crysis è sempre stato molto elevato senza ovviamente tassellator) da indirizzare alla GPU per il successivo processo di rasterizzazione e che poteva generare il problema dello small batch Problem tipico dell'overhead del processore (http://www.news3d.eu/index.php?PHPSESSID=s6e1p0r975jh3b3fjvcdpn9u97&action=3dnews;art=1012;pg=2) superiore al normale e che neanche l'ottimizzazione di DirectX 10 è in grado di gestire. Se si pensa al fatto che un porting da DirectX10 a DirectX11 costa in media solo "tre ore" di lavoro (http://www.pctuner.net/news/11163/Le-DirectX-11-faciliteranno-il-lavoro-degli-sviluppatori/), penso che abbiano speso questo tempo prima di salire sulla portaerei e far vedere al pubblico di tutto il mondo gli oramai famosi demo ad altissima risoluzione spannati su più monitor...
Kharonte85
12-09-2009, 20:10
sinceramente fino a che si sono quelle cornici lo trovo una schifezza.
:mano:
Il raddoppio di SP viene praticamente assorbito dal cambio di processo produttivo, penso che l'incremento di die size sia attribuibile più al raddoppio delle TMU...
Tu dici che è solo quello? Ma anche le frequenze sono rimaste alte (=hd4890), quelle della memoria addirittura aumentate...:what:
Naaa hanno per forza usato qualche altro barbatrucco...:sofico:
Kharonte85
12-09-2009, 20:11
Edit: doppio...
michelgaetano
12-09-2009, 20:17
Oppure, ipotesi più probabile, hanno applicato una patch che attiva il tassellatore interno. Si spiega così come un "semplice" Phenom 965 x4 possa garantire un flusso di dati geometrici talmente dettagliato (e che sin dal primo Crysis è sempre stato molto elevato senza ovviamente tassellator) da indirizzare alla GPU per il successivo processo di rasterizzazione e che poteva generare il problema dello small batch Problem tipico dell'overhead del processore (http://www.news3d.eu/index.php?PHPSESSID=s6e1p0r975jh3b3fjvcdpn9u97&action=3dnews;art=1012;pg=2) superiore al normale e che neanche l'ottimizzazione di DirectX 10 è in grado di gestire. Se si pensa al fatto che un porting da DirectX10 a DirectX11 costa in media solo "tre ore" di lavoro (http://www.pctuner.net/news/11163/Le-DirectX-11-faciliteranno-il-lavoro-degli-sviluppatori/), penso che abbiano speso questo tempo prima di salire sulla portaerei e far vedere al pubblico di tutto il mondo gli oramai famosi demo ad altissima risoluzione spannati su più monitor...
Mah, ma quanto incide davvero il processore a quella risoluzione bestiale?
mackillers
12-09-2009, 20:19
bhè non sono esperto, ed il tuo intervento mi ha incuriosito, e la cpu in questo processo della generazione delle geometrie base incide molto? usando il tessellation che ben ricordo è una features studiata da molto in casa ATI ed inclusa nel set DirectX11 si possono usare stutture più semplici e alleggerire il carico alla CPU? se ho ben capito buono a sapersi..
magari, lo dico in tono speranzoso, hanno ottimizzato il codice perché sfrutti meglio un numero maggiore di core in un utilizzo con più monitor..
questo sarebbe un bel vantaggio sopratutto con gli I7 e L' HT .
saluti
P.S. il CryEngine 3 Avrà il supporto a qualche funzione delel DirectX11 o sfrutterà davvero i nuovi Shader model 5.0 e il tesselation?
Oppure, ipotesi più probabile, hanno applicato una patch che attiva il tassellatore interno. Si spiega così come un "semplice" Phenom 965 x4 possa garantire un flusso di dati geometrici talmente dettagliato (e che sin dal primo Crysis è sempre stato molto elevato senza ovviamente tassellator) da indirizzare alla GPU per il successivo processo di rasterizzazione e che poteva generare il problema dello small batch Problem tipico dell'overhead del processore (http://www.news3d.eu/index.php?PHPSESSID=s6e1p0r975jh3b3fjvcdpn9u97&action=3dnews;art=1012;pg=2) superiore al normale e che neanche l'ottimizzazione di DirectX 10 è in grado di gestire. Se si pensa al fatto che un porting da DirectX10 a DirectX11 costa in media solo "tre ore" di lavoro (http://www.pctuner.net/news/11163/Le-DirectX-11-faciliteranno-il-lavoro-degli-sviluppatori/), penso che abbiano speso questo tempo prima di salire sulla portaerei e far vedere al pubblico di tutto il mondo gli oramai famosi demo ad altissima risoluzione spannati su più monitor...
:mano:
Tu dici che è solo quello? Ma anche le frequenze sono rimaste alte (=hd4890), quelle della memoria addirittura aumentate...:what:
Naaa hanno per forza usato qualche altro barbatrucco...:sofico:
In effetti il die size andrebbe confrontato con quello di RV790, perchè penso proprio che quello step intermedio venne fatto anche in ottica futura, oltre che per contrastare NVidia...
I clocks della memoria non li decide ATI, alla fine sono frutto della naturale evoluzione delle GDDR5...
Penso invece che i cambiamenti tra RV790 e RV870 siano stati relativamente limitati, considerando il cambio di DX sottostante, anche se estesi a varie parti del chip.
Sicuramente per via del passaggio alle DX gli SP hanno subito delle modifiche, le TMU non saprei, ma penso non tantissimo, le ROPs forse sì, il tessellator è stato modificato sicuro, lo scheduler pure, il bus secondo me anche. :)
Però credo che NVidia debba fare molti ma molti più cambiamenti alla sua architettura per uscire dall'impasse...
mackillers
12-09-2009, 20:25
Mah, ma quanto incide davvero il processore a quella risoluzione bestiale?
Bhè non sò dipenderà anche da come lavora il multimonitor ATi in questo caso, visto che i driver dovranno lavorare un pò per dividere e dosare le risorse..
infatti il Cross fire ancora non è supportato, mah direi che sarà il caso di valutare la cosa a situazione ben delineata e stabilizzata (leggasi 1 o 2 set di driver dopo l' uscita di 5870X2)
L'ho fatto pochi giorni fa, se vai indietro di un migliaio di pagine lo trovi senz'altro :D
Forse lo avevo visto, ma io intendo quello finale per il 23 :D
mackillers
12-09-2009, 20:29
In effetti il die size andrebbe confrontato con quello di RV790, perchè penso proprio che quello step intermedio venne fatto anche in ottica futura, oltre che per contrastare NVidia...
I clocks della memoria non li decide ATI, alla fine sono frutto della naturale evoluzione delle GDDR5...
Penso invece che i cambiamenti tra RV790 e RV870 siano stati relativamente limitati, considerando il cambio di DX sottostante, anche se estesi a varie parti del chip.
Sicuramente per via del passaggio alle DX gli SP hanno subito delle modifiche, le TMU non saprei, ma penso non tantissimo, le ROPs forse sì, il tessellator è stato modificato sicuro, lo scheduler pure, il bus secondo me anche. :)
Però credo che NVidia debba fare molti ma molti più cambiamenti alla sua architettura per uscire dall'impasse...
bhè detta così non sembra abbiano cambiato così poco:)
se ci metti che hanno raddoppiato quasi tutte le specifiche!
la butto li, fondamentalmente le 58xx assomiglieranno molto alle 48xx,
ma frà nuove DX e tutto il resto la 4890 sara diversa nel più e nel meno di quanto lo sarà la 4870.
Oppure, ipotesi più probabile, hanno applicato una patch che attiva il tassellatore interno. Si spiega così come un "semplice" Phenom 965 x4 possa garantire un flusso di dati geometrici talmente dettagliato (e che sin dal primo Crysis è sempre stato molto elevato senza ovviamente tassellator) da indirizzare alla GPU per il successivo processo di rasterizzazione e che poteva generare il problema dello small batch Problem tipico dell'overhead del processore (http://www.news3d.eu/index.php?PHPSESSID=s6e1p0r975jh3b3fjvcdpn9u97&action=3dnews;art=1012;pg=2) superiore al normale e che neanche l'ottimizzazione di DirectX 10 è in grado di gestire. Se si pensa al fatto che un porting da DirectX10 a DirectX11 costa in media solo "tre ore" di lavoro (http://www.pctuner.net/news/11163/Le-DirectX-11-faciliteranno-il-lavoro-degli-sviluppatori/), penso che abbiano speso questo tempo prima di salire sulla portaerei e far vedere al pubblico di tutto il mondo gli oramai famosi demo ad altissima risoluzione spannati su più monitor...
Ciao, in pratica stai dicendo, in parole povere, che con le dx11 e con le api che fanno il multithreading, ovvero non è più lo scheduler di vista che fa girare il carico tra i vari core, si riuscirebbe a sgravare di molto la cpu nel processo di generare le primitive 3d perchè:
1) il rendering è sincronizzato su più di un core?
2) la cpu invia meno comandi alla gpu perchè c'è meno overhead nel calcolo ed invio delle primitive 3d e\o grazie al tessellator è sempre la gpu che fa la modellizzazione degli oggetti e gli effetti di post processing?
3)tutte e due le cose messe in sieme?
Grazie per eventuali risposte.
NvidiaMen
12-09-2009, 20:39
Mah, ma quanto incide davvero il processore a quella risoluzione bestiale?
La gestione di un gioco come Crysis non è un problema di risoluzione (che riguarda ovviamente ed esclusivamente la GPU), ma di dettaglio poligonale che mette in crisi anche gli odierni e più potenti processori.
michelgaetano
12-09-2009, 20:40
La gestione di un gioco come Crysis non è un problema di risoluzione (che riguarda ovviamente ed esclusivamente la GPU), ma di dettaglio poligonale che mette in crisi anche gli odierni e più potenti processori.
Io in crisi (:D) vedo solo le vga francamente a risoluzione alta :)
La gestione di un gioco come Crysis non è un problema di risoluzione (che riguarda ovviamente ed esclusivamente la GPU), ma di dettaglio poligonale che mette in crisi anche gli odierni e più potenti processori.
Mah guarda ne dubito.. sono convinto che con un e2140 ma una 5870 crysis ti va liscio anche a 1920..:)
NvidiaMen
12-09-2009, 20:54
bhè non sono esperto, ed il tuo intervento mi ha incuriosito, e la cpu in questo processo della generazione delle geometrie base incide molto? usando il tessellation che ben ricordo è una features studiata da molto in casa ATI ed inclusa nel set DirectX11 si possono usare stutture più semplici e alleggerire il carico alla CPU? se ho ben capito buono a sapersi..
magari, lo dico in tono speranzoso, hanno ottimizzato il codice perché sfrutti meglio un numero maggiore di core in un utilizzo con più monitor..
questo sarebbe un bel vantaggio sopratutto con gli I7 e L' HT .
saluti
P.S. il CryEngine 3 Avrà il supporto a qualche funzione delel DirectX11 o sfrutterà davvero i nuovi Shader model 5.0 e il tesselation?
Riguardo la tassellation riporto un "passo" di un interessante articolo sulle Directx11 apparso su Tomshardware america in riferimento all'introduzione del Tassellatore:
The potential is enormous. Thanks to tessellation, it becomes possible to do without the normal map and implement a level of detail directly on the GPU, allowing the use of very detailed models (several million polygons instead of 10,000 or so with current games)—at least in theory. In practice, tessellation raises some problems that have kept the technique from taking off so far. Can Direct3D 11 and compatible cards avoid these pitfalls and come up with a functional version? It’s too early to say, but in any event not everybody is convinced, and id Software is working on solving the same geometry problem with a completely different approach based on ray casting with voxels... (http://www.tomshardware.com/reviews/opengl-directx,2019-7.html)
Sulle ottimizzazioni di codice del CryEngine 3 azzardare qualcosa in questa fase sarebbe pura speculazione, tuttavia che ATI/AMD possa aver sviluppato un'apposita patch per la gestione dei personagii attraverso il tassellatore interno alle proprie GPU per le presentazioni alla stampa non è un'ipotesi poi così tanto remota. D'altronde le prime due versioni del tassellatore (la 1.0 su R600 e la 1.1 su RV670) son rimaste inutilizzate oltre al fatto che non rispettavano le richieste minime delle specifiche introdotte con le API DirectX11. Oggi la tecnologia del tassellatore (per ATi nella sua versione 2.0) è oramai matura per essere utilizzata e non farlo in un evento così importante e con, finalmente, il supporto del software sarebbe stata una vera e propria assurdità. Ruby e quel mostro ad elevato dettaglio poligonale mostrato nelle slide della presentazione era un esempio didattico sui vantaggi del tassellatore, mentre (e sottolineo: il secondo me) il Demo del nuovo Crysis, opportunamente patchato, era invece un esempio pratico sulle potenzialità di questo nuova tecnologia di processamento geometrico affiancando ad RV870 un "semplice" Phenom 965 x4.
NvidiaMen
12-09-2009, 21:09
Ciao, in pratica stai dicendo, in parole povere, che con le dx11 e con le api che fanno il multithreading, ovvero non è più lo scheduler di vista che fa girare il carico tra i vari core, si riuscirebbe a sgravare di molto la cpu nel processo di generare le primitive 3d perchè:
1) il rendering è sincronizzato su più di un core?
2) la cpu invia meno comandi alla gpu perchè c'è meno overhead nel calcolo ed invio delle primitive 3d e\o grazie al tessellator è sempre la gpu che fa la modellizzazione degli oggetti e gli effetti di post processing?
3)tutte e due le cose messe in sieme?
Grazie per eventuali risposte.
Lo scheduler rimarrà sempre a carico del S.O. (win7 o Vista). Tuttavia secondo le specifiche diffuse da Microsoft riguardo le DirectX 11, la risposta alla tua domanda è la n.3.
1) In DirectX 10 il multicores veniva gestito suddividendolo in thread specifici ad uso esclusivo: ad esempio un core per il rendering, uno per il suono, uno per la fisica, uno per l'IA, uno per le decompressioni delle risorse, e così via (naturalmente per più operazioni rispetto ai cores effettivi si creava una coda che, in base alle risorse, veniva processata dai cores meno sollecitati come ad esempio quelli che gestiscono l'audio)...
Con DirectX11 invece è ammesso che per la fase di rendering possa essere utilizzato più di un thread. Ecco perchè processori multicores o con funzionalità di Hyperthreading gioverebbero maggiormente di una programmazione basata sul rendering multi-threading. Maggiori approfondimenti sempre qui (http://www.tomshardware.com/reviews/opengl-directx,2019-6.html).
2) con il tassellatore si processano patches geometriche (chi usa 3ds max sà a cosa mi riferisco) gestite in hardware dalla GPU e non più triangoli ecco perche scene ad alta complessità geometrica potranno essere gestite anche da processori non necessariamente potenti (geometricamente parlando) anche se per le prestazioni di un certo tipo, come già anticipato al punto 1, le piattaforme multicores saranno quelle che renderanno i migliori risultati.
Wing_Zero
12-09-2009, 21:13
Riguardo la tassellation riporto un "passo" di un interessante articolo sulle Directx11 apparso su Tomshardware america in riferimento all'introduzione del Tassellatore:
The potential is enormous. Thanks to tessellation, it becomes possible to do without the normal map and implement a level of detail directly on the GPU, allowing the use of very detailed models (several million polygons instead of 10,000 or so with current games)—at least in theory. In practice, tessellation raises some problems that have kept the technique from taking off so far. Can Direct3D 11 and compatible cards avoid these pitfalls and come up with a functional version? It’s too early to say, but in any event not everybody is convinced, and id Software is working on solving the same geometry problem with a completely different approach based on ray casting with voxels... (http://www.tomshardware.com/reviews/opengl-directx,2019-7.html)
Sulle ottimizzazioni di codice del CryEngine 3 azzardare qualcosa in questa fase sarebbe pura speculazione, tuttavia che ATI/AMD possa aver sviluppato un'apposita patch per la gestione dei personagii attraverso il tassellatore interno alle proprie GPU per le presentazioni alla stampa non è un'ipotesi poi così tanto remota. D'altronde le prime due versioni del tassellatore (la 1.0 su R600 e la 1.1 su RV670) son rimaste inutilizzate oltre al fatto che non rispettavano le richieste minime delle specifiche introdotte con le API DirectX11. Oggi la tecnologia del tassellatore (per ATi nella sua versione 2.0) è oramai matura per essere utilizzata e non farlo in un evento così importante e con, finalmente, il supporto del software sarebbe stata una vera e propria assurdità. Ruby e quel mostro ad elevato dettaglio poligonale mostrato nelle slide della presentazione era un esempio didattico sui vantaggi del tassellatore, mentre (e sottolineo: il secondo me) il Demo del nuovo Crysis, opportunamente patchato, era invece un esempio pratico sulle potenzialità di questo nuova tecnologia di processamento geometrico affiancando ad RV870 un "semplice" Phenom 965 x4.
Lo sai si che a crysis 1920x1200 con una gtx 295 ci sono 0 (e dico zero) frame di differenza tra un core i7 975 extreme, ed un pheonom II x4 a 3,4 ghz?
Quindi, per quale strano motivo dovresti dire che che ad rv 870 no puo' essere affiancato un "semplice" phenom 965 se non patchando il videogioco in questione?
(ricordiamo che rv870 avra prestazioni poco superiori si pensa della 295..)
NvidiaMen
12-09-2009, 21:22
Io in crisi (:D) vedo solo le vga francamente a risoluzione alta :)
In Crysis in modalità high quality con specifiche hardware di un certo tipo non aumenta solo il dettaglio di textures ed effetti post-rasterizzazione che mette in crisi le GPU, ma anche il DETTAGLIO POLIGONALE a carico della CPU ed è questo che ne limita la piena usufruibilità a frames soddisfacenti. A dirlo non sono certo io, ma il boss di Crytek, Cevat Yerli sin dalla prima presentazione del gioco alla stampa (http://www.tomshw.it/news.php?newsid=11618).
michelgaetano
12-09-2009, 21:24
In Crysis in modalità high quality con specifiche hardware di un certo tipo non aumenta solo il dettaglio di textures ed effetti post-rasterizzazione che mette in crisi le GPU, ma anche il DETTAGLIO POLIGONALE a carico della CPU ed è questo che ne limita la piena usufruibilità a frames soddisfacenti. A dirlo non sono certo io, ma il boss di Crytek, Cevat Yerli sin dalla prima presentazione del gioco alla stampa (http://www.tomshw.it/news.php?newsid=11618).
Finchè il quadro è questo (e a 1920 è ancora meno influente la cpu)
http://www.hwupgrade.it/articoli/cpu/2274/crysis.png
Quel che ci servono sono nuove gpu, non processori.
NvidiaMen
12-09-2009, 21:27
Lo sai si che a crysis 1920x1200 con una gtx 295 ci sono 0 (e dico zero) frame di differenza tra un core i7 975 extreme, ed un pheonom II x4 a 3,4 ghz?
Quindi, per quale strano motivo dovresti dire che che ad rv 870 no puo' essere affiancato un "semplice" phenom 965 se non patchando il videogioco in questione?
(ricordiamo che rv870 avra prestazioni poco superiori si pensa della 295..)
Proprio perchè il gioco supporta solo due thread, come ho linkato qualche post fà, ed il fatto di avere un Phenom X4 rispetto ad un I7 (con potenziali 8 threads) si annulla, o meglio, si limita alla differente efficienza in virgola mobile tra le due architetture (Intel e AMD). I maggiori frames si hanno solo ed esclusivamente all'aumentare della frequenza dei cores, così come confermato poco fà anche da un utente. Tant'è che tra un I7 a 3,2ghz ed un I7 a 4Ghz c'è un'apprezzabile differenza a livello di "frames per second" alla risoluzione "very high" con dettaglio poligonale elevato.
mackillers
12-09-2009, 21:29
Lo scheduler rimarrà sempre a carico del S.O. (win7 o Vista). Tuttavia secondo le specifiche diffuse da Microsoft riguardo le DirectX 11, la risposta alla tua domanda è la n.3.
1) In DirectX 10 il multicores veniva gestito suddividendolo in thread specifici ad uso esclusivo: ad esempio un core per il rendering, uno per il suono, uno per la fisica, uno per l'IA, uno per le decompressioni delle risorse, e così via (naturalmente per più operazioni rispetto ai cores effettivi si creava una coda che, in base alle risorse, veniva processata dai cores meno sollecitati come ad esempio quelli che gestiscono l'audio)...
Con DirectX11 invece è ammesso che per la fase di rendering possa essere utilizzato più di un thread. Ecco perchè processori multicores o con funzionalità di Hyperthreading gioverebbero maggiormente di una programmazione basata sul rendering multi-threading. Maggiori approfondimenti sempre qui (http://www.tomshardware.com/reviews/opengl-directx,2019-6.html).
2) con il tassellatore si processano patches geometriche (chi usa 3ds max sà a cosa mi riferisco) gestite in hardware dalla GPU e non più triangoli ecco perche scene ad alta complessità geometrica potranno essere gestite anche da processori non necessariamente potenti (geometricamente parlando) anche se per le prestazioni di un certo tipo, come già anticipato al punto 1, le piattaforme multicores saranno quelle che renderanno i migliori risultati.
Grazie mille delle delucidazioni:)
su una cosa di certo concordo con te, se la tecnologia del tessellation alla sua seconda versione sulle VGA ATi ed inclusa adesso nel set di liberie grafiche Directx11,
da parte di AMD sarebbe stupido non sfruttarla adesso in assenza di limiti tecnici.
Detto questo mi fà piacere sapere che come avevo un pò dedotto a logica e come hai provveduto a spiegarmi un pò meglio tu le directx 11 facciano qualche passo avanti verso l' ottimizzazione delle CPU multicore.
Una cosa non mi è chiara queste differenze fra DX10 e DX11 inerenti allo sfruttamento del multi-treading saranno semplici da sfruttare da parte dei programamtori? è questo il punot che ne decreterà il successo, è comunque positivo questo passo avanti evolutivo di queste librerie.
capitan_crasy
12-09-2009, 21:32
Finchè il quadro è questo (e a 1920 è ancora meno influente la cpu)
Quel che ci servono sono nuove gpu, non processori.
Ma il CryEngine 3 è uguale al 2 oppure parliamo di un motore diverso da quello che muove Crysis?
Mi sembra di capire che il terzo motore sia più ottimizzato per le console (santi numi:p ); indi per qui non è più un inutile motore con un bel vestito e il peso di un elefante con la colite spastica...
mackillers
12-09-2009, 21:34
In Crysis in modalità high quality con specifiche hardware di un certo tipo non aumenta solo il dettaglio di textures ed effetti post-rasterizzazione che mette in crisi le GPU, ma anche il DETTAGLIO POLIGONALE a carico della CPU ed è questo che ne limita la piena usufruibilità a frames soddisfacenti. A dirlo non sono certo io, ma il boss di Crytek, Cevat Yerli sin dalla prima presentazione del gioco alla stampa (http://www.tomshw.it/news.php?newsid=11618).
se ho ben capito il gioco rilleva il tuo Hardware ed a parita di impostazioni (es DX10 su VIsta e Very High) imposterà un diverso livello di complessità poligonale a secondo delle performance del del sistema che lo sta caricando? )leggasi performacne della CPU)
Guarda non dubito di quello che dici, ma penso che la realtà dei fatti ci dica che certe volte Crysis gira meglio o quasi su processori Dual Core rispetto ai Quad grazie alla maggior frequenza (differenze comunque trascurabili alle alte risoluzioni)
Staremo a vedere se CRyengine £ abbraccierà le novita di DX11 e sfrutterà meglio il multicore e se in definitiva sarà generalmente più ottimizzato del predecessore.
Allo stato attuale mi trovo d'accordo però a dire che CRysis gira benissimo su quasit uttte le CP_u (io l' ho finito su tutto very high su di un A64X2 3400mhx pensa tu!:)
NvidiaMen
12-09-2009, 21:38
Finchè il quadro è questo (e a 1920 è ancora meno influente la cpu)
http://www.hwupgrade.it/articoli/cpu/2274/crysis.png
Quel che ci servono sono nuove gpu, non processori.
Questo grafico è poco indicativo per due motivi:
1) perchè il livello di dettaglio poligonale è maggiore nella versione Very High di DirectX10, parole sempre di Cevat Yerli qui (http://www.tomshw.it/news.php?newsid=11618) che specifica la necessità di maggiori risorse hardware per la versione DX10;
2) perchè si riferiscono ad una GPU certamente non potentissima come lo può essere un SLI di GTX295 al quale facevo riferimento e alla quale si riferiva in questo post Andrea Deluxe (http://www.hwupgrade.it/forum/showpost.php?p=28848657&postcount=9372) che ha toccato con mano il problema.
mackillers
12-09-2009, 21:38
Proprio perchè il gioco supporta solo due thread, come ho linkato qualche post fà, ed il fatto di avere un Phenom X4 rispetto ad un I7 (con potenziali 8 threads) si annulla, o meglio, si limita alla differente efficienza in virgola mobile tra le due architetture (Intel e AMD). I maggiori frames si hanno solo ed esclusivamente all'aumentare della frequenza dei cores, così come confermato poco fà anche da un utente. Tant'è che tra un I7 a 3,2ghz ed un I7 a 4Ghz c'è un'apprezzabile differenza a livello di "frames per second" alla risoluzione "very high" con dettaglio poligonale elevato.
Questo è vero lo appena scritto, ma dai test in DX 9 risultano gli stessi risultati fra tutti gli i7, qualsiasi frequenza essi abbaino.. dubito che cloccando molto si guadagni più di 1-2 frames.. non farebbe certo molta differenza... a 1920 poi..
La situazione non credo sarebbe molto diversa in DX10 e very High.. oppure proprio l'impostazione very High di cui parlavi darebbe luogo ad un importante aumento della complessita poligonale dei modelli utilizzati tale da richiedere molta più potenza della CPU.. (e quindi visto l' attuali possibilita di questo engine, di un processore con una frequenza molto alta)
saluti a tutti
benvenuto!
Grazie!
Bazzico i forum,italiani e non, da buon tempo ma non avevo possibilità di interagire :mc:
Sono interessato all'uscita di questa scheda, non tanto per l'acquisto quanto piuttosto per un'analisi architetturale.
Ho sempre nutrito grande interesse riguardo le GPU e le loro applicazioni GPGPU, e nell'interesse collettivo potrei postare in seguito alcuni risultati ottenuti comparando le diverse architetture e loro rispettive rese.Appena scoprirò come fare....:muro:
Si accettano ragguagli!
:)
Wing_Zero
12-09-2009, 21:46
Proprio perchè il gioco supporta solo due thread, come ho linkato qualche post fà, ed il fatto di avere un Phenom X4 rispetto ad un I7 (con potenziali 8 threads) si annulla, o meglio, si limita alla differente efficienza in virgola mobile tra le due architetture (Intel e AMD). I maggiori frames si hanno solo ed esclusivamente all'aumentare della frequenza dei cores, così come confermato poco fà anche da un utente. Tant'è che tra un I7 a 3,2ghz ed un I7 a 4Ghz c'è un'apprezzabile differenza a livello di "frames per second" alla risoluzione "very high" con dettaglio poligonale elevato.
Ho capito cosa intendi...è un problema legato fondamentalmente alla "scarsa" ottimizzazione del gioco...ed essendo l'architettura intel molto migliore rispetto a quella di amd per i calcoli in virgola mobile (invece i phenom sono eccellenti nei calcolo di grandi quantità di interi, es: grandi database) forse con un ottimizzazione migliore si potrebbe notare piu' differenze tra gli i7 ed i phenom...
cmq, ho 2 appunti da farti:
1) Riportare le dichiarazioni di yierli quando è uscito crysisi...beh...è alquanto inutile...non c'erano gli i7 come non c'erano i phenom II...e forse nn c'erano nemmeno i penryn...quindi è normale che quei processori fossero piu' inadatti...
2)quando dici che tra un i7 a 3.2 ed uno a 4 ghz, a very high, c'è un apprezzabile differenza, è falsissimo...nn c'è un solo frame di differenza!:
http://www.legionhardware.com/document.php?id=807&p=5
michelgaetano
12-09-2009, 21:50
Questo grafico è poco indicativo per due motivi:
1) perchè il livello di dettaglio poligonale è maggiore nella versione Very High di DirectX10, parole sempre di Cevat Yerli qui (http://www.tomshw.it/news.php?newsid=11618) che specifica la necessità di maggiori risorse hardware per la versione DX10;
Hai qualche benchmark a riguardo?
Ho capito cosa intendi...è un problema legato fondamentalmente alla "scarsa" ottimizzazione del gioco...ed essendo l'architettura intel molto migliore rispetto a quella di amd per i calcoli in virgola mobile (invece i phenom sono eccellenti nei calcolo di grandi quantità di interi, es: grandi database) forse con un ottimizzazione migliore si potrebbe notare piu' differenze tra gli i7 ed i phenom...
cmq, ho 2 appunti da farti:
1) Riportare le dichiarazioni di yierli quando è uscito crysisi...beh...è alquanto inutile...non c'erano gli i7 come non c'erano i phenom II...e forse nn c'erano nemmeno i penryn...quindi è normale che quei processori fossero piu' inadatti...
2)quando dici che tra un i7 a 3.2 ed uno a 4 ghz, a very high, c'è un apprezzabile differenza, è falsissimo...nn c'è un solo frame di differenza!:
http://www.legionhardware.com/document.php?id=807&p=5
io penso che coi processori con giochi come crysis si va a cercare pochi frames in più.. mentre il cambiare la scheda video, che per la serie 5 significa raddoppiarne la potenza, vuol dire avere prestazioni quasi doppie.. poi è chiaro che se uno ha un procio lento la scheda renderà parecchio meno.. ma comunque sì guadagnerà molto di più scambiando scheda piuttosto che il procio
mackillers
12-09-2009, 21:51
Questo grafico è poco indicativo per due motivi:
1) perchè il livello di dettaglio poligonale è maggiore nella versione DirectX10, parole sempre di Cevat Yerli qui (http://www.tomshw.it/news.php?newsid=11618) che specifica la necessità di maggiori risorse hardware per la versione DX10;
2) perchè si riferiscono ad una GPU certamente non potentissima come lo può essere un SLI di GTX295 al quale facevo riferimento e alla quale si riferiva in questo post Andrea Deluxe (http://www.hwupgrade.it/forum/showpost.php?p=28848657&postcount=9372) che ha toccato con mano il problema.
bhè sul primo appunto posso essere d' accordo, ma sul secondo no,
se prendessimo questi test per validi ed inerenti, dovremmo dedurre che un phenom 965 riescie a generare almeno 60Fps (li fà a 1024.. non gli fa più a 1600 perchè il limite diventa la VGA), e che quindi non potrebbe certo impedirci di giocare più che fluidamente Crysis a qualsiasi risoluzione..
questo però riferendoci ai test in DX9.
detto questo vorrei chiarire nuovamente il mio concetto di "CPU limited"
io non penso che questa situazione sia vera ed influente solo quando la CPU a risoluzioni di gioco effettive (di chi compra questo tipo di VGA e gioca Crysis oggi o nei prossimi anni a Crysis 2) ci giocherà imho almeno a 1920x1200.
in quest ottica qualsiasi CPU mi garantirà di giocare a 60FPS mi basta e mi avanza...
si potrebbe dire magari che una 5870x2 potrebbe essere inutile perchè in tutti gli scenari descritti superi di molto il limite dei 60fps.. bhè ti dirò a quel punto non l' acquisterei perchè non ne avrei bisogno:)
di una cosa sono curioso le configurazioni multi VGA più spinte richiedono molte risorse di calcolo da parte della CPU per gestire i processi che smistano il calcolo far le varie VGA?
michelgaetano
12-09-2009, 21:51
Ho capito cosa intendi...è un problema legato fondamentalmente alla "scarsa" ottimizzazione del gioco...ed essendo l'architettura intel molto migliore rispetto a quella di amd per i calcoli in virgola mobile (invece i phenom sono eccellenti nei calcolo di grandi quantità di interi, es: grandi database) forse con un ottimizzazione migliore si potrebbe notare piu' differenze tra gli i7 ed i phenom...
cmq, ho 2 appunti da farti:
1) Riportare le dichiarazioni di yierli quando è uscito crysisi...beh...è alquanto inutile...non c'erano gli i7 come non c'erano i phenom II...e forse nn c'erano nemmeno i penryn...quindi è normale che quei processori fossero piu' inadatti...
2)quando dici che tra un i7 a 3.2 ed uno a 4 ghz, a very high, c'è un apprezzabile differenza, è falsissimo...nn c'è un solo frame di differenza!:
http://www.legionhardware.com/document.php?id=807&p=5
Oh ecco una rece :D
NvidiaMen
12-09-2009, 21:51
Questo è vero lo appena scritto, ma dai test in DX 9 risultano gli stessi risultati fra tutti gli i7, qualsiasi frequenza essi abbaino.. dubito che cloccando molto si guadagni più di 1-2 frames.. non farebbe certo molta differenza... a 1920 poi..
La situazione non credo sarebbe molto diversa in DX10 e very High.. oppure proprio l'impostazione very High di cui parlavi darebbe luogo ad un importante aumento della complessita poligonale dei modelli utilizzati tale da richiedere molta più potenza della CPU.. (e quindi visto l' attuali possibilita di questo engine, di un processore con una frequenza molto alta)
saluti a tutti
Nel grafico risultano quasi gli stessi frames perchè per qualla particolare scheda video utilizzata nel test si era raggiunto il limite di fillrate ammissibile alla risoluzione di 1600x1200, indi per cui l'esempio non può evidenziare in alcun modo anomalie di "CPU limited", mascherate dai limiti architetturali della GPU utilizzata. Inoltre il Very High DX10 è ben altra cosa, in termini di complessità geometriche richieste al processore, rispetto alla versione DX9.
leoneazzurro
12-09-2009, 21:56
In verità c'è anche il dato del consumo...non so come abbiano fatto adesso a raddoppiare gli SP (anche considerando il pp40nm) e mantenere un consumo simile alla hd4890 ma con la tecnologia precedente non potevano spingersi oltre senza raggiungere l'olimpo dei consumi (cosa avvenuta con la X2 che è aberrante da questo punto di vista) e avere problemi nella dissipazione...
Un chip piú grande non avrebbe avuto bisogno di andare alle stesse frequenze della 4870-4890, e quindi avrebbe potuto anche avere una tensione di alimentazione inferiore. I consumi quindi non sarebbero stati linearmente superiori. Ricordiamo inoltre che la 4870x2 non é che consumi poco ;)
Io direi che è anche questione di costi e time to market... NVidia se n'è accorta prima con GT200 (difficoltà a contrastare i prezzi di ATI) ed ora con GT300 (difficoltà a lanciare fisicamente il prodotto).
P.S.: la prima GTX260 aveva un chip ancora più grande, 576 mm2, senza NVIO. ;)
Si, lo so, peró il confronto andava anche fatto a paritá di processo produttivo.
NvidiaMen
12-09-2009, 22:01
Ho capito cosa intendi...è un problema legato fondamentalmente alla "scarsa" ottimizzazione del gioco...ed essendo l'architettura intel molto migliore rispetto a quella di amd per i calcoli in virgola mobile (invece i phenom sono eccellenti nei calcolo di grandi quantità di interi, es: grandi database) forse con un ottimizzazione migliore si potrebbe notare piu' differenze tra gli i7 ed i phenom...
cmq, ho 2 appunti da farti:
1) Riportare le dichiarazioni di yierli quando è uscito crysisi...beh...è alquanto inutile...non c'erano gli i7 come non c'erano i phenom II...e forse nn c'erano nemmeno i penryn...quindi è normale che quei processori fossero piu' inadatti...
2)quando dici che tra un i7 a 3.2 ed uno a 4 ghz, a very high, c'è un apprezzabile differenza, è falsissimo...nn c'è un solo frame di differenza!:
http://www.legionhardware.com/document.php?id=807&p=5
1) I Phenom sono architetture più efficienti in virgola mobile che sugli interi rispetto alla controparte Intel.
2) Le dichiarazioni di Yierli non facevano riferimento ovviamente agli i7 che non esistevano, ma alla scalabilità della complessità geometrica all'aumentare della potenza di elaborazione (verificata dallo stesso software attraverso appositi test interni) a disposizione. Quindo tali dichiarazioni son più che valide anche oggi.
3) Ragazzi stiamo parlando di 1920x1200 in Very High DX10 AF16 mica di bruscolini... Ciò che ho detto non è assolutamente falsissimo anzi lo ribadisco come ribadisco il post di Andrea Deluxe (http://www.hwupgrade.it/forum/showpost.php?p=28848657&postcount=9372) che si riferiva all'utilizzo di DUE GTX295 in SLI ed alla differente risposta in termini di fluidità tra un i7@3,2Ghz ed un i7@4Ghz (cosa che non notava con una singola GTX280).
Il test su legionhardware al quale ti riferisci è con una sola GTX295 (http://www.legionhardware.com/document.php?id=807&p=1) dove il GPU limited anticipa il CPU limited che rimane dunque "filtrato" nei risultati.
Proprio perchè il gioco supporta solo due thread, come ho linkato qualche post fà, ed il fatto di avere un Phenom X4 rispetto ad un I7 (con potenziali 8 threads) si annulla, o meglio, si limita alla differente efficienza in virgola mobile tra le due architetture (Intel e AMD). I maggiori frames si hanno solo ed esclusivamente all'aumentare della frequenza dei cores, così come confermato poco fà anche da un utente. Tant'è che tra un I7 a 3,2ghz ed un I7 a 4Ghz c'è un'apprezzabile differenza a livello di "frames per second" alla risoluzione "very high" con dettaglio poligonale elevato.
Non è vero :D
Cevat yerli ha sparato una marea di cavolate abnorme nei mesi precedenti all'uscita di crysis, ma veramente tante.
L'incremento all'aumentare di frequenza si ha solo fino ad un certo punto, oltre non cambia assolutamente niente.
http://www.legionhardware.com/document.php?id=807&p=5
Tra un i7 920 ed un i7 965 @ 3.6ghz non c'è nemmeno un frame di differenza in 1920, ed un solo frame in 1680x1050 (lo dicono tutte le recensioni del resto) e posso confermartelo personalmente, ho fatto delle prove con la mia vga ed un E8400.
Certo con due GTX295 il discorso può cambiare, ma già con una 295 singola non c'è differenza e probabilmente non ci sarà con la 5870 che, per quanto potente, è sempre una gpu singola.
mackillers
12-09-2009, 22:10
Ma il CryEngine 3 è uguale al 2 oppure parliamo di un motore diverso da quello che muove Crysis?
Mi sembra di capire che il terzo motore sia più ottimizzato per le console (santi numi:p ); indi per qui non è più un inutile motore con un bel vestito e il peso di un elefante con la colite spastica...
Di sicuro è un motore diverso.. e che gira anche sulle Console, ma Imho la versione PC non sarà stata modificata così tanto, avendone una PC già disponibile dopo tutto buona parte del codice alla base sarà quello:)
Difatti alla base delle nostre discussioni vi è la questione di quale macchina facesse girare quel demo di Cryengine 3 su 3 monitor.
c'è chi faceva notare che la complessità poligonale di Cryengine 2 a quelle risoluzioni (non mi veniva un altra parola in realtà con tre pannelli si vede un maggior numero di oggetti e superfici di cui la CPU dovrà calcolare le primitive strutturali da passare poi alla vga.
detto in soldoni quella demo gira bene con un Phenom 965 perché alla fin fine a quei dettagli una CPU vale l' altra (come dimostrerebbe la screen postata da michealgaetano inerente al DX9),
oppure un 965 con il normale Crysis non ce la farebbe perchè in Directx10 very HIGH (ma pio chi ci dice non sia tutto messo su medium, vista la risoluzione dei monitor, la loro grandezza e la conseguente distanza dell' osservatore?) la complessità poligonale sarebbe troppo elevata?
Nvidiamen ha fatto notare e proposto l' ipotesi che siano stae fatte delle ottimizzazioni su quella demo basate Sul uso del Tesselation e sopratutto (in ambito CPU) riguardo le doti multi-treading delle Directx11.
ai posteri l' ardua sentenza:D
mackillers
12-09-2009, 22:19
3) Ragazzi stiamo parlando di 1920x1200 in Very High DX10 AF16 mica di bruscolini... Ciò che ho detto non è assolutamente falsissimo anzi lo ribadisco come ribadisco il post di Andrea Deluxe (http://www.hwupgrade.it/forum/showpost.php?p=28848657&postcount=9372) che si riferiva all'utilizzo di DUE GTX295 in SLI ed alla differente risposta in termini di fluidità tra un i7@3,2Ghz ed un i7@4Ghz (cosa che non notava con una singola GTX280).
Il test su legionhardware al quale ti riferisci è con una sola GTX295 (http://www.legionhardware.com/document.php?id=807&p=1) dove il GPU limited anticipa il CPU limited che rimane dunque "filtrato" nei risultati.
hum ma scusa, se la tale CPU permette a quel gioco di girare tutto al massimo
a 1024 o a 1600 lo permetterà anche a 1920, anche se metti tutti i filtri del mondo.. quelli li processa tutti la VGA.
per vedere questo basterebbe un test fatto con Crysis messo a DX10 su Very High ad una risoluzione di 1600x1200 o anche meno.
se il processore ce la fà allora ce la farà anche ad una risoluzione superiore. (oppure neanche quello è un vero DX10 secondo i tuoi metri di giudizio? perchè in quel caso allora non avremmo altri banchi di prova e staremmo parlando di aria fritta)
come poi avevo detto in precedenza se anche una CPU mi ponesse il limite di che sò 60 non sarebbe un CPU limited perchè non comprometterebbe la fluidità del gioco.
allora ce li abbiamo dei test fatti in DX 10 very High per tagliare la testa al famoso toro?:)
allora ce li abbiamo dei test fatti in DX 10 very High per tagliare la testa al famoso toro?:)
Guarda qualche post fa :D
mackillers
12-09-2009, 22:23
Hai qualche benchmark a riguardo?
io penso che coi processori con giochi come crysis si va a cercare pochi frames in più.. mentre il cambiare la scheda video, che per la serie 5 significa raddoppiarne la potenza, vuol dire avere prestazioni quasi doppie.. poi è chiaro che se uno ha un procio lento la scheda renderà parecchio meno.. ma comunque sì guadagnerà molto di più scambiando scheda piuttosto che il procio
sono perfettamente d'accordo con voi due, e aggiungo che non penso il CPU limited possa essere un grosso problema con una singola 5870.
ribadisco la mia precedente richiesta, per sfruttare meglio un CRoss fire oppure uno sli molto spinto (tipo 4 schede), serve una cpu molto potente e magari capace di caricare molti treadh perché i driver necessitano di molte risorse per calcolare come dividere i calcoli fra le varie GPU?
grazie mille
NvidiaMen
12-09-2009, 22:24
Non è vero :D
Cevat yerli ha sparato una marea di cavolate abnorme nei mesi precedenti all'uscita di crysis, ma veramente tante.
L'incremento all'aumentare di frequenza si ha solo fino ad un certo punto, oltre non cambia assolutamente niente.
http://www.legionhardware.com/document.php?id=807&p=5
Tra un i7 920 ed un i7 965 @ 3.6ghz non c'è nemmeno un frame di differenza in 1920, ed un solo frame in 1680x1050 (lo dicono tutte le recensioni del resto) e posso confermartelo personalmente, ho fatto delle prove con la mia vga ed un E8400.
Certo con due GTX295 il discorso può cambiare, ma già con una 295 singola non c'è differenza e probabilmente non ci sarà con la 5870 che, per quanto potente, è sempre una gpu singola.
Preciso: non è per riprendere nessuno, ma i numerelli alle volte bisogna saperli estrapolare e trattarli con le dovute cautele altrimenti ci limitiamo ad osservare database interi senza cavarne nulla o quasi. Quando Andrea Deluxe ci si riferisce alla poca fluidità con impostazioni DX10 Very High 1920x1200 AF16 con ben 2 GTX295 ed un i7@3,2 ghz penso si riferisca a ben determinate situazioni (mappe con maggiore complessità geometrica) e non per l'intero corso del gioco. Nell'esecuzione del test di Crysis ricordo che il 90% del test si svolge con un dettaglio molto più basso rispetto alla fase terminale dello stesso (intendo alla fine laddovè si fà la piroetta sulla montagna piena zeppa di vegetazione). Il peso in termini di frames considera la media dell'intero test, che tra l'altro dura pochi secondi nel punto di maggior carico geometrico, per cui l'abbassamento dei frames è calcolato con una media algebrica e non ponderale. Ciò significa che dai risultati complessivi del test si desume in misura minore l'incidenza della geometria rispetto a quella dell'intera scena calcolata ad una ben determinata risoluzione da parte della GPU.
hum ma scusa, se la tale CPU permette a quel gioco di girare tutto al massimo
a 1024 o a 1600 lo permetterà anche a 1920, anche se metti tutti i filtri del mondo.. quelli li processa tutti la VGA.
per vedere questo basterebbe un test fatto con Crysis messo a DX10 su Very High ad una risoluzione di 1600x1200 o anche meno.
se il processore ce la fà allora ce la farà anche ad una risoluzione superiore. (oppure neanche quello è un vero DX10 secondo i tuoi metri di giudizio? perchè in quel caso allora non avremmo altri banchi di prova e staremmo parlando di aria fritta)
come poi avevo detto in precedenza se anche una CPU mi ponesse il limite di che sò 60 non sarebbe un CPU limited perchè non comprometterebbe la fluidità del gioco.
allora ce li abbiamo dei test fatti in DX 10 very High per tagliare la testa al famoso toro?:)
Sono semrpe gli stessi discorsi che si portano avanti da quasi tutto il thread.. cpu limited di qua e di là.
Fatto sta che il divario tra la potenza delle cpu e dele gpu aumenta.. oggi dici che con quel rapporto gpu/cpu sei cpu limited (che poi non è vero e se lo sei non è rilevante per motivi già esposti), domani il rapporto sarà ancora più sbilanciato a favore delle gpu.. penso che il concetto di cpu limited per come molti lo intendono debba essere rivisto profondamente :D
mackillers
12-09-2009, 22:27
Guarda qualche post fa :D
erano fatti in High Quality, non Very High quality:)
Nvidiamen sta sostenendo invece che solo a Very High quality si vede questa differenza marcata fra le CPU perché la complessità poligonale aumenta i calcoli anche sulla CPU.
quindi sarei coruiso di verificare se è vero, visto che un altro utente diceva di aver notato differenze con uno SLI di GTX295, tali da derterminare la fluidità o meno del gioco.
lo farei volentieri io il test (non a 1920 ovviamente ma a 1024 o meno) ma purtroppo ho prestato WarHead ad un mio amico:)
Ma il CryEngine 3 è uguale al 2 oppure parliamo di un motore diverso da quello che muove Crysis?
Mi sembra di capire che il terzo motore sia più ottimizzato per le console (santi numi:p ); indi per qui non è più un inutile motore con un bel vestito e il peso di un elefante con la colite spastica...
:asd: ci saresti dovuto stare nei momenti di massimo hyper :D
mackillers
12-09-2009, 22:31
Preciso: non è per riprendere nessuno, ma i numerelli alle volte bisogna saperli estrapolare e trattarli con le dovute cautele altrimenti ci limitiamo ad osservare database interi senza cavarne nulla o quasi. Quando Andrea Deluxe ci si riferisce alla poca fluidità con impostazioni DX10 Very High 1920x1200 AF16 con ben 2 GTX295 ed un i7@3,2 ghz penso si riferisca a ben determinate situazioni (mappe con maggiore complessità geometrica) e non per l'intero corso del gioco. Nell'esecuzione del test di Crysis ricordo che il 90% del test si svolge con un dettaglio molto più basso rispetto alla fase terminale dello stesso (intendo alla fine laddovè si fà la piroetta sulla montagna piena zeppa di vegetazione). Il peso in termini di frames considera la media dell'intero test, che tra l'altro dura pochi secondi nel punto di maggior carico geometrico, per cui l'abbassamento dei frames è calcolato con una media algebrica e non ponderale. Ciò significa che dai risultati complessivi del test si desume in misura minore l'incidenza della geometria rispetto a quella dell'intera scena calcolata ad una ben determinata risoluzione da parte della GPU.
Bhè si oddio può anche essere vero, ma allora quelle già poche situazioni che potevano delineare un differenza andrebbero a limitarsi ancor di più...
e chi ci dice che in quei momenti in cui il gioco rallenta la colpa sia tutta della CPU... il fatto che quel utente clocancola ad una frequenza più alta abbia notato grossi miglioramenti?
può darsi ma mi sembra un po strano
Wing_Zero
12-09-2009, 22:31
1) I Phenom sono architetture più efficienti in virgola mobile che sugli interi rispetto alla controparte Intel.
2) Le dichiarazioni di Yierli non facevano riferimento ovviamente agli i7 che non esistevano, ma alla scalabilità della complessità geometrica all'aumentare della potenza di elaborazione (verificata dallo stesso software attraverso appositi test interni) a disposizione. Quindo tali dichiarazioni son più che valide anche oggi.
3) Ragazzi stiamo parlando di 1920x1200 in Very High DX10 AF16 mica di bruscolini... Ciò che ho detto non è assolutamente falsissimo anzi lo ribadisco come ribadisco il post di Andrea Deluxe (http://www.hwupgrade.it/forum/showpost.php?p=28848657&postcount=9372) che si riferiva all'utilizzo di DUE GTX295 in SLI ed alla differente risposta in termini di fluidità tra un i7@3,2Ghz ed un i7@4Ghz (cosa che non notava con una singola GTX280).
Il test su legionhardware al quale ti riferisci è con una sola GTX295 (http://www.legionhardware.com/document.php?id=807&p=1) dove il GPU limited anticipa il CPU limited che rimane dunque "filtrato" nei risultati.
1) mea culpa avevo confuso i vantaggi dell'una e dell'altra architettura :doh:
2)le dichiarazioni di yierly si riferivano alla scalabilità della complessità geometrica all'aumentare della potenza di elaborazione, sono d'accordo...ma come puoi vedere te stesse sopra una certa frequenza gli fps rimangono uguali...anche con 1 ghz di clock in piu'...ergo SEI cpu-limited e non viceversa...
3)allora: le review a 1680x1050 non sono indicative perchè in DX9, le altre non sono veritiere perchè saturano il fill rate(?!), quella che ho linkato io a 1900x1200 non andavano bene perchè li veniva usata una sola gtx 295, invece secondo te andrebbero fatte con 2...(:doh: :doh: )
E' possibilissimo che con 2 gtx 295 anche a 1900x1200 hai una differenza notabile di fps tra un qx9650 ed un i7 975...pero':
1) Gestire 1 scheda non è uguale a gestirne 2...la potenza di calcolo della gpu viene spesa anche nella gestione delle 2 schede insli...imho è piu' per questo motivo che serve un processore piu' potenze...e non perchè sei GPU limited...infatti anche con un scheda che vada il doppio della 295...non saresti ugualmente cpu limited secondo me...
2)Ti basi solo ed unicamente su supposizioni e sulle mmmm..."baggianate" che ha detto yierly prima della presentazioni di crysis?
INOLTRE, la grafica in DX10 e DX 9 di CRYSIS è IDENTICA!
Giocaci, e guarda gli sshot...non cambia nemmeno MEZZO modello...non c'è nemmeno mezzo poligono in +...smentiscimi se ci riesci...!!!
NvidiaMen
12-09-2009, 22:32
erano fatti in High Quality, non Very High quality:)
Nvidiamen sta sostenendo invece che solo a Very High quality si vede questa differenza marcata fra le CPU perché la complessità poligonale aumenta i calcoli anche sulla CPU.
quindi sarei coruiso di verificare se è vero, visto che un altro utente diceva di aver notato differenze con uno SLI di GTX295, tali da derterminare la fluidità o meno del gioco.
lo farei volentieri io il test (non a 1920 ovviamente ma a 1024 o meno) ma purtroppo ho prestato WarHead ad un mio amico:)
Se ha qualcosa Andrea Deluxe potremo verificarlo se magari posta qualche screen. Io al momento, dopo aver venduto la mia 4870x2, sono con una misera 3450 in attesa di RV870...:D
Se può essere utile preciso tuttavia che prima di prendere l'i7 ho avuto un Phenom 940 x4 che ho avuto modo di confrontare, sempre con la mia ex 4870x2, nel test Crysis 1920x1200 DX10 Very High (però senza AF)... Ebbene la differenza tra il mio vecchio Opteron X2@2,816ghz e il Phenom X4 940@3,5ghz si attestava intorno agli 11 frames: 22 dell'OptyX2 contro i 33 del Phenom. Un chiaro segno di CPU limited.
mackillers
12-09-2009, 22:33
Sono semrpe gli stessi discorsi che si portano avanti da quasi tutto il thread.. cpu limited di qua e di là.
Fatto sta che il divario tra la potenza delle cpu e dele gpu aumenta.. oggi dici che con quel rapporto gpu/cpu sei cpu limited (che poi non è vero e se lo sei non è rilevante per motivi già esposti), domani il rapporto sarà ancora più sbilanciato a favore delle gpu.. penso che il concetto di cpu limited per come molti lo intendono debba essere rivisto profondamente :D
sono d'accordo con te IMHO la CPU conterà sempre meno.. guarda un pò la fisica appena si è pensato di elevarla alivelli molto più alti invece che sponsorizzare soluzioni ottimizzate per i nuovi processori multi-core si è subito corsi a escogitare un modo per far fare anche quello alle GPU:)
Bhè si oddio può anche essere vero, ma allora quelle già poche situazioni che potevano delineare un differenza andrebbero a limitarsi ancor di più...
e chi ci dice che in quei momenti in cui il gioco rallenta la colpa sia tutta della CPU... il fatto che quel utente clocancola ad una frequenza più alta abbia notato grossi miglioramenti?
può darsi ma mi sembra un po strano
Tra l'altroammesso che sia vero sarebbe comunque uno scenario con scarse ricadute pratiche.. dato che si parla comunque di i7 a 4 ghz, ovvero il top (in pratica, o quasi) al momento.. come dire che è possibile giocare bene solo coi processori più potenti perchè siamo cpu limitati..:fagiano:
il fatto è che ormai la potenza dei processori è abbastanza limitata (nonostante non sia di certo nemmeno lontanamente sfruttata appieno) e raddoppia ogni 2-3 anni.. le schede grafiche invece raddoppiano la loro potenza in media ogni 1-1,5 anni..è chiaro come si crei col tempo questo "sbilanciamento"
Se ha qualcosa Andrea Deluxe potremo verificarlo se magari posta qualche screen. Io al momento, dopo aver venduto la mia 4870x2, sono con una misera 3450 in attesa di RV870...:D
Io volendo posso farlo con warhead ma la mia gpu è decisamente più moscia di una 295 e non ho un i7 :D
mackillers
12-09-2009, 22:39
1) mea culpa avevo confuso i vantaggi dell'una e dell'altra architettura :doh:
2)le dichiarazioni di yierly si riferivano alla scalabilità della complessità geometrica all'aumentare della potenza di elaborazione, sono d'accordo...ma come puoi vedere te stesse sopra una certa frequenza gli fps rimangono uguali...anche con 1 ghz di clock in piu'...ergo SEI cpu-limited e non viceversa...
3)allora: le review a 1680x1050 non sono indicative perchè in DX9, le altre non sono veritiere perchè saturano il fill rate(?!), quella che ho linkato io a 1900x1200 non andavano bene perchè li veniva usata una sola gtx 295, invece secondo te andrebbero fatte con 2...(:doh: :doh: )
E' possibilissimo che con 2 gtx 295 anche a 1900x1200 hai una differenza notabile di fps tra un qx9650 ed un i7 975...pero':
1) Gestire 1 scheda non è uguale a gestirne 2...la potenza di calcolo della gpu viene spesa anche nella gestione delle 2 schede insli...imho è piu' per questo motivo che serve un processore piu' potenze...e non perchè sei GPU limited...infatti anche con un scheda che vada il doppio della 295...non saresti ugualmente cpu limited secondo me...
2)Ti basi solo ed unicamente su supposizioni e sulle mmmm..."baggianate" che ha detto yierly prima della presentazioni di crysis?
INOLTRE, la grafica in DX10 e DX 9 di CRYSIS è IDENTICA!
Giocaci, e guarda gli sshot...non cambia nemmeno MEZZO modello...non c'è nemmeno mezzo poligono in +...smentiscimi se ci riesci...!!!
Guarda il fatto che la CPU più potente servisse appunto per gestire la divisione dei calcoli fra le varie GPU è venuto anche a me..
sul fatto che fra DX9 e DX 10 cambi poco o nulla ad occhio sono d'accordo, ma ciò non vuol dire che le diverse tecniche di rendering messe in atto non abbiano un peso maggiore per la CPU.. o almne non a prescindere..( si può però dire se fosse vero che tale maggiore pesantezza di calcolo è sprecata visto il risultato, maquesto non è al ordine del giorno:) )
sul fatto che i modelli poligonali in DX10 siano più complessi non sò se crederci poteva anche essere una sparata di marketing in effetti..
e questo farebbe capire come mai tali differenze fra CPU e CPU siano così difficili da far saltar fuori.
insomma se esistano ci sono in casi così rari che forse non fanno una regola o sbaglio:)
NvidiaMen
12-09-2009, 22:40
Io volendo posso farlo con warhead ma la mia gpu è decisamente più moscia di una 295 e non ho un i7 :D
Ragazzi se portiamo pazienza qualche altro giorno anche io con la mia futura :eek: :fagiano: :D 5870 ed il mio i7 mi darò da fare con qualche bench con Crysis e non solo al variare della frequenza del processore in modo da toccare con mano eventuali limitazioni sia della GPU che della CPU.
Buonanotte a tutti, NM.
mackillers
12-09-2009, 22:41
1) mea culpa avevo confuso i vantaggi dell'una e dell'altra architettura :doh:
2)le dichiarazioni di yierly si riferivano alla scalabilità della complessità geometrica all'aumentare della potenza di elaborazione, sono d'accordo...ma come puoi vedere te stesse sopra una certa frequenza gli fps rimangono uguali...anche con 1 ghz di clock in piu'...ergo SEI cpu-limited e non viceversa...
3)allora: le review a 1680x1050 non sono indicative perchè in DX9, le altre non sono veritiere perchè saturano il fill rate(?!), quella che ho linkato io a 1900x1200 non andavano bene perchè li veniva usata una sola gtx 295, invece secondo te andrebbero fatte con 2...(:doh: :doh: )
E' possibilissimo che con 2 gtx 295 anche a 1900x1200 hai una differenza notabile di fps tra un qx9650 ed un i7 975...pero':
1) Gestire 1 scheda non è uguale a gestirne 2...la potenza di calcolo della gpu viene spesa anche nella gestione delle 2 schede insli...imho è piu' per questo motivo che serve un processore piu' potenze...e non perchè sei GPU limited...infatti anche con un scheda che vada il doppio della 295...non saresti ugualmente cpu limited secondo me...
2)Ti basi solo ed unicamente su supposizioni e sulle mmmm..."baggianate" che ha detto yierly prima della presentazioni di crysis?
INOLTRE, la grafica in DX10 e DX 9 di CRYSIS è IDENTICA!
Giocaci, e guarda gli sshot...non cambia nemmeno MEZZO modello...non c'è nemmeno mezzo poligono in +...smentiscimi se ci riesci...!!!
hai invertito qualche volta il temrine GPU e CPU oppure ho frainteso io il senso di alcune tue frasi?:mbe:
Ragazzi se portiamo pazienza qualche altro giorno anche io con la mia futura :eek: :fagiano: :D 5870 ed il mio i7 mi darò da fare con qualche bench con Crysis e non solo al variare della frequenza del processore in modo da toccare con mano eventuali limitazioni sia della GPU che della CPU.
Buonanotte a tutti, NM.
Idem...potremmo vedere se tra un core 2 a 4 ghz ed un i7 4ghz a parità di vga se cambia qualcosa o mmeno :asd:
mackillers
12-09-2009, 22:43
Se ha qualcosa Andrea Deluxe potremo verificarlo se magari posta qualche screen. Io al momento, dopo aver venduto la mia 4870x2, sono con una misera 3450 in attesa di RV870...:D
Se può essere utile preciso tuttavia che prima di prendere l'i7 ho avuto un Phenom 940 x4 che ho avuto modo di confrontare, sempre con la mia ex 4870x2, nel test Crysis 1920x1200 DX10 Very High (però senza AF)... Ebbene la differenza tra il mio vecchio Opteron X2@2,816ghz e il Phenom X4 940@3,5ghz si attestava intorno agli 11 frames: 22 dell'OptyX2 contro i 33 del Phenom. Un chiaro segno di CPU limited.
bene questo ci fà capire che a 1920x1200 la cpu ha fatto differenza,
sarebe indicativo provare a risoluzioni più basse, non vorrei che la differenza dipendesse dai calcoli che la CPU deve fare per gestire il CROSS FIre.
Guarda il fatto che la CPU più potente servisse appunto per gestire la divisione dei calcoli fra le varie GPU è venuto anche a me..
sul fatto che fra DX9 e DX 10 cambi poco o nulla ad occhio sono d'accordo, ma ciò non vuol dire che le diverse tecniche di rendering messe in atto non abbiano un peso maggiore per la CPU.. o almne non a prescindere..( si può però dire se fosse vero che tale maggiore pesantezza di calcolo è sprecata visto il risultato, maquesto non è al ordine del giorno:) )
sul fatto che i modelli poligonali in DX10 siano più complessi non sò se crederci poteva anche essere una sparata di marketing in effetti..
e questo farebbe capire come mai tali differenze fra CPU e CPU siano così difficili da far saltar fuori.
insomma se esistano ci sono in casi così rari che forse non fanno una regola o sbaglio:)
io dubito che sia per gestire le 2 gpu.. nella maggior parte dei casi (non ne sono sicuro comunque) si parlava solo del problema che si era cpu limited.. cioé con soluzioni multi scheda (con schede enthisiast) spesso i clockers occano al massimo il processore anche con raffreddamenti estremi (non è detto che lo facciano con le vga) proprio per l'estrema potenza di calcolo delle varie schede (che nei bench perlomeno viene sfruttata appieno o quasi), per cui aumentando di poco il clock della cpu il punteggio aumenta di molto.
Che il discorso dia un maggior carico sulla cpu per gestire più schede sinceramente dubito..
il discorso delle dx 10: veramente microsoft le aveva pubblicizzate proprio dicendo che alleggerivano il carico sulla cpu se non ricordo male :confused:
mackillers
12-09-2009, 22:47
Ragazzi se portiamo pazienza qualche altro giorno anche io con la mia futura :eek: :fagiano: :D 5870 ed il mio i7 mi darò da fare con qualche bench con Crysis e non solo al variare della frequenza del processore in modo da toccare con mano eventuali limitazioni sia della GPU che della CPU.
Buonanotte a tutti, NM.
Bene, ma non devi disturbarti troppo per noi, se spedisci tutto a me mene occupo io di fare dei test comparativi, anche con un Core2 duo e un A64x2:) :) :D :D
mackillers
12-09-2009, 22:50
io dubito che sia per gestire le 2 gpu.. nella maggior parte dei casi (non ne sono sicuro comunque) si parlava solo del problema che si era cpu limited.. cioé con soluzioni multi scheda (con schede enthisiast) spesso i clockers occano al massimo il processore anche con raffreddamenti estremi (non è detto che lo facciano con le vga) proprio per l'estrema potenza di calcolo delle varie schede (che nei bench perlomeno viene sfruttata appieno o quasi), per cui aumentando di poco il clock della cpu il punteggio aumenta di molto.
Che il discorso dia un maggior carico sulla cpu per gestire più schede sinceramente dubito..
il discorso delle dx 10: veramente microsoft le aveva pubblicizzate proprio dicendo che alleggerivano il carico sulla cpu se non ricordo male :confused:
Io mi riferivo in questo momento al solo motore di Crysis DX9 vs DX10 non alle librerie in generale.
e neanche ai vari 3dmark ecc li lo sò che la CPU fà media (sai che culo comprare un I7 per sostituire il mio phenom 940, per avere 2000 punti in più al 3d mark ed 1FPS in più a 1920x1200 su tutti i giochi:)
Wing_Zero
12-09-2009, 22:51
l'unica cosa palese rimane una:
Crysis in dx10 a very high, è IDENTICO a crysis in dx 9 a very high. (ovvero con i fix).
Non c'è mezzo poligono in piu' o mezzo effetto in piu'. rispetto alla controparte dx 9.IMMAGINI IDENTICHE.
L'unica differenza è che l'implentazione in dx10 ti fa crollare le prestazioni, visto che il motere di crysis è nativo directix 9 e chissa quali "porchette" (passatemi il termine :D) hanno fatto per trasferire le chiamate dx9 in chiamate dx 10.
La differenza in prestazioni è dovuta unicamente a questo fatto e non a "fantomatici" modelli poligonali con una complessità fuori dalla norma che saltano fuori come un coniglio dal cilindro in dx 10 very high -.-"
Bah...
Andrea deluxe
12-09-2009, 23:06
cmq penso che la mia situazione passata con le 295 sia dovuta al fatto che in modalita' quad sli, ogni gpu calcola il suo frame e richiede alla cpu 3 volte i dati che richiede una sola gpu!
quindi appoggio wing.!
nb situazione alla grossolana:
situazione:
situazione single gpu
gpu1= richiesta posizione poligoni e tutto il resto > elaborazione > framebuffer > output del frame
tot count richieste per singolo frame= 1
situazione multiple gpu:
/gpu1=richiesta posizione poligoni e tutto il resto > elaborazione > framebuffer > output del frame
/gpu2=richiesta posizione poligoni e tutto il resto > elaborazione > framebuffer > output del frame
/gpu3=richiesta posizione poligoni e tutto il resto > elaborazione > framebuffer > output del frame
/gpu4=richiesta posizione poligoni e tutto il resto > elaborazione > framebuffer > output del frame
aumento esponenziale di frame teorici ma:
tot count richieste alla cpu per singolo istante=4
cpu ultra veloce= richieste eseguite= frame ottimi
cpu lenta= richieste miss= frame trabballanti
Wing_Zero
12-09-2009, 23:13
cmq penso che la mia situazione passata con le 295 sia dovuta al fatto che in modalita' quad sli, ogni gpu calcola il suo frame e richiede alla cpu 3 volte i dati che richiede una sola gpu!
quindi appoggio wing.!
:cincin: :mano:
grazie :)
Ma non si tratta di appoggiare l'uno o l'altro...non è una contesa...
Ho riportato solo i fatti visto che non c'è mezzo bench che confermi quello che dice nvidiamen (senza offesa o polemica è :mano: )
Il punto è che crysis in dx10 non gestisce mezzo poligono in piu' della controparte dx 9...sia che lo dica cevat yierly o nvidiamen...portatemi degli screenshot o dei bench, visto che queste sono cose facilmente verificabili...
Ed inoltre affermare che con 2 gtx 295 (4 gpu) si è notevolmente cpu-limited ad un gioco come crysis, solo perchè si perde qualche fps a 1900x1200 è una cosa infondata...visto che già di persè queste tecnologie (SLI/CROSSFIRE) non sono molto ottimizzate...figuriamoci quando entrano in gioco 4 GPU...Serve si un processore piu' potente...ma non per la potenza in se del comparto grafico, quanto per la gestione del quad-sli...
Andrea deluxe
12-09-2009, 23:16
:cincin: :mano:
quanto per la gestione del quad-sli...
esatto!
se in single con la 5870 non si verificano problemi dovuti alla presunta conformazione dual core della gpu siamo a posto!
cmq penso che la mia situazione passata con le 295 sia dovuta al fatto che in modalita' quad sli, ogni gpu calcola il suo frame e richiede alla cpu 3 volte i dati che richiede una sola gpu!
quindi appoggio wing.!
nb situazione alla grossolana:
situazione:
situazione single gpu
gpu1= richiesta posizione poligoni e tutto il resto > elaborazione > framebuffer > output del frame
tot count richieste per singolo frame= 1
situazione multiple gpu:
/gpu1=richiesta posizione poligoni e tutto il resto > elaborazione > framebuffer > output del frame
/gpu2=richiesta posizione poligoni e tutto il resto > elaborazione > framebuffer > output del frame
/gpu3=richiesta posizione poligoni e tutto il resto > elaborazione > framebuffer > output del frame
/gpu4=richiesta posizione poligoni e tutto il resto > elaborazione > framebuffer > output del frame
aumento esponenziale di frame teorici ma:
tot count richieste alla cpu per singolo istante=4
cpu ultra veloce= richieste eseguite= frame ottimi
cpu lenta= richieste miss= frame trabballanti
Appunto :D :cincin:
mackillers
12-09-2009, 23:43
esatto!
se in single con la 5870 non si verificano problemi dovuti alla presunta conformazione dual core della gpu siamo a posto!
MA perchè quando lo ipotizzavo io nessuno mi a cagato di striscio?:( :D :D
<^MORFEO^>
13-09-2009, 00:02
Ma questo è diventato il Thread Ufficiale Aspettando di vedere come andrà R800 con crysis??? :mbe:
No perchè leggendo in dietro si parla solo di quel schifoso mattone di crysis e della magica e onnipresente parolina "very high" :asd:
Tornando a discorsi più inerenti al thread, i consumi della scheda dichiarati fin ora, se non sbaglio sono in linea con quelli di una 4870/4890 giusto? Nonostante il raddoppio degli SP, delle TMU ecc
Questi 40nm sono proprio una bella cosa... Bello sarebbe ora capire fino a quanto si possono spingere in OC le nuove bestioline... Spero seguando le orme delle sorelline più piccole 4890 che riescono a toccare il GHz di core :oink:
Ho capito cosa intendi...è un problema legato fondamentalmente alla "scarsa" ottimizzazione del gioco...ed essendo l'architettura intel molto migliore rispetto a quella di amd per i calcoli in virgola mobile (invece i phenom sono eccellenti nei calcolo di grandi quantità di interi, es: grandi database) forse con un ottimizzazione migliore si potrebbe notare piu' differenze tra gli i7 ed i phenom...
cmq, ho 2 appunti da farti:
1) Riportare le dichiarazioni di yierli quando è uscito crysisi...beh...è alquanto inutile...non c'erano gli i7 come non c'erano i phenom II...e forse nn c'erano nemmeno i penryn...quindi è normale che quei processori fossero piu' inadatti...
2)quando dici che tra un i7 a 3.2 ed uno a 4 ghz, a very high, c'è un apprezzabile differenza, è falsissimo...nn c'è un solo frame di differenza!:
http://www.legionhardware.com/document.php?id=807&p=5
Ciao scusami ma non penso sia cosi: se vai e guardi benchmark come spec http://www.spec.org/cpu2006/results/res2007q3/ ( che sono gli standard per l'industria it) un agena a 2.0ghz va su fprate come uno xeon 3.0ghz, è invece l'esatto contrario per gli integers... L'unita fp di amd è molto avanzata.... http://www.xbitlabs.com/articles/cpu/display/amd-k10_7.html#sect0
Il problema signori che molte volte sfugge è che i compilers sono intel...... Ad esempio se scarichi un dump di povray 3.7 beta noterai che, tutte le divisioni che sono quasi il 1\4 dei loop utilizzano l'istruzione CVT...., l'istruzione CVTSS2SD(come quelle di tipo sempre CVT) è deprecata da amd in quanto ha una latenza più alta rispetto ad altre che consentono la conversione da floats a double. Il problema che per effettuare una dvisione povray utlizza ben 2 istruzioni di tipo CVTxxyy, ovvero la effettua cosi :
1)CVTSS2SD:
Converte il divisore da float a double
2) DIVSD:
Divisione scalare a doppia precisione
3)CTVPD2PS
Converte il risultato di DIVSD da due valori double a due valori single.
Cicli per amd k10 per effettuare una divisione cosi : 36,
Cicli per amd k10 per effettuare una divisione con una semplicissima FDIV 20...
Latenze istruzioni amd k10:
http://www.amd.com/us-en/assets/content_type/white_papers_and_tech_docs/40546.pdf
Qui invece è trattato molto approfonditamente il caso povray http://abinstein.blogspot.com/2007/05/pov-ray-benchmark-and-amds.html
Wing_Zero
13-09-2009, 00:05
esatto!
se in single con la 5870 non si verificano problemi dovuti alla presunta conformazione dual core della gpu siamo a posto!
la 5870 imho non avra nessuna conformazione dual core...è un chip monolitico come rv 670, con il doppio di tutto :)
Non saranno 2 core interconnessi da una sorta di bus...
Si spera che la 5870x2 sia una gpu dual core :)
Ma questo è diventato il Thread Ufficiale Aspettando di vedere come andrà R800 con crysis??? :mbe:
No perchè leggendo in dietro si parla solo di quel schifoso mattone di crysis e della magica e onnipresente parolina "very high" :asd:
Tornando a discorsi più inerenti al thread, i consumi della scheda dichiarati fin ora, se non sbaglio sono in linea con quelli di una 4870/4890 giusto? Nonostante il raddoppio degli SP, delle TMU ecc
Questi 40nm sono proprio una bella cosa... Bello sarebbe ora capire fino a quanto si possono spingere in OC le nuove bestioline... Spero seguando le orme delle sorelline più piccole 4890 che riescono a toccare il GHz di core :oink:
penso proprio di sì dai.. da 850 ad 1 ghz il passo è breve :)
Come consumi più o meno ci siamo.. inoltre quelli in idle sono sensibilmente scesi finalmente (comunque credo che usare ati tray tools sarà ugualmente una manna) :)
Wing_Zero
13-09-2009, 00:12
1)
Ho capito cosa intendi...è un problema legato fondamentalmente alla "scarsa" ottimizzazione del gioco...ed essendo l'architettura intel molto migliore rispetto a quella di amd per i calcoli in virgola mobile (invece i phenom sono eccellenti nei calcolo di grandi quantità di interi, es: grandi database)
e poi 2 post piu' sotto
mea culpa avevo confuso i vantaggi dell'una e dell'altra architettura :doh:
quindi:
Ciao scusami ma non penso sia cosi:
Ti ho già risposto :)
Mi ero accorto dell'errore :)
mackillers
13-09-2009, 00:16
Ma questo è diventato il Thread Ufficiale Aspettando di vedere come andrà R800 con crysis??? :mbe:
No perchè leggendo in dietro si parla solo di quel schifoso mattone di crysis e della magica e onnipresente parolina "very high" :asd:
Tornando a discorsi più inerenti al thread, i consumi della scheda dichiarati fin ora, se non sbaglio sono in linea con quelli di una 4870/4890 giusto? Nonostante il raddoppio degli SP, delle TMU ecc
Questi 40nm sono proprio una bella cosa... Bello sarebbe ora capire fino a quanto si possono spingere in OC le nuove bestioline... Spero seguando le orme delle sorelline più piccole 4890 che riescono a toccare il GHz di core :oink:
hai ragione, ma devi scusarci purtroppo nonostante quel gioco sia un mattone è l'unico che ancora si fà difficlota a far girare, è logico che sia quello il miglior modo di mettere alal frusta le VGA..
poi ne parlabvamo anche in ottica Cryengine 3 visto che ne è stato mostrata una demo alla presentazione di queste VGA:)
per quanto riguardai consumi pare la 5870 consumera 188watt in full massimo e 25 in idle.
quindi di più in full di una 4890 ma di meno in idle.. finalmente oserei dire:)
in effetti in questo campo nvidia aveva lavorato meglio con la precedente serie, pensate che ciò sia ottenuto con un downvoltaggio automatico dei core in fase di idle?
sarebbe buono se sulle configurazioni crossfire in stato di idle la seconda VGa venisse completamente spenta.
e poi 2 post piu' sotto
quindi:
Ti ho già risposto :)
Mi ero accorto dell'errore :)
Ciao, scusami tu, scrivendo non avevo letto i post precedenti :fiufiu:
mackillers
13-09-2009, 00:21
la 5870 imho non avra nessuna conformazione dual core...è un chip monolitico come rv 670, con il doppio di tutto :)
Non saranno 2 core interconnessi da una sorta di bus...
Si spera che la 5870x2 sia una gpu dual core :)
Guarda se la 5870X2 come si spera sarà realizzata con un approccio di questo tipo potrebe essere la volta buona che compro una x2 (lo sli che ho adesso l' ho fatto comprando la seconda vga 1 anno dopo usata sul forum, un buon modo di aumentare le prestazioni e spendere poco:) )
secondo voi che differenze prestazionali comporterà questo approccio? I driver continueranno a vedere due vga distinte da far collaborare insieme via Crossfire (attivabile e disattivabile nel caso) oppure sarà una cosa gestita alivello Hardware totalmente trasparente Per L' os e i programmi 3D.
Imho sarà il primo caso... ma il secondo sarebbe davvero forte:) si eviterebbero tutte le rogne del crossfire/Sli
michelgaetano
13-09-2009, 00:24
Continuo a pensare che il motivo di maggiore interesse per seguire le recensioni sarà vedere l'architettura copme e quanto è cambiata rispetto a RV790 :)
In effetti è vero, prestazioni a parte riusciremo finalmente a vederci di più, non mi pare si sia chiarificata ancora l'architettura del chip.
Anche tu con l'avatar di bATiman, bellissimo :asd:
mackillers
13-09-2009, 00:31
hai ragione, ma devi scusarci purtroppo nonostante quel gioco sia un mattone è l'unico che ancora si fà difficlota a far girare, è logico che sia quello il miglior modo di mettere alal frusta le VGA..
poi ne parlabvamo anche in ottica Cryengine 3 visto che ne è stato mostrata una demo alla presentazione di queste VGA:)
per quanto riguardai consumi pare la 5870 consumera 188watt in full massimo e 25 in idle.
quindi di più in full di una 4890 ma di meno in idle.. finalmente oserei dire:)
in effetti in questo campo nvidia aveva lavorato meglio con la precedente serie, pensate che ciò sia ottenuto con un downvoltaggio automatico dei core in fase di idle?
sarebbe buono se sulle configurazioni crossfire in stato di idle la seconda VGa venisse completamente spenta.
Scusami mi sbagliavo ho controllato adesso
ATI HD4870 160w - 90w
ATI HD4890 190w - 60w
ATI HD5870 188w - 25w
i dati li ho presi dagli screen ufficiali delle presentazioni AMD, se ne deduce che finalmente anche AMD ha lavorato per introdurre una specie di Cool & Quiet nelle Sue VGA.
Wing_Zero
13-09-2009, 00:50
Guarda se la 5870 come si spera sarà realizzata con un approccio di questo tipo potrebe essere la volta buona che compro una x2 (lo sli che ho adesso l' ho fatto comprando la seconda vga 1 anno dopo usata sul forum, un buon modo di aumentare le prestazioni e spendere poco:) )
secondo voi che differenze prestazionali comporterà questo approccio? I driver continueranno a vedere due vga distinte da far collaborare insieme via Crossfire (attivabile e disattivabile nel caso) oppure sarà una cosa gestita alivello Hardware totalmente trasparente Per L' os e i programmi 3D.
Imho sarà il primo caso... ma il secondo sarebbe davvero forte:) si eviterebbero tutte le rogne del crossfire/Sli
io penso E SPERO vivamente che la 5870 continui ad essere un chip come rv770. Un chip unnico senza due blocchi di core collegati tramite una qualche sorta di bus. Questo perchè l'architettura delle gpu è già altamente parallela e dividere la gpu in 2 blocchi, stile "dual core" porterebbe ad unna perdita di prestazioni rispetto al concetto monolitico.
Al contrario spero vivamente che la 5870x2 utilizzi questo approccio: ovvero 2 gpu con il memory controller integrato e condiviso (potendo cosi' sfruttare la totatlità della ram on board e non solo la metà come nella 4870x2) ed essendo collegate non piu' tramite di quello schifo di connessione che era il bridge crossfire ma finalmente tramite sideport, che era giò implementata in rv770 ma mai utilizzata... un approccio X2 di questo tipo sarebbe mooolto piu' potente!
michelgaetano
13-09-2009, 00:53
io penso E SPERO vivamente che la 5870 continui ad essere un chip come rv770. Un chip unnico senza due blocchi di core collegati tramite una qualche sorta di bus. Questo perchè l'architettura delle gpu è già altamente parallela e dividere la gpu in 2 blocchi, stile "dual core" porterebbe ad unna perdita di prestazioni rispetto al concetto monolitico.
Oddio questo fino ad un certo punto.
Prendiamo ad esempio i Core 2 Quad, sono due cpu dual core affiancate, eppure non soffrono di alcun problema - ciò che davvero rappresenta il problema in quel caso, è il software a non essere orientato al multicore.
<^MORFEO^>
13-09-2009, 00:58
penso proprio di sì dai.. da 850 ad 1 ghz il passo è breve :)
Come consumi più o meno ci siamo.. inoltre quelli in idle sono sensibilmente scesi finalmente (comunque credo che usare ati tray tools sarà ugualmente una manna) :)
Da 850 a 1GHz il passo è breve sempre che abbiano un pò sbloccato i voltaggi al rialzo...
Data l'alta densità del chip dovuta dall'uso dei 40nm, penso che si vadano a creare problemi e interferenze ad un limite un pò più basso rispetto alla 4890 ad esempio! E' probabile anche che sbaglio eh.... :rolleyes:
Scusami mi sbagliavo ho controllato adesso
ATI HD4870 160w - 90w
ATI HD4890 190w - 60w
ATI HD5870 188w - 25w
i dati li ho presi dagli screen ufficiali delle presentazioni AMD, se ne deduce che finalmente anche AMD ha lavorato per introdurre una specie di Cool & Quiet nelle Sue VGA.
Raddoppio delle specifiche e diminuzione dei consumi anche se sono certo che per quando riguarda il consumo di picco, la 5870 scavalcherà di molto la 4890...
Per quanto riguarda l'idle sono curioso di sapere a che frequenze arriva la scheda e se hanno implementato anche l'abbassamento del voltaggio oltre che solo quello delle frequenze! :)
Per quanto riguarda la 5870x2 resto convinto che l'unica soluzione fattibile sia quella dei 2 PCB contrapposti e con dissipatore centrale vista la lunghezza della singola 5870... :rolleyes:
Wing_Zero
13-09-2009, 01:14
cmq stavo pensando che l'rv870 è impossibile che abbia unn architettura dual core (tipo 800 e 800 SP) visto che l'architettura è costituita a blocchi di 160 SP, 1440SP non sarebbero divisibili per 2 (verrebbe 720 e 720 che non possono essere costituiti da blocchi da 160 ), Spero di esseremi spiegato.
Speriamo in una 5870x2 con 2 rv870 "on package", quindi 1 solo chip sul pcb e quindi la necessità di utilizzare un pcb enormme nn ci sarebbe piu'!
Speriamo!
Se fannoun X2 di questo tipo, per nvidia è la fine :)
mackillers
13-09-2009, 01:15
Raddoppio delle specifiche e diminuzione dei consumi anche se sono certo che per quando riguarda il consumo di picco, la 5870 scavalcherà di molto la 4890...
Per quanto riguarda l'idle sono curioso di sapere a che frequenze arriva la scheda e se hanno implementato anche l'abbassamento del voltaggio oltre che solo quello delle frequenze! :)
Guarda le specifiche di consumo che ho postato sono quelle ufficiali presentate da AMD..
quindi più o meno siamo li:)
ma anche io immaginavo che consumasse almne una 20-30ina di Watt
michelgaetano
13-09-2009, 01:16
cmq stavo pensando che l'rv870 è impossibile che abbia unn architettura dual core (tipo 800 e 800 SP) visto che l'architettura è costituita a blocchi di 160 SP, 1440SP non sarebbero divisibili per 2 (verrebbe 720 e 720 che non possono essere costituiti da blocchi da 160 ), Spero di esseremi spiegato.
Speriamo in una 5870x2 con 2 rv870 "on package", quindi 1 solo chip sul pcb e quindi la necessità di utilizzare un pcb enormme nn ci sarebbe piu'!
Speriamo!
Se fannoun X2 di questo tipo, per nvidia è la fine :)
Se come dici il package di Cypress non può contenere due core grafici, non oso immaginare quanto possa essere grande un die che debba contenere 2*Cypress :stordita:
Wing_Zero
13-09-2009, 01:22
Se come dici il package di Cypress non può contenere due core grafici, non oso immaginare quanto possa essere grande un die che debba contenere 2*Cypress :stordita:
l'integrazione sarà tipo i quad core penryn: non on die , bensì "on package". 2 cypress distinti nello stesso package e non in un unico die. Spero che sia così e he saranno collegati tramite sideport...
io direi di incrociare tutti le dita...affinchè sia cosi'...almeno in questo modo la x2 acquisterà un senso e non sarà piu' un banale crossfire...
Se come dici il package di Cypress non può contenere due core grafici, non oso immaginare quanto possa essere grande un die che debba contenere 2*Cypress :stordita:
probabilmente poco meno del doppio ovvero più meno come il primo GT200 :asd:
leoneazzurro
13-09-2009, 01:23
cmq stavo pensando che l'rv870 è impossibile che abbia unn architettura dual core (tipo 800 e 800 SP) visto che l'architettura è costituita a blocchi di 160 SP, 1440SP non sarebbero divisibili per 2 (verrebbe 720 e 720 che non possono essere costituiti da blocchi da 160 ), Spero di esseremi spiegato.
Speriamo in una 5870x2 con 2 rv870 "on package", quindi 1 solo chip sul pcb e quindi la necessità di utilizzare un pcb enormme nn ci sarebbe piu'!
Speriamo!
Se fannoun X2 di questo tipo, per nvidia è la fine :)
I blocchi (SIMD) sono da 80 Sp da R600 in poi.
Free Gordon
13-09-2009, 01:26
Oibò...non è un bel segno che nvidia se ne esca con queste dichiarazioni...significa che al momento non ha in mano nulla per rispondere a questa scheda.
Invece in AMD sono decisamente convinti:
Sono solo sparate marketinghettose, da ambo le parti.
Free Gordon
13-09-2009, 01:31
Infatti, ciò mi spaventa e mi fa sorgere spontanee due considerazioni:
- CryEngine 3 è stato pesantemente ottimizzato, per mantenere una resa pari o superiore con risorse hardware minori;
Il Cryengine 3 è stato ideato per le attuali console..
Wing_Zero
13-09-2009, 01:34
I blocchi (SIMD) sono da 80 Sp da R600 in poi.
merda!:doh: (scusate per il termine)
hai ragione! :
http://www.tomshardware.com/reviews/radeon-hd-4850,1957-4.html
l' rv770 integra 10 SIMD: ogni simd contiene 16 SPU ed ogni SPU 5 ALU.
Quindi 10 SIMD da 80 ALU (che noi comunemente chiamiamo SP) ognuna.
Ecco. Se è così, purtroppo, i conti riportano...ed ho il terrore che sia la 5850 e sia la 5870 siano in realtà 2 gpu da 800 e 720 alu sullo stesso die... (rispetivamente 10x2 e 9x2 simd)...
Si spiegherebbero anche i consumi in idle bassissimi....ottenuti disabilitando uno dei 2 core...
Uff...i conti riportano purtroppo...
Speriamo che con un architettura di questo tipo, ovvero 2 core da 800SP invece che un unico da 1600 non porti ad un peggioramento delle prestazioni...
Free Gordon
13-09-2009, 01:35
Ottimo. Visto come conducono i test nella redazione di computerbase il tutto si tradurrebbe in una media dell'8% sopra la GTX295 e di un 18% sopra la 4870x2 (questa medie è fatta considerando sia i test con e senza filtri). Se ci aggiungiamo i driver immaturi e tutti i nn problemi di un chip singolo potremmo (anzi imo si arriverà) arrivare ad un +25% senza filtri dalla 4870x2 e ad un +12/13% sopra la GTX295 sempre senza filtri. Invece con i filtri considerando che hanno raddoppiato le rops e che forse sono state migliorate c'è da aspettarsi che l'intera attuale generazione sia sotterrata.
Io mi aspettavo (e mi aspetto) un sostanziale pareggio tra la 295 e la 5870, ma avendo molta fiducia in computerbase mi fa ben sperare; in ogni caso AMD ha realmente estratto il coniglio dal cappello!
(nn oso immaginare la 6870 :asd:)
Credo anche io che la 5870 starà sulle medie della GTX295, non di più..
Cmq il bello di questa scheda è, che se mantiene le promesse, sarà la conferma dell'ottimo lavoro iniziato da ATI con R600, molto bistrattato ma alla fine lungimirante (come sempre in casa ATI, del resto :D ).
Wing_Zero
13-09-2009, 01:37
A parte il fatto che il ragionamento parte dal presupposto (sbagliato) che Cypress abbia la stessa architettura di RV770, quest'ultimo è costituito di 10 cluster, ognuno dei quali conta 16 shader processors (che possono eseguire 5 operazioni e blabla quindi per un totale di 80SP). Il totale fa 800 stream processors o 160 shaders, divisi comunque in 10 cluster.
Raddoppi i cluster e hai i 1600SP di Cypress. Disabiliti due cluster e ne hai 1440, se li disabiliti uno per "core" ne hai 720 da un lato e 720 dall'altro.
Senza contare che niente ci obbliga a pensare che i cluster di Cypress siano sempre di 16 shaders e non di 17, 30 o 50, benché sembri abbastanza logico pensare che rimangano 16 per cluster.
Quindi non ci sono problemi ad avere 1440SP e il fatto che siano 1440 non è un limite al fatto che sia un'architettura "dual core" più di quanto lo siano 1600SP.
Tutto ciò ovviamente non significa che l'architettura sia questa, ma solo che la possibilità rimane anche con 1440SP.
mbe me ne sono accorto anche io che il presupposto era sbagliato...mi ricordavo male, pensavo che i blocchi fossero da 160SP invece che da 80...poi ho corretto il tiro con il post precendete...
Free Gordon
13-09-2009, 01:44
Esattamente, ha avuto un buon successo con la serie HD48** però secondo me l'ultimo vero modello di fascia alta è stata la x1900xtx, da allora non ho più visto un chip della casa canadese che sapesse ottenere le migliori prestazioni velocistiche.
A queste case interessa fare soldi (soprattutto ad AMD, dopo l'acquisizione), per cui devono produrre chip economici con prestazioni paragonabili alla concorrenza nelle fascie più vendute ai giocatori (media e medio/alta). ;)
Quando ATI aveva top di gamma più veloci della concorrenza, guadagnava cmq meno di Nvidia... ;) e questo alla fine non porta a nulla di buono in senso complessivo aziendale.
leoneazzurro
13-09-2009, 01:49
merda!:doh: (scusate per il termine)
hai ragione! :
http://www.tomshardware.com/reviews/radeon-hd-4850,1957-4.html
l' rv770 integra 10 SIMD: ogni simd contiene 16 SPU ed ogni SPU 5 ALU.
Quindi 10 SIMD da 80 ALU (che noi comunemente chiamiamo SP) ognuna.
Ecco. Se è così, purtroppo, i conti riportano...ed ho il terrore che sia la 5850 e sia la 5870 siano in realtà 2 gpu da 800 e 720 alu sullo stesso die... (rispetivamente 10x2 e 9x2 simd)...
Si spiegherebbero anche i consumi in idle bassissimi....ottenuti disabilitando uno dei 2 core...
Uff...i conti riportano purtroppo...
Speriamo che con un architettura di questo tipo, ovvero 2 core da 800SP invece che un unico da 1600 non porti ad un peggioramento delle prestazioni...
Non é detto: i due "core" (ma sarebbe piú corretto chiamarli "array di SIMD") non lavorerebbero in modalitá AFR, che é quella che causa piú problemi di ridondanza e congestione delle risorse, bensí in modalitá SFR, ossia la scena verrebbe divisa in modo da allocare la stessa quantitá di lavoro tra i due array in maniera "trasparente" al software, che é poi piú o meno quello che fa uno solo dei "core" quando distribuisce il carico di lavoro tra i vari SIMD. Ossia, invece di avere un unico enorme Dispatch Processor che controlla 20 SIMD, si avrebbe un arbiter che alloca il lavoro tra i due array in modalitá SFR e poi due Dispatch Processor che controllano ognuno 10 SIMD. Perché questo? L´unica ragione che mi viene in mente é la semplicitá costruttiva: probabilmente la complessitá aumenta esponenzialmente con il numero dei SIMD da gestire, ed inoltre si puó replicare il design di uno dei "Core" sul chip Juniper quasi direttamente. Le perplessitá che mi vengono in mente sono quelle relative alla gestione della geometria e della ricostruzione dell´immagine, che tra qualche giorno spero che vengano risolte. Ad esempio, se ogni "core" avesse la propria unitá di setup e tessellazione, avremmo una capacitá di gestione dei triangoli piú che raddoppiata rispetto alle 4870, ed in certi casi questo sarebbe importante.
Wing_Zero
13-09-2009, 01:53
cmq la gtx 295 va il 69% in piu' della 4890:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/22/
Con quelle specifiche la 5870, ha un architettura che è esattamente il doppio di quella della 4890 (il doppio delle alu, il doppio delle rops, ed il doppio delle tmu), con lo stesso core clock. Senza considerare poi 5,8 ghz perle ram (contro i 4 ghz della 4890) ed i miglioramenti architetturali....
A 400$ questa 5870 per non essereun flop non puo' andare solo come la gtx 295...ovvero "solo" il 69% in piu' della 4890...per non essere un flop deve essere sempre e cmmq sopra della gtx 295 di almeno un 20%...altrimenti sarebbe deludente imho...
mackillers
13-09-2009, 01:54
A queste case interessa fare soldi (soprattutto ad AMD, dopo l'acquisizione), per cui devono produrre chip economici con prestazioni paragonabili alla concorrenza nelle fascie più vendute ai giocatori (media e medio/alta). ;)
Quando ATI aveva top di gamma più veloci della concorrenza, guadagnava cmq meno di Nvidia... ;) e questo alla fine non porta a nulla di buono in senso complessivo aziendale.
Si ma c'è da dire che avere il primato porta pubblicità fama e di conseguenza vendite.. vedi un mio ex collega che tempo fà visti i bench della serie GTX285/275 giunse alal conclusione che le Nvidia erano più performanti.. e che quindi era migliore una GTS250 a 140/150 euro di una 4850a 115:(
mackillers
13-09-2009, 01:58
cmq la gtx 295 va il 69% in piu' della 4890:
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/22/
Con quelle specifiche la 5870, ha un architettura che è esattamente il doppio di quella della 4890 (il doppio delle alu, il doppio delle rops, ed il doppio delle tmu), con lo stesso core clock. Senza considerare poi 5,8 ghz perle ram (contro i 4 ghz della 4890) ed i miglioramenti architetturali....
A 400$ questa 5870 per non essereun flop non puo' andare solo come la gtx 295...ovvero "solo" il 69% in piu' della 4890...per non essere un flop deve essere sempre e cmmq sopra della gtx 295 di almeno un 20%...altrimenti sarebbe deludente imho...
Bhè ma da che mondo è mondo un raddoppio delle caratteristiche non porta mai ad un raddoppio delel performace effettive .. io direi che un 80% sarebeb un buon risultato..
poi considera i consumi della GTX295 che poi in molti giochi va meno perchè lo sli magari e meno supportato ecc..
Wing_Zero
13-09-2009, 02:00
Non é detto: i due "core" (ma sarebbe piú corretto chiamarli "array di SIMD") non lavorerebbero in modalitá AFR, che é quella che causa piú problemi di ridondanza e congestione delle risorse, bensí in modalitá SFR, ossia la scena verrebbe divisa in modo da allocare la stessa quantitá di lavoro tra i due array in maniera "trasparente" al software, che é poi piú o meno quello che fa uno solo dei "core" quando distribuisce il carico di lavoro tra i vari SIMD. Ossia, invece di avere un unico enorme Dispatch Processor che controlla 20 SIMD, si avrebbe un arbiter che alloca il lavoro tra i due array in modalitá SFR e poi due Dispatch Processor che controllano ognuno 10 SIMD. Perché questo? L´unica ragione che mi viene in mente é la semplicitá costruttiva: probabilmente la complessitá aumenta esponenzialmente con il numero dei SIMD da gestire, ed inoltre si puó replicare il design di uno dei "Core" sul chip Juniper quasi direttamente. Le perplessitá che mi vengono in mente sono quelle relative alla gestione della geometria e della ricostruzione dell´immagine, che tra qualche giorno spero che vengano risolte. Ad esempio, se ogni "core" avesse la propria unitá di setup e tessellazione, avremmo una capacitá di gestione dei triangoli piú che raddoppiata rispetto alle 4870, ed in certi casi questo sarebbe importante.
fantastica osservazione...che devo dire,...spero sia così :)
Purtroppo nn sono abbastanza informato sul funzionamento di un architettura video...spero di rimediare presto :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.