View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT
grande defragg, finalmente (si spera) hai azzittito i nvidiosi fanboyisti di 8800gts (almeno quelli) :asd:
... vedi sotto! :O
grande defragg, finalmente (si spera) hai azzittito i nvidiosi fanboyisti di 8800gts (almeno quelli) :asd:
appena rientrato dalla precedene sospensione... a sto giro sono 7gg che partiranno da quando mi avrai comunicato di aver editato e portato a norma la signature (vedi regolamento)
>bYeZ<
×§ñåkê× è meglio di Pasquale Bruno:D
leoneazzurro
18-06-2007, 20:49
perchè sono bananti tutti che coloro che provano a dire che la gts è superiore alla 2900 ( costa provata da tutte le recensioni online ) e chi sostiene il contrario viene osannato?
Assolutamente falso, sono sospesi quelli che dopo ripetuti avvertimenti hanno postato OT o creato flame all'interno del thread.
Garagolo
18-06-2007, 20:57
ma in crossfire non c'e' l ha nessuno ???:D
ma in crossfire non c'e' l ha nessuno ???:D
un utente mi sembra ;)
sulla baia americana è comparso un venditore che vende la versione della diamond da 1gb.
la stranezza è che dice che è eom e verrà spedita al sola scheda e i cavi compreso quello hdmi.
stranezza anche nelle frequenze.
per il core indica 750mhz al posto dei 740 dichiarati dal sito diamond.
anche per la ram invece di 1100mhz dichiarati nel sito diamond lui ne dichiara 1000.
mah:D
sulla baia americana è comparso un venditore che vende la versione della diamond da 1gb.
la stranezza è che dice che è eom e verrà spedita al sola scheda e i cavi compreso quello hdmi.
stranezza anche nelle frequenze.
per il core indica 750mhz al posto dei 740 dichiarati dal sito diamond.
anche per la ram invece di 1100mhz dichiarati nel sito diamond lui ne dichiara 1000.
mah:D
qualcosa mi dice qualcosa, mi sa di prototipo :D
-Feanor-
18-06-2007, 22:11
un utente mi sembra ;)
si ....ciaoraga1..... http://www.hwupgrade.it/forum/member.php?u=66085 ;)
Superpelo
18-06-2007, 22:21
Cavolo ma ci sono ancora test in cui va addirittura peggio della 1900, non riesco a capire se la cosa deve fare sperare bene o male...
+Lonewolf+
18-06-2007, 22:24
Cavolo ma ci sono ancora test in cui va addirittura peggio della 1900, non riesco a capire se la cosa deve fare sperare bene o male...
penso sia una dimostrazione palese che servono drivers...dubito che ati butti fuori una vga che va peggio della 1900
Premesso che ritengo 1900 un ottimo prodotto, i dati tecnici di 2900 XT, e buona parte delle prove che ho effettuato personalmente, la collocano ben al di sopra e questo da idea di quanto margine vi sia di driver, oltre che i bug vari ancora irrisolti.
Penso che i 7.6 saranno la prima release a correggere alcune magagne, ma che performance si vedranno dai 7.7 in poi.
CiAoRaGa1
18-06-2007, 22:59
ma in crossfire non c'e' l ha nessuno ???:D
Si :D
Free Gordon
19-06-2007, 00:44
ragazzi io però boh sta storia dei giochi nvidia e dei marchi "mean to be played di nvidia" inizierei ad eleminarli.
Se non fosse che i giochi TWIMTBP, sono circa l'80% di quelli in circolazione... :asd:
Molte case, testano prima su hw nVidia i propri giochi e poi, solamente dopo, su ATI (Epic è un esempio..).
Fortunatamente in mezzo ci sono le directX :D per cui c'è un terreno di scontro comune ^_^ ma in una situazione del genere, il problema fondamentale è che le peculiarità degli hw ATI (e spesso ciò che fa la differenza rispetto alla concorrenza....) non vengono mai sfruttate.
Se questo non è un vantaggio per nVidia (dubito fortemente cmq..), è sicuramente uno svantaggio per ATI.
Free Gordon
19-06-2007, 00:47
Ehm ecco la 320 già ce l'ho! :D
Se già ce l'hai... tientela... :D
Free Gordon
19-06-2007, 00:49
purtroppo invece considerando che il gioco è opengl sotto vista....il fatto è abbastanza normale..:cry:
Azz, sotto Vista le OGL effettivamente son un problema...
Ma per tutti, non solo per ATI.
Free Gordon
19-06-2007, 00:54
Apparte che tra breve esce G92 e G80 sarà riposizionato sui listini...
A breve?? :confused:
Free Gordon
19-06-2007, 01:03
caro...io mi riferivo alla gts da 320mb..se leggi meglio:rolleyes:
nessun fanboysmo...dico solo che IMHO la 2900 almeno della gts da 320 penso tu sia d'accordo che in dx10 andrà + forte...e si continua a flammare...
Per ora sono speculazioni cmq. ;)
Se Crysis avrà un rapporto ALU:TEX molto elevato (dai 15 in sù), con utilizzo di shader prevalentemente lunghi, è probabile che la 2900XT (con driver più maturi), stia vicina o superi persino la GTX/Ultra.
Se non sarà così, G80 in versione full potrebbe essere ancora più veloce.
Vedremo. :)
A breve?? :confused:
forse intendeva g82?fantomatiche 8900?
Free Gordon
19-06-2007, 01:09
si commette sempre il solito errore(per carità magari in buonafede)la 2900xt nei 3d mark2005/2006 eccelle. questo si è visto sin da subito. è nei giochi che c'è la differenza. nei giochi.
Mah, più che altro è che nei giochi i test si fanno con AA4x e AF8/16x attivi, mentre nel 3dmark no...
G80 ha un chiaro vantaggio rispetto ad R600 nel texture filtering e, utilizzando AA tramite fixed function, è davanti anche in quel campo.
Coi primi giochi che utilizzeranno per forza di cose l'AA via shader (UT2007 in vers dx10 mi viene in mente), vedremo un ribaltamento di fronte da quel pdv, con R600 probabilmente avvantaggiato.
Per ora il problema più grosso del team dei catalyst è far pesare meno l'AA via shader e ridurre, andando a velocizzare altre funzioni (ottimizzazioni del mem controller ad es), il gap nel filtraggio texture nei confronti di G80.
Free Gordon
19-06-2007, 01:12
"Fratello" sempre per paragone io con un modestissimo Opteron faccio 10500,quello con il conroe come fa a fare il mio stesso punteggio!? :D
Non avrà saputo ottimizzare tutto ;)
Tu ora usi driver più performanti nel 3dmark, rispetto a quelli che si potevano usare mesi fà.
Cmq un dual Opty a 2900mhz, và come un Conroe a 2300mhz circa. ;)
Mica bruscolini.. ^_^
Anche se la scheda è già stata annunciata e sebbene numerosi shop online già offrono la possibilità di prenotarla, la Radeon HD 2900XT 1024MB non sarà disponibile prima della fine del mese.
Quindi dal 14 giugno (annuncio) si passa al 28 giugno (disponibilità).
Ci sono ancora dei dubbi sull’effettiva frequenza operativa della scheda, ma sembra che sarà disponibile in 2 versione: una base con clock di 750/2000 e una extreme con freq. di 825/2200.
http://www.dinoxpc.com/News/news.asp?ID_News=12721&What=News
Il prezzo, visto il calo delle ram, non dovrebbe essere nemmeno esorbitante, comunque imho la Hd2900 XT 512 resta un miglior affare.
Coi primi giochi che utilizzeranno per forza di cose l'AA via shader (UT2007 in vers dx10 mi viene in mente), vedremo un ribaltamento di fronte da quel pdv, con R600 probabilmente avvantaggiato.
Hai qualche link sulla versione DX10 di UE3? Sul sito unrealtechnology non c'è scritto nulla (e tra l'altro mi pare molto poco aggiornato guardando la lista dei giochi rilasciati)
Hai qualche link sulla versione DX10 di UE3? Sul sito unrealtechnology non c'è scritto nulla (e tra l'altro mi pare molto poco aggiornato guardando la lista dei giochi rilasciati)
non esistono migliorie così tangibili a occhio direi, tranne una migliore gestione degli shader e appunto la possibilità di applicare MSAA, cosa che in DX9 non si può fare ;)
Allora ste rece, nada?:confused:
non vorrei dire un'inesattezza, ma ut2007 non è anche lui un TWIMTBP :stordita: ?
davide155
19-06-2007, 11:26
non vorrei dire un'inesattezza, ma ut2007 non è anche lui un TWIMTBP :stordita: ?
A parte che si chiama UT 3 :D
Cmq che vuol dire TWIMTBP :mbe: Edit........adesso l'ho capita :D
Ps: una race con la 2900xt 1gb non esiste ancora? :eek:
Cmq che vuol dire TWIMTBP :mbe: Edit........adesso l'ho capita :D
The Way It's Meant To Be Played
:rolleyes: :O
Ps: una race con la 2900xt 1gb non esiste ancora? :eek:
nò perchè ancora non è in commercio:p
davide155
19-06-2007, 11:33
The Way It's Meant To Be Played
:rolleyes: :O
Hai quotato quando avevo già editato :Prrr: :D :D
nò perchè ancora non è in commercio:p
Azz......:eek:
Azz......:eek:
pazientiamo un altro pò il 28 di giugno...
Tanto per iniziare a smentire le voci che volevano la riproduzione video di HD2900 una ciofeca, ecco una prima rece: occorre comunque ricordare che AVIVO HD non è ancora supportato dai drivers odierni, i Cat 7.5 usati da ExtremeTech, quindi i dati di qualità di immagine e di occupazione della cpu sono suscettibili di notevoli miglioramenti.
Il confronto è fatto con la 8800GTS (che dal punto di vista del video è uguale alla GTX) e la 8600GTS (che ha un'accelerazione video migliore di G80).
http://www.extremetech.com/article2/0,1697,2147694,00.asp
http://common.ziffdavisinternet.com/util_get_image/17/0,1425,i=179470,00.gif
http://common.ziffdavisinternet.com/util_get_image/17/0,1425,i=179469,00.gif
Per quanto riguarda l'occupazione della CPU, R600 ha un valore molto basso in uno dei 2 test (ma non si capisce quale, visto che nel test si dice uno e nell'immagine ci si rifersice ad un altro), mentre in un altro abbastanza alto: forse comunque i valori sono assimilabili a G80. Non ci sono test H264, ma solo MPEG-2 e VC1.
davide155
19-06-2007, 11:46
pazientiamo un altro pò il 28 di giugno...
Troppo :O
A parte che si chiama UT 3 :D
Cmq che vuol dire TWIMTBP :mbe: Edit........adesso l'ho capita :D
Ps: una race con la 2900xt 1gb non esiste ancora? :eek:
hai ragione, hanno cambiato il nome da poco (anche se non capisco perchè visto che è il 5 capitolo della serie)
[OT] SBORONE MODE ON :sofico:
chiamerò mark reins e glielo chiederò :sofico: .
Ci siamo conosciuti al futurshow 3001, quando ha presentato in anteprima ut2003 e ci abbiamo giocato insieme un ctf asd
[OT] SBORONE MODE OFF :sofico:
Non mi è chiaro il discorso sulla effettiva disponibilità della diamond da 1gb. Se non sbaglio è già possibile ordinarla dal canada mentre non è ancora disponibile in quello shop UK a cui sia INQ che fud facevano riferimento.
Forse che non è disponibile retail ma solo OEM già montata sui loro pc?
ragazzi riguardo la diamond.
ricordo che è una vga da 1gb solo eom e solo assemblatori per le loro linee di pc ultracostosi tipo che so alienware o falcon o hp.
sulla baia americana qualche cosa è uscita in vendita ma sembrano o prototipi oppure vga che vengono dall'acquisto di queste gamestation e poi smontate.
anche xè della vga esiste solo la versione bulk e non quella scatolata per la vendita retail.
amd-ati non ha ancora dato ufficialità di una versione da 1gb ma lascia ai partner se vogliono libertà di implementarla.
a me questa diamond nn entusiasma per niente forse faremmo meglio ad aspettare le schede sapphire che qui in europa arrivano in quantità ed è una casa che ci ha sempre abituato a versioni con dissi migliori o con maggiori quantititativi di ram + performanti vedi la x1800gto2 con 512mb di ram(che alla fine era una x1800xl che ufficialmente con 512mb di ram nn esisteva)
o la mitica serie fireblade cn ram migliori.
effettivamente se devo aspettarmi una hd2900xt con 1gb di ram gddr4 per il mercato retail europeo me la aspetto sicuramente da sapphire ma non prima di settembre.
cmq vi do uno spoiler che se una trattativa va a buon fine lascio la mia 8800gts per prendere una hd2900;)
Ragazzi,dato che le schede video di ultima generazione si sono dimostrate molto lente con i giochi directX 10 ,almeno quelli che sono usciti fino ad ora,secondo voi è possibile che i questi utilizzano librerie DirectX 9 in modo da garantire fluidità nelle immagini ?
Non so di preciso quando uscirando i giochi DirectX 10 ma credo che al momento dell'uscita le prime schede compatibili con il nuovo standard risulteranno molto lente.
Cosa ne pensate al riguardo? :)
be, che i primi giochi dx10 saranno piu che altro, almeno credo, un misto dx9-dx10 e forse se la caveranno non c'è male le 8800 e 2900, però è chiaro, che i primi giochi veramente dx10 le metteranno in ginocchio, ma per allora saranno già uscite un paio di generazione di schede video successive!:)
Cmq basta vedere come è andata precedentemente:
I primi VERI giochi dx8 hanno messo in croce le varie Geforce3 e Ati8500
I primi VERI giochi dx9 hanno messo in croce le varie Ati 9700 e Geforce 5xxx
Sarà chiaro che i primi VERI giochi dx10 metterranno in croce le 8800 e 2900!
:cool:
be, che i primi giochi dx10 saranno piu che altro, almeno credo, un misto dx9-dx10 e forse se la caveranno non c'è male le 8800 e 2900, però è chiaro, che i primi giochi veramente dx10 le metteranno in ginocchio, ma per allora saranno già uscite un paio di generazione di schede video successive!:)
Cmq basta vedere come è andata precedentemente:
I primi VERI giochi dx8 hanno messo in croce le varie Geforce3 e Ati8500
I primi VERI giochi dx9 hanno messo in croce le varie Ati 9700 e Geforce 5xxx
Sarà chiaro che i primi VERI giochi dx10 metterranno in croce le 8800 e 2900!
:cool:
Capisco, nei primi periodi di tempo i giochi non saranno precisamente DirectX10 ma qualcosa che si interpone tra queste ultime e le 9.
Quando tempo ci vorrà per i giochi Directx 10?
1,2 anni?
Portocala
19-06-2007, 13:34
a Natale/inizio anno prossimo escono i nuovi modelli di schede video percui 1-2 titoli allora, alcuni per pasqua e altri prima delle vacanze estive e inizio anno scolastico quando la gente si sa, spende un bordello :asd: (o meglio, è costretta)
guardate cosa h trovato!!!
http://www.chip.de/artikel/c1_artikel_26418453.html
questa può essere una dimostrazione che la 2900 ha una grande carenza nei driver:D (almeno secondo me:) )
per chi conosce il tedesco o ha un buon sito di translate
http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/
Portocala
19-06-2007, 13:44
dice: Bussare :rotfl:
14. May 2007hai scoperto l'acqua calda :asd:
NvidiaMen
19-06-2007, 15:25
Ragazzi,dato che le schede video di ultima generazione si sono dimostrate molto lente con i giochi directX 10 ,almeno quelli che sono usciti fino ad ora,secondo voi è possibile che i questi utilizzano librerie DirectX 9 in modo da garantire fluidità nelle immagini ?
Non so di preciso quando uscirando i giochi DirectX 10 ma credo che al momento dell'uscita le prime schede compatibili con il nuovo standard risulteranno molto lente.
Cosa ne pensate al riguardo? :)
La lentezza mostrata dalle schede video odierne, sia dalla serie 8800 ed in particolare dalla 2900XT, dipendono in particolare dalla scarsa ottimizzazione drivers in ambito DX10. Le schede video top di gamma di oggi si troveranno a loro agio anche tra uno ed anche due anni in particolare in configurazione SLI o Crossfire (d'altronde una vecchissima 9800XT, vecchia di ben tre generazioni, fà ancor oggi girare più che degnamente Far Cry anche se non ovviamente ai 100-150fps ed alle risoluzioni HDTV tipiche delle ultime gpu in commercio...). Per il motore di Crysis in ultra quality (che verrà preso in "prestito" da molti dei futuri giochi) sarà necessario una 8800 (suppongo GTX) abbinata ad un E6600 e questo non per sentito dire, ma dalle dichiarazioni ufficiali di Cevat Yerli CEO di Crytek (http://www.crysis.it/) rilasciate su Gameradar.
Anche Bala Keilman, CEO di Commodore Gaming, ha di recente affermato che Crysis è solo l'inizio e che successivamente sarà possibile godere delle ulteriori novità di realismo, introdotte dalle DX10, senza aumentare la domanda di risorse del PC (http://www.tomshw.it/news.php?newsid=10481). D'altronde con DX10 il codice è stato completamente riscritto (http://www.thecyberplanet.it/direct-x-10-benvenuti-nel-futuro-pag2.html) per cui l'ottimizzazione delle API è stata finalmente completamente eseguita.
DX10 interviene infatti con, in media un ordine di grandezza in meno, di chiamate alla cpu (basso overhead (http://www.hwupgrade.it/articoli/skvideo/1512/directx-10-uno-sguardo-al-futuro-delle-gpu_3.html)) rispetto a DX9. Per cui non sarei così pessimista in questo senso.
NM.
La lentezza mostrata dalle schede video odierne, sia dalla serie 8800 ed in particolare dalla 2900XT, dipendono in particolare dalla scarsa ottimizzazione drivers in ambito DX10. Le schede video top di gamma di oggi si troveranno a loro agio anche tra uno ed anche due anni in particolare in configurazione SLI o Crossfire (d'altronde una vecchissima 9800XT, vecchia di ben tre generazioni, fà ancor oggi girare più che degnamente Far Cry anche se non ovviamente ai 100-150fps ed alle risoluzioni HDTV tipiche delle ultime gpu in commercio...). Per il motore di Crysis in ultra quality (che verrà preso in "prestito" da molti dei futuri giochi) sarà necessario una 8800 (suppongo GTX) abbinata ad un E6600 e questo non per sentito dire, ma dalle dichiarazioni ufficiali di Cevat Yerli CEO di Crytek (http://www.crysis.it/) rilasciate su Gameradar.
Anche Bala Keilman, CEO di Commodore Gaming, ha di recente affermato che Crysis è solo l'inizio e che successivamente sarà possibile godere delle ulteriori novità di realismo, introdotte dalle DX10, senza aumentare la domanda di risorse del PC (http://www.tomshw.it/news.php?newsid=10481). D'altronde con DX10 il codice è stato completamente riscritto (http://www.thecyberplanet.it/direct-x-10-benvenuti-nel-futuro-pag2.html) per cui l'ottimizzazione delle API è stata finalmente completamente eseguita.
DX10 interviene infatti con, in media un ordine di grandezza in meno, di chiamate alla cpu (basso overhead (http://www.hwupgrade.it/articoli/skvideo/1512/directx-10-uno-sguardo-al-futuro-delle-gpu_3.html)) rispetto a DX9. Per cui non sarei così pessimista in questo senso.
NM.
Alcune parti del tuo discorso sono corrette, altre meno. In effetti i benchmark usciti finora non dovrebbero essere esattamente esplicativi dell'andamento in DX10 di queste schede, però è innegabile anche che secondo me sarà difficile riuscire ad ottenere framerates spettacolari a risoluzioni uber coi filtri attivati con le attuali schede top. Direi che a 1280x1024 si starà sicuri, ma per le risoluzioni maggiori non saprei.
Per il discorso generico sulle DX10, bisogna pensare che è vero che si ridurrà l'overhead, ma comunque aumenteranno i dettagli, gli effetti e gli oggetti renderizzati, quindi comunque un gioco in modalità DX10 sarà più "pesante" che in modalità DX9.
Sul futuro non mi pronuncerei, inoltre. Le DX10 sono un salto notevole, molto più grande che qualunque altro cambiamento avvenuto in passato per le vga, quindi le previsioni sono molto difficili. Le DX10.1 potrebbero già essere dietro l'angolo, la tessellation hardware pure, e per un annetto potremmo non avere nemmeno un gioco che sfrutti appieno i geometry shader. G80 e R600 sono molto diversi, quindi le loro performances future (tra 1-2 anni) potrebbero essere molto diverse.
Athlon 64 3000+
19-06-2007, 16:13
La lentezza mostrata dalle schede video odierne, sia dalla serie 8800 ed in particolare dalla 2900XT, dipendono in particolare dalla scarsa ottimizzazione drivers in ambito DX10. Le schede video top di gamma di oggi si troveranno a loro agio anche tra uno ed anche due anni in particolare in configurazione SLI o Crossfire (d'altronde una vecchissima 9800XT, vecchia di ben tre generazioni, fà ancor oggi girare più che degnamente Far Cry anche se non ovviamente ai 100-150fps ed alle risoluzioni HDTV tipiche delle ultime gpu in commercio...). Per il motore di Crysis in ultra quality (che verrà preso in "prestito" da molti dei futuri giochi) sarà necessario una 8800 (suppongo GTX) abbinata ad un E6600 e questo non per sentito dire, ma dalle dichiarazioni ufficiali di Cevat Yerli CEO di Crytek (http://www.crysis.it/) rilasciate su Gameradar.
Anche Bala Keilman, CEO di Commodore Gaming, ha di recente affermato che Crysis è solo l'inizio e che successivamente sarà possibile godere delle ulteriori novità di realismo, introdotte dalle DX10, senza aumentare la domanda di risorse del PC (http://www.tomshw.it/news.php?newsid=10481). D'altronde con DX10 il codice è stato completamente riscritto (http://www.thecyberplanet.it/direct-x-10-benvenuti-nel-futuro-pag2.html) per cui l'ottimizzazione delle API è stata finalmente completamente eseguita.
DX10 interviene infatti con, in media un ordine di grandezza in meno, di chiamate alla cpu (basso overhead (http://www.hwupgrade.it/articoli/skvideo/1512/directx-10-uno-sguardo-al-futuro-delle-gpu_3.html)) rispetto a DX9. Per cui non sarei così pessimista in questo senso.
NM.
ottimo discorso anche se penso che Crysis oltre che su una 8800 girerà bene anche sulla hd 2900xt
JoeLatino
19-06-2007, 16:23
Scusate ma a nessuno e' venuto in mente che al momento ne' NVIDIA ne' AMD non stanno supportando ancora (via software) le famose potenzialita' per la gestione della fisica tanto dichiarate,e che queste una volta implementate nei vari drivers potrebbero accellerare di brutto le prestazioni??
Scusate ma a nessuno e' venuto in mente che al momento ne' NVIDIA ne' AMD non stanno supportando ancora (via software) le famose potenzialita' per la gestione della fisica tanto dichiarate,e che queste una volta implementate nei vari drivers potrebbero accellerare di brutto le prestazioni??
http://www.hwupgrade.it/forum/showthread.php?t=1495560&page=2
leggi i commenti di catan ;)
JoeLatino
19-06-2007, 16:45
http://www.hwupgrade.it/forum/showthread.php?t=1495560&page=2
leggi i commenti di catan ;)
forse per le schede precedenti vale quel discorso,ma per le 2900xt e le 8800 non credo...
infatti per esempio nelle caratteristiche di quest'ultime c'e' scritto:
"presenza del nuovo motore per i calcoli della Fisica, nVIDIA Quantum Effects"
che a parer mio significa appunto qualcosa per accellerare la fisica (che pero' non e' ancora funzionante!)
o no???:confused:
Athlon 64 3000+
19-06-2007, 16:51
io come ho sempre detto dover usare il multi gpu per calcolare la fisica la ritengo una cagata e preferisco che faccia tutto la singola scheda.
Con R5xx solo con il multi gpu è possibile ma con G80 e R600 visto che sono gpu diverse io penso che anche la singola gpu sia in grado di calcolare grafica e fisica insieme.
E' stato ribadito più volte che r600 sia un progetto dx10 oriented, ed è uno dei motivi del mio acquisto come, penso, di quello di molti altri, è auspicabile quindi che con questa Api affermata vedremo quanto vale nell'ambito per cui è stata creata, io sono fiducioso, se non lo fossi, non avrei speso 398 euro.
Ritengo inoltre che anche in Dx9 si stia comportando egregiamente, almeno nel mio sistema, mancano ancora i driver giusti, e chi la possiede sta verificando con mano quello che dico, e titoli adeguati.
In Crysis vedo uno scenario dove in dx9 Geforce 8800 e compagnia siano avvantaggiate, mentre un gap rispetto ad Ati in dx10, queste non vogliono essere le tipiche e noiose parole profetiche, ma solo un MIO parere personale che non vuole suscitare flame.
forse per le schede precedenti vale quel discorso,ma per le 2900xt e le 8800 non credo...
infatti per esempio nelle caratteristiche di quest'ultime c'e' scritto:
"presenza del nuovo motore per i calcoli della Fisica, nVIDIA Quantum Effects"
che a parer mio significa appunto qualcosa per accellerare la fisica (che pero' non e' ancora funzionante!)
o no???:confused:
credo che il discorso si possa apllicare anche alla serie HD2000 ;)
magari provo a inviare un'email a sapphire :)
E' stato ribadito più volte che r600 sia un progetto dx10 oriented, ed è uno dei motivi del mio acquisto come, penso, di quello di molti altri, è auspicabile quindi che con questa Api affermata vedremo quanto vale nell'ambito per cui è stata creata, io sono fiducioso, se non lo fossi, non avrei speso 398 euro.
Ritengo inoltre che anche in Dx9 si stia comportando egregiamente, almeno nel mio sistema, mancano ancora i driver giusti, e chi la possiede sta verificando con mano quello che dico, e titoli adeguati.
In Crysis vedo uno scenario dove in dx9 Geforce 8800 e compagnia siano avvantaggiate, mentre un gap rispetto ad Ati in dx10, queste non vogliono essere le tipiche e noiose parole profetiche, ma solo un MIO parere personale che non vuole suscitare flame.
Un'ulteriore conferma a quanto dici potrebbe venire dalle parole di Eric Demers sul forum di B3D:
The Z is 32 frags per cycle, regardless of AA mode. That's 2x before in non-AA. I don't disagree that I would of liked to have 4xAA for free, but it's 2xAA for "free".
A quanto mi pare di capire Demers dice che in R600 il MSAA2x è for free, ossia la perdita in termini di performance dovrebbe essere pressochè inesistente rispetto allo scenario senza MSAA.
Questo però non si riscontra nei fatti, dato che l'impatto dell'AA è invece spesso notevole anche a 2x...
http://www.elitebastards.com/hanners/sapphire/2900xt/charts/scaling-aa.png
Questo potrebbe voler dire che con drivers maturi le prestazioni coi filtri potrebbero migliorare nettamente... :)
ale0bello0pr
19-06-2007, 17:24
http://www.elitebastards.com/hanners/sapphire/2900xt/charts/scaling-aa.png
Elite Bastards??:D
Elite Bastards??:D
Sì, bel nome vero? :sofico:
E' uno dei migliori siti che fanno raccolta di link con recensioni hw (inoltre ha anche recensioni proprie). :)
Interessante confrontare inoltre i dati di R600 con quelli di G80. Ecco come, mesi fa, la 8800GTX si comportava in un test simile con un gioco (CS:S) con lo stesso motore grafico di HL2.
http://www.elitebastards.com/hanners/foxconn/8800gtx/charts/aa-perf.png
Al di là dei valori in sè, che ovviamente non sono direttamente confrontabili, è interessante notare come l'impatto dell'AA 2x e 4x sia differente. L'esame dell'impatto dell'AF è ancora più eloquente: G80 ha un AF16x praticamente for free (si perde meno del 2% di fps), mentre con R600 si perde circa il 4% di prestazioni (con un AF di qualità inferiore).
R600
http://www.elitebastards.com/hanners/sapphire/2900xt/charts/scaling-af.png
G80 GTX
http://www.elitebastards.com/hanners/foxconn/8800gtx/charts/af-perf.png
Kharonte85
19-06-2007, 18:34
Arrivano le HD2900XT da 1 GB
da The Inquirer Team: Martedì 19 Giugno 2007, 8:21
DURANTE IL BRIEFING di Tunisi per il lancio della R600, i manager di AMD ci hanno detto di avere deciso di eliminare la scheda da 1 GB per via della mancanza di stabilità termica offerta dalla GPU.
Ma l’equipe in questione ha ammesso di appartenere a un’azienda “che mette al centro il cliente”, per cui se un partner vuole essere presente sul mercato con le schede da 1 GB va bene così.
Ora, Bruce Zaman, CEO di Diamond Multimedia, è il primo che esce allo scoperto e vuota il sacco sulla scheda da 1 GB e il suo futuro.
Bruce ha detto che Diamond sarà il primo partner di AMD che porterà sul mercato la scheda Radeon da 1 GB. L’azienda sta sostituendo i moduli Hynix GDDR-3 da 512 MB con i chip di memoria GDDR-4 di Samsung, caratterizzati da qualità più elevata e maggiore velocità.
Diamond ha anche overclockato la scheda, così adesso le schede Viper usciranno con GPU clockate a 825 MHz, un bel 83 MHz in più rispetto alla GPU standard, mentre la memoria è clockata a 1,1 GHz in modalità DDR, o 2,2 GHz. La larghezza di banda della memoria è aumentata a 140,8 GB/sec, 35 GB/sec in più rispetto alla 2900XT.
L’azienda offrirà anche le schede clockate a 743/1100, per cui la GPU sarà standard, ma la memoria sarà clockata a valori molto alti. Il punto discutibile su queste schede è il fatto che Diamond abbia affermato che le schede saranno disponibili presso integratori di sistemi selezionati (in particolare nel Nord America), mentre i prezzi al dettaglio e le previsioni sulla disponibilità non sono per niente chiari.
Sappiamo che Diamond non è la sola che uscirà sul mercato con componenti da 1 GB, infatti ci sono arrivate voci da altri partner di AMD che anche loro stanno portando questi componenti sul mercato, per cui prevedibilmente che la linea “ATI Radeon HD 2900XT” di AMD sarà caratterizzata da due e non una SKU.
Resta da vedere come AMD supporterà questa scheda con i driver perché anche il componente standard HD2900XT non ha le prestazioni attese, per lo più a causa dei driver che non sono abbastanza “maturi”. E questo componente è in ritardo di soli nove mesi. Il programma in origine prevedeva il lancio della R600 per la seconda settimana di settembre, non novembre come alcuni sarebbero orientati a pensare.
Articolo originale di Theo Valich
http://it.theinquirer.net/2007/06/arrivano_le_hd2900xt_da_1_gb.html
Alexkidd85
19-06-2007, 19:28
Simao sempre lì. Se ci sarà,con l'intrusuzione di DX10 o di giochi ultrapesanti in dx9,il bisogno di 1GB di memoria è normale che si adeguerà il mercato...adesso vorrei analizzare o meglio scoprire che miglioria portano e se è vero che queste gdd4 avessere problemi con il progetto r600... attendo i bench :)
TecnoWorld8
19-06-2007, 20:19
dal punto di vista prestazionale, credo che questa scheda, in virtù della maggior frequenza della GPU, avrà prestazioni di circa 10% più elevate di una R600 "base", arrivando quasi a livello di una GTX in alcuni test. Non credo davvero che nè il maggior quantitativo di memoria, nè la frequenza maggiore della stessa, invece, introdurranno significativi miglioramenti prestazionali; infatti i casi in cui 512MB sono insufficienti credo siano quasi inesistenti...dunque, credo sia stata più strategica la scelta di nVidia di dotare l'attuale top di gamma di 640 e 768MB, per attendere magari G92 per passare al GB, che forse sarà utile con i giochi in uscita nel 2008...
Iantikas
19-06-2007, 20:25
dal punto di vista prestazionale, credo che questa scheda, in virtù della maggior frequenza della GPU, avrà prestazioni di circa 10% più elevate di una R600 "base", arrivando quasi a livello di una GTX in alcuni test. Non credo davvero che nè il maggior quantitativo di memoria, nè la frequenza maggiore della stessa, invece, introdurranno significativi miglioramenti prestazionali; infatti i casi in cui 512MB sono insufficienti credo siano quasi inesistenti...dunque, credo sia stata più strategica la scelta di nVidia di dotare l'attuale top di gamma di 640 e 768MB, per attendere magari G92 per passare al GB, che forse sarà utile con i giochi in uscita nel 2008...
il quantitativo atipico di 640/768mb adottato da nvidia x GTS/GTX è dovuto all'uso di un bus da 320/384bit...
...ora mi vien da pensare ad un solo gioco ke può beneficiare di tale quantitativo di ram...Stalker ke x es a 1680x1050 tutto la max sfora i 512mb on-board ed utilizza fino a 200mb di quella d sistema...
...cmq credo ke le maggiori frequenze delle ram parteciperanno anke loro a migliorare le prestazioni della skeda...ogni arkitettura è avida di banda a modo suo e IMHO quei circa 40gb in + ad un R600@825mhz male nn gli faranno...ciao
+Lonewolf+
19-06-2007, 20:27
il quantitativo atipico di 640/768mb adottato da nvidia x GTS/GTX è dovuto all'uso di un bus da 320/384bit...
...ora mi vien da pensare ad un solo gioco ke può beneficiare di tale quantitativo di ram...Stalker ke x es a 1680x1050 tutto la max sfora i 512mb on-board ed utilizza fino a 200mb di quella d sistema...
...cmq credo ke le maggiori frequenze delle ram parteciperanno anke loro a migliorare le prestazioni della skeda...ogni arkitettura è avida di banda a modo suo e IMHO quei circa 40gb in + ad un R600@825mhz male nn gli faranno...ciao
si ma a risoluzioni mortatli sarà pressochè inutile...inoltre i giochi che nel 2008 sfrutteranno 1gb di mem video li vedo molto improbabili...poi dipende dalla risoluzione....
Iantikas
19-06-2007, 20:38
si ma a risoluzioni mortatli sarà pressochè inutile...inoltre i giochi che nel 2008 sfrutteranno 1gb di mem video li vedo molto improbabili...poi dipende dalla risoluzione....
ma infatti ho detto ke al momento mi viene in mente un solo gioco ke li possa sfruttare (la parte sottintesa era ke quindi un quantitativo d 1gb al momento nn è grankè utile ;) )...ciao
p.s.: cmq io x i gioki ke usciranno a fine anno o giù di li (tipo bioshock, crysis, CoD4) son + propenso a pensare ad un occupazione intorno ai 512mb x ris medie tipo 1600x1200/1680x1050 (ke inoltre è l'occupazione ke registrano gli ultimi titoli usciti tipo Stalker e Colin DIRT)...naturalmente ki gioca a ris basse tipo 1024x768/1280x1024 nn avrà problemi ma 1gb sarà sicuramente utile a ki gioca a ris elevate tipo 1920x1200/2560x1600...
+Lonewolf+
19-06-2007, 20:41
ma infatti ho detto ke al momento mi viene in mente un solo gioco ke li possa sfruttare (la parte sottintesa era ke quindi un quantitativo d 1gb al momento nn è grankè utile ;) )...ciao
p.s.: cmq io x i gioki ke usciranno a fine anno o giù di li (tipo bioshock, crysis, CoD4) son + propenso a pensare ad un occupazione intorno ai 512mb x ris medie tipo 1600x1200/1680x1050 (ke inoltre è l'occupazione ke registrano gli ultimi titoli usciti tipo Stalker e Colin DIRT)...naturalmente ki gioca a ris basse tipo 1024x768/1280x1024 nn avrà problemi ma 1gb sarà sicuramente utile a ki gioca a ris elevate tipo 1920x1200/2560x1600...
d'accordissimo;)
solo 1 cosa...io gioco a 1280 e con COD2 e Stalker sn arrivato a 490mb
poi oblivion hipermoddato con AA16x me ne occupa 510;)
infatti trovo che sia superficiale ragionare in termini solo di risoluzione. Ci sono tanti fattori che influenzano sulla memoria video :)
Ragà dipenderà anche dal prezzo che sarà venduta.
Sperimo che le 2900 xt da 512 mb caleranno di prezzo con queste nuove.:)
Ragà dipenderà anche dal prezzo che sarà venduta.
Sperimo che le 2900 xt da 512 mb caleranno di prezzo con queste nuove.:)
Infatti...
Una XT 512MB sui 300€ o meno, è da prendere al volo...
Ragà dipenderà anche dal prezzo che sarà venduta.
Sperimo che le 2900 xt da 512 mb caleranno di prezzo con queste nuove.:)
penso che caleranno...cmq dipende da in che fascia di prezzo si collocherà quella da 1gb
I prezzi reggono fin dal lancio, credo piuttosto che si collocherà sulle 420-430.
I progressi comunque ci saranno, ma è con i driver che si inizierà a vedere il potenziale, e dovrebbero uscire a breve, secondo me con la presentazione della fascia media.
NvidiaMen
19-06-2007, 21:24
Alcune parti del tuo discorso sono corrette, altre meno. In effetti i benchmark usciti finora non dovrebbero essere esattamente esplicativi dell'andamento in DX10 di queste schede, però è innegabile anche che secondo me sarà difficile riuscire ad ottenere framerates spettacolari a risoluzioni uber coi filtri attivati con le attuali schede top. Direi che a 1280x1024 si starà sicuri, ma per le risoluzioni maggiori non saprei.
Bè, se a detta del CEO di Crytek, con Crysis in extra quality "basta" una GTX o una 2900XT con drivers corretti e rivisti, credo che due in SLI o Crossfire, a seconda dei casi, possano garantire la "decenza" anche a risoluzioni elevate (1920x1200).
Per il discorso generico sulle DX10, bisogna pensare che è vero che si ridurrà l'overhead, ma comunque aumenteranno i dettagli, gli effetti e gli oggetti renderizzati, quindi comunque un gioco in modalità DX10 sarà più "pesante" che in modalità DX9.
Ovvio, se in futuro dovranno essere "calcolate" anche le cacchette delle mosche, non ci sarà hardware che basti...
Certamente la programmazione terrà conto di quella che sarà la diffusione dell'hardware DirectX esistente ed effettivamente presente nel mercato limitandosi nella ricchezza dei dettagli secondari per lo meno per i primi due anni nei quali, molto probabilmente, saranno presentate duplici versioni per ogni applicativo videoludico: una DX10 ed una DX9. Le vecchie API DX9 non per nulla presenti in Windows Vista rappresenteranno ancora una grossa fetta di mercato in quanto molte schede DX10 di fascia media e bassa (che rappresentaranno assieme alle vecchie DX9 più del 90% del totale) potranno gestire con tranquillità solo la modalità DX9. Se ciò non avverrà si potrà rischiare che i ricavi per le software house, dopo gli investimenti fatti, siano prossimi allo zero se non, addirittura, in negativo...
Sul futuro non mi pronuncerei, inoltre. Le DX10 sono un salto notevole, molto più grande che qualunque altro cambiamento avvenuto in passato per le vga, quindi le previsioni sono molto difficili. Le DX10.1 potrebbero già essere dietro l'angolo, la tessellation hardware pure, e per un annetto potremmo non avere nemmeno un gioco che sfrutti appieno i geometry shader. G80 e R600 sono molto diversi, quindi le loro performances future (tra 1-2 anni) potrebbero essere molto diverse.
Ciò non implica che acquistando oggi due 2900XT (magari da 1GB) in Crossfire si avranno, tra due anni, schede inutilizzabili a scopo videoludico anche ad alte risoluzioni (a limite si dovrà rinunciare a qualche dettaglio, ma da qui a dire che le schede non saranno all'altezza, come supposto da qualcun'altro, credo sia un pò esagerato). Era questo, in fondo, il quesito che è stato posto in precedenza da Spytek, poi si sà: la tecnologia và avanti e ci sarà sempre un dopo ad ogni cosa.
NM.
bhe considerando che nel 2001 le VGA avevano un quantitativo di Mem OnboarD
in un range compreso tra i 16 ed i 64 traete voi le debite conclusioni.
non sembra neanche vero...
non sembra neanche vero...
Sai a me cosa non sembra neanche vero?
Che un giorno consigli una cosa, il giorno dopo una nuova...
Purtroppo il mondo dell'informatica è abbastanza malinconico sotto questo punto di vista...
PS. I 7.6?
TecnoWorld8
19-06-2007, 22:12
non trovo sorprendende l'evoluzione della quantità di memoria negli anni. come quella di sistema, anche quella delle schede grafiche si è moltiplicata. E anche l'aumento di potenza di calcolo è un trend abbastanza prevedibile.
Trovo invece più affascinante la nascita di nuovi concetti, come la scheda dedicata al 3D a metà anni '90, oppure la nuova frontiera del realismo dovuto alla fisica implementata nei giochi.
In ogni caso, come sempre accade, i primi prodotti a presentare un "nuovo" quantitativo di memoria escono in un periodo in cui, tale quantitativo, ancora non è richiesto. Dunque, se oggi avremo una scheda con 1GB di memoria on-board, prepariamoci a non utilizzare davvero quel quantitativo per un anno circa e poi ad utilizzarlo marginalmente, con qualche beneficio non troppo sostanziale, per altri 6-12 mesi.
Se non sbaglio le prime schede con 512MB si sono viste nel 2004 e solo da circa un anno (a parte alcuni casi rarissimi) tale quantitativo è realmente utile e da evidenti benefici.
Free Gordon
19-06-2007, 22:13
I primi VERI giochi dx9 hanno messo in croce le varie Ati 9700 e Geforce 5xxx
A dire il vero, Far Cry girava più che bene sulla 9700pro. ;)
Iantikas
19-06-2007, 22:22
Le vecchie API DX9 non per nulla presenti in Windows Vista rappresenteranno ancora una grossa fetta di mercato in quanto molte schede DX10 di fascia media e bassa (che rappresentaranno assieme alle vecchie DX9 più del 90% del totale) potranno gestire con tranquillità solo la modalità DX9.
NM.
se x il resto son daccordo in questa parte del tuo post mi trovi in totale disaccordo...nel dire ciò ke hai detto ti stai dimenticando ke anke i gioki DX10 prevederanno vari livelli di detaglio così come gli attuali DX9...naturalmente una DX10 di fascia media come 8600GTS nn potrà far girare un gioco DX10 in superextrauberultra quality ma certamente potrà farlo con dettagli medi e facendolo potrà cmq beneficiare dei vari miglioramenti introdotti con le nuove DX (ke nn ti sto ad elencare dato ke tu stesso nei hai parlato poki post addietro)...ciao
NvidiaMen
19-06-2007, 22:26
bhe considerando che nel 2001 le VGA avevano un quantitativo di Mem OnboarD
in un range compreso tra i 16 ed i 64 traete voi le debite conclusioni.
Nel 2001 effettivamente si avevano schede di fascia bassa con 16MB, di fascia media con 32MB e schede di fascia alta con 64MB. Forzando la legge di Moore anche in questo ambito è come se si avesse, tenendo a riferimento la sola fascia alta, un raddoppio (in media, quindi i dati non rispecchiano l'effettiva presenza passata nel mercato) della memoria ogni due anni:
- 2001: 64MB
- 2003: 128MB
- 2005: 256MB
- 2007: 512MB (media a sua volta tra i 384MB e i 768MB di nVidia e i 512MB della 2900XT).
Diciamo che, in questo 2007, con la R600 da 1GB son andati un pò oltre la media e questo lascia ben sperare che possano bastare per almeno altri due anni, GPU e Crossfire permettendo...
NvidiaMen
19-06-2007, 22:35
se x il resto son daccordo in questa parte del tuo post mi trovi in totale disaccordo...nel dire ciò ke hai detto ti stai dimenticando ke anke i gioki DX10 prevederanno vari livelli di detaglio così come gli attuali DX9...naturalmente una DX10 di fascia media come 8600GTS nn potrà far girare un gioco DX10 in superextrauberultra quality ma certamente potrà farlo con dettagli medi e facendolo potrà cmq beneficiare dei vari miglioramenti introdotti con le nuove DX (ke nn ti sto ad elencare dato ke tu stesso nei hai parlato poki post addietro)...ciao
Molti degli effetti in tempo reale non gestibili via DX10 (causa deficit computazionale delle GPU di fascia inferiore) dovranno essere sostituiti da analoghe procedure, precalcolate, non presenti nelle nuove API Microsoft e che oggi sono utilizzate in DX9. Se io avvio un gioco DX10 ed elimino un particolare effetto perchè non gestibile, questo non sarà presente. Al contrario se lo gestisco alla "vecchia maniera" attraverso DX9 avrò una qualità ed un realismo inferiore, ma comunque sarà presente. Se sei realmente convinto di ciò che affermi dimmi perchè credi che alla Crytek abbiano sviluppato per Crysis un motore (il CryEngine 2) sia per DX9 che per DX10 (http://www.crysis.it/index.php?option=com_content&task=view&id=17&Itemid=30)? Non penso proprio che la risposta sia che non avevano nulla da fare...
A dire il vero, Far Cry girava più che bene sulla 9700pro. ;)
dipende tutto da come programmano i giochi...se è per questo la 9700pro che avevo sul mulo faceva andare a + di 60fps a 1024 HL2 con i dettagli su max e AF 4x...
con una 9800pro che ad oggi è quasi una signora scheda(almeno rispetto alle varie fasce medie) chedo che con un gioco ben programmato come HL2 si possa ancora giocare permettendosi un AA 2X.
+Lonewolf+
19-06-2007, 23:41
scsa la domanda ma crysis, è un titolo sponsorizzato nvidia?
aggiungo:
quando il CEO di crytek ha dtt che per crysis basta una 2900 o una gtx?
Iantikas
20-06-2007, 00:47
Molti degli effetti in tempo reale non gestibili via DX10 (causa deficit computazionale delle GPU di fascia inferiore) dovranno essere sostituiti da analoghe procedure, precalcolate, non presenti nelle nuove API Microsoft e che oggi sono utilizzate in DX9. Se io avvio un gioco DX10 ed elimino un particolare effetto perchè non gestibile, questo non sarà presente. Al contrario se lo gestisco alla "vecchia maniera" attraverso DX9 avrò una qualità ed un realismo inferiore, ma comunque sarà presente. Se sei realmente convinto di ciò che affermi dimmi perchè credi che alla Crytek abbiano sviluppato per Crysis un motore (il CryEngine 2) sia per DX9 che per DX10 (http://www.crysis.it/index.php?option=com_content&task=view&id=17&Itemid=30)? Non penso proprio che la risposta sia che non avevano nulla da fare...
cavolo....l'hanno fatto x tutte le skede NON dx10 presenti...ma stai skerzando???
...e mo nn cambiare discorso..tu hai detto ke ki ha una DX10 fascia media dovrà (inoltre hai aggiunto x forza) far girare i gioki DX10 in DX9...xkè mai nn dovrebbe farli girare in DX10 ma x es. a dettaglio medio anzikè Ultra???
se poi tu x DX10 intendi solo qualke effetto in + e pure bello pesante allora ok, meglio DX9...ma se x DX10 intendi l'intero gioco ke sfrutta le potenzialità delle DX10 (migliorie grafike ma anke prestazionali) allore meglio le 10...xkè uno nn dovrebbe usufruire, tramite la nn abilitazione dei vari effetti in +, delle sole migliorie prestazionali se possiede appunto una skeda compatibile con tali librerie???
...ciao
aggiungo:
quando il CEO di crytek ha dtt che per crysis basta una 2900 o una gtx?
Ricordi quando iD software diceva che doom3 sarebbe girato alla grande con la Geffo3/Ati8500?!?!.... ecco, uguale! :O
Ricordi quando iD software diceva che doom3 sarebbe girato alla grande con la Geffo3/Ati8500?!?!.... ecco, uguale! :O
si ma se dovesse essere così quelli di crysis sono dei ...
NvidiaMen
20-06-2007, 07:57
cavolo....l'hanno fatto x tutte le skede NON dx10 presenti...ma stai skerzando???
Rileggi il mio post, quello da te quotato inizialmente, e ti accorgerai che ovviamente nel 90% delle schede da me menzionate tra quelle utilizzabili nei prossimi due anni per l'utilizzo del CryEngine 2.0 con DX9, consideravo ovviamente anche le DX9 esistenti.
Considera che i programmatori sono pagati, da contratto, come dei dipendenti e non in base alle vendite effettive a posteriori, ma con un accordo preventivo e non generalmente modificabile sul volume di vendita stimato, con la software house per la quale lavorano, del loro applicativo e, nel caso di Crysis, anche per il ritorno a seguito al brevetto ed alla messa in vendita ad altri sviluppatori del loro engine. Questo vuol dire che aver investito tempo e soldi per sviluppare un ulteriore motore alternativo, compatibile DX9, non è stato fatto nell'ottica di far soldi per due o tre mesi, ma per almeno più di uno o due anni e non certo per i soli possessori di x1900 o 7900 (minimo previsto in ambito DX9) che, nel complesso della totalità delle schede DX9 fino ad ora vendute, sarebbe una fetta di mercato troppo ristretta per giustificare l'investimento su un motore DX9. Ecco perchè nel complesso è opportuno tener conto anche delle schede DX10 non in grado di gestire Crysis a dovere con tutte le novità introdotte con DX10.
...e mo nn cambiare discorso..tu hai detto ke ki ha una DX10 fascia media dovrà (inoltre hai aggiunto x forza) far girare i gioki DX10 in DX9...xkè mai nn dovrebbe farli girare in DX10 ma x es. a dettaglio medio anzikè Ultra???
Non credo di aver mai cambiato discorso... Poi se l'ho fatto e non me ne sono accorto ti chiedo scusa.
Faccio un esempio: se le ombre in tempo reale non potranno essere gestite in DX10 si dovrà procedere con i metodi di ombre precalcolate sinora utilizzati in DX9 che sicuramente conferiranno un maggior realismo che giocarci con DX10 riducendo il numero di oggetti con ombra portata o addirittura disattivandoli del tutto. A quel punto non sarebbe un delitto giocare in DX9 in full e magari a risoluzioni maggiori anzichè in DX10 ridotto ed a risoluzioni inferiori. Ti consiglierei di dare un'occhiata alla versione DX9 di Crysis (http://www.tomshw.it/news.php?newsid=10200) confrontandola con la rispettiva versione DX10 così ti renderai conto che non equivale a bestemmiare giocarci anche con queste API grafiche con tutte le funzionalità attivate con una scheda della serie 8600.
A mio modesto avviso credo che avere una 8600 (fascia media) e poter avviare Crysis in DX10 con molti effetti disattivati non possa soddisfare più che giocarlo in full con DX9.
se poi tu x DX10 intendi solo qualke effetto in + e pure bello pesante allora ok, meglio DX9...ma se x DX10 intendi l'intero gioco ke sfrutta le potenzialità delle DX10 (migliorie grafike ma anke prestazionali) allore meglio le 10...xkè uno nn dovrebbe usufruire, tramite la nn abilitazione dei vari effetti in +, delle sole migliorie prestazionali se possiede appunto una skeda compatibile con tali librerie???
...ciao
Le migliorie prestazionali introdotte con DX10 non servono a nulla se sono inferiori a quella che è la limitazione computazionale nel comparto grafico anche e soprattutto perchè tali migliorie (penso tu ti riferisca alla riduzione dell'overhead) son volte non a ridurre il carico sulla GPU che occorre comunque molto potente, ma quello sulla CPU rendendo un gioco meno CPU limited in particolare a risoluzioni non estreme.
Prima di affermare meglio DX10 con effetti ridotti che DX9 con effetti totalmente attivati o viceversa occorrerebbe confrontare sul campo le due modalità. Stà di fatto che il motore CryEngine 2.0 è stato realizzato anche in DX9 e non certo, come detto prima, per accontentare la ristretta utenza in possesso di schede di fascia alta DX9, il costo non ne avrebbe giustificato il ritorno economico. Poi ognuno è libero di dire e pensare ciò che vuole.
Credo che la differenza tra Dx10 in modalità ultra rispetto alle dx9 si vedrà e sentirà, credo inoltre che la differenza tra dx9 modalità max e dx10 modalità media non si sentirà, se non per il maggior frame rate in Dx10.
Dx10 da una parte introduce molti più registri e possibilità in ambito illuminazione/gestione poligonale, dall'altro ottimizza il carico, oggi mostrano la differenza visiva necessariamente per una questione di marketing, in futuro credo si assisterà a una sempre maggiore spinta dal lato funzionale.
ale0bello0pr
20-06-2007, 09:24
Ricordi quando iD software diceva che doom3 sarebbe girato alla grande con la Geffo3/Ati8500?!?!.... ecco, uguale! :O
io spero non sia così sennò è la fine.... Doom3 è stato uno dei giochi piu' pesanti da far girare bene con schede video allì'epoca buone...... la HD 2900 XT dovrebbe farlo girare molto bene Crysis se lo stesso gioco ovviamente verrà ottimizzato dalla SH Crytek come si deve.....e sono sicuro che, visto i genii che si ritrovano, faranno un ottimo lavoro...i primi test si potranno fare cmq già fra 1 mese e mezzo...è in arrivo Bioshock..
edit : no mi correggo forse i primi test li vedremo fra meno di 1 mese...è in arrivo l'E3.....
purtroppo per chi spera nella risoluzione MAX di Crysis con un CF di 2900 XT (o 8800 ULTRA SLI) resterà deluso....
http://www.gamesradar.com/gb/pc/game/previews/article.jsp?articleId=200706129573775081&releaseId=20060130161216125099§ionId=1001&pageId=200706121061280027
io spero non sia così sennò è la fine.... Doom3 è stato uno dei giochi piu' pesanti da far girare bene con schede video allì'epoca buone...... la HD 2900 XT dovrebbe farlo girare molto bene Crysis se lo stesso gioco ovviamente verrà ottimizzato dalla SH Crytek come si deve.....e sono sicuro che, visto i genii che si ritrovano, faranno un ottimo lavoro...i primi test si potranno fare cmq già fra 1 mese e mezzo...è in arrivo Bioshock..
Appunto, dai video sembra eccezionale, poi l'atmosfera è, imho, fantastica.
ale0bello0pr
20-06-2007, 09:36
un OT che mi lascia mal pensare a quello che ho detto nel post precedente
visto che il thread di Crysis è stato chiuso per valutazioni di tipo flame/spam
http://www.crysis-online.com/forum/index.php/topic,4988.0.html
si parla di 20-30 FPS con una 8800 GTX....a risoluzione classica 1024x768
potrà mai una HD 2900 XT fare di piu'? mah... :muro:
io spero non sia così sennò è la fine.... Doom3 è stato uno dei giochi piu' pesanti da far girare bene con schede video allì'epoca buone......
Io non la farei così tragica... è sempre stato così (nuovo "standard" di giochi ---> nuovo hardware)... ci si adeguerà anche stavolta... :O
Ricordo che di schede dx9 ne abbiamo avute ben di 3 generazioni... sulle prime però oggi non ci fai girare agevolmente un gioco full dx9 (le geffofx sono semplicemente vergognose, poi)... per questo credo e ritengo che quando avremo un gioco full dx10 (only) sarà poco gestibile da hd2900 / 8800... comunque ci vorrà ancora del tempo... ;)
Per questo ritengo anche l'acquirente "furbo" non sia quello che prende subito l'ultima novità, in quanto:
- La paga di più
- Non la sfrutta
- Quando è ora di sfruttarla, l'hardware è già superato/insufficiente
un OT che mi lascia mal pensare a quello che ho detto nel post precedente
visto che il thread di Crysis è stato chiuso per valutazioni di tipo flame/spam
http://www.crysis-online.com/forum/index.php/topic,4988.0.html
si parla di 20-30 FPS con una 8800 GTX....a risoluzione classica 1024x768
potrà mai una HD 2900 XT fare di piu'? mah... :muro:
Speculazioni, di un gioco peraltro non completo, basate su 3 video e qualche statistica in game.
Io non la farei così tragica... è sempre stato così (nuovo "standard" di giochi ---> nuovo hardware)... ci si adeguerà anche stavolta... :O
Ricordo che di schede dx9 ne abbiamo avute ben di 3 generazioni... sulle prime però oggi non ci fai girare agevolmente un gioco full dx9 (le geffofx sono semplicemente vergognose, poi)... per questo credo e ritengo che quando avremo un gioco full dx10 (only) sarà poco gestibile da hd2900 / 8800... comunque ci vorrà ancora del tempo... ;)
Per questo ritengo anche l'acquirente "furbo" non sia quello che prende subito l'ultima novità, in quanto:
- La paga di più
- Non la sfrutta
- Quando è ora di sfruttarla, l'hardware è già superato/insufficiente
O la prendi quando ha 1 anno di vita:
La paghi di meno
La sfrutti due mesi
La cambi :D
Scherzo eh ;)
ale0bello0pr
20-06-2007, 09:44
Io non la farei così tragica... è sempre stato così (nuovo "standard" di giochi ---> nuovo hardware)... ci si adeguerà anche stavolta... :O
Ricordo che di schede dx9 ne abbiamo avute ben di 3 generazioni... sulle prime però oggi non ci fai girare agevolmente un gioco full dx9 (le geffofx sono semplicemente vergognose, poi)... per questo credo e ritengo che quando avremo un gioco full dx10 (only) sarà poco gestibile da hd2900 / 8800... comunque ci vorrà ancora del tempo... ;)
Per questo ritengo anche l'acquirente "furbo" non sia quello che prende subito l'ultima novità, in quanto:
- La paga di più
- Non la sfrutta
- Quando è ora di sfruttarla, l'hardware è già superato/insufficiente
Raven hai perfettamente ragione ma non sembra anche a te che la tecnologia si sta evolvendo troppo in fretta tantè ke "la programmazione ludica" non riesce a tener il passo contemporaneamente..?
cavoli siamo passati da dual core a quad core in un anno, così come da X1900 a HD 2900 XT in un anno...però i giochi attuali questo gran realismo(a parte Crysis che dovrà uscire appunto) non ne ho visto.... o le SH devono aumentare il capitale e sopratutto le menti ben pensanti oppure qui si fa il passo piu' lungo della gamba...:mbe:
Raven hai perfettamente ragione ma non sembra anche a te che la tecnologia si sta evolvendo troppo in fretta tantè ke "la programmazione ludica" non riesce a tener il passo contemporaneamente..?
cavoli siamo passati da dual core a quad core in un anno, così come da X1900 a HD 2900 XT in un anno...però i giochi attuali questo gran realismo(a parte Crysis che dovrà uscire appunto) non ne ho visto.... o le SH devono aumentare il capitale e sopratutto le menti ben pensanti oppure qui si fa il passo piu' lungo della gamba...:mbe:
Secondo me Colin Mcrae Dirt è un buon esempio di come si sfruttano le dx9, e anche oblivion vederlo girare a palla è uno spettacolo, company of heroes, che già era bello prima, acquista molto in dx10 (perdendo in frame rate ;)), anche Stalker tutto a palla fa la sua figura, comunque già con Bioshock e Ut2007 e Crysis e Modern Warfare e che so, Hl2 Episodio 2 il 9 ottobre con portal ne avrò di che giocare, e spero di farlo bene ;)
Secondo me Colin Mcrae Dirt è un buon esempio di come si sfruttano le dx9,
Secondo me, di come si sfruttano MALE... :O
http://www.hwupgrade.it/forum/showpost.php?p=17596410&postcount=1245
Speculazioni, di un gioco peraltro non completo, basate su 3 video e qualche statistica in game.
3 video e qualche statistica in game mi sembra un eufemismo :D
Secondo me, gli fps saranno + o - quelli. Pochi per i miei gusti.
Sarà quindi il motivo per cui venderò la mia GTX. Un gioco del genere me lo voglio godere a cannone.
Credo anche che la 2900XT andrà un po' meglio della GTX, ma non lo ritengo un acquisto sensato (nel mio caso) per guadagnare un 10/15% di prestazioni (4-5 FPS :D ? )
Tra l'altro uscirà a quasi un anno da quando ho acquistato la 8800. Credo che era parecchio tempo che non tenevo una scheda così a lungo senza incazzarmi davanti a giochi che scattano.
Scusate le consecutio da scuola materna, ma i congiuntivi stamattina non li ho caricati in ram :D
Ma come fate a dire questo lavorate alla crytek??? Tutti a speculare su un gioco che ancora deve uscire...Imho se il gioco viene ottimizzato come Far Cry credo che con le nostre configurazioni, girerà tranquillamente tutto questo sempre Imho
Secondo me, di come si sfruttano MALE... :O
http://www.hwupgrade.it/forum/showpost.php?p=17596410&postcount=1245
Visivamente, concorderai, è una spanna sopra i soliti racer, come ottimizzazione, aspetto i nuovi driver per esprimermi, visto che vado a frequenze 2d.
3 video e qualche statistica in game mi sembra un eufemismo :D
Secondo me, gli fps saranno + o - quelli. Pochi per i miei gusti.
Sarà quindi il motivo per cui venderò la mia GTX. Un gioco del genere me lo voglio godere a cannone.
Credo anche che la 2900XT andrà un po' meglio della GTX, ma non lo ritengo un acquisto sensato (nel mio caso) per guadagnare un 10/15% di prestazioni (4-5 FPS :D ? )
Tra l'altro uscirà a quasi un anno da quando ho acquistato la 8800. Credo che era parecchio tempo che non tenevo una scheda così a lungo senza incazzarmi davanti a giochi che scattano.
Scusate le consecutio da scuola materna, ma i congiuntivi stamattina non li ho caricati in ram :D
Secondo me da dei video non è mai saggio valutare la fluidità o le prestazioni, non si conoscono i settaggi, la config e soprattutto, pe ottimizzazioni vengono sempre dopo i contenuti, per dire Painkiller, 1 anno prima, faceva 20 fps, dopo essere uscito, sullo stesso Hw, 70.
davide155
20-06-2007, 10:35
Ma come fate a dire questo lavorate alla crytek??? Tutti a speculare su un gioco che ancora deve uscire...Imho se il gioco viene ottimizzato come Far Cry credo che con le nostre configurazioni, girerà tranquillamente tutto questo sempre Imho
Io invece far cry lo presi subito all'uscita.
E avevo una 9800pro.
E scattava......in dei punti il frame rate scendeva abbastanza.
E siccome ritengo la 9800pro, di allora, come la 2900xt di oggi con crysis.....bè non credo se la caverà molto bene.
Uguale per la 8800gtx.......
Aggiungo tutti sanno la durata della 2900 e le prestazioni future :eek: Ma come fate avete la palla di cristallo per dire se questa scheda è un acquisto sensato o gia si dovrà buttare a settembre, sinceramente non credo che questa scheda duri 3 mesi :rolleyes: Io sto capendo questo dai vostri commenti, forse sono io a sbagliare bah:O
ale0bello0pr
20-06-2007, 10:40
Secondo me da dei video non è mai saggio valutare la fluidità o le prestazioni, non si conoscono i settaggi, la config e soprattutto, pe ottimizzazioni vengono sempre dopo i contenuti, per dire Painkiller, 1 anno prima, faceva 20 fps, dopo essere uscito, sullo stesso Hw, 70.
se ci fai caso e sei attento nel riquadro della foto presa dal video c'è proprio il framerate...
Athlon 64 3000+
20-06-2007, 10:42
Io invece far cry lo presi subito all'uscita.
E avevo una 9800pro.
E scattava......in dei punti il frame rate scendeva abbastanza.
E siccome ritengo la 9800pro, di allora, come la 2900xt di oggi con crysis.....bè non credo se la caverà molto bene.
Uguale per la 8800gtx.......
è vero che Far Cry metteva in crisi la 9800Pro ma ricordo che le gpu che lo facevano girare alla grande uscirono subito dopo l'uscita del gioco ed erano NV40 e R420.
Oggi la situazione è diversa perchè le gpu che lo faranno girare alla grande,cioè G80 e R600,sono già sul mercato.
Io invece far cry lo presi subito all'uscita.
E avevo una 9800pro.
E scattava......in dei punti il frame rate scendeva abbastanza.
E siccome ritengo la 9800pro, di allora, come la 2900xt di oggi con crysis.....bè non credo se la caverà molto bene.
Uguale per la 8800gtx.......
Aiutami a dire in dei punti mica tutto il gioco era ingiocabile, poi come fai a paragonare due schede di generazione differente....Ti ricordo che la 2900XT è molto giovane come scheda ha solo più di un mese di vita.....e credo che nessuno sa come realmente andrà, questo commento può essere una tua opinione personale ma niente di più.Non penso che 8800gtx e una 2900xt non siano in grado di far girare crysis.....sarebbe folle questo secondo me...poi dipende da molti fattori risoluzioni settaggi ecc...sicuramente a risoluzioni aliene avranno problemi...
Esce tra 1 anno, parla di un range tra 30 e 50, non sa che sistema usa, presume 1024, io con la 9800 pro sinceramente non scendevo stoot i 30 in Farcry, e conosco gente che l'ha goduto con una 9500 pro, e altri che con i giusti settaggi facevano un ottimo frame rate anche su 5900.
Se poi giocare bene vuol dire 90 fissi, allora, è vero ci vorrà una r700/g100
Esce tra 1 anno, parla di un range tra 30 e 50, non sa che sistema usa, presume 1024, io con la 9800 pro sinceramente non scendevo stoot i 30 in Farcry, e conosco gente che l'ha goduto con una 9500 pro, e altri che con i giusti settaggi facevano un ottimo frame rate anche su 5900.
Se poi giocare bene vuol dire 90 fissi, allora, è vero ci vorrà una r700/g100
Sinceramente non si sa quando esce molti parlano di settembre io spero sinceramente che sia settembre
ale0bello0pr
20-06-2007, 10:49
Esce tra 1 anno, parla di un range tra 30 e 50, non sa che sistema usa, presume 1024, io con la 9800 pro sinceramente non scendevo stoot i 30 in Farcry, e conosco gente che l'ha goduto con una 9500 pro, e altri che con i giusti settaggi facevano un ottimo frame rate anche su 5900.
Se poi giocare bene vuol dire 90 fissi, allora, è vero ci vorrà una r700/g100
Ma xkè gia' mi dici che è obsoleto G90? :eek:
:D
Mi sembra sul serio di essere tornato ai tempi di doom3!... il gioco ancora non c'era ed era ben lungi dall'essere presentato, ma tutti i possessori di Geffo3/Ati8500 (oggi possessori di hd2900/8800) giuravano ed erano sicuri che sarebbe andato alla grande sulle loro schede basandosi non si sa bene su quali dati e/o su filmati di dubbia veridicità...
(salvo poi scontrarsi con la dura realtà... :O )
:D
Mi sembra sul serio di essere tornato ai tempi di doom3!... il gioco ancora non c'era ed era ben lungi dall'essere presentato, ma tutti i possessori di Geffo3/Ati8500 (oggi possessori di hd2900/8800) giuravano ed erano sicuri che sarebbe andato alla grande sulle loro schede basandosi non si sa bene su quali dati e/o su filmati di dubbia veridicità...
(salvo poi scontrarsi con la dura realtà... :O )
Secondo me è lo stesso viceversa come si fa a dire che queste schede non andranno bene ?:rolleyes: Solo con la sua uscita potremmo sapere la verità, poi tutti a pensare la grafica e se la storia del gioco facesse schifo? grafica 10 storia 0 ? Nessuno lo sa quindi inutie possiamo speculare fino al giorno prima dell'uscita di questo gioco ;)
Garagolo
20-06-2007, 11:00
scusate c'e' un mio amico che ha appena acquistato un HD2900XT , pero ha un alimentatore LC-Power LC6550 da 550W....questo ali ha solamente un connettore da 6 pin ...basta per questa scheda??? in ogni caso esistono degli adattatori per gli altri connettori??
Esce tra 1 anno, parla di un range tra 30 e 50, non sa che sistema usa, presume 1024, io con la 9800 pro sinceramente non scendevo stoot i 30 in Farcry, e conosco gente che l'ha goduto con una 9500 pro, e altri che con i giusti settaggi facevano un ottimo frame rate anche su 5900.
Se poi giocare bene vuol dire 90 fissi, allora, è vero ci vorrà una r700/g100
Quoto te per comodità.
30fps a 1024 sono una vergogna per una scheda di fascia alta.
Ho giocato farcry prima con una 5900xt e poi con una 9800pro e me lo sono goduto, certo, a 1024 e 60 fps di media. Però la 9800pro l'ho pagata 250 € se non sbaglio e la 5900xt sui 200 perchè eravamo a "fine ciclo".
Qua parliamo di schede a partire dai 350€ , non la vedo tanto rosea come situazione.
Spero di sbagliarmi, ma temo che non sarò contento del framerate di crysis sulla mia bestiolina. Se per avere 60 fps MINIMI sempre (non di media) dovrò giocare a 800x600, allora farò un bell'upgrade... soprattutto in considerazione del multiplayer.
scusate c'e' un mio amico che ha appena acquistato un HD2900XT , pero ha un alimentatore LC-Power LC6550 da 550W....questo ali ha solamente un connettore da 6 pin ...basta per questa scheda??? in ogni caso esistono degli adattatori per gli altri connettori??
Non basta un solo connettore per questa scheda ce ne vogliono minimo due (2x3)
:D
Mi sembra sul serio di essere tornato ai tempi di doom3!... il gioco ancora non c'era ed era ben lungi dall'essere presentato, ma tutti i possessori di Geffo3/Ati8500 (oggi possessori di hd2900/8800) giuravano ed erano sicuri che sarebbe andato alla grande sulle loro schede basandosi non si sa bene su quali dati e/o su filmati di dubbia veridicità...
(salvo poi scontrarsi con la dura realtà... :O )
8500 novembre 2001, Doom3 Agosto 2004, e comunque lo faceva pure girare abbastanza bene abbassando i dettagli.
Quasi 3 anni di divario, la vita media di una console quasi.
Quoto te per comodità.
30fps a 1024 sono una vergogna per una scheda di fascia alta.
Ho giocato farcry prima con una 5900xt e poi con una 9800pro e me lo sono goduto, certo, a 1024 e 60 fps di media. Però la 9800pro l'ho pagata 250 € se non sbaglio e la 5900xt sui 200 perchè eravamo a "fine ciclo".
Qua parliamo di schede a partire dai 350€ , non la vedo tanto rosea come situazione.
Spero di sbagliarmi, ma temo che non sarò contento del framerate di crysis sulla mia bestiolina. Se per avere 60 fps MINIMI sempre (non di media) dovrò giocare a 800x600, allora farò un bell'upgrade... soprattutto in considerazione del multiplayer.
E' inutile ragazzi si può speculare fino al giorno prima ;) Ma non cambia niente dobbiamo aspettare l'uscita del gioco o qualche annuncio di crytek che ci dice di buttare le 8800 gtx e le 2900 xt perchè non buone per far girare crysis :read:
Quoto te per comodità.
30fps a 1024 sono una vergogna per una scheda di fascia alta.
Ho giocato farcry prima con una 5900xt e poi con una 9800pro e me lo sono goduto, certo, a 1024 e 60 fps di media. Però la 9800pro l'ho pagata 250 € se non sbaglio e la 5900xt sui 200 perchè eravamo a "fine ciclo".
Qua parliamo di schede a partire dai 350€ , non la vedo tanto rosea come situazione.
Spero di sbagliarmi, ma temo che non sarò contento del framerate di crysis sulla mia bestiolina. Se per avere 60 fps MINIMI sempre (non di media) dovrò giocare a 800x600, allora farò un bell'upgrade... soprattutto in considerazione del multiplayer.
Ma scusa, 60 fps non ti bastano di media? Io ricordo chiaramente che appena sbarcato sull'isolotto della demo ancora sul canotto facevo 45 fps con un ampiezza di campo allucinante, poi è venuto Hl2 idem, poi fear non esagerando pure, io direi che 9800 sia stato un ottimo acquisto.
Io ho scritto per anni sul web e riviste, ho avuto codici beta che facevano ripeto (painkiller) 20 fps di media, per farne 70 nella versione finale.
L'esperienza qualcosa insegna, è più sensato aspettarsi questo che non il contrario...
Ho capito l'esperienza ma ti ricordo che la 2900Xt ha 1 mese di vita...certamente se non gira su una 2900xt o sua una 8800 i programmatori si possono dare al bunging jumping sarebbe assurdo che non girasse su queste due schede a risoluzione umane.Sempre secondo il mio modesto parere...Se succederà realmete come dici tu i programmatori non hanno imparato un emerito niente, l'esperienza a loro non insegna niente :doh: A noi l'esperienza insegna a sborsare euro ogni 3 4 mesi :D
L'esperienza qualcosa insegna, è più sensato aspettarsi questo che non il contrario...
E allora, permettemi, che cavolo ci siamo presi le hd2900 xt se pensavamo che in Crysis sarebbero state soffocate, almeno chi ha fatto l'acquisto spera il contrario, poi se sarà diversamente sarà stato probabilemnte un acquisto sbagliato.
Ma cavolo ragazzi, un po' di ottimismo ;)
:D
Mi sembra sul serio di essere tornato ai tempi di doom3!... il gioco ancora non c'era ed era ben lungi dall'essere presentato, ma tutti i possessori di Geffo3/Ati8500 (oggi possessori di hd2900/8800) giuravano ed erano sicuri che sarebbe andato alla grande sulle loro schede basandosi non si sa bene su quali dati e/o su filmati di dubbia veridicità...
(salvo poi scontrarsi con la dura realtà... :O )
già...
già...
8500 novembre 2001, Doom3 Agosto 2004
Smettiamola di far terrorimo mediatico ;)
In 3 anni Doom3 passò da path per nv10 a nv30, e dai commenti di Carmack è chiaro questo, ma si parla comunque di 3 anni di evoluzione. qua se tanto si parlerà di 8-10 mesi, a essere ottimisti 6.
E allora, permettemi, che cavolo ci siamo presi le hd2900 xt se pensavamo che in Crysis sarebbero state soffocate, almeno chi ha fatto l'acquisto spera il contrario, poi se sarà diversamente sarà stato probabilemnte un acquisto sbagliato.
Ma cavolo ragazzi, un po' di ottimismo ;)
Ripeto l'acquisto di questa scheda è stato fatto da me per l'architettura che ha.. visto che questa scheda è stata progettata guardando le dx10..quindi imho se in crysis andrà male sarà un flop :muro:...anche se sono molto fiducioso su questa scheda comunque il primo piccolo test che potremmo fare sarà proprio Bioshiock...il 24 Agosto si avvicina :read:
8500 novembre 2001, Doom3 Agosto 2004
Smettiamola di far terrorimo mediatico ;)
In 3 anni Doom3 passò da path per nv10 a nv30, e dai commenti di Carmack è chiaro questo, ma si parla comunque di 3 anni di evoluzione. qua se tanto si parlerà di 8-10 mesi, a essere ottimisti 6.
ma infatti, e cmq è impossibile dire che crysis andra male da noi, e poi bisogna considerare anche il fattore CPU (per me :cry: :cry: ). e cmq è impossibile che a 1024x768 faccia 20/30 fps di media, cioè è assurdo e inconcepibile, cioè lo posso capire nel all'epoca delle FX (nv30) o delle 9500/9800, ma non oggi dove abbiamo cpu, ram e gpu che sono dei mostri senza precendeti, certo si può dite che lo erano anche loro hai tempi, ma cmq si sono fatti dei passi mostruosi, nn è perforza detto che la storia si ripeta (o per lo meno, nn è detto che si debba ripetere così drasticamente)
Ripeto l'acquisto di questa scheda è stato fatto da me per l'architettura che ha.. visto che questa scheda è stata progettata guardando le dx10..quindi imho se in crysis andrà male sarà un flop :muro:...anche se sono molto fiducioso su questa scheda comunque il primo piccolo test che potremmo fare sarà proprio Bioshiock...il 24 Agosto si avvicina :read:
anche per me la stessa cosa, cmq che il 24 per Bioshiock e il test pubblico di crysis arivino in fretta, ma anche dei seri driver
8500 novembre 2001, Doom3 Agosto 2004
Smettiamola di far terrorimo mediatico ;)
In 3 anni Doom3 passò da path per nv10 a nv30, e dai commenti di Carmack è chiaro questo, ma si parla comunque di 3 anni di evoluzione. qua se tanto si parlerà di 8-10 mesi, a essere ottimisti 6.
ok... sono felicissimo di sbagliarmi, se sarà così... ;)
Ma infatti mi sembra discutibile acquistare oggi una VGA DX10 quando fra due mesi si saprà quanto e se vanno in DX10. Questo indipendentemente dal fatto che l'acquisto sia per una 2900 o una 8800.
Non c'è solo DOOM III. Basta che dai un'occhiata ai requisiti consigliati dei vari giochi sul mercato in un qualunque momento e nel 90% dei casi il gioco girerà male con quella configurazione...
Ti sembrerà strano ma io ho acquistato la 8800GTX ieri, non oggi, (nov 2006) per farci girare a palla tutti i giochi che mi scattavano con la 7900GTX e non sono mai stato cosi soddisfatto di una VGA di fascia alta.
Le dx10 sono ancora una pippa mentale per me. Quando uscirà il primo gioco veramente dx10, sono sicuro che questa scheda non mi basterà più.
Ma questa è la mia opinione.
E' vero sono un tipo molto esigente. Spendo 600€ per una VGA e voglio come minimo 60 fps DI MINIMO sempre e cmq. Fino ad ora li ho avuti solo con la 8800GTX in tanti anni di gaming e netgaming.
@ PAT77 : è un discorso che ho già fatto. Potrebbero anche bastarmi 60fps di media in single, ma in multy assolutamente no. E io gioco quasi esclusivamente online :)
Ti sembrerà strano ma io ho acquistato la 8800GTX ieri, non oggi, (nov 2006) per farci girare a palla tutti i giochi che mi scattavano con la 7900GTX e non sono mai stato cosi soddisfatto di una VGA di fascia alta.
Le dx10 sono ancora una pippa mentale per me. Quando uscirà il primo gioco veramente dx10, sono sicuro che questa scheda non mi basterà più.
Ma questa è la mia opinione.
E' vero sono un tipo molto esigente. Spendo 600€ per una VGA e voglio come minimo 60 fps DI MINIMO sempre e cmq. Fino ad ora li ho avuti solo con la 8800GTX in tanti anni di gaming e netgaming.
@ PAT77 : è un discorso che ho già fatto. Potrebbero anche bastarmi 60fps di media in single, ma in multy assolutamente no. E io gioco quasi esclusivamente online :)
idem anke x me, secondo me ne 8800gtx ne 2900 saranno in grado di far girare alla grande i gioki dx10, infatti quando la presi era ankora x i dx9. ora aspetto una nuova skeda video xè mi ha già stufato questa nel case considerando ke ha già 7 e passa mesi
Ti sembrerà strano ma io ho acquistato la 8800GTX ieri, non oggi, (nov 2006) per farci girare a palla tutti i giochi che mi scattavano con la 7900GTX e non sono mai stato cosi soddisfatto di una VGA di fascia alta.
Le dx10 sono ancora una pippa mentale per me. Quando uscirà il primo gioco veramente dx10, sono sicuro che questa scheda non mi basterà più.
Ma questa è la mia opinione.
E' vero sono un tipo molto esigente. Spendo 600€ per una VGA e voglio come minimo 60 fps DI MINIMO sempre e cmq. Fino ad ora li ho avuti solo con la 8800GTX in tanti anni di gaming e netgaming.
@ PAT77 : è un discorso che ho già fatto. Potrebbero anche bastarmi 60fps di media in single, ma in multy assolutamente no. E io gioco quasi esclusivamente online :)
Avere 60fps di minimo sempre e comunque è un'utopia, a meno che per averli non si tolgano tutti i filtri e si giochi a 1024x768 o meno. ;)
Esistono già vari giochi (da diversi mesi, tra l'altro) con i quali comunque anche la GTX non fa 60fps di minimo (e nemmeno di media), a quanto si legge. Test Drive Unlimited, Double Agent e Vegas sono alcuni esempi.
Forse non hai letto quello che ho scritto. Non hai comprato oggi, a due mesi dall'uscita di riscontri chiari sulle prestazioni, una scheda video DX10, ma ieri una scheda video DX9 che ti desse le prestazioni, sicure, che cercavi.
Una scommessa nell'hardware non ha senso. Se anche domani vedessimo la 2900 volare in DX10 costerebbe uguale, quindi nessun vantaggio dalla scommessa, se invece andrà da pena, sarà stata una scommessa persa. E lo stesso vale per chi comprasse oggi una 8800 per giocare in DX10 domani.
Una scommessa non ha senso, dici bene. Si compra oggi per quello che gira oggi.
Poi è ovvio che si ha un occhio anche per la longevità, ma l'esperienza insegna che ad essere ottimisti si finisce a prenderlo nel :ciapet:
Avere 60fps di minimo sempre e comunque è un'utopia, a meno che per averli non si tolgano tutti i filtri e si giochi a 1024x768 o meno. ;)
Esistono già vari giochi (da diversi mesi, tra l'altro) con i quali comunque anche la GTX non fa 60fps di minimo (e nemmeno di media), a quanto si legge. Test Drive Unlimited, Double Agent e Vegas sono alcuni esempi.
Io non gioco a quei giochi, non mi piacciono. I giochi a cui gioco, li gioco con quel framerate. Se una risoluzione di 1600x1200 non me li garantisce, abbasso la risoluzione non diminuisco certo i dettagli. Se per averli devo scendere sotto 1280x1024 allora cambio VGA.
... ve l'ho detto, sono un tipo esigente :D
davide155
20-06-2007, 11:49
Aiutami a dire in dei punti mica tutto il gioco era ingiocabile, poi come fai a paragonare due schede di generazione differente....Ti ricordo che la 2900XT è molto giovane come scheda ha solo più di un mese di vita.....e credo che nessuno sa come realmente andrà, questo commento può essere una tua opinione personale ma niente di più.Non penso che 8800gtx e una 2900xt non siano in grado di far girare crysis.....sarebbe folle questo secondo me...poi dipende da molti fattori risoluzioni settaggi ecc...sicuramente a risoluzioni aliene avranno problemi...
Si ma non facciamo come la volpe e l'uva.....che tentate di dare un senso all'acquisto di r600 o g80.
Ormai sono già alla frutta. Basti vedere colin dirt.....che è il primo di una lunga serie......
Vuoi per una mal programmazione, vuoi perchè non ce la fanno le schede.....vuoi perchè i driver sono acerbi.
Non credo che i prox giochi che usciranno andranno meglio di dirt.
Si i driver saranno più maturi, ma i giochi saranno più pesanti, ed ecco che poggio e buca fa pari ;)
Si ma non facciamo come la volpe e l'uva.....che tentate di dare un senso all'acquisto di r600 o g80.
Ormai sono già alla frutta. Basti vedere colin dirt.....che è il primo di una lunga serie......
Vuoi per una mal programmazione, vuoi perchè non ce la fanno le schede.....vuoi perchè i driver sono acerbi.
Non credo che i prox giochi che usciranno andranno meglio di dirt.
Si i driver saranno più maturi, ma i giochi saranno più pesanti, ed ecco che poggio e buca fa pari ;)
è quello ke intendevo io, infatti voglio cambiare skeda video ma non c'è ancora nulla. xò almeno me la sono goduta 7 mesi :D
|ot| certo ke dirt è propio fatto male, un mio amico con la 1800xt a 1280 non riusciva propio a giocare con tutto su ultra, almeno parlo del demo, mentre quando gli ho prestato la 8800 era molto + contento
davide155
20-06-2007, 12:00
è quello ke intendevo io, infatti voglio cambiare skeda video ma non c'è ancora nulla. xò almeno me la sono goduta 7 mesi :D
|ot| certo ke dirt è propio fatto male, un mio amico con la 1800xt a 1280 non riusciva propio a giocare con tutto su ultra, almeno parlo del demo, mentre quando gli ho prestato la 8800 era molto + contento
No vabbè.....l'ultra è un altro discorso.
Dipende la 1800xt del tuo amico quanta vram ha.
Perchè sono le ombre a ciucciare un botto di vram se messe su ultra.
E bisogna avere minimo 512mb di vram, altrimenti con le ombre su ultra il gioco va a 1fps.
Ovvio che con la tua 8800 si è sentito riavere.....vuoi perchè è più potente e anche perchè ha più di 512mb di vram ;)
No vabbè.....l'ultra è un altro discorso.
Dipende la 1800xt del tuo amico quanta vram ha.
Perchè sono le ombre a ciucciare un botto di vram se messe su ultra.
E bisogna avere minimo 512mb di vram, altrimenti con le ombre su ultra il gioco va a 1fps.
Ovvio che con la tua 8800 si è sentito riavere.....vuoi perchè è più potente e anche perchè ha più di 512mb di vram ;)
ha 512mb di ram
davide155
20-06-2007, 12:05
ha 512mb di ram
Ah......bè si allora è la vga che non ha potenza per colin dirt.......
Si ma non facciamo come la volpe e l'uva.....che tentate di dare un senso all'acquisto di r600 o g80.
Ormai sono già alla frutta. Basti vedere colin dirt.....che è il primo di una lunga serie......
Vuoi per una mal programmazione, vuoi perchè non ce la fanno le schede.....vuoi perchè i driver sono acerbi.
Non credo che i prox giochi che usciranno andranno meglio di dirt.
Si i driver saranno più maturi, ma i giochi saranno più pesanti, ed ecco che poggio e buca fa pari ;)
Io non cerco di dar nessun senso all'acquisto, per te puo non essere un acquisto ottimo o buono per me può esserlo che dici? Sinceramente ho scelto la scheda per l'architettura tutto qui posso aver fatto una cavolata ma scelta sicuramente mia quindi non vedo il problema... Per quello che riguarda Dirt onestamente a parte la grafica(che non mi fa gridare al miracolo ottimizato anche male) non mi piace per niente non lo comprerò nemmeno a 10 euro(ha di tutto quel gioco a parte una giocabilità e una fisica sensata) occhio a i giochi solo grafica ma con 0 contenuti ;)...Poi nessun problema sinceramente se devo cambiare vga per un titolo "crysis" non mi sembra il caso se ne parlerà in futuro per un upgrade quindi non vedo il problema mi arrangerò a scalare i dettagli....ma da qui a dire che siamo alla frutta ce ne passa :rolleyes:
davide155
20-06-2007, 12:24
Io non cerco di dar nessun senso all'acquisto, per te puo non essere un acquisto ottimo o buono per me può esserlo che dici? Sinceramente ho scelto la scheda per l'architettura tutto qui posso aver fatto una cavolata ma scelta sicuramente mia quindi non vedo il problema... Per quello che riguarda Dirt onestamente a parte la grafica(che non mi fa gridare al miracolo ottimizato anche male) non mi piace per niente non lo comprerò nemmeno a 10 euro(ha di tutto quel gioco a parte una giocabilità e una fisica sensata) occhio a i giochi solo grafica ma con 0 contenuti ;)...Poi nessun problema sinceramente se devo cambiare vga per un titolo solo crysis non mi sembra il caso se ne parlerà in futuro per un upgrade quindi non vedo il problema mi arrangerò a scalare i dettagli....ma da qui a dire che siamo alla frutta ce ne passa :rolleyes:
Una vga che appena uscita è già messa in ginocchio da un gioco anch'esso appena uscito per me vuol dire una cosa sola.
Che non brillerà mai.
Si, potrà migliorare, ma come ho detto prima i giochi che usciranno ad agosto....settembre e novembre saranno il doppio più pesanti di colin dirt, e quindi lascio a voi le conclusioni.
E aver speso 400€ per avere la tecnologia nel pc, ma vederla non sfruttata, e per di più mi toccherebbe anche abbassare la qualità del gioco.....no......io non lo sopporterei affatto.
Mi sentirei preso per i fondelli da chi ha promosso tale tecnologia.
Ma ovviamente le scelte sono vostre, e i soldi pure. Quindi a me non fa nessunissimo problema.
Espongo solo quello che io non avrei mai fatto.....tutto qui ;)
TecnoWorld8
20-06-2007, 12:25
Ripeto l'acquisto di questa scheda è stato fatto da me per l'architettura che ha.. visto che questa scheda è stata progettata guardando le dx10..quindi imho se in crysis andrà male sarà un flop :muro:...anche se sono molto fiducioso su questa scheda comunque il primo piccolo test che potremmo fare sarà proprio Bioshiock...il 24 Agosto si avvicina :read:
questo è esattamente il motivo per cui, viste le prestazione di 2900XT all'uscita, ho deciso di lasciarla nei negozi ed attendere. Dopotutto, con la mia scheda per ora gioco a tutto, a parte un paio di casi (Stalker...) a 1680x1050, con tutto al massimo, sempre sopra i 30fps.
quindi, attendo la prossima generazione in autunno, che a questo punto penso sarà nVidia, dato che ATi ha simpaticamente cancellato R650.
Ma infatti mi sembra discutibile acquistare oggi una VGA DX10 quando fra due mesi si saprà quanto e se vanno in DX10. Questo indipendentemente dal fatto che l'acquisto sia per una 2900 o una 8800.
Non c'è solo DOOM III. Basta che dai un'occhiata ai requisiti consigliati dei vari giochi sul mercato in un qualunque momento e nel 90% dei casi il gioco girerà male con quella configurazione...
Forse 8 mesi fa potevo capirlo, ma oggi si stanno vedendo le prime cose, e trovarsi preparati non mi sembra una stupidata.
Io non parlo di requisti consigliati, ma di una 8500 che comunque a 1024x768 con dettagli medi e senza ombre dinamiche fa girare in modo godibile Doom3, pur essendo una scheda vecchia di 3 anni al momento della sua uscita.
Qui si parla di una schda che ha 1 mese e 6 giorni che guarda a un titolo che uscirà tra 6 o 8 o 10 mesi, è differente come scenario, ecco magari in crysis 2 avrà qualche problemino sicuramente, ma tra 3 anni forse ;)
Forse 8 mesi fa potevo capirlo, ma oggi si stanno vedendo le prime cose, e trovarsi preparati non mi sembra una stupidata.
Io non parlo di requisti consigliati, ma di una 8500 che comunque a 1024x768 con dettagli medi e senza ombre dinamiche fa girare in modo godibile Doom3, pur essendo una scheda vecchia di 3 anni al momento della sua uscita.
Qui si parla di una schda che ha 1 mese e 6 giorni che guarda a un titolo che uscirà tra 6 o 8 o 10 mesi, è differente come scenario, ecco magari in crysis 2 avrà qualche problemino sicuramente, ma tra 3 anni forse ;)
ha già problemi con dirt
Una vga che appena uscita è già messa in ginocchio da un gioco anch'esso appena uscito per me vuol dire una cosa sola.
Che non brillerà mai.
Si, potrà migliorare, ma come ho detto prima i giochi che usciranno ad agosto....settembre e novembre saranno il doppio più pesanti di colin dirt, e quindi lascio a voi le conclusioni.
E aver speso 400€ per avere la tecnologia nel pc, ma vederla non sfruttata, e per di più mi toccherebbe anche abbassare la qualità del gioco.....no......io non lo sopporterei affatto.
Mi sentirei preso per i fondelli da chi ha promosso tale tecnologia.
Ma ovviamente le scelte sono vostre, e i soldi pure. Quindi a me non fa nessunissimo problema.
Espongo solo quello che io non avrei mai fatto.....tutto qui ;)
Ma come fai a saperlo anche tu la palla di cristallo??? bah:eek: ....vuoi dire che bioshock ad esempio non potrò giocarlo con tutti i filtri ecc ecc coma fai ad essere sicuro di queste cose...Il problema e che tu conosci il futuro dimmi come fai :read: Ancora a dire che i giochi a venire saranno più pesanti di DIRT(uno dei rally più brutti degli ultimi anni),potranno essere graficamente più belli ma come fai a dire che saranno più pesanti :confused: Sinceramente non la penso come te...Dirt ad esempio mi fa 35 fps tutto le impostazioni ultra Bioshiock me ne farà 17.5? Non oso immaginare allora come girerà su console :doh:
+Lonewolf+
20-06-2007, 12:36
ha già problemi con dirt
un mio amico ha provato dirt con la nuova patch e il frame rate nella gara con + macchine sta fisso sui 35-40;)
ha già problemi con dirt
Ancora con questo DIRT uno dei giochi più brutti degli ultimi tempi poi se il gioco non si schioda dai 30 fps nessun problema vista che è un gioco di auto...Io nn so che giochi provate ma un amico mi ha confermato che con la patch 1.1 il gioco è allegerito di molto quindi si vede che programmano con i piedi nemmeno è uscito il gioco gia ci sono le patch :rolleyes:
davide155
20-06-2007, 12:40
Forse 8 mesi fa potevo capirlo, ma oggi si stanno vedendo le prime cose, e trovarsi preparati non mi sembra una stupidata.
Io non parlo di requisti consigliati, ma di una 8500 che comunque a 1024x768 con dettagli medi e senza ombre dinamiche fa girare in modo godibile Doom3, pur essendo una scheda vecchia di 3 anni al momento della sua uscita.
Qui si parla di una schda che ha 1 mese e 6 giorni che guarda a un titolo che uscirà tra 6 o 8 o 10 mesi, è differente come scenario, ecco magari in crysis 2 avrà qualche problemino sicuramente, ma tra 3 anni forse ;)
Appunto è proprio questo il problema!
La 8500 poteva difendersi dicendo che aveva 3 anni quando uscì doom3, e non lo faceva girare benino sia chiaro.
Questa vga è uscita da 2 mesi e già non riesce a far girare degnamente uno degli ultimi giochi a dettagli alti.
E per degnamente intendo sopra i 40fps. Non chiedo sopra i 200......ma almeno sopra i 40.....
Niente.
Basta vedere nel thread di colin dirt le prove che sono state fatte.
Quindi lasciamo perdere crysis 2 e cominciamo a preoccuparci già per crysis 1......bioshock......ut 3........brother in arms hell's highway.......
Tutti titoli che secondo me daranno il colpo di grazia a r600 e g80.
Ati ha aspettato troppo a mande fuori questa scheda.
E' questo il problema.
Si può avere la migliore tecnologia al mondo.......può vedere alle dx10....lo può fare anche per le dx11 per me......ma se non ha la potenza adatta.....bè.....vale la metà di quello che costa.
Forse non hai letto quello che ho scritto. Non hai comprato oggi, a due mesi dall'uscita di riscontri chiari sulle prestazioni, una scheda video DX10, ma ieri una scheda video DX9 che ti desse le prestazioni, sicure, che cercavi.
Una scommessa nell'hardware non ha senso. Se anche domani vedessimo la 2900 volare in DX10 costerebbe uguale, quindi nessun vantaggio dalla scommessa, se invece andrà da pena, sarà stata una scommessa persa. E lo stesso vale per chi comprasse oggi una 8800 per giocare in DX10 domani.
Non sono daccordo, io prendo hw oggi guardando al futuro, non cambio ogni 6 mesi, avevo 2 alternative, ho guardato quella più visionaria, non penso di aver sbagliato, ma comunque il pc me lo volevo rifare oggi, cpu-ram non sono mai stati così favorevoli, a novembre potrebbe cambiare tutto, quello che risparmi di gpu lo rispendi in ram o cpu, non esiste un momento migliore di acquistare, imho, tra un salto di So e Dx.
Appunto è proprio questo il problema!
La 8500 poteva difendersi dicendo che aveva 3 anni quando uscì doom3, e non lo faceva girare benino sia chiaro.
Questa vga è uscita da 2 mesi e già non riesce a far girare degnamente uno degli ultimi giochi a dettagli alti.
E per degnamente intendo sopra i 40fps. Non chiedo sopra i 200......ma almeno sopra i 40.....
Niente.
Basta vedere nel thread di colin dirt le prove che sono state fatte.
Quindi lasciamo perdere crysis 2 e cominciamo a preoccuparci già per crysis 1......bioshock......ut 3........brother in arms hell's highway.......
Tutti titoli che secondo me daranno il colpo di grazia a r600 e g80.
Ati ha aspettato troppo a mande fuori questa scheda.
E' questo il problema.
Si può avere la migliore tecnologia al mondo.......può vedere alle dx10....lo può fare anche per le dx11 per me......ma se non ha la potenza adatta.....bè.....vale la metà di quello che costa.
Ma dirt veramente soffre di un problemuccio, in 3d mantine le frequenze 2d, nessuno l'ha segnalato?
ha già problemi con dirt
Lo so, di frequenza e di ottimizzazione, comunque non toglie che da me fa 30 fps fissi.
Lo so, di frequenza e di ottimizzazione, comunque non toglie che da me fa 30 fps fissi.
voli propio
davide155
20-06-2007, 12:47
Ma come fai a saperlo anche tu la palla di cristallo??? bah:eek: ....vuoi dire che bioshock ad esempio non potrò giocarlo con tutti i filtri ecc ecc coma fai ad essere sicuro di queste cose...Il problema e che tu conosci il futuro dimmi come fai :read: Ancora a dire che i giochi a venire saranno più pesanti di DIRT(uno dei rally più brutti degli ultimi anni),potranno essere graficamente più belli ma come fai a dire che saranno più pesanti :confused: Sinceramente non la penso come te...Dirt ad esempio mi fa 35 fps tutto le impostazioni ultra Bioshiock me ne farà 17.5? Non oso immaginare allora come girerà su console :doh:
Basta informarsi.
Ti ricordi i video iniziali di bioshock su x360?
Xenos (chip video della console microsoft) è molto simile ad r600.
E se ti ricordi bene i video scattavano come le bestie.
Sicuramente era da programmare bene, ma già li si vedeva come questo gioco fosse pesante graficamente parlando.
Ecco adesso prendi il frame rate dei primi video e immaginatelo su r600 oppure g80.
Ti dico così perchè su console lavorano l'80% del progetto ad ottimizzare.
Mentre su pc purtroppo ottimizzare non sappiamo più cosa voglia dire.
Quindi a voi i risultati.
Certo può anche uscire il gioco e girare a 100fps fissi......ma la vedo una situazione un pò improbabile visto come girano gli ultimi giochi usciti......
Cmq nessuno ha la certezza, ma solo supposizioni.
Ne riparleremo il 24 agosto ;)
davide155
20-06-2007, 12:48
Ma dirt veramente soffre di un problemuccio, in 3d mantine le frequenze 2d, nessuno l'ha segnalato?
Si conosco questo problema.....
E appunto ho detto che anche g80 è messo alle corde.
Quindi anche se andasse a frequenze 3D non credo che r600 farebbe di meglio ;)
+Lonewolf+
20-06-2007, 12:48
Ma dirt veramente soffre di un problemuccio, in 3d mantine le frequenze 2d, nessuno l'ha segnalato?
infatti...nessuno lo calcola qst?
+Lonewolf+
20-06-2007, 12:49
Si conosco questo problema.....
E appunto ho detto che anche g80 è messo alle corde.
Quindi anche se andasse a frequenze 3D non credo che r600 farebbe di meglio ;)
no?............in base a cosa fai il tuo ragionamento? sai quanto sono diverse le freq 2d dal 3d??? io si e t dico che se fa 30 fps in 2d, in 3d vola;)
davide155
20-06-2007, 12:51
no?............in base a cosa fai il tuo ragionamento? sai quanto sono diverse le freq 2d dal 3d??? io si e t dico che se fa 30 fps in 2d, in 3d vola;)
IO ne dubito......ma staremo a vedere appena ati si degna di dare dei driver decenti.
Nemmeno una 8800gtx vola con quel gioco......quindi non vedo come r600 debba andare di più.
Cmq dipende su che sistema fai 30fps.....a che risoluzione.....che filtri tieni e che qualità del gioco imposti ;)
Basta informarsi.
Ti ricordi i video iniziali di bioshock su x360?
Xenos (chip video della console microsoft) è molto simile ad r600.
E se ti ricordi bene i video scattavano come le bestie.
Sicuramente era da programmare bene, ma già li si vedeva come questo gioco fosse pesante graficamente parlando.
Ecco adesso prendi il frame rate dei primi video e immaginatelo su r600 oppure g80.
Ti dico così perchè su console lavorano l'80% del progetto ad ottimizzare.
Mentre su pc purtroppo ottimizzare non sappiamo più cosa voglia dire.
Quindi a voi i risultati.
Certo può anche uscire il gioco e girare a 100fps fissi......ma la vedo una situazione un pò improbabile visto come girano gli ultimi giochi usciti......
Cmq nessuno ha la certezza, ma solo supposizioni.
Ne riparleremo il 24 agosto ;)
Se ottimizzano su Xenos sarebbe davvero un ottimo cosa visto che il porting su r600 sarebbe molto facile..almeno da quello che si dice nell'intervista del creatore di r600, e comunque io non dico che voglio fare 100fps fissi ma giocare bene per me bene si intende tra i 40 50 fps...Comunque più che supposizioni sembra che tu sappia gia il futuro :D
+Lonewolf+
20-06-2007, 12:54
IO ne dubito......ma staremo a vedere appena ati si degna di dare dei driver decenti.
Nemmeno una 8800gtx vola con quel gioco......quindi non vedo come r600 debba andare di più.
Cmq dipende su che sistema fai 30fps.....a che risoluzione.....che filtri tieni e che qualità del gioco imposti ;)
beh...massima qualità...AA 4x Af 16x 1280x1024....se fa 35-40fps in 2d in 3d....nn c'è bisogno che continui no?
davide155
20-06-2007, 12:57
Se ottimizzano su Xenos sarebbe davvero un ottimo cosa visto che il porting su r600 sarebbe molto facile..almeno da quello che si dice nell'intervista del creatore di r600, e comunque io non dico che voglio fare 100fps fissi ma giocare bene per me bene si intende tra i 40 50 fps...Comunque più che supposizioni sembra che tu sappia gia il futuro :D
Il 25 agosto ti ordino di venirmi a cercare e dirmi come ti girerà.
Vedremo chi è più bravo a fare supposizioni, o a prevedere il futuro come dici tu :)
beh...massima qualità...AA 4x Af 16x 1280x1024....se fa 35-40fps in 2d in 3d....nn c'è bisogno che continui no?
Massima qualità che vuol dire? TUTTI i dettagli su ULTRA?
+Lonewolf+
20-06-2007, 12:57
freq 2d---------------------> core 504,mem 514
freq 3d---------------------> core 743,mem 828
che dici nn vola in cofronto del 2d???:rolleyes:
voli propio
Ti citerò dopo questa nella classifica dei commenti più inutili 2007, non hai la scheda, non te ne frega nulla, ma cosa ci trovi di interessante a rompere sempre le scatole...
+Lonewolf+
20-06-2007, 12:59
Il 25 agosto ti ordino di venirmi a cercare e dirmi come ti girerà.
Vedremo chi è più bravo a fare supposizioni, o a prevedere il futuro come dici tu :)
Massima qualità che vuol dire? TUTTI i dettagli su ULTRA?
se vuoi t postiamo i results con bioshock...cmq nn si profetizza nnt
SI tutti i dett su ultra + filtri;)
+Lonewolf+
20-06-2007, 13:00
voli propio
ora mi hai proprio scocciato ma non mi abbasso al tuo livello...mi limito a segnalarti
credevo che tagli di Vram di 640 mb cioè così strambi fossro inutili invece vedo che quei 128mb in + possono fare la differenza qunado si è a pelo con i 512mb di ram e in alcuni giochi succede in futuro prossimo penso ancora di più;)
cmq rimango dell'opinione che ste 8800 e 2900 c'è le godremo per bene con i prossimi giochi crisys e company ;) 1280 tutto al max è quello che voglio e penso proprio che ci riuscirò;)
+Lonewolf+
20-06-2007, 13:03
credevo che tagli di Vram di 640 mb cioè così strambi fossro inutili invece vedo che quei 128mb in + possono fare la differenza qunado si è a pelo con i 512mb di ram e in alcuni giochi succede in futuro prossimo penso ancora di più;)
cmq rimango dell'opinione che ste 8800 e 2900 c'è le godremo per bene con i prossimi giochi crisys e company ;) 1280 tutto al max è quello che voglio e penso proprio che ci riuscirò;)
infatti siamo d'accordo...1280
ps:nn m sn dimenticato della garetta...;) aspetto drvs maturi
davide155
20-06-2007, 13:03
se vuoi t postiamo i results con bioshock...cmq nn si profetizza nnt
SI tutti i dett su ultra + filtri;)
Aspetta....ma in che livello li fai 35fps? Di media??
Se li fai nel livello della subaru ok......ma se li fai nel livello delle buggy allora mi sembra strano....soprattutto perchè ha le frequenze del 2D.......
[QUOTE=davide155;17600051]Il 25 agosto ti ordino di venirmi a cercare e dirmi come ti girerà.
Vedremo chi è più bravo a fare supposizioni, o a prevedere il futuro come dici tu :) QUOTE]
Sinceramente sembra una gara come la imposti tu del tipo"vediamo chi sa predire il futuro"Comunque nessun problema se farà meno di 30 fps con dettagli ultra allora la scheda sarà un vero flop ;) a quel punto ti potrò dar ragione...
+Lonewolf+
20-06-2007, 13:06
Aspetta....ma in che livello li fai 35fps? Di media??
Se li fai nel livello della subaru ok......ma se li fai nel livello delle buggy allora mi sembra strano....soprattutto perchè ha le frequenze del 2D.......
nn era il buggy era 4x4 le jeeppone:D
la gara cn tante macchine
Io direi di continuare la discussione performance nel forum specifico, magari concentrandosi qua sulle novità e migliorie dei driver e sulla rece (quando uscirà) di 2900 XT 1 Gb.
Ragazzi diventa veramente poco leggibile se no.
credevo che tagli di Vram di 640 mb cioè così strambi fossro inutili invece vedo che quei 128mb in + possono fare la differenza qunado si è a pelo con i 512mb di ram e in alcuni giochi succede in futuro prossimo penso ancora di più;)
cmq rimango dell'opinione che ste 8800 e 2900 c'è le godremo per bene con i prossimi giochi crisys e company ;) 1280 tutto al max è quello che voglio e penso proprio che ci riuscirò;)
Finalmente qualcuno che la pensa in modo positivo :D Tutta questa negatività basta non se ne puo più su queste previsioni del futuro :fagiano:
+Lonewolf+
20-06-2007, 13:07
Io direi di continuare la discussione performance nel forum specifico, magari concentrandosi qua sulle novità e migliorie dei driver e sulla rece (quando uscirà) di 2900 XT 1 Gb.
Ragazzi diventa veramente poco leggibile se no.
certo...se utenti ignoranti continuano a scocciare...
davide155
20-06-2007, 13:09
Sinceramente sembra una gara come la imposti tu del tipo"vediamo chi sa predire il futuro"Comunque nessun problema se farà meno di 30 fps con dettagli ultra allora la scheda sarà un vero flop ;) a quel punto ti potrò dar ragione...
Niente gare........le gare si fanno in pista :O
voli propio
sospeso 5gg
bella sign.. :rolleyes:
>bYeZ<
davide155
20-06-2007, 13:11
nn era il buggy era 4x4 le jeeppone:D
la gara cn tante macchine
Bè....allora speriamo che questi driver escano al più presto.
Sono proprio curioso di vedere questa 2900xt quanto riesce a dare al max della sua potenza.
Niente gare........le gare si fanno in pista :O
Questo lo so infatti io non ho voglia di fare gare specialmente con DIRT :D
certo...se utenti ignoranti continuano a scocciare...
Non è permesso dare dell'ignorante a nessuno.. sospeso 5gg
senza contare che di certo questo modo di fare non aiuta a placare il flame
>bYeZ<
Poliphilo
20-06-2007, 13:19
Bè....allora speriamo che questi driver escano al più presto.
Sono proprio curioso di vedere questa 2900xt quanto riesce a dare al max della sua potenza.
Ecco.
Appunto: si sa nulla di nuovi drivers? Io confido nei prossimi, non dimenticando che, per esempio, nvidia non più di un mese e mezzo fa (correggetemi se sbaglio) ha tirato fuori drivers con i quali un mio amico ha guadagnato con la 8800, 700 punti al 3DMark2006, mica bruscolini.
infatti siamo d'accordo...1280
ps:nn m sn dimenticato della garetta...;) aspetto drvs maturi
si allora quando io avrò G90 tu mi posti i result di R600;)
i test si fanno adesso...
quando usciranno i 7.6 di driver ati e scoprirai che alla fine non sono quei 5-10 frame a cambiare la situazione...in maniera così marcata da gridare al miracolo...più tosto meglio che pensino a tutti i problemi di giovinezza della vga che ha, compatibilità, errori, bug, ecc come fu per le 8800 agli inizi.
il problema secondo me è che anche quando usciranno delle relase di driver ottime già ati pensa allo sviluppo delle vga successive...anzi non è che pensa allo sviluppo(lo sta facendo adesso)ma le produce...e sta cosa mi fa girare i maroni...meno male che sta serie 2900 non è stata eclatante tipo che superava GTX e ultra al costo di 400€(cioè se fosse stato così...l'avrei comprata...!)così nvidia si è stata buona buona e non ha fatto uscire le 8900 o vga successive....perchè mi girano le bollsss!!!
più tosto sono curioso di vedere come vanno ste GTS e 2900 con i giochi in uscita prossima ci sarà uno scontro "caldo" (visto le temp estive!) con bioshock! GRAW2 ecc! ....xò se ATI continua ad avere driver immaturi...non mi va! non voglio più sentire sta cosa! quindi che si dia dafare a sviluppare sti driver che quando esce sto gioco voglio vedere chi la spunta;)
Scrambler77
20-06-2007, 14:32
Ecco.
nvidia non più di un mese e mezzo fa (correggetemi se sbaglio) ha tirato fuori drivers con i quali un mio amico ha guadagnato con la 8800, 700 punti al 3DMark2006, mica bruscolini.
Non sbagli. ;)
Ecco.
Appunto: si sa nulla di nuovi drivers? Io confido nei prossimi, non dimenticando che, per esempio, nvidia non più di un mese e mezzo fa (correggetemi se sbaglio) ha tirato fuori drivers con i quali un mio amico ha guadagnato con la 8800, 700 punti al 3DMark2006, mica bruscolini.
Grazie a drivers sempre migliori di release in release le prestazioni di una scheda sono sempre in crescendo, questo si spera anche per R600...
ma va con un ali enermax liberty 5ooW??:confused:
ale0bello0pr
20-06-2007, 16:26
ma va con un ali enermax liberty 5ooW??:confused:
ma quella dotata di 1024 MB o la semplice 512 MB?
Se la seconda si...se la prima... BUONA FORTUNA...:D
la semplice 512 che per ora basta e avanza...poi al prezzo
ma va con un ali enermax liberty 5ooW??:confused:
certo che va
Si conosco questo problema.....
E appunto ho detto che anche g80 è messo alle corde.
Quindi anche se andasse a frequenze 3D non credo che r600 farebbe di meglio ;)
Scusa, ma con clocks il 50% più alti (senza OC, ma con frequenze 3d) il framerate potrebbe come minimo raddoppiare...
Scusa, ma con clocks il 50% più alti (senza OC, ma con frequenze 3d) il framerate potrebbe come minimo raddoppiare...
gia ma mi pare a dir poco assurdo che mentre gioco la vga mi va in modalità 2D provate ad overcloccare alle frequenze del 3D il 2D e postate i risultati:)
gia ma mi pare a dir poco assurdo che mentre gioco la vga mi va in modalità 2D provate ad overcloccare alle frequenze del 3D il 2D e postate i risultati:)
Io la scheda non ce l'ho, ma comunque la storia è possibilissima. Significherebbe semplicemente che la vga, che ha un profilo 2D ed uno 3D, non riconosce DiRT come applicazione 3D. Questo comunque vuol dire che il gioco ha problemi con la scheda, e che quindi finchè non si risolve il problema i risultati sono poco indicativi (così come poco indicativi sono i test di Lost Planet, visto che comunque le R600 nel rendering DX10 presentano artefatti).
Una prova credo che si possa fare, però. :stordita:
Iantikas
20-06-2007, 17:33
gia ma mi pare a dir poco assurdo che mentre gioco la vga mi va in modalità 2D provate ad overcloccare alle frequenze del 3D il 2D e postate i risultati:)
i result d DIRT postati nel 3d "test e prove sul campo" della hd2900xt mi sembra siano fatti con le freq. 3d e anke se la situazione nn'è delle migliori se ne esce con dei risultati di tutto rispetto...cmq x quanto riguarda questo gioco penso ke nn solo R600 ma gran parte della skede in commercio registreranno miglioramenti o tramite driver o patch...ciao
i result d DIRT postati nel 3d "test e prove sul campo" della hd2900xt mi sembra siano fatti con le freq. 3d e anke se la situazione nn'è delle migliori se ne esce con dei risultati di tutto rispetto...cmq x quanto riguarda questo gioco penso ke nn solo R600 ma gran parte della skede in commercio registreranno miglioramenti o tramite driver o patch...ciao
cmq per il gioco in questione basta disattivare i dettagli Ultra (poco visibili ma uccidono il frame) e il gioco gira a 1600x1200 con la GTS da 320mb provata da un mio amico con il suo Crt 21' tanto è che io a 1280 ci gioco perfettamente e non mi meno la testa perchè non sono riuscito a mettere Ultra;)
Alexkidd85
20-06-2007, 17:56
Mah,aspettiamo sto Crysis anche se sono convinto che queste prime dx10 sono solo schede "beta" per questa nuova api. Ma non sono d'accordo con chi lo considera flop SE non andrà con le nostre schede. IMHO i ragazzi della crytek con far cry hanno fatto un eccellente lavoro di compatibilità con molte schede di quell'epoca e venivano sfruttate ottimamente,quindi proprio a loro non direi niente :)
NOn voglio mensionare la serie Tom Clancy allora...o questo Colin nuovo :rolleyes: allora cosa si dovrebbe dire a loro!? :D
Mah,aspettiamo sto Crysis anche se sono convinto che queste prime dx10 sono solo schede "beta" per questa nuova api. Ma non sono d'accordo con chi lo considera flop SE non andrà con le nostre schede. IMHO i ragazzi della crytek con far cry hanno fatto un eccellente lavoro di compatibilità con molte schede di quell'epoca e venivano sfruttate ottimamente,quindi proprio a loro non direi niente :)
NOn voglio mensionare la serie Tom Clancy allora...o questo Colin nuovo :rolleyes: allora cosa si dovrebbe dire a loro!? :D
non posso che quotare forse Crisis non girera a risoluzioni assurde ma i programmatori della Crytek sono dei geni;) ho finito FarCry con una Geffo4 MX 64mb e a 1024x768 con dettagli medi e senza filtri andava benissimo(l'ho finito con questa scheda) figurarsi con una 9800 che era la top....penso che si verifichera una situazione simile
loperloper
20-06-2007, 18:09
Mah,aspettiamo sto Crysis anche se sono convinto che queste prime dx10 sono solo schede "beta" per questa nuova api. Ma non sono d'accordo con chi lo considera flop SE non andrà con le nostre schede. IMHO i ragazzi della crytek con far cry hanno fatto un eccellente lavoro di compatibilità con molte schede di quell'epoca e venivano sfruttate ottimamente,quindi proprio a loro non direi niente :)
NOn voglio mensionare la serie Tom Clancy allora...o questo Colin nuovo :rolleyes: allora cosa si dovrebbe dire a loro!? :D
il fatto è che duranto lo sviluppo di crysis l unica soluzione per le dx10 era 8800 e quindi per forza di cose hanno lavorato su quelle...non si mette in dubbio che porteranno anche la 2900xt ad un ottimo livello di compatibilità, ma, imho, non ritarderanno il gioco per questo
davide155
20-06-2007, 18:18
non posso che quotare forse Crisis non girera a risoluzioni assurde ma i programmatori della Crytek sono dei geni;) ho finito FarCry con una Geffo4 MX 64mb e a 1024x768 con dettagli medi e senza filtri andava benissimo(l'ho finito con questa scheda) figurarsi con una 9800 che era la top....penso che si verifichera una situazione simile
Lo spero vivamente, anche se hanno anticipato l'uscita, visto che a inizio mese avevano detto che gli serviva dai 4 ai 6 mesi per concludere il gioco.
E la seconda settimana di settembre mi sembra un pò forzata dalla EA.....
Cmq sperem :O
Fino ad ora la stramaggioranza dei giochi è stata fatta con i piedi e solo pochi sono stati veramente ottimizzati bene.
Altro fattore è quale gioco sfrutterà l'architettura Nvidia o Ati che sono completamente diverse.
Per come stanno le cose siamo in mano ai programmatori.... :muro:
davide155
20-06-2007, 18:34
Fino ad ora la stramaggioranza dei giochi è stata fatta con i piedi e solo pochi sono stati veramente ottimizzati bene.
Altro fattore è quale gioco sfrutterà l'architettura Nvidia o Ati che sono completamente diverse.
Per come stanno le cose siamo in mano ai programmatori.... :muro:
Infatti è proprio per questo che mi preoccupo. Inizio a sudare al solo pensiero.......
Cmq adottare tecnologie per differenziarsi nella mischia va bene, ma come ci insegna la storia......serve a ben poco, se non la sfrutta anche il tuo nemico.
Basti vedere il 3DC di ati delle vga x8xx........
Quale gioco ha sfruttato quella tecnologia? Nessuno.
Ed è per questo che anche il tasselation secondo me farà la stessa fine.
Tanto per citarne uno ;)
appleroof
20-06-2007, 18:39
Infatti è proprio per questo che mi preoccupo. Inizio a sudare al solo pensiero.......
Cmq adottare tecnologie per differenziarsi nella mischia va bene, ma come ci insegna la storia......serve a ben poco, se non la sfrutta anche il tuo nemico.
Basti vedere il 3DC di ati delle vga x8xx........
Quale gioco ha sfruttato quella tecnologia? Nessuno.
Ed è per questo che anche il tasselation secondo me farà la stessa fine.
Tanto per citarne uno ;)
perchè il trueform? :D
Ed è per questo che anche il tasselation secondo me farà la stessa fine.
...devi però considerare una cosa, piccola, ma molto importante. Molti dei futuri giochi per XBOX360 che verranno tradotti per pc utilizzeranno la Tesselation Unit.
Questo non vuol dire che non gireranno su altre vga, ma che R600 si troverà avantaggiata in quelle operazioni che sono compito della Tesselation Unit.
:)
...devi però considerare una cosa, piccola, ma molto importante. Molti dei futuri giochi per XBOX360 che verranno tradotti per pc utilizzeranno la Tesselation Unit.
Questo non vuol dire che non gireranno su altre vga, ma che R600 si troverà avantaggiata in quelle operazioni che sono compito della Tesselation Unit.
:)
quoto http://www.lshwupgrade.com/images/smiles/sese.gif
perchè il trueform? :D
truform! :O (senza "e")...
Avevo la 8500 all'epoca... questo effetto era applicato in pochissimi giochi e in ancor più pochi era applicato "correttamente"... in Serious Sam se veniva attivato "bombava" tutti gli oggetti :D
Era applicato DA DIO in Neverwinter Nights... forme arrotondate e molto più realistiche senza NESSUNA PERDITA DI VELOCITA'! ;)
Andava talmente bene che lo tolsero con una patch successiva (si disse su "pressioni" di nvidia! :asd: )
...devi però considerare una cosa, piccola, ma molto importante. Molti dei futuri giochi per XBOX360 che verranno tradotti per pc utilizzeranno la Tesselation Unit.
Questo non vuol dire che non gireranno su altre vga, ma che R600 si troverà avantaggiata in quelle operazioni che sono compito della Tesselation Unit.
...un'ultima cosa: la tecnica tessellation non richiede una nuova funzione nelle API DirectX in quanto è già presente nelle DirectX 10.
Imho AMD è stata intelligente ad inserire questo hardware dedicato, perché prima o poi la Tessellation ricoprirà un ruolo nello sviluppo dei giochi (se non sbaglio Team Fortress 2, nelle espressioni facciali, dovrebbe già utilizzare qualcosa di simile)
:)
truform! :O (senza "e")...
Avevo la 8500 all'epoca... questo effetto era applicato in pochissimi giochi e in ancor più pochi era applicato "correttamente"... in Serious Sam se veniva attivato "bombava" tutti gli oggetti :D
Era applicato DA DIO in Neverwinter Nights... forme arrotondate e molto più realistiche senza NESSUNA PERDITA DI VELOCITA'! ;)
Andava talmente bene che lo tolsero con una patch successiva (si disse su "pressioni" di nvidia! :asd: )
:eek:
davide155
20-06-2007, 19:04
...devi però considerare una cosa, piccola, ma molto importante. Molti dei futuri giochi per XBOX360 che verranno tradotti per pc utilizzeranno la Tesselation Unit.
Questo non vuol dire che non gireranno su altre vga, ma che R600 si troverà avantaggiata in quelle operazioni che sono compito della Tesselation Unit.
:)
Quali sono i futuri giochi x360 che useranno tale tecnologia?
Questa cosa non l'ho letta da nessuna parte :stordita:
appleroof
20-06-2007, 19:13
truform! :O (senza "e")...
:doh: già....:asd:
;)
Quali sono i futuri giochi x360 che useranno tale tecnologia?
Questa cosa non l'ho letta da nessuna parte :stordita:
perlappunto :O
...un'ultima cosa: la tecnica tessellation non richiede una nuova funzione nelle API DirectX in quanto è già presente nelle DirectX 10.
Imho AMD è stata intelligente ad inserire questo hardware dedicato, perché prima o poi la Tessellation ricoprirà un ruolo nello sviluppo dei giochi (se non sbaglio Team Fortress 2, nelle espressioni facciali, dovrebbe già utilizzare qualcosa di simile)
:)
ti sei perso un pezzo davide :asd:
nonikname
20-06-2007, 19:41
Quali sono i futuri giochi x360 che useranno tale tecnologia?
Questa cosa non l'ho letta da nessuna parte :stordita:
L'unico gioco che sfrutta la T.U. è Viva Pinata... :eek: mentre sul lato pc si dovrà aspettare le API nuove da microsoft per poterlo usare ...DX10.1 luglio-settembre 2008...
...un'ultima cosa: la tecnica tessellation non richiede una nuova funzione nelle API DirectX in quanto è già presente nelle DirectX 10.
No , non è possibile usarla tramite Directx 10 ... tant'è che "Ruby" utilizza delle caps proprietarie che permettono alla demo di girare solo su HW AMD...
davide155
20-06-2007, 19:57
L'unico gioco che sfrutta la T.U. è Viva Pinata... :eek: mentre sul lato pc si dovrà aspettare le API nuove da microsoft per poterlo usare ...DX10.1 luglio-settembre 2008...
No , non è possibile usarla tramite Directx 10 ... tant'è che "Ruby" utilizza delle caps proprietarie che permettono alla demo di girare solo su HW AMD...
Viva pinata :eek:
Corro a comprarlo :O
Insomma belin spara baggianate :D :D
No , non è possibile usarla tramite Directx 10 ... tant'è che "Ruby" utilizza delle caps proprietarie che permettono alla demo di girare solo su HW AMD...
Tessellation capabilities are a part of Microsoft's direction for future incarnations of DirectX.
Ho sbagliato nel dire che sono già dentro le DX10 ora, sorry. Non credo di sbagliare nel dire che saranno nella prossima revision delle DX10.
ps. le montagne del demo Ruby, se non sbaglio, utilizzano la T.U.
Insomma belin spara baggianate :D :D
:rolleyes:
:fuck:
ps. le montagne del demo Ruby, se non sbaglio, utilizzano la T.U.
non sbagli :)
appleroof
20-06-2007, 20:14
Viva pinata :eek:
Corro a comprarlo :O
:asd: :asd: :asd: altro che Crysis e compagnia...:D :D
Questa cosa non l'ho letta da nessuna parte :stordita:
...quasi tutte le recensioni in lingua inglese hanno trattato questo argomento. Avevo chiesto alla redazione se potevano parlarne in un loro futuro articolo, ma non ho ottenuto risposta. Sinceramente non so quali saranno i giochi di XBOX360 con utilizzo di TU che subiranno un porting su pc...non sono un amante delle console.
:)
http://www.xbitlabs.com/images/video/radeonhd2000/tesselation_msft.png
Foglia Morta
20-06-2007, 21:38
Infatti è proprio per questo che mi preoccupo. Inizio a sudare al solo pensiero.......
Cmq adottare tecnologie per differenziarsi nella mischia va bene, ma come ci insegna la storia......serve a ben poco, se non la sfrutta anche il tuo nemico.
Basti vedere il 3DC di ati delle vga x8xx........
Quale gioco ha sfruttato quella tecnologia? Nessuno.
Ed è per questo che anche il tasselation secondo me farà la stessa fine.
Tanto per citarne uno ;)
è il prezzo da pagare se si vuole innovare... spero di non sbagliarmi ma a me risulta che il 3DC sia un requisito delle DX10 , Ati l'ha inventato , l'ha implementato , l'ha proposto come standard e la serie 8 di nVidia lo supporta. La tessellation unit sarà un altro caso analogo al 3DC
leoneazzurro
20-06-2007, 21:46
No , non è possibile usarla tramite Directx 10 ... tant'è che "Ruby" utilizza delle caps proprietarie che permettono alla demo di girare solo su HW AMD...
Non è possibile indirizzarla direttamente dalle librerie DX10, ma è comunque possibile utilizzarla nei giochi DX10 tramite un code path apposito. Non è un problema di caps (tra l'altro nelle DX10 il concetto di "capability bit" è stato eliminato) ma semplicemente del fatto che il codice chiama direttamente la tesselation unit che in G80 non c'è.
Infatti è proprio per questo che mi preoccupo. Inizio a sudare al solo pensiero.......
Cmq adottare tecnologie per differenziarsi nella mischia va bene, ma come ci insegna la storia......serve a ben poco, se non la sfrutta anche il tuo nemico.
Basti vedere il 3DC di ati delle vga x8xx........
Quale gioco ha sfruttato quella tecnologia? Nessuno.
Ed è per questo che anche il tasselation secondo me farà la stessa fine.
Tanto per citarne uno ;)
...devi però considerare una cosa, piccola, ma molto importante. Molti dei futuri giochi per XBOX360 che verranno tradotti per pc utilizzeranno la Tesselation Unit.
Questo non vuol dire che non gireranno su altre vga, ma che R600 si troverà avantaggiata in quelle operazioni che sono compito della Tesselation Unit.
:)
http://www.xbitlabs.com/images/video/radeonhd2000/tesselation_msft.png
La tessellation è diversa da 3DC e Truform, proprio perchè, come ha detto belin, è sicuro che ci sarà in una delle prossime revision delle DX10: è scritto anche nel documento ufficiale MS sul futuro delle DirectX. Microsoft, forse proprio per via della presenza della funzione suddetta nella Xbox360, spinge addirittura per inserirla tra le features DX10.1...
peppecbr
20-06-2007, 22:28
mi son perso dopo l'uscita e le prime 100 pagine.... :D
io sono ati nel sangue :oink: :D
ho una nvidia presa per sfizio :D
cmq com'è andata a finire la storia dei driver? hanno veramente migliorato del 50% le prestazioni?
mi son perso dopo l'uscita e le prime 100 pagine.... :D
io sono ati nel sangue :oink: :D
ho una nvidia presa per sfizio :D
cmq com'è andata a finire la storia dei driver? hanno veramente migliorato del 50% le prestazioni?
We're waiting...
davide155
20-06-2007, 23:11
:rolleyes:
:fuck:
Era in senso ironico :rolleyes:
:asd: :asd: :asd: altro che Crysis e compagnia...:D :D
Viva pinata regna :O
non sono un amante delle console.
:)
Male :nonsifa:
Sono più affascinanti di quel che si crede :O
E più durature :sofico:
è il prezzo da pagare se si vuole innovare... spero di non sbagliarmi ma a me risulta che il 3DC sia un requisito delle DX10 , Ati l'ha inventato , l'ha implementato , l'ha proposto come standard e la serie 8 di nVidia lo supporta. La tessellation unit sarà un altro caso analogo al 3DC
Non credo proprio.....
Il 3dc ha poco e nulla a che vedere con la TU......
Quest'ultima mi sembra una vera innovazione.........il 3dc....era solo marketing :rolleyes:
La tessellation è diversa da 3DC e Truform, proprio perchè, come ha detto belin, è sicuro che ci sarà in una delle prossime revision delle DX10: è scritto anche nel documento ufficiale MS sul futuro delle DirectX. Microsoft, forse proprio per via della presenza della funzione suddetta nella Xbox360, spinge addirittura per inserirla tra le features DX10.1...
Appunto....
Free Gordon
20-06-2007, 23:13
E allora, permettemi, che cavolo ci siamo presi le hd2900 xt se pensavamo che in Crysis sarebbero state soffocate, almeno chi ha fatto l'acquisto spera il contrario, poi se sarà diversamente sarà stato probabilemnte un acquisto sbagliato.
Dato che la fisica sarà gestita dal processore, è più probabile che molti neo-acquirenti di 2900XT :D debbano upgradare proprio quel settore... per avere frame rate buoni e costanti, piuttosto che tremare di fronte alla paura che il gioco sia GPU dipendente.
Perlomeno, se Cevat afferma che sarà necessario un Core2Duo a 2400mhz per avere Crysis al top, sarà necessario un 6000+ per chi è su X2. ;)
Dal canto mio invece, credo che a quel momento sarò già con K10 :D (o Penryn).
Free Gordon
20-06-2007, 23:28
L'unico gioco che sfrutta la T.U. è Viva Pinata...
Dove lo hai letto?
E dove hai letto che è l'unico?
Free Gordon
20-06-2007, 23:30
il 3dc....era solo marketing :rolleyes:
E' un ottimo metodo per avere normal maps migliori, invece. ;)
Dove lo hai letto?
E dove hai letto che è l'unico?
Credo abbia ragione, avevo letto anch'io questa cosa. :)
Forse Alan Wake potrebbe sfruttare l'hw tessellation unit nella versione per xbox360, ma non c'è nulla di certo.
Basti vedere il 3DC di ati delle vga x8xx........
Quale gioco ha sfruttato quella tecnologia? Nessuno.
Ed è per questo che anche il tasselation secondo me farà la stessa fine.
...
il 3dc....era solo marketing :rolleyes:
Il metodo di compressione 3Dc fu SUBITO utilizzato dal motore di serious sam 2 e dal primo cryengine ed è stato implementato nelle nvidia con un altro nome. E consiste nella compressione delle normal maps, questione FONDAMENTALE nelle grafica 3d attuale.
L'unico gioco che sfrutta la T.U. è Viva Pinata... :eek: mentre sul lato pc si dovrà aspettare le API nuove da microsoft per poterlo usare ...DX10.1 luglio-settembre 2008...
No , non è possibile usarla tramite Directx 10 ... tant'è che "Ruby" utilizza delle caps proprietarie che permettono alla demo di girare solo su HW AMD...
...devi però considerare una cosa, piccola, ma molto importante. Molti dei futuri giochi per XBOX360 che verranno tradotti per pc utilizzeranno la Tesselation Unit.
Questo non vuol dire che non gireranno su altre vga, ma che R600 si troverà avantaggiata in quelle operazioni che sono compito della Tesselation Unit.
:)
Che sappia io, TUTTI i giochi delle xbox360 sfruttano parti della tesselation unit (che tra l'altro si appoggia a Xenon) per la creazione di superfici curve, terreni sconnessi....e la gestione del LOD!!!!!
Se poi la mia fonte è errata, ben venga un tuo link esplicativo...
Che poi R600 sia il cuginetto con più scalari e zero edram di r500 si sapeva...i personaggi di amd-ati l'hanno ben specificato che la T.U. è stata messa in r600 per consentire ottimi porting da x360...
Visto che qua dentro si parla di Crysis e DX10, quando le due cose non centrano un piffero l'una con l'altra, visto che il path dx10 è il solito "eye candy" aggiunto sopra il cryengine 2 che nasceva SENZA dx10...io comincerei a guardare al futuro porting di giochi da x360 a pc come Gears Of War, dove vedremo si se la nuova architettura di R600 si avvantaggerà delle caratteristiche in discussione.
Mister Tarpone
21-06-2007, 05:42
Il 3DC di ATI è stato utilizzato anche in HL2, episodio1 e Tribes Vengeance...
james_het
21-06-2007, 09:30
interessante la discussione su T.U. : qualkuno sa +/- come questo si tradurrà in prestazioni una volta sfruttato? cioè quanto inciderà sulle prestazioni poi nel gioco avere o non avere questa istruzione via HW?
Scrambler77
21-06-2007, 09:47
Che sappia io, TUTTI i giochi delle xbox360 sfruttano parti della tesselation unit (che tra l'altro si appoggia a Xenon) per la creazione di superfici curve, terreni sconnessi....e la gestione del LOD!!!!!
Se poi la mia fonte è errata, ben venga un tuo link esplicativo...
La tua fonte qual'è?
interessante la discussione su T.U. : qualkuno sa +/- come questo si tradurrà in prestazioni una volta sfruttato? cioè quanto inciderà sulle prestazioni poi nel gioco avere o non avere questa istruzione via HW?
Il vantaggio è di 2 tipi:
- superfici più realistiche con minori risorse
- se un gioco sfrutta la tessellation, e la vga non ha hw dedicato, la tessellation viene fatta via software con la cpu, rallentando le prestazioni.
Scrambler77
21-06-2007, 10:13
Il vantaggio è di 2 tipi:
- superfici più realistiche con minori risorse
- se un gioco sfrutta la tessellation, e la vga non ha hw dedicato, la tessellation viene fatta via software con la cpu, rallentando le prestazioni.
Per G80 no... a quanto ho letto sono gli SP che si dedicano alla tessellation.
Per G80 no... a quanto ho letto sono gli SP che si dedicano alla tessellation.
ma cmq rallentano le prestazioni visto che non possono essere dedicati al rendering ;)
Scrambler77
21-06-2007, 10:24
ma cmq rallentano le prestazioni visto che non possono essere dedicati al rendering ;)
Beh innanzitutto c'è una bella differenza tra CPU e GPU. ;)
Cmq tutto sta a capire "quanto" inficierà sulle prestazioni... Perdere 2-3fps per la tessellation a fronte di un dispositivo hw dedicato non la vedo così drammatica.
Sempre a quanto ho letto in giro, la tessellation non è una feature che assorbe chissà quanta potenza di calcolo di una GPU. Il vero problema è fare il rendering dei poligoni "tessellati"... ma questo poi diventa un problema comune a tutte le architetture.
Beh innanzitutto c'è una bella differenza tra CPU e GPU. ;)
lo so ;)
Cmq tutto sta a capire "quanto" inficierà sulle prestazioni... Perdere 2-3fps per la tessellation a fronte di un dispositivo hw dedicato non la vedo così drammatica.
come fai ad essere sicuro che perderai 2-3fps? :confused:
Secondo me senza il vista queste schede non sono sfruttate...
Scrambler77
21-06-2007, 10:38
come fai ad essere sicuro che perderai 2-3fps? :confused:
Infatti non ne sono sicuro. Da quanto ho visto in giro (e confesso che c'è poco) la tessellation sembra non assorbire molto in termini di prestazioni rispetto alla potenza a disposizione oggi.
E comunque è una feature ancora prematura. Probabilmente sarà utilizzata come si deve nel 2008, ma sicuramente allora avremo uno scenario molto diverso rispetto a R600 e G80 di oggi.
Scrambler77
21-06-2007, 10:48
Non so se l'avete già letto... io lo posto comunque:
da SoftPedia: http://news.softpedia.com/news/ATI-039-s-R700-to-support-DirectX-10-1-55321.shtml
"The tessellation engine implemented in the R600 GPU and further developed with the R650 model will reach version 2.0 by the time the R700 is released. The tessellation feature isn't supported by any graphics API, but Microsoft promised that this nice addition will be included in the 10.1. Game developers think that the tessellation support could also be easily introduced into the OpenGL API.
[CUT]
ATI has already demonstrated how this process works in their Ruby technological demo that comes with the HD 2900XT cards, but it's fair to say that any actual game implementation won't get to be released until late 2008."
In pratica, c'è ma non la usiamo, tranne che nelle tech-demo. :)
leoneazzurro
21-06-2007, 10:49
Si parla di oggetti tessellati con Centinaia di migliaia - milioni di poligoni.
Non c'è CPU che tenga in questi casi.
Per G80 no... a quanto ho letto sono gli SP che si dedicano alla tessellation.
..CUT..
Cmq tutto sta a capire "quanto" inficierà sulle prestazioni... Perdere 2-3fps per la tessellation a fronte di un dispositivo hw dedicato non la vedo così drammatica.
Sempre a quanto ho letto in giro, la tessellation non è una feature che assorbe chissà quanta potenza di calcolo di una GPU. Il vero problema è fare il rendering dei poligoni "tessellati"... ma questo poi diventa un problema comune a tutte le architetture.
Per tutte le schede video DX10 in teoria è così. I geometry shaders possono svolgere quel lavoro, ma:
- G80 non sembra che sia particolarmente brillante nel Geometry Shading, stando a quanto dicono gli sviluppatori, anzi;
- considerando quanto detto sopra, e considerando il fatto che secondo Microsoft e gli sviluppatori la soluzione migliore per la tessellation sarebbe avere un'unità fixed function dedicata (andando contro la tendenza ad unificare e a svolgere tutto il lavoro con gli shader programmabili), può darsi che l'impatto della tessellation sulle prestazioni delle schede senza TU in realtà sia molto più pronunciato di quanto ottimisticamente ipotizzi.
Più che altro semplifica il lavoro, manca ancora la base hw per uno sfruttamento intensivo nei giochi, ma in futuro credo verrà implementata sempre più spesso.
Scrambler77
21-06-2007, 11:02
[CUT] ...può darsi che l'impatto della tessellation sulle prestazioni delle schede senza TU in realtà sia molto più pronunciato di quanto ottimisticamente ipotizzi.
Il mio ottimismo deriva dal fatto che le TU, anche se ci sono oggi, su PC non sono ancora utilizzate, tantomeno lo saranno nei titoli di prossima uscita: risulta pertanto del tutto inutile avere oggi una TU hardware quando le API supportate dalla scheda non hanno neppure il supporto per la tessellation. E' una feature da scrivere su una scheda DX10.1, non sulle attuali DX10 che, in termini, non la supportano.
In effetti, domani con R700 e G-nonsocosa, si potrà parlare di "feature" che sbilancia le prestazioni a favore dell'una o dell'altra, anche se ritengo anche io che almeno per la tessellation si avrà comunque un'unità hardware dedicata.
Se sarà una feature utilizzata in maniera consistente, la vedremo sicuramente sulle prossime architetture, Gxx compresa.
Athlon 64 3000+
21-06-2007, 11:13
Il mio ottimismo deriva dal fatto che le TU, anche se ci sono oggi, su PC non sono ancora utilizzate, tantomeno lo saranno nei titoli di prossima uscita: risulta pertanto del tutto inutile avere oggi una TU hardware quando le API supportate dalla scheda non hanno neppure il supporto per la tessellation. E' una feature da scrivere su una scheda DX10.1, non sulle attuali DX10 che, in termini, non la supportano.
In effetti, domani con R700 e G-nonsocosa, si potrà parlare di "feature" che sbilancia le prestazioni a favore dell'una o dell'altra, anche se ritengo anche io che almeno per la tessellation si avrà comunque un'unità hardware dedicata.
Se sarà una feature utilizzata in maniera consistente, la vedremo sicuramente sulle prossime architetture, Gxx compresa.
può essere che Ati abbia messo la TU in R600 anche come baee per il futuro e che in R700 sarà migliorata e potenziata cosi da risultare più utile di oggi,stessa cosa per G90(o come di chiamerà) che sicuramente lo avrà al suo interno.
Athlon 64 3000+
21-06-2007, 11:14
Per tutte le schede video DX10 in teoria è così. I geometry shaders possono svolgere quel lavoro, ma:
- G80 non sembra che sia particolarmente brillante nel Geometry Shading, stando a quanto dicono gli sviluppatori, anzi;
- considerando quanto detto sopra, e considerando il fatto che secondo Microsoft e gli sviluppatori la soluzione migliore per la tessellation sarebbe avere un'unità fixed function dedicata (andando contro la tendenza ad unificare e a svolgere tutto il lavoro con gli shader programmabili), può darsi che l'impatto della tessellation sulle prestazioni delle schede senza TU in realtà sia molto più pronunciato di quanto ottimisticamente ipotizzi.
la mia curiostà è sapere quandi sia poco efficacie il geometry shader di G80.
Infatti non ne sono sicuro. Da quanto ho visto in giro (e confesso che c'è poco) la tessellation sembra non assorbire molto in termini di prestazioni rispetto alla potenza a disposizione oggi.
E comunque è una feature ancora prematura. Probabilmente sarà utilizzata come si deve nel 2008, ma sicuramente allora avremo uno scenario molto diverso rispetto a R600 e G80 di oggi.
Vedremo, anche se imho ti confondi con l'anisotropo di G80 dicendo che perdi 2-3 fps :p ;)
Scrambler77
21-06-2007, 11:37
può essere che Ati abbia messo la TU in R600 anche come baee per il futuro e che in R700 sarà migliorata e potenziata cosi da risultare più utile di oggi,stessa cosa per G90(o come di chiamerà) che sicuramente lo avrà al suo interno.
Si infatti, la TU di R600 la fase embrionale di quella di R700 (probabilmente la vera TU di ATi).
la mia curiostà è sapere quandi sia poco efficacie il geometry shader di G80.
E' anche la mia... perchè è la prima volta che lo sento. :)
E' anche la mia... perchè è la prima volta che lo sento. :)
se non vado errando lo avevano dichiarato gli sviluppatori di FSX (quindi interni a MS e imparziali) in un intervista ;)
Scrambler77
21-06-2007, 11:42
se non vado errando lo avevano dichiarato gli sviluppatori di FSX (quindi interni a MS e imparziali) in un intervista ;)
Allora non l'ho letto io... :fagiano:
Cmq sentir parlare MS di "efficienza" ha un non so che di comico... :asd:
Allora non l'ho letto io... :fagiano:
Cmq sentir parlare MS di "efficienza" ha un non so che di comico... :asd:
a livello software si, ma sull'hardware non credo possano mentire visto che loro (per fortuna) non ci hanno messo mani :sbonk:
Athlon 64 3000+
21-06-2007, 11:48
Si infatti, la TU di R600 la fase embrionale di quella di R700 (probabilmente la vera TU di ATi).
E' anche la mia... perchè è la prima volta che lo sento. :)
Io sto solo facendo ipotesi visto che non si sa quanto sia efficiente la TU di R600.
Per quanto riguarda il geometry shader di G80 che sia poco efficiente per ora è solo un ipotesi.
Ricordati che io ho preferito R600 a G80 come acquisto e mi riesede difficile criticare R600 e non critico neanche G80 perchè come gpu è diversa da R600.
Non volgio essere scortese ma non vorrei essere più quotato dai possessori di G80 per poi scatenare dei flame.
Athlon 64 3000+
21-06-2007, 11:49
Un'altra ipotesi è che gia in R500 c'è la TU e che in R600 sia stata potenziata.
Poi può darsi che in R700 possa essere ulteriormente migliorata e potenziata.
Scrambler77
21-06-2007, 11:50
a livello software si, ma sull'hardware non credo possano mentire visto che loro (per fortuna) non ci hanno messo mani :sbonk:
Nono... chi ha detto che hanno mentito. Di certo non possono dire che le proprie API non sfruttano a dovere l'hardware. E' l'hardware che non sfrutta bene le loro API. :sofico:
Scrambler77
21-06-2007, 11:53
Non volgio essere scortese ma non vorrei essere più quotato dai possessori di G80 per poi scatenare dei flame.
Beh... questo è già di per se un flame.
Cmq probabilmente hai frainteso (o non sono stato bravo a spiegare) il senso del mio quote. I toni sono tutt'altro che da flame. Anzi, è palese che defragg ed io stiamo giocando (a dire il vero anche un pochino OT - i mod si incazzeranno presto).
Torniamo IT. :D
cmq è sempre meglio averla questa benedetta TU che non averla,se in futuro i giochi ne faranno uso i possessori di hd 2900xt ne saranno avvantaggiati sempre se porterà reali benefici....
Free Gordon
21-06-2007, 12:06
Beh innanzitutto c'è una bella differenza tra CPU e GPU. ;)
Cmq tutto sta a capire "quanto" inficierà sulle prestazioni... Perdere 2-3fps per la tessellation a fronte di un dispositivo hw dedicato non la vedo così drammatica.
Sempre a quanto ho letto in giro, la tessellation non è una feature che assorbe chissà quanta potenza di calcolo di una GPU. Il vero problema è fare il rendering dei poligoni "tessellati"... ma questo poi diventa un problema comune a tutte le architetture.
Il vantaggio della tessellation unit, è che riduce MOLTO l'utilizzo della memoria.
I vertici hanno un grosso impatto sulla quantità di memoria (e relativa banda usata ovviamente), con la TU questo problema lo riduci alla radice.
Oltretutto, non ci sono CPU attualmente sul mercato, che possono star dietro ad un hw dedicato a generare on the fly vertici, come la TU.
Ovvio che quel lavoro, in ambito dx10, può essere girato alla GPU.. ma devi togliere potenza agli sp e, come ho detto sopra, prima di tutto devi mangiare memoria e bandwith (cosa che si riduce moltissimo grazie alla TU).
Ps. ho trovato una info a riguardo T.U. e xbox360.
Firingsquad riporta che la T.U. in VivaPinata per 360, è usata "estensivamente", ma non dice che è l'unico gioco.. (cosa che effettivamente mi parre molto strana).
Dove avete letto che VP è l'unico gioco ad usarla?
peppecbr
21-06-2007, 12:08
We're waiting...
azz , ok allora attendiamo insieme :D
Free Gordon
21-06-2007, 12:20
Un'altra ipotesi è che gia in R500 c'è la TU e che in R600 sia stata potenziata.
Poi può darsi che in R700 possa essere ulteriormente migliorata e potenziata.
Quella di R600, è già migliore rispetto a quella di R500. ;)
E' più potente grazie anche ai 250mhz in più di frequenza (ovviamente).
Cmq ecco i vantaggi:
"The Radeon HD 2000 series is the first GPU to feature a dedicated hardware unit for tessellation. With tessellation, developers can create complex objects without requiring a large amount of triangles. For example, the GPU could be used to dynamically render features such as the topology of a mountain range. With adaptive tessellation, the developer can selectively put more detail where needed (via more patches), and less patches where high detail isn't as important. For example, more distant objects can have less detail than objects that are closer to the viewer. This allows highly detailed scenes to be rendered with much fewer polygons than would otherwise be necessary. ATI’s tessellation unit supports a wide variety of higher order surfaces, including Bezier patches, N-Patches, and NURBS.
Another benefit of ATI’s tessellation unit is faster displacement mapping and reduced memory bandwidth usage."
Athlon 64 3000+
21-06-2007, 12:51
Beh... questo è già di per se un flame.
Cmq probabilmente hai frainteso (o non sono stato bravo a spiegare) il senso del mio quote. I toni sono tutt'altro che da flame. Anzi, è palese che defragg ed io stiamo giocando (a dire il vero anche un pochino OT - i mod si incazzeranno presto).
Torniamo IT. :D
Non voglio assolutamente scatenare flame visto che si tratta solo di ipotesi sia per l'TU di R600 che il Geometry Shader di G80.
se non vado errando lo avevano dichiarato gli sviluppatori di FSX (quindi interni a MS e imparziali) in un intervista ;)
Infatti. ;)
http://blogs.msdn.com/ptaylor/archive/2007/03/03/optimized-for-vista-does-not-mean-dx10.aspx
Given the state of the NV drivers for the G80 and that ATI hasn’t released their hw yet; it’s hard to see how this is really a bad plan. We really want to see final ATI hw and production quality NV and ATI drivers before we ship our DX10 support. Early tests on ATI hw show their geometry shader unit is much more performant than the GS unit on the NV hw. That could influence our feature plan.
Lo ha detto anche Eric Demers nella recente intervista a B3D, ovviamente chiarendo che le cause delle basse performance di G80 in questo ambito potrebbero essere di qualunque genere, sia hw che sw.
Sta di fatto che per ora i pochi test GS trapelati lasciano intendere che R600 potrebbe essere nettamente meglio di G80 sotto questo aspetto: poi sono d'accordo anch'io sul fatto che per il momento questo divario non si vedrà nella pratica (anche perchè gli sviluppatori questi problemi li conoscono e credo che si guarderanno bene dall'implementare soluzioni che possano mettere in ginocchio una bella fetta delle schede DX10 in commercio).
Infatti. ;)
http://blogs.msdn.com/ptaylor/archive/2007/03/03/optimized-for-vista-does-not-mean-dx10.aspx
Lo ha detto anche Eric Demers nella recente intervista a B3D, ovviamente chiarendo che le cause delle basse performance di G80 in questo ambito potrebbero essere di qualunque genere, sia hw che sw.
Sta di fatto che per ora i pochi test GS trapelati lasciano intendere che R600 potrebbe essere nettamente meglio di G80 sotto questo aspetto: poi sono d'accordo anch'io sul fatto che per il momento questo divario non si vedrà nella pratica (anche perchè gli sviluppatori questi problemi li conoscono e credo che si guarderanno bene dall'implementare soluzioni che possano mettere in ginocchio una bella fetta delle schede DX10 in commercio).
cmq andra a finire non credo che le attuali top di gamma non permettano di giocare almeno a 1280 con AA se cio si verifica sarebbe la prima volta e sarebbe un flop totale e questo Ati e Nvidia lo sanno bene e non possono fallire
cmq andra a finire non credo che le attuali top di gamma non permettano di giocare almeno a 1280 con AA se cio si verifica sarebbe la prima volta e sarebbe un flop totale e questo Ati e Nvidia lo sanno bene e non possono fallire
Per questo sono convinto che giochi GS intensive non li vedremo fino a dopo l'uscita di G92. ;)
Per questo sono convinto che giochi GS intensive non li vedremo fino a dopo l'uscita di G92. ;)
nel frattempo avoglia a gustarci gioconi:Crisys.Bioshok.Quake Wars.Unreal3.Alan Wake :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.