View Full Version : VGA DX10 lente con i titoli DX10 ? ma che dite eccone la prova !!!
Fire Hurricane
11-07-2007, 21:38
Chi diceva vedendo i bench che i titoli DX10 sarebbero girati appena sufficineti e bisognava aspettare la prossima generazione ?
Ora se le dovrà rimangiare, spendere soldi per una VGA DX10 ora è convenientissimo eccome, beccatevi sta news e fatela finita.
( da notare che la piattaforma usata è la GTX , la stessa usata anche per lo sviluppo del game quindi ATI con crysis rischia un FLOP )
http://www.tomshw.it/news.php?newsid=10738
Tidus.hw
11-07-2007, 21:40
lo hanno provato in dx9 -.-"
Mister Tarpone
11-07-2007, 21:41
lo hanno provato in dx9 -.-"
azz... che batosta :ops:
Fire Hurricane
11-07-2007, 21:53
azz... che batosta :ops:
si ma le comparative sono anche in DX10 altro che batosta
Mister Tarpone
11-07-2007, 21:56
si ma le comparative sono anche in DX10 altro che batosta
anch'io sono fiducioso.... ;) cmq vedremo cosa diranno i Crytek :read: !!
Fire Hurricane
11-07-2007, 22:26
anch'io sono fiducioso.... ;) cmq vedremo cosa diranno i Crytek :read: !!
ma scusate non avete visto i video ? sono sia in DX9 che in DX10 !!!
Guardate che probabilmente il passaggio da DX9 a DX10 velocizzerà il game non lo rallenterà, infatti tramite DX10 il gioco risulta più facile da programmare e permettere l'uso di nuovi algoritmi innovativi altro che difficolta Dx10 !!!
Nella configurazione c'è scritto windows xp e quindi dx9. Dove vedete che in dx10 girerà meglio??? mah...
Nella configurazione c'è scritto windows xp e quindi dx9. Dove vedete che in dx10 girerà meglio??? mah...
Speranze. Come la speranza che Crysis sia Dx10.
Fire Hurricane
12-07-2007, 16:22
Speranze. Come la speranza che Crysis sia Dx10.
ma i video dimistrativi ci sono sia in dx9 che in dx10
Grande non notizia. :rolleyes:
Gli unici dati certi sono questi: "con un sistema high-end (=una cpu di fascia medio-alta che ancora deve uscire+la scheda DX9 più potente oggi disponibile, a parte la Ultra) Crysis riuscirà a girare benissimo con tutto al max a 1280x1024 in DX9 su XP". E grazie al ca..., aggiungerei io. :asd:
Tutto il resto sono solo supposizioni.
Ricordo a tutti che la versione DX10 comunque verrà arricchita da un bel po' di effetti rispetto alla DX9, e che in teoria il path DX10 è meno pesante a parità di effetti.
Insomma, per sapere come girerà Crysis bisognerà aspettarne l'uscita. Certo il fatto che prendano come risoluzione di riferimento 1280x1024 nell'era dell'high definition non fa ben sperare. :(
Tidus.hw
12-07-2007, 17:11
Grande non notizia. :rolleyes:
Gli unici dati certi sono questi: "con un sistema high-end (=una cpu di fascia medio-alta che ancora deve uscire+la scheda DX9 più potente oggi disponibile, a parte la Ultra) Crysis riuscirà a girare benissimo con tutto al max a 1280x1024 in DX9 su XP". E grazie al ca..., aggiungerei io. :asd:
Tutto il resto sono solo supposizioni.
Ricordo a tutti che la versione DX10 comunque verrà arricchita da un bel po' di effetti rispetto alla DX9, e che in teoria il path DX10 è meno pesante a parità di effetti.
Insomma, per sapere come girerà Crysis bisognerà aspettarne l'uscita. Certo il fatto che prendano come risoluzione di riferimento 1280x1024 nell'era dell'high definition non fa ben sperare. :(
a dire la verità non hanno specificato la risoluzione, hanno solo detto che era alta, più di 1280x1024 sicuramente.
appleroof
12-07-2007, 17:26
cut
Ricordo a tutti che la versione DX10 comunque verrà arricchita da un bel po' di effetti rispetto alla DX9, e che in teoria il path DX10 è meno pesante a parità di effetti.
Insomma, per sapere come girerà Crysis bisognerà aspettarne l'uscita.
cut
a parità di effetti...potresti spegarti meglio? per il resto (che solo all'uscita sapremo) condivido al 100%, secondo me nemmeno la ventilata demo sarà totalmente affidabile da questo punto di vista
a dire la verità non hanno specificato la risoluzione, hanno solo detto che era alta, più di 1280x1024 sicuramente.
e cmq aggiungo che le ultime vga ci hanno abituato ai 1680x1050 in sù, ma forse dimentichiamo che per il 90% dei giocatori del mondo 1280x1024 rimane ancora il riferimento....
appleroof
12-07-2007, 17:43
:rotfl:
cosa ridi? :stordita:
cosa ridi? :stordita:
rido per la gaffe :asd:
appleroof
12-07-2007, 17:46
rido per la gaffe :asd:
ah...ok :D
a parità di effetti...potresti spegarti meglio?
Supponendo un gioco che abbia sia il path DX9 che DX10, con gli stessi identici effetti grafici in entrambi i path (ossia la versione DX10 non è più "bella") grazie alla riduzione dell'overhead dovrebbe essere più veloce col path DX10 (utilizzando lo stesso sistema).
Bisogna però anche dire che nella realtà il path DX10 aggiunge un sacco di begli effettoni (per far notare la differenza) e questo comunque comporterà un certo appesantimento del gioco, tale forse da far perdere quel supposto vantaggio.
appleroof
12-07-2007, 18:33
Supponendo un gioco che abbia sia il path DX9 che DX10, con gli stessi identici effetti grafici in entrambi i path (ossia la versione DX10 non è più "bella") grazie alla riduzione dell'overhead dovrebbe essere più veloce col path DX10 (utilizzando lo stesso sistema).
Bisogna però anche dire che nella realtà il path DX10 aggiunge un sacco di begli effettoni (per far notare la differenza) e questo comunque comporterà un certo appesantimento del gioco, tale forse da far perdere quel supposto vantaggio.
sono d'accordo, inoltre pare che il motore grafico "deleghi" la fisica alla cpu (non ho ben chiaro se questo avvenga solo con la versione dx10 oppure con entrambe, in teoria anche con le dx9 è possibile, che io sappia) da qui il consiglio del dual core se non addirittura --ma per me marketing-- del quad core...
da qui secondo me la conclusione che invece la dx10 sarà ben più pesante: vga impegnata di più e procio lo stesso che in dx9
red_eyes
13-07-2007, 16:32
anch'io sono fiducioso.... ;) cmq vedremo cosa diranno i Crytek :read: !!
il momento della verità sarà più o meno a settembre all'uscita del fantomatico Crysis, e col suo spettacolare motore grafico!!!! :D :D :D
Fino ad allora azzuffarsi per nulla non ha senso!!! ;) ;) ;) sono diffidente dai test buttati così sul web... sono un San Tommaso finke non esce crysis non darò conto a nessun test fatto in Dx10!!! ;) ;) ;) ;)
A proposito di prestazioni in DX10, ecco il primo benchmark (credo) fatto con la beta di World in Conflict (non è una patch, è proprio uno dei primi giochi DX10 in uscita a fine anno). Ovviamente è una beta, ovviamente i drivers non sono ancora ottimizzati (le HD2900XT hanno degli errori di rendering abbastanza importanti con questa beta, sempre secondo lo stesso sito).
In DX10 si perdono circa 10fps rispetto al path DX9. Incredibile quanto conti la potenza della CPU. :eek:
http://www.pcgameshardware.de/screenshots/medium/2007/07/WiC_VGA_Skalierung.PNG (http://www.pcgameshardware.de/screenshots/original/2007/07/WiC_VGA_Skalierung.PNG)
http://www.pcgameshardware.de/screenshots/medium/2007/07/WiC_CPU_Skalierung.PNG (http://www.pcgameshardware.de/screenshots/original/2007/07/WiC_CPU_Skalierung.PNG)
Mister Tarpone
13-07-2007, 20:57
solo 45fps con una 8800ultra in DX9 a 1024x768???
:sbonk: :sbonk: :sbonk: :sbonk: :sbonk: :sbonk:
....ma è un risultato osceno :fagiano: !!!
EDIT:
mica per altro.... ma allora con una x1950xt / 7950gt quanto farà in dx9 ?? 20fps a 1024x :fagiano: ???
la solita beta da cui non si può trarre grosse conclusioni...
solo 45fps con una 8800ultra in DX9 a 1024x768???
:sbonk: :sbonk: :sbonk: :sbonk: :sbonk: :sbonk:
....ma è un risultato osceno :fagiano: !!!
EDIT:
mica per altro.... ma allora con una x1950xt / 7950gt quanto farà in dx9 ?? 20fps a 1024x :fagiano: ???
Già. :ncomment:
Ma non è tutto: se anzichè avere l'X6800 si avesse un E6600 (=una signora cpu, comunque) il framerate scenderebbe, con le stesse impostazioni, a 28fps. :sob:
Mister Tarpone
13-07-2007, 21:07
Già. :ncomment:
Ma non è tutto: se anzichè avere l'X6800 si avesse un E6600 (=una signora cpu, comunque) il framerate scenderebbe, con le stesse impostazioni, a 28fps. :sob:
:sbonk:
no comment :incazzed:
....ma poi si parla di componenti hw che costano un patrimonio :bsod:
Kissa cosa farebbe un sempron / celeron abbinato ad una hd2400 / 8500 a 1024
The result: In the present stage of World in Conflict you can always profit to CPU limiting by an accordingly fast diagram map from a faster CCU, with our 8800 Ultra are clear the play.
qualcuno mi sa spiegare cosa significa??
Fire Hurricane
14-07-2007, 00:20
we ma guardate che sono usciti i beta che servivano a correggere i bugs con world in conflict, solo per serie 8.
Ati scommetto sempre problemi eh...............?:D :mc: :ciapet:
we ma guardate che sono usciti i beta che servivano a correggere i bugs con world in conflict, solo per serie 8.
Ati scommetto sempre problemi eh...............?:D :mc: :ciapet:
beta beta beta :blah:
Mister Tarpone
14-07-2007, 01:26
Kissa cosa farebbe un sempron / celeron abbinato ad una hd2400 / 8500 a 1024
è meglio che non te lo dica cosa farebbe... ;)
beta beta beta :blah:
Beh, meglio un driver beta che risolve un problema, piuttosto che niente: si chiama supporto agli acquirenti, ed è un valore aggiunto di cui tener conto in fase d'acquisto (e questo ovviamente vale per tutto, non solo per una vga): evitate di stuzzicarvi come ragazzini :rolleyes:
Beh, meglio un driver beta che risolve un problema, piuttosto che niente: si chiama supporto agli acquirenti, ed è un valore aggiunto di cui tener conto in fase d'acquisto (e questo ovviamente vale per tutto, non solo per una vga): evitate di stuzzicarvi come ragazzini :rolleyes:
io non voglio fare la cavia di nessuno, è a questo che servono le beta...risolvono i problemi? bene, ma come mai sono beta invece che "official release" o come la vuoi chiamare? spiegami che sono curioso :)
red_eyes
14-07-2007, 12:54
solo 45fps con una 8800ultra in DX9 a 1024x768???
:sbonk: :sbonk: :sbonk: :sbonk: :sbonk: :sbonk:
....ma è un risultato osceno :fagiano: !!!
EDIT:
mica per altro.... ma allora con una x1950xt / 7950gt quanto farà in dx9 ?? 20fps a 1024x :fagiano: ???
la solita beta da cui non si può trarre grosse conclusioni...
con quale coraggio si pubblicano certe cose??? :muro: :muro:
Ci vuole coraggio!!! :mbe:
è meglio che non te lo dica cosa farebbe... ;)
Forse é meglio nn saperlo altrimenti mi viene da :cry:
Già. :ncomment:
Ma non è tutto: se anzichè avere l'X6800 si avesse un E6600 (=una signora cpu, comunque) il framerate scenderebbe, con le stesse impostazioni, a 28fps. :sob:
non c'è male :asd:
Il vero problema dei bench riportati sopra, che non vorrei fosse sfuggito ai più, è che sono stati effettuati SENZA antialiasing e senza filtro anisotropico...questo si che è preoccupante...
sommojames
15-07-2007, 12:40
il momento della verità sarà più o meno a settembre all'uscita del fantomatico Crysis, e col suo spettacolare motore grafico!!!! :D :D :D
Fino ad allora azzuffarsi per nulla non ha senso!!! ;) ;) ;) sono diffidente dai test buttati così sul web... sono un San Tommaso finke non esce crysis non darò conto a nessun test fatto in Dx10!!! ;) ;) ;) ;)
Non è detto che esca a settembre, la data ufficiale non è ancora stata annunciata.
Superpelo
15-07-2007, 12:52
Cavolo ma queste sono davvero prove schiccianti.!
:muro: :muro: :muro: :muro: :muro: :muro: :muro:
red_eyes
15-07-2007, 14:39
Non è detto che esca a settembre, la data ufficiale non è ancora stata annunciata.
Almeno molti parlano di settembre... poi un eventuale ritardo o qualke altro imprevisto farà slittare sicuramente la data! :D
Il vero problema dei bench riportati sopra, che non vorrei fosse sfuggito ai più, è che sono stati effettuati SENZA antialiasing e senza filtro anisotropico...questo si che è preoccupante...
Altri pseudo test di pseudobeta. Questa volta è Crysis ad essere stato provato dai ragazzi di Multiplayer.it.
http://www.multiplayer.it/articolo.php?id=24561
Ecco la parte più importante.
Da un punto di vista prettamente tecnico Crysis è assolutamente favoloso. Non serve scriverlo a parole, basta guardare una qualsiasi immagine o un qualsiasi filmato (a questo proposito rimanete collegati sulle nostre pagine perchè nei prossimi giorni pubblicheremo una video anteprima con parte della demo mostrata all'E3) e avere da noi la conferma che il gioco in movimento è proprio così.
HDR assolutamente perfetto, anti aliasing preciso e curato, un sistema particellare in grado di gestire le esplosioni, i fumi e le fiamme in modo estremamente realistico. E poi gli shader dell'acqua, il bump mapping sulla spiaggia e sulle rocce. Tutto assolutamente di primordine e in grado di girare su un Core 2 Duo, con 2 GB di Ram e una Geforce 8800 GTX (questa era la configurazione della macchina su cui girava il dimostrativo) alla risoluzione di 1280x800 in modo abbastanza fluido (anche se siamo sul confine dei 30 FPS, probabilmente qualcosa in meno) fatta eccezione per i momenti più concitati, specie durante i combattimenti più intensi e ricchi di esplosioni, durante i quali il calo del frame rate era molto evidente. Ma se teniamo conto che i ragazzi di Crytek hanno per le mani un prodotto praticamente definitivo ed almeno ancora 4 mesi per ottimizzarlo al massimo delle loro possibilità, è evidente che quello che ci aspetta è un capolavoro indiscusso.
Su un Core 2 Duo (probabilmente nemmeno il più scarso della gamma, come minimo sarà stato un E6600) con 8800GTX e 2GB di ram (quindi una configurazione di fascia alta, comunque) in DX10, con tutto al massimo e, forse, i filtri attivati (magari un AA4x), non gira nemmeno a 30fps stabili a 1280x800 (cioè una risoluzione intermedia tra 1024x768 e 1280x1024). :doh:
A meno che le cose non migliorino nettamente in futuro, con la release ufficiale del gioco (ma ne dubito, al massimo tra ottimizzazione e drivers si aggiungeranno una decina di fps a 1280x800), direi che la situazione non è delle migliori: schede da oltre 450€ che vanno da fascia media in DX10. :rolleyes:
Avete giá visto questi risultati??
http://www.origin-of-onefire.co.uk/pics/Tutorials/CO/FAQ/ati1.jpg
http://www.origin-of-onefire.co.uk/pics/Tutorials/CO/FAQ/nvidia1.jpg
Tidus.hw
16-07-2007, 16:52
Avete giá visto questi risultati??
http://www.origin-of-onefire.co.uk/pics/Tutorials/CO/FAQ/ati1.jpg
http://www.origin-of-onefire.co.uk/pics/Tutorials/CO/FAQ/nvidia1.jpg
old e fake.
Avete giá visto questi risultati??
..CUT..
Sì, sono abbastanza :old: :D
Potrebbero anche essere più o meno realistici, ma tutti i framerates si riferiscono alla versione DX9. Per la versione DX10 c'è la testimonianza che ho postato io.
old e fake.
Ne sei sicuro? :stordita:
Tidus.hw
16-07-2007, 17:01
Sì, sono abbastanza :old: :D
Potrebbero anche essere più o meno realistici, ma tutti i framerates si riferiscono alla versione DX9. Per la versione DX10 c'è la testimonianza che ho postato io.
Ne sei sicuro? :stordita:
si, sicuro...
secondo me non sono fake, la 2900 è potentissima e lo dimostrerà appena usciranno i veri driver ;)
CUT
sará pure una beta ma la differenza tra DX9 e DX10 c'é, chissá la versione
DX10 quanti effetti in piú presenta... :rolleyes:
sará pure una beta ma la differenza tra DX9 e DX10 c'é, chissá la versione
DX10 quanti effetti in piú presenta... :rolleyes:
Ciò non toglie che sia scandaloso che un sistema come quello che ho citato faccia sì e no 30fps a 1280x800 (manco 1280x1024 :doh: ).
Potrei capire 10fps in meno, ma non la metà.
Io lo dico da un pezzo che ci sarà da piangere quando saremo alle prese con i primi giochi nativi dx10 con questa generazione di VGA (a meno che uno non abbia sli o cf).
E' sempre stato così, nessuno ottimizza una ceppa su PC.
Girerà decentemente (meno di 30fps di media ...) in single player. Sarà un disastro in multi.
Ciò non toglie che sia scandaloso che un sistema come quello che ho citato faccia sì e no 30fps a 1280x800 (manco 1280x1024 :doh: ).
Potrei capire 10fps in meno, ma non la metà.
Adesso qualcuno ti dirà che è fatto per il futuro e non per il presente. Che è stato sviluppato per andare al massimo con l'hardware che verrà tra X anni.
appleroof
16-07-2007, 18:38
Adesso qualcuno ti dirà che è fatto per il futuro e non per il presente. Che è stato sviluppato per andare al massimo con l'hardware che verrà tra X anni.
Io direi solo di aspettare di averlo nel mio hd, o proprio al limite in quello di chi frequenta questo forum, prima di trarre ogni tipo di conclusione, nel bene e nel male.
Adesso qualcuno ti dirà che è fatto per il futuro e non per il presente. Che è stato sviluppato per andare al massimo con l'hardware che verrà tra X anni.
Questa è la giustificazione di chi progetta il software. Si nascondono dietro queste parole per non ammettere l'assenza di ottimizzazione del software stesso, costringendo l'utenza ad "upgradare" i propri pc per farlo girare a manetta.
E' uno scandalo, ma è la realtà consolidata del mercato software per pc degli ultimi anni.
Spero di sbagliarmi cmq eh :mbe:
appleroof
16-07-2007, 19:16
Questa è la giustificazione di chi progetta il software. Si nascondono dietro queste parole per non ammettere l'assenza di ottimizzazione del software stesso, costringendo l'utenza ad "upgradare" i propri pc per farlo girare a manetta.
E' uno scandalo, ma è la realtà consolidata del mercato software per pc degli ultimi anni.
Spero di sbagliarmi cmq eh :mbe:
In realtà secondo me è una delle solfe viste e riviste negli ultimi (10 almeno) anni: anche "all'interno delle stesse librerie" (vedi Oblivion come gira a parità di risoluzione/dettagli/filtri con una 9800 e con una 7900gt, ad esempio) si hanno giochi che impiegano più risorse però sono anche più belli
Allora non dobbiamo volere la botte piena e la moglie ubriaca ma solo tenere presente come và nel mondo dell'informatica (e moltissimi di noi, anche quelli che si scandalizzano, lo hanno ben presente)
Io ho preso la 8800gtx al lancio e me la sono stragoduta per 8 mesi a prestazioni solo un anno fa considerate assurde (1920x1200 tric trac e bombe a mano attivate), cosa che finora non mi era mai successa. All'inizio ero molto più ottimista di ora su come sarebbe andata in dx10, forse appunto dimenticando come vanno le cose nell'informatica, ora diciamo che sono più cauto (come il mio post di sopra dimostra, credo), onestamente non penso farà pietà (il fatto è che tutti partiamo da un termine di paragone --1920x1200 tric trac e bombe a mano attivate-- troppo alto, se ci pensiamo un attimo), ma non mi aspetto più mantenga le stesse prestazioni dimostrate finora in dx9
Per questo ora come ora a chi chiede se valga la pena prendere una vga dx10 o no mi limito a dare il mio personale consiglio, e cioè dalla 8800gts320mb (prezzo/prestazioni adesso imbattibile) in giù, oppure aspettare.
Ma di certo non vedo nessuno scandalo se le cose andranno come da molti qui disastrosamente profetizzato.
Detto questo, è ovvio che se la mia scheda andrà meglio di come mi aspetto (e mi riservo come detto di aspettare di vedere come girerà sulla mia conf. o su quelle di altri utenti qui sul forum) sarò più soddisfatto ;)
Mister Tarpone
16-07-2007, 19:26
basta!!!!!!! la Crytek ha promesso 50/60fps con la 8800GTX :ops:
conviene aspettare per vedere come andrà in dx10 sCrysis !!!io ho ancora fiducia in questi sviluppatori ;) ;)
appleroof
16-07-2007, 19:28
basta!!!!!!! la Crytek ha promesso 50/60fps con la 8800GTX :ops:
conviene aspettare per vedere come andrà in dx10 sCrysis !!!io ho ancora fiducia in questi sviluppatori ;) ;)
:asd: :asd: :asd:
Mister Tarpone
16-07-2007, 19:31
:asd: :asd: :asd:
:doh: sCrysis........ :sbonk:
appleroof
16-07-2007, 19:33
:doh: sCrysis........ :sbonk:
Scrysis....sclerys....
:asd: :asd: :asd:
Mister Tarpone
16-07-2007, 19:35
Scrysis....sclerys....
:asd: :asd: :asd:
si ho scritto sCrysis... mo basta però...http://img113.imageshack.us/img113/4808/crasdeb6.gif
ho sclerato si...http://img113.imageshack.us/img113/4808/crasdeb6.gif
appleroof
16-07-2007, 21:02
Già. :ncomment:
Ma non è tutto: se anzichè avere l'X6800 si avesse un E6600 (=una signora cpu, comunque) il framerate scenderebbe, con le stesse impostazioni, a 28fps. :sob:
con quale coraggio si pubblicano certe cose??? :muro: :muro:
Ci vuole coraggio!!! :mbe:
Il vero problema dei bench riportati sopra, che non vorrei fosse sfuggito ai più, è che sono stati effettuati SENZA antialiasing e senza filtro anisotropico...questo si che è preoccupante...
Cavolo ma queste sono davvero prove schiccianti.!
:muro: :muro: :muro: :muro: :muro: :muro: :muro:
a proposito delle reazioni catastrofiche e di aspettare le prove sul campo degli utenti, quanto a wic in dx9 date uno sguardo qui
http://www.hwupgrade.it/forum/showthread.php?t=1511387&page=2
naturalmente riferito alla beta mp e fatte come si legge con una x1950xt, quindi dx9, quindi, a meno di grossi problemi driver nvidia (che ci potrebbe stare) non credo proprio la ultra andrà in quel modo con il gioco in questione :rolleyes:
;)
a proposito delle reazioni catastrofiche e di aspettare le prove sul campo degli utenti, quanto a wic in dx9 date uno sguardo qui
http://www.hwupgrade.it/forum/showthread.php?t=1511387&page=2
naturalmente riferito alla beta mp e fatte come si legge con una x1950xt, quindi dx9, quindi, a meno di grossi problemi driver nvidia (che ci potrebbe stare) non credo proprio la ultra andrà in quel modo con il gioco in questione :rolleyes:
;)
Può essere, ma quello che conta qui sono le prestazioni in DX10, e quello che si sente comunque non è confortante: comunque i distinguo vicino ai grafici io li ho fatti. ;)
Qualcuno con la 8800 dovrebbe testarlo in DX9 e in DX10: mi pare strano che ci sia un problema coi drivers, visto che WiC è un gioco TWIMTBP... Tra l'altro da qualche parte avevo letto che è uscito un driver beta per le nVidia proprio per questo gioco.
A me (e credo a molti altri) sinceramente che la Ultra faccia pure 100fps in DX9 importa poco. Quello che davvero conta ormai è come va in DX10: perchè se con una scheda che costa oltre 600€ devo giocare ancora in DX9, allora tanto vale spendere meno di un terzo dei soldi e prendere una X1950XT.
Io direi solo di aspettare di averlo nel mio hd, o proprio al limite in quello di chi frequenta questo forum, prima di trarre ogni tipo di conclusione, nel bene e nel male.
Esatto, da non dimenticare poi che ci sarà almeno un'aggiornamento driver apposito...anche perchè ad oggi tutti i bench vengono fatti almeno a 1600x1200 per non dire che sono tutti a 1920x1200 o oltre. Che figura ci fanno a far uscire un gioco che con una gtx fa 10fps a 1920x1200??
Ma soprattutto, noi con i 27" che facciamo, ce li attacchiamo al c....? :D
Esatto, da non dimenticare poi che ci sarà almeno un'aggiornamento driver apposito...anche perchè ad oggi tutti i bench vengono fatti almeno a 1600x1200 per non dire che sono tutti a 1920x1200 o oltre. Che figura ci fanno a far uscire un gioco che con una gtx fa 10fps a 1920x1200??
Ma soprattutto, noi con i 27" che facciamo, ce li attacchiamo al c....? :D
Non ci fanno nessuna figuraccia visto che quando uscirà ci sarà G92 e R700 con le quali girerà a manetta. E chi avrà una GTX dovrà togliere filtri e abbassare dettagli, come è sempre stato :)
Anche perchè sennò, chi le compra le nuove VGA se bastano quelle vecchie per far girare tutto appppalla :D ?
Ma soprattutto, noi con i 27" che facciamo, ce li attacchiamo al c....? :D
Bhe i 27" a risoluzioni elevate vanno benissimo per lavorare ma per giocare...
bisogna essere pronti a spendere molto (e forse nn basta neppure quello)
oppure ad abbandonare la risoluzione nativa. questi mesi con la 8800Gtx mi sa
sono stati un pó un'eccezzione alla regola :D
secondo me é molto meglio un televisore LCD 26" o 32" che ha risoluzioni
relativamente basse 1366*768, tanto con tutti i filtri che ci puoi mettere
la risoluzione bassa nn si vede neanche.
il massimo, peró, sarebbe un bel proiettore ;)
tornando in topic
dal mio punto di vista il dettaglio grafico interessa per caritá ma il livello
raggiunto dagli ultimi giochi D3D9 mi basta e avanza. sono molto scettico su
queste D3D10, a naso mi sa che il saldo qualitá visiva/prestazioni non é
molto incoraggiante, poi saró felice di ricredermi... :fagiano:
GunnyITA
17-07-2007, 12:43
Adesso io non voglio dire una cacata.
Pero' mi auguro che qualcuno prenda in mano questa situazione, tipo le autorita'.
Perke' e' inammissibile far uscire dei prodotti di fascia alta che a livello prestazionale rendono quanto rendevano quelli vecchi e farli pagare una lira di dio solo perke hanno quella lucetta psichedelica che si chiama DX10.
Perke' a sto punto tutti ci chiediamo: sara' leggero? sara' pesante? sara' sfruttato bene o male? le nostre schede ci gireranno?
adesso io mi faccio un computer e mi ci monto una bella 2900xt che e' una scheda coi controca..... pero' se dopo mi vado a provare un gioco dx10, metto "pochi filtri" e per accontentarmi ci gioco a 1280x1024 e faccio una miseria. Onestamente in quel momento penso: "tu mi hai rubato 350 euro"
Perke' alla fine e' quello il concetto: "tu mi hai rubato 350 euro"
e quelli che alla fine hanno la gtx , magari comprata, dico 2 mesi fa, e c'hanno speso 450 euro dicono: "tu me ne hai rubati 450".
Dopo e' cosi' che nasce la criminalita' sulle strade, credo che la mia mano comincera' ad essere piu' lesta quando entrera' dentro un ipermercato...
Adesso io non voglio dire una cacata.
Pero' mi auguro che qualcuno prenda in mano questa situazione, tipo le autorita'.
Perke' e' inammissibile far uscire dei prodotti di fascia alta che a livello prestazionale rendono quanto rendevano quelli vecchi e farli pagare una lira di dio solo perke hanno quella lucetta psichedelica che si chiama DX10.
Perke' a sto punto tutti ci chiediamo: sara' leggero? sara' pesante? sara' sfruttato bene o male? le nostre schede ci gireranno?
adesso io mi faccio un computer e mi ci monto una bella 2900xt che e' una scheda coi controca..... pero' se dopo mi vado a provare un gioco dx10, metto "pochi filtri" e per accontentarmi ci gioco a 1280x1024 e faccio una miseria. Onestamente in quel momento penso: "tu mi hai rubato 350 euro"
Perke' alla fine e' quello il concetto: "tu mi hai rubato 350 euro"
e quelli che alla fine hanno la gtx , magari comprata, dico 2 mesi fa, e c'hanno speso 450 euro dicono: "tu me ne hai rubati 450".
Dopo e' cosi' che nasce la criminalita' sulle strade, credo che la mia mano comincera' ad essere piu' lesta quando entrera' dentro un ipermercato...
:eek:
GunnyITA
17-07-2007, 13:00
Ma si dai uffa, guardiamoci in faccia.
Non che vada in cerca del flame.
Ma stiamo qua tanto a menarceli i problemi quando potremo andare ad aprire dei pool e petizioni direttamente sul sito dei produttori dicendo:
"Guarda che se mi inculi i soldi, io ti inculo la famigghia e tutto il resto".
Cosa che dubito gruppi di persone abbiano gia' fatto....
Il Creativo
17-07-2007, 14:11
Ma si dai uffa, guardiamoci in faccia.
Non che vada in cerca del flame.
Ma stiamo qua tanto a menarceli i problemi quando potremo andare ad aprire dei pool e petizioni direttamente sul sito dei produttori dicendo:
"Guarda che se mi inculi i soldi, io ti inculo la famigghia e tutto il resto".
Cosa che dubito gruppi di persone abbiano gia' fatto....
:eek: :read: Non ti sembra di stare face un caso nazionale? Io al posto tuo comprerei una bella console, resti un pò indietro tecnologicamente parlando ma puoi giocare tranquillo!
Adesso io non voglio dire una cacata.
Pero' mi auguro che qualcuno prenda in mano questa situazione, tipo le autorita'.
Perke' e' inammissibile far uscire dei prodotti di fascia alta che a livello prestazionale rendono quanto rendevano quelli vecchi e farli pagare una lira di dio solo perke hanno quella lucetta psichedelica che si chiama DX10.
Perke' a sto punto tutti ci chiediamo: sara' leggero? sara' pesante? sara' sfruttato bene o male? le nostre schede ci gireranno?
adesso io mi faccio un computer e mi ci monto una bella 2900xt che e' una scheda coi controca..... pero' se dopo mi vado a provare un gioco dx10, metto "pochi filtri" e per accontentarmi ci gioco a 1280x1024 e faccio una miseria. Onestamente in quel momento penso: "tu mi hai rubato 350 euro"
Perke' alla fine e' quello il concetto: "tu mi hai rubato 350 euro"
e quelli che alla fine hanno la gtx , magari comprata, dico 2 mesi fa, e c'hanno speso 450 euro dicono: "tu me ne hai rubati 450".
Dopo e' cosi' che nasce la criminalita' sulle strade, credo che la mia mano comincera' ad essere piu' lesta quando entrera' dentro un ipermercato...
OLLAMADONNAAAAA ! E che è... una catastrofe ?!??
Il mio pc non riesce in tempi brevi a decodificare il genoma umano, me ne batto i saccoccetti :D
Il Creativo
17-07-2007, 14:15
:eek: :read: Non ti sembra di stare face
stare face = star facendo. :muro:
scusate la domanda impertinente...
ma se le schede video non vengono garantite per un numero minimo di fps
e vengono comprate a scatola chiusa ( perchè non ci sono giochi per testarle )
se poi vanno piano ( quando nessuno ha detto che sarebbero state veloci )
dov'è la truffa il furto o che?!
:D
Il mercato PC è in continua evoluzione.
Sia chi vende hw che chi vende sw, vuole incassare.
Per vendere il nuovo hw, ci vuole sw in grado di sfruttarlo.
Allo stesso tempo chi vende il sw, per venderne più possibile, lo fa più scalabile possibile.
Non è che ci voglia einstein :fagiano:
Adesso io non voglio dire una cacata.
Pero' mi auguro che qualcuno prenda in mano questa situazione, tipo le autorita'.
Perke' e' inammissibile far uscire dei prodotti di fascia alta che a livello prestazionale rendono quanto rendevano quelli vecchi e farli pagare una lira di dio solo perke hanno quella lucetta psichedelica che si chiama DX10.
Perke' a sto punto tutti ci chiediamo: sara' leggero? sara' pesante? sara' sfruttato bene o male? le nostre schede ci gireranno?
adesso io mi faccio un computer e mi ci monto una bella 2900xt che e' una scheda coi controca..... pero' se dopo mi vado a provare un gioco dx10, metto "pochi filtri" e per accontentarmi ci gioco a 1280x1024 e faccio una miseria. Onestamente in quel momento penso: "tu mi hai rubato 350 euro"
Perke' alla fine e' quello il concetto: "tu mi hai rubato 350 euro"
e quelli che alla fine hanno la gtx , magari comprata, dico 2 mesi fa, e c'hanno speso 450 euro dicono: "tu me ne hai rubati 450".
Dopo e' cosi' che nasce la criminalita' sulle strade, credo che la mia mano comincera' ad essere piu' lesta quando entrera' dentro un ipermercato...
:rotfl:
però non ci avevo mai pensato :fagiano:
io c'ero :D
GunnyITA
17-07-2007, 17:25
Si ok...e' giusto prenderla sul ridere. Ma dire "non facciamone un caso nazionale" significa: lasciamo che di acqua ne passi sotto i ponti.
Tanto i soldi io li regalo...tho guarda, adesso esco e vado a regalare 40 euro agli zingari, tanto c'avevo soldi da buttare no?
Suvvia. I produttori c'hanno schede 10 volte avanti le nostre e le software house idem. Quindi il prodotto che sfrutti cio' esiste. Solo che non esiste in commercio per i privati, e se esiste "esistera" tra qualche anno, cioe' lo faranno uscire tra qualche anno per intenderci.
Senno' come programmerebbero mai questi gioconi ultrasupercalifragilisperistocalitoso? O come diavolo si scrive.
Si ok...e' giusto prenderla sul ridere. Ma dire "non facciamone un caso nazionale" significa: lasciamo che di acqua ne passi sotto i ponti.
Tanto i soldi io li regalo...tho guarda, adesso esco e vado a regalare 40 euro agli zingari, tanto c'avevo soldi da buttare no?
Suvvia. I produttori c'hanno schede 10 volte avanti le nostre e le software house idem. Quindi il prodotto che sfrutti cio' esiste. Solo che non esiste in commercio per i privati, e se esiste "esistera" tra qualche anno, cioe' lo faranno uscire tra qualche anno per intenderci.
Senno' come programmerebbero mai questi gioconi ultrasupercalifragilisperistocalitoso? O come diavolo si scrive.
Ma guarda che il gioco gira lo stesso anche con le vecchie schede. Bisogna solo abbassare i dettagli e i filtri, che equivale a giocarli con una qualità grafica equivalente alla massima qualità grafica dei giochi di un anno prima. Quindi dove sta il problema? Perchè chi vuole un dettaglio grafico migliore, più poligoni, fisica migliore, migliori effetti ci deve rinunciare perchè tu vuoi la botte piena e la moglie ubriaca :D ?
Si ok...e' giusto prenderla sul ridere. Ma dire "non facciamone un caso nazionale" significa: lasciamo che di acqua ne passi sotto i ponti.
Tanto i soldi io li regalo...tho guarda, adesso esco e vado a regalare 40 euro agli zingari, tanto c'avevo soldi da buttare no?
Suvvia. I produttori c'hanno schede 10 volte avanti le nostre e le software house idem. Quindi il prodotto che sfrutti cio' esiste. Solo che non esiste in commercio per i privati, e se esiste "esistera" tra qualche anno, cioe' lo faranno uscire tra qualche anno per intenderci.
Senno' come programmerebbero mai questi gioconi ultrasupercalifragilisperistocalitoso? O come diavolo si scrive.
eh certo... le tengono in magazino a stagionare, e intanto ci giocano loro così noi rosichiamo...
tesò... ma se tu vuoi comprarti l'ultimaschedauscitasupermegafighettosa
che poi in realtà è l'ultimasolamillantata con chi te la prendi?
io quando ho comprato la scheda madre ho preso un socket478 e già da qualche tempo c'erano i 775...
la scheda video avevo una ati 9600 quando c'era la nvdia 6800 supercazzolablinda...
al mercato è l'utente che decide di comprare e spendere, e non lo costringe nessuno.
se decidi di risparmiare e lasci spendere chi vuole buttare i suoi soldi, poi
quando esce la scheda che va come dici la compri...
tutte le rece hanno dimostrato che la ati 2900 è una sòla... :D
( in realtà è solo un po più lenta della 8800gtx ma si sa 3fps sono un abisso al giorno d'ggi :D )
se è lenta perchè tu l'hai comprata?
non potevi aspettarne una meglio? o che si diffondessero le directX10 ?
mah..
Il Creativo
17-07-2007, 18:03
Si ok...e' giusto prenderla sul ridere. Ma dire "non facciamone un caso nazionale" significa: lasciamo che di acqua ne passi sotto i ponti.
Tanto i soldi io li regalo...tho guarda, adesso esco e vado a regalare 40 euro agli zingari, tanto c'avevo soldi da buttare no?
Suvvia. I produttori c'hanno schede 10 volte avanti le nostre e le software house idem. Quindi il prodotto che sfrutti cio' esiste. Solo che non esiste in commercio per i privati, e se esiste "esistera" tra qualche anno, cioe' lo faranno uscire tra qualche anno per intenderci.
Senno' come programmerebbero mai questi gioconi ultrasupercalifragilisperistocalitoso? O come diavolo si scrive.
Quella del caso nazionale l'ho detta solo per riderci un pò su, effettivamente, per certi punti di vista io sono pure d'accordo con te in quanto negli anni ho sempre notato software house(anche se non sono tutte) promettere meraviglie mai mantenute, la maggior parte dei motori sono programmati coi piedi e girano da schifo(almeno con le schede disponibili al lancio) e, dato che non sono uno che si accontenta a scendere sotto i 1280x1024 16AF V-Sync On 4AA(o 16AA meglio ancora) e tutti i settaggi su max, male che vada io quel gioco non lo prendo oppure lo prendo se so che a breve avrò una scheda che lo fa girare bene, quello che volevo scherzosamente contestarti è l'eccessiva(IMHO) aggressività da te dimostrata, vabbè che a volte i nervi saltano vedendo certi aspetti(non solo HW) della società ma da che mondo e mondo con la violenza non si è mai risolto nulla, piuttosto un appello più sensato sarebbe quello di non spendere più un putiferio di soldi per hw che dopo 6 mesi sarà nuovamente obsoleto, cerca di convincere la gente a fare questo piuttosto di rovinare le famigghie ;) . Un'ultima cosa: i produttori usano schede adibite alla progettazione e programmazione grafica(vedi quadro e compagnia bella) che costano una cifra(si parla di alcune migliaia di euro) e usano super-workstations, nessuno ti vieta però di effettuare questi acquisti!
Non ci fanno nessuna figuraccia visto che quando uscirà ci sarà G92 e R700 con le quali girerà a manetta. E chi avrà una GTX dovrà togliere filtri e abbassare dettagli, come è sempre stato :)
Anche perchè sennò, chi le compra le nuove VGA se bastano quelle vecchie per far girare tutto appppalla :D ?
Dubito che per fine settembre (quando uscirà il gioco) ci saranno già in giro G92 e R700...
Bhe i 27" a risoluzioni elevate vanno benissimo per lavorare ma per giocare...
bisogna essere pronti a spendere molto (e forse nn basta neppure quello)
oppure ad abbandonare la risoluzione nativa. questi mesi con la 8800Gtx mi sa
sono stati un pó un'eccezzione alla regola :D
secondo me é molto meglio un televisore LCD 26" o 32" che ha risoluzioni
relativamente basse 1366*768, tanto con tutti i filtri che ci puoi mettere
la risoluzione bassa nn si vede neanche.
il massimo, peró, sarebbe un bel proiettore ;)
tornando in topic
dal mio punto di vista il dettaglio grafico interessa per caritá ma il livello
raggiunto dagli ultimi giochi D3D9 mi basta e avanza. sono molto scettico su
queste D3D10, a naso mi sa che il saldo qualitá visiva/prestazioni non é
molto incoraggiante, poi saró felice di ricredermi... :fagiano:
1920x1200 non è sta risoluzione così elevata...lo puoi dire per la 2560x1600 ma alla fin fine 1920x1200 è poco più di una 1600x1200 ;)
Ho da poco preso un 20" che va a 1680x1050 per cui non sarà lo standard ma non si è molto lontani...
Con un televisore 26" o 32" è impossibile lavorarci perchè vedi i pallettoni in windows...
appleroof
17-07-2007, 18:24
Può essere, ma quello che conta qui sono le prestazioni in DX10, e quello che si sente comunque non è confortante: comunque i distinguo vicino ai grafici io li ho fatti. ;)
Qualcuno con la 8800 dovrebbe testarlo in DX9 e in DX10: mi pare strano che ci sia un problema coi drivers, visto che WiC è un gioco TWIMTBP... Tra l'altro da qualche parte avevo letto che è uscito un driver beta per le nVidia proprio per questo gioco.
A me (e credo a molti altri) sinceramente che la Ultra faccia pure 100fps in DX9 importa poco. Quello che davvero conta ormai è come va in DX10: perchè se con una scheda che costa oltre 600€ devo giocare ancora in DX9, allora tanto vale spendere meno di un terzo dei soldi e prendere una X1950XT.
dal post che non a caso ho quotato prima sembravi abbastanza sconsolato delle prestazioni in dx9, poi è tutto scritto, io mi baso su quello che leggo...:boh:
Esatto, da non dimenticare poi che ci sarà almeno un'aggiornamento driver apposito...anche perchè ad oggi tutti i bench vengono fatti almeno a 1600x1200 per non dire che sono tutti a 1920x1200 o oltre. Che figura ci fanno a far uscire un gioco che con una gtx fa 10fps a 1920x1200??
Ma soprattutto, noi con i 27" che facciamo, ce li attacchiamo al c....? :D
Mai provato a mettere "rapporto prospettico fisso"? Giochi senza scaler, che cmq per fortuna il nostro pannello rende benissimo secondo me, ad ogni modo senza scaler ma con le bande nere ai lati il problema è risolto senza la minima perdita di qualità, personalmente quindi non mi preoccupo per nulla :)
cut
tornando in topic
dal mio punto di vista il dettaglio grafico interessa per caritá ma il livello
raggiunto dagli ultimi giochi D3D9 mi basta e avanza. sono molto scettico su
queste D3D10, a naso mi sa che il saldo qualitá visiva/prestazioni non é
molto incoraggiante, poi saró felice di ricredermi... :fagiano:
esatto, infatti questo monitor lo uso anche per giocare, poi ci sono le altre applicazioni 2d
cmq per tornare in topic credo che bisogna considerare che dal punto di vista prettamente grafico le dx10 per ora non sono uno stravolgimento rispetto alle dx9, il cambiamento più sostanziale rispetto alle 9 è altrove.....
Mister Tarpone
17-07-2007, 18:47
cmq per tornare in topic credo che bisogna considerare che dal punto di vista prettamente grafico le dx10 per ora non sono uno stravolgimento rispetto alle dx9, il cambiamento più sostanziale rispetto alle 9 è altrove.....
insomma :asd: se guardi Crysis in dx10 fa paura da quanto è bello rispetto al dx9 :asd:
edit:
però deve ancora uscire :ops:
dal post che non a caso ho quotato prima sembravi abbastanza sconsolato delle prestazioni in dx9, poi è tutto scritto, io mi baso su quello che leggo...:boh:
Già. :ncomment:
Ma non è tutto: se anzichè avere l'X6800 si avesse un E6600 (=una signora cpu, comunque) il framerate scenderebbe, con le stesse impostazioni, a 28fps. :sob:
I 28fps dei quali parlo sono riferiti alle prestazioni in DX10. :read:
Comunque la storia potrebbe ripetersi pure con Crysis, ecco il perchè del mio essere abbastanza sconsolato: non credo che i ragazzi di Multiplayer.it traggano qualche vantaggio dal dire che in DX10 con tutto al max e forse i filtri su una 8800GTX è al limite già a 1280x800. :stordita:
Se fosse vero non sarebbe una bella storia, visto che la scheda in questione al momento dell'uscita di Crysis potrebbe costare ancora oltre 400€.
appleroof
17-07-2007, 19:22
I 28fps dei quali parlo sono riferiti alle prestazioni in DX10. :read:
Comunque la storia potrebbe ripetersi pure con Crysis, ecco il perchè del mio essere abbastanza sconsolato: non credo che i ragazzi di Multiplayer.it traggano qualche vantaggio dal dire che in DX10 con tutto al max e forse i filtri su una 8800GTX è al limite già a 1280x800. :stordita:
Se fosse vero non sarebbe una bella storia, visto che la scheda in questione al momento dell'uscita di Crysis potrebbe costare ancora oltre 400€.
Se fosse vero non puoi prevedere l'impatto che la cosa avrebbe sul mercato (perchè se andasse così su una gtx a 400 euro, non solo nessuno prenderebbe quella, ma non prenderebbe alcuna vga dx10, ati comprese, e non credo questo sia contemplato nè in ati, nè in nvidia)
Intanto io non metto in dubbio quanto detto dai ragazzuoli di multiplayer.it, dico solo che bisognerà vedere come gira nel mio pc o in quello di altri utenti ad esempio di questo forum
Per ora si parla di aria fritta: anche lost planet in dx10 (demo) ha fatto gridare tutti allo scandalo, adesso chi ha il gioco lo fà girare alla grande a 1280x1024 filtri 8x dettagli max (fai un giro sul tread della gtx) con una 8800gtx, e questo ,unito al fondamentale aspetto legato legato ai dirver (anche se spesso qui qualche utente parla di 8 mesi di ottimizzazione, per quelli nvidia, che ci sono indubbiamente, purtroppo i veri informati --che io nat. mi limito a leggere qui e la sulla rete-- affermano che ancora Vista e relativi driver sono lontani dall'offrire la stabilità di xp nel gaming) che sono molto più difficili da sviluppare che in passato (devono lavorare contemporaneamente su almeno 3 fronti: dx9/dx10/64bit), infatti escono versioni a tambur battente, l'ultima Nvidia con specifico supporto a world in conflict addirittura
Concludendo, tu sei pessimista, io cauto, vedremo in autunno come girerà il gioco su un 8800gtx ;)
Il Creativo
17-07-2007, 19:25
Ragazzi ma avete notizie a riguardo la data di uscita di stò benedetto Crysis? C'è chi dice che è il 14 Settembre mentre ultimamente, da un'intervista che ho letto non ricordo dove, si evince che la data è TBA, presumibilmente ultima fase 2007! Se fosse così probabilmente esisteranno veramente altre schede High-end in quel periodo:muro:
Adesso io non voglio dire una cacata.
e invece.... :stordita:
Non ci fanno nessuna figuraccia visto che quando uscirà ci sarà G92 e R700 con le quali girerà a manetta. E chi avrà una GTX dovrà togliere filtri e abbassare dettagli, come è sempre stato :)
Anche perchè sennò, chi le compra le nuove VGA se bastano quelle vecchie per far girare tutto appppalla :D ?
Beh, insomma.
Un conto è abbassare il dettaglio, un altro è giocare a 30fps scarsi (con parecchi giochi) a meno di un anno dalla nascita di una scheda che al lancio costava circa 600€. Questo non credo sia mai successo.
I punti cruciali della questione però sono altri... In realtà i giochi per console vengono ottimizzati meglio anche per via della minore percentuale di pirateria che affligge queste versioni: in parole povere coi giochi da console le SH ci guadagnano di più, il lavoro di ottimizzazione è più semplice che per pc, dunque focalizzano la loro attenzione su quel mercato.
Le schede video sono sempre più numerose, vengono sostituite alla velocità della luce ed in certi casi (vedi ATi) il livello di complicazione tecnica è notevole: per questo il lavoro di fine tuning dei driver per il dato gioco con la data scheda diventa complesso e richiede molti programmatori... Ovvio che le risorse umane non sono infinite e che ad un certo punto si sposta gente dai team dedicati allo sviluppo drivers delle schede di vecchia generazione a quelle più recenti.
I cambi di librerie, poi, specie se così radicali come nel caso delle DX10, non danno certo una mano; se poi diventano pure frequenti (già si parla di DX11 nel 2009... :rolleyes: ) la situazione precipita. Da questo punto di vista ci eravamo "abituati male": le DX9 sono rimaste a galla per parecchi anni (5 anni circa) pur se ripetutamente aggiornate.
Concludendo, tu sei pessimista, io cauto, vedremo in autunno come girerà il gioco su un 8800gtx ;)
:sperem: http://forum.toronews.net/images/smiles/pazzia.gif http://forum.toronews.net/images/smiles/pazzia.gif http://forum.toronews.net/images/smiles/pazzia.gif
appleroof
17-07-2007, 19:28
Ragazzi ma avete notizie a riguardo la data di uscita di stò benedetto Crysis? C'è chi dice che è il 14 Settembre mentre ultimamente, da un'intervista che ho letto non ricordo dove, si evince che la data è TBA, presumibilmente ultima fase 2007! Se fosse così probabilmente esisteranno veramente altre schede High-end in quel periodo:muro:
è un'ipotesi tutt'altro che assurda, personalmente meglio che esce a fine anno, quando credo cambiarò tutto il resto del pc :D
ad ogni modo, a fine agosto dovrebbe uscire bioshock in dx10, poi world in conflict, insomma crysis non è l'unico gioco dx10 da qui a 4 anni eh? :D
Il Creativo
17-07-2007, 19:35
è un'ipotesi tutt'altro che assurda, personalmente meglio che esce a fine anno, quando credo cambiarò tutto il resto del pc :D
ad ogni modo, a fine agosto dovrebbe uscire bioshock in dx10, poi world in conflict, insomma crysis non è l'unico gioco dx10 da qui a 4 anni eh? :D
Infatti il mio sbattere la testa sul muro(metaforicamente) non vuole criticare il fatto che questa sarà l'unica uscita in DX10, personalmente preferisco 100 volte Bioshock(che tra l'altro aspetto già da 3 anni), il punto è che continuano a rimandare stò gioco già da un bel pò poi, per quanto mi riguarda, potrebbero uscire prima titoli come Alone in the dark o Alan Wake...
appleroof
17-07-2007, 19:37
Beh, insomma.
Un conto è abbassare il dettaglio, un altro è giocare a 30fps scarsi (con parecchi giochi) a meno di un anno dalla nascita di una scheda che al lancio costava circa 600€. Questo non credo sia mai successo.
Intanto torno a ripetere, a costo appunto di sembrare troppo ridondante, che parli del nulla, cioè di qualche prova beta di uno/due giochi dx10 trovati sulla rete e senza conferma ufficiale, non mi sembrano parecchi giochi.
inoltre, prova a giocare a gothic 3 con una x1800xt 512 (500 e rotti euro al lancio, con l'aggravante, secondo me, gravissima che dopo un paio di mesi è uscita la x1900xt a meno) aa8x af8x 1280x1024 dettagli max, poi ti accorgerai che è successo eccome ;)
quello che non è mai successo, invece, almeno mi risulta, è giocare per 8 mesi a 1920x1200 aa minimo 4x (ma con il 99%dei giochi fino al 2006 16xq fisso) af16x fisso dettagli max/ultra praticamente a qualsiasi gioco, effettivamente questo è strabiliante, ma per averlo a casa purtroppo bisognava spendere 600 euro ;)
appleroof
17-07-2007, 19:38
Infatti il mio sbattere la testa sul muro(metaforicamente) non vuole criticare il fatto che questa sarà l'unica uscita in DX10, personalmente preferisco 100 volte Bioshock(che tra l'altro aspetto già da 3 anni), il punto è che continuano a rimandare stò gioco già da un bel pò poi, per quanto mi riguarda, potrebbero uscire prima titoli come Alone in the dark o Alan Wake...
a bè, se è per questo io avrei voluto giochi dx10 già da gennaio scorso, per quello che promettono a tutti i livelli rispetto alle dx9, speriamo solo che questo rimandare sia giustificato da un'ottimizzaziione veramente tale....;)
Mister Tarpone
17-07-2007, 19:41
:sperem: http://forum.toronews.net/images/smiles/pazzia.gif http://forum.toronews.net/images/smiles/pazzia.gif http://forum.toronews.net/images/smiles/pazzia.gif
scusate ma.... :sbonk: :sbonk: :sbonk:
ste faccine fanno troppo ridere :fagiano: !!
Intanto torno a ripetere, a costo appunto di sembrare troppo ridondante, che parli del nulla, cioè di qualche prova beta di uno/due giochi dx10 trovati sulla rete e senza conferma ufficiale, non mi sembrano parecchi giochi.
Evvabè, aspetteremo, ma non si può negare che quello che si vede in giro non è positivissimo, e che comunque qualcosa indica. ;)
inoltre, prova a giocare a gothic 3 con una x1800xt 512 (500 e rotti euro al lancio, con l'aggravante, secondo me, gravissima che dopo un paio di mesi è uscita la x1900xt a meno) aa8x af8x 1280x1024 dettagli max, poi ti accorgerai che è successo eccome ;)
Gothic3 è un mattone insulso, ed è un gioco: come molti possessori della scheda citata potranno confermarti, con la X1800XT in realtà si gioca bene ancora adesso a parecchi giochi, anche pesanti: per farti un esempio, se persino io riesco a far girare TDU con dettaglio basso (che poi cambia poco rispetto a quello alto, solo la drawing distance e la quantità di erba) a 800x600 AA4x col portatile in firma a 30fps, con la X1800XT a 1280x1024 si gioca ancora benino, imho.
Finora invece sono varie le demo/beta/patch DX10 in cui la fascia alta odierna stenta e non poco, stando a quel che si legge: CoJ, WiC, CoH, forse Crysis.
Forse è una congiura, e tutto girerà a meraviglia, o forse no. http://forum.toronews.net/images/smiles/pazzia.gif http://forum.toronews.net/images/smiles/pazzia.gif http://forum.toronews.net/images/smiles/pazzia.gif
P.S.: scusate, ma non ho resistito, queste faccine mi piacciono troppo... http://forum.toronews.net/images/smiles/fumafuma.gif
GunnyITA
17-07-2007, 20:05
anche io spero in un ottimizzazzione di crysis. Pero' se fanno ottimizzazzione di 40 fps sarebbe un miracolo.
Uno mi fa: "allora perke' ti prendi quella scheda"
....scusa? quella scheda! Calma, piu' che una scheda sarebbe un treno, e questo treno investe tutte le GTS nvidia e quasi raggiunge la GTX. Ma se proprio questo treno da 350 euro, che non sono caramelle, ad un certo punto diventa un carretto della MATTEL comincia un po' a puzzarmi il naso.
Perke' il giorno d'oggi ormai le software house sono così a braccetto con i produttori di schede che domani vado per strada e vedo "CRYTEK e ATI/NVIDIA oggi Sposi!"
No eh....io con una scheda da trecentocinquanta monete da 1 euro il cappero che giro a dettagli medi e ad una risoluzione da 1024 x 768. Senno' che fascia alta dx10 e'? Il caspio che mi crei una scheda dx10 fascia alta mesi mesi prima e dopo quando esce il gioco dx10 ci giro come se usassi un pentium 2! L'ho comprata per giocarci bene solo ai dx9? scusa a sto punto spendevo meno e prendevo un altra scheda, non penso uno sia cosi' mongolo da non capirle ste cose
Non c'ho mongolo scritto in fronte...
Mister Tarpone
17-07-2007, 20:10
anche io spero in un ottimizzazzione di crysis. Pero' se fanno ottimizzazzione di 40 fps sarebbe un miracolo.
Uno mi fa: "allora perke' ti prendi quella scheda"
....scusa? quella scheda! Calma, piu' che una scheda sarebbe un treno, e questo treno investe tutte le GTS nvidia e quasi raggiunge la GTX. Ma se proprio questo treno da 350 euro, che non sono caramelle, ad un certo punto diventa un carretto della MATTEL comincia un po' a puzzarmi il caso.
Perke' il giorno d'oggi ormai le software house sono così a braccetto con i produttori di schede che domani vado per strada e vedo "CRYTEK e ATI/NVIDIA oggi Sposi!"
No eh....io con una scheda da trecentocinquanta monete da 1 euro il cappero che giro a dettagli medi e ad una risoluzione da 1024 x 768. Senno' che fascia alta dx10 e'? Il caspio che mi crei una scheda dx10 fascia alta mesi mesi prima e dopo quando esce il gioco dx10 ci giro come se usassi un pentium 2! L'ho comprata per giocarci bene solo ai dx9? scusa a sto punto spendevo meno e prendevo un altra scheda.
Non c'ho mongolo scritto in fronte...
http://img257.imageshack.us/img257/2447/116ln4.jpg
non esageriamo... :asd: qui chiappa delle paste vergognose da tutte le nvidia....http://img515.imageshack.us/img515/4881/iconsmugsq2.gif qui più che un treno sembra una carretta :asd:
vabbèhhh ;) pure il gioco fa schifo, però :asd: :ops:
GunnyITA
17-07-2007, 20:25
QUA NWN2 e' pesantissimo ed e' addirittura dx9 lol
ma cmq esistono sempre giochi dove una e' piu' performante di quell'altra....per esempio "NON so'", quanto farebbe ATI in HL2 piuttosto che NVIDIA...
e purtroppo adesso non abbiamo nemmeno abbastanza test e prove che dimostrino le prestazioni delle schede.
Pero' a benchmark e in altri giochi come scheda rulla. e se fosse nvidia anziche ati costerebbe anche 50 euro di piu', ma come sappiamo, le ati costano di meno.
cmq parer mio, un gioco come NWN2 dubito fortemente che uno metta tutto a palla....per me in un gioco del genere ci si accontenta di dettagli altri senza filtri.....tanto quando guardi il PG dall'alto ed e' ben curato in relazione alla distanza da cui lo osservi ti accontenti.
Cosa che per un FPS e' diverso.
Poi ti diro', io sono sempre stato patito NVIDIA. pero' la volonta' di provare una cosa l'ho fatta e sono stato soddisfatto. NVIDIA soddisfa i clienti sì, ma in maniera limitata se permettete.
Poi guarda questo:
http://www.gpureview.com/show_cards.php?card1=512&card2=445
guarda la 2900xt e la 8800 gts o gtx
Mica tanto cariola la 2900...e' tutta questione di chi e come ottimizzazza i giochi. Anche in relazione a chi, come e con chi si comporta meglio nelle relazioni commerciali ;)
ma cmq esistono sempre giochi dove una e' piu' performante di quell'altra....per esempio "NON so'", quanto farebbe ATI in HL2 piuttosto che NVIDIA...
http://www.firingsquad.com/hardware/diamond_radeon_2900_xt_1gb/images/lostoc1600.gif
Gothic3 è un mattone insulso, ed è un gioco: come molti possessori della scheda citata potranno confermarti, con la X1800XT in realtà si gioca bene ancora adesso a parecchi giochi, anche pesanti: per farti un esempio, se persino io riesco a far girare TDU con dettaglio basso (che poi cambia poco rispetto a quello alto, solo la drawing distance e la quantità di erba) a 800x600 AA4x col portatile in firma a 30fps, con la X1800XT a 1280x1024 si gioca ancora benino, imho.
Finora invece sono varie le demo/beta/patch DX10 in cui la fascia alta odierna stenta e non poco, stando a quel che si legge: CoJ, WiC, CoH, forse Crysis.
Forse è una congiura, e tutto girerà a meraviglia, o forse no. http://forum.toronews.net/images/smiles/pazzia.gif http://forum.toronews.net/images/smiles/pazzia.gif http://forum.toronews.net/images/smiles/pazzia.gif
P.S.: scusate, ma non ho resistito, queste faccine mi piacciono troppo... http://forum.toronews.net/images/smiles/fumafuma.gif
Che è TDU :fagiano: ? Che vuol dire 1280x1024 si gioca benino ? quanti fps di media? a che settaggi? filtri attivi o no?
Avevo una 5900xt quando è uscito farcry, ho acquistato una 9800pro ma non girava ancora al massimo. Solo dopo aver acquistato una x800xt potevo farlo girare con AAx4 e AFx16 a 1280x1024 senza rallentamenti.
Stessa cosa dicasi per q4 e fear. Per farlo girare al massimo con con AAx4 e AFx16 ho acquistato una 7900GTX, perchè ne la x800xt ne la 7800GT che ho preso dopo mi permettevano una giocabilità fluida.
E la stessa cosa è successa poi con Oblivion e Gothic, la 7900GTX non bastava più e ho preso la 8800GTX.
Certo se vogliamo dire che HL2 girava benone su tutta la fascia alta di quel periodo possiamo anche dirlo. Ma che fosse frutto di ottimizzazione e che non fosse causato da un motore grafico "vecchio", senza ombre dinamiche, con tutto precalcolato, con gli edifici che altro non erano che un rettangolo con una texture ultradefinita appiccicata sopra e gli steli di erba per terra che mentre ci giri attorno li vedi sempre dalla stessa angolazione (tipo blood e duke nukem lol) e il fuoco fatto con una GIF LOL...
Sicuramente la 8800GTX è stata l'unica VGA che mi ha permesso di giocare al max per così tanti mesi, non m'era mai successo prima.
Ma anche per lei sono in arrivo i primi mattoni...
Che è TDU :fagiano: ? Che vuol dire 1280x1024 si gioca benino ? quanti fps di media? a che settaggi? filtri attivi o no?
Avevo una 5900xt quando è uscito farcry, ho acquistato una 9800pro ma non girava ancora al massimo. Solo dopo aver acquistato una x800xt potevo farlo girare con AAx4 e AFx16 a 1280x1024 senza rallentamenti.
Stessa cosa dicasi per q4 e fear. Per farlo girare al massimo con con AAx4 e AFx16 ho acquistato una 7900GTX, perchè ne la x800xt ne la 7800GT che ho preso dopo mi permettevano una giocabilità fluida.
E la stessa cosa è successa poi con Oblivion e Gothic, la 7900GTX non bastava più e ho preso la 8800GTX.
Certo se vogliamo dire che HL2 girava benone su tutta la fascia alta di quel periodo possiamo anche dirlo. Ma che fosse frutto di ottimizzazione e che non fosse causato da un motore grafico "vecchio", senza ombre dinamiche, con tutto precalcolato, con gli edifici che altro non erano che un rettangolo con una texture ultradefinita appiccicata sopra e gli steli di erba per terra che mentre ci giri attorno li vedi sempre dalla stessa angolazione (tipo blood e duke nukem lol) e il fuoco fatto con una GIF LOL...
Sicuramente la 8800GTX è stata l'unica VGA che mi ha permesso di giocare al max per così tanti mesi, non m'era mai successo prima.
Ma anche per lei sono in arrivo i primi mattoni...
TDU: Test Drive Unlimited, sicuramente non il gioco più leggero del mondo. ;)
Se la mia scheda (che a frequenze reference equivale ad una X1600Pro pompata) lo fa girare come ti ho detto, allora presumo che con una X1800XT non giri malaccio. Lo stesso dicasi per altri giochi non leggerissimi quali NFS: Carbon o l'ultimo Splinter Cell.
Sulla storia ottimizzazione/scalabilità: a prescindere dalla valutazione a posteriori della grafica di HL2 (quanti giochi all'epoca avevano le ombre dinamiche, il fuoco e l'erba strafighi? :rolleyes: stai pur sempre parlando di un gioco del 2004) quel gioco rimane graficamente valido ancora oggi...
Inoltre, strano ma vero, anche oggi esistono giochi belli da vedere ma che girano (molto) bene pure su schede non all'ultimo grido: un esempio su tutti, Infernal. ;)
appleroof
17-07-2007, 21:58
Inoltre, strano ma vero, anche oggi esistono giochi belli da vedere ma che girano (molto) bene pure su schede non all'ultimo grido: un esempio su tutti, Infernal. ;)
Bravo hai detto finalmente la frase magica riassumibile in una parola: ottimizzazione, ovvero avere un gioco superbo ma che gira bene, e sinceramente le 4 beta/bench dx10 che hai visto all'opera finora da questo punto di vista fanno ridere, e se come dici tu vogliono dire "qualcosa" vogliono dire proprio questo secondo me
Bisogna invece sperare che i giochi dx10 prox venturi siano appunto ottimizzati per bene, perchè la potenza alla 8800gtx/2900xt certamente non manca, basta solo confrontarle con la 7900gtx/x1950xtx (solo otto mesi fà il top assoluto, non 2 anni fa) e fanno paura
;)
GunnyITA
17-07-2007, 22:32
Bravo hai detto finalmente la frase magica riassumibile in una parola: ottimizzazione, ovvero avere un gioco superbo ma che gira bene, e sinceramente le 4 beta/bench dx10 che hai visto all'opera finora da questo punto di vista fanno ridere, e se come dici tu vogliono dire "qualcosa" vogliono dire proprio questo secondo me
Bisogna invece sperare che i giochi dx10 prox venturi siano appunto ottimizzati per bene, perchè la potenza alla 8800gtx/2900xt certamente non manca, basta solo confrontarle con la 7900gtx/x1950xtx (solo otto mesi fà il top assoluto, non 2 anni fa) e fanno paura
;)
Si infatti... :fagiano:
Speriamo che queste schede non siano solo di passaggio solo per 10 mesi e poi "plof" senza manco provarlo a pieno sto dx10 :mad:
Bravo hai detto finalmente la frase magica riassumibile in una parola: ottimizzazione, ovvero avere un gioco superbo ma che gira bene, e sinceramente le 4 beta/bench dx10 che hai visto all'opera finora da questo punto di vista fanno ridere, e se come dici tu vogliono dire "qualcosa" vogliono dire proprio questo secondo me
Bisogna invece sperare che i giochi dx10 prox venturi siano appunto ottimizzati per bene, perchè la potenza alla 8800gtx/2900xt certamente non manca, basta solo confrontarle con la 7900gtx/x1950xtx (solo otto mesi fà il top assoluto, non 2 anni fa) e fanno paura
;)
Boh, vedremo con Bioshock... :boh:
E' dall'inizio della discussione che dico che manca ottimizzazione.
Ma al di là del fatto che si può essere contrari o favorevoli a questa mancanza di ottimizzazione nei giochi per pc, rimane inesorabilmente un dato di fatto, a parte qualche raro caso.
Infernal non lo conosco, ma mi sembra che si stia parlando di un gioco dx 9 uscito un sacco di tempo dopo l'avvento dei primi giochi dx 9 sm 3.0
Qui parliamo dei primi giochi dx10. I primi giochi dx 9 con sm 3.0 non brillavano certo per ottimizzazione e anche questo è un dato di fatto.
Per quanto riguarda hl2, è uscito dopo doom3 e farcry, doveva essere una rivoluzione grafica, ed invece ha convinto a metà (parlo graficamente).
red_eyes
18-07-2007, 03:23
E' dall'inizio della discussione che dico che manca ottimizzazione.
Ma al di là del fatto che si può essere contrari o favorevoli a questa mancanza di ottimizzazione nei giochi per pc, rimane inesorabilmente un dato di fatto, a parte qualche raro caso.
Infernal non lo conosco, ma mi sembra che si stia parlando di un gioco dx 9 uscito un sacco di tempo dopo l'avvento dei primi giochi dx 9 sm 3.0
Qui parliamo dei primi giochi dx10. I primi giochi dx 9 con sm 3.0 non brillavano certo per ottimizzazione e anche questo è un dato di fatto.
Per quanto riguarda hl2, è uscito dopo doom3 e farcry, doveva essere una rivoluzione grafica, ed invece ha convinto a metà (parlo graficamente).
Scusa? Ma stai parlando di Half Life 2??? :confused: :confused: :confused:
è stato giudicano uno dei migliori FPS di sempre e poi ha una grafica da urlo!!! :mbe:
Il Creativo
18-07-2007, 09:25
Scusa? Ma stai parlando di Half Life 2??? :confused: :confused: :confused:
è stato giudicano uno dei migliori FPS di sempre
Si ma guarda che un gioco non viene giudicato solo dalla grafica, HL2 aveva un'ottima grafica sicuramente(anche se ora è obsoleta) ma a mio avviso il motore ID(Doom 3) era ancora meglio, effettivamente e personalmente HL2 non mi ha mai particolarmente impressionato per la grafica, ovviamente non parlo del motore ultrapompato e usato nell'espansione e in Dark Messiah, quello invece è puro spettacolo e tuttora è uno dei migliori in circolazione.
Scusa? Ma stai parlando di Half Life 2??? :confused: :confused: :confused:
è stato giudicano uno dei migliori FPS di sempre e poi ha una grafica da urlo!!! :mbe:
Il mondo è bello perchè è vario... ti sfido a controbattere le affermazioni specifiche che ho fatto sul motore del gioco.
Che poi sia un gran gioco nessuno lo mette in dubbio.
qui (http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=432&Itemid=29&limit=1&limitstart=3)
ma, a parte le prestazioni deludenti dovute forse allo stadio embrionale del
codice, è preoccupante leggere tra le conclusioni a proposito delle differenze
tra D3D9 e 10.
Overall, I can't help but feel a little disappointed to see yet another game where the inclusion of DirectX 10 functionality has done nothing for the title either graphically or from a performance standpoint - I really can't tell the DirectX 9 and 10 rendering paths apart, yet performance is lower to quite a considerable degree using the latter. Thus, it looks like we'll have to wait a little longer for that first title that really makes DirectX 10 a must-have commodity for a graphics board.
insomma ditemi voi... :rolleyes:
Il mondo è bello perchè è vario... ti sfido a controbattere le affermazioni specifiche che ho fatto sul motore del gioco.
Guarda che un motore grafico non è fatto solo di effetti/fili d'erba/ombre. E' importante anche l'impressione generale che si ricava dal gioco, il quantitativo di oggetti che riesce a gestire, l'adattabilità a varie configurazioni, ecc...
Se analizzassimo il motore grafico di GTA secondo i tuoi schemi il giudizio dovrebbe essere pessimo: gli effetti sono antiquati, molte oggetti sono ancora troppo squadrati. In realtà è stato uno dei primi giochi in assoluto su PC a garantire un area di gioco enorme senza caricamenti tra le diverse aree, e per questo comunque è un motore ottimo. ;)
Una delle cose groundbreaking del Source engine era per esempio il modo di gestire le espressioni facciali, nettamente superiore a qualunque altro gioco dell'epoca, che ad oggi solo pochi motori sono riusciti ad eguagliare/superare. Credo che HL2 sia stato il primo gioco in cui mentre parlavi con una persona questa ti seguiva con lo sguardo ovunque (ad esempio in Rainbow Six Vegas non succede).
Inoltre probabilmente tra i motori grafici della sua era è il più versatile: gestisce bene ogni tipo di ambientazione, mentre il CryENGINE al di là dell'isola di FarCry non lo abbiamo mai visto all'opera (e lo stesso si potrebbe dire del Serious Engine), così come il Doom3 Engine eccelle più negli spazi chiusi che in quelli aperti.
Guarda che un motore grafico non è fatto solo di effetti/fili d'erba/ombre. E' importante anche l'impressione generale che si ricava dal gioco, il quantitativo di oggetti che riesce a gestire, l'adattabilità a varie configurazioni, ecc...
Se analizzassimo il motore grafico di GTA secondo i tuoi schemi il giudizio dovrebbe essere pessimo: gli effetti sono antiquati, molte oggetti sono ancora troppo squadrati. In realtà è stato uno dei primi giochi in assoluto su PC a garantire un area di gioco enorme senza caricamenti tra le diverse aree, e per questo comunque è un motore ottimo. ;)
Una delle cose groundbreaking del Source engine era per esempio il modo di gestire le espressioni facciali, nettamente superiore a qualunque altro gioco dell'epoca, che ad oggi solo pochi motori sono riusciti ad eguagliare/superare. Credo che HL2 sia stato il primo gioco in cui mentre parlavi con una persona questa ti seguiva con lo sguardo ovunque (ad esempio in Rainbow Six Vegas non succede).
Inoltre probabilmente tra i motori grafici della sua era è il più versatile: gestisce bene ogni tipo di ambientazione, mentre il CryENGINE al di là dell'isola di FarCry non lo abbiamo mai visto all'opera (e lo stesso si potrebbe dire del Serious Engine), così come il Doom3 Engine eccelle più negli spazi chiusi che in quelli aperti.
Dopo aver visto sia doom3 che farcry non ho sopportato i passi indietro di hl2 dal punto di vista delle luci e ombre dinamiche il primo e dal punto di vista degli spazi aperti "realmente percorribili" e la libertà d'azione del secondo. Poi gli alberi e i rami e le foglie che non si muovono, il cielo senza nuvole con un unica texture. Le case finte, con tutte ste porte e finestre chiuse. Gli spazi aperti finti con l'impossibilità di uscire dai percorsi preordinati (burroni e mare con i piranjia che ti mangiano in 2 sec se ci cadi dentro asd).
Certo ci sono anche le cose positive come la realizzazione dell'acqua, l'introduzione della fisica "utilizzabile per risolvere enigmi" (anche se poi alla fine si riduceva in un "ammassa le casse per far scaletta") e le espressioni facciali come giustamente hai detto. Anche se l'atmosfera che quest'ultime creavano era ampiamente rovinata da un doppiaggio che definire ridicolo è un eufemismo.
Poi ho sempre odiato i giochi troppo scriptati. Tipo fai un passettino e compare il primo nemico, fai il secondo e ti viene addosso un altro, fai un terzo e si spacca il muro ecc. Le ritengo ristrettezze del motore grafico, mascherate da "trama da film".
Ma è tutta una questione di gusti.
Crysis sarà il mio gioco, ne sono sicuro :D
GunnyITA
18-07-2007, 12:47
Hl2....il primo gioco doppiato in Italiano/croato :sofico:
DarKilleR
18-07-2007, 12:49
Scusate con tutto il rispetto, ma venire a dire che il motore grafico di Doom3 e FarCry sono meglio del Source di HL2 è come andare a bestemmiare in chiesa con un megafono!!! :sofico:
HL2 > FarCry > Doom3...imho quello di doom3 era veramente pessimo per la rivoluzione che doveva essere. e poi quello che si che era un gioco del tipo un passo 1 mostro, un altro passo 2 mostri...Corridoio, stanza corridoio stanza stanza, scale corridoio... :muro: :muro: :muro:
L'ho finito solo perchè l'ho comprato...:muro: :muro:
E a livello di dettaglio, capacità di gestire un elevatissimo numero di poligoni, oggeti soprattutto oggetti con cui interagire e texture IMHO era veramente ridicolo...
Le texture delle porte sembravano quelle di Wolfstain 3D :ave: :ave: :ave:
Scusate con tutto il rispetto, ma venire a dire che il motore grafico di Doom3 e FarCry sono meglio del Source di HL2 è come andare a bestemmiare in chiesa con un megafono!!! :sofico:
HL2 > FarCry > Doom3...imho quello di doom3 era veramente pessimo per la rivoluzione che doveva essere. e poi quello che si che era un gioco del tipo un passo 1 mostro, un altro passo 2 mostri...Corridoio, stanza corridoio stanza stanza, scale corridoio... :muro: :muro: :muro:
L'ho finito solo perchè l'ho comprato...:muro: :muro:
E a livello di dettaglio, capacità di gestire un elevatissimo numero di poligoni, oggeti soprattutto oggetti con cui interagire e texture IMHO era veramente ridicolo...
Le texture delle porte sembravano quelle di Wolfstain 3D :ave: :ave: :ave:
Scusa ma dei commenti specifici che ho fatto io su quello che non andava in hl2 , che ne pensi?
Doom3 è meglio solo per la gestione delle ombre e luci dinamiche. Come gioco era scriptato come hl2 però. Anche in hl2 fai un passettino e passa il treno, ne fai un latro ed esce un nemico... boh
red_eyes
18-07-2007, 12:56
Scusate con tutto il rispetto, ma venire a dire che il motore grafico di Doom3 e FarCry sono meglio del Source di HL2 è come andare a bestemmiare in chiesa con un megafono!!! :sofico:
HL2 > FarCry > Doom3...imho quello di doom3 era veramente pessimo per la rivoluzione che doveva essere. e poi quello che si che era un gioco del tipo un passo 1 mostro, un altro passo 2 mostri...Corridoio, stanza corridoio stanza stanza, scale corridoio... :muro: :muro: :muro:
:mano:
sommojames
18-07-2007, 15:00
Doom 3 era tutto un corridio, la tristezza maggiore però era che se vedevi una scala sapevi già che automaticamente inculato sotto la scala c'erano sicuramente almeno un medkit, ma chi cazzo ce l'ha messo :muro: :muro: :muro:
Fortunatamente in Crysis si sono resi conto che tutto ciò era ridicolo ed ora il personaggio potrà rigenerare la sua salute.
Anche se l'atmosfera che quest'ultime creavano era ampiamente rovinata da un doppiaggio che definire ridicolo è un eufemismo.
Beh, io di solito i giochi li gioco quasi sempre in lingua originale, tranne i casi in cui so già che sono stati utilizzati attori veri per il doppiaggio italiano (Prince of Persia WW, Splinter Cell). Quel problema per me non esiste. :cool:
appleroof
18-07-2007, 15:55
requisiti ufficiali di bioshock
http://www.hwupgrade.it/news/videogiochi/i-requisiti-hardware-di-bioshock_22008.html
;)
p.s.: notare l'assoluta mancanza di riferimento ad Amd, sia come vga che come cpu...:eek: :what:
requisiti ufficiali di bioshock
http://www.hwupgrade.it/news/videogiochi/i-requisiti-hardware-di-bioshock_22008.html
;)
p.s.: notare l'assoluta mancanza di riferimento ad Amd, sia come vga che come cpu...:eek: :what:
Beh, dice "NVIDIA 8600 or better", evidentemente considerano tutta la lineup ATi migliore della 8600... :sofico:
A parte gli scherzi, evidentemente quei requisiti minimi sono vecchi, e la notizia non in sè non è il massimo dell'affidabilità, visto che il motore grafico non è basato sull'UE2.5.
appleroof
18-07-2007, 16:11
Beh, dice "NVIDIA 8600 or better", evidentemente considerano tutta la lineup ATi migliore della 8600... :sofico:
A parte gli scherzi, evidentemente quei requisiti minimi sono vecchi, e la notizia non in sè non è il massimo dell'affidabilità, visto che il motore grafico non è basato sull'UE2.5.
da quello che leggo, i requisiti sono stati appena annunciati ufficialmente....
per il resto:
Known at first as the Vengeance engine 2, this was an enhanced version of the Vengeance engine, based on the Unreal Engine 2.5. As this engine was developed for the game Bioshock, the engine has become known as the "BioShock engine". Later, the BioShock engine was changed to use the Unreal Engine 3.0. but BioShock does not use all of Unreal Engine 3.0's features. As it only upgraded the Unreal Engine 3.0's Unreal Core System, file system framework and UnrealEd Toolsets
http://en.wikipedia.org/wiki/Vengeance_engine :boh:
;)
tra l'altro Bioshock usa come motore fisico Havok, mentre l'UE3 include il Novodex di AGEIA ;)
hanno preso il "core" del UE3 e lo hanno arricchito e modificato con elementi del UE2.5 e elementi proprietari
da quello che leggo, i requisiti sono stati appena annunciati ufficialmente....
A me non sembrano accuratissimi... Come, consigliano 512MB di ram per la versione DX9 e per la versione DX10 no? Tutte le 8600 e le 8800GTS 320 a quel punto sarebbero tagliate fuori... :stordita:
I requisiti sono stati annunciati all'E3 e riportati sul forum ufficiale del gioco, ma sul sito ufficiale non ci sono ancora, quindi potrebbero essere lievemente diversi sulla scatola. ;)
per il resto:
Known at first as the Vengeance engine 2, this was an enhanced version of the Vengeance engine, based on the Unreal Engine 2.5. As this engine was developed for the game Bioshock, the engine has become known as the "BioShock engine". Later, the BioShock engine was changed to use the Unreal Engine 3.0. but BioShock does not use all of Unreal Engine 3.0's features. As it only upgraded the Unreal Engine 3.0's Unreal Core System, file system framework and UnrealEd Toolsets
http://en.wikipedia.org/wiki/Vengeance_engine :boh:
;)
http://www.hwupgrade.it/forum/showpost.php?p=17973163&postcount=25 :read:
Per il resto quoto Defragg. :)
appleroof
18-07-2007, 17:07
A me non sembrano accuratissimi... Come, consigliano 512MB di ram per la versione DX9 e per la versione DX10 no? Tutte le 8600 e le 8800GTS 320 a quel punto sarebbero tagliate fuori... :stordita:
I requisiti sono stati annunciati all'E3 e riportati sul forum ufficiale del gioco, ma sul sito ufficiale non ci sono ancora, quindi potrebbero essere lievemente diversi sulla scatola. ;)
http://www.hwupgrade.it/forum/showpost.php?p=17973163&postcount=25 :read:
Per il resto quoto Defragg. :)
perchè le dx10 girano su vista, più esoso in termini di ram (complessiva) come noto, per il resto hwupgrade non sbaglia se dice che Vengeance Engine a sua volta costituisce un'evoluzione di Unreal Engine 2.5, piuttosto direi che la notizia è incompleta, ma non sbagliata, poi, credi quello che vuoi cosa posso dirti, magari tra 2 giorni appare la 2600 or better tra i consigliati per le dx10 dai...
;)
perchè le dx10 girano su vista, più esoso in termini di ram (complessiva) come noto, per il resto hwupgrade non sbaglia se dice che Vengeance Engine a sua volta costituisce un'evoluzione di Unreal Engine 2.5, piuttosto direi che la notizia è incompleta, ma non sbagliata, poi, credi quello che vuoi cosa posso dirti, magari tra 2 giorni appare la 2600 or better tra i consigliati per le dx10 dai...
;)
Ma lì si parla di 512MB di ram video consigliati per le DX9. Dubito che le texture del path DX10 occupino meno spazio... ;)
appleroof
18-07-2007, 17:20
Ma lì si parla di 512MB di ram video consigliati per le DX9. Dubito che le texture del path DX10 occupino meno spazio... ;)
va bene, sono sbagliati :rolleyes: :boh:
;)
Mister Tarpone
18-07-2007, 17:25
mahhh... a me sto gioco, vedendolo dai filmati, non mi ha mai dato l'impressione di essere un mattone.. i requisiti consigliati lo dimostrano, a quanto pare..
512mb di ram o no, credo che ci potrò giocare benone :oink:
poi vedremo... :read:
va bene, sono sbagliati :rolleyes: :boh:
;)
Non penso siano sbagliati, più che altro non gli darei tutto sto peso, tanto poi si sa che sono poco indicativi. Certo è che girerà in DX10 pure sulle ATi, anche se non sono indicate nei requisiti: altrimenti se dovessimo dar peso a quello che c'è scritto sulle scatole staremmo ancora aspettando la X2800 consigliata da STALKER. :sofico:
http://www.direct2drive.com/2/3285/product/Buy-STALKER:-Shadow-of-Chernobyl-Download?camp=pcign
appleroof
18-07-2007, 17:45
Non penso siano sbagliati, più che altro non gli darei tutto sto peso, tanto poi si sa che sono poco indicativi. Certo è che girerà in DX10 pure sulle ATi, anche se non sono indicate nei requisiti: altrimenti se dovessimo dar peso a quello che c'è scritto sulle scatole staremmo ancora aspettando la X2800 consigliata da STALKER. :sofico:
http://www.direct2drive.com/2/3285/product/Buy-STALKER:-Shadow-of-Chernobyl-Download?camp=pcign
Ma è ovvio dai....:stordita:
cmq per la precisione quando è uscito Stalker mancavano mesi alla presentazione di r600, forse per quello non l'hanno indicata bene, poverini come patirli, non erano solo loro che brancolavano nel buio all'epoca sulla fantomatica nuova top Amd :asd:
;)
red_eyes
18-07-2007, 19:34
mahhh... a me sto gioco, vedendolo dai filmati, non mi ha mai dato l'impressione di essere un mattone.. i requisiti consigliati lo dimostrano, a quanto pare..
512mb di ram o no, credo che ci potrò giocare benone :oink:
poi vedremo... :read:
secondo me con la tua 8600gts non dovresti avere problemi!!! ;)
cmq nenake a me sembrano eccessivi i requisiti!!! :D
Mister Tarpone
18-07-2007, 19:46
secondo me con la tua 8600gts non dovresti avere problemi!!! ;)
cmq nenake a me sembrano eccessivi i requisiti!!! :D
spero che vada benone :read: ;)
red_eyes
18-07-2007, 19:49
spero che vada benone :read: ;)
perchè non dovrebbe??? :Prrr: :Prrr: :Prrr:
A proposito dei risultati di WiC DX10, è uscita un'altra preview sulle performance della beta su Elite Bastards.
Ci sono anche i risultati delle ATi ma, come molto correttamente fa notare chi ha scritto l'articolo, ci sono grossi problemi di rendering con queste schede.
A questo proposito hanno intervistato il direttore marketing di Massive, che produce il titolo, che ha detto:
I'd like to point out that the DX10 benchmark results on ATI hardware are probably misleading at this stage. We have worked closely with NVIDIA for a long time to achieve the results you are seeing on their cards. We expect to see improvements on the ATI cards soon, some of them should be seen in the next Beta Patch.
A quanto pare i risultati delle nVidia sono già frutto di ottimizzazione (annamo bbene... :rolleyes: ): la 8800GTS 640 (coi 163.11) a 1280x1024 fa 26fps di media in DX10 con tutto al max, AA4x e AF16x.
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=432&Itemid=29
appleroof
18-07-2007, 21:38
Qui invece le prestazioni di Bioshock con i requisiti raccomandati (quindi almeno una 8600 in dx10), da confermare con prove sul campo:
Will the game run fairly consistently at 30 FPS on the recommended system specs with medium graphical settings?
Definitely, and probably higher.
http://www.2kgames.com/cultofrapture/pcblowout.html
come al solito una sola parola: ottimizzazione e i giochi volano ;)
appleroof
18-07-2007, 21:39
A proposito dei risultati di WiC DX10, è uscita un'altra preview sulle performance della beta su Elite Bastards.
Ci sono anche i risultati delle ATi ma, come molto correttamente fa notare chi ha scritto l'articolo, ci sono grossi problemi di rendering con queste schede.
A questo proposito hanno intervistato il direttore marketing di Massive, che produce il titolo, che ha detto:
A quanto pare i risultati delle nVidia sono già frutto di ottimizzazione (annamo bbene... :rolleyes: ): la 8800GTS 640 (coi 163.11) a 1280x1024 fa 26fps di media in DX10 con tutto al max, AA4x e AF16x.
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=432&Itemid=29
ahhhhh....ma è sempre la beta....pensavo il gioco praticamente definitivo...vabbè
altrettanto onestamente poi hanno verificato i cambiamenti con gli ultimi dirver Nvidia beta (ci risiamo) notando un boost del 10% (e sicuramente per l'autunno ci saranno driver migliori)
http://img238.imageshack.us/img238/190/wicoo1.jpg (http://imageshack.us)
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=432&Itemid=29&limit=1&limitstart=4
ahhhhh....ma è sempre la beta....pensavo il gioco praticamente definitivo...vabbè
Beh, ma non è che dalla beta alla versione normale cambi poi moltissimo di solito... TDU se ricordi aveva gli stessi problemi pure nella beta, e poi non è cambiato un tubo. :sofico:
D'accordo sull'ottimizzazione, io mi spingerei oltre e direi "software per PC fatto da chi è capace" e i giochi volano. ;)
appleroof
18-07-2007, 21:54
Beh, ma non è che dalla beta alla versione normale cambi poi moltissimo di solito... TDU se ricordi aveva gli stessi problemi pure nella beta, e poi non è cambiato un tubo. :sofico:
D'accordo sull'ottimizzazione, io mi spingerei oltre e direi "software per PC fatto da chi è capace" e i giochi volano. ;)
certo ;) non dimentichiamo anche i driver, che pare che con vista contino più che con xp, nel senso che sono più difficili da programmare, almeno in questa fase iniziale
red_eyes
19-07-2007, 01:18
certo ;) non dimentichiamo anche i driver, che pare che con vista contino più che con xp, nel senso che sono più difficili da programmare, almeno in questa fase iniziale
speriamo che col passare del tempo le cose cambino!!! :)
Kharonte85
19-07-2007, 01:21
Chi diceva vedendo i bench che i titoli DX10 sarebbero girati appena sufficineti e bisognava aspettare la prossima generazione ?
Ora se le dovrà rimangiare, spendere soldi per una VGA DX10 ora è convenientissimo eccome, beccatevi sta news e fatela finita.
( da notare che la piattaforma usata è la GTX , la stessa usata anche per lo sviluppo del game quindi ATI con crysis rischia un FLOP )
http://www.tomshw.it/news.php?newsid=10738
Ehm dove sarebbero le "prove"? :confused:
fireradeon
19-07-2007, 16:12
Mah, io più vedo i test con giochi DX10 o compatibili DX10 più mi cadono i maroni!!! :O
Ormai aspetto di vedere qualche bench su Bioshock a fine agosto e ovviamente Crysis a metà settembre, perchè non ci capisco più una cippa! :mbe:
appleroof
19-07-2007, 17:05
speriamo che col passare del tempo le cose cambino!!! :)
sarà per forza così, non ci piove ;)
nico88desmo
19-07-2007, 21:39
Mah, io più vedo i test con giochi DX10 o compatibili DX10 più mi cadono i maroni!!! :O
Ormai aspetto di vedere qualche bench su Bioshock a fine agosto e ovviamente Crysis a metà settembre, perchè non ci capisco più una cippa! :mbe:
Speriamo che escano il primo possibile!!!
Ehm dove sarebbero le "prove"? :confused:
Questo thread è un caso unico: voleva dimostrare che in DX10 le attuali vga (o meglio le 8800) non erano affatto penalizzate, come invece molti credono, mentre in realtà non dimostra proprio nulla, visto che il gioco è stato provato sotto XP, e quindi in DX9. Tuttavia direi che la discussione è andata avanti lo stesso.
Ma che fine ha fatto l'autore del thread? Ha capito la figuraccia che ha fatto, e si è ritirato in un eremo? :stordita:
Brightblade
20-07-2007, 08:55
Ma, giusto per non rileggere tutto...e' stato linkato qualche test fatto con COJ o Lost Planet nelle loro versioni DX10? Se ne trovano online?
Senza andare troppo lontano: leggiti la recensione della 8800Ultra sul sito di hwu, e troverai i test di CoJ in DX10 con nVidia e ATI; oppure la prova delle HD2600
-Feanor-
20-07-2007, 12:49
Senza andare troppo lontano: leggiti la recensione della 8800Ultra sul sito di hwu, e troverai i test di CoJ in DX10 con nVidia e ATI; oppure la prova delle HD2600
beh non è che abbia molto senso...ormai sono vecchie...bastano una o due release di driver e le cose possono cambiare radicalmente...forse non è qst caso...ma di certo si hanno avuto notevoli migliramenti...
secondo me con la tua 8600gts non dovresti avere problemi!!! ;)
cmq nenake a me sembrano eccessivi i requisiti!!! :D
Sono gli stessi di Lost Planet è quest'ultimo non è che abbia prestazioni esaltanti sopratutto in DX10, speriamo che con bioshock abbiano lavorato meglio.
Mister Tarpone
20-07-2007, 15:04
Sono gli stessi di Lost Planet è quest'ultimo non è che abbia prestazioni esaltanti sopratutto in DX10, speriamo che con bioshock abbiano lavorato meglio.
Lost PLanet in modalità DX10 con scheda 8600GTS OC + un X2 4400+ :) :) !!
http://img338.imageshack.us/img338/988/lostplanetdx10200707200gt7.jpg
http://img338.imageshack.us/img338/4662/lostplanetdx10200707200nz1.jpg
http://img166.imageshack.us/img166/1984/lostplanetdx10200707200le5.jpg
http://img54.imageshack.us/img54/9495/lostplanetdx10200707200vj6.jpg
http://img166.imageshack.us/img166/12/lostplanetdx10200707200tx7.jpg
http://img54.imageshack.us/img54/1434/lostplanetdx10200707200tt5.jpg
http://img166.imageshack.us/img166/5361/lostplanetdx10200707200mj7.jpg
http://img54.imageshack.us/img54/6705/lostplanetdx10200707200xb3.jpg
http://img411.imageshack.us/img411/3558/lostplanetdx10200707200hj5.jpg
http://img120.imageshack.us/img120/8080/lostplanetdx10200707200qd3.jpg
...e Bioshock girerà ancora meglio su una 8600 (figuriamoci con le 8800 ;) ). ...poi è risaputo che la Capcom non è tanto brava con le conversioni per pc.... :)
ciao :sbonk: ;)
Ps: il gioco mi gira addirittura meglio in dx10 che in dx9 :sbonk:
red_eyes
20-07-2007, 15:14
Lost PLanet in modalità DX10 con scheda 8600GTS OC + un X2 4400+ :) :) !!
...e Bioshock girerà ancora meglio su questa 8600 ;). ...poi è risaputo che la Capcom non è tanto brava con le conversioni per pc.... :)
ciao :sbonk: ;)
Ps: il gioco mi gira addirittura meglio in dx10 che in dx9 :sbonk:
tarpone ottimi screen!!! ;) ti va alla grande lost planet!!! io ankora neanke ci ho giocato!!! :(
le texture del terreno sembrano peggiori a quelle della versione 360, quel gioco sul mio pc non verrà installato :O
tarpone ottimi screen!!! ;) ti va alla grande lost planet!!! io ankora neanke ci ho giocato!!! :(
ma perchè dovete quotare pure le immagini? non tutti hanno la adsl uber veloce :rolleyes:
Mister Tarpone
20-07-2007, 15:17
le texture del terreno sembrano peggiori a quelle della versione 360, quel gioco sul mio pc non verrà installato :O
già vista la versione xbox360 ;)!! ed è sotto a quella pc ;) ha una marea di dettagli in bassa risoluzione... su Pc è superiore ;)
Ciao ;)
già vista la versione xbox360 ;)!! ed è sotto a quella pc ;) ha una marea di dettagli in bassa risoluzione... su Pc è superiore ;)
Ciao ;)
forse, io l'ho noleggiato e giocato un po' ma a dire il vero mi sembrano identiche, tra l'altro
in questo punto
http://img166.imageshack.us/img166/12/lostplanetdx10200707200tx7.jpg
e in questo
http://img54.imageshack.us/img54/9495/lostplanetdx10200707200vj6.jpg
mi ricordo chiaramente che le texture del terreno erano migliori su 360
un gioco con grafica mediocre, imho, ma abbastanza divertente :)
Mister Tarpone
20-07-2007, 15:21
tarpone ottimi screen!!! ;) ti va alla grande lost planet!!! io ankora neanke ci ho giocato!!! :(
provalo è molto giocabile ;)
Mister Tarpone
20-07-2007, 15:24
forse, io l'ho noleggiato e giocato un po' ma a dire il vero mi sembrano identiche, tra l'altro
in questo punto
mi ricordo chiaramente che le texture del terreno erano migliori su 360
un gioco con grafica mediocre, imho, ma abbastanza divertente :)
E' impossibile che sia meglio ;) in queste immagini le texture sono settate al MAX. e si sa che il gioco su pc ha una qualità grafica più elevata..... poi l'ho visto anch'io com'è su xbox ;)
cmq che dire.... dentro le grotte la grafica è molto bella! :eek: !!
E' impossibile che sia meglio ;) in queste immagini le texture sono settate al MAX. e si sa che il gioco su pc ha una qualità grafica più elevata..... poi l'ho visto anch'io com'è su xbox ;)
cmq che dire.... dentro le grotte la grafica è molto bella! :eek: !!
boh, ricorderò male, cmq le texture del terreno a mio avviso rimangono orribili rispetto al resto
Brightblade
20-07-2007, 15:28
Un paio di link di una rece del 10 luglio...sorry se gia' postati.
http://www.firingsquad.com/hardware/diamond_radeon_2900_xt_1gb/page15.asp
PS. Non so perche' ci sia scritto FarCry sotto Company Of Heroes...sara' una svista.
http://www.firingsquad.com/hardware/diamond_radeon_2900_xt_1gb/page16.asp
Mister Tarpone
20-07-2007, 15:28
boh, ricorderò male, cmq le texture del terreno a mio avviso rimangono orribili rispetto al resto
bohh... eppure c'ho messo anche l'af16x :boh:
red_eyes
20-07-2007, 15:38
ma perchè dovete quotare pure le immagini? non tutti hanno la adsl uber veloce :rolleyes:
hai ragione!!! Scusa!!! :)
red_eyes
20-07-2007, 15:39
provalo è molto giocabile ;)
ankora lo devo "comprare"!!! :D
boh, ricorderò male, cmq le texture del terreno a mio avviso rimangono orribili rispetto al resto
Sono d'accordo con te il terreno nn é bello quanto le pareti
A quanto pare i risultati delle nVidia sono già frutto di ottimizzazione (annamo bbene... :rolleyes: ): la 8800GTS 640 (coi 163.11) a 1280x1024 fa 26fps di media in DX10 con tutto al max, AA4x e AF16x.
http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=432&Itemid=29
Alla faccia delle ottimizzazioni:
(nn ho messo direttamente la immagine x ki nn ha una adsl)
http://www.elitebastards.com/hanners/wic-beta/charts/dx9-12x10.png
appleroof
20-07-2007, 16:19
Lost PLanet in modalità DX10 con scheda 8600GTS OC + un X2 4400+ :) :) !!
cut
...e Bioshock girerà ancora meglio su una 8600 (figuriamoci con le 8800 ;) ). ...poi è risaputo che la Capcom non è tanto brava con le conversioni per pc.... :)
ciao :sbonk: ;)
Ps: il gioco mi gira addirittura meglio in dx10 che in dx9 :sbonk:
ottimo ;)
hai ragione!!! Scusa!!! :)
IL tuo post puoi sempre modificarlo per togliere le immagini ;)
Lost PLanet in modalità DX10 con scheda 8600GTS OC + un X2 4400+ :) :) !!
...e Bioshock girerà ancora meglio su una 8600 (figuriamoci con le 8800 ;) ). ...poi è risaputo che la Capcom non è tanto brava con le conversioni per pc.... :)
ciao :sbonk: ;)
Ps: il gioco mi gira addirittura meglio in dx10 che in dx9 :sbonk:
36 FPS negli esterni, con solo personaggio a schermo e 49 nello screen interno, sempre visualizzando un solo personaggio secondo me non sono dei gran risultati.
Spero che Bioshock sarà ottimizzato meglio.
Mister Tarpone
21-07-2007, 15:57
36 FPS negli esterni, con solo personaggio a schermo e 49 nello screen interno, sempre visualizzando un solo personaggio secondo me non sono dei gran risultati.
Spero che Bioshock sarà ottimizzato meglio.
Il risultato è buono ;) considerando che con schede dx9 più potenti della mia, alcuni faticano ad attivare l'aa2x in dx9 (io ho il 4x attivato e gioco in dx10 :asd:). direi che per la mia vga il risultato è soddisfacente.
Cmq il gioco ha dei cali di frame negli esterni (ma è giocabile = :O )... ma questo non è colpa della mia vga (dato che questi cali, ci sono anche con schede potentissime ..e se vai nel thread ufficiale del gioco, te ne renderai conto da solo... :asd: )
dipende dal fatto che alla Capcom non sanno convertire i giochi su pc ;)
Bioshock ho visto com'è fatto... bellissima grafica e ambienti ristretti. ripeto, scommetto che con la mia scheda girerà bene :) poi vedremo...
Il risultato è buono ;) considerando che con schede dx9 più potenti della mia, alcuni faticano ad attivare l'aa2x (io ho il 4x attivato :asd:). direi che per la mia vga il risultato è soddisfacente.
Cmq il gioco ha dei cali di frame negli esterni (ma è giocabile = :O )... ma questo non dipende dalla vga (dato che questi cali, ci sono anche con schede potentissime) )
dipende dal fatto che alla Capcom non sanno convertire i giochi su pc ;)
Bioshock ho visto com'è fatto... bellissima grafica e ambienti ristretti. ripeto, scommetto che con la mia scheda girerà bene :) poi vedremo...
Secondo me la tua scheda non è che fa cosi schifo, anzi, solo che il gioco non è molto ottimizzato... anche io spero che con una 8600gts bioshock si possa giocare, però basandosi sui requisiti richiesti e sul motore grafico, che è derivato dall'UE 3, sono un po pessimista. Per il fatto che vada meglio in dx 10 che in dx9 questo è dovuto ad una crescita dei driver, io mi sono basato sui confronti tra dx10 e dx9 fatti hai tempi della demo quindi non ero aggiornatissimo. ;)
Mister Tarpone
21-07-2007, 16:24
Secondo me la tua scheda non è che fa cosi schifo, anzi, solo che il gioco non è molto ottimizzato... anche io spero che con una 8600gts bioshock si possa giocare, però basandosi sui requisiti richiesti e sul motore grafico, che è derivato dall'UE 3, sono un po pessimista. Per il fatto che vada meglio in dx 10 che in dx9 questo è dovuto ad una crescita dei driver, io mi sono basato sui confronti tra dx10 e dx9 fatti hai tempi della demo quindi non ero aggiornatissimo. ;)
per quello che l'ho pagata, a me non mi ha mai deluso sta vga :mano:
se tornassi indietro riprenderei sicuramente questa al posto di una 7900gs o x1950pro.. Sta scheda mi sta dando molte soddisfazioni :read:
e se bioshock girerà bene come penso,ne sarò ancor più soddisfatto :oink:
ps: Lost come ti gira a te?? con la tua GT?? :) ??
Mister Tarpone
21-07-2007, 16:30
ottimo ;)
...e non poco ;)
per quello che l'ho pagata, a me non mi ha mai deluso sta vga :mano:
se tornassi indietro riprenderei sicuramente questa al posto di una 7900gs o x1950pro.. Sta scheda mi sta dando molte soddisfazioni :read:
e se bioshock girerà bene come penso,ne sarò ancor più soddisfatto :oink:
ps: Lost come ti gira a te?? con la tua GT?? :) ??
Il gioco completo non c'è l'ho proverò la demo dx10 tra un po quando metterò vista.
Mister Tarpone
21-07-2007, 16:33
Il gioco completo non c'è l'ho proverò la demo dx10 tra un po quando metterò vista.
sarebbe interessante un confronto tra la mia e la tua vga con la demo in modalità dx9. per capire che differenze prestazionali ci sono, tra GT e GTS, a parità di settaggi... se hai voglia posta i risultati nel thread del gioco... :read:
ciao :) ;)
red_eyes
21-07-2007, 16:55
sarebbe interessante un confronto tra la mia e la tua vga con la demo in modalità dx9. per capire che differenze prestazionali ci sono, tra GT e GTS, a parità di settaggi... se hai voglia posta i risultati nel thread del gioco... :read:
ciao :) ;)
tarpone appena lo installo io poi ti dico come va a me!!! ;)
spero che vada bene come il tuo!!! :Prrr:
Mister Tarpone
21-07-2007, 17:00
tarpone appena lo installo io poi ti dico come va a me!!! ;)
spero che vada bene come il tuo!!! :Prrr:
ti andrà benone :read: ;) !!
scaricati la demo e provala!!. e se hai voglia posta le tue impressioni (sulle prestazioni e la giocabilità ;) ) nel thread ufficiale del gioco!! :Prrr:
;)
red_eyes
21-07-2007, 17:11
ti andrà benone :read: ;) !!
scaricati la demo e provala!!. e se hai voglia posta le tue impressioni (sulle prestazioni e la giocabilità ;) ) nel thread ufficiale del gioco!! :Prrr:
;)
dove posso trovarlo la demo?:D
Mister Tarpone
21-07-2007, 17:20
dove posso trovarlo la demo?:D
su questo sito ;) vai in download/videogiochi/demo :cool: ;)
chiudiamo l'ot però ;).
red_eyes
21-07-2007, 17:23
su questo sito ;) vai in download/videogiochi/demo :cool: ;)
chiudiamo l'ot però ;).
grazie!!! ;)
fine ot :asd:
Lost PLanet in modalità DX10 con scheda 8600GTS OC + un X2 4400+ :) :) !!
...e Bioshock girerà ancora meglio su una 8600 (figuriamoci con le 8800 ;) ). ...poi è risaputo che la Capcom non è tanto brava con le conversioni per pc.... :)
ciao :sbonk: ;)
Ps: il gioco mi gira addirittura meglio in dx10 che in dx9 :sbonk:
Tutto dipende a che risoluzione e dettaglio, visti così sono molto belli, ma, ad esempio, mi sembra che il gioco sia meno dettagliato di come lo vedo io.
Ovviamente non abbiamo proprio lo stesso hw (pensa che in un 3d pensavo avessi l'hd2600xt), in questo caso parlo della hd2900, che ho giusto tenuto (il gioco) fino ai 7.7 per testare il gioco che ora sto giocando ;)
E poi. è la versione demo (come penso) o la finale?
Mister Tarpone
21-07-2007, 17:38
Tutto dipende a che risoluzione e dettaglio, visti così sono molto belli, ma, ad esempio, mi sembra che il gioco sia meno dettagliato di come lo vedo io.
Ovviamente non abbiamo proprio lo stesso hw (pensa che in un 3d pensavo avessi l'hd2600xt), in questo caso parlo della hd2900, che ho giusto tenuto (il gioco) fino ai 7.7 per testare il gioco che ora sto giocando ;)
E poi. è la versione demo (come penso) o la finale?
vai nel thread ufficiale del gioco e vedi tu che dettagli uso :oink: :oink: :oink: :read: !!
davide155
06-08-2007, 00:04
Adesso io non voglio dire una cacata.
Pero' mi auguro che qualcuno prenda in mano questa situazione, tipo le autorita'.
Perke' e' inammissibile far uscire dei prodotti di fascia alta che a livello prestazionale rendono quanto rendevano quelli vecchi e farli pagare una lira di dio solo perke hanno quella lucetta psichedelica che si chiama DX10.
Perke' a sto punto tutti ci chiediamo: sara' leggero? sara' pesante? sara' sfruttato bene o male? le nostre schede ci gireranno?
adesso io mi faccio un computer e mi ci monto una bella 2900xt che e' una scheda coi controca..... pero' se dopo mi vado a provare un gioco dx10, metto "pochi filtri" e per accontentarmi ci gioco a 1280x1024 e faccio una miseria. Onestamente in quel momento penso: "tu mi hai rubato 350 euro"
Perke' alla fine e' quello il concetto: "tu mi hai rubato 350 euro"
e quelli che alla fine hanno la gtx , magari comprata, dico 2 mesi fa, e c'hanno speso 450 euro dicono: "tu me ne hai rubati 450".
Dopo e' cosi' che nasce la criminalita' sulle strade, credo che la mia mano comincera' ad essere piu' lesta quando entrera' dentro un ipermercato...
:eek:
Sei il mio nuovo idolo :O
desmacker
06-08-2007, 16:10
Adesso io non voglio dire una cacata.
Pero' mi auguro che qualcuno prenda in mano questa situazione, tipo le autorita'.
Perke' e' inammissibile far uscire dei prodotti di fascia alta che a livello prestazionale rendono quanto rendevano quelli vecchi e farli pagare una lira di dio solo perke hanno quella lucetta psichedelica che si chiama DX10.
Perke' a sto punto tutti ci chiediamo: sara' leggero? sara' pesante? sara' sfruttato bene o male? le nostre schede ci gireranno?
adesso io mi faccio un computer e mi ci monto una bella 2900xt che e' una scheda coi controca..... pero' se dopo mi vado a provare un gioco dx10, metto "pochi filtri" e per accontentarmi ci gioco a 1280x1024 e faccio una miseria. Onestamente in quel momento penso: "tu mi hai rubato 350 euro"
Perke' alla fine e' quello il concetto: "tu mi hai rubato 350 euro"
e quelli che alla fine hanno la gtx , magari comprata, dico 2 mesi fa, e c'hanno speso 450 euro dicono: "tu me ne hai rubati 450".
Finalmente hai aperto gli occhi.
Che la fregatura fosse dietro l'angolo non era certo, ma ora è una certezza.
Che era meglio aspettare le schede dx10 di seconda generazione per una maggiore longevità del prodotto anche.
Se poi hai Vista scheda dx10 e prendi un gioco con scritto solo per XP è il massimo.:incazzed:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.