View Full Version : Crysis con SLI e Crossfire
Redazione di Hardware Upg
04-12-2007, 09:15
Link alla notizia: http://www.hwupgrade.it/news/skvideo/crysis-con-sli-e-crossfire_23487.html
Una patch di prossimo rilascio permetterà di abilitare il supporto Crossfire con Crysis, oltre che migliorare le prestazioni con tecnologia SLI
Click sul link per visualizzare la notizia.
Sarebbe interessante vedere a questo punto come se la cava con due 3850 o con due 3870
quindi era colpa di crytek.....
Ginger79
04-12-2007, 09:39
Qui servono patch per il gioco in se (CON 1 SCHEDA) e non per l'SLI ! Avrà anche la grafica più complessa mai prodotta ma le prestazioni sono troppo sotto la media.... almeno in 1280X720 (dettaglio Ultra) il gioco DEVE girare a 30fps con una 8800.
Il problema non è la scheda grafica in sè, ma il multi core, che da quel che si vede è praticamente inattivo. Tutto il peso grava alla fine e per forza sulla gpu.
Ecco, proprio la mancanza dello sfruttamento dei multicore è la vera pecca del gioco. Già, se il secondo core si preoccupasse soltanto della fisica si alleggerirebbe il tutto di un buon 30%e si eviterebbero i vistosi cali ad ogni esplosione che si verificano ora.
speriamo si risolva, chi acquista 2 VGA rischia anche di ritrovarsi con questi problemi...... :(
Haran Banjo
04-12-2007, 09:54
Bah, io ci giocherò tra tre-quattro anni, con un pc che pagherò mille euro, e che farà millemila fps a 3200x1800...
killer978
04-12-2007, 09:57
Quoto spyke76!!
è assurdo che un gioco simile sfrutti solo al 40/50% i dual core, i giochi basati sull'unreal 3 engine sfruttano al 100% la CPU e si vede la differenza tra single e dual core, poi non capisco come mai anche mettendo le texture su High la Vram occupata non superi mai i 250/280mb, i 512mb della mia VGA sono sempre al 50% liberi problema simile a Oblivion, sembra quasi che sto gioco fosse pensato x le console che hanno meno Gddr!!! speriamo in una patch riparatrice.
Beh si, c'è gente che è convinta che l'AFR sia la cura per tutti i mali :-)
Poi quando il gioco non funziona, o la memoria video è insufficiente, si trovano di fronte alla dura realtà.
Dire che gli incrementi con lo SLI non sono elevati mi sembra esagerato.
Con 169.09 in Dx10 si guadagna dal 50 al 70% con Crysis con una 8800GT, a seconda della risoluzione.
In Dx9 dal 25 al 65%.
Certo, è antieconomico come tutti i sistemi multi schede (o multi gpu), ma è pur sempre meglio dello 0% d'incremento :-)
sesshoumaru
04-12-2007, 10:00
Bah, io ci giocherò tra tre-quattro anni, con un pc che pagherò mille euro, e che farà millemila fps a 3200x1800...
Dì pure 300 euro.
Prendi uno sparatutto di 4 anni fa e vedrai che con un pc da 300 euro ci giochi benone.
avvelenato
04-12-2007, 10:11
Il problema non è la scheda grafica in sè, ma il multi core, che da quel che si vede è praticamente inattivo. Tutto il peso grava alla fine e per forza sulla gpu.
Ecco, proprio la mancanza dello sfruttamento dei multicore è la vera pecca del gioco. Già, se il secondo core si preoccupasse soltanto della fisica si alleggerirebbe il tutto di un buon 30%e si eviterebbero i vistosi cali ad ogni esplosione che si verificano ora.
E' inattivo perché il gioco non è cpu-bound.
Forse la gente non ha ben chiara la distinzione tra gpu e cpu, e fa confusione anche in conseguenza dell'hype scatenatosi con le soluzioni gpgpu (che non possono in alcun modo sostituire la cpu né sanciscono l'intercambiabilità fra le due).
Faccio un esempio, un AI per gli scacchi che sia competitiva con un cervello di un campione come kasparov ha bisogno di un supercomputer del calibro di Deep Blue, e della scheda video se ne fa una cippalippa.
Parallelamente, per quanto l'evoluzione dell'AI nei giochi esista, essa non prosegue allo stesso ritmo dell'evoluzione grafica, e di conseguenza qualasiasi multicore e anche molti singlecore sono all'altezza per un gioco di ultima generazione come crysis. Il fatto che non sfrutti i core significa semplicemente che non ne ha bisogno.
HackaB321
04-12-2007, 10:30
Ma chissà perchè questa patch per il cf esce solo adesso....
forse la sigla TWIMTBP c'entrerà qualcosa?
rollocarmelo
04-12-2007, 10:30
killer978 COME HAI FATTO A VEDERE QUANTA MEMORIA RAM DELLA SCHEDA VIDEO UTILIZZA IL GIOCO? ESISTE UN PROGRAMMINO? POTRESTI DIRMI COME SI CHIAMA? GRAZIE
ilguercio
04-12-2007, 10:34
E' inattivo perché il gioco non è cpu-bound.
Forse la gente non ha ben chiara la distinzione tra gpu e cpu, e fa confusione anche in conseguenza dell'hype scatenatosi con le soluzioni gpgpu (che non possono in alcun modo sostituire la cpu né sanciscono l'intercambiabilità fra le due).
Faccio un esempio, un AI per gli scacchi che sia competitiva con un cervello di un campione come kasparov ha bisogno di un supercomputer del calibro di Deep Blue, e della scheda video se ne fa una cippalippa.
Parallelamente, per quanto l'evoluzione dell'AI nei giochi esista, essa non prosegue allo stesso ritmo dell'evoluzione grafica, e di conseguenza qualasiasi multicore e anche molti singlecore sono all'altezza per un gioco di ultima generazione come crysis. Il fatto che non sfrutti i core significa semplicemente che non ne ha bisogno.
Quotonissimo.Che la CPU non sia sfruttata è un conto,ma non si può certo scaricare lavoro dalla VGA e darla alla CPU.
Grave Digger
04-12-2007, 10:38
quindi era colpa di crytek.....
NO.
la colpa è solo di ati e del fatto che scrive pochi driver,spesso buggati,vedi problemi di artefatti e di stabilità dell'immagine,che spesso sfociano in instabilità del sistema durante il gioco.......
utilizzando la logica,all'indomani dell'uscita del gioco nvidia ha reso disponibili i driver ottimizzati per lo sli,quindi problemi non ce ne sono stati per nvidia,e questo esempio ne è la prova calzante...
quindi contestualizziamo.
La sigla TWIMTBP, che piaccia o no, è nella maggior parte dei giochi per Pc in commercio.
E ci sono altri giochi che, nonostante "la sigla", il Crossfire funziona.
Se Amd vuole un maggior supporto per le sue schede da parte delle sw house, basta che mette la mano al portafogli e sponsorizza anche lei.
D'altronde quando ha sponsorizzato la Valve per gli HL2, con i 7.4 beta ed i 7.5 dei Catalyst per la 2900XT, c'era il bug del rendering della nebbia.
nonikname
04-12-2007, 11:11
poi non capisco come mai anche mettendo le texture su High la Vram occupata non superi mai i 250/280mb, i 512mb della mia VGA sono sempre al 50% liberi problema simile a Oblivion, sembra quasi che sto gioco fosse pensato x le console che hanno meno Gddr!!! speriamo in una patch riparatrice.
A volte sento dire che il livello X del gioco Y non viene caricato tutto sulla ram dell VGA... e questa è un emerita idiozia...
Di solito i programmatori fanno in modo di caricare tutto il livello nella ram di sistema e nella ram della scheda video ci va solo il frame in esecuzione in quel momento ...
Quando il livello è enorme tipo Oblivion , Stalker o Crysis , l'engine fa in modo di recuperare le texture e i vertici del livello dall'hard Disk ... quindi in questi VG c'è uno Streaming e una decompressione in Real-Time delle Texture ogni qual volta il nostro avatar va in qualche direzione...
Ricapitolando , la Vram occupata è solamente quella necessaria a visualizzare quel frame in quel determinato momento a quella determinata risoluzione... Se la risoluzione non è superiore a 1280x720 AA4x e AF8X , 256Mb di Vram bastano e avanzano
E' inattivo perché il gioco non è cpu-bound.
Attenzione, Crytek aveva detto che la cpu migliore per giocare a Crysis era un quad core, invece si vede che tra due e quattro core la differenza è inutile, perchè come dici tu il gioco è gpu bound. Il gioco (ho visto una recensione che non ricordo, se la ritrovo la posto) si accorge dei 4 core e distribuisce il lavoro a tutti, ma risultano tutti sotto-utilizzati invece che magari avere 2 core sfruttati al 100%.
Ok, mi sa bene, già è qualcosa avere un gioco che mi sfrutti il dual core, ma allora perchè vendere Crysis come ottimizzato per Quad Core? ;)
Ti anticipo, da quanto mi ha detto un utente (di cui, mi perdoni, non ricordo il nick e non vado a tentativi per non attribuire ad altri la cosa) Crytek butterà fuori una patch per sfruttare le SS4, che guarda caso sono disponibili solo su cpu QC, Intel e Amd. Spiegata la sparata e il perchè la gente si aspettava che avere 4 core avesse portato a miglioramenti di prestazioni in Crysis.
Grave Digger
04-12-2007, 11:24
Attenzione, Crytek aveva detto che la cpu migliore per giocare a Crysis era un quad core, invece si vede che tra due e quattro core la differenza è inutile, perchè come dici tu il gioco è gpu bound. Il gioco (ho visto una recensione che non ricordo, se la ritrovo la posto) si accorge dei 4 core e distribuisce il lavoro a tutti, ma risultano tutti sotto-utilizzati invece che magari avere 2 core sfruttati al 100%.
Ok, mi sa bene, già è qualcosa avere un gioco che mi sfrutti il dual core, ma allora perchè vendere Crysis come ottimizzato per Quad Core? ;)
Ti anticipo, da quanto mi ha detto un utente (di cui, mi perdoni, non ricordo il nick e non vado a tentativi per non attribuire ad altri la cosa) Crytek butterà fuori una patch per sfruttare le SS4, che guarda caso sono disponibili solo su cpu QC, Intel e Amd. Spiegata la sparata e il perchè la gente si aspettava che avere 4 core avesse portato a miglioramenti di prestazioni in Crysis.
ah,dunque la questione quadcore non è archiviata del tutto???ci si sta adoperando in tal senso per fare in modo che il gioco li sfrutti nell'immediato???
bene,la cosa mi fa veramente piacere,io ero rimasto fermo a "la cazzata più grossa del secolo l'ha sparata Crytek" :asd: .....
ah,dunque la questione quadcore non è archiviata del tutto???ci si sta adoperando in tal senso per fare in modo che il gioco li sfrutti nell'immediato???
bene,la cosa mi fa veramente piacere,io ero rimasto fermo a "la cazzata più grossa del secolo l'ha sparata Crytek" :asd: .....
Così mi ha detto qualcuno, non ricordo se sul thread di Crysis o in Schede Video. Di fatto però si parla di sfruttamento delle SS4 più che dei 4 core.
Dipende anche da cosa viene "caricato" a quella risoluzione.
Ci sono già parecchi giochi oggi, che a 1280x1024, senza AA, usano più di 256Mb di memoria.
CoH, World in Conflict, Crysis, Colin Mcrae:Dirt, giusto per citarne qualcuno, usano più di 256Mb.
Di certo quelli che escono nei prossimi mesi non potranno essere più "leggeri".
I driver sono tutto, la mia nvidia si pianta ogni 4*2 e qunado esco trovo 10 messaggi di driver fatti riaprtire... un calvario mentre giochi.
Per il momento fanno quello che possono, secondo me permettere sli e cross per chi ce l'ha sia perfetto, almeno non si tien lì tutto a far polvere.
Conan_81
04-12-2007, 11:37
assurdo.. ho appena montato un pc ad un cliente con due 8800gtx, e a 1280x1024, fsaa 4x e dettagli alti, non si riesce a tenere i 30fps..
La scelta migliore e' la mia: Aspettare inizio 2008 per cambiare vga e giocarci ( anche se sono 3 anni che aspetto questo gioco, ma proprio per questo me lo voglio godere al max )
Gioco buggato, driver delle vga non ottimizzati. Ci vorra' ancora 1 mesetto per avere gioco e driver ottimizzati.
Solo allora vedro' come va con le nuove vga in SLi, o se dovro' aspettare ( come immagino ) la futura TOP nvidia D9E
rollocarmelo
04-12-2007, 12:08
MA QUALCUNO LA SA DARE UNA RISPOSTA PRECISA RIGUARDO LA RAM????????????????? A 1280X1024 CON AA4X BASTANO SI O NO 256MB DI RAM???. SE COSì NON FOSSE STATO AVREBBE ANCORA SENSO FAR USCIRE SCHEDE VIDEO CON 256MB(VEDI 8800GT)???
RISPONDETEMIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII!!!!!! :) QUI C'è GENTE CHE DEVE DECIDERE COSA ACQUISTARE!!!:)
Qui servono patch per il gioco in se (CON 1 SCHEDA) e non per l'SLI ! Avrà anche la grafica più complessa mai prodotta ma le prestazioni sono troppo sotto la media.... almeno in 1280X720 (dettaglio Ultra) il gioco DEVE girare a 30fps con una 8800.
quotissimo :D infatti in primis è prevista una patch a prescindere dal CF/SLI altrimenti siamo rovinati
E' inattivo perché il gioco non è cpu-bound.
Forse la gente non ha ben chiara la distinzione tra gpu e cpu, e fa confusione anche in conseguenza dell'hype scatenatosi con le soluzioni gpgpu (che non possono in alcun modo sostituire la cpu né sanciscono l'intercambiabilità fra le due).
Faccio un esempio, un AI per gli scacchi che sia competitiva con un cervello di un campione come kasparov ha bisogno di un supercomputer del calibro di Deep Blue, e della scheda video se ne fa una cippalippa.
Parallelamente, per quanto l'evoluzione dell'AI nei giochi esista, essa non prosegue allo stesso ritmo dell'evoluzione grafica, e di conseguenza qualasiasi multicore e anche molti singlecore sono all'altezza per un gioco di ultima generazione come crysis. Il fatto che non sfrutti i core significa semplicemente che non ne ha bisogno.
Guarda, non mi ritengo un programmatore e quindi mi baso su ciò che leggo, su benchmark, sulle poche conoscenze hardware che ho accumulato negli anni, però credo sia un pò azzardato dire che crysis non abbia bisogno di sfruttare i core supplementari al primo. Ok, le gpgpu non c'entrano nulla e siamo tutti d'accordo, però è un dato di fatto che la fisica e la ia dei nemici è gestita dalla cpu in questo caso, e come tale è un grossissimo peso che si va ad accumulare ai già dispendiosi calcoli che la cpu fa per gestire ram, sistema operativo e interscambio dati.
Com'è possibile che non si sia appoggiati al secondo core almeno?
Questi test parlano chiaro,le cpu lavorano in serie e non in parallelo, in pratica, indipendentemente dall'ordine ne lavora una sola.
http://www.tomshw.it/game.php?guide=20071116&page=crisys_demo_vs_full-01
xroccarmelo: se disabiliti il Caps Lock è più facile che ti rispondano :-)
In ogni caso, troverai giochi a cui bastano 256Mb di memoria video, oggi, come tra alcuni mesi.
Ma visto che la differenza di prezzo è minima, per esempio tra 3850 256Mb e 512Mb sono 25 euro circa, meglio avere più memoria.
però credo sia un pò azzardato dire che crysis non abbia bisogno di sfruttare i core supplementari al primo.
non è ke non ne abbia bisogno ma se tu inizi ad andare oltre 1280x1024 è stato provato che praticamente la cpu non conta...
se però alla cpu venissero affidati meglio alcuni compiti nessuno si lamenterebbe...questo è certo :D
crysis non supporta la distribuzione ramificata del codice ai core...questo è il vero problema,è alla base...non so se una patch può risolvere una cosa del genere...
HackaB321
04-12-2007, 12:45
La sigla TWIMTBP, che piaccia o no, è nella maggior parte dei giochi per Pc in commercio.
E ci sono altri giochi che, nonostante "la sigla", il Crossfire funziona.
Se Amd vuole un maggior supporto per le sue schede da parte delle sw house, basta che mette la mano al portafogli e sponsorizza anche lei.
D'altronde quando ha sponsorizzato la Valve per gli HL2, con i 7.4 beta ed i 7.5 dei Catalyst per la 2900XT, c'era il bug del rendering della nebbia.
Quello di HL2 era un bug. Questo non è un bug, è concorrenza sleale. E' evidente da come sono andate le cose che Crytek ha iniziato a collaborare con ATI per lo sviluppo di drivers solo a gioco uscito. E non mi rispondere che Crytek collabora con chi vuole per lo sviluppo del gioco, perchè se in futuro i giochi funzioneranno solo sulle schede della marca che paga a rimetterci sarà solo la concorrenza del mercato e quindi noi consumatori.
Quello di HL2 era un bug. Questo non è un bug, è concorrenza sleale. E' evidente da come sono andate le cose che Crytek ha iniziato a collaborare con ATI per lo sviluppo di drivers solo a gioco uscito. E non mi rispondere che Crytek collabora con chi vuole per lo sviluppo del gioco, perchè se in futuro i giochi funzioneranno solo sulle schede della marca che paga a rimetterci sarà solo la concorrenza del mercato e quindi noi consumatori.
io non la definirei concorrenza sleale...perchè non credo che Crytek o altri sviluppatori abbiano tali pressioni da dover scegliere nvidia sempre e cmq...lo fanno semplicemente perchè lo vogliono e perchè è chiaro a questo punto che hanno dei vantaggi economici maggiori...quindi direi soltanto che se io fossi sviluppatore farei solo dei buoni giochi per le Api Directx punto e basta...senza favorire nè l'uno nè l'altro...questo denota serietà...perciò non andrei contro quelli di Nvidia sol perchè sono furbi... :D la colpa è degli sviluppatori,sono loro che ci stanno mettendo in difficoltà,non Nvidia che fa quello ke deve fare...ciò come in tutte le cose avviene sempre per questione di soldi...
avvelenato
04-12-2007, 13:12
Guarda, non mi ritengo un programmatore e quindi mi baso su ciò che leggo, su benchmark, sulle poche conoscenze hardware che ho accumulato negli anni, però credo sia un pò azzardato dire che crysis non abbia bisogno di sfruttare i core supplementari al primo. Ok, le gpgpu non c'entrano nulla e siamo tutti d'accordo, però è un dato di fatto che la fisica e la ia dei nemici è gestita dalla cpu in questo caso, e come tale è un grossissimo peso che si va ad accumulare ai già dispendiosi calcoli che la cpu fa per gestire ram, sistema operativo e interscambio dati.
Com'è possibile che non si sia appoggiati al secondo core almeno?
Questi test parlano chiaro,le cpu lavorano in serie e non in parallelo, in pratica, indipendentemente dall'ordine ne lavora una sola.
http://www.tomshw.it/game.php?guide=20071116&page=crisys_demo_vs_full-01
posso ipotizzare che semplicemente il programma non richiedeva potenza computazionale tanto elevata da indurre lo scheduler a far andare tutti i core in parallelo, poi sta ad esso (lo scheduler) a gestire i threads e associare a ciascuno il core di esecuzione, mi sembra anzi una scelta logica far eseguire un thread a un core e un thread ad un altro, per meglio distribuire il carico termico.
l'alternativa infatti quale sarebbe stata? eseguire alcuni thread in contemporanea su tutti e 4 i core, e poi andare in idle per un po' in attesa del rendering, poi ancora, thread in contemporanea sui core, idle, ecc..
forse ci si dimentica delle grandezze in gioco, ad esempio, un gioco che va a 45fps, ebbene, in ogni frame una cpu da 2ghz esegue più di 44 milioni di cicli. Quindi mentre la scheda video deve renderizzare un frame in base ai calcoli e dati provenienti dalla cpu, la stessa deve calcolare i nuovi dati per il prossimo frame. inutile dire che in un sistema quad core la cpu se la viaggia tranquilla.
per DjLode: è chiaro che la boutade di Crytek è stata solo o un operazione di marketing ben pagata, oppure una mossa per gettare hype e associare il videogioco ad una nuova tecnologia sulla bocca dei tutti.
Così mi ha detto qualcuno, non ricordo se sul thread di Crysis o in Schede Video. Di fatto però si parla di sfruttamento delle SS4 più che dei 4 core.
In un thread in Schede Video, se non erro era appleroof. :)
La sw house non è tenuta a collaborare proprio con nessuno.
Se viene Nvidia e mi finanzia, uso le sue schede video, tra l'altro le uniche Directx10 al tempo disponibili, per sviluppare il gioco.
Quindi, almeno ai primi tempi, soffriranno di minori peccati di gioventù.
Quindi dire "Crytek non ha collaborato con Ati" è una tua forzatura.
Così come dire "il mancato supporto Crossfire è concorrenza sleale".
Cmq, bug o no di HL2, avrebbero potuto avere maggior cura del loro gioco, su questo non ci piove.
MA QUALCUNO LA SA DARE UNA RISPOSTA PRECISA RIGUARDO LA RAM????????????????? A 1280X1024 CON AA4X BASTANO SI O NO 256MB DI RAM???. SE COSì NON FOSSE STATO AVREBBE ANCORA SENSO FAR USCIRE SCHEDE VIDEO CON 256MB(VEDI 8800GT)???
RISPONDETEMIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIIII!!!!!! :) QUI C'è GENTE CHE DEVE DECIDERE COSA ACQUISTARE!!!:)
Se continui ad urlare col cavolo che qualcuno ti aiuta... :rolleyes:
Gurzo2007
04-12-2007, 15:03
@Conan_81
basta portare l'aa da 4x a 2x...con due gtx non penso ke il cliente giochi a 1280x1024..per cui un aa altro non serve molto a certe risoluzioni...
@Conan_81
basta portare l'aa da 4x a 2x...con due gtx non penso ke il cliente giochi a 1280x1024..per cui un aa altro non serve molto a certe risoluzioni...
infatti piuttosto prova se puoi ad aumentare la risoluzione e toglierlo proprio l'aa...eh bisogna vedere se il monitor ke hai lo permette e soprattutto quello del cliente... :D
killer978
04-12-2007, 17:29
killer978 COME HAI FATTO A VEDERE QUANTA MEMORIA RAM DELLA SCHEDA VIDEO UTILIZZA IL GIOCO? ESISTE UN PROGRAMMINO? POTRESTI DIRMI COME SI CHIAMA? GRAZIE
Con Ati Tray Tool attivi il Flash OSD, lo devi prima configurare ovviamente, con un semplice click nei giochi puoi far uscire quanta Ram viene occupata, le frequenze di GPU e GDDR, la velocità della ventola VGA e tutte le temperature comprese quelle della MB e CPU oltre ai frames x sec ;) è una bella utility , mentre con la G15 vedo la % dei core occupati + la Ram di sistema ;)
Qui servono patch per il gioco in se (CON 1 SCHEDA) e non per l'SLI ! Avrà anche la grafica più complessa mai prodotta ma le prestazioni sono troppo sotto la media.... almeno in 1280X720 (dettaglio Ultra) il gioco DEVE girare a 30fps con una 8800.
Quoto cavolo, spero che l'incremento non ci sia solo sullo SLI, comunque prenderò D9E all'uscita ma ora non me la sento certo di prendere una 780i appena uscita per fare uno SLI, di sicuro non passo da X38 a 680i, perciò ora come ora escludo proprio lo sli come una mia possibilità, vediamo cosa sanno fare con scheda singola. Io sto aspettando a giocarmelo sto gioco, voglio aspettare di poterlo fare girare decentemente. :rolleyes:
x.vegeth.x
04-12-2007, 19:45
configurazioni SLI basate su schede NVIDIA GeForce. Al momento attuale, infatti, con queste ultime si ottengono interessanti incrementi prestazionali
ma dove sono sti incrementi interessanti in sli con crysis? :mbe:
Faustinho DaSilva
04-12-2007, 20:08
Quello di HL2 era un bug. Questo non è un bug, è concorrenza sleale. E' evidente da come sono andate le cose che Crytek ha iniziato a collaborare con ATI per lo sviluppo di drivers solo a gioco uscito. E non mi rispondere che Crytek collabora con chi vuole per lo sviluppo del gioco, perchè se in futuro i giochi funzioneranno solo sulle schede della marca che paga a rimetterci sarà solo la concorrenza del mercato e quindi noi consumatori.
nelle varie interviste l'amministratore delegato parlava del gioco vicino a una pc cn procio intel e sk video nvidia 8800 hi hi hi chissà cm mai
nelle varie interviste l'amministratore delegato parlava del gioco vicino a una pc cn procio intel e sk video nvidia 8800 hi hi hi chissà cm mai
si ma che cosa triste però...ribadisco
rollocarmelo
04-12-2007, 21:05
Grazie Killer!!!!!!!!!!!!!!!!
Conan_81
05-12-2007, 01:59
infatti io con la 2900xt gioco con tutti i giochi a 1680x1050 senza AA, perché è abbastanza inutile (per carità.. se vedo che i frame superano i 75, non ci penso due volte ad abilitarlo).
p.s.: sul mio ovviamente 1680 è proibitivo su crysis u_U (se calano sensibilmente i prezzi delle 3870, farci un CF dovrebbe essere un affarone!)
L'ottimizzazione da lato driver è una componente fondamentale per il corretto funzionamento delle tecnologie multi-GPU, ed è per questo motivo che sia AMD che NVIDIA dedicano molte risorse allo sviluppo software soprattutto quanto vengono rilasciati titoli così importanti come Crysis.
per favore la finite di prenderci per il cù!o??? :mad:
c'era da spingere Vista, c'era da dare un senso a chi aveva acquistato una scheda video DX10 da più di anno, c'era questo giochillo che metteva a tacere tutti ma non era pronto, è uscito com'è uscito, cioè da far pena, e adesso cercano di riparare i guai in qualche maniera.
quando leggo certe notizie mi viene il vomito
e il bello è che ha preso voti altissimi da tutti i recensori...che bel mondo che è venuto quello dei videogame...quasi come la politica italiana e l'informazione...cioè una emerita stronzata...dove conta e và avanti solo chi foraggia e viene foraggiato!!
io intanto ho stoppato di giocarci , epr giocare a The Witcher...questo sì un GRAN GIOCO, nonostante i limiti dell'engine!!
altro che Yarli e soci e le loro sparate del cavolo...mi spiace solo che lo avevo preordinato mesi fà...altrimenti col cavolo che lo prendevo....specie dopo la Demo....anche questa rilasciata con il primo livello dove fai gli FPS massimi (ovvio non c'è un caxxo)...in avanti questi crollano miseramente...bah!
killer978
05-12-2007, 20:13
e il bello è che ha preso voti altissimi da tutti i recensori...che bel mondo che è venuto quello dei videogame...quasi come la politica italiana e l'informazione...cioè una emerita stronzata...dove conta e và avanti solo chi foraggia e viene foraggiato!!
io intanto ho stoppato di giocarci , epr giocare a The Witcher...questo sì un GRAN GIOCO, nonostante i limiti dell'engine!!
altro che Yarli e soci e le loro sparate del cavolo...mi spiace solo che lo avevo preordinato mesi fà...altrimenti col cavolo che lo prendevo....specie dopo la Demo....anche questa rilasciata con il primo livello dove fai gli FPS massimi (ovvio non c'è un caxxo)...in avanti questi crollano miseramente...bah!
The Witcher il + bel gioco che ho giocato negli ultimi anni (e li ho giocati propio tutti :asd: ) non è esente da problemi neanche lui ma la storia e il gameplay è qlcs di eccezionale sembra un film con continui colpi di scena , davvero bello :D dvrebbero prendere spunto da giochi simili, e pensare che non ha preso voti alti quasi da nessuna parte :rolleyes:
cmq ragazzi Crysis se aggiungete questo nel file system.cfg
con_restricted = 0
r_motionblur = 0
G_radialBlur = 0
G_dof_ironsight = 0
diventa mooolto + leggero, io mi sto divertendo davvero tanto, la storia non è un granche ma quando si attacca le pattuglie nella giungla è troppo figo, ti fa sentire un rambo della situazione :asd: a volte ricarico un salvataggio x ricominciare il massacro magari utilizzando tattiche diverse :asd: l'importante è non andare sotto i 23fps
bYz!
nico155bb
06-12-2007, 02:07
Con Ati Tray Tool attivi il Flash OSD, lo devi prima configurare ovviamente, con un semplice click nei giochi puoi far uscire quanta Ram viene occupata, le frequenze di GPU e GDDR, la velocità della ventola VGA e tutte le temperature comprese quelle della MB e CPU oltre ai frames x sec ;) è una bella utility , mentre con la G15 vedo la % dei core occupati + la Ram di sistema ;)
scusate l'OT
e per le schede Nvidia??:)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.