View Full Version : ForceWare 61.11 e FarCry: nuovo cheat di NVidia??
Colin McRae
05-05-2004, 11:37
Mi rivolgo direttamente a Paolo e Raffaele:
Avete notato moglioramenti sospetti nel gioco FarCry, passando dai Forceware 60.72 ai 61.11?
Su Chip.de (http://www.chip.de/news/c_news_11844422.html) sostengono di aver avuto un miglioramento da 23 a 40,3 fps, passando dalla GeForce 6800 Ultra con i 60.72, alla GeForce 6800 Ultra Extreme Edition con i 61.11 (tutto a 1.600 x 1.200 Pixel, 32 Bit, 4xAA und 8xAF). Insospettiti da questo grosso miglioramento, hanno fatto la seguente prova (cito):
'Benennt man jedoch die Datei "FarCry.EXE" beispielsweise in "FartCry.EXE" um, verschlechtert sich das Ergebnis des Benchmarks in den Auflösungen von 1.024 x 768, 1.280 x 1.024 und 1.600 x 1.200 Pixel um jeweils 10 Bilder pro Sekunde (!). '
E traduco:
'Se si rinomina il file "FarCry.EXE" in, per esempio, "FartCry.EXE", il risultato dei Benchmark alle risoluzioni di 1.024 x 768, 1.280 x 1.024 e 1.600 x 1.200 Pixel peggiora di 10 fps (!). '
Commenti e esperienza al riguardo da parte vostra?
Legolas84
05-05-2004, 11:45
Ma anche se ci fossero delle cheat sinceramente la qualità è tornata alta (si vedono tutti gli effetti degli shader) e gli FPS aumentati.... quindi io dico ottimo!
bart noel
05-05-2004, 11:45
Originariamente inviato da Colin McRae
Mi rivolgo direttamente a Paolo e Raffaele:
Avete notato moglioramenti sospetti nel gioco FarCry, passando dai Forceware 60.72 ai 61.11?
Su Chip.de (http://www.chip.de/news/c_news_11844422.html) sostengono di aver avuto un miglioramento da 23 a 40,3 fps, passando dalla GeForce 6800 Ultra con i 60.72, alla GeForce 6800 Ultra Extreme Edition con i 61.11 (tutto a 1.600 x 1.200 Pixel, 32 Bit, 4xAA und 8xAF). Insospettiti da questo grosso miglioramento, hanno fatto la seguente prova (cito):
'Benennt man jedoch die Datei "FarCry.EXE" beispielsweise in "FartCry.EXE" um, verschlechtert sich das Ergebnis des Benchmarks in den Auflösungen von 1.024 x 768, 1.280 x 1.024 und 1.600 x 1.200 Pixel um jeweils 10 Bilder pro Sekunde (!). '
E traduco:
'Se si rinomina il file "FarCry.EXE" in, per esempio, "FartCry.EXE", il risultato dei Benchmark alle risoluzioni di 1.024 x 768, 1.280 x 1.024 e 1.600 x 1.200 Pixel peggiora di 10 fps (!). '
Commenti e esperienza al riguardo da parte vostra?
:rotfl: :rotfl: :rotfl: :rotfl:
sgammati un'altra volta :sofico:
evidentemte lo z-culling non funzona con farcry, in questa release hanno implementato una routine per farlo funzionare solo su farcry, quindi per questo rinominandolo non va.
questo imho
Thunder82
05-05-2004, 11:48
Originariamente inviato da Colin McRae
Mi rivolgo direttamente a Paolo e Raffaele:
Avete notato moglioramenti sospetti nel gioco FarCry, passando dai Forceware 60.72 ai 61.11?
Su Chip.de (http://www.chip.de/news/c_news_11844422.html) sostengono di aver avuto un miglioramento da 23 a 40,3 fps, passando dalla GeForce 6800 Ultra con i 60.72, alla GeForce 6800 Ultra Extreme Edition con i 61.11 (tutto a 1.600 x 1.200 Pixel, 32 Bit, 4xAA und 8xAF). Insospettiti da questo grosso miglioramento, hanno fatto la seguente prova (cito):
'Benennt man jedoch die Datei "FarCry.EXE" beispielsweise in "FartCry.EXE" um, verschlechtert sich das Ergebnis des Benchmarks in den Auflösungen von 1.024 x 768, 1.280 x 1.024 und 1.600 x 1.200 Pixel um jeweils 10 Bilder pro Sekunde (!). '
E traduco:
'Se si rinomina il file "FarCry.EXE" in, per esempio, "FartCry.EXE", il risultato dei Benchmark alle risoluzioni di 1.024 x 768, 1.280 x 1.024 e 1.600 x 1.200 Pixel peggiora di 10 fps (!). '
Commenti e esperienza al riguardo da parte vostra?
Semplicemente rinominando l'exe la scheda esegue gli shader come Dio comanda, e non usando fp16 e ps 1.x ;)
Originariamente inviato da checo
evidentemte lo z-culling non funzona con farcry, in questa release hanno implementato una routine per farlo funzionare solo su farcry, quindi per questo rinominandolo non va.
questo imho
Trovo veramente strano che SOLO (a parte XGI :D ) nvidia usi il detect...
Originariamente inviato da Thunder82
Semplicemente rinominando l'exe la scheda esegue gli shader come Dio comanda, e non usando fp16 e ps 1.x ;)
servirebbe un analisi qualitativa di questa ottimizzazione, che senza pensare male lavorerebbe solo sullo z-culling e non sugli shader
Originariamente inviato da pandyno
Trovo veramente strano che SOLO (a parte XGI :D ) nvidia usi il detect...
per esperienza personale quando programmi un algoritmo qualsiasi e ti si presenta un caso particolare dove non funziona a pochi giorni dalla consegna è un casino. Magari provi a rifarlo ma vedi che ti creerebbe problemi anche dove prima funzionava, quindi ne fai uno specifico per il caso particolare e poi ci metti un bel if in testa, questo è quello che ho fatto io più volte.
poi a pensar male si fa sempre tempo
Originariamente inviato da checo
poi a pensar male si fa sempre tempo
Io sapevo che a pensar male ci si prende sempre :D ;)
Originariamente inviato da pandyno
Io sapevo che a pensar male ci si prende sempre :D ;)
infatti io non penso male :D
Originariamente inviato da Legolas84
Ma anche se ci fossero delle cheat sinceramente la qualità è tornata alta (si vedono tutti gli effetti degli shader) e gli FPS aumentati.... quindi io dico ottimo!
Hai ragione, si vedono tutti gli effetti e senza problemi :http://www.hardocp.com/article.html?art=NjExLDQ=
in particolare qua (http://www.hardocp.com/image.html?image=MTA4MzU2NDE4OTg4OEFkazcwdGVfNF80X2wuanBn)
oppure qua (http://www.hwupgrade.it/articoli/1013/15.html)
Che abbiano migliorato, ok, ma che la qualità sia buona mi sembra voler far finta di nulla...
Quindi una vera e propria scelta, minor qualità perché altrimenti usare veramente gli shader 3.0 (e quindi di riflesso anche i 2.0) avrebbe un impatto troppo elevato sugli fps.
:rotfl: :rotfl: :rotfl: HAHAHAHAHAHHA FART-CRY ma in inglese vuol dire scorreggiare dal piangere :D :rotfl: :rotfl: :rotfl:
Originariamente inviato da sslazio
:rotfl: :rotfl: :rotfl: HAHAHAHAHAHHA FART-CRY ma in inglese vuol dire scorreggiare dal piangere :D :rotfl: :rotfl: :rotfl:
oppure piangere dalle scorregge :D :sofico:
Legolas84
05-05-2004, 12:26
Originariamente inviato da street
Hai ragione, si vedono tutti gli effetti e senza problemi :http://www.hardocp.com/article.html?art=NjExLDQ=
in particolare qua (http://www.hardocp.com/image.html?image=MTA4MzU2NDE4OTg4OEFkazcwdGVfNF80X2wuanBn)
oppure qua (http://www.hwupgrade.it/articoli/1013/15.html)
Che abbiano migliorato, ok, ma che la qualità sia buona mi sembra voler far finta di nulla...
Quindi una vera e propria scelta, minor qualità perché altrimenti usare veramente gli shader 3.0 (e quindi di riflesso anche i 2.0) avrebbe un impatto troppo elevato sugli fps.
Per quello basta forzare la modalità FP32..... quelli shot sono in FP16.....
Se forzi FP32 la qualità è leggermente meglio di ATi che lavora in FP24 e si perdono CIRCA 10Fps rispetto alla modalità FP 16
Originariamente inviato da pandyno
Trovo veramente strano che SOLO (a parte XGI :D ) nvidia usi il detect...
Ne sei proprio sicuro?
I fix per i giochi come credi che vengano applicati se non attraverso la detenzione dell'applicazione?
powerslave
05-05-2004, 12:30
Originariamente inviato da sslazio
:rotfl: :rotfl: :rotfl: HAHAHAHAHAHHA FART-CRY ma in inglese vuol dire scorreggiare dal piangere :D :rotfl: :rotfl: :rotfl:
...scorreggiare dal piangere no...
:rotfl: :rotfl: :rotfl: mi stai facendo scompisciare:rotfl: :rotfl:
Originariamente inviato da ballero
Ne sei proprio sicuro?
I fix per i giochi come credi che vengano applicati se non attraverso la detenzione dell'applicazione?
Ah si e come mai rinominando gli exe i risultati di ATI non cambiano? ;)
Originariamente inviato da pandyno
Ah si e come mai rinominando gli exe i risultati di ATI non cambiano? ;)
Il bello e' che la beccano sempre a fare ste cazzate... almeno facessero delle ottimizzazioni nascoste in modo che nessuno se ne accorga.. :muro:
Originariamente inviato da pandyno
Ah si e come mai rinominando gli exe i risultati di ATI non cambiano? ;)
Perche' un fix puo' riguardare anche il singolo shader ovvero solo una parte dell'applicazione e non mi risulta che i recensori si mettano a giocare i game dall'inizio alla fine.
Perche' la detenzione puo' avvenire anche tramite Id della scheda o altro mezzo e non necessariamente tramite l'eseguibile.
Originariamente inviato da ballero
Ne sei proprio sicuro?
I fix per i giochi come credi che vengano applicati se non attraverso la detenzione dell'applicazione?
detenzione? agli arresti domiciliari? :D
:)
Far Cry aveva un problema per il quale disabilitava lo Z Cull. Il driver ha semplicemente corretto un bug di Far Cry, ed ovviamente deve sapere quale applicazione e' in esecuzione per poter applicare la patch. Ad averne gente che lavora per correggere i tuoi bachi.
Originariamente inviato da ballero
Perche' un fix puo' riguardare anche il singolo shader ovvero solo una parte dell'applicazione e non mi risulta che i recensori si mettano a giocare i game dall'inizio alla fine.
Perche' la detenzione puo' avvenire anche tramite Id della scheda o altro mezzo e non necessariamente tramite l'eseguibile.
Sai bene quanto me che di questi giochetti se ne sono visti fin troppi, tutti errori di programmazione delle SH? ;)
Originariamente inviato da fek
Ad averne gente che lavora per correggere i tuoi bachi.
Voglio vedere, se non lo fixavano la 6800 le prendeva di brutto ;)
Nvidia è una somara....invece di evitare certe situazioni pare che se le vada a cercare.
Voi invece (la maggior parte) siete sempre in malafede...anche una volta che vi viene spiegato il perchè delle cose fate finta che non vi sia stato detto nulla.
Un pò come la qualità in Fp16....
Per me godete di queste cose:D
Originariamente inviato da R@nda
Per me godete di queste cose:D
Per carità, ma vedi secondo me nVidia questa volta non doveva dare modo a chi smanetta di vedere nulla del genere
Originariamente inviato da pandyno
Per carità, ma vedi secondo me nVidia questa volta non doveva dare modo a chi smanetta di vedere nulla del genere
Qusto era obbligatorio per lei....gia.
Per questo credo che stavolta non abbia colpe.
A meno che il lupo perde il pelo.....:Perfido:
bombardax
05-05-2004, 13:41
Originariamente inviato da R@nda
Nvidia è una somara....invece di evitare certe situazioni pare che se le vada a cercare.
Voi invece (la maggior parte) siete sempre in malafede...anche una volta che vi viene spiegato il perchè delle cose fate finta che non vi sia stato detto nulla.
Un pò come la qualità in Fp16....
Per me godete di queste cose:D
la mia malafede masce sopratutto dal fatto che nVidia è recidiva in quanto all'uso di questi trucchetti....
Originariamente inviato da bombardax
la mia malafede masce sopratutto dal fatto che nVidia è recidiva in quanto all'uso di questi trucchetti....
bhè meglio dei drivers che ottimizzano il gioco per dare il meglio che drivers generici per il gusto masochistico dello scatto malefico ;)
ma non ho capito una cosa di farcry.
Di default usa il FP16 su schede nvidia soltanto o anche sulle ATI?
Le ATi processano di defautl le istruzioni 16bit a 24bit?
Legolas84
05-05-2004, 13:56
Di default:
ATi FP24
nVidia FP16
Però si può attivare FP 32 su nVidia e perdere circa 10 Fps....
Originariamente inviato da Legolas84
Di default:
ATi FP24
nVidia FP16
Però si può attivare FP 32 su nVidia e perdere circa 10 Fps....
interessante. quindi per giocarlo al meglio mi devo accattare una delle nuove radeon?
ecco cosa scrive FEK da nvitalia
"Perche' c'e' un bug in Far Cry che disabilita lo Z Cull, e questo bug e' stato corretto nel driver. Ovviamente per poterlo correggere in maniera mirata senza andare ad intaccare altre applicazione devono sapere quale applicazione e' in esecuzione.
Avere lo Z Cull abilitato o meno porta ad una differenza mediamente dell'ordine del 25/30%."
http://www.nvitalia.com/forum/showthread.php?s=&threadid=35333
fine del mistero, nv40 con questa architettura non necessita di cheat per divorare shader;)
Legolas84
05-05-2004, 14:05
Far Cry (per ora) va meglio su ATi....
Però c'è da dire che R420 è una revision di R300 mentre NV40 è una cosa totalmente nuova... quindi imho ha un più ampio margine di miglioramento.
In ogni caso sono due valide schede entrambe.
Se vuoi ATi prendi la XT.... altrimenti è meglio la 6800GT che la 800Pro. (imho)
Cya
Legolas84
05-05-2004, 14:06
Originariamente inviato da dwfgerw
ecco cosa scrive FEK da nvitalia
"Perche' c'e' un bug in Far Cry che disabilita lo Z Cull, e questo bug e' stato corretto nel driver. Ovviamente per poterlo correggere in maniera mirata senza andare ad intaccare altre applicazione devono sapere quale applicazione e' in esecuzione.
Avere lo Z Cull abilitato o meno porta ad una differenza mediamente dell'ordine del 25/30%."
http://www.nvitalia.com/forum/showthread.php?s=&threadid=35333
fine del mistero, nv40 con questa architettura non necessita di cheat per divorare shader;)
Appunto, gli shader sono il piatto forte della nuova archittettura nVidia ;)
Originariamente inviato da pandyno
Voglio vedere, se non lo fixavano la 6800 le prendeva di brutto ;)
Chiaro, girare con ZCull non attivo porta ad un calo di prestazioni dal 25 al 30%. E' una notevole limitazione.
Originariamente inviato da Legolas84
Se vuoi ATi prendi la XT.... altrimenti è meglio la 6800GT che la 800Pro. (imho)
Cya
d'accordo su questo punto.
fascia dei 499$ la XT
fascia dei 399 la GT
fascia dei 299$ la 6800 12x1
andreamarra
05-05-2004, 14:13
Originariamente inviato da Legolas84
Appunto, gli shader sono il piatto forte della nuova archittettura nVidia ;)
Sicuro. La cosa però che a me lascia un pò perplesso è come si possa passare così "velocemente" da un uso degli shader cagosi nelle fx a shader perfetti e addirittura evoluti, i 3.0.
Ripeto, non perchè sia in mala fede ma io aspetterei prrima di prendere questo tipo di scheda. non vorrei avere sorprese dell'ultima ora che attualmente non sono preventivabili perchè non c'è software dedicato.
A proposito FEK, saputo niente riguardo le features che ti hanno spergiurato esistere nella R420??? ;)
bombardax
05-05-2004, 14:17
Originariamente inviato da sslazio
bhè meglio dei drivers che ottimizzano il gioco per dare il meglio che drivers generici per il gusto masochistico dello scatto malefico ;)
ne convieni che i driver devono migliorare le prestazioni a livello globale non per un singolo gioco...
mi sa proprio di trucchetto...
andreamarra
05-05-2004, 14:20
Originariamente inviato da Legolas84
Se vuoi ATi prendi la XT.... altrimenti è meglio la 6800GT che la 800Pro. (imho)
Cya
Dipende da che processore possiedi e da quanto verrano vendute le schede.. Se si possiede di un processore di ultima generazione la meno potente X800PRO esplode semplicemente.
Legolas84
05-05-2004, 14:21
Originariamente inviato da andreamarra
Sicuro. La cosa però che a me lascia un pò perplesso è come si possa passare così "velocemente" da un uso degli shader cagosi nelle fx a shader perfetti e addirittura evoluti, i 3.0.
Be Andrea, io penso che gli ingegneri nVidia non siano degli sprovveduti.... in fondo NV3x aveva come pecca il calo di prestazioni negli shader.... ed è proprio li che nVidia si è concentrata per migliorare la sua architettura....
Ora abbiamo una scheda che:
-Macina shader come si deve
-Applica i Filtri come la controparte ATi (peccato che abbiano adattato anche l'anisotropico perchè io preferivo quello di NV3x).
-Se la batte bene anche in performance (imho la XT era prevista per uscire tra qualche mese.... però vista la potenza di NV40 ATi l'ha anticipata e questo lo dimostra anche il fatto che ha un bassissimo margine di overclock).
-E' tecnologiacamente più evoluta
-Si overclokka molto bene
Originariamente inviato da bombardax
ne convieni che i driver devono migliorare le prestazioni a livello globale non per un singolo gioco...
mi sa proprio di trucchetto...
si hai perfettamente ragione.
Comunque è normale leggere sia da nvidia che da Ati ad ogni rilascio di nuovi drivers (per fortuna direi), non solo che sono stati corretti dei bugs nei drivers ma anche ottimizzati del 5%-10%-20% alcuni giochi.
Colin McRae
05-05-2004, 14:36
Originariamente inviato da dwfgerw
ecco cosa scrive FEK da nvitalia
Lo scrive anche qui, in questo tread, poco sopra... :p
ma i nuovi forceware 61 danno un aumento nelle performance in farTCRY :D solo per le 6800 o anche per le FX?
andreamarra
05-05-2004, 14:43
Originariamente inviato da Legolas84
Be Andrea, io penso che gli ingegneri nVidia non siano degli sprovveduti.... in fondo NV3x aveva come pecca il calo di prestazioni negli shader.... ed è proprio li che nVidia si è concentrata per migliorare la sua architettura....
Ora abbiamo una scheda che:
-Macina shader come si deve
-Applica i Filtri come la controparte ATi (peccato che abbiano adattato anche l'anisotropico perchè io preferivo quello di NV3x).
-Se la batte bene anche in performance (imho la XT era prevista per uscire tra qualche mese.... però vista la potenza di NV40 ATi l'ha anticipata e questo lo dimostra anche il fatto che ha un bassissimo margine di overclock).
-E' tecnologiacamente più evoluta
-Si overclokka molto bene
Io sono daccordo su tutto però la mia "preoccupazione" nasce su certe basi. Appena avrò visto che non si cono problemi di sorta di alcun tipo allora potrò dare il mio parere.
-Il fatto che macini shader ancora non è detto: perchè vedendo certi bench in giro (da verificare) le differenze tra una r420 e una nv40 sono disarmanti. Un test che fa usoi intensivo dei ps 2.0 mostra lacune preoccupanti. Ripeto, sono da vedere e verificare con molti altri mezzi, ma io considerando il passato starei attento. tra l'altro gli unici giochi che fino ad ora ho visto benchare e che dispongono di molti (più o meno) shader è TRAOD (non ,'ho mai visto, ma ho letto che li ha) e poi Far Cry: in entrambi i giochi (per motivi differenti, vedere il discorso driver/fp di NV40) ci sono differenze molto alte. Soprattutto a risoluzioni e filtri a palla. Mi chiedo: e se il problema fosse ancora "intrinseco" nell'architettura? E se uscissero dei giochi che fanno un uso intensivo di ps 2.0 (per i 3.0 fatti bene bisognerà aspettare e molto) e la scheda avesse dei problemi?
-filtri:_ qualitativamente adesso ci siamo davvero, non ci sono più quelle differenze tra i filtri AA ati e nvidia. Però: come non notare il calo brusco delle prestazioni della 6800Ultra con risoluzioni alte e filtri a palla? A 1024*768 la X800XT parte spesso da seconda, ma appena si alzano filtri e risoluzioni rimane granitica superando la controparte Nv40, spesso e volentieri. Da dire inoltre che il difetto della R420 (attuale) è quello di saturare la CPU in maniera vergognosa, e il modo per poter mostrare i muscoli è quella di affidarsi a una CPU di ultima generazione. A differenza di nvidia.
-la Xt doveva probabilmente uscir fra qualche mese, maggior ragione per cui non ha senso prenderla adesso data la difficoltà ad overclockare. Con l'affinamento della produzione entrambe le case avranno schede più OC. Con un punto per ati perchè avrà dalla sua il ,.ow-k che non è da dimenticare. In più per uno smanettone la ati è una manna dal cielo, essedno molto più esosa la controparte NV40 (dati alla mano).
-il fatto di essere tecnologicamente molto avanzata è un grande pregio, soprattutto dal punto di vista dei programmatori e del marketing. La scelta di ati io la ritengo "infelice" ma tutto sommato corretta perchè non ha senso spendere miliardi e miliardi in un progetto che non aveva bisogno di essere rinnovato. Dal punto di vista prettamente di durata in questo senso la Nv40 dovrebbe essere avvantaggiata. Dico avvantaggaita perchè quando gli shader 3.0 si affineranno in tutto e per tutto saranno già usciti NV50 e R500, con il vantaggio da parte di nvidia di avere già un prgetto "a prima vista" ineccepibile. Dico "a prima vista" perchè potrebbe essere che il progetto (anche se gli ingegneri non sono degli sprovveduti, ma essendo umani...) sia corretto per certi versi e terribilmente sbagliato per altri. non sappiamo a lungo andare cosa può proporre di ottimo la NV40 e cosa di non buono. Per me è ancora un terno al lotto mica da ridere. Insomma, non si ripeterà un caso FX, però mai dire mai. Un errore attualmente invisibile potrebbe fuoriuscire tra qualche mese e minare la scheda stessa, anche se credo sia difficilissimo. Lo stesso può capitare ad ATi, con la differenza che sarà molto più difficile essendo la R420 il seguito con qualche aggiunta interessante dell'ottimo R3X0.
-sull'overclok è corretto, ma certamente i primi modelli non sono affinati da una parte e dall'altra. In questo senso c'è solo da migliorare da una parte e dall'altra.
Insomma, praticament i pregi indiscutibili della NV40 a mio giudizio sono interessanti ma devono essere controllati maggiormente per evitare insorgere di situazioni grottesche.
da chiarire cmq che i famigerati shader 3.0 introdotti dalla NV40 ci sono esattamente anche nella R420. Con la differenza della mancanza nella scheda ati del dynamic branching che allo stato attuale serve solo per i programmatori per prendere confidenza (brava nvidia in questo) ma che attualmente e per molto tempo non potranno essere utilizzati questi dynamic branching a causa delle prestazioni inizialmente penose. in pratica in branching dovrebbe garantire di "saltare" determinate istruzioni per rendere il ps 2.0 più veloce (i ps 3.0 infatti -che devono lavorare a fp24 o 32... altro motivo per cui aspetto altri test sulle scehde nvidia- servono per snellire le istruzioni non per aumentare la qualità).
inoltre aspetto ancora da Fek la conferma o meno della mancanza di una unità fetch vertex nel chip R420. Se mancasse sarebbe una mancanza grave.
Originariamente inviato da andreamarra
A proposito FEK, saputo niente riguardo le features che ti hanno spergiurato esistere nella R420??? ;)
Se il texture fetch nei vertex shader c'e'... io non lo trovo...
Originariamente inviato da fek
Se il texture fetch nei vertex shader c'e'... io non lo trovo...
Ma a che serve?
:mbe:
Originariamente inviato da fek
Far Cry aveva un problema per il quale disabilitava lo Z Cull. Il driver ha semplicemente corretto un bug di Far Cry, ed ovviamente deve sapere quale applicazione e' in esecuzione per poter applicare la patch. Ad averne gente che lavora per correggere i tuoi bachi.
e luce fu!!!
cmq è come dicevo io non ci vedo nulla di male, vorrei vedere però un analsi qualitativa con exe normale e rinominato
Originariamente inviato da fek
Se il texture fetch nei vertex shader c'e'... io non lo trovo...
Torna a cercare Fek, impegnati però!! :mc: :p
Non mi interessano i trucchetti, non mi interessano i 5 frame in + ne tantomeno i 5 in meno, non mi interessano dei 40 fps in meno quando abilito l'AA e L'aniso se ne ho già 160.
Ora ho una ati 9800 pro presa a natale e x tanto che non mi da nessun problema e viaggia come una bestia, non vedo l'ora di tornare a nVidia (come posso rinunciare alla combinazione di tasti Ctrl+T per abilitare la stereoscopia) questa sarà la scheda video che terrò meno, x natale mi faccio una nuova Gf fx!
Non mi garbano proprio i driver ati, anche se sono buoni, è il feeling e la veste grafica che mancano. Chi ha avuto nvidia sa cosa voglio dire.
E basta con ste cazzate, vi prego, sembra che fate una guerra contro nvidia... x cosa poi, nessuno vi regala nulla ed nvidia è sicuramente quella che offre di + (stereoscopia in primis), voglio proprio vedere fra qualche anno quando anche in italia si diffonderanno i monitor lcd autostereoscopici (già presenti negli USA), Ati si troverà in mutande, mentre nvidia che è già veterana nel settore avrà la meglio.
Fatevi un giro qui www.stereo3d.com e rifatevi gli occhi, tutto quello che vedrete lì rivoluzionerà il gaming e non solo, altro che pixel shader....
Ciao a tutti e non caricatemi troppo.
andreamarra
05-05-2004, 15:33
Originariamente inviato da checo
e luce fu!!!
cmq è come dicevo io non ci vedo nulla di male, vorrei vedere però un analsi qualitativa con exe normale e rinominato
Quoto, non si tratta di sofisticazione. Però la cosa curiosa è che molti titoli per nvidia devono essere modificati in qualcosa per andare bene. Ovviamente se rientra negli standar del consentito (come in questo caso) lo apprezzo, altrimenti...
andreamarra
05-05-2004, 15:36
Originariamente inviato da da.dark
Non mi interessano i trucchetti, non mi interessano i 5 frame in + ne tantomeno i 5 in meno, non mi interessano dei 40 fps in meno quando abilito l'AA e L'aniso se ne ho già 160.
Ora ho una ati 9800 pro presa a natale e x tanto che non mi da nessun problema e viaggia come una bestia, non vedo l'ora di tornare a nVidia (come posso rinunciare alla combinazione di tasti Ctrl+T per abilitare la stereoscopia) questa sarà la scheda video che terrò meno, x natale mi faccio una nuova Gf fx!
Non mi garbano proprio i driver ati, anche se sono buoni, è il feeling e la veste grafica che mancano. Chi ha avuto nvidia sa cosa voglio dire.
E basta con ste cazzate, vi prego, sembra che fate una guerra contro nvidia... x cosa poi, nessuno vi regala nulla ed nvidia è sicuramente quella che offre di + (stereoscopia in primis), voglio proprio vedere fra qualche anno quando anche in italia si diffonderanno i monitor lcd autostereoscopici (già presenti negli USA), Ati si troverà in mutande, mentre nvidia che è già veterana nel settore avrà la meglio.
Fatevi un giro qui www.stereo3d.com e rifatevi gli occhi, tutto quello che vedrete lì rivoluzionerà il gaming e non solo, altro che pixel shader....
Ciao a tutti e non caricatemi troppo.
Strano che i Catalyst diano problemi. Io li ho sempre messi, oltre agli Omega, fin dai 3.2 e non ho mai avuto un problema. Con nessun gioco? Solo fortuna?
Cmq sulla veste grafica dei catalyst aspetta di installare i 4.5 (e poi santodddio, preferire una scheda a un'altra per vari motivi ok, ma citare la veste grafica dei driver mi sembra eccessivo). Ripeto, vedere il uovo pannello ati prima di sentenziare.
Ora mi informo sulla stereoscopia, sperando che con tempo alla ati non gli facciano la rettoscopia :asd:
edit: considerando i prezzi credo che potrò per ora andare a giocare a casa di Piersilvio.
TheDarkAngel
05-05-2004, 15:39
Originariamente inviato da da.dark
Non mi interessano i trucchetti, non mi interessano i 5 frame in + ne tantomeno i 5 in meno, non mi interessano dei 40 fps in meno quando abilito l'AA e L'aniso se ne ho già 160.
Ora ho una ati 9800 pro presa a natale e x tanto che non mi da nessun problema e viaggia come una bestia, non vedo l'ora di tornare a nVidia (come posso rinunciare alla combinazione di tasti Ctrl+T per abilitare la stereoscopia) questa sarà la scheda video che terrò meno, x natale mi faccio una nuova Gf fx!
Non mi garbano proprio i driver ati, anche se sono buoni, è il feeling e la veste grafica che mancano. Chi ha avuto nvidia sa cosa voglio dire.
E basta con ste cazzate, vi prego, sembra che fate una guerra contro nvidia... x cosa poi, nessuno vi regala nulla ed nvidia è sicuramente quella che offre di + (stereoscopia in primis), voglio proprio vedere fra qualche anno quando anche in italia si diffonderanno i monitor lcd autostereoscopici (già presenti negli USA), Ati si troverà in mutande, mentre nvidia che è già veterana nel settore avrà la meglio.
Fatevi un giro qui www.stereo3d.com e rifatevi gli occhi, tutto quello che vedrete lì rivoluzionerà il gaming e non solo, altro che pixel shader....
Ciao a tutti e non caricatemi troppo.
chi campa di vane speranze.....
Originariamente inviato da andreamarra
Quoto, non si tratta di sofisticazione. Però la cosa curiosa è che molti titoli per nvidia devono essere modificati in qualcosa per andare bene. Ovviamente se rientra negli standar del consentito (come in questo caso) lo apprezzo, altrimenti...
qua però hanno modificato i driver
e cmq anche molti titoli per andar bene su ati hanno necessitato di patch varie l'elenco è lungo.
Originariamente inviato da R@nda
Ma a che serve?
:mbe:
E' la caratteristica piu' importante introdotta con gli shader 3.0 e da la possibilita' di accedere a fino a quattro texture da un vertex shader.
L'uso piu' classico e' il disp mapping dove l'altezza di ogni vertice e' memorizzata in una texture e viene letta dal vertex shader per "spostare" il vertice lungo il vettore normale (la direzione che porta dall'interno del modello verso l'esterno per ogni vertice, semplificando molto).
Ma questo e' solo il modo piu' banale di usare il texture fetch e in parte si puo' fare gia' con la precedente generazione, anche se limitata ad un solo texture fetch invece di quattro.
Altri usi sono memorizzare le bone (ossa) di un personaggio in una texture e poter usare un numero virtualmentei illimitato di bone, cosa che per altro porta ad altre ottimizzazioni.
Poi puo' essere usata per fare geometry instancing davvero estremo (assieme all'unita' di GI vera e propria), che e' una notevole ottimizzazione.
Avere a disposizione quattro texture fetch e' poi molto utile quando si vuole calcolare la fisica di un oggetto usando la GPU e apre alcuni scenari interessanti se usato con PCI-E.
E queste sono le prime cose senza neppure averlo mai potuto provare, in futuro si troveranno sicuramente molti altri usi...
TheDarkAngel
05-05-2004, 15:42
Originariamente inviato da checo
qua però hanno modificato i driver
e cmq anche molti titoli per andar bene su ati hanno necessitato di patch varie l'elenco è lungo.
su ati per correggere alcuni difetti grafici..
su nvidia per riuscire con tanta fatica ad arrivare a una soglia decorosa rispetto alla concorrenza di fps
Grazie Fek,quindi effettivamente in questi 220milioni di transistor qualcosa dopotutto ci hanno messo:)
andreamarra
05-05-2004, 15:47
Originariamente inviato da fek
E' la caratteristica piu' importante introdotta con gli shader 3.0 e da la possibilita' di accedere a fino a quattro texture da un vertex shader.
L'uso piu' classico e' il disp mapping dove l'altezza di ogni vertice e' memorizzata in una texture e viene letta dal vertex shader per "spostare" il vertice lungo il vettore normale (la direzione che porta dall'interno del modello verso l'esterno per ogni vertice, semplificando molto).
Ma questo e' solo il modo piu' banale di usare il texture fetch e in parte si puo' fare gia' con la precedente generazione, anche se limitata ad un solo texture fetch invece di quattro.
Altri usi sono memorizzare le bone (ossa) di un personaggio in una texture e poter usare un numero virtualmentei illimitato di bone, cosa che per altro porta ad altre ottimizzazioni.
Poi puo' essere usata per fare geometry instancing davvero estremo (assieme all'unita' di GI vera e propria), che e' una notevole ottimizzazione.
Avere a disposizione quattro texture fetch e' poi molto utile quando si vuole calcolare la fisica di un oggetto usando la GPU e apre alcuni scenari interessanti se usato con PCI-E.
E queste sono le prime cose senza neppure averlo mai potuto provare, in futuro si troveranno sicuramente molti altri usi...
Azz... quindi la R420 non ha questo fetch... (speriamo che non si possano usare a livello SW a causa di driver beta e non che manchino a livello HW)
E a te che ti hanno giurato della loro esistenza :asd:
Ma hanno giurato per caso sui loro figli :asd: ?
Originariamente inviato da andreamarra
Azz... quindi la R420 non ha questo fetch... (speriamo che non si possano usare a livello SW a causa di driver beta e non che manchino a livello HW)
Non posso dare una risposta definitiva dal lato degli sviluppatori, francamente non so se e' un problema sw o proprio non sono supportati dall'hw. Tutto pero' mi fa presagire la seconda ipotesi...
E a te che ti hanno giurato della loro esistenza :asd:
Ma hanno giurato per caso sui loro figli :asd: ?
Spero per il loro figli di no :D
Originariamente inviato da fek
spero per il loro figli di no :D
Secondo me hanno giurato su NV40 :Perfido: ;)
Di un po' ti stai divertendo a smanettarci? :D
Originariamente inviato da pandyno
Secondo me hanno giurato su NV40 :Perfido: ;)
Di un po' ti stai divertendo a smanettarci? :D
Purtroppo oggi sono bloccato a fare profiling per tutto il giorno... Ma dopo l'E3 quel pezzo di hw sara' messo a dura prova :)
Originariamente inviato da TheDarkAngel
su ati per correggere alcuni difetti grafici..
su nvidia per riuscire con tanta fatica ad arrivare a una soglia decorosa rispetto alla concorrenza di fps
certo sta a te decisdere se è meglio giocare piano o giocare con artefatti :D
andreamarra
05-05-2004, 16:17
Cmq non ho mai riscontrato problemi grafici con la mia scheda :confused:
Originariamente inviato da andreamarra
Cmq non ho mai riscontrato problemi grafici con la mia scheda :confused:
mica ho detto questo, però certi giochi, specie conversion (mgs2 ad esempio) hanno necessitato di patch per girare bene
http://mark0.ngi.it/var/fartcrypromo.jpg
sanitarium
05-05-2004, 16:33
Originariamente inviato da checo
http://mark0.ngi.it/var/fartcrypromo.jpg
Giuro che stavo per scoppiare a ridere con il mio capo a 5 metri da me! :rotfl:
Mi sono trattenuto a stento! :sofico:
Non ho detto che i driver mi danno problemi, vanno bene.
Per quanto riguarda la veste grafica ho visto solo ora le immagini, belle veramente, comunque è solo una questione "affettiva" la veste grafica.
Il punto è che manca il supporto x la stereoscopia.... non sono vane speranza, è 2 anni che con nVidia utilizzo gli occhiali 3d e ora che sono passato ad ati.... :cry: mi mancano :cry:
Ora che ho provato Ati ed nVidia mi sento proprio di dire nVidia RULEZ.
Possibile sentire la nostalgia di una vecchia gf3 ti 500 ora che ho la 9800pro?! :(
andreamarra
05-05-2004, 16:37
Originariamente inviato da da.dark
Possibile sentire la nostalgia di una vecchia gf3 ti 500 ora che ho la 9800pro?! :(
Assolutamente no :asd:
Ma dici sul serio?
MMmm io potrei anche mandargliela una ti500 in cambio della sua....se ci sta!:D
Ragazzi, molto seriamente, state scherzando su qualche cosa che non conoscete.
Io ho un amico che era un fanatico ATIista.. come voi, si comportava esattamente come voi... E' bastato farlo venire a casa mia una volta x fargli crollare le sue fantastiche ati, ora è passato ad nVidia.
Questo non è uno scherzo, quando dico che ho nostalgia, è solo ed esclusivamente per quella funzione che manca ad ati.
Ho giocato a CoD a 1280x1024 con AA 4x e aniso 8x e tutto a palla, avevo voglia sinceramente di ripiazzarmi la mia vecchia ti 500, metterla al max senza AA ne aniso, portarla a 800x600 o 1024x768 e schiacciare Ctrl+T La mia 9800pro non avrebbe MAI potuto reggere il confronto.
Spero sinceramente che ati in futuro decida di implementare il supporto per la stereoscopia così effettivamente potrò scegliere il migliore, ma x ora... non c'è storia.
Bye
Oh ma qui non si può dire più niente che ti danno del fanatico e tifoso.:D
andreamarra
05-05-2004, 16:51
Originariamente inviato da da.dark
Ragazzi, molto seriamente, state scherzando su qualche cosa che non conoscete.
Io ho un amico che era un fanatico ATIista.. come voi, si comportava esattamente come voi... E' bastato farlo venire a casa mia una volta x fargli crollare le sue fantastiche ati, ora è passato ad nVidia.
Questo non è uno scherzo, quando dico che ho nostalgia, è solo ed esclusivamente per quella funzione che manca ad ati.
Ho giocato a CoD a 1280x1024 con AA 4x e aniso 8x e tutto a palla, avevo voglia sinceramente di ripiazzarmi la mia vecchia ti 500, metterla al max senza AA ne aniso, portarla a 800x600 o 1024x768 e schiacciare Ctrl+T La mia 9800pro non avrebbe MAI potuto reggere il confronto.
Spero sinceramente che ati in futuro decida di implementare il supporto per la stereoscopia così effettivamente potrò scegliere il migliore, ma x ora... non c'è storia.
Bye
Io non sono un fanatico atista. Lo stavo diventando quando ho visto la nvidia arrampicarsi sugli specchi con i taroccator e poi con i fregware.
Però questa opzione degli occhialini per quanto fantastica a livello visivo com'è? Chi la sfrutta? Le immagini rimangono della qualità su video ma con tridimensionalità?
Scusate se ho offeso qualcuno.... beh un po di tifoseria è lecita, senno ke divertimento c'è:D
Come caratteristica è difficile da descrivere, molti la giudicano dopo averla vista in qualche fiera, ma il livello di tridimensionalità è basso x renderlo facilmente visibile a tutti.
Ci va una fase di addestramento prima senno risulta difficoltoso mettere a fuoco.
Secondo i caschi di realtà virtuale, xchè sono stupefacenti?
Per la dimensione del campo visivo?
No!
perchè si ha una percezione della profondità, percepier la giusta posizione di un oggetto nello spazio.
se un omino mi spara a 30 metri di distanza io lo vedrò + lontano rispetto al livello dello scermo, con impostazioni giuste si ottiene un effetto molto realistico addirittura da nausea se guardi giù da un burrone.
Anche i giochi di guida ci guadagnano parecchio.
Dovrebbero solo semplificare l'approccio x renderlo accessibile a tutti.
Kresselack
05-05-2004, 19:45
Originariamente inviato da sslazio
ma i nuovi forceware 61 danno un aumento nelle performance in farTCRY :D solo per le 6800 o anche per le FX?
Quoto questa domanda ancora senza risposta xkè la risposta interessa anke me
KSK
TheDarkAngel
05-05-2004, 19:52
Originariamente inviato da da.dark
Ragazzi, molto seriamente, state scherzando su qualche cosa che non conoscete.
Io ho un amico che era un fanatico ATIista.. come voi, si comportava esattamente come voi... E' bastato farlo venire a casa mia una volta x fargli crollare le sue fantastiche ati, ora è passato ad nVidia.
Questo non è uno scherzo, quando dico che ho nostalgia, è solo ed esclusivamente per quella funzione che manca ad ati.
Ho giocato a CoD a 1280x1024 con AA 4x e aniso 8x e tutto a palla, avevo voglia sinceramente di ripiazzarmi la mia vecchia ti 500, metterla al max senza AA ne aniso, portarla a 800x600 o 1024x768 e schiacciare Ctrl+T La mia 9800pro non avrebbe MAI potuto reggere il confronto.
Spero sinceramente che ati in futuro decida di implementare il supporto per la stereoscopia così effettivamente potrò scegliere il migliore, ma x ora... non c'è storia.
Bye
mio cuggino mio cuggino
Legolas84
05-05-2004, 20:13
Il grande Elio :asd:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.