View Full Version : Un nuovo set di driver per NVIDIA
Redazione di Hardware Upg
29-03-2005, 16:20
Link alla notizia: http://news.hwupgrade.it/14304.html
L'evoluzione dei driver video continua incessantemente; previsti al debutto tra alcuni mesi i driver Forceware della serie 90
Click sul link per visualizzare la notizia.
JohnPetrucci
29-03-2005, 16:33
Non penso proprio di mettere 2 vga in sli, che già si fanno ipotesi di 3 vga!
Ma a sto punto si arriva al consumo di un'aspirapolvere!
Cmq altra nota dolente è che per i driver ufficiali Nvidia devono passare 3 mesi e più in media standard; x il resto solo beta.:(
Nvidia è come al solito ridicola nella gestione dei driver.... Dovrebbero andare a lezione dai canadesi.... Possibile che non ci sia verso di avere un set funzionante come si deve?!?!?
P.S. Io ho una 6600GT quindi non posso essere accusato di partigianeria ;-)
Bhè, a me sembra che i driver nvidia facciano passi da gigante da una versione all'altra: miglior compatibilità, miglior qualità, miglior velocità ... sono finiti i tempi dei vecchi driver !
Dai forceware serie 6x ad oggi ho notato sempre maggior attenzione nei particolari, quindi non posso che essere soddisfatto dei forceware.
Originariamente inviato da UIQ
Nvidia è come al solito ridicola nella gestione dei driver.... Dovrebbero andare a lezione dai canadesi....
sperando che non facciano lezione di opengl e di sviluppo driver per linux :(
e lo dico da possessore di radeon 9700
maxpower21
29-03-2005, 16:54
Veramente gli ultimi driver ufficiali mi hanno dato molti problemi con Counter Strike:Source... Mi si pianta di continuo. Ho dovuto reinstallare i driver vecchi..
Probabilmente intendono fare un SLI con schede a doppia GPU :eekk:
Stanno entrando sulla stessa strada percorsa da 3Dfx :asd:
Originariamente inviato da UIQ
Nvidia è come al solito ridicola nella gestione dei driver.... Dovrebbero andare a lezione dai canadesi.... Possibile che non ci sia verso di avere un set funzionante come si deve?!?!?
P.S. Io ho una 6600GT quindi non posso essere accusato di partigianeria ;-)
ma che cavolo dici? meno male che ci sono i driver ati per linux e opengl se no...i driver nvidia sono sempre stati molto performanti... :rolleyes:
Andreakk73
29-03-2005, 17:04
Caxo da quello che leggo dovrebbe essere uno sli nello sli, personalmente non sono un potenziale cliente ma come appassionato mi piacerebbe vedere di che cosa è capace una soluzione sli con due vga multi gpu. :sofico: :sofico: :sofico:
F1R3BL4D3
29-03-2005, 17:11
In effetti i driver nVidia escono un pò di rado rispetto alla controparte canadese che negli ultimi anni si è migliorata molto sotto questo profilo ( anche se ha delle pecche che non sono marginali, vedi Linux e OGL)
Onestamente posso dire che di difetti ne hanno tanto i driver ati quanto quelli nvidia.
Sicuramente nVidia è superiore nel supporto a Linux e, a quanto dicono che su questo non ho conoscenze dirette, nell'opengl
Ma non è che i driver nvidia non diano mai problemi, ho un amico che ad eseempio ha problemi da sempre con Fifa 2002, non gli ha mai funzionato con enssuna release di driver :P
nicgalla
29-03-2005, 17:31
Ho avuto prima una 9500PRO, poi una 9600XT e una 9800PRO. Dopodichè passando a nForce4 decidetti di prendere la scheda col miglior rapporto prezzo/prestazioni del momento, ossia la 6600GT.
Beh devo dire che i Catalyst fanno davvero pena!
nView, NVKeystone, PureVideo sono cose che ATI ancora oggi non offre. Una gestione multimonitor che fa pena. Un OpenGL ancora molto indietro, se si eccettuano ottimizzazioni per specifici giochi. E un ridicolo supporto a Linux...
Credo proprio che il 2005 sarà sotto il segno di nVidia...
Gestione multi moniot penosa?
O_O
Scusa ma non posso essere d'accordo su questo, per questioni di comodità lavoro spessissimo con due Monitor e mi trovo benissimo col sistema usato da Ati :P
Il nome Hydravision risulterà certamente sconosciuto ai più...
Dumah Brazorf
29-03-2005, 18:28
Domanda da ignorante: perchè passano da 71.xx/72.xx a 90.xx?
Hanno litigato con gli 80?
Ciao.
halduemilauno
29-03-2005, 18:36
Originariamente inviato da UIQ
Nvidia è come al solito ridicola nella gestione dei driver.... Dovrebbero andare a lezione dai canadesi.... Possibile che non ci sia verso di avere un set funzionante come si deve?!?!?
P.S. Io ho una 6600GT quindi non posso essere accusato di partigianeria ;-)
ma potresti essere accusato di altro.
;)
Juspriss
29-03-2005, 18:45
Nvidia è come al solito ridicola nella gestione dei driver.... Dovrebbero andare a lezione dai canadesi.... Possibile che non ci sia verso di avere un set funzionante come si deve?!?!?
Beh, almeno nVidia funziona molto bene su linux e anche su MAC, i driver li fa bene per tutti anche se magari non eccelsi. Alla fine però è sempre meglio di ATI, i cui divrer per linux lascino molto a desiderare... non so per mac ;).
Dunque, l'attuale release dei driver 71.84 WHQL ha un problemino con molte schede Geforce6: Fanno aumentare, e non di poco, la temperatura della scheda. Come risolvere? Semplice, basta overclocckare, anche di 1 solo mhz per far tornare le temperature gisute.... E questo è scritto nella release note, non me lo sono inventato.... Vi sembre una cosa normale?!?!?!
Tralascio il fatto che il PureVideo ha iniziato ad essere attivato 8 mesi dopo il lancio, se invece consideriamo solo i driver ufficiali WHQL superiamo i 12 mesi.... Vi sembre una cosa normale?!?!?!
Purevideo che ad oggi non è operativo con i file WMV come publicizzato dalla pagina Nvidia, loro dicono che il suppoto lo deve dare Microsoft, Microsoft dice che lo deve dare Nvidia, quindi per ora non funziona.
ATI fa uscire 1 nuovo set driver sempre certificato per tutte le schede supportate ogni mese con regolarità, ed ha già il supporto OpenGL 2.0 nei Catalyst 5.3
Secondo me l'errore che Nvidia si ostina a fare è quello di voler supportare decine di schede con lo stesso driver, se terminassero o separassero il suppoto per le schede prima della Serie 6 e quelle successive, secondo me i driver sarebbero migliori e uscirebbero più di frequente.
Tutto IMHO ovviamente :-)
Sono ben conscio delle migliori prestazioni in campo OpenGL e Linux dei driver Nvidia, il mio discorso riguarda solamente l'ambiente Windows.
@ Jupriss
Scusa ma a me che di Linux non me ne po' fregar de meno cosa interessa se nVidia lo supporta meglio quanto a Driver?
Discorso ipotetico (uso linux per alcune cose) per dire che la frase "alla fine nVidia è meglio di Ati" lascia molto il tempo che trova; il fatto che sia migliore sotto linux non implica che sia migliore e basta :)
beh in fatti di stabilità e supporto (nonostante escano meno frequentemente) i driver nvidia mi sembrano nettamente superiori :)
nonikname
29-03-2005, 19:42
Qui si dimentica una cosa abbastanza importante : dall'R300 all'R480 , i catalyst hanno subito un'affinamento continuo con pochissime variabili nuove ...
Mi spiego : i problemi di compatibilità delle prime 9500-9700 erano appunto dovuti ad una nuova gestione dell'hardware rispetto alle 8500, con evidenti funzioni nuove da gestire.. aka S.M.2.0 ..
Poco per volta ATI è riuscita a prendere padronanza completa della sua "nuova" architettura , che sia a 4 , 8 , 12 o 16 pipeline e relativi motori geometrici...
E' ovvio che nel corso degli ANNI i driver ATI sono riusciti nell'intento di spremere al massimo i propri punti di forza : già dalla 9800 in poi , ogni transistor , ogni porta logica e ogni algoritmo erano già stra-ottimizzati , infatti gli aumenti prestazionali erano/sono minimi a ogni release (tranne per gli engine nuovi di pacca) , a fronte di una compatibilità ottima su ogni macchina e software esistente per ovvi motivi di enorme somiglianza di GPU in produzione nelle fonderie TMSC..
Diciamo che adesso nvidia (a quasi un anno dalla presentazione dell'NV40) con la serie 6 è ancora nella fase di ottimizzazione e sfoltimento bug , con il super lavoro dovuto al programmable primitive processor (pure video) e soprattutto allo SLI....
E' anche vero che i core della serie 6 sono alla prima generazione e come ogni nuovo prodotto in "silicio drogato" , deve pagare lo scotto di un'immssione sul mercato dettata da ritmi esagerati..
In poche parole gli NV40 hanno dei piccoli difetti di gioventù che devono per forza di cose essere corretti nell'unico modo che si può correggere dell'hardware .... con il software (Forceware)
Resta il fatto che con la mole di lavoro esagerata a cui sono sottoposti i programmatori nvidia verrà ripagata dagli engine della prossima generazione , sviluppati sulle proprie GPU (le uniche SM3.0) e da una seconda generazione di VPU-GPU esenti da bug , quindi con un vantaggio potenziale sulla prossima GPU ATI.. che per forza di cose dovrà cambiare quasi radicalmente la gestione software , con ulteriore perdita di tempo nei confronti della già rodata configurazione dei forceware...
Pensate che gli sviluppatori di giochi XBOX2 lavorano già da tempo su workstation IBM con 6800u in SLI : le uniche schede che permettono di prendere confidenza con le Directx9c :D
Lasciamo stare il supporto all'openGL : la mole di istruzioni proprietarie di nvidia non è seconda a nessuno , tanto da essere quasi riuscita a scalzare mostri sacri in vetta da decenni ...
Quindi diciamo che con una Geforce 6 nel Case , le possibilità di miglioramento sono ancora in fase crescente.. ;)
Byez,
leggendo un po' di commenti, qui tra le righe, pare che i driver ufficili Nvidia per le schede 6... abbiano dei problemi.
Dunque vediamo che ne pensate...
La mia config nuova:
Asus A8NSLI
Athlon64 3800+
Dimm 2x512Mb DDRAM PC3200 Corsair TWINX XL XMS PRO series
N° 1 Hd 36gb WD raptor 10000 Rpm
N° 2 Hd Maxtor 300Gb Sata 7200Rpm 16m buffer
N° 1 Hd Maxtor 250 Gb 7200 Rpm
2xGAINWARD Golden SLI 6800 ULTRA 256M *Pci-Expr*
Ali Globawin 520 Watt
Ecc....
Il Pc dopo averlo assemblato (nonostante 1000 peripezie, pare lavorare corretamente nel Migliori dei modi, quindi dopo aver installato Xp home, aggiornato con service pack, ultime directX, ultimi driver ecc.. ecc...
Non da problemi, il primo gioco che decido di installare e giocare e Doom 3.
Con mio grande sorpresa, mi accorgo dopo aver giocato, che se esco dal gioco e rientro il Pc si pianta ( parte un secondo la scritta caricamento di Doom 3 e rimane li), Ctrl Alt canc, dopo qualche sec, la morte blu per un attimo, con le sue solite stringhe, il pc si riavvia, il fatto riaccade piu' volte ripetutamente.
Gioco a Doom 3, metto in pausa, vado al bagno, ritorno, il monitor era in stanby (era partito il risparmio energetico settato per 3 min del monitor) muovo il mouse, il monitor si accende, ma il gioco e' piantato!!!
Cal of duty, pare funzionare, non mi ha mai dato problemi, l' altra sera mentra giocavo in rete, si e piantato, e si e' riavviato (solo una volta pero' in due sett.)
MoH Pacific Assault, inizialmente anche li' nessun prob, poi hai iniziato a fare come con Doom 3, cliccavo su esegui, si piantava li...
Btrother In arms, i primi giorni anche quello perfetto, due giorni fa' inizia anche lui a rompere il ca@@o, lo lancio e si pianta prima del loading, costringendomi a resettare.
Ora a questo punto non so che fare, non so esattante quale possa essere la ragione dleaa instabilita' del sistema, ho pensato i driver?? puo' essere ma non credo, e poi possibile che i driver facciano si che i gicohi si piantino al lancio del gioco??
A questo punto non so se siano le schede o le memorie (ecco il link http://uk.asus.com/products/mb/socket939/a8nsli-d/overview.htm asus per la mia Mobo SLI VGA QVL and Memory QVL )
O provato ad alzare abbassare i timing delle memorie da bios ma niente, ho impostato tutto su auto , ma niente ..
Sono seriamente intenzionate a cambiare le memorie e prendere banchi di ram certificati da Asus, anche se in effeti non sono certo di risolvere il problema.
Sono sempre graditi i vostri consigli o pareri, vo terro' aggiornati sulla situazione del mostro instabile.. Byez<
Originariamente inviato da sirus
beh in fatti di stabilità e supporto (nonostante escano meno frequentemente) i driver nvidia mi sembrano nettamente superiori :)
Per Windows dici ?
In tale OS i Catalyst sn avanti in tutto ...
Originariamente inviato da Juspriss
Beh, almeno nVidia funziona molto bene su linux e anche su MAC, i driver li fa bene per tutti anche se magari non eccelsi. Alla fine però è sempre meglio di ATI, i cui divrer per linux lascino molto a desiderare... non so per mac ;).
I driver per Mac vengono scritti direttamente dalla Apple, sia per le GeForce che per le Radeon, in quel frangente nVidia e ATI non centrano nulla. ;)
Anzi, in tal caso vorrei far notare una cosa... qualche tempo fà girò un benchmark di Doom3 su Powermac G5.
Semplicemente... la X800XT batteva di 10fps circa la 6800Ultra DDL :eek:
Erano ovviamente entrambe in versione Mac edition, ma mentre la 6800U ha le stesse frequenze della versione pc, la X800XT ha il core a 475 invece che 500.
Morale... in un ipotetico scontro alla pari in materia di driver, le Radeon battono le GeForce in OpenGL...
Forse tacere è meglio :muro:
Commento # 14 di : Dumah Brazorf pubblicato il 29 Mar 2005, 19:28
Domanda da ignorante: perchè passano da 71.xx/72.xx a 90.xx?
Hanno litigato con gli 80?
Ciao.
No è che nn sono mai stati un gran che in matematica...
Hai provato a cambiare alimentatore?
Aggiornare i driver bios?
Le schede scaldano di brutto?
Home edition lo odio mai provato con professional? (parere mio personale magari nn serve a ncazzo)
Format c: e reinstallare? :)
Beccati sto link magari ti è utile http://www.tweakguides.com/XPTC.html
Ho la stessa tua configurazione a parte per il procio un FX55 e per gli hard disk due raptor RAID 0 e per le ram, a me dava gli stessi problemi ho cambiato l'alimentatore e ho messo un bel kit liquido per le scheduzze grafiche e ora fila liscio come l'olio..
Ho messo sotto un silent pure power della Thermaltake.
bLaCkMeTaL
29-03-2005, 23:09
Ma che fine ha fatto il nome detonator? Faceva più figo! (Il detonatore della mia esplosiva scheda video!!!)
Forceware mi suona male...
Poi ho ricevuto uno strano comportamento con SW Kotor2...tipo lasciandolo acceso e poi riprendendolo, era come bloccato! Le immagini facevano fatica ad essere ricalcolate, come se volessi giocare con una Geforce 1 ad un gioco del 2005 (Ora che ci penso può essere dovuto ad un prob. di surriscaldamento dovuti ai nuovi drivers 71.xx WHQL).Proverò anche ad aggiornare il gioco. La mia sk video è GeForce 6600 GT su nForce2 e tutto è più o meno aggiornato.
bLaCkMeTaL
29-03-2005, 23:16
[B]Proverò anche ad aggiornare il gioco.
Mi autoquoto perché ho appena scoperto di dover aspettare ancora per la patch del gioco...proverò qualche beta che ne pensate?
Originariamente inviato da Morkar Karamat
:eek: :eek:
Puoi postare questi risultati?
Purtroppo non ho il link a quella pagina! :cry: :cry: :cry:
Era stato postato però su questo forum... ricordo benissimo i grafici :muro:
Infatti chi postò quel test lo fece per sottolineare proprio questo... con i driver della Apple le Radeon battevano le GeForce in OpenGL, roba da non credere! :muro:
bLaCkMeTaL
29-03-2005, 23:29
Non ho saputo resistere; in tema di performance su mac ecco questo sito
link (http://www.barefeats.com/doom3.html#ggviewer-offsite-nav-9056360)
Le prestazaioni sembrano abbastanza allienate, poi fate voi!
Originariamente inviato da Morkar Karamat
Ma erano le Radeon ad andare di + o le Geppo ad andare di meno?
Rispetto ad un x86 di uguali prestazioni e contando il fattore SO intendo..
Questo proprio non lo ricordo...
Ricordo in particolare un grafico con la X800XT che faceva quasi 10fps in più.
Ma potrei anche ricordare male... non voglio scatenare hype senza nulla in mano :muro:
Anche perchè in tutta la roba che trovo adesso con Google vince la 6800... anche se di max 5 fps... contro una X800XT doowncloccata.
Non male comunque...
Un confronto incrociato è impossibie però ;)
La versione per Mac è un porting fatto molto alla c**** di cane, ed infatti gli fps sono decisamente più bassi (50 fps sono rari).
Insomma, se risaltasse fuori quele bench, ci sarebbe da dargli un'occhiata attenta... altrimenti sono il primo a non voler alzare un polverone per nulla.
PS: comunque, con i driver Apple le Radeon le prendono molto meno, questo non c'è dubbio :D
PS2: ma chi ha mai avuto fiducia nei driver OpenGL di ATI? :sofico: :asd: :cry:
Originariamente inviato da bLaCkMeTaL
Non ho saputo resistere; in tema di performance su mac ecco questo sito
link (http://www.barefeats.com/doom3.html#ggviewer-offsite-nav-9056360)
Le prestazaioni sembrano abbastanza allienate, poi fate voi!
Qui le Radeon un vantaggino lo hanno pure :eek:
Ma anche in caso di prestazioni allineate, poco cambia...
Su PC, la disfatta delle schede ATI contro le nVidia in OpenGL è un Dogma ("D" volontariamente maiuscola)
O stasera ho perso la cognizione, o qui c'è davvero qualcosa che non quadra :p
PS: e cmq, complimenti AMD :asd:
JohnPetrucci
30-03-2005, 01:13
Grazie alle ottimizzazioni dei driver tipo la funzione I.A. attivata di default sui driver senza Control center Ati è riuscita a riprendere terreno.
Sacrificando in parte la qualità però!
Che bella mossa!
Originariamente inviato da JohnPetrucci
Grazie alle ottimizzazioni dei driver tipo la funzione I.A. attivata di default sui driver senza Control center Ati è riuscita a riprendere terreno.
Sacrificando in parte la qualità però!
Che bella mossa!
Hai degli screenshot che mostrano la perdita' di qualita' da una versione dei driver all'altra, per cortesia?
Originariamente inviato da fek
Hai degli screenshot che mostrano la perdita' di qualita' da una versione dei driver all'altra, per cortesia?
Mi accodo alla richiesta dato che non mi risulta :)
JohnPetrucci
30-03-2005, 18:34
Quindi per voi la funzione a.i. o i.a. come cavolo si chiama non dà cali qualitativi?
Ma allora cosa ottimizza?
Punti di vista......
Leggetevi in giro qualche articolo, uno si trova pure su questo sito ed è vecchio di qualche mese.
JohnPetrucci
30-03-2005, 19:33
Originariamente inviato da Morkar Karamat
Cmq avessi una ATI attiverei senz'altro l'ottimizzazione..i vantaggi sono infinitamente superiori alla perdita di qualità, non sono un fanatico che si preoccupa che nel caso in cui analizzassi l'immagine col microscopio vedrei delle "sbavature" ;)
Però è da dire che i test andrebbero fatti a parità di condizioni per valutare le differenti architetture dell'hardware e lo sviluppo "standard" dei driver...poi si può dire che ATI con "invisibile" perdita di dettaglio permette di ottenere queste prestazioni attivando la tecnologia X, mentre Nvidia...
IO non la attiverei invece, preferisco la max qualità possibile.
E credo che il team di sviluppo dei driver alla Nvidia dorma su questo fronte.
Alla fine per tanti contano solo i bench, poi le ottimizzazzioni spesso neanche si sospettano.
leoneazzurro
30-03-2005, 19:41
Originariamente inviato da FAM
Qui le Radeon un vantaggino lo hanno pure :eek:
Ma anche in caso di prestazioni allineate, poco cambia...
Su PC, la disfatta delle schede ATI contro le nVidia in OpenGL è un Dogma ("D" volontariamente maiuscola)
O stasera ho perso la cognizione, o qui c'è davvero qualcosa che non quadra :p
PS: e cmq, complimenti AMD :asd:
Mah, in primo luogo, i drivers Apple possono essere benissimo ottimizati maluccio, si aper ATi che per Nvidia. Da qui eventuali risultati "strani". Poi un'altra cosa chiarissima che si evince da quel test è come Doom 3 sia enormemente CPU limited, ragione che spiega i risultati allineati su MAC e il grosso sato prestazionale che si ottiene passando alla piattaforma Opteron.
cdimauro
31-03-2005, 13:52
Ovviamente quelli di barefeats si sono ben guardati dal fare qualche prova a risoluzioni più basse... :rolleyes:
Originariamente inviato da JohnPetrucci
IO non la attiverei invece, preferisco la max qualità possibile.
E credo che il team di sviluppo dei driver alla Nvidia dorma su questo fronte.
Le ottimizzazione psicometriche, quelle che portano ad un degrado della qualita' non percepibile dall'occhio umano, sono perfettamente legittime e sono ovunque. Ricercare la massima qualita' e' un concetto privo di significato perche' gia' quello che vedi su schermo non e' altro che un modello molto ma molto grezzo del comportamento della luce nella realta'.
Anche senza scomodare questi concetti, la compressione delle texture e' un esempio di ottimizzazione psicometrica diffusissimo: attivando o disattivando la compressione delle texture solo l'occhio di un'artista molto allenato e solo in particolari condizioni riuscirebbe ad accorgersi della differenza.
Il resto del mondo no, ed i vantaggi che ne derivano dalla compressione sono nettamente superiori alla perdita di qualita'.
Nella grafica 3d praticamente in tutte le decisioni si deve valutare una perdita di qualita' che porta ad un vantaggio in termini prestazionali e se il vantaggio e' superiore alla perdita, la scelta cade inevitabilmente su di lui.
In questo caso, un aumento del framerate porta ad un'animazione piu' fluida, quindi una qualita' piu' alta, a fronte di un'impercettibile degrado qualitativo: chiunque voglia massimizzare l'esperienza in maniera oggettiva, senza coinvolgimenti psicologici, attivera l'ottimizzazione.
JohnPetrucci
31-03-2005, 14:31
Originariamente inviato da fek
Le ottimizzazione psicometriche, quelle che portano ad un degrado della qualita' non percepibile dall'occhio umano, sono perfettamente legittime e sono ovunque. Ricercare la massima qualita' e' un concetto privo di significato perche' gia' quello che vedi su schermo non e' altro che un modello molto ma molto grezzo del comportamento della luce nella realta'.
Anche senza scomodare questi concetti, la compressione delle texture e' un esempio di ottimizzazione psicometrica diffusissimo: attivando o disattivando la compressione delle texture solo l'occhio di un'artista molto allenato e solo in particolari condizioni riuscirebbe ad accorgersi della differenza.
Il resto del mondo no, ed i vantaggi che ne derivano dalla compressione sono nettamente superiori alla perdita di qualita'.
Nella grafica 3d praticamente in tutte le decisioni si deve valutare una perdita di qualita' che porta ad un vantaggio in termini prestazionali e se il vantaggio e' superiore alla perdita, la scelta cade inevitabilmente su di lui.
In questo caso, un aumento del framerate porta ad un'animazione piu' fluida, quindi una qualita' piu' alta, a fronte di un'impercettibile degrado qualitativo: chiunque voglia massimizzare l'esperienza in maniera oggettiva, senza coinvolgimenti psicologici, attivera l'ottimizzazione.
Come ho scritto in altri thread io quando attivavo l'A.I. Ati in modalità High le notavo le differenze.
Inoltre le noto attivando il Bilinear su Nvidia.
Non sono poi così microscopiche e non credo di possedere un occhio bionico.
Dipende anche da quali ottimizzazioni esaminiamo, alcune sono sicuramente più "visibili" di altre, di conseguenza altre molto meno.
In genere faccio prove apposite per notare ogni minimo decadimento, e tengo sempre i filtri a palla.
Ovviamente la maggioranza degli utenti o perchè sconoscono o perchè non gli interessano filtri etc., lascerà tutte le ottimizzazioni possibili attive, soprattutto su schede di fascia bassa dove hanno sicuramente più senso.
Ma una scheda video di 500€ io l'ho acquistata per videogiocare con filtri qualitativi a palla e senza ottimizzazioni, che posso disabilitare dai driver.
Per le altre miriadi di ottimizzazioni nascoste riamangono inaccessibili dal pannello driver ovviamente.
Certo se fosse proprio invisibile il degrado le terrei attive, senza dubbio.;)
Originariamente inviato da JohnPetrucci
Come ho scritto in altri thread io quando attivavo l'A.I. Ati in modalità High le notavo le differenze.
Inoltre le noto attivando il Bilinear su Nvidia.
Sono convinto che e' una questione solo psicologica. E' praticamente impossibile notare le differenze a occhio nudo senza fare un diff dell'immagine.
Originariamente inviato da Morkar Karamat
Credo che quelle del secondo tipo debbano essere segnalate e rese disattivabili. Il massimo della correttezza sarebbe avere un organo neutrale, che faccia una media dei guadagni in prestazioni sulle applicazioni + diffuse del momento e ne studi anche il degrado qualitativo, in modo che poi ATI e Nvidia nei driver possano elencare le varie ottimizzazioni riportando questi dati del "garante".
Se esistesse un tale organo, uscirebbe un gioco ogni 20 anni.
E poi io che implemento qualcosa decido se il guadagno vale la perdita qualitativa.
Ti immagini se ottimizzo il blooming scartando tutti i pixel che sono quasi zero (tipica ottimizzazione psicometrica) e prima di fare il check in devo mandare la mia build ad un organo indipendente che la giudichi valida o meno e mi risponde dopo una settimana? :D
JohnPetrucci
31-03-2005, 16:40
Originariamente inviato da fek
Sono convinto che e' una questione solo psicologica. E' praticamente impossibile notare le differenze a occhio nudo senza fare un diff dell'immagine.
Questa si che è bella.
Meno male che conosco altre persone che hanno notato tale perdita qualitativa.
Adesso dobbiamo considerarci membri ufficiali dell'associazione Filtri a palla anonimi.:D
Originariamente inviato da JohnPetrucci
Questa si che è bella.
Meno male che conosco altre persone che hanno notato tale perdita qualitativa.
Adesso dobbiamo considerarci membri ufficiali dell'associazione Filtri a palla anonimi.:D
Non so che dirti: tutti le analisi che ho letto parlano di differenze impercettibili a occhio nudo. Io non ho mai notato alcuna differenza. Permettimi di avere qualche dubbio.
Riesci a trovarmi due screenshot di un qualunque gioco dove la differenza si nota senza usare un diff di Photoshop?
JohnPetrucci
31-03-2005, 17:09
Originariamente inviato da fek
Non so che dirti: tutti le analisi che ho letto parlano di differenze impercettibili a occhio nudo. Io non ho mai notato alcuna differenza. Permettimi di avere qualche dubbio.
Riesci a trovarmi due screenshot di un qualunque gioco dove la differenza si nota senza usare un diff di Photoshop?
OK, ti posto questo link, gli screen cambiano dopo qualche sec la modalità A.I. così si vede la differenza, osserva bene quello su doom3.
Ovviamente sono differenze non madornali.
Ma cmq visibili.
All'epoca mi ricordo che con la 9800 pro in alcuni titoli erano evidenti in modalità high xchè tali filtri si attivano solo su una lista di games già stabilita da ati, tra i quali doom3.
http://www.elitebastards.com/page.php?pageid=6931&head=1&comments=1
Originariamente inviato da JohnPetrucci
OK, ti posto questo link, gli screen cambiano dopo qualche sec la modalità A.I. così si vede la differenza, osserva bene quello su doom3.
Ovviamente sono differenze non madornali.
Ma cmq visibili.
All'epoca mi ricordo che con la 9800 pro in alcuni titoli erano evidenti in modalità high xchè tali filtri si attivano solo su una lista di games già stabilita da ati, tra i quali doom3.
http://www.elitebastards.com/page.php?pageid=6931&head=1&comments=1
To the naked eye, the difference between having ATIs filtering optimisations disabled and set to their standard, low, setting is basically non-existent - Even the use of an application to mathematically bring out differences between the two images shows nothing noteworthy.
[...]
With this in mind, we took a foray through parts of Doom 3's opening level, with Catalyst AI both disabled and set to low, and found no point where image quality seemed to be visibly compromised. As Doom 3 is nigh on impossible to capture completely comparable image quality shots with, we will instead leave you with a single image taken during our testing from a similar spot with Catalyst AI both disabled and on low.
Infatti ho guardato quegli sshot per 5 minuti senza notare differenze :)
Originariamente inviato da Morkar Karamat
pesantissimo, beh..venderai di +. Ma il discorso è diverso per ATI e Nvidia..se nel tuo gioco hai scartato i pixel o meno il risultato su schermo deve essere lo stesso per le 2 schede, altrimenti dovrebbe essere segnalato...se tu decidi di non scartare nulla non trovo corretto che ATI "scarti" qualcosa via driver senza segnalarlo, perchè poi nei bench che vengono fatti su quel gioco ha un vantaggio magari di 4-5 frame come in doom3.
Se ATI e NVIDIA vogliono fare del lavoro di ottimizzazione al posto mio lo facciano eccome :)
Meglio se le ottimizzazioni sono matematicamente equivalenti, se non lo sono ci documentano sempre con precisione il degrado qualitativo e come evitarlo (esempio fp16 contro fp32) da parte nostra.
Se tirano fuori ottimizzazioni che cambiano radicalmente il risultato a video, stai tranquillo che partiranno un certo numero di email da parte degli sviluppatori ;)
Non c'e' neppure bisogno di un ente autonomo, li sommergiamo gia' noi di bug report.
Considerando che si potrebbe ad es. assumere che fino all'1,5% di IQ: invisibile, sopra il 4%: fastidioso etc. con queste informazioni l'acquirente potrebbe scegliere meglio a seconda dell'uso e dei suoi gusti "ludici" ad esempio (Doom3 pieno di ombre...)
Questo discorso ha un senso.
Si scontra a mio avviso con due problemi insormontabili:
1) E' quasi impossibile definire in maniera univoca il degrado qualitativo con un numero come hai fatto tu (1% di cosa? 4% di cosa?), perche' e' un valore altamente soggettivo in certi casi
2) Anche fosse possibile, l'acquirente medio non capirebbe quel numero e probabilmente lo ignorerebbe; stiamo parlando di gente che non e' come noi smanettoni che attiva/disattiva il filtro X o il filtro Y e guarda che cosa cambia. La maggior parte degli utenti mette lancia il gioco e gioca, e se qualcuno non va chiama il supporto tecnico.
Originariamente inviato da Morkar Karamat
Si, in effetti il discorso è complicato, speriamo almeno nella trasparenza..dopodichè bisogna per forza leggersi le recensioni online e districarsi tra i numeri :)
E poi vuoi farti togliere il divertimento di spulciare fra quei dati? Ma io e te siamo mica due nerd per nulla :p
P.S. hai risposto a tutto e sei stato molto cordiale, ma non hai detto nulla riguardo a BW2:D Vi hanno rubato i sorgenti?:O
:D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.