|
|
|
|
Strumenti |
04-07-2006, 16:50 | #1 |
Bannato
Iscritto dal: Jun 2006
Città: (o(ori(o rulezzzzzzzzzz....
Messaggi: 3542
|
colpaccio su nvidia
Gli sviluppatori di Rydermak un futuro benchmark (e gioco) DirectX 9, affermano che uno dei due player del mondo grafico sta "falsificando la verità" per quanto riguarda il parametro pixel precision.
Secondo gli sviluppatori, Nvidia non permette di utilizzare una pixel precision superiore a 16 bit, più veloce rispetto a quella a 32 bit. L'unico problema è che la pixel precision a 16 bit è un parametro sottostante ai requisiti delle DirectX 9 - che richiedono full precision 24 o 32 bit - quindi, se si utilizza una precision sotto i 24 bit la scheda video non può dirsi DirectX 9 compliant. Se volete inserire normal mapping, parallax mapping e riflessioni/rifrazioni dell'acqua, i vostri shader richiedono una precisione a 32 bit. Secondo gli sviluppatori, Nvidia non lascia scelta. Non si può utilizzare la precisione 24 o 32 bit, si è sempre "bloccati" a 16 bit. Dalla prospettiva di uno sviluppatore e un artistica questo non è accettabile. fonte:http://www.tomshw.it/news.php?newsid=6926 Mi sa che Nvidia se la passi non tanto bene Ultima modifica di Window Vista : 04-07-2006 alle 16:55. |
04-07-2006, 18:11 | #2 |
Member
Iscritto dal: Dec 2004
Città: Torino
Messaggi: 297
|
se risultasse vero, sarebbe quantomai pesante...... nVidia ne rimarrebbe sotto, molto sotto........
__________________
EX_PC-DESKTOP: Mobo [ASUS A8N-SLI Deluxe] -- CPU [ATHLON 64 3000+@2742Mhz VENICE] -- Dissipatore CPU[TERMALTAKE Venus 12] -- GPU [ATI x1800xt 512MB bios 700-800 ] -- RAM [PC-3200 CAS 2 (4*512mb)] -- HDD [MAXTOR Diamond 9 s-ata 2*80GB RAID-0] -- DVD+/-RW [NEC 3500ag] -- DVD-ROM [JLMS xj-hd166s] -- Case [ENERMAX cs-018sn cs-800ta-s] ----- 3dMark05 Max Score: 9734 EX-NOTEBOOK: ASUS G1S AK074C 4GB RAM NOTEBOOK_ATTUALE: ACER 5930 944g25Mn |
04-07-2006, 20:18 | #3 |
Bannato
Iscritto dal: Dec 2003
Città: Monteveglio(Bo)
Messaggi: 10006
|
diciamo che per nvidia non sarebbe una novità dopo quello che è successo 3 anni fà.
|
04-07-2006, 21:03 | #4 |
Senior Member
Iscritto dal: Jan 2006
Città: Padova
Messaggi: 9013
|
mi sembra sia abbstanza risaputo che nvidia punta più sulla "potenza bruta" (+fps) rispetto alla qualità.
tuttavia devo dire che una recensione proprio di tom's hw metteva a confronto l'HDR della serie 7 e quello delle x1x00 e la 7 non mi sembrava poi così indietro, anzi.. quando lo ritrovo posto il link CIaO
__________________
Dallas Mavericks 2011 NBA Champions
|
05-07-2006, 08:50 | #5 |
Bannato
Iscritto dal: Aug 2001
Città: Berghem Haven
Messaggi: 13466
|
Sapevo che nella serie 5xxx non si poteva usare la precisione a 24 bit, ma la 32 sì. E credo sia così anche nelle 6xxx e 7xxx.
Cmq basta provare con ShaderMark. |
05-07-2006, 11:38 | #6 |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5373
|
passando da fp16 a fp32, sia la serie 6 che la serie 7 perdono una istruzione e 7 flops per ciclo per ogni pipeline (ad esempio un G70 passa da 5 a 4 istruzioni e da 27 a 20 flops per ciclo per pipeline); quindi un calo di prestazioni esiste ed è quantificabile attorno ad un 20-25% a seconda dei casi (del tipo di istruzione); questo perchè ogni pipeline è dotata di un circuito che effettua normalizzazioni vettoriali e tale circuito funziona solo a fp16.
Rispetto a NV30, in cui la perdita prestazionale poteva superare il 50% (ma NV30 aveva seri limiti nella capienza dei registri temporanei, poichè era in grado di gestire, senza apprezzabili perdite prestazionali, solo 2 variabili indipendenti per alu, contro le 4 di R3x0 e dei successivi chip ATi e NV), il calo è meno netto; resta eprò il fatto che, volendo puntare sui risultati di un benchmark, può fare comodo guadagnare anche quel 20-25% che si perderebbe, altrimenti, passando a fp32. Questo non vuol dire che G70 non sia DX9 full compliant; innanzitutto non è vero che la precisione prevista per le DX9 sia non inferiore a fp24: ci sono vari tipi di istruzioni e, di conseguenza, di calcoli e per ognuno è prevista una precisione minima che, in alcuni casi (ad esempio dependent read) può essere inferiore a fp24). Inoltre, G70 è in grado di eseguire fisicamente calcoli a fp32 e se dovesse effettivamente lavorare a fp16 è solo perchè verrebbe forzata la precisione a fp16 via driver per ottenere più fps nei benchmark. |
05-07-2006, 12:22 | #7 | |
Bannato
Iscritto dal: Dec 2003
Città: Monteveglio(Bo)
Messaggi: 10006
|
Quote:
|
|
05-07-2006, 12:32 | #8 | |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5373
|
Quote:
|
|
05-07-2006, 12:50 | #9 |
Senior Member
Iscritto dal: Mar 2006
Messaggi: 8485
|
Mi sembra di esser tornato indietro di 3 anni...
Se fosse vero cmq, non e' che non hanno scelta, dato che uno dei 2 colossi del mercato vga lo permette (se non ho capito male), nessuno vieta loro di usarla, e quindi non e' necessario x loro limitare la propria creativita'. Diciamo che + che non aver scelta, non gli conviene programmare in modo tale che una grande fetta del mercato non possa acquistare i loro prodotti xche' l'hardware non glieli supporta. Se sono paladini della verita' non dovrebbero sottostare alle imposizioni di nVidia, se le ritengono inaccettabili. Mi sbagliero', ma la penso cosi'. |
05-07-2006, 13:53 | #10 | |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5373
|
Quote:
|
|
05-07-2006, 14:18 | #11 | |
Senior Member
Iscritto dal: Jan 2001
Messaggi: 9096
|
Quote:
__________________
26/07/2003 |
|
05-07-2006, 20:53 | #12 | |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5373
|
Quote:
|
|
05-07-2006, 22:06 | #13 |
Senior Member
Iscritto dal: Jun 2001
Città: Magmoor Caverns
Messaggi: 29135
|
Supportare l'FP16 è solo una possibilità in più.
Non capisco perchè ogni volta deve essere vista come una pecca, quando invece è un pregio. E' tutto molto semplice: se è possibile utilizzare una precisione inferiore ed ottenere lo stesso risultato, guadagnando in prestazioni...questo rappresenta solo una cosa positiva. E' una questione di flessibilità. Ma non capisco cosa ci sia di così strano. Si utilizza una precisione fp16 quando è sufficente tale precisione. Si utilizza quella fp32 quando serve. Le DX9.0c da quel che ricordo ammettono e permettono poi tale utilizzo di precisione. Ma in qualsiasi ambito dell'informatica, quando ci sono di mezzo più tipi di precisioni si agisce così.
__________________
Ho concluso con:Taxon, IamRoland |
05-07-2006, 22:10 | #14 |
Senior Member
Iscritto dal: Jan 2006
Città: Padova
Messaggi: 9013
|
sì ma il discorso importante che emerge è un altro. ovvero il fatto che nVidia, a causa di questo problema, faccia pressioni sugli sviluppatori costringendoli a lavorare in fp16 quando potrebbero programmare giochi migliori utilizzando l'fp32
__________________
Dallas Mavericks 2011 NBA Champions
|
05-07-2006, 22:10 | #15 |
Senior Member
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 16816
|
Però intanto in molti sanno che deve uscire un nuovo benchmark
__________________
Twinkle, twinkle, little star how I wonder what you are. |
05-07-2006, 22:51 | #16 | |
Senior Member
Iscritto dal: Jun 2001
Città: Magmoor Caverns
Messaggi: 29135
|
Quote:
Da quel che ricordo io, nVidia consiglia di utilizzare l'fp16 dove è sufficente. Mi pare al tempo anche fek confermò. Ma semplicemente perchè è una cosa super logica. Se hai una possibilità in più, sfrutti tale possibilità. Cerchi di ottenere un risultato con il minimo sforzo. Semplice. Non mi sembra nemmeno logico pensare alla possibilità di programmare giochi migliori utilizzando fp32. O meglio non mi sembra sensata come affermazione. Nel senso che se andiamo a vedere, le X1000 hanno solo la possibilità di fare fp32. Quindi già sapere questo, smonta il fatto di poter programmare giochi migliori. Quando si scrive uno shader, lo si scrive utilizzando la massima precisione interna possibile...in questo caso FP32. Poi si procede nel scalare ad FP16 nel caso quella determinata architettura video lo permetta(NV4x-G7x si). Ma si scala solo dove è possibile. Cioè dove non c'è perdita di qualità. Dove c'è perdita si utilizza FP32. Evidentemente al giorno d'oggi l'FP16 è più che sufficente e sono pochi i casi dove FP32 serve realmente. nVidia ed Ati hanno fatto scelte architetturali diverse. Ma questo non significa niente, fa ancora più ridere il discorso di questa notizia, che vuol far quasi passare questa cosa come un "magheggio". Come se qualcuno "bara". Quando invece è una cosa normalissima. Ma questo è un discorso vecchio di anni ed anni. E' stato discusso in lungo e largo ormai da un sacco di tempo. DjLode ha fatto una buona osservazione: si sono fatti publicità...per il loro benchmark e gioco in sviluppo. Perchè sennò davvero, questa è una questione che risale a diversi anni fa. Infatti rileggere adesso questa nuova news su un così vecchissimo argomento mi ha fatto sorridere. Per me sta news non ha proprio senso.
__________________
Ho concluso con:Taxon, IamRoland Ultima modifica di Dark Schneider : 05-07-2006 alle 23:24. |
|
06-07-2006, 07:04 | #17 | |
Senior Member
Iscritto dal: Mar 2006
Messaggi: 8485
|
Quote:
In ogni caso, io penso che se venissero programmati i giochi sfruttando delle features che nVidia non supporta e fosse evidente al giocatore che queste features arricchiscono enormemente l'esperienza videoludica, credo che solo i fanboy piu' integralisti rimarrebbero con nVidia, mentre tutti gli altri videogiocatori si butterebbero a pesce sui prodotti di chi le supporta (ATI o chiunque mai si immettera' nel mercato delle vga). Ogni tanto vanno fatte delle scelte coraggiose, altrimenti e' inutile lamentarsi se poi si sottosta al giogo di chi ha in mano i soldi. Ultima modifica di Brightblade : 06-07-2006 alle 09:44. |
|
06-07-2006, 09:38 | #18 | |
Senior Member
Iscritto dal: Oct 2001
Città: Civitavecchia (RM)
Messaggi: 1524
|
Quote:
Aggiungo che vedo una certa mancanza di memoria storica in certi interventi. Abbiamo visto in passato cosa Nvidia arrivi a fare pur di gonfiare i numeri (i clipping planes hanno veramente battuto ogni record, mi-ti-ci nello sfruttare il fatto che i benchmark hanno una sequenza fissa di immagini). D'altrocanto, se solo un benchmark adesso all'alba di luglio 2006 permette di accorgerci di tutto cio', e' segno che se davvero le gpu Nvidia lavorassero in FP16 tutto il tempo, non abbiamo piu' l'occhio allenato noi o hanno ragione loro ad usarla
__________________
Com'era l'onda sullo scoglio aperta / cosi su quella fronte a me diletta era il mio amore - e non sapevo quanto / ne gioisse lo scoglio o fosse in pianto. Ultima modifica di CS25 : 06-07-2006 alle 09:41. |
|
06-07-2006, 09:53 | #19 | |
Senior Member
Iscritto dal: Jan 2006
Città: Padova
Messaggi: 9013
|
Quote:
il mio discorso di adesso non era certo per dire "scriviamo in fp32 sempre e comnque" ma per dire che (sperando che non sia così) nVidia potrebbe fare pressioni sui programmatori perché scrivano in modo da non utilizzare fp32 anche quando questo potrebbe portare ad una resa grafica migliore senza possibilità di scalare a fp16 questo potrebbe essere l'unico senso da dare a queste informazioni..altrimenti è mera pubblicità
__________________
Dallas Mavericks 2011 NBA Champions
|
|
06-07-2006, 09:58 | #20 | |
Senior Member
Iscritto dal: Jan 2006
Città: Padova
Messaggi: 9013
|
Quote:
nessuno lo da come dato di fatto sono solo ipotesi che si stanno facendo per spiegare questa news
__________________
Dallas Mavericks 2011 NBA Champions
|
|
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 07:15.