PDA

View Full Version : 3dMark 2005:Attendibilità


Signifer
05-10-2004, 23:09
Ciao ragazzi.:)

La X800XT PE nel 3DMark 2005 con i Catalyst 4.10 riesce a totalizzare quasi 6000 punti, laddove la Geforce 6800 Ultra ne fa circa 5000.
A vostro parere,a cosa si può attribuire questa differenza così marcata?
Io dico che risiede nel fatto che l'archittetura di ATI è essenzialmente migliore, più ottimizzata, meglio sfruttata grazie al precedente R300.
Non penso si tratti di imbrogli a livello di shader.......come ho sentito per Doom 3.

Raven
05-10-2004, 23:46
Io dico che risiede nel fatto che l'archittetura di ATI è essenzialmente migliore, più ottimizzata, meglio sfruttata grazie al precedente R300.

Non sono per nulla d'accordo... a livello di architettura nv40 è senza dubbio più "completa" rispetto a r420... semplicemente il 3dmark2005 non è a mio parere adatto a confrontare in maniera diretta 2 architetture così diverse come r420 e nv40...

E' evidente che, allo stato attuale, le schede ATI si trovino a gestire in maniera migliore il benchmark di futuremark, per come è stato strutturato...

Peccato che dopo nei giochi le schede siano in realtà in pratica del tutto equivalenti, con ovvie prevalenze dell'una sull'altra e viceversa in base ai giochi che vengono esaminati... ecco!... io prenderei il 3dmark come una sorta di "gioco" in cui le ati (per ora) si esprimono meglio delle nvidia (così come nvidia si esprime meglio in doom3, tanto per intenderci! ;) )

... peccato solo che il 3dmark non sia un gioco... :p

IMHO è buono solo per verificare che le prestazioni del proprio PC sia in linea con i risultati degli altri PC con lo stesso hardware (per scoprire eventuali "magagne", quindi...)

Vifani
06-10-2004, 00:17
Abbiate un po di pazienza. E' un arrivo un bel articolo su questo benedetto 3DMark05 :)

Dark Schneider
06-10-2004, 00:49
Signfer ma l'hai letto Fek cosa ha detto riguardo al 3d Mark 2005?

Più chiaro di così si muore:

Te lo riquoto così ti chiarisci un po' le idee.



Originariamente inviato da fek


Sono pienamente d'accordo con te, io non ho mai lanciato un benchmark in vita mai, o meglio, ho lanciato i vari 3dmark per guardare quello che renderizzavano e capire come (il 2005 e' molto interessante). Mai neppure guardato il punteggio finale.

Uso altri parametri per valutare la prestazioni di una GPU e so che i benchmark sintetici non hanno alcun valore, forse perche' passo ore e ore a fare profiling, cercando i colli di bottiglia. So quanto sia difficile capire dove sia il collo di bottiglia di un'applicazione 3d e se bastasse un solo numerino per riassumere questa ricerca, la mia vita sarebbe molto piu' comoda

In realta' non basta, a volte modificare un paio di istruzion in un pixel shader ti fa guadagnare 10fps, altre voltre riscrivi uno shader completamente e dopo due ore a implementare le migliori trovate che la tecnologia mette a disposizione, lanci e non cambia nulla. Perche'? Perche' il collo di bottiglia era da un'altra parte.

Riportiamo questo discorso al 3dmark, immagina, ad esempio nella scena con l'acqua, che per l'nv40 quello shader rappresenti un collo di bottiglia mentre per l'r420 no (non e' vero, sto inventando, ma per capirci). Basterebbe ottimizzare quello shader e vedresti il punteggio schizzare di un centinaio di punti magari e la stessa modifica su r420 non cambierebbe nulla perche' il collo di bottiglia e' da un'altra parte. E situazioni di questo tipo capitano parecchie volte per ogni singolo frame. Capisci quanto poco significato abbia quel numero se con poche modifiche puoi alterarlo sensibilmente: da qui capisci anche da dove vengano fuori i cheat dei driver Gli IHV sono in grado di lanciare tool specifici alla ricerca dei colli di bottiglia (ne ho visto uno nvidia girare) e possono facilmente individuarli nel 3dmark, correggerlo dal lato del driver ed alterare il punteggio sensibilmente. Lo stanno gia' facendo. Nota che secondo me non c'e' nulla di male nel farlo, perche' dovrebbero essere i programmatori stessi del benchmark a fare questo lavoro, ma se lo facessero non sarebbe piu' un benchmark. E' un gatto che si morde la coda.

OverClocK79®
06-10-2004, 01:01
ormai i benk hanno perso molto.....
dal 3dm2003 ormai diciamo è tutto vga dipendente e cmq sfalsa molto i risultati
per il resto concordo con Fek

BYEZZZZZZZZZZZZZZ

Simon82
06-10-2004, 07:59
Sono dell'idea che questi bench non sono da vedere come attendibili o meno. Sono scene renderizzate in real time che dovrebbero dare l'idea di come il pc si comporta con un ipotetico gioco (cosa che non e' perche come tutti ben sappiamo un gioco ha come sua aggravante tutta la gestione della fisica, l'IA la gestione dei suoni all'occorrenza mentre per quel che si vede in bench simili tutto segue una strada gia' prefissata con nessuna alterazione prevedibile nel software da parte dell'utente). Quindi un vero gioco con un engine paragonabile a quello girerebbe un bel po' piu' lento di quello che vediamo nel 3dmark.

Io (come anche diceva fek) sono dell'idea che non bisogna prendere come riferimento il punteggio finale, ma ognuno dovrebbe ottenere dal 3dmark delle conclusioni "generali" nell'aspettarsi questa grafica nel 2005 o qualcosa di simile perche' alla fine dell'anno sicuramente una grafica simile ci sara'. Con il 3dmark2000 si sono viste in seguito scene molto simili con giochi come Thief2.. con il 3dmark2001 lo stesso si e' visto con giochi come MaxPayne e l'acqua di Nature ha visto molti "cloni" in altri giochi che utilizzavano per la prima volta i PS .. con il 3dmark03 scene alla "Proxicon" si sono viste simili in Doom3 (anche se qui ci abbiamo messo un bel po' di piu' e forse sono gli stessi alla Futuremark ad aver copiato da quel gioco) e ora con il 3dmark05 ci aspetteremo che qualcuno prenda spunto per creare nuovi giochi.

Quindi io vedo 3dmark05 come un appagante vista sul gaming di un domani non molto lontano e non come una in/soddisfazione nel vedere un punteggio piu' o meno alto.

dvd100
06-10-2004, 15:09
fek ha ragione cmq il punteggio ti può servire a vedere se hai dei miglioramenti in oc (perchè i test li fai sempre sulla stessa macchina!)

jumperman
06-10-2004, 15:46
io siceramente in questi giorni sto facendo ampio uso del 3d mark, sia 03 che 05 ma con l'unico scopo di vedere i miglioramenti che ho, aumentando le pepeline o aumentando le frequenze della mia 6800le, sto cercando il giusto compromesso e un dato numerico per l'immediato confornto è l'ideale ;)
E poi cmq a me piace molto la grafica di questi bench, la demo del 2005 sembra un film d'animazione, mi paice molto ;)

Signifer
06-10-2004, 16:00
Originariamente inviato da Raven
Non sono per nulla d'accordo... a livello di architettura nv40 è senza dubbio più "completa" rispetto a r420... semplicemente il 3dmark2005 non è a mio parere adatto a confrontare in maniera diretta 2 architetture così diverse come r420 e nv40...

E' evidente che, allo stato attuale, le schede ATI si trovino a gestire in maniera migliore il benchmark di futuremark, per come è stato strutturato...

Peccato che dopo nei giochi le schede siano in realtà in pratica del tutto equivalenti, con ovvie prevalenze dell'una sull'altra e viceversa in base ai giochi che vengono esaminati... ecco!... io prenderei il 3dmark come una sorta di "gioco" in cui le ati (per ora) si esprimono meglio delle nvidia (così come nvidia si esprime meglio in doom3, tanto per intenderci! ;) )

... peccato solo che il 3dmark non sia un gioco... :p

IMHO è buono solo per verificare che le prestazioni del proprio PC sia in linea con i risultati degli altri PC con lo stesso hardware (per scoprire eventuali "magagne", quindi...)

Però se dovessero programmare un gioco molto simile all'impostazione del 3DMark2005, non ne risulterebbe avantaggiata ATI? Visto che questo benchmark la favorisce un gioco programmato similmente dovrebbe sortire lo stesso effetto.

Inoltre sono stati realizzati molti giochi che hanno preso spunto dai 3DMark2001e 2003; é lecito supporre che lo faranno anche con quest'ultima release..Quindi non andrebbe a tutto vantaggio di ATI?

R@nda
06-10-2004, 16:12
Originariamente inviato da Signifer
Però se dovessero programmare un gioco molto simile all'impostazione del 3DMark2005, non ne risulterebbe avantaggiata ATI? Visto che questo benchmark la favorisce un gioco programmato similmente dovrebbe sortire lo stesso effetto.

Inoltre sono stati realizzati molti giochi che hanno preso spunto dai 3DMark2001e 2003; é lecito supporre che lo faranno anche con quest'ultima release..Quindi non andrebbe a tutto vantaggio di ATI?

Un programmatore valido,programma i giochi con path specifici per architettura,altrimenti che vada a coltivare le patate...

Signifer
06-10-2004, 16:17
Originariamente inviato da R@nda
Un programmatore valido,programma i giochi con path specifici per architettura,altrimenti che vada a coltivare le patate...
Un programmatore NON programma path specificamente per una archittetura.Quello che deve fare è programmare secondo lo standard delle DirectX.Questo standard è stato inventato apposta per dare ai programmatori di giochi la possibilità di lavorare attenendosi a delle specifiche che sono condivise da tutte le architteture delle schede video.
Questo fu fatto per sopperire alla situazione che esisteva ai tempi du 3dFX, cioè quando c'erano giochi che dovevano essere scritti appositamente per ogni set di driver

m@@x
06-10-2004, 16:19
semplicemente la ati in direcTx si comportano meglio delle Nvidia
e questo già si sapeva
perchè nn voler ammettere questa leggera superiorità
che nn sia attendibile al 100% è ovvio ma in definitiva si nota come le ATI mantengano un certo predominio in quest'ambito:D

io sono il primo a dire che contano i giochi ma nn cerchiamo di voler svalutare per forza questo 3dmark solo perchè nn vincono le 6800....quando poi questo permette di sfruttare appieno tutte le potenzialità delle dX9.c

:sofico:


scusa rond@ ma che dici ....allorsa quelli che hanno programmato DOOMIII devono coltivare le patate :rolleyes:

Signifer
06-10-2004, 16:19
Stavo pensando anche che il 3DMark si attiene agli standard delle DirectX e quindi non gli si può muovere l'accusa di essere parziale per una archittetura piuttosto che un'altra.Quindi i futuri giochi che si attengono anch'essi alle DirectX molto probabilmente vedranno lo stesso divario di prestazioni tra l'ATI e la Nvidia.;)

m@@x
06-10-2004, 16:28
secondo me in liena di massima saranno sullo stesso piano a livello di prestazxioni in dX9.c 6800 x800
solo che in qualche occasione in più la spunterà quest'ultima

vedi far cry:)

Signifer
06-10-2004, 16:31
Originariamente inviato da m@@x
secondo me in liena di massima saranno sullo stesso piano a livello di prestazxioni in dX9.c 6800 x800
solo che in qualche occasione in più la spunterà quest'ultima

vedi far cry:)
Secondo me il vantaggio sarà tutto per ATI, vista la sua potenza con i Pixel Shader e Vertex Shader.;)

R@nda
06-10-2004, 16:38
Originariamente inviato da Signifer
Un programmatore NON programma path specificamente per una archittetura.Quello che deve fare è programmare secondo lo standard delle DirectX.Questo standard è stato inventato apposta per dare ai programmatori di giochi la possibilità di lavorare attenendosi a delle specifiche che sono condivise da tutte le architteture delle schede video.
Questo fu fatto per sopperire alla situazione che esisteva ai tempi du 3dFX, cioè quando c'erano giochi che dovevano essere scritti appositamente per ogni set di driver

Non stanno così le cose mi spiace,ogni architettura si interfaccia si alle directx o opengl ma va usata in maniera diversa.
Informati no?

m@@x
06-10-2004, 16:52
quindi vuol dire che quelli che hanno programmato DOOM3 devono coltivare le patate;) o no:)

checo
06-10-2004, 16:52
[QUOTE]Originariamente inviato da Signifer
Io dico che risiede nel fatto che l'archittetura di ATI è essenzialmente migliore. QUOTE]

in realtà è il contrario e lo capirebbe pure un bambino dato che la 6800ultra si batte ad armi pari, o se vuoi sta dietro non di molto con la xt press edition, pur avendo 120mhz in meno. mi sembr ovvio quale delle due sia l'architettura più efficiente.

Signifer
06-10-2004, 16:53
Originariamente inviato da R@nda
Non stanno così le cose mi spiace,ogni architettura si interfaccia si alle directx o opengl ma va usata in maniera diversa.
Informati no?
Sei tu che sei male informata poiché le DirectX sono uno standard a cui ci si attiene per programmare e anche Nvidia e ATI devono tenere presente quello standard quando progettano una scheda video sennò si finisce per fare come la 5800 Ultra con il suo CG e CineFX che ha costretto i programmatori ad usare una path specifica perché era troppa lento nel eseguire le operazioni con le DirectX.
Questo perché voleva fare di testa sua e non aderire ad uno standard.

checo
06-10-2004, 16:53
Originariamente inviato da Signifer
Inoltre sono stati realizzati molti giochi che hanno preso spunto dai 3DMark2001e 2003; é lecito supporre che lo faranno anche con quest'ultima release..Quindi non andrebbe a tutto vantaggio di ATI?

quali? e che spunti avrebbero preso riguardo al motore 3d?

m@@x
06-10-2004, 16:56
X CHECO



si ma che significa?
che discorsi sono
è ovvio che le architetture sono diverse
una ha bisogno di + MHZ e una invece no
però in effetti come lo spieghi che nonostante i megaherz in meno le 6800U consumino di più .....allora in questo caso è ovvio il perchè nn si possa più salire con quell'architettura............
se le ati riscaldavano di più o consumavano di più avevi ragione ma in questo caso hai torto;)

scusa è meglio riflettere prima di parlare;)

l'efficienza nn è data solo da i MHz ....
in effetti potrebbe essere possibile per una scheda video raggiungere le prestazioni di una 6800U con 1000 mila MHZ e consumare solo 10watt a basse temperature....in quel caso l'efficienza è data dalla bontà dell'architettura a salire e consumare e scaldare poco..(il discorso nn vale ovviamente per i PIV dato che nonostante salgano parecchio riscaldano e consumano troppo..ecco perchè secondo me in quel caso è da preferire AMD;)

R@nda
06-10-2004, 17:01
Originariamente inviato da m@@x
quindi vuol dire che quelli che hanno programmato DOOM3 devono coltivare le patate;) o no:)

Esatto,si sono preoccupati più dell'architettura nvidia che non di quella ati,grazie anche al miglior supporto Ogl di nvidia.

E torno a ripetere,gente molto più in gamba di me e di te (signifer) programma tramite Directx e Hlsl tenendo a mente le diversità e le caratteristiche della shcede.
Informati.
Aggiungo,non rispondo oltre,ciao:)

ATi7500
06-10-2004, 17:02
Originariamente inviato da Signifer
Secondo me il vantaggio sarà tutto per ATI, vista la sua potenza con i Pixel Shader e Vertex Shader.;)

i PS 2.0 sono NETTAMENTE più veloci con l'architettura nv40


bYeZ!

Signifer
06-10-2004, 17:02
Originariamente inviato da checo
[QUOTE]Originariamente inviato da Signifer
Io dico che risiede nel fatto che l'archittetura di ATI è essenzialmente migliore. QUOTE]

in realtà è il contrario e lo capirebbe pure un bambino dato che la 6800ultra si batte ad armi pari, o se vuoi sta dietro non di molto con la xt press edition, pur avendo 120mhz in meno. mi sembr ovvio quale delle due sia l'architettura più efficiente.

Io parlo da un punto di vista prestazionale non di efficienza archittetonica.;) Inoltre, nonostante i MHz in meni l'Nvidia è più grande e consuma di più percui non venirmi a parlare di efficienza con l'Nvidia.

Da questo punto di vista rimane meglio ATI,IMHO.

Per risponderti dall'altra parte posso benissimo mettere in evidenza un'altra tua mancanza............''press edition''.

Signifer
06-10-2004, 17:05
Originariamente inviato da checo
quali? e che spunti avrebbero preso riguardo al motore 3d?
3DMark 2000 ha scene molto simili con Thief 2.

Vedi 3DMark 2001 con Lobby-----Max Payne
Le scene che usavani i pixel shader hanni ispirato molte delle scene che ne facevano uso per la prima volta.

3DMark 2003.........Proxycon.........in parte ispirato a Doom 3.;)

checo
06-10-2004, 17:07
Originariamente inviato da Signifer
Io parlo da un punto di vista prestazionale non di efficienza archittetonica.;)

Per risponderti dall'altra parte posso benissimo mettere in evidenza un'altra tua mancanza............''press edition''.

se parli di prestazioni è un discorso, tu puoi dire che è meglio ati e benchè io pensi che le schede siano alla pari può comunque starci è una tua opinone e trova dei riscontri con dei bench.

se parli di architettura è tutto un altro discorso ma devi dirlo ;)

press editon non è una mia mancanza, è una battuta, ma vedo che ad acume siam messi male.

rera
06-10-2004, 17:07
Originariamente inviato da Signifer
Io parlo da un punto di vista prestazionale non di efficienza archittetonica.;)

Da questo punto di vista rimane meglio ATI,IMHO.

Per risponderti dall'altra parte posso benissimo mettere in evidenza un'altra tua mancanza............''press edition''.


in questo momento nv ha l'architettura più efficiente e le schede in prestazioni si equivalgono nel mondo reale (ovvero nei giochi) anche se ati ha frequenze più alte.
Io vedendo questo direi che nv ha tirato fuori un'architettura migliore anche dal punto di vista prestazionale.

ATi7500
06-10-2004, 17:07
Originariamente inviato da Signifer
Le scene che usavani i pixel shader hanni ispirato molte delle scene che ne facevano uso per la prima volta.

3DMark 2003.........Proxycon.........in parte ispirato a Doom 3.;)
i pixel shader sono funzioni ke variano a seconda dell'effetto, non puoi dirmi ke l'acqua del 3dmark2001 è la stessa in altri giochi :D

e per quanto riguarda proxycon..beh ispirato di certo, ma 3dmark è direct3d, doom³ opengl ;)


bYeZ!

Signifer
06-10-2004, 17:09
Originariamente inviato da R@nda
Esatto,si sono preoccupati più dell'architettura nvidia che non di quella ati,grazie anche al miglior supporto Ogl di nvidia.

E torno a ripetere,gente molto più in gamba di me e di te (signifer) programma tramite Directx e Hlsl tenendo a mente le diversità e le caratteristiche della shcede.
Informati.
Aggiungo,non rispondo oltre,ciao:)

Hai ragione nel dire che Doom 3 è stato programmato con i piedi poiché favorisce palesemente l'archittetura Nvidia.........però di certo si deve attenere ad uno standard, che sia OpenGL o DirectX non importa.Non può programmare delle path adatte solo per quella scheda video e incompatibili con una'altra. ;)

Ciao

checo
06-10-2004, 17:10
Originariamente inviato da Signifer
3DMark 2003.........Proxycon.........in parte ispirato a Doom 3.;)


proxycon si ispira a d3, appunto il 3dmark si ispira ai giochi non il contrario.

fosse anche il contrario si ispirerebbero come idea, poi la realizzano come credono loro ergo diffrentemente dall' engine del 3dmark, ergo non puoi dire a priori su che scheda va meglio.

ATi7500
06-10-2004, 17:11
Originariamente inviato da Signifer
Hai ragione nel dire che Doom 3 è stato programmato con i piedi poiché favorisce palesemente l'archittetura Nvidia.........però di certo si deve attenere ad uno standard, che sia OpenGL o DirectX non importa.Non può programmare delle path adatte solo per quella scheda video e incompatibili con una'altra. ;)

Ciao

doom³ HA delle path diverse per ogni chip :)
sul mio pc viene usato il render system nV20 ;)


bYeZ!

Signifer
06-10-2004, 17:11
Originariamente inviato da ATi7500
i PS 2.0 sono NETTAMENTE più veloci con l'architettura nv40


bYeZ!

Però in nei giochi come Far Cry, Tomb Raider che era anche TWIMTBP, per non parlare del 3dMark 2005, che usani i PS 2.0 R420 esce vincente.

Come mai?;) Nonostante il netto vantaggio per NV40.

checo
06-10-2004, 17:13
Originariamente inviato da m@@x
scusa è meglio riflettere prima di parlare;)


appunto :rolleyes:

Originariamente inviato da m@@x
l'efficienza nn è data solo da i MHz ....
in effetti potrebbe essere possibile per una scheda video raggiungere le prestazioni di una 6800U con 1000 mila MHZ e consumare solo 10watt a basse temperature....in quel caso l'efficienza è data dalla bontà dell'architettura a salire e consumare e scaldare poco..(il discorso nn vale ovviamente per i PIV dato che nonostante salgano parecchio riscaldano e consumano troppo..ecco perchè secondo me in quel caso è da preferire AMD;)

allora devi valutare anche la longevità della stessa, il costo e tante altre cose, so anche io che non si guardano solo i mhz per giudicare.

ATi7500
06-10-2004, 17:14
far cry usa i ps 2.0 solo nell'illuminazione
e cmq credo ke una scena negli interni vada meglio su nv40
le scene sugli esterni su x800xt per via del maggiore fill rate ;)


bYeZ!

Signifer
06-10-2004, 17:14
Originariamente inviato da checo
se parli di prestazioni è un discorso, tu puoi dire che è meglio ati e benchè io pensi che le schede siano alla pari può comunque starci è una tua opinone e trova dei riscontri con dei bench.

se parli di architettura è tutto un altro discorso ma devi dirlo ;)

press editon non è una mia mancanza, è una battuta, ma vedo che ad acume siam messi male.

Press Edition forse perché secondo te è una messinscena per i giornalisti?;)

Come vedi, il mio acume è salvo. ;)


Comunque Nvidia, sebbene abbia frequenze più basse consuma di più di NV40 ed anche più grande;perciò non parlare di efficienza.;)

ATi7500
06-10-2004, 17:15
Originariamente inviato da Signifer
Comunque Nvidia, sebbene abbia frequenze più basse consuma di più di NV40 ed anche più grande;perciò non parlare di efficienza.;)
link pls


bYeZ!

Signifer
06-10-2004, 17:15
Originariamente inviato da ATi7500
i pixel shader sono funzioni ke variano a seconda dell'effetto, non puoi dirmi ke l'acqua del 3dmark2001 è la stessa in altri giochi :D

e per quanto riguarda proxycon..beh ispirato di certo, ma 3dmark è direct3d, doom³ opengl ;)


bYeZ!
Certo,non è la stessa, ma sempre ha dato la voglia ai programmatori di sperimentare con i PS.

Per Proxycon, hanno emulato la grafica di Doom 3 con le DirectX.;)

ATi7500
06-10-2004, 17:17
Originariamente inviato da Signifer
Certo,non è la stessa, ma sempre ha dato la voglia ai programmatori di sperimentare con i PS.

Per Proxycon, hanno emulato la grafica di Doom 3 con le DirectX.;)

:rotfl: :asd: :rotfl: :asd:
guarda non commento nessuna delle due frasi :asd:


bYeZ!

checo
06-10-2004, 17:20
Originariamente inviato da Signifer
Press Edition forse perché secondo te è una messinscena per i giornalisti?;)


no, è una battuta letta su una news tutto qua

http://www.theinquirer.net/?article=18850

Signifer
06-10-2004, 17:23
Originariamente inviato da checo
proxycon si ispira a d3, appunto il 3dmark si ispira ai giochi non il contrario.

fosse anche il contrario si ispirerebbero come idea, poi la realizzano come credono loro ergo diffrentemente dall' engine del 3dmark, ergo non puoi dire a priori su che scheda va meglio.
Ma il 3dMark serve anche per dare un'idea dei giochi che usciranno in futuro, o così mi è sembrato leggere im molti post.

DjLode
06-10-2004, 17:26
Originariamente inviato da Signifer
Vedi 3DMark 2001 con Lobby-----Max Payne


Essendo il 3d mark 2001 fatto con il MaxFx motore grafico del primo Max Payne mi sarei stupito del contrario.

Signifer
06-10-2004, 17:31
Originariamente inviato da ATi7500
:rotfl: :asd: :rotfl: :asd:
guarda non commento nessuna delle due frasi :asd:


bYeZ!

Forse perché non ne saresti capace, viste le tue precedenti elucubrazioni.;)

Signifer
06-10-2004, 17:33
Originariamente inviato da checo
no, è una battuta letta su una news tutto qua

http://www.theinquirer.net/?article=18850

E tu commenti sul mio acume?
Quel ''press'' non mi sembra molto ovvia come cosa.

E io come dovrei sapere dove vai a prendere queste cose con la tua mente contorta?

Rifletti, prima di parlare.

ATi7500
06-10-2004, 17:37
Originariamente inviato da Signifer
Forse perché non ne saresti capace, viste le tue precedenti elucubrazioni.;)
ok l'hai voluto tu.. ;)
Originariamente inviato da Signifer
Certo,non è la stessa, ma sempre ha dato la voglia ai programmatori di sperimentare con i PS.
eh si...meno male che c'è il 3dmark..altrimenti i programmatori da dove avrebbero le ispirazioni? :asd:
Originariamente inviato da Signifer
Per Proxycon, hanno emulato la grafica di Doom 3 con le DirectX.
prima dammi il link di questa grande notizia, poi dimmi perchè un'emulazione viaggia a frame rate maggiori dell'originale ;)


bYeZ!

zerothehero
06-10-2004, 17:58
per me il 3d mark l'attendibilità è meno che zero...conviene affidarsi ai bench dei giochi.

Signifer
06-10-2004, 17:59
Originariamente inviato da zerothehero
per il 3d mark l'attendibilità è meno che zero...conviene affidarsi ai bench dei giochi.

con cosa la motivi la tua affermazione?

ATi7500
06-10-2004, 18:07
Originariamente inviato da Signifer
con cosa la motivi la tua affermazione?
rispondi prima a me, invece di dire ke non ho argomentazioni ;)


bYeZ!

fd-82
06-10-2004, 18:07
(non so perchè, ma voi due mi ricordate:)

Il mio tessssssoooro:D :D

Signifer
06-10-2004, 18:09
Originariamente inviato da ATi7500
rispondi prima a me, invece di dire ke non ho argomentazioni ;)


bYeZ!
E quando avrei detto che non hai argomentazioni?

E cosa mi hai chiesto?

zerothehero
06-10-2004, 18:10
Originariamente inviato da Signifer
con cosa la motivi la tua affermazione?


La motivo in base al fatto che il 3d mark è considerato da molti come un programma che determina un punteggio: maggiore è il punteggio, migliore è la scheda grafica.
Questo, a mio avviso, è profondamente falso dal momento che è fin troppo facile con delle scene standart truccare i punteggi "ottimizzando" questo bench per aumentare lo score.

Prendiamo due schede video della precedente generazione:
ati 9800xt e 5900 ultra: i punteggi al 3d mark sono molto simili, ma è PALESE quale delle due architetture sia migliore.

Quale è la credibilità di un bench come questo dal momento che il suo uso è profondamente distorto e considerando che oramai quasi tutti i siti di bench usano i giochi reali?

Io lo uso qualche volta per confrontare tra "amici" i punteggi su stesse schede video e con stessi driver ben sapendo che non ci metterei mai la mano sul fuoco...
;)

Signifer
06-10-2004, 18:10
Originariamente inviato da fd-82


(non so perchè, ma voi due mi ricordate:)

Il mio tessssssoooro:D :D



E tu mi ricordi Gollum!:eek:

ATi7500
06-10-2004, 18:18
Originariamente inviato da ATi7500
ok l'hai voluto tu.. ;)

eh si...meno male che c'è il 3dmark..altrimenti i programmatori da dove avrebbero le ispirazioni? :asd:

prima dammi il link di questa grande notizia, poi dimmi perchè un'emulazione viaggia a frame rate maggiori dell'originale ;)


bYeZ!

Ocram6218
06-10-2004, 18:30
Originariamente inviato da zerothehero
La motivo in base al fatto che il 3d mark è considerato da molti come un programma che determina un punteggio: maggiore è il punteggio, migliore è la scheda grafica.
Questo, a mio avviso, è profondamente falso dal momento che è fin troppo facile con delle scene standart truccare i punteggi "ottimizzando" questo bench per aumentare lo score.

Prendiamo due schede video della precedente generazione:
ati 9800xt e 5900 ultra: i punteggi al 3d mark sono molto simili, ma è PALESE quale delle due architetture sia migliore.

Quale è la credibilità di un bench come questo dal momento che il suo uso è profondamente distorto e considerando che oramai quasi tutti i siti di bench usano i giochi reali?

Io lo uso qualche volta per confrontare tra "amici" i punteggi su stesse schede video e con stessi driver ben sapendo che non ci metterei mai la mano sul fuoco...
;)

Quindi possiamo affermare che il 3d mark influenza tantissimo le scelte della scheda da acquistare?
E' utile solo per i test e non per l'intero score!

bartolino3200
06-10-2004, 18:35
Originariamente inviato da Signifer
Ciao ragazzi.:)

La X800XT PE nel 3DMark 2005 con i Catalyst 4.10 riesce a totalizzare quasi 6000 punti, laddove la Geforce 6800 Ultra ne fa circa 5000.
A vostro parere,a cosa si può attribuire questa differenza così marcata?
Io dico che risiede nel fatto che l'archittetura di ATI è essenzialmente migliore, più ottimizzata, meglio sfruttata grazie al precedente R300.
Non penso si tratti di imbrogli a livello di shader.......come ho sentito per Doom 3.


Il bench è bello ma il punteggio è a dir poco litigarello...alias contati gli fps dei tuoi giochi preferiti con appositi programmini prima con la 6800 poi con la x800 sulla stessa macchina (sempre se il negoziante te le puo prestare). Se vedi che una scheda gira meglio dell' altra coi tuoi giochi prendi quella...
E' ormai strachiaro che gli sforzi di Ati per ottimizzare OpenGL sono tanti ma i risultati non arrivano, senza contare poi del NON pieno supporto e compatibilità per linux. A sto punto uno deve fare solo i propri conti e vedere dove la gpu si avvicina piu alle proprie esigenze. Io per questi vari motivi, sceglierei senza bisbocce NVIDIA.

Imperator86
06-10-2004, 19:49
Originariamente inviato da bartolino3200
Il bench è bello ma il punteggio è a dir poco litigarello...alias contati gli fps dei tuoi giochi preferiti con appositi programmini prima con la 6800 poi con la x800 sulla stessa macchina (sempre se il negoziante te le puo prestare). Se vedi che una scheda gira meglio dell' altra coi tuoi giochi prendi quella...
E' ormai strachiaro che gli sforzi di Ati per ottimizzare OpenGL sono tanti ma i risultati non arrivano, senza contare poi del NON pieno supporto e compatibilità per linux. A sto punto uno deve fare solo i propri conti e vedere dove la gpu si avvicina piu alle proprie esigenze. Io per questi vari motivi, sceglierei senza bisbocce NVIDIA.

Uno sceglie Nvidia se vuole giocare in OpenGL o per lavorare sotto Linux.
Si sceglie ATI per giocare,IMHO.:)

Imperator86
06-10-2004, 19:57
Secondo me il 3DMark va analizzato prova per prova, per vedere i limiti e i punti di forza di una scheda.;)

fek
06-10-2004, 20:03
Originariamente inviato da ATi7500
eh si...meno male che c'è il 3dmark..altrimenti i programmatori da dove avrebbero le ispirazioni? :asd:


Sicuramente non dal 3d mark :)

Guarda, io prendo spesso l'ispirazione dai forum, tipo in questo momento sto lavorando sulle espressioni facciali dei personaggini ed ho avuto una folgorazione: ogni dieci o quindi secondi faccio il morphing fra un personaggio e l'altro, con sdoppiamenti di personalita'. E pensa che uno dei due personaggini ogni tanto si fa prendere da crisi isteriche, piange e chiama la mamma, i moderatori e gli amministratori :asd:
E tutto con la potenza dei 3 vertex shader in piu' della X700!

Questa feature fara' scalpore nel gioco finale, gia' mi immagino IGN citarla, entrera' nella storia ti dico :D

checo
06-10-2004, 20:09
Originariamente inviato da fek
Sicuramente non dal 3d mark :)

Guarda, io prendo spesso l'ispirazione dai forum, tipo in questo momento sto lavorando sulle espressioni facciali dei personaggini ed ho avuto una folgorazione: ogni dieci o quindi secondi faccio il morphing fra un personaggio e l'altro, con sdoppiamenti di personalita'. E pensa che uno dei due personaggini ogni tanto si fa prendere da crisi isteriche, piange e chiama la mamma, i moderatori e gli amministratori :asd:
E tutto con la potenza dei 3 vertex shader in piu' della X700!

Questa feature fara' scalpore nel gioco finale, gia' mi immagino IGN citarla, entrera' nella storia ti dico :D

:rotfl: come pensi di chiamarla? babbeo-user?

Raven
06-10-2004, 20:13
La faccenda è chiusa.... pregasi tornare in topic! ;)

Imperator86
06-10-2004, 20:14
Originariamente inviato da fek
Sicuramente non dal 3d mark :)

Guarda, io prendo spesso l'ispirazione dai forum, tipo in questo momento sto lavorando sulle espressioni facciali dei personaggini ed ho avuto una folgorazione: ogni dieci o quindi secondi faccio il morphing fra un personaggio e l'altro, con sdoppiamenti di personalita'. E pensa che uno dei due personaggini ogni tanto si fa prendere da crisi isteriche, piange e chiama la mamma, i moderatori e gli amministratori :asd:
E tutto con la potenza dei 3 vertex shader in piu' della X700!

Questa feature fara' scalpore nel gioco finale, gia' mi immagino IGN citarla, entrera' nella storia ti dico :D

Però secondo me i benchmark danno una idea di cosa ci si può aspettare in futuro dai giochi, o sbaglio?

fek
06-10-2004, 20:16
Originariamente inviato da Imperator86
Però secondo me i benchmark danno una idea di cosa ci si può aspettare in futuro dai giochi, o sbaglio?

Dal punto di vista grafico?

Si', sicuramente quello che si e' visto nel 3dmark e' cio' su cui piu' o meno tutti stiamo lavorando. Effetto piu' effetto meno. A fine 2005, inizio 2006 tutti i motori 3d dovrebbero piu' o meno fare quelle cose con quella qualita'. Se guardi i video di Unreal 3 gli assomigliano molto.

Imperator86
06-10-2004, 20:21
Originariamente inviato da fek
Dal punto di vista grafico?

Si', sicuramente quello che si e' visto nel 3dmark e' cio' su cui piu' o meno tutti stiamo lavorando. Effetto piu' effetto meno. A fine 2005, inizio 2006 tutti i motori 3d dovrebbero piu' o meno fare quelle cose con quella qualita'. Se guardi i video di Unreal 3 gli assomigliano molto.

Però c'è un altro quesito: questi giochi, quali implementazioni sfrutteranno delle schede video: quelle attuali come i PS 3.0 e le DirectX 9.0c oppure altre non ancora disponibili?

fek
06-10-2004, 20:24
Originariamente inviato da Imperator86
Però c'è un altro quesito: questi giochi, quali implementazioni sfrutteranno delle schede video: quelle attuali come i PS 3.0 e le DirectX 9.0c oppure altre non ancora disponibili?

Aspettati quello che e' top oggi che nel 2006 sara' mainstream.
I piu' evoluti sicuramente useranno ance l'SM3.0. La quasi totalita' sara' molto probabilmente SM2.0 only.

In genere quando si progetta un motore 3d per un gioco che deve uscire, diciamo, in due anni si cerca di indovinare quale sara' il parco gpu piu' diffuso nel periodo di uscita e si scrivere per quelle. Ad esempio Unreal 3 e' progettato con una gpu target con supporto SM3.0 e con 1gb di ram on board.

Le specifiche SM4.0 usciranno fra un annetto circa invece, e le prime GPU con il supporto SM4.0 probabilmente a cavallo di WGF (Longhorn). E diventeranno mainstream fra 4 anni come minimo, e allora i primi giochi cominceranno a supportarle.

Imperator86
06-10-2004, 20:28
Originariamente inviato da fek
Aspettati quello che e' top oggi che nel 2006 sara' mainstream.
I piu' evoluti sicuramente useranno ance l'SM3.0. La quasi totalita' sara' molto probabilmente SM2.0 only.

In genere quando si progetta un motore 3d per un gioco che deve uscire, diciamo, in due anni si cerca di indovinare quale sara' il parco gpu piu' diffuso nel periodo di uscita e si scrivere per quelle. Ad esempio Unreal 3 e' progettato con una gpu target con supporto SM3.0 e con 1gb di ram on board.

Le specifiche SM4.0 usciranno fra un annetto circa invece, e le prime GPU con il supporto SM4.0 probabilmente a cavallo di WGF (Longhorn). E diventeranno mainstream fra 4 anni come minimo, e allora i primi giochi cominceranno a supportarle.

Ma siete voi che programmatori che indirizzate il mercato delle schede video, dicendo che questo gioco verrà creato con queste aspettative in mente,giusto?

Mi puoi spiegare l'utilità dei PS 3.0, se tra 2 anni la totalità dei giochi sarà 2.0?

fek
06-10-2004, 20:36
Originariamente inviato da Imperator86
Ma siete voi che programmatori che indirizzate il mercato delle schede video, dicendo che questo gioco verrà creato con queste aspettative in mente,giusto?

Mi puoi spiegare l'utilità dei PS 3.0, se tra 2 anni la totalità dei giochi sarà 2.0?

No, sono i team di sviluppo a seguire il mercato.
L'utilita' dei PS3.0 e' che fra 4 anni tutti i giochi saranno 3.0 :D

ATi7500
06-10-2004, 20:37
Originariamente inviato da fek
Sicuramente non dal 3d mark :)

Guarda, io prendo spesso l'ispirazione dai forum, tipo in questo momento sto lavorando sulle espressioni facciali dei personaggini ed ho avuto una folgorazione: ogni dieci o quindi secondi faccio il morphing fra un personaggio e l'altro, con sdoppiamenti di personalita'. E pensa che uno dei due personaggini ogni tanto si fa prendere da crisi isteriche, piange e chiama la mamma, i moderatori e gli amministratori :asd:
E tutto con la potenza dei 3 vertex shader in piu' della X700!

Questa feature fara' scalpore nel gioco finale, gia' mi immagino IGN citarla, entrera' nella storia ti dico :D

:rotfl:


bYeZ!

halduemilauno
06-10-2004, 20:41
Originariamente inviato da fek
Sicuramente non dal 3d mark :)

Guarda, io prendo spesso l'ispirazione dai forum, tipo in questo momento sto lavorando sulle espressioni facciali dei personaggini ed ho avuto una folgorazione: ogni dieci o quindi secondi faccio il morphing fra un personaggio e l'altro, con sdoppiamenti di personalita'. E pensa che uno dei due personaggini ogni tanto si fa prendere da crisi isteriche, piange e chiama la mamma, i moderatori e gli amministratori :asd:
E tutto con la potenza dei 3 vertex shader in piu' della X700!

Questa feature fara' scalpore nel gioco finale, gia' mi immagino IGN citarla, entrera' nella storia ti dico :D


e magari torna pure.
ciao.
;)

Imperator86
06-10-2004, 20:42
Originariamente inviato da fek
No, sono i team di sviluppo a seguire il mercato.
L'utilita' dei PS3.0 e' che fra 4 anni tutti i giochi saranno 3.0 :D
Secondo te si possono considerare validi i PS 3.0 della 6800 Ultra che saranno utilizzati, a tua detta, tra 4 anni!?

Raven
06-10-2004, 20:47
Originariamente inviato da Imperator86
Secondo te si possono considerare validi i PS 3.0 della 6800 Ultra che saranno utilizzati, a tua detta, tra 4 anni!?


E' sicuramente meglio averli (nvidia) piuttosto che non averli (ati).... questo mi sembra ovvio....

Se verranno sfruttati?!?!?... boooh??!... chi lo sa!... certo che il futuro va in quella direzione....

Quello che si sa è che comunque i vs3 e ps3 diventeranno lo standard... a differenza di altre feature introdotte da ati di tipo "proprietario" e di cui non si sa l'effettivo utilizzo (3Dc texture compression), vedi il "rivoluzionario" truform.

Imperator86
06-10-2004, 20:49
Originariamente inviato da ATi7500
i PS 2.0 sono NETTAMENTE più veloci con l'architettura nv40


bYeZ!
e come spiegi il vantaggio che ha ATI nel 3dMark 2005?

halduemilauno
06-10-2004, 20:50
Originariamente inviato da Raven
E' sicuramente meglio averli (nvidia) piuttosto che non averli (ati).... questo mi sembra ovvio....

Se verranno sfruttati?!?!?... boooh??!... chi lo sa!... certo che il futuro va in quella direzione....

Quello che si sa è che comunque i vs3 e ps3 diventeranno lo standard... a differenza di altre feature introdotte da ati di tipo "proprietario" e di cui non si sa l'effettivo utilizzo (3Dc texture compression), vedi il "rivoluzionario" truform.


concordo su tutto.
ciao.
:) :)

Imperator86
06-10-2004, 20:51
Originariamente inviato da Raven
E' sicuramente meglio averli (nvidia) piuttosto che non averli (ati).... questo mi sembra ovvio....

Se verranno sfruttati?!?!?... boooh??!... chi lo sa!... certo che il futuro va in quella direzione....

Quello che si sa è che comunque i vs3 e ps3 diventeranno lo standard... a differenza di altre feature introdotte da ati di tipo "proprietario" e di cui non si sa l'effettivo utilizzo (3Dc texture compression), vedi il "rivoluzionario" truform.

Il truform non fu mai utilizzato massicciamente da nessuno,
però quel 3Dc per comprimere le texture potrebbe essere utile se fosse sfruttato a dovere da tutti......:Perfido:

ATi7500
06-10-2004, 20:51
Originariamente inviato da Imperator86
e come spiegi il vantaggio che ha ATI nel 3dMark 2005?

passo la palla a fek
anke perchè non ho ancora visto i dettagli di nv40 e r420 sui test singoli del pixel shader..a proposito..ce ne sono nel 3dmark05 come c'erano nel 03?


bYeZ!

rera
06-10-2004, 20:51
ati ha i driver maggiormente ottimizzati per quel bench. dai tempo al tempo, poi vedi se nv non si riporta alla pari.
per spiegazioni più tecniche qui sul forum ci sono fek e yossarian.

:)

Imperator86
06-10-2004, 20:51
Originariamente inviato da ATi7500
passo la palla a fek
anke perchè non ho ancora visto i dettagli di nv40 e r420 sui test singoli del pixel shader..a proposito..ce ne sono nel 3dmark05 come c'erano nel 03?


bYeZ!
Mi sembra di si, ce ne dovrebbero essere di test?

Fek, ci puoi illuminare tu?

Raven
06-10-2004, 20:54
Originariamente inviato da Imperator86
e come spiegi il vantaggio che ha ATI nel 3dMark 2005?

Leggiti la prima pagina...


Originariamente inviato da fek


Sono pienamente d'accordo con te, io non ho mai lanciato un benchmark in vita mai, o meglio, ho lanciato i vari 3dmark per guardare quello che renderizzavano e capire come (il 2005 e' molto interessante). Mai neppure guardato il punteggio finale.

Uso altri parametri per valutare la prestazioni di una GPU e so che i benchmark sintetici non hanno alcun valore, forse perche' passo ore e ore a fare profiling, cercando i colli di bottiglia. So quanto sia difficile capire dove sia il collo di bottiglia di un'applicazione 3d e se bastasse un solo numerino per riassumere questa ricerca, la mia vita sarebbe molto piu' comoda

In realta' non basta, a volte modificare un paio di istruzion in un pixel shader ti fa guadagnare 10fps, altre voltre riscrivi uno shader completamente e dopo due ore a implementare le migliori trovate che la tecnologia mette a disposizione, lanci e non cambia nulla. Perche'? Perche' il collo di bottiglia era da un'altra parte.

Riportiamo questo discorso al 3dmark, immagina, ad esempio nella scena con l'acqua, che per l'nv40 quello shader rappresenti un collo di bottiglia mentre per l'r420 no (non e' vero, sto inventando, ma per capirci). Basterebbe ottimizzare quello shader e vedresti il punteggio schizzare di un centinaio di punti magari e la stessa modifica su r420 non cambierebbe nulla perche' il collo di bottiglia e' da un'altra parte. E situazioni di questo tipo capitano parecchie volte per ogni singolo frame. Capisci quanto poco significato abbia quel numero se con poche modifiche puoi alterarlo sensibilmente: da qui capisci anche da dove vengano fuori i cheat dei driver Gli IHV sono in grado di lanciare tool specifici alla ricerca dei colli di bottiglia (ne ho visto uno nvidia girare) e possono facilmente individuarli nel 3dmark, correggerlo dal lato del driver ed alterare il punteggio sensibilmente. Lo stanno gia' facendo. Nota che secondo me non c'e' nulla di male nel farlo, perche' dovrebbero essere i programmatori stessi del benchmark a fare questo lavoro, ma se lo facessero non sarebbe piu' un benchmark. E' un gatto che si morde la coda.

Imperator86
06-10-2004, 20:55
Originariamente inviato da rera
ati ha i driver maggiormente ottimizzati per quel bench. dai tempo al tempo, poi vedi se nv non si riporta alla pari.
per spiegazioni più tecniche qui sul forum ci sono fek e yossarian.

:)
Ma queste ottimizzazioni valgono anche per i giochi che usano le stesse tecniche del 3dMark 2005?

Imperator86
06-10-2004, 20:56
Originariamente inviato da Raven
Leggiti la prima pagina...
Ma queste modifiche conservano il loro valore anche nei giochi, è possibile risolvere i colli di bottiglia in questo modo oppure si va a discapito delle prestazioni?

Raven
06-10-2004, 21:04
Originariamente inviato da Imperator86
Ma queste ottimizzazioni valgono anche per i giochi che usano le stesse tecniche del 3dMark 2005?

Assolutamente NO... ogni gioco fa storia a sé... inoltre che vuol dire "giochi che usano le stesse tecniche del 3dMark 2005"?!?!

Non credo esisteranno mai giochi basati sul motore del 3dmark2005... al limite il motore del 3dmark potrà servire da "ispirazione"... e poi un gioco viene specificatamente ottimizzato per firare sulle diverse schede video presenti (a differenza del 3dmark...)

Imperator86
06-10-2004, 21:07
Originariamente inviato da Raven
Assolutamente NO... ogni gioco fa storia a sé... inoltre che vuol dire "giochi che usano le stesse tecniche del 3dMark 2005"?!?!

Non credo esisteranno mai giochi basati sul motore del 3dmark2005... al limite il motore del 3dmark potrà servire da "ispirazione"... e poi un gioco viene specificatamente ottimizzato per firare sulle diverse schede video presenti (a differenza del 3dmark...)

Volevo dire che un gioco ispirato ad un test del 3DMark 2003 coe grafica, avrebbe lo stesso vantaggio delle ottimizzazioni data la loro somiglianza?

Inoltre, non si programma secondo le DirectX che fungono da standard per tutti, quindi perché si deve ottimizzare necessariamente per una scheda?

fek
06-10-2004, 21:13
Originariamente inviato da Imperator86
Volevo dire che un gioco ispirato ad un test del 3DMark 2003 coe grafica, avrebbe lo stesso vantaggio delle ottimizzazioni data la loro somiglianza?

Inoltre, non si programma secondo le DirectX che fungono da standard per tutti, quindi perché si deve ottimizzare necessariamente per una scheda?

Perche' le DX sono uno standard per mandare comandi alla GPU, ma non significa che tutte le GPU eseguono le operazioni X, Y e Z nello stesso tempo.

E se per programmare un determinato effetto posso eseguire indifferentemente i comandi X e Y oppure X e Z (e' solo esempio) ed entrambe le sequenze mi danno lo stesso risultato a video, e' possibile, e succede, che una GPU esegua X e Y piu' velocemente di X e Z, mentre per un'altra GPU e' il contrario.

L'ottimizzazione per una GPU consiste nello spedire i comandi di rendering nella sequenza che viene eseguita piu' velocemente e questa sequenza puo' essere differente per un'altra GPU.

Lo stesso discorso vale per gli shader: se lo shader A e lo shader B producono lo stesso risultato, una GPU magari esegue lo shader A piu' velocemente dello shader B e un'altra GPU esegue piu' velocemente il B.
Ovviamente questo accade perche' due GPU hanno due architetture diverse e i progettisti hanno fatto scelte diverse per quanto riguarda quali operazioni eseguire piu' velocemente.

Imperator86
06-10-2004, 21:22
Originariamente inviato da fek
Perche' le DX sono uno standard per mandare comandi alla GPU, ma non significa che tutte le GPU eseguono le operazioni X, Y e Z nello stesso tempo.

E se per programmare un determinato effetto posso eseguire indifferentemente i comandi X e Y oppure X e Z (e' solo esempio) ed entrambe le sequenze mi danno lo stesso risultato a video, e' possibile, e succede, che una GPU esegua X e Y piu' velocemente di X e Z, mentre per un'altra GPU e' il contrario.

L'ottimizzazione per una GPU consiste nello spedire i comandi di rendering nella sequenza che viene eseguita piu' velocemente e questa sequenza puo' essere differente per un'altra GPU.

Lo stesso discorso vale per gli shader: se lo shader A e lo shader B producono lo stesso risultato, una GPU magari esegue lo shader A piu' velocemente dello shader B e un'altra GPU esegue piu' velocemente il B.
Ovviamente questo accade perche' due GPU hanno due architetture diverse e i progettisti hanno fatto scelte diverse per quanto riguarda quali operazioni eseguire piu' velocemente.

Ti posso chiedere quale scheda video preferisci per il tuo lavore, e per che cosa la preferisci?

fek
06-10-2004, 21:48
Originariamente inviato da Imperator86
Ti posso chiedere quale scheda video preferisci per il tuo lavore, e per che cosa la preferisci?

NV40, per l'SM30 e il floating point blending.

Imperator86
06-10-2004, 21:52
Originariamente inviato da fek
NV40, per l'SM30 e il floating point blending.

Mi puoi spiegare cosa hanno di vantaggioso per quello che fai?

La X800XT PE come ti sembra?

checo
06-10-2004, 22:25
Originariamente inviato da Imperator86
Mi puoi spiegare cosa hanno di vantaggioso per quello che fai?

La X800XT PE come ti sembra?


imho ad uno come fek ovvio garbi di più nv40, perchè essendo più avanzato di r420 può sbizzarrirsi e "giocare" con le nuove feature.

mi sembra logico che gli sviluppatori testino sempre le novità per poi scoprirne i segreti e cominicare ad usarle. ovviamente fek magari la pensa totalmente diversa :D

Imperator86
06-10-2004, 22:29
Originariamente inviato da checo
imho ad uno come fek ovvio garbi di più nv40, perchè essendo più avanzato di r420 può sbizzarrirsi e "giocare" con le nuove feature.

mi sembra logico che gli sviluppatori testino sempre le novità per poi scoprirne i segreti e cominicare ad usarle. ovviamente fek magari la pensa totalmente diversa :D

Da un punto di vista delle feature, la 6800 Ultra è più avanzata, però mi chiedo quando si vedranno cambiamenti radicali.

checo
06-10-2004, 22:30
Originariamente inviato da Imperator86
Da un punto di vista delle feature, la 6800 Ultra è più avanzata, però mi chiedo quando si vedranno cambiamenti radicali.


dipende che intendi per cambiamenti radicali.

Imperator86
06-10-2004, 22:32
Originariamente inviato da checo
dipende che intendi per cambiamenti radicali.

Con cambiamenti radicali volevo dire tecnologie rivoluzionarie........qualcosa come Unreal 3.

Quando saranno implementate nelle schede?

fd-82
06-10-2004, 22:36
Originariamente inviato da Imperator86
Con cambiamenti radicali volevo dire tecnologie rivoluzionarie........qualcosa come Unreal 3.

Quando saranno implementate nelle schede?

Implementare Unreal 3 nelle schede?:D :D

Imperator86
06-10-2004, 22:37
Originariamente inviato da fd-82
Implementare Unreal 3 nelle schede?:D :D

Non Unreal 3; se leggi attentamente, volevo dire le tecnologie che usa Unreal 3.

fd-82
06-10-2004, 22:39
Originariamente inviato da Imperator86
Non Unreal 3; se leggi attentamente, volevo dire le tecnologie che usa Unreal 3.

E' già implementata la tecnologia che usa Unreal 3.:)

yossarian
06-10-2004, 22:41
Originariamente inviato da Imperator86
Da un punto di vista delle feature, la 6800 Ultra è più avanzata, però mi chiedo quando si vedranno cambiamenti radicali.


con R600 e NV60

Imperator86
06-10-2004, 22:45
Originariamente inviato da yossarian
con R600 e NV60
Sai quali saranno i cambiamenti che si avranno con queste architetture?Cosa ci sarà di rivoluzionario?

yossarian
06-10-2004, 22:58
Originariamente inviato da Imperator86
Sai quali saranno i cambiamenti che si avranno con queste architetture?Cosa ci sarà di rivoluzionario?


l'unificazione fisica di PS e VS; il che vuol dire un'unica unità di calcolo in grado di svolgere operazioni sia geometriche che su pixel o texture indifferentemente; questo comporterà architetture di tipo completamente diverso, in cui si avranno grandi (rispetto ad oggi) quantitativi di registri sui chip (che tradotto significa maggior velocità d'elaborazione, perchè i chip avranno la possibilità di caricare un molto maggior numero di dati da elaborare per ogni ciclo di clock), più elevato parallelismo (immagina, ad esempio che le sei vertex pipeline e le 16 pixel pipeline di NV40 o di R420 diverrebbero 22 pipeline in grado di operare indifferentemente su tutti i tipi di dati in input; il vantaggio è che si riducono drasticamente i tempi morti che, nelle elaborazioni attuali sono fisiologici, e dipendono dal modo in cui gli shader sono compilati e riorganizzati a basso livello; inoltre, i programmatori saranno molto più liberi di scrivere il codice: adesso, ad esempio, se scrivi istruzioni per i vertici e, poi, istruzioni per i pixel, hai un aprima fase in cui i PS lavorano poco o nulla e una seconda in cui sono i VS ad essere pressochè inoperosi; se scrivi istruzioni miste si dovrà comunque seguire un certo ordine sequenziale nell'elaborazione che porterà, inevitabilmente, a rendere inoperose alcune delle unità di calcolo che dovranno attendere il risultato di operazioni svolte altrove).

Insomma, il mio amico fek non dovrà più preoccuparsi troppo di cercare di bilanciare il carico di lavoro tra pixel shader e vertex shader, ma potrà sbizzarrirsi a pensare ad altro

:D

DjLode
06-10-2004, 23:04
Yoss, domanda stupida. Ovviamente il codice attuale girerebbe sulle schede con unificato PS e VS ma in che modo. Ritieni possibile un'architettura subito veloce come quella attuale nell'eseguire shaders. Mi spiego meglio, o almeno cerco. Ora come ora direi che R420 e Nv40 e ancora in futuro R520 e Nv50 saranno dei missili a livello di esecuzione shader attuali (intendi "scritto come si usa ora"), ritieni possibile un salto di architettura indolore a livello di esecuzione o prevedi un rallentamento e un ulteriore affinamento successivo?
Che spiegazione del cacchio :asd: spero di averti fatto capire cosa intendo.

jumperman
06-10-2004, 23:24
Che palle ste discussioni inutili, cioè c'è riportato pure l'intervento di un programmatore di giochi che frequenta il forum che ci spiega come sia possobile tramite i driver della scheda, individuare i colli di bottiglia che si hanno con le varie applicazioni direcx e aumentare le prestazioni, in questo caso il punteggio, in quella applicazione/gioco. Ma poi ma come si fà a dire che la Ati è + potente nei vertex shader dopo che non è riuscita a mettere nelle x800 nemmeno il vertex 3.0 :rolleyes:

ATi7500
06-10-2004, 23:41
Originariamente inviato da jumperman
Che palle ste discussioni inutili, cioè c'è riportato pure l'intervento di un programmatore di giochi che frequenta il forum che ci spiega come sia possobile tramite i driver della scheda, individuare i colli di bottiglia che si hanno con le varie applicazioni direcx e aumentare le prestazioni, in questo caso il punteggio, in quella applicazione/gioco. Ma poi ma come si fà a dire che la Ati è + potente nei vertex shader dopo che non è riuscita a mettere nelle x800 nemmeno il vertex 3.0 :rolleyes:

ah perchè il vertex 3.0 esiste? :asd:
cmq la x800 è più forte nei VS della 6800
nei PS2.0 la situazione si ribalta


bYeZ!

yossarian
06-10-2004, 23:51
Originariamente inviato da DjLode
Yoss, domanda stupida. Ovviamente il codice attuale girerebbe sulle schede con unificato PS e VS ma in che modo. Ritieni possibile un'architettura subito veloce come quella attuale nell'eseguire shaders. Mi spiego meglio, o almeno cerco. Ora come ora direi che R420 e Nv40 e ancora in futuro R520 e Nv50 saranno dei missili a livello di esecuzione shader attuali (intendi "scritto come si usa ora"), ritieni possibile un salto di architettura indolore a livello di esecuzione o prevedi un rallentamento e un ulteriore affinamento successivo?
Che spiegazione del cacchio :asd: spero di averti fatto capire cosa intendo.


in teoria, nell'esecuzione della singola istruzione, un'architettura dedicata è sicuramente più veloce; oltretutto, in questa prima fase di passaggio verso architetture di tipo superparallelo, si avranno, sicuramente, strutture di tipo "misto", con alcune unità di calcolo comuni ed altre ancora dedicate a svolgere mansioni relative a calcoli geometrici o a calcoli su pixel; però la maggior lentezza della singola unità sarà compensato da alcuni vantaggi non trascurabili:
1) la possibilità di ridurre drasticamente i tempi di inattività di un blocco della pipeline. Adesso i carichi di lavoro non risultano equamente distribuiti proprio a causa del fatto che ogni pipeline presenta una sequenza di operazioni da eseguire in un ben preciso ordine; cerco di spiegarmi con un esempio: si invia una sequenza di istruzioni relative ad operazioni sui vertici e su pixel e texture; le unità PS devono necessariamente aspettare il risultato dell'elaborazione delle geometrie prima di poter operare; nella fase successiva la palla passa alle pixel pipeline: in questa fase le vertex pipelien sono pressochè inoperose, poichè aspettano un input dalle prime, per sapere su quali valori andare ad operare; questo traffico è ulteriormente complicato dal fatto che pixel pipeline e vertex pipeline accedono ai dati utilizzando buffer diversi.
Con un modello unificato non capiterà mai di avere unità di calcolo inoperose; qualsiasi dati in ingresso sarà "letto" e indirizzato verso la prima unità di calcolo disponibile che, una volta terminata l'elaborazione, lo invierà ad un buffer comune a cui hanno accesso tutte le altre unità che possono "pescare" quel dato e utilizzarlo per successive elaborazioni (questo in maniera molto semplificata, perchè architetture di questo tipo pongono altri quesiti da risolvere, legati principalmente alle modalità di connessione tra i "nodi" e alla condivisione dei buffer; questo ovviamente quando la struttura inizia a diventare piuttosto grande e i nodi numerosi).
2) si semplifica l'architettura del chip: adesso ci sono molti elementi che sono replicati; ad esempio, un circuito che produce, come output una determinata operazione matematica, è implementato sia nelle unità PS che in quelle VS; però il risultato prodotto è di tipo comune alle due; quindi ne basterebbe uno solo per siddifìsfare le esigenze di entrambe. Questo permette di ridurre la ridondanza di elementi all'interno di un chip, a tutto vantaggio dello spazio per poter allocare altre unità di calcolo (aumentare il livello di paralleismo, quindi) e/o altri buffer (aumentare il numero di dati che possono essere caricati on chip ed elaborati senza dover accedere alla ram video o, peggio, a quella di sistema). La semplificazione dell'architettura permette, inoltre, di salire in frequenza.

umile
07-10-2004, 00:05
ragazzi come mai nel cpu 2 test lo schermo rimane nero?

jumperman
07-10-2004, 00:11
Originariamente inviato da ATi7500
ah perchè il vertex 3.0 esiste? :asd:
cmq la x800 è più forte nei VS della 6800
nei PS2.0 la situazione si ribalta


bYeZ!

Ma certo che c'è il vertex 3.0, ma fino ad oggi dove stavi a dormire??
:ronf: :asd: no cmq apparte gli scherzi, se vai qui http://www.hwupgrade.it/articoli/1073/2.html nella tabella vedrai che le 6800 alla voce "Versione Vertex Shader" e "Versione Pixel Shader" hanno scritto un bel 3.0 :sofico:

bartolino3200
07-10-2004, 00:12
Nonostante i termini con i quali si era cominciato questo 3d basta l' intervento di gente seria e competente, che parla per passione oltre che per esperienza, a far salire i toni e l' interesse per determinati argomenti.
Grazie fek e grazie yossarian...come dire le perle ai porci...ovviamente le perle siete voi, io mi avvicino sicuramente piu ai porci...ma almeno ascolto con attenzione ciò che merita...

yossarian
07-10-2004, 00:12
http://www.xbitlabs.com/articles/video/display/3dmark05_12.html

questo è un link con i primi test fatti con PS e 3DMark2005 (con i catalyst 4.11 beta i miglioramenti in questo test sono limitati, mentre sono più sostanzioni con i game test).
Da questi grafici, che danno ATi in vantaggio, si può concludere che l'architettura dell'R420 sia più efficiente?

I risultati vanno valutati facendo le dovute proporzioni; da NV40 a R420 si ha un incremento di frequenza di circa il 30%, a fronte di migliori prestazioni quantificabili in meno del 10%. Può essere suffuciente a dire che l'R420 ha una migliore architettura?
Premetto che, secondo me, questo test non mette in risalto né i punti deboli né quelli di forza dei due chip ma fornisce solo indicazioni su quanto velocemente i due chip svolgono calcoli di tipo matematico (32 operazioni complete per ciascun chip, per ogni ciclo di clock, in questo caso).
Nella scorsa generazione, decretare un vincitore era facile, poichè il chip più veloce era quello che lavorava a frequenze inferiori. Adesso, invece, si rientra nella norma, poichè il chip più veloce è anche quello che ha frequenze più alte; anzi, il gap prestazionale è sensibilmente inferiore a quello a cui potrebbero far pensare le differenze di frequenza. Questo indurrebbe a pensare che ci sia qualcosa, nella soluzioni di nVIDIA, che funzioni meglio rispetto a quella di ATi. Dove l'NV40 va ad accumulare questo vantaggio non è facile da determinare: potrebbe darsi che le unità di calcolo siano un po' più veloci, oppure che i dati in uscita siano smistati meglio (ad esempio quella connessione crossbar tra pixel pipeline e ROP's è uno dei punti a favore dell'NV40).

Per completare il discorso, vi invito a non prendere sul serio questi test per una serie di motivi:
sono dei bei demo tecnologici e possono dare l'idea di quello che saranno i giochi tra qualche anno;
possono fornire utili indicazioni sulle architetture di un chip, permettendo, a chi sa leggere tra le righe, di scoprire punti di forza e colli di bottiglia (però è un lavoro da tecnici);
possono indubbiamente fornire indicazioni sulle ottimizzazioni di un sistema e sui guadagni in overclock.
Diventano del tutto inutili se ci si limita a guardare il risultato finale o a dare un'occhiata superficiale ai grafici, gurdando chi sta più avanti in questo o in quel test, senza fare un minimo di considerazioni su architetture, frequenze, ottimizzazioni ecc.

Rispondo anche a chi diceva che l'R420 ha frequenze più alte e consuma meno. E' vero; questo è frutto di un'alta opera di ingegnerizzazione, del fatto che il chip è meno complesso dell'NV40 (un bel po' di circuiti in meno da alimentare) e del processo low-k, cha ATi ha avuto il coraggio di utilizzare nonostante le criticità intrinseche al processo produttivo a 0,13 u, connesse a questo tipo di tecnologia. Da questo punto di vista va fatto un plauso agli ingegneri e ai tecnici canadesi.
Però questo è solo uno dei tanti elementi di valutazione di un chip.

Fubar
07-10-2004, 07:35
Originariamente inviato da yossarian
http://www.xbitlabs.com/articles/video/display/3dmark05_12.html

questo è un link con i primi test fatti con PS e 3DMark2005 (con i catalyst 4.11 beta i miglioramenti in questo test sono limitati, mentre sono più sostanzioni con i game test).
Da questi grafici, che danno ATi in vantaggio, si può concludere che l'architettura dell'R420 sia più efficiente?

I risultati vanno valutati facendo le dovute proporzioni; da NV40 a R420 si ha un incremento di frequenza di circa il 30%, a fronte di migliori prestazioni quantificabili in meno del 10%. Può essere suffuciente a dire che l'R420 ha una migliore architettura?
Premetto che, secondo me, questo test non mette in risalto né i punti deboli né quelli di forza dei due chip ma fornisce solo indicazioni su quanto velocemente i due chip svolgono calcoli di tipo matematico (32 operazioni complete per ciascun chip, per ogni ciclo di clock, in questo caso).
Nella scorsa generazione, decretare un vincitore era facile, poichè il chip più veloce era quello che lavorava a frequenze inferiori. Adesso, invece, si rientra nella norma, poichè il chip più veloce è anche quello che ha frequenze più alte; anzi, il gap prestazionale è sensibilmente inferiore a quello a cui potrebbero far pensare le differenze di frequenza. Questo indurrebbe a pensare che ci sia qualcosa, nella soluzioni di nVIDIA, che funzioni meglio rispetto a quella di ATi. Dove l'NV40 va ad accumulare questo vantaggio non è facile da determinare: potrebbe darsi che le unità di calcolo siano un po' più veloci, oppure che i dati in uscita siano smistati meglio (ad esempio quella connessione crossbar tra pixel pipeline e ROP's è uno dei punti a favore dell'NV40).

Per completare il discorso, vi invito a non prendere sul serio questi test per una serie di motivi:
sono dei bei demo tecnologici e possono dare l'idea di quello che saranno i giochi tra qualche anno;
possono fornire utili indicazioni sulle architetture di un chip, permettendo, a chi sa leggere tra le righe, di scoprire punti di forza e colli di bottiglia (però è un lavoro da tecnici);
possono indubbiamente fornire indicazioni sulle ottimizzazioni di un sistema e sui guadagni in overclock.
Diventano del tutto inutili se ci si limita a guardare il risultato finale o a dare un'occhiata superficiale ai grafici, gurdando chi sta più avanti in questo o in quel test, senza fare un minimo di considerazioni su architetture, frequenze, ottimizzazioni ecc.

Rispondo anche a chi diceva che l'R420 ha frequenze più alte e consuma meno. E' vero; questo è frutto di un'alta opera di ingegnerizzazione, del fatto che il chip è meno complesso dell'NV40 (un bel po' di circuiti in meno da alimentare) e del processo low-k, cha ATi ha avuto il coraggio di utilizzare nonostante le criticità intrinseche al processo produttivo a 0,13 u, connesse a questo tipo di tecnologia. Da questo punto di vista va fatto un plauso agli ingegneri e ai tecnici canadesi.
Però questo è solo uno dei tanti elementi di valutazione di un chip.

Piuttosto esaustivo!:)

Vifani
07-10-2004, 13:05
Originariamente inviato da Raven
Quello che si sa è che comunque i vs3 e ps3 diventeranno lo standard... a differenza di altre feature introdotte da ati di tipo "proprietario" e di cui non si sa l'effettivo utilizzo (3Dc texture compression), vedi il "rivoluzionario" truform.

Che i VS3 e PS3 diventeranno lo standard è vero, ma non denigrerei il 3Dc che, tra l'altro, è candidato a diventare il formato di compressione ufficiale per le normal map nelle specifiche WGF 1.0.

ATI non è la sola a presentare funzionalità proprietarie. Esistono altre funzionalità, una delle quali usata proprio nel 3DMark05, proprietarie di NVIDIA ed esterne al core minimo necessario per dichiarare una scheda video DirectX 9 compliant.

bartolino3200
07-10-2004, 13:13
Originariamente inviato da Vifani
Che i VS3 e PS3 diventeranno lo standard è vero, ma non denigrerei il 3Dc che, tra l'altro, è candidato a diventare il formato di compressione ufficiale per le normal map nelle specifiche WGF 1.0.

ATI non è la sola a presentare funzionalità proprietarie. Esistono altre funzionalità, una delle quali usata proprio nel 3DMark05, proprietarie di NVIDIA ed esterne al core minimo necessario per dichiarare una scheda video DirectX 9 compliant.

La metamorfosi continua,...

fek
07-10-2004, 14:09
Originariamente inviato da Vifani
Che i VS3 e PS3 diventeranno lo standard è vero, ma non denigrerei il 3Dc che, tra l'altro, è candidato a diventare il formato di compressione ufficiale per le normal map nelle specifiche WGF 1.0.


Il 3dc per altro e' uno standard aperto, perche' ATI non richiede royalty per la sua implementazionie Per questo e' un ottimo candidato per le WGF, come DXT e' lo standard per la compressione delle diffuse map.

Fubar
07-10-2004, 14:11
Originariamente inviato da fek
Il 3dc per altro e' uno standard aperto, perche' ATI non richiede royalty per la sua implementazionie Per questo e' un ottimo candidato per le WGF, come DXT e' lo standard per la compressione delle diffuse map.

scusa l'ignoranza, ma che cosa è il WGF?

fek
07-10-2004, 14:14
Originariamente inviato da Fubar
scusa l'ignoranza, ma che cosa è il WGF?

Il nuovo nome per le DirectX10 che usciranno con Longhorn.
L'acronimo vuol dire Windows Graphics Foundations, perche' sostituisce le GDI e sara' l'API con la quale Longhorn disegna l'interfaccia.

halduemilauno
07-10-2004, 14:15
Originariamente inviato da Fubar
scusa l'ignoranza, ma che cosa è il WGF?

i sostituti delle dx.
;)

Fubar
07-10-2004, 14:17
Originariamente inviato da fek
Il nuovo nome per le DirectX10 che usciranno con Longhorn.
L'acronimo vuol dire Windows Graphics Foundations, perche' sostituisce le GDI e sara' l'API con la quale Longhorn disegna l'interfaccia.

Scusami ancora, ma implementando il 3dc dell'ATI che vantaggi si avrebbe da un punto di vista grafico?

marcvtr
07-10-2004, 15:07
La compressione delle normal maps:O

marcvtr
07-10-2004, 15:13
[QUOTE]Da questi grafici, che danno ATi in vantaggio, si può concludere che l'architettura dell'R420 sia più efficiente?

I risultati vanno valutati facendo le dovute proporzioni; da NV40 a R420 si ha un incremento di frequenza di circa il 30%, a fronte di migliori prestazioni quantificabili in meno del 10%. Può essere suffuciente a dire che l'R420 ha una migliore architettura?
Premetto che, secondo me, questo test non mette in risalto né i punti deboli né quelli di forza dei due chip ma fornisce solo indicazioni su quanto velocemente i due chip svolgono calcoli di tipo matematico (32 operazioni complete per ciascun chip, per ogni ciclo di clock, in questo caso).
Nella scorsa generazione, decretare un vincitore era facile, poichè il chip più veloce era quello che lavorava a frequenze inferiori. Adesso, invece, si rientra nella norma, poichè il chip più veloce è anche quello che ha frequenze più alte; anzi, il gap prestazionale è sensibilmente inferiore a quello a cui potrebbero far pensare le differenze di frequenza. Questo indurrebbe a pensare che ci sia qualcosa, nella soluzioni di nVIDIA, che funzioni meglio rispetto a quella di ATi. Dove l'NV40 va ad accumulare questo vantaggio non è facile da determinare: potrebbe darsi che le unità di calcolo siano un po' più veloci, oppure che i dati in uscita siano smistati meglio (ad esempio quella connessione crossbar tra pixel pipeline e ROP's è uno dei punti a favore dell'NV40).



Più completo, obettivo e razionale di così .....
;)

DjLode
07-10-2004, 15:14
Originariamente inviato da fek
Il 3dc per altro e' uno standard aperto, perche' ATI non richiede royalty per la sua implementazionie Per questo e' un ottimo candidato per le WGF, come DXT e' lo standard per la compressione delle diffuse map.

Tempo fa era uscita una news (o forse lo avevo letto io da qualche parte) in cui si diceva che pure Nvidia era interessata a proporre un metodo di compressione delle normal map. Ricordo male io oppure no? Altrimenti se questo 3dc fosse inserito nelle specifiche dx, Nvidia verrebbe "tagliata" fuori e dovrebbe adeguarsi. Altrimenti succederebbe ad Ati nel caso inverso. E' un bel casino :)

Fubar
07-10-2004, 15:20
Sapete che altre novità ci saranno con le DirectX 10?

Fubar
07-10-2004, 15:21
Originariamente inviato da DjLode
Tempo fa era uscita una news (o forse lo avevo letto io da qualche parte) in cui si diceva che pure Nvidia era interessata a proporre un metodo di compressione delle normal map. Ricordo male io oppure no? Altrimenti se questo 3dc fosse inserito nelle specifiche dx, Nvidia verrebbe "tagliata" fuori e dovrebbe adeguarsi. Altrimenti succederebbe ad Ati nel caso inverso. E' un bel casino :)
Non possono sviluppare un metodo di compressione che vada bene per tutte e due le architetture?

Vifani
07-10-2004, 15:23
Originariamente inviato da fek
Il 3dc per altro e' uno standard aperto, perche' ATI non richiede royalty per la sua implementazionie Per questo e' un ottimo candidato per le WGF, come DXT e' lo standard per la compressione delle diffuse map.

Si infatti essendo aperto ha catturato l'attenzione di molti. Tra l'altro non dovrebbe neanche essere difficile da implementare. Alla fine è un formato di compressione.

Che ne dici nel WGF 1.0 ci mettono anche DST e PCF ? :)

Fubar
07-10-2004, 15:24
Originariamente inviato da Vifani
Si infatti essendo aperto ha catturato l'attenzione di molti. Tra l'altro non dovrebbe neanche essere difficile da implementare. Alla fine è un formato di compressione.

Che ne dici nel WGF 1.0 ci mettono anche DST e PCF ? :)

Che cos'è il DST e il PCF

Grazie.:)

Vifani
07-10-2004, 15:25
Originariamente inviato da Fubar
Non possono sviluppare un metodo di compressione che vada bene per tutte e due le architetture?

L'implementazione del 3DC non è un discorso di architettura nel senso che NVIDIA potrebbe implementarlo e probabilmente non gli costerebbe niente a livello tecnico. Così come in passato sono stati supportati dai chip grafici i formati DXTC (che prima ancora si chiamava S3TC ed erano esclusiva delle Savage) in quanto standard, potrebbe accadere anche per 3DC.

Vifani
07-10-2004, 15:27
Originariamente inviato da Fubar
Che cos'è il DST e il PCF

Grazie.:)

DST = Depth Stencil Shadow
PCF = Percentage Closest Filtering

Sono utilizzati per realizzare alcuni tipi di shadow map tra cui anche quelle del 3DMark05 (e di molti futuri giochi).

Fubar
07-10-2004, 15:27
Originariamente inviato da Vifani
L'implementazione del 3DC non è un discorso di architettura nel senso che NVIDIA potrebbe implementarlo e probabilmente non gli costerebbe niente a livello tecnico. Così come in passato sono stati supportati dai chip grafici i formati DXTC (che prima ancora si chiamava S3TC ed erano esclusiva delle Savage) in quanto standard, potrebbe accadere anche per 3DC.

Quindi tu dici che il 3dc diverrebbe uno standard;) ,

ma questo andrà a discapito di Nvidia che non lo supporta?

Vifani
07-10-2004, 15:28
Originariamente inviato da Fubar
Quindi tu dici che il 3dc diverrebbe uno standard;) ,

ma questo andrà a discapito di Nvidia che non lo supporta?

Beh questo dipende. Se il 3dc diventerà parte del WGF 1.0 in misura definitiva, penso che NVIDIA lo supporterà. Anche all'epoca solo i chip Savage supportavano il S3TC, ma alla fine c'è voluto poco per farlo supportare dagli altri.

Fubar
07-10-2004, 15:33
Originariamente inviato da Vifani
Beh questo dipende. Se il 3dc diventerà parte del WGF 1.0 in misura definitiva, penso che NVIDIA lo supporterà. Anche all'epoca solo i chip Savage supportavano il S3TC, ma alla fine c'è voluto poco per farlo supportare dagli altri.

E quali altre novità ci potremmo aspettare dal WGF 1.0?

Io sapevo che i PS e VS saranno unificati nello SM 4.0.;)

marcvtr
07-10-2004, 15:33
No lui intende dire che come fu per la compressione delle textures S3TC, implementata per prima da S3, e che ora si chiama in vari modi, così potrebbe diventare per la compressione delle normal maps 3Dc, implementato da Ati. Probabilmente non si chimerà più 3Dc, magari DXNC (Direct X Normal Map Compression, per fantasticare), ma ci sarà.

DjLode
07-10-2004, 15:33
Originariamente inviato da Fubar
Non possono sviluppare un metodo di compressione che vada bene per tutte e due le architetture?

Nvidia potrebbe adottare quello sviluppato da Ati. Il problema è lo farà? Dubito. A meno che non sia costretta. Ne svilupperà uno per conto suo che quasi sicuramente non sarà compatibile o camparabile con quello Ati.
Prevedo l'esistenza di due metodi, entrambi inseriti nelle WGF. E come dissi è un casino :)

Fubar
07-10-2004, 15:39
Originariamente inviato da DjLode
Nvidia potrebbe adottare quello sviluppato da Ati. Il problema è lo farà? Dubito. A meno che non sia costretta. Ne svilupperà uno per conto suo che quasi sicuramente non sarà compatibile o camparabile con quello Ati.
Prevedo l'esistenza di due metodi, entrambi inseriti nelle WGF. E come dissi è un casino :)
Ma se ci saranno due metodi di compressione,IMHO improbabile,
come faranno i programmatori a scegliere quale dei due usare e inoltre non si creerebbe una situazioni troppo complicata?

Fubar
07-10-2004, 15:39
Originariamente inviato da marcvtr
No lui intende dire che come fu per la compressione delle textures S3TC, implementata per prima da S3, e che ora si chiama in vari modi, così potrebbe diventare per la compressione delle normal maps 3Dc, implementato da Ati. Probabilmente non si chimerà più 3Dc, magari DXNC (Direct X Normal Map Compression, per fantasticare), ma ci sarà.

Capito.;)

DjLode
07-10-2004, 15:50
Originariamente inviato da Fubar
Ma se ci saranno due metodi di compressione,IMHO improbabile,
come faranno i programmatori a scegliere quale dei due usare e inoltre non si creerebbe una situazioni troppo complicata?

Il che si sintetizza con "E' un casino" :asd:

Fubar
07-10-2004, 15:55
Originariamente inviato da DjLode
Il che si sintetizza con "E' un casino" :asd:

Giusto!:) Ma come se ne esce?

Vifani
07-10-2004, 17:29
Originariamente inviato da Fubar
Giusto!:) Ma come se ne esce?

Quello non è un problema. E' facile fare una query al driver per chiedere quale formato supporta e, di conseguenza, quale utilizzare. Comunque è pur sempre una rottura per un programmatore.

Simon82
07-10-2004, 17:34
Complimenti a Raffaele per la rece su 3dmark. :)

Fubar
07-10-2004, 18:29
x Vifani

I miei complimenti per l'ottima recensione del 3DMark 2005

Ti volevo chiedere se puoi chiarirmi questi dubbi:

A) Come mai questi PS 3.0 si sono rivelati così scarsi una volta messi sotto sforzo.? E' lecito pensare che le prestazioni nei giochi con questi PS 3.0 saranno allineate con ciò che è stato visto nel benchmark?

B)Perche' Nvidia, pur avendo lo stesso numero di VS di ATI, si è rivelata molto meno performante con questi?

C)Perché ATI ha questo enorme potenza nel calcolo poligonale rispetto ad Nvidia?

D) Il mercato dei giochi userà le stesse tecnologie usate nel benchmark, e se si, quando si vedranno e le prestazioni saranno allineate con quelle viste nel benchmark?

Grazie e scusami se ti chiedo troppo.:) :D

halduemilauno
07-10-2004, 18:32
Originariamente inviato da Fubar
x Vifani

I miei complimenti per l'ottima recensione del 3DMark 2005

Ti volevo chiedere se puoi chiarirmi questi dubbi:

A) Come mai questi PS 3.0 si sono rivelati così scarsi una volta messi sotto sforzo.? E' lecito pensare che le prestazioni nei giochi con questi PS 3.0 saranno allineate con ciò che è stato visto nel benchmark?

B)Perche' Nvidia, pur avendo lo stesso numero di VS di ATI, si è rivelata molto meno performante con questi?

C)Perché ATI ha questo enorme potenza nel calcolo poligonale rispetto ad Nvidia?

D) Il mercato dei giochi userà le stesse tecnologie usate nel benchmark, e se si, quando si vedranno e le prestazioni saranno allineate con quelle viste nel benchmark?

Grazie e scusami se ti chiedo troppo.:) :D

ma tutte queste cose non le avevi gia chieste con l'altro nick?

:muro:

Fubar
07-10-2004, 18:39
Può anche rispondermi qualcun'altro oltre a Vifani.:)

FreeMan
07-10-2004, 18:48
puoi anche smettere di fare le stese domande.. a meno che non sia per far perdere tempo alla gente...

>bYeZ<

Fubar
07-10-2004, 18:51
Originariamente inviato da FreeMan
puoi anche smettere di fare le stese domande.. a meno che non sia per far perdere tempo alla gente...

>bYeZ<

Che cosa c'è che non va con quello che ho scritto?

Io vorrei essere chiarito su questi punti poiché mi interessa e secondo me è d'attualità.

marcvtr
07-10-2004, 18:52
[QUOTE]Voler seguire il trend del mercato distaccandosi dal core minimo DirectX 9 non desta scalpore più di tanto se non per il fatto che nel 3DMark05 manca il supporto al formato di compressione 3Dc proprietario di ATI. Anche in questo caso, infatti, si tratta di una funzionalità che se da un lato è specifica per una famiglia di processori grafici, dall'altra sarà sicuramente utilizzata da diversi titoli in futuro (Half Life 2 uno su tutti) e, probabilmente, farà parte delle specifiche del Windows Graphic Fondation 1.0, nome sotto il quale si cela la prossima versione del Direct 3D.[\QUOTE]

Questo spezzone di cui sopra è una fonte di HW Upgrade dalla recensione del 3D Mark 05 (scritta forse da Vifani?)

Per quanto riguarda il precedente discorso che avevamo affrontato sul 3Dc di Ati, leggete in proprosito.

Fubar
07-10-2004, 18:55
Originariamente inviato da marcvtr
[QUOTE]Voler seguire il trend del mercato distaccandosi dal core minimo DirectX 9 non desta scalpore più di tanto se non per il fatto che nel 3DMark05 manca il supporto al formato di compressione 3Dc proprietario di ATI. Anche in questo caso, infatti, si tratta di una funzionalità che se da un lato è specifica per una famiglia di processori grafici, dall'altra sarà sicuramente utilizzata da diversi titoli in futuro (Half Life 2 uno su tutti) e, probabilmente, farà parte delle specifiche del Windows Graphic Fondation 1.0, nome sotto il quale si cela la prossima versione del Direct 3D.[\QUOTE]

Questo spezzone di cui sopra è una fonte di HW Upgrade dalla recensione del 3D Mark 05 (scritta forse da Vifani?)

Per quanto riguarda il precedente discorso che avevamo affrontato sul 3Dc di Ati, leggete in proprosito.

Cosa vuoi dire con questo?:confused:

FreeMan
07-10-2004, 18:58
Originariamente inviato da Fubar
Che cosa c'è che non va con quello che ho scritto?

Io vorrei essere chiarito su questi punti poiché mi interessa e secondo me è d'attualità.

secondo me la gente si stuferà di te..dico quella che ancora non l'ha fatto...

>bYeZ<

marcvtr
07-10-2004, 19:02
Come cosa voglio dire?
:eek:

Poco fa discutevamo con altri su una ipotetica implementazione del 3Dc nei giochi e ho quotato questa fonte a proposito, perchè mi sembra interessante per tutti.

Ma cosa ho fatto di male?:confused:

ATi7500
07-10-2004, 19:02
Originariamente inviato da Fubar
Che cosa c'è che non va con quello che ho scritto?

Io vorrei essere chiarito su questi punti poiché mi interessa e secondo me è d'attualità.

chiarito? leggiti la recensione, le tue domande sono soddisfatte nella parte ke non capisci :asd:


bYeZ!

Vifani
07-10-2004, 19:03
Originariamente inviato da Fubar
x Vifani

I miei complimenti per l'ottima recensione del 3DMark 2005

Ti volevo chiedere se puoi chiarirmi questi dubbi:

A) Come mai questi PS 3.0 si sono rivelati così scarsi una volta messi sotto sforzo.? E' lecito pensare che le prestazioni nei giochi con questi PS 3.0 saranno allineate con ciò che è stato visto nel benchmark?

B)Perche' Nvidia, pur avendo lo stesso numero di VS di ATI, si è rivelata molto meno performante con questi?

C)Perché ATI ha questo enorme potenza nel calcolo poligonale rispetto ad Nvidia?

D) Il mercato dei giochi userà le stesse tecnologie usate nel benchmark, e se si, quando si vedranno e le prestazioni saranno allineate con quelle viste nel benchmark?

Grazie e scusami se ti chiedo troppo.:) :D

A) Non è che i PS 3.0 si sono rivelati scarsi. Il discorso è un altro. Probabilmente per gli shader 3DMark non ha utilizzato funzionalità dei PS 3.0 al punto da offrire un reale vantaggio derivante dal loro utilizzo (rispetto ai 2.0). Questo è abbastanza comprensibile in quanto è molto improbabile che gli sviluppatori di software per i videogiochi che usciranno entro un anno facciano un uso così estremo dei PS 3.0 da far funzionare "male" i PS 2.0. La maggioranza dei chip in commercio non è di certo 3.0 ready.

B e C) Questa domanda dovresti rivolgerla agli ingegneri di ATI e NVIDIA :D Scherzi a parte, esiste una notevole differenza in termini di clock tra R420 e NV40 e probabilmente è stato questo l'elemento che ha fatto la differenza. Poi c'è da considerare che le unità VS di R420 sono diverse da quelle di NV40. Una delle due è sicuramente + efficiente dell'altra a parità di clock. La mia impressione è che NV40 sia, a parità di clock, + efficiente e veloce di R420, ma ovviamente paga 120 Mhz di svantaggio (se confrontiamo X800 XT PE vs 6800 Ultra), una differenza che porta ATI in posizione di vantaggio per i VS.

D) Beh considerando che bene o male nei PS la X800 XT PE e la 6800 Ultra sono più o meno sullo stesso livello, se i giochi dovessero avere una grande mole di poligoni è possibile che la situazione del 3DMark si riproponga, ma ovviamente le mie sono solo supposizioni. Ci sono troppe variabili da considerare e dipende molto dal genere di shader e dalla struttura del motore grafico.

Fubar
07-10-2004, 19:05
Originariamente inviato da Vifani
A) Non è che i PS 3.0 si sono rivelati scarsi. Il discorso è un altro. Probabilmente per gli shader 3DMark non ha utilizzato funzionalità dei PS 3.0 al punto da offrire un reale vantaggio derivante dal loro utilizzo (rispetto ai 2.0). Questo è abbastanza comprensibile in quanto è molto improbabile che gli sviluppatori di software per i videogiochi che usciranno entro un anno facciano un uso così estremo dei PS 3.0 da far funzionare "male" i PS 2.0. La maggioranza dei chip in commercio non è di certo 3.0 ready.

B e C) Questa domanda dovresti rivolgerla agli ingegneri di ATI e NVIDIA :D Scherzi a parte, esiste una notevole differenza in termini di clock tra R420 e NV40 e probabilmente è stato questo l'elemento che ha fatto la differenza. Poi c'è da considerare che le unità VS di R420 sono diverse da quelle di NV40. Una delle due è sicuramente + efficiente dell'altra a parità di clock. La mia impressione è che NV40 sia, a parità di clock, + efficiente e veloce di R420, ma ovviamente paga 120 Mhz di svantaggio (se confrontiamo X800 XT PE vs 6800 Ultra), una differenza che porta ATI in posizione di vantaggio per i VS.

D) Beh considerando che bene o male nei PS la X800 XT PE e la 6800 Ultra sono più o meno sullo stesso livello, se i giochi dovessero avere una grande mole di poligoni è possibile che la situazione del 3DMark si riproponga, ma ovviamente le mie sono solo supposizioni. Ci sono troppe variabili da considerare e dipende molto dal genere di shader e dalla struttura del motore grafico.

Grazie mille.:)

Questa è gente intelligente che merita la stima dovutagli..........;)

Fubar
07-10-2004, 19:07
Originariamente inviato da marcvtr
Come cosa voglio dire?
:eek:

Poco fa discutevamo con altri su una ipotetica implementazione del 3Dc nei giochi e ho quotato questa fonte a proposito, perchè mi sembra interessante per tutti.

Ma cosa ho fatto di male?:confused:

Non hai fatto niente di male!:D

Volevo solo capire cosa c'entrava poiché mi ero scordato della precedente discussione.:D


Cmq quel parte della recensione chiarisce molti punti. ;)

marcvtr
07-10-2004, 19:10
Si infatti, Hardware Upgrade è sempre completa a 360 gradi

Fubar
07-10-2004, 19:12
Originariamente inviato da marcvtr
Si infatti, Hardware Upgrade è sempre completa a 360 gradi


E' vero quello che dici.



Fatta eccezione per certi soggetti.........:asd:

checo
07-10-2004, 19:13
Originariamente inviato da Fubar



C)Perché ATI ha questo enorme potenza nel calcolo poligonale rispetto ad Nvidia?



le sue unità vs saranno meno efficienti, o ugualmente efficienti a parità di frequenza. ciò non toglio che per entrambe la potenza è enorme

Fubar
07-10-2004, 19:15
Originariamente inviato da checo
le sue unità vs saranno meno efficienti, o ugualmente efficienti a parità di frequenza. ciò non toglio che per entrambe la potenza è enorme

Sono d'accordo che sono due ottime schede che più o meno si equivalgono.

Beato chi ha un budget da potergli permettere di comprarle tutte e due.:D

FreeMan
07-10-2004, 19:19
Originariamente inviato da Fubar
Grazie mille.:)

Questa è gente intelligente che merita la stima dovutagli..........;)

forse non ha capito o non sa chi sei ;)

Originariamente inviato da Fubar
E' vero quello che dici.



Fatta eccezione per certi soggetti.........:asd:

come quelli che insultano in pvt? altre persone ne sono state vittime..

sei ancora peggio di un troll ;)

>bYeZ<

ATi7500
07-10-2004, 20:00
Originariamente inviato da FreeMan
forse non ha capito o non sa chi sei ;)



come quelli che insultano in pvt? altre persone ne sono state vittime..

sei ancora peggio di un troll ;)

>bYeZ<

e cosa c'è di peggio di un troll? :asd:


bYeZ!

FreeMan
07-10-2004, 20:13
lui :asd:

>bYeZ<

Fubar
07-10-2004, 20:15
Non inquiniamo il thread per favore.;)

halduemilauno
07-10-2004, 20:16
Originariamente inviato da Fubar
Non inquiniamo il thread per favore.;)


:rotfl: :rotfl: :rotfl: :rotfl: :rotfl:

ATi7500
07-10-2004, 20:21
Originariamente inviato da Fubar
Non inquiniamo il thread per favore.;)
l'unico ke inquina qui dentro sei tu :asd:


bYeZ!

marcvtr
07-10-2004, 20:43
Ragazzi a cosa serve l'HyperZ+ HD nelle Ati?
è da comparare all' Ultrashadow 2 di Nvidia?

Fubar
07-10-2004, 20:47
Originariamente inviato da marcvtr
Ragazzi a cosa serve l'HyperZ+ HD nelle Ati?
è da comparare all' Ultrashadow 2 di Nvidia?

Hyperz HD è il nome della nuova versione implementata nell'R420 della tecnologia Ati che permette di limitare l'overdraw, ovvero ridurre il carico di lavoro della GPU ed alleggerire il traffico di dati da e verso la memoria scartando i poligoni non visibili, perchè coperti da altri, nella scena da renderizzare.

Le funzioni Hyper Z vengono svolte a livello di quad pipeline e quindi la loro efficienza scala con il numero di pipelines disponibili. Rispetto alle precedenti versioni di Hyper Z, con questa vengono aumentati il numero di pixel che possono essere scartati con ogni operazione: vengono scartati sino ad un massimo di 256 Pixel e vengono eseguite sino a 32 operazioni Z/stencil per ciclo di clock.

Il lavoro principale svolto da Ati su questa unità è mirato a migliorarne l'efficienza e ne ha introdotto l'uso alte risoluzioni (1600x1200 e 1920x1080): anche in questo caso lo scopo di ATi è diminuire la caduta di prestazioni che solitamente si presenta specialmente se le alte risoluzioni sono abbinate all'utilizzo contemporaneo di antialiasing e filtraggio anisotropico.

:)

Fubar
07-10-2004, 20:52
http://www.beyond3d.com/forum/viewtopic.php?t=16710

Ragazzi vi posto questo link a Beyond3d...........in poche parole dice che il 3dc non porta sempre vantaggi, poichè usando il DXT5
con mappe non normalizzate, le prestazioni sono superiori al 3dc.

Che ne pensate?


Qualcuno può fornire informazioni.:)

marcvtr
07-10-2004, 20:56
D'accordo su ciò ke hai detto, ma cosa c'entra limitare l'overdraw!?

Nvidia non gode di una tecnologia di scarto dei poligoni non visibili?

DjLode
07-10-2004, 21:04
Originariamente inviato da Fubar
http://www.beyond3d.com/forum/viewtopic.php?t=16710

Ragazzi vi posto questo link a Beyond3d...........in poche parole dice che il 3dc non porta sempre vantaggi, poichè usando il DXT5
con mappe non normalizzate, le prestazioni sono superiori al 3dc.

Che ne pensate?


Qualcuno può fornire informazioni.:)

Ma se il 3dc serve per comprimere le normal map, che senso ha confrontarlo con in DXTC con mappe non normalizzate?

fek
07-10-2004, 22:47
Originariamente inviato da Fubar
Non inquiniamo il thread per favore.;)

Ma no, di nuovo lui?

fek
07-10-2004, 22:50
Originariamente inviato da Vifani
Si infatti essendo aperto ha catturato l'attenzione di molti. Tra l'altro non dovrebbe neanche essere difficile da implementare. Alla fine è un formato di compressione.

Che ne dici nel WGF 1.0 ci mettono anche DST e PCF ? :)

Si spera che gli diano una definizione univoca perche' al momento e' un po' confuso, nel senso che non c'e' un comando col quale chiedere "ora voglio fare PCF con questo texture fetch". Se la texture e' di un particolare formato, se sono rispettate certe condizioni, allora (forse) quel texture fetch sara' un PCF.
Non e' soluzione molto elegante.

fek
07-10-2004, 22:51
Originariamente inviato da DjLode
Ma se il 3dc serve per comprimere le normal map, che senso ha confrontarlo con in DXTC con mappe non normalizzate?

Ma soprattutto, che senso ha una normale non normalizzata? :D

Vifani
08-10-2004, 00:32
Originariamente inviato da fek
Ma soprattutto, che senso ha una normale non normalizzata? :D

Eheheheh :D

Come si dice da queste parti: siamo alla frutta :D

fek
08-10-2004, 01:03
Originariamente inviato da Vifani
Eheheheh :D

Come si dice da queste parti: siamo alla frutta :D

O da queste parti si dice: we are to the fruit.

Terrificante questa... mi ritiro a vita privata :|

DjLode
08-10-2004, 08:57
Per me un sorbetto grazie :)

Fubar
08-10-2004, 19:12
Io vado sul leggero.........datemi una percoca.:D

bartolino3200
08-10-2004, 19:27
e sappiamo tutti a chi mi riferisco. Ma ora basta chiudete sto 3d...

Fubar
08-10-2004, 19:35
Originariamente inviato da bartolino3200
e sappiamo tutti a chi mi riferisco. Ma ora basta chiudete sto 3d...
Anche questo va chiuso all'istante.

fek
08-10-2004, 19:43
Originariamente inviato da Fubar
Anche questo va chiuso all'istante.

Oppure bannano te all'istante per la quarta volta in una settimana. Migliore prestazione dell'anno. Terza prestazione mondiale di tutti i tempi.

FreeMan
08-10-2004, 19:45
ignoriamolo .. vedrete che si stancherà

>bYeZ<

halduemilauno
08-10-2004, 19:45
Originariamente inviato da fek
Oppure bannano te all'istante per la quarta volta in una settimana. Migliore prestazione dell'anno. Terza prestazione mondiale di tutti i tempi.


a dici che è terzo ognitempo?
:D

Fubar
08-10-2004, 19:47
Consiglio per quelli che sono stanchi di andare a dormire

Non inquiniamo il thread,plz.;)

FreeMan
08-10-2004, 19:50
Originariamente inviato da Fubar
Non inquiniamo il thread,plz.;)

si infatti... chiudiamolo che facciamo prima.. anche visto che è un tuo monologo solo per rompere le scatole a chi ha già risposto alle tue domande sempre uguali...

se non hai ancora capito, rileggiti n volte questo thread e non aprirne altri.. tnx

CLOSED!!!

>bYeZ<