View Full Version : [Riflessione]Il mercato attuale di schede video
Stavo pensando che il mercato attuale di schede video non mi abbia poi impressionato cosi' tanto come speravo. Non vedo in nessuna offerta un reale progresso tecnologico e concettuale nelle moderne schede video, sia scomodando le soluzioni high end sia prendendo in visione le soluzioni inferiori che in proporzione al prezzo offrono poco.
Concordate con me sul fatto che quest'ultima generazione di schede video poco abbia dato all'innovazione e all'appagamento nel comprare una nuova scheda per avere reali soddisfazioni vuoi per features vuoi per prestazioni?
Sara' che ancora non sono state sfruttate le nuove schede (beh.. relativamente vista la pesantezza degli ultimi titoli) sara' che un po' mi mancano i tempi delle vere sfide tecnologiche in cui vedevi vere e proprie lotte nell'offrire al cliente qualcosa che potesse far soccombere la concorrenza, un po' come si vedeva ai tempi in cui 3Dfx, Matrox, S3, e Nvidia combattevano faticosamente con i loro Voodoo3, G400, Savage4 e TNT1/2 oppure ai tempi del Voodoo4/5, Savage2000 e GeForce1/2, ma personalmente spero molto nella prossima generazione di schede video e soprattutto spero molto che qualche altra azienda possa alzare la testa dal gruppo come l'unica in sordina e' riuscita a fare (parlo ovviamente di STM/PowerVr con il Kyro2).
:)
Attualmente il deltachrome non è male, ma occorre che S3 prosegui e lavori costantemente
Citiamo anche XGI e speriamo che riescano ad arrivare alla generazione successiva
I tempi in cui vi erano 5 valide alternative sono ormai lontani
Originariamente inviato da pandyno
Attualmente il deltachrome non è male, ma occorre che S3 prosegui e lavori costantemente
Citiamo anche XGI e speriamo che riescano ad arrivare alla generazione successiva
I tempi in cui vi erano 5 valide alternative sono ormai lontani
Ed e' veramente un peccato... perche' i prezzi ne stanno risentendo.. le features offerte anche.
Dark Schneider
23-10-2004, 16:03
Forse sta anche nel fatto che ci ritroviamo con "ancora" schede basate sulle DX9, potenziate, con architetture migliori,ecc. ma sempre basate sulle DX9, libreria ormai supportata da 2 anni.
Infatti io personalmente ho fatto il grande passo, ma venendo da una 4200. Se avevo una scheda come una 9700 o una 9800 non la cambiavo di certo.
Le librerie DX9 cmq si stanno dimostrando forse le più longeve guardando al futuro.
In effetti una volta però c'erano più innovazioni sfruttabili sin da subito.
Ricordo i tempi delle Voodoo e del Riva TNT...ad esempio i 32 bit di colore, succesivamente EMBM, il T&L, quindi gli shader e filtri. Ogni generazione ricordata per qualche innovazione.
La scorsa generazione diciamo è stata la generazione che ha portato all'uso dei filtri senza compromessi. Prima non erano utilizzabili o magari solo uno dei due filtri, ma combinati mai. Le precedenti schede hanno permesso ciò.
Forse attualmente sembra che questa attuale generazione non abbia apportato nulla, se non la potenza. Dal punto di vista tecnologico forse è vero, però sono del parere che questa generazione sarà ricordata come la generazione degli Shader.
Gli Shader son stati introdotti dalla GeForce 3 si, però penso che a livello di utilizzo questa è la generazione che permette un utilizzo abbastanza ampio degli Shader.
Ripeto a livello di innovazione tecnologica forse si, non hanno portato molto, proprio perchè cmq son basati sempre sulle specifiche delle DX9. Ma a livello di utilizzo sono le prime schede che IMHO permetteranno un utilizzo abbastanza intenso degli Shader.
Detto questo, cmq sto un po' perdendo l'interesse per il mondo delle schede video, che a mio parere sta diventando sempre meno interessante. Forse proprio per la mancanza di alternative. Un po' noioso.
Un mondo che invece mi sta appassionando sempre di più è quello della telefonia mobile che si sta rivoluzionando sempre di più. :)
Originariamente inviato da Dark Schneider
Forse sta anche nel fatto che ci ritroviamo con "ancora" schede basate sulle DX9, potenziate, con architetture migliori,ecc. ma sempre basate sulle DX9, libreria ormai supportata da 2 anni.
Infatti io personalmente ho fatto il grande passo, ma venendo da una 4200. Se avevo una scheda come una 9700 o una 9800 non la cambiavo di certo.
Le librerie DX9 cmq si stanno dimostrando forse le più longeve guardando al futuro.
In effetti una volta però c'erano più innovazioni sfruttabili sin da subito.
Ricordo i tempi delle Voodoo e del Riva TNT...ad esempio i 32 bit di colore, succesivamente EMBM, il T&L, quindi gli shader e filtri. Ogni generazione ricordata per qualche innovazione.
La scorsa generazione diciamo è stata la generazione che ha portato all'uso dei filtri senza compromessi. Prima non erano utilizzabili o magari solo uno dei due filtri, ma combinati mai. Le precedenti schede hanno permesso ciò.
Forse attualmente sembra che questa attuale generazione non abbia apportato nulla, se non la potenza. Dal punto di vista tecnologico forse è vero, però sono del parere che questa generazione sarà ricordata come la generazione degli Shader.
Gli Shader son stati introdotti dalla GeForce 3 si, però penso che a livello di utilizzo questa è la generazione che permette un utilizzo abbastanza ampio degli Shader.
Ripeto a livello di innovazione tecnologica forse si, non hanno portato molto, proprio perchè cmq son basati sempre sulle specifiche delle DX9. Ma a livello di utilizzo sono le prime schede che IMHO permetteranno un utilizzo abbastanza intenso degli Shader.
Detto questo, cmq sto un po' perdendo l'interesse per il mondo delle schede video, che a mio parere sta diventando sempre meno interessante. Forse proprio per la mancanza di alternative. Un po' noioso.
Un mondo che invece mi sta appassionando sempre di più è quello della telefonia mobile che si sta rivoluzionando sempre di più. :)
Concordo su tutto. Effettivamente il mondo delle schede video si e' incagliato con questa generazione. La potenza bruta c'e' ma visti i nuovi titoli non si puo' certo dire sfruttabile tanto quanto sono state e ancora vengono sfruttate schede come la 9700. ;)
Speriamo bene soprattutto nella prossima generazione e speriamo in features che siano utilizzabili subito e che siano soprattutto intelligenti.
Se penso al mercato dei processori e hard-disk, mi passa ogni voglia di lamentarmi del progresso delle schede video.:D
Il problema principale a mio parere è anche forse un'eccessiva standardizzazione del mercato.
Un tempo era un po tutto "non definito"... ognuno se ne usciva con caratteristiche innovative proprie che tentava di proporre sul mercato come standard. Oggi invece lo standard praticamente lo fanno le DirectX ed è per questo che si è bloccati con le schede DX9. Che senso avrebbe introdurre una qualsiasi novità se poi non potesse essere utilizzata prima dell'arrivo delle prossime DirectX ?
In ogni caso io ritengo che l'attuale generazione di schede video sia molto importante perché è quella che di fatto consente un reale utilizzo degli shader e per shader intendo quelli della versione 2.0. La versione 1.x non rappresentava una grande innovazione e del resto non è stata praticamente mai massicciamente usata nei titoli commerciali. Gli shader 2.0 e in particolar modo l'HLSL permettono agli sviluppatori di realizzare giochi con shader in maniera molto veloce e questa generazione di GPU offre la potenza necessaria per poterli usare realmente. NV3x di fatto non permette un uso massiccio degli shader 2.0... R3x0 offre qualcosa in più, ma è solo con NV40 e R420 che si è raggiunta la giusta potenza di calcolo. Secondo me la qualità grafica dei prossimi titoli aumenterà moltissimo. Si possono fare davvero tante cose carine con gli shader e cose che vanno al di là delle riflessioni speculari o del bump mapping per pixel a cui siamo abituati oggi.
Originariamente inviato da Vifani
Si possono fare davvero tante cose carine con gli shader e cose che vanno al di là delle riflessioni speculari o del bump mapping per pixel a cui siamo abituati oggi.
Ho visto qualche tech-demo quà (http://www.monostep.org/) :eek: :D
Dark Schneider
24-10-2004, 01:57
Vifani ha centrato il "problema".
Praticamente adesso c'è una standardizzazione.
Una volta non c'erano le specifiche tecniche da "rispettare" come ora o cmq non ai livelli attuali.
Faccio qualche esempio semplice: EMBM, Motion Blur, Truform,ecc.
Ad esempio ricordo che la G400...scheda DX6 possiam dire supportava l'EMBM, ma molte schede della sua generazione ed anche quelle successive non supportavano questo effetto. GeForce 1 e 2 ad esempio non supportavano questa tecnica. Ma le supportavano le Kiro e le Radeon 256 ad esempio...ma un paiodi anni dopo l'introduzione. Il Motion Blur introdotto dalle Voodoo 5 a me risulta che è stato inserito tra gli effetti supportati da schede come GeForce 3 e 8500...due schede DX8...ma ce l'aveva già la Voodoo 5 che era una scheda DX6. Le schede DX7 come GF1 e 2 ad esempio no.
Il truform poi solo supportato dalla 8500 via hardware ad esempio.
Insomma una volta c'era maggiore "libertà d'inventiva". Non si seguiva delle specifiche precise. Ogni produttore lavorava a delle novità da apportare alle proprie schede.
A parte il Motion Blur e EMBM prmai supportate da tutte le schede, ad esempio il Truform è morto e sepolto. Purtroppo ormai le tecnologie proprietarie non hanno più futuro. Se qualche features non è supportata dalle DX non ha futuro.
Oggi una GPU deve avere determiante caratteristiche per poter rientrare negli standard dettati da Microsoft. Gli effetti da supportare e le specifiche da rispettare sono tutte scritte già.
Quindi se qlc tecnologia o effetto proposto rientra nelle specifiche delle DX è bene, altrimenti è qualcosa di inutile o al massimo sarà utile solo quando le DX lo supporteranno.
Alberto Falchi
24-10-2004, 02:38
Originariamente inviato da Simon82
Effettivamente il mondo delle schede video si e' incagliato con questa generazione. La potenza bruta c'e' ma visti i nuovi titoli non si puo' certo dire sfruttabile tanto quanto sono state e ancora vengono sfruttate schede come la 9700. ;)
Oddio, dopo un periodo di stagna le X800 e le GF 6800 hanno fatto registrare valori doppi rispetto alla precedente generazione. Non hanno aggiunto feature sconvolgenti, vero, ma la complessità attuale dei giochi impedisce di sfruttare subito il potenziale. I PS sono presenti dalle GF3, eppure solo adesso sono usati in ogni titolo. lo SM3 potrebbe risultare fondamentale (e chi ha visto l'U3 engine se ne rende conto), ma sicuramente ci vorrà un po' di tempo prima che i giochi lo sfruttino adeguatamente e non solo come strillo sulla cover. Idem per 3Dc. Il problema è che tali feature, anche volendo, verranno sfruttate al meglio quando tutti i porduttori le integreranno: che senso usare SM3 (o 3Dc) a manetta se tanto solo uno dei due grossi player lo supporta? Quanto ci hanno messo i programmatori a decidere di integrare i PS ovunque, salutando definitivamente le diffusissime GF4 MX?
Pape
Alberto Falchi
24-10-2004, 02:44
Originariamente inviato da Dark Schneider
Oggi una GPU deve avere determiante caratteristiche per poter rientrare negli standard dettati da Microsoft. Gli effetti da supportare e le specifiche da rispettare sono tutte scritte già.
Quindi se qlc tecnologia o effetto proposto rientra nelle specifiche delle DX è bene, altrimenti è qualcosa di inutile o al massimo sarà utile solo quando le DX lo supporteranno.
Non è esattamente così. MS non si inventa le specifiche, ma le decide insieme ai principali costruttori di hardware, che a loro volta spingono questa o quella a seconda delle esigenze dei programmatori. NOn sempre si può ottenere il meglio, certo, ma preferiresti 1000 schede con 1000 librerie diverse e incompatibili fra loro?
Pape
Dark Schneider
24-10-2004, 03:16
Originariamente inviato da GMCPape
Non è esattamente così. MS non si inventa le specifiche, ma le decide insieme ai principali costruttori di hardware, che a loro volta spingono questa o quella a seconda delle esigenze dei programmatori. NOn sempre si può ottenere il meglio, certo, ma preferiresti 1000 schede con 1000 librerie diverse e incompatibili fra loro?
Pape
Lo so bene che c'è una collaborazione di MS con i produttori. Ma appunto resta il fatto che che non c'è più spazio per l'inventiva di un tempo. O meglio non c'è più la libertà di un tempo. Una volta non esisteva dire "scheda DX8 compliant" o "Dx9 compliant".
In più non sto mica condannando la standardizzazione, ma sto semplicemente dando la spiegazione sul perchè le cose sono cambiate rispetto a qualche anno fa.
Originariamente inviato da Vifani
Il problema principale a mio parere è anche forse un'eccessiva standardizzazione del mercato.
Un tempo era un po tutto "non definito"... ognuno se ne usciva con caratteristiche innovative proprie che tentava di proporre sul mercato come standard. Oggi invece lo standard praticamente lo fanno le DirectX ed è per questo che si è bloccati con le schede DX9. Che senso avrebbe introdurre una qualsiasi novità se poi non potesse essere utilizzata prima dell'arrivo delle prossime DirectX ?
In ogni caso io ritengo che l'attuale generazione di schede video sia molto importante perché è quella che di fatto consente un reale utilizzo degli shader e per shader intendo quelli della versione 2.0. La versione 1.x non rappresentava una grande innovazione e del resto non è stata praticamente mai massicciamente usata nei titoli commerciali. Gli shader 2.0 e in particolar modo l'HLSL permettono agli sviluppatori di realizzare giochi con shader in maniera molto veloce e questa generazione di GPU offre la potenza necessaria per poterli usare realmente. NV3x di fatto non permette un uso massiccio degli shader 2.0... R3x0 offre qualcosa in più, ma è solo con NV40 e R420 che si è raggiunta la giusta potenza di calcolo. Secondo me la qualità grafica dei prossimi titoli aumenterà moltissimo. Si possono fare davvero tante cose carine con gli shader e cose che vanno al di là delle riflessioni speculari o del bump mapping per pixel a cui siamo abituati oggi.
E' verissimo quello che dici ma allora perche' non investire denaro su features utilizzabili a prescindere dalle standardizzazioni? Siamo nel 2005 e l'anti-aliasing non e' ancora Free come tanto ci era stato decantato. Per quanto abbia visto enormi passi avanti ancora sta' in piedi grazie alla potenza delle vpu, ma imho non basta. In queste features che ormai tutti vorrebbero gratis, dovrebbero investire molte risorse.
Innanzitutto togliamo dagli effetti introdotti quelli del T-Buffer di 3dfx perché in fin dei conti il T-Buffer di 3dfx non è stata altro che una diversa implementazione dei buffer di accumulazione già presenti in OpenGL. Se non sono stati usati è perché alla fine tecnicamente non solo molto validi. Cose come il motion blur di 3dfx oggi può essere fatto tranquillamente con il Render To Texture e ci vogliono 5 righe di codice per metterlo.
Il discorso dell'antialiasing free è un po più complesso. A mio avviso non diventerà praticamente mai free a meno di un cambio radicale dell'architettura. Diciamo che la potenza di calcolo diventerà così elevata da renderlo utilizzabile sempre, ma renderlo free non penso che possano farlo a meno che non implementino una specie di post processing, ma non sarebbe un multisampling. PowerVR è riuscita a fare il FSAA4free, ma è comunque un qualcosa di strettamente legato alla loro architettura che possiede il vantaggio di eseguire i calcoli per tile.
Per avere un AA (e ci metterei anche un Aniso) Free,diciamo impostato di default AA4x Aniso 4x ci vorrebbe un chip dedicato a parte sulla sk video.
Non sarebbe male,perchè a prescindere dalla complessità del gioco,si occuperebbe sempre lui di sfruttare questi due filtri nel modo corretto e senza perdita di potenza.
Ma la vedo un tantino dura:D
Originariamente inviato da Vifani
Innanzitutto togliamo dagli effetti introdotti quelli del T-Buffer di 3dfx perché in fin dei conti il T-Buffer di 3dfx non è stata altro che una diversa implementazione dei buffer di accumulazione già presenti in OpenGL. Se non sono stati usati è perché alla fine tecnicamente non solo molto validi. Cose come il motion blur di 3dfx oggi può essere fatto tranquillamente con il Render To Texture e ci vogliono 5 righe di codice per metterlo.
Il discorso dell'antialiasing free è un po più complesso. A mio avviso non diventerà praticamente mai free a meno di un cambio radicale dell'architettura. Diciamo che la potenza di calcolo diventerà così elevata da renderlo utilizzabile sempre, ma renderlo free non penso che possano farlo a meno che non implementino una specie di post processing, ma non sarebbe un multisampling. PowerVR è riuscita a fare il FSAA4free, ma è comunque un qualcosa di strettamente legato alla loro architettura che possiede il vantaggio di eseguire i calcoli per tile.
Si ma se la complessita' dei giochi e' destinata ad aumentare non esistera' mai un FSSA free perche' le vpu saranno sempre piu' sfruttate al punto che questo algoritmo diventera' come gia visto alla fine di ogni generazione di schede video, un qualcosa che non ci si riesce mai a permettere. ;)
Originariamente inviato da R@nda
Per avere un AA (e ci metterei anche un Aniso) Free,diciamo impostato di default AA4x Aniso 4x ci vorrebbe un chip dedicato a parte sulla sk video.
Non sarebbe male,perchè a prescindere dalla complessità del gioco,si occuperebbe sempre lui di sfruttare questi due filtri nel modo corretto e senza perdita di potenza.
Ma la vedo un tantino dura:D
La vedo dura anche io... ma maggiori investimenti su questo potrebbero essere ben ripagati.
Io ho avuto la stessa sensazione con una scheda grafica da 150 euro ho fatto girare i Demo Tech della X800 con fluidità.
I Tech Demo fatti dalle case madri dovrebbero dimostrare che quella qualità grafica è raggiungibile solo da QUELLA scheda grafica (o dalle sue successive). Invece con questa generazione nuova di schede almeno per ATI non è piu' così!
A molti forse non è saltato all' occhio , ma questa cosa è di una importanza sbalorditiva.
Non mi stupirei affatto se venissi a sapere che ATI avesse usato per i suoi Demo della X800 gli stessi engine dei vecchi demo della 9800 con qualche texture in +
http://forum.hwupgrade.it/showthread.php?s=&threadid=796779
Originariamente inviato da viger
Io ho avuto la stessa sensazione con una scheda grafica da 150 euro ho fatto girare i Demo Tech della X800 con fluidità.
I Tech Demo fatti dalle case madri dovrebbero dimostrare che quella qualità grafica è raggiungibile solo da QUELLA scheda grafica (o dalle sue successive). Invece con questa generazione nuova di schede almeno per ATI non è piu' così!
A molti forse non è saltato all' occhio , ma questa cosa è di una importanza sbalorditiva.
Non mi stupirei affatto se venissi a sapere che ATI avesse usato per i suoi Demo della X800 gli stessi engine dei vecchi demo della 9800 con qualche texture in +
http://forum.hwupgrade.it/showthread.php?s=&threadid=796779
Il fatto che i tech demo ATI possano girare bene su schede inferiori e' comunque presto spiegato: ovviamente le tech demo ati e' normale che siano fatte apposta per girare bene sulle architetture ATi e quindi la maggior parte delle soluzioni basate su quelle architetture riescono a farlo girare "decentemente". In piu' ricordiamoci che sono tech demo, e quindi tutte le risorse del sistema sono dedite al percorso prestabilito della demo e nient'altro e' previsto. ;)
BTinside
24-10-2004, 13:05
Una volta non c'erano le specifiche tecniche da "rispettare" come ora o cmq non ai livelli attuali.
Faccio qualche esempio semplice: EMBM, Motion Blur, Truform,ecc.
Ad esempio ricordo che la G400...scheda DX6 possiam dire supportava l'EMBM, ma molte schede della sua generazione ed anche quelle successive non supportavano questo effetto. GeForce 1 e 2 ad esempio non supportavano questa tecnica. Ma le supportavano le Kiro e le Radeon 256 ad esempio...ma un paiodi anni dopo l'introduzione. Il Motion Blur introdotto dalle Voodoo 5 a me risulta che è stato inserito tra gli effetti supportati da schede come GeForce 3 e 8500...due schede DX8...ma ce l'aveva già la Voodoo 5 che era una scheda DX6. Le schede DX7 come GF1 e 2 ad esempio no.
Il truform poi solo supportato dalla 8500 via hardware ad esempio.
Insomma una volta c'era maggiore "libertà d'inventiva". Non si seguiva delle specifiche precise. Ogni produttore lavorava a delle novità da apportare alle proprie schede.
Non vediamo tutto negativo però, anche se non è più come prima è pur sempre interessante osservare la professionalità e la bravura con le quali le case produttrici si adattino alla standardizzazione.
Da questo punto di vista si potrebbe dire che Ati "do it better", perchè si concentra di più sugli standard del direct3d per offire il massimo su questo frangente,
mentre quella più concentrata a creare features e linguaggi di programmazione proprietari è Nvidia (vedi le sue tech demo, solo Dawn si è riusciti a far girare su R300, mentre le tech demo Ati sono realizzate in D3d standard e partono tutte sui GeForce).
Nvidia con le sue features per l'OpenGL.
Per carità anche Ati ha le sue features e inventive proprietarie come Truform o 3Dc oppure il linguaggio di programmazione Rendermonkey.
Originariamente inviato da Simon82
Il fatto che i tech demo ATI possano girare bene su schede inferiori e' comunque presto spiegato: ovviamente le tech demo ati e' normale che siano fatte apposta per girare bene sulle architetture ATi e quindi la maggior parte delle soluzioni basate su quelle architetture riescono a farlo girare "decentemente". In piu' ricordiamoci che sono tech demo, e quindi tutte le risorse del sistema sono dedite al percorso prestabilito della demo e nient'altro e' previsto. ;)
si ma prova a fare girare una Tech demo di una Geppo3 su una Gforce2, oppure una demo per Fx5800 su una Geppo4.
Le Tech Demo nel passato raprresentavano l' espressione del costruttore di schede grafiche di dimostrare al cliente che valeva la pena spendere 400-500 euro perkè in futuro solo chi possedeva quelle schede avrebbe giocato con la qualità grafica che la Tech rappresentava.
Questo è dovuto al fatto che per fare giochi come Doom3 passano 3-4 anni e i costruttori di schede grafiche non possono aspettare tutto questo tempo per vendere le proprie soluzioni, allora si è arrivati ad un punto tale di frenesia che l' hardware ha superato la sua utilità nel software... e' in questo spazio temporale che nascono e si sviluppano le Tech Demo.
Perke' pensi che tutti qui sbavavano per scaricare il 3dMark2005? Era tale l' attesa che sulla home c'era il cronometro del tempo rimasto e nelle prime settimane era poi impossibile scaricarlo per l' intasamento ... credete veramente che lo scaricassero tutti per vedere il punteggio?
La gente voleva finalmente assaporare quello che il marketing di ATI e Nvidia gli aveva promesso da mesi.
Dopo aver speso i loro buoni 400-500 euro per una scheda volevano vedere anche cosa era in grado di fare.
Originariamente inviato da viger
si ma prova a fare girare una Tech demo di una Geppo3 su una Gforce2, oppure una demo per Fx5800 su una Geppo4.
Le Tech Demo nel passato raprresentavano l' espressione del costruttore di schede grafiche di dimostrare al cliente che valeva la pena spendere 400-500 euro perkè in futuro solo chi possedeva quelle schede avrebbe giocato con la qualità grafica che la Tech rappresentava.
Questo è dovuto al fatto che per fare giochi come Doom3 passano 3-4 anni e i costruttori di schede grafiche non possono aspettare tutto questo tempo per vendere le proprie soluzioni, allora si è arrivati ad un punto tale di frenesia che l' hardware ha superato la sua utilità nel software... e' in questo spazio temporale che nascono e si sviluppano le Tech Demo.
Perke' pensi che tutti qui sbavavano per scaricare il 3dMark2005? Era tale l' attesa che sulla home c'era il cronometro del tempo rimasto e nelle prime settimane era poi impossibile scaricarlo per l' intasamento ... credete veramente che lo scaricassero tutti per vedere il punteggio?
La gente voleva finalmente assaporare quello che il marketing di ATI e Nvidia gli aveva promesso da mesi.
Dopo aver speso i loro buoni 400-500 euro per una scheda volevano vedere anche cosa era in grado di fare.
Ricordati anche una cosa.. nei tech demo che tu fai girare su una scheda inferiore molte features non vengono utilizzate sebbene a te sembra che tutto sia visualizzato correttamente. E questo e' stato detto anche dal tipo che ha tirato fuori le dll per farlo girare. ;)
La qualita' vista su una X800 Pro non e' la stessa vista su una 9700 o inferiore, vuoi per la mancanza del 3Dc, vuoi per altre cose. ;)
Ovviamente girerebbe fluido anche su una Voodoo2 se disabilitassimo tutto. :D
Originariamente inviato da Simon82
Ricordati anche una cosa.. nei tech demo che tu fai girare su una scheda inferiore molte features non vengono utilizzate sebbene a te sembra che tutto sia visualizzato correttamente. E questo e' stato detto anche dal tipo che ha tirato fuori le dll per farlo girare. ;)
La qualita' vista su una X800 Pro non e' la stessa vista su una 9700 o inferiore, vuoi per la mancanza del 3Dc, vuoi per altre cose. ;)
Ovviamente girerebbe fluido anche su una Voodoo2 se disabilitassimo tutto. :D
eheh sta diventando una discussione da salotto. Se qualcuno mi da uno spazio web gratis posto le immagini che ho salvato dei demo X800.
Ma vorrei soffermarmi anche su una cosa che ormai è nell' aria , quando il Corsini recensisce le schede grafiche nuove , per far vedere le differenze di qualità mette dei particolari degli screen ingranditi 4 o 8 volte. Perke solo così è possibile (in un frame statico , badate bene) notare le differenze.
La cosa a volte mi dà da pensare ... mi ricorda tanto le case discografiche dopo l' avvento del formato Mp3 (circa 10 anni fà) , quando affermavano che la qualità CD era insostituibile e che un ascoltatore di musica non ci avrebbe mai rinunciato.
Le differenze di qualità grafiche alcune volte sono visibili certo, ma quanto pesano realmente oggettivamente?
Quanto pesa avere 1 o 2 effetti grafici che "smussano" i contorni degli oggetti se poi entrando in una stanza tutta buia con un mitra spari su tutto quello che si muove senza nemmeno fermarti a guardare!
Guardate le recensioni online , si è parlato moltissimo in FarCry della scadente resa grafica delle FX con gli shader , ma io sfido una persona normale giocando nel gioco (e non fissando dei particolari ingranditi 10 volte di uno screen statico) a notare la differenza di qualità tra le varie schede grafiche.
Secondo me si deve fare attenzione a non andare contro i mulini a vento!
-=Krynn=-
24-10-2004, 13:57
Secodno me il fatto principale è che ormai le tecnologie sono alla frutta.
I produttori di sk video si sono accorti che non possono + far uscire nuove feature ogni 6 mesi, e nemmeno ogni anno, perchè non verrebbero mai sfruttate.
Secondo me questo rallentamento deel mercato, per quanto riguarda le feature innovative ma non la potenza, ci sta + che bene.
Alberto Falchi
24-10-2004, 14:05
Originariamente inviato da Simon82
E' verissimo quello che dici ma allora perche' non investire denaro su features utilizzabili a prescindere dalle standardizzazioni? Siamo nel 2005 e l'anti-aliasing non e' ancora Free come tanto ci era stato decantato. Per quanto abbia visto enormi passi avanti ancora sta' in piedi grazie alla potenza delle vpu, ma imho non basta. In queste features che ormai tutti vorrebbero gratis, dovrebbero investire molte risorse.
Ma l'AA è così importante come feature? Insomma... preferirei che la memoria e la banda passante venissero utilizzare per aggiungere effetti più che per debellare le sgranature, che possono benissimo essere ridotte semplicemente attraverso scelte di design, come nel caso di Thief III o Doom 3, dove l'aliasing è poco accentuato, anche a basse risoluzioni. Personalmente, preferisco 1000 volte il Bloom di Invisible War all'AA.
Pape
Alberto Falchi
24-10-2004, 14:08
Originariamente inviato da viger
eheh sta diventando una discussione da salotto. Se qualcuno mi da uno spazio web gratis posto le immagini che ho salvato dei demo X800.
Ma vorrei soffermarmi anche su una cosa che ormai è nell' aria , quando il Corsini recensisce le schede grafiche nuove , per far vedere le differenze di qualità mette dei particolari degli screen ingranditi 4 o 8 volte. Perke solo così è possibile (in un frame statico , badate bene) notare le differenze.
La cosa a volte mi dà da pensare ... mi ricorda tanto le case discografiche dopo l' avvento del formato Mp3 (circa 10 anni fà) , quando affermavano che la qualità CD era insostituibile e che un ascoltatore di musica non ci avrebbe mai rinunciato.
Le differenze di qualità grafiche alcune volte sono visibili certo, ma quanto pesano realmente oggettivamente?
Quanto pesa avere 1 o 2 effetti grafici che "smussano" i contorni degli oggetti se poi entrando in una stanza tutta buia con un mitra spari su tutto quello che si muove senza nemmeno fermarti a guardare!
Guardate le recensioni online , si è parlato moltissimo in FarCry della scadente resa grafica delle FX con gli shader , ma io sfido una persona normale giocando nel gioco (e non fissando dei particolari ingranditi 10 volte di uno screen statico) a notare la differenza di qualità tra le varie schede grafiche.
Secondo me si deve fare attenzione a non andare contro i mulini a vento!
E finalmente qualcuno che si rende conto che è inutile sbandierare migliore qualità video se per notarla isogna zoomare al 200% e osservare ben benino ^_^. Proprio in questi giorni parlavo con un PR di nVidia, e discutevamo sull'introduzione del rotated grid AA: tutti lo volevano perché era migliore... e oggettivamente è migliore nella maggior parte dei casi... ma chi lo nota mentre gioca?
Pape
Dark Schneider
24-10-2004, 14:09
Originariamente inviato da BTinside
Non vediamo tutto negativo però, anche se non è più come prima è pur sempre interessante osservare la professionalità e la bravura con le quali le case produttrici si adattino alla standardizzazione.
Dov'è che ho detto che la standardizzazione è negativa?
Mi pare di aver fatto capire il contrario ad esempio rispondendo all'intervento di GMCPape.
Per carità anche Ati ha le sue features e inventive proprietarie come Truform o 3Dc oppure il linguaggio di programmazione Rendermonkey.
Il Truform non se filato nessuno...infatti è rimasto una features inutilissima. Tanto che a parte la 8500 che esegue tutto in hardware, le successive incluse le R300 lo supportano in software. Segno di non aver creduto in tale features.
Sta di fatto che se qualcosa non è supportato dalle DX, difficilmente verrà utilizzato se non in qualche caso.
Dark Schneider
24-10-2004, 14:12
Originariamente inviato da Simon82
Si ma se la complessita' dei giochi e' destinata ad aumentare non esistera' mai un FSSA free perche' le vpu saranno sempre piu' sfruttate al punto che questo algoritmo diventera' come gia visto alla fine di ogni generazione di schede video, un qualcosa che non ci si riesce mai a permettere. ;)
Infatti le schede di fascia bassa ad esempio non se lo potranno permettere mai. Quelle di alta e media(a seconda della risoluzione) si.
Perchè cmq aumenta ad esempio il dettaglio grafico e tutto il resto con il passare del tempo.
Originariamente inviato da Simon82
Si ma se la complessita' dei giochi e' destinata ad aumentare non esistera' mai un FSSA free perche' le vpu saranno sempre piu' sfruttate al punto che questo algoritmo diventera' come gia visto alla fine di ogni generazione di schede video, un qualcosa che non ci si riesce mai a permettere. ;)
Neanche il trilinear è free, ma vista l' effettiva potenza a disposizione si può considerarlo tale (certo poi ci sono le "ottimizzazioni" di mezzo)
Le tech demo sono begli esempi di programmazione, nulla di più.
Basta far girare i demo delle prime voodoo per rendersene conto
Certo il dubbio viene quando ti guardi un burnout3 su ps2 e ti chiedi:
1) come diavolo faccia una schedina da 150mz con 4mb di VRAM a rendere in quel modo
2) è sicuro che abbiamo tirato fuori il massimo dalle generazioni precedenti? io penso di no.
Originariamente inviato da GMCPape
E finalmente qualcuno che si rende conto che è inutile sbandierare migliore qualità video se per notarla isogna zoomare al 200% e osservare ben benino ^_^. Proprio in questi giorni parlavo con un PR di nVidia, e discutevamo sull'introduzione del rotated grid AA: tutti lo volevano perché era migliore... e oggettivamente è migliore nella maggior parte dei casi... ma chi lo nota mentre gioca?
Pape
Dopo tanto tempo mi sono dedicato ad un gioco: the suffering.
Beh il 4x (NV3x) neanche lo vedevo, tanto che più volte sono andato a controllare il pannello e la differenza di fps, effettivamente era abilitato.
Io da solo non faccio statistica, ma sicuramente un AA migliore non guasta
Originariamente inviato da GMCPape
Ma l'AA è così importante come feature? Insomma... preferirei che la memoria e la banda passante venissero utilizzare per aggiungere effetti più che per debellare le sgranature, che possono benissimo essere ridotte semplicemente attraverso scelte di design, come nel caso di Thief III o Doom 3, dove l'aliasing è poco accentuato, anche a basse risoluzioni. Personalmente, preferisco 1000 volte il Bloom di Invisible War all'AA.
Pape
E' importante eccome perche non tutti i giochi sono al buio come Doom3. ;)
Nei giochi in cui le differenze di contrasto tra poligoni sono elevate diventa un problema. ;)
Poi ovvio che a UT2004 nessuno ci fa caso, ma in ogni caso rimane un piacere per gli occhi.
Originariamente inviato da pandyno
Neanche il trilinear è free, ma vista l' effettiva potenza a disposizione si può considerarlo tale (certo poi ci sono le "ottimizzazioni" di mezzo)
Le tech demo sono begli esempi di programmazione, nulla di più.
Basta far girare i demo delle prime voodoo per rendersene conto
Certo il dubbio viene quando ti guardi un burnout3 su ps2 e ti chiedi:
1) come diavolo faccia una schedina da 150mz con 4mb di VRAM a rendere in quel modo
2) è sicuro che abbiamo tirato fuori il massimo dalle generazioni precedenti? io penso di no.
In questo esempio c'e' anche da ricordare che se non uscissero giochi estremamente pesanti per le nuove schede video, nessuno comprerebbe quelle successive, e cosi' via. ;)
A quest'ora saremmo tutti a giocare con le Voodoo3 e company. :D
Rimango dell'idea che aspettare una generazione estremamente potente per far si che l'FSAA diventi un qualcosa di gratuito non sia la strada migliore.
Alberto Falchi
24-10-2004, 15:03
Originariamente inviato da pandyno
Dopo tanto tempo mi sono dedicato ad un gioco: the suffering.
Beh il 4x (NV3x) neanche lo vedevo, tanto che più volte sono andato a controllare il pannello e la differenza di fps, effettivamente era abilitato.
Beh, l'engine di the suffering non è la cosa più ottimizzata del mondo. Nel senso, gira molto fluido, anche con AA e su schede della precedente generazione, ma non fa un uso abbondante di PS o effetti DX9. Ma la cosa più importante da notare è che, anche a basse risoluzioni, non sgrana in maniera evidente. Per come la vedo io, essendo stato sviluppato anche per console, i designer hanno fatto di tutto per renderlo visivamente appagante anche su macchine come la PS2.
Io da solo non faccio statistica, ma sicuramente un AA migliore non guasta
Certo che no, ma quello che intendevo è che l'AA è molto meno importante di altre feature. Preferisco giocare a 1600x1200 che a 1024 con AA4X. Così come preferisco un gioco senza AA ma capace di sfruttare al meglio i PS che uno privo di effetti speciali e di sgranature.
Pape
Originariamente inviato da GMCPape
Certo che no, ma quello che intendevo è che l'AA è molto meno importante di altre feature. Preferisco giocare a 1600x1200 che a 1024 con AA4X. Così come preferisco un gioco senza AA ma capace di sfruttare al meglio i PS che uno privo di effetti speciali e di sgranature.
anche io sono pienamente daccordo , a 1600x1200 nei giochi odierni dove gli spazi 3D sono vasti l' utilità dell' alta risoluzione è innegabile, perke a distanza vedi le pareti e gli oggetti ben definiti anche su monitor a 17 pollici (io ho un LG Flatron).
Sui 19 poi credo che i 1024 con AA4x siano un puro paliativo.
Piu' si sale di risoluzione con gli schermi odierni e piu' l' AA non serve ad un cavolo (se non a dar fastidio).
il vocabolo + utilizzato nelle recensioni "smussare le sgranature" o "ammorbidire le sgranature degli angoli" .
Tali vocaboli sono forvianti , perke l' AA è un puro e semplice effetto di sfocatura dei bordi dei poligoni texturizzati, e non è certo una soluzione elegante secondo il mio punto di vista.
Preferirei giocare su un 21' pollici a 2048x1200 (alcuni giochi supportano tali risoluzione) che giocarci a 1024 con un AA sparato a 8X.
Non capisco come ci sia questa maniacale attenzione da parte degli utenti verso questo singolo effetto, mentre capisco benissimo le motivazioni di chi costruisce schede video (è piu' facile potenziare che innovare!).
Alberto Falchi
24-10-2004, 15:28
Originariamente inviato da viger
il vocabolo + utilizzato nelle recensioni "smussare le sgranature" o "ammorbidire le sgranature degli angoli" .
Tali vocaboli sono forvianti , perke l' AA è un puro e semplice effetto di sfocatura dei bordi dei poligoni texturizzati, e non è certo una soluzione elegante secondo il mio punto di vista.
Su questo ti devo contraddire. L'AA non è una sfocatura, bensì un resampling dell'immagine. Un tempo si usava il supersampling, che renderava l'immagina a risoluzioni 2, 4 o 6 volte superiori per poi fare un downsize in maniera da "stemperare" i bordi. Attualmente si usa il Multisampling, che risparmia banda e, pur essendo meno efficiente, è più veloce. Quest'ultimo praticamente si basa sulla stessa immagine renderizzata più volte che poi viene interpolata in maniera da smusasre i bordi. Insomma, è una soluzione più elegante di come la descrivi ^_^
Pape
Originariamente inviato da GMCPape
Su questo ti devo contraddire. L'AA non è una sfocatura, bensì un resampling dell'immagine. Un tempo si usava il supersampling, che renderava l'immagina a risoluzioni 2, 4 o 6 volte superiori per poi fare un downsize in maniera da "stemperare" i bordi. Attualmente si usa il Multisampling, che risparmia banda e, pur essendo meno efficiente, è più veloce. Quest'ultimo praticamente si basa sulla stessa immagine renderizzata più volte che poi viene interpolata in maniera da smusasre i bordi. Insomma, è una soluzione più elegante di come la descrivi ^_^
Pape
e' sempre meno elegante di giocare a 2000 di risoluzione ^_^
e mi sa' che con le odierne schede i 2000x1200 senza AA sono gestibili in scioltezza con frame + alti
BTinside
24-10-2004, 16:13
1) come diavolo faccia una schedina da 150mz con 4mb di VRAM a rendere in quel modo
Quei 4mb di ram video non vanno intesi come tradizionale RAM, l'uso che se ne fà non è quello che si potrebbe pensare.
X DaRK: non ti arrabbiare quel "non vediamo le cose negative" non era riferito a te, ma era in generale ed era anche un po' metaforico
Originariamente inviato da GMCPape
Beh, l'engine di the suffering non è la cosa più ottimizzata del mondo. Nel senso, gira molto fluido, anche con AA e su schede della precedente generazione, ma non fa un uso abbondante di PS o effetti DX9. Ma la cosa più importante da notare è che, anche a basse risoluzioni, non sgrana in maniera evidente. Per come la vedo io, essendo stato sviluppato anche per console, i designer hanno fatto di tutto per renderlo visivamente appagante anche su macchine come la PS2.
Beh permettimelo, quello è un lavoro con le contropalle ;)
Abbiamo bisogno dei PS per avere un gioco con le contropalle? la risposta è no.
Certo che no, ma quello che intendevo è che l'AA è molto meno importante di altre feature. Preferisco giocare a 1600x1200 che a 1024 con AA4X. Così come preferisco un gioco senza AA ma capace di sfruttare al meglio i PS che uno privo di effetti speciali e di sgranature.
Pape
Non tutti possono permettersi monitor da 1600x1200 con refresh decenti, prefirisco giocare con un 4x e a 1024, questione di gusti ;)
Originariamente inviato da BTinside
Quei 4mb di ram video non vanno intesi come tradizionale RAM, l'uso che se ne fà non è quello che si potrebbe pensare.
Certo, converrai con me che è impressionante cedere cosa riesce a fare una "scatoletta"
BTinside
24-10-2004, 16:53
Certo, converrai con me che è impressionante cedere cosa riesce a fare una "scatoletta"
La "scatoletta" di 4 anni fà, è riuscita a stupire ancora oggi anche un PC gamer come me con GT4. Oppure i modelli poligonali dei personaggi di Silent Hill 3 nelle scene di intermezzo, stupende le bocche e le textures dei visi e del collo del detective. Non so se hai avuto il piacere di giocarci. Su PC però è ancora più bello di grafica
D'altronde sono programmatori giapponesi, se non sono bravi loro...
E fatti il conto che la scatoletta neanche sa cosa siano i pixel shader.
Una domanda: Se la Sony convertisse questo gioco su PC, si potrebbe ricreare alla perfezione la stessa grafica?
E che pretesa hardware avrebbe?
Molti giochi per PS2 sono stati convertiti su PC, e anche con poche richieste hardware(tipo processori 1200/1600) tranne casi a parte, con tutta la potenza che c'è ora nei pc...
Alberto Falchi
24-10-2004, 16:53
Originariamente inviato da pandyno
Beh permettimelo, quello è un lavoro con le contropalle ;)
Abbiamo bisogno dei PS per avere un gioco con le contropalle? la risposta è no.
Oh certo che è un ottimo lavoro, e volevo sottolienare proprio questo col mio intervento: un buon lavopro di design può supplire ai limiti tecnici di un'architettura. E, spero qualcuno convenga con me, sotto il profilo del design, i giochi per console devastano la maggior parte di quanto esce per PC. Poi certo, ci sono i D3 e gli HL2, ma trovatemi un lavoro anche solo lontanamente paragonabile a un ICO, a un Mario Sunshine o uno Zelda WW su PC. E non parlo di gioco in sé, quanto di ricercatezza nel gameplay, nello stile grafico, nella realizzazione delle mappe.
[/QUOTE]
Non tutti possono permettersi monitor da 1600x1200 con refresh decenti, prefirisco giocare con un 4x e a 1024, questione di gusti ;) [/QUOTE]
Oddio... non credo che uno che spende 500 € per una scheda video abbia problemi a spendere una tantum 300 € per un discreto 19"
Pape
Originariamente inviato da BTinside
La "scatoletta" di 4 anni fà, è riuscita a stupire ancora oggi anche un PC gamer come me con GT4. Oppure i modelli poligonali dei personaggi di Silent Hill 3 nelle scene di intermezzo, stupende le bocche e le textures dei visi e del collo del detective. Non so se hai avuto il piacere di giocarci. Su PC però è ancora più bello di grafica
D'altronde sono programmatori giapponesi, se non sono bravi loro...
E fatti il conto che la scatoletta neanche sa cosa siano i pixel shader.
Una domanda: Se la Sony convertisse questo gioco su PC, si potrebbe ricreare alla perfezione la stessa grafica?
E che pretesa hardware avrebbe?
Molti giochi per PS2 sono stati convertiti su PC, e anche con poche richieste hardware(tipo processori 1200/1600) tranne casi a parte, con tutta la potenza che c'è ora nei pc...
Si e poi vengono fuori certi aborti di conversione come GTA3, un bug allo stato puro...
Tanto di potenza ce n' è che bisogno abbiamo di ottimizzare?
Originariamente inviato da GMCPape
Oddio... non credo che uno che spende 500 € per una scheda video abbia problemi a spendere una tantum 300 € per un discreto 19"
Pape
Per giocare con l' AA con la maggior parte dei titoli è sufficiente una 9800pro ;)
300€ per un 19"? sono rimasto indietro in fatto di monitor :D
Athlon 64 3000+
24-10-2004, 17:04
A me l'unica cosa che non mi piace di questo mercato è la troppa confusione che i è creato,troppi modelli.
Dal punto di vista dell'innovazione è stato meglio fermarci perchè così le schede attuali potranno essere meglio sfruttate.
Alberto Falchi
24-10-2004, 17:06
Originariamente inviato da pandyno
Per giocare con l' AA con la maggior parte dei titoli è sufficiente una 9800pro ;)
300€ per un 19"? sono rimasto indietro in fatto di monitor :D
EDITED
Anche meno di 300 ^_^
Pape
Originariamente inviato da GMCPape
EDITED
Anche meno di 300 ^_^
Pape
No link a shop italiani. ;)
Alberto Falchi
24-10-2004, 17:49
Originariamente inviato da Simon82
No link a shop italiani. ;)
sorry, non sapevo della regola ^_^
Pape
Il GS della PS2 ha 4 mb integrati di memoria,meglio chiamarla cache,con una banda di 48gb al secondo (nata4 anni fa!) da usare appunto come cache,in streaming.
Su Pc i Bit Boys (ma ve li ricordate:D ) avevano ideato qualcosa di simile...ma evidentemente (direi!) su Vga come quelle abbiamo oggi con 256mb (e tra poco 512mb) la cosa è improponibile,una Vga costerebbe uno sproposito.
Potrebbe essere una soluzione per il futuro...anche perchè se una memoria embedded viene usata e pensata come sul Gs della Ps2 penso che un quantitativo di memoria così enorme (256/512mb) non sia necessario.
Tutto sta a vedere se su PC un utilizzo del genere è possibile...forse grazie al Pcix si.
Qualche esperto potrebbe confermare e spiegare meglio.
Originariamente inviato da R@nda
Su Pc i Bit Boys (ma ve li ricordate:D )
Pare stiano sviluppando tecnologie per cellulari o roba simile :D
Originariamente inviato da GMCPape
E finalmente qualcuno che si rende conto che è inutile sbandierare migliore qualità video se per notarla isogna zoomare al 200% e osservare ben benino ^_^. Proprio in questi giorni parlavo con un PR di nVidia, e discutevamo sull'introduzione del rotated grid AA: tutti lo volevano perché era migliore... e oggettivamente è migliore nella maggior parte dei casi... ma chi lo nota mentre gioca?
Pape
Questo è un ragionamento ingiusto. Effettivamente il rotated grid di NVIDIA non è che porti ad una resa così eccezionale perché non è gamma corrected, però è comunque un passo avanti apprezzabile e che è giusto che si sia fatto. Non bisogna introdurre novità solo quando queste sono rivoluzioni, ma è necessario anche procedere per evoluzioni affinché la qualità grafica aumenti man mano la sua qualità. Se uno gioca a tutti i giochi dal 1999 al 2004 seguendo l'ordine con cui sono usciti non si accorge di grandissime differenze tra uno e l'altro, ma se giochi ad un gioco del 1999 e poi ad uno del 2004 la differenza c'è e si vede. Pertanto anche i piccoli miglioramenti sono bene accetti e devono essere fatti.
Originariamente inviato da viger
e' sempre meno elegante di giocare a 2000 di risoluzione ^_^
e mi sa' che con le odierne schede i 2000x1200 senza AA sono gestibili in scioltezza con frame + alti
Il problema è che monitor che supportino anche 1600x1200 a 85 Hz costano abbastanza (i CRT oggi sono abbordabili, ma i LCD no). Se si potesse aumentare di risoluzione con la facilità con cui aumenta la potenza dei processori grafici, oggi dell'antialiasing non si avrebbe neanche bisogno.
La realtà però non è questa e pertanto l'antialiasing è giusto che ci sia e che venga usato.
-=Krynn=-
24-10-2004, 19:09
Originariamente inviato da pandyno
Per giocare con l' AA con la maggior parte dei titoli è sufficiente una 9800pro ;)
300€ per un 19"? sono rimasto indietro in fatto di monitor :D
il mio 19" l'ho pagato 328 euro l'anno scorso....
BTinside
24-10-2004, 19:57
Oh certo che è un ottimo lavoro, e volevo sottolienare proprio questo col mio intervento: un buon lavopro di design può supplire ai limiti tecnici di un'architettura. E, spero qualcuno convenga con me, sotto il profilo del design, i giochi per console devastano la maggior parte di quanto esce per PC. Poi certo, ci sono i D3 e gli HL2, ma trovatemi un lavoro anche solo lontanamente paragonabile a un ICO, a un Mario Sunshine o uno Zelda WW su PC. E non parlo di gioco in sé, quanto di ricercatezza nel gameplay, nello stile grafico, nella realizzazione delle mappe.
In effetti......
Se parliamo di giocabilità i giochi Nintendo sono qualcosa di impressionante,
comprai timoroso di aver fatto una cazzata Luigi's Mansion, di grafica non è un gran chè, ma le sensazioni che trasmette quando si aspira un fantasma sono uniche. La precisione negli impulsi di vibrazione del controller, l'uso sapiente delle levette analogiche, il design e lo stile del gioco.
Stesso discorso vale per ICO o l'impostazione simulativa di GT4.
BTinside
24-10-2004, 20:40
Il GS della PS2 ha 4 mb integrati di memoria,meglio chiamarla cache,con una banda di 48gb al secondo (nata4 anni fa!) da usare appunto come cache,in streaming.
se una memoria embedded viene usata e pensata come sul Gs della Ps2 penso che un quantitativo di memoria così enorme (256/512mb) non sia necessario.
Esatto, questo è il motivo per cui i primi giochi PS2 facevano cagare.
Si pretendeva di programmare su questo hardware in modo tradizionale, il che portava ad un uso tradizionale dei 4mb di ram e ciò castrava la console.
Per non parlare dei kit di sviluppo mediativi fra programmatore e console, che permettevano di programmare nel modo tradizionale, ma la console si sfruttava al 40% delle sue potenzialità.
Adesso sembra che i programmatori (sopratutto giapponesi) siano riusciti ad andare in bici senza le rotelle.
Di certo per la Sony sarebbe stato meno costoso assemblare dentro una scatoletta affascinante 4 pezzi da PC (vedi Xbox), e invece rivoluzionaria fuori e rivoluzionaria dentro.
Loro si che sono anti conformisti!
:D
Si vocifera che PS3 sia ancora peggio come difficoltà di programmazione.
Vedremo cosa combinerà questo Cell
Alberto Falchi
25-10-2004, 10:01
Originariamente inviato da Vifani
Questo è un ragionamento ingiusto. Effettivamente il rotated grid di NVIDIA non è che porti ad una resa così eccezionale perché non è gamma corrected, però è comunque un passo avanti apprezzabile e che è giusto che si sia fatto. Non bisogna introdurre novità solo quando queste sono rivoluzioni, ma è necessario anche procedere per evoluzioni affinché la qualità grafica aumenti man mano la sua qualità. Se uno gioca a tutti i giochi dal 1999 al 2004 seguendo l'ordine con cui sono usciti non si accorge di grandissime differenze tra uno e l'altro, ma se giochi ad un gioco del 1999 e poi ad uno del 2004 la differenza c'è e si vede. Pertanto anche i piccoli miglioramenti sono bene accetti e devono essere fatti.
NOn dico che non bisogni innovare, ci mancherebbe. Il fatto è che personalmente mi infastidisce veder decretare un vincitore fra le VGA basandosi su parametri come questi. Non sono una manciata di FPS in più in qualche test ne delle scalettature meno evidenti quando zoommi al 200% a rendere una scheda meglio di un altra. I piccoli miglioramente sono sì bene accetti, ma personalmente più che sull'AA, mi focalizzo su altri aspetti più evidenti, come la velocità di esecuzione degli shader, la precisione alla quale vengono calcolati e così via.
Pape
Pape
Dark Schneider
25-10-2004, 12:03
Cmq volevo ricordare che il 90% dei PC Gamer utilizza una risoluzione di 1024. Se ritrovo dove l'ho visto metto il link.
Poi non è che tutti possono permettersi schede di fascia alta.
Cmq a me piace un sacco l'FSAA, anche se cmq riuscirei a giocare anche senza filtri. Però alla fine mi piacciono i filtri e cmq mentre giochi anche se non hai il tempo di ammirare l'uso dei filtri, io cmq avverto una "sensazione" quando sono abilitati.
Sono cmq un sostenitore degli Shader e personalmente mi auguro di vedere in futuro sempre un maggior uso degli shader, perchè realmente possono far fare un grosso salto di qualità visiva.
Attualmente se devo scegliere cosa voglio: se uno miglioramento della qualità dei filtri o un maggior uso degli shader. Al 100% dico: un maggior uso degli shader. Questo perchè penso che ormai in quanto a filtri siam già arrivati ad un ottimo risultato. A me personalmente il FSAA 4X e AF 16X della mia GT è perfetto così comè.
Adesso voglio giochi che fanno uso abbondante di shader. Come ha detto Raffaele non abbiam ancora visto niente di che cosa si possa fare realmente con gli shader. :)
Alberto Falchi
25-10-2004, 12:04
Originariamente inviato da Dark Schneider
Adesso voglio giochi che fanno uso abbondante di shader. Come ha detto Raffaele non abbiam ancora visto niente di che cosa si possa fare realmente con gli shader. :)
l'U3 engine lascia ben sperare sotto questo profilo ^_^
Pape
Io non so dove voi vedete tutta sta potenza di calcolo per giocare con AA attivato.
Ovvio che se giochiamo con una 9800 pro a quake3 con AAx8 restiamo cmq sopra i 150fps. Stessa cosa se giochiamo a ut2003 con una 6800gt.
Ma io voglio giocare con AA ai giochi che escono ora. Ho comprato una scheda video per giocare a palla con i giochi che stanno uscendo ora, e invece non è così.
Chiaro che 60 fps sono meglio di 30. Allo stesso modo 120 fps sono nettamente meglio di 60 e ti danno la sensazione di una fluidità da console. Provate con quake3, noterete sicuramente la differenza.
Allo stato attuale, non c'è nessuna scheda video che ti permette di fare 120 fps fissi a 1024 con AAx4 e AFx16 ai nuovi giochi (doom3, hl2, farcry, stalker), e questo mi fa capire che non è che mancano i giochi per sfruttare l'hw che abbiamo, ma esattamente il contrario.
Io sarò contento quando potrò avere la fluidità di un gioco per console con la definizione e gli effetti della grafica per pc.
Vi prego non me la menate col solito discorso che l'occhio umano vede solo 30fps ecc ecc Provate un bel sparatutto a 60 fps e poi a 120 e vi renderete conto della differenza.
Dark Schneider
25-10-2004, 12:33
Originariamente inviato da johnson
Io non so dove voi vedete tutta sta potenza di calcolo per giocare con AA attivato.
Ovvio che se giochiamo con una 9800 pro a quake3 con AAx8 restiamo cmq sopra i 150fps. Stessa cosa se giochiamo a ut2003 con una 6800gt.
Ma io voglio giocare con AA ai giochi che escono ora. Ho comprato una scheda video per giocare a palla con i giochi che stanno uscendo ora, e invece non è così.
Chiaro che 60 fps sono meglio di 30. Allo stesso modo 120 fps sono nettamente meglio di 60 e ti danno la sensazione di una fluidità da console. Provate con quake3, noterete sicuramente la differenza.
Allo stato attuale, non c'è nessuna scheda video che ti permette di fare 120 fps fissi a 1024 con AAx4 e AFx16 ai nuovi giochi (doom3, hl2, farcry, stalker), e questo mi fa capire che non è che mancano i giochi per sfruttare l'hw che abbiamo, ma esattamente il contrario.
Io sarò contento quando potrò avere la fluidità di un gioco per console con la definizione e gli effetti della grafica per pc.
Vi prego non me la menate col solito discorso che l'occhio umano vede solo 30fps ecc ecc Provate un bel sparatutto a 60 fps e poi a 120 e vi renderete conto della differenza.
Scusa ma io quando vedo che Far Cry con FSAA 4X e AF 16X con tutto al max mi va sui 70-80 fps di media non mi lamento certo della fluidità. Ci metterei la firma per poter giocare sempre così per più tempo possibile.
Non ci vogliono 120 fps per andare fluidi.
Poi non confondere il concetto di fluidità con quello di velocità.
Alberto Falchi
25-10-2004, 12:35
Originariamente inviato da johnson
Vi prego non me la menate col solito discorso che l'occhio umano vede solo 30fps ecc ecc Provate un bel sparatutto a 60 fps e poi a 120 e vi renderete conto della differenza.
60 FPS sono meglio per questioni tecniche legate ai limiti dei monitor. Andare oltre è inutile per quanto riguarda la fluidità. Certo, se il frame rate è incostante, e oscilla fra 30 e 150, si noteranno degli "scatti", ma un frame rate fisso di 60 FPS è perfetto. Del resto i giohci per console non vanno oltre i 60 FPS, e Burnout 3 risulta un missile pur non sputando centinaia di fotogrammi al secondo. Facciamo l'esempio di D3: giocamelo su una X800 o 6800 Ultra (senza AA) e dimmi se vedi scatti. E D3 è limitato a 60: oltre non ci va, a meno di smanettare nei file di configurazione (rischiando tra l'altro di creare artefatti, visto che il sistema di illuminazione è fisso a 60 Hz).
Per quanto riguarda gli effetti speciali, i giochi da console hanno poco da invidiare al PC, mentre il loro unico "limite" riguarda la risoluzione (nemmeno in tutti i casi: prendete una xbox americana e giocate su un HDTV a 1080i, poi ditemi)
Pape
Per forza che doom3 scatta, non avrà mai 60 fps fissi, ci saranno sempre dei punti dove sta sotto gli 80/90 che fa di picco massimo.
Io ho un monitor che a 1024 mi fa 120 di refresh. Giocare con 120 fps fissi, significa che il counter degli fps non scende mai sotto i 120 fps, in nessuna occasione. Provare per credere, chi nega semplicemente non ha mai provato.
La fluidità e gli fps così alti sono molto utili in single player ma sono indispensabili nel multiplayer. E anche qui ve lo dice uno che ha una certa esperienza in questo campo, fate qualche ricerca tra i netgamers e vedrete che ne pensano. La gente è disposta ad abbassare tutti i dettagli grafici al minimo pur di avere la massima fluidità dal lato fps.
No, non confondo fluidità con velocità. Ne riparleremo quando uscirà nv50 e testerai farcry. Li capirai cosa intendo per fluidità. Se le prestazioni aumenteranno come sono aumentate tra queste ultime 2 generazioni potrai giocare a farcry con 160fps di media (si presuppone un picco minimo di 60) e capirai cosa significa fluido.
Non mi meraviglio più di tanto delle vostre affermazioni, perchè è solo una questione di non aver mai visto cos'è realmente fluido.
Non mi meraviglio più di tanto delle vostre affermazioni, perchè è solo una questione di non aver mai visto cos'è realmente fluido.
Guarda che 60 fps fissi E' fluido.
Mica esiste solo Quake3 dove per zompare bene hai bisogno di millemila fps perchè il motore lo consente.
Anzi direi che il caso Quake3 è più unico che raro,in tutti gli altri giochi online o single avere 60fps fissi è il top.
Se ne hai di più va bene...ma non parliamo di necessità per favore.
Anzi,già averne 60 fissi è dura in alcuni titoli,figurati di più.
Alberto Falchi
25-10-2004, 14:49
Originariamente inviato da johnson
Per forza che doom3 scatta, non avrà mai 60 fps fissi, ci saranno sempre dei punti dove sta sotto gli 80/90 che fa di picco massimo.
Doom III NON va oltre i 60, bench escluso.
La fluidità e gli fps così alti sono molto utili in single player ma sono indispensabili nel multiplayer. E anche qui ve lo dice uno che ha una certa esperienza in questo campo, fate qualche ricerca tra i netgamers e vedrete che ne pensano. La gente è disposta ad abbassare tutti i dettagli grafici al minimo pur di avere la massima fluidità dal lato fps.
Questo è un discorso diverso. I netgamer non vogliono rischiare cali improvvisi del frame rate in particolari situazioni, e per questo puntano a diminuire il dettaglio. Calcola che non rallentare in Q3 vuol dire stare sempre a 130 FPS fissi, ma non per una questione di fluidità, bensì perché quel motore permette certi salti e certe evoluzioni SOLO a 130 FPS.
No, non confondo fluidità con velocità. Ne riparleremo quando uscirà nv50 e testerai farcry. Li capirai cosa intendo per fluidità. Se le prestazioni aumenteranno come sono aumentate tra queste ultime 2 generazioni potrai giocare a farcry con 160fps di media (si presuppone un picco minimo di 60) e capirai cosa significa fluido.
Giocati Burnout 3: 60 FPS fissi, tanto veloce e fluido che qualsiasi gioco per PC se lo scorda. Anche a 300 FPS
Pape
Originariamente inviato da GMCPape
Doom III NON va oltre i 60, bench escluso.
Questo è un discorso diverso. I netgamer non vogliono rischiare cali improvvisi del frame rate in particolari situazioni, e per questo puntano a diminuire il dettaglio. Calcola che non rallentare in Q3 vuol dire stare sempre a 130 FPS fissi, ma non per una questione di fluidità, bensì perché quel motore permette certi salti e certe evoluzioni SOLO a 130 FPS.
Giocati Burnout 3: 60 FPS fissi, tanto veloce e fluido che qualsiasi gioco per PC se lo scorda. Anche a 300 FPS
Pape
Il punto e' che un gioco e' fluido anche a 30fps... quando si dice giocare a 60fps.. giocare a 500fps.. Il problema che la maggior parte dei giochi da 30fps scendono facilmente a 15.. cosa che giocando a 500fps non si avra' mai. ;)
Ragazzi, vi ho portato come esempio il motore di quake3 perchè è il primo gioco che mi è venuto in mente dove riesco a fare 300 fps di timedemo. Mi sembrava il test più facile da fare per farvi notare la differenza di fluidità.
Cercate di andare oltre le vostre convinzioni, dovete solo provare.
Non ho mai detto che doom3 va sopra i 60 fps in gioco. Ho detto che un frame rate di 80/90 fps in bench non garantisce che in gioco si abbiano 60 fps costanti.
"I netgamer non vogliono rischiare cali improvvisi del frame rate in particolari situazioni..."
Vedi lo anticipi tu stesso ma poi non approfondisci. Quali sono queste particolari situazioni? Quando si ha un' eccessiva presenza di poligoni/effetti/luci/ombre. Non mi sembra che questa sia una prerogativa di quake3, perchè ogni gioco ha i suoi momenti dove il reparto grafico del nostro pc è messo più o meno sotto stress a causa di diversi fattori, vedi far cry ma anche painkiller (nonostante ciucci molte meno risorse, provate a tenerlo tutto a palla e noterete che va tutto in slow motion in presenza di una decina di nemici con una 9800pro).
Su sta cosa di painkiller si potrebbe scrivere un romanzo su come sia difficile riproporre con la grafica di adesso un gameplay stile i primi doom, con decine e decine di mostri contemporaneamente su schermo (forse solo serious sam ci riuscì a discapito di altre cose). Ennesima conferma che anche se i game designer volessero fare una cosa del genere sarebbero molto limitati dall'hw a disposizione.
Che burnout 3 sia più fluido di qualsiasi gioco per pc a 300 fps può anche darsi, ciò non cambia il discorso che un gioco per pc che fa 300 fps di picco massimo (ne farà come minimo sempre 120), è più fluido di uno che ne fa 150 di massimo, 80 di media e 30 di minimo.
"...Anzi,già averne 60 fissi è dura in alcuni titoli,figurati di più."
E' proprio di questo che mi lamento. Tutti parlano di ste vga che non vengono sfruttate dai giochi tutt'ora in commercio. E' una balla galattica come mi stai confermando pure tu. Tutte le vga di adesso fanno girare decentemente i giochi appena usciti (da farcry in poi), e fanno girare discretamente bene la generazione precedente. Ma da qui a parlare di potenza di calcolo non sfruttata dai giochi ce ne passa.
Athlon 64 3000+
25-10-2004, 15:56
Originariamente inviato da johnson
Ragazzi, vi ho portato come esempio il motore di quake3 perchè è il primo gioco che mi è venuto in mente dove riesco a fare 300 fps di timedemo. Mi sembrava il test più facile da fare per farvi notare la differenza di fluidità.
Cercate di andare oltre le vostre convinzioni, dovete solo provare.
Non ho mai detto che doom3 va sopra i 60 fps in gioco. Ho detto che un frame rate di 80/90 fps in bench non garantisce che in gioco si abbiano 60 fps costanti.
"I netgamer non vogliono rischiare cali improvvisi del frame rate in particolari situazioni..."
Vedi lo anticipi tu stesso ma poi non approfondisci. Quali sono queste particolari situazioni? Quando si ha un' eccessiva presenza di poligoni/effetti/luci/ombre. Non mi sembra che questa sia una prerogativa di quake3, perchè ogni gioco ha i suoi momenti dove il reparto grafico del nostro pc è messo più o meno sotto stress a causa di diversi fattori, vedi far cry ma anche painkiller (nonostante ciucci molte meno risorse, provate a tenerlo tutto a palla e noterete che va tutto in slow motion in presenza di una decina di nemici con una 9800pro).
Su sta cosa di painkiller si potrebbe scrivere un romanzo su come sia difficile riproporre con la grafica di adesso un gameplay stile i primi doom, con decine e decine di mostri contemporaneamente su schermo (forse solo serious sam ci riuscì a discapito di altre cose). Ennesima conferma che anche se i game designer volessero fare una cosa del genere sarebbero molto limitati dall'hw a disposizione.
Che burnout 3 sia più fluido di qualsiasi gioco per pc a 300 fps può anche darsi, ciò non cambia il discorso che un gioco per pc che fa 300 fps di picco massimo (ne farà come minimo sempre 120), è più fluido di uno che ne fa 150 di massimo, 80 di media e 30 di minimo.
"...Anzi,già averne 60 fissi è dura in alcuni titoli,figurati di più."
E' proprio di questo che mi lamento. Tutti parlano di ste vga che non vengono sfruttate dai giochi tutt'ora in commercio. E' una balla galattica come mi stai confermando pure tu. Tutte le vga di adesso fanno girare decentemente i giochi appena usciti (da farcry in poi), e fanno girare discretamente bene la generazione precedente. Ma da qui a parlare di potenza di calcolo non sfruttata dai giochi ce ne passa.
Da qui a dire che le scheda attuali tipo le 6800 e X800 fanno girare appena decentemente giochi tipo Far Cry o Doom 3 ce ne passa.
Per me il vero problema dei giochi non è tanto le schede ma l'ottimizzazione dei giochi che spesso lascia a desiderare.Infatti Far cry per per non è un gran che come programmazione,stessa cosa dicasi per Doom 3,che gia a 1600x1200 con i filtri attivati manda in crisi perfino una 6800Ultra.
Alberto Falchi
25-10-2004, 16:11
Originariamente inviato da Athlon 64 3000+
Da qui a dire che le scheda attuali tipo le 6800 e X800 fanno girare appena decentemente giochi tipo Far Cry o Doom 3 ce ne passa.
Per me il vero problema dei giochi non è tanto le schede ma l'ottimizzazione dei giochi che spesso lascia a desiderare.Infatti Far cry per per non è un gran che come programmazione,stessa cosa dicasi per Doom 3,che gia a 1600x1200 con i filtri attivati manda in crisi perfino una 6800Ultra.
Non capisco questo discorso. Preferisco un gioco che sfrutta al meglio gli effetti della scheda ma arranca se attivi l'AA piuttosto che uno che gira a16x12 con AA attivato ma con un minor numero di effetti. Ma suppongo che vada a gusti ^_^.
Pape
beh comunque il 3Dmark2005 dimostra che c'è ancora molto da fare.
Per come la vedo io a fine 2005 inizio 2006 avremo la grafica di alcuni giochi simile alla demo del benchmark, e in quel test se attivi l' AA su schede grafiche come la 6800/Xt800 ti sembra di sfogliare l' album di famiglia :D
In quanto a grafica tra Pc e Console ormai non c'è piu' nemmeno da discutere , alcuni tech demo su Pc sono indistinguibili quasi da un Video di Animazione.
Le console, almeno queste presenti ora sono mooolto indietro, certo possono farti una corsa di amcchine con grafica realistica ma non hanno la potenza di calcolo sufficente per il realismo "fisico" : AI, ombre ambientali, Luci dinamiche, Fisiche del gioco (provate a buttare in acqua una cassa di legno in Far Cry e vedrete che galleggia, i corpi morti galleggiano e il sangue si spande nell' acqua in modo dinamico ecc ecc).
Bisogna anche considerare che il mantenimento della soglia minima di fps è a carico nella maggiorparte dei casi della Cpu e non della Vga...
Quindi non è che ci si può incazzare con le utlime sk video uscite se le Cpu non gli stanno dietro.
Facendo due conti,il mercato delle Cpu confronto a quello delle Vga va a passo di tartaruga.
Originariamente inviato da Athlon 64 3000+
Da qui a dire che le scheda attuali tipo le 6800 e X800 fanno girare appena decentemente giochi tipo Far Cry o Doom 3 ce ne passa.
Per me il vero problema dei giochi non è tanto le schede ma l'ottimizzazione dei giochi che spesso lascia a desiderare.Infatti Far cry per per non è un gran che come programmazione,stessa cosa dicasi per Doom 3,che gia a 1600x1200 con i filtri attivati manda in crisi perfino una 6800Ultra.
Certo, ti confermo "decentemente". Guarda qui http://www.hwupgrade.it/articoli/1104/7.html
75 frames medi con una x800xt a 1024 con AAx4 e AFx8... con una scheda da 600€, il top della gamma ATI.
Per quanto riguarda il discorso programmazione, può anche darsi che tu abbia ragione, non sono un'esperto. Immagino che ci sarà un margine di ottimizzazione, ma immagino che questo non potrà essere così elevato da cambiare completamente l'impatto sulle prestazioni, magari mi sbaglio. Chissà quando uscirà un gioco con tutti gli effetti di farcry e tutto il sistema di luci e ombre dinamiche di doom3 e girerà a 100fps minimi con l'attuale hw ti darò ragione.
zerothehero
25-10-2004, 18:32
Originariamente inviato da Simon82
Stavo pensando che il mercato attuale di schede video non mi abbia poi impressionato cosi' tanto come speravo. Non vedo in nessuna offerta un reale progresso tecnologico e concettuale nelle moderne schede video, sia scomodando le soluzioni high end sia prendendo in visione le soluzioni inferiori che in proporzione al prezzo offrono poco.
Concordate con me sul fatto che quest'ultima generazione di schede video poco abbia dato all'innovazione e all'appagamento nel comprare una nuova scheda per avere reali soddisfazioni vuoi per features vuoi per prestazioni?
Sara' che ancora non sono state sfruttate le nuove schede (beh.. relativamente vista la pesantezza degli ultimi titoli) sara' che un po' mi mancano i tempi delle vere sfide tecnologiche in cui vedevi vere e proprie lotte nell'offrire al cliente qualcosa che potesse far soccombere la concorrenza, un po' come si vedeva ai tempi in cui 3Dfx, Matrox, S3, e Nvidia combattevano faticosamente con i loro Voodoo3, G400, Savage4 e TNT1/2 oppure ai tempi del Voodoo4/5, Savage2000 e GeForce1/2, ma personalmente spero molto nella prossima generazione di schede video e soprattutto spero molto che qualche altra azienda possa alzare la testa dal gruppo come l'unica in sordina e' riuscita a fare (parlo ovviamente di STM/PowerVr con il Kyro2).
:)
penso la stessa cosa ma del mercato dei processori...:D ...il mercato delle schede video lo vedo molto dinamico e in evoluzione....mentre quello dei proci stantio e noioso....forse dico questo perchè sono passato dalla 4200 alla 6800...:eek:
...a proposito di mercato attuale e le nuove schede video... guardate qui...
www.tomshardware.com/business/20041018/index.html
...:asd: :asd: :asd: ...
...ciao!
Un annoso problema che affligge Ati è il posizionamento delle schede nei vari segmenti di mercato. A tutt'oggi, se ci fate caso, Ati non propone una scheda di nuova generazione (derivata dall'R420) né AGP né PCI-E nella fascia dei 299$, cosa che Nvidia fa con la 6800 liscia per l'AGP e con l'arrivo dell'NV41 per il PCI-E.
ray_hunter
26-10-2004, 19:13
Originariamente inviato da belin
...a proposito di mercato attuale e le nuove schede video... guardate qui...
www.tomshardware.com/business/20041018/index.html
...:asd: :asd: :asd: ...
...ciao!
Trovo queste cose scandalose.
Stessa cosa che avviene tra Intel e AMD per le CPU, anche se a onor del vero di solito a barare in maniera quantomeno bieca è Intel
zerothehero
26-10-2004, 23:14
Originariamente inviato da belin
...a proposito di mercato attuale e le nuove schede video... guardate qui...
www.tomshardware.com/business/20041018/index.html
...:asd: :asd: :asd: ...
...ciao!
ancora non ho capito alcune questioni..e forse non le capirò mai...
la x800xt PE (ribattezzata phantom edition) non si vede in giro per problemi di riformimento delle memorie ddr3 (poco probabile), perchè troppo costosa/con basse rese produttive o forse perchè è stata lanciata in fretta e furia per rispondere al fatto che invidia progettava una scheda da 16 pipeline?..
anche sentendo alcuni venditori confermavano che sia la x800xt che la 6800ultra venivano distribuite a 5-6 pezzi per volta....:eek:
non è neanche questione di richiesta...il mercato sta cercando come un pazzo queste schede...ma forse costano troppo per produrle..
Originariamente inviato da zerothehero
ancora non ho capito alcune questioni..e forse non le capirò mai...
la x800xt PE (ribattezzata phantom edition) non si vede in giro per problemi di riformimento delle memorie ddr3 (poco probabile), perchè troppo costosa/con basse rese produttive o forse perchè è stata lanciata in fretta e furia per rispondere al fatto che invidia progettava una scheda da 16 pipeline?..
anche sentendo alcuni venditori confermavano che sia la x800xt che la 6800ultra venivano distribuite a 5-6 pezzi per volta....:eek:
non è neanche questione di richiesta...il mercato sta cercando come un pazzo queste schede...ma forse costano troppo per produrle..
Il problema fondamentale é che é difficile trovare qualsiasi cosa , i listini sono pieni di 6800 e X800 "in arrivo" , é scandaloso che 6 mesi dopo la presentazione di queste schede sia ancora praticamente impossibile reperirle nei negozi .
E adesso arrivano le 6600 e le X600/X700 , ma solo per PCI Express , perché ?
La mia opinione é che siccome la domanda di schede con questo standard é decisamente bassa questo é un sistema per presentare , testare e mettere in listino schede che non esistono effettivamente .
Originariamente inviato da Cfranco
Il problema fondamentale é che é difficile trovare qualsiasi cosa , i listini sono pieni di 6800 e X800 "in arrivo" , é scandaloso che 6 mesi dopo la presentazione di queste schede sia ancora praticamente impossibile reperirle nei negozi .
E adesso arrivano le 6600 e le X600/X700 , ma solo per PCI Express , perché ?
La mia opinione é che siccome la domanda di schede con questo standard é decisamente bassa questo é un sistema per presentare , testare e mettere in listino schede che non esistono effettivamente .
Sono sempre piu' convinto che questa generazione di schede video abbia deluso in tutto.. anche sul fronte commerciale.. ;)
Athlon 64 3000+
27-10-2004, 09:14
Originariamente inviato da Cfranco
Il problema fondamentale é che é difficile trovare qualsiasi cosa , i listini sono pieni di 6800 e X800 "in arrivo" , é scandaloso che 6 mesi dopo la presentazione di queste schede sia ancora praticamente impossibile reperirle nei negozi .
E adesso arrivano le 6600 e le X600/X700 , ma solo per PCI Express , perché ?
La mia opinione é che siccome la domanda di schede con questo standard é decisamente bassa questo é un sistema per presentare , testare e mettere in listino schede che non esistono effettivamente .
Mi sa che hai ragione,adesso sembra addirittura che a breve Nvidia smetterà di produrre L'NV40 per favorire un rapido diffondersi della piattaforma PCI-Express.
TheDarkProphet
27-10-2004, 10:25
Originariamente inviato da Athlon 64 3000+
Da qui a dire che le scheda attuali tipo le 6800 e X800 fanno girare appena decentemente giochi tipo Far Cry o Doom 3 ce ne passa.
Per me il vero problema dei giochi non è tanto le schede ma l'ottimizzazione dei giochi che spesso lascia a desiderare.Infatti Far cry per per non è un gran che come programmazione,stessa cosa dicasi per Doom 3,che gia a 1600x1200 con i filtri attivati manda in crisi perfino una 6800Ultra.
Quoto. Ormai i giochi vengono pensati sin da subito come mirabolanti ricettacoli di effetti 3D, è dura trovare una software house che sia in grado di unire gameplay-grafica-ottimizzazione di codice.
d!
Alberto Falchi
27-10-2004, 10:53
Originariamente inviato da Cfranco
Il problema fondamentale é che é difficile trovare qualsiasi cosa , i listini sono pieni di 6800 e X800 "in arrivo" , é scandaloso che 6 mesi dopo la presentazione di queste schede sia ancora praticamente impossibile reperirle nei negozi .
Impossibile no, ma molto difficile. Soprattutto nei negozi fisici, che personalmente ritengo ormai privi di senso. Del resto posso capire la scarsità per un piccolo negoziante: si compra una scheda da 600 €, sulla quale ha un margine infimo, e se non la vende se la deve tenere.. anche quando cala di prezzo. Online la situazione onn cambia radicalmente, e i negozianti praticamente le richiedono sono su ordine. Il che implica tempi di attesa spesso parecchio lunghi. Esattamente come accade coi P4 EE e gli Fx-53/55 (cmq più facili da reperire, anche in virtù di un prezzo molto più basso, sebbene non certo alla portata di tutti)
E adesso arrivano le 6600 e le X600/X700 , ma solo per PCI Express , perché ?
La mia opinione é che siccome la domanda di schede con questo standard é decisamente bassa questo é un sistema per presentare , testare e mettere in listino schede che non esistono effettivamente .
Perché è ora di puntare sul nuovo standard,prima di tutto. E perché fare due versioni di una scheda costa troppo, e non le vedresti certi a 200/250 € se fossero disponibili sia AGP sia PCI.
Pape
Originariamente inviato da GMCPape
Perché è ora di puntare sul nuovo standard,prima di tutto. E perché fare due versioni di una scheda costa troppo, e non le vedresti certi a 200/250 € se fossero disponibili sia AGP sia PCI.
Pape
Me li dai tu i soldi per comprare la nuova mobo PCI-E vero?:D
Alberto Falchi
27-10-2004, 12:22
Originariamente inviato da MaBru
Me li dai tu i soldi per comprare la nuova mobo PCI-E vero?:D
Beh.. sarà una rottura, sono d'accordo, ma è inevitabile che prima o poi si passi ai nuovi standard. è accaduto con PCI/AGP, ora AGP/PCI-E. E preparati, che entro qualche tempo il BTX ti obbligherà a spendere altri soldi ^_^
Pape
E preparati, che entro qualche tempo il BTX ti obbligherà a spendere altri soldi ^_^
Pare che Amd non ne voglia sapere per parecchio tempo del Btx.
Ed ha ragione!Visto che i problemi di temperatura ce li ha solo Intel.
Il mio prossimo sistema con PCIX e cazzi e mazzi vedrà il tutto in confenzione Antec...che non ho proprio intenzione di cestinare per un fornetto Intel.
Alberto Falchi
27-10-2004, 12:45
Originariamente inviato da R@nda
Pare che Amd non ne voglia sapere per parecchio tempo del Btx.
Ed ha ragione!Visto che i problemi di temperatura ce li ha solo Intel.
Il mio prossimo sistema con PCIX e cazzi e mazzi vedrà il tutto in confenzione Antec...che non ho proprio intenzione di cestinare per un fornetto Intel.
BTX non è solo una questione di calore, sebbene questo sia il principale motivo di cambio dello standard. I produttori teoricamente dovrebbero acvcogliere bene il nuovo formato: mobo più semplici da disegnare, con meno layer e in definitiva più economiche (da produrre). è innegabile che il design attuale delle mobo sia folle
Pape
bartolino3200
27-10-2004, 12:51
Originariamente inviato da Simon82
Ed e' veramente un peccato... perche' i prezzi ne stanno risentendo.. le features offerte anche.
Sono davvero amareggiato, da quanto sia stato riportato da voi in questo articolo http://www.hwupgrade.it/articoli/1104/11.html
Volete parlare del mercato di schede video?
Iniziate col dire le cose come stanno, in particolare mi riferisco a quanto scrivete qui:
"Sotto il profilo delle prestazioni questa Radeon X800 XT è risultata essere un prodotto particolarmente valido, essenzialmente a metà strada tra una GeForce 6800 Ultra ed una GeForce 6800 GT, pur rientrando nella fascia di prezzo di quest’ultima."
Se ne siete così sicuri ripetetelo!!!
Per me 100€ e anche più, di differenza non possono farmi rientrare nella stessa fascia di prezzo, visto che se non lo ricorda piu nessuno, sono 200.000 lire!!!
Oltretutto, la configurazione dei test non risulta molto chiara e i punteggi dei bench non sono dati sapere a quali config. si riferiscano, creando nel lettore una certa confusione.
Sarei lieto se fosse fatta più luce in merito a tale articolo, che io personalmente, trovo alquanto oscuro e sconfusionato.
Se volete parlare del mercato di schede video, fatelo ma in modo chiaro!!!
yossarian
27-10-2004, 13:12
Originariamente inviato da Vifani
Questo è un ragionamento ingiusto. Effettivamente il rotated grid di NVIDIA non è che porti ad una resa così eccezionale perché non è gamma corrected, però è comunque un passo avanti apprezzabile e che è giusto che si sia fatto. Non bisogna introdurre novità solo quando queste sono rivoluzioni, ma è necessario anche procedere per evoluzioni affinché la qualità grafica aumenti man mano la sua qualità. Se uno gioca a tutti i giochi dal 1999 al 2004 seguendo l'ordine con cui sono usciti non si accorge di grandissime differenze tra uno e l'altro, ma se giochi ad un gioco del 1999 e poi ad uno del 2004 la differenza c'è e si vede. Pertanto anche i piccoli miglioramenti sono bene accetti e devono essere fatti.
perfettamente d'accordo; soprattutto se si considera che il RGMS, rispetto all'OGMS, "obbliga" ad una spesa, in termini di frame rate, del tutto inavvertibile; alla luce di ciò, la scelta operata con la serie NV3x è da classificarsi come ingiustificabile errore tecnico.
Venendo all'argomento del topic, l'attuale generazione di chip non rappresenta, IMHO, una delusione dal punto di vista tecnologico; R3x0 e NV3x avevano proposto una serie di novità rispetto alle precedenti generazioni, R420 e NV40 rendono maggiormente fruibili queste innovazioni.
Dal punto di vista delle architetture non c'è da aspettarsi grandi novità, almeno finchè non si arriverà all'unificazione di ps e vs; è ormai chiaro che un'architettura nx1 rappresenta il modello più efficiente, perchè permette di aumentare al massimo il parallelismo e, il sempre maggior utilizzo di registri interni, permetterà la velocizzazione delle operazioni di multitexturing fino a ridurre ai minimi termini il gap con le architetture dotate di 2 tmu per pipeline (non a caso, anche nVIDIA scelto di utilizzarne una sola nella serie NV4x).
Si tenga infine conto che le attuali architetture sono fortemente condizionate da una concezione "vecchia": nel passaggio da G400, TNT2 ecc, alle prime Geforce, non si era fatto altro che aumentare il numero delle pipeline e introdurre una unità di calcolo geometrico (lavoro prima svolto dalla cpu); con le GF2 e il Radeon256 si era semplicemente aumentato il numero delle tmu perchè erano richieste operazioni di multitexturing (unica eccezione il Kyro che faceva uso di cicli di loop back come i chip dalla GF3 in poi): questo perchè, all'epoca, operazioni per ciclo di clock e per single pass erano del tutto coincidenti. Con l'utilizzo di cicli di loop back si sarebbe potuta eliminare la seconda tmu, ma non è stato fatto fino all'R300.
In sintesi (spero di essermi spiegato) non si è fatto altro che prendere un'architettura (ad esempio quella della TNT) e replicarla, aumentando il parallelismo e aggiungendo nuovi elementi man mano che ne era richiesto l'impiego (unità geometriche che poi ìsi sarebbero trasformate in vs, ulteriori alu che poi sarebbero diventate fpu, registri temporanei, ecc.). Ovviamente a questo ci sarebbero da aggiungere tutte le varie features che l'introduzione di questi elementi ha permesso di implementare o di rendere realmente fruibili e di cui tanto si discute. Di conseguenza, non ci trovo niente di deludente nel fatto che ATi, con R420, abbia semplicemente potenziato un'architettura (R300) che si era rivelata vincente, né che non abbia introdotto l'fp32 (ricordo che, ancora adesso, l'fp32 è molto poco usato e, nella maggior parte dei casi, si fa ricorso a fp16) e neppure che nVIDIA abbia proposto un chip che, mantenendo i punti di forza dell'NV3x (il blocco delle ROP's) abbia adottato un'architettura non troppo dissimile da quella dell'R300 per le pipeline di rendering e le unità vs, aggiungendoci del suo (il modello superscalare per le fpu, una tmu all'interno di ogni unità vs e il dynamic branching, sul cui impiego per le unità ps sono piuttos5to scettico, allo stato attuale, mentre lo vedo decisamente meglio per i vs).
Insomma, poichè quella che si ricerca è la massima efficienza, è normale che, dopo una serie di esperimenti, si sia arrivata ad una sorta di standardizzazione dei modelli, un appiattimento su quella che è risultata essere l'architettura più funzionale. Questo in attesa della vera rivoluzione (presumibilmente con R600 e NV60) che dovrebbe portare all'abbandono delle attuali architetture in favore di altre che dovrebbero rendere i chip grafici sempre più simili a vere e proprie cpu
ciao
ray_hunter
27-10-2004, 13:13
Dal punto di vista tecnico sono contento di questa generazione di schede.
Mi ricorda il passaggio dalle prime voodoo alle voodoo 2.
Dal punto di vista commerciale invece è uno schifo abnorme, sia per la collocazione nelle varie fascie sia per i prezzi.
In più devo dire che ne ho le palle piene di schede castrate, pipes bloccate, bus dimezzati ecc...
Che le differenzino per frequenze di core e latenze di ram, ma che disabilitno funzioni solo per fregarci mi sembra assurdo.
E' come se vendessero le macchine con i fermi in modo da farle pagare meno, quando il costo di produzione è uguale al modello superiore.
Originariamente inviato da ray_hunter
Dal punto di vista tecnico sono contento di questa generazione di schede.
Mi ricorda il passaggio dalle prime voodoo alle voodoo 2.
Dal punto di vista commerciale invece è uno schifo abnorme, sia per la collocazione nelle varie fascie sia per i prezzi.
In più devo dire che ne ho le palle piene di schede castrate, pipes bloccate, bus dimezzati ecc...
Che le differenzino per frequenze di core e latenze di ram, ma che disabilitno funzioni solo per fregarci mi sembra assurdo.
E' come se vendessero le macchine con i fermi in modo da farle pagare meno, quando il costo di produzione è uguale al modello superiore.
Anche a me infastidisce questa politica....crea solo confusione e una quantità inutile di modelli di sk video "differenti".
Però non è che lo fanno apposta,sk del genere significano PCB meno complessi,i chip castrati sono quelli "nati male" dalla produzione standard (mica possono buttarli via).
Insomma basterebbe che si diano una regolata.....va bene non buttare via niente per risparmiare sui costi e recuperare,però con buon senso.
Alberto Falchi
27-10-2004, 14:06
Originariamente inviato da ray_hunter
Che le differenzino per frequenze di core e latenze di ram, ma che disabilitno funzioni solo per fregarci mi sembra assurdo.
Perché per fregare la gente? vuoi che ti vendano una scheda media identica a quella di fascia alta, con sole differenze di clock (facilmente superabili, al contrario dello sbloccaggio delle pipes?). Pensi forse che le CPU siano diverse? Non credi che sia solo il moltiplicatore fissato (oltre alla purezza del silicio) a fare la differenza? E secondo te è una fregatura? Devono forse perdere soldi le aziende? Insomma... chi fa CPU o GPU non è un benefattore dell'umanità, ma solo un signore che vuole arricchirsi. E non ci vedo nulla di male in questo.
Pape
Bè, dico la mia dal punto di vista del videogiocatore, non capendo un tubo di programmazione e questioni tecniche:)
arrivo da una 4200;
mai usato l'AA in vita mia sulla 4200;
ai tempi della 4200 avevo un 15 pollici -aimè defunto- dove 1024x768 sembrava 1600x1200;
Oggi ho il sistema in sign, gioco a 1280x1024, la prima cosa che ho fatto quando ho provato il nuovo sistema è stato sparare l'AA a 4x...risultato:
:confused: Embè?
Ovvero, io tutto sto ben di Dio dall'AA proprio non l'ho visto.
In Doom3 ci gioco con AA4x fisso, ma se mi doveste chiedere dove sta rispetto alla versione senza AA proprio non saprei che rispondervi, lo tengo attivo perchè fa figo dire agli amici, "hei, sai che ci gioco con AA4x e va a manetta uguale?"
Gioco a The Suffering con AA4x...ma io le scalette le vedo uguale, ma lo tengo attivo per le stesse ragioni di sopra, fa figo dire agli amici...ecc.
Sto rigiocando a Neverwinter Nights, sempre con AA4x: bè, qui un pò la differenza rispetto a prima si vede, ma nulla che mi faccia strappare i capelli, indovinate perchè lo tengo lo stesso?:)
Insomma, avrete capito che a me, sto benedetto AA pomo della discordia di anni di flame, di guerre tra utenti, fanboy e colossi elettronici, proprio non ha colpito per nulla.
Migliaia di volte meglio vedere la grafica da spavento di Doom3 con le sue ombre inaudite ed il suo polybump o quello che è a manetta, altro che AA.
Migliaia di volte meglio vedere Far-Cry che ti spara pixel shader a manetta, senza criterio, ma fa figo lo stesso, piuttosto che sto AA idolatrato.
Migliaia di volte meglio divertirsi giocando che stare a cercare il pixel che sgrana.
Non sono contro il progresso, anzi, è che da anni vedo questo AA inseguito da tutti come la vera rivoluzione video, ma ai miei occhi consumati è una features carina, nulla di più.
Poi, se devo ritornare in topic e dire se sono soddisfatto da questa generazione di schede video, posso dire di trovarmi quasi nella stessa situazione in cui 2 anni e mezzo fa mi trovai con la 4200: per carità, son contento, ma a parte i soliti Doom3 e Far-Cry -quest'ultimo che nemmeno ho- non vedo oggi tutto sto salto esponenziale a livello visivo. Ci sono i frame quasi doppi, ma per vedere la vera potenzialità bisognerà aspettare, credo.
Con la 4200 è stato facile, quasi due anni di evoluzione congelata, con l'X-BoX a trainare conversioni ed uso di sti benedetti PS, ma una simile situazioni stagnante che favorisca lo sfruttamento dell'hardware si ripeterà in futuro?
Ho i miei dubbi in proposito.
Ciao.
Alberto Falchi
27-10-2004, 14:23
Originariamente inviato da Custode
Migliaia di volte meglio vedere la grafica da spavento di Doom3 con le sue ombre inaudite ed il suo polybump o quello che è a manetta, altro che AA.
Migliaia di volte meglio vedere Far-Cry che ti spara pixel shader a manetta, senza criterio, ma fa figo lo stesso, piuttosto che sto AA idolatrato.
Migliaia di volte meglio divertirsi giocando che stare a cercare il pixel che sgrana.
Kudos a Custode! ed è proprio questo il punto: l'AA non serve a una mazza, se non per tirarsela con gli amici (non funziona con le donne: provate a chiedere a una tipa conosciuta al pub se vuole venire a casa vostra a vedere Doom che gira a 1600 con AA4X e questa vi tirerà un bicchiere in faccia). Meglio usare la potenza e la banda passante per aggiungere nuovi effetti, per aumentare il dettaglio geometrico, per miglirare la qualità delle texture. Certo, dal punto di vista tecnico è divertente dissertare sulla qualità dei filtri o sulla loro implemetazione, ma non è certo questo a decretare la qualità di una scheda video. NOn da solo, per lo meno,
Pape
Originariamente inviato da GMCPape
Kudos a Custode! ed è proprio questo il punto: l'AA non serve a una mazza, se non per tirarsela con gli amici
Pape
Sei la prima persona che afferma questo.
AA non è figo, non fa moda
E occhio che leggevo in un articolo (perdonami non ricordo dove) che l' AA apporta benefici anche a risoluzioni superiori di 2048x2048
Per cui dire io gioco a 1600x1200 per me non ha senso.
bye
Alberto Falchi
27-10-2004, 14:37
Originariamente inviato da pandyno
Sei la prima persona che afferma questo.
No, Mark Rein mi ha anticipato di parecchio. E direi che la sua voce ha un certo peso ^_^.
AA non è figo, non fa moda
No, è proprio il contrario: i fanboy adorano disquisire della qualità di AA di ATi Vs nVidia, e portano come esempi dettagli zoomati al 400%. Utile, come già detto, in sede di recensione, per valutare l'architettura. Completamente inutile ai giocatori.
E occhio che leggevo in un articolo (perdonami non ricordo dove) che l' AA apporta benefici anche a risoluzioni superiori di 2048x2048
mi piacerebbe farti vedere due immagini, velolcemente. Una a 2048x2048 con AA6X e una senza. Scommetti che non riesci a distinguerle, a meno di fissarti sul monitor e controllare ben benino ogni particolare? Ecco.. quando giochi, a 60 fps, queste differenze le vedi ancora meno, anche a risoluzioni più basse.
Per cui dire io gioco a 1600x1200 per me non ha senso.
Ha senso dire "io gioco". Punto. Il divertimento non è certo legato alla presenza o meno di Aliasing. Se posso attivarlo bene, ma se rallenta troppo me ne sbatto altamente di questa funzione. Al contrario di quanto accade coi PS: togli quelli è l'impatto sì che diminuisce drasticamente.
Pape
Thunder82
27-10-2004, 14:57
Originariamente inviato da Custode
Gioco a The Suffering con AA4x...ma io le scalette le vedo uguale
Eh ma ci credo che le vedi uguale, hai una GeForce :D :ops: :sofico:
Originariamente inviato da GMCPape
No, Mark Rein mi ha anticipato di parecchio. E direi che la sua voce ha un certo peso ^_^.
Mark Rein non compera milioni di schede, non fa certo il consumatore che caccia passa e 600€ per comprarsi una scheda.
No, è proprio il contrario: i fanboy adorano disquisire della qualità di AA di ATi Vs nVidia, e portano come esempi dettagli zoomati al 400%. Utile, come già detto, in sede di recensione, per valutare l'architettura. Completamente inutile ai giocatori.
mi piacerebbe farti vedere due immagini, velolcemente. Una a 2048x2048 con AA6X e una senza. Scommetti che non riesci a distinguerle, a meno di fissarti sul monitor e controllare ben benino ogni particolare? Ecco.. quando giochi, a 60 fps, queste differenze le vedi ancora meno, anche a risoluzioni più basse.
Ha senso dire "io gioco". Punto. Il divertimento non è certo legato alla presenza o meno di Aliasing. Se posso attivarlo bene, ma se rallenta troppo me ne sbatto altamente di questa funzione. Al contrario di quanto accade coi PS: togli quelli è l'impatto sì che diminuisce drasticamente.
Pape
Mi pare di capire che tu fai parte di quella schiera che preferisce giocare, allora non capisco cosa ti spinge a frequentare un forum tecnico come questo.
Dire l' AA non serve a una mazza la trovo una ca..... bella e buona ;)
Nel rispetto delle tue opinioni naturalmente ;)
bye
Thunder82
27-10-2004, 15:38
A me pare che la differenza fra AA e senza AA sia piuttosto evidente ;) Logico che se non si può se ne fa a meno, ma averlo è meglio
Senza AA
http://img29.exs.cx/img29/6449/senzaAA.jpg
Con AA
http://img29.exs.cx/img29/7361/conAA.jpg
E' la demo di NFSU2
Alberto Falchi
27-10-2004, 15:40
Originariamente inviato da pandyno
Mark Rein non compera milioni di schede, non fa certo il consumatore che caccia passa e 600€ per comprarsi una scheda.
No, però Mark Rein le usa quelle schede. E nbe deve tenere conto, visto che i suoi giochi ci devono girare sopra. E, a sua detta, preferisce agigungere effetti a manetta per spremere all'inverosimile che lasciare prestazionilibere all'AA.
Mi pare di capire che tu fai parte di quella schiera che preferisce giocare, allora non capisco cosa ti spinge a frequentare un forum tecnico come questo.
Preferisco giocare, ma mi diverto anche ad analizzare tecnicamente le schede, visto che tra l'altro fa parte del mio lavoro. Ma un conto è disquisire sulla bontà tecnica, che è fondamentale per valutare un'architettura. Un altro è farsi le pippe da fanboy su variazioni qualitative invisibili.
Dire l' AA non serve a una mazza la trovo una ca..... bella e buona ;)
Nel rispetto delle tue opinioni naturalmente ;)
^_^
Non è che non serva, è che secondo me ci sono feature pià importanti. Se posso attivarlo bene, ma preferisco di gran lunga puntare su altro.
Pape
Sono d'accordo con Pape. Basta con sti filtri, tiriamo fuori le cart... :D :sofico:
Scherzi a parte, anch'io credo che effetti, dimensione e definizione delle texture, dettaglio geometrico, gestione migliore di luci e ombre dinamiche siano aspetti più importanti di un AA.
Guardate le texture di cs-source e di doom3. Da lontano sono fenomenali (a parte qualche caso), ma appena vi avvicinate si slavano in maniera vergognosa. Che me ne faccio di un AAX8 che mi smussa le scalettature di una "cassa di legno" che sembra una scatola monocromatica quando gli sto vicino (ricordo solo 2 giochi che ho giocato che mantenevano texture dettagliatissime anche da vicino, serious sam e alice col motore di quake3, non ricordo il nome esatto scusate).
Stessa cosa dicasi per il dettaglio geometrico. Guardate le teste dei personaggi di doom3, sia umani che mostri, sono esagonali. Su cs-source si nota meno ma c'è anche qui.
Che senso ha puntare su un AAx8 se poi quando voglio fare un videogioco con un sistema di luci e ombre dinamiche su tutto, devo farlo giocare in spazi stretti e bui perchè non c'è abbastanza potenza di calcolo.
Questi sono tutti particolari che si notano bene quando si gioca, l'AA ,come dice Pape, molto meno.
Bò, io la penso come GMCPape: è ovvio che se posso permettermi l'AA lo uso, ma non è il Santo Graal dell'evoluzione video, per me.
Prendiamo le immagini popstate da Thunder82: è ovvio che quella con AA sia migliore, ma:
- sono 2 immagini statiche che puoi stare lì a contemplare per ore...mentre giochi hai a malapena il tempo di guardare la strada:
- a onor del vero leggere scalettature si notano anche nell'immagine con AA, sul tronco della palma, sul filo della luce, ecc.
Ora, alla stessa immagine, invece dell'AA provate a togliere i vari effetti di luce, i PS e le riflessioni o rifrazioni varie: è qui che sat la differenza. Senza AA il gioco rimane visivamente identico, solo più sgranato, senza il resto sembra un gioco vecchio di 2 anni.
E per Thunder: tu ci scherzi, ma sappi che me lo sono chiesto pure io se in The Suffering fosse la Ge-Force a fare un AA del cavolo:) ;)
Ciao.
yossarian
27-10-2004, 15:51
il nocciolo della questione non è se sia meglio l'AA o altre feature; questo per il semplice motivo che anche sulla serie NV3x era possibile attivare l'AA. Provando Morrowind con AA 4x e senza AA (ho una 9700 pro) le differenze sono piuttosto sensibili, forse perchè non si tratta di uno sparatutto frenetico e si ha modo di "guardarsi attorno".
In ogni caso, senza voler discutere quello che dice Mark Rein che può essere o meno condivisibile, resta il fatto che l'utilizzo di una modalità OGMS, qualitativamente inferiore al RGMS a parità di prestazioni velocistiche, rappresenta, da parte di nVIDIA, un errore tecnico piuttosto grave (dal punto di vista concettuale paragonabile all'utilizzo di 2 fxu per pipeline e del sottodimensionamento dei registri temporanei sull'NV30, anche se ovviamente, non ha lo stesso impatto devastante che questi ultimi due hanno sulle prestazioni, con l'utilizzo di calcoli in fp; anzi, mentre gli altri due sono stati dettati da una scelta progettuale ben precisa, visto che l'NV30 è un chip piuttosto DX8.x oriented, quella dell'OGMS è del tutto incomprensibile, proprio perchè l'utilizzo del RG non avrebbe avuto hit prestazionali apprezzabili)
Simon 82, non ha molto senso postare 2 screens per dimostrare la differenza di percezione delle scalettature da parte nostra (per una valutazione tecnica vanno benissimo invece). Proprio perchè per definizione si tratta cmq di 2 fermo-immagine. In movimento la differenza di dettaglio si noterà ancora meno, figurarsi in un gioco come N4SU che è velocissimo.
Originariamente inviato da GMCPape
Preferisco giocare, ma mi diverto anche ad analizzare tecnicamente le schede, visto che tra l'altro fa parte del mio lavoro. Ma un conto è disquisire sulla bontà tecnica, che è fondamentale per valutare un'architettura. Un altro è farsi le pippe da fanboy su variazioni qualitative invisibili.
Invisibili? :D
sarà io mi stò godendo l' ultimo Toca coi filtri a palla ed è una goduria :)
comunque torniamo in topic ;)
bye
Alberto Falchi
27-10-2004, 16:09
Originariamente inviato da yossarian
resta il fatto che l'utilizzo di una modalità OGMS, qualitativamente inferiore al RGMS a parità di prestazioni velocistiche, rappresenta, da parte di nVIDIA, un errore tecnico piuttosto grave (dal punto di vista concettuale paragonabile all'utilizzo di 2 fxu per pipeline e del sottodimensionamento dei registri temporanei sull'NV30, anche se ovviamente, non ha lo stesso impatto devastante che questi ultimi due hanno sulle prestazioni, con l'utilizzo di calcoli in fp; anzi, mentre gli altri due sono stati dettati da una scelta progettuale ben precisa, visto che l'NV30 è un chip piuttosto DX8.x oriented, quella dell'OGMS è del tutto incomprensibile, proprio perchè l'utilizzo del RG non avrebbe avuto hit prestazionali apprezzabili)
mi piacerebbe fare una prova, per curiosità. Applicare il metodo dei blind test nella musica (avete presente ABXComparator? ecco, così) con le immagini. E, a mio avviso, nessuno saprebbe riconoscere a colpo sicuro i due algoritmi senza sapere a priori quali sono. Anche perché, a seconda della scena, può essere migliore la qualità di un OGMS rispetto a un RGMS.
Pape
yossarian
27-10-2004, 16:16
Originariamente inviato da GMCPape
mi piacerebbe fare una prova, per curiosità. Applicare il metodo dei blind test nella musica (avete presente ABXComparator? ecco, così) con le immagini. E, a mio avviso, nessuno saprebbe riconoscere a colpo sicuro i due algoritmi senza sapere a priori quali sono. Anche perché, a seconda della scena, può essere migliore la qualità di un OGMS rispetto a un RGMS.
Pape
al massimo, sulle linee perfettamente orizzontali o perfettamente verticali, OG e RG possono avere la stessa resa; non c'è un solo caso in cui un algoritmo OG abbia resa apprezzabilmente migliore di uno RG.
Ti assicuro che c'è gente in grado di riconoscere un trilinear puro da un brilinear (cosa ben più ardua che non distinguere tra AA si e AA no); io non sono tra questi, però, se mi sono accorto della differenza tra l'utilizzo di un AA 4x e il non utilizzo dello stesso, vuol dire che qualcosa si nota.
Beh, ma tu te ne accorgi perchè è il tuo campo. Sarebbe più grave il contrario.
Alberto Falchi
27-10-2004, 16:24
Originariamente inviato da yossarian
se mi sono accorto della differenza tra l'utilizzo di un AA 4x e il non utilizzo dello stesso, vuol dire che qualcosa si nota.
Beh, se non la noti avresti bisogno di un oculista ^_^. Il problema è vedere le differenze fra un'implementazione e l'altra dell'AA. E soprattutto, vederle mentre giochi e non facendo uno screenshoot zoomato. Ribadisco, parlarne è stimolante, e in sede di recensione sono assolutamente argomenti che vanno trattati. Ma, dal punto di vista del giocatore e non del geek, sono differenze davvero inesistenti.
Ma il punto che più mi preme sottolineare è che, a mio avviso, è meglio sfruttare il potenziale per altri effetti o per la complessità poligonale, che farlo per l'AA.
Pape
Infatti è di questo che si voleva parlare tirando fuori il discorso AA, cioè del fatto che le risorse di una scheda video, per me, andrebbero sfruttate per potenziare e migliorare altri campi.
In questi giorni si fa un gran parlare della nuova patch per Far-Cry che, tramite smanettamento, attiva l'HDR: ho visto un boato di screen su alcuni forum, e a livello puramente visivo sembra come passare da un gioco in bianco e nero -senza HDR-, ad un gioco a colori -con HDR-.
Si può star a parlare fino a domani dei difetti, del fatto che è implementato con una resa eccessiva, che le prestazioni crollano, che si poteva fare meglio, che questo e quell'altro, ma mi ha molto colpito leggere il seguente commento in molti di questi forum:
ovvero che non vale abilitarlo perchè si perde l'AA...:confused: :confused: :confused:
Cioè, e tu rinunci ad un effetto potenzialmente devastante -caspita ci sono screen impressionanti e pure qualche filmato dove in movimento rende ancora meglio- per 4 pixel messi in croce?
Alberto Falchi
27-10-2004, 16:44
Originariamente inviato da Custode
Cioè, e tu rinunci ad un effetto potenzialmente devastante -caspita ci sono screen impressionanti e pure qualche filmato dove in movimento rende ancora meglio- per 4 pixel messi in croce?
Kudos per la seconda volta ^_^
E mi viene subito in mente Invisible War: Bloom o AA? Io punto al primo, molto più verosimile e capace di ricreare atmosfera. Ma a quanto pare sono fra i pochissimi: la gente preferisce perdere atmosfera e realismo pur di avere diagonali meno seghettate... mah... io non li capisco.
Pape
Una grafica brutta con i filtri è una brutta grafica filtrata.
Però l'AF mi piace,visivamente le texture sbiadite a 2m dalla distanza visiva si notano senza Af e costa molto meno in prestazioni dell'AA
Vero, l'AF è nettamente più gratificante :)
yossarian
27-10-2004, 17:34
Originariamente inviato da GMCPape
Beh, se non la noti avresti bisogno di un oculista ^_^. Il problema è vedere le differenze fra un'implementazione e l'altra dell'AA. E soprattutto, vederle mentre giochi e non facendo uno screenshoot zoomato. Ribadisco, parlarne è stimolante, e in sede di recensione sono assolutamente argomenti che vanno trattati. Ma, dal punto di vista del giocatore e non del geek, sono differenze davvero inesistenti.
Ma il punto che più mi preme sottolineare è che, a mio avviso, è meglio sfruttare il potenziale per altri effetti o per la complessità poligonale, che farlo per l'AA.
Pape
parlo di differenze evidenti senza necessità di screenshot zoomati o meno ossia di differenze che si notano giocando. Si può essere d'accordo sul fatto che la potenza di un chip grafico debba essere utilizzata per altri scopi che non, come ha detto qualcuno, per mettere 4 pixel in croce; resta però il fatto che, esistendo due diversi algoritmi per implementare l'AA e avendo optato per uno dei due, scegliere, come ha fatto NV, quello peggiore come resa a parità di prestazioni è da masochisti (oppure si dovrebbe accettare per buono il discorso "ne scelgo uno a caso, tanto non serve"? E, allora, perchè implementarlo per forza? Oppure, ancora, perchè su NV40 passare al RG e non restare fedeli alla filosofia di cui sopra? Per colpa di qualche recensore impertinente e impiccione?). Poi si può disquisire da qui all'eternità sull'opportunità o meno di utilizzare i filtri. Certo è che in tutti i processi di digitalizzazione di un segnale analogico si introducono degli errori e delle approssimazioni (i risultati più evidenti, ma non gli unici, sono le scalettature sui bordi e l'effetto noto come texture swimming; ad esempio, per chi non lo sapesse, anche, ad esempio, gli algoritmi di dynamic branching introducono una forma di aliasing che va eliminata con opportuni filtri). Di conseguenza, forse non è del tutto inopportuno adottare delle tecniche di filtraggio atte a ridurre questi effetti e sceglierle nel modo più appropriato, ossia in maniera tale da non compromettere più di tanto le prestazioni (il MS, da questo punto di vista è meglio del SS, pur avendo una qualità inferiore) né la qualità d'immagine (il RG è meglio dell'OG, così come una modalità mista bilinear trilinear può essere preferibile ad un trilinear puro che, però, ha una resa qualitativa superiore). Questo senza dover rinunciare ad effetti extra, come l'HDR simulato di FarCry (e, presumibilmente, di HL2).
ciao
Per GMCPape:
OT ON:
al terzo Kudos che vinco :D
OT OFF.
Ciao:)
zerothehero
27-10-2004, 17:50
Originariamente inviato da Simon82
Sono sempre piu' convinto che questa generazione di schede video abbia deluso in tutto.. anche sul fronte commerciale.. ;)
Ma se vanno il doppio rispetto alle precedenti? :confused: ...il problema è la loro ridotta disponibilità....cosa dovremmo dire allora dei processori (fx e EE) che costano 800-1000 euro e sono un 10-15% più veloci di un banale p4?
zerothehero
27-10-2004, 17:55
Originariamente inviato da yossarian
il nocciolo della questione non è se sia meglio l'AA o altre feature; questo per il semplice motivo che anche sulla serie NV3x era possibile attivare l'AA. Provando Morrowind con AA 4x e senza AA (ho una 9700 pro) le differenze sono piuttosto sensibili, forse perchè non si tratta di uno sparatutto frenetico e si ha modo di "guardarsi attorno".
quoto in toto su morrowind ...il mio parere sull'aa forse è banale....migliora la qualità dell'immagine..ma non è indispensabile averlo...
concordo con pape sulle zoomatore al 400% ma questa tecnica è fatta per evidenziare differenze architetturali...è un pò come le recensioni di processori con giochi a 640*480....serve per far vedere le differenze tra un fx55 e un athlon 64 3000....altrimenti chi glielo dice allo spendaccione di turno che a 1600*1200 non c'è differenza tra i due processori...quello minimo si ammazza..:D
Alberto Falchi
27-10-2004, 18:15
Originariamente inviato da yossarian
Oppure, ancora, perchè su NV40 passare al RG e non restare fedeli alla filosofia di cui sopra? Per colpa di qualche recensore impertinente e impiccione?).
Bene o male la risposta di nVidia è stata questa ^_^, sebbene in altri termini. La gente lo vuole? Diamoglielo... che ci cambia?
Di conseguenza, forse non è del tutto inopportuno adottare delle tecniche di filtraggio atte a ridurre questi effetti e sceglierle nel modo più appropriato, ossia in maniera tale da non compromettere più di tanto le prestazioni (il MS, da questo punto di vista è meglio del SS, pur avendo una qualità inferiore) né la qualità d'immagine (il RG è meglio dell'OG, così come una modalità mista bilinear trilinear può essere preferibile ad un trilinear puro che, però, ha una resa qualitativa superiore). Questo senza dover rinunciare ad effetti extra, come l'HDR simulato di FarCry (e, presumibilmente, di HL2).
Sicuramente, ma il punto è che se le differenze fra una griglia rotata e una normale non si notano, perché farsi tante problemi? Si evidenzia il problema, certo, ma non è un limite troppo grosso dell'architettura, e la votazione finale non dovrebbe risentirne in maniera sensibile. Altro discorso invece il mancato supporto a certe feature. O la presenza di feature inutili. SM3, 3Dc, Trueform e altro sono delle gran figate, ma non possono essere considerati dei punti positivi se non vengono implementati poi dai giochi.
Pape
yossarian
27-10-2004, 18:44
Originariamente inviato da GMCPape
Bene o male la risposta di nVidia è stata questa ^_^, sebbene in altri termini. La gente lo vuole? Diamoglielo... che ci cambia?
Sicuramente, ma il punto è che se le differenze fra una griglia rotata e una normale non si notano, perché farsi tante problemi? Si evidenzia il problema, certo, ma non è un limite troppo grosso dell'architettura, e la votazione finale non dovrebbe risentirne in maniera sensibile. Altro discorso invece il mancato supporto a certe feature. O la presenza di feature inutili. SM3, 3Dc, Trueform e altro sono delle gran figate, ma non possono essere considerati dei punti positivi se non vengono implementati poi dai giochi.
Pape
le differenza tra RG e OG su superfici oblique ci sono e si notano; la risposta di nVIDIA lascia il tempo che trova, poichè sulla serie NV3x, promettente per alcuni aspetti, hanno commesso tanti di quegli errori da invalidare quanto di buono c'era in quei chip. Anzi, a maggior ragione, proprio perchè non gli cambiava niente, avrebbero potuto da subito utilizzare la modalità RG (che tra l'altro era già presente sulle Voodoo5 anche se in modalità SS)
L'uso delle n-patches che sono alla base del truform, è stato, di fatto, ratificato da MS, con l'adozione di questa tecnica per le higher oder surface; per quanto riguarda lo SM3, non tutto le feature proposte sono "attuabili" con questa generazione di schede video. Diciamo che si tratta più di "propaganda" che non di qualcosa di veramente realizzabile (così come lo era il pieno supporto allo SM2 per la precedente generazione); i chip attuali sono pienamente SM2 compliant e, in particolare l'NV40, può utilizzare qualche feature dello SM3.0 (che su R3x0 e R420 può essere solo simulata)
ciao
ciao
Originariamente inviato da johnson
Beh, ma tu te ne accorgi perchè è il tuo campo. Sarebbe più grave il contrario.
Campo? questa è passione ;)
Mai visto gli audiofili che provano letteralmente dozzine di cavi per "sentire" quale "suona" meglio?
E' chiaro che a chi sente la musica Tuzz Tuzz non gliene può fregare di meno di un cavo a regola darte, del biwiring e di altre menate, ma non venitemi a dire che l' AA non serve ad una mazza in un forum di appassionati, senza considerare che molto spesso l' appassionato di VGA non è un grandissimo videogiocatore ;)
Originariamente inviato da GMCPape
Kudos per la seconda volta ^_^
E mi viene subito in mente Invisible War: Bloom o AA? Io punto al primo, molto più verosimile e capace di ricreare atmosfera. Ma a quanto pare sono fra i pochissimi: la gente preferisce perdere atmosfera e realismo pur di avere diagonali meno seghettate... mah... io non li capisco.
Pape
Fose non ti è chiaro che per filtri a palla si intende AA+AF e se il gioco lo permette anche LOD ;)
Alberto Falchi
27-10-2004, 19:07
Originariamente inviato da pandyno
E' chiaro che a chi sente la musica Tuzz Tuzz non gliene può fregare di meno di un cavo a regola darte, del biwiring e di altre menate, ma non venitemi a dire che l' AA non serve ad una mazza in un forum di appassionati, senza considerare che molto spesso l' appassionato di VGA non è un grandissimo videogiocatore ;)
Beh, appunto. Ma le schede sono fatte per i giocatori, e le recensioni sono in virtù di un uso ludico. Poi la passione è un altro discorso. Esattamente come le recensioni dei cavi audio: divertenti dal punto di vista tecnico, ma stronzate fenomenali all'atto pratico, visto che è impossibile sapere come si comporta un cavo su un sistema diverso da quello di prova (e chiediti come mai raramente si fanno blind test sui cavi ^_^).
Nel campo delle VGA, fortunatamente, i vantaggi/svantaggi di AA sono oggettivi, indipendentemente dal sistema. Ma, facendo un blind test, sono certo che nessuno riconoscerebbe un rotate grid da altre implementazioni. NOn in movimento, per lo meno.
Pape
Pandyno, ma perchè qui di cosa si parla? Si parla di impatto del AA nei videogames.
Quindi discorso tecnico o no, non devi perdere di vista lo scopo principale di questo filtro. Deve essere utile ai videogiocatori come me evidentemente, non agli appassionati di schede video come te.
Che poi gli appassionati si facciano le pippe mentali con i fotogrammi ingranditi 400 volte ci sta, ma sole per capire le differenze di applicazione del filtro magari o per vedere come agisce un architettura.
Per il discorso audio ti faccio un esempio.
Che senso avrebbe comprarsi cavi super schermati, se poi usi il mangiadischi della nonna con le casse della zia?
Prima di prendere i cavi schermati io mi prendo 2 technics sl 1200 e un bel mixer pioneer con 2 cassa gbl o fbt (+ ampli con le palle), poi magari penso ai cavi.
E' ovvio che con AA si vede meglio, ma ci sono altre cose che rendono la nostra esperienza di gioco molto più realistica. Puntiamo su quelle!
Originariamente inviato da GMCPape
Nel campo delle VGA, fortunatamente, i vantaggi/svantaggi di AA sono oggettivi, indipendentemente dal sistema. Ma, facendo un blind test, sono certo che nessuno riconoscerebbe un rotate grid da altre implementazioni. NOn in movimento, per lo meno.
Pape
Come già ti è stato detto c' è gente che ti "sgama" anche il trilinear ottimizzato :)
Originariamente inviato da johnson
Pandyno, ma perchè qui di cosa si parla? Si parla di impatto del AA nei videogames.
Quindi discorso tecnico o no, non devi perdere di vista lo scopo principale di questo filtro. Deve essere utile ai videogiocatori come me evidentemente, non agli appassionati di schede video come te.
Che poi gli appassionati si facciano le pippe mentali con i fotogrammi ingranditi 400 volte ci sta, ma sole per capire le differenze di applicazione del filtro magari o per vedere come agisce un architettura.
A me sembra ridicolo che voi diciiate che non serva ad una mazza.
Vallo a dire ad ATI o nVidia che ci hanno speso milioni di dollari e vediamo che ti rispondono :)
L' AA è stata la prima vera features utilizzabile da subito, senza compromessi, nè di codice nè di qualità.
Per il discorso audio ti faccio un esempio.
Che senso avrebbe comprarsi cavi super schermati, se poi usi il mangiadischi della nonna con le casse della zia?
Prima di prendere i cavi schermati io mi prendo 2 technics sl 1200 e un bel mixer pioneer con 2 cassa gbl o fbt (+ ampli con le palle), poi magari penso ai cavi.
Quel che dici non ha senso: chi si fa un mazzo tanto ad ascoltare i cavi non ha il mangiadischi della nonna, ma impianti dalle svariate centinaia di €.
E' ovvio che con AA si vede meglio, ma ci sono altre cose che rendono la nostra esperienza di gioco molto più realistica. Puntiamo su quelle!
Non dirlo a me, il mio termine di paragone è rimasto il primo unreal, dopo di quello non ho più visto sconvolgimenti grafici.
PS: torniamo in topic (e due ;) )
Alberto Falchi
27-10-2004, 19:18
Originariamente inviato da pandyno
Fose non ti è chiaro che per filtri a palla si intende AA+AF e se il gioco lo permette anche LOD ;)
MI è chiaro benissimo. Sai com'è... è il mio lavoro ^_^.
Intendevo dire che si fa tanto parlare di AA, ma ci sono effetti migliori e più utili. Il Bloom di IW, per esempio, non funziona insieme all'AA, ma la maggior parte delle persone non ama tale, spettacolare, effetto e preferisce ridurre le scalettature. Opinioni personali, certo, ma il realismo e l'impatto visivo di una scena sono basati su 1000 fattori, e l'AA è il meno importante, almeno secondo me.
Pape
Alberto Falchi
27-10-2004, 19:20
Originariamente inviato da pandyno
Come già ti è stato detto c' è gente che ti "sgama" anche il trilinear ottimizzato :)
Portameli in ufficio e facciamo un blind test sull'AA rotated o meno. Poi vedremo chi ha ragione ^_^. E non scherzo: sarebbe interessante fare questa prova, sia con AA sia con altri filtri, quindi vi invito volentieri.
Pape
Sai negli anni passati quanti ne abbiamo fatte di queste prove? :D
liberissimo di aprire un topic con sondaggio annesso ;)
Alberto Falchi
27-10-2004, 19:27
Originariamente inviato da pandyno
A me sembra ridicolo che voi diciiate che non serva ad una mazza.
Vallo a dire ad ATI o nVidia che ci hanno speso milioni di dollari e vediamo che ti rispondono :)
L' AA è stata la prima vera features utilizzabile da subito, senza compromessi, nè di codice nè di qualità.
Appunto: è facile perché non è necessario imporla agli sviluppatori, al contrario di 3Dc, SM3 o altro. Costa molto meno implementare AA (che serve per lo più per trovare il modo di sfruttare la potenza che avanza della scheda video) che implementare degl shader migliori, che poi devono anche essere supportati da DirectX e dagli sviluppatori. L'AA lo potevi sbandierare subito, le altre feature sono invetimenti più intelligenti, ma a lungo termine..
Quel che dici non ha senso: chi si fa un mazzo tanto ad ascoltare i cavi non ha il mangiadischi della nonna, ma impianti dalle svariate centinaia di €.
Migliaia, al massimo ^_^. Ma tali recensioni sono seghe mentali, come del resto viene dimostrato sull'ultimo Audio Review.
Pape
Alberto Falchi
27-10-2004, 19:29
Originariamente inviato da pandyno
Sai negli anni passati quanti ne abbiamo fatte di queste prove? :D
liberissimo di aprire un topic con sondaggio annesso ;)
Dubito vi siate messi a valutare rotated grid o meno. In ogni caso, ribadisco l'invito per un blind test. Comunque vada, vi potrete divertire all'interno di un laboratori col miglior hardware presente sul mercato ^_^
Pape
Originariamente inviato da GMCPape
Dubito vi siate messi a valutare rotated grid o meno. In ogni caso, ribadisco l'invito per un blind test. Comunque vada, vi potrete divertire all'interno di un laboratori col miglior hardware presente sul mercato ^_^
Pape
C' era di tutto, ma proprio tutto. :cool: anzi, mancava il fragment AA della parhelia, che devono averla acquistata in 4 o 5 al massimo :D
Ok tutti invitati da Pape :cool:
Alberto Falchi
27-10-2004, 19:36
Originariamente inviato da pandyno
C' era di tutto, ma proprio tutto. :cool: anzi, mancava il fragment AA della parhelia, che devono averla acquistata in 4 o 5 al massimo :D
Ok tutti invitati da Pape :cool:
Beh, vediamo se si replicano i risultati ^_^. Indipendentemente da chi avrà ragione, sarà sicuramente interessante come test. E poi volete mettere la gloria del vostro nome su una rivista? Fatemi chiudere sto maledetto primo numero e poi organizziamo. Seriamente. Alzi la mano chi è interessato.
Pape
PS: ci tengo a sottolineare che non è che venite in 1000, eh ^_^. 3 o 4 persone al massimo.
Originariamente inviato da GMCPape
Appunto: è facile perché non è necessario imporla agli sviluppatori, al contrario di 3Dc, SM3 o altro. Costa molto meno implementare AA (che serve per lo più per trovare il modo di sfruttare la potenza che avanza della scheda video) che implementare degl shader migliori, che poi devono anche essere supportati da DirectX e dagli sviluppatori. L'AA lo potevi sbandierare subito, le altre feature sono invetimenti più intelligenti, ma a lungo termine..
Sarò scemo io, ma mi stai dicendo che c' è un complotto per il quale implementano l' AA perchè hanno finito le idee? :D
Originariamente inviato da GMCPape
PS: ci tengo a sottolineare che non è che venite in 1000, eh ^_^. 3 o 4 persone al massimo.
Mi piacerebbe venire, ma io me ne tiro fuori subito: per quest' anno non credo farò viaggi a causa di alcuni importanti impegni ;)
grazie cmq dell' offerta
:cool:
Alberto Falchi
27-10-2004, 19:39
Originariamente inviato da pandyno
Sarò scemo io, ma mi stai dicendo che c' è un complotto per il quale implementano l' AA perchè hanno finito le idee? :D
No, è una questione ben più complessa. Le schede video high end hanno tanta potenza, ma nessuno venderebbe i giochi se questi non potessero girare anche sulle schede più diffuse (fra le quali anche i chipset integrati). Quindi, più di tanto non spingono l'hardware, e le schede video più costose e potenti non verranno mai sfruttate al meglio. Ergo, l'AA permette di non lasciare inespresso il potenziale. Senza contare che è ottimo per dare nuova linfa ai vecchi titoli. Riprendere system shock 2 e giocarlo a 1600x1200 con AA+AF non è certo male ^_^
Pape
yossarian
27-10-2004, 21:39
Originariamente inviato da GMCPape
No, è una questione ben più complessa. Le schede video high end hanno tanta potenza, ma nessuno venderebbe i giochi se questi non potessero girare anche sulle schede più diffuse (fra le quali anche i chipset integrati). Quindi, più di tanto non spingono l'hardware, e le schede video più costose e potenti non verranno mai sfruttate al meglio. Ergo, l'AA permette di non lasciare inespresso il potenziale. Senza contare che è ottimo per dare nuova linfa ai vecchi titoli. Riprendere system shock 2 e giocarlo a 1600x1200 con AA+AF non è certo male ^_^
Pape
tesi interessante; però come si coniuga col fatto che ci sono giochi che, anche senza filtri, girano sulle vga high end con frame rate appena decenti? Qualche esempio? splinter cell, farcry, doom3, tanto per dirne qualcuno: giochi che non fanno neppure uso in modo massiccio dello SM2.0.
Non direi proprio che i chip high end soffrano di eccesso di potenza e che i filtri e, in particolare l'AA serva per giustificarne la vendita o l'esistenza. Anche perchè, se così fosse, per quale motivo si dovrebbe ricorrere ad implementazioni che privilegiano la velocità (MS e brilinera a l posto di SS e trilinear puro)?
Se si vuole , in qualche modo, far esprimere il potenziale dei chip high end, non mi pare questo il modo migliore
ciao
Alberto Falchi
27-10-2004, 21:58
Originariamente inviato da yossarian
tesi interessante; però come si coniuga col fatto che ci sono giochi che, anche senza filtri, girano sulle vga high end con frame rate appena decenti? Qualche esempio? splinter cell, farcry, doom3, tanto per dirne qualcuno: giochi che non fanno neppure uso in modo massiccio dello SM2.0.
Dipende dai casi. Doom 3, a mio avviso, gira bene a 1600x1200 senza AA o a 1024+AA4X (il bench di uno dei PC redazionali da quasi 60 FPS nel primo caso). NOn mi sembra poi così ingiocabile: durante il gioco si mantiene sempre sopra i 30 FPS, e non l'ho notato scattare. Sulla stessa macchina, i bench di FC a 1600+AA+AF mi danno oltre i 40 FPS... anche in questo caso, è giocabilissimo a 1280+AA, e anche a 16x12 +AA, nonostante non fluidissimo in quest'ultimo caso (diamone... siamo cmq a 16x12+AA4X!). E FC fa un uso PESANTISSIMO oltre che inutile dei PS2.0. Splinter non saprei... non l'ho testato personalmente.
Non direi proprio che i chip high end soffrano di eccesso di potenza e che i filtri e, in particolare l'AA serva per giustificarne la vendita o l'esistenza.
Attenzione, non ho detto che ne giustifica la vendita. Semplicemente che l'AA non è una feature "fondamentale", ma la sua presenza viene sbandierata come strumento marketing per dimostrare chissà cosa.
Anche perchè, se così fosse, per quale motivo si dovrebbe ricorrere ad implementazioni che privilegiano la velocità (MS e brilinera a l posto di SS e trilinear puro)?
PEr vincere nei benchmark e dimostrare che la propria scheda è migliore? Del resto a cosa altro si possono appigliare i reparti marketing quando le feature sono praticamente standardizzate? Non rimane che la velocità.
Pape
yossarian
27-10-2004, 22:32
Originariamente inviato da GMCPape
Dipende dai casi. Doom 3, a mio avviso, gira bene a 1600x1200 senza AA o a 1024+AA4X (il bench di uno dei PC redazionali da quasi 60 FPS nel primo caso). NOn mi sembra poi così ingiocabile: durante il gioco si mantiene sempre sopra i 30 FPS, e non l'ho notato scattare. Sulla stessa macchina, i bench di FC a 1600+AA+AF mi danno oltre i 40 FPS... anche in questo caso, è giocabilissimo a 1280+AA, e anche a 16x12 +AA, nonostante non fluidissimo in quest'ultimo caso (diamone... siamo cmq a 16x12+AA4X!). E FC fa un uso PESANTISSIMO oltre che inutile dei PS2.0. Splinter non saprei... non l'ho testato personalmente.
60 fps su una Gf6800 a 1600x1200 non sono poi un'enormità (se si tiene conto anche del fatto che il motore grafico di Doom3 è stato "cucito" addosso alle geforce); riguardo a FC, laddove si fa ricorso ai ps2.0 si usa, nella stragrande maggioranza dei casi, fp16 e non fp32 (anche se, per fortuna, la serie NV40 non ha gli stessi cali drammatici della serie NV30 nella gestione dell'fp32). Comunque stiamo parlando di giochi parzialmente DX9 (OGL1.5 per doom), il cui sviluppo è iniziato pensando allo SM1.x, che girano a 50/60 fps su schede video high end della seconda generazione di chip DX9 compliant. Non mi pare una gran dimostrazione di potenza.
;)
Originariamente inviato da GMCPape
Attenzione, non ho detto che ne giustifica la vendita. Semplicemente che l'AA non è una feature "fondamentale", ma la sua presenza viene sbandierata come strumento marketing per dimostrare chissà cosa.
Capisco il tuo punto di vista (che poi è anche quello di molti giocatori), però non tutti i giochi sono frenetici FPS e il punto di vista di chi progetta HW è del tutto differente e deve tener conto di fattori che sono al di fuori del mondo dei videogiocatori.
In quest'ottica si colloca l'AA che non è altro che una tecnica di filtraggio resa necessaria in tutti quei processi in cui si verifica una qualsivoglia forma di aliasing, ossia in tutti quei processi che comportano campionamento e quantizzazione di un segnale analogico (ed sua eventuale successiva ricostruzione). Se ti riferisci al discorso qualitativo, allora, oggettivamente, alcune implementazioni sono meglio di altre; ripeto: a parità di prestazioni, il RG è superiore all'OG; questo significa che la scelta fatta da nVIDIA per la serie NV3x era, comunque, sbagliata (e purtroppo per loro non è stato l'unico errore commesso).
Al di là di questo, non mi pare sia sbandierata più di tanto come strumento di marketing (stesso discorso dovrebbe valere allora per l'AF in modalità trilinear o meno); forse lo è stata ai tempi delle GF3 che sono state le prime vga a rendere utilizzabili (in qualche modo) i filtri. Adesso sono più pippe mentali da addetti ai lavori (ovvero da parte di chi fa recensioni); non mi risulta che la principale battaglia tra NV e ATi si giochi sul piano della qualità dei filtri.
Originariamente inviato da GMCPape
PEr vincere nei benchmark e dimostrare che la propria scheda è migliore? Del resto a cosa altro si possono appigliare i reparti marketing quando le feature sono praticamente standardizzate? Non rimane che la velocità.
Pape
sei sicuro che sia solo per quello? con un FSAA SS le prestazioni di R420 e NV40 sarebbero pressochè dimezzate. Credi che sarebbe ancora possibile far girare Doom o FC a filtri attivi?
Ormai i reparti di marketing hanno sempre meno a cui appigliarsi; gli addetti ai lavori si sono fatti troppo smaliziati e risulta fin troppo facile capire qual è il potenziale di un chip, semplicemente basandosi sulla sua architettura, al di là dei numeri dei bench che possono, semmai, servire da conferma o far sorgere il sospetto di cheating (come successo più volte in passato), qualora i risultati reali si discostino troppo da quelli previsti. Per la massa dei possibili acquirenti non serve parlare di AA o altro, poichè basta il semplice numeretto finale fornito dal 3DMark di turno (e non importa più di tanto ottenuto come).
Se l'anno scorso la palma di miglior chip è stata attribuita all'R3x0 non è certo stato per l'utilizzo del RGMS ma perchè, pur lavorando con frequenze notevolmente inferiori, era decisamente più veloce della controparte NV, soprattutto quando si ricorreva all'utilizzo di calcoli in fp. Successo ratificato dalla stessa nVIDIA, nel momento in cui, per l'NV40, ha adottato un'architettura per vs e ps strettamente derivata da quella dell'R3x0, di cui sembra rappresentare la naturale evoluzione.
Così quest'anno, se l'ago della bilancia dovesse pendere a favore dell'NV40, non sarà certo per l'adozione dello SM3.0, così come, se dovesse vincere ATi non sarà per il TAA o per la 3Dc.
ciao
OT complimenti per la rivista
Alberto Falchi
28-10-2004, 00:34
Originariamente inviato da yossarian
60 fps su una Gf6800 a 1600x1200 non sono poi un'enormità (se si tiene conto anche del fatto che il motore grafico di Doom3 è stato "cucito" addosso alle geforce); riguardo a FC, laddove si fa ricorso ai ps2.0 si usa, nella stragrande maggioranza dei casi, fp16 e non fp32 (anche se, per fortuna, la serie NV40 non ha gli stessi cali drammatici della serie NV30 nella gestione dell'fp32). Comunque stiamo parlando di giochi parzialmente DX9 (OGL1.5 per doom), il cui sviluppo è iniziato pensando allo SM1.x, che girano a 50/60 fps su schede video high end della seconda generazione di chip DX9 compliant. Non mi pare una gran dimostrazione di potenza.
Oddio, 60 FPS di media non sono male. E, nel caso di Doom, non ho mai visto cali di prestazioni al massimo del dettaglio a 16x12, su configurazioni di fascia alta ovviamente. Sempre fluido e privo di qualsivoglia scatto. Calcola poi che non è il motore cucito attorno alle GF, bensì queste ultime sviluppate nell'ottica di Doom. Del resto leggendo i .plan di carmack si nota come non fosse certo legato a un'architettura... anzi... ha sempre fatto la banderuola in relazione alla migliore architettura del momento (che è lodevole per un programmatore).
Per FC, il pessimo design non gli permette di generare troppi FPS: è un motore fatto per stupire, non per portare verso nuove vette, IMHO.
In quest'ottica si colloca l'AA che non è altro che una tecnica di filtraggio resa necessaria in tutti quei processi in cui si verifica una qualsivoglia forma di aliasing, ossia in tutti quei processi che comportano campionamento e quantizzazione di un segnale analogico (ed sua eventuale successiva ricostruzione).
Con la differenza che nellìaudio l'Aliasing è fondamentale per il noise shaping, e una buona implementazione nei DAC migliora drasticamente la qualità del suono. Ma i lettori CD, DVD-A e SACD sono fatti per sentire musica, i giochi per divertirsi, e l'AA in questo caso non è il fulcro, ma un accessorio, piacevole ma non fondamentale. Come in uno stereo un aspetto gradevole è positivo ma secondario rispetto ad altri fattori.
Se ti riferisci al discorso qualitativo, allora, oggettivamente, alcune
implementazioni sono meglio di altre; ripeto: a parità di prestazioni, il RG è superiore all'OG; questo significa che la scelta fatta da nVIDIA per la serie NV3x era, comunque, sbagliata (e purtroppo per loro non è stato l'unico errore commesso).
Non dico che fosse la scelta migliore, ma solo che io non noto differenze qualitative mentre gioco. E ho un occhio allenato. Credo che praticamente nessuno noti, durante il gioco, tali differenze, e per questo che ritengo la tua critica positiva dal lato tecnico, ma ininfluente sulla valutazione di una scheda video. Un po' come le distorsioni eufoniche delle valvole in campo musicale: tecnicamente sono "inferiori" allo stato solido, ma all'atto pratico suonano anche meglio (scusa il paragone forzato, ma mi sembri appassionato di tencologia in generale, e una piccola divagazione fa sempre piacere ^_^)
Al di là di questo, non mi pare sia sbandierata più di tanto come strumento di marketing (stesso discorso dovrebbe valere allora per l'AF in modalità trilinear o meno);
Quello di AF e trilinear e stato sbandierato sempre come marketing: venivano attaccate dagli avversari tali ottimizzazioni (in certi casi non evidenti durante le scene di gioco, tra l'altro)
forse lo è stata ai tempi delle GF3 che sono state le prime vga a rendere utilizzabili (in qualche modo) i filtri. Adesso sono più pippe mentali da addetti ai lavori (ovvero da parte di chi fa recensioni); non mi risulta che la principale battaglia tra NV e ATi si giochi sul piano della qualità dei filtri.
Quello che intendevo: pippe mentali splendide per analisi tecniche, poco utili per chi gioca. Ma la battaglia fra i colossi è a vari livelli. Su queste piccolezze tecniche per tenere alto il nome della casa (i soldi non li fanno certo con le schede hi-end, ma con la fascia mainstream e, soprattutto, quella entry level). Ma si lotta anche su un particolare titolo o bench (FC, doom, HL2, 3d MArk). E sui loghi sulel confezioni, che fanno tanto branding ed esaltano l'uomo comune, oltre a fidelizzare il poco esperto.
sei sicuro che sia solo per quello? con un FSAA SS le prestazioni di R420 e NV40 sarebbero pressochè dimezzate. Credi che sarebbe ancora possibile far girare Doom o FC a filtri attivi?
Perché usare il SuperSampling? Meglio sparare risoluzioni altissime, a questo punto, monitor permettendo. Ma, per come la vedo io, a 16x12 l'aliasing non è poi così evidente. Soprattutto in titoli scuri, come D3 o Thief 3.
Ormai i reparti di marketing hanno sempre meno a cui appigliarsi; gli addetti ai lavori si sono fatti troppo smaliziati e risulta fin troppo facile capire qual è il potenziale di un chip, semplicemente basandosi sulla sua architettura, al di là dei numeri dei bench che possono, semmai, servire da conferma o far sorgere il sospetto di cheating (come successo più volte in passato), qualora i risultati reali si discostino troppo da quelli previsti.
Esatto. I bench servono a questo. E proprio per tale motivo non amo le sequenze folli di 100 benchmark, che poco dicono. I test son ouno strumento per scovare punti deboli o di forza, non certo per indicare la supremazia dell'uno o dell'altro. C'è che sa usare i bench in maniera intelligente, e chi ne pubblica a tonnellate solo perché fa fico. O chi ne pubblica a tonnellate pur ragionando intelligentemente (e perdendo tempo, a mio modestissimo parere)
Così quest'anno, se l'ago della bilancia dovesse pendere a favore dell'NV40, non sarà certo per l'adozione dello SM3.0, così come, se dovesse vincere ATi non sarà per il TAA o per la 3Dc.
Esattamente. Ma, sinceramente, io non vedo questi gap enormi fra le due attuali regine del 3D. Escludendo HL2 o Doom III, le differenze negli altri giochi non sono immense. E in ogni caso, entrambi i titoloni sono giocabilissimi su entrambe le archietture, senza differenze palesi. ATi in passato è stata indietro a causa dei problemi di compatibilità dei driver e perché non era facile farsi un nome contro un colosso come nVidia. Quando ha risolto il problema, ci è voluto l'errore di nVidia con la 5800 per far variare l'ago della bilancia. E, ora, è l'ottima qualità della 6800 GT (e della 6600 GT) che tira l'acqua da parte di nVidia: se X800 PRO avesse 16 pipes, la lotta sarebbe più bilanciata, a mio avviso.
OT complimenti per la rivista
Grazie 1000.
Pape
yossarian
28-10-2004, 12:36
Originariamente inviato da GMCPape
Oddio, 60 FPS di media non sono male. E, nel caso di Doom, non ho mai visto cali di prestazioni al massimo del dettaglio a 16x12, su configurazioni di fascia alta ovviamente. Sempre fluido e privo di qualsivoglia scatto. Calcola poi che non è il motore cucito attorno alle GF, bensì queste ultime sviluppate nell'ottica di Doom. Del resto leggendo i .plan di carmack si nota come non fosse certo legato a un'architettura... anzi... ha sempre fatto la banderuola in relazione alla migliore architettura del momento (che è lodevole per un programmatore).
Per FC, il pessimo design non gli permette di generare troppi FPS: è un motore fatto per stupire, non per portare verso nuove vette, IMHO.
Doom3 fa largo uso di texture dependent read in luogo di math ops e di pixel only z value, ossia senza colour ops; due tecniche che favoriscono l'architettura delle Geforce (riuscendo a mettere a loro agio persino le FX che pure non sarebbero proprio dei fulmini di guerra). Sappiamo bene che uno dei punti deboli dei chip nVIDIA (sia della serie NV3x che di quella NV4x) è proprio l'esecuzione di math ops in fp in contemporanea a texture ops (questo, di contro, è uno dei punti di forza delle ATi a partire dall'R300), così come sappiamo che i chip nVIDIA gradiscono, per una serie motivi, le operazioni di dependent read, così come le z-ops; non è un caso che, con codice ARB2 puro, l'NV3x andava la metà dell'R3x0, come non è casuale che, prima che ATi aggiustasse il tiro con i drivers (proprio sostituendo le operazioni di dependent read con operazioni fp matematiche), i chip canadesi sfoggiassero prestazioni mediocri (sicuramente non imputabili, se non in parte, alla riconosciuta superiorità dei drivers NV in OGL). Non mi pare che Carmack, in qualche modo, si sia ispirato all'architettura dell'R300, che pure è stata universalmente riconosciuta come la migliore della precedente generazione, preferendo piuttosto lavorare su quella dell'NV30.
Originariamente inviato da GMCPape
Con la differenza che nellìaudio l'Aliasing è fondamentale per il noise shaping, e una buona implementazione nei DAC migliora drasticamente la qualità del suono. Ma i lettori CD, DVD-A e SACD sono fatti per sentire musica, i giochi per divertirsi, e l'AA in questo caso non è il fulcro, ma un accessorio, piacevole ma non fondamentale. Come in uno stereo un aspetto gradevole è positivo ma secondario rispetto ad altri fattori.
vero, però se progetto dell'HW devo tener conto di tutti i possibili usi che di questo si fanno e di tutti i problemi connessi alle scelte tecniche effettuate. Di conseguenza, poichè i chip grafici per schede videoludiche o per grafica pro sono gli stessi e poichè non tutti i giochi hanno una grafica o un ritmo tale per cui non si nota la differenza tra utilizzo o meno dell'AA e poichè, infine, l'aliasing rappresenta comunque un problema da risolvere (ripeto non si tratta delle sole scalettature, quelle sono la punta dell'iceberg, ovvero la cosa più evidente), se disegno un chip grafico devo provvedere a ridurre il più possibile ogni forma di disturbo; e poichè, per ovvie ragioni non posso usare a monte un filtro passabanda (taglierei anche frequenze utili), devo operare con algoritmi di post processing che riducano il più possibile gli effetti del rumore; a questo punto, dovendo ripiegare su tecniche di post processing, scelgo, aparità di costi, quella che mi dà i risultati migliori in termini di resa qualitativa (tra l'altro NV aveva tra le mani anche i brevetti 3dfx, con il RGSS che resta il miglior AA in assoluto, qualitativamente parlando, anche se troppo dispendioso in temini di prestazioni).
Originariamente inviato da GMCPape
Non dico che fosse la scelta migliore, ma solo che io non noto differenze qualitative mentre gioco. E ho un occhio allenato. Credo che praticamente nessuno noti, durante il gioco, tali differenze, e per questo che ritengo la tua critica positiva dal lato tecnico, ma ininfluente sulla valutazione di una scheda video. Un po' come le distorsioni eufoniche delle valvole in campo musicale: tecnicamente sono "inferiori" allo stato solido, ma all'atto pratico suonano anche meglio (scusa il paragone forzato, ma mi sembri appassionato di tencologia in generale, e una piccola divagazione fa sempre piacere ^_^)
se ti riferisci ai giudizi sulla serie NV3x, ti assicuro che l'implementazione dell'AA è stata solo la ciliegina sulla torta (frutto di una scelta, ripeto, spiegabile solo nell'ottica che NV30 era un'evoluzione verso le DX di NV25, poichè si poteva ottenere, a parità di spesa, la stessa qualità della concorrenza); i giudizi negativi riguardano altri aspetti: il bus inizialmente a 128 bit, (e di conseguenza l'architettura interna a 256 bit), il sottodimensionamento dei registri temporanei nelle pipeline di rendering (32 di tipo 8 bit INT contro un minimo previsto di 12 da 32 bit INT ciascuno), l'utilizzo di un'architettura 4x2 che non garantiva il massimo parallelismo possibile ma restava ancorata a scelte tecniche vecchie, risalenti al periodo in cui operazioni per ciclo e per single pass coicidevano e ancora l'utilizzo, per ogni pipeline di rendering, di 2 unità fx e di una sola unità fp32, per altro non indipendente dalle texture unit (problema che si sono portati dietro anche sulla serie NV40, dove la prima delle due fpu e in comune con la tmu, il che dimezza, di fatto, la capacità di calcolo matematico del chip in presenza di contemporanee operazioni sulle texture). Non è un caso che su NV40 si sia conservato, del progetto NV3x, la sola parte delle ROP's, almeno a livello architetturale, mutuando tutto il resto (compresa la struttura delle vsu) dall'architettura del'R300 a cui hanno apportato alcune modifiche che giudico positivamente (l'architettura superscalare delle pipeline di rendering e la connessione di tipo crossbar tra queste e le ROP's che migliora l'efficienza del trasferimento dati tra i due blocchi) e aggiungendo alcuni elementi che rendono il chip compatibile con lo SM3.0.
Come puoi vedere, gli elementi che hanno fatto pendere l'ago della bilancia a favore dell'R300 sono ben altri; l'implementazione dell'AA può solo servire ad arrotondare il voto finale.
Originariamente inviato da GMCPape
Perché usare il SuperSampling? Meglio sparare risoluzioni altissime, a questo punto, monitor permettendo. Ma, per come la vedo io, a 16x12 l'aliasing non è poi così evidente. Soprattutto in titoli scuri, come D3 o Thief 3.
ha citato il SS perchè, parlando di tecniche di filtraggio di post processing è la migliore per le applicazioni grafiche e perchè si parlava della presunta potenza in eccesso delle attuali vga di punta; i chip attuali, nonostante tutta la potenza sbandierata, non possono permettersi di adottare il SS perchè le loro prestazioni crollerebbero; di conseguenza si deve scendere a compromessi (il MS per l'AA e il brilinera o l'adaptive trilinear , come lo definisce ATi per l'anisotropic).
Purtroppo, la dove si effettua una conversione A/D non si può prescindere dall'utilizzo di tecniche atte ad eliminare l'aliasing (che si manifesta in varie forme, dagli artefatti grafici alle scalettature); anche il trilinear, il bilinear e l'anisotropic non sono altro che tecniche di rimozione di una qualche forma di aliasing (e ce ne sono diverse altre a cui non è possibile accedere e di cui non è possibile variare i parametri).
Proprio a proposito di Doom3 ci sono vari thread e articoli online che parlano di forme di aliasing che non si manifestano con le solite scalettature sui bordi degli oggetti (non ho però avuto ancora modo di leggerne alcuno e non ho il gioco per poterlo provare).
Originariamente inviato da GMCPape
Esattamente. Ma, sinceramente, io non vedo questi gap enormi fra le due attuali regine del 3D. Escludendo HL2 o Doom III, le differenze negli altri giochi non sono immense. E in ogni caso, entrambi i titoloni sono giocabilissimi su entrambe le archietture, senza differenze palesi. ATi in passato è stata indietro a causa dei problemi di compatibilità dei driver e perché non era facile farsi un nome contro un colosso come nVidia. Quando ha risolto il problema, ci è voluto l'errore di nVidia con la 5800 per far variare l'ago della bilancia. E, ora, è l'ottima qualità della 6800 GT (e della 6600 GT) che tira l'acqua da parte di nVidia: se X800 PRO avesse 16 pipes, la lotta sarebbe più bilanciata, a mio avviso.
attualmente, tra i modelli di punta delle due case, non ci sono grandi differenze; le architetture sono piuttosto simili; quelle che cambiano e che fa pendere l'ago della bilancia ora a favore di una e ora dell'altra sono una serie di feature "minori". Ad esempio, l'R420 ha migliori algoritmi di compressione dati e un più efficiente sistema di rimozione delle superfici nascoste (a patto di eseguire la scansione seguendo precise modalità, perchè in caso contrario, costringe il chip a sprecare qualche ciclo in più rispetto a quello NV, come succede talvolta in Doom3); ha, inoltre, il vantaggio di avere fpu e tmu indipendenti e frequenze di lavoro superiori (il low-k, però, a 0,13 u presenta delle criticità intrinseche al processo produttivo stesso che non si riscontrano con altri processi produttivi e possono diminuire la resa del processo stesso). L'NV40 ha un'architettura superscalare delle pipeline di rendering che, sicuramente, è più flessibile di quella ATi, gestisce meglio il flusso di dati tra ps e ROP's, ha la possibilità di eseguire un maggior numero di operazioni di dependent read e ha la possibilità di avere, in caso di only stencil ops, 32 pixel in output per ciclo di clok (di cui viene scritto, però, solo il valore della coordinata z); passando a qualche possibile vantaggio che derivante dallo SM3.0, ci sono alcune feature, come l'HDR, che sui chip ATi possono solo essere emulate (perchè non interamente supportate), oppure la possibilità di eseguire dynamic branching (più utile, IMHO, nei vs che nei ps, almeno con l'HW attuale).
Questo, ovviamente, tralasciando il discorso drivers (meglio ATi in D3D, meglio nVIDIA, in OGL)
Per quanto riguarda l'offerta complessiva, allo stato attuale, mi sembra che NV abbia qualcosa di più interessante rispetto alla controparte, soprattutto nel settore mainstream
ciao
Originariamente inviato da yossarian
Doom3 fa largo uso di texture dependent read in luogo di math ops e di pixel only z value, ossia senza colour ops; due tecniche che favoriscono l'architettura delle Geforce (riuscendo a mettere a loro agio persino le FX che pure non sarebbero proprio dei fulmini di guerra). Sappiamo bene che uno dei punti deboli dei chip nVIDIA (sia della serie NV3x che di quella NV4x) è proprio l'esecuzione di math ops in fp in contemporanea a texture ops (questo, di contro, è uno dei punti di forza delle ATi a partire dall'R300), così come sappiamo che i chip nVIDIA gradiscono, per una serie motivi, le operazioni di dependent read, così come le z-ops; non è un caso che, con codice ARB2 puro, l'NV3x andava la metà dell'R3x0, come non è casuale che, prima che ATi aggiustasse il tiro con i drivers (proprio sostituendo le operazioni di dependent read con operazioni fp matematiche), i chip canadesi sfoggiassero prestazioni mediocri (sicuramente non imputabili, se non in parte, alla riconosciuta superiorità dei drivers NV in OGL). Non mi pare che Carmack, in qualche modo, si sia ispirato all'architettura dell'R300, che pure è stata universalmente riconosciuta come la migliore della precedente generazione, preferendo piuttosto lavorare su quella dell'NV30.
vero, però se progetto dell'HW devo tener conto di tutti i possibili usi che di questo si fanno e di tutti i problemi connessi alle scelte tecniche effettuate. Di conseguenza, poichè i chip grafici per schede videoludiche o per grafica pro sono gli stessi e poichè non tutti i giochi hanno una grafica o un ritmo tale per cui non si nota la differenza tra utilizzo o meno dell'AA e poichè, infine, l'aliasing rappresenta comunque un problema da risolvere (ripeto non si tratta delle sole scalettature, quelle sono la punta dell'iceberg, ovvero la cosa più evidente), se disegno un chip grafico devo provvedere a ridurre il più possibile ogni forma di disturbo; e poichè, per ovvie ragioni non posso usare a monte un filtro passabanda (taglierei anche frequenze utili), devo operare con algoritmi di post processing che riducano il più possibile gli effetti del rumore; a questo punto, dovendo ripiegare su tecniche di post processing, scelgo, aparità di costi, quella che mi dà i risultati migliori in termini di resa qualitativa (tra l'altro NV aveva tra le mani anche i brevetti 3dfx, con il RGSS che resta il miglior AA in assoluto, qualitativamente parlando, anche se troppo dispendioso in temini di prestazioni).
se ti riferisci ai giudizi sulla serie NV3x, ti assicuro che l'implementazione dell'AA è stata solo la ciliegina sulla torta (frutto di una scelta, ripeto, spiegabile solo nell'ottica che NV30 era un'evoluzione verso le DX di NV25, poichè si poteva ottenere, a parità di spesa, la stessa qualità della concorrenza); i giudizi negativi riguardano altri aspetti: il bus inizialmente a 128 bit, (e di conseguenza l'architettura interna a 256 bit), il sottodimensionamento dei registri temporanei nelle pipeline di rendering (32 di tipo 8 bit INT contro un minimo previsto di 12 da 32 bit INT ciascuno), l'utilizzo di un'architettura 4x2 che non garantiva il massimo parallelismo possibile ma restava ancorata a scelte tecniche vecchie, risalenti al periodo in cui operazioni per ciclo e per single pass coicidevano e ancora l'utilizzo, per ogni pipeline di rendering, di 2 unità fx e di una sola unità fp32, per altro non indipendente dalle texture unit (problema che si sono portati dietro anche sulla serie NV40, dove la prima delle due fpu e in comune con la tmu, il che dimezza, di fatto, la capacità di calcolo matematico del chip in presenza di contemporanee operazioni sulle texture). Non è un caso che su NV40 si sia conservato, del progetto NV3x, la sola parte delle ROP's, almeno a livello architetturale, mutuando tutto il resto (compresa la struttura delle vsu) dall'architettura del'R300 a cui hanno apportato alcune modifiche che giudico positivamente (l'architettura superscalare delle pipeline di rendering e la connessione di tipo crossbar tra queste e le ROP's che migliora l'efficienza del trasferimento dati tra i due blocchi) e aggiungendo alcuni elementi che rendono il chip compatibile con lo SM3.0.
Come puoi vedere, gli elementi che hanno fatto pendere l'ago della bilancia a favore dell'R300 sono ben altri; l'implementazione dell'AA può solo servire ad arrotondare il voto finale.
ha citato il SS perchè, parlando di tecniche di filtraggio di post processing è la migliore per le applicazioni grafiche e perchè si parlava della presunta potenza in eccesso delle attuali vga di punta; i chip attuali, nonostante tutta la potenza sbandierata, non possono permettersi di adottare il SS perchè le loro prestazioni crollerebbero; di conseguenza si deve scendere a compromessi (il MS per l'AA e il brilinera o l'adaptive trilinear , come lo definisce ATi per l'anisotropic).
Purtroppo, la dove si effettua una conversione A/D non si può prescindere dall'utilizzo di tecniche atte ad eliminare l'aliasing (che si manifesta in varie forme, dagli artefatti grafici alle scalettature); anche il trilinear, il bilinear e l'anisotropic non sono altro che tecniche di rimozione di una qualche forma di aliasing (e ce ne sono diverse altre a cui non è possibile accedere e di cui non è possibile variare i parametri).
Proprio a proposito di Doom3 ci sono vari thread e articoli online che parlano di forme di aliasing che non si manifestano con le solite scalettature sui bordi degli oggetti (non ho però avuto ancora modo di leggerne alcuno e non ho il gioco per poterlo provare).
attualmente, tra i modelli di punta delle due case, non ci sono grandi differenze; le architetture sono piuttosto simili; quelle che cambiano e che fa pendere l'ago della bilancia ora a favore di una e ora dell'altra sono una serie di feature "minori". Ad esempio, l'R420 ha migliori algoritmi di compressione dati e un più efficiente sistema di rimozione delle superfici nascoste (a patto di eseguire la scansione seguendo precise modalità, perchè in caso contrario, costringe il chip a sprecare qualche ciclo in più rispetto a quello NV, come succede talvolta in Doom3); ha, inoltre, il vantaggio di avere fpu e tmu indipendenti e frequenze di lavoro superiori (il low-k, però, a 0,13 u presenta delle criticità intrinseche al processo produttivo stesso che non si riscontrano con altri processi produttivi e possono diminuire la resa del processo stesso). L'NV40 ha un'architettura superscalare delle pipeline di rendering che, sicuramente, è più flessibile di quella ATi, gestisce meglio il flusso di dati tra ps e ROP's, ha la possibilità di eseguire un maggior numero di operazioni di dependent read e ha la possibilità di avere, in caso di only stencil ops, 32 pixel in output per ciclo di clok (di cui viene scritto, però, solo il valore della coordinata z); passando a qualche possibile vantaggio che derivante dallo SM3.0, ci sono alcune feature, come l'HDR, che sui chip ATi possono solo essere emulate (perchè non interamente supportate), oppure la possibilità di eseguire dynamic branching (più utile, IMHO, nei vs che nei ps, almeno con l'HW attuale).
Questo, ovviamente, tralasciando il discorso drivers (meglio ATi in D3D, meglio nVIDIA, in OGL)
Per quanto riguarda l'offerta complessiva, allo stato attuale, mi sembra che NV abbia qualcosa di più interessante rispetto alla controparte, soprattutto nel settore mainstream
ciao
E' sempre un piacere leggere i tuoi interventi yoss ;)
Aggiungerei, riguardo il discorso di Carmak, che a mio parere la base di progetto del motore grafico di Doom 3 non era rappresentata da un uso degli shader. Non è un caso che la sua illuminazione per-pixel può essere eseguita quasi allo stesso modo anche usando funzioni "fixed" come il Cube Mapping, già presenti nei prodotti più vecchi. Doom 3 è stato fatto attorno al sistema di illuminazione basato su stencil shadow, doveva stupire per questo e, a mio parere, diciamo che ci è riuscito abbastanza. E' ovvio che questo comporta una maggiore propensione verso NVIDIA che ha realizzato addirittura l'estensione GL_EXT_depth_bounds_test solo ed esclusivamente per Doom 3 (anche se nulla vieta ad altri programmatori), con vantaggi in termini di prestazioni a mio parere trascurabili.
Sul discorso dell'AA c'e' anche da ricordarsi che molti non hanno monitor che gli permettono di settare 1600x1200 e evitare di usare un AA. Sul mio LCD 15" se non uso un antialiasing che sia almeno 4X nella maggior parte dei giochi l'effetto e' tremendo. Ovviamente non parlo di Doom3 che ha tonalita' di colori scuri tendenti al nero e quindi con ben poche aree contrastate tali da mostrare chiaramente le scalettature, ma parlo piu' di giochi in cui e' impossibile non vedere le scalettature. Quelli di simulazione di rally ad esempio. La macchina in primo piano e' sempre in contrasto con lo sfondo e quindi un FSAA e' d'obbligo. ;)
Originariamente inviato da Simon82
Sul discorso dell'AA c'e' anche da ricordarsi che molti non hanno monitor che gli permettono di settare 1600x1200 e evitare di usare un AA. Sul mio LCD 15" se non uso un antialiasing che sia almeno 4X nella maggior parte dei giochi l'effetto e' tremendo. Ovviamente non parlo di Doom3 che ha tonalita' di colori scuri tendenti al nero e quindi con ben poche aree contrastate tali da mostrare chiaramente le scalettature, ma parlo piu' di giochi in cui e' impossibile non vedere le scalettature. Quelli di simulazione di rally ad esempio. La macchina in primo piano e' sempre in contrasto con lo sfondo e quindi un FSAA e' d'obbligo. ;)
Beh si questo è uno dei motivi che mi spingono spesso a consigliare monitor CRT, magari da 19 pollici che costano 200 euro e che arrivano oltre i 1600x1200, invece di spenderne di più per un monitor LCD da 15'' che ha un dot pitch sicuramente superiore, che non raggiungere una risoluzione elevata e che pertanto sarà più soggetto al discorso aliasing.
MA va considerato che sono pochi i monitor che reggono almeno i 100 hz a 1600x1200...
Per questo, credo che la risoluzione più usabile sia - anche coi 19- da 1024 a 1280... non più alta..
Alberto Falchi
28-10-2004, 14:07
Originariamente inviato da yossarian
Non mi pare che Carmack, in qualche modo, si sia ispirato all'architettura dell'R300, che pure è stata universalmente riconosciuta come la migliore della precedente generazione, preferendo piuttosto lavorare su quella dell'NV30.
Non mi sembra che Carmack abbia puntato su un'architettura precisa. Lui ha seguito la sua strada, come meglio credeva, e ripercorrendo i suoi .plan si nota che a volta era favorita un'architettura, a volte un'altra. Diciamo che in partenza era la 8500 la candidata migliore. Poi nVidia ha avuto l'idea di implementare un'architettura che si adattasse a tale gestione delle ombre. Ricordo che gli algoritmi di Carmack non erano una novitàò, ma semplicemente lui è stato il primo a usarli per un engine 3D a scopi ludici. Non a caso, Creative è stata la prima a brevettare tali algoritmi, e nVidia probabilmente (qui speculo, sia chiaro) ha preso la palla al balzo intuendo che tale motore avrebbe avuto una notevole importanza, quando disponibile.
vero, però se progetto dell'HW devo tener conto di tutti i possibili usi che di questo si fanno e di tutti i problemi connessi alle scelte tecniche effettuate. Di conseguenza, poichè i chip grafici per schede videoludiche o per grafica pro sono gli stessi e poichè non tutti i giochi hanno una grafica o un ritmo tale per cui non si nota la differenza tra utilizzo o meno dell'AA e poichè, infine, l'aliasing rappresenta comunque un problema da risolvere (ripeto non si tratta delle sole scalettature, quelle sono la punta dell'iceberg, ovvero la cosa più evidente), se disegno un chip grafico devo provvedere a ridurre il più possibile ogni forma di disturbo;
Cosa che costa, e molto. Sia in termini di spese progettuali, sia in termini di prestazioni. I disturbi di un segnale audio sono fondamentali da ridurre, soprattutto se vuoi leggere al meglio da sorgenti digitali e distinguerti dalla concorrenza, giustificando i 20.000 e più € necessari per un lettore di fascia alta. Investimenti che si fanno, ma che puntano a una ristrettissima nicchia di audiofili, dato che per il mass market un MP3 a 128 è "qualità indistinguibile dal CD". Investimenti che di conseguenza non vengono fatti per lettori CD o Mp3 normali, che vanno in mano al grande pubblico. Idemo per quanto riguarda le schede video. Una scheda di fascia alta (inteso una scheda da migliaia di € per usare Maya) utilizzano algoritmi di AA 1000 volte superiori a quelli delle schede da giocatori. Considerando che Quadro e GF sono la stessa identica scheda, escludendo i driver, possiamo dedurre che l'implementazione dell'AA dipenda da scelte dei software engineer sui driver, più che da problemi di hardware. ATI ha puntato sulla qualità senza compromessi, nVidia probabilmente ha preferito qualche FPS in più, tenendo conto del fatto che in real time eventuali artefatti sono talmente marginali da poter essere ignorati.
di 2 unità fx e di una sola unità fp32, per altro non indipendente dalle texture unit (problema che si sono portati dietro anche sulla serie NV40, dove la prima delle due fpu e in comune con la tmu, il che dimezza, di fatto, la capacità di calcolo matematico del chip in presenza di contemporanee operazioni sulle texture).
Qui, a mio avviso, si tratta di un problema palese ma dovuto a una scelta sfortunata, più che errata. nVidia ha voluto puntare su FP32 o su mixed code, mentre per qualche motivo le specifiche di DirectX hanno puntato su FP24. ATI l'ha vista giusta, e ha prevalso la sua architettura. A rigor di logica, però, da 16 si passa a 32. I 24 bit non si sono mai visti in ambito informatico. PArlando invece del multitexturing, il discorso è complesso. Nel caso di NV30, solo i motori all'avanguardia avevano multitexturing, e tanti erano ancora basati su single texturing, tanto che parecchi titoli (tipo quelli sul motore degli ISI) danno il meglio su nVidia, pur non essendo presi in considerazione nei bench. Certo, con NV40 si DOVEVA evitare tale limite, ma c'è anche da dire che dipende molto dal motore del gioco: in alcuni (doom 3) la scelta nVidia sembra la migliore. In altri è la soluzione ATI a dominare. E proprio per questo che i benchmark andrebbero presi sempre con le molle per evitare di tirare conclusioni errate in relazione a qualche test che non nece3ssariamente rappresenta la norma. .
Come puoi vedere, gli elementi che hanno fatto pendere l'ago della bilancia a favore dell'R300 sono ben altri; l'implementazione dell'AA può solo servire ad arrotondare il voto finale.
Cosa che non ho mai negato, anzi. Ma di questo ci re3ndiamo conto io, te e qualche altro appassionato. Quanta gente valutava la milgior qualità di una scheda perché "l'AA era migliore"? Non parlo certo di professionisti, ma di fanboy e di qualche situncolo da strapazzo. Siti non certo autoritari che però, nell'era di Internet, in qualche modo riescono ad avere qualche peso.
Purtroppo, la dove si effettua una conversione A/D non si può prescindere dall'utilizzo di tecniche atte ad eliminare l'aliasing (che si manifesta in varie forme, dagli artefatti grafici alle scalettature); anche il trilinear, il bilinear e l'anisotropic non sono altro che tecniche di rimozione di una qualche forma di aliasing (e ce ne sono diverse altre a cui non è possibile accedere e di cui non è possibile variare i parametri).
Filtraggio, non necessariamente AA. In certi titoli, l'AF è 1000 volte più importante di AA (soprattutto nel campo dei titoli di guida,m dove le strisce sull'asfalto sbidiscono al primo cambio di mipmap senza opportuno filtraggio). Al contrario, in un simulatore di volo, l'AA diventa fondamentale e l'AF secondario. In generale, però, i filtraggi possono essere saltati a più pari studiando il design grafico in maniera adeguata. Se i programmatori (e parlo soprattutto di quelli PC) puntassero più al design che alle abbaiate tecniche, avremmo titoli graficamente migliori senza dover per forza usare tutte le feature del mondo. Ma il design, per qualche motivo, rimane quasi solo appannaggio delle console: forse che molti giocatori PC preferiscano guardare che divertirsi?
Proprio a proposito di Doom3 ci sono vari thread e articoli online che parlano di forme di aliasing che non si manifestano con le solite scalettature sui bordi degli oggetti (non ho però avuto ancora modo di leggerne alcuno e non ho il gioco per poterlo provare).
Penso che si tratti degli errori dovuti al calcolo del sistema di illuminazione, che pur essendo l'unico che gestisce "vere" luci dinamiche, deve ricorrere a qualche ottimizzazione per farlo girare decentemente. E, sotto questo profilo, sì, qualche errore di approssimazione rimane, ma dubito si possa eliminare coi filtraggi, che introdurrebbero altri artefatti.
passando a qualche possibile vantaggio che derivante dallo SM3.0, ci sono alcune feature, come l'HDR, che sui chip ATi possono solo essere emulate (perchè non interamente supportate), oppure la possibilità di eseguire dynamic branching (più utile, IMHO, nei vs che nei ps, almeno con l'HW attuale).
Vantaggi che, purtroppo, verranno largamente sfruttati solo quanti anche ATi ne potrà godere. Perché del resto se uno programma un gioco da vendere, deve puntare a tutti, non solo a una fascia. E, attualmente, la fetta del mercato è spartita piuttosto equamente fra i due colossi del 3D. Certo, FC usa HDR e SS2 usa 3DC... ma sono casi, non la norma. Non per ora, almeno.
Pape
yossarian
28-10-2004, 14:09
Originariamente inviato da Vifani
E' sempre un piacere leggere i tuoi interventi yoss ;)
Aggiungerei, riguardo il discorso di Carmak, che a mio parere la base di progetto del motore grafico di Doom 3 non era rappresentata da un uso degli shader. Non è un caso che la sua illuminazione per-pixel può essere eseguita quasi allo stesso modo anche usando funzioni "fixed" come il Cube Mapping, già presenti nei prodotti più vecchi. Doom 3 è stato fatto attorno al sistema di illuminazione basato su stencil shadow, doveva stupire per questo e, a mio parere, diciamo che ci è riuscito abbastanza. E' ovvio che questo comporta una maggiore propensione verso NVIDIA che ha realizzato addirittura l'estensione GL_EXT_depth_bounds_test solo ed esclusivamente per Doom 3 (anche se nulla vieta ad altri programmatori), con vantaggi in termini di prestazioni a mio parere trascurabili.
grazie; come per me è un piacere leggere le tue recensioni ;)
in ogni caso, la tua precisazione è più che doverosa
ciao :)
Originariamente inviato da Vifani
Beh si questo è uno dei motivi che mi spingono spesso a consigliare monitor CRT, magari da 19 pollici che costano 200 euro e che arrivano oltre i 1600x1200, invece di spenderne di più per un monitor LCD da 15'' che ha un dot pitch sicuramente superiore, che non raggiungere una risoluzione elevata e che pertanto sarà più soggetto al discorso aliasing.
Gia, ma c'e' anche da dire che un LCD per quanto brutto dal punto di vista dotpitch, tempo di risposta e unica risoluzione nativa, ha anche dei pro non trascurabili, almeno per me. In primis il non affaticare gli occhi sebbene il contrasto sia di lunga maggiore a quello di un normale CRT, il peso e le dimensioni.. ;)
yossarian
28-10-2004, 15:09
Originariamente inviato da GMCPape
Non mi sembra che Carmack abbia puntato su un'architettura precisa. Lui ha seguito la sua strada, come meglio credeva, e ripercorrendo i suoi .plan si nota che a volta era favorita un'architettura, a volte un'altra. Diciamo che in partenza era la 8500 la candidata migliore. Poi nVidia ha avuto l'idea di implementare un'architettura che si adattasse a tale gestione delle ombre. Ricordo che gli algoritmi di Carmack non erano una novitàò, ma semplicemente lui è stato il primo a usarli per un engine 3D a scopi ludici. Non a caso, Creative è stata la prima a brevettare tali algoritmi, e nVidia probabilmente (qui speculo, sia chiaro) ha preso la palla al balzo intuendo che tale motore avrebbe avuto una notevole importanza, quando disponibile.
se si fosse trattato solo della gestione delle ombre (di cui ha parlato Vifani e non io), ti darei ragione; la realtà è che Carmack ha operato una serie di scelte che vanno tutte in una direzione e quella dell'utilizzo delle stencil shadow (già disponibili, se non ricordo male, all'epoca dell'NV20 sui chip NV) è solo una delle tante (altre, forse le più evidenti insieme alle stencil shadow, sono quelle che ho elencato in precedenza)
Originariamente inviato da GMCPape
Cosa che costa, e molto. Sia in termini di spese progettuali, sia in termini di prestazioni. I disturbi di un segnale audio sono fondamentali da ridurre, soprattutto se vuoi leggere al meglio da sorgenti digitali e distinguerti dalla concorrenza, giustificando i 20.000 e più € necessari per un lettore di fascia alta. Investimenti che si fanno, ma che puntano a una ristrettissima nicchia di audiofili, dato che per il mass market un MP3 a 128 è "qualità indistinguibile dal CD". Investimenti che di conseguenza non vengono fatti per lettori CD o Mp3 normali, che vanno in mano al grande pubblico. Idemo per quanto riguarda le schede video. Una scheda di fascia alta (inteso una scheda da migliaia di € per usare Maya) utilizzano algoritmi di AA 1000 volte superiori a quelli delle schede da giocatori. Considerando che Quadro e GF sono la stessa identica scheda, escludendo i driver, possiamo dedurre che l'implementazione dell'AA dipenda da scelte dei software engineer sui driver, più che da problemi di hardware. ATI ha puntato sulla qualità senza compromessi, nVidia probabilmente ha preferito qualche FPS in più, tenendo conto del fatto che in real time eventuali artefatti sono talmente marginali da poter essere ignorati.
non si tratta solo di scelta nei drivers; i chip ATi, dall'R300 in poi, fanno uso della possibilità di ruotare la griglia di campionamento dell'AA (il TAA dell'R420 è possibile anche su R3x0, infatti), grazie ad una specifica circuiteria dedicata; la scelta è stata fatta via HW e nVIDIA è rimasta legata alla vecchia implementazione già presente su GF2 e Radeon256 dell'OG AA.
Originariamente inviato da GMCPape
Qui, a mio avviso, si tratta di un problema palese ma dovuto a una scelta sfortunata, più che errata. nVidia ha voluto puntare su FP32 o su mixed code, mentre per qualche motivo le specifiche di DirectX hanno puntato su FP24. ATI l'ha vista giusta, e ha prevalso la sua architettura. A rigor di logica, però, da 16 si passa a 32. I 24 bit non si sono mai visti in ambito informatico. PArlando invece del multitexturing, il discorso è complesso. Nel caso di NV30, solo i motori all'avanguardia avevano multitexturing, e tanti erano ancora basati su single texturing, tanto che parecchi titoli (tipo quelli sul motore degli ISI) danno il meglio su nVidia, pur non essendo presi in considerazione nei bench. Certo, con NV40 si DOVEVA evitare tale limite, ma c'è anche da dire che dipende molto dal motore del gioco: in alcuni (doom 3) la scelta nVidia sembra la migliore. In altri è la soluzione ATI a dominare. E proprio per questo che i benchmark andrebbero presi sempre con le molle per evitare di tirare conclusioni errate in relazione a qualche test che non nece3ssariamente rappresenta la norma. .
le specifiche dello SM2.0 erano note da tempo e prevedevano l'utilizzo di fp24 (in alcune operazioni fp16 o anche fx12); nVIDIA ha seguito le specifiche ARB2 che prevedono fp16/fp32. Qui, però non si mette in discussione la scelta di NV di optare per la modalità fp16/fp32 anzichè per la fp24, ma quella di presentare un chip, teoricamente in grado di operare in fp e, in pratica, che proprio nei calcoli in virgola mobile ha il suo tallone d'Achille. NV30 non è nato per lavorare in fp: il potenziale teorico di un chip con 3 alu e 2 tmu per pipe e 4 pipeline di rendering sarebbe di 20 operazioni vettoriali complete per ciclo; l'NV30, in presenza di texture fetch e fp ops arriva ad un massimo di 6 (contro le 24 dell'R300); se la cava, invece, decisamente meglio con in calcoli fx (ma qui si parla di DX8.x e non più di DX9): da qui la necessità di utilizzare non tanto mixed path, quanto shader replacement. A questo si aggiunge il problema legato all'insufficiente capienza dei registri temporanei che rendono praticamente impossibile il ricorso a fp32 anche in NV35 (nonostante la sostituzione di una fxu con una fpu che ha aumentato la capacità di calcolo in floating point). Certo, con SM1.1, l'NV30 dava il meglio di sé, riuscendo anche a superare l'R300 (stesso numero di operazioni complessive, ma frequenze più alte per il chip NV).
Originariamente inviato da GMCPape
Cosa che non ho mai negato, anzi. Ma di questo ci re3ndiamo conto io, te e qualche altro appassionato. Quanta gente valutava la milgior qualità di una scheda perché "l'AA era migliore"? Non parlo certo di professionisti, ma di fanboy e di qualche situncolo da strapazzo. Siti non certo autoritari che però, nell'era di Internet, in qualche modo riescono ad avere qualche peso.
diciamo che la stragrande maggioranza di quelli che non valutano una vga dal quantitativo di ram o non si rimettono ai consigli del negoziante o dell'esperto di fiducia, non sanno neppure cosa sia l'AA. Tu parli di una minoranza rispetto al panorama totale: di quelli, cioè, che già hanno una qualche nozione tecnica di base.
Originariamente inviato da GMCPape
Filtraggio, non necessariamente AA. In certi titoli, l'AF è 1000 volte più importante di AA (soprattutto nel campo dei titoli di guida,m dove le strisce sull'asfalto sbidiscono al primo cambio di mipmap senza opportuno filtraggio). Al contrario, in un simulatore di volo, l'AA diventa fondamentale e l'AF secondario. In generale, però, i filtraggi possono essere saltati a più pari studiando il design grafico in maniera adeguata. Se i programmatori (e parlo soprattutto di quelli PC) puntassero più al design che alle abbaiate tecniche, avremmo titoli graficamente migliori senza dover per forza usare tutte le feature del mondo. Ma il design, per qualche motivo, rimane quasi solo appannaggio delle console: forse che molti giocatori PC preferiscano guardare che divertirsi?
in realtà, quello di cui si dibatte è il cosiddetto edge antialiasing; l'aliasing è un fenomeno molto più ampio che comprenmde tutti i tipi di disturbi dovuti all'interferenza di segnali generati da campioni tra loro contigui (e, a volte, non solo, nonostante si tenti di rispettare il più possibile il criterio di Nyquist). Anche l'anisotropic è un algoritmo di riduzione di una forma di aliasing, anche se di origine diversa rispetto all'edge aliasing.
inoltre ci sono giochi (tu li conosci sicuramente più di me) che permettono anche di guardare e, perchè no, di rimanere a contemplare un panorama; per non parlare di simulatori di volo o di guida ecc.
Originariamente inviato da GMCPape
Penso che si tratti degli errori dovuti al calcolo del sistema di illuminazione, che pur essendo l'unico che gestisce "vere" luci dinamiche, deve ricorrere a qualche ottimizzazione per farlo girare decentemente. E, sotto questo profilo, sì, qualche errore di approssimazione rimane, ma dubito si possa eliminare coi filtraggi, che introdurrebbero altri artefatti.
appena avrò avuto modo di informarmi meglio posterò qualcosa, al momento non so cosa dirti
Originariamente inviato da GMCPape
Vantaggi che, purtroppo, verranno largamente sfruttati solo quanti anche ATi ne potrà godere. Perché del resto se uno programma un gioco da vendere, deve puntare a tutti, non solo a una fascia. E, attualmente, la fetta del mercato è spartita piuttosto equamente fra i due colossi del 3D. Certo, FC usa HDR e SS2 usa 3DC... ma sono casi, non la norma. Non per ora, almeno.
Pape
beh, questo è normale; le attuali vga, tornando al discorso sulla potenza di calcolo, sono sufficienti ad utilizzare in maniera sufficientemente fluida lo SM2.0; in quest'ottica, ATi ha fatto una scelta più pragmatica, mentre nVIDIA ha creato un chip più interessante per gli sviluppatori che possono iniziare a prendere confidenza con certe features che per i giocatori (ciò non toglie che l'NV40 sia un prodotto ottimo in senso assoluto e che, come ho detto, nel settore mainstream le proposte NV siano sicramente più intriganti). Si è creata, a parti invertite, la situazione che, in passato, aveva visto ATi proporre chip più innovativi (R100 e R200) e nVIDIA puntare più sulla potenza e sui grandi numeri (NV15 e NV20/NV25).
Personalmente, trovo più "bello" l'NV40 (il mio giudizio non si basa su chi è più veloce o è meglio, ma su chi ha l'architettura più interessante), anche se ci sono alcune soluzioni, sull'R420, che avrei visto molto bene sul chip nVIDIA.
ciao
BTinside
30-10-2004, 12:39
Sono d'accordo con Pape. Basta con sti filtri, tiriamo fuori le cart...
Io invece sono d'accordo con Pandyno,
quella della non importanza dei filtri mi sembra una filosofia più simile alla Sony,
Però nello stesso campo console, mi sembra che non ci siano giochi Xbox senza avere almeno un AA2x,
questo dimostra chè è importante.
Voi dite ma che c'entra li ce ne più bisogno perchè giochi sul TV, noi pc gamer compensiamo con l'alta risoluzione.
Beh per ciò che mi riguarda non è vero, perchè su tv giochi da lontano (prova a giocare a distanza da monitor pc e vedi una tragedia di scalette), mentre su pc siamo abbastanza vicini al monitor.
Io stesso quando gioco su PC ma con un joypad ne approfitto per allontanarmi un po' dalla scrivania e simulare una console, beh la gratificazione visiva aumenta molto.
Ma da vicino a mio parere conta abbastanza l'AA sopratutto in quelle zone del gioco composte da modelli poligonali abbastanza "sottili" come pali della luce o braccia di personaggi.
In giochi come morrowind l'AA rende quella completezza di immaggine che completa il tutto.
Poi si ci sono giochi come doom3 che attivando o disattivando l'AA si nota ben poco.
Alla fine comunque non mi sembra esatto dire che bisogna concentrarsi più sullo sfruttamento delle altre caratteristiche perchè credo che nei giochi di oggi ci sia un giusto equilibrio fra le parti.
In giochi come Painkiller , Far Cry o Doom3 e HL2 mi sembra di vedere un giusto equilibrio fra poligoni, tecniche di resa per risparmio poligoni(polybump), textures ad alta definizione, effetti luci ombra, efeftti luce, e un discreto (anche se non ottimale) uso di shader.
Di pari importanza se non superiore, a mio parere, il filtro Anisotropico. Non è bello camminare in un corridorio e vedere sfocate le pareti a distanza che si mettono a fuoco quando ti raggiungono,
credo che l'anis dia più completezza al senso di profondità.
Originariamente inviato da BTinside
Io invece sono d'accordo con Pandyno,
quella della non importanza dei filtri mi sembra una filosofia più simile alla Sony,
Però nello stesso campo console, mi sembra che non ci siano giochi Xbox senza avere almeno un AA2x,
questo dimostra chè è importante.
Voi dite ma che c'entra li ce ne più bisogno perchè giochi sul TV, noi pc gamer compensiamo con l'alta risoluzione.
Beh per ciò che mi riguarda non è vero, perchè su tv giochi da lontano (prova a giocare a distanza da monitor pc e vedi una tragedia di scalette), mentre su pc siamo abbastanza vicini al monitor.
Sia Sony che Microsoft ne hanno fatte di cazzate , non è che se loro decidono una cosa siano dei profeti da seguire ciecamente.
Ti riprendo su un punto:
L' alta risoluzione non è un compensativo dell' AA se mai è il contrario
se giocassimo tutti a 1600x1200 difficilmente servirebbe l' AA se non sui 21 pollici. E ricordo che giocare a 1600 ti permette di vedere una nemico a 1 kilometro virtuale e distinguerne perfettamente i particolari, mentre a 1024 con AA 4x vedresti una massa informe.
BTinside
30-10-2004, 17:30
Sia Sony che Microsoft ne hanno fatte di cazzate , non è che se loro decidono una cosa siano dei profeti da seguire ciecamente.
Ma infatti nessuno a detto di seguire le loro decisioni,
;)
Era un riferimento,
e io ti riprendo dicendoti che il 90% della gente gioca a 1024x768,
non tutti posso permettersi il 1600
e ki si può permettere queste risoluzioni solitamente ha un monitor abbastanza ampio, il ke significa che alla fine a 1600 su un monitor ampio hai la stessa qualità di un 1024 in un LCD da 15 pollici
guarda che non stiamo mica parlando di monitor da ufficio e non dirmi che hai ancora un 14' pollici tu a casa.
Un buon 19 costa 300 euro , trovo difficile credere che su un computer nuovo non ci compri un monitor decente , saresti non solo uno sprovveduto ma anche uno stupido che si rovina gli occhi.
Maiorana
30-10-2004, 19:30
Originariamente inviato da viger
guarda che non stiamo mica parlando di monitor da ufficio e non dirmi che hai ancora un 14' pollici tu a casa.
Un buon 19 costa 300 euro , trovo difficile credere che su un computer nuovo non ci compri un monitor decente , saresti non solo uno sprovveduto ma anche uno stupido che si rovina gli occhi.
Io ho un 17'' pollici della Philips che arriva fino a 1900 come risoluzione.Ha lo schermo piatto con il refresh impostato a 85Hz e devo dire che mi trovo benissimo.:)
Non è necessario per forza un 19''.;)
Originariamente inviato da viger
guarda che non stiamo mica parlando di monitor da ufficio e non dirmi che hai ancora un 14' pollici tu a casa.
Un buon 19 costa 300 euro , trovo difficile credere che su un computer nuovo non ci compri un monitor decente , saresti non solo uno sprovveduto ma anche uno stupido che si rovina gli occhi.
Dubito che proprio parlando di "rovinarsi gli occhi" un BUON 19" da 300€ come dici tu arrivi ai 100hz a 1600... e non é detto manco che abbia abbastanza banda per arrivare agli 85...
TheDarkAngel
30-10-2004, 21:50
Originariamente inviato da street
Dubito che proprio parlando di "rovinarsi gli occhi" un BUON 19" da 300€ come dici tu arrivi ai 100hz a 1600... e non é detto manco che abbia abbastanza banda per arrivare agli 85...
non ho mai visto nessun 19" che arrivi a 100hz @ 1600
ne ho visti pochi che fanno i 90hz
Originariamente inviato da TheDarkAngel
non ho mai visto nessun 19" che arrivi a 100hz @ 1600
ne ho visti pochi che fanno i 90hz
appunto, e sinceramente avere 1600x1200, senza filtri, magari a 100 fps, e dover tenere poi il monitor a 50 hz... a me sembra un controsenso.
Anche perché vorrebbe dire tenere vsync off, il che non va molto a braccetto con la qualità dell' immagine e con il riposo degli occhi.
curioso c'è piu gente qui che spende 600 euro per una scheda video e finisce poi per giocarci a 1024x768 che gente con un pò di sale in zucca che spende 300 euro per un buon 19 :rolleyes:
http://www.pixmania.com/it/it/53730/art/lg-electronics/monitor-crt-19-pollici-fl.html
330€ iva inclusa 19' Lg flatron (schermo piatto e chi ha un Lg sà di che qualità parlo)
1600 x 1200 / 85 Hz
vingilot
31-10-2004, 12:28
sinceramente preferisco giocare fluidamente con il maggior numero di effetti possibile.
per pape:
anch'io preferisco il bloom e ti dirò di più:
alcuni giochi pesantissimi (di solito conversioni) come invisible war, gta3, far cry, thief3, doom3, ecc... li gioco sulla tv...
...è vero si perde in dettaglio, ma si guadagna in fluidità (in maniera incredibile), l'aa diventa inutile anche a 640x480 (l'af no, anche per questo motivo lo ritengo superiore all'aa) e passa il senso di frustrazione dovuto a continui scatti, rallentamenti, fenomeni di stuttering, ecc... che mi infastidiscono profondamente.
*provate a giocare a pes3 ad esempio su un 28 pollici (100hz per gli occhi)*
chiaramente il mio è il punto di vista di uno che gioca e considero l'hardware un'interfaccia di cui ho bisogno per divertirmi... non sono affezionato al monitor e lo sacrifico volentieri (e con lui l'aa, le alte risoluzioni e tutto ciò che succhia risorse a detrimento della fluidità) a favore di un'esperienza di gioco appagante e non frustrante!
;)
BTinside
01-11-2004, 11:24
Un buon 19 costa 300 euro , trovo difficile credere che su un computer nuovo non ci compri un monitor decente , saresti non solo uno sprovveduto ma anche uno stupido che si rovina gli occhi.
Beh con sprovveduto potresti offendere tutti coloro che posseggono un 14 pollici per problemi economici.
Se vuoi riposarti per bene gli occhi l'ideale sarebbe un bel LCD :
-già a 60hz di refrash è molto più riposante della sua controparte CRT
-a 75hz è perfetto
-la resa cromatica nei giochi è da favola
-lo spazio che occupa è ridotto
-elimina le radiazioni da tubo catodico
Io personalmente ho un LCD da 15 pollici che per ampiezza(essendo piatto) ne dimostra quasi 17 e a 1024x768 la nitidezza dei caratteri e la resa cromatica è impressionante.
Odio i 19pollici perchè mi saltano davvero gli occhi a stare difronte un "cinema" anche quando magari voglio solo leggere la posta elettronica.
Ce l'ha un mio amico e il primo impatto con qusto monitor è tremendo per gli occhi (e lui lo tiene a 85hz).
Io a 60Hz ce l'ho molto più riposante di lui
Costretto a tenerlo a 85hz per non lasciare gli occhi sulla scrivania e a 1280 per avere ua risoluzione decente, ne perde molto in frame al secondo.
Discorso a parte va fatto in caso voglia guardarmi un DVD, ottimo il 19, ti metti sul letto e lo guardi da lì.
Per Vingilot:
Io sono anche capace, se necesario, di giocare a 640x480 in finestra. Tanto in finestra hai la stessa definizione del 1024 in full screen.
Io cambierò la mia skeda solo quando con quasi tutti i giochi a 640x480 in finestra e dettagli al max farà segnare da 25fps in giù;)
ho una 6800ultra:asd: , ce ne vorrà
bartolino3200
01-11-2004, 13:16
Che LCD hai schermo Hidys?
Altrimenti stai bestemmiando.
Tutt' ora non esiste LCD che tenga il confronto su giochi e film a un crt, e mi riferisco in specie alla risposta (già 12 ms degli lcd più costosi non bastano), e alla resa cromatica...studere studere studere...
BTinside
01-11-2004, 13:19
Di certo se guardi prima un CRT e poi un LCD i colori sono più vividi e accesi, questo penso sia evidente no?
vividi e accesi non fa rima né con riposanti né con rispondenti al reale.
Oltre a questo, se hai mai visto un crt di qualità ti rendi conto della differenza.
Considera che per esempio, io non sopporto neanche gli shadow mask, visto che ormai sono abituato al trinitron.
E come hz, come minimo uso gli 85. Ma in genere i 100 hz.
BTinside
01-11-2004, 13:50
Io personalmente ho sempre avuto CRT e passando ad LCD mi sono accorto di questo:
-colori più vividi
-immaggine abbastanza più stabile e quindi riposante
-schermo anti riflesso( in caso di luce,al posto di vedere riflesse le cose alle tue spalle continui a vedere solo il monitor)
-colori più accesi e vividi
Fine
poi com'è è , queste sono solo mie impressioni, e sono gratificanti
Alberto Falchi
01-11-2004, 15:22
Originariamente inviato da bartolino3200
Che LCD hai schermo Hidys?
Altrimenti stai bestemmiando.
Tutt' ora non esiste LCD che tenga il confronto su giochi e film a un crt, e mi riferisco in specie alla risposta (già 12 ms degli lcd più costosi non bastano), e alla resa cromatica...studere studere studere...
Ti assicuro che esistono degli LCD eccezionali. Non tutti, sia chiaro, ma i migliori modelli non presentano scie evidenti e permettono di giocare alla grande, oltre che di vedere anche film. Certo, bisogna scegliere oculatamente, ma il futuro è negli LCD.
Pape
vingilot
01-11-2004, 15:27
Originariamente inviato da BTinside
Io personalmente ho sempre avuto CRT e passando ad LCD mi sono accorto di questo:
-colori più vividi
-immaggine abbastanza più stabile e quindi riposante
-schermo anti riflesso( in caso di luce,al posto di vedere riflesse le cose alle tue spalle continui a vedere solo il monitor)
-colori più accesi e vividi
Fine
poi com'è è , queste sono solo mie impressioni, e sono gratificanti
quoto in pieno e aggiungo anche che non c'è più traccia di flickering (le immagini si susseguono più fluidamente)
Originariamente inviato da BTinside
Di certo se guardi prima un CRT e poi un LCD i colori sono più vividi e accesi, questo penso sia evidente no?
guarda che la saturazione dei colori non è certo sintomo di qualità.
Per quanto riaguarda le varie riviste del settore che dicevano che un 15 digitale è pari ad un 17 , lo si diceva 2-3 anni fà quando il 90% dei ctr erano a schermo non piatto.
Ora un buon monitor CTR è "Pure Flat" cioè sia lo schermo che il tubo catodico interno sono piatti e antiriflesso.
Il mio 17' LG 795FT Flatron ha 4-5 anni e tiene i 1152x1024 a 100 HZ i 1280x1024 a 85 hz e i 1024x768 a 120 HZ e si parla di un monitor di molti anni fà pagato all' epoca 800 mila (mai fatto acquisto migliore).
Metti un Pure Flat (sony, sansung, lg) a 17 pollici e un Lcd a 15 pollici vicini e poi te ne accorgi . La favoletta del LCD a 15 che ha area da 17 è una pura balla.
Come è una pura balla il fatto di vedere film (di azione) o giocare ai giochi su Pc tipo Quake3 e dire che un LCD è riposante.
Gli LCD hanno radiazioni "zero" ma per il resto si prestano alla visione di documenti e ad uso office non certo per poter giocare.
Parlo di LCD a prezzi modici , ci sono LCD di alcune marche , che costano il doppio o il triplo dei vari Acer o Pincopallino che trovi a tanto al kilo negli Store che hanno prestazioni comparabili ad un CTR di media qualità. Peccato che con il costo di un Lcd 15-17' pollici del genere ti compri un CTR 21' Sony Trinitron
La maggior parte degli LCD in commercio hanno risposte di 15-16 ms (la persistenza dei pixel a schermo) , valore ridicolo.
Le grandi marche mettono ben in risalto questo valore perkè è molto piu' importante di tutti gli altri parametri se si vuole avere un buon lCD. Peccato che alcune di esse ti chiedono 500 euro per un LCD a 15'.
BTinside
01-11-2004, 16:57
Metti un Pure Flat (sony, sansung, lg) a 17 pollici e un Lcd a 15 pollici vicini e poi te ne accorgi . La favoletta del LCD a 15 che ha area da 17 è una pura balla.
Fai attenzione , non ho detto che un LCD da 15 pollici ha l'area di un 17 pollici,
ho detto che, essendo piatto, da l'impressione di essere più ampio di un normale 15 pollici, quasi un 17!!
Credo sia ovvio che se viene venduto per 15pollici è pur sempre un 15 pollici, quindi evitiamo di sottolineare falsi errori.
L'LCD ha i suoi lati negativi, non puoi guardarti un film dal letto perchè se non guardi lo schermo in modo frontale i colori cambiano, e nelle scene scure a volte possono notarsi scie,
ma vi sono anche lati positivi per i quali vale la pena comprarli,
oltre all'eliminazione delle radiazioni, l'immaggine riposante, la nitidezza dei caratteri e i colori occupa anche molto poco spazio.
Al di là di ogni valore tecnico su carta, da quando sono passato ad LCD non riesco più a guardare la maggior parte dei CRT , mi danno veramente fastidio agli occhi, inoltre adesso ho molto più spazio su scrivania e il tutto fà anche un bel figurone estetico,
sono per l'essenziale e il compatto.
Alberto Falchi
01-11-2004, 17:00
Originariamente inviato da BTinside
Fai attenzaione , non ho detto che un LCD da 15 pollici ha l'area di un 17 pollici,
ho detto che, essendo piatto, da l'impressione di essere più ampio di un normale 15 pollici, quasi un 17!!
In realtà no avevi nemmeno tutti i torti. Nel senso: un 17" CRT ha una diagonale effettiva che varia dai 15,8 ai 16" (solitamente). Un 15 LCD, ha una diagonale effettiva di 15" circa, che lo rende quindi vicino ai 17". Calcola che inoltre di un LCD sfrutti tutta la diagonale visibile, con un CRT mai, a meno di scendere a compromessi con le vergognose distorsioni dei bordi
Pape
BTinside
01-11-2004, 17:27
Grazie per il sostegno;) ,
cmq hai detto bene "vergognose"!
anche per questo preferisco l'LCD, non sopporto quei bordi "asimmetrici"
gran bella figura fa invece la completezza e la piattezza dell'LCD.
Nonostante ciò io ho sempre pensato che per giocare il CRT sia il migliore,
ma gioco da tempo ormai su LCD e vi posso assicurare che è niente male, sopratutto nelle zone del gioco in cui il monitor può esaltare la brillantezza dei colori,
addirittura vedere le textures di Painkiller così nitide è colorate sul mio LCD, a me sembra anche meglio di vederle nel LG Flatron 17" del mio amico.
Lato negativo nei giochi sono invece le zone scure, beh lì il mio LCD impazzisce, tenta di rendere le zone scure, troppo chiare
e vi sono a volte scie orizzontali,
Infatti doom3 non è che sia il massimo su LCD,
ma in altri giochi è uno spettacolo;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.