PDA

View Full Version : 3D Mark 2006: il nuovo benchmark per schede 3D


Pagine : 1 [2]

killer978
20-01-2006, 17:51
Senti killer sei già venuto a rompere le uova nel paniere nel 3d della ASRock, quindi mi conosci eccome e sai chi sono, come so io chi sei e quanto sei pesante.

Fattene una ragione esistono prodotti meno costosi e ugualmente validi.
Ciao.

Sei Lucido?
Io non ho mai postato in quel tread! :mbe: forse mi confondi con qualcun'altro! :confused:
Davvero non ho mai postato in quel tread! Anzi se leggi il tread MSI ho detto + volte x chi voleva una soluzione alternativa al DFI o MSI NF3 la Asrock era l'ideale!

Ooops, ora ricordo dove abbiamo avuto un piccolo diverbio! Nel tread X2 3800+ di Zerothero ;) Mi sembra che Mobius ti richiamò, siccome tu non leggi mai fino in fondo cio che uno scrive e capisci fischi x fiaschi :rolleyes:
Se vuoi posto il link! ma faresti una figura ancora + magra :D

Indi lasciamo perdere :mano: Siamo OT! ;)

BlueKnight
20-01-2006, 17:55
..L'ho provato + che altro per curiosità possedendo un sistema attempatello oramai(barton 3000+,1 giga ddr 400 cas 2.5,Radeon 9800pro 128 mega 256bit)..
..Uno sputo sopra gli 800 punti(senza alcun oc e col sistema bacato)..804 per la precisione..
Che schifo...
E pensare che a Quake4 gioco con tutto al massimo(ma senza antialiasing)senza il benchè minimo scatto.
Io questa politica non la capisco...Che senso ha uscirsene con un benchmark che non riesce ad essere visualizzato fluidamente neanche con un sistema top gi gamma?
Ricordo che i vecchi 3dMark2000 e 2001 erano molto + equilibrati in confronto.Rispecchiavano realmente cio che ci si poteva aspettare da un videogames in commercio di buona qualità...Ed erano uno spettacolo per gli occhi anche se eseguiti su sistemi mediobassi a livello di componentistica...Poi magari se avevi una Gf2 ultra facevi il doppio del punteggio(infondo è proprio il punteggio a fare la differenza)ma nessuno si sentiva "tagliato fuori" a questo modo.
Io ad ogni giorno che passa mi chiedo sempre di più:ma esiste qualcuno che investa sullo sfruttamento di tecnologie affermate +ttosto che cercare di lucrare in ogni maniera lecita(e illecita)creando programmi che richiedono per il loro corretto funzionamento risorse pressochè inutili?
Si creano benchmarc appositamente programmati per essere gestibili solo da fette sempre + elitarie di hardware partendo dal presupposto che l'utente finale medio pensi veramente che le vere potenzialità di una GF7800 gtx siano quelle di renderizzare al massimo meno di 20 frame al secondo di grafica con quel livello di complessità.(Potenzialità in realtà ben maggiori...se solo qualcuno fosse spronato veramente a sfruttarle.
Con tutti gli effetti e gli artifizi grafici attivati anche una vecchia radeon 9800 sforna qualcosa come 400 milioni di triangoli al secondo(che però nessuno ha ma visto...e mai vedrà)che si traducono in scene fluide fino ad una complessita pari a 16 milioni di triangoli per frame(400:25).
Anche volendo pessimisticamente dividere per 3 questo risultato si otterrebbero scene renderizzate molto + complesse di quelle presenti in qualsiasi game o benchmark attualmente esistente(se non ricordo male la complessità grafica del 3dMark06 non supera il milione di triangoli per frame(rimanendo nella maggior parte dei casi ben al di sotto).
Io probabilmente ho qualche anno di troppo per capire queste cose...E infatti non ci provo nemmeno...Ma nonostante questo rimpiango i tempi in cui i programmatori si davano battaglia per stupirci,ricorrendo spesso a vere genialate informatiche pur di "fare la differenza"...Ricordo il vecchio c64 che pur non cambiando di una virgola a livello hw per tutto il corso della sua onorevole vita,seppe evolversi(o forse dovrei dire "si dimostrò + evoluto di quanto chiunque pensasse appena uscì")....Passando da Pacman,forbidden forest,hero...etc etc....a capolavori quali r-type,turrican,etc etc..
Ricodo il mitico Amiga500..i cui limiti teorici furono puntualmente uno alla volta superati grazie ad una sapiente programmazione(come ad esempio la gestione dei colori:in teoria i limite hardware avrebbe dovuto essere di 32 colori contemporaneamente sullo schermo presi da una palette di 4096...Colori che grazie alla programmazione passarono presto a 64...Per poi divenire 4096 contemporaneamente sullo schermo(e tutto grazie all'applicazione di individui che sapevano davvero il fatto loro)...
E la prima PlayStation dove la mettiamo?Ma vi ricordate i primi giochi usciti?Se paragonati ad esempio a Gran Turismo sembravano uscire direttamente da un vic20(in maniera ironica ovviamente ma il paragone per molti aspetti calza)...
Potrei continuare all'infinito ma tanto è inutile...Le politiche di mercato e l'amore per l'alta tecnologia sono 2 mondi destinati ad allontanarsi sempre più..
E pensare che siamo sbarcati sulla luna guidati da un computer privo di monitor,display alfanumerici....e 128kbytes di ram...

Saluti a tutti


Bel messaggio e bell'analisi, COMPLIMENTI!

In ogni caso, riguardo la prima parte, penso che la Futuremark faccia bech sempre + complessi e impossibili come dici tu per garantirsi una buona possibilitità di utilizzo durante i test; mi spiego meglio: una volta, ma mi riferisco anche a 2-3 anni, le schede che uscivano fra una generazione e l'altra non portavano grandi differenze prestazionali apparte qualche innovazione tecnica grafica tipo l'AA e l'AF, o come succede ancora e non solo dagli SM 2 ai 3. Queste erano delle "chicche" in più di cui si poteva benissimo farne anche a meno, tant'è che ATI ha ben ritardato l'intorduzione dei 3.0 senza avere gravi perdite in prestazioni e nella qualità dei dettagli.
Il fatto è che da un pò di tempo l'innovazione tecnologica e prestazionale ha subito ancora una volta un'impennante aumento della velocità di sviluppo e uscita.
Se prima si potevano benissimo paragonare le 9700, le 9800 e le 9800 XT che son durate più di 2 anni, non penso si possan paragonare le 9800 alle x800 e nemmeno le x800 alla serie x1000....nel corso di 1 anno e mezzo la pura potenza delle schede è aumentata notevolmente.

Ricordo che all'uscita del 3DMark05 facevano tutti quasi tutti dei risultati penosi...in poco tempo ormai quasi tutti fanno + di 20 fps al Bench del mostro marino!

SECONDO ME LA FUTUREMARK AGISCE COSI' PER PREVENIRSI DAL RENDERE INUTILI I LORO PROGRAMMI, VISTO CHE CONOSCE MEGLIO DI NOI ANCHE I FUTURI PIANI DELLE CASE PRODUTTRICI. PRODURRE UN 3DM06 PIU' LEGGERO ADESSO AVREBBE VOLUTO DIRE RITROVARSI UN PROGRAMMA POCO UTILE FRA 7-8 MESI.



Per la seconda parte invece ti do pienamente ragione..però siccome i sistemi di programmazione son diventati notevolmente più complessi...e siccome a questo mondo senza soldi non si può vivere e la sete di guadagni è aumentata..le case preferiscono farti comprare piuttosto che ottimizzare..

DOPOTUTTO SAPPIAMO TUTTI E ANCHE GLI ALTRI PRODUTTORI HANNO VISTO CHE FINE HANNO FATTO IL COMMODORE E L'AMIGA...OTTIMI PRODOTTI DALLE ECCELLENTI PRESTAZIONI E QUALITA', MA AIME' MENO REMUNERATIVI DEI PENOSI PC IN VENDITA AI TEMPI!

Free Gordon
20-01-2006, 18:11
Ma ragazzi, è ovvio che Futurmark appesantisca gravemente tutti i nuovi 3dmark...

L'evoluzione tecnologica è velocissima e all'uscita di R600 (ad esempio) si ritroverebbe ad avere un 3dmark2006 già bevuto... :D e questo è imperdonabile! :D

Il 3dmark deve scattare così tutti corrono a comprarsi l'hw nuovo! :ciapet:

killer978
20-01-2006, 18:23
Ma ragazzi, è ovvio che Futurmark appesantisca gravemente tutti i nuovi 3dmark...

L'evoluzione tecnologica è velocissima e all'uscita di R600 (ad esempio) si ritroverebbe ad avere un 3dmark2006 già bevuto... :D e questo è imperdonabile! :D

Il 3dmark deve scattare così tutti corrono a comprarsi l'hw nuovo! :ciapet:

Bene bene così io mi pappo l'usato a poco prezzo! :D

MadRat
20-01-2006, 18:30
un calo del 3% con un bench sintetico some il 3dmark non è per niente indicativo. Se i driver fanno application detect e forzano comunque fp16, puoi impostare quello che vuoi, tanto il risultato sarà sempre quello

Ma se i driver prendono il controllo (possibile, certo) perche' allora c'e' il calo del 3%?? dovrebbe non esserci alcun calo.

MadRat
20-01-2006, 19:38
Avete notato che nel bench con la neve, non c'e' mezzo fiocco di neve sopra gli oggetti?? :D bella toppa. :D

BlueKnight
20-01-2006, 19:53
Avete notato che nel bench con la neve, non c'e' mezzo fiocco di neve sopra gli oggetti?? :D bella toppa. :D


Non so quante volte nevichi al Polo Nord...non poi così tante come tutti pensano! :D

yossarian
20-01-2006, 19:58
Ma se i driver prendono il controllo (possibile, certo) perche' allora c'e' il calo del 3%?? dovrebbe non esserci alcun calo.

per mille motivi; cicli di clock utilizzati per fare altro (ad esempio application detect), oppure un calo dovuto a qualcosa che non c'entra nulla con il bench e col 3D; oppure è il programma che fornisce risultati altalenanti.
Di sicuro c'è che non dipende dal passaggio da fp16 a fp32: il 3% di differenza è un valore irrisorio. Non vorrei disilluderti, ma nel passaggio "reale" da fp16 a fp32 dovrai aspettarti cali ben più sostanziosi. Ripeto, è un problema di architettura, ottimizzata per lavorare con fp16 (le cifre sono li a bella posta: 20 flops per alu contro le 27 a fp16 e 4 istruzioni contro 5 per alu, per ogni ciclo)

fek
20-01-2006, 20:09
per mille motivi; cicli di clock utilizzati per fare altro (ad esempio application detect), oppure un calo dovuto a qualcosa che non c'entra nulla con il bench e col 3D; oppure è il programma che fornisce risultati altalenanti.

Per altro una differenza del 3% in una sola misurazione e' ampiamente dentro i margini di errore di un benchmark sintetico: tradotto, non conta nulla, e' rumore. Se il SO operativo decide in quel lasso di tempo di schedulare un paio di processi in piu' durante l'esecuzione del benchmark, ecco il tuo 3% di differenza. Altro discorso se la media su un certo numero di misurazioni riportasse un calo del 3%, in quel caso andrei a ricercare le cause nell'application detection come dici tu.

andreamarra
20-01-2006, 20:35
con 9700 pro a 9800 pro e venice 3200+ @274*10...

303 punti! :cool: :asd: :D

MaBru
20-01-2006, 21:35
con 9700 pro a 9800 pro e venice 3200+ @274*10...

303 punti! :cool: :asd: :D
Metti l'AGP aperture size a 128mb e poi vedi. :)

Free Gordon
20-01-2006, 21:54
Questo si che è interessante: puoi approfondire un pò e spiegare che tipo di differenze noti, marca delle due schede e magari tipo di monitor? :mbe:


Il monitor è lo stesso. ;)

La marca della 9700pro era Gigabyte (tutt'ora operativa e funzionante), comprata nel 2002. ;)

La 6600GT era ASUS.

La X800XT era un BBA.

Free Gordon
20-01-2006, 21:55
Bene bene così io mi pappo l'usato a poco prezzo! :D


Ho la tua stessa idea... :sofico:

MadRat
20-01-2006, 22:04
Non so quante volte nevichi al Polo Nord...non poi così tante come tutti pensano! :D
Non so se quello sia o meno il polo nord, ma la neve vien giu' in quantità. :)

MadRat
20-01-2006, 22:13
per mille motivi; cicli di clock utilizzati per fare altro (ad esempio application detect), oppure un calo dovuto a qualcosa che non c'entra nulla con il bench e col 3D; oppure è il programma che fornisce risultati altalenanti.
Di sicuro c'è che non dipende dal passaggio da fp16 a fp32: il 3% di differenza è un valore irrisorio. Non vorrei disilluderti, ma nel passaggio "reale" da fp16 a fp32 dovrai aspettarti cali ben più sostanziosi. Ripeto, è un problema di architettura, ottimizzata per lavorare con fp16 (le cifre sono li a bella posta: 20 flops per alu contro le 27 a fp16 e 4 istruzioni contro 5 per alu, per ogni ciclo)

Allora, abbiamo un efficienza inferiore del 20% nel passaggio da 32 a 16 e sin qui tuto chiaro. Ma l'FP16 non sara' implementato ovunque, no?? spesso e volentieri sara' utilizzata la precisione FP32 (credo molto in questo bench, ma non so). Inoltre non possiamo togliere questo 20% dal totale delle prestazioni, non sono fatte solo di quello. Sicuramente la ripercussione sulle prestazione sara' comunque sempre inferiore, proprio per questi due fattori.

MadRat
20-01-2006, 22:16
Per altro una differenza del 3% in una sola misurazione e' ampiamente dentro i margini di errore di un benchmark sintetico: tradotto, non conta nulla, e' rumore. Se il SO operativo decide in quel lasso di tempo di schedulare un paio di processi in piu' durante l'esecuzione del benchmark, ecco il tuo 3% di differenza. Altro discorso se la media su un certo numero di misurazioni riportasse un calo del 3%, in quel caso andrei a ricercare le cause nell'application detection come dici tu.

Beh, aspetta, il 3% non e' poi cosi' insignificante e poi si e' manifestato matematicamente con tutte le nVidia (con gli stessi risultati), dunque in sistemi differenti.

yossarian
20-01-2006, 22:20
Allora, abbiamo un efficienza inferiore del 20% nel passaggio da 32 a 16 e sin qui tuto chiaro. Ma l'FP16 non sara' implementato ovunque, no?? spesso e volentieri sara' utilizzata la precisione FP32 (credo molto in questo bench, ma non so). Inoltre non possiamo togliere questo 20% dal totale delle prestazioni, non sono fatte solo di quello. Sicuramente la ripercussione sulle prestazione sara' comunque sempre inferiore, proprio per questi due fattori.

veramente è il contrario; a fp32 perde almeno il 20% rispetto a fp16.
Ti ricordo i risultati della serie NV40 con HL2 prima dei driver miracolosi (che non facevano altro che forzare fp16 in ogni situazione), ben inferiori a quelli di R420. Quell'esempio può darti una misura di quanto si perda nel passaggio a fp32

MadRat
20-01-2006, 22:49
veramente è il contrario; a fp32 perde almeno il 20% rispetto a fp16.
Ti ricordo i risultati della serie NV40 con HL2 prima dei driver miracolosi (che non facevano altro che forzare fp16 in ogni situazione), ben inferiori a quelli di R420. Quell'esempio può darti una misura di quanto si perda nel passaggio a fp32

Non cavillare, mi sono impicciato a scrivere. :)
Comuqnue i punti che ho detto restano, un gioco non e' fatto solo di FP16. La percentuale di decremento va sottratta alla soma di tutti i fattori che costituiscono un gioco. Non credo proprio che l'architettura nVidia possa essere cosi' scadente in FP32, tanto da causare un decremento totale delle prestazioni del 20%, perche' si tratterebbe di perdite prestazionali nell'ordine di percentuali assolutamente superiori, tipo non so, in FP 32 ha il 50% (detto a caso) delle prestazioni che ha in FP16.
Insomma, il calcolo deve tener conto solo delle parti che fanno effettivamente uso della precisioni minore, stabilitane una percentuale, il 20% di questa sara' perso nel passaggio ad FP32.
Che casino!! spero di essermi spiegato.

Il 3% in questione e' il 30% del 10% (del totale), questo 10% (che puo' tranquillamente essere il 15 o il 20), potrebbe essere la percentuale d'utilizzo della precisione FP16 nel totale della demo.

yossarian
20-01-2006, 22:54
Non cavillare, mi sono impicciato a scrivere. :)
Comuqnue i punti che ho detto restano, un gioco non e' fatto solo di FP16. La percentuale di decremento va sottratta alla soma di tutti i fattori che costituiscono un gioco. Non credo proprio che l'architettura nVidia possa essere cosi' scadente in FP32, tanto da causare un decremento totale delle prestazioni del 20%, perche' si tratterebbe di perdite prestazionali nell'ordine di percentuali assolutamente superiori, tipo non so, in FP 32 ha il 50% (detto a caso) delle prestazioni che ha in FP16.
Insomma, il calcolo deve tener conto solo delle parti che fanno effettivamente uso della precisioni minore, stabilitane una percentuale, il 20% di questa sara' perso nel passaggio ad FP32.
Che casino!! spero di essermi spiegato.

Il 3% in questione e' il 30% del 10% (del totale), questo 10% (che puo' tranquillamente essere il 15 o il 20), potrebbe essere la percentuale d'utilizzo della precisione FP16 nel totale della demo.

ok, ti sei spiegato. C'è da vedere innanzitutto che tipo di bench sia, questo nuovo 3dmark (che tipo di test utilizzi), prima di trarre qualsiasi conclusione.

mjordan
20-01-2006, 23:51
E magari alcuni benchmark sono fatti solo per alcune schede video ;)

O peggio, alcuni driver sono fatti solo per alcuni benchmark... :asd:

mjordan
21-01-2006, 00:07
Ti smentisco subito: io sono passato da una eccellente 9800Pro ad una 6600GT (questione di scheda madre purtroppo) e la differenza si vede eccome, ma in peggio!
Il mio monitor è un 22" CRT Samsung e purtroppo la qualità video di Nvidia lascia davvero a desiderare, sia nei video che nei videogiochi (anche se ammetto di giocare poco) rispetto alla vecchai ATI. Magari se usi un LCD non lo noti ma su un monitor di qualità la differenza salta agli occhi: colori meno vivi e immagini più impastate.


Si ma io stavo facendo un altro discorso che forse prima di attaccarmi evidentemente non hai seguito.
Ritorna nell'ottica di questo benchmark. Questo è un benchmark che misura le prestazioni hardware con i suoi test. Se su una scheda non trova lo Shader Model 3.0 permetti almeno che una X850XT sia lecito che stia dietro una 6800 Ultra? Mi sembra anche abbastanza corretto come test. Premesso che in fondo per le X850XT e le 6800 Ultra è meglio testarle con il 3DMark 2005. Diverso il discorso delle X1800XT vs 7800GTX, ma li la questione (forse) sono i driver. Poi io non capisco come fai a dire che a "occhio" la qualità e migliore o peggiore quando per i test qualitativi molte volte bisogna comparare i singoli frame. Questa cosa è sicuramente vera, ma l'hai letta da qualche parte, non che la vedi a occhio. :mbe:


Non basta una "feature in più" (SM 3.0) per affermare che Nvidia "sia più avanti", anche perchè gli SM2 .0b possono generare ESATTAMENTE lo stesso tipo di effetti rispetto ai 3.0 se programmati correttamente
Non c'è affatto la stessa differenza tra SM 2b e 3 che ci fu ai tempi dell'introduzione dell'SM 2 rispetto agli 1 (R250/GF4X00=>R300/GF5X00).


Mah, che dire. Io so che la famosa acqua di Fek di B&W 2 è nata meravigliosamente come un effetto 3.0 e poi dolorosamente portata indietro per farla stare nel 2.0x a colpi di testate al muro :muro: ...
Quindi se Fek a fatica mi è riuscito a mettere quell'acqua negli shader 2.0x, non oso immaginare cosa possa fare a fatica con gli shader 3.0 :p
Poi mi posso pure sbagliare, magari te lo dice lui. :p
E poi, anche se è vero che magari non sono tutto questo passo in avanti, ma almeno da quello che vedo in giro sembrano molto piu' facili da programmare... Già questo è un vantaggio non banale.


Dire che Nvidia 6800 è superiore ad ATI XT800 solo per quello è come dire, che so, che la jaguar è meglio della bentley perchè va più forte...

Si potrebbe dire lo stesso viceversa. Dire che ATI è superiore a nVidia solo perchè ha una qualità immagine leggermente superiore è come dire che la Jaguar è meglio della Bentley perchè va piu' forte... :p
Intanto i giochi SM 3.0 ci vanno :tie:

Gnegnegnegnegne :asd:

MadRat
21-01-2006, 01:58
ok, ti sei spiegato. C'è da vedere innanzitutto che tipo di bench sia, questo nuovo 3dmark (che tipo di test utilizzi), prima di trarre qualsiasi conclusione.

Nel caso specifico ovviamente non possiamo saperlo, pero' non credo che un HL2 sia stato fatto solo questo, insomma, ci sono stati incrementi se non erro del 20% e passa, o ricordo male?? e non credo che il 100% del codice di HL2 sia FP16. :)

yossarian
21-01-2006, 04:19
Nel caso specifico ovviamente non possiamo saperlo, pero' non credo che un HL2 sia stato fatto solo questo, insomma, ci sono stati incrementi se non erro del 20% e passa, o ricordo male?? e non credo che il 100% del codice di HL2 sia FP16. :)

no, ricordi benissimo; infatti i conti tornano; è stato fatto soprattutto quello (l'esempio della mappa canals è emblematico: li il vantaggio di ATi era enorme), con in più un piccolo riordino dei dati e qualche operazioni di shader replacement. Altro esempio può essere quello relativo a NV30 e al 3dmark2003: là erano sufficienti non più di 3 istruzioni fp per far crollare le prestazioni di oltre il 40% (vero che nv30 aveva seri problemi con la gestione di istruzioni fp e, soprattutto, fp32, mentre nel caso di NV40/G70 non si tratta di problemi ma di scelte di ottimizzazione di una precisione di calcolo rispetto ad un'altra).

cdimauro
21-01-2006, 06:48
Io probabilmente ho qualche anno di troppo per capire queste cose...E infatti non ci provo nemmeno...Ma nonostante questo rimpiango i tempi in cui i programmatori si davano battaglia per stupirci,ricorrendo spesso a vere genialate informatiche pur di "fare la differenza"...Ricordo il vecchio c64 che pur non cambiando di una virgola a livello hw per tutto il corso della sua onorevole vita,seppe evolversi(o forse dovrei dire "si dimostrò + evoluto di quanto chiunque pensasse appena uscì")....Passando da Pacman,forbidden forest,hero...etc etc....a capolavori quali r-type,turrican,etc etc..
Stai generalizzando troppo: anche all'epoca c'erano dei programmatori che scrivevano codice coi piedi e poco ottimizzato.

A mio avviso la situazione non è cambiata: oggi c'è soltanto un parco hardware maggiore.
Ricodo il mitico Amiga500..i cui limiti teorici furono puntualmente uno alla volta superati grazie ad una sapiente programmazione(come ad esempio la gestione dei colori:in teoria i limite hardware avrebbe dovuto essere di 32 colori contemporaneamente sullo schermo presi da una palette di 4096...Colori che grazie alla programmazione passarono presto a 64...
Nessuna magia: quasi tutti i giochi utilizzavano 32 colori, perché usando la modalità HalfBrite a 64 colori (presente in tutti gli Amiga, a parte i 1000) su 8 color clock la circuiteria del display ne lasciava liberi soltanto 2 (mentre a 32 colori erano 3), e inoltre c'era un bitplane in più da disegnare.

Ergo: si consumavano TROPPI cicli di clock, ed era MOLTO facile sforare nei tempi di calcolo (i giochi a 50fps sarebbero MOLTO probabilmente passati a 25fps, e quelli a 25fps invece sarebbero scesi a un orribile 17fps), senza considerare il maggior spazio occupato sia dallo schermo (o più facilmente dagli schermi, visto che si usava spesso il double buffering) e dagli oggetti grafici (fondali o tile, e BOB).
Per poi divenire 4096 contemporaneamente sullo schermo(e tutto grazie all'applicazione di individui che sapevano davvero il fatto loro)...
I 4096 colori contemporaneamente sono una favola: la prassi era di cambiare qualche colore per lo sfondo (ad esempio per creare i gradienti verticali del cielo o della terra), oppure cambiare la palette solo per determinate porzioni dello schermo (esempio: il pannello con le informazioni / punteggio).
Questo perché anche il Copper consumava cicli, e comunque la grafica doveva essere fatta in un certo modo (in genere le tile usavano la stessa palette di colori, come pure i BOB).

Anche all'epoca, e lo ripeto, c'erano dei programmatori che scrivevano codice a dir poco poco ottimizzato, per non dire orribile (la Team17, in uno dei lavori in corso pubblicati su TGM per gli ultimi giochi che stava sviluppando per Amiga, si "vantava" addirittura di aver iniziato a usare le funzioni di allocazione della memoria, per garantire una maggior compatibilità fra le varie macchine).

ekerazha
21-01-2006, 13:05
Non mi è ben chiaro il requisito di "CPU con frequenza operativa di 2.5Ghz".
Credo ci sia una bella differenza fra una CPU a 2.5Ghz di Intel ed una di AMD :)

nasoblu5
21-01-2006, 13:35
Ho un processore AMD 64 X2 4400 , mi sono accorto che esistono altre configurazioni che con lo stesso processore ottengono un punteggio di 200-300 punti più alto del mio.

Qualcuno saprebbe suggerirmi qualche spiegazione valida per questa vistosa differenza.

Allego per vs. conoscenza il risultato del mio test.

System and CPU Information
Operating System Microsoft Windows XP
DirectX Version 9.0c
Mobo Manufacturer ASUSTeK Computer INC.
Mobo Model A8N-SLI DELUXE
AGP Rates (Current/Available) 16x / N/A
CPU AMD Athlon(tm) 64 X2 2213 MHz
Physical / Logical CPUs 1 / 2
MultiCore 2 Processor Cores
HyperThreading Not Available
FSB 200 MHz
Memory 3072 MB

Display Information
Graphics Chipset NVIDIA GeForce 7800 GTX
Driver Name NVIDIA GeForce 7800 GTX
Driver Version 8.2.1.2
Driver Status Non WHQL - Not FM Approved
Co-operative adapters No
Video Memory 256 MB
Core Clock 450 MHz
Memory Clock 1197 MHz

Benchmark Settings
Default Settings Yes
Program Version 3DMark06 Revision 0 Build 2
Resolution 1280x1024
Anti-Aliasing None
Texture Filtering Optimal
Vertex Shader Profile 3_0
Pixel Shader Profile 3_0
Force Full Precision No
Disable Post-processing No
Force Software Vertex Shaders No
Force Software FP Filtering No
Disable HW Shadow Mapping No
Color Mipmaps No
Repeat Count Off
Fixed Framerate Off

Main Test Results
3DMark Score 4261 3DMarks
SM 2.0 Score 1706 Marks
SM 3.0 Score 1706 Marks
CPU Score 1694 Marks

Detailed Test Results

Graphics Tests
1 - Return to Proxycon 13.4 FPS
2 - Firefly Forest 15.0 FPS

CPU Tests
1 - Red Valley 0.536 FPS

HDR Tests
1 - Canyon Flight (SM 3.0) 14.6 FPS
2 - Deep Freeze (SM 3.0) 19.5 FPS

Feature Tests
Fill Rate - Single Texturing N/A
Fill Rate - Multi Texturing N/A
Pixel Shader N/A
Vertex Shader - Simple N/A
Vertex Shader - Complex N/A
Shader Particles (SM 3.0) N/A
Perlin Noise (SM 3.0) N/A

Batch Size Tests
8 Triangles N/A
32 Triangles N/A
128 Triangles N/A
512 Triangles N/A
2048 Triangles N/A
32768 Triangles N/A

MiKeLezZ
21-01-2006, 13:36
Qualcuno è in grado di dimostrarmi che la qualità video ATI sia migliore di NVIDIA?

andreamarra
21-01-2006, 13:53
Metti l'AGP aperture size a 128mb e poi vedi. :)


494 punti :sofico: :cool:!

MaBru
21-01-2006, 14:08
494 punti :sofico: :cool:!
Pensavo qualcosina di più. :fagiano: :D

Hal2001
21-01-2006, 15:25
poi, certo, i nonni giurassici usano ancora la 1024, magari su un bel CRT di 8 anni fa che gli brucia le retine con i raggi x

Questa è comica.

Hal2001
21-01-2006, 15:38
Qualcuno è in grado di dimostrarmi che la qualità video ATI sia migliore di NVIDIA?

Volevo stare zitto perché non ho dati attendibili in mano per poterlo assicurare, ma i miei occhi mi confortano della cosa.
C'è chi dice che sia solo una questione di impostazioni, ma io non sono mai riuscito. Così come penso che a tutt'ora le Matrox nel 2D siano un passo avanti.

Hal2001
21-01-2006, 15:38
La versione in download da questo sito è ancora corrotta? Posso scaricarla tranquillamente?

JohnPetrucci
21-01-2006, 17:02
Scusate ma cosa centra uno spot dell' Asus EAX X1800XT TOP, con un articolo su un benchmark? :confused:
E poi perchè viene usata una X1800XT overcloccata di fabbrica e le altre schede a default?
Come mai non compare la 7800GT, diretta concorrente della X1800XL?
Spero aggiorniate la recensione.

Nel frattempo ho trovato questi bench sulla rete, ove si può fare un paragone più realistico con la X1800XT con frequenze standard e non overcloccata dalla Asus.



A me è arrivata ieri :asd:

E a tal proposito guarda qui:

http://img29.imageshack.us/img29/5844/3dmark06sm28nf.gif (http://imageshack.us)

http://img29.imageshack.us/img29/4748/3dmark06sm37te.gif (http://imageshack.us)

http://img29.imageshack.us/img29/9788/3dmark06sm3detail4zs.gif (http://imageshack.us)

La X1800XT sulla 7800GT ha un vantaggio risibile se confrontato alla differenza di prezzo. 2 o 3 fotogrammi al secondo, mamma mia... :doh:
Addirittura nel test HDR2 la X1800XT sta sotto di un fotogramma rispetto alla 7800GT.

Di seguito il mio risultato con la Galaxy 7800GT:

http://img14.imageshack.us/img14/370/senzatitolo45nf.gif (http://imageshack.us)

http://img361.imageshack.us/img361/6629/senzatitolo66zq.gif (http://imageshack.us)
Ho letto l'articolo solo oggi, e mi pongo gli stessi interrogativi..... :confused:
Oltre a sottolineare i grafici postati da bartolino3200.

andreamarra
21-01-2006, 17:24
Ho letto l'articolo solo oggi, e mi pongo gli stessi interrogativi..... :confused:
Oltre a sottolineare i grafici postati da bartolino3200.


una applicazione particolare può affossare indistintamente ati o nvidia, così come una particolare applicazione può esaltare ati o nvidia.

Non ha senso, per me, dire che nel 3d mark 2006 la GT va un paio di fps in meno di una X1800XT. Perchè se uno vede i giochi (che sono il motivo principale per il quale uno compra le schede video, almeno spero :D) la GT sta abbondantemente sotto la X1800XT.

La stessa GTX 256 che a risoluzioni "umane" e nessun filtro tiene benissimo testa alla XT, con risoluzioni alte e filtri gli va sotto.

Può essere che il 2006 implementa qualcosa che rende la vita più facile alle nvidia che non alle ati, che ne escono "penalizzate".

Ma alle volte basta una "stronzatina" tipo uno shader scritto in un modo particolare per affossare letteralmente nvidia o ati, e magari lo stesso shader (qualitativamente identico ma scritto in modo diverso) esalta uno o l'altra.

Pensa a Doom3, dove con una versione nuova dei catalyst le prestazioni sulle ati erano notevolmente migliori rispetto a quelle con driver di un mese fa.

MiKeLezZ
21-01-2006, 18:09
Volevo stare zitto perché non ho dati attendibili in mano per poterlo assicurare, ma i miei occhi mi confortano della cosa.
C'è chi dice che sia solo una questione di impostazioni, ma io non sono mai riuscito. Così come penso che a tutt'ora le Matrox nel 2D siano un passo avanti.
Sì l'ho sentito anche io.
Molti ne parlano, ma a me piacerebbe aver conferme o smentite.
Se solleviamo la questione, è possibile anche tutelarsi, o far cambiare le cose.
Altrimenti rimangono "secondo me" poco chiari.

andreamarra
21-01-2006, 18:15
Sì l'ho sentito anche io.
Molti ne parlano, ma a me piacerebbe aver conferme o smentite.
Se solleviamo la questione, è possibile anche tutelarsi, o far cambiare le cose.
Altrimenti rimangono "secondo me" poco chiari.


sono in molti ad essere passati da nvidia ad ati o viceversa e aver detto che la qualità visiva complessiva, i colori e i filtri (AA e anisotropico) nelle ati sia superiore.

Altrimenti se fossero stati dei semplici "secondo me" allora perchè io non ho mai letto di nessuno che passando da ati a nvidia o viceversa ha detto "la qualità visiva di nvidia è superiore"?

Poi può anche essere suggestione, per carità :)!

p.s. io sono passato da geppo2mx a 9700pro, ovviamente non posso fare confronti... :D

MadRat
21-01-2006, 19:05
@ MiKeLezZ

Ho dimostrato a piu' riprese che nel 3DM05 nVidia qualitativamente fa schifo!! e non ho detto e' inferiore, ho detto che fa schifo (usera' si e no la meta' dei colori rispetto ad ATI). :)
QUesto non toglie che il fenomeno si ripete da entrambe le parti, ATI perde molto con altri titoli.

Ora chiedo un po' a tutti, qualcuno ha un 3DM06 originale?? mi serve lo shot del frame 270 in alta qualita' con aniso 16x ed uno dello stesso frame, ma senza. (ovviamente rigorosamente in BMP).

MadRat
21-01-2006, 19:10
no, ricordi benissimo; infatti i conti tornano; è stato fatto soprattutto quello (l'esempio della mappa canals è emblematico: li il vantaggio di ATi era enorme), con in più un piccolo riordino dei dati e qualche operazioni di shader replacement. Altro esempio può essere quello relativo a NV30 e al 3dmark2003: là erano sufficienti non più di 3 istruzioni fp per far crollare le prestazioni di oltre il 40% (vero che nv30 aveva seri problemi con la gestione di istruzioni fp e, soprattutto, fp32, mentre nel caso di NV40/G70 non si tratta di problemi ma di scelte di ottimizzazione di una precisione di calcolo rispetto ad un'altra).

Dunque facendo due calcoli approssimativi, se ottimizzando HL2 da fp32 a 16 si sono ottenuti aumenti del 20%, si deve dedurre che il 100% del codice di HL2" facesse uso "solo" di calcoli in fp32 ed ora di solo in fp16 e che nel calcolo delle prestazioni, non ci sia stata nemmeno una componente CPU, o che altrimenti il calo prestazionale degli NV4x in FP32 sia tipo dell'80%.
Cosa mi sfugge?? :-/

killer978
21-01-2006, 19:45
Ho letto l'articolo solo oggi, e mi pongo gli stessi interrogativi..... :confused:
Oltre a sottolineare i grafici postati da bartolino3200.

Dai troppo peso al 3Dmerd secondo me :rolleyes:
Io guardo i test fatti sui giochi credo siano + attendibili ;) Cmq resta il fatto che la 7800GT resta un ottimo acquisto! sarebbe bello trovare anche le X1800XL a quel prezzo :muro:

yossarian
21-01-2006, 20:23
Dunque facendo due calcoli approssimativi, se ottimizzando HL2 da fp32 a 16 si sono ottenuti aumenti del 20%, si deve dedurre che il 100% del codice di HL2" facesse uso "solo" di calcoli in fp32 ed ora di solo in fp16 e che nel calcolo delle prestazioni, non ci sia stata nemmeno una componente CPU, o che altrimenti il calo prestazionale degli NV4x in FP32 sia tipo dell'80%.
Cosa mi sfugge?? :-/

in canals il calo era ben superiore al 20%, se è per questo (anche perchè, in quella mappa è stato necesario anche un riordino di shader, nonchè operazioni di shader replacement).

In ogni caso, NV40 arriva a 19 flops e 3 istruzioni a fp16 e 12 flops e 2 istruzioni (se no ricordo male) a fp32. Quindi il calo è ben superiore al 20%.

Ho l'impressione che te ne debba fare una ragione: G70, con fp32, perderà, nella migliore delle ipotesi, il 20%

JohnPetrucci
21-01-2006, 23:40
Dai troppo peso al 3Dmerd secondo me :rolleyes:
Io guardo i test fatti sui giochi credo siano + attendibili ;) Cmq resta il fatto che la 7800GT resta un ottimo acquisto! sarebbe bello trovare anche le X1800XL a quel prezzo :muro:
Tranquillo, so bene che il 3dmerd spesso non ha molto di reale sul piano games.
Però omettere i risultati della 7800gt, e fare i test con una x1800xt pompata in overclock di fabbrica rispetto alle altre in freq. standard, dedicandogli pure una pagina su un articolo come questo pone dei dubbi. ;)

MadRat
22-01-2006, 07:49
in canals il calo era ben superiore al 20%, se è per questo (anche perchè, in quella mappa è stato necesario anche un riordino di shader, nonchè operazioni di shader replacement).

In ogni caso, NV40 arriva a 19 flops e 3 istruzioni a fp16 e 12 flops e 2 istruzioni (se no ricordo male) a fp32. Quindi il calo è ben superiore al 20%.

Ho l'impressione che te ne debba fare una ragione: G70, con fp32, perderà, nella migliore delle ipotesi, il 20%

Sono dispostissimo a farmi tutte le gragioni che vuoi, tuttavia, quel che ho detto resta inconfutabile, ovvero:
Abbiamo un teorico calo del 30% con l'utilizzo della precisione FP32 in HL2, si deve innanzitutto considerare quanto gli shader in FP32 pesino nel gioco, poniamo (inventando, tanto per dare un numero sul quale lavorare) un teorico 50% del totale (credo di essere stato generoso nel darlo, ma non so nemmeno come sia fatta la mappa canal, se sbaglio percentuali correggimi), ci troviamo percio' di fronte ad una situazione chiara, perdere il 60% di questo 50% per perdere il 30% del totale. Il 60%?? non ti sembra eccessivo?? Senza considerare che molti shader non possono esser passati alla precisione fp16, perche' vi sarebbe stato un degrado qualitativo (mentre, visivamente, non e' cambiato nulla). Dunque arriviamo ad ipotizzare perdite prestazionali in tale passaggio nell'ordine dell'80% (ponendo un 20 lasciato in fp32).
Non mi sembra plausibile. Ritengo probabile che sia stato cambiato anche altro, del resto HL2 e' molto "ATI", e' probabile dunque che vi sia stata un'ottimizzazione generica per l'architettura nVidia (un po' come credo abbia fatto ATI per Doom3[almeno a giudicare dai risultati]).

yossarian
22-01-2006, 08:18
Sono dispostissimo a farmi tutte le gragioni che vuoi, tuttavia, quel che ho detto resta inconfutabile, ovvero:
Abbiamo un teorico calo del 30% con l'utilizzo della precisione FP32 in HL2, si deve innanzitutto considerare quanto gli shader in FP32 pesino nel gioco, poniamo (inventando, tanto per dare un numero sul quale lavorare) un teorico 50% del totale (credo di essere stato generoso nel darlo, ma non so nemmeno come sia fatta la mappa canal, se sbaglio percentuali correggimi), ci troviamo percio' di fronte ad una situazione chiara, perdere il 60% di questo 50% per perdere il 30% del totale. Il 60%?? non ti sembra eccessivo?? Senza considerare che molti shader non possono esser passati alla precisione fp16, perche' vi sarebbe stato un degrado qualitativo (mentre, visivamente, non e' cambiato nulla). Dunque arriviamo ad ipotizzare perdite prestazionali in tale passaggio nell'ordine dell'80% (ponendo un 20 lasciato in fp32).
Non mi sembra plausibile. Ritengo probabile che sia stato cambiato anche altro, del resto HL2 e' molto "ATI", e' probabile dunque che vi sia stata un'ottimizzazione generica per l'architettura nVidia (un po' come credo abbia fatto ATI per Doom3[almeno a giudicare dai risultati]).

te l'ho detto: è stato fatto anche shader replacement e riordino delle istruzioni (leggi qualche post sopra)

LimohetfielD
22-01-2006, 11:47
Forse la mia richiesta è stupida (e non ho la possibilità di guardare tutte le 30 pagine del thread), ma esiste la possibilità di scaricare i filmati del test? Giusto per vedere la qualtià del dettaglio...

Circochecco
22-01-2006, 12:37
Premetto che sono un felice possessore di un sistema formato da mobo msi k8n diamond sli, procio amd64 3500+, nvidia 7800gt.
Ebbene mi sono reso conto, facendo qualche pova che, a parità di scena riprodotta, il 3dmark 2006 si comporta in modo alquanto differente dal 2005.
Pur riducendo la qualità video, intervenendo su risoluzione e filtraggio, anche a 800*600 con filtragio bilineare l'aumento di framerate è davvero modesto (dai 6 agli 11 frame grossomodo, a seconda della scena riprodotta).
Potrei sbagliarmi, ma questo potrebbe essere l'indice di una situazione cosiddetta CPU limited.
Possibile che il numero dei poligoni o la qualità della fisica siano aumentati in modo così vertiginoso (considerato che il 2005 è praticamente "gratis", sul mio sistema)?
Sinceramente non lo credo. Credo invece che ci siano state pesanti ottimizzazioni per le tecnologie dual core, e che a questo punto sia paradossalmente davvero poco indicativo della potenza del sistema video.
Tutto IHMO, ovviamente.

max709
22-01-2006, 13:36
@ MiKeLezZ

Ho dimostrato a piu' riprese che nel 3DM05 nVidia qualitativamente fa schifo!! e non ho detto e' inferiore, ho detto che fa schifo (usera' si e no la meta' dei colori rispetto ad ATI). :)
QUesto non toglie che il fenomeno si ripete da entrambe le parti, ATI perde molto con altri titoli.

Ora chiedo un po' a tutti, qualcuno ha un 3DM06 originale?? mi serve lo shot del frame 270 in alta qualita' con aniso 16x ed uno dello stesso frame, ma senza. (ovviamente rigorosamente in BMP).
se mi spieghi come si fa' volentieri..
ho il 3d06 advance

MadRat
22-01-2006, 17:16
se mi spieghi come si fa' volentieri..
ho il 3d06 advance

Non e' difficile, vai su image quality, inserisci 270 al posto di 2.095 su single frame e poi "run".
Fallo con ani 16 e senza. poi scrivimi in PVT che ti dico dove mandarli. Grazie!!

LightForce
22-01-2006, 17:51
ho fatto 1486pti , nn è un po poco in base alla mia config? :mbe:

nonso
22-01-2006, 18:37
ho fatto 1486pti , nn è un po poco in base alla mia config? :mbe:

E' poco sì... Io con la config in signature faccio 1600 pti!

mjordan
22-01-2006, 18:46
ho fatto 1486pti , nn è un po poco in base alla mia config? :mbe:

Si ma hai una scheda con 128MB di ram...

LightForce
22-01-2006, 18:52
Si ma hai una scheda con 128MB di ram...

ke test del cakkio,in un gioko normale nn cambia nulla averne 256 :rolleyes:

halduemilauno
22-01-2006, 18:52
ho fatto 1486pti , nn è un po poco in base alla mia config? :mbe:

è gia quella a 16/6? se no cerca di portarcela.
;)

nonso
22-01-2006, 19:12
Si ma hai una scheda con 128MB di ram...
Anche la mia è una 128, ed inoltre è la versione "liscia", 12pipe, 5@6 vertex

killer978
22-01-2006, 19:57
ke test del cakkio,in un gioko normale nn cambia nulla averne 256 :rolleyes:

Spero tu stia scherzando! :mbe:
Gli ultimi titoli incominciano a richiedere 512Mb specie con HDR attivo ;) BF2, F.E.A.R. , NFSMW ecc... ecc.. ci vojono almeno 256mb x giocare decentemente

LightForce
22-01-2006, 21:17
è gia quella a 16/6? se no cerca di portarcela.
;)


è quella 16/6 ;)

LightForce
22-01-2006, 21:17
Spero tu stia scherzando! :mbe:
Gli ultimi titoli incominciano a richiedere 512Mb specie con HDR attivo ;) BF2, F.E.A.R. , NFSMW ecc... ecc.. ci vojono almeno 256mb x giocare decentemente

512? :eek: :eek:

killer978
22-01-2006, 21:56
512? :eek: :eek:

Hai mai provato ad attivare l'HDR? prova poi mi fai sapere :asd:

killer978
22-01-2006, 22:55
Qualcuno è in grado di dimostrarmi che la qualità video ATI sia migliore di NVIDIA?

http://www.hwupgrade.it/articoli/skvideo/1419/5.html

:asd:

Leggi a fine pagina :doh:

Non leggere tutti test altrimenti ti fai il fegato amaro :D

Qui trovi un riepilogo dei punti x test

http://www.hwupgrade.it/articoli/skvideo/1419/14.html

MiKeLezZ
23-01-2006, 00:20
http://www.hwupgrade.it/articoli/skvideo/1419/5.html

:asd:

Leggi a fine pagina :doh:

Non leggere tutti test altrimenti ti fai il fegato amaro :D

Qui trovi un riepilogo dei punti x test

http://www.hwupgrade.it/articoli/skvideo/1419/14.html
Grazie. Questo spiega in parte " l'impastamento ".
Ma le diverse tonalità, colori più saturi, ecc, a me non sembra, o sbaglio?
Alcuni ragazzi (o forse solo uno) han detto che han dovuto far parecchie calibrazioni, per poi ritrovarsi con una riproduzione non perfettamente fedele.
Comunque in effetti un po' mi vien da mangiarmi le mani

Smemo
23-01-2006, 00:26
http://www.hwupgrade.it/articoli/skvideo/1419/5.html

:asd:

Leggi a fine pagina :doh:

Non leggere tutti test altrimenti ti fai il fegato amaro :D

Qui trovi un riepilogo dei punti x test

http://www.hwupgrade.it/articoli/skvideo/1419/14.html


Azz "ati: 10 nvidia: 5" :eek:

r4ven
23-01-2006, 01:28
ecco qua il rislutato con il pc in sign:
http://img27.imageshack.us/img27/9029/b0mq.th.jpg (http://img27.imageshack.us/my.php?image=b0mq.jpg)

bronzodiriace
23-01-2006, 03:55
ragazzi ma è normale che nel test con il drago che esce dall'acqua ed attacca la mongolfiera ci siano delle colorazioni viola assurde?

la vga è una x1800xt

tonaz
23-01-2006, 04:38
ciao raga


amd64 3.800 venice
geforce GTX7800
2 GB vitesta

un 3720 come lo vedete? normale? i test sulla cpu mi andavano da ZERO al max a 2 fps... normale? thx

Free Gordon
23-01-2006, 10:15
http://www.hwupgrade.it/articoli/skvideo/1419/5.html

:asd:

Leggi a fine pagina :doh:

Non leggere tutti test altrimenti ti fai il fegato amaro :D

Qui trovi un riepilogo dei punti x test

http://www.hwupgrade.it/articoli/skvideo/1419/14.html


Urca! :eek: E pensare che su Anandtech avevo letto una rece che diceva il contrario.
Mi fido di più di Vifani però! :D

Smemo
23-01-2006, 11:13
ragazzi ma è normale che nel test con il drago che esce dall'acqua ed attacca la mongolfiera ci siano delle colorazioni viola assurde?

la vga è una x1800xt


:confused:

??? fai una screen ???

Luxor83
23-01-2006, 12:35
Io ho fatto 1112 punti con la 9800Xt.
Come detto nell'altro 3d sono molto soddisfatto.

http://img33.imageshack.us/img33/2090/risultato7hw2ma.th.jpg (http://img33.imageshack.us/my.php?image=risultato7hw2ma.jpg)

bronzodiriace
23-01-2006, 13:23
:confused:

??? fai una screen ???
smemo lo faccio premendo stamp?

Smemo
23-01-2006, 13:34
smemo lo faccio premendo stamp?


si, magari lo fai un paio di volte veloce per essere sicuro :D, poi incolli su paint, salvi in jpg, lo metti su imageshack e linki ;)

bronzodiriace
23-01-2006, 13:36
si, magari lo fai un paio di volte veloce per essere sicuro :D, poi incolli su paint, salvi in jpg, lo metti su imageshack e linki ;)
si si tranquillo
;)lo so fare
:D

ora sto scaricando l exe del 3dmark2006 da altro sito.
Speriamo che era corrotto il file che avevo precedentemente scaricato

MiKeLezZ
23-01-2006, 14:38
Urca! :eek: E pensare che su Anandtech avevo letto una rece che diceva il contrario.
Mi fido di più di Vifani però! :D
Quella recensione era giustissima.
Solo che tutte le cose vanno contestualizzate, quella a cui ti riferisce era stata fatta tempo fa, con driver chiaramente vecchi.
Questa è stata fatta con i nuovi driver, che vanno proprio a risolvere quei problemi.
Inoltre, anandtech aveva presagito che i nuovi driver miglioravano la situazione, e si erano ripromessi di rifare i test.
Quindi evitiamo di spalar merda, ed osannare.. sopratutto visto che nessuno ha risposto alle domande mie e di bartolino, che tirano fuori questioni davvero molto nebulose all'interno di questa pseudo recensione

bronzodiriace
23-01-2006, 15:01
allora se levo qualsiasi fitlro dal ccc ho questo difetto nel canyon flight


poi ho provato con i filtri ed andava tutto bene



http://xs65.xs.to/pics/06041/markduemilasei.JPG

DjLode
23-01-2006, 15:16
Che schifo :eek:
Sembra un difetto di visualizzazione dell'illuminazione. Strano però che tu sia il primo (che leggo io) ad averlo.
Potresti provare a levare il CCC e ad usare Ati Tray Tools, tanto per vedere se è un problema di qualche impostazione del CCC. Ma è la prima e unica cosa che mi viene in mente ora.

bronzodiriace
23-01-2006, 15:20
Che schifo :eek:
Sembra un difetto di visualizzazione dell'illuminazione. Strano però che tu sia il primo (che leggo io) ad averlo.
Potresti provare a levare il CCC e ad usare Ati Tray Tools, tanto per vedere se è un problema di qualche impostazione del CCC. Ma è la prima e unica cosa che mi viene in mente ora.
si a sto punto provo a installare solo i driver della vga e del vivo.
il ccc lo lascio perdere ed utilizzo l ati tray tool

Lore85bg
23-01-2006, 15:24
hai già provato ad usare i 6.1? magari ti cambia qualcosa...

bronzodiriace
23-01-2006, 15:42
hai già provato ad usare i 6.1? magari ti cambia qualcosa...
si catalyst 6.1
ho anche disinstallato il ccc e messo ati tray tool, ma nulla.
Non capisco cosa possa essere.
Con filtri e settaggi , quindi in condizioni con le quali gioco,non mi fà questo difetto :(

Lore85bg
23-01-2006, 16:51
e con quelli precedenti? avuto problemi?

bronzodiriace
23-01-2006, 18:25
e con quelli precedenti? avuto problemi?
3dmark 2005 nessun problema
idem 2003 e 2001 ;)

anche con i catalyst 5.13 stesso difetto nel fly canion

killer978
23-01-2006, 18:48
Azz "ati: 10 nvidia: 5" :eek:

Veramente una 7800GTX con codec a pagamento "Pure Video" si vede peggio di una X300SE :asd: senza codec sono inguardabili ;)

mjordan
23-01-2006, 19:49
ke test del cakkio,in un gioko normale nn cambia nulla averne 256 :rolleyes:

E' un test del cacchio finuando continui a farlo girare su quella scheda. C'è tanto scritto che questo test non è indirizzato a quelle schede... :muro:

tonaz
23-01-2006, 21:21
ciao raga


amd64 3.800 venice
geforce GTX7800
2 GB vitesta

un 3720 come lo vedete? normale? i test sulla cpu mi andavano da ZERO al max a 2 fps... normale? thx


grazie per il supporto :rolleyes:

Smemo
23-01-2006, 21:29
grazie per il supporto :rolleyes:


Dovrebbe risponderti uno con la suddetta scheda! Cmq quel punteggio mi sembra sulla norma per la gtx! :cool:

DaMage
23-01-2006, 22:07
io con il sis in sign faccio solo 3440
potrebbe essere la ram che sta solo a 170mhz?
(lo score della cpu è 920)

bronzodiriace
23-01-2006, 23:11
ragazzi ma potrebbero essere le directx che sto utilizzando?
sono quelle del service pack 2

MaBru
23-01-2006, 23:33
ragazzi ma potrebbero essere le directx che sto utilizzando?
sono quelle del service pack 2
Prova l'update di dicembre 2005

bronzodiriace
23-01-2006, 23:45
Prova l'update di dicembre 2005
mmmm link :D

riokbauto
24-01-2006, 08:50
grazie per il supporto :rolleyes:

System and CPU Information
Operating System Microsoft Windows XP

DirectX Version 9.0c

Mobo Manufacturer ASUSTeK Computer INC.

Mobo Model P5WD2-Premium

AGP Rates (Current/Available) 16x / N/A

CPU Intel Pentium 4 3415 MHz

Physical / Logical CPUs 1 / 2

MultiCore 1 Processor Core

HyperThreading Available - 2 Logical Processors

FSB 200 MHz

Memory 1024 MB



Display Information
Graphics Chipset NVIDIA GeForce 7800 GTX

Driver Name NVIDIA GeForce 7800 GTX

Driver Version 8.1.9.8

Driver Status WHQL - FM Approved

Co-operative adapters No

Video Memory 256 MB

Core Clock 450 MHz

Memory Clock 1197 MHz



Benchmark Settings
Default Settings Yes

Program Version 3DMark06 Revision 0 Build 2

Resolution 1280x1024

Anti-Aliasing None

Texture Filtering Optimal

Vertex Shader Profile 3_0

Pixel Shader Profile 3_0

Force Full Precision No

Disable Post-processing No

Force Software Vertex Shaders No

Force Software FP Filtering No

Disable HW Shadow Mapping No

Color Mipmaps No

Repeat Count Off

Fixed Framerate Off



Main Test Results
3DMark Score 3986 3DMarks

SM 2.0 Score 1784 Marks

SM 3.0 Score 1730 Marks

CPU Score 1045 Marks



Detailed Test Results


Graphics Tests
1 - Return to Proxycon 13.9 FPS

2 - Firefly Forest 15.83 FPS



CPU Tests
CPU1 - Red Valley 0.33 FPS

CPU2 - Red Valley 0.53 FPS



HDR Tests
1 - Canyon Flight (SM 3.0) 15.136 FPS

2 - Deep Freeze (SM 3.0) 19.467 FPS

Hal2001
24-01-2006, 19:09
Quindi evitiamo di spalar merda, ed osannare.. sopratutto visto che nessuno ha risposto alle domande mie e di bartolino, che tirano fuori questioni davvero molto nebulose all'interno di questa pseudo recensione

Cosa vuoi sapere di preciso? E da parte di chi?

killer978
24-01-2006, 20:05
Sempre parlando di qualità video tra ATI vs Nvidia :asd:

Risultati HQV Benchmark (è un test sulla qualità video)

http://www.hwupgrade.it/articoli/skvideo/1422/19.html

Leggete sotto il totale :asd:

MiKeLezZ
24-01-2006, 23:49
Cosa vuoi sapere di preciso? E da parte di chi?
|
V1) cosa centra uno spot dell' Asus EAX X1800XT TOP, con un articolo su un benchmark?
2) perchè viene usata una X1800XT overcloccata di fabbrica e le altre schede a default?
3) come mai non compare la 7800GT, diretta concorrente della X1800XL?

Spero aggiorniate la recensione.

bjt2
25-01-2006, 11:02
Per il punto 3 posso rispondere io:

Nella prova della nuova X1900XT/XTX è specificato che non la hanno comparata alla 7800GT e alla GTX 256 per mancanza di esemplari (probabilmente li hanno dovuti restituire dopo le prove fatte)... Immagino che non l'abbiano avuta neanche in occasione di questo test...

Firedraw
29-03-2006, 07:42
Azz...... compro la 9600 pro ed esce il 2003 che me la butta a 3500 pt. Sto per prendere uan 6800GT, ed esce il 2006 ceh me la butta a 2500 :D. MEnomale che me ne frego dei 3dmark :D.

P.S. 6800GT usata, 170€. Non spenderò ma più una cifra che si avvicini ai 200€ per una vga.

Cmq per chi si lamenta del favoritismo verso nvidia del 2006, è stato detto più volte che il problema delle ati è che non hanno l'hw per far girare determinati test, quindi è inutile che state li a denunciare complotti, coalizioni e roba varia!!

Free Gordon
29-03-2006, 13:04
Quindi evitiamo di spalar merda, ed osannare.. sopratutto visto che nessuno ha risposto alle domande mie e di bartolino, che tirano fuori questioni davvero molto nebulose all'interno di questa pseudo recensione


:confused: ma di cosa stai parlando?

cthulu
27-04-2006, 23:42
una domandina veloce sul 3Dmark2006:

Solo ora vedo che il test "shaders particles" è disattivato (è scritto in grigio chiaro..) e scritto N/A.
perchè non posso eseguirlo ?

adario73
28-04-2006, 10:10
Azz...... compro la 9600 pro ed esce il 2003 che me la butta a 3500 pt. Sto per prendere uan 6800GT, ed esce il 2006 ceh me la butta a 2500 :D. MEnomale che me ne frego dei 3dmark :D.

P.S. 6800GT usata, 170€. Non spenderò ma più una cifra che si avvicini ai 200€ per una vga.

Cmq per chi si lamenta del favoritismo verso nvidia del 2006, è stato detto più volte che il problema delle ati è che non hanno l'hw per far girare determinati test, quindi è inutile che state li a denunciare complotti, coalizioni e roba varia!!
tirala un po' su questa 6800GT !
io con la 6800GS ( pci ex ) tiratella ottengo 3000 ...
anche io me ne frego dei bench, e per ora quando gioco la tengo a def !