PDA

View Full Version : 3D Mark e driver nVidia: la saga continua


Redazione di Hardware Upg
25-03-2003, 11:16
Link alla notizia: http://news.hwupgrade.it/9607.html

Futuremark ha ufficialmente annunciato di non accettare risultati del proprio benchmark ottenuti con alcune versioni beta dei driver nVidia

Click sul link per visualizzare la notizia.

Aryan
25-03-2003, 11:21
Come sempre...

falcon.eddie
25-03-2003, 11:24
In effetti era auspicabile...

Mav1981
25-03-2003, 11:25
Che fanno Barano?

falcon.eddie
25-03-2003, 11:27
Chi era che diceva che futuremark e nvidia andavano a braccetto? Fatevi avanti ora... ;) !
Ora verrà fuori che qualcuno dirà futuremark è in accordi con ATI... :?

Deuced
25-03-2003, 11:27
io il 3dmark 2003 l'ho trovato inutile,occupava solo spazio.In parte sono d'accordo con la futuremark,ma nvidia nonstante abbia criticato il bench poi ottimizza i driver per strappare qualche punticino in più :confused: Almeno prendessero una posizione chiara

falcon.eddie
25-03-2003, 11:41
Get an Alienware

^TiGeRShArK^
25-03-2003, 12:19
Io ero uno di quelli ke diceva ke madonion e nvidia andavano a braccetto... e nn ti preoccuapre xkè quello ke dicevo io lo dicevo con cognizione di causa, basandomi su informazioni REALI. Infatti, se tu ti fossi informato 1 pokino, prima di polemizzare, avresti visto ke in effetti nvidia faceva parte del consorzion con madonion (nn so bene se era un consorzio o qlcosa di simile xkè di cose finanziarie nn me ne intendo molto...) cmq fatto sta ke a dicembre si è avuta una "SCISSIONE" fra futuremark e nvidia, e qdi mi pare giusto ke al giorno d'oggi, visto ke le due aziende nn lavorano più insieme, si abbiano queste beghe.... e d'altra parte futuremark nn ha torto, in qto poikè questi driver sono solo beta, nn hanno ricevuto la certificazione WHQL e qdi nn si può sapere cosa realmente sia stato modificato x aumentarne i punteggi (x l'ennesima volta ricordo ke si parlava di riduzione forzata della precisione della pipeline a 64 bit, cosa ke ovviamente contravviene alle spicifiche dx9...)

carlos
25-03-2003, 12:32
PrimaNvidia mette i phon nelle sue schede, ora bara vergognosamente, Ati la sta massacrando.

Dox
25-03-2003, 12:36
be be ... allora ati non è che abbia una scheda decisamente meglio della NV 30 , R350 va poco meglio e in qualche raro caso va decosamente meglio (Anti Aliasing a parte) resta il fatto che ATI RULESSSS

W ATI

Maury
25-03-2003, 12:53
Originally posted by "Dox"

Anti Aliasing a parte

Come AA a parte... ?

L'AA è fondamentale con queste schede!! :)

falcon.eddie
25-03-2003, 13:03
Tigershark io sono informato...ti ricordo che chi sosteneva del connubio nvidia/futuremark lo sosteneva anche a febbraio con l'uscita del teaser del 3dmark dicendo che non sarebbe uscito fino all'arrivo della FX poichè si diceva che tra le due case c'erano ANCORA accordi...guarda i post e capirai anche tu...Io non polemizzo io vendo hardware(ogni giorno parlo/discuto con fornitori e distributori paralleli) e c'è tanta disinformazione in giro.Non ho MAI detto che futuremark non abbia ragione ho solo scritto quello che in molti dicevano ai tempi dell'uscita del 3dmark03...(anche gennaio/febbraio).
Cmq tantissimi consorzi hanno collaborato con la madonion per l'uscita dei vari 3dmark non solo nvidia,a me che me frega di polemizzare. ;)

Rob80
25-03-2003, 13:12
Beh complimenti, dei post intelligenti e argomentati (finalmente) :-D
Vorrei solo aggiungere cmq che anche questo e'un ulteriore danno all'immagine di invidia, che ha già subito da un punto di vista marketing moltissima credibilità, soprattutto fra gli appassionati.
Spero la smetttano di ostentare loghi & paragoni vari e si mettano a fare piu' concorrenza ad ati che per ora vince su tutti i fronti..
9800pro su 5800ultra
9600pro su 5600ultra
..tranne quello entry-level dove secondo me la 5200 ultra e non ha un ottimo rapporto prezzo/prestazioni ed è migliore tecnologicamente della 9200 (uscirà a breve) /9100 (ex 8500 molto downcloccata) /9000 (scehda attuale)..

Rob80
25-03-2003, 13:14
vabè ho scritto troppo velocemente ;-)

OverClocK79®
25-03-2003, 13:44
mi sembra una buffonata
è da anno che ci sono driver ottimizzati solo per 3dmark e adesso solo perchè nvidia pubblica ciò
urlano allo scandalo.........

nn siamo mika scemi
è logico che se un driver aumenta solo le prestazioni del 3dmark e nulla nei gioki è scritto apposta......
ma come nvidia pure quelli ATi fanno lo stesso

BYEZZZZZZZZZZ

Aryan
25-03-2003, 14:01
Ognuno fa i suoi interessi...
Anche ATI ottimizza i driver per funzionare meglio con alcuni giochi in particolare(vedi UT2003, ecc...). Daltronde la gente prende certi punti di riferiento come 3dmark, quake3, ut2033, ecc... quindi ognuno tira l'acqua al proprio mulino...

Wonder
25-03-2003, 14:07
Allora non è vero che il 3dmark 2003 guarda solo che scheda hai, poi fa girare i giochini per perdere tempo, e poi tira fuori un risultato fisso per ogni scheda....sbav

air_luke
25-03-2003, 15:25
Per fortuna che dovrebbero essere ottimizzati per il 3dmark 2003! e' un supplizio farlo con una ti4200 128mb ddr anche se overclockata. vabbe' che non e' una dx 9.0 hardware compatibile, pero'....

clockline
25-03-2003, 19:06
veramente un lavoro fatto da cani! il motore dei game e troppo pesante, ci hanno lavorato troppo poco, o male.
un uso spropositato di poligoni ( grave pecca per un programmatore esperto) texture in molti casi poco definite, e DX9 poco sfruttate.
pensavo sinceramente molto meglio questo attesissimo 3dmark, mi ha deluso moltissimo, sia dal tunto di vista qualitativo che tecnico.
con le schede video che ci sono oggi in commercio si poteva fare mooolto di meglio.
il secondo motore grafico che odio dopo quello di unreal.

marziodivx
25-03-2003, 19:31
x me sbagliate...i driver ke ottimizzano la velocità dei gioki e del 3d marck è xkè lo fà in tutti e due i casi.
se uscisse un driver nuovo dove rispetto al precedente è ottimizzato x il 3d marck allora è una bufala bella e buona.

marziodivx
25-03-2003, 19:36
kosa vuoi pretendere. non possono mika sfruttare al massimo le DX9.

è logico ke i gioki di un anno fà ke sfruttano le DX8 sono peggio di quelli di adesso ke ankora le usano.
ci vuole tempo. vedrai ke verso fine anno uscirà un upgrade del futuremarck con un test ben realizzato.

clockline
25-03-2003, 19:38
si, ma ormai e dappertutto cosi'.....
pensa che io sulla mia SIS XABRE400 avevo i 3.10.55 , poi sono usciti subito dopo i 3.10.58 che hanno migliorato di 200 punti circa le performance in 3dmark..
ste cazzo di ditte invece di rilasciare driver che migliorano la compatibilità nei giochi, si mettono a perder tempo ad ottimizzare i driver con questi test.
penso che un minimo di serietà la devono avere, più andiamo avanti e più manca la serietà.
dalle schede video,chipset, ai processori.

saltamine
25-03-2003, 19:39
Ma devi essere veramente un ottimo programmatore per dire che quelli della futuremark hanno sbagliato motore grafico!!! E pure quelli della Epic!!!
Scusa, non è per fare polemica, ma il futuro spinge anche sui poligoni. Se una skeda può teoricamente fare 300milioni di poligoni in strip non filtrati (=molti di meno in realtà...) perchè non usarli? E poi è un bench fatto per durare, come il motore di Unreal (Che se facesse così skifo come dici tu non lo userebbero per farci 24000 giochi!). Soprattutto i poligoni non li mette il programmatore ma il grafico che fa i modelli. Al programmatore interessa relativamente fare un motore di 500.000poligoni al sec o 1 milione. Vero è che iniziassero a programmare appositamente per alcune schede video i risultati sarebbero migliori, anche se i programmatori si suiciderebbero. E per le dx9 poco sfruttate, a parte il fatto che ci vuole anche tempo per imparare ad usarle, poi probabilmente non erano necessarie per fare quello che volevano fare. Inoltre se le usavano fino in fondo sarebbe andato ancora più piano e soprattutto solo su R3*0/Nv30.
E cmq a me piace il 3dmark! E' l'unica cosa graficamente bella su pc! (oltre all'unreal engine!) Almeno questo è quello che penso io, poi ognuno è libero di dire la sua. Peace and love

saltamine
25-03-2003, 19:46
cmq sulla serietà sono perfettamente con te clockline. Mi sono appena incazzato x' la microsoft ha rilasciato oggi le directx9a. Ma come è possibile! Sono uscite 3 mesi fà ed hanno già dei bachi!!! La cosa comica è che le vecchie vanno in conflitto con messanger!!! Ke tristezza...

clockline
25-03-2003, 19:48
scommetto quello che volete che il motore di DOOMIII sarà più "leggero" perchè programmato meglio! l'ID si che ha le palle, e questo lo sà anche EPIC.
se ce ne fossero di più di programmatori come alla ID, molta spazzatura su PC se ne vedrebbe molto meno.
spero che con il motore di unreal non ne facciano di giochi, se no' siamo rovinati.
troppo pesante per quello che produce, programmazione veloce, e motore troppo pesante.

clockline
25-03-2003, 19:57
e perchè? il KT400, KT400A, ati 9000,9000PRO, geffo4MX dove me le metti? ditte che pagano le softwareouse per avere game ottimizzati sulle loro schede, ecc.. ecc... dove sono finiti quei tempi quando una scheda video di punta la pagavi massimo 500.000 lire?
la bidonata più grossa, e il geffo4 MX, uno schifosissimo geffo2 MX con clock più alti e spacciato per un geffo4 MX, e questa e serietà?
DX7.1 in hardware? ma dove?!?!! non supporta nemmeno il pixel schaders... e sarebbe DX7.1 in hardware?
hehehehhe e poi un geffo4MX ancora DX7.1 , si sono sprecati... ma sai quanta gente ho sentito che e rimasta delusa da questa scheda per via del nome?
alla nvidia comunque sono stati anche abbastanza furbi nel scrivere nel bios NV18 invece di geffo4 MX
il cliente poco informato che si ferma nel negozio e compra una geffo4MX, si aspetta almeno che vada come una geffo3 liscia.... bè.. il geffo4MX va addirittura meno della geffo2 liscia.
meditate gente meditate...
per non parlare poi della serie 9000 dell'ATI.
una 9000PRO che va meno di una 8500.

saltamine
25-03-2003, 20:03
Beh si, credo anche io che DOOM3 sarà programmato meglio, ma non dimentichiamo che poi la programmazione è talmente complessa che è impossibile raggiungere la perfezione (Oltretutto PARE che le OpenGL siano ancora meglio delle DX, ma forse anche perchè li ottimizzi di più per le estensioni proprietarie). E poi di John Carmack c'è ne uno solo! Cmq se ti riferisci a Unreal2 non posso che darti ragione, è un pachiderma di pesantezza, ma probabilmente hanno implementato in modo pessimo il loro stesso motore, perchè al contrario UT2003 è abbastanza veloce anche con i filtri, mostrando una grafica a parer mio molto migliore di U2, con tempi di caricamento insignificanti rispetto a quelli di U2 (per non parlare delle texture...). Quando mi riferisco all'Unreal Engine intendo UT2003, non l'altro!!!
Ciao

saltamine
25-03-2003, 20:12
Si, la peggior rovina della tecnologia è il marketing.
Kt400/kt400a, 8500/9100, nv30, 9000/8500 , gf4mx/gf2mx sono tutti casi in cui il marketing ha preso il sopravvento sull'aspetto tecnologico vero e proprio. Però non si può fare nulla, bisogna solo essere abbastanza informati da vedere oltre quello che dicono. E' così con tutto, anche all'infuori dell'informatica. Tutti cercano di tirare l'acqua al proprio mulino fregando il consumatore. Questo è il principale motivo per cui odio l'economia!
Cmq per rientrare in topic, la futuremark ha fatto benissimo a prendere questa posizione. Tutti hanno criticato Ati quando ha fatto una roba simile con quake3, è giusto che Nvidia si accorga di nn potere fare troppo la furba! Magari se lo fanno in bianco e nero (1 bit) il 3dmark fà 15000!!!

cdimauro
26-03-2003, 06:01
Ma quanti programmatori in erba che si vedono in giro, eh! :D E soprattutto quanti giudizi oculati e competenti sanno esprimere... :rolleyes:

Il motore di Doom3 sarà meglio di quello di Unreal. L'engine di Unreal fa schifo. Carmack di qua o di là. Le OpenGL sono meglio delle DX. La programmazione è "complessa"...

Non so se ridere o piangere quando leggo questi messaggi: la gente parla e snocciola discorsi di qualunque tipo come se avesse passato il tempo a sviluppare giochi o lavorare nella programmazione di giochi e/o di computer grafica come se niente fosse... :rolleyes:

Poi si parla di benchmark e si valutano nella maniera più disparata: piacciono o meno a seconda se esaltano la propria scheda video, oppure perché sono una "figata" a vedersi, o perché ormai ci si è "affezionati" e li si considera il non plus ultra per testare le schede video.

Complimenti! Quanta gente razionale, logica e preparata esiste al mondo! Ma stranamente il mondo non è pieno di bravi programmatori né pieno di engine favolosi/ottimizzati né pieno di applicazioni scritti bene/ottimizzate, ecc. ecc. ecc. Mah. Chissà perché... :rolleyes:

Un piccolo appunto sui benchmark e/o i giochi che in teoria dovrebbero usare sempre più poligoni (o fanno bene ad usarne tanti): se sfruttassero come si deve le caratteristiche delle DX9 (ovvero displacement mapping hardware, n-patch [dette anche superifici curve] e shader 2.0), il numero di poligoni da elaborare (specialmente per la CPU!!!) sarebbe DRASTICAMENTE ridotto e per contro la qualità sarebbe NOTEVOLMENTE migliore.

Quante parole inutili gettate al vento... :rolleyes:

Aryan
26-03-2003, 07:11
So anch'io che ottimizzare i driver per un gioco non è la stessa cosa di ottimizzare i driver per un benchmark. Il secondo caso è solo a scopo commerciale, mentre il primo sia commerciale che ludico.

PS: se alla M$ fossero breavi quanto alla ID a programmare chissà dove saremmo adesso....

Aryan
26-03-2003, 07:13
Al mondo critica tutto ma non i motori grafici della ID! Se gli Dei esistessero quello della programmazione sarebbe J. Carmack!!!

Cfranco
26-03-2003, 09:06
Originally posted by "Aryan"

Al mondo critica tutto ma non i motori grafici della ID! Se gli Dei esistessero quello della programmazione sarebbe J. Carmack!!!
In dieci anni non é riuscito a fare un motore 3D che sia decente a trattare le visuali esterne , questa é una realtà irrefutabile , che poi negli interni sia eccellente nessuno dice di no , ma se molti programmatori preferiscono usare altri engine invece di quello di Carmack i motivi ci sono .
Questo lui lo sa bene e infatti evita accuratamente di costruire giochi con ambientazioni più ampie di uno sgabuzzino , certe ambientazioni di Unreal II non sono semplicemente alla portata del motore grafico di Carmack .
Quindi non glorificarlo più di tanto che quello che fanno alla ID non é migliore di quello che fanno altrove .

junkidar
26-03-2003, 11:19
Davvero una brutta figura x Nvidia.
Come dire che sono "truffaldini"!.
Ciao

cdimauro
26-03-2003, 18:05
Originally posted by "Aryan"

Al mondo critica tutto ma non i motori grafici della ID! Se gli Dei esistessero quello della programmazione sarebbe J. Carmack!!!

Parli da programmatore o da uno che non sa neppure quanti registri ha il 6502? :rolleyes:

Capisco che Carmack ha fatto grandi cose, ma mi sembra che tu stia esagerando un po' troppo... Fatti un giro e vedrai che al mondo esistono tanti altri programmatori "eccellenti"...

cdimauro
26-03-2003, 18:06
Originally posted by "Aryan"


PS: se alla M$ fossero breavi quanto alla ID a programmare chissà dove saremmo adesso....

Me lo chiedo anch'io, visto che fino ad ora hanno realizzato dei prodotti completamente diversi... :rolleyes:

saltamine
26-03-2003, 19:39
E tu? parli da programmatore o parli da uno che non sa neanche calcolare una pulsazione di taglio superiore in caso di polo dominante di un amplificatore realizzato da un transistor nmos in saturazione?
A parte il fatto che si stava parlando di programmazione, ci sono molti modi di dire le cose, senza cercare di far passare gli altri da "gente razionale, logica e preparata". Tra parentesi, l'uso delle N-patch da quello che ho sempre saputo è vero che sgrava la CPU dal calcolare i vertici, ma la GPU i vertici se li processa in ogni caso (vedi documento della ATI sul truform), non li tira fuori dal cappello magico. Per un po di tempo ci ho programmicchiato kon le DX, non sono uno sprovveduto come pensi. Senza rancore, ciao

Maury
26-03-2003, 20:30
Dei programmatori con le palle ?

Mhm ...

I papini della serie Serius Sam!! :eek: Grandiosi :cool:

opelio
26-03-2003, 20:39
Io invece ne ho le scatole piene di questo accanimento contro NVidia e tifo per Ati, i commenti sul calore... ma che strazio...ma vi pagano per caso? Non si parla più di altro...che pena.

cdimauro
27-03-2003, 13:03
Originally posted by "saltamine"

E tu? parli da programmatore

Indovina...

o parli da uno che non sa neanche calcolare una pulsazione di taglio superiore in caso di polo dominante di un amplificatore realizzato da un transistor nmos in saturazione?

In questo caso hai centrato in pieno. Pur avendo studiato qualcosa di analogica al terzo anno delle superiori, non ho mai voluto approfondire l'argomento: la mia passione è sempre stata l'informatica...


A parte il fatto che si stava parlando di programmazione

Si vedeva, infatti... :rolleyes:

, ci sono molti modi di dire le cose, senza cercare di far passare gli altri da "gente razionale, logica e preparata".

Non se ne può più di messaggi inutili e aberranti: la qualità del forum è declino e il rumore di fondo e le interferenze ormai tendono decisamente a sovrapporsi al segnale. Giusto per restare in argomento...

Tra parentesi, l'uso delle N-patch da quello che ho sempre saputo è vero che sgrava la CPU dal calcolare i vertici, ma la GPU i vertici se li processa in ogni caso (vedi documento della ATI sul truform), non li tira fuori dal cappello magico.

Sicuramente. E infatti, se vai a rileggerti il mio messaggio, dicevo "soprattutto per la CPU".

Poi l'aumento complessivo della potenza necessaria alla generazione dei nuovi triangoli avviene all'interno della GPU, quando gli elementi della scena sono stati già processati dalla CPU, passati alla GPU tramite il bus AGP e preprocessati, per cui solo una parte dei triangoli da processare come n-patch impegna i vertex shader, e tra l'altro ripeto: avviene tutto dentro la GPU, con una notevole riduzione dei tempi di calcolo...

Idem per il displacement mapping hardware, la cui implementazione è simile alla generazione dei triangoli addizionali nelle n-patch.

Per un po di tempo ci ho programmicchiato kon le DX, non sono uno sprovveduto come pensi. Senza rancore, ciao

A maggior ragione non riesco a comprendere assolutamente alcune frasi azzardate che ho "riassunto" nel mio messaggio "d'apertura"... :rolleyes:

Resto, quindi, sempre della mia idea...

saltamine
27-03-2003, 14:12
niente, ti avevo scritto una stupenda risposta ma non ero registrato al forum e quindi è persa nel web. UFF!
Cmq un paio di condensatori in bypass e qualche filtro passa banda puoi risolvere il problema del rumore di fondo, oppure con un pelo di pazienza!!! Guarda però che non sono io che ha tirato fuori i registri dei processori! Ciao e buona giornata!

(cmq se interessa a qualcuno,una pulsazione di taglio superiore in caso di polo dominante di un amplificatore realizzato da un transistor nmos in saturazione è pari a 1/(sommatoria da 1 a n di "tao"i) dove ogni "tao" è dato dalla capacità intrinseca considerata del mos per la resistenza visibile dal condensatore)

cdimauro
27-03-2003, 16:52
Mi spiace per la risposta mancata: mi sarebbe piaciuta leggerla e risponderti...

Comunque, continuo a rileggere i tuoi messaggi, le tue risposte, ma arrivo sempre alla stessa conclusione.

Ad esempio, è vero che ho tirato fuori la storia dei registri, ma il contesto e il significato di quella frase sono ben precisi: evidentemente non hai afferrato bene (se rileggi tutto il mio messaggio alla luce di quelli scritti in precedenza, chiaramente). :(

Spero che troverai il tempo per scrivere un bell'altro messaggio "succulento"... :)

Ciao e buona giornata anche a te...

cdimauro
27-03-2003, 16:55
Dimenticavo: "tutti i limiti hanno la loro pazienza" (o giu di lì)... Purtroppo il forum è pieno di messaggio assolutamente inutili o che fomentano flame e basta.

L'ho scritto nei primi messaggi che ho scritto, circa un anno fa, ma il problema non accenna a dimunire, anzi... :rolleyes:

Questo messaggio non era rivolto a te, ma era una riflessione in generale...

Raven
27-03-2003, 17:22
ehhh... ci devo andar giù di mannaia! :sofico:

cdimauro
27-03-2003, 17:35
Occhio a non sbagliare!!! :D