Entra

View Full Version : Half-Life 2: le prime analisi prestazionali


Redazione di Hardware Upg
12-09-2003, 12:44
Link alla notizia: http://news.hwupgrade.it/10773.html

Valve rilascia una versione preliminare del benchmark del gioco Half-Life 2, e i risultati ottenuti lasciano realmente stupefatti: ATI distanzia nettamente le schede nVidia

Click sul link per visualizzare la notizia.

romeop
12-09-2003, 12:50
Sono contento di aver preso una 9500 moddata a PRO a soli 163 euro :D

emilz
12-09-2003, 12:50
mah chi ce capisce qualcosa è bravo...ma che combina n'vidia con queste schede????

lasa
12-09-2003, 12:53
Penso sia solo questione di driver.....perchè le architetture sono molto simili....i giudizi sono troppo affrettati....peccato manchi nel test la 9500pro.....aspetterò fiducioso ulteriori notizie.....

ilmanu
12-09-2003, 12:54
mi spiegate sta storia dei vari esempi di nv3x? dx9...8.1-....path nv3x....che sono? mi sono perso qualcosa?

GianFisa
12-09-2003, 12:55
Vedrete che le cose non finiranno così, Non può esserci un così grande divario tra Nvidia e Ati in un solo gioco...

HyperOverclockII
12-09-2003, 12:55
Doom 3 sarà openGL, non dx 9.

shambler1
12-09-2003, 12:57
cazzo ma non è giocabile nemmeno con la t4600!:mad:

libero81
12-09-2003, 12:58
sembra contare molto nvidia sui nuovi detonator..

romeop
12-09-2003, 12:59
Originariamente inviato da lasa
peccato manchi nel test la 9500pro.....aspetterò fiducioso ulteriori notizie.....

la 9500PRO va decisamente meglio della 9600PRO visto che ha 8 pipeline di rendering attive, come la 9700.
In più regge all'overclock molto bene e direi che si potrebbe arrivare a quel bench a un valore tra i 55 e i 60.

TripleX
12-09-2003, 12:59
LOL.........lo si sapeva da sempre che NV e' carente in dx9 nel motore vertex e pixel shader e ora ci se ne accorgera' con i primi giochi dx9....da notare che la 5900 ultra e' ingiocabile a qualsiasi risoluzione con dx9 ....con dx8.1 a 1024x768....Ati a 1600 fa piu' di 60fps....ma riLOL....
questione di driver??
certo ora Nvidia abbassera'a 1 bit la precisione da 32bit e le prestazione saranno doppie di r350 con qualita' video modello VIC20!!

pg08x
12-09-2003, 12:59
Finalmente i nodi cominciano a venire al pettine dico questo perchè è giusto vedere le cose come stanno senza lasciarsi influenzare dal marketing o dai nomi e caratteristiche hardware sulla carta altisonanti

zac1
12-09-2003, 13:00
Scusate ma Gabe Newell non ha detto di non utilizzare i detonator 50.xx, perchè falsavano i risultati dei test in quanto eliminavano effetti grafici di contorno?
Ai ai nvidia cosa mi combini ... negare anche l'evidenza

TripleX
12-09-2003, 13:01
NB
anche AOD non va una ceppa su Nvidia FX??
problemi al motore dx9??usa olio shell vpower!

Apace
12-09-2003, 13:04
beh.. non so cosa sia l'ATIs Shader Day, ma immagino che sia gestito da ATI. e immagino che ad un ipotetico Nvidias Shader Day le schede della Nvidia avrebbero un margine simile. è tutta pubblicità.

TripleX
12-09-2003, 13:04
Io sinceramente immaggino la faccia di chi ha speso fior di euro nella 599ultra convinto di poter giocare a tutti i titoli odierni e futuri e ora si trova una scheda che va come una ti4200 con qualita' video peggiore....io mi rivolgerei all'associazione consumatori...CINEFX doveva essere IL MOTORE DX9 x eccellenza....da non crederci.....

TripleX
12-09-2003, 13:07
come no pubblicita' che pero' se leggi l'articolo e' confermata da nvidia stessa che dichiara di dover scender a compromessi a causa di un'architettura non eccelsa...NV e' da riciclare....fatelo di sana pianta il progetto NV40 o qui ci sara' il monopolio!
non che comprerei mai una nvidia ;) chiaro

pg08x
12-09-2003, 13:07
Io penso invece a quelli che hanno preso la 5800 in preorder con la turbina spaccatimpani.
Ricordo che ai tempi nei forum urlavo "non compratela !"

zac1
12-09-2003, 13:08
Spero comunque che il motore grafico venga ulteriomente ottimizzato, cosi da migliorare ulteriormente le prestazioni, dato che i test sono stati eseguiti senza AA e AF, non oso immaginare il calo di prestazioni attivando i filtri.

infofabio
12-09-2003, 13:08
Chissa come sela cavera il mio cellerino 800 e la mia kyro 2!!! altro che ati e nvidia ;) ragazzi un consiglio non vi mettete appresso a ste cose perche sono tutte cavolate, i risultati cambiano di macchina in macchina, pur darsi pure che uno con un computer sulla carta meno potente di un altro puo fare piu frame di uno piu potente, ma poi half life2 e un gioco ancora parziale quando sara finito vedremo.

Comunque, il tempo perdetelo appresso alle donne, danno molta soddisfazione e costano anche meno! ciao!!!

pg08x
12-09-2003, 13:12
Ammettiamo che con il progetto NV40 nvidia risolva finalmente tutti questi bachi architetturali.
Appena uscirà nv40 a cosa servirà più il cg o meglio a cosa servirà perdere mesi di lavoro per queste assurde ottimizzazioni richieste dall'architettura nv30 ?
Se nv40 dovesse davvero essere priva di questi problemi le software house abbandoneranno le ottimizzazioni pro nv30 ed allora per davvero su queste geforce fx non ci girerà più niente dei nuovi titoli directx9.
Nv40 dovrebbe uscire fra pochi mesi... meditate gente, meditate !

leddlazarus
12-09-2003, 13:13
quel che mi preoccupa è che per giocare in modo decente (almeno 40-50 fps) si deve avere una scheda almeno da 300€. Va be io sono un po' indietro (ati 7500) pero' non si puo' ogni anno "buttare" 300€ per giocare al nuovo titolo. per giocarci dovro' metterlo a 640x480 al minimo. sigh!

Lexon
12-09-2003, 13:15
x infofabio
sei davvero sicuro che le donne costino meno? :D
ZCixxozi

cippa lippa
12-09-2003, 13:20
ciao a tuti ragazzi!
Cavoli nn c'è la prova della mia 9500pro @300 e 300mhz core ememoria!sto circa come una 9700 nn pro!chissà come andrà slurp!

fek
12-09-2003, 13:21
Originariamente inviato da ilmanu
mi spiegate sta storia dei vari esempi di nv3x? dx9...8.1-....path nv3x....che sono? mi sono perso qualcosa?

Significa che il motore di HL2 ha un code path (immagina che sia del codice separato da altri "code path") per DX8.1, uno per DX9 generico ed uno per DX9 con ottimizzazione NV3x.

Per dirla in altri termini, e' come sei ci fossero 3 "mini-motori 3d" (in realta' solo il renderer) ed ognuno esegue istruzioni per una delle tre modalita'. HL2 controlla su quale architettura sta girand ed usa uno solo dei tre alla volta.

Riguardo la questione, i dati sono molto interessanti, ma c'e' una cosa sa dire: e' assolutamente vero che un code path avvantaggia o una o l'altra architettura perche' le ottimizzazioni sono differenti (e anche di parecchio). Quindi non sono particolarmente d'accordo con quello che dice Valve quando afferma che non vale la pena scrivere codice per una o per l'altra architettura. Ok, c'e' del vero in quello che dice, ma fra un mese ci sara' una nuova versione delle SDK delle DX9 con un miglior compilatore HLSL in grado di produrre codice quasi ottimale e differente a seconda dell'architettura, quindi il problema che ha incontrato la Valve si ridimensiona parecchio.
E' verissimo che nel periodo di sviluppo di HL2 queste soluzioni non erano a disposizione, quindi cio' che dice Valve e' comprensibilissimo.

Personalmente avevo notato anch'io questa differenza di prestazioni con codice DX9 generico a favore dell'R3X0: diciamo che si comporta molto meglio con codice generico, mentre l'NV3X ha bisogno di ottimizzazioni specifiche. Ecco, i benchmark che confrontano le prestazioni con i due code path sono decisamente piu' attendibili e vedono ancora un vantaggio dell'R3X0; questo mi sorprende un po' forse, ma e' plausibile.

Sono curioso di vedere nuovi benchmark con i driver Rel50 e questo atteggiamento di Valve nei confronti di nVidia mi sorprende: e' verissimo che hanno a lungo collaborato molto con nVidia sul lato delle ottimizzazioni.

La questione e' interessantissima!

fek
12-09-2003, 13:25
Originariamente inviato da pg08x
Ammettiamo che con il progetto NV40 nvidia risolva finalmente tutti questi bachi architetturali.
Appena uscirà nv40 a cosa servirà più il cg o meglio a cosa servirà perdere mesi di lavoro per queste assurde ottimizzazioni richieste dall'architettura nv30 ?
Se nv40 dovesse davvero essere priva di questi problemi le software house abbandoneranno le ottimizzazioni pro nv30 ed allora per davvero su queste geforce fx non ci girerà più niente dei nuovi titoli directx9.
Nv40 dovrebbe uscire fra pochi mesi... meditate gente, meditate !

Hey ciao, ti ritrovo sul piede di guerra :)

La mia opinione e' che con l'uscita del DX9 SDK Summer Update ci sara' sempre meno interesse in Cg (secondo me verra' abbandonato il supporto a breve, almeno e' quello che mi e' sembrato di capire nell'ultimo meeting che ho avuto con nVidia) e le ottimizzazioni specifiche per l'hw saranno sempre piu' a carico del compilatore HLSL e non del programmatore. E' una situazione molto migliore di quella attuale perche' diminuisce considerevolmente il tempo da spendere per queste ottimizzazioni (non farti abindolare, perche' servono anche per gli R3X0 anche se si comportano meglio con codice generico) e porta notevoli vantaggi agl'utenti finali.

lukkio
12-09-2003, 13:26
ati 24bit
nvidia 16 o 32bit
il gioco non supporta perfettamente le dx9 ma una versione modificata
i test sono fatti al ati shader day

DesertFox
12-09-2003, 13:34
E quale gioco supporta "perfettamente" una dx?? ;-)

tiranium 4200
12-09-2003, 13:40
ma che schifo le fx adirittura la 5600 ultra dietro a una vecchia ti 4600. bahhh

Ligos
12-09-2003, 13:50
Originariamente inviato da tiranium 4200
ma che schifo le fx adirittura la 5600 ultra dietro a una vecchia ti 4600. bahhh




Se mai la cosa che fa più scalpore è che la 5600 ultra è dietro alla 9200, altro che 4600...........

csteo
12-09-2003, 13:53
MA FARE UN TEST CON UN PROCIO INTORNO AI 2GHZ E' TROPPO COMPLICATO.
Quanti di noi hanno un 3.0GHz in saccoccia e quanti un 2GHz o simil.
E cosi difficile metterne 2 in parallelo, tempo fa con la sc.video nuova e procio decente girava tutto, da u2 non è più così rincide il processore come prima del geforce.

Se no dei test non ce ne facciamo una pippa.

shrubber
12-09-2003, 13:56
volevo solo dire che sarà meglio aspettare di avere gioco in mano, driver non truccati e aspettare uno o due mesi per fare un acquisto da 600 euro. Cmq sia alla Valve dicevano di non utilizzare i det. 50 perchè usavano dei cheat per migliorare le prestazioni, cioè che scompariva la nebbia. Nvidia ha replicato dicendo che la nebbia manca per un bug... Bhe la cosa non è affatto impossibile, e infatti dice che con la prossima release lo risolvono. Io dico aspettiamo e smettiamola con questa diatriba tra fan Nvidia e fan ATI. Io ho una Ti4600, ultima scheda veramente gloriosa della Nvidia. Credo che però non siano dei deficenti e sicuramente il loro lavoro lo sanno fare. Ora si trovano a rincorrere. Fin'ora abbiamo visto che in quasi tutti i giochi e bench FX5900 e 9800pro si equivalgono più o meno. E ora vediamo dei divari del 50%... è vero che si parla di un gioco DX9, però secondo me bisogna aspettare per trarre delle conclusioni. Cavolo quello che ha scritto quella dichiarazione di Nvidia non sarà mica completamente un fanfarone... Immagino che potranno ingannare a vita. Io aspetto e vedo cosa succede... E rimango dell'idea che 650 euro per una scheda video per giocare e 350 euro per una scheda video di fascia media sono veramente troppe... Ricordo che nel dicembre 99 comprai la GeForce DDR... Era una vera bomba... la pagai 590 mila lire... tanto si... ma mi ha durato 2 anni egregiamente. Spero si possa tornare a una situazione del genere...

TopoMorto
12-09-2003, 14:04
Perdincibacco questa si che e' una stagiata sulle orecchie!!! Da non credere !

DoomIII
12-09-2003, 14:05
Originariamente inviato da pg08x
Ammettiamo che con il progetto NV40 nvidia risolva finalmente tutti questi bachi architetturali.
Appena uscirà nv40 a cosa servirà più il cg o meglio a cosa servirà perdere mesi di lavoro per queste assurde ottimizzazioni richieste dall'architettura nv30 ?
Se nv40 dovesse davvero essere priva di questi problemi le software house abbandoneranno le ottimizzazioni pro nv30 ed allora per davvero su queste geforce fx non ci girerà più niente dei nuovi titoli directx9.
Nv40 dovrebbe uscire fra pochi mesi... meditate gente, meditate !

beh... bachi architetturali... non la fari 'cosi facile'...
l'ho sempre detto... NV30/35 sono prodotti intermedi in cui nVidia ha investito + per il futuro (NV40/45) che per il presente (NV30/35)... certo alcune cose sono andate fuori controllo e nvidia non se lo aspettava (buona competitività di Ati con ottimi prodotti e problemi di produzioni per i fornitori nVidia)...
il ragionamento di nVidia cmq è ottimo e non fa una grinza...
mi ricorda l'epoca in cui usci Quake3... performance al limite dell'accettabile esattamente come adesso per Half-Life2 e DoomIII... mi fanno ridere i cari tifosi Ati soddisfatti... ma vorrei vedere delle performance reali... con tutti i vari filtrini attivati ecc...
Half-Life2 è un gioco di cui si parlerà a lungo... e diamine ci sono ancora oggi i bench con Quake3 o_O lol
figuriamoci per quanto ne avremo di bench con HL2 e DoomIII...
certo di fretta c'è nè molta... eppure è scontato e banale che la prossima generazione di schede grafiche farà girare più che degnamente HL2... e poi sarà la guerra dei 100fps, 140, 139, 180,182 ecc...

Sarà stato anche l'Ati day... ma chissa quanto hanno $$$$ per fare in modo che i programmatori ci prendano in giro trattandoci come deficienti... e diamine... si possono capire i produttori di schede grafiche... Ati ed nVidia fanno ovviamente i LORO interessi... ma mi lascia veramente perplesso quello che è successo... riassumiamo:
i programmatori di HL2 hanno i driver .50... con i quali hanno collaborato a stretto contatto con nVidia (nel senso che nVidia si è accertata che funzionino il meglio possibile)... finalmente questi driver iniziano ad aprire (migliorie ne verrano) le DX9 alla GPU nVidia...
e la valve che fa? un test con i driver .45? :confused:

adesso non voglio suscitare polemiche con le banali risposte degli Ati-boy... su cheat e presunti miracoli...
qui non si sta dicendo che con quei driver la situazione si capovolgerà... ma almeno l'assurdità di dichiarare che con le nuove schede nVidia non si possono usare le Dx9 e che è meglio passare alle Dx8... be dai... raga... loro i driver ce li hanno... avranno fatto girare HL2 con i 50 DX9...
qui quasi mi viene un dubbio... molti aspettavano un segnale per acquistare una nuova scheda grafica... proprio per poter giocare all'imminente HL2...
forse con i 50 nVidia non se la cava poi così male se Ati ha voluto questa falsa pubblicità :O

DoomIII
12-09-2003, 14:10
Originariamente inviato da shrubber
volevo solo dire che sarà meglio aspettare di avere gioco in mano, driver non truccati e aspettare uno o due mesi per fare un acquisto da 600 euro. Cmq sia alla Valve dicevano di non utilizzare i det. 50 perchè usavano dei cheat per migliorare le prestazioni, cioè che scompariva la nebbia. Nvidia ha replicato dicendo che la nebbia manca per un bug... Bhe la cosa non è affatto impossibile, e infatti dice che con la prossima release lo risolvono. ...
...
...
...

infatti è un bug... noto tra l'altro alla Valve... e secondo me molto ma molto ben noto... perchè non credo proprio sia un bug driver... e probabilmente per poterlo risolvere nVidia ha bisogno della versione di HL2 definitiva... e non quella che gli viene data da HL2.
Secondo me e tutto sommato è molto evidente... la Valve (strumentalizzata da Ati) mette un po i bastoni tra le ruote ad nVidia facendole i dispetti... c'è sempre un qualcosa che su Ati funziona e su nVidia no... :rolleyes:

Ma del resto questo è il prezzo da pagare per prodotti 'partnership'... se la Valve era in accordo ($$$) con nVidia probabilmente la situazione sarebbe stata all'opposto...
ormai le sh non guadagnano solo vendendo i giochi... hanno trovato un nuovo mercato...

DoomIII
12-09-2003, 14:13
Originariamente inviato da UltimateBou
siamo alle solite:

- aspettiamo i driver miracolosi :rolleyes:

- se c'è qualche cosa che fa migliorare le prestazioni ma diminuendo la qualità e qualcuno se ne accorge, è un bug (tra l'altro dei driver miracolosi..) :rolleyes:
...
...
...


no non siamo alle solite... non si sta dicendo aspettiamo i driver miracolosi che poi nVidia batti tutti...
piuttosto ci si sta chiedendo... se hanno i 50... perchè non li hanno usati... perchè hanno usato i 45 quando sanno benissimo che non sono appropriati per le Dx9?

Poi in un modo o nell'altro non credo certo le prestazioni nVidia adesso possano battere quelle delle schede Ati... ma certo possono risollevare la situazione attuale che a vedere i bench (con 45) è semplicemente ridicola...

DjLode
12-09-2003, 14:15
Evvai che risalta fuori DoomIII....
Scusa, da ignorante, Ati va (sembra) meglio con HL2 di Nvidia. Ati ha pagato per questo va meglio. Presentano il gioco e va meglio sulle Ati e ci trattano come deficienti. Nvidia va meglio con D3. Per meriti suoi. I catalyst 3.4 fanno 10fps in D3, Ati dice che è un bug, nessuno gli crede. E' Ati che fa i driver orrendi.
C'è qualche cosa che non mi torna ma non riesco a capire cosa.

P.S. Al peggio non c'è mai fine, di questo me ne sono reso conto :)

Nicola256
12-09-2003, 14:19
La Valve è un mito nel panorama videoludico mondiale, HL2 sarà una bomba di gioco, una vera pietre miliare, nascerano tantissimi giochi con il suo motore grafico, ma stavolta la Valve ha giocato sporco.
Sin dall'inizio ha dichiarato che il codice di HL2 è ottimizzato per il Radeon9800 (chiaramente sono arrivati tanti $$$ dalla ATI per questa bella operazione commerciale) e ora butta fango sulla rivale NVIDIA, pergiunta pubblicando test con i Det45 anche se per il 30 Sett (data presunta di uscita di HL2) NVIDIA assicura che ci saranno i Det50 che presentano l'ottimizzazione del codice per HL2!!
Questa faccenda rasenta i presupposti di una DENUNCIA PER DIFFAMAZIONE MONDIALE. Ammesso l'ottimo progetto di Ati che con la serie 9700-9800 è leader su 3D in DirectX, è OLTRMODO SCORETTO da parte di Valve pubblicare questi Benchmark. RIPETO, VERGONA VALVE.

DjLode
12-09-2003, 14:24
Originariamente inviato da Nicola256
Sin dall'inizio ha dichiarato che il codice di HL2 è ottimizzato per il Radeon9800

Mi dai un link dove sia detta sta grande panzanata?
"Gabe mentioned that the developers spent 5x as much time optimizing the special NV3x code path (mixed mode) as they did optimizing the generic DX9 path (what ATI's DX9 cards use), thus it is clear that a good attempt was made to get the game to run as well as possible on NVIDIA hardware"

Sai leggere l'inglese o traduco?

Talmente ottimizzato per Ati che con la 9800 gira con la path standard e con le Fx gira con una path apposita.
Leggete i link prima di sparare :)

pg08x
12-09-2003, 14:26
Nicola256
Doom3 non è ottimizzato per ATI,
La path dedicata è stata fatta per nv30 (altrimenti andava ancora peggio).
Non iniziamo con le diffamazioni, mi viene in mente quell'episodio pietoso in cui nvidia diffamava i programmatori del 3dMark2003 solo per aver voluto utilizzare del codice standard uguale per tutte le skede.

Eraser|85
12-09-2003, 14:27
Stiamo cadendo nell'assurdo, non devi fare una versione ottimizzata per una scheda e una versione "normale" senza ottimizzazioni per l'altra. Tutte le schede video devono eseguire il codice nel medesimo modo, senza aiuti, ottimizzazioni o cacchiate varie. Ogni tentativo di miglioramento tramite queste strade è indice di poca competitività di una scheda.

pg08x
12-09-2003, 14:31
Originariamente inviato da Eraser|85
Stiamo cadendo nell'assurdo, non devi fare una versione ottimizzata per una scheda e una versione "normale" senza ottimizzazioni per l'altra. Tutte le schede video devono eseguire il codice nel medesimo modo, senza aiuti, ottimizzazioni o cacchiate varie. Ogni tentativo di miglioramento tramite queste strade è indice di poca competitività di una scheda.

Parole d'oro anche perchè queste cosidette "ottimizzazioni" spesso tolgono qualità e sempre richiedono un sacco di tempo denaro e risorse che sarebbero meglio utilizzate nel migliorare il software nel suo complesso (Esempio: un livello in più, maggiori opzioni, mod, migliore IA, etx etx)

DjLode
12-09-2003, 14:31
Originariamente inviato da Eraser|85
Stiamo cadendo nell'assurdo, non devi fare una versione ottimizzata per una scheda e una versione "normale" senza ottimizzazioni per l'altra. Tutte le schede video devono eseguire il codice nel medesimo modo, senza aiuti, ottimizzazioni o cacchiate varie. Ogni tentativo di miglioramento tramite queste strade è indice di poca competitività di una scheda.

Purtroppo HL2 su ati gira in arb2 e sulle Nvidia in una modalità scritta appositamente. Come D3. Come Traod.

DoomIII
12-09-2003, 14:32
Originariamente inviato da DjLode
Evvai che risalta fuori DoomIII....
Scusa, da ignorante, Ati va (sembra) meglio con HL2 di Nvidia. Ati ha pagato per questo va meglio. Presentano il gioco e va meglio sulle Ati e ci trattano come deficienti. Nvidia va meglio con D3. Per meriti suoi. I catalyst 3.4 fanno 10fps in D3, Ati dice che è un bug, nessuno gli crede. E' Ati che fa i driver orrendi.
C'è qualche cosa che non mi torna ma non riesco a capire cosa.

P.S. Al peggio non c'è mai fine, di questo me ne sono reso conto :)

ok, nonostante abbia più volte ribadito il concetto... è naturale che i lamerozzoli saltano fuori e ognuno legge ciò che vuole leggere... ma faro finta che nonostante tutto sono stato io a spiegarmi male... quindi ribadisco che:
mi lascia perplesso l'utilizzo dei 45 e la dichiarazione Valve secondo la quale su schede nVidia è meglio utilizzare le DX8... mi lascia perplesso perchè loro i 50 ce li hanno...
e certo che poi ti trattano come deficiente... l'ho detto non è questione che con i 50 si ribalti la situazione...
ma se con tali driver si possono usare le DX9 e c'è anche solo un incremento del 10% perchè non fare test cosi?
scusa,... ma a cosa serve questo test? dimostra cosa?
dai... non siate cosi ingenui... al di la del test.. è proprio la dichiarazione che è assurda... come fanno loro che hanno i 50 e sanno con quelli il gioco funziona in DX ad andare a fare una dichiarazione che spara a 0 su nVidia?
al di la del risultato la cosa più da effetto è proprio quella... per chi è ignorante e non sa sta storia dei driver significa che nvidia è a 0.... qui non si tratta neanche di 40fps nVidia e 100 Ati...
si tratta di nVidia=DX8 nVidia è incapace di fare girare giochi in DX9
Ati invece è capacissima.
Se vuoi giocare a giochi DX9 compra una Ati.
Questo è il messaggio lanciato da quelle dichiarazioni!
E ripeto... non si tratti di dire: chi gira meglio... che tanto anche se tu con Ati giri meglio... evabbè pazienza... se riesco a far girare il gioco più che decentemente mi diverto alla grande cmq... (o forse pensate che senza una scheda Ati non ci si possa divertire?)
NB: poi se non vi divertite giocando ma facendo screenshoot... be allora si sa che accontentarsi non è possibile... :rolleyes:
qui stanno proprio dicendo: DX9 non gira...

spero sta volta di essere stato un pelino più chiaro su cosa mi lascia perplesso.

Bulfio
12-09-2003, 14:33
20 a 1 che nei nuovi detonator inseriranno il patch code, così sembrerà tutto a posto, e tutti saranno contenti!!! E al prossimo gioco, stessa cagnara, e stessa soluzione.. ma spero tanto sia solo la mia immaginazione..sopratutto per tutti gli utenti NV...

DoomIII
12-09-2003, 14:33
Originariamente inviato da UltimateBou
che la situazione di adesso sia ridicola e siamo d'accordo, che valve non ha usato i 50 sembra che sia a causa del "bug" e quindi mi sembrava corretto non farlo.

Quando nvidia tirerà fuori un driver senza "bug" ed "ottimizzazioni", forse potremo tornare a fare i test in tranquillità (+ o - per come abbiamo fatto quasi sempre) ed a giudicare le schede per quello che valgono e non per quello che sembrano. :rolleyes: :D

a me onestamente sembra che dipenda più dalla Valve il fatto che non ci sia sto bug. :rolleyes:

pg08x
12-09-2003, 14:34
Originariamente inviato da fek
Hey ciao, ti ritrovo sul piede di guerra :)

La mia opinione e' che con l'uscita del DX9 SDK Summer Update ci sara' sempre meno interesse in Cg

Vedi che alla fine hai fatto bene a non implementarlo ! :D

Ciao e ben ritrovato.

DoomIII
12-09-2003, 14:37
Originariamente inviato da pg08x
Parole d'oro anche perchè queste cosidette "ottimizzazioni" spesso tolgono qualità e sempre richiedono un sacco di tempo denaro e risorse che sarebbero meglio utilizzate nel migliorare il software nel suo complesso (Esempio: un livello in più, maggiori opzioni, mod, migliore IA, etx etx)

scusate un attimo... ottimizzazioni ci sono sempre... inutile gridare adesso allo scandalo... perchè altrimenti il gioco girerebbe solo su una scheda... e sarebbe cmq ottimizzato... solo per una ma lo sarebbe...

il fatto che giri in Dx8... che in un modo o nell'altro giri con Gef2,3,4 ecc... è tutto sinonimo di ottimizzazione e di lavoro in più... è un PC non un console... c'è un lavoro enorme dietro perchè bisogna verificare cosa supporta la scheda ed ovviare/agire di conseguenza.

Poi Ati adesso è sposata a M$ quindi è più facile per lei che i suoi siano gli standard DX ufficiali.
Ciò cmq non toglie che effettivamente nVidia ha sforato parecchio... ma senza sti benedetti driver non si può neanche giudicare + di tanto...

Nicola256
12-09-2003, 14:44
Per DjLode
Mi dispiace non poterti fornire il link della notizia che ho letto su internet, ti prometto che quando lo trovo te lo spedisco. Volevo solo dire che, anche in base alle varie notizie che ho letto in questi ultimi mesisu HL2 (fonti:www.theinquirer.net;www.xbitlabs.com),mi sono fatto l'idea che tutta questa vicenda assomiglia molto ad una operazione commerciale che sussiste tra ATI e Valve.
Ma che tu debba usare un tono offensivo e accusarmi di non conoscere l'inglese e di "sparare una panzanata" solo perchè ho espresso la MIA OPINIONE, beh questo denota una aggressività che rasenta la maleducazione. E questo proprio non è un bel comportamento.

prova
12-09-2003, 14:45
Ma anzichè bisticciare come bambini delle elementari [alcuni di voi sono veramente patetici ... e se risponde a questo commento tra parentesi significa che ha una bella coda di paglia!] avete letto il commento nella pagina precedente di Fek?
[che, per chi non lo sapesse, collabora con i Lionhead Studios]

Ma anzichè tifare o sbandierare loghi dell'una o dell'altra parte vi siete dati pena di capire COSA sta realmente succedendo?

Leggete quel post e magari capirete.

Se non sarete ancora impegnati a escogitare il modo più stupido per detrarre la società meno simpatica.

Saluti!
*Eroes*

Bulfio
12-09-2003, 14:47
Quello che mi piacerebbe sentire una volta tanto è questo: NVidua si è appoggiata il culetto, Ati invece se l'è rotto, ha colmato il divario, e ora spacca il culo ai passeri..invece no, ci si attacca a ogni cavillo..driver...ottimizzazioni...bug...DX..matrimoni..ma a voi cosa viene in tasca a tifare per un brand piuttosto che per un altro?? Mica è una squadra di calcio!!! E la cosa brutta è che NV sta facendo di tutto per mascherare il flop, e tutti dietro a dar man forte! C'è stato il periodo NV, ora è il periodo Ati..che problema c'è?? Io sono convinto che la storia è ciclica, quindi tra un po' toccherà a qualcun altro..

Bulfio
12-09-2003, 14:49
Ah calma...non tifo per nessun brand...ho messo giù le cose per come le vedo...non sia mai che mi attribuite una squadra...io non ci entro nei vostri giochi!

pompone
12-09-2003, 14:50
Mi spiegate perchè mettete tutta questa passione nel commentare una news su delle schede video? Tanto qui nessuno cambierà mai idea a proposito, e se qualcuno nuovo volesse capirci qualcosa certo qui non ne avrà l'occasione. Tanto si sa che chi compra ATI o Nvidia non cambierà mai anche se dovesse uscire qualche cosa di fenomenale dalla casa concorrente...dirà semplicemente che i test sono falsati e bla bla bla col risultato di auto castrarsi.
Cercate di essere obiettivi nelle vostre opinioni.
Saluti a tutti.

Kaiman
12-09-2003, 14:51
X DOOM3.....Hanno detto che non hanno usato i detonator 5x.xx perche' sembra che per far andare il gioco in questione riducano e di moplto la qualita' grafica, togliendo fogging e qualche altro effetto!!!

Cnq le geffoFX hanno ENORMI problemi con le DX9, TOmb Raider AOD con gli shader attivati va' il doppio piu' veloce su una raddy 988pro che su una 5900ultra!!!
Percio' non prendetevela con la valve!!!
Il problema e' solo di Nvidia che per "SCOATTARE" con un "+" dopo Pixel shader2.0 e VertexShader 2.0 se ne e' infischiata delle specifiche Microsoft delle DX9!!! E mo sono cavoli suoi!!!

Nicola256
12-09-2003, 14:55
Ecco un link interessante.
A voi i commenti.
http://www.theinquirer.net/?article=11276

Sayan V
12-09-2003, 14:55
Opsss ... io mi trovo nel paradosso.
Ho una 9700pro ma HF1 non mi è piaciuto (cè lo ha casa in originale) e non ci ho mai giocato, di conseguenza neanche HF2, però preferisco DOOM3 .. come la mettiamo?

Eraser|85
12-09-2003, 14:58
DoomIII
mi fanno ridere i cari tifosi Ati soddisfatti... ma vorrei vedere delle performance reali... con tutti i vari filtrini attivati ecc...
--------------
Piuttosto ci si sta chiedendo... se hanno i 50... perchè non li hanno usati... perchè hanno usato i 45 quando sanno benissimo che non sono appropriati per le Dx9?

Hmmm sbaglio o sono proprio le GF che perdono quando si attivano i filtri? Ahh no, quello era quando i filtri funzionavano correttamente, che filtravano qualcosa. Da quando la nVidia ha diminuito la qualità dei filtri per farli andare + velocemente, le GF perdono un pò meno... ;)

Hmmmm scusa ancora, ma sbaglio o la nvidia ha dichiarato la serie DET.40 la serie per le DX9???? Me lo ricordo troppo bene perchè all'epoca anch'io avevo una nVidia e ho dovuto installare i det. 4x.xx perchè con le dx9 i vecchi driver davano problemi...

Aryan
12-09-2003, 15:00
OT: HL2 sarà ottimizzato per Athlon64...

Biotech
12-09-2003, 15:22
Ma dopo tutte queste menate e disquisizioni, c'è qualcuno che abbia capito il motivo di tale differenza?

Secondo me è molto semplice:

Il progetto di Half-life 2 e iniziato prima ancora che uscissero le GeforceFX (io ho il filmato dell'E3 da prima che uscisse l'NV30) perciò le uniche schede DX9 a disposizione della Valve erano le ATI (già disponibili da un anno e più) perciò si può dire che il codice e stato scritto pari pari per le ATI e poi adattato per le FX.

E UN PO' COME PER GUNMETAL CHE PER ANDARE SULLE RADEON RICHIEDE UNA PATCH.

L'UNICO ERRORE DELL'NVIDIA E' STATO QUELLO DI USCIRE TROPPO TARDI CON L'NV30, IMPEDENDO ALLA VALVE DI CREARE UN MOTORE DI RENDERING CHE STESSE A META' TRA ATI ED NVIDIA.

Comunque penso proprio che con i Detonator 5 si risolveranno tutti i problemi (il "problema" verrà aggirato intervenendo a monte sul driver e non mettendo una pezza a colori dopo).

CIAUZ

falcon.eddie
12-09-2003, 15:44
Originariamente inviato da TripleX
[...]
certo ora Nvidia abbassera'a 1 bit la precisione da 32bit e le prestazione saranno doppie di r350 con qualita' video modello VIC20!!

Complimenti,già dal 10° post inziamo a scatenare flames... :rolleyes:

Clcortez
12-09-2003, 15:49
Sarei curioso di sapere come va con le Matrox Parhelia.

paul71
12-09-2003, 15:49
Io credo che non sia questione di soldi pagati o meno ad una software house o ad un altra. Anche Carmak ha dichiarato quello che hanno dichiarato i Valve e cioè che Doom 3 ha un code path specifico per nv3x e invece code path generico dx 9 per r3xx come anche hl2. Non c'è nessuna differena tra questi due giochi in fatto di ottimizzazioni. Credo che questo code path specifico sia stato fatto proprio nell'interesse degli utenti nvidia (e quindi anche propri degli sviluppatori) che non potrebbero giocare decentemente con tali giochi con schede da 500/600 euro. Non c'è molto da scannarsi su questo. Anzi io da utente Ati plaudo al lavoro di questi programmatori perchè se in futuro dovessi trovarmi io nella situazione attuale degli utenti nvidia gradirei che i programmatori pensassero di rivitalizzare la mia scheda con delle ottimizzazioni. Probabilmente gli ingegneri Nvidia hanno fatto un lavoro a metà perchè sembra che le schede nv3x necessitino di api proprietarie per essere sfruttate (come le glide con la 3dfx) e che quindi mancando questa api proprietaria debbano rincorrere i vari giochi o benchmark con ottimizzazioni ad hoc per ovviare a questa mancanza. Probabilmente nv3x è un mostro che non può essere scatenato come una ferrari con i ruotini da corsa di 60 anni fa che non andrebbe molto lontano. Probabilmente i progetti nv4x saranno molto più ortodossi e non necessiteranno più di queste cose e allora si che vedremmo una bella competizione alla pari con r420. Non vedo l'ora anche perchè all'epoca prevedo di cambiare la gpu... ^_________^
Ciao

KAISERWOOD
12-09-2003, 16:01
Valve ha tutto l'interesse di vendere il suo gioco, perciò non credo che pensi ad ottimizzare il codice per i radeon della r3XX e il fatto che sta cercando di farlo girare bene anche sul nv3X è significativo. Il fatto che l'fx sono inferiori alle vecchie schede dx8 è un altro elemento in +. Penso che Nvidia stia ricorrendo già ai ripari nell'ottimizzazione dei driver. Non credo che abbasndo la qualità si possono ricavare + frame qua si deve riscrivere il driver.
Halve si preoccupa di vendere il suo prodotto e poiché la maggior parte dle mercatoo è dominato da nvidia c'è molta gente che ha geforcefx.

pg08x
12-09-2003, 16:32
Originariamente inviato da fek
Hey ciao, ti ritrovo sul piede di guerra :)

La mia opinione e' che con l'uscita del DX9 SDK Summer Update ci sara' sempre meno interesse in Cg (secondo me verra' abbandonato il supporto a breve, almeno e' quello che mi e' sembrato di capire nell'ultimo meeting che ho avuto con nVidia) e le ottimizzazioni specifiche per l'hw saranno sempre piu' a carico del compilatore HLSL e non del programmatore. E' una situazione molto migliore di quella attuale perche' diminuisce considerevolmente il tempo da spendere per queste ottimizzazioni ...

Ciao fex,

ti riquoto perchè mi è venuta in mente una cosa...
c'è qualcuno che dice che ATI si è sposata Microsoft per via della vicenda xbox, il compilatore HLSL è di microsoft...
Da una parte abbiamo i programmatori che, come dici tu, spenderanno molto meno tempo per queste ottimizzazioni, dall'altra microsoft che ha bell'affare di prendersi carico di implementarle direttamente nel proprio compilatore... (stiamo parlando di uno scenario in cui esce un nv40 privo di questi problemi, quindi un nv3x che ha perso interesse commerciale)... dall'altro mi confermi quelli che erano anche i miei sospetti, vale a dire che nvidia cerca di "allentare" il supporto e l'aggiornamento del cg.
Praticamente le cose stanno evolvendo esattamente come ti ripetevo più e più volte in quella lunga discussione che abbiamo avuto tempo fa, vale a dire che cg serve per favorire nv30 ma che per poterlo fare deve stare up to date.
Vedrai andrà a finire come è già successo con la 5800 ultra che è stata pompata all'inverosimile (anni di attesa) per poi essere mollata da nvidia. Quando nv40 sarà ready per le fx non ottimizzerà più nessuno:(

Ciesko
12-09-2003, 16:33
Ragazzi tenete conto che parliamo di 30 (trenta) FPS in +, il divario tra FX e 9800 è grande. Non so se i detonator 50 riescano a recuperarli tutti.. Cmq aspettiamo i "veri bench" ;)

Eraser|85
12-09-2003, 17:00
una cosa bisogna dirla però.

E' vero che la nVidia ha problemi, è vero che va peggio (indipendentemente da driver, ottimizzazioni, etc..), però cavolo, chi ha comprato la fx5900ultra come si sente? Cioè ha sprecato cmq 500 e passa euro, per fare che? girare con 30 miseri fps? non penso sia una cosa giusta... e penso che in qualche modo vadano tutelati coloro che hanno fatto questo "errore", chiamiamolo così và... penso che quest'aiuto da parte di valve, e da parte della Id sia molto positivo, in modo che perlomeno l'utente nvidia possa sfruttare un pò di più il proprio hw invece di sbolognarlo subito...

Cmq temo anch'io che appena uscirà l'nv40, il progetto nv3x andrà a farsi benedire, e con esso le ottimizzazioni stile D3 e HL2...

Wonder
12-09-2003, 17:04
Sbolognarlo subito? e chi lo vorrebbe sentiamo? Queste sono cose che deprezzano notevolmente una sk video. GLi unici che possono risollevare le sorti sono proprio i programmatori dei driver nVidia. Spera che siano all'altezza

Eraser|85
12-09-2003, 17:08
beh diverse volte (in passato però.. tipo i detonator 2x.xx) hanno dimostrato di essere bravi e di aumentare le prestazioni del 20-25%.. qui però la percentuale è ben più alta.. ;)

baldax
12-09-2003, 17:10
Originariamente inviato da romeop
la 9500PRO va decisamente meglio della 9600PRO visto che ha 8 pipeline di rendering attive, come la 9700.
In più regge all'overclock molto bene e direi che si potrebbe arrivare a quel bench a un valore tra i 55 e i 60.

scusa ma la 9500pro va sempre più forte di una 9600pro o solo in half life 2?

ma la 9600pro non è più nuova della 9500pro?

tasso79
12-09-2003, 17:10
Il punto debole della geffo 5900 da quello che mi sembra di vedere, sono proprio gli shader. Così, a quanto pare in un gioco, come hl2, che li usa pesantemente, ottiene prestazioni pessime. La mia ipotesi è che non abbia creduto a sufficienza sullo sviluppo delle dx9 e non abbia temuto abbastanza quello che poteva fare Ati. Io ho una 9500Pro moddata, e non aspetto di giocare ad hl2, visto che è una grandissima figata!

DoomIII
12-09-2003, 17:37
Originariamente inviato da Eraser|85
Hmmm sbaglio o sono proprio le GF che perdono quando si attivano i filtri? Ahh no, quello era quando i filtri funzionavano correttamente, che filtravano qualcosa. Da quando la nVidia ha diminuito la qualità dei filtri per farli andare + velocemente, le GF perdono un pò meno... ;)

Hmmmm scusa ancora, ma sbaglio o la nvidia ha dichiarato la serie DET.40 la serie per le DX9???? Me lo ricordo troppo bene perchè all'epoca anch'io avevo una nVidia e ho dovuto installare i det. 4x.xx perchè con le dx9 i vecchi driver davano problemi...

scusa ma perchè la prendete sempre cosi sul personale?
Cio di quello che ho detto tu hai capito una cosa che non ho assolutamente detto e cioè seconde te io avrei insinuato che la Ati con i filtri non marcia...
non sto dicendo questo... viste le performance... ho solo detto che vorrei vedere bench più precisi... sia nVidia con i driver 50 sia le varie risoluzioni e filtri attivati... OVVIAMENTE sia per nVidia che per Ati... perchè da quello che sembra non so quanto fluido possa poi essere il gioco... c'è anche da dire però che questo è un bench... non ho idea se sia una specchio del gioco o se magari esagera effetti/poligoni ecc...
cioè... il gioco potrebbe poi essere più veloce del bench ma potrebbe anche essere che nel bench manchino fisica ecc... bo... magari è stato anche detto ma nn ci ho fatto caso... hmm... qualcuno sa effettivamente sto test cosa sia?

DoomIII
12-09-2003, 17:45
Originariamente inviato da Kaiman
X DOOM3.....Hanno detto che non hanno usato i detonator 5x.xx perche' sembra che per far andare il gioco in questione riducano e di moplto la qualita' grafica, togliendo fogging e qualche altro effetto!!!


hmmm... non mi sembra sia stato detto... forse è stato solo supposto... ad ogni modo mi sembra troppo strano... hanno collaborato molto con nVidia per le ottimizzazioni sui detonator 50...

Originariamente inviato da Kaiman
Cnq le geffoFX hanno ENORMI problemi con le DX9, TOmb Raider AOD con gli shader attivati va' il doppio piu' veloce su una raddy 988pro che su una 5900ultra!!!
Percio' non prendetevela con la valve!!!
Il problema e' solo di Nvidia che per "SCOATTARE" con un "+" dopo Pixel shader2.0 e VertexShader 2.0 se ne e' infischiata delle specifiche Microsoft delle DX9!!! E mo sono cavoli suoi!!!

su questo non hai tutti i torti... ma come ho sempre detto nel NV30/35 gli investimenti sono stati maggiori per il futuro...
nVidia era più interessata a poter dettare i nuovi steps... un po come ha fatto all'epoca delle DX8 con gli shaders(suo brevetto).
e cosi NV30/NV35 presentano soluzioni già oltre all'attuale step tecnologico... insomma IMHO è un ibrido sperimentale...

cmq ho sempre sconsigliato l'acquisto di una scheda di questa generazione. :rolleyes:

fek
12-09-2003, 17:45
Originariamente inviato da Eraser|85
Stiamo cadendo nell'assurdo, non devi fare una versione ottimizzata per una scheda e una versione "normale" senza ottimizzazioni per l'altra. Tutte le schede video devono eseguire il codice nel medesimo modo, senza aiuti, ottimizzazioni o cacchiate varie. Ogni tentativo di miglioramento tramite queste strade è indice di poca competitività di una scheda.

No no no... piano. Le due schede all'interno sono profondamente diverse ed e' normale che sia cosi'. Piu' si programma la scheda a basso livello, ad esempio scrivendo a mano gli shader in assembly, piu' bisogna stare attenti all'ottimizzazione ed il codice risultera' per forza di cose diverse.

E' un'utopia pensare di scrivere uno shader in assembly in maniera "generica": e' un controsenso. Per quello c'e' HLSL.

E' anche non particolarmente esatto dire che l'R3X0 eegue codice generico piu' velocemente dell'NV3X: in realta', per una situazione quasi casuale, scrivendo un pixel shader in maniera "generica" le istruzioni sono mischiate in maniera particolarmente adatta all'R3X0 e particolarmente sfavorevole all'NV3X. Rimischiando le istruzioni accade il contrario. Ci sono dietro discorsi molto a basso livello, non si puo' fare facili generalizzazioni come quella nel post quotato.

fek
12-09-2003, 18:01
Originariamente inviato da pg08x
Ciao fex,

ti riquoto perchè mi è venuta in mente una cosa...
c'è qualcuno che dice che ATI si è sposata Microsoft per via della vicenda xbox, il compilatore HLSL è di microsoft...
Da una parte abbiamo i programmatori che, come dici tu, spenderanno molto meno tempo per queste ottimizzazioni, dall'altra microsoft che ha bell'affare di prendersi carico di implementarle direttamente nel proprio compilatore... (stiamo parlando di uno scenario in cui esce un nv40 privo di questi problemi, quindi un nv3x che ha perso interesse commerciale)... dall'altro mi confermi quelli che erano anche i miei sospetti, vale a dire che nvidia cerca di "allentare" il supporto e l'aggiornamento del cg.
Praticamente le cose stanno evolvendo esattamente come ti ripetevo più e più volte in quella lunga discussione che abbiamo avuto tempo fa, vale a dire che cg serve per favorire nv30 ma che per poterlo fare deve stare up to date.
Vedrai andrà a finire come è già successo con la 5800 ultra che è stata pompata all'inverosimile (anni di attesa) per poi essere mollata da nvidia. Quando nv40 sarà ready per le fx non ottimizzerà più nessuno:(


Ciao :)

Ok, qualche informazione in piu' (ma non dite che ve l'ho detto io perche' non potrei ;)). La 5800 e' esattamente la stessa idea della Geforce3: una scheda per introdurre una nuova tecnologia agli sviluppatori. Con la GF3 erano gli shader con la 5800 erano gli shader 2.0. Nessuna delle due schede aveva pretese di essere un successo commerciale, perche' il successo commerciale e' la scheda successiva (GF4 e 5900).
Ora, detto questo, i piani di nVidia non sono andati puliti come con la GF3 perche' e' uscita ATI con un'ottima architettura DX9.
Tornando a Cg, Cg e HLSL sono lo stesso linguaggio, letteralmente lo stesso linguaggio. Se avessi avuto anche il minimo dubbio prima dell'ECTS, dopo aver parlato con MS ad un meeting privato, non ho alcun dubbio: mi hanno confermato che HLSL e Cg sono lo stesso linguaggio che ha preso due strade differenti in termini di compilatore.
La mia impressione e' che nVidia abbandonera' lo sviluppo del suo compilatore (ricordati che il linguaggio e' uguale), ma questa e' solo una mia impressione non confermata da nessun fatto particolare: io non ho domandato e i ragazzi di nVidia non mi hanno detto nulla. Quindi rimane solo un'opionione :)

Prima di questa parentesi dicevo che i piani nVidia non sono andati pulitissimi per via di ATI, ma questo non vuol dire che stiano cambiando strategia: mi hanno gia' anticipato molte caratteristiche dell'NV40 e alcune dell'NV50. E per tutte e due le generazioni accadra' che usciranno con una scheda per gli sviluppatori (l'NV40 ad esempio) e poi una scheda per il mercato, tipo l'equivalente dell'attuale 5900 o della vecchia GF4.

In altre parole, non comprate le prime schede di ogni generazione sia di ATI sia di nVidia, sono pensate per gli sviluppatori ;)

yossarian
12-09-2003, 18:21
Originariamente inviato da fek
No no no... piano. Le due schede all'interno sono profondamente diverse ed e' normale che sia cosi'. Piu' si programma la scheda a basso livello, ad esempio scrivendo a mano gli shader in assembly, piu' bisogna stare attenti all'ottimizzazione ed il codice risultera' per forza di cose diverse.

E' un'utopia pensare di scrivere uno shader in assembly in maniera "generica": e' un controsenso. Per quello c'e' HLSL.

E' anche non particolarmente esatto dire che l'R3X0 eegue codice generico piu' velocemente dell'NV3X: in realta', per una situazione quasi casuale, scrivendo un pixel shader in maniera "generica" le istruzioni sono mischiate in maniera particolarmente adatta all'R3X0 e particolarmente sfavorevole all'NV3X. Rimischiando le istruzioni accade il contrario. Ci sono dietro discorsi molto a basso livello, non si puo' fare facili generalizzazioni come quella nel post quotato.


vero, però è anche vero che tutte le ottimizzazioni per far andare di più chip nVIDIA, dalla path NV30 di Doom3, alla path per HL2, vanno chiaramente in direzione di una drastica riduzione dei calcoli a carico delle unità VS e PS, oltre che di una riscrittura parziale degli stessi (a volte addirittura adoperando versioni precedenti). Questo fa pensare a problemi di architettura (SRF e cache interne sottodimensionatei, minore efficienza delle unità PS e VS, ecc.) oltre che di "interpretazione" delle istruzioni.

ciao

fek
12-09-2003, 18:34
Originariamente inviato da yossarian
vero, però è anche vero che tutte le ottimizzazioni per far andare di più chip nVIDIA, dalla path NV30 di Doom3, alla path per HL2, vanno chiaramente in direzione di una drastica riduzione dei calcoli a carico delle unità VS e PS, oltre che di una riscrittura parziale degli stessi (a volte addirittura adoperando versioni precedenti). Questo fa pensare a problemi di architettura (SRF e cache interne sottodimensionatei, minore efficienza delle unità PS e VS, ecc.) oltre che di "interpretazione" delle istruzioni.

ciao

Le ottimizzazioni per NV3X sono di tre tipi:

1) Partial precision

la piu' semplice, si scrive tutto in "partial precision" (a 16 bit invece che 32).

2) Instruction schdeuling

La seconda riguarda lo scheduling delle istruzioni, qui la cosa diventa un po' piu' complicata da seguire e devo scendere un po' nel tecnico. Le istruzioni che si possono eseguire in un pixel shader sono di due tipi: fetch della texture (andare a recuperare all'interno di una texture il colore per un pixel) e istruzioni ALU (calcoli semplici). L'R3X0 lavora meglio se si eseguono prima tutti i fetch delle texture e poi tutti i calcoli. L'NV3X lavora meglio se si mischiano le istruzioni di fetch con quelle di calcolo.

3) Instruction trading

Anche questa e' molto tecnica. L'idea qui e' che l'NV30 e' piu' veloce a eseguire il fetch di una texture di quanto lo sia a fare alcuni calcoli complessi, quindi in alcuni casi conviene evitare un calcolo e andarlo a recuperare all'interno di una tabella (la texture)

Ora vediamo caso per caso perche' il path cosi' detto generico (che generico non e') favorisce l'R3X0

1) Di default i calcoli sono in precisione massima che e' 32 bit per l'NV3X e 24 (correzione :p) bit per l'R3X0; ovviamente di default e' piu' veloce l'R3X0 perche' esegue calcoli a precisione minore

2) Di default (ed in maniera piu' naturale) si scrivono prima i fetch delle texture e poi i calcoli, cosa che favorisce l'R3X0; quindi essendo piu' naturale scrivere in questo modo, questa naturalita' ottimizza una delle due architettura e non l'altra

3) L'R3X0 soffre meno il problema dei calcoli complicati nel pixel shader perche' il motore dei pixel shader e' piu' veloce, anche perche' e' meno complesso e ricco di funzionalita' di quello dell'NV3X (hanno preferito un'architettura meno potente e ricca ma piu' veloce)

Una piccola noticina: su NV3X e' possibile scrivere alcuni effetti complicati in una sola passata piuttosto che in piu' passate necessarie all'R3X0 (questo non e' strettamente vero per l'R350 grazie all'F-buffer) perche' il motore dei pixel shader e' piu' ricco di funzionalita' quindi in questo caso risulterebbe piu' veloce.
Credo che HL2 non abbia di questi shader particolarmente complessi da richiedere piu' di una passata su R3X0.

Bulfio
12-09-2003, 18:49
Ma perchè di default i calcoli sono a 32 bit per NV e a 16 bit per Ati????? Questa non l'ho proprio capita..non dovrebbe essere di default per entrabi a 32 bit?

yossarian
12-09-2003, 19:00
Originariamente inviato da fek
Le ottimizzazioni per NV3X sono di tre tipi:

1) Partial precision

la piu' semplice, si scrive tutto in "partial precision" (a 16 bit invece che 32).

2) Instruction schdeuling

La seconda riguarda lo scheduling delle istruzioni, qui la cosa diventa un po' piu' complicata da seguire e devo scendere un po' nel tecnico. Le istruzioni che si possono eseguire in un pixel shader sono di due tipi: fetch della texture (andare a recuperare all'interno di una texture il colore per un pixel) e istruzioni ALU (calcoli semplici). L'R3X0 lavora meglio se si eseguono prima tutti i fetch delle texture e poi tutti i calcoli. L'NV3X lavora meglio se si mischiano le istruzioni di fetch con quelle di calcolo.

3) Instruction trading

Anche questa e' molto tecnica. L'idea qui e' che l'NV30 e' piu' veloce a eseguire il fetch di una texture di quanto lo sia a fare alcuni calcoli complessi, quindi in alcuni casi conviene evitare un calcolo e andarlo a recuperare all'interno di una tabella (la texture)

Ora vediamo caso per caso perche' il path cosi' detto generico (che generico non e') favorisce l'R3X0

1) Di default i calcoli sono in precisione massima che e' 32 bit per l'NV3X e 16 bit per l'R3X0; ovviamente di default e' piu' veloce l'R3X0 perche' esegue calcoli a precisione minore

2) Di default (ed in maniera piu' naturale) si scrivono prima i fetch delle texture e poi i calcoli, cosa che favorisce l'R3X0; quindi essendo piu' naturale scrivere in questo modo, questa naturalita' ottimizza una delle due architettura e non l'altra

3) L'R3X0 soffre meno il problema dei calcoli complicati nel pixel shader perche' il motore dei pixel shader e' piu' veloce, anche perche' e' meno complesso e ricco di funzionalita' di quello dell'NV3X (hanno preferito un'architettura meno potente e ricca ma piu' veloce)

Una piccola noticina: su NV3X e' possibile scrivere alcuni effetti complicati in una sola passata piuttosto che in piu' passate necessarie all'R3X0 (questo non e' strettamente vero per l'R350 grazie all'F-buffer) perche' il motore dei pixel shader e' piu' ricco di funzionalita' quindi in questo caso risulterebbe piu' veloce.
Credo che HL2 non abbia di questi shader particolarmente complessi da richiedere piu' di una passata su R3X0.

Grazie per la spiegazione (al punto 1, però edita la max precisione per R3x0 che è 24 bit :) ).
Quanto dici al punto 2, tranne che per NV35, sembra in contrasto con quanto riportato in quest'articolo
http://www.3dcenter.de/artikel/cinefx/index_e.php
Inoltre i dubbi relativi alla capienza dei registri, sollevati anche da Anand in questo punto dell'articolo

So the first change that was made is to use partial-precision registers where appropriate, well what does that mean? As we've mentioned in previous articles, NVIDIA's pixel shading pipelines can either operate on 16 or 32-bit floating point numbers, with the 32-bit floats providing greater precision. Just like on a CPU, the actual FPUs that are present in the pixel shader units have a fixed number of local storage locations known as registers. Think of a register as nothing more than a place to store a number; with the NV3x architecture, each register can either hold one 32-bit floating point value or it can be used as two 16-bit floating point registers. Thus when operating in 16-bit (aka partial precision) mode, you get twice as many physical registers as when you're running in 32-bit mode.

Note that using 32-bit floating point numbers doesn't increase the amount of memory bandwidth you're using, it simply means that you're cutting down the number of physical registers your pixel shader FPUs have access to. What happens if you run out of registers? After running out of registers, the functional units (FPUs in this case) must swap data in and out of the graphics card's local memory (or caches) which takes a significantly longer time - causing stalls in the graphics pipeline or underutilization of the full processing power of the chip.

The fact that performance increased when moving to partial-precision (16-bit) registers, indicates that NVIDIA's NV3x chips may have fewer usable physical registers than ATI's R3x0 series. If we're correct, this is a tradeoff that the NVIDIA engineers have made and it is to conserve die space, but we're not here to criticize NVIDIA's engineers rather explain NVIDIA's performance here.

Next, Gabe listed the tradeoff in pixel shader instruction count for texture fetches. To sum this one up, the developers resorted to burning more texture (memory) bandwidth instead of putting a heavier load on computations in the functional units. Note that this approach is much more similar to the pre-DX9 method of game development, where we were mainly memory bandwidth bound instead of computationally bound. The fact that NVIDIA benefited from this sort of an optimization indicates that the NV3x series may not have as much raw computational power as the R3x0 GPUs (whether that means that it has fewer functional units or it is more picky about what it can execute and when is anyone's guess).

li avevo avuti anch'io a luglio (so che non sta bene citarsi, ma non sono proprio uno sprovveduto completo in fatto di architettura di chip: sicuramente conosco molto meglio l'HW del SW).
Mettendo insieme le due cose, potrebbero emergere i motivi delle non brillanti prestazioni dei motori VS e PS dellNV3x.

Per quanto riguarda il punto 3, sapevo di questi shader complessi e del vantaggio che avrebbero portato all'NV3x, però sono convinto che l'f-buffer possa essere almeno "simulato" anche sull'R300 (e non sia una peculiarità dell'R350).

Ciao

massibirba
12-09-2003, 19:09
vedro' come si comporta la mia sapphire7500 :l'esperienza mi ha insegnato a non credere a tutte le balle dei test,secondo me e' tutta propaganda per vendere le schede video in un mercato in recessione cronica...mha...Io uso molto il pc per giocare e fino ad esso ho sempre giocato anche agli ultimissimi giochi a 1024X768 a 32 bit senza uno scatto.Le schede supersborone servono solo se vuoi GIocare da sborone(anti-alias a 8X)cosa che se non sei ultraesigente non ti serve a niente

fek
12-09-2003, 19:38
Originariamente inviato da Bulfio
Ma perchè di default i calcoli sono a 32 bit per NV e a 16 bit per Ati????? Questa non l'ho proprio capita..non dovrebbe essere di default per entrabi a 32 bit?

Perche' hanno scelto cosi' in fase di design :)
Da una parte max a 24 e dall'altra 16/32.

GeForce-Fx
12-09-2003, 19:38
Questa mi pare una mossa commerciale tra Vale e Ati!Aspettiamo i nuovi driver di Nvidia e sono convinto che le cose torneranno al loro posto.Io posseggo una Msi GeForce Fx 5600 256 ddr e mi viene da piangere per ora....

fek
12-09-2003, 19:50
Originariamente inviato da yossarian
Quanto dici al punto 2, tranne che per NV35, sembra in contrasto con quanto riportato in quest'articolo


Grazie per il link, e' interessante :)

A quanto ho capito l'NV3X preferisce i fetch delle texture accoppiate, mentre l'R3X0 non fa molta differenza. Si', e' sensato. Le linee guida all'ottimizzazione che ci sono state date non menzionavano questo particolare. A questo punto devo capire se resta valido il principio secondo il quale l'R3X0 preferisce i texture fetch all'inizio, non mi sembra sia menzionato in questa descrizione.
Mi hai fatto venire un bel dubbio, e' ora di mandare una mail :)


A pixel shader 2.0 written according to the recommendations from ATi or created with the current DX9-SDK HLSL compiler unfortunately highlights all those problems. Such shaders use many temp register and have texture instructions packed in a block. A shader of version 1.4 uses the same principles.


Ok, qui sembra dire esattamente quello che avevo scritto. Mi era sorto il dubbio di aver preso una cantonata :)


But the PS 1.4 model and the PS 2.0 model as recommended by ATi begin with reading many textures before starting with the calculations, which is problematic for nVidia's architecture. In PS2.0 this can be solved with a new compiler, but with PS 1.4 this structure is fixed. nVidia has to do some work in the driver.


Ok, ora posso andare al pub felice :D

Albi80
12-09-2003, 20:14
La situazione la vedo delicata per NVIDIA.
Sul 3dmark 2003 nonostante le ottimizzazioni fatte (figurarsi cosa avranno fatto per far girare al meglio scenette di 2 minuti sempre uguali, si saranno messi ad ottimizzare fotogramma per fotogramma) e noostante questo giravano piu lente delle radeon.
Altro punto... anche un demo scritto appositamente per la geforce ,quello della fata o che altro era, girava piu veloce su una radeon nonostante fosse stato fatto specificatamente per un altro HW.
Comunque e stato un errore di nvidia fare una scheda non perfettamente compatibile con le Direct x 9.
, in fondo e uscita 6 mesi dopo .
Appropisito. Doom 3 usa OpenGL paragonabili alle Direct x 8.1....I PS 2.0 sono ancora un sogno per le OG.Doom 3 arriva alle 1.3 e non oltre

Orsobubu
12-09-2003, 20:22
Originariamente inviato da massibirba
...l'esperienza mi ha insegnato a non credere a tutte le balle dei test,secondo me e' tutta propaganda per vendere le schede video in un mercato in recessione cronica

Attenzione a non generalizzare: i test sono fondamentali, soprattutto per chi non ha possibilità di provare da sè l'hardware.... Ovviamente, vanno solo visti con occhio più critico ed attento (come quelli di questa news, ad esempio)
Il più delle volte dipende tutto dalla competenza di chi legge i test, e da come ne interpreta i risultati (e chi è competente raramente si fa fregare).

..mha...Io uso molto il pc per giocare e fino ad esso ho sempre giocato anche agli ultimissimi giochi a 1024X768 a 32 bit senza uno scatto

Beh, questa è fantascienza... o forse i giochi non sono proprio "ultimissimi"

Le schede supersborone servono solo se vuoi GIocare da sborone(anti-alias a 8X)cosa che se non sei ultraesigente non ti serve a niente

Tradotto: chi vuole giocare con i filtri le prende: chi no si tiene la 7500... e allora?

DjLode
12-09-2003, 20:29
Originariamente inviato da DoomIII
ok, nonostante abbia più volte ribadito il concetto... è naturale che i lamerozzoli saltano fuori e ognuno legge ciò che vuole leggere... ma faro finta che nonostante tutto sono stato io a spiegarmi male... quindi ribadisco che:


Hai rotto con la storia del lamer. Segnalato e spero che questa volta Raven non lasci cadere come le altre. L'altra volta mi hai offeso dopo che ti ho chiesto scusa per una male interpretazione di una frase. Scuse mai ricevuto ma pazienza, scendere sotto certi livelli mi sa fatica e tu sei un pelo troppo in basso per i miei standard. Non c'è bisogno che ti spieghi, le tue parole lo fanno abbastanza. Oltre che il fatto che tutto quanto non ti è chiaro è spiegato nei link da te mai letti.


mi lascia perplesso l'utilizzo dei 45 e la dichiarazione Valve secondo la quale su schede nVidia è meglio utilizzare le DX8... mi lascia perplesso perchè loro i 50 ce li hanno...


I 50.xx che avevano non renderizzavano la nebbia per un "bug" (come non renderizzavano tempo fa non ricordo che detonator il drago in 3d mark).


spero sta volta di essere stato un pelino più chiaro su cosa mi lascia perplesso.

Tutte cose spiegate nei link. Non sta scritto da nessuna parte che le Nvidia funzionino in dx8 (a parte che hanno consigliato di usare questa path con le 5200 e le 5600). Ma sta scritto ovunque che quei risultati (alla faccia dell'ottimizzazione pro-ati) sono stati ottenuti con una path (che ha richiesto 5 volte il tempo che ha richiesto la scrittura della modalità usata per ati) apposita che usa una modalità mixed tra calcoli a 16 e 32 bit. Oltretutto i Valve si sono impegnati a scrivere una path apposita che utilizzi i Ps 1.4 al posto dei 2.0 dove possibile per cercare di ripristinare le sorti. Dopo tutto questo dimostra che i Valve (che vogliono vendere) non ci stanno ad essere tacciati di favorire una casa rispetto all'altra (chi ha detto "al contrario di carmack" vince un pelouche), anzi si stanno impegnando a fondo.
Ma tutto questo determinate persone non lo capiscono e tacciano gli altri del fatto di essere lamer. Te l'ho detto altre volte, impara a discutere con le persone, che siano lamer o sul tuo stesso gradino.

DjLode
12-09-2003, 20:34
Originariamente inviato da Nicola256
Per DjLode
Mi dispiace non poterti fornire il link della notizia che ho letto su internet, ti prometto che quando lo trovo te lo spedisco. Volevo solo dire che, anche in base alle varie notizie che ho letto in questi ultimi mesisu HL2 (fonti:www.theinquirer.net;www.xbitlabs.com),mi sono fatto l'idea che tutta questa vicenda assomiglia molto ad una operazione commerciale che sussiste tra ATI e Valve.
Ma che tu debba usare un tono offensivo e accusarmi di non conoscere l'inglese e di "sparare una panzanata" solo perchè ho espresso la MIA OPINIONE, beh questo denota una aggressività che rasenta la maleducazione. E questo proprio non è un bel comportamento.

Nocola256 mi ha contattato in privato e mi dispiace che il post precedente sia stato da lui travisato in alcune frasi. Non era mia intenzione accusarlo di non sapere l'inglese. Ho solo chiesto se sapeva tradurlo (forse dovevo specificarlo), a volte persone chiedono link in italiano perchè non sanno troppo l'inglese. Non era assicuro mia intenzione accusare una persona che non conosco di una determinata cosa. Mi scuso pubblicamente come ho già fatto con lui in privato.

DjLode
12-09-2003, 20:36
Originariamente inviato da Aryan
OT: HL2 sarà ottimizzato per Athlon64...

Ci sarà una versione apposita o lo sarà nativamente?

Gohansupersaiyan4
12-09-2003, 21:09
Doom3 non sfnziona meglio su nvidia, anzi, la versione abr2 che su nvidia non parte neanche, che permette la massima qualità funziona su ati meno velocemente della versione nvidia con inferior equalità...per un pò di fps in meno e tanta qualità in più...è meglio ati...


f

^TiGeRShArK^
12-09-2003, 21:10
cmq riguardo la storia x cui doom 3 farebbe 10 fps con i catalyst 3.4 è del tutto vera. Pekkato però ke si eviti di menzionare il fatto ke con i 3.2 ATI sia sui 77 fps... certo è sempre sotto a nvidia, ma assolutamente nn nella proporzione ke si è vista con hl2 ... e cmq nn dimentikiamo ke doom 3 è PESANTEMENTE ottimizzato per gpu Nvidia, mentre per ATI si usa il solo path generico ABR2

Gohansupersaiyan4
12-09-2003, 21:12
Ma se ottimizzano hl2 per ati allora va a 200fps ?

Eraser|85
12-09-2003, 21:13
Originariamente inviato da DjLode
Ci sarà una versione apposita o lo sarà nativamente?

interesserebbe anche a me, visto che vorrei comprare quel processore il prima possibile.. sto attendendo quel momento trepidamente, e il mio 1900+, soprattutto con i software di raytracing, si sente che è davvero troppo lento...

ps: djlode, se possibile rallenta la tua gif dell'avatar... mamma mia è uno spakkaokki :D :D (battuta) :p

DjLode
12-09-2003, 21:24
Originariamente inviato da Eraser|85
ps: djlode, se possibile rallenta la tua gif dell'avatar... mamma mia è uno spakkaokki :D :D (battuta) :p

Non sei l'unico ad avermelo detto, ma a me piace così :)

Gohansupersaiyan4
12-09-2003, 21:26
Secondo me è sbagliato chiamarle ottimizzazioni queste...le ottimizzaizoni sono un altro conto...se ottimizzi aumenti i fps mantenendo la stessa qualità...se abbassi la qualità...è solo un trucchetto e basta...


Ciao

falcon.eddie
12-09-2003, 21:35
Originariamente inviato da Gohansupersaiyan4
Secondo me è sbagliato chiamarle ottimizzazioni queste...le ottimizzaizoni sono un altro conto...se ottimizzi aumenti i fps mantenendo la stessa qualità...se abbassi la qualità...è solo un trucchetto e basta...


Ciao

Questo non ci è dato saperlo al momento...Così come se la path nv30 su doom3 dia o meno gli stessi risultati dell'arb2.(a detta di Carmack non c'è differenza qualitativa,vedremo)

sanitarium
12-09-2003, 22:16
Originariamente inviato da falcon.eddie
Questo non ci è dato saperlo al momento...Così come se la path nv30 su doom3 dia o meno gli stessi risultati dell'arb2.(a detta di Carmack non c'è differenza qualitativa,vedremo)

Per quel che ne so io Carmack ha detto che la differenza qualitativa tra ARB2 e NV30 path c'è, è quasi impercettibile ma c'è.

DoomIII
13-09-2003, 00:44
Originariamente inviato da DjLode
Hai rotto con la storia del lamer. Segnalato e spero che questa volta Raven non lasci cadere come le altre. L'altra volta mi hai offeso dopo che ti ho chiesto scusa per una male interpretazione di una frase. Scuse mai ricevuto ma pazienza, scendere sotto certi livelli mi sa fatica e tu sei un pelo troppo in basso per i miei standard. Non c'è bisogno che ti spieghi, le tue parole lo fanno abbastanza. Oltre che il fatto che tutto quanto non ti è chiaro è spiegato nei link da te mai letti.



I 50.xx che avevano non renderizzavano la nebbia per un "bug" (come non renderizzavano tempo fa non ricordo che detonator il drago in 3d mark).


...
...
...
Ma tutto questo determinate persone non lo capiscono e tacciano gli altri del fatto di essere lamer. Te l'ho detto altre volte, impara a discutere con le persone, che siano lamer o sul tuo stesso gradino.

detto altre volte? suvvia adesso nn inventiamo 'morali'.. ma chi sei? nn mi hai mai detto niente... :confused:


ho cercato di fare un post cercando di esprimere le mie perplessità e volevo evitare che ci fossero quote polimici...
ho cercato di spiegarmi ed il tuo modo di quotare mi è sembrato da uno che vuole esclusivamente fomentare polemiche... da qui il nomignolo 'lamerozzolo' ... IMHO è un comportamento 'lamer' ... dici che ho frainteso...? OK... allora anche tu hai frainteso il mio post... poi vabbè... che vuoi che ti dica... se ti offendi in quella maniera non so allora cosa dovrei fare io per quello che mi scrivi tu.
Poi non capisco ancora perchè ve la prendete cosi sul personale... cioè scusa l'assurdita... ma ci sono certi Ati-tifosi... che se fosse di parte nVidia... non so cosa scatenerebbero... nel senso che contro nVidia state dicendo di tutto... su Ati nessuno dice niente di male... dandole i dovuti meriti si fanno certe constatazioni... e giu ad andarci pesante gridando allo scandalo se uno dice:
"be ma vediamo con i driver cosa migliora." Ma cosa volete che inneggiamo canti ad Ati? :confused:


cmq tornando all'argomento in questione... nessuno sa qualcosa in più su questi test?


[èRiEdit]
piuttosto che fare un nuovo quote OT rimodifico il messaggio e scrivo qui:
Originariamente inviato da DjLode
Dai su, non negare :)



Ancora con sta storia del lamer e del livello. Ripeto, stufo o no hai rotto.



Ecco bravo, ci fai più bella figura a tornare in topic.

vedo che sei subito pronto a rispondere... hmm... hai risposto mentre modificavo il messaggio... vabbè np... peccato che non ho visto io il tuo messaggio prima che tu lo modificassi. :D
anzi meglio cosi :O
hmm... e cosa mi avresti mai detto scusa? ricordo il fatto di qualcuno che mi aveva attribuito frasi che nn avevo detto... pensavo lo facesse apposta poi sembra si sia trattato di un probabile equivoco... ma il tutto era finito li.

hmm... mamma mia quanta arroganza... e 'ancora con sta storia che vuol dire?' ho sempliciemente spiegato un tipo di comportamento che reputo scorretto.
so ho veramente rotto... scusa ma quando faccio un post come quello che mi hai quotato in cui cerco + volte di spiegarmi proprio per evitare quote polemici... nn quotarmi polemicamente...
altrimenti non puoi poi dire che ho rotto...
ho specificato più volte che non volevo polemiche ecc... ma voi Atisti sempre a cercare il pelo dell'uovo... guai se non si cantano inni di gloria ad Ati e non si spara su nVidia.
che cosa? ha detto che forse con i driver nuovi qualcosa può migliorare? sotto a quotare e insultare...
maddai...

bo, cmq...
Ti pregherei se devi continuare ad usare questi toni e vista la voglia che hai di offendere... di farlo via PVT cosi ti puoi sfogare quanto vuoi.
Vorrei non quotare più questi OT.... e comincio da questo che aggiungo al mess. precedente in modifica.
grazie per la collaborazione...

e saluti. :)

DjLode
13-09-2003, 00:55
Originariamente inviato da DoomIII
detto altre volte? non mi hai mai detto nulla... nn inventiamo 'morali'...


Dai su, non negare :)


e non puoi farci niente... dal mio punto di vista quotare in un certo modo ha solo lo scopo di fare polemica... e per me è un atteggiamento da lamer... oltre a questo ho utilizzato la simpatica storpiazione lamerozzolo... se ti devi offendere per questo non so cosa dovrei fare io per i tuoi post pesanti... ma fa niente... ancora non hai capito ciò che esprimevo... lasciamo stare l'argomento... non so esprimermi al tuo livello per farmi capire... il fatto che citi però lo ricordo quindi capisco che sia il tuo astio ad averti portato a quotarmi per cercare di punzecchiarmi e fare polemica... ma detto francamente non ne vedo proprio lo scopo...
solo una cosa... scusate l'OT ma le calunnie sopra non mi piacciono molto perchè i fatti sono stati un tantino diversi...


Ancora con sta storia del lamer e del livello. Ripeto, stufo o no hai rotto.


tornando all'argomento in questione... nessuno sa qualcosa in più su questi test?

Ecco bravo, ci fai più bella figura a tornare in topic.

yossarian
13-09-2003, 03:06
Originariamente inviato da fek
Grazie per il link, e' interessante :)

A quanto ho capito l'NV3X preferisce i fetch delle texture accoppiate, mentre l'R3X0 non fa molta differenza. Si', e' sensato. Le linee guida all'ottimizzazione che ci sono state date non menzionavano questo particolare. A questo punto devo capire se resta valido il principio secondo il quale l'R3X0 preferisce i texture fetch all'inizio, non mi sembra sia menzionato in questa descrizione.
Mi hai fatto venire un bel dubbio, e' ora di mandare una mail :)



Ok, qui sembra dire esattamente quello che avevo scritto. Mi era sorto il dubbio di aver preso una cantonata :)



Ok, ora posso andare al pub felice :D

Si è vero, conferma quanto sostieni; anche se, dall'analisi dei grafici risulta che l'R3x0 ha TMU e ALU indipendenti (cosa di cui sono certo) e questo lo rende poco sensibile al problema dell'ordine in cui sono disposte le istruzioni, mentre per l'NV30 non è così e questo potrebbe acuire, in effetti, dei problemi già esistenti. Nell'NV35 sembra (il condizionale e d'obbligo perchè non conosco il chip NV a questo livello, ma posso fare solo supposizioni) che abbiano in parte risolto il problema aggiungendo unità logiche, in grado di eseguire operazioni su altre 4 istruzioni, lavorando, però, indipendentemente dalle altre. Questo dovrebbe rendere l'NV35 meno sensibile dell'NV30 al problema da te illustrato (la curva di rendimento ha lo stess andamento qualitativo di quella dell'R3x0 nel caso migliore per NV, ossia quando si applica più di una texture per pixel).
Altro punto oscuro è questo:

But the PS 1.4 model and the PS 2.0 model as recommended by ATi begin with reading many textures before starting with the calculations, which is problematic for nVidia's architecture. In PS2.0 this can be solved with a new compiler, but with PS 1.4 this structure is fixed. nVidia has to do some work in the driver.

Per quale motivo, sapendo del problema del riordino delle istruzioni, ed essendo a conoscenza del fatto che tale riordino era più semplice con l'utilizzo dei PS2.0, Valve, con la collaborazione di NV, ha tirato fuori una path in cui sostituisce in diversi punti i PS2.0 con i PS1.4?
Ripeto, sono d'accordo con te sul fatto che, data l'architettura del chip, l'ordine delle istruzioni possa creare problemi (tenendo conto che le 8 texture unit e 4 unità logica non sono indipendenti neppure sull'NV35, almeno a giudicare dai grafici); però sicuramente c'è sotto qualcosaltro: uno dei limiti espliciti è proprio determinato dall'uso dei 32 bit, che l'NV3x sembra proprio non digerire (sia la path NV30 di Doom che quella di HL2 abbassano la fp precision da 32 a 16 bit). Quello che sto cercando di capire è se le difficoltà nascono dall'eccessiva, per le possibilità dell'NV3x, mole di calcoli intrinseca in una computazione a 32 bit, oppure nell'architettura che non permette la scrittura di più di 4 pixels per ciclo di clock (contro gli 8 dell'R3x0) o nell'effettiva ridotta capacità dei registri interni; oppure da una combinazione di questi tre fattori (che al momento mi sembrano quelli più probabili).
Fermo restando il discorso sulla validità di quanto dici sui problemi che possono sorgere ponendo le istruzioni in un modo anzichè in un altro (questo, però, allo stato attuale, mi pare l'unico problema risolvibile e, inoltre, è un problema che non si sarebbe dovuto porre, perchè nVIDIA era a conoscenza già da tempo delle difficoltà dell'NV30 con l'HLSL e con le istruzioni PS2.0 e VS2.0 e avrebbe dovuto e potuto agire tempestivamente; insomma non riesco a pensare che gli ingegneri di nVIDIA si siano resi conto a posteriori della scarsa compatibilità della loro architettura con le istruzioni standard PS1.4 e PS2.0 o, addirittura, con quelle OpenGL di Doom3, senza tener conto del fatto che analoghi problemi esistono con i VS: come dire si sono ritrovati tra le mani qualcosa che non conoscevano affatto? Mi sembra poco plausubile).




ciao:)

DoomIII
13-09-2003, 09:29
Originariamente inviato da yossarian
...
...
...
Fermo restando il discorso sulla validità di quanto dici sui problemi che possono sorgere ponendo le istruzioni in un modo anzichè in un altro (questo, però, allo stato attuale, mi pare l'unico problema risolvibile e, inoltre, è un problema che non si sarebbe dovuto porre, perchè nVIDIA era a conoscenza già da tempo delle difficoltà dell'NV30 con l'HLSL e con le istruzioni PS2.0 e VS2.0 e avrebbe dovuto e potuto agire tempestivamente; insomma non riesco a pensare che gli ingegneri di nVIDIA si siano resi conto a posteriori della scarsa compatibilità della loro architettura con le istruzioni standard PS1.4 e PS2.0 o, addirittura, con quelle OpenGL di Doom3, senza tener conto del fatto che analoghi problemi esistono con i VS: come dire si sono ritrovati tra le mani qualcosa che non conoscevano affatto? Mi sembra poco plausubile).




ciao:)

hmmm... mi intrometto :rolleyes:

be... sinceramente non mi stupirei se nVidia contava di far diventare il suo sistema lo standard in modo da avere adesso la situazione opposta.
cmq lavorano a dei driver in modo da fornire una sorta di 'compilatore' penso in modo da ovviare a questi problemi e cioè risolvere dinamicamente la questione.

DoomIII
13-09-2003, 09:37
Originariamente inviato da fek
...
...
...
Una piccola noticina: su NV3X e' possibile scrivere alcuni effetti complicati in una sola passata piuttosto che in piu' passate necessarie all'R3X0 (questo non e' strettamente vero per l'R350 grazie all'F-buffer) perche' il motore dei pixel shader e' piu' ricco di funzionalita' quindi in questo caso risulterebbe piu' veloce.
Credo che HL2 non abbia di questi shader particolarmente complessi da richiedere piu' di una passata su R3X0.

l'ho sempre detto :)


Originariamente inviato da fek
Ciao :)

Ok, qualche informazione in piu' (ma non dite che ve l'ho detto io perche' non potrei ;)). La 5800 e' esattamente la stessa idea della Geforce3: una scheda per introdurre una nuova tecnologia agli sviluppatori. Con la GF3 erano gli shader con la 5800 erano gli shader 2.0. Nessuna delle due schede aveva pretese di essere un successo commerciale, perche' il successo commerciale e' la scheda successiva (GF4 e 5900).
Ora, detto questo, i piani di nVidia non sono andati puliti come con la GF3 perche' e' uscita ATI con un'ottima architettura DX9.
...
...
...


be... proprio proprio cosi non è ;)
NV30/35 hanno già qualcosina delle next generation... (creazione di vertici in run-time ad esempio :rolleyes: ) direi che sono molto molto più sperimentali di quanto non lo sia stata la gef3.
L'ho sempre detto che tra le 2 (nuova Ati , nuova nVidia) personalmente preferivo la nuova nVidia in virtù delle novità tecnologiche 'anticipate' :rolleyes:

Originariamente inviato da fek
In altre parole, non comprate le prime schede di ogni generazione sia di ATI sia di nVidia, sono pensate per gli sviluppatori ;)

sempre detto anche questo :cool:

yossarian
13-09-2003, 13:26
Originariamente inviato da DoomIII
hmmm... mi intrometto :rolleyes:

be... sinceramente non mi stupirei se nVidia contava di far diventare il suo sistema lo standard in modo da avere adesso la situazione opposta.
cmq lavorano a dei driver in modo da fornire una sorta di 'compilatore' penso in modo da ovviare a questi problemi e cioè risolvere dinamicamente la questione.


Beh, anch'io avevo pensato a qualcosa del genere, però mi è sembrata una presa di posizione troppo pretenziosa. Come ti ho già detto una volta, non è nVIDIA che detta gli standard, ma Microsoft e, allo stato attuale, niente e nessuno ha il potere di cambiare questa situazione.
Comunque, lavorando sui drivers si risolveranno gli eventuali problemi SW, non certo quelli legati alle carenze HW

yossarian
13-09-2003, 13:36
Originariamente inviato da DoomIII


be... proprio proprio cosi non è ;)
NV30/35 hanno già qualcosina delle next generation... (creazione di vertici in run-time ad esempio :rolleyes: ) direi che sono molto molto più sperimentali di quanto non lo sia stata la gef3.
L'ho sempre detto che tra le 2 (nuova Ati , nuova nVidia) personalmente preferivo la nuova nVidia in virtù delle novità tecnologiche 'anticipate' :rolleyes:




Allora tra Radeon e GF2 hai, ovviamente, sempre preferito la prima per gli stessi motivi!?!?

:rolleyes:

AUTOMAN
13-09-2003, 14:29
Dopo la lunga discussione sono ancora un pò incerto su che scheda video abbastanza economica mi conviene prendere.

Khana
13-09-2003, 14:44
Automan: ancora oggi, il miglior rapporto prezzo/prestazioni è la R9500 Pro.
Concentrati sugli usati, eventualmente.

Lud von Pipper
13-09-2003, 16:13
Certo è che la serie Nv3x sta dimostrado di avere parecchi problemini di compatibiltà con le DX9, sperimentale o non che sia.

Oltre a dare probelmi con HL2, costringendo a strani giri per migliorare le performance tramite codice modificato, lo stesso vale per DoomIII, dove con codice non ottimizzato va decisamente più lenta.

Carmack si è fatto pagare (e bene) per programmare un "DoomIII Nv3x", ma questo non fa che aumentare il sospetto che le Nv3x alla fine non siano delle gran schede DX9, indipendentemente dalle innovazioni che hanno creduto di poter portare con la nuova architettura.

LvP

scoutme
14-09-2003, 03:15
scusate, ma per quanto ne so le ati consentono più parallelizzazione effettiva per i pixel shader di nvidia, nonostante i registri più lunghi delle fx; credo dipenda dal numero di unità di calcolo, o comunque dalla buona suddivisione del core.

cdimauro
14-09-2003, 07:36
Originariamente inviato da lasa
Penso sia solo questione di driver.....perchè le architetture sono molto simili....i giudizi sono troppo affrettati....peccato manchi nel test la 9500pro.....aspetterò fiducioso ulteriori notizie.....
Le due architetture sono completamente diverse, altro che simili!
I giudizi saranno affrettati, ma Half Life 2 è alle porte o sbaglio? Tra poco verrà rilasciato pure il benchmark ufficiale, che è il preludio alla commercializzazione del gioco. Non mi pare che si stia correndo troppo coi tempi...

cdimauro
14-09-2003, 07:37
Originariamente inviato da zac1
Spero comunque che il motore grafico venga ulteriomente ottimizzato, cosi da migliorare ulteriormente le prestazioni, dato che i test sono stati eseguiti senza AA e AF, non oso immaginare il calo di prestazioni attivando i filtri.
Mi sembra di aver letto che HL2 non utilizzerà l'AA per l'intero schermo, ma soltanto in alcune parti in cui ritengono che l'utilizzo incida effettivamente sulla qualità (perché ci sono delle seghettature), per cui credo che l'impatto non sarà così "pesante" rispetto al passato. Non so se questo si verifichi anche con l'AF, perché non ho trovato informazioni in merito.
Comunque HL2 sembra non dipendere molto dalla banda erogabile dalla memoria video, quanto invece dalla potenza della GPU in primis, e della CPU poi.

cdimauro
14-09-2003, 07:38
Originariamente inviato da fek
Riguardo la questione, i dati sono molto interessanti, ma c'e' una cosa sa dire: e' assolutamente vero che un code path avvantaggia o una o l'altra architettura perche' le ottimizzazioni sono differenti (e anche di parecchio).
Devi ammettere, però, che gli NV3X si differenziamo molto dalla generica implementazione degli shader per le DirectX 9. Personalmente spero che arrivi presto una terza architettura che implementi per intero le DX9 in hardware per vedere come si comporta...
Quindi non sono particolarmente d'accordo con quello che dice Valve quando afferma che non vale la pena scrivere codice per una o per l'altra architettura.
Però è quel che ha fatto, alla fine... :) In fin dei conti le schede video nVidia vendono, per cui non si possono deludere gli utenti, nonché potenziali acquirenti. Non penso che una software house abbia voglia di fare harakiri tralasciandoli. Il problema è che il dispendio di energie per accontentarli è stato molto elevato, rispetto alla creazione del codice standard, e questo è un dato di fatto che bisogna prendere in debita considerazione...
Ok, c'e' del vero in quello che dice, ma fra un mese ci sara' una nuova versione delle SDK delle DX9 con un miglior compilatore HLSL in grado di produrre codice quasi ottimale e differente a seconda dell'architettura, quindi il problema che ha incontrato la Valve si ridimensiona parecchio.
Fammi capire. Le DirectX 9 prevedono, come standard, l'utilizzo di valori FP a 24 e 32 bit. Non vengono contemplate, quindi, le modalità FP16 e FX12 utilizzabili negli NV3X. A questo punto se scrivo uno shader in HLSL, come fa il compilatore MS a decidere se deve utilizzare un registro a 16 o 32 bit? Questa cosa dovrebbe essere possibile specificarla "a mano" (dal programmatore :)) in qualche modo, o sbaglio?
Comunque sul codice ottimizzato per tutte le architetture sono abbastanza scettico. Al più questo compilatore potrà prendere visione del numero di registri hardware presenti, del numero di cicli per istruzione, di quante istruzioni dello stesso tipo per ciclo si possono eseguire, e cercare di generare del codice che rispetti queste restrizioni. Se è vero che adesso ognuno sarà libero di scrivere il codice HLSL come vuole, è anche vero che per uno shader scritto in un certo modo (senza tenere conto di nessun hardware specifico, ma "come viene prima" :)), non sempre si può generare una sequenza ottimale per un'architettura. A ciò aggiungiamo anche il fatto che se un'architettura ha delle istruzioni specifiche, è molto probabile che non verranno mai sfruttate.
Ciò non toglie che l'arrivo di questo nuovo compilatore "universale" sia una Buona Cosa, che servirà a ridare vigore allo standard DirectX 9, e permetterà agli sviluppatori di non sentirsi sulla testa la spada di Damocle della presenza di architetture custom che obbligatoriamente richiedono una riscrittura del codice.
E' verissimo che nel periodo di sviluppo di HL2 queste soluzioni non erano a disposizione, quindi cio' che dice Valve e' comprensibilissimo.
Infatti. Se dicono di aver perso 5 volte il tempo dello sviluppo standard del codice, non vedo perché non dovremmo crederci: sapranno il fatto loro, e tu, con la tua esperienza, puoi confermare che l'architettura NV3X richiede notevoli sforzi per poter ottenere delle buone prestazioni...
Personalmente avevo notato anch'io questa differenza di prestazioni con codice DX9 generico a favore dell'R3X0: diciamo che si comporta molto meglio con codice generico, mentre l'NV3X ha bisogno di ottimizzazioni specifiche. Ecco, i benchmark che confrontano le prestazioni con i due code path sono decisamente piu' attendibili e vedono ancora un vantaggio dell'R3X0; questo mi sorprende un po' forse, ma e' plausibile.
Dipende anche dal tipo di shader utilizzati. Sembra che con Doom3 l'architettura NV3X se la cavi meglio col il codice ottimizzato, ma appunto non conosciamo né l'uso né l'abilità (ma su questo non penso che ci siano dubbi per entrambi i team) di utilizzo degli shader. Sui benchmark fatti con Doom3 pubblicati da alcune riviste ci sarebbe MOLTO da dire, comunque (quelli sì che sono stati palesemente falsati).
Sono curioso di vedere nuovi benchmark con i driver Rel50 e questo atteggiamento di Valve nei confronti di nVidia mi sorprende: e' verissimo che hanno a lungo collaborato molto con nVidia sul lato delle ottimizzazioni.
Beh, c'è da dire che i Det50 UFFICIALI non sono ancora usciti, e se quelli beta attualmente hanno dei problemi, che tra l'altro sono stati chiaramente specificati dalla Valve, bisogna prenderne atto e non utilizzarli.
A me piacerebbe vedere arrivare PRIMA i Det50 e POI Half Life2, cosicché Valve possa avere il tempo di appurare la presenza di eventuali "cheat"...
C'è da dire, poi, che con i driver molto probabilmente il codice generico DX9 avrà prestazioni migliori sulle schede nVidia (anche se non credo ai miracoli), ma sull'aumento delle prestazioni del codice "mixed", francamente ho non pochi dubbi: il codice è già ottimizzato "a mano" e difficilmente si potrà fare di meglio...
ottimizzazioni (non farti abindolare, perche' servono anche per gli R3X0 anche se si comportano meglio con codice generico)
Infatti, ma è roba di poco conto: al più c'è da riordinare qualche istruzione per far girare al meglio uno shader. Cosa che Ati ha fatto con gli shader del 3DMark2003 tempo addietro, ma dopo lo scandalo dei cheat ha provveduto a rimuovere questo codice ottimizzato e le differenze sono state quasi impercettibili...
Tornando a Cg, Cg e HLSL sono lo stesso linguaggio, letteralmente lo stesso linguaggio. Se avessi avuto anche il minimo dubbio prima dell'ECTS, dopo aver parlato con MS ad un meeting privato, non ho alcun dubbio: mi hanno confermato che HLSL e Cg sono lo stesso linguaggio che ha preso due strade differenti in termini di compilatore.
Ma nVidia non aveva aggiunto dei costrutti sintattici al compilatore per sfruttare meglio le caratteristiche delle NV3X non presenti nelle DX9?
Non è che forse alla MS parlavano del back-end, ossia del generatore di codice del compilatore? Il front-end (il parser) di Cg e HLSL dovrebbero essere diversi: per lo meno l'HLSL dovrebbe essere "inglobato" nel Cg...
mi hanno gia' anticipato molte caratteristiche dell'NV40 e alcune dell'NV50. E per tutte e due le generazioni accadra' che usciranno con una scheda per gli sviluppatori (l'NV40 ad esempio) e poi una scheda per il mercato, tipo l'equivalente dell'attuale 5900 o della vecchia GF4.
Confermi, quindi, le mie ipotesi (vedi messaggio seguente a DoomIII) che l'NV40 sarà decisamente diverso dagli NV3X. Butteranno via il CineFX? ;)
1) Di default i calcoli sono in precisione massima che e' 32 bit per l'NV3X e 24 (correzione ) bit per l'R3X0; ovviamente di default e' piu' veloce l'R3X0 perche' esegue calcoli a precisione minore
Ma l'R3X0 non supporta sia i 24 sia i 32 bit di precisione? Che poi ne usino 24 perché è più veloce, ok, ma dovrebbe poter funzionare anche a 32 bit, o sbaglio?
Credo che HL2 non abbia di questi shader particolarmente complessi da richiedere piu' di una passata su R3X0.
Se già quelli che utilizza arrivano a mettere in ginocchio le schede grafiche più potenti, forse è meglio che gli shader non diventino mai troppo complicati, come riportavo nella precedente discussione... ;)

cdimauro
14-09-2003, 07:39
Originariamente inviato da csteo
tempo fa con la sc.video nuova e procio decente girava tutto, da u2 non è più così rincide il processore come prima del geforce.
Se prendiamo in sé il lavoro della cpu coi nuovi giochi hai ragione, ma se lo consideriamo tenendo conto anche di quello della GPU, vediamo che la cosa non è cambiata di molto, in quanto per quest'ultima il carico di lavoro è aumentato ulteriormente.

cdimauro
14-09-2003, 07:40
Originariamente inviato da DoomIII
l'ho sempre detto... NV30/35 sono prodotti intermedi in cui nVidia ha investito + per il futuro (NV40/45) che per il presente (NV30/35)...
Per il futuro? Mah. Migliorare l'architettura CineFX sicuramente si può, ma per il futuro è sicuramente meglio buttarla e passare ad una soluzione meno vincolata, com'è invece attualmente. Pensi che sia semplice estendere le pipeline da 4 a 8, per esempio, per come funziona tutto adesso, e mantenere delle buone performance? Assolutamente no. Se passano da 4 a 8 istruzioni "impacchettate" per ciclo, i rischi di avere delle "bolle" nelle pipeline aumentano, perché non sempre si possono, appunto, prendere "n" istruzioni e "digerirle". Se poi vogliamo mettere in conto l'eventuale compatibilità con gli shader 3.0, beh, si fa prima a passare ad un progetto completamente nuovo, visto che l'implementazione dei nuovi costrutti condizionali renderebbe ancora più difficile la loro implementazione nell'architettura CineFX, a meno di aumentare di molto la probabilità di introdurre "bolle" nelle pipe, e a questo punto che senso avrebbe?
il ragionamento di nVidia cmq è ottimo e non fa una grinza...
Quale ragionamento, scusa? E poi mi pare piuttosto evidente (leggi anche i messaggi precedenti) che ottimo proprio non è, anzi...
mi ricorda l'epoca in cui usci Quake3... performance al limite dell'accettabile esattamente come adesso per Half-Life2 e DoomIII...
Performance decenti che, però, ottieni soltanto con molto lavoro in più. Almeno prima non c'era bisogno di una montagna di codice specifico per far girare fluidamente Q3 su qualunque hardware...
mi fanno ridere i cari tifosi Ati soddisfatti... ma vorrei vedere delle performance reali... con tutti i vari filtrini attivati ecc...
Vedi sopra per quanto riguarda i filtri: probabilmente ci sarà un'implementazione ad hoc, non "brute force" come avviene attualmente e che costringe ad una ricerca spasmodica di sempre più banda di memoria video (anche se, comunque, le soluzioni high-end di nVidia e Ati ne hanno da vendere...).
Questa, IMHO, è veramente una buona cosa, perché permette anche alle soluzioni più economiche (128 bit, ad esempio) di essere competitive anche con questi titoli di ultima generazione, a vantaggio della collettività (hai idea di quanto stia vendendo la 9600 liscia e la Pro, dalla loro introduzione?)
Sulla qualità dei filtri, poi, i miei occhi avrebbero parecchio da dire, e sai bene a cosa mi riferisco, per cui preferirei non si toccasse l'argomento.

Poi una cosa: è fastidioso vedere appiccare etichette ("tifosi Ati") per portare acqua al proprio mulino. Si può benissimo discutere senza, se permetti, se si è in grado di sostenere le proprie tesi con i fatti e la logica. Tutto il resto lasciamolo a casa, perché, oltre che offensivo serve soltanto a generare flame.
Sarà stato anche l'Ati day... ma chissa quanto hanno $$$$ per fare in modo che i programmatori ci prendano in giro trattandoci come deficienti...
Forse non lo sai, ma i programmatori devono pur mangiare, e non credo che si possa classifica come "intelligente" la mossa di fare uscire un prodotto che giri bene soltanto sulle schede Ati, lasciando a piedi i possessori di soluzioni nVidia, con l'enorme fama che ha acquisito questo brand.
Difatti io la penso in maniera diametralmente opposta, tant'è che, se vai a leggere le informazioni rilasciate, gli sforzi per ottenere delle buone performance sono stati quintuplicati, e Half Life 2 gira decentemente sulle 5900Pro in mixed mode...
ma mi lascia veramente perplesso quello che è successo... riassumiamo:
i programmatori di HL2 hanno i driver .50... con i quali hanno collaborato a stretto contatto con nVidia (nel senso che nVidia si è accertata che funzionino il meglio possibile)... finalmente questi driver iniziano ad aprire (migliorie ne verrano) le DX9 alla GPU nVidia...
e la valve che fa? un test con i driver .45?
Beh, spero che avrai avuto almeno la bontà di andare a leggere tutte le dichiarazioni della Valve. Sui DT50 la mia risposta la trovi nel messaggio di Fek. Tu, come sviluppatore di software, cosa faresti in quelle condizioni?
adesso non voglio suscitare polemiche con le banali risposte degli Ati-boy... su cheat e presunti miracoli...
Da come parli, sembra che non cerchi altro. Te l'ho già detto: evita questi argomenti, e SE CI RIESCI, prova a sostenere le tue tesi con i fatti e la logica. Il fanatismo di marca lascialo a casa, cortesemente.
qui non si sta dicendo che con quei driver la situazione si capovolgerà...
Infatti anche a me sembra difficile che ciò si verifichi. Vedi risposta a fek.
ma almeno l'assurdità di dichiarare che con le nuove schede nVidia non si possono usare le Dx9 e che è meglio passare alle Dx8... be dai... raga... loro i driver ce li hanno... avranno fatto girare HL2 con i 50 DX9...
Ma allora hai letto sì o no le dichiarazioni di Valve? A me sembra fin troppo chiaro il discorso. I giochi basati sulle DX9 fanno testo a sé sul piano delle performance. Perché una 9600Pro, scheda di nuova generazione, spesso si ritrova dietro una 4600 (senza filtri attivati) nei giochi DX8? Un motivo ci sarà pure, no?
Sui DT50, vedi sopra.
qui quasi mi viene un dubbio... molti aspettavano un segnale per acquistare una nuova scheda grafica... proprio per poter giocare all'imminente HL2...
forse con i 50 nVidia non se la cava poi così male se Ati ha voluto questa falsa pubblicità
Mi spiace, ma con la dietrologia non si arriva molto lontano. Poi sembra che non hai letto o non vuoi accettare quanto è stato ufficialmente dichiarato. E non t'interessa riflettere neppure sulle possibili cause di questa anomalia delle schede nVidia nell'esecuzione del codice di HL2. Se dai un'occhiata ad entrambe le architetture e le confronti, forse troverai le risposte che cerchi, sempre se le vuoi trovare...
Poi Ati adesso è sposata a M$ quindi è più facile per lei che i suoi siano gli standard DX ufficiali.
Scusa, ma come fai a dire una cosa palesemente falsa come questa? La 9700 è in giro da Agosto dello SCORSO ANNO: sono passati ben 13 (TREDICI) mesi da allora. A ciò aggiungi pure almeno 9 mesi (a voler essere conservativi, anche se per me sono pochissimi per un nuovo progetto) fra l'inizio del progetto e la commercializzazione, e arriviamo a 22mesi.
Dimmi tu se DUE ANNI FA Ati era già "sposata" come MS. Dimmi tu se DUE ANNI FA le DX 9 ufficiali le ha fatte Ati o MS. Dimmi tu se DUE ANNI FA MS e nVidia non erano "culo e camicia", come si suol dire.
Va bene il fanatismo e l'appartenenza, ma scusa, qui stai toccando veramente il limite! Non puoi manipolare la storia e la verità a tuo uso e consumo!!
c'è anche da dire però che questo è un bench... non ho idea se sia una specchio del gioco o se magari esagera effetti/poligoni ecc...
cioè... il gioco potrebbe poi essere più veloce del bench ma potrebbe anche essere che nel bench manchino fisica ecc... bo... magari è stato anche detto ma nn ci ho fatto caso... hmm... qualcuno sa effettivamente sto test cosa sia?
C'è una montagna d'informazione in rete. Questo benchmark utilizza quel che sarà, praticamente, il motore finale del gioco, fisica inclusa. Sono state fornite anche tre mappe da testare, oltre che una serie di test specifici con situazioni limite per valutare al meglio il comportamento delle schede grafiche.
Penso che questi due mesi la Valve li passerà a testare e correggere qualche bug, com'è giusto che sia: d'altra parte, dopo 5 anni di sviluppo, non penso che in due mesi possano riscrivere parte dell'engine... :D

Per il resto, se hai voglia di intavolare una discussione seria, evitando i soliti attacchi di parte che tendono soltanto a delegittimare, offendere ("lamer", "tifosi", "mi fate ridere", ecc.) e generare flame, troverai tanta gente disposta a farlo...

P.S. Io non sono né ingenuo né ignorante né lamer né di parte: passo il tempo a documentarmi, e i miei discorsi li baso sulle informazioni ufficiali che circolano. Tutto il resto lo lascio al gossip della rete...
Qui nessuno vuole togliere meriti a nVidia, Ati, o chiunque altro, ma quando c'è da discutere su un fatto ben preciso, per me non conta più nient'altro, neppure chi mi trovo davanti.

Ossequi

cdimauro
14-09-2003, 07:40
Originariamente inviato da Gohansupersaiyan4
Ma se ottimizzano hl2 per ati allora va a 200fps?
No, gli R3X0 lavorano già molto bene col codice generico, e al più si potrebbe dare una riodinata alle istruzioni degli shader per farli andare al meglio, ma le differenze sarebbero comunque di poco conto...

cdimauro
14-09-2003, 07:41
Originariamente inviato da yossarian
Quello che sto cercando di capire è se le difficoltà nascono dall'eccessiva, per le possibilità dell'NV3x, mole di calcoli intrinseca in una computazione a 32 bit, oppure nell'architettura che non permette la scrittura di più di 4 pixels per ciclo di clock (contro gli 8 dell'R3x0) o nell'effettiva ridotta capacità dei registri interni; oppure da una combinazione di questi tre fattori (che al momento mi sembrano quelli più probabili).
Penso che sia vera l'ultima. :) Gli NV3X sono enormemente penalizzati dal calcolo a 32 bit, proprio perché le unità FP devono eseguire il doppio del lavoro. E sono penalizzati anche dal fatto di raggruppare sempre 4 pixel alla volta e di spedirli alla pipeline "in blocco", con tutte le conseguenze del caso (non è sempre le istruzioni degli shader a carico di ogni singolo pixel possono essere completate nello stesso momento), mentre negli R3X0 ogni pixel segue un suo percorso nella sua pipe, e risulta indipendente dagli altri sette, fatta eccezione per l'interdipenza dei risultati dei calcoli e per la gestione delle risorse (accesso alle texture, ad esempio).
Di buono c'è che l'NV3X può eseguire due istruzioni sulle texture (di caricamento? Non ricordo bene in questo momento) nello stesso ciclo di clock, ma non sempre è possibile sfruttare questa caratteristica: non si possono sempre riordinare le istruzioni o effettuare sempre due operazioni. Al più si potrebbe sfruttare questa caratteristica per evitare i calcoli complessi che mettono in crisi gli NV3X, come diceva fek. Ma mi sembra di essere tornati ai tempi della tabelle precalcolate dei giochi dell'Amiga... :D
Fermo restando il discorso sulla validità di quanto dici sui problemi che possono sorgere ponendo le istruzioni in un modo anzichè in un altro (questo, però, allo stato attuale, mi pare l'unico problema risolvibile e, inoltre, è un problema che non si sarebbe dovuto porre, perchè nVIDIA era a conoscenza già da tempo delle difficoltà dell'NV30 con l'HLSL e con le istruzioni PS2.0 e VS2.0 e avrebbe dovuto e potuto agire tempestivamente; insomma non riesco a pensare che gli ingegneri di nVIDIA si siano resi conto a posteriori della scarsa compatibilità della loro architettura con le istruzioni standard PS1.4 e PS2.0 o, addirittura, con quelle OpenGL di Doom3, senza tener conto del fatto che analoghi problemi esistono con i VS: come dire si sono ritrovati tra le mani qualcosa che non conoscevano affatto? Mi sembra poco plausubile).
La penso allo stesso modo. Probabilmente non si aspettavano che Ati avrebbe tirato fuori un'architettura talmente performante da mettere in crisi il loro lavoro. Hanno pensato che, comunque, con la loro posizione dominante avrebbero colmato (e superato) il gap, "costringendo" le software house a scrivere del codice specifico (cosa che, tra l'altro, hanno fatto)

DoomIII
14-09-2003, 11:42
Originariamente inviato da cdimauro
Per il futuro? Mah. Migliorare l'architettura CineFX sicuramente si può, ma per il futuro è sicuramente meglio buttarla e passare ad una soluzione meno vincolata, com'è invece attualmente. Pensi che sia semplice estendere le pipeline da 4 a 8, per esempio, per come funziona tutto adesso, e mantenere delle buone performance? Assolutamente no. Se passano da 4 a 8 istruzioni "impacchettate" per ciclo, i rischi di avere delle "bolle" nelle pipeline aumentano, perché non sempre si possono, appunto, prendere "n" istruzioni e "digerirle". Se poi vogliamo mettere in conto l'eventuale compatibilità con gli shader 3.0, beh, si fa prima a passare ad un progetto completamente nuovo, visto che l'implementazione dei nuovi costrutti condizionali renderebbe ancora più difficile la loro implementazione nell'architettura CineFX, a meno di aumentare di molto la probabilità di introdurre "bolle" nelle pipe, e a questo punto che senso avrebbe?


bè... inutile non notare come sicuramente il futuro è già diverso da ciò che si prospettava nVidia... ma intendevo dire che IMHO nVidia nel progetto NV30/35 ci sono state più spese/investimenti per la generazione sucessiva(NV40) che non per il prodotto NV30/35.


Originariamente inviato da cdimauro
Quale ragionamento, scusa? E poi mi pare piuttosto evidente (leggi anche i messaggi precedenti) che ottimo proprio non è, anzi...

il ragionamento che ho spiegato... e come dicevo in qualche post nVidia sicuramente nn si aspettava una buona competitività di Ati con un ottima scheda e di incorrere a problemi di produzione.
Con ottimo non intendo che sia stato un ragionamento che le ha portato beneficio per come sono andate le cose... ma quando l'hanno pensato aveva la sua logica... poichè sicuramente si aspettavano di poter uscire prima con NV30, di non incorrere in problemi di produzione di poter dettare lo standard e che Ati non riuscisse a produrre una scheda più che competitiva.
Logico che sol senno di poi...

Originariamente inviato da cdimauro
Performance decenti che, però, ottieni soltanto con molto lavoro in più. Almeno prima non c'era bisogno di una montagna di codice specifico per far girare fluidamente Q3 su qualunque hardware...


Intendevo dire che ancora oggi ci sono bench di Q3 o_O ...figuriamoci per quanto tempo probabilmente si parlerà di HL2... la situazione per me è simile a quella di Q3 per le performance ottenute... penso sia meglio giocare ad HL2 con la next-generation ;) trovo difficile che adesso la maggioranza degli 'utenti' non siano costretti a scendere a compromesso o cmq ad accettare qualche tentennamento...
hai sicuramente visto il nuovo video DX9/HDRD... posso ovviamente sbagliarmi perchè è un video e dipende cmq dai parametri con i quali è stato fatto... allora sembra giocabilissimo però non è affatto limpidamente fluido... e di fisica applicata/AI/moltitudine di personaggi ecc... (le situazioni che si sono viste negli altri video) neanche l'ombra...
quindi non so su che sistema sia possibile effettivamente potersi godere HL2 la massimo del massimo.

Tra l'altro è il primo gioco DX9... e ben venga visto che di DX8 si è visto poco niente... ma cmq senza voler togliere nulla al gioco... non credo sfrutti le DX9 a dovere. (NB: per carità... questo non è un insulto al gioco e non voglio togliere nulla al capolavoro)
cmq ad esempio le luci di cui tanti si meravigliano visibili nel demo di cui sopra... sono ottenibili anche in DX8. (certo singolarmente e probabilmente non insieme a tutto il resto... ma con le DX9 si può cmq fare ancora molto di più)


Originariamente inviato da cdimauro
Vedi sopra per quanto riguarda i filtri: probabilmente ci sarà un'implementazione ad hoc, non "brute force" come avviene attualmente e che costringe ad una ricerca spasmodica di sempre più banda di memoria video (anche se, comunque, le soluzioni high-end di nVidia e Ati ne hanno da vendere...).
Questa, IMHO, è veramente una buona cosa, perché permette anche alle soluzioni più economiche (128 bit, ad esempio) di essere competitive anche con questi titoli di ultima generazione, a vantaggio della collettività (hai idea di quanto stia vendendo la 9600 liscia e la Pro, dalla loro introduzione?)
Sulla qualità dei filtri, poi, i miei occhi avrebbero parecchio da dire, e sai bene a cosa mi riferisco, per cui preferirei non si toccasse l'argomento.


vorrei spiegarmi... quello che intendevo (come il discorso fanboy) è riferito a commenti vari pesantemente sprezzanti nei confronti di nVidia o gratificanti (a mo di preghiera di ringraziamento) nei confronti di Ati.
Commenti guarda caso nei confronti dei quali nessuno dice nulla... tu ad esempio quoti me e mi 'rimproveri' per il mio tono (per il discorso Ati-boy ecc...)... però certo non ti sogneresti di quotare chi insulta nVidia dicendogli di darsi una calmata e che non capisci li suo atteggiamento......
riferito particolarmente a questi che godono non perchè HL2 giri bene ma perchè sulla loro cara Ati gira meglio che nVidia...
apparte che per un discorso competitività/concorrenza che sia nVidia o Ati ma non è certo augurabile che una 'domini'
ad ogni modo a vedere le performance per me c'è poco da stare allegri... poi vabbè... al bench manca poco ci si potrà fare un idea migliore... ma dal mio punto di vista uno dovrebbe come prima cosa auspicarsi di poter giocare al meglio possibile ad HL2 e non che HL2 giri meglio su una marca di scheda...
certo le ottimizzazioni che dici tu sopra sono una buona cosa... ma se sono state fatte dimostrano anche che c'è stata necessità...


Originariamente inviato da cdimauro
Poi una cosa: è fastidioso vedere appiccare etichette ("tifosi Ati") per portare acqua al proprio mulino. Si può benissimo discutere senza, se permetti, se si è in grado di sostenere le proprie tesi con i fatti e la logica. Tutto il resto lasciamolo a casa, perché, oltre che offensivo serve soltanto a generare flame.

si certo bravo... bla bla bla... quelli che usano termini pesanti e fanno commenti di una o mezza riga di insulti a nVidia o Ati sono dei santi ai quali io non posso permettermi di dire che sono tifosi Ati... ma dovrei cercare di discutere con loro ed essere in grado di sostenere con fatti ecc... ecc...
ma per favore... mi spiace ma per me quelli sono tifosi... e ci sarebbe anche altri modi per valutare se uno è tifoso o meno... ad esempio se si scandalizza più per la mezza riga di insulto o per chi considera il fattore di quella mezza riga come un tifoso.
:O

Originariamente inviato da cdimauro
Forse non lo sai, ma i programmatori devono pur mangiare, e non credo che si possa classifica come "intelligente" la mossa di fare uscire un prodotto che giri bene soltanto sulle schede Ati, lasciando a piedi i possessori di soluzioni nVidia, con l'enorme fama che ha acquisito questo brand.
Difatti io la penso in maniera diametralmente opposta, tant'è che, se vai a leggere le informazioni rilasciate, gli sforzi per ottenere delle buone performance sono stati quintuplicati, e Half Life 2 gira decentemente sulle 5900Pro in mixed mode...



Beh, spero che avrai avuto almeno la bontà di andare a leggere tutte le dichiarazioni della Valve. Sui DT50 la mia risposta la trovi nel messaggio di Fek. Tu, come sviluppatore di software, cosa faresti in quelle condizioni?


ho detto che non so quanto stia ad nVidia risolvere il bug o quanto stia alla Valve...

Originariamente inviato da cdimauro
Da come parli, sembra che non cerchi altro. Te l'ho già detto: evita questi argomenti, e SE CI RIESCI, prova a sostenere le tue tesi con i fatti e la logica. Il fanatismo di marca lascialo a casa, cortesemente.

quali tesi? mah... si vabbè vabbè... ecco il difensore di tutti quelli che fanno post di una riga con insulti ad nVidia... logicamente sono io quello che cerca flame non loro vero?
certo... sono uno scandalo... mi permetto addirittura di postare indicando una mia personale perplessità... se insultavo nVidia immagino mi quotavi dicendomi bravo vero?

Originariamente inviato da cdimauro
Infatti anche a me sembra difficile che ciò si verifichi. Vedi risposta a fek.

miglioramenti ci saranno di sicuro... non so in che ordine... ma come ti ho detto non credo in un ribalto di situazione.

Originariamente inviato da cdimauro
Ma allora hai letto sì o no le dichiarazioni di Valve? A me sembra fin troppo chiaro il discorso. I giochi basati sulle DX9 fanno testo a sé sul piano delle performance. Perché una 9600Pro, scheda di nuova generazione, spesso si ritrova dietro una 4600 (senza filtri attivati) nei giochi DX8? Un motivo ci sarà pure, no?
Sui DT50, vedi sopra.

Mi spiace, ma con la dietrologia non si arriva molto lontano. Poi sembra che non hai letto o non vuoi accettare quanto è stato ufficialmente dichiarato. E non t'interessa riflettere neppure sulle possibili cause di questa anomalia delle schede nVidia nell'esecuzione del codice di HL2. Se dai un'occhiata ad entrambe le architetture e le confronti, forse troverai le risposte che cerchi, sempre se le vuoi trovare...

be, mi sono già espresso sull'architettura...

Originariamente inviato da cdimauro
Scusa, ma come fai a dire una cosa palesemente falsa come questa? La 9700 è in giro da Agosto dello SCORSO ANNO: sono passati ben 13 (TREDICI) mesi da allora. A ciò aggiungi pure almeno 9 mesi (a voler essere conservativi, anche se per me sono pochissimi per un nuovo progetto) fra l'inizio del progetto e la commercializzazione, e arriviamo a 22mesi.
Dimmi tu se DUE ANNI FA Ati era già "sposata" come MS. Dimmi tu se DUE ANNI FA le DX 9 ufficiali le ha fatte Ati o MS. Dimmi tu se DUE ANNI FA MS e nVidia non erano "culo e camicia", come si suol dire.
Va bene il fanatismo e l'appartenenza, ma scusa, qui stai toccando veramente il limite! Non puoi manipolare la storia e la verità a tuo uso e consumo!!


non credo sia falsa... ed al riguardo penso siano manovre abbastanza classiche... probabilmente ci sono anche altre cose sotto quando ci sono queste situazioni.(generalmente in questi affari.. non nel caso specifico)


Originariamente inviato da cdimauro
C'è una montagna d'informazione in rete. Questo benchmark utilizza quel che sarà, praticamente, il motore finale del gioco, fisica inclusa. Sono state fornite anche tre mappe da testare, oltre che una serie di test specifici con situazioni limite per valutare al meglio il comportamento delle schede grafiche.
Penso che questi due mesi la Valve li passerà a testare e correggere qualche bug, com'è giusto che sia: d'altra parte, dopo 5 anni di sviluppo, non penso che in due mesi possano riscrivere parte dell'engine... :D

si... ma il bench specifico per il quale ci sono i risultati... vorrei sapere qualcosino in più di quello.

Originariamente inviato da cdimauro
Per il resto, se hai voglia di intavolare una discussione seria, evitando i soliti attacchi di parte che tendono soltanto a delegittimare, offendere ("lamer", "tifosi", "mi fate ridere", ecc.) e generare flame, troverai tanta gente disposta a farlo...

P.S. Io non sono né ingenuo né ignorante né lamer né di parte: passo il tempo a documentarmi, e i miei discorsi li baso sulle informazioni ufficiali che circolano. Tutto il resto lo lascio al gossip della rete...
Qui nessuno vuole togliere meriti a nVidia, Ati, o chiunque altro, ma quando c'è da discutere su un fatto ben preciso, per me non conta più nient'altro, neppure chi mi trovo davanti.

Ossequi

bè... che vuoi che ti dica... a me quelli che guardano il bench e poi fanno commenti sprezzanti su nVidia mi fanno ridere... e come ti ho spiegato e perchè invece di preoccuparsi di come girera effettivamente sulla loro macchina si preoccupano che giri meglio su Ati che su nVidia.

Per quanto ti riguarda non credo di aver mai indirizzato termini come 'tifoso' verso di te... apprezzo i tuoi post ed il tuo modo di esporti... vabbè mi lascia un po perplesso come non ti scandalizzi per chi veramente insulta... ma ad ogni modo penso sia normale che in qualche modo chi più chi meno siamo affezzionati alla nostra GPU.

Saluti. :cool:

fek
14-09-2003, 14:21
Originariamente inviato da yossarian
Per quale motivo, sapendo del problema del riordino delle istruzioni, ed essendo a conoscenza del fatto che tale riordino era più semplice con l'utilizzo dei PS2.0, Valve, con la collaborazione di NV, ha tirato fuori una path in cui sostituisce in diversi punti i PS2.0 con i PS1.4?

Non saprei darti una risposta precisa. Credo che sia dovuto al fatto che su NV30 l'esecuzione dei PS1.4 (con l'unita' interi) sia piu' veloce dell'esecuzione dei PS2.0 (con l'unita' fp). Non avrei altra spiegazione.


Ripeto, sono d'accordo con te sul fatto che, data l'architettura del chip, l'ordine delle istruzioni possa creare problemi (tenendo conto che le 8 texture unit e 4 unità logica non sono indipendenti neppure sull'NV35, almeno a giudicare dai grafici); però sicuramente c'è sotto qualcosaltro: uno dei limiti espliciti è proprio determinato dall'uso dei 32 bit, che l'NV3x sembra proprio non digerire (sia la path NV30 di Doom che quella di HL2 abbassano la fp precision da 32 a 16 bit). Quello che sto cercando di capire è se le difficoltà nascono dall'eccessiva, per le possibilità dell'NV3x, mole di calcoli intrinseca in una computazione a 32 bit, oppure nell'architettura che non permette la scrittura di più di 4 pixels per ciclo di clock (contro gli 8 dell'R3x0) o nell'effettiva ridotta capacità dei registri interni; oppure da una combinazione di questi tre fattori (che al momento mi sembrano quelli più probabili).

Si, sono d'accordo con te. Anche secondo me e' una combinazione dei tre fattori e del datto che l'architettura NV3X e' piu' "ricca" in termini di funzionalita' perdendo in termini di velocita' pura.


Fermo restando il discorso sulla validità di quanto dici sui problemi che possono sorgere ponendo le istruzioni in un modo anzichè in un altro (questo, però, allo stato attuale, mi pare l'unico problema risolvibile e, inoltre, è un problema che non si sarebbe dovuto porre, perchè nVIDIA era a conoscenza già da tempo delle difficoltà dell'NV30 con l'HLSL e con le istruzioni PS2.0 e VS2.0 e avrebbe dovuto e potuto agire tempestivamente; insomma non riesco a pensare che gli ingegneri di nVIDIA si siano resi conto a posteriori della scarsa compatibilità della loro architettura con le istruzioni standard PS1.4 e PS2.0 o, addirittura, con quelle OpenGL di Doom3, senza tener conto del fatto che analoghi problemi esistono con i VS: come dire si sono ritrovati tra le mani qualcosa che non conoscevano affatto? Mi sembra poco plausubile).


Considera che i design di questi chip sono stati "chiusi" almeno 6/8 mesi prima della loro effettiva presentazione al pubblico, quindi immagino che quando i progetti sono stati chiusi gli ingegneri non fossero a conoscenza di questi problemi e li hanno affrontati in sede di progettazione dell'NV40 e NV50 (l'NV50 ad esempio e' tutt'ora in fase di progettazione).

V|x
14-09-2003, 14:24
con la mia 9700 pro vedrò al max :D :D siiiiiiii!!!!

fek
14-09-2003, 14:24
Originariamente inviato da cdimauro
Di buono c'è che l'NV3X può eseguire due istruzioni sulle texture (di caricamento? Non ricordo bene in questo momento) nello stesso ciclo di clock, ma non sempre è possibile sfruttare questa caratteristica: non si possono sempre riordinare le istruzioni o effettuare sempre due operazioni. Al più si potrebbe sfruttare questa caratteristica per evitare i calcoli complessi che mettono in crisi gli NV3X, come diceva fek. Ma mi sembra di essere tornati ai tempi della tabelle precalcolate dei giochi dell'Amiga... :D


Funziona esattamente cosi', a tabelle precalcolate. In fondo le texture non sono altro che tabelle :D

udria
14-09-2003, 14:33
Originariamente inviato da V|x
con la mia 9700 pro vedrò al max :D :D siiiiiiii!!!!

Sono d'accordo con il piccolo vicchese:D. Mi sa che presto mi comprerò anche io una bella ATI
:sofico:

Ciao:)

yossarian
14-09-2003, 14:46
Originariamente inviato da cdimauro

Ma l'R3X0 non supporta sia i 24 sia i 32 bit di precisione? Che poi ne usino 24 perché è più veloce, ok, ma dovrebbe poter funzionare anche a 32 bit, o sbaglio?



L'R3x0 supporta, a livello di pipeline, solo i 24 bit. Quando riceve istruzioni relative a 16 o 32 bit esegue un'operazione di downscaling o di upscaling a livello di indirizzi.

yossarian
14-09-2003, 14:53
Originariamente inviato da fek
Non saprei darti una risposta precisa. Credo che sia dovuto al fatto che su NV30 l'esecuzione dei PS1.4 (con l'unita' interi) sia piu' veloce dell'esecuzione dei PS2.0 (con l'unita' fp). Non avrei altra spiegazione.





Penso anch'io che la risposta sia questa

Originariamente inviato da fek


Considera che i design di questi chip sono stati "chiusi" almeno 6/8 mesi prima della loro effettiva presentazione al pubblico, quindi immagino che quando i progetti sono stati chiusi gli ingegneri non fossero a conoscenza di questi problemi e li hanno affrontati in sede di progettazione dell'NV40 e NV50 (l'NV50 ad esempio e' tutt'ora in fase di progettazione).


Vero, però le specifiche PS2.0 e, ancora di più quelle PS1.4 e lo shader language relativo all'OpenGL1.4 erano già note da tempo (i PS1.4 e le OPenGL1.4 ben oltre i 6/8 mesi antecedenti alla presentazione dei chip). A questo mi riferivo nell'intervento precedente.
L'impressione che ho avuto è che nVIDIA, pur essendo a conoscenza delle API standard, non ne abbia tenuto conto, pensando di poter imporre un proprio modello proprietario. Questa, almeno, era la sensazione che si percepiva

fek
14-09-2003, 15:34
Originariamente inviato da yossarian
Vero, però le specifiche PS2.0 e, ancora di più quelle PS1.4 e lo shader language relativo all'OpenGL1.4 erano già note da tempo (i PS1.4 e le OPenGL1.4 ben oltre i 6/8 mesi antecedenti alla presentazione dei chip). A questo mi riferivo nell'intervento precedente.
L'impressione che ho avuto è che nVIDIA, pur essendo a conoscenza delle API standard, non ne abbia tenuto conto, pensando di poter imporre un proprio modello proprietario. Questa, almeno, era la sensazione che si percepiva


No, credo che il problema sia diverso. Sebbene le specifiche sono disponibili da tempo (ed in realta' sono state imposta da nVidia/ATI), non c'era esperienza sullo sviluppo con tali versioni, quindi non si poteva prevedere come sarebbero state usate.

yossarian
14-09-2003, 16:00
Originariamente inviato da fek
No, credo che il problema sia diverso. Sebbene le specifiche sono disponibili da tempo (ed in realta' sono state imposta da nVidia/ATI), non c'era esperienza sullo sviluppo con tali versioni, quindi non si poteva prevedere come sarebbero state usate.


Ti riferisci alle specifiche DX9, ovviamente.
Però. in tal caso, non sarebbe stato più saggio optare per un'architettura più "neutra" e meno condizionante (anche alla luce delle versioni precedenti delle API stesse)?

Ti riporto un paio di passi da cui sembra emergere un limite architetturale difficilmente superabile lavorando solo sul SW

Questo è tratto dal link che ti ho postato in precedenza

If we try to explain the real measured performance of the NV30 with the aforementioned characteristics, we notice that there must be something missing from the picture. There must be something else that keeps NV30 from performing to its full potential. One special recommendation from nVidia to the use of pixel shaders is to use as few temporary registers as possible. While analyzing the Gatekeeper function we noticed that the number of quads in the pipeline depends straight on the number of temp registers. The less temp registers are used, the more quads fit into memory.

questo è tratto dal commento fatto da Anandtech ai risultati del bench HL2

So the first change that was made is to use partial-precision registers where appropriate, well what does that mean? As we've mentioned in previous articles, NVIDIA's pixel shading pipelines can either operate on 16 or 32-bit floating point numbers, with the 32-bit floats providing greater precision. Just like on a CPU, the actual FPUs that are present in the pixel shader units have a fixed number of local storage locations known as registers. Think of a register as nothing more than a place to store a number; with the NV3x architecture, each register can either hold one 32-bit floating point value or it can be used as two 16-bit floating point registers. Thus when operating in 16-bit (aka partial precision) mode, you get twice as many physical registers as when you're running in 32-bit mode.

Note that using 32-bit floating point numbers doesn't increase the amount of memory bandwidth you're using, it simply means that you're cutting down the number of physical registers your pixel shader FPUs have access to. What happens if you run out of registers? After running out of registers, the functional units (FPUs in this case) must swap data in and out of the graphics card's local memory (or caches) which takes a significantly longer time - causing stalls in the graphics pipeline or underutilization of the full processing power of the chip.

The fact that performance increased when moving to partial-precision (16-bit) registers, indicates that NVIDIA's NV3x chips may have fewer usable physical registers than ATI's R3x0 series. If we're correct, this is a tradeoff that the NVIDIA engineers have made and it is to conserve die space, but we're not here to criticize NVIDIA's engineers rather explain NVIDIA's performance here.

Questo, in realtà, è un problema noto dai tempi delle DX7, però, finora, non si era mai presentato in maniera ecalatante. Se così fosse, si spiegherebbe parte delle difficoltà dell'NV3x a lavorare in FP32 e il continuo ricorso a FP16, FX12 e ai PS1.4 (o addirittura a versioni precedenti).

massibirba
14-09-2003, 16:02
caro orsobubu,io non volevo generalizzare...volevo fare solo un po di chiarezza nel mondo delle schede video perche' ho visto che alcuni hanno postato che non sanno se riusciranno a giocare con una 7500 e similari:la risposta e' si a meno che hl2 sia una vera e propria ciofeca come temo sia anche doom3(spero di sbagliarmi)...se il gioco ha requisiti cosi' alti devo concludere che ...il gioco non vale la candela...
Riguardo a quello che dici che sia fantascenza che io gioco agli ultimissimi giochi a 1024x768 tanti nel forum che come me hanno la 7500 ti smentiranno,ti assicuro che e' una scheda che nonostante sia "vecchia" ti gira tutto e anche bene cmq gli ultimi giochi da me giocati e che sto giocando sono ut2003,cmr3,vietcong per far solo dei nomi.
Anche a me fa gola la 9700 o la 5900,ma solo perche' posso attivare tutti i filtri(e non e' poco)e non perche' con una scheda meno potente non riesco a giocare con il pc.
Spero di essermi chiarito meglio.

fek
14-09-2003, 17:27
Originariamente inviato da yossarian
Ti riferisci alle specifiche DX9, ovviamente.
Però. in tal caso, non sarebbe stato più saggio optare per un'architettura più "neutra" e meno condizionante (anche alla luce delle versioni precedenti delle API stesse)?


Hmmm... questa e' una scelta dei progettisti e non mi sento in grado di criticarla. Personalmente apprezzo lo sforzo di creare un'architettura piu' ricca di funzionalita' sebbene questo sia andato un po' a discapito delle prestazioni.

Orsobubu
14-09-2003, 19:25
Originariamente inviato da massibirba
io gioco agli ultimissimi giochi a 1024x768 tanti nel forum che come me hanno la 7500 ti smentiranno
-CUT-

Non ho alcun dubbio sul fatto che tu ed altri utenti riusciate a giocare con i suddetti titoli: il punto è che dicendo "1024x768 senza neanche uno scatto" è come affermare che basta una 7500 per godere tranquillamente degli ultimissimi giochi, cosa non propriamente vera. E' solo una questione di precisione per non creare troppa confusione nella testa di chi legge, e si aspetta poi di giocare con SplinterCell a 1024x768 senza scatti, stupendosi di dover tagliare i dettagli al minimo e vedere esposioni e sparatorie (etc) a 5fps.
Comunque, io stesso ho provato l'alpha di DIII con una Geforce (NV10 sdr), e "funzionava", quindi riuscirai sicuramente a giocare con HL2 e DIII con la 7500... ma è tutto da vedere il COME ci giocherai!

Orsettob
15-09-2003, 07:21
Scusate ma per quasta frase verrò linciato... ma una bella xbox psx2 invece di buttare i soldi? O fate i grafici x una azienda o il postafoglio lo riempite la mattina invece del cesso????

Kaiozzi
15-09-2003, 07:45
come feci per Half life I.
Lo compro fra un annetto, quando le schede in commercio che lo facciano girare BENE non abbiano piu un costo proibitivo.

cdimauro
15-09-2003, 08:00
Originariamente inviato da DoomIII
bè... inutile non notare come sicuramente il futuro è già diverso da ciò che si prospettava nVidia... ma intendevo dire che IMHO nVidia nel progetto NV30/35 ci sono state più spese/investimenti per la generazione sucessiva(NV40) che non per il prodotto NV30/35.
Se l'architettura CineFX verrà buttata via con l'NV40, come penso, dell'NV3X troveremo ben poco, e gli investimenti fatti saranno stati fini a sé stessi...
Con ottimo non intendo che sia stato un ragionamento che le ha portato beneficio per come sono andate le cose... ma quando l'hanno pensato aveva la sua logica... poichè sicuramente si aspettavano di poter uscire prima con NV30, di non incorrere in problemi di produzione di poter dettare lo standard e che Ati non riuscisse a produrre una scheda più che competitiva.
Logico che sol senno di poi...
C'è un problema di fondo in tutto ciò. Io posso capire che alla nVidia non si aspettassero l'enorme successo di Ati, e questo nessuno poteva prevederlo, giustamente. Ma perché andare a dettare lo standard, quando già esisteva e si chiamava DirectX 9? Non metto in dubbio che CineFX sia un'architettura più avanzata dal punto di vista delle innovazioni, ma ci si deve confrontare con gli standard, altrimenti il mercato torna ad essere una giungla selvaggia.
Oltre a ciò, a nVidia non sono bastati 130 milioni di transistor e il processo produttivo a 0,13u per rimanere competitiva nei confronti dell'R300 (che è fabbricato a 0,15u ne contiene 107 milioni), e allora perché continuare sulla stessa strada (NV35)? Non era logico fermarsi e puntare tutto su una nuova architettura, che non presentasse i problemi intrinseci di CineFX? I problemi stanno venendo al pettine ora che cominciano ad arrivare i primi giochi DX9...
Intendevo dire che ancora oggi ci sono bench di Q3 o_O ...figuriamoci per quanto tempo probabilmente si parlerà di HL2... la situazione per me è simile a quella di Q3 per le performance ottenute...
Su questo concordo, non c'è dubbio...
penso sia meglio giocare ad HL2 con la next-generation trovo difficile che adesso la maggioranza degli 'utenti' non siano costretti a scendere a compromesso o cmq ad accettare qualche tentennamento...
Beh, non mi sembra la mia 9600Pro sia da buttare con HL2. E pensare che ero indeciso fra la 5600Ultra e la 9600Pro, ma poi per un discorso di prezzo, prestazioni e soprattutto di qualità video (lavoro quasi sempre nel 2D), ho preferito puntare su quest'ultima, anche se i dubbi sui Catalyst erano forti (è per questo che ero indeciso per la 5600Ultra). Forse ho avuto fortuna, questa volta (e mi sono trovato bene coi Catalyst). :)
hai sicuramente visto il nuovo video DX9/HDRD... posso ovviamente sbagliarmi perchè è un video e dipende cmq dai parametri con i quali è stato fatto... allora sembra giocabilissimo però non è affatto limpidamente fluido... e di fisica applicata/AI/moltitudine di personaggi ecc... (le situazioni che si sono viste negli altri video) neanche l'ombra...
quindi non so su che sistema sia possibile effettivamente potersi godere HL2 la massimo del massimo.
No, l'ultimo video non l'ho visto. Ho visto giusto l'altro ieri quello da 500MB circa che circolava tempo addietro e sono rimasto stupefatto dalla fisica implementata: mai visto niente di simile fino ad ora. Però il gioco scattava un po'.
Se mi dici che quello nuovo è più fluido, ma noti dei dettagli mancanti, mi lasci abbastanza perplesso.
Comunque tra un po' ci toglieremo tutti i dubbi, perché verrà rilasciato il benchmark ufficiale e potremo valutare le prestazioni di questo gioco con i nostri sistemi, anche se non credo che i numeri rilasciati da Valve non siano attendibili, anche perché chi ha effettuato le prove online ha ottenuto gli stessi risultati...
Tra l'altro è il primo gioco DX9... e ben venga visto che di DX8 si è visto poco niente... ma cmq senza voler togliere nulla al gioco... non credo sfrutti le DX9 a dovere. (NB: per carità... questo non è un insulto al gioco e non voglio togliere nulla al capolavoro)
cmq ad esempio le luci di cui tanti si meravigliano visibili nel demo di cui sopra... sono ottenibili anche in DX8. (certo singolarmente e probabilmente non insieme a tutto il resto... ma con le DX9 si può cmq fare ancora molto di più)
Le DX9 sono arrivate da poco e penso che ci vorrà del tempo per sfruttarle a dovere, su questo non ci sono dubbi. Ma penso cha Valve, in 5 anni di sviluppo, qualcosa di buono sia riuscita a tirarla fuori. Ho visto il vecchio filmato e, ripeto, sono rimasto di stucco. Chissà cosa ci riserverà il futuro... ;)
apparte che per un discorso competitività/concorrenza che sia nVidia o Ati ma non è certo augurabile che una 'domini'
Nessuna persona di buon senso potrebbe farlo...
ad ogni modo a vedere le performance per me c'è poco da stare allegri... poi vabbè... al bench manca poco ci si potrà fare un idea migliore...
Appunto. E poi, ripeto: non mi pare che su un'economica 9600Pro giri tanto male...
ma dal mio punto di vista uno dovrebbe come prima cosa auspicarsi di poter giocare al meglio possibile ad HL2 e non che HL2 giri meglio su una marca di scheda...
OK, su questo concordo, ma non a tutti i costi. Lo standard è rappresentato dalle DirectX 9, non dal CineFX. I giochi andrebbero sviluppati soltanto per le DX9: tutto il resto DOVREBBE essere a carico dei costruttori di GPU.
Immagina cosa accadrebbe se ognuno facesse uscire una GPU che funzioni a modo suo: ci sarebbe il caos! E tu pensi che le software house dovrebbero rilasciare una versione degli shader per ogni GPU esistente? Sarebbe assurdo, dai!
L'ha fatto nVidia perché ha una posizione dominante nel mercato, ma la sua azione non merita alcuna giustificazione.
certo le ottimizzazioni che dici tu sopra sono una buona cosa... ma se sono state fatte dimostrano anche che c'è stata necessità...
Appunto perché si tratta di nVidia e non si è voluto lasciare col culo per terra milioni di utenti, ma non è assolutamente una buona cosa...
ho detto che non so quanto stia ad nVidia risolvere il bug o quanto stia alla Valve...
Beh, anche nVidia ha dichiarato ufficialmente che quello della nebbia è un bug dei DET50: almeno a loro dovrai pur credere... :)
miglioramenti ci saranno di sicuro... non so in che ordine... ma come ti ho detto non credo in un ribalto di situazione.
Come ho già detto, se ci saranno miglioramenti saranno per il codice DX9 generico. Il "mixed mode" è già stato ottimizzato "a mano", e non credo che potrà giovarsi dei nuovi driver...
be, mi sono già espresso sull'architettura...
Anch'io, e ho esposto chiaramente le mie perplessità sulla capacità del CineFX di far girare bene i giochi DX9 (a livello di shader). Tomb Raider prima (lo so che è una chiavica) e HL2 sembrano dimostrare ciò che dico. All'appello manca Doom 3, ma chissà quando arriverà... Ho tralasciato il 3DMark2003 perché non lo considero neppure (vedi messaggi precedenti), ma i test atti a valutare le prestazioni teoriche degli shader (che servono agli operatori del settore) avevano già mostrato questa realtà...
non credo sia falsa... ed al riguardo penso siano manovre abbastanza classiche... probabilmente ci sono anche altre cose sotto quando ci sono queste situazioni.(generalmente in questi affari.. non nel caso specifico)
Scusa, ma come fai a sostenere ancora queste cose? Cerca di essere obiettivo: DUE ANNI FA le cose stavano così come pensi? L'accordo MS/Ati risale al mese scorso, e a voler portare indietro le lancette, pensi che MS si sarebbe fidata di Ati, senza qualcosa di concreto in mano, per la prossim XBox? Con l'R300 prima (che ha fatto fuori l'NV30 su tutti i campi), e con l'R350 poi (che si mantiene competitivo con l'NV35 sulle DX8, e vincente sulle DX9), Ati ha dimostrato di essere una realtà solida su cui MS si può appoggiare per lo sviluppo della sua nuova console.
Ma questa, ripeto, è tutta storia RECENTISSIMA. Non hai alcuna prova, neppure indiziaria, per poter parlare di manovre o accordi sottobanco. Se è vero che cose del genere possono succedere usualmente, è anche vero che hanno bisogno di tempo per essere elaborate. E proprio il tempo è quello che smentisce le tue affermazioni. Prendine atto onestamente e chiudiamo questa parte della discussione.
si... ma il bench specifico per il quale ci sono i risultati... vorrei sapere qualcosino in più di quello.
Non ci vorrà molto. Tra poco sarà rilasciato e lo potrai testare, tranquillo...
Per quanto ti riguarda non credo di aver mai indirizzato termini come 'tifoso' verso di te... apprezzo i tuoi post ed il tuo modo di esporti... vabbè mi lascia un po perplesso come non ti scandalizzi per chi veramente insulta... ma ad ogni modo penso sia normale che in qualche modo chi più chi meno siamo affezzionati alla nostra GPU.

Saluti.

Ho voluto lasciare quest'ultimo pezzo per risponderti in merito alla questione dei flame e degli insulti. So che non erano rivolti a me, ma il discorso era in generale, e ti riporto il mio pensiero.

Cosa accadrebbe se ci mettessimo a insultare o redarguire tutti i cretini che scrivono "nVidia merda, Ati merda, ecc."? Il forum diventerebbe la succursale della nettenza urbana. Per cui questi post già a priori bisogna lasciarli perdere: ci sono i moderatori che mi sembrano le persone più indicate mettere in riga queste persone.

Se c'è qualche utente che spara delle cazzate, puoi sempre quotarlo e metterlo con le spalle al muro, chiedendo conto e ragione delle sue affermazioni. Anche in questo caso non c'è bisogno di ricorrere a epiteti o offese: è sufficiente la forza dei fatti.

Per gli altri utenti che sono in grado di sostenere una discussione, non vedo perché bisogna arrivare sempre ai ferri corti quando sostengono idee diverse: c'è modo e modo di intavolare un dialogo. Se poi non si possono oggettivamente conciliare le posizioni, basta finirla lì.

Il motivo dei miei richiami nei tuoi confronti è stato forte perché non mi aspetto che una persona capace di sostenere delle discussioni di un certo spessore si metta al livello di quelli che hanno scambiato il forum per il lettino dello psicanalista per sforgare le loro frustazioni di fanatici. Da te mi aspetto discussioni serie e basta, questo è il punto.

Infine, è vero che + o - siamo affezionati alla nostra CPU o GPU (ed è evidentissimo che da tempo tieni per nVidia ;)), ma ripeto il concetto: quando si discute di una cosa tecnica, bisogna lasciare a casa i sentimenti personali. Quando parlavamo di GPU mesi addietro, avevo una Voodoo3 3000 sul muletto (da cui ti sto sto scrivendo... :)) e una fiammante GF2 MX400 sul computer principale; da circa un mese invece ho cambiato la GF2 per una 9600Pro (principalmente per la qualità video, come ti ho detto, perché la uso per il 2D e quasi mai per il 3D). Sei vai a rivedere i miei commenti, puoi affermare che siano cambiati da allora e che adesso siano influenzati dalla mia nuova scheda grafica? In tutta onestà penso di no.

A me piace discutere e basta, senza insultare e scatenere flame, ed è quello che spero facciano tutti, anche se mi rendo conto che, proprio per una questione di attaccamento personale, a volte è difficile accettare alcuni fatti.

Spero che quello che ho scritto ti serva per il futuro e ti permetta di affrontare con più maturità anche le discussioni più "rognose"... :)

Saluti

fek
15-09-2003, 10:23
Originariamente inviato da cdimauro
Se l'architettura CineFX verrà buttata via con l'NV40, come penso, dell'NV3X troveremo ben poco, e gli investimenti fatti saranno stati fini a sé stessi...

Assolutamente no. In questo campo non butti via niente. I progetti successivi si basano sempre pesantemente sull'esperienza accumulata con i progetti precedenti, ancor piu' in un campo come questo ad "alta velocita'".

Hammon
15-09-2003, 11:58
son contento di aver preso una 9500pro.. non penso di moddarla a 9700, visto che ho letto da qualche parte che la percentuale di riuscita si aggira attorno al 50%.. siccome sono abbastanza sfigato preferirei evitare :D mi accontentero' della terza posizione nei benchmark, tenendo conto che ho tweakato la scheda e ora ho clock e frequenza di ram sparati al massimo supportato dalla 9500pro :)
Ho fatto bene quindi a consigliare a tutti i miei amici di non prendere le nuove FX e tenersi le vecchie ti42xx :)

DjLode
15-09-2003, 13:50
Purtroppo l'esito della modifica da 9500 Pro a 9700 ha percentuali ben minori, diciamo pari allo 0% :)
E' la 9500 liscia che si modifica, la Pro nisba.

BlackBug
15-09-2003, 15:19
poco da dire 1 bella vittoria...m è solo una battaglia non una guerra...peccato che le vittime siano i consumatori!

Biotech
15-09-2003, 16:40
l'Nvidia ha già affermato con certezza che i detonator 5 saranno ottimizzati per tale titolo e voi mettete in prima pagina un titolo che dice "ATI distanzia nettamente le schede nVidia". Ma scusate, mi dite che vi hanno fatto di male quelli dell'Nvidia?

Il gioco non è ancora uscito, perciò che senso ha disquisire su qual'è la piattaforma migliore!

E poi perchè per par condicio non dite che le ATI vanno uno schifo su DOOMIII?

Un po' di serietà grazie

the_joe
15-09-2003, 17:14
Magari sarà un po troppo lungo, ma leggere i post precedenti è chiedere troppo?
Magari fra i tanti ce n'è qualcuno interessante scritto da gente che ne sa qualcosina ed è pure poco di parte.
E per par condicio, a te che "bene" hanno fatto quelli di NVidia per essere difesi oltre ogni evidenza?

DoomIII
15-09-2003, 17:34
Originariamente inviato da cdimauro
Se l'architettura CineFX verrà buttata via con l'NV40, come penso, dell'NV3X troveremo ben poco, e gli investimenti fatti saranno stati fini a sé stessi...


se dovesse accadere sarebbe davvero la fine di nVidia... cmq no... impensabile che buttino via l'esperienza ed i progressi che hanno fatto :O ;)

Originariamente inviato da cdimauro
C'è un problema di fondo in tutto ciò. Io posso capire che alla nVidia non si aspettassero l'enorme successo di Ati, e questo nessuno poteva prevederlo, giustamente. Ma perché andare a dettare lo standard, quando già esisteva e si chiamava DirectX 9? Non metto in dubbio che CineFX sia un'architettura più avanzata dal punto di vista delle innovazioni, ma ci si deve confrontare con gli standard, altrimenti il mercato torna ad essere una giungla selvaggia.
Oltre a ciò, a nVidia non sono bastati 130 milioni di transistor e il processo produttivo a 0,13u per rimanere competitiva nei confronti dell'R300 (che è fabbricato a 0,15u ne contiene 107 milioni), e allora perché continuare sulla stessa strada (NV35)? Non era logico fermarsi e puntare tutto su una nuova architettura, che non presentasse i problemi intrinseci di CineFX? I problemi stanno venendo al pettine ora che cominciano ad arrivare i primi giochi DX9...


be sai... in realtà le "DX9 sono Microsoft" ma gli standard non è che se li inventi lei... le DX8 avevano gli shaders dati in brevetto cioè in licenza da nVidia (similmente per OpenGL)... e probabilmente nVidia voleva bissare... alle DX lavorano tutti i produttori che fanno parte del consorzio... nVidia contava sicuramente di imporsi.

Originariamente inviato da cdimauro
Su questo concordo, non c'è dubbio...

su cosa? :D hehehe... si si lo so.

Originariamente inviato da cdimauro
Beh, non mi sembra la mia 9600Pro sia da buttare con HL2. E pensare che ero indeciso fra la 5600Ultra e la 9600Pro, ma poi per un discorso di prezzo, prestazioni e soprattutto di qualità video (lavoro quasi sempre nel 2D), ho preferito puntare su quest'ultima, anche se i dubbi sui Catalyst erano forti (è per questo che ero indeciso per la 5600Ultra). Forse ho avuto fortuna, questa volta (e mi sono trovato bene coi Catalyst). :)


hmm... be si, certo... ma a questo punto aspettiamo che esca... non intendo certo dire che la tua scheda sia da buttare... anzi anche su Gef4&company ,e sarebbe da vedere come se la cava una Gef3, il gioco penso posso essere ben che godibile(poi bisogna vedere anche il sistema, CPU/ram ecc...).
Ma magari per i puristi... che penso siano generalmente quelli che stanno facendo post particolarmente entusiastici... non sarà tutto rose e fiori. cmq è solo un'ipotesi ;)


Originariamente inviato da cdimauro
No, l'ultimo video non l'ho visto. Ho visto giusto l'altro ieri quello da 500MB circa che circolava tempo addietro e sono rimasto stupefatto dalla fisica implementata: mai visto niente di simile fino ad ora. Però il gioco scattava un po'.
Se mi dici che quello nuovo è più fluido, ma noti dei dettagli mancanti, mi lasci abbastanza perplesso.
Comunque tra un po' ci toglieremo tutti i dubbi, perché verrà rilasciato il benchmark ufficiale e potremo valutare le prestazioni di questo gioco con i nostri sistemi, anche se non credo che i numeri rilasciati da Valve non siano attendibili, anche perché chi ha effettuato le prove online ha ottenuto gli stessi risultati...

hmm... sicuro? è quel file bink sui 100Mb... è un tech demo... secondo me enfatizza troppo gli effetti volutamente proprio per mostrarli... non fraintendermi... non intendevo che la scena sia scarna e manchino dettagli... proprio in virtù di ciò che il video vuole evidenziare rispetteo agli altri video c'è una situazione meno pesante.
Sarei a questo punto curioso di sapere come gira HL2 con ciò che si vede in questo video.

Originariamente inviato da cdimauro
Le DX9 sono arrivate da poco e penso che ci vorrà del tempo per sfruttarle a dovere, su questo non ci sono dubbi. Ma penso cha Valve, in 5 anni di sviluppo, qualcosa di buono sia riuscita a tirarla fuori. Ho visto il vecchio filmato e, ripeto, sono rimasto di stucco. Chissà cosa ci riserverà il futuro... ;)

si si, per carità... nessuno mette in dubbio il lavoro svolto... non credo che dire o portare dei dubbi sul fatto che HL2 non sia poi FULLDX9 sminuisca il titolo o il lavoro stesso.
Tutto sommato è anche normale che sia cosi... certo si potrebbe dire che se nVidia già adesso se la cava a stento... ma chissà... magari la scheda non perderebbe molto con titoli ancora + impegnativi ed in virtù di nuovi driver il tutto potrebbe mantenersi su un livello di discretezza.


Originariamente inviato da cdimauro
Nessuna persona di buon senso potrebbe farlo...

Appunto. E poi, ripeto: non mi pare che su un'economica 9600Pro giri tanto male...

OK, su questo concordo, ma non a tutti i costi. Lo standard è rappresentato dalle DirectX 9, non dal CineFX. I giochi andrebbero sviluppati soltanto per le DX9: tutto il resto DOVREBBE essere a carico dei costruttori di GPU.
Immagina cosa accadrebbe se ognuno facesse uscire una GPU che funzioni a modo suo: ci sarebbe il caos! E tu pensi che le software house dovrebbero rilasciare una versione degli shader per ogni GPU esistente? Sarebbe assurdo, dai!
L'ha fatto nVidia perché ha una posizione dominante nel mercato, ma la sua azione non merita alcuna giustificazione.

e già... ci sarebbe il caos... dannata 3dfx con le sue glide ;)
ehheheh... be i tempi erano diversi... non hai tutti i torti... l'azione di nVidia non sarà bella... ma queste sono regole di mercato... tutti cercano di tirare l'acqua dal proprio mulino.
cmq al riguardo i nuovi driver (non so se già la prime rel. dei 50) dovrebbero avere quel 'famoso' compilatore in modo da adattare gli shaders scomponendone le istruzione e cercando l'ottimizzazione adatta per il chip Fx.
Al riguardo ho letto post contro questi driver di utenti che criticano nVidia per il fattore driver... dicendo che questi driver sono per Hl2 e non è possibile avere per ogni gioco questi problemi e cioè dover fare per ogni gioco dei driver.
Be... in realtà nVidia ha detto che i .50 sono per tutti i titoli DX9... poi probabile che ci sia dietro una particolare attenzione ai casi specifici di HL2(niente di strano del resto... non c'è molto altro su cui lavorare).

Originariamente inviato da cdimauro

Appunto perché si tratta di nVidia e non si è voluto lasciare col culo per terra milioni di utenti, ma non è assolutamente una buona cosa...

Beh, anche nVidia ha dichiarato ufficialmente che quello della nebbia è un bug dei DET50: almeno a loro dovrai pur credere... :)


si... ma hanno detto che NELLA LORO VERSIONE... in una frase un po mistica/scocciata che volendo :P nasconde qualcosa dietro.


Originariamente inviato da cdimauro
Come ho già detto, se ci saranno miglioramenti saranno per il codice DX9 generico. Il "mixed mode" è già stato ottimizzato "a mano", e non credo che potrà giovarsi dei nuovi driver...

Anch'io, e ho esposto chiaramente le mie perplessità sulla capacità del CineFX di far girare bene i giochi DX9 (a livello di shader). Tomb Raider prima (lo so che è una chiavica) e HL2 sembrano dimostrare ciò che dico. All'appello manca Doom 3, ma chissà quando arriverà... Ho tralasciato il 3DMark2003 perché non lo considero neppure (vedi messaggi precedenti), ma i test atti a valutare le prestazioni teoriche degli shader (che servono agli operatori del settore) avevano già mostrato questa realtà...


si si infatti... driver nuovi per DX9... Doom3 è OpenGL.

per i test... si ma io avevo visto test anche un tantino diversi... certo erano casi se vogliamo particolari... quei casi dove nVidia risolve tutto in una passata e la controparte Ati ne necessita di 5.

Originariamente inviato da cdimauro
Scusa, ma come fai a sostenere ancora queste cose? Cerca di essere obiettivo: DUE ANNI FA le cose stavano così come pensi? L'accordo MS/Ati risale al mese scorso, e a voler portare indietro le lancette, pensi che MS si sarebbe fidata di Ati, senza qualcosa di concreto in mano, per la prossim XBox? Con l'R300 prima (che ha fatto fuori l'NV30 su tutti i campi), e con l'R350 poi (che si mantiene competitivo con l'NV35 sulle DX8, e vincente sulle DX9), Ati ha dimostrato di essere una realtà solida su cui MS si può appoggiare per lo sviluppo della sua nuova console.
Ma questa, ripeto, è tutta storia RECENTISSIMA. Non hai alcuna prova, neppure indiziaria, per poter parlare di manovre o accordi sottobanco. Se è vero che cose del genere possono succedere usualmente, è anche vero che hanno bisogno di tempo per essere elaborate. E proprio il tempo è quello che smentisce le tue affermazioni. Prendine atto onestamente e chiudiamo questa parte della discussione.


be...ho generalizzato (hai letto la parentesi?)... accordi ci sono generalmente sempre... ci sono tra Intel ed Amd, Ati ed nVidia... ci sono tra i fornitori di servizi cell. del nostro paese ecc....
o cara Intel... perchè farci sta guerra di prezzi? guarda che io Amd abbasso ancora i prezzi... poi li abbassi anche tu ecc... hmm... cara Intel... penso sia meglio ci mettiamo daccordo perchè io AMD guadagno molto di più vendendo 10 pezzi a 100 piuttosto che vendendone 20 a 20... (stesso discorso contrario) ecc... ecc...

nel caso sopra... tra M$ ed nVidia non ci sono rose e fiori da un bel po di tempo... le cause legali che ci sono state attorno alla fornitura di chip per Xbox hanno creato una sorta di tensione e le 2 si son fatte parecchi 'dispetti'.


Originariamente inviato da cdimauro
Non ci vorrà molto. Tra poco sarà rilasciato e lo potrai testare, tranquillo...


vedremo...

Originariamente inviato da cdimauro
Ho voluto lasciare quest'ultimo pezzo per risponderti in merito alla questione dei flame e degli insulti. So che non erano rivolti a me, ma il discorso era in generale, e ti riporto il mio pensiero.

Cosa accadrebbe se ci mettessimo a insultare o redarguire tutti i cretini che scrivono "nVidia merda, Ati merda, ecc."? Il forum diventerebbe la succursale della nettenza urbana. Per cui questi post già a priori bisogna lasciarli perdere: ci sono i moderatori che mi sembrano le persone più indicate mettere in riga queste persone.

Se c'è qualche utente che spara delle cazzate, puoi sempre quotarlo e metterlo con le spalle al muro, chiedendo conto e ragione delle sue affermazioni. Anche in questo caso non c'è bisogno di ricorrere a epiteti o offese: è sufficiente la forza dei fatti.

Per gli altri utenti che sono in grado di sostenere una discussione, non vedo perché bisogna arrivare sempre ai ferri corti quando sostengono idee diverse: c'è modo e modo di intavolare un dialogo. Se poi non si possono oggettivamente conciliare le posizioni, basta finirla lì.


ok...

hmmm.... mi che postone...



Originariamente inviato da cdimauro
Il motivo dei miei richiami nei tuoi confronti è stato forte perché non mi aspetto che una persona capace di sostenere delle discussioni di un certo spessore si metta al livello di quelli che hanno scambiato il forum per il lettino dello psicanalista per sforgare le loro frustazioni di fanatici. Da te mi aspetto discussioni serie e basta, questo è il punto.


ue che vuoi fare? mi aduli per portarmi sul lato oscuro... anzi chiaro della forza? ghghghgh


Originariamente inviato da cdimauro
Infine, è vero che + o - siamo affezionati alla nostra CPU o GPU (ed è evidentissimo che da tempo tieni per nVidia ;)), ma ripeto il concetto: quando si discute di una cosa tecnica, bisogna lasciare a casa i sentimenti personali. Quando parlavamo di GPU mesi addietro, avevo una Voodoo3 3000 sul muletto (da cui ti sto sto scrivendo... :)) e una fiammante GF2 MX400 sul computer principale; da circa un mese invece ho cambiato la GF2 per una 9600Pro (principalmente per la qualità video, come ti ho detto, perché la uso per il 2D e quasi mai per il 3D). Sei vai a rivedere i miei commenti, puoi affermare che siano cambiati da allora e che adesso siano influenzati dalla mia nuova scheda grafica? In tutta onestà penso di no.


io tengo per nVidia? naaa... ma che dici mai... ma cosa te lo fa pensare?
be... è cmq relativo... attualmente vorrei vedere e sapere qualcosa di più su xgi...
prima di passare ad nVidia... avevo le 3dfx (1 e 2)... poi con la 3 ecc... ho iniziato a storcere il naso... e sono passato alla Gef1 (bellllaaaaa)... se 3dfx faceva una nuova scheda grafica (sulle ultime vodoo preferisco nn esprimermi...)... ma ha fallito...
Ora come ora aspetto la next-generation... già da prima che uscisse il chip ho considerato NV30/35 troppo sperimentale e la concorrenza per quanto abbia un ottimo chip... aspetto cmq di vedere che combinano nella next-generation... e se salta fuori qualche nuovo contendente... tanto meglio...
oppure forse prenderò Ati... o nVidia... dipende da che combinano... ma questa generazione lo ripeto come l'ho detto quando stava per uscire...: non mi interessa minimamente.

Originariamente inviato da cdimauro

A me piace discutere e basta, senza insultare e scatenere flame, ed è quello che spero facciano tutti, anche se mi rendo conto che, proprio per una questione di attaccamento personale, a volte è difficile accettare alcuni fatti.

Spero che quello che ho scritto ti serva per il futuro e ti permetta di affrontare con più maturità anche le discussioni più "rognose"... :)

Saluti

o_O''' ma chi sei? mia mamma?
la mia forumamma :D

Saludos.

Biotech
15-09-2003, 18:04
sicuramente dovrai darmi ragione del fatto che è troppo presto tirare conclusioni sulle prestazioni dell'NV3x su HL2 con i driver attuali; mi sembra insomma un voler girare il coltello nella piaga...

Devo dire onestamente che non ho nulla contro ATI, in quanto ho schede di entrambe le marche, però devo dire che tutte le accuse velocistiche su NVIDIA sono assolutamente infondate in quanto le schede sono perfettamente uguali.

CIAUZ

the_joe
16-09-2003, 08:15
Ciao Biotech, certamente è presto, troppo presto per trarre conclusioni definitive, ma non puoi nemmeno dire che le due schede siano identiche dopo tutti i post che hanno evidenziato le differenze strutturali delle GPU in questione, la diversità dei Ps e VS 2.0 nelle GPU NVidia rispetto alle specifiche DX9 è stato fatto notare già da tempi non sospetti.
Poi se i programmatori NVidia saranno in grado di sfornare dei driver che possano effettuare delle operazioni di ottimizzazione delle istruzioni critiche per meglio adattarle ai propri shaders al volo e con prestazioni decenti, meglio per tutti in special modo per tutti coloro che hanno acquistato (magari un po' avventatamente a mio avviso perchè ripeto il problema era noto da tempo e considerando che ATI ha da + di una anno una scheda DX9 pienamente funzionale in listino) una scheda FX.
Io non sono per ATI o per NVidia, ammiro chi fa dei buoni prodotti e magari la prossima generazione di schede ribalterà la situazione ed io sarò il primo ad elogiare il vincitore (come ho comprato NVidia quando lo meritava), ora la situazione è questa, il prodotto FX è ancora immaturo ed ha bisogno di affinamenti.
Per quanto riguarda DOOM III è un titolo OpenGL che quindi non sfrutta i VS e PS 2.0 ma la versione 1.4 quindi il confronto si sposta su un altro campo non più in quello delle DX9, considerando poi che i drivers NVidia per le OpenGL sono sempre stati migliori di quelli ATI e che per il titolo in questione è stata scritta una path apposita per il motore FX è chiaro che le schede NVidia diano le migliori prestazioni, non voglio dire che se fosse scritta una path apposita per ATI la situazione cambierebbe, ma solo che al momento le schede ATI fanno girare meglio i giochi scritti rispettando gli standard senza bisogno di interventi da parte dei programmatori mentre viste le scelte di NVidia , le GPU FX hanno bisogno di un po' più di attenzioni per essere sfruttate al meglio.

BYEZ

Biotech
16-09-2003, 10:42
non fai altro che confermare ciò che ti ho detto prima, ovvero che non è corretto classificare come perdente un prodotto validissimo, solo perchè un versione beta peraltro con driver sbagliati non è all'altezza di schede su cui il gioco è stato sviluppato! Grazie alla pizza che non vanno uguali!

E poi un consiglio a tutti: non vi fidate mai quando vedete differenze velocistiche esagerate: c'è sempre qualcosa sotto. Ciò che voglio dire è che non è umanamente pensabile che una 9600Pro possa essere due volte più veloce di una bestia di scheda come la 5900 ultra. Qui si parla di eresia!
Io ho avuto la fortuna di provarle tutte quante le schede di questo periodo e posso affermare che le FX sono delle gran belle schede così come le ATI; l'unica cosa che non digerisco delle ATI è la suscettibilità enorme all'overclock, la gestione obbrobriosa dei driver (che ancora installano nel sistema due periferiche - FURY MAXX docet!).
Per il resto non me la sento di dire che non siano schede valide: grazie a Dio viviamo un bel periodo dal punto di vista hardware con novità continue e concorrenza spietata, in cui l'utente può fare tutte le scelte che vuole.

CIAUZ

emylyano
16-09-2003, 10:47
Ho fatto la "pazzia" di acquistare una Sapphire Radeon 9800pro 128Mb...Mi arriva oggi..(CHL €450) il 30 Settembre tutti a comprare HL2..che dite andrà bene...AsusA7N8X-X, AMD XP 2500+ barton, 2x256Mb CorsairTwix 3200...)
Voglio Giocareeeeeee!!
Ciauz.....

roxys
16-09-2003, 11:04
Scusate l'ignoranza ma qualcuno mi sa dire con tranquillità com'è che ne l benk di aquamark 3 la fx 5900 e vicina e a volte leggermente sopra alla 9800 mentre con Hl2 la differenza è enorme ?
Non vi puzza un pochino il fatto che con HL2 ci sia uno sbilanci pro Ati di quasi il doppio delle prestazioni............... mentre fino ad ora il divario era più contenuto......cosi da profano chiedo....peò se mi dovete sbandierare che AquaMax e total conversion per Nvidia fate a meno di rispondermi grazie...

roxys
16-09-2003, 11:05
Dimenticavo il link

http://www.hothardware.com/hh_files/S&V/aquamark3_gffx5900u_r9800pro(3).shtml

DjLode
16-09-2003, 11:16
Originariamente inviato da roxys
Scusate l'ignoranza ma qualcuno mi sa dire con tranquillità com'è che ne l benk di aquamark 3 la fx 5900 e vicina e a volte leggermente sopra alla 9800 mentre con Hl2 la differenza è enorme ?
Non vi puzza un pochino il fatto che con HL2 ci sia uno sbilanci pro Ati di quasi il doppio delle prestazioni............... mentre fino ad ora il divario era più contenuto......cosi da profano chiedo....peò se mi dovete sbandierare che AquaMax e total conversion per Nvidia fate a meno di rispondermi grazie...

Non ho provato il benchmark e ho letto solo una recensione, quindi potrei anche sbagliarmi. Mi pare che (a differenze anche del 3d mark 2003) questo bench si appoggi a tutto il sistema in generale (quindi conta anche la cpu) e che di shaders dx9 ce ne siano tipo una decina (su circa 200 in tutto). Quindi può anche darsi che la forza bruta e la velocità generale della 5900 (inutile negare che sia veloce) compensano ai problemi che la stessa scheda può avere nell'esecuzione di shaders dx9.

cdimauro
16-09-2003, 12:40
Originariamente inviato da fek
Assolutamente no. In questo campo non butti via niente. I progetti successivi si basano sempre pesantemente sull'esperienza accumulata con i progetti precedenti, ancor piu' in un campo come questo ad "alta velocita'".
Se parliamo di esperienza, hai ragione. Ma per come vanno le cose adesso, penso che proprio il CineFX sia il vero tallone d'Achille dell'architettura NV3X, e pensare di riutilizzarlo e migliorarlo per NV40 e/o NV50 sia un vero suicidio. Mi riferisco, comunque, proprio all'utilizzo delle "quads", dei 4 pixel raggruppati e passati "in blocco" ai vari stadi di esecuzione, che attualmente limitano fortemente le prestazioni generali della GPU.
Tutto il resto, ovviamente, lo possono sempre riutilizzare, ma penso che sia meglio per nVidia farlo mettendo in conto di realizzare un'architettura a pipeline "indipendenti", come quella di Ati, ad esempio.
Ovviamente tu sarai a conoscenza di maggiori dettagli in merito, ma penso che sia legato da un NDA, per cui non potresti rilasciare alcuna informazione. Un vero peccato. :(

cdimauro
16-09-2003, 12:41
Originariamente inviato da Biotech
Poi dite che non siete pro ATI...
Vorrei sapere perché alla fine si deve scadere in accuse di questo tipo: nel thread non mancano certo messaggi che analizzano la situazione...
l'Nvidia ha già affermato con certezza che i detonator 5 saranno ottimizzati per tale titolo e voi mettete in prima pagina un titolo che dice "ATI distanzia nettamente le schede nVidia". Ma scusate, mi dite che vi hanno fatto di male quelli dell'Nvidia?
A me niente: mi limito a valutare le informazioni UFFICIALI disponibili e a tirare delle conclusioni. L'hai fatto anche tu?
Il gioco non è ancora uscito, perciò che senso ha disquisire su qual'è la piattaforma migliore!
Il gioco è praticamente al suo stadio finale, e vorrei vedere dopo ben CINQUE anni di sviluppo. Il tempo che verrà impiegato da qui alla commercializzazione penso sia relativo quasi esclusivamente al test e al debugging, niente di più.
E poi perchè per par condicio non dite che le ATI vanno uno schifo su DOOMIII?
Perché:
1) non è stata rilascita nessuna informazione ufficiale
2) quella utilizzata per fare dei test è una versione alpha che nulla ha a che vedere con quella definitiva, dalla quale si distanza di quasi DUE ANNI (se Doom3 verrà realmente commercializzato per la metà del prossimo anno)
3) i benchmark presentati in rete da qualche sito hanno utilizzato per le Ati dei driver che avevano dei problemi più che evidenti (c'era una differenza abissale rispetto alle versioni precedenti e le prestazioni era praticamente le stesse a TUTTE le risoluzioni)
4) le prestazioni nel codice DX9 generico erano nettamente superiori per le Ati, mentre le nVidia con l'NV30 path non erano distanti (con i driver funzionanti delle Ati), a prezzo di una qualità inferiore (basta andare a rileggere la famosa intervista di Carmack).
Un po' di serietà grazie
E anche un po' di analisi critica delle informazioni senza farsi condizionare dalla marca preferita non guasterebbe...

Sul discorso dei nuovi driver, t'invito a rileggere bene e quanto è stato scritto, mentre quando dici che le due schede sono perfettamente uguali, beh, consentimi di poter esprimere i miei FORTI dubbi in proposito, specialmente se parliamo di DX9... Sulle DX8, bene o male ti do ragione... ;)

cdimauro
16-09-2003, 12:42
Originariamente inviato da DoomIII
se dovesse accadere sarebbe davvero la fine di nVidia... cmq no... impensabile che buttino via l'esperienza ed i progressi che hanno fatto
L'esperienza no, ma le cose che non vanno penso sia saggio lasciarle nel dimenticatoio...
be sai... in realtà le "DX9 sono Microsoft" ma gli standard non è che se li inventi lei... le DX8 avevano gli shaders dati in brevetto cioè in licenza da nVidia (similmente per OpenGL)... e probabilmente nVidia voleva bissare... alle DX lavorano tutti i produttori che fanno parte del consorzio... nVidia contava sicuramente di imporsi.
C'è comunque una differenza notevole: quando si dovevano realizzare le specifiche delle DX8 non c'era niente di simile e il contributo di nVidia fu FONDAMENTALE, mentre le informazioni sulle DX9 sono state messe a punto da MS e soci PRIMA che ogni casa si mettesse a sviluppare la propria GPU...
certo si potrebbe dire che se nVidia già adesso se la cava a stento... ma chissà... magari la scheda non perderebbe molto con titoli ancora + impegnativi ed in virtù di nuovi driver il tutto potrebbe mantenersi su un livello di discretezza.
I nuovi driver dovrebbero garantire un miglioramento delle prestazioni per quanto riguarda il codice DX9 generico, ma come ho già detto non penso che ciò si verificherà anche per il codice NV3X specifico...
Al riguardo ho letto post contro questi driver di utenti che criticano nVidia per il fattore driver... dicendo che questi driver sono per Hl2 e non è possibile avere per ogni gioco questi problemi e cioè dover fare per ogni gioco dei driver.
Be... in realtà nVidia ha detto che i .50 sono per tutti i titoli DX9... poi probabile che ci sia dietro una particolare attenzione ai casi specifici di HL2(niente di strano del resto... non c'è molto altro su cui lavorare).
A me sta bene se vengono realizzate delle ottimizzazioni generiche per tutti i titoli DX9, ma mi darebbe parecchio fastidio vedere dei driver che sostituiscono il codice originale con quello ad hoc per far girare meglio uno specifico gioco. Non lo trovo corretto, come non trovo corretto che TUTTI gli utenti, anche i possessori di schede non NV3X, sarebbero costretti a scaricare dei file più grossi per colpe certamente non loro...
si... ma hanno detto che NELLA LORO VERSIONE... in una frase un po mistica/scocciata che volendo :P nasconde qualcosa dietro.
Beh, a me un frase del genere, in questo contesto, induce a pensar male, ma non di Valve... ;)
si si infatti... driver nuovi per DX9... Doom3 è OpenGL.
Anche se OpenGL, le estensioni per l'utilizzo degli shader 2.0 sono più o meno le stesse delle DX9, per cui è un problema che si pone comunque anche per i titoli che utilizzano queste librerie... Tant'è che anche per Doom3 abbiamo del codice specifico per ogni architettura...
per i test... si ma io avevo visto test anche un tantino diversi... certo erano casi se vogliamo particolari... quei casi dove nVidia risolve tutto in una passata e la controparte Ati ne necessita di 5.
Hai visto anche gli stessi test fatti girare sull'R350 utilizzando l'F-Buffer? :) Poi considera che gli shader generalmente sono programmi "piccoli", altrimenti sarebbe impossibile realizzare dei giochi "fluidi" (con una soglia superiore a 30fps, per intenderci...)
be...ho generalizzato (hai letto la parentesi?)... accordi ci sono generalmente sempre... ci sono tra Intel ed Amd, Ati ed nVidia... ci sono tra i fornitori di servizi cell. del nostro paese ecc....
Ho letto tutto, certo, e sono d'accordo anche su questa parte, ma il appunto riguardava lo specifico caso..
nel caso sopra... tra M$ ed nVidia non ci sono rose e fiori da un bel po di tempo... le cause legali che ci sono state attorno alla fornitura di chip per Xbox hanno creato una sorta di tensione e le 2 si son fatte parecchi 'dispetti'.
OK, e ne sono a conoscenza, ma voglio dire che quando il progetto R300 è iniziato Ati era una compagnia come un'altra per MS, e non era neppure ipotizzabile che potesse competere col gigante nVidia (ideatore degli shader, tra l'altro). Soltanto di recente Ati s'è imposta a pieno titolo e ha potuto accaparrarsi il contratto per l'X-Box2. Per cui torno a ripetere: il recente "matrimonio" fra MS e Ati non c'entra nulla con ciò che si è verificato in questi ultimi tempi...
io tengo per nVidia? naaa... ma che dici mai... ma cosa te lo fa pensare?
Un certo non so che... ;)
Ora come ora aspetto la next-generation... già da prima che uscisse il chip ho considerato NV30/35 troppo sperimentale e la concorrenza per quanto abbia un ottimo chip... aspetto cmq di vedere che combinano nella next-generation... e se salta fuori qualche nuovo contendente... tanto meglio...
oppure forse prenderò Ati... o nVidia... dipende da che combinano... ma questa generazione lo ripeto come l'ho detto quando stava per uscire...: non mi interessa minimamente.
Mah. Io ricordo i tuoi post fin troppo entusiastici per l'architettura CineFX. ;)
o_O''' ma chi sei? mia mamma?
la mia forumamma

Saludos.
Più che mamma, forse un grillo parlante... :)

spetro
16-09-2003, 14:02
"A me sta bene se vengono realizzate delle ottimizzazioni generiche per tutti i titoli DX9, ma mi darebbe parecchio fastidio vedere dei driver che sostituiscono il codice originale con quello ad hoc per far girare meglio uno specifico gioco. Non lo trovo corretto, come non trovo corretto che TUTTI gli utenti, anche i possessori di schede non NV3X, sarebbero costretti a scaricare dei file più grossi per colpe certamente non loro.."

Se l'ottimizzazione per il singolo gioco funziona e migliora a me sta bene, quello che non mi sta bene è se tale ottimizzazione viene fatta riducendo la qualità, e se, ancora peggio, se viene fatta non per un gioco ma per falsare il risultato di un benchmark.

cdimauro
16-09-2003, 19:55
A questo punto, se per sfruttare bene gli NV3X è necessario ottimizzare i driver appositamente, puoi immaginare cosa accadrebbe se l'operazione dovesse essere effettuata per ogni gioco... :rolleyes:

Cfranco
17-09-2003, 10:45
Ma sì dai ...
Buttiamola in ridere :D
http://utopia.m4unreal.sm/ImgForum/ObiNV.jpg

yossarian
17-09-2003, 11:00
Originariamente inviato da cdimauro
A questo punto, se per sfruttare bene gli NV3X è necessario ottimizzare i driver appositamente, puoi immaginare cosa accadrebbe se l'operazione dovesse essere effettuata per ogni gioco... :rolleyes:


sta già accadendo, almeno con i giochi utilizzati come benchmark. E non solo i drivers, ma il SW stesso necessita di ottimizzazioni (Doom3, HL2, e, ultimo esempio, AoD)

:muro: :cry:

cdimauro
26-09-2003, 04:44
Originariamente inviato da yossorian
sta già accadendo, almeno con i giochi utilizzati come benchmark. E non solo i drivers, ma il SW stesso necessita di ottimizzazioni (Doom3, HL2, e, ultimo esempio, AoD)
Ma non si può pensare di ottimizzare TUTTI i giochi esistenti: sarebbe assurdo. Anche limitando la cosa a Doom3 e HL2, ad esempio, non è che i giochi che sfrutteranno questi engine potranno essere rilevati dai driver e sfruttare le ottimizzazioni per essi: necessiteranno comunque delle ottimizzazioni specifiche, perché in genere l'engine viene modificato (vedi ad esempio Jedi Knight, che usa il motore di Quake 3, ma è stato decisamente migliorato).

yossarian
26-09-2003, 13:34
Originariamente inviato da cdimauro
Ma non si può pensare di ottimizzare TUTTI i giochi esistenti: sarebbe assurdo. Anche limitando la cosa a Doom3 e HL2, ad esempio, non è che i giochi che sfrutteranno questi engine potranno essere rilevati dai driver e sfruttare le ottimizzazioni per essi: necessiteranno comunque delle ottimizzazioni specifiche, perché in genere l'engine viene modificato (vedi ad esempio Jedi Knight, che usa il motore di Quake 3, ma è stato decisamente migliorato).

si tratterà, come avviene ora, di ottimizzazioni a posteriori e non a priori. Quelle, in effetti, sono piuttosto difficili da realizzare (soprattutto se gli sviluppatori di videogame, inizieranno a mettere on line gli aggiornamenti e le patch, come pare abbia intenzione di fare Valve)

fek
26-09-2003, 14:01
Originariamente inviato da cdimauro
4) le prestazioni nel codice DX9 generico erano nettamente superiori per le Ati, mentre le nVidia con l'NV30 path non erano distanti (con i driver funzionanti delle Ati), a prezzo di una qualità inferiore (basta andare a rileggere la famosa intervista di Carmack).


Eddai che avro' chiarito questa cosa almeno 30 volte ormai :D
Non esiste il codice generico!

cdimauro
28-09-2003, 21:15
OK, diciamo allora codice DirectX 9 "naturale"... :D

togno79
03-11-2003, 14:48
E' inutile che tutti, compresi i giornali, parlino maluccio dei nuovi chip nVidia, basta avere una Radeon 9800Pro e una Geffo 5900Ultra e confrontarle con gli ultimi giochi usciti...
beh come volevasi dimostrare il chip grafico nVidia è NETTAMENTE SUPERIORE, e quello che dicono i giornali è solo falsa pubblicità..

..E ALLORA BASTA CON QUESTE PAROLE A VANVERA!!!!!

cdimauro
04-11-2003, 05:08
Complimenti per l'alto tasso tecnico del tuo commento... :D

Raven
04-11-2003, 18:40
Originariamente inviato da togno79

beh come volevasi dimostrare il chip grafico nVidia è NETTAMENTE SUPERIORE, e quello che dicono i giornali è solo falsa pubblicità..


La verità finalmente svelataaaa!!! :eek:

:rolleyes: ... sai... io sono un po' come San Tommaso... puoi postare test, benchmark, link etc etc che DIMOSTRINO questa tua 'sì focosa dichiarazione?!