PDA

View Full Version : Discutiamo obiettivamente sull'NV30


Simon82
19-03-2003, 06:32
Senza postare per fare flames, mi piacerebbe discutere un po' sull'NV30 e sulla situazione attuale di Nvidia e i suoi futuri (per quanto ignoti) progetti.
Avendo visto queste foto..

http://www.hardware-mag.de/images/news/gainward_nv30water_1_big.jpg

...della FX raffreddata a liquido che ha raggiunto le frequenze 550/1000 contro quelle di default 500/1000, cosa ne pensate di tutto questo?

:)

Verro
19-03-2003, 06:42
be, indubbiamente è una buona scheda, purtroppo penalizzata dalle prestazioni (molto simili alla 9700pro) che sono di tutto rispetto, purtroppo il prezzo è troppo elevato visto che la 9700pro va uguale e costa molto meno, quindi secondo me è stato un "buco" di Nvidia! :)

Legolas84
19-03-2003, 06:53
Inanzitutto penso che sia una scheda overclokkata di fabbrica, e queste immagini me lo confermano.....

Raffredando a liquido non si sale di ram....... Vuol dire che è già tirata all'inverosimile!!!!

Poi solo 50MHz a liquido.... non è un pò poco? R300 Arriva a 375Mhz (Nei peggiori casi) solo con la rimozione della cornice e con lo stesso dissipatore.....

Errore di Nvidia!

Simon82
19-03-2003, 07:09
Personalmente credo che per Nvidia l'unica soluzione sia aggiornare il progetto con qualcosa di serio. Evidentemente non si e' resa conto che i Mhz non sono tutto. Se un chip e' troppo complesso e' probabile che un semplice "overclock" non basti a colmare la differenza. In passato nvidia nei suoi "aggiornamenti dei progetti" effettuava solo un overclock in diverse modalita'.. e questo con core piuttosto semplici e che si basavano solo sul troughput in termini di poligoni/s e sul fill rate in multitexturing, serviva a molto; c'e' anche da dire che in quei tempi i giochi erano piuttosto semplici e non richiedevano bande di memoria esagerate e features per poter spingere realmente un gioco tipo Splinter Cell. ;)
Questa volta invece si e' sbagliati a ricorrere al trucco dei mhz. Evidentemente accortasi che a frequenze nominali, cioe' quelle che potevano essere i 400/800 della liscia per la ultra, il GeForceFX non avrebbe nemmeno convinto un possibile cliente, perche' Nvidia se ne sarebbe uscita con un chip piu' avanti tecnologicamente di 6 mesi e passa, e indietro in tutto e per tutto e perfino nei frames/s. Cosi' aumentare tutto ai livelli che ora conosciamo era l'unica soluzione per presentarsi in tempo al momento che tutti aspettano per vederla sugli scaffali.
Cosi' si e' pero' accollata tutti i problemi di sorta: 75w di consumo, cosa veramente inconcepibile per un mercato che ha come standard un ali da 40euro da 300w dichiarati ma 200w effettivi.. ali veramente inefficiente per una scheda del genere. In piu' il raffreddamento che in termini di efficienza a questo punto guardando queste foto e' OTTIMO perche' se riesce a ottenere le stesse prestazioni di un raffreddamento a liquido e stabilizzare i 500Mhz di core e 1000 di ram, con la piccola clausola che la ventola gira a 7200 giri ( :eek: ) e produce nella media 72db con soluzioni alternative che comunque rimangono piu' o meno nella media di una Volcano9 al massimo (e ho detto tutto.. :rolleyes: ).

Che dire.. sono deluso da Nvidia anche se da tempo ero dalla parte di ATI perche' mi ha sempre dato l'impressione di offrire un prodotto alternativo superiore in termini di tecnologia alla concorrenza con driver che al momento sono PERFETTI e che da quando ho la 8500 non mi hanno dato mai problemi.

Iolao
19-03-2003, 07:29
anche secondo me la soluzione adottata (raw performance) non è la strategia giusta considerato il contesto videoludico odierno tutto incentrato sulla spettacolarizzazione della grafica. Per quanto riguarda il rumore mi schiero decisamente contro la turbina perchè sono amante del silenzio ma non bisogna sottovalutare che alcune case come la gainward hanno adottato soluzioni noiseless di cui bisogna verificare la validità e che potrebbero risolvere questa grave pecca. Quel che è mancato al progetto è un audit strategico basato sulle esigenze del consumatore (che poi è la regola fondamentale del marketing...) perchè in fondo il successo di un prodotto è determinato proprio dal grado di soddisfazione dell'utente finale, specie in considerazione del fatto che l'accesso a internet oramai alla portata di tutti permette la condivisione di informazioni e opinioni che influenzano in larga misura le scelte sull'acquisto.

halduemilauno
19-03-2003, 07:42
Originally posted by "Simon82"

Cosi' si e' pero' accollata tutti i problemi di sorta: 75w di consumo, cosa veramente inconcepibile per un mercato che ha come standard un ali da 40euro da 300w dichiarati ma 200w effettivi.. ali veramente inefficiente per una scheda del genere. In piu' il raffreddamento che in termini di efficienza a questo punto guardando queste foto e' OTTIMO perche' se riesce a ottenere le stesse prestazioni di un raffreddamento a liquido e stabilizzare i 500Mhz di core e 1000 di ram, con la piccola clausola che la ventola gira a 7200 giri ( :eek: ) e produce nella media 72db con soluzioni alternative che comunque rimangono piu' o meno nella media di una Volcano9 al massimo (e ho detto tutto.. :rolleyes: ).


ciao.
una precisazione i db nella prima reference board(quella col dissy rosso) erano 57.nella terza(quella con il dissy trasparente)i db sono 46.5(non parlo delle singole case).
poi ho letto(in una delle tante rece)che la memoria in OC era stata portata a 1070.
questo ho letto.
a presto.
:) :)

Pat77
19-03-2003, 08:55
Imho tutta questa polemica su nv30 è forse "Leggermente" spropositata.
L'architettura e le innovazioni che porta il chip sono la base di partenza per tutta una serie di prodotti, avrà presto un controller a 256 bit per le ram (sempre imho) e driver decenti, la vera battaglia comunque resta la fascia media e bassa, dove mi sembra abbia prodotti soddisfacenti.

Pk77

ligama
19-03-2003, 09:17
l'NV30 è una scheda video totalmente nuova con soluzione ben diverse rispetto alla GF4 quindi forse una riduzione dell'efficienza standard di NVIDIA è comprensibile.
Non dimentichiamoci quanto ha pensato ATI quando ha buttato fuori la prima radeon..ovvero una scheda video che doveva massacrare il GF2GTS ma che si poneva (all'inizio) sullo stesso piano della GF256DDR!!
Nvidia forse deve riprogettare i drivers...magari differenziandolo da quelli della ltre schede video ma, la mia personale opinione, è che Nvidia non avesse intenzione di fare uscire questa scheda video ma, vista l'avanzara di ATI lo ha fatto pagandone le conseguenze.
Penso (psero) che l'NV35 esca presto dato che solo lui (bus a 256bit) potrà fare esprimere al meglio la potenza di un chip ancora così poco ottimizzato (avete idea la banda che riuscirebbe a garnatire l'NV35 con bus a 256bit e DDRII a 1000MHz?).

ciao mariano

Simon82
19-03-2003, 09:26
Originally posted by "halduemilauno"



ciao.
una precisazione i db nella prima reference board(quella col dissy rosso) erano 57.nella terza(quella con il dissy trasparente)i db sono 46.5(non parlo delle singole case).
poi ho letto(in una delle tante rece)che la memoria in OC era stata portata a 1070.
questo ho letto.
a presto.
:) :)
Calcoliamo anche pero' che 35Mhz di overclock (35x2 DDR) non sono certo termini di overclock.. quella ram oltre che costosissima, e' spinta veramente al limite per colmare il bus a 128bit.. ;)

halduemilauno
19-03-2003, 09:40
Originally posted by "Simon82"


Calcoliamo anche pero' che 35Mhz di overclock (35x2 DDR) non sono certo termini di overclock.. quella ram oltre che costosissima, e' spinta veramente al limite per colmare il bus a 128bit.. ;)

che possa essere considerato modesto non discuto.ho solo fatto delle precisazioni con quanto da me letto.
ciao.
:)

Simon82
19-03-2003, 09:42
Originally posted by "halduemilauno"



che possa essere considerato modesto non discuto.ho solo fatto delle precisazioni con quanto da me letto.
ciao.
:)

Certo certo.. :)


Comunque la cosa che mi lascia perplesso e' che Nvidia stia cosi' in silenzio a subire... che ci sia qualcosa sotto? ;)


(non sotto la turbina dell'NV30..:o:D:D:D)

PhoEniX-VooDoo
19-03-2003, 11:43
Originally posted by "Verro"

purtroppo il prezzo è troppo elevato visto che la 9700pro va uguale e costa molto meno, quindi secondo me è stato un "buco" di Nvidia! :)

da me (oddio, non è mio il negozio :D ) la ASUS V9900ULTRA (cioe GF FX ULTRA) costa 413euro mentre la Hercules 9700Pro costa 420euro

non li vedo questi problemi di prezzo....

byez!

conan_75
19-03-2003, 11:55
Io ho visto ottimi test con AA e Aniso, ma sopratutto mi stuzzicherebbe quell'AA16X della FX xhe non procura nemmeno grossi rallentamenti e rende le immagini perfette.

Pat77
19-03-2003, 12:01
L'errore di nvidia è l'Hype...

Pk77

yossarian
19-03-2003, 12:15
I problemi dell'NV30 sono essenzialmente due:
1) il livello di precisione dei PS, portato a 32 bit, contro i 24 della concorrenza (R300 e Parhelia) che, sulla carta, avrebbe dovuto migliorare la qualità d'immagine ma che, in pratica, abbatte le prestazioni al punto da aver costretto nVIDIA ad utilizzare, con i SW più pesanti, drivers che forzano il livello di precisione dei PS a 16 bit.
2) il bus a 128 bit che, a risoluzioni elevate e con i filtri attivati, fa crollare le prestazioni a causa della bandwidth limitata.
L'architettura 4x2, nel momento in cui si è deciso di adottare il bus a 128 bit, diventava una scelta quasi obbligata.
La FX liscia, secondo me, è, complessivamente, un buon prodotto, che propone interessanti novità la cui validità andrà verificata in futuro, venduto, però, ad un prezzo troppo alto. Mi piacerebbe vederla funzionare con drivers ottimizzati per la qualità d'immagine, anzichè per le prestaziioni, per poter fare una valutazione completa che non si basi solo sugli fps prodotti o con i risultati del 3DMark.
Sulla versione Ultra non c'è molto da aggiungere a quanto è già stato detto. Si tratta di un mero esercizio di overclock/overvolt estremo, dettato proprio dall'esigenza di guadagnare quegli fps necessari ad eguagliare le prestazione della 9700 pro, tentando di ovviare agli inconvenienti dei punti 1 e 2.
Non mi meraviglierei se nell'NV35, oltre al bus a 256 bit, fosse implementata anche la precisione dei PS a 24 bit, per poter essere DX9 compliant senza perdere troppo in prestazioni. Non credo che la strada dell'aumento delle frequenze sia la migliore; semmai può essere utile ad ottenere un ulteriore aumento delle prestazioni quando si ha una struttura già valida su cui lavorare.
La cosa che mi lascia perplesso è che, in passato, nVIDIA aveva sempre seguito una politica "conservativa", introducendo nuove tecnologie e adottando nuovi processi produttivi, senza spingere, inizialmente a fondo le prestazioni (così è stato per il pasagio a 0,18 con la GF2 e poi con la Ultra e così e stato per il passagio a 0,15 con la GF3 etutti i suoi derivati e la Gf4). Stavolta ha invece esasperato subito le prestazioni, addirittura ricorrendo all'overclock estremo, pur trovandosi a lavorare su una struttura nuova e con un processo produttivo ancora da affinare. Questo fa pensare che, quando hanno avviato il progetto NV30, avessero come termine di paragone la GF4 e sono rimasti sorpresi dalle prestazioni dell'R300 con cui ATI non solo ha colmato il gap rispetto all'NV25 ma, rispetto all'R200, ha fatto un balzo in avanti, dal punto di vista delle prestazioni, di almeno due generazioni.
Quando è stata presentata la FX Ultra al COMDEX, era almeno da un mese che nVIDIA stava lavorando sul progetto originario (FX liscia) per aumentarne le prestazioni; a dimostrazione di ciò c'è anche il fatto che le prenotazioni iniziali erano relative alla FX e, solo successivamente, sono comparsi annunci del tipo "chi ha prenotato la FX si ritroverà ad acquistare la versione Ultra senza aumento di prezzo" su molti dei siti dei produttori di schede video con chip NV30.

Ciao

Betha23
19-03-2003, 12:23
Personalmente la cosa che mi preoccupa di più della Fx è il motore Pixel vertex shader.....come tutti hanno dimostrato questo ha delle prestazioni scandalose tipo Xabre! (nel senso di livello di scandalo non di prestazioni come lo Xabre)

Questo potrebbe essere duvuto ad un problema di driver (cosa che motli sperano) oppure proprio ad un progetto bacato!

Simon82
19-03-2003, 12:34
Certo che se anche S3 se ne uscisse con qualcosa di realmente potente (almeno sulla carta.. ma come sappiamo S3 di cose assurde sulla carta ne ha scritte per riempire decine di risme.. :D) e lo stesso facesse SIS, Nvidia rischierebbe di passare in secondo luogo. Personalmente non ce la faccio piu' di vedere le GeForce4 in giro nei negozi.. passera' alla storia come la scheda che e' rimasta piu' a lungo sul mercato.

Maury
19-03-2003, 12:45
Io terrei d'occhio lo Xabre II, secondo me spaccherà di brutto :)

Simon82
19-03-2003, 12:53
Originally posted by "Maury"

Io terrei d'occhio lo Xabre II, secondo me spaccherà di brutto :)

Sis pero' non mi fa fidare dei suoi chip.. nasconde sempre qualcosa che poi li sputt@n@.. ;)

yossarian
19-03-2003, 12:59
Originally posted by "Betha23"

Personalmente la cosa che mi preoccupa di più della Fx è il motore Pixel vertex shader.....come tutti hanno dimostrato questo ha delle prestazioni scandalose tipo Xabre! (nel senso di livello di scandalo non di prestazioni come lo Xabre)

Questo potrebbe essere duvuto ad un problema di driver (cosa che motli sperano) oppure proprio ad un progetto bacato!

Non so fino a che punto sia stata una scelta felice quella di utilizzare un unico engine per l'elaborazione di PS e VS. Molto spesso, parlando dell'R300, si mette in risalto la struttura delle 8 pipelines relative all'elaborazione di pixels e textures e si trascura il fatto che è dotato di 4 unità dedite alla sola elaborazione dei VS. Nei test fatti con 3dsmax, in cui la FireGL X1 è generalmete meno performante della Quadro FX 2000, non a caso la scheda ATI si prende una bella rivincita proprio nei test in cui viene elaborato il solo wireframe (con, magari l'utilizzo di qualche luce), cioè nei test dove assume maggiore importanza il motore VS.

Ciao

Darkman
19-03-2003, 13:08
Originally posted by "Pat77"

Imho tutta questa polemica su nv30 è forse "Leggermente" spropositata.
L'architettura e le innovazioni che porta il chip sono la base di partenza per tutta una serie di prodotti, avrà presto un controller a 256 bit per le ram (sempre imho) e driver decenti, la vera battaglia comunque resta la fascia media e bassa, dove mi sembra abbia prodotti soddisfacenti.

Pk77

Ma allora non sei morto!!!!
Ciao Pat! ;)
Cmq concordo con quello che hai detto, aggiungendo che ci state andando un pochetto pesanti con questa scheda.

Betha23
19-03-2003, 13:13
Originally posted by "Simon82"



Sis pero' non mi fa fidare dei suoi chip.. nasconde sempre qualcosa che poi li sputt@n@.. ;)

Penso che sarà un ottmima sk.......solo in AA peccherà un po visto che usa il Supersampling! :( Solo che a 4x il supersampling è fenomenale come qualità! ;)

Simon82
19-03-2003, 13:19
Originally posted by "Betha23"



Penso che sarà un ottmima sk.......solo in AA peccherà un po visto che usa il Supersampling! :( Solo che a 4x il supersampling è fenomenale come qualità! ;)
C'e' da dire che personalmente:



MI SONO STUFATO DI STA ANSIA PORTATO DALL'AA... :muro:

Azzo.. hanno fatto 100 chip.. ditte come nvidia che spendono 400 milioni di dollari per fare un chip che poi deve difendersi coi denti per non far ridere la gente, duemila API nuove.. Directx compliant di qua.. OpenGl compliant di la... e non abbiamo ancora un fottutissimo anti-aliasing funzionante.. e che palle!!!!!!!!!!!
Io con la 9500@9700 adesso sto cominciando ad usarlo perche' non perde molto, se no in vita mia non avevo mai cominciato ne finito un gioco con l'anti aliasing.. :(
Ed e' cosi' difficile progettare un chip che riesca a farmi un antialiasing con 1fps di perdita massima?

Betha23
19-03-2003, 13:41
Originally posted by "Simon82"


C'e' da dire che personalmente:



MI SONO STUFATO DI STA ANSIA PORTATO DALL'AA... :muro:

Azzo.. hanno fatto 100 chip.. ditte come nvidia che spendono 400 milioni di dollari per fare un chip che poi deve difendersi coi denti per non far ridere la gente, duemila API nuove.. Directx compliant di qua.. OpenGl compliant di la... e non abbiamo ancora un fottutissimo anti-aliasing funzionante.. e che palle!!!!!!!!!!!
Io con la 9500@9700 adesso sto cominciando ad usarlo perche' non perde molto, se no in vita mia non avevo mai cominciato ne finito un gioco con l'anti aliasing.. :(
Ed e' cosi' difficile progettare un chip che riesca a farmi un antialiasing con 1fps di perdita massima?

Ma stai fuori? :eek: :confused: Io con il sisitema in signature ho finito Sof2, Warcraft3 e sto giocando Hitman2 con AA e AF attivi! :eek: Ok sarà solo AA 2x e af 2x (dipende a volte pure 4) ma la differenza con e senza si vede a okkio nudo! L'unico gioco dove mi sono arreso è Ut2003 dove senza sto sui 40-50 mentre con scendo a 20-25 e a volte 15! :(

Cmq l'AA è utilizzabilissimo dalle Geffo3 in poi........certo se vuoi l'AA 6x allora dovrai aspettare ancora tanto tempo! ;)

Milion
19-03-2003, 13:42
Originally posted by "conan_75"

Io ho visto ottimi test con AA e Aniso, ma sopratutto mi stuzzicherebbe quell'AA16X della FX xhe non procura nemmeno grossi rallentamenti e rende le immagini perfette.

Magari sono rimasto indietro, ma l'antialiasing che ho visto io della fx arrivava a 8x dove non c'erano differenze tra 4x 6x e 8x in termini di qualità, il 4x aveva una resa qualitativa pari al 2x della ati e l'impatto sulle prestazioni era in generale più elevato della concorrente.

Ho sentito di nuovi drivers...ma siccome mi risulta che l'ultimo che ha fatto miracoli è morto 2000 anni fa, sono piuttosto scettico: o i drivers precendenti veramente tentavano di spremere prestazioni da tutte le parti completamente in barba alla qualità di qualsiasi cosa riguardasse la fx, oppure temo che il 16x sia fumo sugli occhi al pari del vecchio 8x proposto :)

Milio

pandyno
19-03-2003, 13:44
Originally posted by "Milion"



Magari sono rimasto indietro, ma l'antialiasing che ho visto io della fx arrivava a 8x dove non c'erano differenze tra 4x 6x e 8x in termini di qualità, il 4x aveva una resa qualitativa pari al 2x della ati e l'impatto sulle prestazioni era in generale più elevato della concorrente.

Ho sentito di nuovi drivers...ma siccome mi risulta che l'ultimo che ha fatto miracoli è morto 2000 anni fa, sono piuttosto scettico: o i drivers precendenti veramente tentavano di spremere prestazioni da tutte le parti completamente in barba alla qualità di qualsiasi cosa riguardasse la fx, oppure temo che il 16x sia fumo sugli occhi al pari del vecchio 8x proposto :)

Milio

Con gli ultimi driver si arriva a 16x, la differenza non è elevata, quasi nulla...
Ad essere sincero dagli shoot di hardocp l' AA era tutto tranne che perfetto, cmq vorrei vederne una in movimento

Milion
19-03-2003, 13:48
Originally posted by "pandyno"



Con gli ultimi driver si arriva a 16x, la differenza non è elevata, quasi nulla...
Ad essere sincero dagli shoot di hardocp l' AA era tutto tranne che perfetto, cmq vorrei vederne una in movimento

Rimango molto scettico :)
Sarebbe stato sufficiente rendere utile ed utilizzabile l'8x...mah.
Avremo presto dei riscontri comunque :)

Correggo per aggiungere che ho visto ora su nvitalia le due immagini postate da vifani. Non distinguo bene, ma mentre il 16x pare effettivamente un antialiasing elevato, l'8x sembra essere a tutti gli effetti un 2x :D
Magari è solo un errore :)
Se vifani legge questo thread ci potrebbe dare qualche spiegazione maggiore.

Milio

Simon82
19-03-2003, 14:41
Originally posted by "Betha23"



Ma stai fuori? :eek: :confused: Io con il sisitema in signature ho finito Sof2, Warcraft3 e sto giocando Hitman2 con AA e AF attivi! :eek: Ok sarà solo AA 2x e af 2x (dipende a volte pure 4) ma la differenza con e senza si vede a okkio nudo! L'unico gioco dove mi sono arreso è Ut2003 dove senza sto sui 40-50 mentre con scendo a 20-25 e a volte 15! :(

Cmq l'AA è utilizzabilissimo dalle Geffo3 in poi........certo se vuoi l'AA 6x allora dovrai aspettare ancora tanto tempo! ;)

Be'... avevo una GeForce2 MX e l'anti aliasing era un po' come i 32bit di colore nella TNT2.. :rolleyes:.. il Kyro2..poco meglio... e poi una 8500 che come AA non era niente di speciale.. ;)

conan_75
19-03-2003, 15:04
Io ho preso la 4200 proprio per usare sempre l'AA e non volevo spendere + di 180E.
La soluzione superiore era al periodo la 9700pro (non c'era la 9500) e costava 500E.
Per ora ho sempre giocatoa tutto con AA Qx(3x) attivo anche ad alte risoluzioni e sopratutto dettagli massimi.

es.

NFSHP2 1280x1024 dett. max
UT2003 1280x1024/1024x768 a seconda dei livelli sempre dettagli massimi

FIFA 2003 1280x1024 dett. max
NBA Live 2003 1280x1024 dett. max etc.

Stessa cosa per GTA3, RTCW, GTR2002 e altri tantissimi giochi.

Betha23
19-03-2003, 15:17
Originally posted by "Simon82"



Be'... avevo una GeForce2 MX e l'anti aliasing era un po' come i 32bit di colore nella TNT2.. :rolleyes:.. il Kyro2..poco meglio... e poi una 8500 che come AA non era niente di speciale.. ;)

La geffo2 usa l'AA supersampling che è una mazzata sulle prestazioni, così come fa pure la 8500! ;) Il kyro non so! :confused:

Cfranco
19-03-2003, 15:20
Originally posted by "Simon82"

[cut]
Ed e' cosi' difficile progettare un chip che riesca a farmi un antialiasing con 1fps di perdita massima?Non é difficile , é impossibile ;)
Sai com' é , fare il doppio del lavoro ( AA 2x ) o il quadruplo ( 4x ) perdendo solo il 20% o il 30% di prestazione come la 9700 é già un risultato straordinario di ottimizzazione .

Simon82
19-03-2003, 15:27
Originally posted by "Cfranco"

Non é difficile , é impossibile ;)
Sai com' é , fare il doppio del lavoro ( AA 2x ) o il quadruplo ( 4x ) perdendo solo il 20% o il 30% di prestazione come la 9700 é già un risultato straordinario di ottimizzazione .
Be'.. il multisampling in teoria non fa il doppio del lavoro.. ;)