View Full Version : Roadmap di NVIDIA: confermati i piani originari
Redazione di Hardware Upg
07-07-2004, 13:10
Link alla notizia: http://news.hwupgrade.it/12762.html
Alcune informazioni sulle GPU per la fascia medio-bassa del mercato che la compagnia californiana è pronta a rilasciare nei prossimi mesi. Alcuni dettagli sul chipset nForce 4
Click sul link per visualizzare la notizia.
ma funziona il link per l'ingrandimento dell'immagine?
FrankOttobre
07-07-2004, 13:50
Effettivamente il link non funziona...
Sembra che nvidia voglia continuare a fare proposte agp8x al contrario di ati che già con x300 e x600 si è indirizzata purtroppo verso il pci express!
edivad82
07-07-2004, 14:14
sistemato il link ;) tnx :)
TyGerONE
07-07-2004, 14:15
implementati nel nuovo chispet NV4X. A chi diceva che sarebbero serviti a poco o nulla, date un'occhiata alla rece sulla nuova patch 1.20 di FarCry che, tra le altre cose, implementa l'utilizzo degli SM 3.0.
http://www.tomshw.it/graphic.php?guide=20040705
Scusate ma guardando il grafico non ci sono differenze tra la 2 metà 2004 e la prima del 2005. :confused:
Inoltre sempre dal grafico si vede nV43 e nV44 saranno solo pci-express, mentre nella news si legge che saranno anche agp. :confused: :confused:
mi viene il dubbio che nvidia, con l'nForce4 utilizzera' una modalita' multichip;
effettivamente non dovrebbe essere troppo impegnativo fare un bridge tra' 2 o piu' southbridge, visto che che il north e' gia' implementato sulle CPU) ed aumentare cosi' le possibilita' di periferiche attaccate; una scalabilita', oltre che per le CPU, per le GPU, anche per i chipset..
certo che una scheda madre con 8 opteron, 2 o 4 gpu in SLI, e 4 chipset con 8 sata raid ecc ecc...
bel pacco di scheda!
Originariamente inviato da TyGerONE
implementati nel nuovo chispet NV4X. A chi diceva che sarebbero serviti a poco o nulla, date un'occhiata alla rece sulla nuova patch 1.20 di FarCry che, tra le altre cose, implementa l'utilizzo degli SM 3.0.
http://www.tomshw.it/graphic.php?guide=20040705
Ho letto la recensione, premetto che non sono nè un fan ATI nè un denigratore Nvidia, però lo stesso sito ha pubblicato precedentemente una comparativa tra le nuove VGA di fascia alta e proprio in tutte le prove su FarCry c'era ripetutamente il warning sulla scarsa qualità della resa delle 6800 con questo titolo.
Quindi mi immagino cosa sia successo: Nvidia che è costretta a "frustare" la casa produttrice di Farcry per fargli rilasciare una patch ad hoc + rivede i propri driver + implementa SM 3.0 per risolvere problemi che la rivale ATI con una soluzione "tecnologicamente più arretrata" non si è mai sognata di avere!
Anche leggendo i grafici sembra che questi SM 3.0 facciano bene solo a Nvidia comparata con se stessa in SM 2.0 ... comunque queste prove mi lasciano sempre perplesso, affermare che una VGA è migliore di un'altra perchè una fa 100 fps e l'altra 90 è una cavolata, chi si accorge della differenza? Le prove serie sono quelle fatte misurando il numero minimo di fps fornito dalla VGA in condizioni di gioco reale, se una fa 30 e l'altra 20 cominci ad avere un parametro serio.
In ogni caso queste implementazioni sono positive, si cominciano a sperimentare nuove soluzioni, e gli utenti Nvidia potranno dare un importante contributo al costruttore nel risolvere i problemi testando tutto quanto gli viene proposto ...
spiacenti per chi pensa che gli shader 3.0 apportino benefici in velocita' come TOMSHARDWARE sito moooolto neutrale mostra dovrebbe sapere che in farcry modalita' sm3.0 non funzionano i filtri trilinear e aniso....ecco perche' va di piu'...LOL....resta da vedere se e' questione di patch o di driver come dire alla "Nvidia"
TyGerONE
07-07-2004, 15:42
Infatti l'articolo non dice che con la patch 1.20 NV4X macina più FPS. Tutt'altro: "...la buona notizia è che la scarsa qualità d’immagine che affliggeva le schede GeForce 6800 è ormai storia grazie alla nuova patch, la notizia migliore è che questa qualità d’immagine non influisce sulle prestazioni".
ErminioF
07-07-2004, 15:48
Beh se è per questo, nemmeno con la x800 vi funziona il trilinear :)
Cmq bella questa nuova moda di chiamare nv43 il chip di fascia media, e nv44 quello entry-level...lol, viva la chiarezza per il consumatore.
leoneazzurro
07-07-2004, 15:52
Originariamente inviato da Trabant
Ho letto la recensione, premetto che non sono nè un fan ATI nè un denigratore Nvidia, però lo stesso sito ha pubblicato precedentemente una comparativa tra le nuove VGA di fascia alta e proprio in tutte le prove su FarCry c'era ripetutamente il warning sulla scarsa qualità della resa delle 6800 con questo titolo.
Quindi mi immagino cosa sia successo: Nvidia che è costretta a "frustare" la casa produttrice di Farcry per fargli rilasciare una patch ad hoc + rivede i propri driver + implementa SM 3.0 per risolvere problemi che la rivale ATI con una soluzione "tecnologicamente più arretrata" non si è mai sognata di avere!
Anche leggendo i grafici sembra che questi SM 3.0 facciano bene solo a Nvidia comparata con se stessa in SM 2.0 ... comunque queste prove mi lasciano sempre perplesso, affermare che una VGA è migliore di un'altra perchè una fa 100 fps e l'altra 90 è una cavolata, chi si accorge della differenza? Le prove serie sono quelle fatte misurando il numero minimo di fps fornito dalla VGA in condizioni di gioco reale, se una fa 30 e l'altra 20 cominci ad avere un parametro serio.
In ogni caso queste implementazioni sono positive, si cominciano a sperimentare nuove soluzioni, e gli utenti Nvidia potranno dare un importante contributo al costruttore nel risolvere i problemi testando tutto quanto gli viene proposto ...
Pardon, ma i problemi di rendering della 6800 sono stati corretti con la patch 1.2, per cui adesso non c'è alcuna differenza con la serie X800. Purtroppo ciò non è avvenuto acnhe con le schede serie 5900 :(
leoneazzurro
07-07-2004, 15:58
Originariamente inviato da TripleX
spiacenti per chi pensa che gli shader 3.0 apportino benefici in velocita' come TOMSHARDWARE sito moooolto neutrale mostra dovrebbe sapere che in farcry modalita' sm3.0 non funzionano i filtri trilinear e aniso....ecco perche' va di piu'...LOL....resta da vedere se e' questione di patch o di driver come dire alla "Nvidia"
In realtà, come mostra Anandtech, qualche incremento prestazionale c'è, soprattutto nelle scene ad alto contenuto di illuminazione dinamica.
Originariamente inviato da TyGerONE
Infatti l'articolo non dice che con la patch 1.20 NV4X macina più FPS. Tutt'altro: "...la buona notizia è che la scarsa qualità d’immagine che affliggeva le schede GeForce 6800 è ormai storia grazie alla nuova patch, la notizia migliore è che questa qualità d’immagine non influisce sulle prestazioni".
Infatti nel mio commento non ho detto che con la 1.2 miglioravano le prestazioni velocistiche, ma che è stata necessaria una patch ad hoc e l'impiego di SM 3.0 per correggere un problema alquanto grave.
Dire che "la notizia migliore è che questa qualità d’immagine non influisce sulle prestazioni" ha poco senso, figuriamoci se per risolvere un problema di qualità di immagine avessero dimezzato il frame rate ... avrei voluto vedere le facce di chi ha speso una media di 500€ all'apprendere una simile notizia.
Il mio commento sui test si riferiva al fatto che i numeri, secondo il mio modesto parere, sono poco significativi quando sono misurati i valori medi, bisognerebbe fare dei test più stressanti, e ritorno sul tema dei valori minimi del frame rate.
In sostanza quello che volevo sottolineare è che se spendo 500€ per una scheda NON sono disposto a sperimentare un bel nulla, DEVE funzionare senza aspettare qualche mese per patch o soluzioni geniali, ammesso che arrivino. Le sperimentazioni di nuove soluzioni (e ben vengano SM 3.0 e quant'altro) le devono fare i costruttori PRIMA di immettere il prodotto sul mercato, non il cliente finale.
leoneazzurro
07-07-2004, 17:37
No, è solo la patch che ovvia al problema (quindi era FarCry ad avere qualche intoppo nel caso specifico), non i driver nè tantomento il PS 3.0. Infatti basta vedere qualunque test su rete per vedere che anche col profilo PS 2.0 la qualità è la stessa delle ATI.
Le schede quindi funzionavano bene anche da prima.
Il discorso magari è un altro: dato che Microsoft non ha ancora rilasciato le DX 9.0c, nVIDIA non può nemmeno rilasciare un driver WHQL che supporti i PS 3.0....
Originariamente inviato da leoneazzurro
No, è solo la patch che ovvia al problema (quindi era FarCry ad avere qualche intoppo nel caso specifico), non i driver nè tantomento il PS 3.0. Infatti basta vedere qualunque test su rete per vedere che anche col profilo PS 2.0 la qualità è la stessa delle ATI.
Le schede quindi funzionavano bene anche da prima.
A prima vista mi sembra un'osservazione corretta, tanto è vero che la patch 1.2 risolve i problemi di rendering anche sulla 5950.
Però se ci fai caso con la 1.2 la 5950 ha delle prestazioni penose, la 9800XT mediamente la supera del 50% ed in alcuni casi del 100% e oltre. Per quanto mi ricordo fino a qualche mese fa queste erano le schede top delle due case, e quindi dovevano avere prestazioni sostanzialmente allineate, come si spiega oggi questo divario?
Faccio un'ipotesi:
1. per correggere i problemi di rendering viene messa a punto una nuova patch;
2. questa nuova patch ammazza le prestazioni (vedi 5950);
3. per recuperare si ricorre a nuovi driver + SM 3.0 che vanno bene sulle 6800, peccato per chi qualche mese fa ha comprato la 5950 a 500€ ....
E qui mi aspetto commenti e riflessioni concludendo con un sempre valido "peccat non fallitur qui male cogitat".
leoneazzurro
07-07-2004, 18:06
In Far Cry le 5950 si sono comportate sempre molto male rispetto alle 9800, non è una novità.
Così come ci sono altri giochi (pe resempio gli OpenGL) dove le nVidia sono quasi sempre più veloci.
Davirock
07-07-2004, 18:19
... io sto aspettando un chipset decente per Athlon64
Questo nForce4 promette veramente bene
Penso di cambiare pc per i primi mesi del prossimo anno... questo chipset sarà quindi abborabile!
Bye
Originariamente inviato da leoneazzurro
In Far Cry le 5950 si sono comportate sempre molto male rispetto alle 9800, non è una novità.
Così come ci sono altri giochi (pe resempio gli OpenGL) dove le nVidia sono quasi sempre più veloci.
Per curiosità sono andato a rivedere i test riportati in un articolo del 4/5/2004 sullo stesso sito (non so come fare ad allegare il link ...) e quindi penso con patch 1.1 - da questi vedo che solo in 1 test su 4 c'era un divario significativo tra 9800XT e 5950, gli altri erano allineati e addirittura in uno la 5950 era superiore.
Stasera andrò per siti a cercarmi articoli pubblicati in tempi non sospetti.
leoneazzurro
07-07-2004, 18:28
Superiore mi sembra strano.. in genere il distacco medio è del 30-35% tra 5950 e 9800 XT.
Ecco qui:
http://www.tomshw.it/graphic.php?guide=20040504&page=ati-x800-31
(spero che funga)
Vedi Rebellion02 Aniso 4, mentre Rebellion02 liscia è quasi allineata.
Le altre due hai ragione.
grande nvidia, l'nforce 3 e le nv 40 sono veramente ottimi prodotti
^TiGeRShArK^
07-07-2004, 23:37
si certo fa solo ottimi prodotti...
mi immagino quanto saranno felici i possessori di una 5950 ultra ke si vedono dimezzate le prestazioni solo x avere una qualità decente....
senza tenere conto del fatto ke "stranamente" con la nuova patch tutte le skede ATI hanno perso diversi fps....
non sarà x caso x lo stemmino
"the way is meant to be played"
in far cry????
no ma ke vado a pensare :rolleyes:
e cmq si è visto kiaramente ke gli shader 3.0 non comportano alcun vantaggio prestazionale "visibile" se non nella skeda ultra extreme....mentre le skede "umane" hanno incrementi pressapoco ridicoli...
cmq ne riparleremo all'uscita di hl2 e doom3 (sperando dio sia il mese prossimo senza ulteriori rinvii....)
cdimauro
08-07-2004, 06:51
Infatti. Con la nuova patch STRANAMENTE le schede non basate su NV40 hanno avuto un netto calo prestazionale: c'è qualcosa che non quadra... :rolleyes:
leoneazzurro
08-07-2004, 09:36
Molti fps?
Stando a Xbitlabs i risultati delle ATI tra 1.1. e 1.2 sono più o meno allineati, con pochi fps in meno in alcuni demo ma anche qualcuno in più negli altri (es. nel demo "catacombs" la Xt in modalità 1024x768 fa 3 fps in più, in 1280x1024 addirittura 7, mentre nel demo "training" fa rispettivamente 3 e 1 fps in meno). Gli altri siti non paragonano direttamente gli stessi demo con le varie patch, quindi i "vecchi" risultati non possono essere confrontati coi nuovi.
Vogliamo mettere da parte le bandiere, please?
Mettiamo da parte le bandiere (mai avuta) ma non è strano che una patch che risolva i problemi di banding in far cry sulle schede nvidia e introduca lo shader model 3 (prerogativa delle schede nvidia) veda gli fps delle schede ati abbassarsi? Fosse anche di un fps la cosa è assolutamente strana. Non ho detto losca anche se la cosa può essere malamente interpretata. Ma strana. Come il fatto di avere introdotto alcuni problemi di renderizzazione sulle Ati ad alcune angolazioni e ad avere introdotto un problemino con le ombre sulle schede nvidia.
Insomma lavora di qua e lavora di là introducono sempre qualcosa, a volta di utile a volte di "strano" :)
leoneazzurro
08-07-2004, 10:10
Come ho detto, in alcuni livelli i fps si abbassano ma in altri si alzano. Non è strano che gli fps in alcuni livelli si alzino allora? ;) Le patch sono modifiche al codice (e che risolvano i problemi di banding era un fatto dovuto, non capisco cosa ci sia poi di strano a supportare anche il PS 3.0), e quando si modifica il codice di un programma non conoscendo il codice dei driver (che non sono pubblici) le cose strane accadono (vedi ad esempio nel test di HWUpgrade cosa succede con Enemy territory con le 6800). Gli fps sulle 5950 si sono ridotti di parecchio, con la 1.2, ad esempio nel demo "training" si è passati a 1024x768 da 74 a 55 fps...
Come mai nessuno ha pensato ad evidenziare questo fatto per dire che la Crytek spalleggia ATI?
Che le "collusioni" tra sviluppatori e produttori di HW ci siano è indubbio (basti pensare che quando sono stati annunciati i PS 3.0 molti hanno detto che era una rivoluzione, altrettanti che non serviva a nulla, con la verità nel mezzo)
In questo caso, però, non vedo elementi per cui si possano fare illazioni del genere.
cdimauro
08-07-2004, 21:00
Con la nuova patch STRANAMENTE le schede non basate su NV40hanno avuto un netto calo prestazionale: c'è qualcosa che non quadra...
Originariamente inviato da leoneazzurro
Gli fps sulle 5950 si sono ridotti di parecchio, con la 1.2, ad esempio nel demo "training" si è passati a 1024x768 da 74 a 55 fps...
Come mai nessuno ha pensato ad evidenziare questo fatto per dire che la Crytek spalleggia ATI?
E' stato detto invece da tutti, subito nelle sedi opportune e cioè nel thread che parlava della patch in schede video. Si parlava del netto calo di prestazioni che hanno avuto le FX e del calo che hanno avuto le schede video Ati. L'abbiamo messo in luce subito, forse ti è sfuggito :)
Ma nessuno ha detto che la crytek spalleggia Nvidia, crytek sta facendo di tutto per supportare l'impegno che s'è presa (TWIMTBP) tanto da aver portato al paradosso e aver danneggiato Nvidia stessa nella "persona" delle sue vecchie schede. Sinceramente le FX andavano decentemente con Far Cry, ora in alcuni test vanno da schifo e mi semba una gran bella caduta di stile. E parlo di FX e basta.
x me una cosa è sicura....
con ste schede video stanno andando troppo forte..
e pensate alla mia i810 integrata ke nn ha neppure la porta AGP
:cry: :cry: :cry: :cry:
leoneazzurro
08-07-2004, 21:43
Veramente qualcuno l'ha detto :D
Comunque, ripeto, il calo c'è in alcuni demo e in altri al contrario c'è un guadagno (Cavolo, c'è la bellissima recensione di Xbitlabs che è quasi completa, molto di più di quella di hexus.net che ti propone un solo demo). Persino le 6800 in certe condizioni perdono fps, anche se in generale c'è un miglioramento
.. Hey, basta con 'ste discussioni sulle GPU: io sono contento perchè mi piace un sacco 'sta storia del multicanale SATA/PATA, certo che non vedo perchè così tanti: iio uso 4 ta cd/dvd/ mast. e 2 o 3 HDD, e penso di essere un tipo esagerato, ma con un controllore del genere penso che tutti faranno un cluster di HD per qualche server. Visto che stat e pata sono la stessa cosa (beh, la diff. è minima) ed i vari tipi di rai (magari mi dessero il 5) suppongo che impementino lo 0 + 1 misto come Intel, che per la gente comune è il massimo!
Dai, la vita non è solo il gioco sul PC (finchè nn esce XBOX 2 almeno!)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.