View Full Version : NVIDIA GeForce 9800 GTX: bus di memoria da 512bit di ampiezza?
Redazione di Hardware Upg
04-03-2008, 11:23
Link alla notizia: http://www.hwupgrade.it/news/skvideo/24489.html
La nona generazione di schede video di fascia alta avrà con buona probabilità un bus memoria da 512bit di ampiezza
Click sul link per visualizzare la notizia.
paulgazza
04-03-2008, 11:24
e costerà un botto per la complessità del bus
sarà la buona volta che la fascia media arrivi a 256 di bus..:D
Evangelion01
04-03-2008, 11:35
mah, imho attualmente al di sopra dei 256 bit il bus non rappresenta un collo di bottiglia... basta vedere cosa è successo con la hd2900... da 512bit sono tornati con la 3870 a 256 bit, e le prestazioni non ne hanno risentito. Il bus a 512 mi sembra più uno specchietto per allodole.
Capellone
04-03-2008, 11:37
qualcosa mi dice che non servirà a molto il bus a 512 bit, visto che le GTS G92 hanno fatto faville con quello a 256 bit. forse qualcosa si noterà a risoluzioni estreme con filtri tirati dove comunque si vedrà il limite della GPU che è ancora un "G80 rinfrescato" e sarà più conveniente farsi uno SLI di schede più economiche.
E per quanto riguarda la memoria? A questo punto dovrebbero piazzarci almeno quanto la vecchia GTX se non di più. :mbe:
mah, imho attualmente al di sopra dei 256 bit il bus non rappresenta un collo di bottiglia... basta vedere cosa è successo con la hd2900... da 512bit sono tornati con la 3870 a 256 bit, e le prestazioni non ne hanno risentito. Il bus a 512 mi sembra più uno specchietto per allodole.
Il bus delle attuali schede Nvidia e Ati sono assolutamente diversi. Il fatto che Ati sia tornata ad un bus a 256bit è dovuto alla complessità di programmazione dello stesso a 512bit, quello "vecchio" i programmatori lo conoscevano meglio. Il collo di bottiglia delle X2x00 non era affatto la banda di memoria ma altre cose, oltretutto Ati non ha mai divulgato in toto i cambiamenti effettuati con le X3x00, probabile che ci fosse anche qualche problema legato al ring bus.
Nvidia usa (userà?) ancora un bus per le memorie di vecchio stile, quindi probabilmente i vantaggi della banda passante saranno maggiori.
campioni del mondo
04-03-2008, 11:43
675 mhz per la gpu non mi sembra una grande novita. non sarebbe ora di usare le ddr4 ormai?
SiberianCesare
04-03-2008, 11:44
Il bus a 512 bit nn serve a molto.......come dice Evangelion01 è solo uno specchietto per le allodole, e poi 512 mb di vram è sufficiente!
Ovviamente Imho
ninja750
04-03-2008, 11:46
sarà la buona volta che la fascia media arrivi a 256 di bus..:D
le 6800 liscie all'epoca erano già 256 bit
Ottimo commento di DJLode ;)
Staremo a vedere quanto costa e se non servono.
Io dico che saranno così:
9800GT: 300-350$
9800GTX: 400-450$
9800GX2: 500-550$
Il fatto che 512bit siano inutili su una R600 non significa che lo siano anche su una G92, specie se si sale verso i 700/1750 o più.
D'altronde la 8800GTX, ad alta risoluzione e con filtri, riesce ancora a farsi valere, nonostante il clock inferiore alla 8800GTS.
Senza parlare della 8800Ultra ha cmq una larghezza di banda di 104Gb/s ed è sempre davanti alla GTS pur con clock inferiori.
Cmq, sono scettico sui 512bit, anche se un motivo ci sarà per cui le 9800GTX pare che avranno un pcb a 12 layer invece dei 10 della 8800GTS.
Anche la 2900XT ha un pcb a 12 layer.
Tra un mesetto esce, e vedremo cosa c'è di vero.
le 6800 liscie all'epoca erano già 256 bit
Comunque non erano fascia puramente media, son sempre state schede di fascia alta mascherate da media <6800 liscia, X800GTO2, 7900 GS, X1950 Pro...>. Mentre se guardiamo la prima scheda in assoluto a 256bit se non erro è stata la Radeon 9700 Pro a ottobre/novembre 2002.
Per la gestione della memoria confermo quanto detto da DjLode, sono architetture completamente differenti in tal senso.
Kharonte85
04-03-2008, 12:23
Ecco il perche' del pcb moolto lungo, era l'unica cosa che non quadrava ed anche se le specifiche sembravano definitive qualcosa ci covava per forza, staremo a vedere...
CoolBits
04-03-2008, 12:29
mah...non penso che l'unica "sorpresa" sarà l'ampiezza del bus
longhorn7680
04-03-2008, 12:32
Lo sara perche la vera sorpresa sara G100!!!!
Allora si credo che PURTROPPO AMD-ATI dovranno perforza ritirarsi dal segmento enthusiast.
E lo dice uno che ha sempre preferito ATI e che fino a 8800 ho comprato solo ATI
nico88desmo
04-03-2008, 12:38
Lo sara perche la vera sorpresa sara G100!!!!
Allora si credo che PURTROPPO AMD-ATI dovranno perforza ritirarsi dal segmento enthusiast.
E lo dice uno che ha sempre preferito ATI e che fino a 8800 ho comprato solo ATI
Concordo.
Se il bus aumenterà, di conseguenza aumenteranno anche le ROPs come minimo. Per il numero di SP, potrebbe rimanere invariato oppure aumentare a 160 o 192.
Questa sarebbe un'evoluzione del G80 e non un'architettura nuova ;)
longhorn7680
04-03-2008, 12:40
Le ROPs non centrano niente con il Bus!! ma potrebbero benissimo aumentarle come le SP ma questo comporterebbe troppo lavoro per un semplice aggiornamento di G80! loro sono concentrati sulla vera novita!
Mercuri0
04-03-2008, 12:40
:confused: Buh... quindi tutti i G92 ora in commercio sono 512bit castrati? A nVidia è costata non poco la 8800GT, allora.
Io invece mi aspettavo usassero qualcosa come la nuova tecnologia di compressione presente su G94.
Staremo a vedere.
Lo sara perche la vera sorpresa sara G100!!!!
Allora si credo che PURTROPPO AMD-ATI dovranno perforza ritirarsi dal segmento enthusiast.
Ma se del "G100" non si conosce ancora nemmeno il nome in codice!
...l'hype scorre forte su internet... :mbe:
Le ROPs non centrano niente con il Bus!! ma potrebbero benissimo aumentarle come le SP ma questo comporterebbe troppo lavoro per un semplice aggiornamento di G80! loro sono concentrati sulla vera novita!
Se ho capito bene le ROP sono limitate dalla banda di accesso alla memoria, quindi il bus c'entra eccome.
In ogni caso si parla di un G92B a 45nm prima del "G-next".
longhorn7680
04-03-2008, 12:43
Ma se del "G100" non si conosce ancora nemmeno il nome in codice!O_o
l'hype scorre forte su internet!
Ma se e stato annunciato per Novembre!!! Non crederai che NVIDIA voglia tenere per l`alto di gamma una stessa architettua per 3 anni??? Anche se visti i risultati della concorrenza........
Mercuri0
04-03-2008, 12:46
Ma se e stato annunciato per Novembre!!! Non crederai che NVIDIA voglia tenere per l`alto di gamma una stessa architettua per 3 anni??? Anche se visti i risultati della concorrenza........
Me lo sono perso? Sarebbe stato ufficialmente annunciato per "quale" novembre? :mbe:
stiamo a vedere , certo tutto ciò è promettente :D.
Zannawhite
04-03-2008, 12:50
Mi sento risollevato, rispetto l'amara verità che si stava profilando per la nuova top di gamma 9800GTX
Lo sara perche la vera sorpresa sara G100!!!!
Allora si credo che PURTROPPO AMD-ATI dovranno perforza ritirarsi dal segmento enthusiast.
E lo dice uno che ha sempre preferito ATI e che fino a 8800 ho comprato solo ATI
ancora stò g100 ? :muro:
longhorn7680
04-03-2008, 13:08
:
Se ho capito bene le ROP sono limitate dalla banda di accesso alla memoria, quindi il bus c'entra eccome.
In ogni caso si parla di un G92B a 45nm prima del "G-next".
Mi sa proprio che hai un concetto molto astratto di cosa siano le ROPs!!! Non centrano NIENTE con il BUS e la MEMORIA poi questa dei 45nm e la piu grande cavolata che ho sentito negli ultimi 5-6 mesi
giaballante
04-03-2008, 13:09
Il bus delle attuali schede Nvidia e Ati sono assolutamente diversi. Il fatto che Ati sia tornata ad un bus a 256bit è dovuto alla complessità di programmazione dello stesso a 512bit, quello "vecchio" i programmatori lo conoscevano meglio. Il collo di bottiglia delle X2x00 non era affatto la banda di memoria ma altre cose, oltretutto Ati non ha mai divulgato in toto i cambiamenti effettuati con le X3x00, probabile che ci fosse anche qualche problema legato al ring bus.
Nvidia usa (userà?) ancora un bus per le memorie di vecchio stile, quindi probabilmente i vantaggi della banda passante saranno maggiori.
Quali programmatori conoscevano meglio il bus? Gli unici che hanno a che fare col bus sono quelli che scrivono i drivers (cioè quelli di ATI/AMD), no? Per gli altri in directx/ogl lo strato hardware non dovrebbe interessare, perchè non più visibile.
Sbaglio da qualche parte?
longhorn7680
04-03-2008, 13:09
ancora stò g100 ? :muro:
Secondo logica dopo G9x ci sara un G1xx percio non capisco cosa volevi dire
@ Paulgazza: un botto con eco alla Fantozzi...
zanardi84
04-03-2008, 13:13
Il 9800 curiosamente rappresenta sempre l'upgrade di qualcosa già visto e vincente: la Radeon 9800 era una "vecchia" 9700 ottimizzata e a frequenze pompate. Inoltre ha portato pure 256MB di ram come dotazione.
Quesa nVidia è una 8800 "svecchiata" e ottimizzata senza particolari stravolgimenti dell'architettura. Giusto un processo costruttivo più raffinato e bus forse maggiorato.
Aggiungerei poi che il nome casca a fagiuolo ( :asd: ) anche nel momento storico delle due aziende concorrenti: 9800 di ATi mentre nVidia è in crisi nerissima con al linea FX ( ricordate la FX 5800? :rotfl: ), la 9800 di nVidia mentre AMD è in evidentissima difficoltà su due fronti: cpu e vga. Sono giusto dilatati un po' i tempi visto che la HD2900XT è l'equivalente di casa AMD di quello che fu la 5800.. lenta, rumorosa, con un'archietttura innovativa ma non efficace.
Quali programmatori conoscevano meglio il bus? Gli unici che hanno a che fare col bus sono quelli che scrivono i drivers (cioè quelli di ATI/AMD), no? Per gli altri in directx/ogl lo strato hardware non dovrebbe interessare, perchè non più visibile.
Sbaglio da qualche parte?
Non sbagli. Ma infatti parlavo appunto di questi programmatori :)
giaballante
04-03-2008, 13:20
Non sbagli. Ma infatti parlavo appunto di questi programmatori :)
Ok non mi era molto chiaro dal post.
Probabilmente questa generazione è stata "vinta" da nvidia per via degli shaders "flottanti", soluzione rivelatasi migliore della fioritura di shaders della controparte, non trovi?
Se 512 bit di bus servono o no lo dice la matematica e la risoluzione a cui volete giocare.
longhorn7680
04-03-2008, 13:28
Se 512 bit di bus servono o no lo dice la matematica e la risoluzione a cui volete giocare.
Finalmente qualcuno che posta in tema e che sa cosa dice!!!!
Probabilmente questa generazione è stata "vinta" da nvidia per via degli shaders "flottanti", soluzione rivelatasi migliore della fioritura di shaders della controparte, non trovi?
E' stata vinta da Nvidia per quanto riguarda le prestazioni ma Ati ha dato una bella botta ai prezzi (e Nvidia si è adeguata, altrimenti senza X2900 col cavolo che si trovava sul mercato la GT).
R600 aveva dalla sua una capacità (teorica) di calcolo elevatissima, solo che Nvidia di fatto ha messo dentro G80 degli SP "slegati" tra di loro. R600 andava ottimizzato via driver per bilanciare i calcoli per via dell'architettura (5 SP che se lavoravano tutte insieme, bene altrimenti valevano come 1. In questo caso si comportava come se ne avesse avute 64 con un notevole calo) e francamente visto il ritardo di fatto i giochi sono usciti tutti costruiti su G80. Somma tutte queste cose e ottieni i motivi per cui R600 e derivati non rendevano come ci si aspettava.
Scusa il post molto semplice e incasinato ma oggi non riesco a scrivere!!!! :)
longhorn7680
04-03-2008, 13:39
Concordo con te al 100%! Probabilmente tra un anno se dovessimo confrontare HD2900 e 8800 GTX con i nuovi giochi probabilmente HD2900 sarebbe superiore! IMHO
Kharonte85
04-03-2008, 13:43
Concordo con te al 100%! Probabilmente tra un anno se dovessimo confrontare HD2900 e 8800 GTX con i nuovi giochi probabilmente HD2900 sarebbe superiore! IMHO
Scusa ma non resisto proprio...:sbonk:
longhorn7680
04-03-2008, 13:47
Ne riparliamo tra un anno :D poi ho sottolineato IMHO
Mercuri0
04-03-2008, 13:49
Mi sa proprio che hai un concetto molto astratto di cosa siano le ROPs!!! Non centrano NIENTE con il BUS e la MEMORIA poi questa dei 45nm e la piu grande cavolata che ho sentito negli ultimi 5-6 mesi
Scusa intendevo dire a 55nm. La notizia è stata data da un tipo su beyond3D, (avevo pure controllato la sua storia dei messaggi per verificare che non sparasse cavolate... il tipo sembra azzeccarci.).
http://forum.beyond3d.com/showpost.php?p=1133422&postcount=95
L'ipotesi di un G92B a 55nm che nVidia userebbe contro RV770 sembra aver preso consistenza su quel forum.
Riguardo alle ROP ho un concetto troppo astratto, (anzi, se hai un link per darmi qualche informazione migliore... non mi è stato facile documentarmi), però avevo capito che le operazioni che fanno le ROP sono quasi sempre limitate dal bandwidth.
http://forum.beyond3d.com/showpost.php?p=1132525&postcount=25
quindi ha senso pensare che il numero di ROP abbia una relazione con il bandwidth: ha poco senso aumentarle se prima non provvedo ad eliminare il loro collo di bottiglia, rappresentato dall'accesso alla memoria.
p.s. quando ho un concetto astratto o sparo stupidaggini, ti sarei grato se tu potessi correggermi con qualcosa di informativo, a me piace apprendere ;)... il solo "spari stupidaggini" non mi è molto utile.
Kharonte85
04-03-2008, 13:51
Ne riparliamo tra un anno :D poi ho sottolineato IMHO
Ok...:D
Ma non sperarci troppo eh...:asd:
ahr ahr...
mi chiedo se loro lavorano per AMD, o se sono convinti che il ceo di amd vada in giro in calzamaglia verde con arco e frecce, per salvaguardare gli utenti dal duca di Santa Clara... :asd:
Scusa ma non resisto proprio...:sbonk:
Era un po' quello che si diceva con le x1900 vs 7900.
L' evoluzione dei motori grafici é stata quella che abbiamo visto, e la ATi si é rivelata ben superiore di quanto lo é stata al lancio.
Con questa nuova serie ancora non possiamo dire niente, di DX10 nativo non abbiamo niente, e per giunta non sappiamo quale bilanciamento Pixel/texture useranno.
Chissá se non avremo qualche sorpresa.
PS: a parte questo discorso, io prendo quello che di piú performante c'é al mometo in cui compro. O al limite, a paritá di prestazioni, cerco di farmi un idea vaga di come saranno fatti i prossimi giochi. ;)
Kharonte85
04-03-2008, 14:05
ahr ahr...
mi chiedo se loro lavorano per AMD, o se sono convinti che il ceo di amd vada in giro in calzamaglia verde con arco e frecce, per salvaguardare gli utenti dal duca di Santa Clara... :asd:
:rotfl:
Era un po' quello che si diceva con le x1900 vs 7900.
L' evoluzione dei motori grafici é stata quella che abbiamo visto, e la ATi si é rivelata ben superiore di quanto lo é stata al lancio.
Con questa nuova serie ancora non possiamo dire niente, di DX10 nativo non abbiamo niente, e per giunta non sappiamo quale bilanciamento Pixel/texture useranno.
Chissá se non avremo qualche sorpresa.
PS: a parte questo discorso, io prendo quello che di piú performante c'é al mometo in cui compro. O al limite, a paritá di prestazioni, cerco di farmi un idea vaga di come saranno fatti i prossimi giochi. ;)
Maddai siamo seri, le prestazioni si sanno, e si sa che l'architettura di G80 e derivati si è rivelata piu' efficiente vincente, AMD/ATI è stata avventata con la sua architettura e nulla a questo giro puo' fare cambiare le cose, solo al prossimo si potra' riparlarne, ma se uno mi dice che la HD2900xt fra un anno andra' di piu' della GTX non posso fare altro che ridere.
Faccio notare che il bus può essere passato a 512 Bit per il semplice aumento di memoria; 512MB = 256 Bit, 768MB = 384 Bit, 1GB = 512 Bit con il sistema usato da nVIDIA. Il tutto, però, fermo restando l'architettura che potrebbe essere ancora un normale G92 (128 sp e stesso numero di TMU/ROPs).
longhorn7680
04-03-2008, 14:12
Scusa intendevo dire a 55nm. La notizia è stata data da un tipo su beyond3D, (avevo pure controllato la sua storia dei messaggi per verificare che non sparasse cavolate... il tipo sembra azzeccarci.).
http://forum.beyond3d.com/showpost.php?p=1133422&postcount=95
L'ipotesi di un G92B a 55nm che nVidia userebbe contro RV770 sembra aver preso consistenza su quel forum.
Riguardo alle ROP ho un troppo concetto astratto, (anzi, se hai un link per darmi qualche informazione migliore... non mi è stato facile documentarmi), però avevo capito che le operazioni che fanno le ROP sono quasi sempre limitate dal bandwidth.
http://forum.beyond3d.com/showpost.php?p=1132525&postcount=25
quindi ha senso pensare che il numero di ROP abbia una relazione con il bandwidth: ha poco senso aumentarle se prima non provvedo ad eliminare il loro collo di bottiglia, rappresentato dall'accesso alla memoria.
p.s. quando ho un concetto astratto o sparo stupidaggini, ti sarei grato se tu potessi correggermi con qualcosa di informativo, a me piace apprendere ;)... il solo "spari stupidaggini" non mi è molto utile.
55nm o 45nm la differenza e enorme! E credo tu lo sappia.
Per cio che riguarda le ROPs ti faccio una considerazione:
HD2900 16 512 bit
HD3870 16 256 bit
8800GTX 24 384 bit
8800GTS(G80) 20 320 bit
8800GTS(G92) 16 256 bit
Vediamo che HD2900 ti smentisce. Altrimenti in ATI sarebbero degli incompetenti inquanti R600 era stato annunciato facendo leva sopprattutto sui 521 bit pertanto se seguiamo il tuo discorso allora divevano implementarne 32 o si sino dati da soli la zappa sui piedi.
Maddai siamo seri, le prestazioni si sanno, e si sa che l'architettura di G80 e derivati si è rivelata piu' efficiente vincente, AMD/ATI è stata avventata con la sua architettura e nulla a questo giro puo' fare cambiare le cose, solo al prossimo si potra' riparlarne, ma se uno mi dice che la HD2900xt fra un anno andra' di piu' della GTX non posso fare altro che ridere.
Cosa abbiamo oggi di DX10 nativo?
Oggi sappiamo solo che g80/92 e r600/670 hanno il loro apice prestazionale in ambiti totalmente opposti.
Io di patch dx10 che non apportano alcun miglioramento grafico palpabile posso anche farne a meno (infatti uso una vga dx10 ma ho xp, e non lo cambieró finché riusciranno a convincermi).
PS: longhorn ha espresso una sua opinione, se non la si condivide, si puó anche fare a meno di ridere, cosa che reputo maleducata, e si puó cercare di mostrargli la propria ;)
E con questo non voglio affatto dire che r600 supererá g80, ma che oggi le prestazioni dx10 vere sono un incognita ancora.
Mercuri0
04-03-2008, 14:21
55nm o 45nm la differenza e enorme! E credo tu lo sappia.
Per cio che riguarda le ROPs ti faccio una considerazione:
HD2900 16 512 bit
HD3870 16 256 bit
8800GTX 24 384 bit
8800GTS(G80) 20 320 bit
8800GTS(G92) 16 256 bit
Vediamo che HD2900 ti smentisce. Altrimenti in ATI sarebbero degli incompetenti inquanti R600 era stato annunciato facendo leva sopprattutto sui 521 bit pertanto se seguiamo il tuo discorso allora divevano implementarne 32 o si sino dati da soli la zappa sui piedi.
Si, mi sembra si siano dati la zappa sui piedi, del resto hanno "corretto" per l'HD3870. Cosa serviva/è servito il bus a 512Bit per la HD2900?
(più che aumentare le rop a 32, direi che avrebbero dovuto diminuire il bus, come hanno fatto con la HD3870. Io però non posso sapere perché per R600 fecero quella scelta, che di sicuro avrà avuto i suoi motivi.)
55nm o 45nm la differenza e enorme! E credo tu lo sappia.
Pure tra 521 e 512 bit, eh ;) (a volte scappa).
Comunque la parte interessante era appunto il fatto del rumor sul die shrink di G92, più che i nm in sé.
mircocatta
04-03-2008, 14:24
è esagerato dire che le 2900 andranno di più delle 8800gtx..
l'unico punto a loro forse erano i tanti sp che nella realtà erano 64 che se "volevano" erano x5... ma in ogni caso penso che andrebbero di meno
MenageZero
04-03-2008, 14:25
e costerà un botto per la complessità del bus
finora le critiche alla ventura 9800 erano che apparte i clock non superava con altre features le vecchie top, buffo che con questa news inizino a piovere "critiche" del tipo di quellla che fai tu o relative all'inutilità totale di un bus più ampio ...
(inoltre per logica ci si sarebbe dovuti lamentare anche se per es. avessero aumentato gli sp, non credo che aumentare gli sp faccia diminuire o restare invariati i costi e di conseguenza i prezzi ...)
... insomma queste 9800 devono ancora uscire non piacciono a nessuno ... :sofico:
e cmq se è previsto un prezzo x per una nuova top con bus da 256, non credo che se poi è da 512 il prezzo cambi di centinaia di euro ...
(senza contare che se fanno la nuova top single-gpu da 512bit di bus, con tutta probabilità o subito o dopo poco ci sarà anche una 9800 con bus da 256 e col prezzo che ti aspetti)
sarà la buona volta che la fascia media arrivi a 256 di bus..:D
c'è già arrivata:
da mesi per ati (i prezzi almeno della 3850 sono sicuramente consoni quella che una volta era la parte "prestazionale" della fascia media),
nv ha da poco presentato la gf9600, che casualmente ha 256bit di bus
inoltre i prezzi delle 8800gt più economiche non sono certo lontanissimi dal range di fascia media
dovrebbero estendere 256bit alla fascia media!
è esagerato dire che le 2900 andranno di più delle 8800gtx..
l'unico punto a loro forse erano i tanti sp che nella realtà erano 64 che se "volevano" erano x5... ma in ogni caso penso che andrebbero di meno
Analizzando la potenza teorica delle 2 schede (da quello che mi ricordo dei numeri) Nel migliore dei casi la 2900xt sarebbe (di poco) superiore ad una GTX.
Nel peggiore dei casi, inferiore ad una GTS 640.
Nella media starebbe tra le due, piú vicina alla GTS, e in pratica la situazione non é molto differente da quest' ultima.
dovrebbero estendere 256bit alla fascia media!
Ma ci sono giá :mbe:
alla fine riesce sempre a stupire sul filo di lana. grande nvidia
Si possono mettere anche 1.5Gb con 384bit (vedi Quadro Fx5600) e 1Gb con 256bit (8800GTS/GT)
Ma anche 768Mb con 192bit (8800GS 768Mb)
A dire il vero, MSI ha persino annunciato che potrebbe produrre una 9600GT con 2Gb di GDDR3, di inutilità inaudità, però tecnicamente non ci sono problemi :-)
Quindi il quantitativo di memoria è abbastanza "svincolato" dal bus adottato.
longhorn7680
04-03-2008, 15:02
Pure tra 521 e 512 bit, eh ;) (a volte scappa).
Comunque la parte interessante era appunto il fatto del rumor sul die shrink di G92, più che i nm in sé.
Se poi noi siamo cosi cretini da comprare un altro die shrink da parte di NVIDIA mi sa che la nuova architettura la vedremo nel 2015 o giu da li! Oramai sono quasi 18 mesi che non ce nessuna innovazione:cry:
dragonheart81
04-03-2008, 15:02
e costerà un botto per la complessità del bus
Non posso fare altro che quotarti confidavo nella news precedente per risparmiare qualche € ma con bus a 512 bit altro che risparmio, costerà di più della 8800 GTX!
longhorn7680
04-03-2008, 15:05
è esagerato dire che le 2900 andranno di più delle 8800gtx..
l'unico punto a loro forse erano i tanti sp che nella realtà erano 64 che se "volevano" erano x5... ma in ogni caso penso che andrebbero di meno
Diciamo che teoricamente dovrebbero andare di piu ma qui entrano in gioco altri fattori purtroppo! NVIDIA finanzia le case produttrici di giochi e tutti i titoli piu attesi hanno negli ultimi 2-3 anni il logo NVIDIA percio siccome le architetture sono molto differenti NVIDIA sara sempre avvantaggiata da questo punto finche la situazione rimarra tale.
ghiltanas
04-03-2008, 15:07
il prezzo è una vera incognita, il bus a 512 nn è una sciocchezza, cmq confido in nvidia, evidentemente pensa di sfruttare tutta quella banda passante...
con un bus del genere inoltre nn è da escludere che la maggior parte delle 9800gt e gtx avranno una mem da 1gb...
longhorn7680
04-03-2008, 15:20
Io preferirei se usassero le GDDR4 anche se solo 512Mb invece di 1Gb di ormai obsolete (per cio che riguarda il TOP di gamma) GDDR3. Quantitativi superiori ai 512Mb vengono raramente sfruttati dai giochi e solo a risoluziono 1900*1200 con filtri attivati. COD4 sul mio LCD FullHD a 1920*1080 al max dei dettagli usa 450-470 Mb di memoria.
da quanto ho capito io ogni chip di memoria ha 32 linee di comunicazione (detto proprio alla cavolo). Per cui allaumentare dei chip aumenta il bus (8800gtx 12chip 384 (32x12) --> 8800gts vecchia 10 chip 320bit e cosi via. Ovvio che puoi usare chip di capacità doppia (vedi 8800gt 1gb), ma sempre con 32bit di bus e quindi questo rimane invariato.
Comunque era inverosimile che a questo cambio ci fosse stato solamente un aumento delle frequenze, e il bus ridotto era proprio quello che finora aveva limitato g92 rispetto a g80. Penso che se le frequenze rimarranno sui 2ghz circa, avendo qualcosa come 140gb/s di banda vedremo un discreto aumento di prestazioni, specialmente quando si sale di frequenza (per non parlare moddando le schede e raggiungendo i 900/2200 su gpu/shader.
Comunque ho notato anche io la nuova 9800gtx è lunga praticamente quanto la gx2, veramente esagerata. Non vorrei che abbiano messo il doppio dei chip.
Per la programmazione non so, non pensavo che fosse influenzata dallampiezza di bus.
Zannawhite
04-03-2008, 15:45
I....COD4 sul mio LCD FullHD a 1920*1080 al max dei dettagli usa 450-470 Mb di memoria.Hai verificato quanti Mb di swap invece ti crea ?
ghiltanas
04-03-2008, 15:46
Io preferirei se usassero le GDDR4 anche se solo 512Mb invece di 1Gb di ormai obsolete (per cio che riguarda il TOP di gamma) GDDR3. Quantitativi superiori ai 512Mb vengono raramente sfruttati dai giochi e solo a risoluziono 1900*1200 con filtri attivati. COD4 sul mio LCD FullHD a 1920*1080 al max dei dettagli usa 450-470 Mb di memoria.
anche secondo me sarebbe meglio implementare le gddr4, però dire che è inutile il gb di ram nn è esatto. Io sono uno a cui piace moddare i giochi, e ti assicuro che superare i 512 mb di ram nn è per nulla difficile (vedi Oblivion per esempio)
el_mariachi
04-03-2008, 15:52
ma cribbio io ho appena comprato la 8800 gt tranquillo che tanto la 9800 gt non avrebbe rappresentato un salto così importante...e questi mi raddoppiano il bus...vabè è sempre così la tecnologia...:fagiano:
Ci credo solo quando sara' ufficiale.
E poi vedremo le prestazioni.
E vedremo i costi.
Certo che altrimenti la 9800GTX non avrebbe avuto senso di esistere ( meglio la 8800GTS overclokkata e pagata meno )
Kharonte85
04-03-2008, 16:05
Cosa abbiamo oggi di DX10 nativo?
Oggi sappiamo solo che g80/92 e r600/670 hanno il loro apice prestazionale in ambiti totalmente opposti.
Io di patch dx10 che non apportano alcun miglioramento grafico palpabile posso anche farne a meno (infatti uso una vga dx10 ma ho xp, e non lo cambieró finché riusciranno a convincermi).
PS: longhorn ha espresso una sua opinione, se non la si condivide, si puó anche fare a meno di ridere, cosa che reputo maleducata, e si puó cercare di mostrargli la propria ;)
E con questo non voglio affatto dire che r600 supererá g80, ma che oggi le prestazioni dx10 vere sono un incognita ancora.
Abbiamo gia' capito che queste schede con le DX10 sono senza speranza, native o meno credere al miracolo di R600 è semplicemente assurdo, quella scheda va cosi' perche' è tecnicamente inferiore al G80 e derivati (fra l'altro il divario GTX-XT è aumentato col passare del tempo e l'uscita dei giochi invece che il contrario) e non c'è altro da aggiungere, il mio non voleva essere uno sfotto'...pero' a distanza di un anno è assurdo credere ancora alla favola dei driver miracolosi, poi ognuno fa un po' come gli pare...io sono molto piu' realista.
Iantikas
04-03-2008, 16:06
55nm o 45nm la differenza e enorme! E credo tu lo sappia.
Per cio che riguarda le ROPs ti faccio una considerazione:
HD2900 16 512 bit
HD3870 16 256 bit
8800GTX 24 384 bit
8800GTS(G80) 20 320 bit
8800GTS(G92) 16 256 bit
Vediamo che HD2900 ti smentisce. Altrimenti in ATI sarebbero degli incompetenti inquanti R600 era stato annunciato facendo leva sopprattutto sui 521 bit pertanto se seguiamo il tuo discorso allora divevano implementarne 32 o si sino dati da soli la zappa sui piedi.
il bus verso la memroia utilizzato da ati è completamente differente da quello utilizzato da nvidia....ati può far una skeda col taglio d mem ke preferisice e unirla al bus ke + gli aggrada (potrebbe pure fare una gpu con bus 512bit e 192mb d ram...x esempio)...
...nel caso d G80 e successivi invece il bus, le rop e il quantitativo d mem son strettamente legati tra d loro...in G80 le rop son raggrupate x gruppi d 4 ed ogni gruppo s'interfaccia con la mem con un bus d 64bit d'ampiezza (ed i moduli d mem, oguno da 32bit, x il frame buffer d ogni partizione d rop stanno in coppia)...x questo la GTX con 24rop ha bus a 384bit (x es. => 24/4=6 x64bit=384bit) e la vekkia GTS con 20rop lo ha a 320bit così come le gpu basate su G92 uscite finora avendo 16rop hanno bus a 256bit...e x questo la GTX ha 12 moduli d mem x un totale d 768mb (la capienza cmq può variare a seconda del tipo d modulo usato ma sempre rimanendo su multipli o sottomultipli d 768mb), la GTS vekkio modello ne ha 10 e GT/GTS basate su G92 ne hanno 8...
...ciao
Abbiamo gia' capito che queste schede con le DX10 sono senza speranza, native o meno credere al miracolo di R600 è semplicemente assurdo, quella scheda va cosi' perche' è tecnicamente inferiore al G80 e derivati (fra l'altro il divario GTX-XT è aumentato col passare del tempo e l'uscita dei giochi invece che il contrario) e non c'è altro da aggiungere, il mio non voleva essere uno sfotto'...pero' a distanza di un anno è assurdo credere ancora alla favola dei driver miracolosi, poi ognuno fa un po' come gli pare...io sono molto piu' realista.
Chi ha parlato di driver miracolosi? :mbe:
Mi stai mettendo in bocca parole che non ho mai detto...anzi, io ero uno dei primi a dire che i miglioramenti non avrebbero mai superato il 10% e non le avrebbero dato il podio con i giochi attuali.
Io sto semplicemente parlando di archietettura vs giochi, e i giochi full dx10 oggi ancora non ci sono.
Se tu chiami giochi dx10 quelle pezze fatte male (che tral' altro non migliorano la grafica, ma solo appesantiscono il sistema), libero di farlo.
Come ho detto nel post di prima, le situazioni teoriche di performance sono 3.
Kharonte85
04-03-2008, 16:27
Chi ha parlato di driver miracolosi? :mbe:
Mi stai mettendo in bocca parole che non ho mai detto...anzi, io ero uno dei primi a dire che i miglioramenti non avrebbero mai superato il 10% e non le avrebbero dato il podio con i giochi attuali.
Io sto semplicemente parlando di archietettura vs giochi, e i giochi full dx10 oggi ancora non ci sono.
Se tu chiami giochi dx10 quelle pezze fatte male (che tral' altro non migliorano la grafica, ma solo appesantiscono il sistema), libero di farlo.
Come ho detto nel post di prima, le situazioni teoriche di performance sono 3.
e allora non assurgere a difesa di affermazioni di dubbia credibilita' se nemmeno tu le reputi corrette.
Per la questione Dx10 il tempo vedra' chi avra' ragione, ma io un'idea me la sono fatta...
e allora non assurgere a difesa di affermazioni di dubbia credibilita' se nemmeno tu le reputi corrette.
Per la questione Dx10 il tempo vedra' chi avra' ragione, ma io un'idea me la sono fatta...
Longhorn ha detto una sua opinione (che é uno scenario che potrá avverarsi ...o no) e tu hai riso.
In veritá non reputo corretta nessuna delle 2 affermazioni, (anzi, tu l' hai messa lí come una certezza, Longhorn no) per il semplice motivo che nessuno qui ha la sfera di cristallo.
Le GDDR4 a 1.2Ghz (2.4Ghz) offrono un vantaggio prestazionale veramente minimo rispetto alla GDDR3 a 1.0Ghz (2.0GHz).
Gia le GDDR3 Samsung 1.0ns riescono a garantirle per i 1-1.05Ghz.
Le 0.83ns, già introdotte con le 8800 Ultra e pare montate sulle 9800 GX2, ora verranno garantite a 1.2GHz.
A parità di clock, le GDDR3 sono più veloci delle GDDR4 per via dei timing, ma anche con 100Mhz in meno, ci sono condizioni in cui vanno meglio.
Qui è spiegato perchè:
http://techreport.com/articles.x/14168/4
The 3850 is just faster in the simple vertex shader test—at least until you get multiple GPUs involved. After consulting with AMD, I believe the most likely explanation for the 3870's low performance here is its use of GDDR4 memory. GDDR4 memory has a transaction granularity of 64 bits, while GDDR3's is half that. In certain cases, that may cause GDDR4 memory to deliver lower performance per clock, especially if the access patterns don't play well with its longer burst length. Although this effect is most pronounced here, we saw its impact in several of our game tests, as well, where the Radeon HD 3850 turned out to be faster than the 3870, despite having slightly slower GPU and memory clock frequencies.
D'altronde è molto facile appurarlo: testate una HD3850 ed una HD3870 allo stesso clock di gpu, la prima con GDDR3 a 1000, e la seconda con GDDR4 a 1200, e vedrete che la differenza è quasi nulla.
Il salto prestazionale si avrà con le GDDR5. Solo che rese di produzione, costi e disponibilità effettiva, è tutta da verificare :-)
mircocatta
04-03-2008, 17:22
ma come si fa a dire che 512 bit sono inutili e bastaqno 256?!?!
cioè, ne avete l'esempio davanti: la 8800gts ha un core superiore con frequenze enormi in più, ma va comunque di meno della 8800gtx...e cos'ha in meno? una minore banda e minor memoria... è palese che il g92 è limitato dai 256bit.. non dico che riesca ad occupare i 512, ma ben venga che ci siano...magari poi qualcuno la farà con 1 o 1,5 gb, ben venga ancora di più
mircocatta
04-03-2008, 17:32
il bus verso la memroia utilizzato da ati è completamente differente da quello utilizzato da nvidia....ati può far una skeda col taglio d mem ke preferisice e unirla al bus ke + gli aggrada (potrebbe pure fare una gpu con bus 512bit e 192mb d ram...x esempio)...
...nel caso d G80 e successivi invece il bus, le rop e il quantitativo d mem son strettamente legati tra d loro...in G80 le rop son raggrupate x gruppi d 4 ed ogni gruppo s'interfaccia con la mem con un bus d 64bit d'ampiezza (ed i moduli d mem, oguno da 32bit, x il frame buffer d ogni partizione d rop stanno in coppia)...x questo la GTX con 24rop ha bus a 384bit (x es. => 24/4=6 x64bit=384bit) e la vekkia GTS con 20rop lo ha a 320bit così come le gpu basate su G92 uscite finora avendo 16rop hanno bus a 256bit...e x questo la GTX ha 12 moduli d mem x un totale d 768mb (la capienza cmq può variare a seconda del tipo d modulo usato ma sempre rimanendo su multipli o sottomultipli d 768mb), la GTS vekkio modello ne ha 10 e GT/GTS basate su G92 ne hanno 8...
...ciao
quindi questa gtx se sarà confermato i 512bit avrà 32 rop's? ben venga anche questo aumento allora :)
cmq sbagliate se dite che bastano 512mb.. rfactor, un gioco di per se non pesante come altri, ed è del 2006, mi ha occupato 700mb...causandomi swapping...
alla luce di questo spero che aumentino la ram a circa 1gb e oltre, ovviamente nvidia continuerà a snobbare le gddr4 come è già stato poi spiegato, ho letto poi che hanno intenzione di passare alla gddr5...
se tutto questo (banda della memoria aumentata, rop's aumentate, memoria aumentata) verra confermato, e con un prezzo inferiore ai 450€, un pensierino glielo faccio veramente volentieri ;)
Iantikas
04-03-2008, 19:58
già avrà 8 partizioni ognuna con all'interno 4rop e framebuffer da 64bit x un totale d 32rop e 512bit (sempre ke il rumor sia vero e ke conservi l'arkitettura d G 80/92)...
...cmq questi ultimi rumor spiazzano molto e stridono molto con quanto si sapeva finora e i risultati apparsi su qualke sito (ke vogliono la nuova GTX identica ad una GTS 512mb con freq leggermente + elevate x core/shader/mem)...anke se nn'è detto ke siano false...x es fino a poco prima dell'uscita d G80 si sapeva ke nn avesse shader unificati quindi tutto può essere...ciao
enjoymarco
04-03-2008, 20:19
sarà la buona volta che la fascia media arrivi a 256 di bus..:D
la 9600GT che è la fascia media della serie 9000 ha proprio 256bit di memory bus ;)
Kharonte85
04-03-2008, 22:18
Longhorn ha detto una sua opinione (che é uno scenario che potrá avverarsi ...o no) e tu hai riso.
In veritá non reputo corretta nessuna delle 2 affermazioni, (anzi, tu l' hai messa lí come una certezza, Longhorn no) per il semplice motivo che nessuno qui ha la sfera di cristallo.
Io non ho riso, mi sono sbellicato perche' mi ha ricordato la perenne attesa dei "driver miracolosi" di R600 è ben diverso...
Guarda che lui parlava di prestazioni in generale, il discorso delle DX10 nativo l'hai tirato fuori tu, e la realta' dei fatti per ora mi supporta...quindi a fare l'ipotesi piu' inverosimile non sono certo io...comunque chiudiamo qua la faccenda, lui ha capito che non l'avevo fatto con cattiveria
http://www.hwupgrade.it/forum/showpost.php?p=21386164&postcount=39
mentre tu no.
NECRONOMICON
04-03-2008, 23:57
quindi questa gtx se sarà confermato i 512bit avrà 32 rop's? ben venga anche questo aumento allora :)
cmq sbagliate se dite che bastano 512mb.. rfactor, un gioco di per se non pesante come altri, ed è del 2006, mi ha occupato 700mb...causandomi swapping...
alla luce di questo spero che aumentino la ram a circa 1gb e oltre, ovviamente nvidia continuerà a snobbare le gddr4 come è già stato poi spiegato, ho letto poi che hanno intenzione di passare alla gddr5...
se tutto questo (banda della memoria aumentata, rop's aumentate, memoria aumentata) verra confermato, e con un prezzo inferiore ai 450€, un pensierino glielo faccio veramente volentieri ;)
MEGA QUOTONE! anke 2 di GB di memoria mi fanno piacere a me.
skusa rfactor ma secondo te (premeto ke non ho guardato) ma crysis in dx10 e filtri al max (per quanto si può) quanta ram occupa?
Samuele86
05-03-2008, 00:20
non sarà uno specchietto per le allodole i 512bit...xchè uno prima di cmoprarla guarderà i vari test ke hanno già fatto altri utenti o gente di HW e vedrà se ne vale la pena o no ^_^ eheh
non sarà uno specchietto per le allodole i 512bit...xchè uno prima di cmoprarla guarderà i vari test ke hanno già fatto altri utenti o gente di HW e vedrà se ne vale la pena o no ^_^ eheh
Punto 1 : Purtroppo non tutti guardano i test. C'era gente che all' uscita di r600 credeva ancora andasse il doppio di g80 solo guardando le specifiche.
Punto 2 : [Bastard Inside mode ON] Spero solo che questa a differenza della 9600gt non si overclocchi da sola (e senza farsi notare) sui chipset nvidia, sennó manco dei test ci si potrá fidare [Bastard Inside mode OFF]
DarkNiko
05-03-2008, 09:09
ma come si fa a dire che 512 bit sono inutili e bastaqno 256?!?!
cioè, ne avete l'esempio davanti: la 8800gts ha un core superiore con frequenze enormi in più, ma va comunque di meno della 8800gtx...e cos'ha in meno? una minore banda e minor memoria... è palese che il g92 è limitato dai 256bit.. non dico che riesca ad occupare i 512, ma ben venga che ci siano...magari poi qualcuno la farà con 1 o 1,5 gb, ben venga ancora di più
Il punto è la minor memoria più che non la minore ampiezza di banda del bus. E' ovvio che se carico un gioco e imposto dettagli ultra (che richiedono più di 512 Mb per le Textures) il gioco renderà meglio sempre su una GTX (che di ram ne ha 768 Mb), mi sembra logico.
A parità di quantitativo di memoria, secondo me (poi fucilatemi pure), anche se l'ampiezza di banda aumenta tra 256 bit e 384, ripeto a parità di quantitativo di memoria, per me la differenza non è macroscopicamente apprezzabile.
Ragazzi, qui dobbiamo smetterla di guardare solo ai benchmark e ai grafici della minchia. Le prove vanno fatte sulla propria pelle e con i giochi alla mano e non per sentito dire. Io ho avuto modo di provare gears of war in 1280*1024 su una 8800 GTS con 512 Mb di RAM e con una 8800 GTX (entrambe alle frequenze di default) e vanno uguali. Non ho notato alcuna differenza in prestazioni.
Poi è chiaro che se metto una 1920*1080 con i filtri a palla una GTX batterà sempre e comunque una GTS perchè la risoluzione richiede più memoria per le textures che la GTS non ha (vedi discorso di prima).
Riguardo poi alla 9800 GTX, di cui se ne sa ancora davvero poco, a me sembra più un restyling della GTX (o se vogliamo della Ultra). Non credo che sarà così marcato il divario con le schede attuali. E per quello che mi riguarda, Crysis a parte, io riesco a giocare a tutto senza il minimo problema e se devo proprio cambiare, tanto vale aspettare il G100 quando sarà o comunque una scheda che vada almeno al doppio di una GTX o di una Ultra di adesso.
Non ha senso cambiare per un 10% scarso in più di prestazioni, almeno questa è la mia personalissima (e discutibilissima) opinione a riguardo. ;)
Io ho visto anche i test su Anandtech dove HD3870 e 9600GT sono stati testati su piattaforma Skulltrail, quindi senza Linkboost.
E le schede sono praticamente equivalenti, giusto per vedere le cose nella giusta obiettività:
http://www.anandtech.com/video/showdoc.aspx?i=3235&p=2
Il Linkboost non è sempre abilitato su "Auto" sui chipset 590 (non utilizzato in nessuna recensione) e su 680/780i.
In alcune Mb non c'è manco l'opzione.
Che poi la 9600GT sia molto propensa all'overclock è un dato di fatto.
el_mariachi
05-03-2008, 11:41
Mah, io sto cercando conferme realtive alla 9800 GT in tutta internet, ma non trovo niente...notizie di oggi, danno ancora il bus a 256...:rolleyes:
ghiltanas
05-03-2008, 13:36
Mah, io sto cercando conferme realtive alla 9800 GT in tutta internet, ma non trovo niente...notizie di oggi, danno ancora il bus a 256...:rolleyes:
lascia perdere, la nvidia su certe info è sempre molto discreta, fino all'ultimo mi sa che le info saranno sempre piuttosto discordanti...
halduemilauno
05-03-2008, 14:06
sarà la buona volta che la fascia media arrivi a 256 di bus..:D
la 9600 gt ha gia il bus a 256 bit.
;)
mircocatta
05-03-2008, 14:22
oggi sono apparse nuove immagini di questa 9800gtx, bè notevole, e sopratutto troppo diversa dalla 8800gts 512mb per esser un semplice restyling della stessa ma con maggiori frequenze...
secondo me nvidia sta covando qualcosa e non lo dice fino all'ultimo.. che sfornino qualcosa di nuovo?
forse perchè in effetti, attualmente una concorrenza c'è, la 3870x2 è attulamente la vga più performante..
Quando mai Nvidia ha lasciato trapelare le giuste informazioni ? Sì vedrà all'uscita anche perchè qua si vaneggia e si specula sempre e puntualmente si viene smentiti nel day after.
ragazzi, dimenticate che con g80 tutti credevano che avesse gli shader dedicati fino al giorno prima della presentazione e poi "puf"... la novità.
di NVIDIA in questo senso non c'è molto da fidarsi nel senso che le news escono col contagocce e non di rado sono anche un po' fuorvianti in modo da far credere al mercato magari l'esatto contrario di quello che si sta facendo giu in ditta :D
pierluigi86
05-03-2008, 19:17
ragazzi, dimenticate che con g80 tutti credevano che avesse gli shader dedicati fino al giorno prima della presentazione e poi "puf"... la novità.
di NVIDIA in questo senso non c'è molto da fidarsi nel senso che le news escono col contagocce e non di rado sono anche un po' fuorvianti in modo da far credere al mercato magari l'esatto contrario di quello che si sta facendo giu in ditta :D
io mi ricordo anche che si speculava che il g84 avesse 64 sp e tutti i siti di informazione ne erano convinti ecc...
Iantikas
05-03-2008, 22:27
dalle immaggini apparse sinora io cmq credo sia a 256bit e ke i rumors + veritieri siano quelli ke la danno come una GTS 512 con freq lievemente + elevate...
...naturalmente spero d sbagliarmi, la speranza è l'ultima a morire :mc: :D
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.