PDA

View Full Version : [Thread ufficiale] Aspettando GTX260 & GTX280


Pagine : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

ale0bello0pr
29-04-2008, 01:03
Non penso che la GT200 andrà molto oltre la GX2 come prestazioni, a meno di grossi colpi di scena. Consumerà un decina di watt in meno, avrà prestazioni più stabili e meno dipendenti dall'ottimizzazioni dei drivers, sarà meno ingombrante.
Chi ha comprato la GX2 sui 400-450€ non ha fatto un cattivo affare, imho. ;)

si ma è anche vero che Nvidia non potrà mai immettere una serie GT200/G100 che vada al pari dell'ultima serie G92 x 2 anche xkè come riferisce il saccente hal avrà

512 bit
32 rops
1024 MB
192 SP (si sperava 200:D)
Banda 151.1 GB/s
DX 10.1

e a me il GT200 fa pensare a G100x2... poi non so voi.. :Prrr:

A.L.M.
29-04-2008, 01:35
si ma è anche vero che Nvidia non potrà mai immettere una serie GT200/G100 che vada al pari dell'ultima serie G92 x 2 anche xkè come riferisce il saccente hal avrà

512 bit
32 rops
1024 MB
192 SP (si sperava 200:D)
Banda 151.1 GB/s
DX 10.1

e a me il GT200 fa pensare a G100x2... poi non so voi.. :Prrr:

GT200 G92GX2

192 (?) SP 256 (128x2)
96 (?) TMU 128 (64x2)
32 (?) ROP 32 (16x2)
512bit (?) Bus 256bit

I clocks sono abbastanza simili.

Contando che ovviamente un'architettura dual gpu non è ancora efficiente come una single, io non vedo enormi differenze, se non nel bus.
Forse ci sarà qualche miglioria a ROPs e TMU, e qualche improvement agli SP, per meglio supportare le DX10.1.
Sinceramente non vedo perchè G92, che è praticamente il doppio di G94, vada il 40% in più, mentre GT200, che è il 50% in più di G92 (escluse le ROPs, che non hanno un impatto enorme sulle prestazioni, ed il bus) debba andare il doppio... ;)

Athlon 64 3000+
29-04-2008, 08:37
insomma 9800 GX2 un flop della madonna per chi l'ha acquistata e non c'è molto da replicare, una scheda sostituita di potenza nemmeno dopo 2-3 mesi.... vabbhè marketing allo stato puro per Nvidia RULEZ... mentre AMD ha la carta per il controattacco con queste fantomatiche GDDR5 e processo produttivo ancora piu' basso... bho vedremo...di certo...:O

Considera che anche la HD 3870 x2 rimarrà ancora poco sul mercato perchè verra sostituita a breve dalla HD 4870x2 e quindi anche Ati in questo caso non si comporterà molto diversamente da Nvidia mantenendo per massimo 6 mesi una scheda del genere.

D4N!3L3
29-04-2008, 09:23
A me non sembra tutto sto granchè rispetto alla GX2 e non lo dico perchè ho la GX2 ma perchè come caratteristiche mi sembra che siamo lì, l'unica pecca che ha la GX2 è la gestione di uno SLI. :mbe:

halduemilauno
29-04-2008, 09:40
http://www.hwupgrade.it/news/skvideo/geforce-9900-al-debutto-tra-alcuni-mesi_25140.html

Negli ultimi giorni sono emerse varie indiscrezioni su quelle che saranno le prossime generazioni di prodotti che NVIDIA immetterà in commercio nel segmento delle schede video di fascia medio alta. Analizzando i dati sino ad ora disponibili emergono due trend distinti:

da un lato NVIDIA dovrebbe continuare ad utilizzare la propria architettura G92, evoluta ulteriormente con il passaggio alla tecnologia produttiva a 55 nanometri prendendo il nome di G92b ma mantenendo invariato il numero massimo di stream processors implementati;
dall'altro NVIDIA si appresta a presentare una nuova architettura video top di gamma, indicata con il nome in codice di GT200, che integererà un maggior numero di stream processors rispetto al modello G92 e presumibilmente implementerà varie nuove ottimizzazioni architetturali.
Queste novità non vedranno la luce, stando alle informazioni riportate dal sito VR-Zone a questo indirizzo, prima del terzo trimestre dell'anno; per la GPU G92b la scheda video di destinazione sarà quella GeForce 9800 GT, con una sigla divenuta molto popolare negli scorsi mesi tra gli utenti più appassionati grazie alla versione GeForce 8800 GT che così tanto successo ha raccolto in poco tempo.

Per la GPU top di gamma, troveremo schede GeForce 9900 GTX e GeForce 9900 GTS, con due differenti livelli prestazionali abbinati a prezzi allineati di conseguenza. Per queste due schede, le cui GPU integreranno circa 1 miliardo di transistors, si presuppone l'utilizzo di bus memoria rispettivamente da 512bit e 448bit di ampiezza. Ricordiamo come le schede GeForce 8800 GTX e GeForce 8800 GTS, al debutto nel mese di Novembre 2006, utilizzassero bus da 384bit e 320bit rispettivamente.

Il lancio di queste nuove schede video potrebbe avvenire nel corso del mese di Luglio, anche se ci pare possibile che NVIDIA possa optare per presentare queste soluzioni in concomitanza del Computex 2008 di Taipei, evento che aprirà i battenti a inizio Giugno.
;)

A.L.M.
29-04-2008, 09:45
A me non sembra tutto sto granchè rispetto alla GX2 e non lo dico perchè ho la GX2 ma perchè come caratteristiche mi sembra che siamo lì, l'unica pecca che ha la GX2 è la gestione di uno SLI. :mbe:

Infatti. Lo stacco che ci fu all'epoca tra G80 e la prima GX2 era anche dovuto a specifiche pressochè doppie in ogni porzione del chip (oltre ovviamente alla nuova architettura). ;)

D4N!3L3
29-04-2008, 09:50
Infatti. Lo stacco che ci fu all'epoca tra G80 e la prima GX2 era anche dovuto a specifiche pressochè doppie in ogni porzione del chip (oltre ovviamente alla nuova architettura). ;)

Spero veramente che questa nuova scheda come prestazioni sia un mostro, appena ho la data certa di uscita e il prezzo vendo subito la mia GX2, tanto ho ancora la mia vecchia 8800 GTX con me che mi aspetta e che farà da sostituta nell'attesa di GT200. :D

pr76r
29-04-2008, 10:04
Ma secondo voi con queste nuove schede ci sarà un salto prestazionale come è stato dalla serie 7 alla 8?

halduemilauno
29-04-2008, 10:07
Spero veramente che questa nuova scheda come prestazioni sia un mostro, appena ho la data certa di uscita e il prezzo vendo subito la mia GX2, tanto ho ancora la mia vecchia 8800 GTX con me che mi aspetta e che farà da sostituta nell'attesa di GT200. :D

ecco bravo rimetti la 8800gtx.
;)

mok78
29-04-2008, 10:07
Salve, io ho acquistato una xfx9800gx2 quindi ho fatto diciamo bene una cavolata a comprarla?mi dovevo rifare il pc nuovo nuovo.. di solito non lo cambio per diversi anni...
ho sbagliato? :help:

pierluigi86
29-04-2008, 10:09
Spero veramente che questa nuova scheda come prestazioni sia un mostro, appena ho la data certa di uscita e il prezzo vendo subito la mia GX2, tanto ho ancora la mia vecchia 8800 GTX con me che mi aspetta e che farà da sostituta nell'attesa di GT200. :D

non ho capito. Tu hai una 8800gtx come scheda di riserva??? :eek: :eek: :eek: :eek: :eek:

halduemilauno
29-04-2008, 10:11
Ma secondo voi con queste nuove schede ci sarà un salto prestazionale come è stato dalla serie 7 alla 8?

escluso la 9800gx2 credo nettissimo dal quasi doppio in su. nei confronti della 9800gx2 invece solo netto. ovviamente parlo della sua versione massima.
;)

halduemilauno
29-04-2008, 10:13
Salve, io ho acquistato una xfx9800gx2 quindi ho fatto diciamo bene una cavolata a comprarla?mi dovevo rifare il pc nuovo nuovo.. di solito non lo cambio per diversi anni...
ho sbagliato? :help:

la scheda che hai comprato è cmq ottima. poi se avevi fretta. il punto è il prezzo, immagino che tu l'abbia pagata sui 400€ la nuova costerà di +.
;)

mok78
29-04-2008, 10:19
si bhe si ti dico con cosa vado in giro... ho un procio 3100 sempron, scheda ati radeon 9800.. 1 gb ramm 400....
Oramai no mi gira piu nulla quindi...si l'ho pagata sui 400 euro si...io pensavo di avere fatto un bellacquisto :muro: :muro:

-noxius-
29-04-2008, 10:24
saresti mostruosamente cpu limited, cambia pure processore e ram perchè una belva del genere con tale sottosistema è veramente castrata , a meno che te ovviamente non ti sia già preso un bel dual core di fascia alta oppure un quad, che consiglio caldamente ;) .

pr76r
29-04-2008, 10:34
Secondo voi più o meno su che prezzo si aggireranno?
L'eventuale sostituta come prezzo e prestazioni della 8800 gt quale sarà?
Anche con questa secondo voi ci sarà un salto prestazionale più del doppio?
Vi faccio queste domande perchè sono intenzionato a sostituire la mia 7900 gs con una 8800 gt, dite che conviene o è meglio aspettare?

-noxius-
29-04-2008, 10:37
350\370 gts - 400\450+ gtx , specialmente con le versioni OC sui 500 e passa .. Certo, se i prodotti di ati fossero molto potenti allora 50-70 euro di meno , con la 9900GX2 sui 500 .

mok78
29-04-2008, 10:43
saresti mostruosamente cpu limited, cambia pure processore e ram perchè una belva del genere con tale sottosistema è veramente castrata , a meno che te ovviamente non ti sia già preso un bel dual core di fascia alta oppure un quad, che consiglio caldamente ;) .

sisi bhe mi sono preso un pc nuovo da assemblare...un proc q9450 una xfx790i, e 4 giga ocz....ma alla fine del discorso ho fatto male male?

mok78
29-04-2008, 10:51
350\370 gts - 400\450+ gtx , specialmente con le versioni OC sui 500 e passa .. Certo, se i prodotti di ati fossero molto potenti allora 50-70 euro di meno , con la 9900GX2 sui 500 .

ma son già usciti i prezzi della 9900gx2?? :muro: :muro:

appleroof
29-04-2008, 10:59
GT200 G92GX2

192 (?) SP 256 (128x2)
96 (?) TMU 128 (64x2)
32 (?) ROP 32 (16x2)
512bit (?) Bus 256bit

I clocks sono abbastanza simili.

Contando che ovviamente un'architettura dual gpu non è ancora efficiente come una single, io non vedo enormi differenze, se non nel bus.
Forse ci sarà qualche miglioria a ROPs e TMU, e qualche improvement agli SP, per meglio supportare le DX10.1.
Sinceramente non vedo perchè G92, che è praticamente il doppio di G94, vada il 40% in più, mentre GT200, che è il 50% in più di G92 (escluse le ROPs, che non hanno un impatto enorme sulle prestazioni, ed il bus) debba andare il doppio... ;)

esatto, questo non è assolutamente un dettaglio, perchè la 9800gx2 non è il doppio di g92, o meglio è il doppio ma solo sulla carta, causa il grosso collo di bottiglia "di fatto" rappresentato dallo SLI

-noxius-
29-04-2008, 11:00
no , però se vedi come è andata per il G80 , grossomodo stiamo lì anche perchè , la nuova vga più potente del mondo, vuoi che te la regalano a meno di 400e passa euro appena uscita ? Almeno 430-450 è il prezzo minimo secondo nVIDIA o perlomeno così è sempre stato .


EDIT: hal , se non sarà la GX2 sarà la GTX , magari OC .. Si è sempre parlato di G100 giusto ? G200 porterebbe o ad un prodotto X2 , oppure un dual gpu sullo stesso pcb come per la 3870x2 oppure un vero dual GPU .. Mi sembra strano che con 192 SP lo possano chiamare G200 ;)

halduemilauno
29-04-2008, 11:01
350\370 gts - 400\450+ gtx , specialmente con le versioni OC sui 500 e passa .. Certo, se i prodotti di ati fossero molto potenti allora 50-70 euro di meno , con la 9900GX2 sui 500 .

gia stai alla 9900gx2...

mok78
29-04-2008, 11:03
no , però se vedi come è andata per il G80 , grossomodo stiamo lì anche perchè , la nuova vga più potente del mondo, vuoi che te la regalano a meno di 400e passa euro appena uscita ? Almeno 430-450 è il prezzo minimo secondo nVIDIA o perlomeno così è sempre stato .

si si hai ragione anche te...a sto punto ho fatto solo che male a comprarla la 9800gx2 via ho gia capito....:muro:

appleroof
29-04-2008, 11:04
no , però se vedi come è andata per il G80 , grossomodo stiamo lì anche perchè , la nuova vga più potente del mondo, vuoi che te la regalano a meno di 400e passa euro appena uscita ? Almeno 430-450 è il prezzo minimo secondo nVIDIA o perlomeno così è sempre stato .

ammesso che il gap con ati rimanga, anche se probabilmente non più al livello di 2900xt/8800gtx, immagino un prezzo della 9900gtx sui 500 euri al lancio

2 aspetti potrebbero giocare a favore di un prezzo più basso, imho: i 55nm, se verranno adottati e non lo so, e ripeto un gap con ati ridotto (chje non farà scendere 9900gtx a 300 euro, farà alzare il prezzo della 4870x2, ma insomma faciliterà un riallineamneto sui 400 euro di entrambe le soluzioni, tutto ripeto assolutamente IMHO)

pr76r
29-04-2008, 11:05
Quindi che dite che mi conviene prendere ora la 8800gt considerando che ho intenzione di spendere massimo 170 euro.
Secondo voi quando uscirà la sostituta della 8800gt e a che prezzo?

D4N!3L3
29-04-2008, 11:07
non ho capito. Tu hai una 8800gtx come scheda di riserva??? :eek: :eek: :eek: :eek: :eek:

Ehm, si! :stordita:

-noxius-
29-04-2008, 11:07
se faranno uscire la 9800GT ,la sostituta per la tua GT già ce l'hai ... si chiama 8800GTS sotto OC a 770-1900+ -1150 ;)
Cercala a poco, cambiagli dissipatore ed hai una cheda quasi perfetta (eccetto il solito crysis a più di 1600x1200 ..)

halduemilauno
29-04-2008, 11:15
ammesso che il gap con ati rimanga, anche se probabilmente non più al livello di 2900xt/8800gtx, immagino un prezzo della 9900gtx sui 500 euri al lancio

2 aspetti potrebbero giocare a favore di un prezzo più basso, imho: i 55nm, se verranno adottati e non lo so, e ripeto un gap con ati ridotto (chje non farà scendere 9900gtx a 300 euro, farà alzare il prezzo della 4870x2, ma insomma faciliterà un riallineamneto sui 400 euro di entrambe le soluzioni, tutto ripeto assolutamente IMHO)
a complemento a quanto ti dicevo...
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7087&Itemid=1
;)

J!MmΨ
29-04-2008, 11:25
a complemento a quanto ti dicevo...
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7087&Itemid=1
;)

Praticamente dice solo che Nvidia sta ordinando wafer a 55 nm e 65 nm. Secondo me nulla di nuovo, i 65 nm li sta ordinando per la produzione di gt200, i 55 nm per g92b. E chissà se poi, nelle schede di fascia media, o magari successivamente a tutta una generazione ancora prodotta a 65nm, non ce le rifili nuovamente a 55nm e frequenze più alte, un po come sta accadendo con g92 e g92b.
:read:

appleroof
29-04-2008, 11:38
a complemento a quanto ti dicevo...
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7087&Itemid=1
;)

eccellente, direi che gt200 a 55nm sarebbe perfetto, certo a 65nm non farebbe schifo, io auspicherei i 55 solo per un discorso prezzo, non tanto per un discorso prestazioni :)

J!MmΨ
29-04-2008, 11:40
Più facile alle stesse frequenze. Non ha motivo di aumentare le prestazioni della fascia medio-bassa ma ha ottimi motivi per aumentare le rese :>

Si ratatosk, ma era un discorso globale parlando di tutta questa nuova serie di gpu, certo che in fascia medio-bassa però sarei d' accordo con te ;)

appleroof
29-04-2008, 11:50
Tanto il prezzo lo faranno le prestazioni, il procdesso farà solo i margini ;)

cut

esatto, per questo citavo entrambi i fattori ;)

halduemilauno
29-04-2008, 13:23
tra le note del nuovo riva tuner 2.09...

"Version 2.09:

Minor bugfixes:

The server no longer erroneously swaps RGB components and no longer causes On-Screen Display to be rendered in unexpected color under Direct3D10 when non-default OSD color is being used.
What's new:

Added ForceWare 175.xx drivers family support.
Updated databases for Detonator and ForceWare drivers. Added databases for ForceWare 174.40, 174.51, 174.53, 174.60, 174.70, 174.74, 174.82, 174.85, 174.88, 174.93 and 175.12.
Added Catalyst 8.4 drivers detection. Please take a note that ATI continues "old good" tradition of using the same build version of different driver versions, so both Catalyst 8.3 and 8.4 will be detected as Catalyst 8.3 or newer.
Updated Catalyst 8.4 certified SoftR9x00 patch script (for Windows 2000/XP drivers only).
Updated PCI DeviceID database for AMD graphics processors. Added PCI DeviceIDs for RADEON X1650 AGP and RADEON 3850 X2.
Update driver files database for 64-bit NVIDIA ForceWare drivers.
Unlocked previously available experimental AMD RV620 graphics processors family support.
Added experimental NVIDIA G96 graphics processors family support.
Added experimental NVIDIA G100 (aka GT200) graphics processors family support.
Added experimental driver-level multi-GPU fan control support for Quad-SLI systems. Thanks to Jacob Freeman @ EVGA for testing driver-level fan control with2x NVIDIA 9800GX2 system.
Now RivaTuner is able to detect driver version and display driver files info for drivers using multiple driver files and active non-primary driver file.
Added experimental clock frequency stress-testing for NVAPI overclocking interfaces. Please take a note that NVAPI's own stress testing is not ideal yet and it is not available for some GPU families (e.g. G80) or may work improperly for others. Due to this reason NVAPI clock frequency stress-testing feature is disabled by default, however power users may enable it using NVAPIClockTest registry entry.
Added set of technologies aimed to improve RivaTuner startup and usage safety in conjunction with other hardware monitoring and diagnostics related tools:
Added low-level PCI controller access synchronization protocol. The protocol serves for preventing possible PCI controller access collisions when multiple tools are being started and scanning PCI buses simultaneously (e.g. detecting supported hardware during OS startup). Please take a note that to take full effect the protocol must be supported by other tools used simultaneously with RivaTuner, so please ensure that you're using this version of RivaTuner with the latest versions of other monitoring or diagnostics related software products (e.g. Everest)."

;)

nervoteso
29-04-2008, 13:51
tra le note del nuovo riva tuner 2.09...

"Version 2.09:

Minor bugfixes:

The server no longer erroneously swaps RGB components and no longer causes On-Screen Display to be rendered in unexpected color under Direct3D10 when non-default OSD color is being used.
What's new:

Added ForceWare 175.xx drivers family support.
Updated databases for Detonator and ForceWare drivers. Added databases for ForceWare 174.40, 174.51, 174.53, 174.60, 174.70, 174.74, 174.82, 174.85, 174.88, 174.93 and 175.12.
Added Catalyst 8.4 drivers detection. Please take a note that ATI continues "old good" tradition of using the same build version of different driver versions, so both Catalyst 8.3 and 8.4 will be detected as Catalyst 8.3 or newer.
Updated Catalyst 8.4 certified SoftR9x00 patch script (for Windows 2000/XP drivers only).
Updated PCI DeviceID database for AMD graphics processors. Added PCI DeviceIDs for RADEON X1650 AGP and RADEON 3850 X2.
Update driver files database for 64-bit NVIDIA ForceWare drivers.
Unlocked previously available experimental AMD RV620 graphics processors family support.
Added experimental NVIDIA G96 graphics processors family support.
Added experimental NVIDIA G100 (aka GT200) graphics processors family support.
Added experimental driver-level multi-GPU fan control support for Quad-SLI systems. Thanks to Jacob Freeman @ EVGA for testing driver-level fan control with2x NVIDIA 9800GX2 system.
Now RivaTuner is able to detect driver version and display driver files info for drivers using multiple driver files and active non-primary driver file.
Added experimental clock frequency stress-testing for NVAPI overclocking interfaces. Please take a note that NVAPI's own stress testing is not ideal yet and it is not available for some GPU families (e.g. G80) or may work improperly for others. Due to this reason NVAPI clock frequency stress-testing feature is disabled by default, however power users may enable it using NVAPIClockTest registry entry.
Added set of technologies aimed to improve RivaTuner startup and usage safety in conjunction with other hardware monitoring and diagnostics related tools:
Added low-level PCI controller access synchronization protocol. The protocol serves for preventing possible PCI controller access collisions when multiple tools are being started and scanning PCI buses simultaneously (e.g. detecting supported hardware during OS startup). Please take a note that to take full effect the protocol must be supported by other tools used simultaneously with RivaTuner, so please ensure that you're using this version of RivaTuner with the latest versions of other monitoring or diagnostics related software products (e.g. Everest)."

;)

finalmente!!!!! stasera okko la vga!
ma quando esce sta 9900 gtx? è lei il g200?sarà la mia prossima vga!

appleroof
29-04-2008, 14:25
tra le note del nuovo riva tuner 2.09...

"Version 2.09:

Minor bugfixes:

The server no longer erroneously swaps RGB components and no longer causes On-Screen Display to be rendered in unexpected color under Direct3D10 when non-default OSD color is being used.
What's new:

Added ForceWare 175.xx drivers family support.
Updated databases for Detonator and ForceWare drivers. Added databases for ForceWare 174.40, 174.51, 174.53, 174.60, 174.70, 174.74, 174.82, 174.85, 174.88, 174.93 and 175.12.
Added Catalyst 8.4 drivers detection. Please take a note that ATI continues "old good" tradition of using the same build version of different driver versions, so both Catalyst 8.3 and 8.4 will be detected as Catalyst 8.3 or newer.
Updated Catalyst 8.4 certified SoftR9x00 patch script (for Windows 2000/XP drivers only).
Updated PCI DeviceID database for AMD graphics processors. Added PCI DeviceIDs for RADEON X1650 AGP and RADEON 3850 X2.
Update driver files database for 64-bit NVIDIA ForceWare drivers.
Unlocked previously available experimental AMD RV620 graphics processors family support.
Added experimental NVIDIA G96 graphics processors family support.
Added experimental NVIDIA G100 (aka GT200) graphics processors family support.
Added experimental driver-level multi-GPU fan control support for Quad-SLI systems. Thanks to Jacob Freeman @ EVGA for testing driver-level fan control with2x NVIDIA 9800GX2 system.
Now RivaTuner is able to detect driver version and display driver files info for drivers using multiple driver files and active non-primary driver file.
Added experimental clock frequency stress-testing for NVAPI overclocking interfaces. Please take a note that NVAPI's own stress testing is not ideal yet and it is not available for some GPU families (e.g. G80) or may work improperly for others. Due to this reason NVAPI clock frequency stress-testing feature is disabled by default, however power users may enable it using NVAPIClockTest registry entry.
Added set of technologies aimed to improve RivaTuner startup and usage safety in conjunction with other hardware monitoring and diagnostics related tools:
Added low-level PCI controller access synchronization protocol. The protocol serves for preventing possible PCI controller access collisions when multiple tools are being started and scanning PCI buses simultaneously (e.g. detecting supported hardware during OS startup). Please take a note that to take full effect the protocol must be supported by other tools used simultaneously with RivaTuner, so please ensure that you're using this version of RivaTuner with the latest versions of other monitoring or diagnostics related software products (e.g. Everest)."

;)

sempre meglio, spero di vederla in azione al computex di giugno :D

J!MmΨ
29-04-2008, 14:36
sempre meglio, spero di vederla in azione al computex di giugno :D

sicuro ;)

appleroof
29-04-2008, 14:47
sicuro ;)

sarebbe ottimo anche e sopratutto perchè mi pare che anche rv770 verrà presentato in quell'occasione, potremmo avere un confronto immediato :)

J!MmΨ
29-04-2008, 14:55
sarebbe ottimo anche e sopratutto perchè mi pare che anche rv770 verrà presentato in quell'occasione, potremmo avere un confronto immediato :)

d' accordo ;)

qui per quanto riguarda rv770 :
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7085&Itemid=1
;)

DVD2005
29-04-2008, 17:23
sempre meglio, spero di vederla in azione al computex di giugno :D

dai che ci siamo :)

appleroof
29-04-2008, 17:25
dai che ci siamo :)

:sbav: :sbav: :sbav:

p.s.: anche tu interessato o passi? :)

DVD2005
29-04-2008, 17:28
:sbav: :sbav: :sbav:

p.s.: anche tu interessato o passi? :)

diciamo che sono interessato a prescindere perchè è una scheda nuova :D poi mai dire mai, anche se a 1440*900...... e comunque prima ho in progetto l'upgrade del resto del pc che è anche un corretto presupposto per un mostro come GT200/R700

Marko#88
29-04-2008, 17:33
diciamo che sono interessato a prescindere perchè è una scheda nuova :D poi mai dire mai, anche se a 1440*900...... e comunque prima ho in progetto l'upgrade del resto del pc che è anche un corretto presupposto per un mostro come GT200/R700

si, fai bene anche a cambiare piattaforma in effetti...:D

appleroof
29-04-2008, 17:36
diciamo che sono interessato a prescindere perchè è una scheda nuova :D

su questo sono completamente d'accordo :D

poi mai dire mai, anche se a 1440*900...... e comunque prima ho in progetto l'upgrade del resto del pc che è anche un corretto presupposto per un mostro come GT200/R700

giusto, cmq [modalità tentatore on :asd: ]ricorda che ho avuto la gtx con un 146 occato 2giga di memoria (con vista64) per mesi e di soddisfazioni me ne ha date a iosa :read: :D :D bastava mettere filtri a palla

per questo credo di non prendere il quad adesso e fare prima l'upgrade della vga, ammesso che i tempi siano quelli che mi aspetto (luglio-settembre sia per r700 che per gt200) [modalità tentatore off]

carpo93
29-04-2008, 18:19
dopo queste notizie cambio la firma:p
mi sa che pigli la gts a 350€

halduemilauno
29-04-2008, 20:23
http://www.vr-zone.com/articles/GeForce_9900_GTX_is_10.5-inch_Long%2C_Dual_Slot/5740.html

VR-Zone got to know that the GeForce 9900 GTX card is 10.5" long, full height and dual slot and the cooler is TM71 from CoolerMaster. Dubbed GT200 or D10U, we heard that this architecture might be dual chip with TDP up to 240W.

ecco il TM71.
http://www.pctuning.cz/ilustrace2/stefek/Asus_gf7900gtx/Asus_GF7900GTX_cooler2_small.jpg


;)

halduemilauno
29-04-2008, 20:31
E' quello delle 7900GTX? O gli assomiglia solo?

uguale.
http://resources.vr-zone.com/Shamino/swf/Nvidia_7900GTX6.jpg

ArCH85
29-04-2008, 20:34
http://www.vr-zone.com/articles/GeForce_9900_GTX_is_10.5-inch_Long%2C_Dual_Slot/5740.html

VR-Zone got to know that the GeForce 9900 GTX card is 10.5" long, full height and dual slot and the cooler is TM71 from CoolerMaster. Dubbed GT200 or D10U, we heard that this architecture might be dual chip with TDP up to 240W.

ecco il TM71.
http://www.pctuning.cz/ilustrace2/stefek/Asus_gf7900gtx/Asus_GF7900GTX_cooler2_small.jpg


;)


sembra quello della 7900GTX ..


Edit: minghia, non mi date tempo di rispondere :asd:

-noxius-
29-04-2008, 20:56
http://www.nordichardware.com/news,7685.html

Lunga quanto una 9800GTX, 240W di consumo e sembra dual chip (CVD G100X2) .. Spero solo che sia single PCB e non uno SLI maggiorato come le varie GX2 .

PS: ma ''dual chip'' in che senso ? 2pcb oppure single pcb ma come la 3870x2 ?

Mister Tarpone
29-04-2008, 20:58
immaginavo che sarebbe stata un 27cm di scheda.... . .. . .

Andrea deluxe
29-04-2008, 21:03
ammesso che sia quello il dissipatore, che performance ha quel dissipatore?

halduemilauno
29-04-2008, 21:03
http://www.nordichardware.com/news,7685.html

Lunga quanto una 9800GTX, 240W di consumo e sembra dual chip (CVD G100X2) .. Spero solo che sia single PCB e non uno SLI maggiorato come le varie GX2 .

PS: ma ''dual chip'' in che senso ? 2pcb oppure single pcb ma come la 3870x2 ?

edit

J!MmΨ
29-04-2008, 21:06
uguale.
http://resources.vr-zone.com/Shamino/swf/Nvidia_7900GTX6.jpg

che spettacolo quel dissi :eek:

halduemilauno
29-04-2008, 21:07
che spettacolo quel dissi :eek:

gran bella scheda.
;)

Ale29
29-04-2008, 21:11
Carino il dissi, ma dual chip sarebbe solo la 9900gtx mentre la 9900gts no? o nessuna delle 2?

Marko91
29-04-2008, 21:25
Bah, una dual gpu, molto strano. Un TDP di 240W significano 120W per gpu e a 55nm potrebbe significare una gpu un pò più grande di G92. A 65nm significa una GPU poco più grande di G92. Magari "GT200" sono 2 G92b sullo stesso pcb e ognuna ha 160/192sp, un 80ina di tmu, 24 rops e 256bit di bus....nah nn mi sembra plausibile...
Secondo me questi ultimi rumor sono totalmente sbagliati, GT200 sarà una singola gpu.

ale0bello0pr
29-04-2008, 21:49
io continuo a dire G100 x 2:p

-noxius-
29-04-2008, 22:08
Bah, una dual gpu, molto strano. Un TDP di 240W significano 120W per gpu e a 55nm potrebbe significare una gpu un pò più grande di G92. A 65nm significa una GPU poco più grande di G92. Magari "GT200" sono 2 G92b sullo stesso pcb e ognuna ha 160/192sp, un 80ina di tmu, 24 rops e 256bit di bus....nah nn mi sembra plausibile...
Secondo me questi ultimi rumor sono totalmente sbagliati, GT200 sarà una singola gpu.

Per questo 55nm e stessa lunghezza della 9800GTX mi puzza di 3870x2 versione nVIDIA , i consumi parlano chiaro ..

EDIT: Alex, mi sa che l'attesa per il WB sarà bella lunga ..

Alexkidd85
29-04-2008, 22:08
io spero che non mi revisionano del tutto il pbc perche aspettare il WB non lo tollererei...potrei anche gettare una bomba sulla silicon valley e a chi prendo prendo :muro:

J!MmΨ
29-04-2008, 23:10
Bah, una dual gpu, molto strano. Un TDP di 240W significano 120W per gpu e a 55nm potrebbe significare una gpu un pò più grande di G92. A 65nm significa una GPU poco più grande di G92. Magari "GT200" sono 2 G92b sullo stesso pcb e ognuna ha 160/192sp, un 80ina di tmu, 24 rops e 256bit di bus....nah nn mi sembra plausibile...
Secondo me questi ultimi rumor sono totalmente sbagliati, GT200 sarà una singola gpu.

ragazzi ma sul sito di nordich hw non si parla di dual gpu nè di dual chip ... Il sito parla solo di dissi doppio slot per dissipare i 240w del chip, ma di altro "dual" non parla :O

Mister Tarpone
29-04-2008, 23:13
ragazzi ma sul sito di nordich hw non si parla di dual gpu nè di dual chip ... Il sito parla solo di dissi doppio slot per dissipare i 240w del chip, ma di altro "dual" non parla :O

si parla anche di "dual maroni" a dover aspettare questa GT200 :asd:



scherzo :asd:

J!MmΨ
29-04-2008, 23:14
si parla anche di "dual maroni" a dover aspettare questa GT200 :asd:



scherzo :asd:

:D :D
anche di dual stipendi per comprarla :asd:

DVD2005
29-04-2008, 23:18
si parla anche di "dual maroni" a dover aspettare questa GT200 :asd:

scherzo :asd:

:D :D
anche di dual stipendi per comprarla :asd:

:asd: :asd:

Marko#88
29-04-2008, 23:25
si parla anche di "dual maroni" a dover aspettare questa GT200 :asd:



scherzo :asd:

:rotfl:

marco7773
30-04-2008, 00:24
Di sicuro sono entusiasta di queste nuove s.video e non vedo l’ora che arrivi la data d'uscita, tanto per avere più chiarezza sia sui prezzi sia sulle prestazioni, che sicuramente stravolgeranno a mio parere il mondo dei gamers.:D

Dall'altra parte della medaglia l'uscita di cosi tante s.video a cosi poca distanza l'una dall'altra mi fa letteralmente incazzare in quanto non si finisce mai di spendere soldi nostri, cosi da arricchire le case produttrici per migliorarsi ancora una volta alle nostre spalle...che palle!:muro:

Marko#88
30-04-2008, 07:08
Se l'estetica ha un suo peso in queste cose (e non lo ha :asd: ) mi sento di di dire che la 7900GTX è la più bella scheda reference che abbia mai visto :>

secondo me la più bella è stata la x1950xtx e poi la 7900gtx...ma alla fine a noi importa l'efficienza...:D

Feidar
30-04-2008, 07:11
Ce l'avevo io la XTX. ;_;

jok3r87
30-04-2008, 09:53
http://www.vr-zone.com/articles/GeForce_9900_GTX_is_10.5-inch_Long%2C_Dual_Slot/5740.html

VR-Zone got to know that the GeForce 9900 GTX card is 10.5" long, full height and dual slot and the cooler is TM71 from CoolerMaster. Dubbed GT200 or D10U, we heard that this architecture might be dual chip with TDP up to 240W.

ecco il TM71.
http://www.pctuning.cz/ilustrace2/stefek/Asus_gf7900gtx/Asus_GF7900GTX_cooler2_small.jpg


;)

Ma un singolo chip di gddr3 può avere capienza massima di 128mb ?
Comunque se non ricordo ma questo dissipatore era abbastanza silenzioso, speriamo.

halduemilauno
30-04-2008, 10:36
Ma un singolo chip di gddr3 può avere capienza massima di 128mb ?
Comunque se non ricordo ma questo dissipatore era abbastanza silenzioso, speriamo.

128 mega 64 bit.

Milotto
30-04-2008, 10:49
Mi chiedo se convenga ancora ad Nvidia proporre VGA le cui performance sono nettamente superiori a quelle della controparte...Se da un lato una simile condizione implica meno pressione tecnologica e quindi minori investimenti nella ricerca ( o quantomeno investimenti più "diluiti" nel tempo) ,dall'altra implica una ricollocazione dei propri prodotti in una diversa fascia di prezzo a discapito dei guadagni...azzardo : se HD 3870 e 3870X2 avessero avuto prestazioni allineate a quelle della concorrenza forse sarebbero state entrambe collocate nella fascia alta e di certo con un costo diverso...
Di fatti è la prima volta , da molti anni a questa parte, che si vedono divarii prestazionali così "netti"; e tutti noi sappiamo che ciò, in un certo senso, ha stravolto il mercato dando la possibilità agli utenti di comperare con un range di 140/200 euro VGA mostruosamnete più performanti di quanto non lo fossero le VGA di aluni anni addietro della medesima fascia di prezzo...

halduemilauno
30-04-2008, 11:05
Mi chiedo se convenga ancora ad Nvidia proporre VGA le cui performance sono nettamente superiori a quelle della controparte...Se da un lato una simile condizione implica meno pressione tecnologica e quindi minori investimenti nella ricerca ( o quantomeno investimenti più "diluiti" nel tempo) ,dall'altra implica una ricollocazione dei propri prodotti in una diversa fascia di prezzo a discapito dei guadagni...azzardo : se HD 3870 e 3870X2 avessero avuto prestazioni allineate a quelle della concorrenza forse sarebbero state entrambe collocate nella fascia alta e di certo con un costo diverso...
Di fatti è la prima volta , da molti anni a questa parte, che si vedono divarii prestazionali così "netti"; e tutti noi sappiamo che ciò, in un certo senso, ha stravolto il mercato dando la possibilità agli utenti di comperare con un range di 140/200 euro VGA mostruosamnete più performanti di quanto non lo fossero le VGA di aluni anni addietro della medesima fascia di prezzo...


perchè le possibilità di ati han spostato il confronto ove essa era per lo meno presente e la battaglia come si è visto si è spostata nella fascia che hai detto con benefici per gli utenti che sono sotto gli occhi di tutti.
nvidia ha ucciso quella fascia innondandola di prodotti in tutte le salse come 8800gs/gt/gts e altre ancora come 9600gt/9800gtx con un'occhio alla futura serei di schede ati. schede che insieme alla 9800gx2 almenno all'inizio dovrebbero reggere la botta in attesa di vederle all'opera e di altre sue schede come le precedenti ma dotate del chip g92b e per un ritorno di fiamma in fascia alta con il gt200.
manca poco ormai.
;)

J!MmΨ
30-04-2008, 11:06
Se l'estetica ha un suo peso in queste cose (e non lo ha :asd: ) mi sento di di dire che la 7900GTX è la più bella scheda reference che abbia mai visto :>

GUarda che anche l' estetica ha un suo peso, almeno per me :asd: comunque effettivamente la 7900gtx reference era veramente stupenda, ma debbo ammettere che anche il dissi nero delle 8800 ultra mi attirava parecchio, senza poi eliminare il dissi a cascata delle 9800gtx, molto bello imho. Bruttissime invece le vecchie schede di fascia media, con quel dissino che andrebbe bene anche ai puffi :asd: ricordate che la geffo mx 440 aveva addirittura un dissino passivo, che sembra quello dei nortbridge????:sofico:

jok3r87
30-04-2008, 11:07
128 mega 64 bit.

Quindi, anche se indirettamente, si può confermare il 1gb di vram a 512bit.

halduemilauno
30-04-2008, 11:12
Quindi, anche se indirettamente, si può confermare il 1gb di vram a 512bit.

indirettamente.

halduemilauno
30-04-2008, 16:19
http://www.vr-zone.com/articles/Nvidia_To_Go_55nm_%26_65nm_For_GeForce_9800_GT/5746.html

GeForce 9800 GT will be available on both 65nm and 55nm process as we learned. The 65nm version is actually a rebranded GeForce 8800 GT based on G92 core while the 55nm version is actually G92b core we have told you before. Both will be higher clocked than the 8800 GT. The reason is that Nvidia is not comfortable to go full fledge 55nm process like AMD so the 65nm version is more of a safety precaution just in case the yield from 55nm doesn't turn out well.

;)

-noxius-
30-04-2008, 16:53
Oppure che non vogliono giocarsi subito tutto a 55nm .. Che bello, chi possiede un G92 ha una 9xxx nel proprio case .. :rolleyes: Ma non potevano lanciarle subito con questo nome ? No , ci avrebbero guadagnato 1 sola volta ..

mircocatta
30-04-2008, 18:10
http://i114.photobucket.com/albums/n273/Wirmish/GPU-ZGT-200.png

;)

posso dire la mia? :O

un falso, per i 65nm

lo dico solo per autoconvincermi, visto che vorrei non mettere nel dimenticatoio il mio accelero s1 :D ...che se sarà a 65nm sarebbe troppo grande :(....

cmq nessun gioco mi fa pressione per prendere una 9900gtx o gts :D , grazie alla mia 8800gt :D .. quindi posso tranquillamente aspettare la 9900gx2 :D :D

J!MmΨ
30-04-2008, 21:15
posso dire la mia? :O

un falso, per i 65nm

lo dico solo per autoconvincermi, visto che vorrei non mettere nel dimenticatoio il mio accelero s1 :D ...che se sarà a 65nm sarebbe troppo grande :(....

cmq nessun gioco mi fa pressione per prendere una 9900gtx o gts :D , grazie alla mia 8800gt :D .. quindi posso tranquillamente aspettare la 9900gx2 :D :D

e perchè che gioco ti farà pressione per la 9900gx2???:asd:
:Perfido:

ArCH85
30-04-2008, 21:25
Ma un singolo chip di gddr3 può avere capienza massima di 128mb ?
Comunque se non ricordo ma questo dissipatore era abbastanza silenzioso, speriamo.

la 7900GTX (vedi firma) la ho in questo momento.. si, è molto silenziosa e devo dire che, senza OC, tiene la la temp molto bassa :)

se serve/interessa vi dico con riva quanto in idle/full.


Tornando a GT200 io non sto capendo più una mazza sinceramente :D

Gt200 = 9900GTX & 9900GTS giusto? e il dissi della GTX dovrebbe essere il TM71.. allora da dove diavolo salta fuori il rumor del dual gpu? quel dissi di base non è fatto per un doppio chip (e ovviamente non per un doppio pcb).. bho? :)

qualcuno mi illumina? :D

marco7773
30-04-2008, 22:42
Scusate ragazzi so che non è questo il trhead giusto ma o bisognio di capire subito che tipo di sistema devo prendere per il pc in firma,dato che nel trhead di vista non mi rispondono... secondo voi cosa è meglio per poter aquistare un sistema operativo (vista 64bit) inquanto non so quale siano le differenze dalle versioni...:confused:
-Pacchetto aggiornamento
-Oem
-Altro...
In poche parole vorrei un sistema che in caso di formattazzione lo possa rinstallare dinuovo sullo stesso pc...se avete delle delucidazioni da darmi sarò felice di ascoltarvi ancora una volta.Grazie

Un ultima cosa o trovato su trova prezzi in uno shop tra l'altro dove avevo fatto già una volta un aquisto il Windwos Vista Ultimate 64bit italiano a poco più di 200 euri,secondo voi è possibile un prezzo cosi? (diciamo basso)...non credo sia la versione di aggiornamento,se volete vi do il link.
__________________

ArCH85
30-04-2008, 23:44
Scusate ragazzi so che non è questo il trhead giusto ma o bisognio di capire subito che tipo di sistema devo prendere per il pc in firma,dato che nel trhead di vista non mi rispondono... secondo voi cosa è meglio per poter aquistare un sistema operativo (vista 64bit) inquanto non so quale siano le differenze dalle versioni...:confused:
-Pacchetto aggiornamento
-Oem
-Altro...
In poche parole vorrei un sistema che in caso di formattazzione lo possa rinstallare dinuovo sullo stesso pc...se avete delle delucidazioni da darmi sarò felice di ascoltarvi ancora una volta.Grazie

Un ultima cosa o trovato su trova prezzi in uno shop tra l'altro dove avevo fatto già una volta un aquisto il Windwos Vista Ultimate 64bit italiano a poco più di 200 euri,secondo voi è possibile un prezzo cosi? (diciamo basso)...non credo sia la versione di aggiornamento,se volete vi do il link.
__________________


bho io ho dato un'occhiata veloce e secondo me se devi farne un uso da privato la ultimate non serve a un ciufolo :P

prenditi la versione base con Aero.. non mi ricordo ma mi sembra si chiami premium..

mircocatta
30-04-2008, 23:53
e perchè che gioco ti farà pressione per la 9900gx2???:asd:
:Perfido:

nessuno, ma almeno avrò il meglio per un bel po:sofico:

J!MmΨ
30-04-2008, 23:59
nessuno, ma almeno avrò il meglio per un bel po:sofico:

arguto il ragazzo :sofico: :p

usa9999999999
01-05-2008, 09:39
http://i114.photobucket.com/albums/n273/Wirmish/GPU-ZGT-200.png

;)

Però, niente male davvero... :sbav: :sofico:

halduemilauno
01-05-2008, 10:11
posso dire la mia? :O

un falso, per i 65nm

lo dico solo per autoconvincermi, visto che vorrei non mettere nel dimenticatoio il mio accelero s1 :D ...che se sarà a 65nm sarebbe troppo grande :(....

cmq nessun gioco mi fa pressione per prendere una 9900gtx o gts :D , grazie alla mia 8800gt :D .. quindi posso tranquillamente aspettare la 9900gx2 :D :D

notare il die size. e poi quell'immagine è di un due settimane fa e la scheda sarà di un fra due mesi. e poi il problema 65nm in questo caso è un falso problema nvidia deve eventualmente economizzare i costi e quindi agire sul pp per la massa delle schede non di quelle che si venderanno agli enthusiast che ovviamente rappresentano il 3/5% delle vendite.

;)

mircocatta
01-05-2008, 10:15
notare il die size. e poi quell'immagine è di un due settimane fa e la scheda sarà di un fra due mesi. e poi il problema 65nm in questo caso è un falso problema nvidia deve eventualmente economizzare i costi e quindi agire sul pp per la massa delle schede non di quelle che si venderanno agli enthusiast che ovviamente rappresentano il 3/5% delle vendite.

;)

bè una 9900gtx a 55nm in confronto a 65nm permetterebbe un overclock maggiore, cioè dare ancora più importanza alla fascia enthusiast...
se sarà così sarà un forno a microonde..

halduemilauno
01-05-2008, 10:20
bè una 9900gtx a 55nm in confronto a 65nm permetterebbe un overclock maggiore, cioè dare ancora più importanza alla fascia enthusiast...
se sarà così sarà un forno a microonde..

quello è evidente io rispondevo a te che dicevi falso perchè a 65nm e dicendo per primo che ci sarebbe il tempo per adottare il 55nm.
;)

jok3r87
01-05-2008, 11:10
bè una 9900gtx a 55nm in confronto a 65nm permetterebbe un overclock maggiore, cioè dare ancora più importanza alla fascia enthusiast...
se sarà così sarà un forno a microonde..

Ma se il processo non è affinato potrebbe non salire in OC, cosi come potrebbe avere rese produttive cosi basse da rendere il prezzo della scheda davvero eccessivo. Meglio un 65nm affinato che un 55nm grezzo.

appleroof
01-05-2008, 11:53
Scusate ragazzi so che non è questo il trhead giusto ma o bisognio di capire subito che tipo di sistema devo prendere per il pc in firma,dato che nel trhead di vista non mi rispondono... secondo voi cosa è meglio per poter aquistare un sistema operativo (vista 64bit) inquanto non so quale siano le differenze dalle versioni...:confused:
-Pacchetto aggiornamento
-Oem
-Altro...
In poche parole vorrei un sistema che in caso di formattazzione lo possa rinstallare dinuovo sullo stesso pc...se avete delle delucidazioni da darmi sarò felice di ascoltarvi ancora una volta.Grazie

Un ultima cosa o trovato su trova prezzi in uno shop tra l'altro dove avevo fatto già una volta un aquisto il Windwos Vista Ultimate 64bit italiano a poco più di 200 euri,secondo voi è possibile un prezzo cosi? (diciamo basso)...non credo sia la versione di aggiornamento,se volete vi do il link.
__________________

la Oem la puoi reinstallare, sullo stesso pc, all'infinito. quando cambi pezzi, lo puoi riattivare al max 5 volte al telefono (secondo la politica attuale M$, ma nulla vieta loro di non riattivare più il seriale perchè così decidono, quindi nessuna garanzia su questo) -cioè ad esempio cambi hd, è una volta, cambi procio e vga, è un'altra volta ecc-

quanto alla versione, io ho trovato la 64 ultimate a molto meno di 200 euri, e al alncio, quindi ti consiglio di cercare meglio cmq la home premium và già benissimo per un uso "standard" ;)


http://www.vr-zone.com/articles/GeForce_9900_GTX_is_10.5-inch_Long%2C_Dual_Slot/5740.html

VR-Zone got to know that the GeForce 9900 GTX card is 10.5" long, full height and dual slot and the cooler is TM71 from CoolerMaster. Dubbed GT200 or D10U, we heard that this architecture might be dual chip with TDP up to 240W.

ecco il TM71.
http://www.pctuning.cz/ilustrace2/stefek/Asus_gf7900gtx/Asus_GF7900GTX_cooler2_small.jpg


;)

come ho fatto a farmi sfuggire questa? :sbav: :sbav:

Marko91
01-05-2008, 16:35
http://i114.photobucket.com/albums/n273/Wirmish/GPU-ZGT-200.png

Rispetto ad una 9800gtx:

potenza shader: 54% in più
TMU: 50% in più
Bandwidth: 115% in più
die-size: 45% in più

Le prestazioni dovrebbe aggirarsi tra il 40% e il 60% in più quindi...

usa9999999999
01-05-2008, 16:41
-cut-
Rispetto ad una 9800gtx:

potenza shader: 54% in più
TMU: 50% in più
Bandwidth: 115% in più
die-size: 45% in più

Le prestazioni dovrebbe aggirarsi tra il 40% e il 60% in più quindi...

Mica male... :sbav:

@ndrey
01-05-2008, 16:56
http://i114.photobucket.com/albums/n273/Wirmish/GPU-ZGT-200.png

Rispetto ad una 9800gtx:

potenza shader: 54% in più
TMU: 50% in più
Bandwidth: 115% in più
die-size: 45% in più

Le prestazioni dovrebbe aggirarsi tra il 40% e il 60% in più quindi...

e consumi +40/60% :D

ArCH85
01-05-2008, 17:46
Mica male... :sbav:


mi sembra comunque lontano dal 100% in più di cui si parlava però..

-noxius-
01-05-2008, 18:04
mi sembra comunque lontano dal 100% in più di cui si parlava però..

Anche perchè allora sembrerebbe prestazionale quanto uno SLI ..

halduemilauno
01-05-2008, 18:08
http://i114.photobucket.com/albums/n273/Wirmish/GPU-ZGT-200.png

Rispetto ad una 9800gtx:

potenza shader: 54% in più
TMU: 50% in più
Bandwidth: 115% in più
die-size: 45% in più

Le prestazioni dovrebbe aggirarsi tra il 40% e il 60% in più quindi...

e il doppio di rops.
;)

Mister Tarpone
01-05-2008, 18:16
e il doppio di rops.
;)

http://img260.imageshack.us/img260/1876/dentoneag5.gif (http://imageshack.us)

ale0bello0pr
01-05-2008, 18:29
mi sembra comunque lontano dal 100% in più di cui si parlava però..


e chi parlava di doppio?:confused:
ma il 50% di prestazioni in piu di certo non è un remake fatto male piuttosto una vera generazione nuova possiamo dire....

awaiting in progress ;) :sbav:

appleroof
01-05-2008, 18:33
http://i114.photobucket.com/albums/n273/Wirmish/GPU-ZGT-200.png

Rispetto ad una 9800gtx:

potenza shader: 54% in più
TMU: 50% in più
Bandwidth: 115% in più
die-size: 45% in più

Le prestazioni dovrebbe aggirarsi tra il 40% e il 60% in più quindi...

che schifo...:asd: :asd:

DriftKing
01-05-2008, 18:45
che schifo...:asd: :asd:

:asd:

Mister Tarpone
01-05-2008, 18:45
che schifo...:asd: :asd:

praticamente andrebbe come una 9800GX2 http://img260.imageshack.us/img260/1876/dentoneag5.gif (http://imageshack.us) !!!!!

@ndrey
01-05-2008, 18:46
se prestazioni dovrebbe aggirarsi tra il 40% e il 60% in+ .., allora in Crysis fara 30fps in dx10, visto che la 9800 gira si e no a 20fps da 1680x1050 in su
Naturalmente senza aa :asd:

@ndrey
01-05-2008, 18:47
praticamente andrebbe come una 9800GX2 http://img260.imageshack.us/img260/1876/dentoneag5.gif (http://imageshack.us) !!!!!

ma non credo proprio :O

ale0bello0pr
01-05-2008, 18:47
praticamente andrebbe come una 9800GX2 http://img260.imageshack.us/img260/1876/dentoneag5.gif (http://imageshack.us) !!!!!

:asd:

Mister Tarpone
01-05-2008, 18:48
ma non credo proprio :O

perchè?? http://img260.imageshack.us/img260/1876/dentoneag5.gif (http://imageshack.us)

la 9800Gx2 mi sembra vada proprio un 50% in + della 9800GTX... http://img260.imageshack.us/img260/1876/dentoneag5.gif (http://imageshack.us)

@ndrey
01-05-2008, 18:52
perchè?? http://img260.imageshack.us/img260/1876/dentoneag5.gif (http://imageshack.us)

la 9800Gx2 mi sembra vada proprio un 50% in + della 9800GTX... http://img260.imageshack.us/img260/1876/dentoneag5.gif (http://imageshack.us)

va di piu di 50% :O poi cmq i driver fanno :Puke: :banned:

appleroof
01-05-2008, 18:58
praticamente andrebbe come una 9800GX2 http://img260.imageshack.us/img260/1876/dentoneag5.gif (http://imageshack.us) !!!!!

e senza le magagne e le incognite dello SLi, almeno com'è stato finora

inoltre sono fiducioso che andrà anche meglio di così....:)

Mister Tarpone
01-05-2008, 19:00
inoltre sono fiducioso che andrà anche meglio di così....:)

anche secondo me.... ;)

halduemilauno
01-05-2008, 19:01
praticamente andrebbe come una 9800GX2 http://img260.imageshack.us/img260/1876/dentoneag5.gif (http://imageshack.us) !!!!!

credo proprio ben di +.
;)

appleroof
01-05-2008, 19:04
credo proprio ben di +.
;)

pur con tutte le proverbiali cautele intanto

:sbav: :sbav: :sbav: :sbav:


:D

cmq personalmente se già uguagliasse o superasse di poco la GX2 (nella sua migliore forma, quando cioè tutto và alla grande) sarei soddisfattissimo, sarebbe cmq un degno cambio della Gloriosa

Ale29
01-05-2008, 19:08
Vi ricordate 7950gx2 contro 8800gtx? ecco...
La 7950gx2 andava come la gts nei giochi in cui lo sli andava bene (a volte di piu, altre di meno...).

Skullcrusher
01-05-2008, 19:09
e senza le magagne e le incognite dello SLi, almeno com'è stato finora

inoltre sono fiducioso che andrà anche meglio di così....:)

Devo dire che non è così incasinato come pare, basta abituarsi ai profili e poi si viaggia alla grande. E' però innegabile che una vga single chip è molto più immediata da usare e sicuramente meglio supportata, non ci piove :asd:

credo proprio ben di +.
;)

E noi siamo qua che preghiamo accada veramente :D

ArCH85
01-05-2008, 22:35
credo proprio ben di +.
;)


e se lo dice hal, non posso che fidarmi :D

Aironenero
01-05-2008, 22:52
E se andasse di - ? :p

Alexkidd85
02-05-2008, 00:05
pur con tutte le proverbiali cautele intanto

:sbav: :sbav: :sbav: :sbav:


:D

cmq personalmente se già uguagliasse o superasse di poco la GX2 (nella sua migliore forma, quando cioè tutto và alla grande) sarei soddisfattissimo, sarebbe cmq un degno cambio della Gloriosa

E non abbiamo contato l'overclock...chi lo sa che non si prospetti un largo margine di overclock :D

credo proprio ben di +.
;)

Vi ricordate 7950gx2 contro 8800gtx? ecco...
La 7950gx2 andava come la gts nei giochi in cui lo sli andava bene (a volte di piu, altre di meno...).

Appunto...tutto crollerebbe se fosse un dual gpu o comunque una singola gpu con due core (che secondo me non cambia il problema dell'ottimizzazione dei giochi nel sfruttarli entrambi)
Non sarà più un 40/60 % ma un 40 / 2 % a secondo del gioco più o meno ottimizzato e dai driver...

Marko91
02-05-2008, 10:08
credo proprio ben di +.
;)

Con quelle specifiche non può superare di molto la GX2, se viene mantenuta la stessa architettura di G92 come sembra. A meno che tu non sappia che quelle non sono le reali specifiche, su quali basi affermi ciò?

zorco
02-05-2008, 10:10
http://www.tomshw.it/news.php?newsid=13908

Nel corso degli ultimi giorni sono trapelate nuove indiscrezioni sulla prossima scheda video nVidia della serie 9, la GeForce 9800 GT. Rispetto a quanto riportato in precedenza, sembra che saranno impiegati due core, identici, ma realizzati con due processi produttivi diversi: il primo a 65 nanometri, il secondo a 55 nanometri. In breve, le prime schede integreranno un core G92 realizzato a 65 nanometri, mentre nei mesi a venire le schede integreranno una soluzione a 55 nanometri. Questo cambiamento non dovrebbe incidere sulle prestazioni, ma sui consumi e forse sul sistema di raffreddamento adottato.

Il motivo di questa scelta, come riporta Vr-Zone, sarebbe da addebitarsi a problemi di resa con il processo produttivo a 55 nanometri, peraltro già utilizzato con successo dalla rivale ATI. Per quanto riguarda le frequenze, la scheda dovrebbe essere disponibile in due versioni, rispettivamente con 256 MB (frequenza a 900 MHz) e 512 MB (975 MHz) di memoria rigorosamente GDDR3. Frequenza del core e degli stream processor sono ancora ignote.

halduemilauno
02-05-2008, 10:17
Con quelle specifiche non può superare di molto la GX2, se viene mantenuta la stessa architettura di G92 come sembra. A meno che tu non sappia che quelle non sono le reali specifiche, su quali basi affermi ciò?

su questo specifico argomento ripeto quanto so e gia detto. il doppio(+ o -)della 8800gtx. ora rispetto alla 9800gx2 fai/fate le debite proporzioni.
;)

zorco
02-05-2008, 10:21
su questo specifico argomento ripeto quanto so e gia detto. il doppio(+ o -)della 8800gtx. ora rispetto alla 9800gx2 fai/fate le debite proporzioni.
;)
e circa 50% in + rispetto alla GX2 ....

halduemilauno
02-05-2008, 10:39
e circa 50% in + rispetto alla GX2 ....

e a essere + pessimisti/realisti almeno un buon 30% in +.

zorco
02-05-2008, 10:45
e a essere + pessimisti/realisti almeno un buon 30% in +.
sarebbe ugualmente un risultato ragguardevole,non ci resta che attendere che questo mostro abbia luce..:D

Athlon 64 3000+
02-05-2008, 10:46
Se pensi che la 9900GTX andrà il doppio della 8800GTX nonostante i soli 50% in più di stream processor non è possibilie che ogni stream processor sia magari stato modficato e potenziato rispetto a quelli di G80 che fa si che l'incremento sia maggiore del solo 50%.
Quanto può influire il passaggio da 24 a 32 rop's da G80 a GT200 nelle prestazioni?

halduemilauno
02-05-2008, 10:57
Se pensi che la 9900GTX andrà il doppio della 8800GTX nonostante i soli 50% in più di stream processor non è possibilie che ogni stream processor sia magari stato modficato e potenziato rispetto a quelli di G80 che fa si che l'incremento sia maggiore del solo 50%.
Quanto può influire il passaggio da 24 a 32 rop's da G80 a GT200 nelle prestazioni?

perchè tu riduci tutto a quello devi vedere tutto l'insieme.
8800gtx 128 shader, 24 rops, 64 tu, 575/1350/1800, 384 bit, 768 mega.
9900gtx 192 shader, 32 rops, 96 tu, 675/1688/2300, 512 bit, 1024 mega.
;)

Marko#88
02-05-2008, 11:26
Vi ricordate 7950gx2 contro 8800gtx? ecco...
La 7950gx2 andava come la gts nei giochi in cui lo sli andava bene (a volte di piu, altre di meno...).

vero anche se li il cambio di architettura era più brutale...

A.L.M.
02-05-2008, 11:26
Se pensi che la 9900GTX andrà il doppio della 8800GTX nonostante i soli 50% in più di stream processor non è possibilie che ogni stream processor sia magari stato modficato e potenziato rispetto a quelli di G80 che fa si che l'incremento sia maggiore del solo 50%.
Quanto può influire il passaggio da 24 a 32 rop's da G80 a GT200 nelle prestazioni?

Mah...
Il passaggio G80/G92->GT200 è lo stesso che ci fu da NV40 a G70. Le uniche vere differenze tra questi 2 passaggi all'interno della stessa architettura saranno il fortissimo incremento di banda e l'incremento anche delle ROPs (anzi, potrebbe pure essere che il cambiamento a livello di architettura rispetto all'high end precedente sia inferiore in GT200 rispetto a G70).
Le seconde non daranno un margine enorme, imho, visto che per anni le hanno potute tenere "ferme" a 16 per la fascia alta, senza alcun problema (ovviamente modificandole adeguatamente).

Ecco cosa dice Gpureview a proposito delle ROPs:
Raster Operators (ROPs) handle several chores near the end of the of the pixel pipeline. ROPs handle anti-aliasing, Z and color compression, and the actual writing of the pixel to the output buffer.

Recently nVidia has been reducing the number of ROPs on their graphics cards as shading power gets more and more important. For example, the 6600GT had 8 fragment pipelines, but only 4 ROPs. However, in just about any modern game, far more than 1 cycle is spent shading each pixel. Thus, cards with the same number of ROPs as fragment pipelines would end up with ROPs sitting idle waiting for input.

The move towards fewer ROPs than fragment pipelines is a way gpu designers eliminate unneeded complexity from their chips without sacrificing performance. And less complexity means higher speeds and better yields will be attainable.

Sarà interessante capire piuttosto quale edge prestazionale darà la banda...
Inoltre sono curioso di sapere quale tecnologia NVidia userà per il bus. Su Rage3D c'è il solito cinese/taiwanese beninformato ( :asd: ) che parla di una superficie addirittura compresa tra 565mm² e 585mm²... :eek:
In quel caso sarebbe sicuramente un crossbar.
http://rage3d.com/board/showpost.php?p=1335442643&postcount=436

vero anche se li il cambio di architettura era più brutale...

Non solo. A ben vedere tra la 7950GX2 e G80 c'era pure una enorme differenza di shading power, a prescindere. ;)

appleroof
02-05-2008, 12:32
Devo dire che non è così incasinato come pare, basta abituarsi ai profili e poi si viaggia alla grande. E' però innegabile che una vga single chip è molto più immediata da usare e sicuramente meglio supportata, non ci piove :asd:
cut

si non parlo dei settaggi (non ho mai avuto una conf. sli, credo che il "grosso" sia che per ogni gioco devi settare il relativo profilo nei driver) ma parlo proprio del supporto che, a quello che leggo in giro, crea numerose magagne in modo che le schede in conf. sli (inclusa la gx2 quindi) non siano sfruttate sempre e cmq al 100% delle loro possibilità

questo è il motivo per cui mi tengo ben alla larga da schede dual o cmq dallo sli (il discorso vale anche per il CF, addirittura la 3870x2 sembra dare più magagne che 2x3870 :rolleyes: ) ma se le cose dovessero cambiare (e parlo anche del fatto che raddoppiare la gpu non vuol dire cmq raddoppiare le prestazioni, anche quando và bene, per una serie di colli di bottiglia più sw appunto che hw) sarei il primo a passare a quelle conf. non ho pregiudizi in merito :D

Skullcrusher
02-05-2008, 12:58
si non parlo dei settaggi (non ho mai avuto una conf. sli, credo che il "grosso" sia che per ogni gioco devi settare il relativo profilo nei driver) ma parlo proprio del supporto che, a quello che leggo in giro, crea numerose magagne in modo che le schede in conf. sli (inclusa la gx2 quindi) non siano sfruttate sempre e cmq al 100% delle loro possibilità

questo è il motivo per cui mi tengo ben alla larga da schede dual o cmq dallo sli (il discorso vale anche per il CF, addirittura la 3870x2 sembra dare più magagne che 2x3870 :rolleyes: ) ma se le cose dovessero cambiare (e parlo anche del fatto che raddoppiare la gpu non vuol dire cmq raddoppiare le prestazioni, anche quando và bene, per una serie di colli di bottiglia più sw appunto che hw) sarei il primo a passare a quelle conf. non ho pregiudizi in merito :D

Capito :D

Io sono passato alla GX2 per una serie di circostanze che mi hanno portato a vendere la GTX e ripiegare sulla GX2, in attesa di GT200 o quel che uscirà.

Marko91
02-05-2008, 13:06
perchè tu riduci tutto a quello devi vedere tutto l'insieme.
8800gtx 128 shader, 24 rops, 64 tu, 575/1350/1800, 384 bit, 768 mega.
9900gtx 192 shader, 32 rops, 96 tu, 675/1688/2300, 512 bit, 1024 mega.
;)

Potenza shader: 87,5% in più
Potenza tfu: 76% in più
Potenza tau: 252% in più
ROPS: 56% in più.
Bandwitdh: 70% in più.

Sono aumenti molto grossi, ma anche G92 rispetto a G80 aveva degli aumenti consistenti nello shading e nelle tau ma le prestazioni non sono aumentate di molto. Inoltre, come ribadito più volte da A.L.M, le prestazioni del G80/G92 non aumentano proporzionalmente all'aumentare della potenza degli shader.
Sicuramente sarà una scheda eccezionale, ma dubito seriamente che andrà il 100% in più di una 8800GTX e oltre...

Mister Tarpone
02-05-2008, 13:10
Potenza shader: 87,5% in più
Potenza tfu: 76% in più
Potenza tau: 252% in più
ROPS: 56% in più.
Bandwitdh: 70% in più.

Sono aumenti molto grossi, ma anche G92 rispetto a G80 aveva degli aumenti consistenti nello shading e nelle tau ma le prestazioni non sono aumentate di molto. Inoltre, come ribadito più volte da A.L.M, le prestazioni del G80/G92 non aumentano proporzionalmente all'aumentare della potenza degli shader.
Sicuramente sarà una scheda eccezionale, ma dubito seriamente che andrà il 100% in più di una 8800GTX e oltre...

ma dove??? :confused:
sbaglio o le G92 non hanno superato i 128sp delle prime g80 gtx?? :confused:

Marko91
02-05-2008, 13:31
ma dove??? :confused:
sbaglio o le G92 non hanno superato i 128sp delle prime g80 gtx?? :confused:

Si, ma le frequenze erano più alte di circa il 20%.

halduemilauno
02-05-2008, 13:40
Potenza shader: 87,5% in più
Potenza tfu: 76% in più
Potenza tau: 252% in più
ROPS: 56% in più.
Bandwitdh: 70% in più.

Sono aumenti molto grossi, ma anche G92 rispetto a G80 aveva degli aumenti consistenti nello shading e nelle tau ma le prestazioni non sono aumentate di molto. Inoltre, come ribadito più volte da A.L.M, le prestazioni del G80/G92 non aumentano proporzionalmente all'aumentare della potenza degli shader. Sicuramente sarà una scheda eccezionale, ma dubito seriamente che andrà il 100% in più di una 8800GTX e oltre...

nel primo grassetto un'errore.
nel secondo due, uno + grave dell'altro.

usa9999999999
02-05-2008, 13:48
nel primo grassetto un'errore.
nel secondo due, uno + grave dell'altro.

Ahia: male, molto male... :nono: :D

appleroof
02-05-2008, 14:06
Potenza shader: 87,5% in più
Potenza tfu: 76% in più
Potenza tau: 252% in più
ROPS: 56% in più.
Bandwitdh: 70% in più.

Sono aumenti molto grossi, ma anche G92 rispetto a G80 aveva degli aumenti consistenti nello shading e nelle tau ma le prestazioni non sono aumentate di molto. Inoltre, come ribadito più volte da A.L.M, le prestazioni del G80/G92 non aumentano proporzionalmente all'aumentare della potenza degli shader.
Sicuramente sarà una scheda eccezionale, ma dubito seriamente che andrà il 100% in più di una 8800GTX e oltre...

ma dove??? :confused:
sbaglio o le G92 non hanno superato i 128sp delle prime g80 gtx?? :confused:

quoto Tarpo

non si considera l'aumento del numero fisico degli sp, oltre alla frequenza degli stessi, rispetto a g80

per il resto, direi che sono percentuali in più assolutamente eccellenti, se la scheda non andrà il doppio di g80 secondo me poco ci mancherà ;)

halduemilauno
02-05-2008, 14:18
Ahia: male, molto male... :nono: :D

quoto Tarpo

non si considera l'aumento del numero fisico degli sp, oltre alla frequenza degli stessi, rispetto a g80

per il resto, direi che sono percentuali in più assolutamente eccellenti, se la scheda non andrà il doppio di g80 secondo me poco ci mancherà ;)

come al solito si fanno paragoni limitati e sbagliati. in questo specifico il paragone ha valenza quando si paragona il g92 alle 8800gts 320/640 ove la differenza di shader e tu è evidente e le prestazioni di conseguenza è chiaro che dire le prestazioni cambiano di poco son cambiate poco quando si trattava di confrontare i 128 shader del g92 con i 128 delle 8800gtx/ultra. che poi compensavano pure con maggior rops, bus e ram. ripeto i paragoni/confronti si devono fare nel complesso dell'architettura/schede e se ci vogliamo limitare ad un solo aspetto facciamolo bene.
ecco i due errori dell'amico.
;)

appleroof
02-05-2008, 14:32
come al solito si fanno paragoni limitati e sbagliati. in questo specifico il paragone ha valenza quando si paragona il g92 alle 8800gts 320/640 ove la differenza di shader e tu è evidente e le prestazioni di conseguenza è chiaro che dire le prestazioni cambiano di poco son cambiate poco quando si trattava di confrontare i 128 shader del g92 con i 128 delle 8800gtx/ultra. che poi compensavano pure con maggior rops, bus e ram. ripeto i paragoni/confronti si devono fare nel complesso dell'architettura/schede e se ci vogliamo limitare ad un solo aspetto facciamolo bene.
ecco i due errori dell'amico.
;)

quoterrimo

usa9999999999
02-05-2008, 14:47
come al solito si fanno paragoni limitati e sbagliati. in questo specifico il paragone ha valenza quando si paragona il g92 alle 8800gts 320/640 ove la differenza di shader e tu è evidente e le prestazioni di conseguenza è chiaro che dire le prestazioni cambiano di poco son cambiate poco quando si trattava di confrontare i 128 shader del g92 con i 128 delle 8800gtx/ultra. che poi compensavano pure con maggior rops, bus e ram. ripeto i paragoni/confronti si devono fare nel complesso dell'architettura/schede e se ci vogliamo limitare ad un solo aspetto facciamolo bene.
ecco i due errori dell'amico.
;)

Grande maestro Hal, sei insuperabile. :ave: :D

mircocatta
02-05-2008, 15:20
che strano, quando uscì g92 osai dire che aveva un "core" migliore rispetto a g80 ma che per colpa di minor memoria, banda passante e meno rop's le prestazioni si sono livellate..
ora vedo con piacere che non sono l'unico a pensarlo..

a mio avviso un g92 con quella banda passante e quella memoria sarebbe già MOLTO superiore a una 8800ultra.. figuriamoci ora dove arriverebbe gt200 con tutta quella roba..

A.L.M.
02-05-2008, 15:42
come al solito si fanno paragoni limitati e sbagliati. in questo specifico il paragone ha valenza quando si paragona il g92 alle 8800gts 320/640 ove la differenza di shader e tu è evidente e le prestazioni di conseguenza è chiaro che dire le prestazioni cambiano di poco son cambiate poco quando si trattava di confrontare i 128 shader del g92 con i 128 delle 8800gtx/ultra. che poi compensavano pure con maggior rops, bus e ram. ripeto i paragoni/confronti si devono fare nel complesso dell'architettura/schede e se ci vogliamo limitare ad un solo aspetto facciamolo bene.
ecco i due errori dell'amico.
;)

In realtà il confronto G94 vs G92 GTX e G92 GTX vs GT200 ci sta benissimo, mentre non mi pare che nessuno abbia fatto il paragone con la G80GTS 640.
Detto questo, quello che intendevo con i miei interventi era che storicamente non c'è mai stato un raddoppio prestazionale rispetto alla serie precedente nella storia recente delle schede video (G80, G70, NV40, ecc...) senza almeno un raddoppio della potenza di shading. E questo non mi pare si possa negare. ;)

appleroof
02-05-2008, 16:28
un pò vecchiotto (non sò se già postato) ma confermerebbe le date di presentazione (che sono quelle che mi premono di più :asd: :asd: ) : computex del 3 giugno prossimo


After the NVIDIA financial analyst call last week, the company briefly hinted at its upcoming roadmap this year.

AMD's RV770 architecture, set to launch this summer, will be immediately followed by a new graphics architecture from NVIDIA, codenamed GT200. GeForce 9900, as it's been dubbed, is not simply a derivation of G92 like the current GeForce 9800 GX2 and GTX offerings.

NVIDIA has been extremely tight-lipped about GeForce 9900, as it overlaps considerably with its current high-end offerings. NVIDIA's latest flagship products, the GeForce 9800 GTX and GeForce GX2 only made their debut last month. Unlike the GeForce 9900, these cards were once again based on the G92 die -- nearly the same GPU used in the GeForce 8800 GT.

Original NVIDIA roadmaps put the GT200 launch in late Fall 2008. However internal memos sent out to board partners in early March detail that the GT200 processor has already been taped out. The same document alludes to the fact that the GT200 chip is very stable, and has been ready to ship for reference designs for several weeks already.

The company gave no reason for the tentative roll-in, but with AMD launching the successor to successful RV670 (Radeon 3850, 3870) this summer, it seems entirely plausible that NVIDIA anticipates another close race.

AMD partners claim Radeon RV770 will make its debut this summer under $300. NVIDIA's 9900 is currently scheduled as an ultra-high end adapter to be priced higher than the GeForce 9800 GX2 offerings, which retail for more than $500 today.

Channel partners indicate that the 9800 GTX and GX2 will begin phasing out next month in preparation for the GT200 launch. Both companies have made promises to show demonstrations of their next-gen cards at the Computex Taipei trade show on June 3, 2008

http://www.dailytech.com/NVIDIA+AMD+Set+to+Square+Off+Once+Again+This+Summer/article11451.htm

quindi il chip sarebbe pronto da marzo: da sbellicarsi pensando a quanti irridevano l'ipotesi che Nvidia avesse pronto il successore di g80/g92 ma non lo cacciasse in attesa di rv770 (addirittura qualcuno diceva che Nvidia aveva grossi problemi con gt200 :asd: )



p.s.: prezzo maggiore di 9800gx2 (di conseguenza di sicuro prestazioni maggiori)

appleroof
02-05-2008, 16:50
In realtà il confronto G94 vs G92 GTX e G92 GTX vs GT200 ci sta benissimo, mentre non mi pare che nessuno abbia fatto il paragone con la G80GTS 640.
Detto questo, quello che intendevo con i miei interventi era che storicamente non c'è mai stato un raddoppio prestazionale rispetto alla serie precedente nella storia recente delle schede video (G80, G70, NV40, ecc...) senza almeno un raddoppio della potenza di shading. E questo non mi pare si possa negare. ;)

allora questo (senza considerare il resto)

The clusters have changed from 16 shaders per cluster to 24 per cluster, most likely MADD + MUL, and 10 clusters with the high-end part, which means 240 shaders all in all. These will be accompanied by 32 ROPs, 120 TMUs and 120 TFUs. The core clock will hopefully be in the area of 600-650MHz, which means shader clocks around 1500MHz.

http://www.nordichardware.com/news,7644.html

potrebbe fare al caso :D

cmq una 9900gtx farebbe davvero paura, se già quella più "accreditata" (192sp ecc) sembra un mostro, chissà.....

halduemilauno
02-05-2008, 16:58
In realtà il confronto G94 vs G92 GTX e G92 GTX vs GT200 ci sta benissimo, mentre non mi pare che nessuno abbia fatto il paragone con la G80GTS 640.Detto questo, quello che intendevo con i miei interventi era che storicamente non c'è mai stato un raddoppio prestazionale rispetto alla serie precedente nella storia recente delle schede video (G80, G70, NV40, ecc...) senza almeno un raddoppio della potenza di shading. E questo non mi pare si possa negare. ;)

Potenza shader: 87,5% in più
Potenza tfu: 76% in più
Potenza tau: 252% in più
ROPS: 56% in più.
Bandwitdh: 70% in più.

Sono aumenti molto grossi, ma anche G92 rispetto a G80 aveva degli aumenti consistenti nello shading e nelle tau ma le prestazioni non sono aumentate di molto. Inoltre, come ribadito più volte da A.L.M, le prestazioni del G80/G92 non aumentano proporzionalmente all'aumentare della potenza degli shader.
Sicuramente sarà una scheda eccezionale, ma dubito seriamente che andrà il 100% in più di una 8800GTX e oltre...

g92 vs g80. e dato che si parlava di variazioni numero shader e tu e relative variazioni di prestazioni io ho fatto presente che in presenza di variazioni del numero shader e di tu le prestazioni cambiano eccome se cambiano. ripeto di g92(8800gts512/9800gtx)vs g80(8800gts320/640)ovvero il massimo di shader/tu del g92 vs il minimo in shader/tu del g80. nonostante anche quelle g80 avessero + bus, + rops e in un caso anche + ram.
ora tra g92 e gt200 le modifiche sono/saranno ben + corpose e su tutta la linea.

A.L.M.
02-05-2008, 16:59
allora questo (senza considerare il resto)

The clusters have changed from 16 shaders per cluster to 24 per cluster, most likely MADD + MUL, and 10 clusters with the high-end part, which means 240 shaders all in all. These will be accompanied by 32 ROPs, 120 TMUs and 120 TFUs. The core clock will hopefully be in the area of 600-650MHz, which means shader clocks around 1500MHz.

http://www.nordichardware.com/news,7644.html

potrebbe fare al caso :D

cmq una 9900gtx farebbe davvero paura, se già quella più "accreditata" (192sp ecc) sembra un mostro, chissà.....

Ma in quel caso sarei perfettamente d'accordo nel dire che una scheda con quelle specifiche possa andare il doppio di una 8800GTX. ;)

halduemilauno
02-05-2008, 17:08
che strano, quando uscì g92 osai dire che aveva un "core" migliore rispetto a g80 ma che per colpa di minor memoria, banda passante e meno rop's le prestazioni si sono livellate..
ora vedo con piacere che non sono l'unico a pensarlo..

a mio avviso un g92 con quella banda passante e quella memoria sarebbe già MOLTO superiore a una 8800ultra.. figuriamoci ora dove arriverebbe gt200 con tutta quella roba..

ma solo nei confronti delle g80 che potevano vantare la parità nel numero degli shader e tu come le 8800gtx e ultra perchè nei confronti delle altre con meno shader e tu ma con + rops, bus e ram(8800gts320/640)non c'è match. cmq è vero si pensava che la 9800gtx superasse anche quelle ma si è invece dato quel ruolo alla 9800gx2 e come hai detto tu una 9800gtx + prestante non solo avrebbe distanziato le sopracitate ma appunto avrebbe dato fastidio anche alla 9800gx2 impensabile per una scheda che doveva esser collocata in una precisa fascia di prezzo ben + bassa.

appleroof
02-05-2008, 17:15
Ma in quel caso sarei perfettamente d'accordo nel dire che una scheda con quelle specifiche possa andare il doppio di una 8800GTX. ;)

non so, stiamo ai rumors più accreditati che vedono la 99gtx a 192sp e tutto il resto

se poi questa dovesse addirittura invece essere la 99gts :eek: e la gtx invece quella ipotizzata prima (240sp) :eek: :eek: ci sarà davvero da divertirsi :sofico:

pierluigi86
02-05-2008, 17:23
secondo voi questo gt200 sarà a 55nm o a 65nm?

DriftKing
02-05-2008, 17:49
secondo voi questo gt200 sarà a 55nm o a 65nm?

secondo me sara a 55nm ... :sperem: ...

-noxius-
02-05-2008, 17:50
non so, stiamo ai rumors più accreditati che vedono la 99gtx a 192sp e tutto il resto

se poi questa dovesse addirittura invece essere la 99gts :eek: e la gtx invece quella ipotizzata prima (240sp) :eek: :eek: ci sarà davvero da divertirsi :sofico:

Mi sa che state giocando troppo con la fantasia ... vabbè che ati rilascierà le nuove 4xxx ma 192 SP e tutto il resto , direi che per nVIDIA sarebbero già abbastanza ;) .

Speriamo solo che le nuove proposte di ati siano concorrenziali sia sulle prestazioni che sui prezzi , questo porterebbe le GTS512 SUI 160 euro , le 9800GTX sui 190 , le G92b sui 220 , e le GTX sui 330 (magari con le 9900GTS in mezzo ;) ) . Se è vero che le 770Pro staranno sui 300$ e le XT a poco più , tra 250 euro e 350 ci saranno delle belle bestioline in giro .. Speriamo ;)

DriftKing
02-05-2008, 17:53
Mi sa che state giocando troppo con la fantasia ... vabbè che ati rilascierà le nuove 4xxx ma 192 SP e tutto il resto , direi che per nVIDIA sarebbero già abbastanza ;) .

Speriamo solo che le nuove proposte di ati siano concorrenziali sia sulle prestazioni che sui prezzi , questo porterebbe le GTS512 SUI 160 euro , le 9800GTX sui 190 , le G92b sui 220 , e le GTX sui 330 (magari con le 9900GTS in mezzo ;) ) . Se è vero che le 770Pro staranno sui 300$ e le XT a poco più , tra 250 euro e 350 ci saranno delle belle bestioline in giro .. Speriamo ;)

nn vorrei sembare pessimista ... ma imho i prezzi saranno ben diversi da quelli che hai indicato ... imho il g92b stara sui 280 ... la gtsgt200 sui 340 e la gtx sui 400 ... e le rispettive ati un 50e sotto queste ... andando anche meno ... boh ...

appleroof
02-05-2008, 18:00
Mi sa che state giocando troppo con la fantasia ... vabbè che ati rilascierà le nuove 4xxx ma 192 SP e tutto il resto , direi che per nVIDIA sarebbero già abbastanza ;) .

esatto, era proprio questo il senso del mio post...per ora

Speriamo solo che le nuove proposte di ati siano concorrenziali sia sulle prestazioni che sui prezzi , questo porterebbe le GTS512 SUI 160 euro , le 9800GTX sui 190 , le G92b sui 220 , e le GTX sui 330 (magari con le 9900GTS in mezzo ;) ) . Se è vero che le 770Pro staranno sui 300$ e le XT a poco più , tra 250 euro e 350 ci saranno delle belle bestioline in giro .. Speriamo ;)

si ipotizza un prezzo di circa 350$ per la 4870 e 500$ per la 4870x2, se 9900gts e 9900gtx andranno meglio mi aspetto minimo 50$ in più se non addirittura 100$ (putroppo come al solito convertiamo 1$ - 1€) quindi rispettivamente sui 400$ e 550$ se va bene

nat prezzi al lancio e tutto imho

DriftKing
02-05-2008, 18:04
si ipotizza un prezzo di circa 350$ per la 4870 e 500$ per la 4870x2, se 9900gts e 9900gtx andranno meglio mi aspetto minimo 50$ in più se non addirittura 100$ (putroppo come al solito convertiamo 1$ - 1€) quindi rispettivamente sui 400$ e 550$ se va bene

nat prezzi al lancio e tutto imho

secondo me la x2 andra come la gtx ... +o- ... se cosi fosse quest'ultima dovrebbe calare di prezzo ... speriamo ... come sempre tutto dipende dalla concorrenza ...

appleroof
02-05-2008, 18:06
secondo me la x2 andra come la gtx ... +o- ... se cosi fosse quest'ultima dovrebbe calare di prezzo ... speriamo ... come sempre tutto dipende dalla concorrenza ...

esatto

halduemilauno
02-05-2008, 18:17
secondo me la x2 andra come la gtx ... +o- ... se cosi fosse quest'ultima dovrebbe calare di prezzo ... speriamo ... come sempre tutto dipende dalla concorrenza ...

la 9900gtx sotto i 500€ la vedremo dopo alcuni mesi che è uscita. la gts sui 400 e passa e il vuoto tra esse e le altre sarà colmato dalla gt presentata + tardi.
;)

appleroof
02-05-2008, 18:20
la 9900gtx sotto i 500€ la vedremo dopo alcuni mesi che è uscita. la gts sui 400 e passa e il vuoto tra esse e le altre sarà colmato dalla gt presentata + tardi.
;)

ecco :O

DriftKing
02-05-2008, 18:45
la 9900gtx sotto i 500€ la vedremo dopo alcuni mesi che è uscita. la gts sui 400 e passa e il vuoto tra esse e le altre sarà colmato dalla gt presentata + tardi.
;)

:D sembri molto sicuro ... boh ... io nn parlo finche nn vedo come vanno le ati ...

halduemilauno
02-05-2008, 19:15
:D sembri molto sicuro ... boh ... io nn parlo finche nn vedo come vanno le ati ...

con la 9800gx2 attualmente sui 380/400€, la 4870 fissata a 369$ e la 4870x2 a 499$...
;)

pierluigi86
02-05-2008, 19:21
ma la 9800gt ovvero il g92@55nm sarà con 128 sp o 112sp? Io ora ho una 9600gt e sono indeciso proprio tra questa scheda o la 4850.

halduemilauno
02-05-2008, 19:41
ma la 9800gt ovvero il g92@55nm sarà con 128 sp o 112sp? Io ora ho una 9600gt e sono indeciso proprio tra questa scheda o la 4850.

tutto dipenderà dalla versione g92b della 9800gtx se si farà sarà essa a 128 shader altrimenti la 9800gt.

halduemilauno
02-05-2008, 19:48
:D sembri molto sicuro ... boh ... io nn parlo finche nn vedo come vanno le ati ...

con la 9800gx2 attualmente sui 380/400€, la 4870 fissata a 369$ e la 4870x2 a 499$...
;)

ritorno su questo argomento aggiungendo che non deve farvi ingannare i prezzi(se vogliamo altini)delle schede ati. essi non sono alti perchè saranno magari + performanti delle nvidia sono cosi perchè ati sa che nvidia non potrà adottare prezzi + bassi proprio per la natura dei suoi chip da un miliardo di transistor a(attualmente)65nm senza contare poi il bus e la ram.
cmq aspettiamo riscontri.

-noxius-
02-05-2008, 20:22
nn vorrei sembare pessimista ... ma imho i prezzi saranno ben diversi da quelli che hai indicato ... imho il g92b stara sui 280 ... la gtsgt200 sui 340 e la gtx sui 400 ... e le rispettive ati un 50e sotto queste ... andando anche meno ... boh ...

Aspetta, rileggi bene .. ho detto ''qualora le ati fossero seriamente concorrenziali'' ;) . Per quale motivo ci siamo trovati le 8800GT da 250 a 160 euro ? Risposta : HD 3870 , ringraziando iddio ;) .

Certo , se così non fosse i prezzi ovviamente saranno ben più alti ma la nuova GTX sicuramente partirà da 400-450 euro , per poi scendere in base alla concorrenza (ma sinceramente non ci metterei la mano sul fuoco) .

Anche perchè sono pur sempre 512bit e tutto il resto già trito e ritrito ..

Alexkidd85
02-05-2008, 20:35
la 9900gtx sotto i 500€ la vedremo dopo alcuni mesi che è uscita. la gts sui 400 e passa e il vuoto tra esse e le altre sarà colmato dalla gt presentata + tardi.
;)

ritorno su questo argomento aggiungendo che non deve farvi ingannare i prezzi(se vogliamo altini)delle schede ati. essi non sono alti perchè saranno magari + performanti delle nvidia sono cosi perchè ati sa che nvidia non potrà adottare prezzi + bassi proprio per la natura dei suoi chip da un miliardo di transistor a(attualmente)65nm senza contare poi il bus e la ram.
cmq aspettiamo riscontri.

Io ribadisco: "meglio per la nvidia che siano VERAMENTE performati sti chip e che ATI non sforni qualcosa di veramente ottimo perché se i prezzi fossero sui 600 euro per nvidia e la concorrenza mi da quasi lo stesso a 400,prendo ati"
NOn sventolo nessuna bandiera verde,ma sono contento della scheda che ho avuto. Ora spero che la ati rialzi la testa...o che la nvidia si renda conto che i soldi non li caghiamo. (e non mi si venga a dire che a loro costa 600€ fare una vga)
Io resto di st'idea :O

ArCH85
02-05-2008, 21:19
secondo me sara a 55nm ... :sperem: ...

non credo.. secondo la procedura Tick Tock che adotta Intel (e che se non sbaglio adotta pure nVidia) utilizzano per le schede di punta un processo produttivo "collaudato" che successivamente verrà shrinkato a 55nm con il refresh. poi verrà lanciata la nuova serie con serie di punta a 55nm e fascia media/bassa a 45nm, con successivo die shrink, e così via.


spero anche io sia a 55nm ovviamente, dati gli evidenti vantaggi, ma ho seri dubbi :)

DriftKing
02-05-2008, 21:33
Aspetta, rileggi bene .. ho detto ''qualora le ati fossero seriamente concorrenziali'' ;) . Per quale motivo ci siamo trovati le 8800GT da 250 a 160 euro ? Risposta : HD 3870 , ringraziando iddio ;) .

Certo , se così non fosse i prezzi ovviamente saranno ben più alti ma la nuova GTX sicuramente partirà da 400-450 euro , per poi scendere in base alla concorrenza (ma sinceramente non ci metterei la mano sul fuoco) .

Anche perchè sono pur sempre 512bit e tutto il resto già trito e ritrito ..

;)

non credo.. secondo la procedura Tick Tock che adotta Intel (e che se non sbaglio adotta pure nVidia) utilizzano per le schede di punta un processo produttivo "collaudato" che successivamente verrà shrinkato a 55nm con il refresh. poi verrà lanciata la nuova serie con serie di punta a 55nm e fascia media/bassa a 45nm, con successivo die shrink, e così via.


spero anche io sia a 55nm ovviamente, dati gli evidenti vantaggi, ma ho seri dubbi :)

... mi ripeto :D - :sperem: :sperem: :sperem:

ArCH85
02-05-2008, 21:48
... mi ripeto :D - :sperem: :sperem: :sperem:


in questo momento più che incrociare le dita sto attendendo con ansia che esca... con il processo produttivo che vogliono, ma che esca... non ne posso più di aspettare :D

la mia 7900GTX comincia a dare segni di cedimento sui giochi recenti :(

-noxius-
02-05-2008, 22:49
in questo momento più che incrociare le dita sto attendendo con ansia che esca... con il processo produttivo che vogliono, ma che esca... non ne posso più di aspettare :D

la mia 7900GTX comincia a dare segni di cedimento sui giochi recenti :(

Ma dai, stò giocando a crysis con una HD 3650 e tu parli di segni di cedimento :ciapet:

ArCH85
02-05-2008, 23:14
Ma dai, stò giocando a crysis con una HD 3650 e tu parli di segni di cedimento :ciapet:


si ma io gioco su un 26"... giocare a 640X480 a Crysis non è proprio il massimo della libidine :D

comunque non mi riferisco solo a Crysis... la maggior parte dei giochi a 1920X1200 fa fatica purtroppo.. sto monitor è come si suol dire "croce e delizia" :D

-noxius-
03-05-2008, 00:32
Ma infatti richiede troppo, pensa te che potevo prendere un 20'' , poi ho pensato alla risoluzione nativa e sono andato di 19'' a 1280x1024 ... saggia scelta ;)

ps: io credevo che nemmeno partisse ma a 1024x768 senza aa su medio va come una scheggia , più di 30fps .. niente male per 50 euro

nonikname
03-05-2008, 10:01
..."You are cordially invited to attend the NVIDIA Editor's Day May 2008 event, which will be held at the NVIDIA Santa Clara campus from May 13th to May 14th, 2008.

We will be holding in-depth technical discussions on our new consumer GPUs and other NVIDIA technologies that will help shape the future of visual computing.

In addition, we're bringing in a veritable who's who of content developers to showcase a variety of upcoming 3D-optimized applications, including games, digital media apps, and more. You'll also have access to our engineers and architecture gurus who can answer all of your toughest questions.

Our official start time is 9:00 a.m. on Tuesday, May 13th at the NVIDIA Santa Clara campus, so if you are traveling from overseas, it is recommended you arrive in town no later than 6:00 p.m. on Monday, May 12th so you will be fresh and awake! We will have a full day of presentations and demos, and roundtable discussions on Wednesday, May 14th.

Due to the high technical discussion expected, experience and background in GPU architecture is required for this event. If you would prefer a less technical environment, please let us know and we can make alternate arrangements for you and your publication.

To RSVP for this event, simply click on the "RSVP" link at the end of this invitation. Confirmation details, as well as instructions on how to arrange for your air travel, will be sent automatically.

Thanks in advance! If you have any questions about the NVIDIA Editor's Day May 2008 event, please e-mail your local NVIDIA PR representative."

Cheers!
Bryan Del Rizzo
Senior PR Manager
NVIDIA Corporation

Foglia Morta
03-05-2008, 10:29
http://www.theinquirer.net/gb/inquirer/news/2008/05/02/nvidia-throws-party

zorco
03-05-2008, 11:11
Ma infatti richiede troppo, pensa te che potevo prendere un 20'' , poi ho pensato alla risoluzione nativa e sono andato di 19'' a 1280x1024 ... saggia scelta ;)

ps: io credevo che nemmeno partisse ma a 1024x768 senza aa su medio va come una scheggia , più di 30fps .. niente male per 50 euro
ottimo..

Mercuri0
03-05-2008, 11:38
quindi il chip sarebbe pronto da marzo: da sbellicarsi pensando a quanti irridevano l'ipotesi che Nvidia avesse pronto il successore di g80/g92 ma non lo cacciasse in attesa di rv770 (addirittura qualcuno diceva che Nvidia aveva grossi problemi con gt200 :asd: )

Nel testo che hai quotato a marzo risultava in tape-out.
Il tapeout di R770 da quel che si sa è stato fatto a inizio gennaio.

(dopo il tapeout ci stanno mesi di test e revisioni)

Imo e dai rumors qui e là GT200, a meno di magie, non andrà troppo più veloce della GX2, e quindi la GX2 toglierà un pò di effetto "wow" ai GT200. Se nvidia il GT200 l'avesse avuto pronto prima, l'avrebbe tirato fuori, invece di produrre una scheda, la GX2, che andrà EOL già a giugno dopo 2-3 mesi scarsi di vita.

p.s. sfera di cristallo: GT200 a 65nm, G92B a 55nm TSMC standard, R770 55nm TSMC performance. (e ovviamente GT200 solo DX10, almeno lato driver, casomai qualcuno ancora si aspetti il contrario)

halduemilauno
03-05-2008, 11:59
Nel testo che hai quotato a marzo risultava in tape-out.
Il tapeout di R770 da quel che si sa è stato fatto a inizio gennaio.

(dopo il tapeout ci stanno mesi di test e revisioni)

Imo e dai rumors qui e là GT200, a meno di magie, non andrà troppo più veloce della GX2, e quindi la GX2 toglierà un pò di effetto "wow" ai GT200. Se nvidia il GT200 l'avesse avuto pronto prima, l'avrebbe tirato fuori, invece di produrre una scheda, la GX2, che andrà EOL già a giugno dopo 2-3 mesi scarsi di vita.

p.s. sfera di cristallo: GT200 a 65nm, G92B a 55nm TSMC standard, R770 55nm TSMC performance. (e ovviamente GT200 solo DX10, almeno lato driver, casomai qualcuno ancora si aspetti il contrario)

non a caso la 9800gx2 ha due 8800gts downcloccate a 600 invece dei 650 default. sufficientissimi per il suo ruolo di battere la/le 3870x2.
cosi invece di tre settimane date ad ati se ne davano 5 mesi.

Mercuri0
03-05-2008, 12:13
non a caso la 9800gx2 ha due 8800gts downcloccate a 600 invece dei 650 default. sufficientissimi per il suo ruolo di battere la/le 3870x2.

In questi casi la scelta del clock di un chip è dettata prima di tutto da discorsi di TDP. Il sistema di dissipazione della GX2 non è né semplice né economico, e di certo tutto il progetto non è stato indolore.

Per battere la 3870X2 a nVidia basta l'ottimo G92, non contesto mica questo. Ma il fatto che nVidia "se la stia prendendo comoda" perché ha la mano buona è una grande stupidaggine. Non sono mica scemi. :D

Inoltre tutta la strana politica dei nomi delle schede, cominciata con la 8800GT, l'introduzione "postuma" del G92 sulle 9xxx, l'aver rinominato le 8800GS invendute come 9600GSO, il fatto che probabilmente il GT200 sarà venduto come 9900, e forse persino l'esistenza stessa del G92B, sono derivati dal fatto che AMD ha seriamente scartavetrato i maroni alla roadmap e ai piani commerciali di nVidia, impedendole di vendere i suoi prodotti nei tempi e prezzi pianificati.

(per il bene di tutti :) )

p.s. io penso di risultare antipatico sia agli nVidiosi che agli Amidi :cry: (leggi cosa scrivo su R700...)

appleroof
03-05-2008, 20:46
In questi casi la scelta del clock di un chip è dettata prima di tutto da discorsi di TDP. Il sistema di dissipazione della GX2 non è né semplice né economico, e di certo tutto il progetto non è stato indolore.

Per battere la 3870X2 a nVidia basta l'ottimo G92, non contesto mica questo. Ma il fatto che nVidia "se la stia prendendo comoda" perché ha la mano buona è una grande stupidaggine. Non sono mica scemi. :D

Inoltre tutta la strana politica dei nomi delle schede, cominciata con la 8800GT, l'introduzione "postuma" del G92 sulle 9xxx, l'aver rinominato le 8800GS invendute come 9600GSO, il fatto che probabilmente il GT200 sarà venduto come 9900, e forse persino l'esistenza stessa del G92B, sono derivati dal fatto che AMD ha seriamente scartavetrato i maroni alla roadmap e ai piani commerciali di nVidia, impedendole di vendere i suoi prodotti nei tempi e prezzi pianificati.

(per il bene di tutti :) )

p.s. io penso di risultare antipatico sia agli nVidiosi che agli Amidi :cry: (leggi cosa scrivo su R700...)

sarà che sono più incline a rispettare le opinioni altrui, ma quella che deridi la ritengo appunto un'opinione, come la tua sia pur opposta (che in quanto tale non definisco però "una gran stupidaggine"), tra l'altro suffragata da un minimo di fatti (quelli cui mi riferisco negavano addirittura il tape-out, dopo il quale se tutto và bene bastano anche 3 mesi, io intendevo quello per pronto, gli altri no e parlavano di un altro chip che sarebbe esordito ormai l'anno prox)

;)

Amph
03-05-2008, 20:55
dai che forse lo piega a crysis :D, io vorrei fare almeno 30 fps con tutto su massima a 1680x1050, mi basterebbe...

-noxius-
03-05-2008, 20:57
edit

nonikname
04-05-2008, 00:44
Chissà se la prox ultra-high-end (nVIDIA o ATI) sarà una vga con due GPU a memoria condivisa + Daughter DIE di Vram (embedded) per ogni gpu ... aka Xenos ?? ;)

Grossolano lavoro di Paint a parte... con questo disegno , forse , rendo meglio l'idea :

http://img167.imageshack.us/img167/8470/memcondjz3.png

Mercuri0
04-05-2008, 02:37
sarà che sono più incline a rispettare le opinioni altrui,
zi mi scuso con tutti per il termine che ho usato :)

Io però non volevo riferirmi ad un opinione di qualcuno in specifico (non mi permetterei mai di dare dello stupido a nessuno), ma alla "corrente di pensiero" che circola in giro un pò ovunque, che secondo ma nasce più da un generico fanboysmo internettaro che da riflessioni oggettive.

La finestra temporale per cui un chip è presentabile, è molto stretta, sopratutto per le GPU: se io faccio un design previsto per una certa data di lancio, e lo rimando di sei mesi o oltre, tra sei mesi il concorrente potrebbe avere a disposizione un nuovo processo produttivo, nuovi tipi di memoria, e più informazioni sulle risorse usate dai giochi recenti. Tutte cose che io non potrei usare, perché ho un design vecchio. In passato aziende di acceleratori grafici sono fallite per cose di questo tipo (errata previsione dei prezzi delle memorie alla data del lancio).

Imo è più probabile che un design venga "saltato" più che rimandato per tanto tempo, per assenza di concorrenza. (ovvio che se il ritardo è per problemi tecnici, quello ho e quello tiro fuori... tipo R600 :asd: )

Poi nVidia non fa concorrenza solo ad AMD, ma anche a sé stessa. La maggior parte dei possessori di 8800GTX e Ultra non hanno ancora cambiato scheda (almeno credo ^^''), e siccome nVidia fa soldi solo quando vende schede, se avesse avuto una proposta che gli ultrari avrebbero trovato attraente, non vedo perché non avrebbe dovuto venderla.

Certo la concorrenza debole aiuta a massimizzare i profitti consentendo più elasticità sui tempi e i prezzi. Però, come ho detto nel post di sopra, è evidente che AMD abbia dato parecchie noie alla roadmap di nVidia in questi mesi.

p.s. vedremo se il G92B basterà a contrastare R770 ;) Lo scontro si preannuncia molto interessante, anche se il G92B non ha l'aria di essere un "asso nella manica" come fu il G92 al suo tempo.

Mercuri0
04-05-2008, 02:49
Chissà se la prox ultra-high-end (nVIDIA o ATI) sarà una vga con due GPU a memoria condivisa + Daughter DIE di Vram (embedded) per ogni gpu ... aka Xenos ?? ;)

Ho letto da più parti che la soluzione di Xenos funziona bene solo perché le console prevedono risoluzioni fisse.

Per la memoria del multi-gpu, la voce più recente per R700 è un'architettura come quella usata dagli Opteron, che se ho capito bene è del tipo: ogni GPU ha accesso diretto alla sua memoria, ma può liberamente accedere alla memoria dell'altra, realizzando nei fatti una memoria condivisa (ma per poterle "sommare" o meno, dipenderà da cosa farà il driver)

Per nVidia invece si vocifera di un superchippone, il GT200 :sofico: . Devo dire che dopo l'annuncio della GX2, sul GT200 non ci avrei scommesso. Se i rumor sono veri, il GT200 è una bella sfida sotto tanti punti di vista. (in particolare sono curioso di vedere come dal GT200 potrà derivarsi un chip mainstream qualora il G92B si rivelasse insufficiente contro R770)

Le strade di AMD e nVidia sembrano essersi marcatamente separate quest'anno... questa estate farà molto caldo :cool:

mircocatta
04-05-2008, 08:38
non so, stiamo ai rumors più accreditati che vedono la 99gtx a 192sp e tutto il resto

se poi questa dovesse addirittura invece essere la 99gts :eek: e la gtx invece quella ipotizzata prima (240sp) :eek: :eek: ci sarà davvero da divertirsi :sofico:

e non solo, quella oltre i 240sp ha pure 120 tmu e tfu anzichè 92 di cui si parlava prima :eek: :eek: :eek:

se esistesse, dovrà esser per forza a 55nm altrimenti ci vorrà un dissi triplo slot!

cmq mi pare impossibile questo chip... altrimenti non sarebbe solo il passaggio da gts(192sp e 92tu) a gtx(240sp e 120tu), sarebbe quasi una architettatura completamente nuova (magari da lanciare alla prossima generazione di schede video) magari con i 55nm tmsc performance

pierluigi86
04-05-2008, 09:12
qualcuno ha il link diretto alla notizia del dipendente nvidia che divceva che la scheda avrebbe avuto solo 1 miliardo di transistor?

halduemilauno
04-05-2008, 10:00
In questi casi la scelta del clock di un chip è dettata prima di tutto da discorsi di TDP. Il sistema di dissipazione della GX2 non è né semplice né economico, e di certo tutto il progetto non è stato indolore.

Per battere la 3870X2 a nVidia basta l'ottimo G92, non contesto mica questo. Ma il fatto che nVidia "se la stia prendendo comoda" perché ha la mano buona è una grande stupidaggine. Non sono mica scemi. :D

Inoltre tutta la strana politica dei nomi delle schede, cominciata con la 8800GT, l'introduzione "postuma" del G92 sulle 9xxx, l'aver rinominato le 8800GS invendute come 9600GSO, il fatto che probabilmente il GT200 sarà venduto come 9900, e forse persino l'esistenza stessa del G92B, sono derivati dal fatto che AMD ha seriamente scartavetrato i maroni alla roadmap e ai piani commerciali di nVidia, impedendole di vendere i suoi prodotti nei tempi e prezzi pianificati.

(per il bene di tutti :) )

p.s. io penso di risultare antipatico sia agli nVidiosi che agli Amidi :cry: (leggi cosa scrivo su R700...)

dal momento che ati era attiva solo in una fascia ha fatto si che nvidia rispondesse solo in quella fascia. e cmq le schede non si improvvisano dall'oggi al domani una volta scelta la 9800gx2 le altre dovevano tutte stare sotto come prezzi. l'alternativa era aspettare il pp a 55nm per sfornare la 9800gtx a frequenze ben + alte questo avrebbe richiesto tempo e quindi altro tempo a favore di ati.
l'introduzione postuma della serie 9 è in realtà un'anticipo nei confronti della 48xx. in questo specifico caso di alcune di esse come la/le 4850.
in quanto alle 8800gs pagano una politica commerciale anomala l'unica scheda che a default ha due serie di frequenze oltre che di ram(quella + alta voluta dai partner)e non ha pagato(e pare che insistono). poste sotto alla 9600gt come 9600gso potrà dare altri risultati e spingerà la futura 9600gs a un prezzo ancora + basso.
;)

halduemilauno
04-05-2008, 10:12
zi mi scuso con tutti per il termine che ho usato :)

Io però non volevo riferirmi ad un opinione di qualcuno in specifico (non mi permetterei mai di dare dello stupido a nessuno), ma alla "corrente di pensiero" che circola in giro un pò ovunque, che secondo ma nasce più da un generico fanboysmo internettaro che da riflessioni oggettive.

La finestra temporale per cui un chip è presentabile, è molto stretta, sopratutto per le GPU: se io faccio un design previsto per una certa data di lancio, e lo rimando di sei mesi o oltre, tra sei mesi il concorrente potrebbe avere a disposizione un nuovo processo produttivo, nuovi tipi di memoria, e più informazioni sulle risorse usate dai giochi recenti. Tutte cose che io non potrei usare, perché ho un design vecchio. In passato aziende di acceleratori grafici sono fallite per cose di questo tipo (errata previsione dei prezzi delle memorie alla data del lancio).

Imo è più probabile che un design venga "saltato" più che rimandato per tanto tempo, per assenza di concorrenza. (ovvio che se il ritardo è per problemi tecnici, quello ho e quello tiro fuori... tipo R600 :asd: )

Poi nVidia non fa concorrenza solo ad AMD, ma anche a sé stessa. La maggior parte dei possessori di 8800GTX e Ultra non hanno ancora cambiato scheda (almeno credo ^^''), e siccome nVidia fa soldi solo quando vende schede, se avesse avuto una proposta che gli ultrari avrebbero trovato attraente, non vedo perché non avrebbe dovuto venderla.

Certo la concorrenza debole aiuta a massimizzare i profitti consentendo più elasticità sui tempi e i prezzi. Però, come ho detto nel post di sopra, è evidente che AMD abbia dato parecchie noie alla roadmap di nVidia in questi mesi.

p.s. vedremo se il G92B basterà a contrastare R770 ;) Lo scontro si preannuncia molto interessante, anche se il G92B non ha l'aria di essere un "asso nella manica" come fu il G92 al suo tempo.

esatto ma nvidia non vende schede solo ai possessori di 8800gtx e ultra.
la serie 48xx sarà composta da 5 schede il g92/g92b è perfettamente in grado di batterne 4. anche per la quinta la 4870x2 potrebbe bastare una 9900gx2 con due chip appunto g92b questa volta non downcloccati anzi... ma per la 4870x2 è stato scelto da tempo il gt200. e forse lo stesso(per economizzare)anche per la 4870.
manca poco.
;)

A.L.M.
04-05-2008, 10:42
G92 yields have been stated to be rather poor and actually limiting profit substantially for NVIDIA. It's actually just until recently it managed to straighten things out and improve the yields. Graphics cards based on the G92 core will be silently updated with new, identical cores. The new core is simply optimized for better yields, it won't affect performance or overclocking negatively. Now that the 65nm G92 core is getting decent yields, NVIDIA is focused on mastering 55nm, but right now it seems that NVIDIA will take it slow.

The first 55nm core would be G92b, and it could become the heart of some new GeForce 9800 series cards, but nothing is set in stone right now. NVIDIA is indeed experimenting with 55nm, but if the yields are as poor as they were with G92 at the start, it will simply fall back on the 65nm process and pump out new GeForce 9800 cards based on G92 instead.

Even if the yields would be poor, that doesn't mean that it's a failure. Any experience NVIDIA can get from shrinking G92 to 55nm is valuable at this time. AMD is well ahead and comfortably playing at 55nm, while NVIDIA has been struggling a bit to get 65nm to work well. If G92b turns out to be a success, NVIDIA can put even more pressure on AMD.

http://www.nordichardware.com/news,7702.html

halduemilauno
04-05-2008, 11:39
http://www.nordichardware.com/news,7702.html

ok rese ed economia ma ti pare io faccio la versione a 55nm del mio chip e non ne aumento le frequenze? tenedo conto delle gia notevoli capacità di oc della versione a 65nm? e per carità ammettendo che questo poi possa essere necessario visto che ho deciso che esso si deve curare solo delle 4850. e almeno inizialmente per la 4870(o quantomeno come alternativa)mi posso giocare la carta 9800gx2.
aspettiamo 13 maggio, 3 giugno(con in mezzo l'uscita della 4850 512 gddr3)queste date potrebbero essere rivelatrici.

pierluigi86
04-05-2008, 11:47
http://www.nordichardware.com/news,7702.html

problemi per nvidia nel passaggio a 55nm. Di sicuro gt200 sarà a 65nm. Questa new conferma anche che le prime 9800gt (previste a 55nm) saranno invece a 65nm.

-noxius-
04-05-2008, 12:09
problemi per nvidia nel passaggio a 55nm. Di sicuro gt200 sarà a 65nm. Questa new conferma anche che le prime 9800gt (previste a 55nm) saranno invece a 65nm.

Quindi 8800gt rimarchiate , magari con core-shad-ram a 625-1600-1900 ... mi puzza di ''9800GTX'' ;)

halduemilauno
04-05-2008, 12:17
Quindi 8800gt rimarchiate , magari con core-shad-ram a 625-1600-1900 ... mi puzza di ''9800GTX'' ;)

perfetta per la 4850 256. perfetta.

ATi7500
04-05-2008, 12:21
perfetta per la 4850 256. perfetta.

quanto andrá la 4850 paragonata ad una Geforce attuale? Ti prego non rispondermi "stando agli ultimi rumors", ti vedo abbastanza sicuro su quest'argomento ;)

bYeZ!

DriftKing
04-05-2008, 12:23
perfetta per la 4850 256. perfetta.

sinceramente nn capisco a cosa serve questa gt a 65nm ... da quello che sembra avra prestazioni simili alla 98GTX ... io al posto di nvidia la farei uscire direttamente a 55nm ... :confused:

pierluigi86
04-05-2008, 12:33
sinceramente nn capisco a cosa serve questa gt a 65nm ... da quello che sembra avra prestazioni simili alla 98GTX ... io al posto di nvidia la farei uscire direttamente a 55nm ... :confused:

a vendere gpu a persone sprovvedute.

DriftKing
04-05-2008, 12:34
a vendere gpu a persone sprovvedute.

:D ... si ... forse a quello ...

halduemilauno
04-05-2008, 12:43
sinceramente nn capisco a cosa serve questa gt a 65nm ... da quello che sembra avra prestazioni simili alla 98GTX ... io al posto di nvidia la farei uscire direttamente a 55nm ... :confused:

e chi l'ha detto? la "nuova" 9800 avrà 112 shader/56tmu dovrà costare meno dell'attuale 9800gtx e si dovrà confrontare con la 4850 256.
non dimenticate che le 5 schede serie 48xx non usciranno tutte insieme la prima a fine maggio/inizio giugno la 4850 512 gddr3 e per essa c'è gia la 9800gtx. le altre(gddr5)usciranno dopo una mesata. e la 256 senza troppa enfasi.

ATi7500
04-05-2008, 12:45
e chi l'ha detto? la "nuova" 9800 avrà 112 shader/56tmu dovrà costare meno dell'attuale 9800gtx e si dovrà confrontare con la 4850 256.

non credo ci sara' piu' una 4850 con 256MB..al giorno d'oggi anche la fascia 100/150 € e' passata ai 512..

bYeZ!

DriftKing
04-05-2008, 12:46
e chi l'ha detto? la "nuova" 9800 avrà 112 shader/56tmu dovrà costare meno dell'attuale 9800gtx e si dovrà confrontare con la 4850 256.

secondo me potevano anche risparmiarsela ... facendo scendere un po il prezzo della gtx potevano tranquillamente contrastare la 4850 ... sia quela da 256 che quella da 512 ...

-noxius-
04-05-2008, 12:49
perfetta per la 4850 256. perfetta.

Hal scusami un attimo , ma li hai già visti i bench o cosa ? Devi ammettere che questa politica nVIDIA fa bene a tutti tranne che alle nostre tasche , non vorrei che ci fosse gente che passasse dalle 8800GT alle 9800GT ; spero che almeno abbiano un pelo più di SP o qualcos'altro altrimenti queste ultime sarebbero davvero inutili (lasciando ATI da parte ..)

edit: certo, se una GTX venisse a costare 150 euro ben venga, ma dubito seriamente che verrà livellata a tali livelli , uno sli a 300 euro andrebbe più o meno come una nuova high end, tralasciando i consumi .

zorco
04-05-2008, 12:50
secondo me potevano anche risparmiarsela ... facendo scendere un po il prezzo della gtx potevano tranquillamente contrastare la 4850 ... sia quela da 256 che quella da 512 ...
magari questa costerà abbastanza di meno della gtx,che sò la proporranno a 150/160 euro..

halduemilauno
04-05-2008, 12:52
secondo me potevano anche risparmiarsela ... facendo scendere un po il prezzo della gtx potevano tranquillamente contrastare la 4850 ... sia quela da 256 che quella da 512 ...

attualmente la 9800gtx si trova sui 230€ per quando uscirà la 4850 512 sicuramente meno probabilmente sotto i 200€ cmq i rumors dicono una terza 4850 256 proposta proprio per offrirla a prezzi + bassi della 512 e della stessa 9800gtx. quindi per nvidia è importante offrire una scheda della stessa fascia al prezzo ancor + basso dell'attuale 9800gtx.

DriftKing
04-05-2008, 12:52
magari questa costerà abbastanza di meno della gtx,che sò la proporranno a 150/160 euro..

forse ... io la vedo difficile che la mettano a quel prezzo ... boh ...

halduemilauno
04-05-2008, 12:55
magari questa costerà abbastanza di meno della gtx,che sò la proporranno a 150/160 euro..

esatto. mi pare pure ovvio praticamente il posto dell'attuale 8800gts al prezzo della gt. + o -.

DriftKing
04-05-2008, 12:55
attualmente la 9800gtx si trova sui 230€ per quando uscirà la 4850 512 sicuramente meno probabilmente sotto i 200€ cmq i rumors dicono una terza 4850 256 proposta proprio per offrirla a prezzi + bassi della 512 e della stessa 9800gtx. quindi per nvidia è importante offrire una scheda della stessa fascia al prezzo ancor + basso dell'attuale 9800gtx.

secondo me nn ci sara una versione da 256mb ... boh ... vedremo ...

halduemilauno
04-05-2008, 12:58
Hal scusami un attimo , ma li hai già visti i bench o cosa ? Devi ammettere che questa politica nVIDIA fa bene a tutti tranne che alle nostre tasche , non vorrei che ci fosse gente che passasse dalle 8800GT alle 9800GT ; spero che almeno abbiano un pelo più di SP o qualcos'altro altrimenti queste ultime sarebbero davvero inutili (lasciando ATI da parte ..)

edit: certo, se una GTX venisse a costare 150 euro ben venga, ma dubito seriamente che verrà livellata a tali livelli , uno sli a 300 euro andrebbe più o meno come una nuova high end, tralasciando i consumi .

come a tutti tranne che alle nostre tasche? è proprio alle nostre tasche che fa bene. una 9800gtx a 199€ e una 9800gts sui 159€ ti farebbero schifo?
a me no.

halduemilauno
04-05-2008, 13:00
secondo me nn ci sara una versione da 256mb ... boh ... vedremo ...

ma voi questo...
http://www.puissance-pc.net/images/stories/_cg/rv770_specs.gif

e questo...
http://img117.imageshack.us/img117/8278/4870specyk4.jpg
li avete visti????

-noxius-
04-05-2008, 13:08
come a tutti tranne che alle nostre tasche? è proprio alle nostre tasche che fa bene. una 9800gtx a 199€ e una 9800gts sui 159€ ti farebbero schifo?
a me no.

Bhè , se mi devo prendere una GTX a 200 euro , preferisco spenderne la metà per una vecchia 8800GT che va quasi uguale in OC (5-6 fps in meno) , tanto a parte crysis le prestazioni con tutto il resto sono al top, con entrambe le schede .

Bisognerebbe considerare se conviene spendere 120-200 euro oppure 270 , magari in ottica futura .. Per dirti alla fine se hai un 19'' già con una HD 3650 a 1024x768 va tutto decentemente, figurati con una 3850 256mb .. Il problema sarebbe QUANTO effettivamente possa costare il VERO salto generazionale , questo è il punto ;) (se investire un un prodotto ''rimarchiato'' oppure in uno effettivamente nuovo) .

ps: ti parlo da ex possessore rispettivamente di 8800GT-GTS512 E 9800GTX quindi so bene di cosa stò parlando ;)


edit: aspettiamo 1 altra settimanella prima di iniziare a parlare seriamente e a dare verdetti , quelle che stiamo facendo potrebbero essere tutte chiacchiere al vento ;) . Sinceramente non credo che per una nuova ''LOW END'' quale la 4850Pro 256 possano montare 480SP , mi sembra che appunto la 3650 ne abbia 120 per poi scalare fino alla 3870 . Sulle memorie potrei concordare in quanto si va a risparmiare sul bus-frequenze(chip)- che tipologia delle stesse però anche lì 1143 sulle ram a default mi sembra un tantino troppo (per essere chip di fascia bassa , ad occhio e croce non dovrebbero essere gli stessi montati ora sulle GTX ? 0.8ns magari samsung o quimonda downvoltati ) .

ATi7500
04-05-2008, 13:09
ma voi questo...
http://www.puissance-pc.net/images/stories/_cg/rv770_specs.gif

e questo...
http://img117.imageshack.us/img117/8278/4870specyk4.jpg
li avete visti????

solo tu li dai per oro colato.. :asd: già solo il dominio shader a frequenze differenti dovrebbe farti venire il dubbio..

bYeZ!

halduemilauno
04-05-2008, 13:14
Bhè , se mi devo prendere una GTX a 200 euro , preferisco spenderne la metà per una vecchia 8800GT che va quasi uguale in OC (5-6 fps in meno) , tanto a parte crysis le prestazioni con tutto il resto sono al top, con entrambe le schede .

Bisognerebbe considerare se conviene spendere 120-200 euro oppure 270 , magari in ottica futura .. Per dirti alla fine se hai un 19'' già con una HD 3650 a 1024x768 va tutto decentemente, figurati con una 3850 256mb .. Il problema sarebbe QUANTO effettivamente possa costare il VERO salto generazionale , questo è il punto ;) (se investire un un prodotto ''rimarchiato'' oppure in uno effettivamente nuovo) .

ps: ti parlo da ex possessore rispettivamente di 8800GT-GTS512 E 9800GTX quindi so bene di cosa stò parlando ;)

tralasciando che non mi vedi d'accordo su tutto quanto hai detto ma mi spieghi dato che qui si sta parlando di schede video adatte al videogioco cosa centra la 3650? che va + o - come una 2600xt e quindi peggio di una 8600gt.
:boh:

-noxius-
04-05-2008, 13:19
In che senso ? Era per dare un esempio di potenzialità di schede video di fascia bassa in relazione a quelle di fascia alta ma non è questo il punto , era solo un esempio .

Viste le performance delle ''nuove'' gtx ho scritto che preferirei spendere di più per un prodotto nuovo , non per uno ''presunto tale'' ma in realtà prestazionalmente identico a soluzioni passate . Tutto stà a vedere se per raggiungere la nuova high end di nVIDIA sarà necessario spendere 400 euro per uno SLI di GTS512-GTX oppure andare con le 4870 in OC (o magari con una ''vecchia'' 9800GX2) .

Mah, si vedrà .. ;)

DriftKing
04-05-2008, 13:21
... preferirei spendere di più per un prodotto nuovo , non per uno ''presunto tale'' ma in realtà prestazionalmente identico a soluzioni passate

perfettamente d'accordo ...

halduemilauno
04-05-2008, 13:30
In che senso ? Era per dare un esempio di potenzialità di schede video di fascia bassa in relazione a quelle di fascia alta ma non è questo il punto , era solo un esempio .

Viste le performance delle ''nuove'' gtx ho scritto che preferirei spendere di più per un prodotto nuovo , non per uno ''presunto tale'' ma in realtà prestazionalmente identico a soluzioni passate . Tutto stà a vedere se per raggiungere la nuova high end di nVIDIA sarà necessario spendere 400 euro per uno SLI di GTS512-GTX oppure andare con le 4870 in OC (o magari con una ''vecchia'' 9800GX2) .

Mah, si vedrà .. ;)

ma io non capisco dove tu voglia andare a parare. l'attuale scenario fa vedere "vecchie" e "nuove" schede un domani molto prossimo ci saranno solo le "nuove" e le vere nuove. la 9800gtx è perfetta(e immaginatela a prezzi ancor + bassi)per tutti quelli che non hanno g92 e g80(e pure per le basi di quelle)tu pensi che tutti hanno le 8800gts512 o gtx o ultra assolutamente non è cosi la 9800gtx è appetibilissima e ripeto lo sarà sempre +. poi tu hai la possibilità dello sli? ok è/sei la massa? certo che no. quindi...
poi tu hai la possibilità di spendere 400€ sei la massa? certo che no. quindi...

-noxius-
04-05-2008, 14:15
Andare a parare ? Ma di cosa stai parlando ?

Io ho fatto una osservazione , non capisco perchè ci si debba scaldare tanto .. Le gtx-gts512 sono ottime schede per il prezzo proposto ma date le performance quel prezzo rispecchia perfettamente la situazione ; come ho detto se non cosideriamo crysis va tutto alla perfezione però ricordiamoci che anche con una scheda di fascia molto più bassa la situazione è quasi identica . Intendo dire che secondo me non ha senso se una scheda mi fa 10000 fps in più rispetto ad un'altra quando poi, se arriva il giocone con grafica iper realistica nessuna delle due , considerando la differenza di prezzo, mi permette di giocarci (1280x1024-1600x1200 su vista veryhigh senza Cvar modificati) .

Per questo avevo riportato l'esempio delle vga di fascia bassa , specialmente con le 3850 , in quanto eccetto crysis e DX10 varie pure le GTX non ce la fanno (e quindi la considerazione precedente in merito alle nuove schede video high end e non le GTS-GTX ;) ) .

Vabbè , lasciamo perdere anche perchè credo che siamo OT ; ad ogni modo se avete nuove info continuate a postare così ci capiamo qualcosa di più ;) .

Ciao

Alexkidd85
04-05-2008, 18:25
ma io non capisco dove tu voglia andare a parare. l'attuale scenario fa vedere "vecchie" e "nuove" schede un domani molto prossimo ci saranno solo le "nuove" e le vere nuove. la 9800gtx è perfetta(e immaginatela a prezzi ancor + bassi)per tutti quelli che non hanno g92 e g80(e pure per le basi di quelle)tu pensi che tutti hanno le 8800gts512 o gtx o ultra assolutamente non è cosi la 9800gtx è appetibilissima e ripeto lo sarà sempre +. poi tu hai la possibilità dello sli? ok è/sei la massa? certo che no. quindi...
poi tu hai la possibilità di spendere 400€ sei la massa? certo che no. quindi...

Andare a parare ? Ma di cosa stai parlando ?

Io ho fatto una osservazione , non capisco perchè ci si debba scaldare tanto .. Le gtx-gts512 sono ottime schede per il prezzo proposto ma date le performance quel prezzo rispecchia perfettamente la situazione ; come ho detto se non cosideriamo crysis va tutto alla perfezione però ricordiamoci che anche con una scheda di fascia molto più bassa la situazione è quasi identica . Intendo dire che secondo me non ha senso se una scheda mi fa 10000 fps in più rispetto ad un'altra quando poi, se arriva il giocone con grafica iper realistica nessuna delle due , considerando la differenza di prezzo, mi permette di giocarci (1280x1024-1600x1200 su vista veryhigh senza Cvar modificati) .

Per questo avevo riportato l'esempio delle vga di fascia bassa , specialmente con le 3850 , in quanto eccetto crysis e DX10 varie pure le GTX non ce la fanno (e quindi la considerazione precedente in merito alle nuove schede video high end e non le GTS-GTX ;) ) .

Vabbè , lasciamo perdere anche perchè credo che siamo OT ; ad ogni modo se avete nuove info continuate a postare così ci capiamo qualcosa di più ;) .

Ciao

Credo che noxius voglia dire "non fate solo una revisione che va tanto quella vecchia (colpa di bus,di memoria...fotte un caxxo a me),ma fate una revisone come si deve" direbbe l'utente enthusiast, ma mamma nvidia risponde "abbiamo soluzioni migliori della concorrenza anche con poco in più,chi se ne fotte di te enthusiast". Non ha tutti torti visto che siamo una nicchia,quelli pronti a cambiare subito vga perché "é il top" ,pero ohu...dopo quasi 2 anni,la vogliamo sfornare qualcosa di veramente potente come fu la 8800gtx? O mi si vuole far credere che non la hanno in cantiere!? Quindi che sia ati o nvidia,a prezzi da "65/55 nanometri" (leggasi non 600/700 euro perché non è mistero che il processo produttivo inferiore molto spesso fa scaturire costi contenuti,sempre considerando il "non mi interessa per come e per chi ma così è" e la ps3 nuova ne sarà la dimostrazione ulteriore :asd: ) ,che facciano uscire schede enthusiast degne di chiamarsi "top di gamma" e non "revisioni a 65nm". E aggiungo,una bella differenza di prestazioni tra gts e GTX!!

Ah ma forse sto chiedendo troppo,infondo giustamente...loro devono fare il loro business :rolleyes:
NOn è un discorso contro nvidia,contro ATI o contro pinco pallino...mi sa che ste leader stanno incominciando a starmi proprio sul "cucuzzolo della montagna".

halduemilauno
04-05-2008, 18:38
Credo che noxius voglia dire "non fate solo una revisione che va tanto quella vecchia (colpa di bus,di memoria...fotte un caxxo a me),ma fate una revisone come si deve" direbbe l'utente enthusiast, ma mamma nvidia risponde "abbiamo soluzioni migliori della concorrenza anche con poco in più,chi se ne fotte di te enthusiast". Non ha tutti torti visto che siamo una nicchia,quelli pronti a cambiare subito vga perché "é il top" ,pero ohu...dopo quasi 2 anni,la vogliamo sfornare qualcosa di veramente potente come fu la 8800gtx? O mi si vuole far credere che non la hanno in cantiere!? Quindi che sia ati o nvidia,a prezzi da "65/55 nanometri" (leggasi non 600/700 euro perché non è mistero che il processo produttivo inferiore molto spesso fa scaturire costi contenuti,sempre considerando il "non mi interessa per come e per chi ma così è" e la ps3 nuova ne sarà la dimostrazione ulteriore :asd: ) ,che facciano uscire schede enthusiast degne di chiamarsi "top di gamma" e non "revisioni a 65nm". E aggiungo,una bella differenza di prestazioni tra gts e GTX!!

Ah ma forse sto chiedendo troppo,infondo giustamente...loro devono fare il loro business :rolleyes:
NOn è un discorso contro nvidia,contro ATI o contro pinco pallino...mi sa che ste leader stanno incominciando a starmi proprio sul "cucuzzolo della montagna".

sono uscite 3870x2 e 9800gx2 se quelle non solleticano il palato fra un due mesi usciranno 4870x2 e 9900gtx. i motivi di tutto ciò detti e stradetti. noti e stranoti.

Mercuri0
04-05-2008, 18:45
qualcuno ha il link diretto alla notizia del dipendente nvidia che divceva che la scheda avrebbe avuto solo 1 miliardo di transistor?
E' stato detto da nVidia ad una conferenza stampa, quindi suppongono che il link diretto non possa esistere. vr-zone riporta la notizia http://forums.vr-zone.com/showthread.php?t=261444 ma l'hanno fatto tanti altri siti a suo tempo.
esatto ma nvidia non vende schede solo ai possessori di 8800gtx e ultra.
la serie 48xx sarà composta da 5 schede il g92/g92b è perfettamente in grado di batterne 4.
"Battere" intendi che il g92/g92b è in grado di superare R770 nel rapporto prestazioni/costo (visto che stiamo parlando dal lato produttore) in quattro soluzioni?
La cosa non è affatto così semplice. L'esistenza stessa del G92B serve ad nVidia per contenere i costi. La cosa fu riportata da digitimes http://www.digitimes.com/index.asp, sito vicino ai produttori di PCB orientali, riguardo ad un incontro che nVidia ebbe coi suoi patner. Purtroppo il sito richiede una sottoscrizione per le news vecchie...
ok rese ed economia ma ti pare io faccio la versione a 55nm del mio chip e non ne aumento le frequenze?

Ma perché tu pensi che la cosa sia così automatica?

tenedo conto delle gia notevoli capacità di oc della versione a 65nm?
Come avevo già detto e ripeto, in questi casi sul clock si sceglie in funzione del TDP. Se vuoi un esempio, sul thread di R700 hanno giusto riportato una notizia in cui dicono che AMD non cloccherà al massimo le GDDR5 proprio per questo motivo. Nel caso del G92b c'è anche il discorso degli yeld, a quanto pare.

e per carità ammettendo che questo poi possa essere necessario visto che ho deciso che esso si deve curare solo delle 4850. e almeno inizialmente per la 4870(o quantomeno come alternativa)mi posso giocare la carta 9800gx2.

:eek:
Tu pensi che una scheda come la GX2 (2 pcb, 2 G92, ciascuno da solo più grande di R770, e TDP oltre che doppio) e R770 siano in competizione?

Certo, come no, se nVidia la vendesse sottocosto.

Io mi aspetto che di sicuro la 4870 sarà più lenta della GX2. Tra nVidia e AMD non è una gara a chi fa la barretta più lunga, ma a chi ottiene la scheda con il miglior rapporto prestazioni/costo (che si traduce nella miglior possibilità per loro di scegliere il prezzo).

Se la 4870 facesse numeri lontanamente paragonabili alla GX2 (cosa che non credo) nVidia le GX2 potrebbe buttarle allegramente nel cesso: perché non potresti pensare di competere con un concorrente che fa la stessa cosa ad un quarto del costo che hai tu. Non è che il prezzo di una scheda nVidia & AMD si alzano una mattina e lo abbassano quanto vogliono.

p.s. ma tu credi che AMD o nVidia non siano "tranquillamente" capaci di tirar fuori una scheda che vada al triplo di una GX2? Certo, purché dal prezzo improponibile e raffreddata ad azoto liquido. :D

Mercuri0
04-05-2008, 18:59
per tutti quelli che non hanno g92 e g80(e pure per le basi di quelle)tu pensi che tutti hanno le 8800gts512 o gtx o ultra assolutamente non è cosi la 9800gtx è appetibilissima e ripeto lo sarà sempre +.
Boh, imo per uno che ha una 8800GTX o una Ultra la 9800GTX è solo un modo per buttar soldi. Mi piacerebbe pensare cosa ne pensano gli interessati :D
Credo che noxius voglia dire "non fate solo una revisione che va tanto quella vecchia

Anche se ancora forse non esiste una GPU singola più veloce della Ultra in tutte le situazioni, il mercato ha una soluzione che va ad una velocità simile a metà del prezzo. Il rapporto prestazioni/costo (cioè l'evoluzione tecnologica che abbiamo avuto) è quindi comunque *il doppio*.

Quindi che sia ati o nvidia,a prezzi da "65/55 nanometri" (leggasi non 600/700 euro perché non è mistero che il processo produttivo inferiore molto spesso fa scaturire costi contenuti,sempre considerando il "non mi interessa per come e per chi ma così è" e la ps3 nuova ne sarà la dimostrazione ulteriore :asd: )
'sta sega. Più aumenta la scala d'integrazione, più aumentano i costi fissi (maschere per la produzione, e il progetto visto che di solito aumento il numero dei transistor), e si riducono i costi per pezzo.

Quindi per la PS3, per cui il peso dei costi fissi è irrilevante a causa del grande volume, si ha una riduzione del prezzo.
edit: il Cell a 45nm, progettato per avere un TDP minore influenza anche il costo di altre parti della console.

Ma per le schede grafiche di fascia "Ultra", l'equazione che consente di spalmare i costi fissi sul numero di pezzi venduti, potrebbe prima o poi non tornare a causa del bacino di mercato limitato.

La soluzione di AMD di fare solo le X2 per la fascia enthusiast è figlia di questa situzione (usando sempre lo stesso chip, AMD può spalmare i costi fissi della scheda enthusiast anche sul mainstream).

halduemilauno
04-05-2008, 18:59
E' stato detto da nVidia ad una conferenza stampa, quindi suppongono che il link diretto non possa esistere. vr-zone riporta la notizia http://forums.vr-zone.com/showthread.php?t=261444 ma l'hanno fatto tanti altri siti a suo tempo.

"Battere" intendi che il g92/g92b è in grado di superare R770 nel rapporto prestazioni/costo (visto che stiamo parlando dal lato produttore) in quattro soluzioni?
La cosa non è affatto così semplice. L'esistenza stessa del G92B serve ad nVidia per contenere i costi. La cosa fu riportata da digitimes http://www.digitimes.com/index.asp, sito vicino ai produttori di PCB orientali, riguardo ad un incontro che nVidia ebbe coi suoi patner. Purtroppo il sito richiede una sottoscrizione per le news vecchie...

Ma perché tu pensi che la cosa sia così automatica?

Come avevo già detto e ripeto, in questi casi sul clock si sceglie in funzione del TDP. Se vuoi un esempio, sul thread di R700 hanno giusto riportato una notizia in cui dicono che AMD non cloccherà al massimo le GDDR5 proprio per questo motivo. Nel caso del G92b c'è anche il discorso degli yeld, a quanto pare.

:eek:
Tu pensi che una scheda come la GX2 (2 pcb, 2 G92, ciascuno da solo più grande di R770, e TDP oltre che doppio) e R770 siano in competizione?

Certo, come no, se nVidia la vendesse sottocosto.

Io mi aspetto che di sicuro la 4870 sarà più lenta della GX2. Tra nVidia e AMD non è una gara a chi fa la barretta più lunga, ma a chi ottiene la scheda con il miglior rapporto prestazioni/costo (che si traduce nella miglior possibilità per loro di scegliere il prezzo).

Se la 4870 facesse numeri lontanamente paragonabili alla GX2 (cosa che non credo) nVidia le GX2 potrebbe buttarle allegramente nel cesso: perché non potresti pensare di competere con un concorrente che fa la stessa cosa ad un quarto del costo che hai tu. Non è che il prezzo di una scheda nVidia & AMD si alzano una mattina e lo abbassano quanto vogliono.

p.s. ma tu credi che AMD o nVidia non siano "tranquillamente" capaci di tirar fuori una scheda che vada al triplo di una GX2? Certo, purché dal prezzo improponibile e raffreddata ad azoto liquido. :D

ho detto che dal momento che ati presenta la 4870 nvidia ha in quel momento la 9800gx2(ammesso che non presenti essa per prima il nuovo chip quindi mi riferivo alla peggior situazione per nvidia quindi gx2 solo come tampone in attesa). ho sempre detto che come avversaria delle 4870 single e dual la sua risposta sarà il gt200. quindi dal momento che il chip g92 sarà confrontato solo con le 4850 ecco che il processo a 55nm in luogo del 65nm ha valenza per le rese e l'economia di produzione(ottime cose per carità)ma può esser meno necessario dal punto di vista delle prestazioni. poi ho anche detto che le 4850 saranno tre versioni(ho postato screen che le citano) nvidia per affrontarle ha gia pronta la 9800gtx e deve pensare all'altra/altre una è ovviamente la 9800gt/gts o magari ambedue quelle.
si credo se saranno prodotte con il g92b le frequenze saranno superiori.
l'esempio della ram gddr5 è per niente significativa è normale che non propongano ram dalle frequenze massime non serve a niente.

halduemilauno
04-05-2008, 19:03
Boh, imo per uno che ha una 8800GTX o una Ultra la 9800GTX è solo un modo per buttar soldi. Mi piacerebbe pensare cosa ne pensano gli interessati :D
Anche se ancora forse non esiste una GPU singola più veloce della Ultra in tutte le situazioni, il mercato ha una soluzione che va ad una velocità simile a metà del prezzo. Il rapporto prestazioni/costo (cioè l'evoluzione tecnologica che abbiamo avuto) è quindi comunque *il doppio*.


'sta sega. Più aumenta la scala d'integrazione, più aumentano i costi fissi (maschere per la produzione, e il progetto visto che di solito aumento il numero dei transistor), e si riducono i costi per pezzo.

Quindi per la PS3, per cui il peso dei costi fissi è irrilevante a causa del grande volume, si ha una riduzione del prezzo.

Ma per le schede grafiche di fascia "Ultra", l'equazione che consente di spalmare i costi fissi sul numero di pezzi venduti, potrebbe prima o poi non tornare a causa del bacino di mercato limitato.

La soluzione di AMD di fare solo le X2 per la fascia enthusiast è figlia di questa situzione (usando sempre lo stesso chip, AMD può spalmare i costi fissi della scheda enthusiast anche sul mainstream).

ma se ho detto che la 9800gtx è per tutti quelli che non hanno g80 e g92 tranne eventualmente quelli che hanno le schede base e tu mi citi le top 8800gtx e ultra?????
:boh:

ATi7500
04-05-2008, 19:10
ho detto che dal momento che ati presenta la 4870 nvidia ha in quel momento la 9800gx2(ammesso che non presenti essa per prima il nuovo chip quindi mi riferivo alla peggior situazione per nvidia quindi gx2 solo come tampone in attesa). ho sempre detto che come avversaria delle 4870 single e dual la sua risposta sarà il gt200. quindi dal momento che il chip g92 sarà confrontato solo con le 4850 ecco che il processo a 55nm in luogo del 65nm ha valenza per le rese e l'economia di produzione(ottime cose per carità)ma può esser meno necessario dal punto di vista delle prestazioni. poi ho anche detto che le 4850 saranno tre versioni(ho postato screen che le citano) nvidia per affrontarle ha gia pronta la 9800gtx e deve pensare all'altra/altre una è ovviamente la 9800gt/gts o magari ambedue quelle.
si credo se saranno prodotte con il g92b le frequenze saranno superiori.
l'esempio della ram gddr5 è per niente significativa è normale che non propongano ram dalle frequenze massime non serve a niente.

E secondo te è normale che nvidia abbia bisogno di due chip diversi (GT200 e G92b) per contrastare schede AMD [B]della stessa serie (4850 e 4870)? :asd:
Sulla parte in grassetto non commento neanche, mi chiedo solo come faccia ad esserci gente che ti va ancora dietro..

bYeZ!

ATi7500
04-05-2008, 19:11
E' stato detto da nVidia ad una conferenza stampa, quindi suppongono che il link diretto non possa esistere. vr-zone riporta la notizia http://forums.vr-zone.com/showthread.php?t=261444 ma l'hanno fatto tanti altri siti a suo tempo.

"Battere" intendi che il g92/g92b è in grado di superare R770 nel rapporto prestazioni/costo (visto che stiamo parlando dal lato produttore) in quattro soluzioni?
La cosa non è affatto così semplice. L'esistenza stessa del G92B serve ad nVidia per contenere i costi. La cosa fu riportata da digitimes http://www.digitimes.com/index.asp, sito vicino ai produttori di PCB orientali, riguardo ad un incontro che nVidia ebbe coi suoi patner. Purtroppo il sito richiede una sottoscrizione per le news vecchie...

Ma perché tu pensi che la cosa sia così automatica?

Come avevo già detto e ripeto, in questi casi sul clock si sceglie in funzione del TDP. Se vuoi un esempio, sul thread di R700 hanno giusto riportato una notizia in cui dicono che AMD non cloccherà al massimo le GDDR5 proprio per questo motivo. Nel caso del G92b c'è anche il discorso degli yeld, a quanto pare.

:eek:
Tu pensi che una scheda come la GX2 (2 pcb, 2 G92, ciascuno da solo più grande di R770, e TDP oltre che doppio) e R770 siano in competizione?

Certo, come no, se nVidia la vendesse sottocosto.

Io mi aspetto che di sicuro la 4870 sarà più lenta della GX2. Tra nVidia e AMD non è una gara a chi fa la barretta più lunga, ma a chi ottiene la scheda con il miglior rapporto prestazioni/costo (che si traduce nella miglior possibilità per loro di scegliere il prezzo).

Se la 4870 facesse numeri lontanamente paragonabili alla GX2 (cosa che non credo) nVidia le GX2 potrebbe buttarle allegramente nel cesso: perché non potresti pensare di competere con un concorrente che fa la stessa cosa ad un quarto del costo che hai tu. Non è che il prezzo di una scheda nVidia & AMD si alzano una mattina e lo abbassano quanto vogliono.

p.s. ma tu credi che AMD o nVidia non siano "tranquillamente" capaci di tirar fuori una scheda che vada al triplo di una GX2? Certo, purché dal prezzo improponibile e raffreddata ad azoto liquido. :D

mi trovi completamente d'accordo, purtroppo il nostro HAL è il classico "burino con ansia da prestazione".

bYeZ!

Mercuri0
04-05-2008, 19:12
sinceramente nn capisco a cosa serve questa gt a 65nm ... da quello che sembra avra prestazioni simili alla 98GTX ... io al posto di nvidia la farei uscire direttamente a 55nm ... :confused:

a vendere gpu a persone sprovvedute.
:mbe: Perché, una GPU a 55nm nanometri va automaticamente più veloce di una a 65? Le nuove PS3 col Cell a 45nm andranno meglio di quelle di ora?

sinceramente nn capisco a cosa serve questa gt a 65nm ... da quello che sembra avra prestazioni simili alla 98GTX ... io al posto di nvidia la farei uscire direttamente a 55nm ... :confused:
La scelta di un nodo per la tecnologia produttiva comporta una riprogettazione e rifabbriccazione delle maschere di produzione (robetta che misura in miliardi di euro), e svariati mesi di test.

Inoltre, se un design ha problemi di yeld (nel senso che nella produzione un certo numero di chip devono essere scartati perché difettosi) il passaggio al nodo successivo rischia di aumentare i problemi.

Raga: dei nm con cui un chip viene realizzato, all'utente non deve interessare niente. Il loro effetto, secondo le scelte del produttore, lo si vedrà nelle caratteristiche delle scheda (prezzo, prestazioni, consumo etc etc), e di sicuro i progettisti faranno al meglio le scelte per ottimizzare questi parametri (tra cui appunto il nodo di processo)

Dei nm ci interessa quando parliamo di tecnologia dal lato del produttore, ma questo non può prescindere dal dover considerare quei miliardi di dollari e mesi di test di cui ho detto sopra.

Mercuri0
04-05-2008, 19:25
ma se ho detto che la 9800gtx è per tutti quelli che non hanno g80 e g92 tranne eventualmente quelli che hanno le schede base e tu mi citi le top 8800gtx e ultra?????
:boh:
scus, avevo letto male il "non" :)


l'esempio della ram gddr5 è per niente significativa è normale che non propongano ram dalle frequenze massime non serve a niente.
Era un esempio come un altro. Ecco un altro, di un ignegnere ATI a proposito del clock di R600
When we selected 80HS, we selected it based on faster transistors, better density and also the fact that 65nm would not be available for production for R600. 65nm did get pulled in so the schedule aspect was probably a little off. However, the transistors are faster and leakier, and we were aware of this. We ended up setting up the final clock based on TDP for the worst case scenarios. That usually means that there's a lot of headroom left for overclocking. Most boards seem to get engines over 800 MHz without any problems. With a good bottle of liquid nitrogen, you can get over 1 GHZ ;-)
http://www.beyond3d.com/content/interviews/39/1
(tra l'altro, leggendo interviste tecniche ai progettisti, ci si rende conto di quando siamo ridicoli quando noialtri ci atteggiamo ad architetturisti :D )


Sulla parte in grassetto non commento neanche, mi chiedo solo come faccia ad esserci gente che ti va ancora dietro..

Io penso che sul fatto del clock della memoria hal possa avere ragione. Una memoria a 4ghz o giù di li su un bus a 256bit mi pare che dia tutta la banda di cui R770 possa aver bisogno.

Questo è un terreno di scontro interessante per il G92B e i derivati mainstream del GT200: il g92 sembra essere molto limitato dalla banda di accesso alla memoria, e un bus a 512bit per la fascia mainsteam è abbastanza costoso... il bus a 256bit e GDDR5 potrebbe essere una arma in più per R770. Ma certo alla nVidia sanno il fatto loro.. sono proprio curioso di vedere che succede :)

halduemilauno
04-05-2008, 19:38
tanto per fare chiarezza:
dagli ultimi rumors la serie 48xx di ati sarà composta come segue:
4870x2(R700 ovvero due RV770).
4870(RV770).
4850 512 gddr5(RV770).
4850 512 gddr3(RV770).
4850 256 gddr3(RV770).
nvidia:
9900gtx(GT200).
9900gts(GT200).
9800gtx(G92).
9800gts(G92/b)?
9800gt(G92/b)?
come dicevo prima in attesa delle 9900 nvidia ha la 9800gx2. ovviamente l'uso del G92/G92b è dovuto al fatto che esso è gia presente ed è giudicato(a torto o a ragione)perfettamente competitivo per l'uso che ci si aspetta ovvero il confronto diretto con le 4850 e in tutti i casi esso appartiene alla stessa famiglia iniziata dal G80 della quale fa parte anche il GT200.
questo dovrebbe essere lo scenario prossimo venturo a pieno regime. in attesa di altre schede come la terza 9900gt.
;)

-noxius-
04-05-2008, 19:38
Era un esempio come un altro. Ecco un altro, di un ignegnere ATI a proposito del clock di R600

http://www.beyond3d.com/content/interviews/39/1
(tra l'altro, leggendo interviste tecniche ai progettisti, ci si rende conto di quando siamo ridicoli quando noialtri ci atteggiamo ad architetturisti :D )


Io penso che sul fatto del clock della memoria hal possa avere ragione. Una memoria a 4ghz o giù di li su un bus a 256bit mi pare che dia tutta la banda di cui R770 possa aver bisogno.

Questo è un terreno di scontro interessante per il G92B e i derivati mainstream del GT200: il g92 sembra essere molto limitato dalla banda di accesso alla memoria, e un bus a 512bit per la fascia mainsteam è abbastanza costoso... il bus a 256bit e GDDR5 potrebbe essere una arma in più per R770. Ma certo alla nVidia sanno il fatto loro.. sono proprio curioso di vedere che succede :)

Me l'ero perso questa discussione , interessante . E' possibile che effettivamente non abbiano spinto le memorie oltre i 4GHz per almeno due valori : TDP , come avete detto , e bandwidht non saturato e quindi inutilità di spingere le memorie oltre .

Se davvero fosse così significa che si potrebbe spingere il core di parecchio e non esser limitati dalle RAM , come invece è successo per le 8800GT e GTS 512 in pesante OC !! Promettente, non c'è che dire ;)

ps: in generale, evitiamo toni di polemica ed accuse di fanboismo vario , si arriva ad un punto morto, si va OT e non si prosegue la discussione nella maniera più opportuna ;)

halduemilauno
04-05-2008, 19:41
scus, avevo letto male il "non" :)


Era un esempio come un altro. Ecco un altro, di un ignegnere ATI a proposito del clock di R600

http://www.beyond3d.com/content/interviews/39/1
(tra l'altro, leggendo interviste tecniche ai progettisti, ci si rende conto di quando siamo ridicoli quando noialtri ci atteggiamo ad architetturisti :D )


Io penso che sul fatto del clock della memoria hal possa avere ragione. Una memoria a 4ghz o giù di li su un bus a 256bit mi pare che dia tutta la banda di cui R770 possa aver bisogno.

Questo è un terreno di scontro interessante per il G92B e i derivati mainstream del GT200: il g92 sembra essere molto limitato dalla banda di accesso alla memoria, e un bus a 512bit per la fascia mainsteam è abbastanza costoso... il bus a 256bit e GDDR5 potrebbe essere una arma in più per R770. Ma certo alla nVidia sanno il fatto loro.. sono proprio curioso di vedere che succede :)

ok chiarito. il primo punto e il grassetto.

FreeMan
04-05-2008, 19:54
mi trovi completamente d'accordo, purtroppo il nostro HAL è il classico "burino con ansia da prestazione".


e chi appioppa certe "definizione" sarebbe il classico cosa?

sospeso 5gg

>bYeZ<

appleroof
04-05-2008, 22:57
zi mi scuso con tutti per il termine che ho usato :)

Io però non volevo riferirmi ad un opinione di qualcuno in specifico (non mi permetterei mai di dare dello stupido a nessuno), ma alla "corrente di pensiero" che circola in giro un pò ovunque, che secondo ma nasce più da un generico fanboysmo internettaro che da riflessioni oggettive.

La finestra temporale per cui un chip è presentabile, è molto stretta, sopratutto per le GPU: se io faccio un design previsto per una certa data di lancio, e lo rimando di sei mesi o oltre, tra sei mesi il concorrente potrebbe avere a disposizione un nuovo processo produttivo, nuovi tipi di memoria, e più informazioni sulle risorse usate dai giochi recenti. Tutte cose che io non potrei usare, perché ho un design vecchio. In passato aziende di acceleratori grafici sono fallite per cose di questo tipo (errata previsione dei prezzi delle memorie alla data del lancio).

Imo è più probabile che un design venga "saltato" più che rimandato per tanto tempo, per assenza di concorrenza. (ovvio che se il ritardo è per problemi tecnici, quello ho e quello tiro fuori... tipo R600 :asd: )

Poi nVidia non fa concorrenza solo ad AMD, ma anche a sé stessa. La maggior parte dei possessori di 8800GTX e Ultra non hanno ancora cambiato scheda (almeno credo ^^''), e siccome nVidia fa soldi solo quando vende schede, se avesse avuto una proposta che gli ultrari avrebbero trovato attraente, non vedo perché non avrebbe dovuto venderla.

Certo la concorrenza debole aiuta a massimizzare i profitti consentendo più elasticità sui tempi e i prezzi. Però, come ho detto nel post di sopra, è evidente che AMD abbia dato parecchie noie alla roadmap di nVidia in questi mesi.

p.s. vedremo se il G92B basterà a contrastare R770 ;) Lo scontro si preannuncia molto interessante, anche se il G92B non ha l'aria di essere un "asso nella manica" come fu il G92 al suo tempo.

ecco (grassetto sottolineato) la frase magica: tu ed io non abbiamo nessuna certezza che sia o meno andata così

io propendo per la prima ipotesi (in sostanza rimando continuo --con al limite sviluppo ulteriore -- fino a quando è possibile) sulla base di semplici considerazioni, prima fra tutte appunto l'assoluta "sufficienza" delle soluzioni attuali a contrastare quelle di Ati sul piano delle prestazioni e poi con fatica su quelle del prezzo

Ati ti svende le 3870 grazie ai 55nm? ti caccia le schede a 65nm e in tutte le salse per tutte le tasche (8800gt/gts 9600gt 9800gtx)

Ati alza la voce con la 3870x2? caccia fuori la GX2 (aadirittua già qui riesce a competere -anche nel prezzo- già con la 9800gtx, la gx2 è per questioni di immagine, oltre che pure prestazioni)

noi parliamo di un chip, GT200, che ci apsttiamo superiore, di quanto si vedrà, alla GX2 , per quale cavolo di motivo doveva farlo uscire a febbraio scorso? Per far contenti noi del forum? E poi quando usciva r700 che magari andrà come o meglio di GT200 che si inventava (a quel punto si che la vedevo davvero dura)?

sono come vedi semplici considerazioni, non lavoro nè da Nvidia nè da Ati, ma insieme al fatto che pare che il chip è in giro da marzo.......

Amd non ha stravolto alcuna roadmap (lo avrebbe fatto con schede nuove e più prestanti di rv670): ha messo in relativa difficoltà Nvidia dal punto di vista dei costi, questo si, perchè ha potuto così attuare una politica molto aggressiva sui prezzi (rinunciando a buona parte di guadagni, mica in maniera indolore, stai pur certo che se avesse potuto evitare lo avrebbe fatto ben volentieri) resa possibile dai 55nm e relativa ottima resa e per colpa della stessa Nvidia che non si è attivata per tempo a produrre anch'essa a 55nm

E' stato detto da nVidia ad una conferenza stampa, quindi suppongono che il link diretto non possa esistere. vr-zone riporta la notizia http://forums.vr-zone.com/showthread.php?t=261444 ma l'hanno fatto tanti altri siti a suo tempo.

"Battere" intendi che il g92/g92b è in grado di superare R770 nel rapporto prestazioni/costo (visto che stiamo parlando dal lato produttore) in quattro soluzioni?
La cosa non è affatto così semplice. L'esistenza stessa del G92B serve ad nVidia per contenere i costi. La cosa fu riportata da digitimes http://www.digitimes.com/index.asp, sito vicino ai produttori di PCB orientali, riguardo ad un incontro che nVidia ebbe coi suoi patner. Purtroppo il sito richiede una sottoscrizione per le news vecchie...

Ma perché tu pensi che la cosa sia così automatica?

Come avevo già detto e ripeto, in questi casi sul clock si sceglie in funzione del TDP. Se vuoi un esempio, sul thread di R700 hanno giusto riportato una notizia in cui dicono che AMD non cloccherà al massimo le GDDR5 proprio per questo motivo. Nel caso del G92b c'è anche il discorso degli yeld, a quanto pare.

:eek:
Tu pensi che una scheda come la GX2 (2 pcb, 2 G92, ciascuno da solo più grande di R770, e TDP oltre che doppio) e R770 siano in competizione?

Certo, come no, se nVidia la vendesse sottocosto.

Io mi aspetto che di sicurola 4870 sarà più lenta della GX2. Tra nVidia e AMD non è una gara a chi fa la barretta più lunga, ma a chi ottiene la scheda con il miglior rapporto prestazioni/costo (che si traduce nella miglior possibilità per loro di scegliere il prezzo).

Se la 4870 facesse numeri lontanamente paragonabili alla GX2 (cosa che non credo) nVidia le GX2 potrebbe buttarle allegramente nel cesso: perché non potresti pensare di competere con un concorrente che fa la stessa cosa ad un quarto del costo che hai tu. Non è che il prezzo di una scheda nVidia & AMD si alzano una mattina e lo abbassano quanto vogliono.

p.s. ma tu credi che AMD o nVidia non siano "tranquillamente" capaci di tirar fuori una scheda che vada al triplo di una GX2? Certo, purché dal prezzo improponibile e raffreddata ad azoto liquido. :D

tutto questo discorso (soprattutto di nuovo quello grassettato), insieme a quello del post di prima è stupendo se pensi come un industriale (a parte che Nvidia ha fatturato da record nel 2007, quindi non credo si piangano addosso) ma dal punto di vista del gamer contano le prestazioni, il resto è fuffa: solo se proprio non ce la fà prende quella prezzo/prestazioni migliore (il che equivale a dire il compromesso migliore, non la scheda migliore in assoluto), ma oggi, dove le differenze di attestano sui 30/40 euro, chi non prenderebbe una 8800gt al posto di una 3870, oppure una 9800gtx al posto di una 3870x2, a parte i fanboy Ati? Nessuno.

Kharonte85
04-05-2008, 23:17
Accid3nti...sto via una settimana e mi sembra di essere fuori dal giro da una vita...:fagiano:

Mi sono perso qualcosa (di serio)? si sa qualcosa di piu' sulle tempistiche? Non si potrebbe avere un riassuntino? :stordita:

Mercuri0
04-05-2008, 23:42
io propendo per la prima ipotesi (in sostanza rimando continuo --con al limite sviluppo ulteriore -- fino a quando è possibile) sulla base di semplici considerazioni, prima fra tutte appunto l'assoluta "sufficienza" delle soluzioni attuali a contrastare quelle di Ati sul piano delle prestazioni e poi con fatica su quelle del prezzo

A riguardo proprio oggi ho visto un commento di due dei più autorevoli membri (tra cui Arun, il boss :cool: ) di beyond3d
http://forum.beyond3d.com/showpost.php?p=1156869&postcount=747
http://forum.beyond3d.com/showpost.php?p=1156860&postcount=743
Come vedi anche loro non riescono ad essere cauti con gli aggettivi a proposito di questo argomento... è un discorso che veramente finisce con l'irritare.

Cito spesso beyond3d perché è il forum di riferimento per queste cose, bazzicato anche da gente che ora lavora in AMD e Intel (su Larrabee - sigh, beati loro). Anche il nostro leoneazzuro posta ormai più di la che di qua.

tutto questo discorso (soprattutto di nuovo quello grassettato), insieme a quello del post di prima è stupendo se pensi come un industriale (a parte che Nvidia ha fatturato da record nel 2007, quindi non credo si piangano addosso) ma dal punto di vista del gamer contano le prestazioni, il resto è fuffa:
Io più che dal punto di vista industriale, parlo del punto di vista tecnologico.
Penso sia importante per capire il come e il perché delle cose che accadono e le scelte che AMD & nVidia fanno (come appunto perché una non usa i 55nm etc etc), e in questo thread servono appunto a prevedere le possibili prestazioni e il collocamento delle schede future.

Altrimenti che staremo a fare qui? A passarci rumors su quante X avranno nel nome le schede future? O a sbavare guardando divertenti photoshop di GPU-z? ;)

Infine anche per il gamer più extremo conta il prezzo: questa è la ragione perché né nVidia né AMD producono schede per videogiocatori da 1000 euro. Mica perché non ne sarebbero capaci.

Se una scheda non soddisfa certi requisiti di prestazioni/costo, non può venir prodotta. E questo vale anche per le schede della fascia extrema.

Alexkidd85
05-05-2008, 00:11
A riguardo proprio oggi ho visto un commento di due dei più autorevoli membri (tra cui Arun, il boss :cool: ) di beyond3d
http://forum.beyond3d.com/showpost.php?p=1156869&postcount=747
http://forum.beyond3d.com/showpost.php?p=1156860&postcount=743
Come vedi anche loro non riescono ad essere cauti con gli aggettivi a proposito di questo argomento... è un discorso che veramente finisce con l'irritare.

Cito spesso beyond3d perché è il forum di riferimento per queste cose, bazzicato anche da gente che ora lavora in AMD e Intel (su Larrabee - sigh, beati loro). Anche il nostro leoneazzuro posta ormai più di la che di qua.

Io più che dal punto di vista industriale, parlo del punto di vista tecnologico.
Penso sia importante per capire il come e il perché delle cose che accadono e le scelte che AMD & nVidia fanno (come appunto perché una non usa i 55nm etc etc), e in questo thread servono appunto a prevedere le possibili prestazioni e il collocamento delle schede future.

Altrimenti che staremo a fare qui? A passarci rumors su quante X avranno nel nome le schede future? O a sbavare guardando divertenti photoshop di GPU-z? ;)

Infine anche per il gamer più extremo conta il prezzo: questa è la ragione perché né nVidia né AMD producono schede per videogiocatori da 1000 euro. Mica perché non ne sarebbero capaci.

Se una scheda non soddisfa certi requisiti di prestazioni/costo, non può venir prodotta. E questo vale anche per le schede della fascia extrema.

Manca per me se non ho capito una cippa di quello che hai scritto (ripeto,manca per me che non ho seguito bene il discorso tra te ed apple) però concordo sul fatto del prezzo/prestazioni... :fagiano:

cristian-BG
05-05-2008, 00:49
allora io sono nei cosiddetti casini...
xè x massimo metà giugno devo ordinare il pc nuovo.. e nn posso aspettare.. quindi valuterò se le skede che presenterà ati saranno piu veloci della gx2 sennò andrò di gx2! vedremo che casino :doh: :doh: :doh:

ArCH85
05-05-2008, 00:54
allora io sono nei cosiddetti casini...
xè x massimo metà giugno devo ordinare il pc nuovo.. e nn posso aspettare.. quindi valuterò se le skede che presenterà ati saranno piu veloci della gx2 sennò andrò di gx2! vedremo che casino :doh: :doh: :doh:

se il pc che hai ora è quello che hai in firma io non aggiornerei se non per motivi di lavoro (che poi quale lavoro? :P)O_o


non indago perchè non sono affari miei giustamente.. ma in qualunque caso verso metà giugno *potrebbe* esserci la 4870.. e se va come si dice come la GX2 io prenderei quella.. one chip is megl di two! :D

cristian-BG
05-05-2008, 01:09
se il pc che hai ora è quello che hai in firma io non aggiornerei se non per motivi di lavoro (che poi quale lavoro? :P)O_o


non indago perchè non sono affari miei giustamente.. ma in qualunque caso verso metà giugno *potrebbe* esserci la 4870.. e se va come si dice come la GX2 io prenderei quella.. one chip is megl di two! :D

il pc che ho in signa l'ho dato a mio fratello ^^
sn a piedi di tutto :doh: :doh: :doh: :D
vedremo l'evolversi della faccenda buona notte :)

A.L.M.
05-05-2008, 02:24
sono come vedi semplici considerazioni, non lavoro nè da Nvidia nè da Ati, ma insieme al fatto che pare che il chip è in giro da marzo.......

Il tape-out avviene prima che la scheda venga resa disponibile ai partners. Quello di RV770 è avvenuto a gennaio, ma non credo che le HD4xxx fossero "in giro" già allora. ;)

Amd non ha stravolto alcuna roadmap (lo avrebbe fatto con schede nuove e più prestanti di rv670): ha messo in relativa difficoltà Nvidia dal punto di vista dei costi, questo si, perchè ha potuto così attuare una politica molto aggressiva sui prezzi (rinunciando a buona parte di guadagni, mica in maniera indolore, stai pur certo che se avesse potuto evitare lo avrebbe fatto ben volentieri) resa possibile dai 55nm e relativa ottima resa e per colpa della stessa Nvidia che non si è attivata per tempo a produrre anch'essa a 55nm

Beh, non puoi negare che il naming quantomeno "strano" e confusionario delle ultime Nvidia fa pensare a soluzioni arrabattate in tempi molto più stretti del normale: tra l'altro è stato riportato da vari siti che dapprincipio il destino di G92 doveva essere un altro (fascia intermedia tra le 8600 e le 8800). La storia del cooler insufficiente della GT fa anche pensare che abbiano fatto l'impossibile per contenere i costi (e sta tranquillo che anche NVidia ha dovuto rinunciare a un bel po' di guadagni su G92, visti i prezzi attuali)... ;)
Tra l'altro le notizie ricorrenti sui pessimi yields dei 65nm per Nvidia, e quelle degli ottimi risultati coi 55nm di ATI mi fanno pensare che in certi price points ad avere margini migliori è proprio ATi (vero che i suoi prezzi sono più bassi, ma ha anche costi più bassi, dovuti al processo produttivo inferiore ed agli yields migliori). ;)


tutto questo discorso (soprattutto di nuovo quello grassettato), insieme a quello del post di prima è stupendo se pensi come un industriale (a parte che Nvidia ha fatturato da record nel 2007, quindi non credo si piangano addosso) ma dal punto di vista del gamer contano le prestazioni, il resto è fuffa: solo se proprio non ce la fà prende quella prezzo/prestazioni migliore (il che equivale a dire il compromesso migliore, non la scheda migliore in assoluto), ma oggi, dove le differenze di attestano sui 30/40 euro, chi non prenderebbe una 8800gt al posto di una 3870, oppure una 9800gtx al posto di una 3870x2, a parte i fanboy Ati? Nessuno.

Su questo ti do' ragione. :)

A.L.M.
05-05-2008, 03:16
Su PCinlife uno dei membri più importanti, PHK (che spesso ha pubblicato le foto delle schede NVidia in anteprima col suo watermark), ha anticipato alcune info importanti su GT200.
In ordine:

- lancio a Luglio
- GT200 (9900GTX) è single core
- il bus dovrebbe essere un crossbar a 512bit
- ha 32 ROPs
- sarà alimentato con 6+8pin, alimentatore raccomandato 550-600W (quindi come minimo si attesterà sui 200W di TDP).
- 2 9900GTX in SLI dovrebbero riuscire a far girare Crysis in Very High a 2560x1600 con AA4x a 25fps. (considerando che una 8800GTX fa circa 8-9fps con quelle impostazioni, e che una sola 9900GTX dovrebbe fare circa 14fps, calcolando che lo sli in Crysis fa aumentare le prestazioni del 75%-80% in media, quando funziona, dovrebbe essere un incremento compreso tra il 50% ed il 75% circa rispetto a G80).

fonte: we.pcinlife.com

P.S.: i calcoli sui valori prestazionali li ho fatti sui dati di computerbase.de e digit-life. :)

D4N!3L3
05-05-2008, 07:59
Su PCinlife uno dei membri più importanti, PHK (che spesso ha pubblicato le foto delle schede NVidia in anteprima col suo watermark), ha anticipato alcune info importanti su GT200.
In ordine:

- lancio a Luglio
- GT200 (9900GTX) è single core
- il bus dovrebbe essere un crossbar a 512bit
- ha 32 ROPs
- sarà alimentato con 6+8pin, alimentatore raccomandato 550-600W (quindi come minimo si attesterà sui 200W di TDP).
- 2 9900GTX in SLI dovrebbero riuscire a far girare Crysis in Very High a 2560x1600 con AA4x a 25fps. (considerando che una 8800GTX fa circa 8-9fps con quelle impostazioni, e che una sola 9900GTX dovrebbe fare circa 14fps, calcolando che lo sli in Crysis fa aumentare le prestazioni del 75%-80% in media, quando funziona, dovrebbe essere un incremento compreso tra il 50% ed il 75% circa rispetto a G80).

fonte: we.pcinlife.com

P.S.: i calcoli sui valori prestazionali li ho fatti sui dati di computerbase.de e digit-life. :)

Beh non mi sembra tutto sto granchè di scheda! :confused:

Mercuri0
05-05-2008, 08:36
Non so se questo grafico era stato postato... in un certo senso era la roadmap di nVidia.

http://images.bit-tech.net/content_images/2008/04/david-kirk-interview/79.jpg

p.s. next-gen nel 2009. Quindi, la butto li, se R770 fa il botto, nVidia sul GT200 pubblicizzarà l'accelerazione fisica... magari già dal 14 maggio ;)
Tesla2 = Tegra?

-noxius-
05-05-2008, 08:39
DX11 ? Ma che diavolo ..

halduemilauno
05-05-2008, 08:57
Non so se questo grafico era stato postato... in un certo senso era la roadmap di nVidia.

http://images.bit-tech.net/content_images/2008/04/david-kirk-interview/79.jpg

p.s. next-gen nel 2009. Quindi, la butto li, se R770 fa il botto, nVidia sul GT200 pubblicizzarà l'accelerazione fisica... magari già dal 14 maggio ;)
Tesla2 = Tegra?

GT200=GeforceTegra=Tesla Graphics

;)

zorco
05-05-2008, 10:02
Beh non mi sembra tutto sto granchè di scheda! :confused:
visto le caratteristiche del chip così com'è un raddoppio delle prestazioni rispetto a G80 è quasi improbabile..

A.L.M.
05-05-2008, 10:23
visto le caratteristiche del chip così com'è un raddoppio delle prestazioni rispetto a G80 è quasi improbabile..

Infatti. Mi sembrano comunque ottime prestazioni, date le specifiche.
Tra l'altro dai dati che ho postato si può derivare anche che GT200 sarà ancora a 65nm, visti i consumi, e che nell'immediato è pressochè impossibile che NVidia lanci una GX2 con GT200 così come sarà a luglio. Al massimo in futuro col die-shrink a 55nm... :)

Mercuri0
05-05-2008, 10:34
Infatti. Mi sembrano comunque ottime prestazioni, date le specifiche.

Quotissimo! Io non capisco come 50-70% rispetto G80 possa sembrar poco.

A me pare che l'hype scorra forte in noi :D

zorco
05-05-2008, 10:42
Infatti. Mi sembrano comunque ottime prestazioni, date le specifiche.
Tra l'altro dai dati che ho postato si può derivare anche che GT200 sarà ancora a 65nm, visti i consumi, e che nell'immediato è pressochè impossibile che NVidia lanci una GX2 con GT200 così come sarà a luglio. Al massimo in futuro col die-shrink a 55nm... :)
no ma infatti le prestazioni mi sembrano ugualmente ottime,se realmente andasse un 50/75% in + rispetto a G80 sarebbe un risultato veramente notevole...dopotutto si tratta di una architettura non radicalmente nuova..

si visto i consumi non credo si possa realizzare una gx2 con il chip GT200 a 65nm,dovrebbero scendere ad un processo produttivo parecchio più basso...

-noxius-
05-05-2008, 10:47
Se così fosse per un eventuale SLI saranno dolori :rolleyes: .. Poi per cosa ? 25 FPS a crysis in full hd :ciapet:

A.L.M.
05-05-2008, 10:50
http://translate.google.co.uk/translate?u=we.pcinlife.com&langpair=zh%7Cen&hl=en&ie=UTF-8

Questo è l'indirizzo del thread in questione.

PHK aggiunge che il prezzo potrebbe essere molto alto, anche se più basso di quello della Ultra appena uscita. Se fosse vero questo, penso che supererà (anche se di poco) la GX2. Ovviamente molto dipenderà da R700, dalle sue prestazioni e dal suo pricing.

Mercuri0
05-05-2008, 11:45
si visto i consumi non credo si possa realizzare una gx2 con il chip GT200 a 65nm,dovrebbero scendere ad un processo produttivo parecchio più basso...
:winner: quotone anche qui!

A meno che il G80/G92 abbia qualche collo di bottiglia inaspettato che GT200 possa rimuovere. Ma a parte la banda verso la memoria, non se ne son visti.

Dai rumors in giro secondo me alla GX2 il GT200 ci può arrivare, ad un prezzo simile, e magari superarla in qualche contesto in cui la GX2 non va al meglio. Ma troppo di più mi pare improbabile.

Si parla di un chip da 500mm^2 e di una scheda da 10.5'' con TDP da 250Watt. Ci credo che non sarà esattamente economica.

halduemilauno
05-05-2008, 12:31
http://www.theinquirer.net/gb/inquirer/news/2008/05/03/nvidia-reschedules-editors-day

spostato il 22/23 maggio.
;)

Alexkidd85
05-05-2008, 12:56
Sembrano le promozioni sky :asd:
Esce prima dell'estate e con il piffero che me lo compro! Sto un estate a giocare? Quello lo lascio ai bimbiminchia :rolleyes: Quindi se ne parla per settembre o ottobre per quel che mi riguarda...

Non ho capito una cosa: ci sarà subito dopo (quanto dopo!?) una revisione a 55nm!?

Enochian
05-05-2008, 14:09
Mi iscrivo perchè devo assemblare un pc entro luglio, ma non ho capito bene quando esca e come si ponga la gt 200 rispetto alla 9800gx2; c'è chi dice che raddoppi le prestazioni rispetto a quest'ultima e chi invece dice che sia solo di poco superiore.
In ogni caso credo che prima di settembre non esca, visto che non ci sono date ufficiali ma solo dichiarazioni giornalistiche.

halduemilauno
05-05-2008, 14:12
Mi iscrivo perchè devo assemblare un pc entro luglio, ma non ho capito bene quando esca e come si ponga la gt 200 rispetto alla 9800gx2; c'è chi dice che raddoppi le prestazioni rispetto a quest'ultima e chi invece dice che sia solo di poco superiore.
In ogni caso credo che prima di settembre non esca, visto che non ci sono date ufficiali ma solo dichiarazioni giornalistiche.

se di doppio si è parlato sempre riferito alla 8800gtx non certo alla 9800gx2.
;)

Kharonte85
05-05-2008, 14:16
http://www.theinquirer.net/gb/inquirer/news/2008/05/03/nvidia-reschedules-editors-day

spostato il 22/23 maggio.
;)
Significa che in quel loco trapeleranno informazioni sulla GT200?

Enochian
05-05-2008, 14:18
se di doppio si è parlato sempre riferito alla 8800gtx non certo alla 9800gx2.
;)

Capito ma dalle specifiche che sembra avere questa scheda, la versione single gpu quanto sarà più veloce di un quad sli con 2 9800 gx2?

A.L.M.
05-05-2008, 14:20
Capito ma dalle specifiche che sembra avere questa scheda, la versione single gpu quanto sarà più veloce di un quad sli con 2 9800 gx2?

Non sarà più veloce di uno SLI di GX2, mi sembra ovvio. :)

Enochian
05-05-2008, 14:23
Perfetto, allora di sicuro non aspetto la gt e posso passare direttamente al quad sli.:cool:

Kharonte85
05-05-2008, 14:23
Capito ma dalle specifiche che sembra avere questa scheda, la versione single gpu quanto sarà più veloce di un quad sli con 2 9800 gx2?
questo quasi sicuramente no....a meno che non la dopino... :asd:
Perfetto, allora di sicuro non aspetto la gt e posso passare direttamente al quad sli.:cool:
Azz...ma sei sicuro di sfruttarlo? Che monitor usi?