View Full Version : [THREAD UFFICIALE] Aspettando 9800GTX
Pagine :
[
1]
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
http://img292.imageshack.us/img292/7241/000000043041kz5.jpg
Info:
Secondo gli ultimi rumor (http://www.hwupgrade.it/news/skvideo/geforce-9800-gx2-i-primi-dettagli_23750.html) sembra che G100 non sarà il chip utilizzato nella prossima soluzione high-end ma in futuro, probabilmente per contrastare R700(maggio/giugno), o nel peggiore dei casi nel tardo 2008.
Nessuna informazione credibile riguardante l'architettura di questo chip è trapelata sinora.
esatto, non sembra più una caxxata ora:
http://www.tomshw.it/news.php?newsid=12176
albert75
30-11-2007, 12:09
ho fatto bene ad aspettare allora...speriamo che vada bene con crysis a risoluzioni alte.........MITICO
1200-1300 miliardi mi sembra un po' esagarato...
magardi volevi dire 1,2-1,3 miliardi
coaiz
appleroof
30-11-2007, 13:48
Finalmente si comincia a muovere qualcosa. Febbraio......ma vieni :D :D
Toglierei quel "per competere con R680" visto che è fuori luogo ed errato. La D9E competerà con R700. ;)
Comunque Marko ti conviene nasconderti per un pò, perché Halduemilauno dubito ti perdonerà l'aver aperto tu questo thread. :D
appleroof
30-11-2007, 13:52
Toglierei quel "per competere con R680" visto che è fuori luogo ed errato. La D9E competerà con R700. ;)
esatto, così dovrebbe essere ;)
albert75
30-11-2007, 13:54
finalmente vedremo crysis girare:D
ECCOMI!
silenzioso e onnipresente... :D
Praetorian
30-11-2007, 13:56
il processo produttivo non è a 55nm?
Praetorian
30-11-2007, 13:56
ECCOMI!
silenzioso e omnipresente... :D
forse volevi dire onnipresente :P
appleroof
30-11-2007, 14:00
il processo produttivo non è a 55nm?
Le novità annunciate da Digitimes in ogni caso non finiscono qui, in quanto viene indicata anche una possibile presentazione di una famiglia di schede "Performance", indicate dal nome in codice D9P.
Questa famiglia di schede troverà la propria collocazione nella fascia media e sarà realizzata utilizzando il processo produttivo a 55nm.
http://www.hwupgrade.it/news/skvideo/nvidia-geforce-9-in-arrivo-a-febbraio_23451.html
;)
appleroof
30-11-2007, 14:09
Toglierei quel "per competere con R680" visto che è fuori luogo ed errato. La D9E competerà con R700. ;)
Comunque Marko ti conviene nasconderti per un pò, perché Halduemilauno dubito ti perdonerà l'aver aperto tu questo thread. :D
esatto, così dovrebbe essere ;)
mi correggo in parte perchè ho letto qualche altro sito (tra cui lo stesso tom's) dove in effetti si afferma che la d9e si confronterà con r680....forse perchè r700 è previsto molto dopo d9e?
qui invece un accenno alla roadmap delle nuove vga D9
http://www.dinoxpc.com/News/news.asp?ID_News=13571&What=&tt=Nvidia%3A+GeForce+serie+9+in+arrivo+a+febbraio
forse volevi dire onnipresente :Ptzè :stordita:
tra italiano, latino, spagnolo e inglese si fà confusione... :asd:
cmq questa scheda se non supera i 550€ all'uscita sarà mia! :D
512 bit ancora con il crossbar? Spero di no.
Altrimenti preparatevi a schede costose. :rolleyes:
albert75
30-11-2007, 14:15
quindi le d9p saranno di fascia media e le d9e di fascia alta??
Brightblade
30-11-2007, 14:16
Eccomi nel mio quarto "Aspettando..." :yeah:
Praetorian
30-11-2007, 14:17
512 bit ancora con il crossbar? Spero di no.
Altrimenti preparatevi a schede costose. :rolleyes:
io spero di si, mi stanno antipatiche quelle cifre non "standard" :D forza con i 512bit
quindi le d9p saranno di fascia media e le d9e di fascia alta??
esatto :)
quindi le d9p saranno di fascia media e le d9e di fascia alta??
D9E "Enthusiast"
D9P "Performance"
D9M "Mainstream" ?
appleroof
30-11-2007, 14:19
quindi le d9p saranno di fascia media e le d9e di fascia alta??
si, D9E stà per entusiasth (fascia top) e D9P stà per performance (fascia medio-alta) insomma l'equivalente delle attuali 8800gtx/gts ;)
512 bit ancora con il crossbar? Spero di no.
Altrimenti preparatevi a schede costose. :rolleyes:
se valgono quello che costano, come le g80, và benissimo, preferisco così che spendere 2 volte 200/250 euro per 2 vga che non mi soddisfano per nulla ;)
albert75
30-11-2007, 14:19
ma ho letto che la dp esce l undici del mese, ma quale mese febbraio?
Athlon 64 3000+
30-11-2007, 14:22
se faranno una scheda con il controller a 512 sarebbe un suicidio utilizzare il controller di memoria di tipo crossbar perchè se con la 8800GTX si è arrivati a 28 cm con il bus a 384 bit con il bus a 512 bit si avrebbe una scheda più lunga e forse oltre 30 cm.
Spero che con G100 abbiamo riprogettato il controller di memoria magari usandone uno di tipo ring bus tipo quello di R600 per far si che la scheda non venga con il pcb troppo lungo.
Io penso che G100 avrà uno shader core molto più efficiente di quello di G80 e quindi più sbilanciato nelle operazione negli shader rispetto a G80.
Se G100 esce veramente a febbraio spero che AMD non tardi troppo a mettere sul mercato R700.
appleroof
30-11-2007, 14:22
ma ho letto che la dp esce l undici del mese, ma quale mese febbraio?
quella è la D8P cioè la gts65nm, in questo caso è l'8 a far la differenza
allora c'è la
D8P= 8800gts65nm 11 dicembre
D9E= 8900 (?) gtx febbraio
D9P= 8900 gts giugno
D9M= 8900 gt (?) agosto/settembre (date prese dai rumors, da confermare)
appleroof
30-11-2007, 14:24
se faranno una scheda con il controller a 512 sarebbe un suicidio utilizzare il controller di memoria di tipo crossbar perchè se con la 8800GTX si è arrivati a 28 cm con il bus a 384 bit con il bus a 512 bit si avrebbe una scheda più lunga e forse oltre 30 cm.
Spero che con G100 abbiamo riprogettato il controller di memoria magari usandone uno di tipo ring bus tipo quello di R600 per far si che la scheda non venga con il pcb troppo lungo.
Io penso che G100 avrà uno shader core molto più efficiente di quello di G80 e quindi più sbilanciato nelle operazione negli shader rispetto a G80.
Se G100 esce veramente a febbraio spero che AMD non tardi troppo a mettere sul mercato R700.
ma secondo te è solo il crossbar a rendere necessario un pcb così lungo? non dovrebbero compensare con il die più piccolo (65/55nm)?
cmq personalmente mi interessa poco: la 8800gtx entra perfettamente nel mio case (un normalissimo aeroengine II) :)
seguo con interesse. Non è il genere di scheda che acquisto ma son sicuro che sarà una bella bestia.
albert75
30-11-2007, 14:25
quella è la D8P cioè la gts65nm, in questo caso è l'8 a far la differenza
allora c'è la
D8P= 8800gts65nm 11 dicembre
D9E= 8900 (?) gtx febbraio
D9P= 8900 gts giugno
D9M= 8900 gt (?) agosto/settembre (date prese dai rumors, da confermare)
ma non dovrebbe essere cosi ? invece ?
D8P= 8800gts65nm 11 dicembre
D9E= 9900 (?) gtx febbraio
D9P= 9900 gts giugno
D9M= 9900 gt (?) agosto/settembre (date prese dai rumors, da conferm
appleroof
30-11-2007, 14:26
ma non dovrebbe essere cosi ? invece ?
D8P= 8800gts65nm 11 dicembre
D9E= 9900 (?) gtx febbraio
D9P= 9900 gts giugno
D9M= 9900 gt (?) agosto/settembre (date prese dai rumors, da conferm
si infatti il punto interrogativo vicino al nome significava che non sono sicuro si chiamerà 8900 o 9900 oppure 9800....;)
albert75
30-11-2007, 14:31
si infatti il punto interrogativo vicino al nome significava che non sono sicuro si chiamerà 8900 o 9900 oppure 9800....;)
:) la cosa sicura insomma e' che molti portafogli si apriranno a febbraio
se faranno una scheda con il controller a 512 sarebbe un suicidio utilizzare il controller di memoria di tipo crossbar perchè se con la 8800GTX si è arrivati a 28 cm con il bus a 384 bit con il bus a 512 bit si avrebbe una scheda più lunga e forse oltre 30 cm.
Spero che con G100 abbiamo riprogettato il controller di memoria magari usandone uno di tipo ring bus tipo quello di R600 per far si che la scheda non venga con il pcb troppo lungo.
ma secondo te è solo il crossbar a rendere necessario un pcb così lungo? non dovrebbero compensare con il die più piccolo (65/55nm)?
cmq personalmente mi interessa poco: la 8800gtx entra perfettamente nel mio case (un normalissimo aeroengine II) :)
Ha ragione, non c'entra la GPU, ma la disposizione dei banchi di memoria.
Toglierei quel "per competere con R680" visto che è fuori luogo ed errato. La D9E competerà con R700. ;)
Comunque Marko ti conviene nasconderti per un pò, perché Halduemilauno dubito ti perdonerà l'aver aperto tu questo thread. :D
Si confronterà con R680 solo dal punto di vista temporale, perchè dal punto di vista prestazionale è ben chiaro che si confronterà con R700.
Nvidia, anticipando la nuova serie, sta facendo bene i suoi conti: R680 potrebbe divenire una soluzione antiquata nel giro di poche settimane dal lancio, lasciando AMD/Ati per altri 6 mesi, fino a R700, senza una degna top-gamma.
1200-1300 miliardi mi sembra un po' esagarato...
magardi volevi dire 1,2-1,3 miliardi
coaiz
Grazie della segnalazione, ho corretto l'errore :D
Riporto alla ribalta un rumor vecchio di un mese mai confermato, che era ribalzato sul Web anche su Fud e Vr-zone.
http://www.techpowerup.com/?41724
3 Teraflops...
Ipotesi fantascientifiche:
- 512 ALU * 2 Flops * 3 Ghz
- 768 ALU * 3 Flops * 2 Ghz
- 256 ALU * 4 flops * 3 Ghz
- 256 ALU * 5 Flops * 2,5 Ghz
- 256 ALU * 6 flops * 2 Ghz
Non credo sia possibile, per l'attuale processo produttivo e numero di transistor, una simile capacità. Intorno ai 2 Teraflops potrebbe essere più plausibile.
halduemilauno
30-11-2007, 17:04
quella è la D8P cioè la gts65nm, in questo caso è l'8 a far la differenza
allora c'è la
D8P= 8800gts65nm 11 dicembre
D9E= 8900 (?) gtx febbraio
D9P= 8900 gts giugno
D9M= 8900 gt (?) agosto/settembre (date prese dai rumors, da confermare)
D8P sono le 8800gt256, 8800gt512, 8800gts512. tutte e tre.
le D9 cominciano per 9.
;)
D8P sono le 8800gt256, 8800gt512, 8800gts512. tutte e tre.
le D9 cominciano per 9.
;)
D8P = 8800 GT G92 (256/512)
D8E = 8800 GTS G92
Non è più corretto così? Oramai viste le notizie mi sembra quasi inutile considerare l'eventualità GX2.
halduemilauno
30-11-2007, 17:39
D8P = 8800 GT G92 (256/512)
D8E = 8800 GTS G92
Non è più corretto così? Oramai viste le notizie mi sembra quasi inutile considerare l'eventualità GX2.
no. essendo tutte g92 son tutte D8P. la D8E sarebbe stata la 8850gx2 che si stando cosi le cose dovrebbe esser stata annullata. infatti se ci avete fatto caso la D8E nei documenti ufficiali non figurava. era citata nel nuovo codice per far meglio capire i rumors.
albert75
30-11-2007, 18:51
come mai hanno anticipato g100 a febbraio?? oppure non era mai stato confermato che sarebbe uscito a maggio??
nico88desmo
30-11-2007, 20:32
Iscritto! :D
come mai hanno anticipato g100 a febbraio?? oppure non era mai stato confermato che sarebbe uscito a maggio??
Anticipato..nVidia è da un anno ormai che non fà evoluzioni. Direi che era anche ora che si muovesse qualcosa nel campo video :D
nico88desmo
30-11-2007, 20:35
Riporto alla ribalta un rumor vecchio di un mese mai confermato, che era ribalzato sul Web anche su Fud e Vr-zone.
http://www.techpowerup.com/?41724
3 Teraflops...
Ipotesi fantascientifiche:
- 512 ALU * 2 Flops * 3 Ghz
- 768 ALU * 3 Flops * 2 Ghz
- 256 ALU * 4 flops * 3 Ghz
- 256 ALU * 5 Flops * 2,5 Ghz
- 256 ALU * 6 flops * 2 Ghz
Non credo sia possibile, per l'attuale processo produttivo e numero di transistor, una simile capacità. Intorno ai 2 Teraflops potrebbe essere più plausibile.
2 TeraFlops???!!!
Le schede attuali top di gamma arrivano a 518.4GFlops (8800GTX)...arrivare già ad 1TeraFlop sarebbe bello!
Considerando poi l'aumento della dimensione del bus, sicuramente altre ottimizzazioni per i filtri.
The_max_80
30-11-2007, 23:24
Rumor e fonti ufficiose confermano il lancio della nuova top-gamma D9E a Febbraio 2008, per competere contro R680. Le informazioni ufficiali rilasciate:
- Memory controller a 512 bit
- Processo produttivo a 65nm
- Compatibile DirectX 10.1 e Shader Model 4.1
Considerazioni personali:
- 1200-1300 Milioni di transistor
- Clok Shader / Core divisi come in G80. (anche per il GPGPU)
- Capacità floating point spinte sia in singola e in doppia virgola mobile (per GPGPU)
- Probabile AA negli Shader
:)
ma queste sono le g100?
cmq sia dovrebbero vedersela con r700 visto ceh r680 è "solo" un rv670 x2
sembrerebbe una vga ceh sfrutta la forza bruta come le g92 ma con 512 bit, non me ne intendo a questo livello ma le premesse mi sembrano ottime
Eccomi! :stordita::asd:
dai che questa è la volta buona! :D
:asd:
dai che questa è la volta buona! :D
:D
:sperem:
The_max_80
01-12-2007, 12:42
interessante da pcprofessionale
EVGA, noto produttore di schede grafiche basate su chip Nvidia ha fatto trapelare sul proprio sito (molto probabilmente in maniera involontaria) i nomi di alcune delle prossime schede Nvidia.
Come si può ben notare da queste immagini, prese da Real World Labs, sarebbero tre le sorprese che ci attendono nel prossimo periodo.
Prima notizia, già in parte svelata nei giorni scorsi è di una 8850 GTX2, costituita da due chip G92, cuore delle 8800 GT. Le frequenze e gli shader di ogni Gpu saranno probabilmente gli stessi questa scheda, più difficilmente quelli delle nuove GTS, più esigenti in termini di dissipazione.
La seconda proposta sembra essere una piccola revisione della serie 8800, che prenderà il nome di 8900 GTX.
Seguendo l’andamento del mercato (con le 8800 GTX solo di poco superiori alle 8800 GT) sembra probabile che questo prodotto sarà costituito da un chip G92 adeguatamente “pompato”, in grado di ristabilire le gerarchie in casa Nvidia.
La vera sosrpresa è invece il terzo modello, una 9800 GTX con ben 1,5 Gbyte di memoria.
Su questo modello è probabilmente ancora troppo presto per qualunque congettura, ma forse ci troviamo al cospetto del nuovo chip G100 di cui si vocifera da un pò. La prossima generazione forse non è poi così lontana. Primavera?
Patrizio87
01-12-2007, 12:43
Evvai! Si manda in pensione la 8800GTX! Secondo me il nome più bello sarebbe 9800GTX, qualunque sia il nome poco conta...spero solo che esca puntuale...non vedo l'ora di prendermela :sofico:
1,5 GB :eek: :eek: :eek:
Se supererà 1 TF ( cosa molto molto probabile )... la compro al volo prenotandola da ora :D :D :D
albert75
01-12-2007, 13:21
insomma fra qualche mese potremo staremo tranquilli almeno per un 2 anni senza cambiare scheda grafica:D :D vieni crysis vieni:D :D ancora non l'ho comprato forse scendera' pure di prezzo a febbraio:D
Athlon 64 3000+
01-12-2007, 14:29
se adotterà G100 1,5 gb di ram significa che avrà il bus a 384 bit come la attuale 8800GTX solo che avrà lo stesso numero di chip con capacità doppia e prevedo stessa lunghezza.
Ho paura che ricicleranno ancora il controller di memoria di tipo crossbar.
x.vegeth.x
01-12-2007, 14:37
io non sono mica contento che escano così presto ste schede!
volevo prendere sli di 8800gt a natale, e ora mi saltano su con sta notizia e io dopo 2 mesi neanche avrò già le schede superate! ma :muro: :mc:
x.vegeth.x
01-12-2007, 14:38
piccolino otino: per quando è previsto il 780i?
Athlon 64 3000+
01-12-2007, 14:42
Io preferirei un G100 con un controller di memoria di tipo ring bus con potenza più sbilanciata sugli shader ma che naturalmente abbia ancora AA via rop's e buona potenza nelle texture perchè i futuro i giochi che faranno uso di shader intensivo aumenteranno e quindi se G100 sarà come spero io sarà una ottima gpu.
G80 va benissimo con il controller di memoria di tipo crossbar perchè siamo passati in un periodo di transizione,dove fare una gpu compatibile con le dx10 ma che vada anche con i giochi che fanno uso di texturing è stata un'ottima scelta ma è arrivato l'ora che nel 2008 faccia uscira una gpu più innovativa.
The_max_80
01-12-2007, 14:45
io non sono mica contento che escano così presto ste schede!
volevo prendere sli di 8800gt a natale, e ora mi saltano su con sta notizia e io dopo 2 mesi neanche avrò già le schede superate! ma :muro: :mc:
ma non ti conviene per nulla fare lo sli di 8800gt ceh stanno per uscire un sacco di vga
x.vegeth.x
01-12-2007, 14:47
ma non ti conviene per nulla fare lo sli di 8800gt ceh stanno per uscire un sacco di vga
e ma se poi non escono a febbraio? io ho piuttosto fretta :cry:
The_max_80
01-12-2007, 14:48
e ma se poi non escono a febbraio? io ho piuttosto fretta :cry:
ma sta uscendo anche la 8850gtx2 e la 8900gtx che dovrebbero uscire anche prima ma cmq in maniera sicura, io credo che non ti convenga
x.vegeth.x
01-12-2007, 14:50
ma sta uscendo anche la 8850gtx2 e la 8900gtx che dovrebbero uscire anche prima ma cmq in maniera sicura, io credo che non ti convenga
alla fine 8850gtx2 o sli di 8800gt non è la stessa identica cosa? :)
The_max_80
01-12-2007, 14:53
alla fine 8850gtx2 o sli di 8800gt non è la stessa identica cosa? :)
si pero si tratta cmq di schede che danno il meglio se lo sli è pienamente supportato, cmq sia nel secondo caso sono 2 vga con i problemi che ne seguono (spazio, calore ecc ecc) io aspetterei , poi ricorda che il 780i viene presentato tra una decina di giorni e prima di vederlo nei negozi saremo sotto sotto natale e forse gennaio, prendere il 680i non ti conviene
qundi alla fine mi sa che gennaio devi aspettare cmq
TheNotorius
01-12-2007, 14:55
In effetti anch'io volevo farmi uno sli di 8800gt per godermi al max crysis per Natale, o 8800gts, ma ora che so che arrivano queste D9E, sicuramente prendo una bella 8800gt e mi gioco tutto al massimo, e coimunque bene anche cryisis e fra 1-2 mesi, la vendo/uso nel muletto (che diventerà il pc che ho in firma). Insomma sono resistito per tanto tempo con la X1300, resisterò 2 mesi con la 8800gt :D (frase che ultimamente mi piace dire :) )
The_max_80
01-12-2007, 14:57
In effetti anch'io volevo farmi uno sli di 8800gt per godermi al max crysis per Natale, o 8800gts, ma ora che so che arrivano queste D9E, sicuramente prendo una bella 8800gt e mi gioco tutto al massimo, e coimunque bene anche cryisis e fra 1-2 mesi, la vendo/uso nel muletto (che diventerà il pc che ho in firma). Insomma sono resistito per tanto tempo con la X1300, resisterò 2 mesi con la 8800gt :D (frase che ultimamente mi piace dire :) )
bene anche crysis non so, sopratutto nella parte finale che cambia ambientazione, diventa mostruosamente scattoso anche con la ultra
TheNotorius
01-12-2007, 15:04
Beh ma non pretendo di giocarlo a grafica massima, giocarlo bene dal mio punto di vista significa senza rallentamenti :)
E un occhio come il mio abituato a ciò che è oltre i 20fps fluido, non credo che avrò problemi. E poi nn credo giocherò molto a Crysis, se non il multi, visto che quest'anno ho collezzionato un bel po' di giochi che ho intenzione di rifinire a grafica decente :D
Poi quando arriverà D9E, potrò pensare a Crysis a very high (si spera :stordita: )
Eccomi! :stordita:
Non ti vogliamo qui, sciò! :O
The_max_80
01-12-2007, 15:28
Beh ma non pretendo di giocarlo a grafica massima, giocarlo bene dal mio punto di vista significa senza rallentamenti :)
E un occhio come il mio abituato a ciò che è oltre i 20fps fluido, non credo che avrò problemi. E poi nn credo giocherò molto a Crysis, se non il multi, visto che quest'anno ho collezzionato un bel po' di giochi che ho intenzione di rifinire a grafica decente :D
Poi quando arriverà D9E, potrò pensare a Crysis a very high (si spera :stordita: )
si ma quello che ti voglio dire e di non pensare a crysis neanche tutto su high i medium ci devono essere;)
frankdan
01-12-2007, 15:45
io non sono mica contento che escano così presto ste schede!
volevo prendere sli di 8800gt a natale, e ora mi saltano su con sta notizia e io dopo 2 mesi neanche avrò già le schede superate! ma :muro: :mc:
Ma guarda che in quanto a potenza la 8800GT era superata già da quando era uscita un mese fa,perchè sia la GTX che la Ultra vanno meglio.
piccolino otino: per quando è previsto il 780i?
Qui (http://www.dinoxpc.com/News/news.asp?ID_News=13573&What=News&tt=Ecco+le+date+di+rilascio+di+NVIDIA+780i+e+Triple-SLI) dice che lo presenteranno il 17 Dicembre,IMHO sarà disponibile non prima di metà-fine Gennaio.
finalmente vedremo crysis girare:D
bene anche crysis non so, sopratutto nella parte finale che cambia ambientazione, diventa mostruosamente scattoso anche con la ultra
Beh ma non pretendo di giocarlo a grafica massima, giocarlo bene dal mio punto di vista significa senza rallentamenti :)
E un occhio come il mio abituato a ciò che è oltre i 20fps fluido, non credo che avrò problemi. E poi nn credo giocherò molto a Crysis, se non il multi, visto che quest'anno ho collezzionato un bel po' di giochi che ho intenzione di rifinire a grafica decente :D
Poi quando arriverà D9E, potrò pensare a Crysis a very high (si spera :stordita: )
What?? Ma dico ma stiamo sckerzando?
Non si riesce a giocare Crysis in very high nemmeno con la 8800u? :mbe:
ma anche settando res + basse? Dai ragazzi ma scherzate?
Io a febbraio la 9800(GTX) me l'acchiappo e non è che non voglio vedere scatti.. non voglio proprio vedere alcun tipo di incertezza o rallenty!
Ma non tanto perchè voglio tutto a palla, ma per principio!
Io non so voi, ma immagino di sì.. ho giocato e finito COD4 con single CPU e una 7800GS in maniera strafluida e con graficone.. d'accordo, non siamo in dx10, e nemmeno possiamo paragonare troppo, però è anche un motore che ben si presta, scalabilissimo per quanto mi riguarda. Con Crytek c'è qualcosa di un tantino assurdo non trovate?!
Non ti vogliamo qui, sciò! :O
:Prrr: :Prrr: :Prrr:
The_max_80
01-12-2007, 19:17
What?? Ma dico ma stiamo sckerzando?
Non si riesce a giocare Crysis in very high nemmeno con la 8800u? :mbe:
ma anche settando res + basse? Dai ragazzi ma scherzate?
Io a febbraio la 9800(GTX) me l'acchiappo e non è che non voglio vedere scatti.. non voglio proprio vedere alcun tipo di incertezza o rallenty!
Ma non tanto perchè voglio tutto a palla, ma per principio!
Io non so voi, ma immagino di sì.. ho giocato e finito COD4 con single CPU e una 7800GS in maniera strafluida e con graficone.. d'accordo, non siamo in dx10, e nemmeno possiamo paragonare troppo, però è anche un motore che ben si presta, scalabilissimo per quanto mi riguarda. Con Crytek c'è qualcosa di un tantino assurdo non trovate?!
facciamo chiarezza
-innanzitutto crysis credo che sara il gioco piu pesante da qui a 1 anno e mezzo
con la ultra sotto vista a 1680*1050 con tutti veryhigh e postprocessing medio faccio 28 fps di media ma nell ultimo livello quando si è su una nave scatta tantissimo e non c'è stato verso manco diminuendo qualche altro setaggio
lo scopo della geffo 9 sara di far girare bene crysis, cosi facendo tutti gli altri giochi gireranno di stralusso e giochi simil crysis appunto gireranno bene, questo è sufficiente perchè non credo che entro 2 anni usciranno giochi più pesanti proprio perchè crysis è 2 anni avanti rispetto a tutti gli altri e anche perchè crysiss è pesante pure perchè non sfrutta il multicore che giochi piu in la nel tempo dovrebbero sfruttare
Gabriyzf
01-12-2007, 19:42
non acquisterei mai un gioco mal ottimizzato come crysis.
bisogna far capire ai programmatori che non siamo degli stupidi e farli lavorare meglio.
CoD4 è comunque meraviglioso graficamente e gira alla grande con tantissimo hardware.
scusate, fine o.t.
The_max_80
01-12-2007, 20:22
non acquisterei mai un gioco mal ottimizzato come crysis.
bisogna far capire ai programmatori che non siamo degli stupidi e farli lavorare meglio.
CoD4 è comunque meraviglioso graficamente e gira alla grande con tantissimo hardware.
scusate, fine o.t.
xchè bisogna dire certe cose
crysis non è mal ottimizzato anche se non sfrutta bene il multicore
crysis gira maluccio perchè è almeno 1 generazione avanti alle nostre vga con effetti mai visti e fisica mai vista
a me cod4 piace ma non è tecnicamente (grafica/fisica) minimamente paragonabile a crysis
xchè bisogna dire certe cose
crysis non è mal ottimizzato anche se non sfrutta bene il multicore
crysis gira maluccio perchè è almeno 1 generazione avanti alle nostre vga con effetti mai visti e fisica mai vista
a me cod4 piace ma non è tecnicamente (grafica/fisica) minimamente paragonabile a crysis
concordo, ma aggiungo che in ogni caso crysis poteva essere ottimizzato meglio.
Patrizio87
01-12-2007, 20:40
concordo, ma aggiungo che in ogni caso crysis poteva essere ottimizzato meglio.
Quoto. Crysis è stupendo, davvero stupendo, ma è inutile difenderlo quando la realtà è palese: è un gioco male ottimizzato. Per prima cosa proprio per le false promesse di lavoro sui 4 core...nel mio procio mentre gioco a Crysis due core giocano a briscola. Ma qui comunque non si tratta solo di Crysis, qui si parla di una scheda che DEVE far girare a palla tutti i giochi che usciranno da qui (Crysis compreso) per un bel pò di tempo...minimo 1 anno, ma io direi anche 2...speriamo che questo avvenga sul serio.
Quoto. Crysis è stupendo, davvero stupendo, ma è inutile difenderlo quando la realtà è palese: è un gioco male ottimizzato. Per prima cosa proprio per le false promesse di lavoro sui 4 core...nel mio procio mentre gioco a Crysis due core giocano a briscola. Ma qui comunque non si tratta solo di Crysis, qui si parla di una scheda che DEVE far girare a palla tutti i giochi che usciranno da qui (Crysis compreso) per un bel pò di tempo...minimo 1 anno, ma io direi anche 2...speriamo che questo avvenga sul serio.
2 anni è imho impossibile, vedi la 8800GTX!
cmq sarà una buona scheda, almeno per 1 annetto...
The_max_80
01-12-2007, 22:05
2 anni è imho impossibile, vedi la 8800GTX!
cmq sarà una buona scheda, almeno per 1 annetto...
secondo me è possibile
se non c era crysis cosa avremmo detto della gtx?
che ancora spacca!!!
la verità è che siamo in un periodo di transizione quindi con minore longevità, ma se g100 è fatta bene almeno 2 anni li dovrebbe avere!
Patrizio87
01-12-2007, 23:55
bè diciamo comunque che se con questo G100 riusciremo a fare 16 mesi a dettaglio massimo possiamo ritenerci soddisfatti. Spendere 550€ (che tra l'altro vengono ammortizzati dalla vendita della precedente scheda, ogni anno e mezzo secondo me ci può stare, spenderne 550€ ogni 10/12 mesi...insomma...ogni 3 anni 550€ in più...e scusate se è poco
Skullcrusher
02-12-2007, 08:36
bè diciamo comunque che se con questo G100 riusciremo a fare 16 mesi a dettaglio massimo possiamo ritenerci soddisfatti. Spendere 550€ (che tra l'altro vengono ammortizzati dalla vendita della precedente scheda, ogni anno e mezzo secondo me ci può stare, spenderne 550€ ogni 10/12 mesi...insomma...ogni 3 anni 550€ in più...e scusate se è poco
1 anno e mezzo tutto al massimo la vedo dura, ma è possibile, visto che l'8800GTX permette di giocare a qualsiasi titolo al massimo, tranne Crysis :p
Comunque G100 mi ispira parecchio....speriam :sperem:
River Phoenix
02-12-2007, 09:23
a questo punto dubito che uscirà 8850 gx2...la venderebbero per 2 mesi e basta....
A questo punto prendo 1 gt e aspetto g100 :p
albert75
02-12-2007, 10:08
scusate ma g100 puo' girare sul mio 6420? o devo cambiare procio?
secondo me è possibile
se non c era crysis cosa avremmo detto della gtx?
che ancora spacca!!!
la verità è che siamo in un periodo di transizione quindi con minore longevità, ma se g100 è fatta bene almeno 2 anni li dovrebbe avere!
hai ragione, ma sono sempre più convinto che parte della pesantezza di crysis sia una mossa commerciale atta a spingerci a cambiare scheda video. L'ue3 è un motore esteticamente bellissimo, e riesce a fare più di 60fps anche con una gts 320mb! Ora crysis è sì graficamente avanzato, ma non così tanto da distaccare di 40fps l'ue3....quindi mi porta a pensare che sia tutta una politica di commercio svolta tra nvidia e crytek...ovviamente sono considerazioni personalissimi di cui magari verrò smentito tra qualche mese, cmq credo che la killer application futura che piegherà queste 8900 arriverà presto come lo è stato per la 8800GTX! chessò, magari crysis 2 o far cry 2 :asd:
The_max_80
02-12-2007, 10:21
hai ragione, ma sono sempre più convinto che parte della pesantezza di crysis sia una mossa commerciale atta a spingerci a cambiare scheda video. L'ue3 è un motore esteticamente bellissimo, e riesce a fare più di 60fps anche con una gts 320mb! Ora crysis è sì graficamente avanzato, ma non così tanto da distaccare di 40fps l'ue3....quindi mi porta a pensare che sia tutta una politica di commercio svolta tra nvidia e crytek...ovviamente sono considerazioni personalissimi di cui magari verrò smentito tra qualche mese, cmq credo che la killer application futura che piegherà queste 8900 arriverà presto come lo è stato per la 8800GTX! chessò, magari crysis 2 o far cry 2 :asd:
guarda io ho visto crysis tutto veryhigh senza filtri, non c'è proprio paragone con l unreal
ps: g100 si chiamera 9800
guarda io ho visto crysis tutto veryhigh senza filtri, non c'è proprio paragone con l unreal
ps: g100 si chiamera 9800
io l'ho visto high e secondo me 40fps di differenza (ue3 limitato a 63fps) sono troppi! cmq non era su questo che volevo soffermarmi, ma sul fatto che una killer application ci sarà sempre, è solo questione di tempo!
ps: grazie della correzione! ;)
The_max_80
02-12-2007, 10:28
io l'ho visto high e secondo me 40fps di differenza (ue3 limitato a 63fps) sono troppi! cmq non era su questo che volevo soffermarmi, ma sul fatto che una killer application ci sarà sempre, è solo questione di tempo!
ps: grazie della correzione! ;)
beh certo prima o poi , speriamo piu poi che prima :D
ps: su crysis ho notato che non è tanto scalabile, cioè pur diminuendo settaggi non aumentano molto gli fps
Per vedere la grafica di crysis si deve vedere sotto VISTA e very high almeno gli "shaders" se no non si puo dire di aver visto crysis;)
beh certo prima o poi , speriamo piu poi che prima :D
ps: su crysis ho notato che non è tanto scalabile, cioè pur diminuendo settaggi non aumentano molto gli fps
Per vedere la grafica di crysis si deve vedere sotto VISTA e very high almeno gli "shaders" se no non si puo dire di aver visto crysis;)
bhe su vista dubito che lo metterò, si perdono troppi fps, preferisco xp + i fix very high! cmq non appena avrò anche solo la GT farò la prova che dici e ti saprò dire! :)
1,2 miliardi di transistor con un processo produttivo a 65 nanometri lo vedo come un azzardo tecnico.
1,2 miliardi di transistor con un processo produttivo a 65 nanometri lo vedo come un azzardo tecnico.
sono zippati :O
The_max_80
02-12-2007, 11:18
bhe su vista dubito che lo metterò, si perdono troppi fps, preferisco xp + i fix very high! cmq non appena avrò anche solo la GT farò la prova che dici e ti saprò dire! :)
beh si abiliteranno alcuni degli effetti very high ma ti posso assicurare che le d10 non si abilitano, è proprio diverso sotto vista il colore,
beh si abiliteranno alcuni degli effetti very high ma ti posso assicurare che le d10 non si abilitano, è proprio diverso sotto vista il colore,
lo so, colori molto più fotorealistici, anche l'acqua...in ogni caso, per adesso il gioco non vale la candela imho!
1,2 miliardi di transistor con un processo produttivo a 65 nanometri lo vedo come un azzardo tecnico.
G80 ha un die-size di 484mm² (90nm) e ha 681 milioni di transistor
G92 ha un die-size di 292mm² (65nm) e ha 754 milioni di transistor
Ipotizzo che G100 avrà un die-size simile a quello di G80, intorno ai 500mm².
In proporzione dovrebbe possedere 1,2-1,3 miliardi di transistor. E consumo sopra i 200W... :D
Athlon 64 3000+
02-12-2007, 14:26
G80 ha un die-size di 484mm² (90nm) e ha 681 milioni di transistor
G92 ha un die-size di 292mm² (65nm) e ha 754 milioni di transistor
Ipotizzo che G100 avrà un die-size simile a quello di G80, intorno ai 500mm².
In proporzione dovrebbe possedere 1,2-1,3 miliardi di transistor. E consumo sopra i 200W... :D
potrebbero anche farlo a 55 nm facendo si la superfice del chip sia più piccola che coni 65 nm e che scaldi anche di meno del processo produttivo a 65nm.
G80 ha un die-size di 484mm² (90nm) e ha 681 milioni di transistor
G92 ha un die-size di 292mm² (65nm) e ha 754 milioni di transistor
Ipotizzo che G100 avrà un die-size simile a quello di G80, intorno ai 500mm².
In proporzione dovrebbe possedere 1,2-1,3 miliardi di transistor. E consumo sopra i 200W... :D
Da suicidio.
albert75
02-12-2007, 17:53
visto che la gts con g92 costera' 350€ g100 a quanto sara messo??
halduemilauno
02-12-2007, 17:54
visto che la gts con g92 costera' 350€ g100 a quanto sara messo??
la versione top i classici 550€.
;)
albert75
02-12-2007, 17:59
la versione top i classici 550€.
;)
porcaccia devo decidere o l'iniettore della mia c3(350€) o la scheda video...che bello quando si verificano queste minidisgrazie insieme:D
River Phoenix
02-12-2007, 18:01
porcaccia devo decidere o l'iniettore della mia c3(350€) o la scheda video...che bello quando si verificano queste minidisgrazie insieme:D
Io rimarrei a piedi fino a febbraio :ciapet: :ciapet:
albert75
02-12-2007, 18:04
Io rimarrei a piedi fino a febbraio :ciapet: :ciapet:
:D :D beh diciamo che non sono a piedi proprio e' che c'e' un leggero rumorino che il mio mecca avrebbe imputato ad un iniettore che sta partendo..........pero' diciamo che......se alzo il volume dello stereo non si sente piu':D :D :D :D :D :D
appleroof
02-12-2007, 19:32
Io preferirei un G100 con un controller di memoria di tipo ring bus con potenza più sbilanciata sugli shader ma che naturalmente abbia ancora AA via rop's e buona potenza nelle texture perchè i futuro i giochi che faranno uso di shader intensivo aumenteranno e quindi se G100 sarà come spero io sarà una ottima gpu.
G80 va benissimo con il controller di memoria di tipo crossbar perchè siamo passati in un periodo di transizione,dove fare una gpu compatibile con le dx10 ma che vada anche con i giochi che fanno uso di texturing è stata un'ottima scelta ma è arrivato l'ora che nel 2008 faccia uscira una gpu più innovativa.
bò a me importa poco anzi proprio nulla che sia innovativa, l'importante è che sia efficace, l'ultimo anno ha detto tutto in questo senso....
1 anno e mezzo tutto al massimo la vedo dura, ma è possibile, visto che l'8800GTX permette di giocare a qualsiasi titolo al massimo, tranne Crysis :p
Comunque G100 mi ispira parecchio....speriam :sperem:
quoto tutto :)
albert75
03-12-2007, 09:24
ultima domanda personale, ma un 6420 sara' limited per g100:confused:
The_max_80
03-12-2007, 09:53
ultima domanda personale, ma un 6420 sara' limited per g100:confused:
se devi fare il 3dmark si, poi nei giochi si è visto come le cpu non ci entrano quasi per niente
albert75
03-12-2007, 11:57
se devi fare il 3dmark si, poi nei giochi si è visto come le cpu non ci entrano quasi per niente
quindi c'e' disconnessione tra punteggio alto al 3dmark e fluidita' nei giochi...va bene cosi allora, perche il procio l' ho preso da poco,:D
nico88desmo
03-12-2007, 12:03
bò a me importa poco anzi proprio nulla che sia innovativa, l'importante è che sia efficace, l'ultimo anno ha detto tutto in questo senso....
Concordo :O
Il ring-bus tra l'altro richiede più "attenzioni" rispetto al crossbar via driver, quindi se la differenza di fps non è elevata, non vedo alcun motivo per passare al ring-bus.
Athlon 64 3000+
03-12-2007, 12:20
Concordo :O
Il ring-bus tra l'altro richiede più "attenzioni" rispetto al crossbar via driver, quindi se la differenza di fps non è elevata, non vedo alcun motivo per passare al ring-bus.
Potrebbero utilizzare se vogliono il ring bus ibrido che c'è su R520/R580 che è più semplice da programmare rispetto al ring bus di R600 e RV670 che è sempre migliore del crossbare.
Patrizio87
03-12-2007, 13:52
Potrebbero utilizzare se vogliono il ring bus ibrido che c'è su R520/R580 che è più semplice da programmare rispetto al ring bus di R600 e RV670 che è sempre migliore del crossbare.
Per come la vedo, ring bus o crossbare, l'importante è che spingano, che siano dei mostri come alla loro uscita lo erano le 8800GTX. Che faccia fissi 60fps con Crysis a tutto dettaglio DX10 AA16xQ su schermi da 24 pollici...per il resto possono fare quello che vogliono...
albert75
03-12-2007, 14:05
Per come la vedo, ring bus o crossbare, l'importante è che spingano, che siano dei mostri come alla loro uscita lo erano le 8800GTX. Che faccia fissi 60fps con Crysis a tutto dettaglio DX10 AA16xQ su schermi da 24 pollici...per il resto possono fare quello che vogliono...
:D :D :D
Per come la vedo, ring bus o crossbare, l'importante è che spingano, che siano dei mostri come alla loro uscita lo erano le 8800GTX. Che faccia fissi 60fps con Crysis a tutto dettaglio DX10 AA16xQ su schermi da 24 pollici...per il resto possono fare quello che vogliono...
anche io voglio diventare ricco, andare sulla luna e possedere 4 zonda di ogni colore diverso per i miei stati d'animo al mattino :O
:asd:
cmq spero che ciò che dici si realizzi! ;)
Io ci vedo queste su g100, voi che dite?
http://www.tomshw.it/news.php?newsid=12206
Skullcrusher
03-12-2007, 16:23
Io ci vedo queste su g100, voi che dite?
http://www.tomshw.it/news.php?newsid=12206
Credo che G100 adotterà le Gddr4 e che futuro die shrink di G100 potrebbe adottare le Gddr5...sempre secondo me ovviamente :p
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4502&Itemid=1
Ormai c'è la quasi certezza del lancio di una nuova top-gamma Nvidia a Febbraio.
Speriamo sia G100 e non la dual-card...
PS: con un controller a 512bit delle memorie GDDR4 a 2,4 ghz sarebbero sufficenti a garantire una bandwith di 153,6 Gb/s...credo siano sufficenti! :D
albert75
03-12-2007, 17:17
non voglio sentire piu' parlare di multi core sulle gpu per adesso bastano i processori:mbe:
appleroof
03-12-2007, 17:18
Concordo :O
Il ring-bus tra l'altro richiede più "attenzioni" rispetto al crossbar via driver, quindi se la differenza di fps non è elevata, non vedo alcun motivo per passare al ring-bus.
Per come la vedo, ring bus o crossbare, l'importante è che spingano, che siano dei mostri come alla loro uscita lo erano le 8800GTX. Che faccia fissi 60fps con Crysis a tutto dettaglio DX10 AA16xQ su schermi da 24 pollici...per il resto possono fare quello che vogliono...
Credo che G100 adotterà le Gddr4 e che futuro die shrink di G100 potrebbe adottare le Gddr5...sempre secondo me ovviamente :p
multiquoto! :D
Credo che G100 adotterà le Gddr4 e che futuro die shrink di G100 potrebbe adottare le Gddr5...sempre secondo me ovviamente :p
esatto.. si parla però di "attacco di massa" nel 2010, anche se è possibile che già nel corso del 2009 si inizi a vedere qualcosa
io mi "accontenterei" già delle gddr4 sul g100 :p
e se davvero si ufficializzerà l'uscita di g100 come "nine series" allora è una skedozza che mi terrò stretto per almeno 2,5-3 anni
nico88desmo
03-12-2007, 18:51
Sarà la mia prossima scheda sicuramente, dato che proprio in febbraio-marzo avevo in mente di cambiare il pc :D
^Memphis^
03-12-2007, 20:35
:D :D :D
Mah, in SLI forse e dico forse si potrà avere una cosa del genere:sofico: , a me "basterbbe" :D :D :D che girasse fluido sul mio 22" anche perchè salendo di risoluzione si dovrebbe vendere almeno un rene per schede e schermo!!!:D
Ragazzi domanda sciocca ma necessaria: le attuali mobo con PCI 1.0 x16 andranno bene per il top come una d9e? Tnx!
^Memphis^
03-12-2007, 20:41
Per come la vedo, ring bus o crossbare, l'importante è che spingano, che siano dei mostri come alla loro uscita lo erano le 8800GTX. Che faccia fissi 60fps con Crysis a tutto dettaglio DX10 AA16xQ su schermi da 24 pollici...per il resto possono fare quello che vogliono...
Mah, in SLI forse e dico forse si potrà avere una cosa del genere:sofico: , a me "basterebbe" :D :D :D che girasse fluido sul mio 22" anche perchè salendo di risoluzione si dovrebbe vendere almeno un rene per schede e schermo!!!:D
Ragazzi domanda sciocca ma necessaria: le attuali mobo con PCI 1.0 x16 andranno bene per il top come una d9e? Tnx!
Scusate il doppio post errore mio!
albert75
03-12-2007, 20:43
Mah, in SLI forse e dico forse si potrà avere una cosa del genere:sofico: , a me "basterbbe" :D :D :D che girasse fluido sul mio 22" anche perchè salendo di risoluzione si dovrebbe vendere almeno un rene per schede e schermo!!!:D
Ragazzi domanda sciocca ma necessaria: le attuali mobo con PCI 1.0 x16 andranno bene per il top come una d9e? Tnx!
sicuramente andra' su schede 1.0...comunque io anche ho un 22 e mi va bene che giri a 1680*1050 tutto su very high senza filtri....ma poi penso che usciranno altri giochi piu' leggeri e magari piu' belli di crysis:D
appleroof
03-12-2007, 20:59
Mah, in SLI forse e dico forse si potrà avere una cosa del genere:sofico: , a me "basterbbe" :D :D :D che girasse fluido sul mio 22" anche perchè salendo di risoluzione si dovrebbe vendere almeno un rene per schede e schermo!!!:D
Ragazzi domanda sciocca ma necessaria: le attuali mobo con PCI 1.0 x16 andranno bene per il top come una d9e? Tnx!
al 99,99% andrà di sicuro, non credo che per febbraio ci siano tante mobo pci-ex 2.0 da rendere quello 1.0 inutile da supportare :asd:
no.. anch'io penso che non renderanno l'1.0 inutile
però imho a febbraio di mobo 2.0 ne usciranno eccome
JoeLatino
04-12-2007, 11:42
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4502&Itemid=1
Ormai c'è la quasi certezza del lancio di una nuova top-gamma Nvidia a Febbraio.
Speriamo sia G100 e non la dual-card...
PS: con un controller a 512bit delle memorie GDDR4 a 2,4 ghz sarebbero sufficenti a garantire una bandwith di 153,6 Gb/s...credo siano sufficenti! :D
RAGAZZI.....
non e' che a febbraio esce solamente la g92 dual gpu visto che 256+256 fanno un bus totale di 512bit e che invece la nuova top di gamma uscira' verso maggio/giugno come presupposto da diversi forum stranieri??
non so' ma ora come ora e' piu' facile che esca solo una revisione della 8800gtx con core g92 e non una nuova top...:eek:
RAGAZZI.....
non e' che a febbraio esce solamente la g92 dual gpu visto che 256+256 fanno un bus totale di 512bit e che invece la nuova top di gamma uscira' verso maggio/giugno come presupposto da diversi forum stranieri??
non so' ma ora come ora e' piu' facile che esca solo una revisione della 8800gtx con core g92 e non una nuova top...:eek:spero vivamente di no, non posso aspettare ancora così tanto! :cry:
e poi sti progetti dual gpu non hanno mai avuto molto successo... speriamo bene! :(
albert75
04-12-2007, 13:45
spero vivamente di no, non posso aspettare ancora così tanto! :cry:
e poi sti progetti dual gpu non hanno mai avuto molto successo... speriamo bene! :(
infatti abbasso il dual gpu, meglio una ma buona:D
Praetorian
04-12-2007, 14:35
premetto che non voglio assolutamente scatenare nessun tipo di flame, ma ho letto nel 3d dell' R700 che il top gamma avrà 8 core (chisene) e un bus di 1024 bit :eek: :eek: :eek:
si sa niente del bus per la top di nvidia?
TheNotorius
04-12-2007, 15:08
:fagiano: premetto che non voglio assolutamente scatenare nessun tipo di flame, ma ho letto nel 3d dell' R700 che il top gamma avrà 8 core (chisene) e un bus di 1024 bit :eek: :eek: :eek:
si sa niente del bus per la top di nvidia?
:blah: ...:what: ...:eekk: ...:sbav:
Beh chissà che ATI non tiri fuori un bel mostriciattolo, anche se ho imparato a stare attento ad esaltarmi per poco. Comunque arriverà dopo D9E, quindi fuori dalla mia portata di tempo.
Ah inoltre la scheda di Febbraio non può essere una dual gpu, dai, hanno detto che sarebbe arrivato appunto la D9E a Febbraio, nuova scheda nuova generazione, mica possono ancora riciclare quelle "vecchie"...
trentemoller
04-12-2007, 15:19
da possessore di gtx non potevo non iscrivermi :D
appleroof
04-12-2007, 17:33
premetto che non voglio assolutamente scatenare nessun tipo di flame, ma ho letto nel 3d dell' R700 che il top gamma avrà 8 core (chisene) e un bus di 1024 bit :eek: :eek: :eek:
si sa niente del bus per la top di nvidia?
e che flame dovrebbe nascere solo per questo? :) cmq sono specifiche da paura quelle, ma non dimentichiamo che anche quelle di r600 (64 shaders x4, bus a 512bit) sulla carta prefiguravano un mostro capace di surclassare g80 (128 shaders, bus a 384) ma così non è stato, anzi non l'ha nemmeno raggiunto...
quindi direi: 1 sono rumors, può cambiare tutto (vale anche per D9E, ammesso che non abbia ragione joe latino, ma credo che a questo punto sia molto più probabile che la dual g92 sia stata accantonata in favore di un anticipo della D9E) 2 anche se fossero vere quelle specifiche (sulla carta senza dubbio impressionanti, anche se non mi è chiaro un concetto di multi-core in una gpu, per mia ignoranza) bisogna poi vedere come rendono sul campo (ma anche questo vale per D9E)
il tutto imho ;)
infatti abbasso il dual gpu, meglio una ma buona:D
sono con te :D
appleroof
04-12-2007, 17:56
sono con te :D
in effetti anche io non vedo bene le dual in generale ma r680 mi intriga...
in effetti anche io non vedo bene le dual in generale ma r680 mi intriga...
vediamo come sarà il supporto driver.
appleroof
04-12-2007, 18:15
vediamo come sarà il supporto driver.
edit...ti pvtizzo :D
nico88desmo
04-12-2007, 20:21
vediamo come sarà il supporto driver.
Concordo. Se la nuova architettura sarà basata su dual gpu prevedo che l'ottimizzazione decreterà il successo o meno della scheda.
fireradeon
04-12-2007, 21:27
Ecchime!!! Questa sarà la mia prossima schedozza! ;)
trentemoller
04-12-2007, 21:29
Ecchime!!! Questa sarà la mia prossima schedozza! ;)
cacchio hai la GT uscita da pochissimo e già cambi? :D cmq se avrò i soldi cambio anche io, però prima voglio vedere i bench ecc ecc non sono un fanboy nvidia quindi se va meglio la r700 perchè non passare ad ati? (ma ci credo poco) :)
io non sono mai riuscito ad essere fan di un bel niente, cambiavo direzione come la bandiera quando cambia il vento :D
l'importante in queste cose sono i miei soldi e il mio interesse :asd:
quindi quando uscirà questa scheda, se ati non c'ha niente di meglio, me la prendo al volo :sofico:
raga qualche news?
c'è penuria......
c'è penuria......
un pò come le gnocche..... :stordita:
aspetteremo allora! :D
che depravati :asd:
cmq stavo pensando di buttare via 220€ per intrattenermi con la GT :stordita: però ogni volta mi riprendo pensando che la mia và ancora benone e allora mi calmo...
non vedo l'ora che esca :D vi ricordate la recensione della 8800GTX? un passo nel futuro... :sofico:
con questa D9E mi sà che nel futuro ci tuffiamo a bomba :D
un pò come le gnocche..... :stordita:
aspetteremo allora! :D
eh, già :asd:
Dei prezzi non si sa ancora nulla immagino?
Attendo i penryn per il nuovo pc, se il costo è accessibile, altri 2 settimane le attendo, bisogna vedere anche se uscira giorno 1 febbraio o il 28 :)
ora che ho finito crysis, lo voglio assolutamente rigiocare con tutto a palla...
spero si sbrighino a fare uscire stà benedetta D9E :D
Ma di questo futuro GF 9 (o come cavolo lo chiameranno) non mi è chiara una cosa.
Si parla di GPU multi-core (anche perchè per arrivare a 1,2 - 1,3 Mil di transistor su un solo die con tecnologia @ 0.55 è un po' dura temo..), ma allora che differenza c'è con lo SLI?
In pratica Nvidia ha fatto uno SLI sul core scomponendolo, ma la solfa dovrebbe restare tale e quale allo SLI tradizionale, con tutti i relativi problemi (compatibilità, perdita abnorme di prestazioni, ecc..).
Sono io che ho capito male o è proprio così la situazione?
nico88desmo
06-12-2007, 11:02
Ma di questo futuro GF 9 (o come cavolo lo chiameranno) non mi è chiara una cosa.
Si parla di GPU multi-core (anche perchè per arrivare a 1,2 - 1,3 Mil di transistor su un solo die con tecnologia @ 0.55 è un po' dura temo..), ma allora che differenza c'è con lo SLI?
In pratica Nvidia ha fatto uno SLI sul core scomponendolo, ma la solfa dovrebbe restare tale e quale allo SLI tradizionale, con tutti i relativi problemi (compatibilità, perdita abnorme di prestazioni, ecc..).
Sono io che ho capito male o è proprio così la situazione?
per nVidia non si sà se la Gpu sarà multi-core. Per ati, stando ai rumors, sembra che sia così, mentre per nVidia non si sà nulla.
non credo che sia proprio impossibile arrivare a 1,2 - 1,2 Miliardi di transistor con 55nm.
G80 contiene circa 680M di transistor su un chip a 90nm più il chip esterno NVIO che ha circa 55M di transistor.
Magari per D9E fanno la stessa cosa...ossia che il chip NVIO sia separato dalla GPU.
fireradeon
06-12-2007, 11:13
cacchio hai la GT uscita da pochissimo e già cambi? :D cmq se avrò i soldi cambio anche io, però prima voglio vedere i bench ecc ecc non sono un fanboy nvidia quindi se va meglio la r700 perchè non passare ad ati? (ma ci credo poco) :)
Come scrissi nel thread della GT, io in realtà aspettavo le nuove enthusiast e quando usciranno, la GT la regalerò a mio fratello, così anche lui si aggiorna, che per ora ha una 7800 con 256MB. ;)
Cmq la GT è una signora scheda, sono felicissimo dell'acquisto! :D
fireradeon
06-12-2007, 11:16
c'è penuria......
Per avere news succose dovremo attendere Gennaio. Ora sono concentrati sulla GTS e, forse, su una ipotetica dual GPU per contrastare la dual GPU di Ati che è anche apparsa in foto tempo fa.
The_max_80
06-12-2007, 11:33
Ma di questo futuro GF 9 (o come cavolo lo chiameranno) non mi è chiara una cosa.
Si parla di GPU multi-core (anche perchè per arrivare a 1,2 - 1,3 Mil di transistor su un solo die con tecnologia @ 0.55 è un po' dura temo..), ma allora che differenza c'è con lo SLI?
In pratica Nvidia ha fatto uno SLI sul core scomponendolo, ma la solfa dovrebbe restare tale e quale allo SLI tradizionale, con tutti i relativi problemi (compatibilità, perdita abnorme di prestazioni, ecc..).
Sono io che ho capito male o è proprio così la situazione?
si parla di gpu multi core solo per ati, cmq sia si parla di multicore e non multi gpu quindi non dovrebbe esserci connessione tramite sli, e come un quad o dual core nelle cpu per intenderci
si parla di gpu multi core solo per ati, cmq sia si parla di multicore e non multi gpu quindi non dovrebbe esserci connessione tramite sli, e come un quad o dual core nelle cpu per intenderci
Esempio errato, perché (stando ai rumors di R700) non si tratterà di un banale multi core di GPU ma di un sistema modulare che sinora non si è mai visto e, dunque, risulta difficile indicarne un esempio.
Teoricamente dall'applicazione dovrebbe essere riconosciuta come singola GPU, pur essendo costituita da più core interni, il che rende il tutto diverso sia dallo SLi/CF sia dal multi core visto nelle CPU. ;)
Comunque com'è stato detto solo AMD dovrebbe usare questo approccio, mentre la D9 dovrebbe continuare ad usare quello classico mono core visto sinora. E questo non è né un vantaggio né uno svantaggio, visto che non dovrebbe influenzare le performance (quando meno non direttamente).
albert75
06-12-2007, 14:06
il multicore mi va bene, ma non il dual gpu
appleroof
06-12-2007, 14:07
Esempio errato, perché (stando ai rumors di R700) non si tratterà di un banale multi core di GPU ma di un sistema modulare che sinora non si è mai visto e, dunque, risulta difficile indicarne un esempio.
Teoricamente dall'applicazione dovrebbe essere riconosciuta come singola GPU, pur essendo costituita da più core interni, il che rende il tutto diverso sia dallo SLi/CF sia dal multi core visto nelle CPU. ;)
Comunque com'è stato detto solo AMD dovrebbe usare questo approccio, mentre la D9 dovrebbe continuare ad usare quello classico mono core visto sinora. E questo non è né un vantaggio né uno svangattio, visto che non dovrebbe influenzare le performance (quando meno non direttamente).
e allora secondo te perchè ati si starebbe orientando verso quella soluzione? consumi?
e allora secondo te perchè ati si starebbe orientando verso quella soluzione? consumi?
Oddio siamo nel thread di D9... chiedo venia e chiudo l'OT con quest'ultimo post (per il resto usiamo l'altro thread apposito).
Il vantaggio del multi core non è direttamente in performance, bensì indirettamente qualora usato nel modo opportuno. Permette di poter creare "agglomerati" di core che, nel complessivo, hanno un numero di transistor/unità di calcolo superiore a quanto potrebbe avere una GPU mono core, il tutto contenendo i costi produttivi.
In altre parole AMD con R700 potrà decidere di aumentare del 50% le performance semplicemente inserendo altri due core (da 4 a 6), in modo istantaneo, senza aumentare i costi produttivi e senza dover perdere mesi a progettare/testare un die shrink.
appleroof
06-12-2007, 14:14
Oddio siamo nel thread di D9... chiedo venia e chiudo l'OT con quest'ultimo post (per il resto usiamo l'altro thread apposito).
Il vantaggio del multi core non è direttamente in performance, bensì indirettamente qualora usato nel modo opportuno. Permette di poter creare "agglomerati" di core che, nel complessivo, hanno un numero di transistor/unità di calcolo superiore a quanto potrebbe avere una GPU mono core, il tutto contenendo i costi produttivi.
In altre parole AMD con R700 potrà decidere di aumentare del 50% le performance semplicemente inserendo altri due core (da 4 a 6), in modo istantaneo, senza aumentare i costi produttivi e senza dover perdere mesi a progettare/testare un die shrink.
ho capito...bè direi che è una soluzione molto intelligente, bisogna vedere se esente da problemi, se insomma non abbia bisogno di essere "rodata" per bene, come tutte le soluzioni così nuove...
ok grazie ;)
The_max_80
06-12-2007, 14:15
Esempio errato, perché (stando ai rumors di R700) non si tratterà di un banale multi core di GPU ma di un sistema modulare che sinora non si è mai visto e, dunque, risulta difficile indicarne un esempio.
Teoricamente dall'applicazione dovrebbe essere riconosciuta come singola GPU, pur essendo costituita da più core interni, il che rende il tutto diverso sia dallo SLi/CF sia dal multi core visto nelle CPU. ;)
Comunque com'è stato detto solo AMD dovrebbe usare questo approccio, mentre la D9 dovrebbe continuare ad usare quello classico mono core visto sinora. E questo non è né un vantaggio né uno svantaggio, visto che non dovrebbe influenzare le performance (quando meno non direttamente).
beh era per far capire all utente che non si tratta di dual gpu, poi come hai detto tu è praticametne impossibile dare un nome per i motivi da te elencati, ma se guardiamo multigpu e cpu mlticore è piu vicino a quest ultima pur come hai detto tu non incarnandola in pieno
cmq non ero a conoscenza di questo ulteriore dettaglio che sembra interessante
beh era per far capire all utente che non si tratta di dual gpu, poi come hai detto tu è praticametne impossibile dare un nome per i motivi da te elencati, ma se guardiamo multigpu e cpu mlticore è piu vicino a quest ultima pur come hai detto tu non incarnandola in pieno
cmq non ero a conoscenza di questo ulteriore dettaglio che sembra interessante
Ma scusate: qul'è la differenza di avere più core sulla stessa scheda, oppure averli su più schede?
Voglio dire che se ho a disposizione 1 miliardo di transistor, che siano sullo stesso core, su due o più core, o su due diverse gpu, cosa cambia?
La potenza totale dovrebbe restare invariata no (a arte quella persa nella connessione SLI)?
:help:
ho capito...bè direi che è una soluzione molto intelligente, bisogna vedere se esente da problemi, se insomma non abbia bisogno di essere "rodata" per bene, come tutte le soluzioni così nuove...
ok grazie ;)
Beh, di sicuro sarà in studio da almeno due o tre anni. G80 lo hanno sviluppato in 4 anni se non erro. ;)
appleroof
06-12-2007, 18:02
Beh, di sicuro sarà in studio da almeno due o tre anni. G80 lo hanno sviluppato in 4 anni se non erro. ;)
bè chip sviluppati per anni e poi cmq fallimentari ce ne sono...stiamo a vedere, abbiamo visto proprio negli ultimi mesi come a volte la semplicità paga molto rispetto a soluzioni complesse, ripeto cmq secondo me è una soluzione molto intelligente, così come prospettata da rufus
albert75
07-12-2007, 19:28
ragazzi so di essere ot, ma una buona scheda madre economica che mi permetta di mettere insieme il mio gia' acquistato e6420 i miei 2 gb di ram a 800mhz e la mia futura 9800:confused: la mia asrock ha l' agp 8x e il pci-e 4x mi sembra, quindi non andrei da nessuna parte...potrei prendere anche una con pci_ex 1.0??
The_max_80
07-12-2007, 19:47
ragazzi so di essere ot, ma una buona scheda madre economica che mi permetta di mettere insieme il mio gia' acquistato e6420 i miei 2 gb di ram a 800mhz e la mia futura 9800:confused: la mia asrock ha l' agp 8x e il pci-e 4x mi sembra, quindi non andrei da nessuna parte...potrei prendere anche una con pci_ex 1.0??
qualsiasi mobo con p35 x 38 x48 680i 780i vanno bene, anche p965 e 975 vanno bene per quella cpu, quindi hai solo l imbarazzo della scelta, se vuoi qualcosa che sia pci ex 2.0 allora è solo x38 ma costa circa 200 euro
albert75
08-12-2007, 13:08
qualsiasi mobo con p35 x 38 x48 680i 780i vanno bene, anche p965 e 975 vanno bene per quella cpu, quindi hai solo l imbarazzo della scelta, se vuoi qualcosa che sia pci ex 2.0 allora è solo x38 ma costa circa 200 eurograzie per la risposta, ma volevo spendere 70€ massimo....quindi per questa cifra il 2.0 me lo sogno??
The_max_80
08-12-2007, 14:12
grazie per la risposta, ma volevo spendere 70€ massimo....quindi per questa cifra il 2.0 me lo sogno??
credo al momento si, ora non so se c'è qualche chip intel entry level che supporta il 2.0 ma mi pare di no
Iscritto! Sto aspettando il momento buono per assemblare il nuovo pc, ora sono rimasto solo col notebook...mi tocca aspettare fino a febbraio pare, alla D9E non ci rinuncio :fagiano:
albert75
14-12-2007, 14:29
Iscritto! Sto aspettando il momento buono per assemblare il nuovo pc, ora sono rimasto solo col notebook...mi tocca aspettare fino a febbraio pare, alla D9E non ci rinuncio :fagiano:
benvenuto a "quelli che aspettano....."
Solidusnake
15-12-2007, 21:40
Idem anche io Lamana!
Stò con un notebook sony vaio pcgfr315m:(
e da ben 4 anni!!!!
Aspetterò febbraio sia per la G100 che per la q9450 e anche per la x48!
Solidusnake
15-12-2007, 21:42
e aspettiamo...
x.vegeth.x
15-12-2007, 23:13
ok ho desistito a fare lo sli di 8800gt, mi son reso conto che erano soldi buttati...quindi mi accodo a "quelli che aspettano" :fagiano:
quindi questa scheda che esce a febbraio dovrebbe essere la 9800? e dovrebbe montare di già g100?
nico88desmo
16-12-2007, 10:06
ok ho desistito a fare lo sli di 8800gt, mi son reso conto che erano soldi buttati...quindi mi accodo a "quelli che aspettano" :fagiano:
quindi questa scheda che esce a febbraio dovrebbe essere la 9800? e dovrebbe montare di già g100?
si, in teoria si.
Bisogna vedere ora se nVidia cambierà i suoi piani a causa della presunta uscita di R700 nel 2009.
Gabriyzf
16-12-2007, 10:11
per me nvidia non ha nessuna intenzione di correre: ha il predominio su ati e le 8800 vanno a ruba , tanto che non fanno in tempo a produrle.
secondo me non vedremo niente di nuovo fino alla tarda primavera
The_max_80
16-12-2007, 11:20
si, in teoria si.
Bisogna vedere ora se nVidia cambierà i suoi piani a causa della presunta uscita di R700 nel 2009.
nel 2009? :eek: :mbe: ma se gia non ce la fanno con le vga attuali nel 2007 :cry:
x.vegeth.x
16-12-2007, 21:29
si, in teoria si.
Bisogna vedere ora se nVidia cambierà i suoi piani a causa della presunta uscita di R700 nel 2009.
ma chi l'ha detto che r700 esce nel 2009? :eek:
ma daaaaai speriamo comunque nella 9800 per febbraio...io devo comprare!!! :mc:
nico88desmo
16-12-2007, 23:18
Link (pag. 25)
http://download.amd.com/Corporate/MarioRivasDec2007AMDAnalystDay.pdf
Comunque mi auguro che Ati aggiorni la sua roadmap..
Idem anche io Lamana!
Stò con un notebook sony vaio pcgfr315m:(
e da ben 4 anni!!!!
Aspetterò febbraio sia per la G100 che per la q9450 e anche per la x48!
Hai bene o male il mio stesso progetto d'acquisto..
9800GTX
QX9450/QX9550
X38/X48.. [little ot] credo rimarrò però su X38, non voglio rinunciare alle ddr2, performanti come le ddr3 ma a costo nettamente inferiore.. i prezzi sono calati a picco.. tra un po' ci pagano a noi per comprarcele.. :p [/ot]
Hai bene o male il mio stesso progetto d'acquisto..
9800GTX
QX9450/QX9550
X38/X48.. [little ot] credo rimarrò però su X38, non voglio rinunciare alle ddr2, performanti come le ddr3 ma a costo nettamente inferiore.. i prezzi sono calati a picco.. tra un po' ci pagano a noi per comprarcele.. :p [/ot]
Idem. :D
Athlon 64 3000+
17-12-2007, 12:07
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4763&Itemid=1
nuova notizia by FRUITzilla :D
x.vegeth.x
17-12-2007, 12:59
Hai bene o male il mio stesso progetto d'acquisto..
9800GTX
QX9450/QX9550
X38/X48.. [little ot] credo rimarrò però su X38, non voglio rinunciare alle ddr2, performanti come le ddr3 ma a costo nettamente inferiore.. i prezzi sono calati a picco.. tra un po' ci pagano a noi per comprarcele.. :p [/ot]
a parte il fatto che sono solo dei "Q" e non dei "QX"...stesso progetto anche io (discorso ddr2 compreso) :cool:
x.vegeth.x
17-12-2007, 13:01
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4763&Itemid=1
nuova notizia by FRUITzilla :D
...ma se tutte le maggiori testate hanno detto febbraio perchè fud deve dire marzo? :mbe:
...ma se tutte le maggiori testate hanno detto febbraio perchè fud deve dire marzo? :mbe:
infatti non mi fiderei molto di fud, in passato ne ha sparate anche di più grosse....poi bho, anche se con r700 annunciato per il 2009 è molto probabile che nvidia se la pigli comoda...
x.vegeth.x
17-12-2007, 13:36
infatti non mi fiderei molto di fud, in passato ne ha sparate anche di più grosse....poi bho, anche se con r700 annunciato per il 2009 è molto probabile che nvidia se la pigli comoda...
ma lol la tua firma :doh: :sbonk:
:D faccio 20.000 al 3dmerd06 e a crysis 90fps costanti a 1920 very-high in dx10 aa8x af16x :O
Brightblade
17-12-2007, 14:10
http://www.fudzilla.com/index.php?option=com_content&task=view&id=4763&Itemid=1
nuova notizia by FRUITzilla :D
Ok sara' anche fuffa, ma visto che le news scarseggiano la commento :D Cioe' aiutatemi a fare la parafrasi di questa frase
"should end up faster than two G92 D8E dual PCB card"
Cioe' dovrebbe essere piu' veloce di uno sli di 2 schede D8E che gia' sono costituite ciascuna da 2 GPU G92, cioe' piu' veloce di 4 chip G92 che lavorano insieme?? Ci sono troppi 2 e dual :stordita:
:) Alla fine non ho resistito... 8800 GT in arrivo LoL... la cambierò a giugno/luglio con l'uscita della 9800GT-GTS :)
appleroof
17-12-2007, 17:19
Ok sara' anche fuffa, ma visto che le news scarseggiano la commento :D Cioe' aiutatemi a fare la parafrasi di questa frase
"should end up faster than two G92 D8E dual PCB card"
Cioe' dovrebbe essere piu' veloce di uno sli di 2 schede D8E che gia' sono costituite ciascuna da 2 GPU G92, cioe' piu' veloce di 4 chip G92 che lavorano insieme?? Ci sono troppi 2 e dual :stordita:
letteralmente sarebbe così, ma mi pare davvero troppo ottimistica come previsione, poi se + davvero così è chiaro che son più contento :D
Ok sara' anche fuffa, ma visto che le news scarseggiano la commento :D Cioe' aiutatemi a fare la parafrasi di questa frase
"should end up faster than two G92 D8E dual PCB card"
Cioe' dovrebbe essere piu' veloce di uno sli di 2 schede D8E che gia' sono costituite ciascuna da 2 GPU G92, cioe' piu' veloce di 4 chip G92 che lavorano insieme?? Ci sono troppi 2 e dual :stordita:
è corretto, ora resta solo da vedere se è davvero così...
x.vegeth.x
17-12-2007, 18:53
Ok sara' anche fuffa, ma visto che le news scarseggiano la commento :D Cioe' aiutatemi a fare la parafrasi di questa frase
"should end up faster than two G92 D8E dual PCB card"
Cioe' dovrebbe essere piu' veloce di uno sli di 2 schede D8E che gia' sono costituite ciascuna da 2 GPU G92, cioe' piu' veloce di 4 chip G92 che lavorano insieme?? Ci sono troppi 2 e dual :stordita:
letteralmente sarebbe così, ma mi pare davvero troppo ottimistica come previsione, poi se + davvero così è chiaro che son più contento :D
secondo me intendeva dire che va meglio di una dual pcb si g92...
secondo me intendeva dire che va meglio di una dual pcb si g92...
no, lo dice chiaramente:
than two G92 D8E dual PCB card
dove:
two = 2 :asd:
dual pcb card = doppio pcb (che quindi significa una gpu a pcb)
ora non resta che sperare che sia vero :)
ps: scusa se l'ho buttata così terra terra, non era per sminuire ne te ne chiunque altro non l'abbia capita, solo per precisare ;)
albert75
17-12-2007, 19:12
ragazzi non vorrei cambiare procio in vista di una d9e..secondo voi si puo' avere un 6420 con una bestiola del genere??
no, lo dice chiaramente:
dove:
two = 2 :asd:
dual pcb card = doppio pcb (che quindi significa una gpu a pcb)
ora non resta che sperare che sia vero :)
ps: scusa se l'ho buttata così terra terra, non era per sminuire ne te ne chiunque altro non l'abbia capita, solo per precisare ;)
se fosse come dici tu, avrebbe detto two dual pcb cardS plurale :asd:
bYeZ!
trentemoller
17-12-2007, 19:22
ragazzi non vorrei cambiare procio in vista di una d9e..secondo voi si puo' avere un 6420 con una bestiola del genere??
secondo me in OC si :) a default forse sei un pò cpulimited :rolleyes:
spero che sarà un'ottima scheda che sia almeno più del 50% più veloce di G92 così AMD si muove a far uscire R700. Se dovesse uscire anche una buona versione "GT" o "GTS" entro luglio e non costasse più di 300€ sarà mia (se R700 non sarà ancora uscito).
Secondo me sarà un evoluzione di G80/G92 e si baserà sulla stessa architettura portata all'estremo della potenza e magari con maggiore efficienza.
x.vegeth.x
17-12-2007, 19:51
no, lo dice chiaramente:
dove:
two = 2 :asd:
dual pcb card = doppio pcb (che quindi significa una gpu a pcb)
ora non resta che sperare che sia vero :)
ps: scusa se l'ho buttata così terra terra, non era per sminuire ne te ne chiunque altro non l'abbia capita, solo per precisare ;)
infatti l'avevo letto bene, ma secondo me è un errore di battitura e intendeva dire quello che ho detto prima io...
se fosse come dici tu, avrebbe detto two dual pcb cardS plurale :asd:
bYeZ!
e questo alimenta la mia tesi :)
spero che sarà un'ottima scheda che sia almeno più del 50% più veloce di G92 così AMD si muove a far uscire R700. Se dovesse uscire anche una buona versione "GT" o "GTS" entro luglio e non costasse più di 300€ sarà mia (se R700 non sarà ancora uscito).
Secondo me sarà un evoluzione di G80/G92 e si baserà sulla stessa architettura portata all'estremo della potenza e magari con maggiore efficienza.
ma secondo voi se amd potesse rilasciare prima r700 non lo farebbe, visto la posizione in cui si trova? :rolleyes: se non lo fa è perchè è ancora moooooooooolto indietro! mica può rilasciarlo se non è pronto...
infatti l'avevo letto bene, ma secondo me è un errore di battitura e intendeva dire quello che ho detto prima io...
e questo alimenta la mia tesi :)
ma secondo voi se amd potesse rilasciare prima r700 non lo farebbe, visto la posizione in cui si trova? :rolleyes: se non lo fa è perchè è ancora moooooooooolto indietro! mica può rilasciarlo se non è pronto...
secondo me non rilascia R700 prima semplicemente perchè è studiato per i 45nm e i 45nm per le vga sono in test adesso quindi prima che inizino la produzione di massa passeranno ancora circa 6 mesi e dall'inizio della produzione alla commercializzazione, se tutto va bene, ci vogliono altri 2 mesi. Quindi ottimisticamente AMD farà uscire R700 per luglio 2008, ad andar male anche per ottobre/novembre.
Se a luglio 2008 non c'è R700 e D9E andrà bene lo prenderò quasi di sicuro...
se fosse come dici tu, avrebbe detto two dual pcb cardS plurale :asd:
bYeZ!
allora è un errore di battitura, me imho è un errore molto grave sbagliare un plurale...
nico88desmo
17-12-2007, 22:10
allora è un errore di battitura, me imho è un errore molto grave sbagliare un plurale...
Gravissimo in questo caso direi :D
Brightblade
18-12-2007, 08:13
se fosse come dici tu, avrebbe detto two dual pcb cardS plurale :asd:
bYeZ!
E se fosse come dici tu, avrebbe scritto "faster than a 2 G92 dual pcb card"...praticamente e' come l'oroscopo, ognuno ci trova quello che gli fa comodo :asd:
a parte il fatto che sono solo dei "Q" e non dei "QX"...stesso progetto anche io (discorso ddr2 compreso) :cool:
dai su non fare il pignolo vegeta
guarda che ti mando goku a farti il culo eh.. :D
...ma se tutte le maggiori testate hanno detto febbraio perchè fud deve dire marzo? :mbe:
Eccone un'altra fresca fresca.. stavolta però da toms!
Nvidia: dual-GPU G92 e D9E entro marzo 2008?
http://www.tomshw.it/news.php?newsid=12376
Brightblade
18-12-2007, 08:30
Pero' non capisco il senso di far uscire 2 schede del genere cosi' ravvicinate, a meno che il divario di prestazioni e di prezzo fra le 2 non sia molto ampio. O a meno che non lancino la dual per riprendersi il trono, e poi D9E lo faranno uscire se e quando ATI tentera' di riconquistarlo..
purtroppo sono d'accordo con te..
dico "purtroppo" perchè imho non ha davvero senso farle uscire a distanza di 1 mese l'una dall'altra.. e poi se c'è qualcosa che potrebbe giustificare l'uscita ravvicinata è il prezzo.. però se ci pensate, che differenza di prezzo volete che ci sarà tra due mostri del genere..?!?
non la vedo bene marzo per l'uscita del G100
albert75
18-12-2007, 10:47
secondo me in OC si :) a default forse sei un pò cpulimited :rolleyes:l'importante e' che riesca a muovere crysis decentemente a 1680*1050:D
Stech1987
18-12-2007, 11:04
:) Alla fine non ho resistito... 8800 GT in arrivo LoL... la cambierò a giugno/luglio con l'uscita della 9800GT-GTS :)
Idem (dovrebbe arrivare oggi pomeriggio la piccolina...)!
x.vegeth.x
18-12-2007, 14:15
dai su non fare il pignolo vegeta
guarda che ti mando goku a farti il culo eh.. :D
a dire il vero sono vegeth (in italia vegekou)...ossia la fusione di goku+vegeta (non vedi il mio avatar?)
Eccone un'altra fresca fresca.. stavolta però da toms!
Nvidia: dual-GPU G92 e D9E entro marzo 2008?
http://www.tomshw.it/news.php?newsid=12376
:cry: :cry: :cry:
x.vegeth.x
18-12-2007, 14:21
Pero' non capisco il senso di far uscire 2 schede del genere cosi' ravvicinate, a meno che il divario di prestazioni e di prezzo fra le 2 non sia molto ampio. O a meno che non lancino la dual per riprendersi il trono, e poi D9E lo faranno uscire se e quando ATI tentera' di riconquistarlo..
purtroppo sono d'accordo con te..
dico "purtroppo" perchè imho non ha davvero senso farle uscire a distanza di 1 mese l'una dall'altra.. e poi se c'è qualcosa che potrebbe giustificare l'uscita ravvicinata è il prezzo.. però se ci pensate, che differenza di prezzo volete che ci sarà tra due mostri del genere..?!?
non la vedo bene marzo per l'uscita del G100
secondo me invece avranno entrambe collocazione in due fasce diverse: visto che una 8800gt costa 230€ la 8850gx2 costerà non più di 470-80€, invece d9e classica fascia super alta, 600€ (secondo me).
...ma sopratutto, non voglio aspettare marzo!!!! :cry: :cry: :cry:
frankdan
18-12-2007, 18:43
A me interesserebbe sapere se queste prossime schede di fascia top saranno compatibili anche col pci-express 1.0 (e non soltanto con il 2.0)...
Skullcrusher
18-12-2007, 18:48
A me interesserebbe sapere se queste prossime schede di fascia top saranno compatibili anche col pci-express 1.0 (e non soltanto con il 2.0)...
Penso proprio di sì...già le nuove GT e GTS sono pci-express 2.0 native, ma funzionano senza problemi anche con l'1... ;)
nico88desmo
18-12-2007, 20:30
A me interesserebbe sapere se queste prossime schede di fascia top saranno compatibili anche col pci-express 1.0 (e non soltanto con il 2.0)...
Penso e credo di si.
appleroof
18-12-2007, 20:42
Penso proprio di sì...già le nuove GT e GTS sono pci-express 2.0 native, ma funzionano senza problemi anche con l'1... ;)
quoto e aggiungo che a io modesto parere per almeno tutto il 2008 compreso (se non di più) si avrà retrocompatibilità....
quoto e aggiungo che a io modesto parere per almeno tutto il 2008 compreso (se non di più) si avrà retrocompatibilità....
guarda, spero che si avrà piena compatibilità per almeno i prossimi 2 anni. Sono troppe le mobo PCI-E 1 ancora in commercio e solo pochi chipset supportano il 2 (AMD 770/790, intel X38 e NFORCE 780i e 780A)
appleroof
18-12-2007, 21:13
guarda, spero che si avrà piena compatibilità per almeno i prossimi 2 anni. Sono troppe le mobo PCI-E 1 ancora in commercio e solo pochi chipset supportano il 2 (AMD 770/790, intel X38 e NFORCE 780i e 780A)
d'altra parte per saturare il pci-ex 1.1 ancora ce ne vuole e per l'alimentazione basta che aggiungano sulle vga i molex aggiuntivi....speriamo solo che non facciano i soliti cartelli del cavolo :rolleyes:
d'altra parte per saturare il pci-ex 1.1 ancora ce ne vuole e per l'alimentazione basta che aggiungano sulle vga i molex aggiuntivi....speriamo solo che non facciano i soliti cartelli del cavolo :rolleyes:
sperèm... e spero anche che D9E esca davvero a marzo e non per forza solo nella fascia dei 600€ e oltre... azzo!! voglio una vga degna di crysis in very high entro luglio 2008 a prezzi decenti, non mi importa che sia ATI o NVIDIA, l'importante è che ci sia!! E non voglio bidonate dual gpu in stile 8950GX2 o R680... :D
D9E e R700 DEVONO uscire il prima possibile!!
x.vegeth.x
18-12-2007, 21:22
sperèm... e spero anche che D9E esca davvero a marzo e non per forza solo nella fascia dei 600€ e oltre... azzo!! voglio una vga degna di crysis in very high entro luglio 2008 a prezzi decenti, non mi importa che sia ATI o NVIDIA, l'importante è che ci sia!! E non voglio bidonate dual gpu in stile 8950GX2 o R680... :D
D9E e R700 DEVONO uscire il prima possibile!!
a dire il vero io spero che esca a febbraio!!! :mad: ma vedrai che all'inizio esce solo la top di gamma (e a me va bene così :D )
:D ma che esca presto! :mad:
appleroof
18-12-2007, 21:26
sperèm... e spero anche che D9E esca davvero a marzo e non per forza solo nella fascia dei 600€ e oltre... azzo!! voglio una vga degna di crysis in very high entro luglio 2008 a prezzi decenti, non mi importa che sia ATI o NVIDIA, l'importante è che ci sia!! E non voglio bidonate dual gpu in stile 8950GX2 o R680... :D
D9E e R700 DEVONO uscire il prima possibile!!
mah...crysis l'ho bello che giocato ormai :D, per il resto moltissimi spingono sui giochi per consolle (che rendono di più) con relativi porting per pc e da questo punto di vista le attuali vga vanno alla grandissima ovviamente, ancora poi ci sono esempi di giochi dx10 per pc che vanno bene sulle attuali schede (world in conflict è l'esempio migliore), non esiste solo crysis...
io cmq credo che l'anno prox sarà un altro anno senza cose eclatanti (ovviamente partendo dalle basi attuali) in ambito vga, non sò perchè ma ho questa sensazione...vedremo, ormai manca poco per vedere all'opera la/le dual gpu e poi pare che l'attesa per d9e sia relativamente breve...
mah...crysis l'ho bello che giocato ormai :D, per il resto moltissimi spingono sui giochi per consolle (che rendono di più) con relativi porting per pc e da questo punto di vista le attuali vga vanno alla grandissima ovviamente, ancora poi ci sono esempi di giochi dx10 per pc che vanno bene sulle attuali schede (world in conflict è l'esempio migliore), non esiste solo crysis...
io cmq credo che l'anno prox sarà un altro anno senza cose eclatanti (ovviamente partendo dalle basi attuali) in ambito vga, non sò perchè ma ho questa sensazione...vedremo, ormai manca poco per vedere all'opera la/le dual gpu e poi pare che l'attesa per d9e sia relativamente breve...
guarda, se R700 uscirà veramente l'anno prossimo io mi aspetto davvero cose eclatanti.
Innanzitutto forse usciranno davvero dei giochi con motori full-dx10 e poi se già G80/G92 sono ottime architetture, D9E le porterà all'estremo con in più supporto all'AA via shader (per motori full-dx10) e altre innovazioni.
Mentre con R700 dovremmo vedere in anteprima cosa saranno le GPU del futuro, la scalabilità delle soluzioni multi-core e le performance incrementali da 1 a 2 o a 4 core.
Io mi aspetto molto sia da D9E (in termini di prestazioni pure) che da R700 (in termini di scalabilità ed efficienza e ovviamente anche di prestazioni), spero di non essere deluso da nessuna delle 2...
Per il resto dei giochi posso giocare a tutti con dettaglio medio-alto o alto anche con la mia x1950xt, se cambio vga ne voglio una che mi faccia andare al massimo crysis, altrimenti mi tengo volentieri la x1950xt...
x.vegeth.x
18-12-2007, 21:39
Io mi aspetto molto sia da D9E (in termini di prestazioni pure) che da R700 (in termini di scalabilità ed efficienza e ovviamente anche di prestazioni), spero di non essere deluso da nessuna delle 2...
beh io spero di non essere deluso da quella che compro, dell'altra non potrebbe fregarmene di meno :D
nico88desmo
19-12-2007, 09:18
Un pò di news contrastanti...
http://forums.vr-zone.com/showthread.php?t=215674
http://www.geforceitalia.it/dal_mondo_nvidia/whats_new/detail.asp?id=2095
Un pò di news contrastanti...
http://forums.vr-zone.com/showthread.php?t=215674
http://www.geforceitalia.it/dal_mondo_nvidia/whats_new/detail.asp?id=2095
Nvidia plans to release D9E-40 in January and D9E-20 in February. D9E-40 has dual PCB containing two 256-bit GPUs on 2 PCBs, 1GB of memories with 225W TDP and has 2x4+2x3 power connectors. D9E-20 is single GPU on single PCB with 512MB memories at 180W TDP with 2x4 or 2x3+2x3 power connectors.
Da quanto dice VR-Zone sembra che non ci sarà soluzione di continuità tra G80/92 e G100. Il TDP fa intendere ancora l'uso dei 65nm, ma a quel punto dubito fortemente che si supererà il raddoppio di prestazioni.
Se fossero vere queste info G100 secondo me sarà una G92GTS con 192/256SP e altre amenità (più TMU e altre ottimizzazioni), ma di base l'architettura sarà molto simile.
Da quanto dice VR-Zone sembra che non ci sarà soluzione di continuità tra G80/92 e G100. Il TDP fa intendere ancora l'uso dei 65nm, ma a quel punto dubito fortemente che si supererà il raddoppio di prestazioni.
Se fossero vere queste info G100 secondo me sarà una G92GTS con 192/256SP e altre amenità (più TMU e altre ottimizzazioni), ma di base l'architettura sarà molto simile.
Infatti su Beyond3D si parla più di un NV55, un refresh come tra la serie 6 e 7. G100/NV60 dovrebbe essere il prossimo major upgrade con una architettura totalmente nuova.
D9E e R700 DEVONO uscire il prima possibile!!
Quanto a D9E credo l'attesa potrebbe essere breve, ma potrebbe non essere una GPU rivoluzionaria rispetto a G80/G92 (almeno non da raddoppio delle prestazioni), come hanno scritto qui sopra, ma quanto a R700 ....
http://www.hwupgrade.it/news/cpu/le-piattaforme-amd-per-2008-e-2009_23643.html
http://www.hwupgrade.it/immagini/amd_roadmap_2008_enth.gif
Se è vero che D9E sarà un'ulteriore "revisione" della serie 8800, allora credo che anche per G100, che dovrà essere la vera "rivoluzione", si prospettino tempi lunghi.
p.s.
Il titolo del thread è G100/D9E: siamo sicuri che sia così ?
halduemilauno
19-12-2007, 11:19
Da quanto dice VR-Zone sembra che non ci sarà soluzione di continuità tra G80/92 e G100. Il TDP fa intendere ancora l'uso dei 65nm, ma a quel punto dubito fortemente che si supererà il raddoppio di prestazioni.
Se fossero vere queste info G100 secondo me sarà una G92GTS con 192/256SP e altre amenità (più TMU e altre ottimizzazioni), ma di base l'architettura sarà molto simile.
certo è stravincente.
Gabriyzf
19-12-2007, 11:27
squadra che vince non si cambia ;)
nico88desmo
19-12-2007, 11:40
Più che altro ora non si sà se D9E e G100 sono lo stesso chip.
Certo che anche se fosse un G80 con più SP e TMU e magari con bus aumentato e Rops pure, non sarebbe per niente male. :D :D :D
Ora non capisco nemmeno l'uscita a distanza di un mese della soluzione dualGpu e poi successivamente la nuova highEnd.
Comunque il boss nVidia un pò di mesi fà disse che il prossimo chip di fascia alta raggiungerà 1TeraFlop di potenza elaborativa. Speriamo bene...
halduemilauno
19-12-2007, 11:42
Più che altro ora non si sà se D9E e G100 sono lo stesso chip.
Certo che anche se fosse un G80 con più SP e TMU e magari con bus aumentato e Rops pure, non sarebbe per niente male. :D :D :D
Ora non capisco nemmeno l'uscita a distanza di un mese della soluzione dualGpu e poi successivamente la nuova highEnd.
Comunque il boss nVidia un pò di mesi fà disse che il prossimo chip di fascia alta raggiungerà 1TeraFlop di potenza elaborativa. Speriamo bene...
ancora? son sei mesi che si sa che D9E è il nuovo nome di G100.
certo è stravincente.
Fino all'arrivo di Crysis, che non utilizza nemmeno pesantemente le DirectX10.
L'architettura di G80/G92 è fortemente limitata dal pixel fillrate: G92 ha quasi il 50% in più di capacità di calcolo rispetto G80 ma le prestazioni sono le medesime.
ancora? son sei mesi che si sa che D9E è il nuovo nome di G100.
Allora D9E potrebbe essere una nuova architettura.
halduemilauno
19-12-2007, 11:45
Fino all'arrivo di Crysis, che non utilizza nemmeno pesantemente le DirectX10.
L'architettura di G80/G92 è fortemente limitata dal pixel fillrate: G92 ha quasi il 50% in più di capacità di calcolo rispetto G80 ma le prestazioni sono le medesime.
stravincente rispetto alle ati. e parlavo di architettura. quindi se gli shader da...diventano... poi in più tutto il resto.
;)
stravincente rispetto alle ati. e parlavo di architettura. quindi se gli shader da...diventano... poi in più tutto il resto.
;)
beh, stravincente non direi proprio, vincente si, ma "stra" no. E poi ATI ha fatto un architettura un po' troppo sbilanciata mentre nvidia è stata più conservativa, però grazie a questo ATI è più avanti come architettura e più pronta ai motori full-DX10 di nvidia.
R700 hanno confermato che dovrebbe uscire nel 2008 e prenderà posto nella prima piattaforma AMD del 2009 e sarà un'architettura ulteriormente rivoluzionante.
D9E e G100 sono lo stesso chipset, solo ad essere il 50/60% più veloci di G80/G92 fanno un bel passo, l'importante è che non consumino davvero così tanto (220W!!! :eek: :eek: :eek: :eek: ) e che non costino dai 600€ in su...
halduemilauno
19-12-2007, 13:33
beh, stravincente non direi proprio, vincente si, ma "stra" no. E poi ATI ha fatto un architettura un po' troppo sbilanciata mentre nvidia è stata più conservativa, però grazie a questo ATI è più avanti come architettura e più pronta ai motori full-DX10 di nvidia.
R700 hanno confermato che dovrebbe uscire nel 2008 e prenderà posto nella prima piattaforma AMD del 2009 e sarà un'architettura ulteriormente rivoluzionante.
D9E e G100 sono lo stesso chipset, solo ad essere il 50/60% più veloci di G80/G92 fanno un bel passo, l'importante è che non consumino davvero così tanto (220W!!! :eek: :eek: :eek: :eek: ) e che non costino dai 600€ in su...
me fate ride quando dite + avanti. ma + avanti de che?
:boh:
me fate ride quando dite + avanti. ma + avanti de che?
:boh:
più avanti in tecnologia produttiva, più avanti in architettura, più avanti in qualità video e più avanti in scalabilità con soluzioni multi-GPU.
R600 ha il problema di essere un'architettura troppo sbilanciata e questo mina le prestazioni.
Cmq chiuso OT questo è il 3d di D9E. Io sono fanboy ATI e quindi forse non sono la persona adatta a dire certe cose, comunque sta di fatto che spero in un buon D9E a prezzi concorrenziali e se sono costretto a cambiare lo faccio senza problemi (già successo in passato).
halduemilauno
19-12-2007, 13:46
più avanti in tecnologia produttiva, più avanti in architettura, più avanti in qualità video e più avanti in scalabilità con soluzioni multi-GPU.
R600 ha il problema di essere un'architettura troppo sbilanciata e questo mina le prestazioni.
Cmq chiuso OT questo è il 3d di D9E. Io sono fanboy ATI e quindi forse non sono la persona adatta a dire certe cose, comunque sta di fatto che spero in un buon D9E a prezzi concorrenziali e se sono costretto a cambiare lo faccio senza problemi (già successo in passato).
l'unico + avanti che conta è quello delle prestazioni. poi viene la qualità. in ambedue vince nvidia.
stop.
appleroof
19-12-2007, 13:54
Un pò di news contrastanti...
http://forums.vr-zone.com/showthread.php?t=215674
http://www.geforceitalia.it/dal_mondo_nvidia/whats_new/detail.asp?id=2095
quindi ci sarebbe D9E-40 la dual gpu e D9E-20 una single gpu....mah! vediamo
l'unico + avanti che conta è quello delle prestazioni. poi viene la qualità. in ambedue vince nvidia.
stop.
quoto: è l'aspetto fondamentale, e deve convincere oggi, il resto è fuffa c'è poco da fare
x.vegeth.x
19-12-2007, 14:08
:mbe: scusate ma secondo me d9e per trovare la sua zona di mercato DEVE essere veloce perlomeno quasi (se non proprio) il doppio di una 8800gtx: dico questo perchè due 8800gt in sli in quasi tutti i giochi che sfruttano lo sli come si deve sono veloci circa 1,5 volte la 8800gtx, e queste saranno ovviamente le prestazioni che avrà la 8850gx2, ma se d9e avesse le stesse prestazioni che la farebbero uscire a fare? :mbe:
l'unico + avanti che conta è quello delle prestazioni. poi viene la qualità. in ambedue vince nvidia.
stop.
stramegaquotone :read:
x.vegeth.x
19-12-2007, 14:12
:confused:
scusate ma qui http://forums.vr-zone.com/showthread.php?t=215674 dice:
Nvidia plans to release D9E-40 in January and D9E-20 in February. D9E-40 has dual PCB containing two 256-bit GPUs on 2 PCBs, 1GB of memories with 225W TDP and has 2x4+2x3 power connectors. D9E-20 is single GPU on single PCB with 512MB memories at 180W TDP with 2x4 or 2x3+2x3 power connectors.
omg!!! secondo loro la dual gpu che esce a gennaio dovrebbe essere una doppia d9e!!! :eek: e ovviamente se poi a febbraio esce la versione singola, non si tratterebbe di una doppia 8800gt, bensì di una doppia g100!!! :eek: :eek: :eek:
mi sembra mooolto strano e contorto...d'altra parte sarebbe mica male :D
IMHO la dual andrà quasi il doppio delle 8800GTX mentre la singola andrà un 50%/60% in più delle 8800GTX consumando lo stesso. Mi sembra un buon passo avanti...
x.vegeth.x
19-12-2007, 14:24
IMHO la dual andrà quasi il doppio delle 8800GTX mentre la singola andrà un 50%/60% in più delle 8800GTX consumando lo stesso. Mi sembra un buon passo avanti...
quindi secondo te tra la singola e la dual ci sarà (meglio dire SAREBBE :rolleyes: visto che la news è ancora molto incerta) meno del 40% di differenza in prestazioni? :mbe: io invece penso che potrebbe essere:
D9E-20: 35-40% più veloce della 8800gtx, prezzo 450€
D9E-40: veloce il doppio rispetto alla gtx, prezzo 570-580€
:sbav:
:confused:
scusate ma qui http://forums.vr-zone.com/showthread.php?t=215674 dice:
omg!!! secondo loro la dual gpu che esce a gennaio dovrebbe essere una doppia d9e!!! :eek: e ovviamente se poi a febbraio esce la versione singola, non si tratterebbe di una doppia 8800gt, bensì di una doppia g100!!! :eek: :eek: :eek:
mi sembra mooolto strano e contorto...d'altra parte sarebbe mica male :D
In realtà dici che a gennaio uscirà D9E_40, cioè doppia gpu D9E, e a febbraio D9E_20 cioè singola gpu. E' evidente che è una stupidatà, non può la versione a doppia gpu consumare sono 45W in più della singola nuova top gamma. Ha molto più senso un dual gpu di G92 a gennaio e la D9E a Marzo, in accordo agli altri rumor.
nico88desmo
19-12-2007, 14:30
Secondo me la news di vr-zone è errata.
Mi sembra per prima cosa strano che la scheda con due GPU sia basata su 2 D9E.
Tra l'altro continuo a non capire l'uscita ravvicinata di due schede del genere.
Secondo me nVidia sta facedo apposta a far uscire delle news del genere per fare solo confusione (G80 shader separati docet :D :D )
x.vegeth.x
19-12-2007, 14:41
In realtà dici che a gennaio uscirà D9E_40, cioè doppia gpu D9E, e a febbraio D9E_20 cioè singola gpu.
e io che ho detto? :confused:
E' evidente che è una stupidatà, non può la versione a doppia gpu consumare sono 45W in più della singola nuova top gamma. Ha molto più senso un dual gpu di G92 a gennaio e la D9E a Marzo, in accordo agli altri rumor.
lo penso anche io, però non sarebbe affatto male se ci sbagliassimo :sofico: (magari il tpd è un errore di battitura :sofico: )
continuo a non capire l'uscita ravvicinata di due schede del genere
invece potrebbe quadrare, come l'uscita ravvicinata di un anno fa di 8800gts e gtx...
Skynet*J4F*
19-12-2007, 16:19
Let\'s remind also June specification GF9, to be with her subentries part maybe, foundling use:
- technological process 65nm
- over billion transistors
- 1024MB memory GDDR4
- 512 - the bite interface of memory
- agreement from DirectX 10.1
- agreement from OpenGL 3.0
- Unified Shader II
- the support of double precision (FP64)
- native GPGPU
- over TeraFlop the computational power of individuals of shading
- MADD + ADD for individuals shaded (2 + 1 FLOPS = 3 FLOPS on ALU)
- in 100% scalar construction
- EDRAM chip for "free FSAAx4"
- built-in - audio arrangement
- arrangement of tesselation in GPU
Fonte: www.geforce9.com
:mbe: scusate ma secondo me d9e per trovare la sua zona di mercato DEVE essere veloce perlomeno quasi (se non proprio) il doppio di una 8800gtx: dico questo perchè due 8800gt in sli in quasi tutti i giochi che sfruttano lo sli come si deve sono veloci circa 1,5 volte la 8800gtx, e queste saranno ovviamente le prestazioni che avrà la 8850gx2, ma se d9e avesse le stesse prestazioni che la farebbero uscire a fare? :mbe:
Mah, già una scheda con due gpu su singolo pcb è discutibile (ma indubbiamente può essere utile ad AMD per vari motivi: le permette di avere una scheda più potente di RV670 senza eccessivi sforzi, di affinare i drivers per il crossfire, ecc...), ma una con doppio pcb lo è ancora di più. Mi chiedo che razza di sistema di raffreddamento useranno, ad esempio: G92 scalda parecchio, e si è capito che un singolo slot fa fatica a raffreddarlo. Se facessero come per la 7950GX2, il core "inferiore" si scalderebbe di brutto.
La single gpu avrà diversi vantaggi: un TDP paragonabile alla 8800GTX (che non è poco, ma meno di 225W), la sicurezza delle prestazioni, probabilmente un bus più ampio, ecc...
La dual costerà meno della nuova top di gamma, ponendosi penso nella stessa fascia di R680.
Credo che la nuova GX2 arriverà ad essere al max un 40-50% più veloce di una GTX (ossia, come 2 GT in SLI), mentre la nuova top di gamma (9800GTX?) sarà un 70-80% più veloce in media rispetto alla vecchia GTX.
quoto: è l'aspetto fondamentale, e deve convincere oggi, il resto è fuffa c'è poco da fare
come non quotare
io invece penso che potrebbe essere:
D9E-20: 35-40% più veloce della 8800gtx, prezzo 450€
D9E-40: veloce il doppio rispetto alla gtx, prezzo 570-580€
:sbav:
firmerei seduta stante se i prezzi saranno quelli
sarebbero ottimi.. e giusti! ;)
Marko#88
19-12-2007, 17:46
Let\'s remind also June specification GF9, to be with her subentries part maybe, foundling use:
- technological process 65nm
- over billion transistors
- 1024MB memory GDDR4
- 512 - the bite interface of memory
- agreement from DirectX 10.1
- agreement from OpenGL 3.0
- Unified Shader II
- the support of double precision (FP64)
- native GPGPU
- over TeraFlop the computational power of individuals of shading
- MADD + ADD for individuals shaded (2 + 1 FLOPS = 3 FLOPS on ALU)
- in 100% scalar construction
- EDRAM chip for "free FSAAx4"
- built-in - audio arrangement
- arrangement of tesselation in GPU
Fonte: www.geforce9.com
:eek: :sbav: :sbav: :sbav: :sbav:
Let\'s remind also June specification GF9, to be with her subentries part maybe, foundling use:
- technological process 65nm
- over billion transistors
- 1024MB memory GDDR4
- 512 - the bite interface of memory
- agreement from DirectX 10.1
- agreement from OpenGL 3.0
- Unified Shader II
- the support of double precision (FP64)
- native GPGPU
- over TeraFlop the computational power of individuals of shading
- MADD + ADD for individuals shaded (2 + 1 FLOPS = 3 FLOPS on ALU)
- in 100% scalar construction
- EDRAM chip for "free FSAAx4"
- built-in - audio arrangement
- arrangement of tesselation in GPU
Fonte: www.geforce9.com
vedo che a differenza di quello che pensavo ci sono molte caratteristiche innovative che la distanziano da G80. E poi c'è l'edram!!!! Forse potremo finalmente attivare l'AA sempre...
Athlon 64 3000+
19-12-2007, 18:30
Let\'s remind also June specification GF9, to be with her subentries part maybe, foundling use:
- technological process 65nm
- over billion transistors
- 1024MB memory GDDR4
- 512 - the bite interface of memory
- agreement from DirectX 10.1
- agreement from OpenGL 3.0
- Unified Shader II
- the support of double precision (FP64)
- native GPGPU
- over TeraFlop the computational power of individuals of shading
- MADD + ADD for individuals shaded (2 + 1 FLOPS = 3 FLOPS on ALU)
- in 100% scalar construction
- EDRAM chip for "free FSAAx4"
- built-in - audio arrangement
- arrangement of tesselation in GPU
Fonte: www.geforce9.com
se queste specifiche sono vere si avrebbe una gpu abbastanza diversa da G80
che dovrebbe essere molto più veloce e per avere il bus a 512 penso che ci sarà un controller di memoria nuovo di zecca magari un ibrido ring bus come quello di R520/R580.
nico88desmo
19-12-2007, 18:37
Nel caso fossero quelli gli aggiornamenti....
vabbè che hanno avuto tempo un anno e mezzo per migliorare il G80...
nico88desmo
19-12-2007, 18:37
se queste specifiche sono vere si avrebbe una gpu abbastanza diversa da G80
che dovrebbe essere molto più veloce e per avere il bus a 512 penso che ci sarà un controller di memoria nuovo di zecca magari un ibrido ring bus come quello di R520/R580.
Potrebbe anche essere ancora crossbar dato che nelle caratteristiche c'è scritto 1024MB GDDR4
Typhoon90
19-12-2007, 18:39
a quanto pare D9E spacca!!!!:D :D :D :D
a che prezzi pensate che venga rilasciata la top gamma? 600 euri? dopo quanto si potrà vedere una soluzione leggermente meno potente a un 450 euro?
nico88desmo
19-12-2007, 18:43
a quanto pare D9E spacca!!!!:D :D :D :D
a che prezzi pensate che venga rilasciata la top gamma? 600 euri? dopo quanto si potrà vedere una soluzione leggermente meno potente a un 450 euro?
Mi auguro che nVidia presenterà sia la top di gamma sia quella di fascia alta (tipo la 8800GTS :D)
Typhoon90
19-12-2007, 18:48
Mi auguro che nVidia presenterà sia la top di gamma sia quella di fascia alta (tipo la 8800GTS :D)
speriamo che facciano come con la 8800 gts e la gtx (la ultra è uscita un pò dopo mi sembra)
leggero OT
quanto costavano al lancio gtx e gts?
nico88desmo
19-12-2007, 19:05
speriamo che facciano come con la 8800 gts e la gtx (la ultra è uscita un pò dopo mi sembra)
leggero OT
quanto costavano al lancio gtx e gts?
650€ e 500€ se non mi sbaglio..
-_- Io spero per febbraio, visto che la attendo per assemblare il pc nuovo...ma molto più probabilmente se ne parla a marzo...credo che nVidia replicherà semplicemente quello che ha fatto con 7850gx2 (o era 7950gx2?) facendo poi seguire 8800GTX....fare uscire 8850x2 e la D9E subito dopo non avrebbe molto senso, gli impazienti che non vogliono attendere Marzo si butteranno sulla scheda dual, che francamente non mi attira per nulla...la cosa più sensata è attendere la versione medio/alta che arriverà prima dell'estate (io non essendo sensato prenderò la D9E al folle prezzo d'uscita, considerato lo stato di infermità di ATI si preannuncia moolto longeva....)
x.vegeth.x
19-12-2007, 19:14
Let\'s remind also June specification GF9, to be with her subentries part maybe, foundling use:
- technological process 65nm
- over billion transistors
- 1024MB memory GDDR4
- 512 - the bite interface of memory
- agreement from DirectX 10.1
- agreement from OpenGL 3.0
- Unified Shader II
- the support of double precision (FP64)
- native GPGPU
- over TeraFlop the computational power of individuals of shading
- MADD + ADD for individuals shaded (2 + 1 FLOPS = 3 FLOPS on ALU)
- in 100% scalar construction
- EDRAM chip for "free FSAAx4"
- built-in - audio arrangement
- arrangement of tesselation in GPU
Fonte: www.geforce9.com
:eek: :ave: :ave: :sbav: :winner:
a quanto pare D9E spacca!!!!:D :D :D :D
a che prezzi pensate che venga rilasciata la top gamma? 600 euri? dopo quanto si potrà vedere una soluzione leggermente meno potente a un 450 euro?
Mi auguro che nVidia presenterà sia la top di gamma sia quella di fascia alta (tipo la 8800GTS :D)
in quella fascia ci sarà la 8850gx2, che non verrà rimpiazzata per un bel pezzo secondo (perchè dovrebbero?)
650€ e 500€ se non mi sbaglio..
diciamo pure 620 e 470...
Athlon 64 3000+
19-12-2007, 19:27
Potrebbe anche essere ancora crossbar dato che nelle caratteristiche c'è scritto 1024MB GDDR4
se utilizzano il crossbar la scheda viene lunga poi oltre 30 cm visto che gia con il bus a 384 bit è venuto con la 8800GT/ultra un pcb di quasi 28 cm.
Con 1 gb di ram per avere un pcb corto o usano il bus a 256 bit che con le gddr4 spinte possono andare poco sopra i 80 gb/s o riprogettano il controller di memoria.
se è davvero a 512bit a meno di un astronave nel case useranno sicuramente un bus diverso, simile a quello usato sulle HD2900 come tecnologia...
Speriamo solo che siano davvero prestanti e che non scaldino 1 botto, altrimenti...
nico88desmo
19-12-2007, 20:18
se utilizzano il crossbar la scheda viene lunga poi oltre 30 cm visto che gia con il bus a 384 bit è venuto con la 8800GT/ultra un pcb di quasi 28 cm.
Con 1 gb di ram per avere un pcb corto o usano il bus a 256 bit che con le gddr4 spinte possono andare poco sopra i 80 gb/s o riprogettano il controller di memoria.
La dimensione potrebbe essere simile a quella attuale della 8800GTX grazie al processo produttivo 65nm..
Let\'s remind also June specification GF9, to be with her subentries part maybe, foundling use:
- technological process 65nm
- over billion transistors
- 1024MB memory GDDR4
- 512 - the bite interface of memory
- agreement from DirectX 10.1
- agreement from OpenGL 3.0
- Unified Shader II
- the support of double precision (FP64)
- native GPGPU
- over TeraFlop the computational power of individuals of shading
- MADD + ADD for individuals shaded (2 + 1 FLOPS = 3 FLOPS on ALU)
- in 100% scalar construction
- EDRAM chip for "free FSAAx4"
- built-in - audio arrangement
- arrangement of tesselation in GPU
Fonte: www.geforce9.com
Raffreddate gli animi....
Sono solo ipotesi dell'autore del sito, non prendeteli come rumor. Nvidia stessa comunque ha confermato i supporto alle DirectX10.1 e i 512bit.
L'edram è altamente improbabile che ci sia e così anche la tessellation.
nico88desmo
19-12-2007, 20:36
Raffreddate gli animi....
Sono solo ipotesi dell'autore del sito, non prendeteli come rumor. Nvidia stessa comunque ha confermato i supporto alle DirectX10.1 e i 512bit.
L'edram è altamente improbabile che ci sia e così anche la tessellation.
la tessellation ci dovrebbe essere proprio perchè è DX10.1 compliant.
I 512 bit dove li ha confermati nVidia?
Da notare come ora come ora da 256 a 384 bit non cambia molto se non alle altissime risoluzioni....
Raffreddate gli animi....
Sono solo ipotesi dell'autore del sito, non prendeteli come rumor. Nvidia stessa comunque ha confermato i supporto alle DirectX10.1 e i 512bit.
L'edram è altamente improbabile che ci sia e così anche la tessellation.
Infatti, l'eDRAM non mi pare una cosa oggi attuabile per una gpu da pc: troppe risoluzioni diverse da supportare, per il free FSAA4x ne servirebbe troppa, e l'eDRAM è costosa e occupa spazio nel package.
Credo che NVidia punti più alle GDDR5 che alle GDDR4, anche perchè in effetti con le GDDR3 a 0.8ns delle GDDR4 (che nella versione più spinta in commercio arrivano a 0.7ns) non se ne sente il bisogno. Le GDDR5 comunque non saranno disponibili per febbraio 2008.
I 512bit mi sa che non sono sicuri, mentre il supporto DX10.1 sì.
Come giustamente hai detto, sono solo speculazioni, che implicherebbero importanti modifiche all'architettura. Credo invece che D9E sarà molto simile a G80, così come G70 era simile a NV40. ;)
la tessellation ci dovrebbe essere proprio perchè è DX10.1 compliant.
I 512 bit dove li ha confermati nVidia?
Da notare come ora come ora da 256 a 384 bit non cambia molto se non alle altissime risoluzioni....
Per la tessellation era Microsoft a spingere per inserirla nelle specifiche DX10.1, ma evidentemente finirà nelle DX11, visto che le DX10.1 non prevedono la tessellation. Dato che ATi aveva tutto l'interesse a farla inserire nelle specifiche, credo proprio che sia stato il rifiuto di NVidia o degli sviluppatori a non farle inserire nelle specifiche. Dunque vedo come molto improbabile l'inserimento di un'unità di tessellation nella prossima generazione di gpu NVidia.
nico88desmo
19-12-2007, 22:03
Per la tessellation era Microsoft a spingere per inserirla nelle specifiche DX10.1, ma evidentemente finirà nelle DX11, visto che le DX10.1 non prevedono la tessellation. Dato che ATi aveva tutto l'interesse a farla inserire nelle specifiche, credo proprio che sia stato il rifiuto di NVidia o degli sviluppatori a non farle inserire nelle specifiche. Dunque vedo come molto improbabile l'inserimento di un'unità di tessellation nella prossima generazione di gpu NVidia.
Ah questo non lo sapevo...
scusate la mia ignIoranza... cos'è questa tessellation? le schede ati (R600) ce l'hanno?
Per il bus spero che se sarà a 512bit sarà diverso da quello di G80 altrimenti arriverà 1 altra scheda mastodontica... :(
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.