PDA

View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111

michelgaetano
27-05-2009, 18:25
Cavolo io spero che esca prima...

Prima di ottobre? Ma se si parla di inizio 2010 :stordita:

Mister Tarpone
27-05-2009, 19:43
ti garba? ;)

Mister Tarpone
27-05-2009, 19:46
Si, ma è buona... al limite... per chi non ha ancora una GTX\HD48x0

altrimenti tanto vale aspettare... tanto ste vga fanno girare bene tutto... chi + chi meno.

si concordo...

michelgaetano
27-05-2009, 19:53
ti garba? ;)

Si, ma è buona... al limite... per chi non ha ancora una GTX\HD48x0

altrimenti tanto vale aspettare... tanto ste vga fanno girare bene tutto... chi + chi meno.

Io con una eVGA gtx 280 col caiser che cambio con una 295 :fagiano:

HaRdCoRe GaMeR
27-05-2009, 20:41
Galaxy GTX295 single pcb:

http://resources.vr-zone.com/newvr/image.php?m=540&s=http://resources.vr-zone.com//uploads/7096/Galaxy_GTX295_2.jpg

http://resources.vr-zone.com/newvr/image.php?m=540&s=http://resources.vr-zone.com//uploads/7096/Galaxy_GTX295_1.JPG

http://vr-zone.com/articles/galaxy-previews-new-gtx-295-oc-performance/7096.html?doc=7096

Vorrei chiedervi un'informazione un pò OT...che cambia con singolo o doppio
PCB? Perchè hanno fatto sta "prova" con la gtx295? Solo per far pratica per il G300? Ha guadagni prestazionali rispetto ad una "vecchia" 295? tenkiu;)

goldorak
27-05-2009, 20:52
Vorrei chiedervi un'informazione un pò OT...che cambia con singolo o doppio
PCB? Perchè hanno fatto sta "prova" con la gtx295? Solo per far pratica per il G300? Ha guadagni prestazionali rispetto ad una "vecchia" 295? tenkiu;)


Per ridurre il costo ovvio no ?

gelox15
27-05-2009, 22:41
Si, ma è buona... al limite... per chi non ha ancora una GTX\HD48x0

altrimenti tanto vale aspettare... tanto ste vga fanno girare bene tutto... chi + chi meno.

quoto...si tratta come gia' detto di una mossa commerciale x ridurre i costi....

mircocatta
28-05-2009, 08:30
io avrei un dissipatore aftermarket compatibile con le gtx280, dite che gt300 ci starà o sarà più grosso? :(

gelox15
28-05-2009, 09:16
riduce anche la complessità del liquidare una scheda dual pcb x quanto mi riguarda... :asd:

:D immagino...

_andrea_
28-05-2009, 09:49
io avrei un dissipatore aftermarket compatibile con le gtx280, dite che gt300 ci starà o sarà più grosso? :(

mmh di solito con il cambio generazionale cambia tutto: posizione, larghezza e lunghezza del core della gpu. Non credo che sarà compatibile. Però finchè non ci saranno delle foto del pcb nessuno lo può dire con certezza

mircocatta
28-05-2009, 09:55
mmh di solito con il cambio generazionale cambia tutto: posizione, larghezza e lunghezza del core della gpu. Non credo che sarà compatibile. Però finchè non ci saranno delle foto del pcb nessuno lo può dire con certezza

secondo i rumors il die size dovrebbe essere simile al gt200...per cui mi aspetterei qualcosa di simile, sarebbe anche conveniente per loro perchè renderebbe appetibile l'acquisto delle loro schede per chi ha già in casa un dissi aftermarket (per esempio io ho preso la 4870 anche percjhè la gtx260/280 non erano compatibili con accelero s1)

michelgaetano
28-05-2009, 11:26
secondo i rumors il die size dovrebbe essere simile al gt200...per cui mi aspetterei qualcosa di simile, sarebbe anche conveniente per loro perchè renderebbe appetibile l'acquisto delle loro schede per chi ha già in casa un dissi aftermarket (per esempio io ho preso la 4870 anche percjhè la gtx260/280 non erano compatibili con accelero s1)

Ma non certo appetibile per chi i dissipatori li vende :D

Ad ogni modo difficilmente vedremo dissipatori gpu tanto scarsi da necessitare di andare sull'aftermarket.

Foglia Morta
28-05-2009, 12:04
posto qui perchè non è nè una GTX 285 nè una GTX 295

http://www.techpowerup.com/95445/ASUS_Designes_Own_Monster_Dual-GTX_285_4_GB_Graphics_Card.html

ASUS Designes Own Monster Dual-GTX 285 4 GB Graphics Card

ASUS has just designed a new monster graphics card that breaks the mold for reference design GeForce GTX 295, called the ASUS MARS 295 Limited Edition. The card, although retains the name "GeForce GTX 295", same device ID, and is compatible with existing NVIDIA drivers, has two huge innovations put in by ASUS, which go far beyond being yet another overclocked GeForce GTX 295: the company used two G200-350-B3 graphics processors, the same ones that make the GeForce GTX 285. The GPUs have all the 240 shader processors enabled, and also have the complete 512-bit GDDR3 memory interface enabled. This dual-PCB monstrosity holds 32 memory chips, and 4 GB of total memory (each GPU accesses 2 GB of it). Apart from these, each GPU system uses the same exact clock speeds as the GeForce GTX 285: 648/1476/2400 MHz (core/shader/memory).

http://img38.imageshack.us/img38/7826/2c84913978495867.jpg

Più info e immagini alla fonte

zorco
28-05-2009, 12:10
posto qui perchè non è nè una GTX 285 nè una GTX 295

http://www.techpowerup.com/95445/ASUS_Designes_Own_Monster_Dual-GTX_285_4_GB_Graphics_Card.html

ASUS Designes Own Monster Dual-GTX 285 4 GB Graphics Card

ASUS has just designed a new monster graphics card that breaks the mold for reference design GeForce GTX 295, called the ASUS MARS 295 Limited Edition. The card, although retains the name "GeForce GTX 295", same device ID, and is compatible with existing NVIDIA drivers, has two huge innovations put in by ASUS, which go far beyond being yet another overclocked GeForce GTX 295: the company used two G200-350-B3 graphics processors, the same ones that make the GeForce GTX 285. The GPUs have all the 240 shader processors enabled, and also have the complete 512-bit GDDR3 memory interface enabled. This dual-PCB monstrosity holds 32 memory chips, and 4 GB of total memory (each GPU accesses 2 GB of it). Apart from these, each GPU system uses the same exact clock speeds as the GeForce GTX 285: 648/1476/2400 MHz (core/shader/memory).



Più info e immagini alla fonte
allora che diavolo è sto mattone?:confused:

michelgaetano
28-05-2009, 12:10
Cavolo, potenza non indifferente :eek: Non so quanto se ne senta la necessità, però rimane notevole.

Guardando a questa scheda, mi vien da pensare poi ad AMD/ATi che fa la parte a Gainward semplicemente perchè crea schede custom :muro:

allora che diavolo è sto mattone?:confused:

Non ti è chiaro? Uno SLI di 285 da 2 gb.

mircocatta
28-05-2009, 12:46
Ma non certo appetibile per chi i dissipatori li vende :D


invece no!
non intendevo che è appetibile solo per chi ha già i dissipatori, ma anche per chi li vende.

se zalman fa un dissipatore per le ultime schede, poi dopo 1 mese escono le nuove generazioni di schede, zalman scopre che il suo dissipatore che aveva fatto precedentemente è anche compatibile con le nuove schede, sarà pur contenta di ciò, no?

gelox15
28-05-2009, 13:02
posto qui perchè non è nè una GTX 285 nè una GTX 295

http://www.techpowerup.com/95445/ASUS_Designes_Own_Monster_Dual-GTX_285_4_GB_Graphics_Card.html

ASUS Designes Own Monster Dual-GTX 285 4 GB Graphics Card

ASUS has just designed a new monster graphics card that breaks the mold for reference design GeForce GTX 295, called the ASUS MARS 295 Limited Edition. The card, although retains the name "GeForce GTX 295", same device ID, and is compatible with existing NVIDIA drivers, has two huge innovations put in by ASUS, which go far beyond being yet another overclocked GeForce GTX 295: the company used two G200-350-B3 graphics processors, the same ones that make the GeForce GTX 285. The GPUs have all the 240 shader processors enabled, and also have the complete 512-bit GDDR3 memory interface enabled. This dual-PCB monstrosity holds 32 memory chips, and 4 GB of total memory (each GPU accesses 2 GB of it). Apart from these, each GPU system uses the same exact clock speeds as the GeForce GTX 285: 648/1476/2400 MHz (core/shader/memory).

http://img38.imageshack.us/img38/7826/2c84913978495867.jpg

Più info e immagini alla fonte
ammazza.......:sofico:

michelgaetano
28-05-2009, 13:09
invece no!
non intendevo che è appetibile solo per chi ha già i dissipatori, ma anche per chi li vende.

se zalman fa un dissipatore per le ultime schede, poi dopo 1 mese escono le nuove generazioni di schede, zalman scopre che il suo dissipatore che aveva fatto precedentemente è anche compatibile con le nuove schede, sarà pur contenta di ciò, no?

In parte sì e in parte no, perchè con uscite "importanti" generalmente vengono anche dissipatori importanti :D Si perderebbe un'opportunità insomma :D

gelox15
28-05-2009, 13:11
Se ti cade in testa senz'altro...

per quello sono preoccupato....:Prrr:

ippo.g
28-05-2009, 14:41
bhe certo....;) a te regalano le ati!?:Prrr:


alle volte :D sia l'una che l'altra, per la verità io rimpiango anche un terzo competitor :cry:

zorco
28-05-2009, 14:55
Non ti è chiaro? Uno SLI di 285 da 2 gb.
ah niente di nuovo insomma..

goldorak
28-05-2009, 15:04
allora che diavolo è sto mattone?:confused:


Un esercizio di stile. Tanto caro quanto brutto. :asd:

kinotto88
28-05-2009, 15:07
si sa qualcosa del prezzo...giusto per farsi 2 risate..:sbonk:

zorco
28-05-2009, 15:13
Un esercizio di stile. Tanto caro quanto brutto. :asd: vero mi ricorda tanto l' asus 7800gt dual, un bestione http://www.pctunerup.com/up/results/_200905/th_20090528161240_intro.jpg (http://www.pctunerup.com/up/image.php?src=_200905/20090528161240_intro.jpg) :doh:

goldorak
28-05-2009, 15:16
si sa qualcosa del prezzo...giusto per farsi 2 risate..:sbonk:

Moltiplica per 2 il prezzo di una singola gtx285. :sofico:

Andrea deluxe
28-05-2009, 15:52
:asd::asd:

si, e la marmotta che confeziona le schede ati... :asd:

sempre divertenti i tuoi interventi :asd:
Mai pensato di proporti x Zelig?

pronunciati tu sul costo.......

voglio farmi pure io 2 risate......

al135
28-05-2009, 16:30
Io piuttosto che sparare cazzate mi sto zitto,

di certo non intervengo in questo thread solo per flammare come fa qualcuno.

Del resto non ci vuole molto a capire che se

GTX295 = 385€
GTX285 = 285€

e GTX285 dual... che andrà, quanto...

un 5% + della 295? Proprio nel migliore dei casi vah...

Un 5% che secondo il ragionamento di goldorak (e forse anche tuo a sto punto) si tradurrebbe in 285€x2 = 570€.

Si è una cazzata, e mi fa ridere come ipotesi... e non c'è nient'altro da dire. Se poi tu giudichi questo un ragionamento sensato... non posso che consigliarti l'acquisto di questa gpu.

cioe te non hai capito che l'intervento di goldorak era una battuta? suvvia c'era anche la faccina dell'esagerazione.
go buy sense of humor :D

Andrea deluxe
28-05-2009, 16:44
Io piuttosto che sparare cazzate mi sto zitto,

di certo non intervengo in questo thread solo per flammare come fa qualcuno.

Del resto non ci vuole molto a capire che se

GTX295 = 385€
GTX285 = 285€

e GTX285 dual... che andrà, quanto...

un 5% + della 295? Proprio nel migliore dei casi vah...

Un 5% che secondo il ragionamento di goldorak (e forse anche tuo a sto punto) si tradurrebbe in 285€x2 = 570€.

Si è una cazzata, e mi fa ridere come ipotesi... e non c'è nient'altro da dire. Se poi tu giudichi questo un ragionamento sensato... non posso che consigliarti l'acquisto di questa gpu.

tu hai fatto solo 1+1=2


non conti che:

e' una edizione limitata.
ha 4gb totali di ram
ha in piu' uno split pciexpress aggiuntivo
ed ha i regolatori di tensione digitali.

se consideri ste cose, ti renderai conto che forse andra' a costare pure di piu' di 2gtx285..... non credi?

Andrea deluxe
28-05-2009, 16:50
Ti sei dimenticato di dire che due chip GTX285 ad ASUS costano di più dei due chip con cui farebbe una GTX295 ;)

right:)

Andrea deluxe
28-05-2009, 17:07
3) Mi sa che ti confondi sullo split... invece di NF200 utilizzeranno un chip di terze parti. Non si tratta di nulla in +.


edit

mi sono sbagliato....

monta un PLX

gelox15
28-05-2009, 17:09
alle volte :D sia l'una che l'altra, per la verità io rimpiango anche un terzo competitor :cry:

forse hai ragione...un terzo incomodo nn farebbe male...

Foglia Morta
28-05-2009, 18:11
Beh... è chiaro che è poco più che un esercizio di stile... la compreranno in 2 o 3 nel mondo, e se mai la venderanno...

Sulla scheda dell'immagine postata c'è scritto

Mars
limited edition
1/1000

1000 pezzi ;)

michelgaetano
28-05-2009, 18:53
Personalmente, non mi aspetto un prezzo inferiore ai 500, con la gtx 295 a 400 circa :stordita:

Comunque, visti i prezzi delle 285, non farebbe neanche così schifo il prezzo, in sè. Principalmente le prestazioni son sempre quelle di gtx 295, con questo a costare molto in meno.

Ad ogni modo come segnalato da Foglia son solo 1000 pezzi...

gelox15
29-05-2009, 08:19
Personalmente, non mi aspetto un prezzo inferiore ai 500, con la gtx 295 a 400 circa :stordita:

Comunque, visti i prezzi delle 285, non farebbe neanche così schifo il prezzo, in sè. Principalmente le prestazioni son sempre quelle di gtx 295, con questo a costare molto in meno.

Ad ogni modo come segnalato da Foglia son solo 1000 pezzi...

un edizione limitata così sicuramente sarà sui 500€....secondo me qualcosina in più...se ne distribuiranno 1000 pezzi nel mondo dovranno pur valorizzarla no!?

HaRdCoRe GaMeR
31-05-2009, 13:13
Secondo voi con la mia configurazione riuscirò a notare la potenza di una gtx380 o sono limited?

Mister Tarpone
31-05-2009, 13:20
provando crysis la noterai subito la differenza

al135
31-05-2009, 13:32
Secondo voi con la mia configurazione riuscirò a notare la potenza di una gtx380 o sono limited?

ma se ancora non cè neanche un test... impossibile dirlo.. a occhio non credo se lo overclocchi abbastanza ...

_TeRmInEt_
31-05-2009, 13:34
Quando esce? Devo fare aggiornamento :D

Mister Tarpone
31-05-2009, 13:37
ma se ancora non cè neanche un test...

ma dai ma di che test hai bisogno...cioè.. si sta parlando di schede di nuova generazione..ovvio che andranno nettamente di + rispetto a queste di adesso..

quindi mi sembra abb. logico pensare che, nonostante la cpu non al top, la differenza rispetto una 280 la noterà... specie se proverà un gioco tipo crysis in very high

okorop
31-05-2009, 17:07
ma se ancora non cè neanche un test... impossibile dirlo.. a occhio non credo se lo overclocchi abbastanza ...

ed io? ho una i7 920 a 4.2 ghz in daily per poi passare a westmere esa core?

HaRdCoRe GaMeR
31-05-2009, 18:17
ma dai ma di che test hai bisogno...cioè.. si sta parlando di schede di nuova generazione..ovvio che andranno nettamente di + rispetto a queste di adesso..

quindi mi sembra abb. logico pensare che, nonostante la cpu non al top, la differenza rispetto una 280 la noterà... specie se proverà un gioco tipo crysis in very high

Soprattutto perchè gioco a 1920x1080:asd:

TeOz92
01-06-2009, 20:00
Si sà se per caso ati e nVidia presenteranno le loro nuove schedozze al computex di taipei questa settimana???:)

okorop
01-06-2009, 20:37
Si sà se per caso ati e nVidia presenteranno le loro nuove schedozze al computex di taipei questa settimana???:)

probabilmente no....bisognerà attendere ancora un po :)

halduemilauno
02-06-2009, 08:53
Si sà se per caso ati e nVidia presenteranno le loro nuove schedozze al computex di taipei questa settimana???:)

no. ad agosto dovrebbero uscire le schede basate su GT220 e GT210 ambedue per fascia entry level. i chip noti come GT206, GT212 sono stati annullati mentre il GT214 è stato sostituito dal GT215 per la fascia media(insieme al GT225). il GT212 era destinato alla fascia alta ma con l'approsimarsi di Windows 7(e visto anche la concorrenza)è stato annullato e quindi si rimane in attesa direttamente del GT300 atteso per fine ottobre/inizio novembre.
;)

kinotto88
02-06-2009, 09:19
no. ad agosto dovrebbero uscire le schede basate su GT220 e GT210 ambedue per fascia entry level. i chip noti come GT206, GT212 sono stati annullati mentre il GT214 è stato sostituito dal GT215 per la fascia media(insieme al GT225). il GT212 era destinato alla fascia alta ma con l'approsimarsi di Windows 7(e visto anche la concorrenza)è stato annullato e quindi si rimane in attesa direttamente del GT300 atteso per fine ottobre/inizio novembre.
;)

grazie hal per la sintesi..;)

TeOz92
02-06-2009, 13:18
che @@ devo rifarmi il pc a settembre e pensavo che forse forse con un poò di c*lo mi prendevo pure la sc. video nuova generazione e invece devo tirare avanti con l'attuale HD3870 fino a novembre :(
e vabhè:muro:

P.S: tnx a tt per le risposte :D

_TeRmInEt_
02-06-2009, 13:35
quindi la scheda su singolo pcb è stata annullata?

halduemilauno
02-06-2009, 15:05
quindi la scheda su singolo pcb è stata annullata?

quale scheda?

_TeRmInEt_
02-06-2009, 19:41
Se ti riferisci alla GTX295 Refit, no, non è stata annullata, anzi dovrebbe già essere sul mercato.

Come faccio a capire quale sia perché è un macello... Tipo EVGA l'ha fatta?

EDIT:
http://resources.vr-zone.com/uploads/7128/EVGA_3.JPG

EVGA Co-Op, deve ancora uscire...

Come vi sembra? Buone le evga?

molochgrifone
03-06-2009, 05:07
Come faccio a capire quale sia perché è un macello... Tipo EVGA l'ha fatta?

EDIT:

EVGA Co-Op, deve ancora uscire...

Come vi sembra? Buone le evga?

Ridimensiona l'immagine :muro:

atomo37
03-06-2009, 07:49
Come faccio a capire quale sia perché è un macello... Tipo EVGA l'ha fatta?

EDIT:
http://resources.vr-zone.com/uploads/7128/EVGA_3.JPG

EVGA Co-Op, deve ancora uscire...

Come vi sembra? Buone le evga?

si le evga sono ottime schede, sicuramente al momento è una delle marche che sta anche innovando di più :)

mircocatta
03-06-2009, 11:24
Ecco che nVidia pare voler utilizzare la DX10.1:

http://www.fudzilla.com/content/view/14034/34/

Meno male che facevano schifo, che non servivano a niente, e che non le avrebbe mai implementate...

non fa prima a passare direttamente alle dx11?

Andrea deluxe
03-06-2009, 11:25
Ecco che nVidia pare voler utilizzare la DX10.1:

http://www.fudzilla.com/content/view/14034/34/

Meno male che facevano schifo, che non servivano a niente, e che non le avrebbe mai implementate...

ma non capisco bene la cosa.....

se gt300 e' dx11, le 10.1 dove le implementano?

su gt200 e g9x series?

Andrea deluxe
03-06-2009, 14:01
posto qua anche se non centra na minchia...

http://www.tweaktown.com/news/12376/asus_mars_gtx_295_sli_with_8gb_ram_far_cry_2160p/index.html

Trokji
03-06-2009, 14:10
Azz però vanno forte davvero!! altro che crysis :D

kinotto88
03-06-2009, 14:31
Alla ASUS stanno male. Malissimo! Vi ricordate la 3850x3? :asd:

stanno male davvero...:doh: :doh: :asd:

atomo37
03-06-2009, 15:03
Alla ASUS stanno male. Malissimo! Vi ricordate la 3850x3? :asd:

beh cmq stupenda sta mars, se non altro asus è l'unica che al momento ha fatto un minimo di innovazione vera per conto suo, ed ha tirato fuori la scheda video più potente del mercato :)

HaRdCoRe GaMeR
03-06-2009, 16:43
asus ha tirato fuori la scheda video più potente del mercato :)

e più inutile del mercato:D

gelox15
03-06-2009, 16:57
e più inutile del mercato:D

vero, ma che bomba però!!:eek:

halduemilauno
04-06-2009, 09:09
http://www.fudzilla.com/content/view/14050/1/
GT220 come gia detto niente a che vedere con le GTX presenti e future.
;)

halduemilauno
04-06-2009, 13:28
http://www.brightsideofnews.com/news/2009/6/3/ati-has-the-smallest-directx-11-chip.aspx

AMD held an interesting presentation on the second day of Computex, in hot and humid Taipei [as always]. The company showed its Evergreen GPU in action, but the most interesting part for the financial community was the exchange of hands between Dr John Wei, Senior Director of Advanced Technology inside TSMC and Rick Bergman, AMD's Senior VP.

Dr Wei gave a 40nm wafer containing Evergreen chip to Rick, giving an excellent opportunity for everyone to get a good look at tomorrows' DirectX 11 processor. From what we can analyze, Evergreen's die size is around 180 to 200mm2. This puts the GPU as the smallest of its DirectX 11 brethren, as the Intel's Larrabee high-end part die is sized around 600mm2. Intel will produce smaller chips as the Larrabee line-up expands, but according to roadmaps that we saw - AMD will launch a new architecture at 28nm before Larrabee hits 32nm with its smaller parts.

nVidia's GT300 comes at around 500mm2, meaning even if a single "GTX380" card is able to beat ATi's Goblin [Dual GPU, the "5870X2"], it will still take at least 100mm2 more silicon. This puts AMD in quite an advantageous position.

The list is as follows:

AMD Evergreen - 180mm2, 40nm TSMC
AMD Cypress - 360-400mm2 [2x180mm2], 40nm TSMC
nVIDIA GT300 - 500mm2, 40nm TSMC
Intel Larrabee - 600mm2, 45nm Intel
Given the performance and pricing of Phenom II and the upcoming Radeon 5000 series, if AMD does not pull into black [records a profit] and achieves great sales success, we don't know what needs to happen in order for AMD to actually earn some serious money.

All the parts of a cocktail called success are now in.

;)

Sir Alamon
04-06-2009, 15:48
ma le 260+ sarebbero le 260 216sp? O altre schede?

HaRdCoRe GaMeR
04-06-2009, 16:20
ma le 260+ sarebbero le 260 216sp? O altre schede?

Ma :D

atomo37
05-06-2009, 08:26
e più inutile del mercato:D


non direi, secondo me in config quad sli su un monitor 30" con i 2GB di ram per gpu ha il suo se ;)

kinotto88
05-06-2009, 08:38
non direi, secondo me in config quad sli su un monitor 30" con i 2GB di ram per gpu ha il suo se ;)

a mio parere a 2560x1600 non cambia una mazza tra 2xgtx295 (umane) e 2xgtx 295 (marziane)...:asd:...;)...

atomo37
05-06-2009, 08:43
a mio parere a 2560x1600 non cambia una mazza tra 2xgtx295 (umane) e 2xgtx 295 (marziane)...:asd:...;)...

beh io sono sempre stato attratto dalle 285 in sli contro la 295 quindi questa mars mi piace proprio, e secondo me con alcuni giochi e soprattutto quelli del futuro, 2GB di ram per gpu a 2560x1600 possono essere utili.
cmq parlo di piccoli vantaggi, sicuramente considerando che ho la 295 non la comprerei, ma se dovessi fare un sistema top senza badare a spese credo che prenderei.

kinotto88
05-06-2009, 08:49
beh io sono sempre stato attratto dalle 285 in sli contro la 295 quindi questa mars mi piace proprio, e secondo me con alcuni giochi e soprattutto quelli del futuro, 2GB di ram per gpu a 2560x1600 possono essere utili.
cmq parlo di piccoli vantaggi, sicuramente considerando che ho la 295 non la comprerei, ma se dovessi fare un sistema top senza badare a spese credo che prenderei.

beh...a me pare che quello che hai sià già un sistema top..;)

atomo37
05-06-2009, 09:06
beh...a me pare che quello che hai sià già un sistema top..;)

beh si, per giocare col mio 26" credo di non aver bisogno di altro.
che poi ad avere qualche gioco serio da giocare magari, a me piacciono i giochi di guida, e qui fino a ottobre/novembre non c'è niente in arrivo.

kinotto88
05-06-2009, 11:29
beh si, per giocare col mio 26" credo di non aver bisogno di altro.
che poi ad avere qualche gioco serio da giocare magari, a me piacciono i giochi di guida, e qui fino a ottobre/novembre non c'è niente in arrivo.

essì..
ho notato adesso che abbiamo lo stesso monitor...
giochi in dual screen...o usi il secondo monitor per monitoraggio ecc.?

gelox15
05-06-2009, 11:40
non direi, secondo me in config quad sli su un monitor 30" con i 2GB di ram per gpu ha il suo se ;)

quoto...anche io gioco su un 26'' full hd...sono con una 285...e lo sli mi attira nn poco...soprattutto alle nostre risoluzioni...;)

atomo37
05-06-2009, 11:50
essì..
ho notato adesso che abbiamo lo stesso monitor...
giochi in dual screen...o usi il secondo monitor per monitoraggio ecc.?

il secondo lo tengo come estensione del desktop per posta elettronica, msn, e qualche controllo :)

Sir Alamon
05-06-2009, 13:24
Ma :D

?

halduemilauno
06-06-2009, 14:12
http://www.hardware-infos.com/news.php?news=2996
;)

Mister Tarpone
06-06-2009, 17:21
http://www.hardware-infos.com/news.php?news=2996
;)

a me di ste caxxatine con 2 shader, dx10.1 @ 40nani frega poco...

in questi giorni mi aspettavo qualche notizia bomba sul gt300 dx11, e invece nada.

martinez1983
06-06-2009, 17:58
a me di ste caxxatine con 2 shader, dx10.1 @ 40nani frega poco...

in questi giorni mi aspettavo qualche notizia bomba sul gt300 dx11, e invece nada.


Quoto in pieno!!!

A noi ci piace il mostro!!!!

Cmq io non mi aspettavo grosse notizie!!! Ora come ora se non sbaglio dovrebbe essere vicino alla fase di Tape-out!!!

Che era fissata per il mese di giugno!!!!

Dobbiamo avere ancora un po di pazienza!!!

Simedan1985
07-06-2009, 10:04
in questi giorni mi aspettavo qualche notizia bomba sul gt300 dx11, e invece nada.

giustissima osservazione ,idem:stordita:

Simedan1985
07-06-2009, 10:07
Cmq ragazzi il gt300 mi aspetto che vadi un 15/20 % in + di una 295, poi se riusciranno a metterne due sullo stesso pcb .....allora ostriche e champagne x tutti(sperando che nn costi 800 euri)

michelgaetano
07-06-2009, 10:13
Cmq ragazzi il gt300 mi aspetto che vadi un 15/20 % in + di una 295, poi se riusciranno a metterne due sullo stesso pcb .....allora ostriche e champagne x tutti(sperando che nn costi 800 euri)

Con tutto il tempo che dobbiamo aspettarlo e il costo che avrà, se andasse solo il 20 % in più sarebbe una delusione.

HaRdCoRe GaMeR
07-06-2009, 10:23
Con tutto il tempo che dobbiamo aspettarlo e il costo che avrà, se andasse solo il 20 % in più sarebbe una delusione.

Quoto, mi aspetto Crysis Warhead DX11 a 1920x1080 AAx16Q AFx16 girare a 40fps...

;)

Dev42
07-06-2009, 11:26
Con tutto il tempo che dobbiamo aspettarlo e il costo che avrà, se andasse solo il 20 % in più sarebbe una delusione.

effettivamente

Simedan1985
07-06-2009, 13:16
Quoto, mi aspetto Crysis Warhead DX11 a 1920x1080 AAx16Q AFx16 girare a 40fps...

;)

io ho l'iiyama da 26" e sinceramente gia mi sono rassegnato al fatto che nn ci giochero al max ,
nemmeno con questo gt 300,a quel famoso gioco.....Cmq la politica nvidia ,ormani sono tre generazioni di gpu che sappiamo com'è,il nuovo chip andra poco piu del vecchio in sli,certo ovvio che ci spero....... pero nn mi illudo +

Mister Tarpone
07-06-2009, 13:21
insomma... una 8800GTX devastava letteralmente la precedente dual 7900GX2.


io le GT200 non le considero un ulteriore generazione.. sono un leggero miglioramento di g80..

la vera nuova generazione per me è il GT300 per nvidia ed RV870 per ati

Simedan1985
07-06-2009, 14:40
Mah speriamo bene ...cmq x ati nn mi sembra piu di tanto una rivoluzione ,piu che altro un ulteriore potenziamento del rv 770....x quanto riguarda nvidia spero che questo mutamento porti un bel po di potenza effettiva,spero sopratutto nelle frequenze delle ram

appleroof
07-06-2009, 19:36
a me di ste caxxatine con 2 shader, dx10.1 @ 40nani frega poco...

in questi giorni mi aspettavo qualche notizia bomba sul gt300 dx11, e invece nada.

invece è molto interessante secondo me perchè ero ormai convinto che i 40nm sarebbero stati usati direttamente su gt300, cosa che cmq mi sembrava strana :D

e cmq queste schedine possono rappresentare un'ottimo acquisto per htpc/muletto :D

michelgaetano
07-06-2009, 19:56
Mah speriamo bene ...cmq x ati nn mi sembra piu di tanto una rivoluzione ,piu che altro un ulteriore potenziamento del rv 770....x quanto riguarda nvidia spero che questo mutamento porti un bel po di potenza effettiva,spero sopratutto nelle frequenze delle ram

Beh le schede Ati dovrebbero uscire ben prima a quanto sembra (cioè sembrerebbe settembre-ottobre per Ati vs inizio 2010 per Nvidia), quindi il fatto che il balzo sia inferiore ci sta. È comunque benvenuto, se i prezzi restano umani.

invece è molto interessante secondo me perchè ero ormai convinto che i 40nm sarebbero stati usati direttamente su gt300, cosa che cmq mi sembrava strana :D

e cmq queste schedine possono rappresentare un'ottimo acquisto per htpc/muletto :D

Verissimo, per abbattere i consumi. Però dipende dal muletto, per molti basterebbe una integrata...

David 93
07-06-2009, 21:15
salve a tutti :)
scusate se mi intrometto cosi' all'improvviso :D

ma secondo voi se nvidia montasse sulle future gt300 delle memorie gddr5 ci sarebbero sostanziali miglioramenti rispetto alle attuali gddr3?? no perchè mi sono sempre chiesto il perchè per esempio le ati rv770 (es radeon 4870) hanno più del triplo degli sp delle nvidia e le memorie ddr5, ma tra loro ingame si equivalgono più o meno..

michelgaetano
07-06-2009, 21:17
salve a tutti :)
scusate se mi intrometto cosi' all'improvviso :D

ma secondo voi se nvidia montasse sulle future gt300 delle memorie gddr5 ci sarebbero sostanziali miglioramenti rispetto alle attuali gddr3?? no perchè mi sono sempre chiesto il perchè per esempio le ati rv770 (es radeon 4870) hanno più del triplo degli sp delle nvidia e le memorie ddr5, ma tra loro ingame si equivalgono più o meno..

Sono architetture diverse che lavorano diversamente, non puoi fare un vero e proprio paragone.

Le Ati montano GDDR5 che hanno una ampiezza di banda doppia, ma la banda totale si equivale perchè le Ati hanno il bus ampio la metà.

Mister Tarpone
07-06-2009, 21:21
Va beh dai, non è definibile un "leggero miglioramento di g80".

Le G200 vanno forte eh... assai + di una 88GTX\ULTRA. ;)

quello è sicuro...vanno nettamente di + ;) ma come innovazioni dell'architettura è cambiato poco ;)
mentre con il GT300 dovrebbero cambiare tante cosette....

David 93
07-06-2009, 21:24
Sono architetture diverse che lavorano diversamente, non puoi fare un vero e proprio paragone.

Le Ati montano GDDR5 che hanno una ampiezza di banda doppia, ma la banda totale si equivale perchè le Ati hanno il bus ampio la metà.

grazie per la dritta :)

scusate un attimo...OT: potreste dirmi come faccio a sapere se posso overcloccare più di un certo limite la mia GTX 260 216?.. è da un 5 giorni che la occo di 5 mhz (core e shader) e 10 mhz (gram) al giorno..e sono arrivato a 616,1328,1057...ho un po' paura a tirarla ancora su...uso rivatuner..
fine OT

Mister Tarpone
07-06-2009, 21:26
perchè invece che qui non ti fai consigliare nel thread ufficiale della 260? :) ;)

michelgaetano
07-06-2009, 21:27
Va beh dai, non è definibile un "leggero miglioramento di g80".

Le G200 vanno forte eh... assai + di una 88GTX\ULTRA. ;)

quello è sicuro...vanno nettamente di + ;) ma come innovazioni dell'architettura è cambiato poco ;)
mentre con il GT300 dovrebbero cambiare tante cosette....

Beh che van forte non ci piove. Principalmente però, credo che Tarpo per nuova generazione parli di boost prestazionale (e conseguente gap) molto elevato, come si è avuto passando dlala serie 7 a quella 8 :D

grazie per la dritta :)

scusate un attimo...OT: potreste dirmi come faccio a sapere se posso overcloccare più di un certo limite la mia GTX 260 216?.. è da un 5 giorni che la occo di 5 mhz (core e shader) e 10 mhz (gram) al giorno..e sono arrivato a 616,1328,1057...ho un po' paura a tirarla ancora su...uso rivatuner..
fine OT

Guarda le firme dei possessori della tua scheda e vedi grossomodo a che valori le tengono. Quindi settali più bassi e testa con i tuoi giochi preferiti. Se reggono sessioni più o meno lunghe, sali ancora :)

Mister Tarpone
07-06-2009, 21:39
Con G200 c'era la possibilità d'incrementare le prestazioni cambiando relativamente poco... e sopratutto non andando a spendere molto in ricerca e affini. Il p.p. era già stato affinato con G92... quindi era un salto ben calcolato per nVidia. Poi le ATI hanno contribuito al crollo dei prezzi... e da questo ne abbiamo guadagnato tutti... fanboy e non.

Mentre ora ci sono diverse incognite per G300... a cominciare dal p.p. 40nm... finendo al cambio d'architettura... necessario visto che il fondo del barile di G80 era già stato abbondantemente raschiato.

esatto..

Mister Tarpone
07-06-2009, 21:53
dai raga la 7900gx2 non va proprio una sega rispetto una 8800GTX...
considerate che si tratta di una scheda formata da 2 7900GS ..7900GS che è paragonabile ad una 8600GTS..

quindi in realtà c'è una bella differenza contro il G80 a 128sp...

e dirò di più ...con un Crysis una 7900GX2 prende le paste pure da una 9600GT

Mister Tarpone
07-06-2009, 21:56
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/24/#abschnitt_performancerating_qualitaet


oh raga non concordo.. quella scheda è un ferro..e se all'inizio era vicino alla 8800GTX era solo perchè la G80 ancora andava spremuta come si deve con driver maturi..

Simedan1985
07-06-2009, 21:59
Beh... ma guardate che il gap rispetto a G80 e G92 c'è stato...

quello che non c'è stato è stato lo stacco netto rispetto 9800GX2, ma li parliamo di dual-gpu.

E anche se ci sono casi dove GTX280 va solo il 5% in + di 9800GX2 ci sono tanti altri fattori che la fanno preferire rispetto a quella G92.

Cmq non vorrei sbagliarmi, ma anche 8800GTX rispetto a 7950GX2 non andava nettamente di +.
Cmq ora controllo xkè forse mi confondo con 8800GTS 640.

EDIT = sono andato a vedere... ed in molti casi 8800GTX le prendeva pesante da 7950GX2 XXX.

Cavolo dicevo la stessa cosa ,anche io mi sono andato a rivedere i bench e x questo volevo dire a tutti che non mi aspetto chissa quale distacco dalla gtx 295,anche se ci sarà un architettura rinnovata,inoltre nn penso che si farà immediatamente una x2 cosa gia successa con G71,g90,gt200b

petru916
07-06-2009, 22:00
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gt_sli/24/#abschnitt_performancerating_qualitaet


oh raga non concordo.. quella scheda è un ferro..e se all'inizio era vicino alla 8800GTX era solo perchè la G80 ancora andava spremuta come si deve con driver maturi..

quoto!

michelgaetano
07-06-2009, 22:04
Mi sbaglierò, ma io avevo letto che tra 7900gx2 e 7950gx2 cambiava nulla, che la prima fosse per gli OEM addirittura...

Ad ogni modo credo che della 7950 non freghi a nessuno, speriamo in bene per le nuove schede :D

Più che altro mi piacerebbe saperne di più.

Io nel mentre tiro avanti con la mia piccola 8800 gts :asd:, oggi mi son divertito un paio di orette con Assassin's Creed, buona grafica e a 1680*1050, tutto al massimo, multisampling 2/3 e AA 2x da NCP va bellamente :D

Mister Tarpone
07-06-2009, 22:08
cmq quel sito non è che mi convinca ultimamente...

però, anche andando a cercare un altra comparativa... di Toms... vedo che c'è una bella differenza tra 8800GTX e sli di 7950 (= GX2)

http://www.tomshardware.com/charts/gaming-graphics-charts-q3-2008/Sum-of-FPS-Benchmarks-1680x1050-AA,799.html

Simedan1985
07-06-2009, 22:08
Vabbe Cmq in concreto volevo dire che nn penso che questo gt300 ,con tutto che cmq io me lo auguro,vada circa il 50% in piu di una gtx 295

Mister Tarpone
07-06-2009, 22:10
torna abbastanza la comparativa di toms... infatti 2x 8600gts sli = 2x 7900 Sli..come dicevo prima..

Mister Tarpone
07-06-2009, 22:13
praticamente quello che volevo dire io è che.. con la vera nuova generazione... la nuova top dx10 andava decisamente meglio della vecchia top dx9 dual...

mentre tutta sta differenza non c'è stata tra 280 e gx2... (entrambi dei miglioramenti della gen. dx10) anche se cmq la 280 è migliore ovviamente...perchè cmq va un pò di + , perchè è single gpu ecc..

michelgaetano
07-06-2009, 22:14
Vabbe Cmq in concreto volevo dire che nn penso che questo gt300 ,con tutto che cmq io me lo auguro,vada circa il 50% in piu di una gtx 295

Il fatto è che le nostre son solo speculazioni, non abbiamo molto.

Però tra Gt 300 e gtx 295 praticamente ci passa un anno e una nuova generazione, sarebbe triste se non andasse a quei livelli.

Di fatto io mi auguro quelle prestazioni, il minimo per quanto mi riguarda è un buon 30 %.

Viste le date comunque, per ora c'è da guardare prima alle mosse di Ati e vedere cosa tira fuori, visto che come sembra porterà le nuove schede per Seven. Delineate le prestazioni della rivale, il erchio attorno alle mosse (e quindi le prestazioni) di Nvidia si stringerà per forza di cose.

Anche qui comunque (parlo delle schede Ati) a rumors stiamo messi maluccio.

Mister Tarpone
07-06-2009, 22:19
http://www.tomshardware.com/charts/gaming-graphics-charts-q3-2008/Sum-of-FPS-Benchmarks-1680x1050-AA,799.html

niente...

in realtà l'ho vista meglio e fa ridere sta comparativa.

com'è possibile che 2 9800GTX vadano = a 2 gtx260 :asd:

michelgaetano
07-06-2009, 22:22
niente...

in realtà l'ho vista meglio e fa ridere sta comparativa.

com'è possibile che 2 9800GTX vadano = a 2 gtx260 :asd:

LOL bene :stordita: Okay che son meglio di una 9800gx2, ma 2*260 è quasi una 295 :stordita:

Simedan1985
07-06-2009, 22:25
Riguardo ad ati sinceramente nn mi aspetto molto se non una bella pompata di stream processor .Ma piu o meno quando usciranno le schede gt 300???

Mister Tarpone
07-06-2009, 22:26
Ah ma guardavi le "charts" di Tom's... quelle sono palesamente sballate... è risaputo,

già dai tempi di GeForce 6600. ;)

niente ho preso 2 siti che non mi convincono per niente..



però johnp.... io cmq resto della mia idea sulla GX2..

magari con i giochi vecchi ci sta che sia vicina...

ma te falla andare con Crysis, stalker , grid e tanti altri giochi moderni... e vedrai che pastellone prende a prestazioni a confronto con la 8800GTX...

Simedan1985
07-06-2009, 22:30
Ma infatti anche a me sembrava sballata ,perche la x1950 xt batteva la 8800 gts 640 ,quindi di vero nn è che ci sia molto

michelgaetano
07-06-2009, 22:32
Riguardo ad ati sinceramente nn mi aspetto molto se non una bella pompata di stream processor .Ma piu o meno quando usciranno le schede gt 300???

L'ho già scritto. Sembra inizio 2010.

Io non disdegno la semplice "pompata" di stream processor e frequenze. Unita ai 40 nm dovrebbe portare a consumi e OC migliori, il tutto facendo abbassare i prezzi delle schede già in commercio, che già van forte.

Insomma, ben venga ogni boost prestazionale. Il discorso è che da Nvidia ci aspettiamo molto, per quello a cui ci ha abituati e per il fatto che uscirà dopo.

Simedan1985
08-06-2009, 00:00
caspita inizio 2010 ....ma nn si parlava di novembre???bhè allora un bel 40% di prestazioni in più rispetto alla 295 ci sta eccome ....:D ,per quanto riguarda ati se da 800 sp ne passano a 1200 ,è una bella pompata ,calcolando che con l'ausiliio di memorie più veloci, si quasi doppia la potenza di elaborazione.

Mister Tarpone
08-06-2009, 00:03
io penso che la 5870 avrà almeno 1600sp

Simedan1985
08-06-2009, 00:11
Un raddoppio mi sembra un po improbabile.....molto piu ragionato un incremento del 50% degli sp

halduemilauno
08-06-2009, 07:32
a me di ste caxxatine con 2 shader, dx10.1 @ 40nani frega poco...

in questi giorni mi aspettavo qualche notizia bomba sul gt300 dx11, e invece nada.

ok ma dato che ci sono 4 fasce è quindi previsto che ce ne siano anche di basse. infatti queste devono rispondere a requisiti da 29 e da 49$(sostitute delle varie 9300gt, 9400gt, 9500gt) mentre la GT215(96 shader)da 89$ sostituta della 9600gt. e diciamo pure che queste servono per rodare il nuovo pp a 40nm proprio in attesa della GT300.
;)

halduemilauno
08-06-2009, 09:21
ultime news...
http://www.fudzilla.com/content/view/14104/1/
;)

Foglia Morta
08-06-2009, 09:45
Prendiamola con le molle vista la fonte, ma dire 1H indica implicitamente che non si parla di 1Q, forse è per questo che si parla di DX10.1 nelle prima 40nm, per tamponare almeno con quelle.

Ha riportato quanto già scritto qualche giorno fa da CJ , paper launch nel Q4 ' 09 e disponibilità inizio 2010

Simedan1985
08-06-2009, 10:18
Cavolo speravo un po prima,forse con questa mossa potremmmo comprare rv 870 x2 ,a 350 euro quando usciranno le verdone ....un po come successe con la gtx 295 e la 4870x2

Simedan1985
08-06-2009, 10:48
Dipende tutto da quanto vanno le une e le altre.

quoto ma difficilmente penso che nvidia fa uscire tre quattro mesi dopo una top ,che vada meno della rossa

Mister Tarpone
08-06-2009, 13:09
GT300 is a big new architectural change



Not just GT200 40nm with DX11




Nvidia is trying to change the world once again. The company tends to make some big architectural changes and it did it with G80 / G92 and last time with its GT200 generation.
The next in the line of big conceptual changes and rethinking the graphics world as we know it is GT300. We don’t even know if the codename is right, it is at least to some people, but the chip is real and it should be coming either in late 2009 or early 2010. No-one, even at Nvidia, knows exactly when this should happen, but they all have high hopes it will be this rather than next year.

Since Nvidia is talking and thinking more about the computing market than about graphics dominance, it is easy to believe that the new chip will be fitted for massive parallel computation and it should be much faster in this GPU Cuda, DirectX compute, OpenCL world. It is only natural that performance per watt will increase and that with 40nm you can expect many transistors. DirectX 11 support is naturally there but DX11 will only matter when the big games supporting it comes, and its unlikely that we will get any important titles before deep in the 2010.

Without a doubt one thing is certain. Once it comes, GT300 will be very interesting chip.

Andrea deluxe
08-06-2009, 13:43
intanto sulle orme di nvidia, c'e' chi osserva e migliora le cose...

http://www.anandtech.com/video/showdoc.aspx?i=3576&p=1

gelox15
08-06-2009, 14:01
intanto sulle orme di nvidia, c'e' chi osserva e migliora le cose...

http://www.anandtech.com/video/showdoc.aspx?i=3576&p=1

nvidia 3d :cool:

michelgaetano
08-06-2009, 14:14
GT300 is a big new architectural change



Not just GT200 40nm with DX11




Nvidia is trying to change the world once again. The company tends to make some big architectural changes and it did it with G80 / G92 and last time with its GT200 generation.
The next in the line of big conceptual changes and rethinking the graphics world as we know it is GT300. We don’t even know if the codename is right, it is at least to some people, but the chip is real and it should be coming either in late 2009 or early 2010. No-one, even at Nvidia, knows exactly when this should happen, but they all have high hopes it will be this rather than next year.

Since Nvidia is talking and thinking more about the computing market than about graphics dominance, it is easy to believe that the new chip will be fitted for massive parallel computation and it should be much faster in this GPU Cuda, DirectX compute, OpenCL world. It is only natural that performance per watt will increase and that with 40nm you can expect many transistors. DirectX 11 support is naturally there but DX11 will only matter when the big games supporting it comes, and its unlikely that we will get any important titles before deep in the 2010.

Without a doubt one thing is certain. Once it comes, GT300 will be very interesting chip.

Praticamente non dice nulla :(

Simedan1985
09-06-2009, 00:02
intanto sulle orme di nvidia, c'e' chi osserva e migliora le cose...

http://www.anandtech.com/video/showdoc.aspx?i=3576&p=1

Ragazzi nn so voi ma io nn è che ho tutta questa voglia di 3d.....preferisco un bel fotorealismo LOL:sofico:

michelgaetano
09-06-2009, 00:29
Ragazzi nn so voi ma io nn è che ho tutta questa voglia di 3d.....preferisco un bel fotorealismo LOL:sofico:

:stordita:

:doh:

Simedan1985
09-06-2009, 00:34
:stordita:

:doh:

:asd:

halduemilauno
09-06-2009, 08:30
http://www.brightsideofnews.com/news/2009/6/8/nvidia-gt300-targets-225w-tdp.aspx

Unlike AMD/ATI, nVidia spent Computex Taipei 2009 in silence, not mentioning anything about the future of their hardware. That was to be expected, given the fact that nVidia was also silent during Computex Taipei 2008, and then briefing select journalists about Tesla D1060 and S1070 week after the show in Santa Clara, CA. Of course, this was followed by launching GeForce GTX280 and GTX260 the week after.

Thus, nVidia is keeping silent about their DirectX 11 plans, but don't think that the timing of their "nVision Lite" [End of September 2009] is timed just because they want to talk about 15 month GT200 architecture. Our sources are confident that the part is on track, and that it will launch during Q3 2009. Again, according to the same sources, one of primary concerns was how to avoid all the thermal spots that plagued the GT200 architecture.

The GT300 part targets a thermal range of 225W and should feature two 6-pin PEG [PCI Express Graphics] power connectors, same as on the current GTX285 graphics card. The target was not previously rumored 300W, e.g. one 8-pin and one 6-pin PCIe. Then again, nVidia should hold off from opening the champagne, since ATI's Evergreen uses just one 6-pin PEG. Dual Evergreen will probably use the conventional high-end arrangement off one 8-pin and one 6-pin PEG connector.

There you go. You have a 40nm chip targeting clocks of 700 MHz for the core, 1600 MHz for those 512 MIMD shader cores and nice 1.1 GHz QDR, e.g. 4.4 GT/s for the GDDR5 memory... sucking same amount of power as the actual GTX285. Expect Jen-Hsun and Ujesh to be all over the power features inside the chip, since the chip architects sweted blood over this one.

http://www.hardware-infos.com/news.php?news=2997&sprache=1
http://www.hardware-infos.com/news.php?news=2998
;)

halduemilauno
09-06-2009, 09:08
per chi ha problemi di lingua...
http://www.tomshw.it/news.php?newsid=18397
;)

Mister Tarpone
09-06-2009, 12:26
:sperem: :sborone:

martinez1983
09-06-2009, 13:20
Allora Ricapitolando:

Architettura a 40nm
2,4 miliardi di circuiti integrati impachettati in 495mm2
Stream Processor 512 unità di tipo MIMD
Core Clock 700 Mhz
Shader Clock 1600 Mhz
Ram Clock Gddr5 1100 Mhz(4400) integrando 1024 mb o 2048 mb per ogni scheda
Bus 512 bit e di conseguenza banda passante 281.6 GB/s
potenza di 2,46 TFLOPS
Supporto CUDA 3.0, DirectX 11, OpenGL 3.1 e OpenCL
Compatibile Pci-ex 2.0
TDP 225 W e 2 connettori di alimentazione a 6 pin


Manca qualcosa?????

Mister Tarpone
09-06-2009, 13:38
manca la scheda :asd:

martinez1983
09-06-2009, 13:51
manca la scheda :asd:

:rotfl:

Questa battuta proprio non me l' aspettavo!!!!:D

Geniale!!!!:D

Rufus86
09-06-2009, 14:30
http://www.brightsideofnews.com/news/2009/6/8/nvidia-gt300-targets-225w-tdp.aspx

Unlike AMD/ATI, nVidia spent Computex Taipei 2009 in silence, not mentioning anything about the future of their hardware. That was to be expected, given the fact that nVidia was also silent during Computex Taipei 2008, and then briefing select journalists about Tesla D1060 and S1070 week after the show in Santa Clara, CA. Of course, this was followed by launching GeForce GTX280 and GTX260 the week after.

Thus, nVidia is keeping silent about their DirectX 11 plans, but don't think that the timing of their "nVision Lite" [End of September 2009] is timed just because they want to talk about 15 month GT200 architecture. Our sources are confident that the part is on track, and that it will launch during Q3 2009. Again, according to the same sources, one of primary concerns was how to avoid all the thermal spots that plagued the GT200 architecture.

The GT300 part targets a thermal range of 225W and should feature two 6-pin PEG [PCI Express Graphics] power connectors, same as on the current GTX285 graphics card. The target was not previously rumored 300W, e.g. one 8-pin and one 6-pin PCIe. Then again, nVidia should hold off from opening the champagne, since ATI's Evergreen uses just one 6-pin PEG. Dual Evergreen will probably use the conventional high-end arrangement off one 8-pin and one 6-pin PEG connector.

There you go. You have a 40nm chip targeting clocks of 700 MHz for the core, 1600 MHz for those 512 MIMD shader cores and nice 1.1 GHz QDR, e.g. 4.4 GT/s for the GDDR5 memory... sucking same amount of power as the actual GTX285. Expect Jen-Hsun and Ujesh to be all over the power features inside the chip, since the chip architects sweted blood over this one.

http://www.hardware-infos.com/news.php?news=2997&sprache=1
http://www.hardware-infos.com/news.php?news=2998
;)

Dire che si prospetta un mostro di potenza è riduttivo, ripeto che a parer mio nVIDIA è avvantaggiata rispetto ad AMD per la prossima generazione.

Simedan1985
09-06-2009, 14:34
Dire che si prospetta un mostro di potenza è riduttivo, ripeto che a parer mio nVIDIA è avvantaggiata rispetto ad AMD per la prossima generazione.

ricordati che amd ha gia una scheda a 40 nm sul mercato. inoltre......http://www.tomshw.it/news.php?newsid=18338

The_SaN
09-06-2009, 15:15
Dire che si prospetta un mostro di potenza è riduttivo, ripeto che a parer mio nVIDIA è avvantaggiata rispetto ad AMD per la prossima generazione.Si pensava lo stesso pure dell' attuale, e si sa come é finita ;)

Tutto dipenderá da quando usciranno le 2 soluzioni, dalle prestazioni e dal prezzo che avranno.

michelgaetano
09-06-2009, 15:25
Dire che si prospetta un mostro di potenza è riduttivo, ripeto che a parer mio nVIDIA è avvantaggiata rispetto ad AMD per la prossima generazione.

Non hai (abbiamo) nulla per dirlo in questo momento, e sarebbe anche normale se come sembra uscirà 4-5 mesi dopo.

Mister Tarpone
09-06-2009, 15:31
Si pensava lo stesso pure dell' attuale, e si sa come é finita ;)


perchè com'è finita? l'attuale è ottimo come prestazioni ;)

cioè il chip g200 della 280 va meglio di una dual g92. non è male come risultato :asd:

The_SaN
09-06-2009, 16:09
perchè com'è finita? l'attuale è ottimo come prestazioni ;)

cioè il chip g200 della 280 va meglio di una dual g92. non è male come risultato :asd:Ehm...non c'entra molto quello che hai detto :stordita:
Ho risposto a questo:
Dire che si prospetta un mostro di potenza è riduttivo, ripeto che a parer mio nVIDIA è avvantaggiata rispetto ad AMD per la prossima generazione.Dicendo di non commettere lo stesso errore dell' attuale generazione.
Tutti pensavano ad un forte dominio nVidia (e infatti ha proposto prezzi esagerati) e ATi ha sorpreso tutti con ottime schede, bene o male equivalenti e con prezzi sensibilmente minori.

Non dico che sicuramente succederá di nuovo, ma certe affermazioni sono un po' rischiose...

zorco
09-06-2009, 16:15
è old ma lo posto ugualmente:fagiano:

http://www.hwupgrade.it/news/skvideo/nvidia-gt300-un-tdp-di-225-watt_29247.html

Mister Tarpone
09-06-2009, 16:19
beh se non ho capito male lui ha ipotizzato di un vantaggio come prestazioni rispetto ad ati...

c'è stato pure in questa generazione attuale. infatti se non sbaglio il GT200 della 280 come prestazioni rullava + dell' RV770 della 4870

poi certo.. a questo giro cmq il divario prestazionale non è stato proprio imbarazzante come tra RV670 vs G92..o G80 vs R600.

michelgaetano
09-06-2009, 16:42
beh se non ho capito male lui ha ipotizzato di un vantaggio come prestazioni rispetto ad ati...

c'è stato pure in questa generazione attuale. infatti se non sbaglio il GT200 della 280 come prestazioni rullava + dell' RV770 della 4870

poi certo.. a questo giro cmq il divario prestazionale non è stato proprio imbarazzante come tra RV670 vs G92..o G80 vs R600.

Lui ha ipotizzato un grossissimo vantaggio. Al momento non sappiamo molto di entrambe, non vedo come possiamo dirlo. Che debba andare più forte di RV870 è il minimo uscendo 4+ mesi dopo, o lo si dovrebbe chiamare fallimento (vedi 2900 etc).

GT200 andava più forte solo con la 280, la 260 è dovuta salire a 216. Nella sostanza io non parlerei di divario in questa generazione, le prestazioni son quelle. Poi se si vuol pensare che andare di più singifica fare 3 frames in più...

Io comunque non trovo imbarazzante il divario tra RV670 e G92, certo le prime andavano meno ma non facevano totalmente schifo (ad esempio dovette uscire la 9800gx2 per tirare giù la 3870x2). Imbarazzante era la serie 2x00 contro g80 :stordita:

Mister Tarpone
09-06-2009, 17:03
Lui ha ipotizzato un grossissimo vantaggio. Al momento non sappiamo molto di entrambe, non vedo come possiamo dirlo.

eh vabbè che è uno non si può più sblanciare??
poi sinceramente pure io credo che le nvidia saranno più veloci...come al solito..


GT200 andava più forte solo con la 280, la 260 è dovuta salire a 216. Nella sostanza io non parlerei di divario in questa generazione, le prestazioni son quelle.
il divario se pur minore cmq c'è stato anche in questa generazione perchè il chip g200 espresso al max (240sp) era + prestante di Rv770 full (gddr5). e la differenzxa tra una 280 ed una 4870 non si limita solo a 3fps come pensi te ;)


Io comunque non trovo imbarazzante il divario tra RV670 e G92, certo le prime andavano meno ma non facevano totalmente schifo (ad esempio dovette uscire la 9800gx2 per tirare giù la 3870x2). Imbarazzante era la serie 2x00 contro g80 :stordita:

beh la differenza di prestazioni è stata imbarazzante anche per la serie 3000 contro G92. se pensi alla differenza spaventosa che c'era tra una RV670 tipo 3870 contro un G92 128sp (che compete pure contro un RV770 con DDR3) ;)

Dev42
09-06-2009, 17:10
Lui ha ipotizzato un grossissimo vantaggio. Al momento non sappiamo molto di entrambe, non vedo come possiamo dirlo. Che debba andare più forte di RV870 è il minimo uscendo 4+ mesi dopo, o lo si dovrebbe chiamare fallimento (vedi 2900 etc).

GT200 andava più forte solo con la 280, la 260 è dovuta salire a 216. Nella sostanza io non parlerei di divario in questa generazione, le prestazioni son quelle. Poi se si vuol pensare che andare di più singifica fare 3 frames in più...

Io comunque non trovo imbarazzante il divario tra RV670 e G92, certo le prime andavano meno ma non facevano totalmente schifo (ad esempio dovette uscire la 9800gx2 per tirare giù la 3870x2). Imbarazzante era la serie 2x00 contro g80 :stordita:

La serie 2000 in particolare la 2900 è stato un fiasco....
Consumi spaventosi tra le altre cose :doh:

michelgaetano
09-06-2009, 17:11
eh vabbè che è uno non si può più sblanciare??
poi sinceramente pure io credo che le nvidia saranno più veloci...come al solito..


Chi si sbilancia senza dati reali fa solo la figura del fanboy. E ripeto, a dire "la scheda Nvidia andrà più forte" lo san fare pure i polli, visto che esce fin troppo dopo.


il divario se pur minore cmq c'è stato anche in questa generazione perchè il chip g200 espresso al max (240sp) era + prestante di Rv770 full (gddr5). e la differenzxa tra una 280 ed una 4870 non si limita solo a 3fps come pensi te ;)


Quando ho detto 3 fps mi riferivo a 4870 e 260, non certo a 280 e 4870. Sono ben conscio delle prestazioni delle varie schede.


beh la differenza di prestazioni è stata imbarazzante anche per la serie 3000 contro G92. se pensi alla differenza spaventosa che c'era tra una RV670 tipo 3870 contro un G92 128sp (che compete pure contro un RV770 con DDR3) ;)

Mi pare ne discutemmo già. Io non trovo nulla di imbarazzante nella serie 3. Non era veloce come g92, ma neanche un aborto. Ma sembra che tu voglia distruggerla per qualche strano motivo.

appleroof
09-06-2009, 17:18
è old ma lo posto ugualmente:fagiano:

http://www.hwupgrade.it/news/skvideo/nvidia-gt300-un-tdp-di-225-watt_29247.html

bè se penso che gtx280 aveva un tdp simile, se gt300 andasse un 40-50% in più con i giochi attuali, e che equipagerebbe una scheda entusiasth, direi che sarebbe cmq un ottimo risultato :)

Portocala
09-06-2009, 17:43
Io pensavo di cambiare scheda video sti giorni.

Questa nuova GT300 in che range di prezzo dovrebbe andare? 250? 350? 450? 600 euro?

Che cos'e'? Una media una enthusiast? Se e' l'ultima, della media si sa qualcosa? Piu' o meno quando?

Conviene cambiare scheda video adesso con una 275/4890?

appleroof
09-06-2009, 17:55
Io pensavo di cambiare scheda video sti giorni.

Questa nuova GT300 in che range di prezzo dovrebbe andare? 250? 350? 450? 600 euro?

Che cos'e'? Una media una enthusiast? Se e' l'ultima, della media si sa qualcosa? Piu' o meno quando?

Conviene cambiare scheda video adesso con una 275/4890?

gt300 è il nome del chip, e dovrebbe equipaggiare la prossima top e forse una medio-alta al debutto (stile gtx280/260); i prezzi è troppo presto per dirlo, dipende da tanti fattori, molto probabilmente saranno adeguati ad una scheda top...

se non hai particolari esigenze videoludiche, ti direi di non comprare nulla che non fosse dx11 ;) (al limite cmq puntare su 4870/gtx260)

Mister Tarpone
09-06-2009, 17:59
Chi si sbilancia senza dati reali fa solo la figura del fanboy.

addirittura? secondo me no. nei thread tipo questi è normale sbilanciarsi qualche volta dai. ;)

E ripeto, a dire "la scheda Nvidia andrà più forte" lo san fare pure i polli, visto che esce fin troppo dopo.

boh...praticamente hai dato del fanboy e del pollo a rufus86 (e pure a me a sto punto) solo perchè pensa che la prossima GT300 sarà parecchio veloce... ma non ti sembra di esagerare ?? :asd: :confused:




Mi pare ne discutemmo già. Io non trovo nulla di imbarazzante nella serie 3. Non era veloce come g92, ma neanche un aborto. Ma sembra che tu voglia distruggerla per qualche strano motivo.



ma scusa si parlava --di prestazioni-- dei chip giusto?.....beh RV670 era veramente una pippa a confronto al G92.... quindi, distruggere per qualche strano motvo cosa?? :mbe: questa è la verità punto e basta.... ;)

Mister Tarpone
09-06-2009, 18:06
no ma cmq ora che ci ripenso...

cioè mi devo prendere pure st'ultima insinuazione del caxxo solo perchè ho detto una cosa che è vera? ma stiamo scherzando? :mad: :muro:

FreeMan
09-06-2009, 18:14
Chi si sbilancia senza dati reali fa solo la figura del fanboy. E ripeto, a dire "la scheda Nvidia andrà più forte" lo san fare pure i polli, visto che esce fin troppo dopo.


facciamo che da ora peserai meglio le parole che userai

p.s. hai la sign irregolare

Signature: 3 righe a 1024 solo testo con massimo 3 smiles dell'Hardware Upgrade Forum oppure un'immagine 100 X 50 X 5KB e una riga di testo (non deve andare a capo).


sei pregato di editarla

>bYeZ<

michelgaetano
09-06-2009, 19:22
Insinuazioni, offese... vedete quel che volete insomma :D

Se poi pensate che vi abbia dato del "pollo" fate pure, io ho solo espresso come ci voglia poco a dire "il chip dell'azienda leader in performance che uscirà addirittura 4-5 mesi dopo la rivale andrà più forte".

@ Freeman: non ho capito dove è irregolare la sig, a 1024 è una sola riga e l'immagine è 100x50 px. Per il linguaggio, non mi sembra di aver insultato nessuno, ma mi adeguerò agli standard necessari.

appleroof
09-06-2009, 19:25
Insinuazioni, offese... vedete quel che volete insomma :D

Se poi pensate che vi abbia dato del "pollo" fate pure, io ho solo espresso come ci voglia poco a dire "il chip dell'azienda leader in performance che uscirà addirittura 4-5 mesi dopo la rivale andrà più forte".

cut

in questo campo non ci sono certezze: la 2900xt uscì 4-5 mesi dopo la 8800gtx e Ati era leader in prestazioni fino a quel momento (risalendo nel tempo potrei citare la serie 5xx0 Nvidia vs la serie 9x00 di Ati), sappiamo tutti com'è andata

:D

appleroof
09-06-2009, 19:27
è di 12kb, mente il max è 5kb.

Cmq tornando al discorso sulle gpu... guarda che non è tanto scontato che le gpu uscite 5-6 mesi dopo vadano meglio della controparte top o meglio della precedente top della propria casa.

Vedi 2900XT vs 8800GTS\GTX e 3870 vs 2900XT etc.

senza scendere troppo indietro nel tempo, altrimenti si potrebbero citare le GF2MX220, le GeForce 4MX e le FX5 pure.

azz :D

;)

michelgaetano
09-06-2009, 19:27
in questo campo non ci sono certezze: la 2900xt uscì 4-5 mesi dopo la 8800gtx e Ati era leader in prestazioni fino a quel momento (risalendo nel tempo potrei citare la serie 5xx0 Nvidia vs la serie 9x00 di Ati), sappiamo tutti com'è andata

:D

Eh apple, quanto è successo è risaputo :D

Ma credo stupirebbe chiunque se Nvidia mettesse in commercio un chip che va meno di RV870 con tutto il tempo che hanno avuto a disposizione :stordita:



Cmq tornando al discorso sulle gpu... guarda che non è tanto scontato che le gpu uscite 5-6 mesi dopo vadano meglio della controparte top o meglio della precedente top della propria casa.

Vedi 2900XT vs 8800GTS\GTX e 3870 vs 2900XT etc.

senza scendere troppo indietro nel tempo, altrimenti si potrebbero citare le GF2MX220, le GeForce 4MX e le FX5 pure.

Vedi sopra :D

è di 12kb, mente il max è 5kb.


Vero, avevo totalmente dimenticato il peso. Quei 7k e la loro pesantezza avrebbero portato il forum alla rovina :asd: (in b4 "se tutti avessero sig da 12kb!" etc :asd:)

appleroof
09-06-2009, 19:28
Eh apple, quanto è successo è risaputo :D

Ma credo stupirebbe chiunque se Nvidia mettesse in commercio un chip che va meno di RV870 con tutto il tempo che hanno avuto a disposizione :stordita:

di nuovo: allo stesso modo di come stupì in senso negativo R600 :boh:

il punto è che non è vero che sia così scontato ;)

michelgaetano
09-06-2009, 19:35
Beh che la sfera di cristallo non esista penso si sappia... vi chiedo allora: qualcuno di voi si aspetta un G300 che vada meno di RV870? Con lo stesso RV870 che non dovrebbe essere un pesante stravolgimento di architettura come (dovrebbe) avvenire per Nvidia - quindi boost che non dovrebbero sorprendere fino ad un certo punto?

Dicendo la mia (ad ognuno il suo allora), lo reputo improbabile, anche in virtù del distacco temporale, che dovrebbe permettere un bell'affinamento della scheda.

Boh, Nvidia con un chippone penoso... non riesco ad immaginrlo :D

zorco
09-06-2009, 19:36
bè se penso che gtx280 aveva un tdp simile, se gt300 andasse un 40-50% in più con i giochi attuali, e che equipagerebbe una scheda entusiasth, direi che sarebbe cmq un ottimo risultato :)
si infatti un'ottimo risultato:)

Defragg
09-06-2009, 19:37
appunto... potrebbe tranquillamente presentarsi con un chip penoso prestazionalmente e con 350W di TDP.

Alla fine, come dissi un pò di giorni fa... x nVidia è un salto nel buio questo... dopo molto salti mirati e calcolati ad hoc (G92 etc.)

Che salti mirati e ad hoc ha fatto con G92 scusa? :stordita:
Se è un salto mirato cambiargli n volte il nome allora sono proprio dei canguri :D

michelgaetano
09-06-2009, 19:38
Che salti mirati e ad hoc ha fatto con G92 scusa? :stordita:
Se è un salto mirato cambiargli n volte il nome allora sono proprio dei canguri :D

John (credo) intendeva che han semplicemente affinato una architettura, qualcosa di collaudatissimo, a differenza di qualcosa di nuovocome G300 :stordita:

Mister Tarpone
09-06-2009, 19:47
Insinuazioni, offese... vedete quel che volete insomma :D

eh beh...se te ne esci con roba tipo "è da polli ipotizzare che il prossimo chip andrà di + ed è pure da fanboy :mbe:

o con frasine assurde tipo questa "Ma sembra che tu voglia distruggerla per qualche strano motivo" (e certo, ...ho solo detto una cosa vera...quindi voglio distruggerla, giusto :sbonk:) cosa vuoi che pensi? bene no di certo :asd:

Mister Tarpone
09-06-2009, 19:49
Che salti mirati e ad hoc ha fatto con G92 scusa? :stordita:
Se è un salto mirato cambiargli n volte il nome allora sono proprio dei canguri :D

perchè secondo te non è vero che in alcune cose è migliorato rispetto ad un G80? :mbe:

Alzatan
09-06-2009, 19:54
secondo me tra g80 e g92 non c'è stato tutto questo miracolo...

un semplice shrink e un ridimensionamento del bus (la 8800gtx ha 384bit ricorda)... la cosa che più pesa sulle prestazioni del g92 è l'alta frequenza degli shaders (che nel g80 è limitata), ma come tecnologia sono pressapoco identiche... IMHO ;)

Defragg
09-06-2009, 19:58
perchè secondo te non è vero che in alcune cose è migliorato rispetto ad un G80? :mbe:

E' migliorata la capacità di texturing, il pp e le frequenze, che compensano il bus inferiore e le ROPs mancanti. E inoltre è arrivato anche la seconda versione del PureVideo HD credo.
Certo che qualcosa è migliorato, ma più che un salto mirato mi pare un passo sicuro. :)

atomo37
09-06-2009, 20:04
Beh che la sfera di cristallo non esista penso si sappia... vi chiedo allora: qualcuno di voi si aspetta un G300 che vada meno di RV870? Con lo stesso RV870 che non dovrebbe essere un pesante stravolgimento di architettura come (dovrebbe) avvenire per Nvidia - quindi boost che non dovrebbero sorprendere fino ad un certo punto?

Dicendo la mia (ad ognuno il suo allora), lo reputo improbabile, anche in virtù del distacco temporale, che dovrebbe permettere un bell'affinamento della scheda.

Boh, Nvidia con un chippone penoso... non riesco ad immaginrlo :D

per quanto mi riguarda spero che siano due ottimi chip, più o meno negli ultimi 16 anni ho avuto tante ati e tante nvidia, e anche questa volta valuterò la soluzione migliore e comprerò quella quando si presenterà la scelta, non vedo motivo di "tifare" una o l'altra marca, non credo che a nessuno di noi nvidia o ati in questi anni ci abbiano regalato nulla o sbaglio?

Mister Tarpone
09-06-2009, 20:15
me lo auguro anch'io visto che, più competizione c'è ..e più i prezzi si abbassano

dewwwxx84
09-06-2009, 20:17
x come la vedo io, da come mi ha abbituato NVIDIA mi sembra difficile possa uscire un GT300 inferiore di prestazioni a rv870...:rolleyes:

poi x come la vedo io NVIDIA x via di driver non e' seconda a nessuno ( vista la mia esperienza com 4870x2 ) grande scheda ma il resto........ .

e comunque se hanno fatto certe scelte avranno fatto i loro conti, ( non hanno cominciato ieri a fare vga... ). (come ATI, del resto ) :)

Mister Tarpone
09-06-2009, 20:28
x come la vedo io, da come mi ha abbituato NVIDIA mi sembra difficile possa uscire un GT300 inferiore di prestazioni a rv870...:rolleyes:

infatti.. se guardiamo le ultime tre serie di queste schede...è sempre stata nvidia ad uscirsene con la scheda single gpu più potente... quindi sinceramente pure a me riesce difficile credere che sarà inferiore...... quindi penso che probabilmente sarà un po più veloce...

poi oh.. può succedere di tutto, ovviamente....e se invece si rivelerà un cesso di chip, allora prenderò ati tranquillamente.

FreeMan
09-06-2009, 20:29
Insinuazioni, offese... vedete quel che volete insomma :D

Se poi pensate che vi abbia dato del "pollo" fate pure, io ho solo espresso come ci voglia poco a dire "il chip dell'azienda leader in performance che uscirà addirittura 4-5 mesi dopo la rivale andrà più forte".

@ Freeman: non ho capito dove è irregolare la sig, a 1024 è una sola riga e l'immagine è 100x50 px. Per il linguaggio, non mi sembra di aver insultato nessuno, ma mi adeguerò agli standard necessari.


Vero, avevo totalmente dimenticato il peso. Quei 7k e la loro pesantezza avrebbero portato il forum alla rovina :asd: (in b4 "se tutti avessero sig da 12kb!" etc :asd:)

ti richiamo per il linguaggio ecc e tu così rispondi?

poi la sign che compare ora "Fags" non è quello che ci si aspetterebbe in risposta, come risposta educata ad una TUA mancanza rispetto al regolamento.

sospeso sine die finchè non avrai messo una sign decente (comunicandomelo in pvt) e da allora 10gg di sospensione.

>bYeZ<

dewwwxx84
09-06-2009, 20:43
infatti.. se guardiamo le ultime tre serie di queste schede...è sempre stata nvidia ad uscirsene con la scheda single gpu più potente... quindi sinceramente pure a me riesce difficile credere che sarà inferiore...... quindi penso che probabilmente sarà un po più veloce...

poi oh.. può succedere di tutto, ovviamente....e se invece si rivelerà un cesso di chip, allora prenderò ati tranquillamente.

io invece di ati.........
non so' se ci torno, apparte i driver, ma uso un tv lcd 40" fulhd e le uniche schede che lo gestiscono al 100% ovvero ( 1920x1080 60hz ) sono NVIDIA quindi diciamo che e' una scelta obbligata.
ammenoche' ATI
non miglioiri la situazione.

Dev42
09-06-2009, 21:06
Ba io con Ati e Full HD mi sono trovato benissimo , la gestione del tv è eccellente a 60hz...

dewwwxx84
09-06-2009, 21:21
Ba io con Ati e Full HD mi sono trovato benissimo , la gestione del tv è eccellente a 60hz...

dipende sempre che tv hai.
il mio va da 23hz a 60hz...

(nel mio caso) solo NVIDIA da il 100%.

Defragg
09-06-2009, 23:39
Si, adesso è facile ricordare G92 per i re-branding...

e se invece ricordassimo un attimo cosa ha rappresentato 8800GT all'uscita sul mercato in ottobre 2007.

Li si aveva una 8800GT AMP! (quindi zotac) che con 250€ di costo andava uguale o poco di + di una 8800GTX @ 1600x1200.
Sai le altre gpu quanto costavano??

GTS320 = 270€ MSRP
GTS640 = 380€ MSRP
GTX = 500€ MSRP

(sui prezzi vado a memoria, potrei sgarrare di una ventina di €... ma il succo si capisce)

dai, è inutile cercare la via del negazionismo... quanto accaduto negli anni precedenti lo ricordo a memoria... possiamo partire dal 1995 se vuoi fare qualche altro excursus.

Ma che negazionismo? Cosa siamo in giudizio?
Lo so benissimo quanto costavano le altre GPU, ma tu hai parlato di G92, e non in specifico di 8800 GT. Quindi se permetti ho fatto un discorso generale, e G92, oggi, i è l'emblema di "minestra riscaldata".
Se torniamo agli inizi allora si può dire che rappresenta una soluzione di continuità col passato, portando avanti il successo dell'architettura G80, essendo un ottimizzazione di ciò che già si aveva. Un must buy. ;)
Ecco se vuoi, possiamo fare un simposio sul concetto di salto mirato...

ma credo che tutti qui saranno d'accordo nel giudicare "salto mirato" = "passo sicuro". ;)

No, è che giocando con le parole si riesce a cambiare la realtà.

gelox15
10-06-2009, 10:35
dipende sempre che tv hai.
il mio va da 23hz a 60hz...

(nel mio caso) solo NVIDIA da il 100%.

Ba io con Ati e Full HD mi sono trovato benissimo , la gestione del tv è eccellente a 60hz...

come sempre dipende dalle proprie esperienze...
cmq anche io nvidia al 100%;)

Simedan1985
10-06-2009, 10:58
Ragazzi faccio una domandina da ignorante asd...Come mai anche se il processo produttivo scende ,tipo 40 nm ,ma si parla di cippone grande?? Si intende la superficie di che cosa??

Andrea deluxe
10-06-2009, 11:12
Ragazzi faccio una domandina da ignorante asd...Come mai anche se il processo produttivo scende ,tipo 40 nm ,ma si parla di cippone grande?? Si intende la superficie di che cosa??

del die:

http://www.legitreviews.com/images/reviews/590/nvidia_g92_core.jpg

Athlon 64 3000+
10-06-2009, 11:27
GT200b dovrebbe essere sui 490 mm^2 che è la stessa grandezza sia di G80 che del futuro GT300.

Simedan1985
10-06-2009, 11:35
Grazie avevo intuito che era complessiva del die ....pero meglio chiede conferma a chi ne sa di più:asd:

Defragg
10-06-2009, 12:05
In questo senso:

http://img514.imageshack.us/img514/5899/12253837kh9.png

Non ho trovato un'immagine con anche G200@55nm, ma non ho cercato che pochi secondi :>

EDIT: In compenso ne ho trovata una con anche R600 e RV670

GT200b dovrebbe essere sui 490 mm^2 che è la stessa grandezza sia di G80 che del futuro GT300.

Io sapevo che era di 470mm^2, quindi poco più piccolo del G80 :)

Rufus86
10-06-2009, 14:36
Non hai (abbiamo) nulla per dirlo in questo momento, e sarebbe anche normale se come sembra uscirà 4-5 mesi dopo.

Per ora gli elementi sicuri sono: nVIDIA userà un architettura ex novo, su cui presumibilmente ha investito molto visto che ci tirerà avanti per diverso tempo, mentre AMD si limiterà a riusare, pur rifinita, la medesima architettura vista in due generazioni.

Questo, unito ai rumors e al modus operandi di nVIDIA quando crea progetti nuovi, direi che lascia spazio a pochi dubbi. ;)

Nell'attuale generazione con GT200 ha usato la stessa architettura di G80, con ben pochi ritocchi concentrati per lo più sulla potenza bruta (spesso fine a sé stessa), la situazione non è comparabile con quella che si verrà a creare con GT300, che essendo progettato (più o meno) da zero segnerà uno stacco netto.

Alzatan
10-06-2009, 14:55
Per ora gli elementi sicuri sono: nVIDIA userà un architettura ex novo, su cui presumibilmente ha investito molto visto che ci tirerà avanti per diverso tempo, mentre AMD si limiterà a riusare, pur rifinita, la medesima architettura vista in due generazioni.

Questo, unito ai rumors e al modus operandi di nVIDIA quando crea progetti nuovi, direi che lascia spazio a pochi dubbi. ;)

Nell'attuale generazione con GT200 ha usato la stessa architettura di G80, con ben pochi ritocchi concentrati per lo più sulla potenza bruta (spesso fine a sé stessa), la situazione non è comparabile con quella che si verrà a creare con GT300, che essendo progettato (più o meno) da zero segnerà uno stacco netto.
esattamente come la penso io... :)
la mia scelta si baserà (ahimè però) anche sul portafogli... se le ati andranno il 30% meno, ma costeranno il 50% meno (o proporzioni simili), non vedo spazi nella fascia gamer per nVidia :(

atomo37
10-06-2009, 15:41
La tua "analisi" prescinde da tutto quanto non è gaming.

nVidia si sta facendo in 4 nel fare marketing sul GPU computing e lo stesso G200 ha fatto un salto in avanti in questo campo, rispetto a G92, molto più ampio di quanto fatto in ambito gaming.

La direzione di sviluppo di G300 quindi ha un'incognita enorme, per quanto riguarda il gaming. Se G300 è una nuova evoluzione nella medesima direzione, ed è lecito aspettarselo visto che lo sviluppo non è partito ieri, è possibile che possa fare un mostruoso passo avanti in campo GPGPU, rispetto al predecessore G200, senza che questa potenza bruta si traduca linearmente in campo gaming.

Ad oggi anche questo è un elemento sicuro, ma non va certo nella direzione di confermare le tue ipotesi.

Quindi è ancora una volta evidente che fare stime sulle prestazioni è quantomai prematuro.

in effetti gli obiettivi di mercato di nvidia sono molto cambiati in questi ultimi anni, cmq questo g300 lascia presagire un interessante salto generazionale rispetto le ultime inoovazioni non sempre architetturali. Sono comunque curiosissimo di vedere le prestazioni di questa gpu sia in termini di calcolo che nella applicazioni di gioco.

appleroof
10-06-2009, 19:54
in effetti gli obiettivi di mercato di nvidia sono molto cambiati in questi ultimi anni, cmq questo g300 lascia presagire un interessante salto generazionale rispetto le ultime inoovazioni non sempre architetturali. Sono comunque curiosissimo di vedere le prestazioni di questa gpu sia in termini di calcolo che nella applicazioni di gioco.

quoto ;)

goldorak
10-06-2009, 20:12
La tua "analisi" prescinde da tutto quanto non è gaming.

nVidia si sta facendo in 4 nel fare marketing sul GPU computing e lo stesso G200 ha fatto un salto in avanti in questo campo, rispetto a G92, molto più ampio di quanto fatto in ambito gaming.

La direzione di sviluppo di G300 quindi ha un'incognita enorme, per quanto riguarda il gaming. Se G300 è una nuova evoluzione nella medesima direzione, ed è lecito aspettarselo visto che lo sviluppo non è partito ieri, è possibile che possa fare un mostruoso passo avanti in campo GPGPU, rispetto al predecessore G200, senza che questa potenza bruta si traduca linearmente in campo gaming.

Ad oggi anche questo è un elemento sicuro, ma non va certo nella direzione di confermare le tue ipotesi.

Quindi è ancora una volta evidente che fare stime sulle prestazioni è quantomai prematuro.

Quoto.
Tutto lascia presagire che G300 sara' un mostro per il gpgpu, ma chi si aspetta di vedere un balzo alla G80 per il gaming credo rimarra' deluso.

appleroof
10-06-2009, 20:21
beati voi che vi lanciate in queste previsioni, anche se quasi opposte, ma come fate? :D

Io credo che non si possa dire proprio nulla su un'architettura che, stando ai rumors, dovrebbe essere completamente nuova rispetto a prima (e proprio g80 lo era rispetto a g70, ricordo anche chi si sbellicava ai rumors circa i 128sp, ma cmq la storia potrebbe pure non ripetersi..)

mi stupisco invece come nessuno si sbilanci altrettanto su rv870, che in teoria dovrebbe essere molto più affine a rv790...

goldorak
10-06-2009, 20:30
beati voi che vi lanciate in queste previsioni, anche se quasi opposte, ma come fate? :D

Io credo che non si possa dire proprio nulla su un'architettura che, stando ai rumors, dovrebbe essere completamente nuova rispetto a prima (e proprio g80 lo era rispetto a g70, ricordo anche chi si sbellicava ai rumors circa i 128sp, ma cmq la storia potrebbe pure non ripetersi..)

mi stupisco invece come nessuno si sbilanci altrettanto su rv870, che in teoria dovrebbe essere molto più affine a rv790...

Basta vedere il percorso da G80 fino a G200b per capire dove andra' a parare Nvidia. Andra' a finire esttamente laddove si trovava ATI con R600 (non come prestazioni ma come filosofia architetturale), solo che lei ha avuto la maledizione di presentarla qualche anno d'anticipo quando il mercato non era ancora pronto. G200b colma sostanzialmente la componente carente del gp-gpu presente nella serie G80-G92b. G300 secondo me andra' piu' in la magari consentendo di avere un raddoppio delle prestazioni nel gp-gpu. Ma non credo minimamente che vedremo le unita' di textures aumentare di 2 volte, o di spingere molto piu' in la il pixel fillrate. Felice di essere smentito ma non credo che lo saro'. :) Guardate dove convergono ATI, Nvidia e Intel. Schede progettate per dare il massimo di se' nel gpgpu lasciando in secondo piano il fattore gaming. E non potrebbe essere altrimenti visto che non esiste gioco che metta in ginocchio le soluzioni gia' sul mercato. Figuriamoci le prossime.

The_SaN
10-06-2009, 20:31
beati voi che vi lanciate in queste previsioni, anche se quasi opposte, ma come fate? :D

Io credo che non si possa dire proprio nulla su un'architettura che, stando ai rumors, dovrebbe essere completamente nuova rispetto a prima (e proprio g80 lo era rispetto a g70, ricordo anche chi si sbellicava ai rumors circa i 128sp, ma cmq la storia potrebbe pure non ripetersi..)

mi stupisco invece come nessuno si sbilanci altrettanto su rv870, che in teoria dovrebbe essere molto più affine a rv790...E io quoto te :D (visto che siamo in tema quote)

É da una vita (leggasi qualche mese) che lo dico, e lo ripeto ora: sbilanciarsi non ha molto senso, visto che a quanto pare siamo di fronte ad una svolta architetturale.
Possiamo quindi parlare di numeri hardware (sp, ram, bus), ma per avere anche solo un'idea delle prestazioni (gaming, nel gpgpu i calcoli sono ben piú semplici) bisogna avere conoscenze che pochi, anzi pochissimi, hanno qui. E io non sono uno di questi, per quanto ami queste tecnologie. :)

Forse sbilanciarsi sulle ATi ha piú senso visto che probabilmente l'architettura rimarrá invariata...ma lí mancano proprio i numeri hardware :D

Mister Tarpone
10-06-2009, 20:32
Per ora gli elementi sicuri sono: nVIDIA userà un architettura ex novo, su cui presumibilmente ha investito molto visto che ci tirerà avanti per diverso tempo, mentre AMD si limiterà a riusare, pur rifinita, la medesima architettura vista in due generazioni.

Questo, unito ai rumors e al modus operandi di nVIDIA quando crea progetti nuovi, direi che lascia spazio a pochi dubbi. ;)

Nell'attuale generazione con GT200 ha usato la stessa architettura di G80, con ben pochi ritocchi concentrati per lo più sulla potenza bruta (spesso fine a sé stessa), la situazione non è comparabile con quella che si verrà a creare con GT300, che essendo progettato (più o meno) da zero segnerà uno stacco netto.

concordo

Mister Tarpone
10-06-2009, 20:41
mi stupisco invece come nessuno si sbilanci altrettanto su rv870, che in teoria dovrebbe essere molto più affine a rv790...

dipende da quanti sp avrà.. se ce le infilano 1600 andrà parecchio

goldorak
11-06-2009, 08:50
Esattamente. Ci sto provando da settimane a far passare questo concetto ma pare che pochi ci sentano da quell'orecchio :>


Su su un po' di coraggio.
Che e' questo atteggiamento politically correct del tipo, se non e' uscita la nuova architettura non possiamo parlarne ? :rolleyes:
Si puo' discutere SUL PERCHE' sono passati da una architettura SIMD ad una MIMD.
Si puo' discutere sulle slides presentate da Nvidia qualche mese fa e come sottolineano la componente gp-gpu tralasciando la parte gaming.
Insomma tanti ma tanti piccoli e grandi indizi.
Se poi non li volete vedere siete ciechi.

gelox15
11-06-2009, 09:10
Su su un po' di coraggio.
Che e' questo atteggiamento politically correct del tipo, se non e' uscita la nuova architettura non possiamo parlarne ? :rolleyes:
Si puo' discutere SUL PERCHE' sono passati da una architettura SIMD ad una MIMD.
Si puo' discutere sulle slides presentate da Nvidia qualche mese fa e come sottolineano la componente gp-gpu tralasciando la parte gaming.
Insomma tanti ma tanti piccoli e grandi indizi.
Se poi non li volete vedere siete ciechi.

effettivamente.....

Capozz
11-06-2009, 09:22
Se mi dici che mi sarò sicuramente fatto un'idea senza dubbio ed esitazione ti do ragione.

Di qui a dire che, basandosi sui rumor ed i numeri così trapelati si possano definire le prestazioni di G300 confrontando questi numeri con quelli di G200, eh, qui siamo nella fantascienza pura, visto che l'architettura sarà presumibilmente del tutto diversa.

Fosse possibile fare confronti fra architetture basandosi solo sui numeri delle stesse gli 800SP di RV770 dovrebbero fare a pezzi i 240 di G200, cosa che in effetti non accade. E questi confronti sono impossibili non solo quando le archietture sono diverse una nVidia e una AMD, ma anche quando una è nVidia e la seconda è nVidia.

D'altra parte a fianco di questi numeri grezzi è anche evidente il fatto che nVidia stia fortemente investendo, anche e soprattutto lato marketing, sul GPGPU, ed è plausibile attendersi un forte impegno anche architetturale in questa direzione, così come è stato il passaggio G92->G200, per il quale guardando i numeri dell'architettura molti si erano sperticati in previsioni di dominio dell'universo, cosa che non si è verificata perché la maggior parte del lavoro fu fatto in prospettiva GPU computing.

Quindi? Quindi è sicuramente prevedibile che G300 sarà una GPU eccellente dal punto di vista del GPGPU, ma qualunque previsione sulle prestazioni in ambito gaming rischia di essere completamente sbagliata.

Anche secondo me potrebbero essersi sbilanciati più sul gpu computing che sul gaming per un paio di motivi fondamentali:
1) hanno investito tantissimo in ambito gpgpu
2) un aumento di prestazioni stratosferico in ambito gaming al momento non serve, e non servirà nemmeno in ottica futura, almeno per un paio d'anni


PS magari sbaglierò ma è l'idea che mi sono fatto :D

goldorak
11-06-2009, 09:22
Quindi? Quindi è sicuramente prevedibile che G300 sarà una GPU eccellente dal punto di vista del GPGPU, ma qualunque previsione sulle prestazioni in ambito gaming rischia di essere completamente sbagliata.

Io pero' non ho detto che G300 andrebbe x% (dove x = 20-30-40 o quello che piu' vi aggrada) piu' veloce in gaming rispetto alla generazione corrente di schede grafiche. Ho fatto presente che secondo me non e' lecito aspettarsi lo stesso tipo di incremento prestazionale che si avra' sulla componente gp-gpu. Poi che questa scheda vada dippiu' di una GTX285 o quello che e' non ne dubito. Ma andare piu' veloce nel gaming significa anche andare il 5% piu' veloce rispetto a GTX285 non necessariamente il 30-40-50% in piu'.
Anche perche' i maggior sforzi sono concentrati appunto sul gp-gpu.

Mister Tarpone
11-06-2009, 12:57
Su su un po' di coraggio.
Che e' questo atteggiamento politically correct del tipo, se non e' uscita la nuova architettura non possiamo parlarne ? :rolleyes:
Si puo' discutere SUL PERCHE' sono passati da una architettura SIMD ad una MIMD.
Si puo' discutere sulle slides presentate da Nvidia qualche mese fa e come sottolineano la componente gp-gpu tralasciando la parte gaming.
Insomma tanti ma tanti piccoli e grandi indizi.
Se poi non li volete vedere siete ciechi.

mah.. con te non concordo proprio mai... però con questo post si....

cioè ma caxxata è..... ora uno non può manco + parlarne, ipotizzare ecc..

che c'è il divieto?? ma che c'è di male se uno dice la sua... :mbe:

anche rufus per esempio...l'ha detto perchè pensa che andrà parecchio il G300... non è che l'ha sparato così a caso senza motivare

Mister Tarpone
11-06-2009, 13:01
un minimo di ragionamento l'ha fatto... ed io sinceramente concordo con lui.. penso che andranno parecchio le prossime nvidia.

poi oh...se non sarà così pace eh :asd:

atomo37
11-06-2009, 13:12
un minimo di ragionamento l'ha fatto... ed io sinceramente concordo con lui.. penso che andranno parecchio le prossime nvidia.

poi oh...se non sarà così pace eh :asd:

esatto, se non vanno non muore nessuno, ma le premesse per un salto generazionale che non si vedeva da un po' ci sono tutte a mio avviso.

appleroof
11-06-2009, 13:14
Basta vedere il percorso da G80 fino a G200b per capire dove andra' a parare Nvidia. Andra' a finire esttamente laddove si trovava ATI con R600 (non come prestazioni ma come filosofia architetturale), solo che lei ha avuto la maledizione di presentarla qualche anno d'anticipo quando il mercato non era ancora pronto.

non sono espertissimo ma l'architettura full-MIMD, che si presume abbia gt300 (e che potrebbe essere pure una colossale bufala allo stato attuale, intendiamoci), è comunque differente da quella di R600&derivati, fino ad arrivare a rv870, se come pare questo è un'ulteriore evoluzione senza stravolgimenti di rv790

G200b colma sostanzialmente la componente carente del gp-gpu presente nella serie G80-G92b. G300 secondo me andra' piu' in la magari consentendo di avere un raddoppio delle prestazioni nel gp-gpu. Ma non credo minimamente che vedremo le unita' di textures aumentare di 2 volte, o di spingere molto piu' in la il pixel fillrate. Felice di essere smentito ma non credo che lo saro'. :) Guardate dove convergono ATI, Nvidia e Intel. Schede progettate per dare il massimo di se' nel gpgpu lasciando in secondo piano il fattore gaming. E non potrebbe essere altrimenti visto che non esiste gioco che metta in ginocchio le soluzioni gia' sul mercato. Figuriamoci le prossime.

nessuno nega l'importanza del GPGPU per Nvidia in particolare (che è l'unica del trio a non avere cpu) e quindi gli sforzi in questo senso. Ma dimentichi un particolare, e che cioè il core business dell'azienda è ancora il gaming e non possono permettersi di trascurare questo aspetto

di più: anche quando uscì G80 non si aveva bisogno di tutta la potenza che esprimeva ma un'architettura è anche fatta per durare anni, e al lancio serve a farsi tanto nome (Nvidia quando ha dominato nel 2007 si è fatta miliardi) e di conseguenza vendere di più. Se per un'azienda ti pare poco...:asd:

Athlon 64 3000+
11-06-2009, 13:24
Dare per spacciati nvidia è davvero esagerato perchè di GT300 ufficialmente non si sà niente visto che si parla solo di supposizioni.
Su una cosa sono certo,che GT300 sarà una architettura completamente nuova rispetto a GT200b per via anche delle dx11 è andrà molto più veloce della GTX285 in ambito gaming.
Non è da escludere che in ambito GPGPU sarà mostruosa rispetto a GT200b.

Athlon 64 3000+
11-06-2009, 13:34
Chi è che l'ha data per spacciata?

A sentire diverse dichiarazioni sembra che GT300 che dovrebbe essere circa 480 mm^2 a 40 nm avrà enormi difficoltà di produzione e sentendo toni catastrofistici mi ha fatto pensare che si dava nvidia gia spacciata in partenza.

Mister Tarpone
11-06-2009, 13:40
di più: anche quando uscì G80 non si aveva bisogno di tutta la potenza che esprimeva ma un'architettura è anche fatta per durare anni, e al lancio serve a farsi tanto nome (Nvidia quando ha dominato nel 2007 si è fatta miliardi) e di conseguenza vendere di più. Se per un'azienda ti pare poco...:asd:

straquoto

goldorak
11-06-2009, 13:45
non sono espertissimo ma l'architettura full-MIMD, che si presume abbia gt300 (e che potrebbe essere pure una colossale bufala allo stato attuale, intendiamoci), è comunque differente da quella di R600&derivati, fino ad arrivare a rv870, se come pare questo è un'ulteriore evoluzione senza stravolgimenti di rv790


Mi sono espresso male, quello che volevo dire e' che all'epoca R600 strizzava dippiu' l'occhio verso calcoli gp che non massime prestazioni nei giochi. Ed infatti alcune scelte all'epoca furuno proprio infelici, come il numero ristretto di Texture Units, il pixel fillrate nella norma etc...
Per Ati il percorso e' stato R600 (ottima per il gp, male per il gaming) fino ad arrivare a RV770 (che e' l'evoluzione di R600 ma che mette un cerotto su tutte le inadeguatezze architetturali di R600 per il gaming).
Per Nvidia invece il percorso e' stato diverso : G80 prima architettura unificata ed un mostro nel gaming a causa dell'elevato numero di Texture Units, ROPS, filtri applicati in hardware etc... Poi con G98b si e' continuati sulla stessa strada per infine approdare a G200. Che e' un salto enorme nelle prestazioni gp-gpu rispetto a G92b. E li che gli ingegneri di Nvidia hanno lavorato. E tutto fa presagire che anche con la nuova architettura di G300 privelegieranno il gp-gpu, non trascurando la dimensione gaming ma non dandole piu' la priorita'.


nessuno nega l'importanza del GPGPU per Nvidia in particolare (che è l'unica del trio a non avere cpu) e quindi gli sforzi in questo senso. Ma dimentichi un particolare, e che cioè il core business dell'azienda è ancora il gaming e non possono permettersi di trascurare questo aspetto


Io ci andrei piano nel dire che il core business di Nvidia e' ancora il gaming.
Che senso ha spingere come dannati sul gaming, quando tutti i giochi per motivi legati alle console sono indietro di anni. E il prossimo refresh ci sara' soltanto tra qualche anno 2012-2013 ?
E meglio concentrarsi sul gp-gpu che possono vendere sia alla fascia alta che bassa del mercato. Almeno e' qualcosa di concreto. Per il gaming basta che la scheda abbia prestazioni superiori a quella di GTX285 ed e' scontato quindi ?
Si spinge dove ce' bisogno di innovazione : gp-gpu.


di più: anche quando uscì G80 non si aveva bisogno di tutta la potenza che esprimeva ma un'architettura è anche fatta per durare anni, e al lancio serve a farsi tanto nome (Nvidia quando ha dominato nel 2007 si è fatta miliardi) e di conseguenza vendere di più. Se per un'azienda ti pare poco...:asd:

Adesso non riscriviamo la storia. G80 e' stata brillante per 3 motivi : primo perche' effettivamente l'architettura era una rottura completa rispetto al passato e le prestazioni erano al rendezvous. Secondo perche' ATI per i primi anni non si e' fatta proprio vedere. E terzo perche' tuti i giochi (e sara' kl'ennesima volta che lo si ripete) sono tarati sulle prestazioni delle consoles.
L'unico gioco che e' stato progettato per pc Crysis, e' o non e' un caso che sia l'unico ancora per il quale non esiste scheda video che riesca a farlo girare a very high con filtri a palla a 60 fps ? :rolleyes: Se fossero usciti molti piu' giochi nativi per pc che spingevano a fondo le prestazioni a quest'ora saremo a dire ma che palle G80-G92b che non ci fanno girare i giochi al massimo.

Mister Tarpone
11-06-2009, 13:51
ma che è sto cypresso :help: :confused: ??

Dev42
11-06-2009, 14:04
Certo che il nome lascia a desiderare... :confused:

Mister Tarpone
11-06-2009, 14:10
ho capito.. mazza che nome però :asd:

Dev42
11-06-2009, 14:15
ho capito.. mazza che nome però :asd:

Il chip ok, ma il nome con tutti quelli che ci sono :rolleyes:

appleroof
11-06-2009, 15:37
Cypress = "HD5870"
cut

chissà quanto misurerebbe gt200 a 40nm...

Defragg
11-06-2009, 16:37
chissà quanto misurerebbe gt200 a 40nm...

Circa 355mm^2 credo.

Mister Tarpone
11-06-2009, 16:53
Il chip ok, ma il nome con tutti quelli che ci sono :rolleyes:

infatti..mah vabbè.. l'importante è che vada forte :D

HackaB321
11-06-2009, 18:50
E' vero che se G300 sarà MIMD lo sarà più per necessità gp che gaming. Ma anche sul fronte gaming (specie dei giochi che verranno) Nvidia si avvantaggerà di un maggiore ILP e di una maggiore flessibilità architetturale. E poi andiamoci piano: gli ultimi rumor mi sembra parlavano di 512 sp che sono un cifra per me abbastanza stupefacente se vera (specie se saranno davvero 512 MIMD, ma anche se non lo saranno)
La nuova architettura sarà poi quella su cui si baserà per almeno 2-3 anni il confronto con le nuove consolle e le prestazioni anche nei giochi dovranno essere all'altezza. L'unica dubbio è costituito dalle dimensioni dello shader core: già oggi ad es lo shader core di RV790 ha dimensioni di circa 80mm2 contro i 175mm2 della GTX 285 pur con potenza matematica teorica sia in sp che in dp superiore. E Uno shader core full-MIMD avrebbe dimensioni ben superiori a quelle attuali a parità di pp.

appleroof
11-06-2009, 21:41
Circa 355mm^2 credo.

mmm...sarebbe un bel recupero in termini di capacità produttiva/costi...

Defragg
11-06-2009, 22:30
Il chip ok, ma il nome con tutti quelli che ci sono :rolleyes:

infatti..mah vabbè.. l'importante è che vada forte :D

Secondo me l'han chiamato Cypress perché è alto e stretto :D

Spartan rimane il migliore a mio avviso :D
mmm...sarebbe un bel recupero in termini di capacità produttiva/costi...

Direi proprio di si, ma il problema sono i 40nm di TMSC, quindi le rese e i costi potrebbero non essere quelle sperate. :stordita:

halduemilauno
12-06-2009, 06:41
e approposito dei 40nm...
http://en.expreview.com/2009/06/12/nvidias-40nm-gpu-on-track-for-shipping-next-month.html
;)

halduemilauno
12-06-2009, 07:08
e questo in generale sulle DX11...
http://www.tomshw.it/news.php?newsid=18445

Richard Huddy, senior manager per le relazioni con gli sviluppatori software di ATI (AMD), ha parlato di alcune delle novità che le nuove librerie dovrebbero portare, migliorando lo sviluppo dei videogiochi.

"Gli sviluppatori di giochi possono aumentare le prestazioni dei loro giochi e la qualità grafica attraverso alcune caratteristiche delle DirectX 11", ha affermato Huddy, che ha aggiunto "Se dovessi fare una decisione su quali caratteristiche DX11 implementare per prime, opterei per tre cose: supporto multi-threading, compute shader e tessellation".

Dal supporto multi-threading, sebbene in molti facciano finta di non capire, oggi non si può prescindere. CPU e GPU integrano un numero di unità di elaborazione sempre in crescita. Sarebbe un delitto non sfruttarle a dovere. Secondo Huddy l'implementazione di questa funzionalità DX11 nei giochi, attraverso l'uso di Display Lists, comporterà almeno un incremento delle prestazioni di circa il 20% rispetto alla mancata implementazione. In alcuni casi il guadagno potrebbe essere ancora più elevato. I miglioramenti riguarderanno tutto l'hardware compatibile con Windows 7, previo l'uso di driver grafici appropriati.

"Questo aspetto dovrebbe essere interessante per gli sviluppatori di giochi, poiché non si richiede hardware DirectX 11; l'uso di Display Lists darà un beneficio su qualsiasi hardware Windows 7, ovvero soluzioni DirectX 9, DirectX 10, DirectX 11, quando AMD, Nvidia e le altre aziende metteranno a disposizione driver che offrano l'accelerazione", ha affermato Huddy.

Per quanto concerne il post processing, la fisica, l'intelligenza artificiale o l'uso di sistemi particellari, Huddy suggerisce di inserire tutto in un compute shader, che amministra le transazioni di dati in maniera più efficiente dei pixel shader, che non sono efficienti in termini di prestazioni, poiché dipendono dalla pipeline grafica.



I compute shader, invece, sono indipendenti dalla pipeline di rendering e richiedono meno transazioni di dati, lettura di texture, etc.. L'implementazione degli effetti di post processing dovrebbe essere sostanzialmente più veloce, di oltre il 25 percento.

Infine vi è la tessellation, un nome non certamente nuovo, ma che dovrebbe prendere piede solamente ora. Non riguarda esattamente le prestazioni, ma è in grado di generare oggetti più dettagliati usando meno risorse della tecnologia tradizionale. Perciò se gli sviluppatori la implementeranno, potranno offrire giochi più dettagliati con migliori prestazioni sulle schede grafiche esistenti, rispetto all'uso della tecnologia tradizionale.

Dev42
12-06-2009, 07:15
Interessantissimo un supporto + completo per multi-threading, e l'aumento di prestazioni...
Moolto interessante ;)

Andrea deluxe
12-06-2009, 08:16
http://www.guru3d.com/article/geforce-gtx-295-single-pcb-review/1

Mister Tarpone
12-06-2009, 09:09
http://www.guru3d.com/article/geforce-gtx-295-single-pcb-review/1

hai sbagliato thread

appleroof
12-06-2009, 13:28
Interessantissimo un supporto + completo per multi-threading, e l'aumento di prestazioni...
Moolto interessante ;)

quoto, veramente molto interessante chissà che non siano le stesse chiacchere proposte ai tempi dell'uscita delle dx10 e che invece l'adozione delle dx11 sia più veloce...

Mister Tarpone
12-06-2009, 13:29
quoto, veramente molto interessante chissà che non siano le stesse chiacchere proposte ai tempi dell'uscita delle dx10 e che invece l'adozione delle dx11 sia più veloce...mi viene da pensare alle solite chiacchere.........

Athlon 64 3000+
12-06-2009, 13:30
quoto, veramente molto interessante chissà che non siano le stesse chiacchere proposte ai tempi dell'uscita delle dx10 e che invece l'adozione delle dx11 sia più veloce...

C'è sempre una prima volta per tutto quindi non è da escludere che le dx11 possano essere adottate molto più velocemente delle dx10 sopratutto anche con il fatto che saranno sia Vista che 7 a supportarli.

atomo37
12-06-2009, 13:39
C'è sempre una prima volta per tutto quindi non è da escludere che le dx11 possano essere adottate molto più velocemente delle dx10 sopratutto anche con il fatto che saranno sia Vista che 7 a supportarli.

di certo MS, relegando le dx10 a vista (ovvero al suo os meno popolare della storia) non ha contribuito alla diffusione di queste api.
Considerando l'hype che c'è per 7, e considerando che anche vista le supporterà, è presumibile prevedere una differente sorte per le dx11 ;)

Mister Tarpone
12-06-2009, 13:40
io parlavo di questo = un supporto + completo per multi-threading


ma sarà vero?

zorco
12-06-2009, 14:50
quoto, veramente molto interessante chissà che non siano le stesse chiacchere proposte ai tempi dell'uscita delle dx10 e che invece l'adozione delle dx11 sia più veloce...
io sono pessimista

goldorak
12-06-2009, 14:54
io sono pessimista


Io sono realista, vedremo giochi Dx11 nativi quando arrivera' la nuova generazione di console.
Prima di allora e' gia' tanto se faranno giochi in Dx10.1.

Defragg
12-06-2009, 14:57
Io sono realista, vedremo giochi Dx11 nativi quando arrivera' la nuova generazione di console.
Prima di allora e' gia' tanto se faranno giochi in Dx10.1.

Sottoscrivo, firmo, controfirmo e quoto. :O

zorco
12-06-2009, 15:00
Io sono realista, vedremo giochi Dx11 nativi quando arrivera' la nuova generazione di console.
Prima di allora e' gia' tanto se faranno giochi in Dx10.1.
si concordo probabile che lo scenario sarà questo visto che negli ultimi tempi lo sviluppo dei giochi è dipende sopratutto da quelle delle console..

_TeRmInEt_
12-06-2009, 19:51
evga 295 co-op single pcb è stata finalmente rilasciata:

http://www.evga.com/articles/00478/

Sui 529USD pare

zorco
13-06-2009, 09:12
evga 295 co-op single pcb è stata finalmente rilasciata:

http://www.evga.com/articles/00478/

Sui 529USD pare

a sto punto conviene aspettare la nuove gpu nvidia che investire molti soldi in tale soluzione...

Mister Tarpone
13-06-2009, 09:16
ma perchè la 295 finisce sempre in questo thread :confused:

zorco
13-06-2009, 09:17
Io "aspetterebbi" anche le nuove ATI a sto punto... :cool:
si aspetterebbi anche io:Prrr: :D

_TeRmInEt_
13-06-2009, 11:07
ma perchè la 295 finisce sempre in questo thread :confused:

Forse confondo io... ma questo non è il 3d sulle nuove nvidia? la 295 single-pcb dovrebbe rientrare nel topic, o no?

molochgrifone
13-06-2009, 12:57
ma perchè la 295 finisce sempre in questo thread :confused:

Secondo me vengono a vedere i tuoi cambi di avatar :asd:

Forse confondo io... ma questo non è il 3d sulle nuove nvidia? la 295 single-pcb dovrebbe rientrare nel topic, o no?

Ti confondi: qua si aspettano le nuove nVidia che usciranno a fine anno, quelle con il chip che dovrebbe chiamarsi GT 300, che sarà il nuovo chip top di gamma per nVidia e che andrà a confrontarsi con le ATI 5xx0; non si aspettano tutte le nuove nVidia che man mano escono sul mercato ;)

halduemilauno
13-06-2009, 13:04
Forse confondo io... ma questo non è il 3d sulle nuove nvidia? la 295 single-pcb dovrebbe rientrare nel topic, o no?

NO. seppur a singolo pcb è sempre una GTX295 e per essa c'è il thread specifico.
;)

Mister Tarpone
13-06-2009, 14:38
NO. seppur a singolo pcb è sempre una GTX295 e per essa c'è il thread specifico.
;)

esatto.



ciao hal. ;)

_TeRmInEt_
13-06-2009, 14:49
Ok ho capito, :D

halduemilauno
13-06-2009, 16:07
esatto.



ciao hal. ;)

Ciao Tarpo.
;)

Mister Tarpone
13-06-2009, 16:25
Ciao Tarpo.
;)

non vedo l'ora che esca il monster GTX380 :sborone:

voglio il modello Hal edition @ 900/2200/5600mhz :sborone:

halduemilauno
13-06-2009, 16:41
non vedo l'ora che esca il monster GTX380 :sborone:

voglio il modello Hal edition @ 900/2200/5600mhz :sborone:

monster? in effetti da una 240 shader a 1400 e ram a 2400 si passerebbe a una 512 shader a 1600 e ram(con stesso bus)a 4400.
Hal edition? 800/1800/4800.
;)

Mister Tarpone
13-06-2009, 16:43
Hal edition? 800/1800/4800.
;)

quelle non sono le frequenze da boss... :sborone:
quindi al max quella è una tarpo edition (semi-boss) ;)

ippo.g
13-06-2009, 20:38
ma poi a cosa ci dovete giocare con queste schede :confused:

Giustaf
13-06-2009, 20:43
ma poi a cosa ci dovete giocare con queste schede :confused:

gta V! :D

HaRdCoRe GaMeR
13-06-2009, 20:47
ma poi a cosa ci dovete giocare con queste schede :confused:

Solo e sempre il ben amato Crysis;)

martinez1983
13-06-2009, 20:58
Solo e sempre il ben amato Crysis;)

Quoto,e straquoto!!!!;)

Amph
13-06-2009, 21:18
il 2 xo :D

martinez1983
13-06-2009, 21:57
il 2 xo :D

Ci mancava qualcosa!!!!:D

Mister Tarpone
14-06-2009, 08:35
ma poi a cosa ci dovete giocare con queste schede :confused:

a questo =

http://www.pctunerup.com/up/results/_200906/20090614093330_Crysis-2-Superheld-05.jpg

http://www.pctunerup.com/up/results/_200906/20090614093409_Crysis-2-Superheld-08.jpg

http://www.pctunerup.com/up/results/_200906/20090614093456_Crysis-2-Superheld-12.jpg

http://www.pctunerup.com/up/results/_200906/20090614093540_Crysis-2-Vanity-05.jpg

http://www.pctunerup.com/up/results/_200906/20090614093617_Crysis-2-Hawkeye-Puppy-03.jpg

@ 60fps e filtri :sborone:

Dev42
14-06-2009, 08:41
Quoto tarpo :fagiano:

gelox15
14-06-2009, 09:29
Quoto tarpo :fagiano:

quoto 2 tarpo...;)

martinez1983
14-06-2009, 09:53
quoto 2 tarpo...;)

Quoto 3 tarpo!!!!:D

Sarei disposto a metterne 3 GT300 in SLI per avere dei risultati così!!!

gelox15
14-06-2009, 10:29
Quoto 3 tarpo!!!!:D

Sarei disposto a metterne 3 GT300 in SLI per avere dei risultati così!!!

pure io martinez....;)

Horizont
14-06-2009, 12:12
DEAR GOD!!
quelle immagini non fanno respirare!!!

Alzatan
14-06-2009, 12:59
ma che cos'era quel gioco?
crysis davvero??? io non ci sono nemmeno lontanamente vicino a quella qualità (manco se metto tutto al max e va a 8fps...) :(

che tweak ci sono su??

Mister Tarpone
14-06-2009, 14:23
ma che cos'era quel gioco?
crysis davvero??? io non ci sono nemmeno lontanamente vicino a quella qualità (manco se metto tutto al max e va a 8fps...) :(

che tweak ci sono su??

le immagini le ho prese da qui http://www.pcgameshardware.com/aid,686987/Crysis-2-Modders-show-possible-graphics/News/

:D :cool:

martinez1983
14-06-2009, 15:16
ma che cos'era quel gioco?
crysis davvero??? io non ci sono nemmeno lontanamente vicino a quella qualità (manco se metto tutto al max e va a 8fps...) :(

che tweak ci sono su??

Nessun tweak in particolare!!!! Quello è il vero potenziale del C.E2!!!;)

Quello che abbiamo visto fino ad oggi non è il massimo che può dare!!!(giudizio personale)

devAngnew
14-06-2009, 15:18
Effettivamente sembrerebbe possibile ottenere quella qualita agendo modificando solo i parametri :

Time of the Day parameters.

In particolare si parla del mod Time of Day che agirebbe solo sull'illuminazione senza modificare la risoluzione delle textute che rimarebbero le medesime del gioco originale.


Perlomeno è quello che ho letto su sito postato da tarpo.


P.s: Attenti ai frame che scendono a 1.......:asd: :asd: :asd: :boxe: