View Full Version : [THREAD UFFICIALE] Aspettando Nvidia GTX 480 e GTX 470
Gabriyzf
11-11-2008, 09:48
la nuova fx5800 è fatta a 55nm con core a 650 ed è + potente(GTexel 52 vs 48, e Gigaflops) della gtx280 e nonostante questo consuma ben 47 watt di meno. il sito crede che le frequenze core/shader possono essere 648/1620. stessi shader 240 e stesso bus 512 bit. non ha date ma alcuni partner gia l'anno ricevuta. il chip è di 470mm invece di 574mm.
aspettiamo.
;)
interessante...
quindi ritorna il rapporto 2.5 c/s
molochgrifone
11-11-2008, 09:51
Diciamo di si.
E' la versione professional; quindi con driver certificati per chi fa uso di programmi tipo autocad, photoshop ecc.
ciao.
:D
E 4 gb di RAM :D
devAngnew
11-11-2008, 09:55
interessante...
quindi ritorna il rapporto 2.5 c/s
Come ha già detto Hal il ritorno del rapporto di 2.5 è solo un ipotesi data dal sito ma ciò non è stato confermato.
Quindi bisogna aspettare!!!
:D
halduemilauno
11-11-2008, 10:14
interessante...
quindi ritorna il rapporto 2.5 c/s
Come ha già detto Hal il ritorno del rapporto di 2.5 è solo un ipotesi data dal sito ma ciò non è stato confermato.
Quindi bisogna aspettare!!!
:D
cmq e sempre per chiarezza i 1088 Gflops citati nel sito lincato si otterrebbero con gli shader a 1512. quindi con il core a 648 sarebbe 2.33.
;)
-noxius-
11-11-2008, 10:17
la nuova fx5800 è fatta a 55nm con core a 650 ed è + potente(GTexel 52 vs 48, e Gigaflops) della gtx280 e nonostante questo consuma ben 47 watt di meno. il sito crede che le frequenze core/shader possono essere 648/1620. stessi shader 240 e stesso bus 512 bit. non ha date ma alcuni partner gia l'anno ricevuta. il chip è di 470mm invece di 574mm.
aspettiamo.
;)
Fosse così sarebbe interessante , specialmente una versione a 216sp a risoluzioni intermedie e rapporto a 2.5 .. praticamente una nuova 8800gts 512 con più sp . Ad ogni modo penso che sarà un pò più difficile overcloccare questi mostri . Certo però la somiglianza a livello di nomenclature con l'eccellente serie FX 5xxx potevano risparmiarsela , ammesso che sia così :asd:
Edit: ho appena trovato una recensione approfondita della nuova 5800 !! http://techreport.com/articles.x/4966/8 :eek:
devAngnew
11-11-2008, 10:41
Edit: ho appena trovato una recensione approfondita della nuova 5800 !! http://techreport.com/articles.x/4966/8 :eek:
Come no :ciapet: :asd:
Però :nonsifa:
:D
non c'è nulla a riguardo della gx2?
appleroof
11-11-2008, 17:14
cmq e sempre per chiarezza i 1088 Gflops citati nel sito lincato si otterrebbero con gli shader a 1512. quindi con il core a 648 sarebbe 2.33.
;)
bella bestia :)
Skullcrusher
11-11-2008, 18:26
bella bestia :)
Quoto :)
Potente o no, non la prenderei mai per scaramanzia :D
appleroof
11-11-2008, 18:43
Potente o no, non la prenderei mai per scaramanzia :D
:what:
edit: finalmente l'ho capita :stordita: "perchè si chiama fx 5800" hahahaha a :stordita: ....bè si prendeva spunto dalle sue caratteristiche perchè dovrebbero essere quelle della gtx290, a meno che tu voglia prendere una vga da workstation (pagandola 3000$) per (non riuscire a) giocare :asd:
:what:
edit: finalmente l'ho capita :stordita: "perchè si chiama fx 5800" hahahaha a :stordita: ....bè si prendeva spunto dalle sue caratteristiche perchè dovrebbero essere quelle della gtx290, a meno che tu voglia prendere una vga da workstation (pagandola 3000$) per (non riuscire a) giocare :asd:
All'inizio manco ti riconoscevo :eek:
La mia era una semplice battuta, ovvio che non spenderei 3000€ con dove con un decimo (per dire) pago la scheda e con il resto i driver superottimizzati per il lavoro da workstation. :stordita:
appleroof
11-11-2008, 19:49
All'inizio manco ti riconoscevo :eek:
svolta vintage :asd: (e di sicuro non attira/scatena flame....spero :D)
OT se penso a quanto ci divertivamo con 1/1000000 di oggi....:cry: /OT
La mia era una semplice battuta, ovvio che non spenderei 3000€ con dove con un decimo (per dire) pago la scheda e con il resto i driver superottimizzati per il lavoro da workstation. :stordita:
certo che era una battuta (perfidina, ovviamente :asd: ) solo che appunto non ci si riferiva alla quadro fx5800 :D
svolta vintage :asd: (e di sicuro non attira/scatena flame....spero :D)
:confused: http://www.hwupgrade.it/forum/customavatars/avatar110963_15.gif:confused: chi sei?
:p
cmq e sempre per chiarezza i 1088 Gflops citati nel sito lincato si otterrebbero con gli shader a 1512. quindi con il core a 648 sarebbe 2.33.
;)
quindi ancora nessuna conferma del rapporto 2.5..
michelgaetano
11-11-2008, 21:30
svolta vintage :asd: (e di sicuro non attira/scatena flame....spero :D)
OT se penso a quanto ci divertivamo con 1/1000000 di oggi....:cry: /OT
certo che era una battuta (perfidina, ovviamente :asd: ) solo che appunto non ci si riferiva alla quadro fx5800 :D
Spiega l'avatar a noi novizi :D
Quando ho letto fx 5800 per un attimo ho avuto paura anche io, però, scherzi e cavolate a parte, la scheda sembra interessante davvero in ottica gtx 290.
Poi per quanto inutile, mi piace un botto il dissi bianco :stordita:
devAngnew
12-11-2008, 09:32
Ulteriori conferme sulla versione prof. delle gtx 270/290.
http://www.dvhardware.net/article31192.html
ciao.
:D ;)
molochgrifone
12-11-2008, 09:47
Ulteriori conferme sulla versione prof. delle gtx 270/290.
http://www.dvhardware.net/article31192.html
ciao.
:D ;)
Sperem, ormai la 8800 GTX (MITICA) è l'unico componente hardware che non ho cambiato in quest'anno, mentre alcuni sono stati cambiati anche due volte :D
-noxius-
12-11-2008, 11:06
Ulteriori conferme sulla versione prof. delle gtx 270/290.
http://www.dvhardware.net/article31192.html
Theo Valich reports the new Quadro FX 4800 and 5800 workstation graphics cards from NVIDIA feature 55nm GT206/212 GPUs. These are the two GPUs that will soon power the GeForce GTX 270 and GeForce GTX 290, little is known about these cards but the specifications of the Quadro cards hint at a much lower power consumption.
G200-302 Rev A2 begun manufacturing back in September, and the first parts are now finding their way to mass manufacturing. The chip features a die size of 470mm2, 107mm2 less than the original G200 chip. This just goes to show the vast difference between 65nm and 55nm - if Nvidia had the balls to go with 55nm chip back in May, the prices of GTX260/280 parts could have been way cheaper and offer much more flexibility, but we can’t cry over spilt milk. 55nm part is here now, and it will consume much less power than is the case with the 65nm one.
The 55nm GPU consumes roughly 50% less power than it was the case with 65nm one, and this difference is more than massive. When I did quick power checks, the GTX280 at 650/1500/2200 would eat around 266W, while the default clocked GTX280 (600/1300/2200) was specc’ed at 238W.
Well, the 55nm GPU will eat around 170W at 650/1500/2200, meaning that GTX290 just got 100W of power to play with. If you’re into overclocking, you can now start dreaming about clocking those 240 shaders to 1.7-1.8 GHz range (perhaps even 2.0 if water-cooling setup is powerful enough), and achieve massive performance gains, all happening while you’re consuming less power than a stock clocked GTX280.
Questa sarebbe una notizia davvero eccezionale , invece su questo mi viene davvero da pensare perchè un aumento del 30% e passa (38% @1800MHz :eek: ) in overclock sugli shader non si è mai visto .
Se fossero linked con il core questa sarebbe la situazione (2.1) , mentre se non fossero linked (2.2 o poco più è il max consentito per avere un incremento proporzionale ,se non bandwidht limited) :
704-1518 -- 704-1554
720-1554 -- 720-1615
750-1615 -- 750-1660
790-1700 -- 790-1750
814-1750 -- 814-1800
835-1800 -- 835-1850
860-1860 -- 860-1900
890-1900 -- 890-1950
halduemilauno
12-11-2008, 11:09
Ulteriori conferme sulla versione prof. delle gtx 270/290.
http://www.dvhardware.net/article31192.html
ciao.
:D ;)
ecco l'articolo originale e completo...
UPDATE: 55nm GT206 GPU powers both GTX290 and Quadro FX 5800The honor of being the first product powered by 55nm G200-302 chip (a.k.a. GT206/212) went to Quadro FX 4800/5800, products that launched with a lot of fanfare earlier today.
Besides Quadro FX 4800 and 5800, the new 55nm GPU will also power GeForce GTX 270 and 290. Essentially, we’re talking about the same parts. Quadro FX 4800 is nothing more but GTX270 with double the amount of video memory, while Quadro FX 5800 is equal to GTX290, but with four times the video memory. ATI is not sleeping, as the company is preparing an RV790 part , beefed-up version of already existing RV770 chip.
G200-302 Rev A2 begun manufacturing back in September, and the first parts are now finding their way to mass manufacturing. The chip features a die size of 470mm2, 107mm2 less than the original G200 chip. This just goes to show the vast difference between 65nm and 55nm - if Nvidia had the balls to go with 55nm chip back in May, the prices of GTX260/280 parts could have been way cheaper and offer much more flexibility, but we can’t cry over spilt milk. 55nm part is here now, and it will consume much less power than is the case with the 65nm one.
The 55nm GPU consumes roughly 50% less power than it was the case with 65nm one, and this difference is more than massive. When I did quick power checks, the GTX280 at 650/1500/2200 would eat around 266W, while the default clocked GTX280 (600/1300/2200) was specc’ed at 238W.
Well, the 55nm GPU will eat around 170W at 650/1500/2200, meaning that GTX290 just got 100W of power to play with. If you’re into overclocking, you can now start dreaming about clocking those 240 shaders to 1.7-1.8 GHz range (perhaps even 2.0 if water-cooling setup is powerful enough), and achieve massive performance gains, all happening while you’re consuming less power than a stock clocked GTX280.
As far as the naming convention goes, Nvidia calls their chips NVxx (we’re at NV60 right now) or Gxx/Gxxx internally, and partners get the GT200-XXX name. But at the end of the day, the number that matters is the one on the chip.
GTX 260 and 280 both came with G200-200 and G200-300 chips, while GTX270 and 290 will feature G206-202 and G206-302 chips. Essentially, there is no difference between the two, sans the hardwired part that decides how many shaders a certain chip has. If you’re brave enough, you’ll pop the massive HIS and play around with resistors. Who knows, perhaps you can enable 240 shaders on GTX260/270… or maybe not.
In any case, we can’t wait for these new babies to show up. FX4800, FX5800, GTX270 and 290 are all coming to market very, very soon.
My personal take is that Nvidia will try to steal the limelight of official Core i7 launch on 11/17 and ship the GTX270/290 to reviewers, trying to tell them that they’re still on top. All hopes with ATI lie in the form of upcoming 4890. But still, Nvidia does not offer a compelling $199 experience and this is where ATI will take them to the cleaners.
Of course… unless you see a GTX260-216 at a completely new price point, and GTX270 costing just $50 more, dropping to $199 for Christmas. Crazy scenario, but competition brings the best for us, consumers.
UPDATE: Picture that accompanied the story did not feature GT206 chip, thus I removed it. The rest of the info is pretty valid.
http://theovalich.wordpress.com/2008/11/11/55nm-gt206-gpu-powers-both-gtx290-and-quadro-fx-5800/
presto, molto presto.
;)
Mister Tarpone
12-11-2008, 11:12
Questa sarebbe una notizia davvero eccezionale , invece su questo mi viene davvero da pensare [B+perchè un aumento del 30% e passa (38% @1800MHz :eek: ) in overclock sugli shader non si è mai visto .[/B]
:eek: incredibile/allucinante :eek: :eek:
-noxius-
12-11-2008, 11:15
Tarpo :Perfido:
Se fossero linked con il core questa sarebbe la situazione (2.1) , mentre se non fossero linked (2.2 o poco più è il max consentito per avere un incremento proporzionale ,se non bandwidht limited) :
704-1518 -- 704-1554
720-1554 -- 720-1615
750-1615 -- 750-1660
790-1700 -- 790-1750 (Già qui sarebbe interessante solo che se non saranno apportate migliorie sostanziali sarà dura)
814-1750 -- 814-1800
835-1800 -- 835-1850
860-1860 -- 860-1900
890-1900 -- 890-1950
Non oso immaginare con Vmod, però è una pratica che non sarebbe nemmeno da prendere in considerazione , pratica che sinceramente non mi piace nel modo più assoluto .
Skullcrusher
12-11-2008, 11:49
Molto interessante direi :eek:
nico88desmo
12-11-2008, 12:05
On his last week's Q3 conference call, Jensen said that their next generation chip that comes after 55nm is going to be a new architecture.
He didn’t really say how new and how revolutionary the new architecture will be but we can hope that it will get Nvidia back in the game. It was rather interesting to see that Jensen didn’t want to comment if that chip will be 40 nm based as they tend not to comment about non-announced products.
This is probably going to be the most important transition for Nvidia in its recent history as if they win the performance crown back, they will be fine, but if they fail ATI will grow to the next level.
The new chip comes in 2009 which is as much as we could get from Nvidia’s blurry statements.
Fonte: http://www.fudzilla.com/index.php?option=com_content&task=view&id=10421&Itemid=1
The_max_80
12-11-2008, 12:09
Molto interessante direi :eek:
ragazzi traducete :asd:
Duarante l'ultima settimana di conferenza del q3 jensen ha detto che la prossima generazione dopo quella a 55 nani sarà una nuova architettura. (gt206 a 55 nani)
Non ha detto quanto la nuova architettura sarà nuova e rivoluzionaria ma possia,o dire che nvidia ritornerà competitiva. Jensen non ha voluto dire se la nuova architettura sarà o meno a 40 nani...
questa potrebbe essere la piu importante transizione di nvidia: se ritorneranno competitivi sarà buono senno ati continuerà a crescere.
Il nuovo chip uscirà nel 2009.
condivido sto articolo comunque penso che nvidia già adesso ritroverà la corona con la nuova sua top di gamma e poi a 40 nani rifarà un g80 mentre ati un rv600 e quindi torneremo ai livelli di mercato di una volta
Mister Tarpone
12-11-2008, 12:23
.... però è una pratica che non sarebbe nemmeno da prendere in considerazione , pratica che sinceramente non mi piace nel modo più assoluto .
neanche a me ;)
Skullcrusher
12-11-2008, 12:45
condivido sto articolo comunque penso che nvidia già adesso ritroverà la corona con la nuova sua top di gamma e poi a 40 nani rifarà un g80 mentre ati un rv600 e quindi torneremo ai livelli di mercato di una volta
Sperando che esca qualcosa in fretta :)
Mister Tarpone
12-11-2008, 12:51
Sperando che esca qualcosa in fretta :)
ed invece no:) e quindi sarai costretto a giocare per tutta la vita con la GTS 512:)
:asd:
Skullcrusher
12-11-2008, 12:58
ed invece no:) e quindi sarai costretto a giocare per tutta la vita con la GTS 512:)
:nera:
Sono fiducioso :)
halduemilauno
12-11-2008, 13:08
ragazzi traducete :asd:
FX4800, FX5800, GTX270 and 290 are all coming to market very, very soon.
molto molto presto.
;)
Mister Tarpone
12-11-2008, 13:11
:nera:
Sono fiducioso :)
:asd:
dai che tanto esce :O non ti preoccupare :O
appleroof
12-11-2008, 13:36
On his last week's Q3 conference call, Jensen said that their next generation chip that comes after 55nm is going to be a new architecture.
He didn’t really say how new and how revolutionary the new architecture will be but we can hope that it will get Nvidia back in the game. It was rather interesting to see that Jensen didn’t want to comment if that chip will be 40 nm based as they tend not to comment about non-announced products.
This is probably going to be the most important transition for Nvidia in its recent history as if they win the performance crown back, they will be fine, but if they fail ATI will grow to the next level.
The new chip comes in 2009 which is as much as we could get from Nvidia’s blurry statements.
Fonte: http://www.fudzilla.com/index.php?option=com_content&task=view&id=10421&Itemid=1
ditemi quello che volete, ma io mi convinco sempre più ad aspettare le nuove dx11...
....a meno che le ultime dx10 non abbiano argomenti mooolto convincenti :D
Mister Tarpone
12-11-2008, 13:37
ditemi quello che volete, ma io mi convinco sempre più ad aspettare le nuove dx11...
idem
appleroof
12-11-2008, 13:38
idem
ho editato però ("fattore scimmia" :D :D)
Mister Tarpone
12-11-2008, 13:46
ho editato però ("fattore scimmia" :D :D)
OT:
guarda l'avatar :asd: :asd:
appleroof
12-11-2008, 13:52
OT:
guarda l'avatar :asd: :asd:
:D :D :D
;)
-noxius-
12-11-2008, 13:59
OT:
guarda l'avatar :asd: :asd:
:D :D :D
;)
Senza offesa ma sia a giudicare dal numero di messaggi che le risposte , vedo che qui lo spam regna sovrano ..
appleroof
12-11-2008, 14:27
The smaller memory frequency in Quadro FX 5800 do not play a big role here, and all efficiency achievements come from the new video chip, produced on 55 nm technology. Quadro FX 5800 is the first NVIDIA product on base of 55 nm GT206 chip .
Gaming video card on its base will also have a TDP not more than 190 W with equal frequencies. . Usually for professional video card NVIDIA select a safer frequencies values , and therefore the gaming analog Of quadro FX 5800 can get a higher frequencies.
http://xtreview.com/addcomment-id-6934-view-nvidia-quadro-fx-5800-first-55nm-gt206-cards.html
cmq la cosa che mi fà strano è da un lato che il debutto sia avvenuto su una vga da workstation piuttosto che desktop, e che i più importanti siti tacciano completamente al riguardo, insomma, non è proprio una notiziola da nulla lo shrink di g200...
cmq la cosa che mi fà strano è da un lato che il debutto sia avvenuto su una vga da workstation piuttosto che desktop, e che i più importanti siti tacciano completamente al riguardo, insomma, non è proprio una notiziola da nulla lo shrink di g200...
perchè secondo me nvidia fara delle vga talmente tanto performanti che spiazzeranno ati e quindi attende il momento piu opportuno per fare l'annuncio....
appleroof
12-11-2008, 17:44
perchè secondo me nvidia fara delle vga talmente tanto performanti che spiazzeranno ati e quindi attende il momento piu opportuno per fare l'annuncio....
mah...
mah...
OT/ non ti riconoscevo :eek: /OT
ciao ;)
perchè secondo me nvidia fara delle vga talmente tanto performanti che spiazzeranno ati e quindi attende il momento piu opportuno per fare l'annuncio....
oppure saranno così pacche che si vergognano ad annunciarle :D tutto può essere, aspettiamo e vediamo... in ogni caso ora che la mia 4870 ha cominciato a funzionare ho perso la necessità di cambiare scheda nell'immediato...
oppure saranno così pacche che si vergognano ad annunciarle :D tutto può essere, aspettiamo e vediamo... in ogni caso ora che la mia 4870 ha cominciato a funzionare ho perso la necessità di cambiare scheda nell'immediato...
no no fidati nvidia sfornerà un refresh davvero molto performante penso un buon 25% in piu rispetto a gt200 e per la gx2 un buon 70% rispetto alla gtx280 :eek:
Skullcrusher
12-11-2008, 17:59
no no fidati nvidia sfornerà un refresh davvero molto performante penso un buon 25% in piu rispetto a gt200 e per la gx2 un buon 70% rispetto alla gtx280 :eek:
Il problema è solo uno, sapere con certezza quando escono...:fagiano:
Il problema è solo uno, sapere con certezza quando escono...:fagiano:
massi attendi 10 gg suvvia....ma a livello d'architettura che cambia? piu sp e frequenze aumentate?
appleroof
12-11-2008, 18:07
OT/ non ti riconoscevo :eek: /OT
ciao ;)
:asd: ciao Dvd ;)
Il problema è solo uno, sapere con certezza quando escono...:fagiano:
oggi leggevo il 17 novembre, su un improbabile blog però :stordita:
comunque se è vero (perchè conferme ufficiali ancora non ne trovo) che le nuove quadro hanno il 55nm dovremmo essere ormai alle porte con le versioni desktop, insomma...
non so se può essere un motivo plausibile, ma se hanno montato il chip 55nm prima sulle quadro potrebbe essere perchè non ne hanno ancora a disposizione in volumi...e quindi tocca aspettare qualche tempo ancora (in questo caso non credo si facciano sfuggire il Natale cmq) :boh:
michelgaetano
12-11-2008, 18:24
no no fidati nvidia sfornerà un refresh davvero molto performante penso un buon 25% in piu rispetto a gt200 e per la gx2 un buon 70% rispetto alla gtx280 :eek:
Le spari a caso o hai quale fonte nascosta? Condividi! :sofico:
devAngnew
12-11-2008, 18:27
massi attendi 10 gg suvvia....ma a livello d'architettura che cambia? piu sp e frequenze aumentate?
Sicuramente aumenteranno i clock di core/shader per quanto riguarda l'aumento possibile di sp non si sà nulla (credo :stordita: ).
:asd: ciao Dvd ;)
oggi leggevo il 17 novembre, su un improbabile blog però :stordita:
Si ho letto anch'io una notizia simile e sembra che nvidia voglia presentare le nuove schede proprio il 17 novembre per "rubare" scena ad Intel e i suoi core i7.
ciao
:D ;)
Sicuramente aumenteranno i clock di core/shader per quanto riguarda l'aumento possibile di sp non si sà nulla (credo :stordita: ).
Si ho letto anch'io una notizia simile e sembra che nvidia voglia presentare le nuove schede proprio il 17 novembre per "rubare" scena ad Intel e i suoi core i7.
ciao
:D ;)
rubare la scena ad intel??? ma, politica sbagliatissima intel è un colosso e quando entrerà anche nel settore delle gpu saran ca@@i sia per amd sia per nvidia...
-noxius-
12-11-2008, 18:36
Le spari a caso o hai quale fonte nascosta? Condividi! :sofico:
Qualche gola profonda mi viene in mente , uno di quelli superinformati :asd:
appleroof
12-11-2008, 18:42
cut
Si ho letto anch'io una notizia simile e sembra che nvidia voglia presentare le nuove schede proprio il 17 novembre per "rubare" scena ad Intel e i suoi core i7.
ciao
:D ;)
si è proprio quella :)
devAngnew
12-11-2008, 21:37
Le spari a caso o hai qualche fonte nascosta? Condividi! :sofico:
Quoto in toto.:D :cool:
Quoto in toto.:D :cool:
era una gufata
michelgaetano
12-11-2008, 22:55
era una gufata
Attento che ti fan del male :asd:
coccus80
13-11-2008, 08:44
no no fidati nvidia sfornerà un refresh davvero molto performante penso un buon 25% in piu rispetto a gt200 e per la gx2 un buon 70% rispetto alla gtx280 :eek:
Da buon possessore e amante di nvidia spero proprio che sia cosi come dici tè, per far ritornare definitivamente come re del trono NVIDIA :O
-noxius-
13-11-2008, 08:53
Da buon possessore e amante di nvidia spero proprio che sia cosi come dici tè, per far ritornare definitivamente come re del trono NVIDIA :O
Già , se fosse il contrario ti cambierebbe la vita .. :rolleyes:
appleroof
13-11-2008, 15:39
On his last week's Q3 conference call, Jensen said that their next generation chip that comes after 55nm is going to be a new architecture.
( :what: )
He didn’t really say how new and how revolutionary the new architecture will be, but we can hope that it will get Nvidia back in the game. It was rather interesting to see that Jensen didn’t want to comment if that chip will be 40 nm-based, as they tend not to comment about non-announced products.
This is probably going to be the most important transition for Nvidia in its recent history, as if they win the performance crown back, they will be fine; but if they fail, ATI will grow to the next level.
The new chip comes in 2009, which is as much as we could get from Nvidia’s blurry statements.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10421&Itemid=1
appleroof
13-11-2008, 15:48
impareggiabile Fudzilla :asd: :asd: : lo stesso giorno dice questo:
Q3 was all about 65nm
Marvin Bucket, Nvidia’s Chief Financial Officer, said to the world that most of the chips sold by Nvidia in Q3 2008 were 65nm. Nvidia was late with this transition and even Jensen admitted that this transition didn’t go as smoothly as they planned, and he did that in front of the world audience.
Nvidia was late with transition to 55nm, but they ramped up production nicely and they are about to sell more 55nm-based products in Q4. We still believe that there is a 55nm GT200, which will launch shortly and possibly make Nvidia look a bit better in this market.
ATI did a full switch to 55nm and both companies are planning a move to 40nm in early 2009. Nvidia has some market share to recapture but it will be tough as ATI’s lineup for 2008 with Radeon 4000 looks really great.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10420&Itemid=65
coccus80
13-11-2008, 15:55
Già , se fosse il contrario ti cambierebbe la vita .. :rolleyes:
In che senso scusa? :mbe: , la vita di certo non me la cambierebbe bastasse cosi poco.. magari la tua si :)
-noxius-
13-11-2008, 16:22
In che senso scusa? :mbe: , la vita di certo non me la cambierebbe bastasse cosi poco.. magari la tua si :)
Lasciamo stare , forse è meglio .
ps: proprio a me lo vieni a dire ? Da novembre ho cambiato 7 schede video, 2 delle quali ati . I discorsi da fanboy del tipo ''spero che torni definitivamente l'uno ,o l'altro, a regnare nel mercato delle gpu'' sono molto utili , davvero .. Come se una persona fosse contenta di dover spendere un patrimonio per un prodotto che non vale nemmeno 1/3 del totale, a causa del monopolio .
Comunque sempre i soliti discorsi , qui si continua nella monotonia :rolleyes:
Cosa invece sarebbe ottimale ? <processo di fabbricazione , >rese produttive e schede ati poco più competitive di quanto lo sono state le rv770 , di modo che si potrà finalmente attuare un'ulteriore calo dei prezzi e livellamento verso l'alto per le prestaizoni della fascia media . AH no ,scusate .. Evviva i netburst ..
devAngnew
13-11-2008, 16:34
era una gufata
Attento che ti fan del male :asd:
Stò arrivando :huh: :asd:
Ps scherzo.
coccus80
13-11-2008, 17:24
Lasciamo stare , forse è meglio .
ps: proprio a me lo vieni a dire ? Da novembre ho cambiato 7 schede video, 2 delle quali ati . I discorsi da fanboy del tipo ''spero che torni definitivamente l'uno ,o l'altro, a regnare nel mercato delle gpu'' sono molto utili , davvero .. Come se una persona fosse contenta di dover spendere un patrimonio per un prodotto che non vale nemmeno 1/3 del totale, a causa del monopolio .
Comunque sempre i soliti discorsi , qui si continua nella monotonia :rolleyes:
Cosa invece sarebbe ottimale ? <processo di fabbricazione , >rese produttive e schede ati poco più competitive di quanto lo sono state le rv770 , di modo che si potrà finalmente attuare un'ulteriore calo dei prezzi e livellamento verso l'alto per le prestaizoni della fascia media . AH no ,scusate .. Evviva i netburst ..
Si lasciamo stare che è meglio per entrambi.
Concordo con il tuo discorso perchè è simile al mio modo di pensare, anche se il mercato di oggi specie il campo informatico è in continuo sviluppo ed è la realta vivente e non si puo' contrastare un fenomeno che corre cosi veloce e li mio discorso era dovuto solo al fatto di preferenze tra le due case tra nvidia o ati avendo anche io cambiato parecchie schede video.
Ciao.
michelgaetano
13-11-2008, 17:46
Si lasciamo stare che è meglio per entrambi.
Concordo con il tuo discorso perchè è simile al mio modo di pensare, anche se il mercato di oggi specie il campo informatico è in continuo sviluppo ed è la realta vivente e non si puo' contrastare un fenomeno che corre cosi veloce e li mio discorso era dovuto solo al fatto di preferenze tra le due case tra nvidia o ati avendo anche io cambiato parecchie schede video.
Ciao.
Un conto sono preferenze (anche giusto averne, se uno si è trovato bene con una casa), un altro è andare a sperare che una casa schiacci l'altra.
Per noi consumers le situazioni di concorrenza agguerrita, in cui le prestazioni sono vicine, sono le migliori.
Esatto le nostre tasche soprattutto!!! Pensa se il 18 di novembre ATI a sorpresa tirasse fuori una bella HD4950 :eek: a 300€ :ciapet:
Skullcrusher
13-11-2008, 17:57
Io penso che per ora vado di XFX GTX 260 Black Edition 216sp, come scheda transitoria, per natale mi basta, poi a marzo quando escono le nuove Nvidia e Ati vediamo cosa prendere :D
Per Fallout 3 e GTA4 penso basti la Black Edition ( me la fanno a prezzo moooolto di favore, altrimenti non la prenderei ). Vedo.
halduemilauno
13-11-2008, 17:59
Io penso che per ora vado di XFX GTX 260 Black Edition 216sp, come scheda transitoria, per natale mi basta, poi a marzo quando escono le nuove Nvidia e Ati vediamo cosa prendere :D
Per Fallout 3 e GTA4 penso basti la Black Edition ( me la fanno a prezzo moooolto di favore, altrimenti non la prenderei ). Vedo.
comlimenti ottimo ripiego.
;)
Io penso che per ora vado di XFX GTX 260 Black Edition 216sp, come scheda transitoria, per natale mi basta, poi a marzo quando escono le nuove Nvidia e Ati vediamo cosa prendere :D
Per Fallout 3 e GTA4 penso basti la Black Edition ( me la fanno a prezzo moooolto di favore, altrimenti non la prenderei ). Vedo.
Non è che di favori te ne fanno due vero?? :D
-noxius-
13-11-2008, 18:04
li mio discorso era dovuto solo al fatto di preferenze tra le due case tra nvidia o ati avendo anche io cambiato parecchie schede video.
Sotto questo punto di vista allora ti capisco, avevo inteso diversamente .
Ad ogni modo ci sarebbe anche da dire che la condotta di nvidia dal g92 ad ora è stata davvero pessima ; rimarchiare schede video , scelte di mercato finalizzate al consolidamento della posizione di mercato non offrendo nuove soluzioni e confondendo l'utenza generale , politiche dei prezzi assurde , etc,etc .
Capisco che debbano far cassa , ma il limone l'hanno già bello che spremuto ; ovviamente non gli basta . Io spero solo che ci sia una tremenda competizione , perchè così facendo nessuna azienda si azzarderà ad immettere prodotti che abbiano un pessimo rapporto qualità prezzo .
La politica di ati invece, al confronto ed ultimamente , è stata diametralmente opposta , però d'altra parte è stata una politica necessaria per riguadagnare market share, come ha fatto . Nessuno agisce per buona fede , però se non c'è concorrenza sono i prezzi che lievitano , di certo non le prestazioni ;) . Questo è il punto , e spero che questa volta nvidia non immetta nuove varianti , di nome , delle gt200 , magari con un incremento prestaizonale pari a versioni OC degli stessi vecchi modelli, come hanno già fatto per tutta la serie 9800 .
Ad ogni modo se davvero il 17 ci sarà questo annuncio con immediata disponibilità , cosa davvero remota solo a pensarla , di certo i prezzi non caleranno , almeno nel breve termine .
devAngnew
13-11-2008, 20:21
Io penso che per ora vado di XFX GTX 260 Black Edition 216sp, come scheda transitoria, per natale mi basta, poi a marzo quando escono le nuove Nvidia e Ati vediamo cosa prendere :D
Per Fallout 3 e GTA4 penso basti la Black Edition ( me la fanno a prezzo moooolto di favore, altrimenti non la prenderei ). Vedo.
Scusami ma non ti conviene aspettare un'altra settimana, è probabile che escano le 270/290 e visti gli ultimi sviluppi dovrebbero essere più performanti oltre che meno esose di watt.
ciao
Skullcrusher
13-11-2008, 20:23
Scusami ma non ti conviene aspettare un'altra settimana, è probabile che escano le 270/290 e visti gli ultimi sviluppi dovrebbero essere più performanti oltre che meno esose di watt.
ciao
La voglia di giocare a Fallout 3 come Dio comanda a volte mi fa perdere la lucidità :asd:
Una settimana però l'aspetto di certo, visto come sta evolvendo la situazione :D
appleroof
13-11-2008, 20:36
La voglia di giocare a Fallout 3 come Dio comanda a volte mi fa perdere la lucidità :asd:
Una settimana però l'aspetto di certo, visto come sta evolvendo la situazione :D
abbi pazienza ma gioco a quel gioco al massimo con aa e af a 1920x1200 senza un minimo problema...(per tale intendo 60fps fissi in interno, 45 di media in esterni...)
Mister Tarpone
13-11-2008, 20:46
abbi pazienza ma gioco a quel gioco al massimo con aa e af a 1920x1200 senza un minimo problema...(per tale intendo 60fps fissi in interno, 45 di media in esterni...)
quoto.. pure io con la mia schedozza con questo gioco ci gioco bene..... non c'è bisogno di avere la super schedona..
e sarà così pure per GTA4.... ;)
Mister Tarpone
13-11-2008, 20:51
La voglia di giocare a Fallout 3 come Dio comanda a volte mi fa perdere la lucidità :asd:
Una settimana però l'aspetto di certo, visto come sta evolvendo la situazione :D
secondo me l'hai già persa da tempo :asd:
scherzo ovviamente :ops:
:D
Leggete qua:
http://www.techpowerup.com/76167/AMD_to_Release_GPU_Acceleration_for_Applications_to_run_Faster_than_Ever.html
Come presumibile ATI prepara una contromossa, speriamo di raccoglierne i risultati.
Skullcrusher
14-11-2008, 07:26
abbi pazienza ma gioco a quel gioco al massimo con aa e af a 1920x1200 senza un minimo problema...(per tale intendo 60fps fissi in interno, 45 di media in esterni...)
A me va anche a 20/25fps in alcuni punti a Washington :muro: Se hai toccato qualcosa da ini mandami un pvt se puoi per favore. Alcune modifiche le ho fatte e qualcosa è migliorato, ma in alcuni tratti resta ingiocabile. Ricorda che vengo da 8800gtx -> 9800GX2 -> 4870X2, sono abituato bene per quanto riguarda gli fps :p
secondo me l'hai già persa da tempo :asd:
scherzo ovviamente :ops:
:D
Ah beh, poco ma sicuro :p
Comunque torniamo IT ;)
devAngnew
14-11-2008, 08:56
Novità sul futuro gt300 ecco il link http://videocardz.com/3514/geforce-350-gtx-specification/ ovviamente è tutto da confermare.
Secondo questo rumors gt300 avrebbe 480sp quindi il doppio di g200
ciao.2GB di Ram il core - 830 MHz, e gli shadera a 2075 MHz mentre la memoria di tipo DD5 andrebbe a 1680 (3360) MHz su bus a 512bit.
L'aumento preventivato rispetto a g200 sarebbe del 30%.
Bha se questo è GT300 non scala un gran che.Vedremo.
ciao
:D ;)
halduemilauno
14-11-2008, 09:03
Novità sul futuro gt300 ecco il link http://videocardz.com/3514/geforce-350-gtx-specification/ ovviamente è tutto da confermare.
Secondo questo rumors gt300 avrebbe 480sp quindi il doppio di g200
ciao.2GB di Ram il core - 830 MHz, e gli shadera a 2075 MHz mentre la memoria di tipo DD5 andrebbe a 1680 (3360) MHz su bus a 512bit.
L'aumento preventivato rispetto a g200 sarebbe del 30%.
Bha se questo è GT300 non scala un gran che.Vedremo.
ciao
:D ;)
il doppio degli shader, quelle frequenze e quella ram + 30%???? forse volevano dire +130%. cmq vecchi rumors gia strapostati.
;)
Opteron86
14-11-2008, 09:10
forse questo non è stato ancora postato-->link (http://theovalich.wordpress.com/2008/11/11/55nm-gt206-gpu-powers-both-gtx290-and-quadro-fx-5800/)
in caso contrario pardon..
halduemilauno
14-11-2008, 09:13
forse questo non è stato ancora postato-->link (http://theovalich.wordpress.com/2008/11/11/55nm-gt206-gpu-powers-both-gtx290-and-quadro-fx-5800/)
in caso contrario pardon..
ovviamente postato da me tre giorni fa.
;)
-noxius-
14-11-2008, 11:28
forse questo non è stato ancora postato-->link (http://theovalich.wordpress.com/2008/11/11/55nm-gt206-gpu-powers-both-gtx290-and-quadro-fx-5800/)
in caso contrario pardon..
G200-302 Rev A2 begun manufacturing back in September, and the first parts are now finding their way to mass manufacturing. The chip features a die size of 470mm2, 107mm2 less than the original G200 chip. This just goes to show the vast difference between 65nm and 55nm - if Nvidia had the balls to go with 55nm chip back in May, the prices of GTX260/280 parts could have been way cheaper and offer much more flexibility, but we can’t cry over spilt milk. 55nm part is here now, and it will consume much less power than is the case with the 65nm one.
The 55nm GPU consumes roughly 50% less power than it was the case with 65nm one, and this difference is more than massive. When I did quick power checks, the GTX280 at 650/1500/2200 would eat around 266W, while the default clocked GTX280 (600/1300/2200) was specc’ed at 238W.
Well, the 55nm GPU will eat around 170W at 650/1500/2200, meaning that GTX290 just got 100W of power to play with. If you’re into overclocking, you can now start dreaming about clocking those 240 shaders to 1.7-1.8 GHz range (perhaps even 2.0 if water-cooling setup is powerful enough), and achieve massive performance gains, all happening while you’re consuming less power than a stock clocked GTX280.
GTX280-65---648-1397 = RAPPORTO 2.15 (valore stock)
GTX28065OC-648-1495 = RAPPORTO 2.30 (quanto è possibile fare)
GTX290-55---648-1495 = RAPPORTO 2.30 (quanto riportato in quel link)
GTX290-55---648-1625 = RAPPORTO 2.50 (puramente ipotetico)
Queste sono le ultime notizie , il che significherebbe :
GTX260, 192sp, 65nm, 448bit, 896mb ram, rapporto shader-core 2.1
GTX270, 192sp, 55nm, 384bit, 768mb ram, rapporto shader-core non molto chiaro
http://www.breakpoint.it/i/mkg/Skp.asp?Id_Prod=45473&Tab=1
GTX280, 240sp, 65nm, 512bit, 1gbmb ram, rapporto shader-core 2.1
GTX290, 240sp, 55nm, 512bit, 1gbmb ram, rapporto shader-core non molto chiaro
The honor of being the first product powered by 55nm G200-302 chip (a.k.a. GT206/212) went to Quadro FX 4800/5800, products that launched with a lot of fanfare earlier today.
Besides Quadro FX 4800 and 5800, the new 55nm GPU will also power GeForce GTX 270 and 290. Essentially, we’re talking about the same parts. Quadro FX 4800 is nothing more but GTX270 with double the amount of video memory, while Quadro FX 5800 is equal to GTX290, but with four times the video memory. ATI is not sleeping, as the company is preparing an RV790 part , beefed-up version of already existing RV770 chip.
Mi sa tanto di G80-G92 ... Solo che questa volta la top di gamma andrà più della precedente data la possibilità di farla lavorare a maggiori frequenze , resta da quantificare però l'effettivo incremento ed a partità di clock la differenza dovrebbe essere INESISTENTE :rolleyes: . La cosa che desta perlessità però è come sia possibile che non abbiamo montato 216sp sulla 270 ; se fosse vera una cosa del genere, che l'abbiano fatto apposta per far uscire una 270@216sp successivamente ?
Si ricomincia con le nomenclature farlocche ..
alegiullare
14-11-2008, 11:42
ovviamente postato da me tre giorni fa.
;)
sempre un passo avanti agli altri :D
sei la punta di diamante delle news :ave:
Gabriyzf
14-11-2008, 12:04
GTX270, 192sp, 55nm, 384bit, 768mb ram, rapporto shader-core non molto chiaro
spero non sia vero :muro:
appleroof
14-11-2008, 12:08
A me va anche a 20/25fps in alcuni punti a Washington :muro: Se hai toccato qualcosa da ini mandami un pvt se puoi per favore. Alcune modifiche le ho fatte e qualcosa è migliorato, ma in alcuni tratti resta ingiocabile. Ricorda che vengo da 8800gtx -> 9800GX2 -> 4870X2, sono abituato bene per quanto riguarda gli fps :p
cut
non ho toccato nulla: ho settato tutto sul max possibile e via :D gioco pure con vga default...ovviamente non avrei interesse a dire cose non fondate per cui nel tuo caso non saprei...:boh: (forse è la maggiore v-ram, magari vedo se trovo dei test al riguardo)
p.s.: uso gli ultimi 180 beta per vista64...
scusate l'ot chiudo
Gabriyzf
14-11-2008, 12:12
spero non sia vero :muro:
altrimenti spero abbiano almeno la decenza di chiamarla 250
appleroof
14-11-2008, 12:24
altrimenti spero abbiano almeno la decenza di chiamarla 250
se avesse frequenze maggiori della 260-216sp, ci stà che andrebbe meglio di quest'ultima però...
il solito fudzilla2000:
Nvidia’s CEO, Jensen said it in the last Q3 conference call, Marvin Burkett the CFO confirmed it, and we still had to go out and try to find if the 55nm production process they mentioned was about G92b or GT200 55nm.
Well now, we can finally say that in Q4 Nvidia plans to ship many GT200 55nm CPUs and it looks like they will silently replace the old 65nm parts.
Most new GTX 260 with 216 Shaders and upcoming GTX 280 will be based on the new 55nm chips but it looks that Nvidia does have a plan to increase the speed on the new products. Retail products based on 55nm chips are yet to be ship but we expect them in early December.
We believe that the new SKUs should overclock much better than the previous ones and with the current prices, they will certainly put a lot of pressure on Radeon HD 4870 X2 and HD 4870 and it looks that Nvidia is not finished yet. What started as an insanely slow Q4 for every market segment is turning in a rather interesting finish.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10473&Itemid=1
appleroof
14-11-2008, 12:37
lo posto qui perchè forse ha attinenza:
With AMD making gains in the discrete graphics card market – rising to around 40% in third-quarter 2008 according to a recent report from Jon Peddie Research (JPR) – Nvidia is planning to cut its graphics card prices in an attempt to curb further loss of market share, according to sources at graphics card makers.
AMD anticipates taking 50% of the market after reducing prices for its ATI Radeon HD 4000 series products, but to counter Nvidia has also made moves to cut prices for its GeForce GTX 200, 9800 GT and 9600 GT series.
http://www.digitimes.com/news/a20081114PD208.html
dico forse ha attinenza perchè il taglio dei prezzi potrebbe coincidere appunto con l'introduzione dei 55nm che permeterebbe un taglio più "indolore" all'azienda...ovviamente solo mie ipotesi
Sergio_Di_Rio
14-11-2008, 12:39
Mi sa tanto di G80-G92 ... Solo che questa volta la top di gamma andrà più della precedente data la possibilità di farla lavorare a maggiori frequenze , resta da quantificare però l'effettivo incremento ed a partità di clock la differenza dovrebbe essere INESISTENTE :rolleyes: . La cosa che desta perlessità però è come sia possibile che non abbiamo montato 216sp sulla 270 ; se fosse vera una cosa del genere, che l'abbiano fatto apposta per far uscire una 270@216sp successivamente ?
Si ricomincia con le nomenclature farlocche ..
Già, un die-shrink può portare solamente frequenze operative più elevate (grazie alle quali si avranno dei benefici in termini di prestazioni) e minori consumi. A parità di frequenze (core, shader e memorie) non potranno sicuramente esserci benefici in termini di prestazioni. Scenario già visto..ricordi? :rolleyes:
Inoltre dubito FORTEMENTE che la 270 avrà "solo" 192SP.
appleroof
14-11-2008, 12:45
Già, un die-shrink può portare solamente frequenze operative più elevate (grazie alle quali si avranno dei benefici in termini di prestazioni) e minori consumi. A parità di frequenze (core, shader e memorie) non potranno sicuramente esserci benefici in termini di prestazioni. Scenario già visto..ricordi? :rolleyes:
Inoltre dubito FORTEMENTE che la 270 avrà "solo" 192SP.
ma perchè, con una gtx260@65nm già con 192sp non giochi a tutto senza problemi?
E allora se l'avessi che consuma di meno e magari costa di meno all'acquisto (tutto come giustamente dici grazie ai 55nm) e ci mettiamo pure dei margini di oc migliori (già l'attuale gtx 192sp se occata arriva quasi alla gtx280!), ti farebbe schifo tutto ciò?
A me assolutamente no :read: :D
teniamo sempre presente che proprio g92 ha permesso l'introduzione di vga a prezzi molto più favorevoli e dalle prestazioni comunque ottime: uno shrink in genere si è "limitato", si fà per dire, a questo, per salti prestazionali evidenti ci vogliono chip nuovi....tenendo appunto presente questo (almeno finora è sempre stato così e non vedo come potrebbe cambiare) ci si mette al riparo da possibili piccole o grandi delusioni, imho...
vediamo
Skullcrusher
14-11-2008, 12:46
se avesse frequenze maggiori della 260-216sp, ci stà che andrebbe meglio di quest'ultima però...
il solito fudzilla2000:
Nvidia’s CEO, Jensen said it in the last Q3 conference call, Marvin Burkett the CFO confirmed it, and we still had to go out and try to find if the 55nm production process they mentioned was about G92b or GT200 55nm.
Well now, we can finally say that in Q4 Nvidia plans to ship many GT200 55nm CPUs and it looks like they will silently replace the old 65nm parts.
Most new GTX 260 with 216 Shaders and upcoming GTX 280 will be based on the new 55nm chips but it looks that Nvidia does have a plan to increase the speed on the new products. Retail products based on 55nm chips are yet to be ship but we expect them in early December.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10473&Itemid=1
Quindi dicembre e non novembre :muro:
appleroof
14-11-2008, 12:49
Quindi dicembre e non novembre :muro:
tieni sempre presente che è fudzilla :D :D io lo posto più per "cronaca" che per altro, e poi perchè sparando nel mucchio ogni tanto ci azzecca...tocca aspettare :D
cmq c'è sempre il jolly dell'attuale gtx260 216sp...se il taglio di prezzi ventilato da digitimes (ben altra credibilità rispetto a fudzilla2000) è in correlazione alle 55nm bene, ma se si riferisce alle attuali, come ho detto a me non dispiacerebbe cmq affatto... :)
Gabriyzf
14-11-2008, 13:05
anche con frequenze più alte, non credo che possa recuperare con 192 sp e bus a 384 bit (oltretutto con meno memoria)
appleroof
14-11-2008, 13:22
anche con frequenze più alte, non credo che possa recuperare con 192 sp e bus a 384 bit (oltretutto con meno memoria)
in effetti non hai tutti i torti anzi, ma quello credo peserebbe più in full-hd che a risoluzioni "normali" (vedi la 88gtx/88gts 512) ma sempre in prospettiva, visto che per ora appunto la mia in full-hd viaggia ancora alla grande anche con filtri abilitati (l'aa non sempre)....
Gabriyzf
14-11-2008, 13:25
e poi sarebbero magari capaci di fare costare di più la 270 che la 260 216 perchè il nome è dieci in più :sofico:
halduemilauno
14-11-2008, 13:49
Quindi dicembre e non novembre :muro:
AFAIK forse 1/2 settimane di ritardo rispetto al 18 novembre. forse. e gtx270 a 216 shader con frequenze superiori alle attuali. ovviamente lo stesso per la gtx290 rispetto alla gtx280.
;)
Gabriyzf
14-11-2008, 13:52
e gtx270 a 216 shader con frequenze superiori alle attuali
speriamo davvero
halduemilauno
14-11-2008, 13:52
e cmq per quanto riguarda il pp a 55nm ci sono gia transitate le varie 9800gt, 9600gt e la sostituta della 9600gso. in quanto alla 9800gtx+ essa è stata la prima a 55nm.
;)
forse questo non è stato ancora postato-->link (http://theovalich.wordpress.com/2008/11/11/55nm-gt206-gpu-powers-both-gtx290-and-quadro-fx-5800/)
in caso contrario pardon..
GRAZIE.
hai fatto benissimo a postarlo.
anche se fosse gia stato postato non tutti possono leggersi 60 pagine di thread con molta fuffa tra l'altro dato che è un "aspettando".
Skullcrusher
14-11-2008, 14:16
AFAIK forse 1/2 settimane di ritardo rispetto al 18 novembre. forse. e gtx270 a 216 shader con frequenze superiori alle attuali. ovviamente lo stesso per la gtx290 rispetto alla gtx280.
;)
Ottimo, ottimo, ottimo :D
Allora aspetto, deciso :)
molochgrifone
14-11-2008, 14:53
Ottimo, ottimo, ottimo :D
Allora aspetto, deciso :)
Quoto :D
Ri-quoto :D
-noxius-
14-11-2008, 15:24
altrimenti spero abbiano almeno la decenza di chiamarla 250
Con frequenze maggiori sugli shader sarebbe come una 9800gtx contro una 8800gtx , con le conseguenze del caso ovvero che la ''vecchia'' 260 avrebbe un bandwidht maggiore e poca più ram . Se dovessero costare di meno delle attuali schede nonsarebbero cattive soluzioni , però a quanto sembra costeranno 50$ di più .
Bisogna sperare che questa 4890 esista davvero , perchè allora le 216 scenderebbero sui 220 euro , le 270 sui 240 , le 280 sui 280 (quanto costavano in america non molto tempo fa) e le 290 sui 320 . Tutto sommato così facendo sarebbe pure accettabile , ma il mio credo che sia un discorso utopistico .
Ad ogni modo il prezzo delle 280 è davvero troppo elevato e si vociferava un taglio dei prezzi ; se dovesse avvenire , inevitabilmente ci sarà un livellamento generale verso il basso .
Parola chiave : 4890 .
With AMD making gains in the discrete graphics card market – rising to around 40% in third-quarter 2008 according to a recent report from Jon Peddie Research (JPR) – Nvidia is planning to cut its graphics card prices in an attempt to curb further loss of market share, according to sources at graphics card makers.
AMD anticipates taking 50% of the market after reducing prices for its ATI Radeon HD 4000 series products, but to counter Nvidia has also made moves to cut prices for its GeForce GTX 200, 9800 GT and 9600 GT series.
Ecco , se fosse vera una cosa del genere (volontà da parte di ati di ridurre i prezzi) , allora ci sarà quest'altro
Gabriyzf
14-11-2008, 15:29
Parola chiave : 4890 .
W la concorrenza
-noxius-
14-11-2008, 15:31
Già, un die-shrink può portare solamente frequenze operative più elevate (grazie alle quali si avranno dei benefici in termini di prestazioni) e minori consumi. A parità di frequenze (core, shader e memorie) non potranno sicuramente esserci benefici in termini di prestazioni. Scenario già visto..ricordi? :rolleyes:
Inoltre dubito FORTEMENTE che la 270 avrà "solo" 192SP.
Certo che ricordo :muro: (mai generazione fù più inutile della 9800 per i consumator * ) .. Per i 192sp in quel link hanno detto che le 4800 sono le 270 da workstation, e le 4800 hanno 192sp http://www.breakpoint.it/i/mkg/Skp.asp?Id_Prod=45473&Tab=1 :(
* : le 880gt rev3 costavano meno rispetto alle 9800gt pur essendo schede IDENTICHE , idem dicasi per le 8800gts 512 contro le 9800gtx (G92 contro G92 ) . La verità secondo me ? Che le 8800gt e derivati non le hanno chiamate 9800 per far cassa ed al tempo stesso continuare a far vendere le gts 640 , aventi un quantitativo di ram MAGGIORE (e lasciamo perdere ...) . Sarò io che ci vedo un comportamento non troppo limpido , mah .. :rolleyes:
Sergio_Di_Rio
14-11-2008, 16:50
ma perchè, con una gtx260@65nm già con 192sp non giochi a tutto senza problemi? Mah, se è per questo, al momento, anche con una "vetusta" 8800gtx giochi a tutto senza problemi. Ciò non toglie che una 270 con 192sp mi lascerebbe molto perplesso. Attenzione, non sto dicendo che sarà così, esprimo solo una mia perplessità.
E allora se l'avessi che consuma di meno e magari costa di meno all'acquisto (tutto come giustamente dici grazie ai 55nm) e ci mettiamo pure dei margini di oc migliori (già l'attuale gtx 192sp se occata arriva quasi alla gtx280!), ti farebbe schifo tutto ciò?
A me assolutamente no :read: :D
Io non l'ho detto! Questa è una tua elucubrazione! ;)
Ciao
halduemilauno
14-11-2008, 17:11
altrimenti spero abbiano almeno la decenza di chiamarla 250
ma che centra la 4800 in tutto questo??? quella ha 192 shader perchè quando è uscita c'era la gtx260 a 192 shader non c'era ancora la 216. ripeto che centra ora con quello che stiamo discutendo qui????
:boh:
molochgrifone
14-11-2008, 17:43
Secondo me non avrebbe senso una 270 come è stata prospettata in alcuni post (meno ram, meno sp, bus minore), sarebbe un autogol da parte di nVidia... Ai tempi della 9800 non c'era concorrenza, ora invece c'è (e bella tosta) quindi imho nVidia non può fare errori troppo grossi.
Mister Tarpone
14-11-2008, 17:47
ma perchè, con una gtx260@65nm già con 192sp non giochi a tutto senza problemi?
E allora se l'avessi che consuma di meno e magari costa di meno all'acquisto (tutto come giustamente dici grazie ai 55nm) e ci mettiamo pure dei margini di oc migliori (già l'attuale gtx 192sp se occata arriva quasi alla gtx280!), ti farebbe schifo tutto ciò?
A me assolutamente no :read: :D
teniamo sempre presente che proprio g92 ha permesso l'introduzione di vga a prezzi molto più favorevoli e dalle prestazioni comunque ottime: uno shrink in genere si è "limitato", si fà per dire, a questo, per salti prestazionali evidenti ci vogliono chip nuovi....tenendo appunto presente questo (almeno finora è sempre stato così e non vedo come potrebbe cambiare) ci si mette al riparo da possibili piccole o grandi delusioni, imho...
vediamo
concordo con apple.... ;)
Gabriyzf
14-11-2008, 18:12
ma che centra la 4800 in tutto questo??? quella ha 192 shader perchè quando è uscita c'era la gtx260 a 192 shader non c'era ancora la 216. ripeto che centra ora con quello che stiamo discutendo qui????
:boh:
la 4800 non c'entra, si discuteva sul fatto che la 270 potesse essere inferiore non solo alla 260 216 ma anche alla 260 192, se avesse bus a 384 bit.
Comunque se anche ati facesse un facelift alla 4800, magari tagliando sui prezzi, anche nvidia sarebbe costretta a dare prestazioni con prezzi competitivi.
devAngnew
14-11-2008, 18:13
ma perchè, con una gtx260@65nm già con 192sp non giochi a tutto senza problemi?
E allora se l'avessi che consuma di meno e magari costa di meno all'acquisto (tutto come giustamente dici grazie ai 55nm) e ci mettiamo pure dei margini di oc migliori (già l'attuale gtx 192sp se occata arriva quasi alla gtx280!), ti farebbe schifo tutto ciò?
A me assolutamente no :read: :D
teniamo sempre presente che proprio g92 ha permesso l'introduzione di vga a prezzi molto più favorevoli e dalle prestazioni comunque ottime: uno shrink in genere si è "limitato", si fà per dire, a questo, per salti prestazionali evidenti ci vogliono chip nuovi....tenendo appunto presente questo (almeno finora è sempre stato così e non vedo come potrebbe cambiare) ci si mette al riparo da possibili piccole o grandi delusioni, imho...
vediamo
Quoto anche io e aggiungo che forse nvidia può aver fatto la scelta di diminuire le ram per meglio differenziare le fascie di appartenenza di delle future 270/290 che come abbiamo visto di recente le 260 216 OC in diversi ambiti (escudendo le risoluzione altissime) vanno praticamente uguali ad una 280 ma costano di meno. Ovviamente imho.
ciao.
:D
-noxius-
14-11-2008, 18:24
Secondo me non avrebbe senso una 270 come è stata prospettata in alcuni post (meno ram, meno sp, bus minore), sarebbe un autogol da parte di nVidia... Ai tempi della 9800 non c'era concorrenza, ora invece c'è (e bella tosta) quindi imho nVidia non può fare errori troppo grossi.
Attenzione . Io ho semplicemente ampliato ciò che è stato riportato da quel sito specifico , mi sembra evidente che di notizie CONFERMATE qui non ce ne sia nemmeno una ;) .
Ad ogni modo , pure se fosse una soluzione del genere , con gli shader a 2.5 andrebbe certamente più veloce della gtx260 216 @ 2.1 . Solo che ovviamente nemmeno questo è stato confermato e quindi si discute solo ed esclusivamente sulle notizie in giro per la rete , farlocche o plausibili che siano . L'unica cosa certa è che se davvero dovesse uscire questa 4890, ricomincierà una seria battaglia dei prezzi, con il conseguente livellamento verso il basso ;) .
Un conto è discutere su notizie più o meno fondate, un'altro conto è prendere quelle notizie per oro colato :Perfido:
concordo con apple.... ;)
concordo pure io! :O
E aggiungo che la tua firma è fantastica, so a chi si riferisce e la straquoto!! :asd:
halduemilauno
15-11-2008, 00:01
Nvidia GT206 50% effizienter als GT200
Bereits vor wenigen Tagen haben wir anhand der ersten technischen Spezifikationen der in 55 nm-gefertigten Quadro-Karten auf die Effizienz des GT206 geschlussfolgert und sind dabei zum Ergebnis gekommen, dass der Refresh wahrscheinlich deutlich effizienter sein wird. Bestätigen tut dies nun auch Theo Valich auf seinem Blog.
Der ehemalige Inquirer-Redakteur, der inzwischen bei TG-Daily sein Brot verdient, lässt durchblicken, dass der GT206 mehr als 50 Prozent effizienter arbeitet als der GT200.
Valich macht dies an folgendem Beispiel fest:
Zu Testzwecken hat er die GT200-basierende GTX 280 von ihren standardmäßigen 600/1300/1100 MHz auf 650/1500/1100 MHz gehievt - wahrscheinlich die Taktraten der GTX 290. Dabei stieg der maximale Verbrauchswert von 236 auf 266 Watt an.
Im selben Atemzug verglich er die taktgleiche, GT206-basierende GTX 290 und maß für diese rund 170 Watt. Das sind 100 Watt bzw. 56 Prozent weniger!
Auch er ist überrascht über den Fortschritt des einfachen Die-Shrinks und vermutet daher tiefgreifende Änderungen im Chip, die vielleicht auch die relativ lange Entwicklungsdauer erklären würden. Jedenfalls kann nach seiner Ansicht nun von Shadertaktraten von bis zu 1,8 GHz geträumt werden - mit Wasserkühlung könnten sogar 2,0 GHz möglich sein.
Interessant ist an dieser Stelle noch, dass Valich die GTX 290 als baugleiches Produkt der Quadro FX 5800 darstellt und die GTX 270 als baugleiches Produkt der Quadro FX 4800. Zu ersterer sind inzwischen die Spezifikationen weitesgehend gelüftet bzw. weiß man, dass diese mit 650 MHz beim Chip betrieben wird und mit 189 Watt TDP spezifiziert ist. Dies erhärtet den Verdacht, dass die GTX 290 tatsächlich mit 650/1500/1100 MHz auflaufen wird.
Spezifikationen zur Quadro FX 4800 liegen dagegen noch keine vor und damit ebenso wenig zur GTX 270.
Valich vermutet, dass es AMD schwer haben wird, gegen den GT206 zu bestehen und schreibt, dass all' deren Hoffnungen im RV790 lägen, den er in seinem Bericht als HD 4890 bezeichnet.
Es bahnt sich vor dem Fest der Liebe noch einmal ein Showdown zwischen den zwei Großen im Grafikbusiness an!
http://www.hardware-infos.com/news.php?news=2514
;)
ce lo traduci hal per favore :asd:
effizienter che vuol dire? efficente? ovvero che cosnuma il 50% in meno rispetto alla precedente generazione?
-noxius-
15-11-2008, 01:36
Quella notizia è un semplice riassunto di quelle precedenti , non dice nulla di nuovo .
halduemilauno
15-11-2008, 07:32
http://www.presence-pc.com/actualite/NVIDIA-GeForce-GTX-280-260-32346/
NVIDIA arrivePlusieurs sources indiqueraient que NVIDIA sortirait de nouvelles GeForce GTX 260 et GTX 280 gravées en 55 nm durant ce trimestre.
Décembre pour nous surprendre ?
Selon nos confrères de Fudzilla, NVIDIA devrait lancer ces nouvelles cartes graphiques avant Noël et tenter ainsi de faire de l’ombre aux offres ATI. Le Caméleon devrait simplement remplacer les nouveaux modèles sans changement de nom, mais en changeant les fréquences. Les nouvelles cartes devraient être disponibles début décembre.
Recul
Nous émettons néanmoins quelques doutes. Si NVIDIA sort réellement de nouvelles puces gravée plus finement, ce qui semble être confirmé par la firme elle-même (cf. « Le 55 nm et au-delà chez NVIDIA »), on peut s’imaginer qu’elle le fasse en grande pompe au lieu d’u silence mystérieux. Un die shrink pourrait être une raison de faire parler de lui et nous doutons que NVIDIA s’en prive. Une chose semble néanmoins se confirmer, si ATI a dit son dernier mot pour 2008 (cf. « Radeon 4850 X2 : dernière carte de l’année »), NVIDIA ne semble pas avoir fini.
inizio(2?)dicembre.
;)
halduemilauno
15-11-2008, 07:44
ce lo traduci hal per favore :asd:
effizienter che vuol dire? efficente? ovvero che cosnuma il 50% in meno rispetto alla precedente generazione?
assodato che stai qui per gufare lo traduco per tutti gli altri.
a 648/1512(arrotondati a 650/1500)il gt200(gtx280)consuma 266watt(a default 236watt)mentre alle stesse frequenze il gt206 ne consuma 170 di watt.
Skullcrusher
15-11-2008, 08:08
Magari uscisse il 2 dicembre, sarebbe la data perfetta ( il 3 esce GTA4 :asd: ), restiamo in attesa.
Ma secondo voi è davvero possibile una riduzione dei consumi così marcata? Il passaggio ai 55nm per la 9800GTX non ha apportati significative differenze, cos'avrebbero fatto di diverso stavolta per ridurre così tanto i consumi? :confused:
assodato che stai qui per gufare lo traduco per tutti gli altri.
a 648/1512(arrotondati a 650/1500)il gt200(gtx280)consuma 266watt(a default 236watt)mentre alle stesse frequenze il gt206 ne consuma 170 di watt.
ma dai hal stavo scherzando......non prendertela comunque la riduzione dei consumi è veramente notevole
Magari uscisse il 2 dicembre, sarebbe la data perfetta ( il 3 esce GTA4 :asd: ), restiamo in attesa.
Ma secondo voi è davvero possibile una riduzione dei consumi così marcata? Il passaggio ai 55nm per la 9800GTX non ha apportati significative differenze, cos'avrebbero fatto di diverso stavolta per ridurre così tanto i consumi? :confused:
ma prenditi la gtx260 216 e via.....poi ti prenderei gt216.....
Skullcrusher
15-11-2008, 08:57
ma prenditi la gtx260 216 e via.....poi ti prenderei gt216.....
:asd:
Volevo, ma poi quand'è ora di rivenderla tutti vogliono la 270, quindi aspetto le nuove :)
halduemilauno
15-11-2008, 09:30
ma dai hal stavo scherzando......non prendertela comunque la riduzione dei consumi è veramente notevole
ma prenditi la gtx260 216 e via.....poi ti prenderei gt216.....
io non me la sono presa(per carità)e tu non stavi scherzando(leggo quello che dici negli altri thread). argomento chiuso.
io non me la sono presa(per carità)e tu non stavi scherzando(leggo quello che dici negli altri thread). argomento chiuso.
ma che vuoi che scrivo scusa? che la prossima vga sarà di sicuro una nvidia? che vorrei una nvidia ma non ora ma attendo le dx11? e poi è interesse di tutti coloro che hanno vga nuove con gt200 e rv770 che ste vga non vadano troppo forte se no si svaluterebbero assai di prezzo.....
comunque dal punto di vista dei consumi ste gt206 saranno imbattibili...
-noxius-
15-11-2008, 09:42
io non me la sono presa(per carità)e tu non stavi scherzando(leggo quello che dici negli altri thread). argomento chiuso.
Poverino .. Okorop, gli hai appena toccato mamma invidia :friend:
ps: avrà la coda di paglia , evidentemente gli hai risvegliato dei brutti ricordi (o scheletri nell'armadio se vogliamo :asd: )
cut
GTX270, 192sp, 55nm, 384bit, 768mb ram, rapporto shader-core non molto chiaro
cut ..
Come dissero i pinguini di madagascar una volta arrivati in antardide....
....ma che schifo!! :doh:
Come dissero i pinguini di madagascar una volta arrivati in antardide....
....ma che schifo!! :doh:
se sarà così la gtx270 la metteranno al prezzo della 4870 512mb e avrà delle prestazioni superiori......
-noxius-
15-11-2008, 10:00
Come dissero i pinguini di madagascar una volta arrivati in antardide....
....ma che schifo!! :doh:
Ammesso che sia così , ammesso e concesso stando a quanto riportato da quel sito , sicuramente gli alzeranno le frequenze di lavoro degli shader, e pure di parecchio . Già mi sembrano strani dei valori del genere (però abbassarebbero i costi di produzione e guardacaso anche i consumi , sbaglio ?) però sarebbe quantomeno scellerata una mossa del genere senza un aumeno del rapporto shader-core a 2.5 .
Una scheda del genere se avesse le frequenze di lavoro degli shader overcloccabbili verso i 1700MHz sarebbe davvero eccellente sino a 1680x1050 con aa .
Sarebbero inverosimili anche i 192sp però non mi stupirei se fossero intenzionati a fare un ri-refresh a febbraio con una 270 avente 216sp , dato che è molto probabile che la nuova generazione uscirà verso maggio-giugno prossimo .
Secondo voi , con tutte le scorte di gt200 a 65nm e con tutta la gamma a 55nm che uscirà fra poco , faranno uscire la nuova generazione entro febbraio-marzo 09 ? Ma stiamo scherzando ? ;)
se sarà così la gtx270 la metteranno al prezzo della 4870 512mb e avrà delle prestazioni superiori......
Già la 192sp è un pelo superiore alla 4870, specialmente in OC , quindi sicuramente DOVRà essere superiore alla rv770XT , per forza di cose ..
Ammesso che sia così , ammesso e concesso stando a quanto riportato da quel sito , sicuramente gli alzeranno le frequenze di lavoro degli shader, e pure di parecchio . Già mi sembrano strani dei valori del genere (però abbassarebbero i costi di produzione e guardacaso anche i consumi , sbaglio ?) però sarebbe quantomeno scellerata una mossa del genere senza un aumeno del rapporto shader-core a 2.5 .
Una scheda del genere se avesse le frequenze di lavoro degli shader overcloccabbili verso i 1700MHz sarebbe davvero eccellente sino a 1680x1050 con aa .
Sarebbero inverosimili anche i 192sp però non mi stupirei se fossero intenzionati a fare un ri-refresh a febbraio con una 270 avente 216sp , dato che è molto probabile che la nuova generazione uscirà verso maggio-giugno prossimo .
Secondo voi , con tutte le scorte di gt200 a 65nm e con tutta la gamma a 55nm che uscirà fra poco , faranno uscire la nuova generazione entro febbraio-marzo 09 ? Ma stiamo scherzando ? ;)
Già la 192sp è un pelo superiore alla 4870, specialmente in OC
gt216 a febbraio e poi gt300 a giugno :asd:
Già la 192sp è un pelo superiore alla 4870, specialmente in OC , quindi sicuramente DOVRà essere superiore alla rv770XT , per forza di cose ..
ho detto allo stesso prezzo e sarà superiore considerando che il bus viene diminuito....in sto giro nvidia vuole riprendere margini di guadagno.....
-noxius-
15-11-2008, 10:05
Scusami ..
la 206 sarebbe questa a 55nm ..
la 212 sarebbe la nuova gx2 basata sulla 206
la 216 .. una versione ultra ? Io non ho sentito nulla al riguardo e sinceramente l'introduzione di un ulteriore modello rimanderebbe quello della generazione successiva , ricordiamoci che ci sono le 870 ''alle porte'' , ovvero anch'esse verso fine Q1 09 . Hai detto bene , devono opuntare ai ricavi , ma come è possibile una cosa del genere se immetto 10.000 tipologie di schede video nel mercato , ne vendo una parte e passo alla generazione successiva dopo poco tempo ? Stai tranquillo che se ci hanno rifilato le 8800 e varianti per 2 anni, questa volta di certo non si affretteranno oltre il necessario ;)
Scusami ..
la 206 sarebbe questa a 55nm ..
la 212 sarebbe la nuova gx2 basata sulla 206
la 216 .. una versione ultra ? Io non ho sentito nulla al riguardo e sinceramente l'introduzione di un ulteriore modello rimanderebbe quello della generazione successiva , ricordiamoci che ci sono le 870 ''alle porte'' ;)
le 870 le danno per giugno ci sarà solo un refresh di rv780 penso a 40 nani....
comunque le 206 son queste
la 212 magari esce adesso magari piu avanti non si sa
la 216 esce a febbraio
gt 300 a 40nm uscirà molto piu in la visto che nvidia dovrebbe raggiungere i 40 nani dopo amd....
Foglia Morta
15-11-2008, 10:09
Ammesso che sia così , ammesso e concesso stando a quanto riportato da quel sito , sicuramente gli alzeranno le frequenze di lavoro degli shader, e pure di parecchio . Già mi sembrano strani dei valori del genere (però abbassarebbero i costi di produzione e guardacaso anche i consumi , sbaglio ?) però sarebbe quantomeno scellerata una mossa del genere senza un aumeno del rapporto shader-core a 2.5 .
Da molti post stai insistendo su una cosa priva di senso suggerita da hal mesi fa... il rapporto di frequenza shader-core a 2.5 non è importante perchè pare che il collo di bottiglia non sia lo shader core.
-noxius-
15-11-2008, 10:10
Quindi è la 216 a febbraio , non la 212 (già non ci si capisce più una mazza, figuriamoci dopo :asd: ) .. Ma si è capito in cosa consiste ? GDDR5 ?
-noxius-
15-11-2008, 10:11
Da molti post stai insistendo su una cosa priva di senso suggerita da hal mesi fa... il rapporto di frequenza shader-core a 2.5 non è importante perchè pare che il collo di bottiglia non sia lo shader core.
Scusami , e quale sarebbe ? Non so te , con tutto il rispetto, ma io una gt200 l'ho posseduta, ed il collo di bottiglia è proprio quello . Basta guardare le 8800gts 640 con 96sp e le 8800gt con 112sp ; gli sp contano , ma fino ad un certo punto ed alle basse risoluzioni sono fondamentali le frequenze di lavoro (per le alte impostazioni basta guardare l'esempio 8800gtx-9800gtx) . Un esempio perfetto è il G92 con 128sp con shader a 2100MHz , che raggiunge tranquillamente una gtx260 sui 600MHz a 1280x1024 con il cryengine 2 , avente shader molto più bassi di frequenza ma con 192sp . (oppure basta guardare la 9600gt contro la 8800gt, avente quasi il doppio di sp della prima ).
Ad esempio , con la 260 il core è arrivato anche a 756MHz , da 576 , però gli shader ,da 1200MHz , sono arrivati al massimo a 1450-1519MHz e non in perfetta stabilità dato che la % di rotazione della ventola era al massimo . Il bandwidht di certo non era, dato che aveva ben 130 e passa GB/sec mentre guardacaso le frequenze di lavoro degli shader erano bassine . Secondo quanto ho provato di persona le cose credo che stiano così , felice di essere smentito ma inviterei a portare delle prove a sostegno della propria tesi , di modo che possiamo discutere su fatti concreti .
Secondo voi quale sarebbe allora il collo di bottiglia se non la frequenza degli shader ? Per quale motivo allora stavano cercando di aumentare la frequenza di lavoro degli stessi con queste gt200 a 55nm (e sembra che abbiano avuto dei problemi al riguardo , stando a notizie risalenti a meno di 2 settimane fa ) ?
Quindi è la 216 a febbraio , non la 212 (già non ci si capisce più una mazza, figuriamoci dopo :asd: ) .. Ma si è capito in cosa consiste ? GDDR5 ?
nuova architettura gt300 questi qui son tutti affinamenti produttivi per implementare la tecnologia delle gddr5 e aumentare i margini di profitto che poi porteranno nvidia a sfornare le gt300 a 40nani.......
halduemilauno
15-11-2008, 10:27
Da molti post stai insistendo su una cosa priva di senso suggerita da hal mesi fa... il rapporto di frequenza shader-core a 2.5 non è importante perchè pare che il collo di bottiglia non sia lo shader core.
il collo di bottiglia è proprio lo shader clock. e cmq io non ho suggerito nulla ma auspicato. e soprattutto detto che sarebbe stato toccato + del clock del core. quindi magari il rapporto 2.5 non sarà "importante"(per battere una 4870 non è necessario il 648/1620 quando si è visto che strabasta il 648/1404)e forse nemmeno raggiunto(per tutto questo c'è da aspettare). ma che esso venga ritoccato è fuor di dubbio e necessario. non a caso infatti, se son veri gli ultimi rumors, sul core + 46, sugli shader + 216.
Foglia Morta
15-11-2008, 10:32
Scusami , e quale sarebbe ? Non so te , con tutto il rispetto, ma io una gt200 l'ho posseduta, ed il collo di bottiglia è proprio quello . Basta guardare le 8800gts 640 con 96sp e le 8800gt con 112sp ; gli sp contano , ma fino ad un certo punto ed alle basse risoluzioni sono fondamentali le frequenze di lavoro (per le alte impostazioni basta guardare l'esempio 8800gtx-9800gtx) . Un esempio perfetto è il G92 con 128sp con shader a 2100MHz , che raggiunge tranquillamente una gtx260 sui 600MHz a 1280x1024 con il cryengine 2 , avente shader molto più bassi di frequenza ma con 192sp . (oppure basta guardare la 9600gt contro la 8800gt, avente quasi il doppio di sp della prima ).
Ad esempio , con la 260 il core è arrivato anche a 756MHz , da 576 , però gli shader ,da 1200MHz , sono arrivati al massimo a 1450-1519MHz e non in perfetta stabilità dato che la % di rotazione della ventola era al massimo . Il bandwidht di certo non era, dato che aveva ben 130 e passa GB/sec mentre guardacaso le frequenze di lavoro degli shader erano bassine . Secondo quanto ho provato di persona le cose credo che stiano così , felice di essere smentito ma inviterei a portare delle prove a sostegno della propria tesi , di modo che possiamo discutere su fatti concreti .
Secondo voi quale sarebbe allora il collo di bottiglia se non la frequenza degli shader ? Per quale motivo allora stavano cercando di aumentare la frequenza di lavoro degli stessi con queste gt200 a 55nm (e sembra che abbiano avuto dei problemi al riguardo , stando a notizie risalenti a meno di 2 settimane fa ) ?
Se cerchi il collo di bottiglia nello shader core lo devi trovare nella totalità della capacità di calcolo. Poco importa se è dato da frequenza X e numero di sp Y oppure da frequenza Y e numero di sp X . Non è che se un gioco si comporta in una certa maniera automaticamente tutto il software si debba comportare nello stesso modo.
-noxius-
15-11-2008, 10:35
Se cerchi il collo di bottiglia nello shader core lo devi trovare nella totalità della capacità di calcolo. Poco importa se è dato da frequenza X e numero di sp Y oppure da frequenza Y e numero di sp X . Non è che se un gioco si comporta in una certa maniera automaticamente tutto il software si debba comportare nello stesso modo.
Sono d'accordo , però allora dove pensi che possa essere , e come si spiegano quegli esempi che ho riportato ?
Grazie
ps: non è per niente ma hal aveva affermato proprio l'opposto , e mi sembra logico pensarlo (poi come ho detto, felice di essere smentito, stiamo qui per discutere ed imparare ;) )
halduemilauno
15-11-2008, 11:06
Se cerchi il collo di bottiglia nello shader core lo devi trovare nella totalità della capacità di calcolo. Poco importa se è dato da frequenza X e numero di sp Y oppure da frequenza Y e numero di sp X . Non è che se un gioco si comporta in una certa maniera automaticamente tutto il software si debba comportare nello stesso modo.
esatto e dato che il numero degli shader non lo puoi cambiare se non cambiando l'architettura viene da solo che da cambiare rimane solo la frequenza degli stessi. e che tral'altro è ben + facile, + praticabile. e ancor di + riducendo il pp da 65 nm a 55nm.
Foglia Morta
15-11-2008, 11:12
Sono d'accordo , però allora dove pensi che possa essere , e come si spiegano quegli esempi che ho riportato ?
Grazie
ps: non è per niente ma hal aveva affermato proprio l'opposto , e mi sembra logico pensarlo (poi come ho detto, felice di essere smentito, stiamo qui per discutere ed imparare ;) )
Scusa ma non capisco cosa centrino i tuoi esempi di prima, ciò che conta è la potenza totale ( poco importa se viene ottenuta con una combinazione di frequenza Y e numero di sp X piuttosto che il contrario ), quindi la possibilità di spiegare certi risultati con i rapporti di frequenza la scarto a priori. Hai fatto l'esempio 9600GT vs 8800GT , la prima 312 Gflops e la seconda 504Gflops. La 8800GT ha uno shader core del 60% più veloce ma nei giochi la differenza è molto inferiore... quindi non è lo shader core il collo di bottiglia.
Prova a fare i test con un metodo più oggettivo su diversi giochi, magari una volta overclocki lo shader core e con il test successivo solamente la frequenza della gpu. Poi magari ripeti i test con dei cluster disabilitati e stesse frequenze dei test precedenti , esempio: http://www.digit-life.com/articles2/video/g80_units.html
Foglia Morta
15-11-2008, 11:22
esatto e dato che il numero degli shader non lo puoi cambiare se non cambiando l'architettura viene da solo che da cambiare rimane solo la frequenza degli stessi. e che tral'altro è ben + facile, + praticabile. e ancor di + riducendo il pp da 65 nm a 55nm.
Ok ma allora sei superstizioso :D , solo perchè G80 aveva quel rapporto di frequenza non significa che sia necessario per GT200 , perchè il rapporto tmu:alu in G80 era 2 a 1 mentre in GT200 è 3 a 1 , quindi comunque la potenza sugli shader è cresciuta già in modo più che proporzionale rispetto ad altre parti. Quindi se ci sono stati incrementi prestazionali inferiori alle aspettative a rigor di logica lo shader core è proprio l'ultimo posto in cui andare a ricercarne il motivo.
-noxius-
15-11-2008, 11:59
Scusa ma non capisco cosa centrino i tuoi esempi di prima, ciò che conta è la potenza totale ( poco importa se viene ottenuta con una combinazione di frequenza Y e numero di sp X piuttosto che il contrario ), quindi la possibilità di spiegare certi risultati con i rapporti di frequenza la scarto a priori. Hai fatto l'esempio 9600GT vs 8800GT , la prima 312 Gflops e la seconda 504Gflops. La 8800GT ha uno shader core del 60% più veloce ma nei giochi la differenza è molto inferiore... quindi non è lo shader core il collo di bottiglia.
Prova a fare i test con un metodo più oggettivo su diversi giochi, magari una volta overclocki lo shader core e con il test successivo solamente la frequenza della gpu. Poi magari ripeti i test con dei cluster disabilitati e stesse frequenze dei test precedenti , esempio: http://www.digit-life.com/articles2/video/g80_units.html
Ma infatti cosa ho detto ? a 1280x1024 il numero di sp è relativo (esempio 9600gt@64 contro 8800gt@112 e gts640@96 contro 8800gt@112) , e dato che la frequenza degli sp è la stessa i risultati sono allineati a quella risoluzione , unica eccezione quei titoli che fanno un uso intensivo del > numero di sp però sembrano pochi . (sarebbe effettivamente da valutare l'apporto di una cpu più potente però direi che non si poteva chiedere di meglio ;) )
So a reduced number of unified processors in Mid- and Low-End cards, which are used in similar conditions (a relatively low resolution, medium quality settings, no anti-aliasing and anisotropic filtering), is quite justified.
Tuo link : http://www.digit-life.com/articles2/video/g80_units.html (ti ringrazio per questo link, è interessante)
Poi è logico che più aumenti la risoluzione ed i filtri , maggiore è la potenza di calcolo e meglio è .
In questo caso , gt200@65nm , qual'è l'elemento che permette che le 260 a 1280x1024 con il cryengine 2, ottengano un risultato molto simile alle G92 con 128sp aventi shader a 2100MHz ?
Appunto , la bassa frequenza di lavoro degli shader , a 1200-1300MHz ! ;) . Per questo ho detto che una 260 avente pure bus a 384 e 768 MB di ram , avendo frequenze sugli shader verso i 1700MHz sarebbe una soluzione davvero interessante . O sbaglio ? :Perfido:
Guarda qui , a conferma di ciò che ho riportato precedentemente (test, come al solito, eseguiti a parità di configurazione ) :
Differenza prestazionale tra 8800GTXOC @ 612-1458-945 (90GB/sec di banda passante) contro 9800gtx@830-2100-1231(79GB/sec di banda passante)
http://www.pctunerup.com/up/results/_200811/th_20081115130316_8800gtxOC615-940CRYSISbenchs.JPG (http://www.pctunerup.com/up/image.php?src=_200811/20081115130316_8800gtxOC615-940CRYSISbenchs.JPG)http://www.pctunerup.com/up/results/_200811/th_20081115130508_9800GTXVS8800GTS512REALTEST.JPG (http://www.pctunerup.com/up/image.php?src=_200811/20081115130508_9800GTXVS8800GTS512REALTEST.JPG)
Le frequenze di lavoro degli shader , con una bassa risoluzione (stesso numero di sp , differenti frequenze di lavoro degli stessi , minore bandwidht e bus della ram) . Detto questo ritengo una 8800gtx superiore alla 9800gtx, perchè questo è un caso specifico e siamo in presenza di settaggi contenuti .
halduemilauno
15-11-2008, 12:47
Ok ma allora sei superstizioso :D , solo perchè G80 aveva quel rapporto di frequenza non significa che sia necessario per GT200 , perchè il rapporto tmu:alu in G80 era 2 a 1 mentre in GT200 è 3 a 1 , quindi comunque la potenza sugli shader è cresciuta già in modo più che proporzionale rispetto ad altre parti. Quindi se ci sono stati incrementi prestazionali inferiori alle aspettative a rigor di logica lo shader core è proprio l'ultimo posto in cui andare a ricercarne il motivo.
no non sono superstizioso credo che il collo di bottiglia del gt200 siano le frequenze e in particolare lo shader clock. quindi penso che sia necessario aumentarlo se diventa 2.5 come g92 non come g80 che era inferiore andrà benissimo ma pare che invece sarà proprio come quello del g80 o migliorato e per carità magari andrà benissimo anch'esso.
ripeto passare(stando agli ultimi rumors)da 602/1296 a 648/1512 mi pare proprio che sia la strada giusta e cmq quella che io auspicavo. ovviamente ulteriormente migliorabile.
Foglia Morta
15-11-2008, 12:57
Ma infatti cosa ho detto ? a 1280x1024 il numero di sp è relativo (esempio 9600gt@64 contro 8800gt@112 e gts640@96 contro 8800gt@112) , e dato che la frequenza degli sp è la stessa i risultati sono allineati a quella risoluzione , unica eccezione quei titoli che fanno un uso intensivo del > numero di sp però sembrano pochi . (sarebbe effettivamente da valutare l'apporto di una cpu più potente però direi che non si poteva chiedere di meglio ;) )
Tuo link : http://www.digit-life.com/articles2/video/g80_units.html (ti ringrazio per questo link, è interessante)
Poi è logico che più aumenti la risoluzione ed i filtri , maggiore è la potenza di calcolo e meglio è .
In questo caso , gt200@65nm , qual'è l'elemento che permette che le 260 a 1280x1024 con il cryengine 2, ottengano un risultato molto simile alle G92 con 128sp aventi shader a 2100MHz ?
Appunto , la bassa frequenza di lavoro degli shader , a 1200-1300MHz ! ;) . Per questo ho detto che una 260 avente pure bus a 384 e 768 MB di ram , avendo frequenze sugli shader verso i 1700MHz sarebbe una soluzione davvero interessante . O sbaglio ? :Perfido:
Guarda qui , a conferma di ciò che ho riportato precedentemente (test, come al solito, eseguiti a parità di configurazione ) :
Differenza prestazionale tra 8800GTXOC @ 612-1458-945 (90GB/sec di banda passante) contro 9800gtx@830-2100-1231(79GB/sec di banda passante)
http://www.pctunerup.com/up/results/_200811/th_20081115130316_8800gtxOC615-940CRYSISbenchs.JPG (http://www.pctunerup.com/up/image.php?src=_200811/20081115130316_8800gtxOC615-940CRYSISbenchs.JPG)http://www.pctunerup.com/up/results/_200811/th_20081115130508_9800GTXVS8800GTS512REALTEST.JPG (http://www.pctunerup.com/up/image.php?src=_200811/20081115130508_9800GTXVS8800GTS512REALTEST.JPG)
Le frequenze di lavoro degli shader , con una bassa risoluzione (stesso numero di sp , differenti frequenze di lavoro degli stessi , minore bandwidht e bus della ram) . Detto questo ritengo una 8800gtx superiore alla 9800gtx, perchè questo è un caso specifico e siamo in presenza di settaggi contenuti .
Se hai tempo e voglia puoi fare i test in maniera più precisa ( più giochi ) con GT200 ( GTX260 o GTX280 ) ? Perchè qui si sta discutendo delle possibili evoluzioni di GT200 , magari con lo stesso metodo di digit-life , mi riferisco a quest'altra recensione: http://www.digit-life.com/articles3/video/g92_scaling.html
Test fatti con una 9800GTX. Overclockando lo shader core a step di 100Mhz si ha:
http://www.ixbt.com/video3/images/g92_scaling/alu1.png
Come vedi con la 9800GTX la frequenza dello shader core conta ben poco, un po in Crysis ma negli altri giochi influisce molto molto meno . Il collo di bottiglia per i giochi di solito è altrove ( nella rece linkata ci sono altri test che vanno a variare la banda passante , gpu freq. e cpu freq. ).
Ci vorrebbero test fatti così ma con GT200.
Però se si considera che con le GTX 260 e GTX 280 si è aumentato soprattutto la potenza sullo shader core e la banda passante allora non vedo perchè insistere su sto aumento di frequenza dello shader core fino ad un rapporto di 2.5 a 1 .
-noxius-
15-11-2008, 13:48
Per il momento non posso più fare test, ho una 4850 ;) .
Mi spiace, non vedo la foto quindi non so cosa dirti ..
http://www.pctunerup.com/up/results/_200811/th_20081115144839_a.JPG (http://www.pctunerup.com/up/image.php?src=_200811/20081115144839_a.JPG)
http://www.digit-life.com/articles3/video/g92_scaling.html Ottimo articolo, grazie davvero .
In merito al rapporto core-shader , io credo che far salire solo gli shader , indipendentemente dal core , sia non appropriato . Logicamente bisogna mantenere quel rapporto , perchè se viene aumento o diminuito un valore, inevitabilmente sarà il collo di bottiglia rispetto a quello che non è stato cambiato . In questo caso ovviamente stò parlando sia del core che dello shader .
-Dependence of performance on GPU clock rate
Now we are going to evaluate the dependence of average frame rate (scalability) on G92 clock rate - this GPU is used in our GeForce 8800 GT. Frequency of the shader domain remains unchanged, we shall analyze it below. We modified GPU clock rate from 550 MHz to 700 MHz at 50 MHz steps. It's impossible to obtain accurate results for some reasons, but we specified the closest values, which do not differ by more than 1-2%.
Changes in GPU frequency affect performance in those games, which rendering speed is limited mostly not by video memory bandwidth and effective fill rate, but by texturing (TMUs), rasterizing and blending (ROPs) (Shader core ?) , as well as by other operations (triangle setup, input assembler, etc) performed by the main part of the GPU. I remind you again that we speak solely about 1280x1024 with enabled anisotropic filtering (it's important, because we evaluate dependence on TMU performance as well) and antialiasing (it affects ROP performance).
-Dependence of performance on GPU streaming processors clock rate ..
L'aumento prestazionale , ammesso che non vi sia una situazione bandwidht limited , ovviamente è tale se viene mantenuto entro i limiti (da 2.05 a 2.15 nel gt200 se non erro mentre da 2.4 a 2.6 per il g92) il rapporto shader core . Andando oltre questo valore uno dei due inevitabilmente comprometterà il risultato finale , indi per cui il core e gli shader ovviaemnte sono accoppiati (linked) .
Nel caso del gt200, ad esempio , succedeva proprio questo ovvero che non aveva molto senso far salire il core a 756MHz se gli shader non salivano altrettanto . Per questo l'incremento prestazionale , superato il valore di 650-70MHz è stato davvero contenuto se non controproducente ; è d'obbligo cercare di far salire i valori in modo omogeneo affinchè non vengano creati dei colli di bottiglia derivanti dalle frequenze inadeguate, non so se mi sono spiegato ;) .
Foglia Morta
15-11-2008, 13:49
Per il momento non posso più fare test, ho una 4850 ;) .
Mi spiace, non vedo la foto quindi non so cosa dirti ..
.
-noxius-
15-11-2008, 14:08
Ho appena aggiunto il commento in merito a quel link, scusami ma era saltata la corrente ed il contatore nel piano di sotto . Se vuoi puoi anche levare le immagini tanto in quel link che hai messo si capisce tutto alla perfezione ;)
Foglia Morta
15-11-2008, 14:37
http://www.digit-life.com/articles3/video/g92_scaling.html Ottimo articolo, grazie davvero .
In merito al rapporto core-shader , io credo che far salire solo gli shader , indipendentemente dal core , sia non appropriato . Logicamente bisogna mantenere quel rapporto , perchè se viene aumento o diminuito un valore, inevitabilmente sarà il collo di bottiglia rispetto a quello che non è stato cambiato . In questo caso ovviamente stò parlando sia del core che dello shader .
Se prima dicevi che , relativamente alle frequenze , è necessario un rapporto 2.5 tra shader e core allora variare le frequenze ( come nei test di digit-life ) serve a verificare se questo collo di bottiglia c'è o meno. Nel caso della 9800GTX , con molti giochi , questo problema non c'è. Quindi dato che in GT200 si è puntato molto sull'aumento di potenza sullo shader core piuttosto che su altro allora non c'è nulla che possa far pensare che sia una priorità. E non si capisce da dove venga fuori sto 2.5 :D . Copiarlo da G92 non ha nessun fondamento.
L'aumento prestazionale , ammesso che non vi sia una situazione bandwidht limited , ovviamente è tale se viene mantenuto entro i limiti (da 2.05 a 2.15 nel gt200 se non erro mentre da 2.4 a 2.6 per il g92) il rapporto shader core . Andando oltre questo valore uno dei due inevitabilmente comprometterà il risultato finale , indi per cui il core e gli shader ovviaemnte sono accoppiati (linked) .
Nel caso del gt200, ad esempio , succedeva proprio questo ovvero che non aveva molto senso far salire il core a 756MHz se gli shader non salivano altrettanto . Per questo l'incremento prestazionale , superato il valore di 650-70MHz è stato davvero contenuto se non controproducente ; è d'obbligo cercare di far salire i valori in modo omogeneo affinchè non vengano creati dei colli di bottiglia derivanti dalle frequenze inadeguate, non so se mi sono spiegato ;) .
Che frequenze più alte siano migliori di frequenze più basse equivale alla scoperta dell'acqua calda , e fin qui siamo d'accordo... Il punto è che da quei test non c'è nulla che faccia pensare che GT200 possa aver bisogno di frequenze superiori sullo shader core. O almeno non fanno pensare che sia quella la priorità. Poi addirittura specificare un rapporto ( 2.5 ) mi pare quantomeno azzardato.
Sarebbe utile avere test simili con la GTX 280 e qualche gioco appena uscito.
-noxius-
15-11-2008, 14:44
Se prima dicevi che , relativamente alle frequenze , è necessario un rapporto 2.5 tra shader e core allora variare le frequenze ( come nei test di digit-life ) serve a verificare se questo collo di bottiglia c'è o meno.
Si , però , e torniamo al punto di partenza , come ti spieghi allora la differenza di prestazioni tra ad esempio la gts 640 e la 8800gt ?
Centra percaso la frequenza del cristallo in Hz ? Com' èra la storia ?
Nel caso della 9800GTX , con molti giochi , questo problema non c'è. Quindi dato che in GT200 si è puntato molto sull'aumento di potenza sullo shader core piuttosto che su altro allora non c'è nulla che possa far pensare che sia una priorità. E non si capisce da dove venga fuori sto 2.5 :D . Copiarlo da G92 non ha nessun fondamento...
Poi addirittura specificare un rapporto ( 2.5 ) mi pare quantomeno azzardato. ..
Casomai l'opposto dato che le frequenze di lavoro sono parecchio contenute , ovviamente alle basse risoluzioni come è stato fatto in quell'ottimo articolo . In che senso ''da dove viene fuori 2.5'' ? Se passando dal G80 al G92 questa è stata la differenza cruciale , i risultati sono stati notevoli proprio grazie a questo aspetto , o no ?
600*2.5 = 1500 , ovvero le frequenze stock della 8800gt 512 G92 ;)
Mister Tarpone
15-11-2008, 14:49
non è solo per le frequenze + elevate che il G9X rullava parecchio rispetto al G80 nonostante avesse meno HW (meno bus, meno sp, meno rops)
nel G9X lo Z buffer era decisamente migliorato rispetto al G80.....
-noxius-
15-11-2008, 15:01
non è solo per le frequenze + elevate che il G9X rullava parecchio rispetto al G80 nonostante avesse meno HW (meno bus, meno sp, meno rops)
nel G9X lo Z buffer era decisamente migliorato rispetto al G80.....
Certo .
http://www.digit-life.com/articles3/video/g92-3-part1.html
The new modification of the GeForce 8800 GTS 512MB differs much from the old products. The number of execution units is increased (ALUs and TMUs), GPU clock rate has grown much as well, including the frequency of shader units. Even though the memory bus is cut down (256-bit versus 320-bit in the old modifications), memory bandwidth remains the same, because its frequency is raised. As a result, the new GTS card executes shaders and fetches textures much faster. At the same time, the fill rate and memory bandwidth are the same.
però ..
What differs from G80 is fewer ROPs and modified TMUs (we wrote about the changes in our previous review.) We repeat that 64 texture units in the GeForce 8800 GTS 512MB in real applications will NOT be faster than 32 units in the GeForce 8800 GTX in most cases. When trilinear and/or anisotropic filtering are enabled, their performance will be similar, because they have the same number of texture filter units. The cards based on the G92 will be faster, of course, when non-filtered texture fetches are used.
..
Le frequenze di lavoro degli shader , con una bassa risoluzione (stesso numero di sp , differenti frequenze di lavoro degli stessi , minore bandwidht e bus della ram) . Detto questo ritengo una 8800gtx superiore alla 9800gtx, perchè questo è un caso specifico e siamo in presenza di settaggi contenuti .
Foglia Morta
15-11-2008, 15:14
Si , però , e torniamo al punto di partenza , come ti spieghi allora la differenza di prestazioni tra ad esempio la gts 640 e la 8800gt ?
Centra percaso la frequenza del cristallo in Hz ? Com' èra la storia ?
Penso che i colli di bottiglia possano essere diversi e certi test siano utili ad escluderne alcuni... per info più precise bisognerebbe intendersene molto più ( quindi non chiederle a me :D )
Casomai l'opposto dato che le frequenze di lavoro sono parecchio contenute , ovviamente alle basse risoluzioni come è stato fatto in quell'ottimo articolo . In che senso ''da dove viene fuori 2.5'' ? Se passando dal G80 al G92 questa è stata la differenza cruciale , i risultati sono stati notevoli proprio grazie a questo aspetto , o no ?
600*2.5 = 1500 , ovvero le frequenze stock della 8800gt 512 G92 ;)
Non è l'opposto perchè la frequenza in un caso è relativa a 128sp (G92), nell'altro a 240sp (GT200) . Quel che conta è la potenza totale, non la sola frequenza o il solo numero di sp.
Tra le schede con G80 e quelle con G92 c'era un diverso equilibrio ( banda passante , texture address unit , rop , frequenze ) quindi mi pare un tantino semplicistico prendere in prestito il rapporto di frequenza fra shader e core per risolvere i colli di bottiglia ;) . Come detto prima bisognerebbe rifare i test di digit life , magari con G80 , G92 e GT200 e poi se ne saprebbe di più .
Poverino .. Okorop, gli hai appena toccato mamma invidia :friend:
ps: avrà la coda di paglia , evidentemente gli hai risvegliato dei brutti ricordi (o scheletri nell'armadio se vogliamo :asd: )
sospeso 10gg per soliti flames
>bYeZ<
Darrosquall
16-11-2008, 08:52
c'è qualche riassunto in italiano che dice tutto quello che si sa su queste nuove schede nvidia?
pl[U]s.NOXx
16-11-2008, 10:25
Si sa qualcosa di nuovo? Escono entro metà dicembre?
Diobrando_21
16-11-2008, 10:29
s.NOXx;25034697']Si sa qualcosa di nuovo? Escono entro metà dicembre?
mah io avevo sentito a novembre però mi sa che sono rimasto indietro con le news...all'inizio del 3d ho letto GT212 a marzo, ma è vero?
pl[U]s.NOXx
16-11-2008, 11:06
mah io avevo sentito a novembre però mi sa che sono rimasto indietro con le news...all'inizio del 3d ho letto GT212 a marzo, ma è vero?
212 credo sia un altra cosa, quella che stiamo aspettando noi credo si chiamo gt202
Diobrando_21
16-11-2008, 12:04
s.NOXx;25035291']212 credo sia un altra cosa, quella che stiamo aspettando noi credo si chiamo gt202
Boh dovrei leggere meglio...cmq a me interessa la gtx290, si sa quando esce?
devAngnew
16-11-2008, 12:37
Boh dovrei leggere meglio...cmq a me interessa la gtx290, si sa quando esce?
Allora dimciamo che le future gtx 270/290 (alias gt206) sono previste tra domani (non ci gurerei) ad un ipotetico 2 dicembre prossimo o giù di li.
ciao.
;)
ziosante73
16-11-2008, 13:04
Speriamo che sia domani, cosi mi compro tutto il pc in un botto senza dover attendere ulteriormente.:muro:
Diobrando_21
16-11-2008, 13:17
Speriamo che sia domani, cosi mi compro tutto il pc in un botto senza dover attendere ulteriormente.:muro:
la stessa cosa vale x me...
cioè secondo voi è possibile che la gtx 270 e 290 appaiano nei negozi domani tutto ad un tratto senza una minima anteprima? :mbe:
alex oceano
16-11-2008, 13:51
cioè secondo voi è possibile che la gtx 270 e 290 appaiano nei negozi domani tutto ad un tratto senza una minima anteprima? :mbe:
secondo me?? molto difficile perchè di solito qualche notizia foto mini prove si sentono dire ...
ora di punto in bianco 2 vga così (spettacolari) non posono uscire ...
pl[U]s.NOXx
16-11-2008, 14:08
Non so davvero... So per certo che ad nvidia rode il cùlo che la 4870 batte nelle vendite la 260 a mani basse, quindi si deve sbrigare. Poi non so, spero solo che escano prima di due/tre settimane.
ziosante73
16-11-2008, 15:52
Sarebbero proprio un bel regalo di natale si.si:sofico:
halduemilauno
16-11-2008, 17:29
cioè secondo voi è possibile che la gtx 270 e 290 appaiano nei negozi domani tutto ad un tratto senza una minima anteprima? :mbe:
no certo che no. la data indicata del 18 novembre deve intendersi rimandata. al massimo in tale data nvidia potrà solo annunciare/presentare ma ripeto al massimo ma personalmente vedo difficile anche questo. a questo punto vanno considerati un 1/2 settimane ancora di attesa di concerto con gli ultimi rumors.
;)
halduemilauno
16-11-2008, 17:48
e cmq qui...
http://www.hardware-infos.com/news.php?news=2516
"Nvidia-Grafikchips sollen günstiger werden
In den letzten Tagen wurden Berichte veröffentlicht, nach denen Grafikriese Nvidia einige Marktanteile an AMD verloren hätte. Dies und die baldige Vorstellung der Geforce GTX 270- und GTX 290-Karten sind offenbar Grund genug, demnächst eine umfassende Preisbereinigung vorzunehmen, so zumindest ein Bericht auf Digitimes.
Konkret sollen die Grafikchips Geforce 9600 GT, 9800 GT, GTX 260 und GTX 280 betroffen sein. Spekulativ stehen hier 10-25 Prozent Preisnachlass im Raum.
Hierzulande wird man von den Preissenkungen vermutlich jedoch nicht allzu stark profitieren, denn der schwache Euro/Dollar-Kurs hat erst jüngst dazu geführt, dass die Grafikchips teurer geworden sind.
Gemäß des Blog-Eintrags Theo Valichs, das wir schon penibel seziert haben, wird die Geforce GTX 270 Weihnachten ab 199 US-Dollar erwerbbar sein und die hiesigen GTX 260-Produkte weniger als 150 US-Dollar kosten. Die GTX 280 könnte, spinnt man das Rad weiter, auf rund 299 US-Dollar fallen und die GTX 290 die bekannte 399-US-Dollar-Rolle der GTX 280 einnehmen.
Die nächsten Tage und Wochen werden die Nvidia-Preissenkungen sicherlich konkreter fassen."
riferito alle gtx270&290 utilizza il termine imminente.
;)
pl[U]s.NOXx
16-11-2008, 18:27
e cmq qui...
http://www.hardware-infos.com/news.php?news=2516
"Nvidia-Grafikchips sollen günstiger werden
In den letzten Tagen wurden Berichte veröffentlicht, nach denen Grafikriese Nvidia einige Marktanteile an AMD verloren hätte. Dies und die baldige Vorstellung der Geforce GTX 270- und GTX 290-Karten sind offenbar Grund genug, demnächst eine umfassende Preisbereinigung vorzunehmen, so zumindest ein Bericht auf Digitimes.
Konkret sollen die Grafikchips Geforce 9600 GT, 9800 GT, GTX 260 und GTX 280 betroffen sein. Spekulativ stehen hier 10-25 Prozent Preisnachlass im Raum.
Hierzulande wird man von den Preissenkungen vermutlich jedoch nicht allzu stark profitieren, denn der schwache Euro/Dollar-Kurs hat erst jüngst dazu geführt, dass die Grafikchips teurer geworden sind.
Gemäß des Blog-Eintrags Theo Valichs, das wir schon penibel seziert haben, wird die Geforce GTX 270 Weihnachten ab 199 US-Dollar erwerbbar sein und die hiesigen GTX 260-Produkte weniger als 150 US-Dollar kosten. Die GTX 280 könnte, spinnt man das Rad weiter, auf rund 299 US-Dollar fallen und die GTX 290 die bekannte 399-US-Dollar-Rolle der GTX 280 einnehmen.
Die nächsten Tage und Wochen werden die Nvidia-Preissenkungen sicherlich konkreter fassen."
riferito alle gtx270&290 utilizza il termine imminente.
;)
Se i prezzi sono quelli (ovvero da noi 200/220 euro per la 270 e 300-320 per la 290) Ati è davvero nei pasticci. Già due 260 battono la 4870x2, e la nvidia a driver migliori. Speriamo in bene, se va bene cosi io prendo la 290.
s.NOXx;25041464']Se i prezzi sono quelli (ovvero da noi 200/220 euro per la 270 e 300-320 per la 290) Ati è davvero nei pasticci. Già due 260 battono la 4870x2, e la nvidia a driver migliori. Speriamo in bene, se va bene cosi io prendo la 290.
mamma mia che prezzi che farà nvidia :eek:
anche se sti prezzi sono indice di vga non troppo performanti rispetto alle precedenti.....comunque veramente buoni!!!!
ati è veramente messa maluccio....comunque credo che abbasseranno le proprie gpu di molto
molochgrifone
16-11-2008, 18:43
mamma mia che prezzi che farà nvidia :eek:
anche se sti prezzi sono indice di vga non troppo performanti rispetto alle precedenti.....comunque veramente buoni!!!!
ati è veramente messa maluccio....comunque credo che abbasseranno le proprie gpu di molto
Be non troppo performanti, se anche performeranno come le attuali con quei prezzi ce ne sarà di che godere... :oink:
Be non troppo performanti, se anche performeranno come le attuali con quei prezzi ce ne sarà di che godere... :oink:
non è una citica anzi......è una lode a nvidia che fa anche lei una guerra dei prezzi anche se sta cosa mi fa supporre che non si vedrà una differenza prestazionale elevata rispetto ai modelli precedenti....senno sarebbero state messe a 399 la gtx270 mentra a 599 la gtx290
molochgrifone
16-11-2008, 18:52
non è una citica anzi......è una lode a nvidia che fa anche lei una guerra dei prezzi anche se sta cosa mi fa supporre che non si vedrà una differenza prestazionale elevata rispetto ai modelli precedenti....senno sarebbero state messe a 399 la gtx270 mentra a 599 la gtx290
Sì tranquillo oko non dicevo che stavi criticando ;)
Hai poi trovato quei raptor che cercavi? :D
Sì tranquillo oko non dicevo che stavi criticando ;)
Hai poi trovato quei raptor che cercavi? :D
ne ho due e adesso ne aggiungo altri due raptor.....spero di fare un buon raid 0....i risultati dei primi due secondo me son deludenti :( guarda qui (http://www.hwupgrade.it/forum/showthread.php?t=1865196)....
scusate per l'ot
athlon xp 2400
16-11-2008, 19:05
ne ho due e adesso ne aggiungo altri due raptor.....spero di fare un buon raid 0....i risultati dei primi due secondo me son deludenti :( guarda qui (http://www.hwupgrade.it/forum/showthread.php?t=1865196)....
scusate per l'ot
a mio parere a mettere 4 raptor in raid 0 rispetto ai 2 che hai adesso noterai poche differenze :)
molochgrifone
16-11-2008, 19:07
a mio parere a mettere 4 raptor in raid 0 rispetto ai 2 che hai adesso noterai poche differenze :)
Sul thread del CM 690 un utente ha un raid 0 di 4 raptor e ti assicuro che viaggiano di brutto ;)
Poi ovvio che l'access time rimarrà pressoché uguale...
Fine ot :D
Sul thread del CM 690 un utente ha un raid 0 di 4 raptor e ti assicuro che viaggiano di brutto ;)
Poi ovvio che l'access time rimarrà pressoché uguale...
Fine ot :D
li metto solamente per lo spazio aggiunto .....fine ot....
appleroof
16-11-2008, 19:46
e cmq qui...
http://www.hardware-infos.com/news.php?news=2516
"Nvidia-Grafikchips sollen günstiger werden
In den letzten Tagen wurden Berichte veröffentlicht, nach denen Grafikriese Nvidia einige Marktanteile an AMD verloren hätte. Dies und die baldige Vorstellung der Geforce GTX 270- und GTX 290-Karten sind offenbar Grund genug, demnächst eine umfassende Preisbereinigung vorzunehmen, so zumindest ein Bericht auf Digitimes.
Konkret sollen die Grafikchips Geforce 9600 GT, 9800 GT, GTX 260 und GTX 280 betroffen sein. Spekulativ stehen hier 10-25 Prozent Preisnachlass im Raum.
Hierzulande wird man von den Preissenkungen vermutlich jedoch nicht allzu stark profitieren, denn der schwache Euro/Dollar-Kurs hat erst jüngst dazu geführt, dass die Grafikchips teurer geworden sind.
Gemäß des Blog-Eintrags Theo Valichs, das wir schon penibel seziert haben, wird die Geforce GTX 270 Weihnachten ab 199 US-Dollar erwerbbar sein und die hiesigen GTX 260-Produkte weniger als 150 US-Dollar kosten. Die GTX 280 könnte, spinnt man das Rad weiter, auf rund 299 US-Dollar fallen und die GTX 290 die bekannte 399-US-Dollar-Rolle der GTX 280 einnehmen.
Die nächsten Tage und Wochen werden die Nvidia-Preissenkungen sicherlich konkreter fassen."
riferito alle gtx270&290 utilizza il termine imminente.
;)
ottimo....allora dovrebbero essere "confermate" alcune mie ipotesi espresse qui http://www.hwupgrade.it/forum/showpost.php?p=25012293&postcount=1089 :D
sperem, sarebbe davvero un colpaccio per tutti noi :)
molochgrifone
16-11-2008, 19:51
ottimo....allora dovrebbero essere "confermate" alcune mie ipotesi espresse qui http://www.hwupgrade.it/forum/showpost.php?p=25012293&postcount=1089 :D
sperem, sarebbe davvero un colpaccio per tutti noi :)
Quante ne sai?? ;) Comunque se queste indiscrezioni saranno confermate prima di natale pensionerò la mia 8800 gtx :D
devAngnew
16-11-2008, 19:53
non è una citica anzi......è una lode a nvidia che fa anche lei una guerra dei prezzi anche se sta cosa mi fa supporre che non si vedrà una differenza prestazionale elevata rispetto ai modelli precedenti....senno sarebbero state messe a 399 la gtx270 mentra a 599 la gtx290
Bhe sulle prestazioni è tutto da vedere infatti come è scritto nel link postato da Hal le 260 dovrebbero scendere sotto i 150$ mentre le 270 staranno a circa 200$ mentre le 280 scendo a 300$ mentre le 290 dovrebbero costare sui 400$.
Quindi anche se tutto è rimasto uguale avremo sicuramente clock più spinti che faranno la differenza con le "vecchie" versioni.
Poi il prezzo è anche dettato dalla fascia di mercato in cui si collocheranno e se la 290 è anche di poco inferiore alla 4870x2 credo che il prezzo preventivato sia giusto. Se sarà cosi nvidia rimedierà sucessivamente con la sua x2.
;)
appleroof
16-11-2008, 19:53
Quante ne sai?? ;)
poche ma buone :D
basta leggere i rumors :D :D
poi come ho detto digitimes è uno dei più attendibili in assoluto, non ci vuole molto a collegare il taglio all'introduzione dei 55nm che lo permetterebbero più agevolmente di ora :)
edit: hai editato :p io non sò ancora se è il momento di pensionarla...vediamo ma credo che potrebbe essere il momento giusto ;)
Bhe sulle prestazioni è tutto da vedere infatti come è scritto nel link postato da Hal le 260 dovrebbero scendere sotto i 150$ mentre le 270 staranno a circa 200$ mentre le 280 scendo a 300$ mentre le 290 dovrebbero costare sui 400$.
Quindi anche se tutto è rimasto uguale avremo sicuramente clock più spinti che faranno la differenza con le "vecchie" versioni.
;)
a sti prezzi mi sa che non saranno mostruose rispetto alla concorrenza comunque son buoni anche perchè faranno riguadagnare a nvidia le quote di mercato perse in precedenza.....
molochgrifone
16-11-2008, 19:57
poche ma buone :D
basta leggere i rumors :D :D
poi come ho detto digitimes è uno dei più attendibili in assoluto, non ci vuole molto a collegare il taglio all'introduzione dei 55nm che lo permetterebbero più agevolmente di ora :)
edit: hai editato :p io non sò ancora se è il momento di pensionarla...vediamo ma credo che potrebbe essere il momento giusto ;)
In realtà pensavo di tenerla per la fisica, ma mi pare un po' uno spreco. Magari la cambio con una inferiore con dissipazione passiva, potrei cercare di scambiarla sul mercatino... Vedrò un po' ;)
appleroof
16-11-2008, 19:59
a sti prezzi mi sa che non saranno mostruose rispetto alla concorrenza comunque son buoni anche perchè faranno riguadagnare a nvidia le quote di mercato perse in precedenza.....
mai dire mai: in momenti "normali" le vga le prezzano in base alle prestazioni che offono in sè e sopratutto in rapporto alla concorrenza, in momenti particolari questa regola salta e la serie 4xxx di Ati nè è l'esempio più lampante
detto questo che imho è oggettivo, non mi aspetto dei salti eccezionali rispetto alle attuali gt200, ed i motivi sono anch'essi abbastanza ovvii...poi magari sarò smentito e ne sarò ben contento ma mi aspetto un miglioramento relativo insomma..
In realtà pensavo di tenerla per la fisica, ma mi pare un po' uno spreco. Magari la cambio con una inferiore con dissipazione passiva, potrei cercare di scambiarla sul mercatino... Vedrò un po' ;)
si, per la fisica direi che una 9600gt và già benissimo, anche in termini di consumi è meglio....magari con i soldi che recuperi dalla 88gtx ti puoi fare appunto la 9600gt (cosa che rientra tra i miei piani di upgrade...forse :D, anche perchè dovrei cambiare mobo e non ne ho la minima voglia... )
devAngnew
16-11-2008, 20:01
a sti prezzi mi sa che non saranno mostruose rispetto alla concorrenza comunque son buoni anche perchè faranno riguadagnare a nvidia le quote di mercato perse in precedenza.....
Comunque il prezzo è anche dettato dalla fascia di mercato in cui si collocheranno e se la 290 è anche di poco inferiore alla 4870x2 credo che il prezzo preventivato sia giusto. Se sarà cosi nvidia rimedierà sucessivamente con la sua x2.
;)
Comunque il prezzo è anche dettato dalla fascia di mercato in cui si collocheranno e se la 290 è anche di poco inferiore alla 4870x2 credo che il prezzo preventivato sia giusto. Se sarà cosi nvidia rimedierà sucessivamente con la sua x2.
;)
ma si sa se esce adesso la gx2 oppure solo in febbraio? perchè mi sa che già nel 2009 avremo un altro scenario
TroopeR_x17
16-11-2008, 21:01
uhm mi sa che dopo natale prendo la seconda gtx260 amp
i prezzi dovrebbero crollare no??
molochgrifone
16-11-2008, 21:48
si, per la fisica direi che una 9600gt và già benissimo, anche in termini di consumi è meglio....magari con i soldi che recuperi dalla 88gtx ti puoi fare appunto la 9600gt (cosa che rientra tra i miei piani di upgrade...forse :D, anche perchè dovrei cambiare mobo e non ne ho la minima voglia... )
Già, una bella 9600 o 8600 GT passive sarebbero un buon compromesso ;)
Già, una bella 9600 o 8600 GT passive sarebbero un buon compromesso ;)
Cambiano un bel po' l'una dall'altra, la 9600GT, ha praticamente il doppio delle caratteristiche della 8600. ;)
Diobrando_21
17-11-2008, 01:14
quindi si può dire + o - che ci vorranno ancora un paio di settimane per vedere la gtx290 in commercio?
Ma la gx2 sarà composta da due gtx270 o 2 gtx290?
molochgrifone
17-11-2008, 06:02
Cambiano un bel po' l'una dall'altra, la 9600GT, ha praticamente il doppio delle caratteristiche della 8600. ;)
Confesso che non ne conoscevo le caratteristiche, confidavo nel fatto che nvidia avesse rimarchiato la 8600 in 9600 :asd:
Credo che per la fisica a questo punto basti la 8600 nel caso :stordita:
Mister Tarpone
17-11-2008, 08:20
Confesso che non ne conoscevo le caratteristiche, confidavo nel fatto che nvidia avesse rimarchiato la 8600 in 9600 :asd:
la 9600GT va il 120% + di una 8600GTS... altro che rimarchiata :asd: :asd:
Credo che per la fisica a questo punto basti la 8600 nel caso :stordita:
si credo anch'io... una 8600/9500GT basta per gestire la fisica..
sinceramente una 96GT continuo a vedercela sprecatina invece....
halduemilauno
17-11-2008, 10:18
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10497&Itemid=1
Only 216 Shaders matters
Nvidia has stopped producing 65nm based Geforce GTX 260 with 192 shaders and all GTX 260 that are coming now from Nvidia are 55nm and have 216 shaders.
These cards will be available in early December and we are quite sure that they will overclock much better than the old one. Nvidia doesn’t want to let ATI walk away without a fight and it prepares a surprise or two for this month.
The old GTX 260 with 192 shaders, that one that is clearly slower than Radeon HD 4870 is going for retirement and it will be replaced with the whole new GTX 260 216 shaders and most of these cards will end up with 55nm chips.
inizio dicembre.
;)
halduemilauno
17-11-2008, 10:20
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10499&Itemid=1
The rest is 65nm
We´ve told you that Nvidia said to its investors and the rest of the world that they are shipping 55nm in volumes but we were surprised to learn that Nvidia expects that more than 70 percent of GT200 chips shipped in Q4 to be 55nm.
Nvidia plans to do this quietly as it doesn’t plans to change the specification of the existing GTX 260 216 Shaders and GTX 280 cards. Nvidia counts on Jack in the box effect and you might be surprised that the card you buy in December will come with 55nm GT200 chip and likely overlclock better.
The 55nm chip will be a little bit cooler and smaller and the first cards based on them are expected in early December.
;)
devAngnew
17-11-2008, 10:31
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10499&Itemid=1
Nvidia plans to do this quietly as it doesn’t plans to change the specification of the existing GTX 260 216 Shaders and GTX 280 cards. Nvidia counts on Jack in the box effect and you might be surprised that the card you buy in December will come with 55nm GT200 chip and likely overlclock better.
The 55nm chip will be a little bit cooler and smaller and the first cards based on them are expected in early December.
;)
Bene per quanto riguarda il lato per lo smaltimento del calore con sistemi meno rumorosi.
Male per quanto riguarda le prestazioni visto che clock/shader dovrebbero rimanere gli stessi di gt200. :(
Conoscendo fudzilla .....:asd:
molochgrifone
17-11-2008, 11:37
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10497&Itemid=1
Only 216 Shaders matters
Nvidia has stopped producing 65nm based Geforce GTX 260 with 192 shaders and all GTX 260 that are coming now from Nvidia are 55nm and have 216 shaders.
These cards will be available in early December and we are quite sure that they will overclock much better than the old one. Nvidia doesn’t want to let ATI walk away without a fight and it prepares a surprise or two for this month.
The old GTX 260 with 192 shaders, that one that is clearly slower than Radeon HD 4870 is going for retirement and it will be replaced with the whole new GTX 260 216 shaders and most of these cards will end up with 55nm chips.
inizio dicembre.
;)
Perfetto per me, visto che anche le mie finanze sono "in ritardo" :asd:
Facessero la GTX 270 bianca come la quadro sarei l'uomo più felice del mondo :D
Sergio_Di_Rio
17-11-2008, 11:55
[...]
Inoltre dubito FORTEMENTE che la 270 avrà "solo" 192SP.
ma perchè, con una gtx260@65nm già con 192sp non giochi a tutto senza problemi?
E allora se l'avessi che consuma di meno e magari costa di meno all'acquisto (tutto come giustamente dici grazie ai 55nm) e ci mettiamo pure dei margini di oc migliori (già l'attuale gtx 192sp se occata arriva quasi alla gtx280!), ti farebbe schifo tutto ciò?
A me assolutamente no :read: :D
[...]
Mah, se è per questo, al momento, anche con una "vetusta" 8800gtx giochi a tutto senza problemi. Ciò non toglie che una 270 con 192sp mi lascerebbe molto perplesso. Attenzione, non sto dicendo che sarà così, esprimo solo una mia perplessità.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10497&Itemid=1
Only 216 Shaders matters
Nvidia has stopped producing 65nm based Geforce GTX 260 with 192 shaders and all GTX 260 that are coming now from Nvidia are 55nm and have 216 shaders.
These cards will be available in early December and we are quite sure that they will overclock much better than the old one. Nvidia doesn’t want to let ATI walk away without a fight and it prepares a surprise or two for this month.
The old GTX 260 with 192 shaders, that one that is clearly slower than Radeon HD 4870 is going for retirement and it will be replaced with the whole new GTX 260 216 shaders and most of these cards will end up with 55nm chips.
C.V.D.
Mercuri0
17-11-2008, 12:44
Male per quanto riguarda le prestazioni visto che clock/shader dovrebbero rimanere gli stessi di gt200. :(
Quindi forse anche i nomi? Niente "270"? :confused:
Boh, si vedrà, per ora sono solo voci.
Skullcrusher
17-11-2008, 13:11
Quindi forse anche i nomi? Niente "270"? :confused:
Boh, si vedrà, per ora sono solo voci.
Ne sapremo di più tra 2 settimane, spero :D
appleroof
17-11-2008, 14:10
C.V.D.
M.C.
meglio così :D
Sergio_Di_Rio
17-11-2008, 15:43
M.C.
meglio così :D
Cavoli, io volevo fare l'antipatico e invece tu mi hai fatto morire dalle risate :D
M.C.
Ciao ;)
appleroof
17-11-2008, 16:55
Cavoli, io volevo fare l'antipatico e invece tu mi hai fatto morire dalle risate :D
M.C.
Ciao ;)
;)
michelgaetano
17-11-2008, 17:00
Quindi ora solo 260 216 a 55 nm.
Ma quelle di adesso (2160 216) sono solo a 65 nm o sbaglio?
Chissà la differenza in termini di OC, spero sia migliora rispetto a quanto visto col g92 (9800gtx -> +)
halduemilauno
17-11-2008, 17:03
http://www.hardware-infos.com/news.php?news=2520
Alte GTX 260 eingestellt, 55 nm im Vormarsch
Der Gerüchteseite Fudzilla sollen Zahlen vorlegen, wonach insgesamt 70 Prozent der im laufenden Quartal hergestellten GT200-Chips bereits in 55 nm-Fertigung produziert würden. Erst vor rund einer Woche wurde Nvidia-Chef Jen-Hsun Huang mit folgenden Worten zitiert:
"We have 65nm inventory remaining, but everything we are ramping now is 55nm; and everything on the high-end that we are shipping now is 55nm."
Passend dazu dann auch die heutige Meldung, dass Nvidia die Produktion der alten Geforce GTX 260 mit 192 Shadereinheiten und 72 TMUs eingestellt hätte und die neue GTX 260 (216) sowie GTX 280 still und heimlich aufs 55 nm-Verfahren portieren würde - ähnlich leise verlief der Die-Shrink seinerzeit von 65 auf 55 nm bei 9500 GT und 9400 GT.
Mit Geforce GTX 270 und GTX 290 stehen dann allerdings für dieses Quartal auch noch gänzlich neue Nvidia-High-End-Chips im 55 nm-Verfahren vor der Tür. Letztere wird nach letzten Gerüchten vermutlich mit 650/1500/1100 MHz takten und somit gegenüber der GTX 280 8 Prozent mehr Textur- und 16 Prozent mehr ALU-Leistung aufbieten.
Die Einführung der neuen Chips sowie der Switch auf die 55 nm-Technologie bei den bestehenden Nvidia-High-End-Produkten wird für Anfang Dezember erwartet.
;)
appleroof
17-11-2008, 17:04
http://www.hardware-infos.com/news.php?news=2520
Alte GTX 260 eingestellt, 55 nm im Vormarsch
Der Gerüchteseite Fudzilla sollen Zahlen vorlegen, wonach insgesamt 70 Prozent der im laufenden Quartal hergestellten GT200-Chips bereits in 55 nm-Fertigung produziert würden. Erst vor rund einer Woche wurde Nvidia-Chef Jen-Hsun Huang mit folgenden Worten zitiert:
"We have 65nm inventory remaining, but everything we are ramping now is 55nm; and everything on the high-end that we are shipping now is 55nm."
Passend dazu dann auch die heutige Meldung, dass Nvidia die Produktion der alten Geforce GTX 260 mit 192 Shadereinheiten und 72 TMUs eingestellt hätte und die neue GTX 260 (216) sowie GTX 280 still und heimlich aufs 55 nm-Verfahren portieren würde - ähnlich leise verlief der Die-Shrink seinerzeit von 65 auf 55 nm bei 9500 GT und 9400 GT.
Mit Geforce GTX 270 und GTX 290 stehen dann allerdings für dieses Quartal auch noch gänzlich neue Nvidia-High-End-Chips im 55 nm-Verfahren vor der Tür. Letztere wird nach letzten Gerüchten vermutlich mit 650/1500/1100 MHz takten und somit gegenüber der GTX 280 8 Prozent mehr Textur- und 16 Prozent mehr ALU-Leistung aufbieten.
Die Einführung der neuen Chips sowie der Switch auf die 55 nm-Technologie bei den bestehenden Nvidia-High-End-Produkten wird für Anfang Dezember erwartet.
;)
bene, conferme che dovrebbero essere alle porte
p.s.: sulle rimanenze pare che ci avevi visto giusto ;)
Gabriyzf
17-11-2008, 17:10
scusate, l'inglese va bene, ma il tedesco non tutti lo sanno: fate un piccolo riassunto in italiano quando postate in questa lingua, grazie.
Gabriyzf
17-11-2008, 17:11
sorry, non avevo letto la parte in inglese, ciao
halduemilauno
17-11-2008, 17:17
bene, conferme che dovrebbero essere alle porte
p.s.: sulle rimanenze pare che ci avevi visto giusto ;)
esatto. tocca aspettare ancora un pò.
;)
devAngnew
17-11-2008, 17:55
http://www.hardware-infos.com/news.php?news=2520
Mit Geforce GTX 270 und GTX 290 stehen dann allerdings für dieses Quartal auch noch gänzlich neue Nvidia-High-End-Chips im 55 nm-Verfahren vor der Tür. Letztere wird nach letzten Gerüchten vermutlich mit 650/1500/1100 MHz takten und somit gegenüber der GTX 280 8 Prozent mehr Textur- und 16 Prozent mehr ALU-Leistung aufbieten.
Die Einführung der neuen Chips sowie der Switch auf die 55 nm-Technologie bei den bestehenden Nvidia-High-End-Produkten wird für Anfang Dezember erwartet.
;)
Quindi stando a questa news le 270/290 sono in arrivo e per di più la 290 dovrebbe avere i seguenti clock 650/1500/1100 MHz con un 8% in più di performance a livello texture e il 16% a livello ALU.(correggetemi se sbaglio ho usato il trd. crucco ita di google).:D
Speriamo che ci siano presto rece sulle performance.
Comunque sembrano promettere bene. Vedremo.
;)
Diobrando_21
17-11-2008, 20:31
quindi si può dire + o - che ci vorranno ancora un paio di settimane per vedere la gtx290 in commercio?
Ma la gx2 sarà composta da due gtx270 o 2 gtx290?
halduemilauno
18-11-2008, 06:56
quindi si può dire + o - che ci vorranno ancora un paio di settimane per vedere la gtx290 in commercio?
Ma la gx2 sarà composta da due gtx270 o 2 gtx290?
il tutto è ancora nebuloso.
;)
halduemilauno
18-11-2008, 06:57
http://www.expreview.com/img/news/2008/10/13/Geforce%20GT206%20chip%20sizes%2001.jpg
;)
pl[U]s.NOXx
18-11-2008, 08:28
old :)
devAngnew
18-11-2008, 08:58
Very OLD :old:
:D
devAngnew
18-11-2008, 09:48
Conferme ulteriori sul passaggio "silenzioso" a 55nm
http://www.tomshw.it/news.php?newsid=16097
;)
Andrea deluxe
18-11-2008, 10:59
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10521&Itemid=1
Andrea deluxe
18-11-2008, 11:01
DX 11
http://we.pcinlife.com/attachments/forumid_206/20081118_202572a22dd8e30595c9vKKMDWRrXSzd.jpg
http://we.pcinlife.com/attachments/forumid_206/20081118_8822ae8d0325163154344mhRXYJ6so9d.jpg
http://we.pcinlife.com/attachments/forumid_206/20081118_4dce0a22ada13214261fhMvIrFoe69Ul.jpg
http://we.pcinlife.com/attachments/forumid_206/20081118_ce2715546f74d68f450bokyiWkAhxtWg.jpg
http://we.pcinlife.com/attachments/forumid_206/20081118_49a4975e1b0683dd8ff1i5NZku8Wpyws.jpg
Fake?:confused:
DX 11
CUT
Fake?:confused:
guarda, mi sembrano le "stesse" di quando erano in uscita le DX10....... (soprattutto quella del mare)
petru916
18-11-2008, 11:06
imho si, quegli screens sono fotorealistici...per riprodurre qualcosa di così avanzato imho ci vorranno dai 5 ai 10 anni...poi se nn sn fake :sbavvv: :D
Skullcrusher
18-11-2008, 11:45
Solite immagini, non credo che ci saranno grosse differenze rispetto alle dx10, per me sono i soliti fake.
martinez1983
18-11-2008, 12:21
Se veramente con le Dx11 riescono a riprodurre quelle cose, mi compro subito una scheda made in dx11!!!
Però temo che sia solo fake!!!
Per arrivare ad un simile livello di dettaglio(con almeno 60fps al secondo) ci vorrà ancora tanti anni!!
VIKKO VIKKO
18-11-2008, 12:25
iscritto, forse pensiono la mia vga :)
fireradeon
18-11-2008, 12:30
Solite immagini, non credo che ci saranno grosse differenze rispetto alle dx10, per me sono i soliti fake.
Quoto, sono senz'altro ritoccate!
Poi, per carità, magari ci si può pure arrivare, ma in real time una grafica così la vederemo (forse) tra 10 anni.
Superdm83
18-11-2008, 12:38
Si...quelle immagini ... sono irreali..nel senso che non sono ricreabili con alcun motore grafico a oggi...a prescindere dalle prestazioni...
Cmq speriamo che le directX 11 introducano un pò di parallelismo nella programmazione di giochi e applicazioni, per cercare di sfruttare i proc dual/tri/quad core e le schede video gx2, x2, sli e crossfire... Fino a oggi ci hanno venduto, le schede video soprattutto (io stesso ce l'ho), senza l'adeguato supporto software!
sertopica
18-11-2008, 12:43
Beh, guardate che ad esempio il CE2 si avvicina molto alla qualità della prima e dell'ultima immagine... per la seconda basta utilizzare texture ad altissima risoluzione e pomparle con gli shader! :D
La terza invece mi puzza di fake... :stordita:
molochgrifone
18-11-2008, 12:50
iscritto, forse pensiono la mia vga :)
Mi perseguiti :asd:
VIKKO VIKKO
18-11-2008, 13:14
Mi perseguiti :asd:
E già :asd:
appleroof
18-11-2008, 16:52
guarda, mi sembrano le "stesse" di quando erano in uscita le DX10....... (soprattutto quella del mare)
:asd: :asd:
Mister Tarpone
18-11-2008, 17:06
DX 11
http://we.pcinlife.com/attachments/forumid_206/20081118_8822ae8d0325163154344mhRXYJ6so9d.jpg
Fake?:confused:
cos'è il source engine di hl lost coast aggiornato con un pò di bump mapping ?
raga a me la prima foto mi pare quella più impossibile di tutte, anche la casa con il giardino mi pare troppo fatta bene, ho paura che con quella grafica giocheranno i miei figli! :stordita:
halduemilauno
19-11-2008, 07:14
ultime news...
http://en.hardspell.com/doc/showcont.asp?news_id=4467
Yesterday we reported 55nm GT200 comes early 2009 here, and today fudzilla showed us more infos: Weve heard that there is a big possibility that Nvidias dual GT200 55nm card that we mentioned before might slip to Q1 2009 and launch in January.The card was originally planned for December, but it looks like Nvidia might not make it.
Whenever such a card comes out, it will take R700s, Radeon HD 4870 X2s performance crown, something that Nvidia needs to operate under its parameters.
The new card is likely to end up faster than the fastest ATI and Nvidia will also bet on its better SLI optimisation, all in order to return the performance crown that it needs back so badly.
Nvidia has simply not given up this year and there might be a driver that could change the odds in Nvidias advantage, coming very soon.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10528&Itemid=1
Makes it faster than 4870
The upcoming 180 driver release from Nvidia allows the Geforce GTX 260 with 216 Shaders to overake the Radeon HD 4870 in top titles like Call of Duty 5, Fallout 3, Far Cry 2, Left for Dead and Dead Space. Nvidia's new driver is set to launch this week and it will also bring some more functionality.
The first benchmarks will be revealed today, while the driver will hit the market shortly after. This is Nvidia's three month plus effort to fight against the sucessfull Radeon HD 4870 from AMD and with a new driver things will start to look good for Nvidia.
This driver will be the right time for Nvidia to relaunch the Geforce GTX 260 with 216 Shaders and try to fight AMD for the performance crown. We should have a few numbers for you shortly, so stay tuned.
;)
michelgaetano
19-11-2008, 07:20
Speriamo di beneficiare anche noi altri di questi drivers :D
halduemilauno
19-11-2008, 07:36
allora piccolo riassunto pare che la situazione sarà come segue...
"nuova" GTX260 594/1404/2000(216 shader)ovviamente 55nm a dicembre.
"nuova" GTX280 648/1512/2200 ovviamente 55nm a dicembre.
nuova GTX260x2 ovviamente a 55nm a gennaio.
AFAIK e ribadisco il pare.
;)
ps speriamo che le "nuove" abbiano una denominazione adeguatamente chiara.
michelgaetano
19-11-2008, 08:14
allora piccolo riassunto pare che la situazione sarà come segue...
"nuova" GTX260 594/1404/2000(216 shader)ovviamente 55nm a dicembre.
"nuova" GTX280 648/1512/2200 ovviamente 55nm a dicembre.
nuova GTX260x2 ovviamente a 55nm a gennaio.
AFAIK e ribadisco il pare.
;)
ps speriamo che le "nuove" abbiano una denominazione adeguatamente chiara.
Hal ma quindi in merito al nome cosa dobbiamo aspettarci?
Su Tom's leggevo che non dovrebbero chiamarsi 270 e 290.
Spero solo non facciano come le 9800 gt, dove alcune sono 55nm e altre 65 e non si capisce molto...
halduemilauno
19-11-2008, 08:21
Hal ma quindi in merito al nome cosa dobbiamo aspettarci?
Su Tom's leggevo che non dovrebbero chiamarsi 270 e 290.
Spero solo non facciano come le 9800 gt, dove alcune sono 55nm e altre 65 e non si capisce molto...
cosa dobbiamo aspettarci..la speranza è la chiarezza proprio sul tipo di 270, 290. da non escludere il semplice +. dipende anche dagli accordi/richieste con i partner.
Diobrando_21
19-11-2008, 08:28
cosa dobbiamo aspettarci..la speranza è la chiarezza proprio sul tipo di 270, 290. da non escludere il semplice +. dipende anche dagli accordi/richieste con i partner.
cmq sembrerebbe che la gx2 2 sia compostta da due gtx260, giusto? sempre con il condizionale ovvio...
halduemilauno
19-11-2008, 08:53
cmq sembrerebbe che la gx2 2 sia compostta da due gtx260, giusto? sempre con il condizionale ovvio...
nvidia(a quanto ne so io da settembre)stava lavorando/doveva scegliere tra due soluzioni una 240 shader a frequenze molto molto elevate si diceva per il core anche 756 mega e sui 1700/1800 per gli shader e 2400/2500 la ram e l'altra soluzione una dual gpu 216x2(all'epoca si poteva dire 192x2)a frequenze molto molto + basse. pare che abbia vinto questa seconda soluzione. ovviamente per ambedue le soluzioni i 55nm erano obbligatori.
quindi si avrà la "nuova" gtx260 216 vs la 4870, la "nuova" gtx280 vs la 4850x2 con le due nvidia molto molto competitive(come gia si vede o si può facilmente immaginare) e in attesa di questa dual il confronto con la 4870x2 sarà, sul piano prestazionale una distanza abbastanza ridotta rispetto all'attuale ma soprattutto verterà sul piano dei consumi(pare dell'ordine dei 100 watt di meno)e del prezzo. il tutto in attesa della dual appunto.
;)
Diobrando_21
19-11-2008, 09:04
quindi uno SLI di gtx280 a 55 Nm sarebbe cmq la soluzione più performante, giusto? Più veloce anche della gx2?
halduemilauno
19-11-2008, 09:15
quindi uno SLI di gtx280 a 55 Nm sarebbe cmq la soluzione più performante, giusto? Più veloce anche della gx2?
in attesa di bench si si potrebbe dire cosi. ma avrebbe anche una differenza di prezzo non da poco.
;)
devAngnew
19-11-2008, 09:25
allora piccolo riassunto pare che la situazione sarà come segue...
"nuova" GTX260 594/1404/2000(216 shader)ovviamente 55nm a dicembre.
"nuova" GTX280 648/1512/2200 ovviamente 55nm a dicembre.
nuova GTX260x2 ovviamente a 55nm a gennaio.
AFAIK e ribadisco il pare.
;)
ps speriamo che le "nuove" abbiano una denominazione adeguatamente chiara.
Bene.
Speriamo che il 2 dicembre sia la data giusta.
ciao.
;)
devAngnew
19-11-2008, 09:25
allora piccolo riassunto pare che la situazione sarà come segue...
"nuova" GTX260 594/1404/2000(216 shader)ovviamente 55nm a dicembre.
"nuova" GTX280 648/1512/2200 ovviamente 55nm a dicembre.
nuova GTX260x2 ovviamente a 55nm a gennaio.
AFAIK e ribadisco il pare.
;)
ps speriamo che le "nuove" abbiano una denominazione adeguatamente chiara.
Bene.
Speriamo che il 2 dicembre sia la data giusta.
Anche perchè mi voglio fare un bel regalo di natale.:D
ciao.
;)
P.s scusate doppio post.
DX 11
cut...:p
Fake?:confused:
penso che le dx11 non portino migliorie grafiche così evidenti come quelle viste in quelle immaggine,poi boh se fosse così ben vengano queste nuove librerie...:fagiano:
buongiorno a tutti:)
halduemilauno
19-11-2008, 09:29
Bene.
Speriamo che il 2 dicembre sia la data giusta.
Anche perchè mi voglio fare un bel regalo di natale.:D
ciao.
;)
P.s scusate doppio post.
ciao.
http://www.expreview.com/news/hard/2008-11-19/1227085506d10510.html
;)
devAngnew
19-11-2008, 09:47
ciao.
http://www.expreview.com/news/hard/2008-11-19/1227085506d10510.html
;)
Bene ulteriri conferme dell'uscita della x2 made in nvidia e come sappiamo da confronti di SLI di 260 sicuramente superiore alla 4870x2 di ATI. Bene per gli acquirenti di questo tipo di soluzione.
IMHO preferisco la 280 a 55nm (non mi piacciano i problemi del dual gpu).
ciao.
;)
alegiullare
19-11-2008, 09:49
in attesa di bench si si potrebbe dire cosi. ma avrebbe anche una differenza di prezzo non da poco.
;)
penso che anche uno sli delle attuali gtx 280 non dovrebbe allontanarsi molto dallo sli di 260 a 55..
nel mio caso avendone gia' una dovrebbe essere la soluzione migliore prestazioni costo,(sempre che serva aumentare).
calcolando,o forse sperando che le attuali schede scendano un pochino dopo l'avvento delle 55.......;)
alegiullare
19-11-2008, 09:54
Bene ulteriri conferme dell'uscita della x2 made in nvidia e come sappiamo da confronti di SLI di 260 sicuramente superiore alla 4870x2 di ATI. Bene per gli acquirenti di questo tipo di soluzione.
IMHO preferisco la 280 a 55nm (non mi piacciano i problemi del dual gpu).
ciao.
;)
io sono molto curioso di vedere i reali vantaggi prestazionali della gtx280 a 55 nm, in confronto all'attuale......
prestazionali, sono o dovrebbero essere scontati consumi/temp.
di sicuro si potra alzare un po' piu' le frequenze ma voglio vedere i percentuale il guadagno reale sotto bench e giochi ;)
devAngnew
19-11-2008, 09:54
nvidia(a quanto ne so io da settembre)stava lavorando/doveva scegliere tra due soluzioni una 240 shader a frequenze molto molto elevate si diceva per il core anche 756 mega e sui 1700/1800 per gli shader e 2400/2500 la ram e l'altra soluzione una dual gpu 216x2(all'epoca si poteva dire 192x2)a frequenze molto molto + basse. pare che abbia vinto questa seconda soluzione. ovviamente per ambedue le soluzioni i 55nm erano obbligatori.
quindi si avrà la "nuova" gtx260 216 vs la 4870, la "nuova" gtx280 vs la 4850x2 con le due nvidia molto molto competitive(come gia si vede o si può facilmente immaginare) e in attesa di questa dual il confronto con la 4870x2 sarà, sul piano prestazionale una distanza abbastanza ridotta rispetto all'attuale ma soprattutto verterà sul piano dei consumi(pare dell'ordine dei 100 watt di meno)e del prezzo. il tutto in attesa della dual appunto.
;)
Hal ma che tu sappia la vecchia soluzione è stata scarata per problemi di calore/consumi oppure non riusciva comunque a competere con la x2 di ATI.
Io avrei preferito la vecchia soluzione sai i problemi del dual gpu.
ciao.
;)
devAngnew
19-11-2008, 09:59
io sono molto curioso di vedere i reali vantaggi prestazionali della gtx280 a 55 nm, in confronto all'attuale......
prestazionali, sono o dovrebbero essere scontati consumi/temp.
di sicuro si potra alzare un po' piu' le frequenze ma voglio vedere i percentuale il guadagno reale sotto bench e giochi ;)
Quoto.
;)
halduemilauno
19-11-2008, 10:06
Hal ma che tu sappia la vecchia soluzione è stata scarata per problemi di calore/consumi oppure non riusciva comunque a competere con la x2 di ATI.
Io avrei preferito la vecchia soluzione sai i problemi del dual gpu.
ciao.
;)
l'attuale gtx280 602/1296/2214 portata nella nuova a 756/1755/2430 sicuramente avrebbe portato un notevolissimo boost. sufficiente? se mettiamo in risalto la differenza fra i numeri credo di si. a che prezzo in termini di calore/consumo? bella domanda.
anch'io avrei preferito la single.
ciao.
;)
michelgaetano
19-11-2008, 10:07
cosa dobbiamo aspettarci..la speranza è la chiarezza proprio sul tipo di 270, 290. da non escludere il semplice +. dipende anche dagli accordi/richieste con i partner.
Ho capito, quindi c'è ancora della "foschia" riguardo al nome
Un + sarebbe già meglio, secondo me è da evitare solo il mantenere lo stesso nome per schede diverse.
Certo che frequenze alla mano e overclock (la speranza c'è) un pelo migliore, la 270 dovrebbe avvicinarsi un pelo in più alla 280 (rispetto alla 260 216). Speriamo nel prezzo :D
ma si potrà usare una (x esempio) gtx 280x2 sul chipset x48?
michelgaetano
19-11-2008, 10:14
ma si potrà usare una (x esempio) gtx 280x2 sul chipset x48?
Perchè no, dal momento che utilizza un solo slot pci-x.
sono indeciso se aspettare una di queste nuove nvidia gx2 (dovrebbero essere le nuove top di gamma?) o prendere una ati (magari la toxic 4870x2?)
mi date le specifiche per la nuova (o le nuove) top di gamma nvidia?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.