PDA

View Full Version : GeForce GTX 200 a 55 nanometri a Gennaio


Redazione di Hardware Upg
02-12-2008, 07:32
Link alla notizia: http://www.hwupgrade.it/news/skvideo/geforce-gtx-200-a-55-nanometri-a-gennaio_27352.html

Previsto per il prossimo mese il debutto delle nuove versioni di scheda GeForce GTX 200, costruite con tecnologia produttiva più sofisticata: meno consumi e frequenze al rialzo

Click sul link per visualizzare la notizia.

Supermaverick
02-12-2008, 07:40
bene bene, ATI adesso tocca a te!
Viva la concorrenza!!!

halduemilauno
02-12-2008, 07:44
Bene. pazienza per il + tardi del previsto.
;)

Foglia Morta
02-12-2008, 07:47
Secondo Leadtek sono già state consegnate delle schede con GT200 @ 55nm http://www.hwupgrade.it/forum/showpost.php?p=25205473&postcount=1406

Quindi si direbbe un lancio silenzioso utile solo ad abbassare i costi. Ma stiamo a vedere cosa intendono fare...

michelgaetano
02-12-2008, 07:48
Pensavo approfittassero del Natale...

Sicuramente averle avute prima ci avrebbe giovato.

dotlinux
02-12-2008, 07:51
Dai ATI facci dei driver decenti ti prego!

On3sgh3p
02-12-2008, 07:56
Previsto per il prossimo mese il debutto delle nuove versioni di scheda GeForce GTX 200, costruite con tecnologia produttiva più sofisticata: meno consumi e frequenze al rialzo
Click sul link per visualizzare la notizia.

ed all'inizio prezzi piu' alti!!
basta aspettare che si assestino un po, e poi, una bella gtx260 da tirare!!

al135
02-12-2008, 07:56
Dai ATI facci dei driver decenti ti prego!

8.12 incoming :p
certo pero' se hai linux faticherai un po :D

halduemilauno
02-12-2008, 07:58
è utile sottolineare questo passaggio...
"According to the image we have on hand, the mark of GT200b on GeForce GTX260 graphic card will change from 65nm “G200-103-A2″ to be “G200-103-B2″. The “B” means latest 55nm processing technology, and its production cycle happened during the 33rd week of this year (August 11th to 17th), only 5 weeks after G200-103-A2 which was manufactured in the 28th week. Therefore, obviously NVIDIA had prepared for a long time."
;)

Obi 2 Kenobi
02-12-2008, 08:03
Con la nuova tecnologia a 55nm, le nuove geforce serie 200 consumeranno di meno?

Mparlav
02-12-2008, 08:04
Deve essere stato un die shrink più problematico del previsto, considerato da quanti mesi ci stanno lavorando.

Cmq, se vanno sulla guerra dei prezzi, sarà interessante per noi, fino all'estate prossima :-)

x Foglia Morta: anche a me era sorto lo stesso dubbio del recensore di Xbitlabs per quella scheda Leadtek. Avevano overcloccato la scheda, ma il vgpu era calato in modo sensibile, così come l'assorbimento.
A sto' punto vorrei vedere "se c'è il trucco" anche sotto alle XFX GTX260-216SU BE ;-)

wolfnyght
02-12-2008, 08:19
secondo me prima finiscn di svuotar le scorte della vecchia gpu....
che magari pensavano di vender in quantitativi maggiori.....
poi finito quelle via con le nuove.....mettendo la sigla + davanti............e 50 sacchi in +......sul prezzo......
comunque sia è letteralmente un parto sto passaggio di processo produttivo :(
non vorrei che queste "nuove" 280 sian solo delle cavie(idem gli utenti)per questo processo produttivo.....in attesa delle nuove top di gamma(con questo processo produttivo nuovo già collaudato sulle 280)

Kerne
02-12-2008, 09:02
Poi bisognerà vedere perchè nell'articolo non si parla di meno consumi ma di MAGGIOR FREQUENZA a parità di voltaggio. Questo nuovo processo produttivo potrebbe portare meno consumi a parità di frequenza o anche più prestazioni a parità di consumi. Io per ora mi son rotto della politica di nvidia, ha fatto la GTX 260 192sp, un mese dopo la 216sp e ora la 216sp a 55nm, io ho venduto la 216sp e per ora sto con una 4870 che almeno per ora non è vecchia e non lo sarà per tre mesi. Questa politica la fan tutti, è normale per il mercato, ma nvidia ne fa.... troppa.

manga81
02-12-2008, 09:11
Pensavo approfittassero del Natale...

Sicuramente averle avute prima ci avrebbe giovato.


meglio così altrimenti l'avrei potuta comprare :asd:


Per queste architetture il passaggio alla tecnologia produttiva a 55 nanometri permetterà sia di contenere i costi di produzione che di incrementare le frequenze di funzionamento, fermo restando il valore di consumo massimo.

speriamo bene :D

vorrei tirare con la 3870 (o eventualmente 4670 se la cambio per natale con poca differenza di prezzo) fino a fine marzo

Kharonte85
02-12-2008, 09:46
Arrivano in deciso ritardo rispetto a quando si pensava...spero vivamente che facciano una seppur minima differenza del nome e alzino un po' le frequenze di funzionamento per differenziare le schede @55nm da quelle @65

manga81
02-12-2008, 09:53
Arrivano in deciso ritardo rispetto a quando si pensava...spero vivamente che facciano una seppur minima differenza del nome e alzino un po' le frequenze di funzionamento per differenziare le schede @55nm da quelle @65

se riducono del 15/20% prezzo/calore/consumi/ è un bel risultato ;)

dtpancio
02-12-2008, 09:55
Concordo con chi sostiene che il ritardo potrebbe essere causato dalle giacenze delle attuali GTX a 65nm, ma non capisco perché si pensa che una volta uscite dovrebbero costare pure più di queste..
Forse non vi ricordate il drastico calo dei prezzi avvenuto con l'uscita di G92..

Riguardo ai consumi sono un po' scettico..sulla carta dovrebbero essere minori, ma con la 9800GTX+ non mi sembra ci sia stato quel gran calo..anzi, in certe rece sembra consumino pure più delle 9800GTX!

Turin
02-12-2008, 10:30
Date le frequenze maggiori, alla fine il consumo sarà invariato rispetto alla precedente.

dtpancio
02-12-2008, 10:43
ma la frequenza non incide molto sui consumi, se il voltaggio rimane lo stesso.

Nenco
02-12-2008, 10:55
A sto' punto vorrei vedere "se c'è il trucco" anche sotto alle XFX GTX260-216SU BE ;-)

Magari!
cosi mi ritroverei con una 55nm mesi prima dell'uscita ufficiale e pagata "solo" 269 :cool:

Turin
02-12-2008, 10:57
Giusto, meglio che non entro nelle questioni tecniche perché sennó mi incarto... comunque se non è la frequenza sarà qualcos'altro.
Il fatto è che mi pare che pur con tutti i die shrink fatti da un anno a questa parte i consumi siano sempre gli stessi se non peggiori. Alla fine il vantaggio c'è a parità di tutto il resto, ma se vuoi prestazioni maggiori si consuma sempre un casino.

Gaming_Minded
02-12-2008, 11:22
Beh lo fanno per competere contro ati che in quel periodo dovrebbe presentare le sue prime GPU a 40 nm.

s12a
02-12-2008, 11:24
Il problema non e` tanto il consumo a pieno carico (che a meno che uno non sia sempre a giocare o a far funzionare in background Folding@home non e` che incida tantissimo sui costi di gestione di un pc), ma quello in idle. Una GTX280 solo per stare accesa in 2d in idle ad esempio richiede all'alimentatore 50 watt, troppi considerando che una qualsiasi integrata o discreta di fascia ultrabassa per fare lo stesso identico lavoro con le medesime prestazioni ne richiede meno di 10. Le ATI di fascia alta sono messe ancora peggio da questo punto di vista.

Mparlav
02-12-2008, 11:50
x Turin: se fosse per gli ingegneri progettisti, direbbero:
"Col die shrink teniamo le prestazioni uguali, le rese possiamo aumentarle e consumiamo il 15% in meno".

Poi interviene quello del marketing e dice:"E no, aumentiamo le prestazioni del 15% e teniamo i consumi uguali.
Anzi no. Visto che ci siamo, aumentiamole del 20% perchè la gpu "tiene", e consumiamo un po' di più".
E vince sempre il secondo :-)

Accadrà anche l'anno prossimo col passaggio ai 40nm.
Quello che invece secondo me miglioreranno ulteriormente nella prossima generazione (sia Ati che Nvidia), sarà il consumo in idle/2D e durante la riproduzione video.

okorop
02-12-2008, 13:11
Beh lo fanno per competere contro ati che in quel periodo dovrebbe presentare le sue prime GPU a 40 nm.

competere??? lol per non tracollare completamente intendi :asd: per competere con le 40 nm ati nvidia presenterà gt300;)
p.s. pare cjhalcune gtx260 siano dotate già di sto chip.......

dtpancio
02-12-2008, 13:54
a parte frequenza e voltaggio non c'è molto altro..ovviamente a parità di complessità del pcb. ma non penso che a livello di layout le revision a 55nm si differenzieranno dalle sorelle a 65nm.
la frequenza incide linearmente con la potenza dissipata, il voltaggio col quadrato. ovvio quindi che incide anche la frequenza e bisogna vedere quanto il die shrink sappia controbilanciare la cosa..
del resto cmq stiamo parlando di un passaggio da 65nm a 55nm e non del più corposo 65-->45nm delle cpu..

concordo cmq con s12a. se in idle consumassero una manciata di watt, budget permettendo, potrei anche pensare di mettere due gtx280 in sli..il consumo settimanale sarebbe comunque minore di quello dovuto a scaldobagno e asciugacapelli accesi tutti e sette i giorni su sette nei quali mi doccio..
in realtà il problema non si pone perché 1. non spendo sicuramente 800€ per due gpu 2. ho il Folding@Home sempre attivo, quindi diverrei a breve socio onorario dell'Enel!:D

sotto questo punto di vista cmq nvidia sta facendo progressi. come già accennato, le gtx consumano molto in full, ma sono relativamente parsimoniose in idle.
e poi c'è l'hybrid-SLI, che spero fortemente divenga una realtà, e utilizzabile anche con mobo con chipset intel.

Asterion
02-12-2008, 14:45
Non compro una scheda video nVidia prima di Elder Scrolls 5, tanto quando uscirà toccherà rifarsi tutto :D

Obi 2 Kenobi
02-12-2008, 15:26
e poi c'è l'hybrid-SLI, che spero fortemente divenga una realtà, e utilizzabile anche con mobo con chipset intel.

A meno che ti interessi solo il geforce Boost (quello che permette di far lavorare insieme scheda video integrata con scheda video dedicata) dubito che ti possa essere utile.
Solo con le schede madri che supportano proci amd si ha sia il geforce boost che l'hybrid power.

http://www.nvidia.com/object/hybrid_sli_desktop.html

Questo per quanto riguarda nvidia.

gianni1879
02-12-2008, 16:27
quindi un pò di ritardo sulla tabella di marcia, peccato.... evidentemente hanno avuto degli imprevisti su questo PP

SwatMaster
02-12-2008, 16:33
Visto che i costi di produzione sicuramente diminuiranno, sarà interessante vedere se anche il prezzo finale subirà un taglio.
A questo punto, sì che nVidia tornerà ad essere concorrenziale, imho.

gianni1879
02-12-2008, 16:36
Visto che i costi di produzione sicuramente diminuiranno, sarà interessante vedere se anche il prezzo finale subirà un taglio.
A questo punto, sì che nVidia tornerà ad essere concorrenziale, imho.

e tutti i chip a 65nm li butta??


la cosa strana che non si sono visti scarti basati su g200

SwatMaster
02-12-2008, 17:54
e tutti i chip a 65nm li butta??


la cosa strana che non si sono visti scarti basati su g200

Mah, se me li regala, li piglio volentieri. :ciapet:

No, apparte gli scherzi... Penso -e spero!- che abbia fermato la produzione dei 65nm, così da terminare i prodotti già in commercio per entrare con i nuovi a gennaio.

bollicina31
02-12-2008, 18:43
era ora che si dassero una mossa sto solo aspettando i 55nm per cambiare le schede video

SwatMaster
02-12-2008, 18:52
era ora che si dassero una mossa sto solo aspettando i 55nm per cambiare le schede video

Dessero. :doh:

solid_snake_85
02-12-2008, 19:42
Secondo voi è possibile che esca una vga serie GTX con prestazioni simili alla attuale GTX 260 solo con unico connettore di alimentazione (ergo consumi più contenuti) ??

Sarà una cosa psicologica, ma dargli due linee PCIX di alimentazione mi fa paura .... :sofico:

Obi 2 Kenobi
02-12-2008, 21:16
ma scusa, servono sul serio 2 connettori di alimentazione per sta scheda?:eek: La spina del pc la collegate direttamente alla più vicina centrale nucleare o cosa? :stordita:

SwatMaster
02-12-2008, 21:38
Secondo voi è possibile che esca una vga serie GTX con prestazioni simili alla attuale GTX 260 solo con unico connettore di alimentazione (ergo consumi più contenuti) ??

Sarà una cosa psicologica, ma dargli due linee PCIX di alimentazione mi fa paura .... :sofico:

"Sarebbe bello, se durasse almeno mezz'ora" :asd:

ma scusa, servono sul serio 2 connettori di alimentazione per sta scheda?:eek: La spina del pc la collegate direttamente alla più vicina centrale nucleare o cosa? :stordita:

Tutte le vga di fascia medio-alta/alta necessitano di due connettori d'alimentazione. Non è proprio una novità, questa. ;)

Obi 2 Kenobi
02-12-2008, 21:55
no io avevo capito che c'era bisogno di cavi supplementari o come cavolo si dice :Prrr: . Insomma alla fine erano 3 i connettori e non 2 :D

Stech1987
03-12-2008, 02:07
Nooo...! Scimmie che salgono...! :sofico:

dtpancio
03-12-2008, 08:14
A meno che ti interessi solo il geforce Boost (quello che permette di far lavorare insieme scheda video integrata con scheda video dedicata) dubito che ti possa essere utile.
Solo con le schede madri che supportano proci amd si ha sia il geforce boost che l'hybrid power.

http://www.nvidia.com/object/hybrid_sli_desktop.html

Questo per quanto riguarda nvidia.

a me interessa poter "spegnere" completamente la gpu dedicata e utilizzare solo quella integrata, molto più parca nei consumi. questo a meno che non sviluppino schede video con possibilità di spegnere quasi completamente i circuiti non utilizzati. da questo punto di vista le cpu sono molto più avanzate.

che io sappia però l'hybrid sli c'è anche su intel, ma solo su mobo con chipset nvidia (che però pare smetta di fare chipset..e infatti ora X58 è compatibile con lo SLI).

Visto che i costi di produzione sicuramente diminuiranno, sarà interessante vedere se anche il prezzo finale subirà un taglio.
A questo punto, sì che nVidia tornerà ad essere concorrenziale, imho.

non vedo perché dovrebbe essere diversamente.

e tutti i chip a 65nm li butta??

la cosa strana che non si sono visti scarti basati su g200

perché dovrebbe buttarli scusa? avrà fatto due conti e le 55nm usciranno quando le scorte saranno finite..

Secondo voi è possibile che esca una vga serie GTX con prestazioni simili alla attuale GTX 260 solo con unico connettore di alimentazione (ergo consumi più contenuti) ??

Sarà una cosa psicologica, ma dargli due linee PCIX di alimentazione mi fa paura .... :sofico:

può anche darsi che la nuova GTX260 esca con un solo connettore..del resto consuma meno di una 9800GTX che ha due connettori, la quale però è IDENTICA alla 8800GTS 512Mb che ne ha soltanto uno..

fukka75
03-12-2008, 08:15
e il successore del G200? dopo l'estate 09? :muro::muro:

halduemilauno
03-12-2008, 08:19
e il successore del G200? dopo l'estate 09? :muro::muro:

beh intanto questa...
http://en.expreview.com/2008/12/03/dual-gpu-gtx260-gx2-officially-branded-as-geforce-gtx295.html
;)

fukka75
03-12-2008, 12:13
non hai risposto alla mia domanda :p
quello non è il successore di G200 :O

Obi 2 Kenobi
03-12-2008, 12:23
a me interessa poter "spegnere" completamente la gpu dedicata e utilizzare solo quella integrata, molto più parca nei consumi. questo a meno che non sviluppino schede video con possibilità di spegnere quasi completamente i circuiti non utilizzati. da questo punto di vista le cpu sono molto più avanzate.

che io sappia però l'hybrid sli c'è anche su intel, ma solo su mobo con chipset nvidia (che però pare smetta di fare chipset..e infatti ora X58 è compatibile con lo SLI).

Da quello che ho capito leggendo il sito di nvidia, la scheda video la puoi segnere solo su mobo che supportano proci amd.
Dato che sono molte più le persone che usano proci intel, non mi sembra per nulla utile l'hybrid sli.

halduemilauno
03-12-2008, 13:21
non hai risposto alla mia domanda :p
quello non è il successore di G200 :O

il successore è il GT300 a giugno.

fukka75
03-12-2008, 13:40
meno peggio di quanto temessi, ma sempre troppo tardi è :muro::muro:
Sperando che non sia un G200 migliorato :rolleyes:

halduemilauno
03-12-2008, 13:44
meno peggio di quanto temessi, ma sempre troppo tardi è :muro::muro:
Sperando che non sia un G200 migliorato :rolleyes:

no molto diverso. 40nm, 384 shader, 384 bit e gddr5.
;)

Kharonte85
03-12-2008, 13:48
beh intanto questa...
http://en.expreview.com/2008/12/03/dual-gpu-gtx260-gx2-officially-branded-as-geforce-gtx295.html
;)
figuriamoci se nvidia non l'avrebbe fatta prima o poi...
no molto diverso. 40nm, 384 shader, 384 bit e gddr5.
;)
Mostro. :eek: :eek: :eek:

Ma credo sia troppo presto per dichiararli attendibili...vero?

halduemilauno
03-12-2008, 14:04
figuriamoci se nvidia non l'avrebbe fatta prima o poi...

Mostro. :eek: :eek: :eek:

Ma credo sia troppo presto per dichiararli attendibili...vero?

:sofico:

SwatMaster
03-12-2008, 14:57
-cut-
non vedo perché dovrebbe essere diversamente.
-cut-

Essendo aziende, e come tali volte a massimizzare i profitti, una riduzione dei costi di produzione non si traduce necessariamente in un taglio dei prezzi sul prodotto finale. Direi che è lecito aspettarsi una mossa del genere, no? ;)