PDA

View Full Version : Da NVIDIA presto un aggiornamento di GT200 a 40 nanometri


Redazione di Hardware Upg
25-06-2009, 11:08
Link alla notizia: http://www.hwupgrade.it/news/skvideo/da-nvidia-presto-un-aggiornamento-di-gt200-a-40-nanometri_29426.html

Secondo alcune indiscrezioni il mese di Settembre potrebbe vedere l'introduzione sul mercato di schede NVIDIA basate su uno shrink di GT200

Click sul link per visualizzare la notizia.

dannyb78
25-06-2009, 11:16
si può dire "che @@"???
sono 2 anni che nvidia riscalda la stessa minestra, con ottime prestazioni ci mancherebbe, ma un po' di innovazione? prima di rilasciarla devono forse rientrare con il fatturato???

Revenge81
25-06-2009, 11:18
Mah, un altro shrink!?!?

Ormai nvidia nn sa proprio ke fare per raddrizzare le cose, le sta provando veramente tutte....:)

secondo me è una boiata allucinante, perchè nn da manco il tempo ai produttori di smaltire le scorte, che subito immette sul mercato qualcosa di nuovo....

che senso ha ADESSO una gt200 a 40nm e con supporto alle dx10.1?boh.....

Severnaya
25-06-2009, 11:18
ma gli conviene???


se la resa produttiva è ancora bassa nn so se sia una mossa azzeccata

Wolfhask
25-06-2009, 11:19
No dai mi sembra una buona notizia minor consumi e maggior frequenze se manterranno la stessa linea di prezzi potrebbe essere una spesa azzeccata se non fatta prima dell'uscita dei 300...se poi me le fanno smilze invece che double slot sarebbe una figata ;-)

lowenz
25-06-2009, 11:19
Infatti è in lavorazione anche il GT300 :D

holly88
25-06-2009, 11:20
speriamo bene che vanno tanto e costano poco!!

Foglia Morta
25-06-2009, 11:22
si può dire "che @@"???
sono 2 anni che nvidia riscalda la stessa minestra, con ottime prestazioni ci mancherebbe, ma un po' di innovazione? prima di rilasciarla devono forse rientrare con il fatturato???

ma è fudzilla... a volte scrive per riempire la home page inventandosi le cose. Quando ci saranno altre fonti sarà più logico dire "che @@" :D

deviljack2
25-06-2009, 11:23
vediamo il nuove nome della 8800gts 512 dai! sono curioso!!
ricapitoliamo:

8800gts (65nm) -> 9800gtx (65nm) -> 9800gtx+ (55nm) -> gts 250 (55nm) -> ????? (40nm)

Pat77
25-06-2009, 11:28
Ma anche su versioni mobile?

michelgaetano
25-06-2009, 11:30
Gts 250+ lol.

calabar
25-06-2009, 11:39
Per lo meno hanno aggiunto il supporto dx10.1, anche se in un momento in cui ATI fa uscire i nuovi chip dx11. Stavolta non si può parlare di semplice shrink, per lo meno.

Io non escluderei siano per nvidia prove tecniche per la prossima generazione di gpu.

Capellone
25-06-2009, 11:40
vediamo il nuove nome della 8800gts 512 dai! sono curioso!!
ricapitoliamo:

8800gts (65nm) -> 9800gtx (65nm) -> 9800gtx+ (55nm) -> gts 250 (55nm) -> ????? (40nm)

vogliamo aggiungere anche la 8800GTS col G80, che aveva inaugurato il nome? :asd:
penso che la carriera del G92 sia finita, ha dato vramente tanto.
comunque non è male l'idea di fare die shrink per portare l'architettura di fascia alta attuale alla fascia media della prossima stagione, con minori consumi e un po' di overclock. in fondo l'architettura regge bene perchè è cambiata poco dal G80 e i programmatori 3D vi si sono adeguati.

TheInvisible
25-06-2009, 11:44
Ciao,
scusate, stanno sviluppando le schede che supportano le DX10.1 quanto adesso con Windows7 verranno introdotte le DX11? Ma non è uno spreco di risorse umane e economiche?

Mah chi ci capisce è bravo

Ciao e Buona giornata

qasert
25-06-2009, 11:47
il nuovo gt300 versione mobile quando?con quello e la nuova serie
5 ati mobile penso finalmente si potra giocare anche coi nb o no?

Simedan1985
25-06-2009, 11:52
Cioe fanno la terza serie di 295??

Alzatan
25-06-2009, 11:54
Ciao,
scusate, stanno sviluppando le schede che supportano le DX10.1 quanto adesso con Windows7 verranno introdotte le DX11? Ma non è uno spreco di risorse umane e economiche?

Mah chi ci capisce è bravo

Ciao e Buona giornata

in realtà le schede compatibili dx10.1 lo sono anche con le dx11 (o qualcosa di simile)... Non mi chiedere dove l'ho letto, ma l'ho letto!!!! :D

StIwY
25-06-2009, 11:55
Ancora con sti aggiornamenti-.-"

Qualcuno glielo dice per favore che vogliamo UN CAMBIO GENERAZIONALE, e non brodo di 8800GTX allungato che ci rifilano da oltre due anni.......:doh:

calabar
25-06-2009, 11:55
@TheInvisible
Da quel che mi è parso di capire, le dx 10.1 vanno bene per sostenere gli effetti di win7.
Se poi parli di giochi dx11, beh, è probabile che non se ne vedano di disponibili nell'immediato.

@qasert
non credo più di quanto lo si possa fare oggi.
Sui notebook le schede sono sempre limitate dal tdp (più che dal consumo in se), per cui se la scheda di fascia alta raggiungerà tdp elevati, il distacco con le schede per notebook sarà sempre sostanzialmente la stessa.
A mio parere le schede esterne sono l'unica alternativa accettabile in questo senso, perchè possono disporre di una dissipazione appropriata.

Simedan1985
25-06-2009, 11:58
in realtà le schede compatibili dx10.1 lo sono anche con le dx11 (o qualcosa di simile)... Non mi chiedere dove l'ho letto, ma l'ho letto!!!! :D

MI pare,ma nn ci metto le mani sul fuoco ,che anche io avevo letto una robba del genere tipo retrocompatibilità.....
Io dei miglioramenti sono sempre felici,ci mancherebbe ,l'unica cosa che mi va un po in C+++ è che co questa mossa ritarda ancora di più il gt 300:( .

Simedan1985
25-06-2009, 12:00
Ancora con sti aggiornamenti-.-"

Qualcuno glielo dice per favore che vogliamo UN CAMBIO GENERAZIONALE, e non brodo di 8800GTX allungato che ci rifilano da oltre due anni.......:doh:

Chi ha comprato quelle schede ha una bella longevità:) io ho la mia affezzionata 8800gts640 e ancora dice la sua su parecchi titoli

+Enky+
25-06-2009, 12:05
quindi adesso che io sto per cambiare computer perchè il mio si è rotto e volevo prendere una gtx 275 me la dovrei prendere in quel posto oppure aspettare fino a settembre?

Automator
25-06-2009, 12:09
speriamo bene che vanno tanto e costano poco!!

speriamo che ti ABBIANO bocciato... :asd:

Simedan1985
25-06-2009, 12:09
quindi adesso che io sto per cambiare computer perchè il mio si è rotto e volevo prendere una gtx 275 me la dovrei prendere in quel posto oppure aspettare fino a settembre?

Probabilmente poi arrivi a settembre e dici"vabbe ormai aspetto altre due/tre mesi che escono le dx11"

Io prenderei una gtx260 a 130 euro adesso:asd:

max8472
25-06-2009, 12:12
Le DirectX 11 dovrebbero essere un "super set" delle 10.1 e questo vuol dire che le schede compatibili DX10.1 potranno far girare i giochi DX11 ma senza i nuovi effetti che queste garantiranno. Questo è quello che ho capito da una lettura veloce di un articolo.

g.luca86x
25-06-2009, 12:18
scusate tanto ma con il mercato ormai saturo da anni della stessa medesima architettura nvidia che senso ha propinare ancora la stessa solfa però a 40nm? Quante schede pensano di vendere sempre con la stessa architettura? L'unica spiegazione che mi viene in mente è che abbiano venduto tante gts250 a causa di un oceano di utonti e che ci vogliano riprovare ora con i 40nm! Ma chi è così folle da fare un cambio di scheda solo per qualche watt in meno? Come se quando ati ha immesso la 4770 (parola grossa vista la latitanza di tali schede) i possessori di 4830 avessero speso di corsa altri cento € per cambiare scheda... Conoscete un folle che l'ha fatto? Senza contare che a settembre, quando i problemi di resa del 40nm dovrebbere (condizionale d'obbligo) essere risolti c'è anche da considerare che ati farà pesare su tsmc tutti i ritardi e mancati introiti accumulati per colpa della fonderia e avrà così il suo bel canale prioritario nella produzione...

Sarebbe stato bello chiedere esplicitamente al capoccia di nvidia nell'intervista se hanno in programma prima o poi di far saltare fuori una nuova architettura o solo se campano ancora con le chiacchiere su cuda! Sono anni che non tira fuori nulla di nuovo!!! ok che le prestazioni ci sono, ma l'innovazione dov'è?

fabri85
25-06-2009, 12:18
questo è il risultato della perdita di competività di AMD... speriamo che riesca a risollevare le sorti... innovazione bloccata... sia sul lato gpu sia sul lato cpu (anche se in misura minore)

Simedan1985
25-06-2009, 12:29
questo è il risultato della perdita di competività di AMD... speriamo che riesca a risollevare le sorti... innovazione bloccata... sia sul lato gpu sia sul lato cpu (anche se in misura minore)

:what: nn mi pare che amd nn sia competitiva,ma forse ha dormito per due anni

EmmeP
25-06-2009, 12:29
quante chiacchiere.. ma nn fate altro ke lamentarvi; minestra riscaldata, è una cosa inutile.. e le solite battutine del caxxo..

se lo fanno avranno i loro buoni motivi.. nn sò stupidi come la gente ke chiacchira e dice stronzate qui dentro!!

Blackcat73
25-06-2009, 12:30
Ok Nvidia avrà rimarchiato un po' troppo ma non capisco chi tira in ballo il g80 qua stiamo parlando del chip alla base delle 260/275/280/295 ben venga che sia fatto a 40nm.

g.luca86x
25-06-2009, 12:31
questo è il risultato della perdita di competività di AMD... speriamo che riesca a risollevare le sorti... innovazione bloccata... sia sul lato gpu sia sul lato cpu (anche se in misura minore)

è indubbio che negli anni passati ati non ha realizzato prodotti all'altezza della controparte nvidia, però con la serie 4800 ha dato una bella botta! Il problema secondo me è che nvidia ha una clientela troppo fidelizzata, che si fida ciecamente di tutto quello che fa ed è ormai sempre pronta a mettersi a 90° (con le dovute singole eccezioni). L'altro giorno parlavo con un mio amico che doveva farsi un pc nuovo e nemmeno sapeva che la gts250 è sempre la stessa scheda rimarchiata da anni... Chissà quanti ce ne sono così! Mica tutti leggono questi articoli su internet per informarsi!

Simedan1985
25-06-2009, 12:33
quante chiacchiere.. ma nn fate altro ke lamentarvi; minestra riscaldata, è una cosa inutile.. e le solite battutine del caxxo..

se lo fanno avranno i loro buoni motivi.. nn sò stupidi come la gente ke chiacchira e dice stronzate qui dentro!!

Sicuramente hanno i loro buoni motivi.
Questo nn toglie che ci troviamo all'interno di un forum di appassionati di hardware ,e nulla ci impedisce di scrivere considerazioni e opinioni in merito,anche se sono stronzate .Il tuo post mi sembra aggressivo e offensivo.

g.luca86x
25-06-2009, 12:35
quante chiacchiere.. ma nn fate altro ke lamentarvi; minestra riscaldata, è una cosa inutile.. e le solite battutine del caxxo..

se lo fanno avranno i loro buoni motivi.. nn sò stupidi come la gente ke chiacchira e dice stronzate qui dentro!!

No, sono solo più furbi di certi somari che cambiano una scheda senza sapere di stare comprando lo stesso prodotto...

Kharonte85
25-06-2009, 12:54
Incomprensibile...:boh:

Vampire666
25-06-2009, 13:10
Dovete tener presente che il passaggio da un processo produttivo all'altro non è sempre indolore...ci possono essere delle complicanze, rese produttive inizialmente non molto efficienti per problemi tecnici e così via.

Ora vogliono semplicemente "rodare" il nuovo processo produttivo a 40nm con le GT200 che verrà poi utilizzato di norma e massicciamente per la prossima generazione di schede (GT300).
E' una buona intelligente strategia. Tenete presente che il grosso delle vendite delle GT200 chiaramente è in via di diminuzione e se dovessero avere dei problemi con i 40nm non è che sarebbe questo gran dramma in quanto la richiesta delle GT200 è quella che è (oltre comunque ad avere le schede sul mercato a processi produttivi precedenti).
Meglio avere eventuali problemi di processo produttivo ora con il GT200 (per i motivi sopra citati) risolvibili prima della commercializzazione del GT300, che avere problemi quando si avrà una grandissima richiesta delle nuove schede (GT300).

Poi chiaramente ci sono sempre i farlocchi inesperti che cambiano schede non conoscendo le reali differenze...ma questo è un altro discorso (che chiaramente è sempre un punto che favorisce Nvidia, ma di certo non è colpa loro).

Consideriamo poi chi deve comprare una scheda video ora...sempre meglio averla con il processo produttivo migliore (minori consumi e temperature), quindi non capisco le reazioni negative a fronte di queste news (sappiamo che prossimamente ci saranno delle schede video completamente nuove -> GT300, quindi qual'è il problema?).

frankie
25-06-2009, 13:17
dall'articolo del scientist loro innovano e ati/intel no.

... ho qualche dubbio...

Capozz
25-06-2009, 13:28
Ma a cosa servirebbero ste schede visti i pessimi yelds del PP 40nm ? A meno che non vogliano rimetterci un sacco di soldi le schede GT200 a 40nm costeranno come schede attuali, se non di più, per avere le stesse prestazioni.
L'unica utilità di un chip simile potrebbe essere quella della possibilità un altro rebranding in modo da vendere qualche scheda in più in attesa di GT300, che forse a questo punto arriverà ancora più tardi del previsto.

atomo37
25-06-2009, 13:41
lo stanno spremendo fino alla morte questo gt200

Revenge81
25-06-2009, 13:46
secondo me nvidia potrebbe essere un pò indietro con gt300 (vista la sua complessità) ed ha fatto questa mossa per poter competere,in virtù delle maggiori frequenze) con la nuova generazioni di ATI.

Cosa ke. unita all'implementazione delle dx 10.1,colmerebbe in parte il gap con ati a lv d librerie e di prestazioni...

se , infine, consideriamo anche i problemi di resa sui 40nm....beh, come diceva il buon Colombo, tre indizi fanno una prova....

quindi, E' UFFICIALE!!! GT300 LO VEDREMO L'ANNO PROSSIMO!!!:D:D

saeba77
25-06-2009, 14:11
non vedo perchè ci si debba lamentare...sarà anche la stessa minestra ma tanto far uscire un prodotto nuovo ora come ora a cosa serve? sinceramente non vedo nulla in giro che abbia bisogno di maggiori prestazioni di una gtx 285 (che non è nemmeno il topo di gamma)
correggetemi se sbaglio ma dopo crysis che ha 2 anni è uscito qualcosa che abbia la stessa qualita grafica?

i 40n gli serviranno per affinare il processo su un prodotto consolidato per poi sfruttarli a dovere nella prossima generazione
a noi i 40n comportano una diminuzione di prezzo e minor consumi

certo un nuovo prodotto anche se non sfruttato ha il vantaggio di far diminuire il prezzo delle altre schede...pero' gia cosi non ci si puo' lamentare secondo me

halduemilauno
25-06-2009, 14:11
lo stanno spremendo fino alla morte questo gt200

e giustamente visto quanto ancora tanto può dare. pensate a che frequenze può esser proposto e poi basta pensare (una volta ottimizzati i 40nm) ai risparmi nei costi produttivi.

;)

mircocatta
25-06-2009, 14:11
e io che volevo acquistare una gtx285, cosa faccio, mi giro i pollici?

Rufus86
25-06-2009, 14:40
Supportare le DX10.1 dopo averle denigrate per due anni e pochi mesi prima del lancio delle DX11 è da no comment, nVIDIA non finisce mai di stupire.

SwatMaster
25-06-2009, 14:59
Dovete tener presente che il passaggio da un processo produttivo all'altro non è sempre indolore...ci possono essere delle complicanze, rese produttive inizialmente non molto efficienti per problemi tecnici e così via.

Ora vogliono semplicemente "rodare" il nuovo processo produttivo a 40nm con le GT200 che verrà poi utilizzato di norma e massicciamente per la prossima generazione di schede (GT300).
E' una buona intelligente strategia. Tenete presente che il grosso delle vendite delle GT200 chiaramente è in via di diminuzione e se dovessero avere dei problemi con i 40nm non è che sarebbe questo gran dramma in quanto la richiesta delle GT200 è quella che è (oltre comunque ad avere le schede sul mercato a processi produttivi precedenti).
Meglio avere eventuali problemi di processo produttivo ora con il GT200 (per i motivi sopra citati) risolvibili prima della commercializzazione del GT300, che avere problemi quando si avrà una grandissima richiesta delle nuove schede (GT300).

Poi chiaramente ci sono sempre i farlocchi inesperti che cambiano schede non conoscendo le reali differenze...ma questo è un altro discorso (che chiaramente è sempre un punto che favorisce Nvidia, ma di certo non è colpa loro).

Consideriamo poi chi deve comprare una scheda video ora...sempre meglio averla con il processo produttivo migliore (minori consumi e temperature), quindi non capisco le reazioni negative a fronte di queste news (sappiamo che prossimamente ci saranno delle schede video completamente nuove -> GT300, quindi qual'è il problema?).

Sì, infatti ATi ha rodato i 40nm -con successo- con una scheda di fascia media, non con una di fascia alta. Imho, a questo punto, significa che hanno dei problemi con GT300, e vogliono tirarla per le lunghe con le vecchie schede per cercare di colmare il gap con RV870 di ATi.
La quale, non dimentichiamo, proporrà quasi contemporaneamente al GT200 @40nm, schede nuove con supporto DX11. Il che non è poco.

Blackcat73
25-06-2009, 15:30
Dove sarebbe questo successo del rodaggio di Ati se tutti si lamentano che la scheda non si trova in giro?

Alzatan
25-06-2009, 15:32
infatti è notizia di oggi (presa da fudzilla però :asd:) che nVidia ha rese inferiori al 30% su gt300, ed è prevista "correzione del silicio", quindi roba seria presumo...

Il problema è che i chip non vengono bene, hanno leackage alti, e quindi scaldano un monte (rischiano di ripetere il problema delle 9400 che si dissaldano dai pcb a causa della dilatazione termica!!!)

dopo 11 anni di nVidia mi sa che passo ad ATI :cry:

SwatMaster
25-06-2009, 15:38
Dove sarebbe questo successo del rodaggio di Ati se tutti si lamentano che la scheda non si trova in giro?

A quanto ne so, questo non è un problema intrinseco del chip, piuttosto è colpa di TSMC che ha ancora dei problemi coi 40nm.
La scheda, se ti guardi qualche review online, viaggia bene. ;)

Blackcat73
25-06-2009, 15:47
Che la scheda viaggi bene niente da dire ma avendo appunto dei problemi TSMC(che se non erro fornisce ambedue le case) si trova poco in giro perciò non mi pare un successo di rodaggio.

2012comin
25-06-2009, 15:51
Dove sarebbe questo successo del rodaggio di Ati se tutti si lamentano che la scheda non si trova in giro?

:) Nessuno la trova perchè le richieste sono superiori alle aspettative......

eheh, frecciatina a parte... questa è la "scusa" ufficiale.

Cmq cercando online si trova. Su trova prezzi (per esempio) su 18 negozi solo in 5 non è disponibile; in 1 è disponibile a breve; nei restanti 12 è disponibile...
Quindi non è poi così introvabile.... anzi

A ma sono OT -.- Tornando IT, non capisco bene le "lamentele" :P se un prodotto non vi serve... non compratelo. Non c'è bisogno di dire che è inutile. Chi deve comprare una scheda nuova avrà più scelta... e questo è un bene.
Chiaro che se ho già una scheda con gt200, queste schede non mi interessano. Ma se ho una scheda di 3/4 anni fa e voglio cambiarla... più scelte ho meglio è :P

Voi dite che è incomprensibile il passaggio a 10.1 solo ora? Vi ricordo che cambiare idea è un dirittto :) Bill Gates una volta disse "640K dovrebbero essere sufficienti per chiunque"... Credo che abbia cambiato idea no? :P

ghiltanas
25-06-2009, 16:24
un dieshrink in se è sicuramente una cosa positiva...tuttavia il fattoc he è previsto per settembre mi fa pensare che siano piuttosto in ritardo con gt300, mentre ati con rv870 dovrebbe uscire fra nn molto, e quindi vogliano correre un pò ai ripari...

Simedan1985
25-06-2009, 16:38
un dieshrink in se è sicuramente una cosa positiva...tuttavia il fattoc he è previsto per settembre mi fa pensare che siano piuttosto in ritardo con gt300, mentre ati con rv870 dovrebbe uscire fra nn molto, e quindi vogliano correre un pò ai ripari...

quoto;)

lostx87
25-06-2009, 18:10
raga io ho un pc del 2005: p4 3,4 tirato a 266 x 14 (3,73), 2 giga di ddr2 533 (tirate a 667), una geforce 7800gtx 256mega (tirata con volt-mod), scheda madre p5wd2 premium, e massimo per il prossimo mese devo comprare il pc nuovo, e volevo farmi una p6t deluxe v2, con i7 920, ddr3 1600, e gtx 285 con relativo waterblock EK...
voi dite che faccio bene a comprarlo ora il pc? oppure dite che è meglio comprare una schedozza videozza da 4 soldoni, per ora, per poi prendere il 40 nanometrozzoli quando uscirà?
ps: non mi fido tanto del prezzo che avrà il 40 nanometri viste le rese produttive...

SwatMaster
25-06-2009, 18:23
raga io ho un pc del 2005: p4 3,4 tirato a 266 x 14 (3,73), 2 giga di ddr2 533 (tirate a 667), una geforce 7800gtx 256mega (tirata con volt-mod), scheda madre p5wd2 premium, e massimo per il prossimo mese devo comprare il pc nuovo, e volevo farmi una p6t deluxe v2, con i7 920, ddr3 1600, e gtx 285 con relativo waterblock EK...
voi dite che faccio bene a comprarlo ora il pc? oppure dite che è meglio comprare una schedozza videozza da 4 soldoni, per ora, per poi prendere il 40 nanometrozzoli quando uscirà?
ps: non mi fido tanto del prezzo che avrà il 40 nanometri viste le rese produttive...

Sticazzoli, un bel salto di qualitozzola. Bella di padella, zio.
Però ti consiglierei di andare nella sezione dedicata del forum, per questo tipo di domande. Apri il tuo threadozzolo e chiedi risposta alle tue domandozzole.

Grazziole. ;)

GLaMacchina
25-06-2009, 19:51
8800gts (65nm) -> 9800gtx (65nm) -> 9800gtx+ (55nm) -> gts 250 (55nm) -> gts 250+ (40nm)
Ahah pensa la gente che la compra!

imperatore_bismark
25-06-2009, 20:44
speriamo ke almeno loro nn incappino nei problemi produttivi di ATI... se no sti 40nm sono maledetti!haha

Linux Lover
25-06-2009, 21:44
nVidia 2009 = minestra riscaldata.. :D

Fos
25-06-2009, 22:39
Magari prevedono di reciclarlo per la fascia media. Se è vero della brutta resa del nuovo (neanche i 40nm in generale, per ora, ma sul rodato dovrebbe migliorare), i prezzi non saranno umani, e gli servirà qualcosa per concorrere...

@SwatMaster

:asd:

g.luca86x
25-06-2009, 23:23
nVidia 2009 = minestra riscaldata.. :D

hai davvero cambiato nick? sei sempre nudo con le mani in tasca, vero?

maumau138
25-06-2009, 23:38
A chi le fanno produrre? TSMC ha una resa del 25%, quindi a meno che non vogliano buttare un pò di silicio dalla finestra aspetteranno (IMHO).
C'è anche la possibilità che TSMC stia risolvendo i problemi del nuovo PP, ma non se ne sa ancora niente.
Quindi essendo la notizia firmata fudzilla secondo me bisogna ancora aspettare (facciamo agosto)

Bill Gates una volta disse "640K dovrebbero essere sufficienti per chiunque"... Credo che abbia cambiato idea no? :P
Al giorno d'oggi non esiste prova che l'abbia detto Bill Gates, al momento due squadre dell'FBI e una della CIA stanno le stanno cercando ma non si sa ancora niente :p

manga81
26-06-2009, 06:57
si può dire "che @@"???
sono 2 anni che nvidia riscalda la stessa minestra, con ottime prestazioni ci mancherebbe, ma un po' di innovazione? prima di rilasciarla devono forse rientrare con il fatturato???

40n significa poter fare una gts250 con consumi e prezzo sul mercato simili alla 4670

quindi sarebbe mooolto competitiva


ma gli conviene???

se la resa produttiva è ancora bassa nn so se sia una mossa azzeccata



ovvio che passare a 40n voglia dire meno spazio maggiore resa, maggiore resa vuol dire maggior guadagno

djmattm
26-06-2009, 07:05
Salve, è il mio primo post........ Comunque volevo intervenire, si una gts250 a 40nm scalderebbe e consumerebbe come una 4670, la quale però è ormai "vecchia" perchè il suo posto l'ha preso la 4770, e di conseguenza costerà un bel pò in meno della nvidia (ma già di suo costa meno), mah io penso che di die-shrink in die-shrink la casa verde non sappia più cosa fare dubito che qualcuno si compri ora come ora una scheda vecchia di qualche anno un pò rimaneggiata...... Ma le Ati nuove quando dovrebbero uscire?

g.luca86x
26-06-2009, 07:49
Benvenuto!

la data di uscita per rv870 è settembre, se come previsto ad agosto tsmc riesce a risolvere tutti i prblemi di resa del processo a 40nm per ATI. O almeno così si vociferava! Certo che se nvidia vuole affrontare le schede DX11 con un die shrink non so quanto possa essere saggio e utile. L'effetto psicologico di schede video DX11 ready, con seven che esce il mese dopo dovrebbe essere forte ma quanto scommettiamo che questa sarà la prima volta in cui gli utonti non compreranno come dei tonti, appunto, dicendo che ancora non ci sono applicazioni dx11?

goldorak
26-06-2009, 07:55
Magari prevedono di reciclarlo per la fascia media. Se è vero della brutta resa del nuovo (neanche i 40nm in generale, per ora, ma sul rodato dovrebbe migliorare), i prezzi non saranno umani, e gli servirà qualcosa per concorrere...

@SwatMaster

:asd:

Esatto, io da mesi che sostengo che GT300 sara' soltanto per la fascia alta, e che nella fascia media e bassa Nvidia riciclera' i GT200 e G92b con opportuni die shrink e con una piccola evoluzione al supporto DX10.1.
Cosa che si sta puntualmente verificando.
Non potrebbe essere altrimenti considerando che GT300 e' un mostro da 2 miliardi di transistor. Una roba del genere non si presta bene alla fascia medio alta neanche facendo un die shrink a 32 nm (sempre che non sorgano altri problemi nel frattempo).

g.luca86x
26-06-2009, 07:56
40n significa poter fare una gts250 con consumi e prezzo sul mercato simili alla 4670

quindi sarebbe mooolto competitiva






ovvio che passare a 40n voglia dire meno spazio maggiore resa, maggiore resa vuol dire maggior guadagno

in condizioni normali sarebbe anche vero! Ma con i casini legati alle rese attuali tutto ciò non ha alcun senso. Come esempio di paragone cito l'rv770 (55nm), di dimensioni minori del gt200 in questione. Le rese di questo chip si aggirano poco sopra il 70%. Rv740 (40nm), invece, è più piccolo ma nonostante questo la resa è neanche il 25%. Sostanzialmente quei chip in più che si producono per singolo wafer neanche bastano per ammortizzare in minima parte tutti quei chip fallati che quindi sono solo silicio da discarica. Infatti per ati è più economico far vendere le 4850 sotto i 90€ piuttosto che commercializzare le 4770, che in giro si trovano (parlo di disponibili) a più di 100€ per una scheda che si consuma meno ma di default viaggia leggermente meno di una 4850 e la maggior parte dell'utenza neanche sa cosa vuol dire overclock.

ghiltanas
26-06-2009, 08:59
Esatto, io da mesi che sostengo che GT300 sara' soltanto per la fascia alta, e che nella fascia media e bassa Nvidia riciclera' i GT200 e G92b con opportuni die shrink e con una piccola evoluzione al supporto DX10.1.
Cosa che si sta puntualmente verificando.
Non potrebbe essere altrimenti considerando che GT300 e' un mostro da 2 miliardi di transistor. Una roba del genere non si presta bene alla fascia medio alta neanche facendo un die shrink a 32 nm (sempre che non sorgano altri problemi nel frattempo).

anche a me ho sfiorato l'idea, però ho pensato: " è una cosa fuori dal mondo :O "
nn è tollerabile realizzare un architettura mostrusa per la fascia alta in dx11, e per le fascie medie usarne una + vecchia, che nn supporta le dx11...l'aggiornamento alle nuove specifiche dev'essere effettuato su tutte le fasce, sennò sono dei cialtroni :mad:

MiKeLezZ
26-06-2009, 09:28
Se esce GT200 a 40nm con DX10.1 e GDDR5?

"Non è possibile perchè l'arcoseno del modulo di trasferimento di Laplace non è insito nel buffer back-end delle ROP al COP del POP, che sfora la valvola sfogale del transistor DirectX, al sapore del caciucco di Abatantuono. Che ATI è meglio".

Qualcuno deve mangiarsi il cappello come RockerDuck o sbaglio?

manga81
26-06-2009, 12:33
in condizioni normali sarebbe anche vero! Ma con i casini legati alle rese attuali tutto ciò non ha alcun senso. Come esempio di paragone cito l'rv770 (55nm), di dimensioni minori del gt200 in questione. Le rese di questo chip si aggirano poco sopra il 70%. Rv740 (40nm), invece, è più piccolo ma nonostante questo la resa è neanche il 25%. Sostanzialmente quei chip in più che si producono per singolo wafer neanche bastano per ammortizzare in minima parte tutti quei chip fallati che quindi sono solo silicio da discarica. Infatti per ati è più economico far vendere le 4850 sotto i 90€ piuttosto che commercializzare le 4770, che in giro si trovano (parlo di disponibili) a più di 100€ per una scheda che si consuma meno ma di default viaggia leggermente meno di una 4850 e la maggior parte dell'utenza neanche sa cosa vuol dire overclock.

ma dove hai letto la differenza di resa?
metti il link dove c'è scritto che ati ha maggior resa con le 4850 a 55n piuttosto che con le 4770 a 40n ;)

goldorak
26-06-2009, 12:41
Se esce GT200 a 40nm con DX10.1 e GDDR5?

"Non è possibile perchè l'arcoseno del modulo di trasferimento di Laplace non è insito nel buffer back-end delle ROP al COP del POP, che sfora la valvola sfogale del transistor DirectX, al sapore del caciucco di Abatantuono. Che ATI è meglio".

Qualcuno deve mangiarsi il cappello come RockerDuck o sbaglio?

Perche' ?
Semmai dovesse uscire un GT200 a 40 nm con DX10.1 sarebbe un chip riprogettato non un semplice die shrink di GT200.
Quindi per essere pedantici il GT200 a 40 nm sarebbe diverso a livello architetturale (perche' avrebbe il supporto alle DX10.1, e forse il supporto alle GDDR5) da GT200 a 55nm.

Stefem
27-06-2009, 12:35
8800gts (65nm) -> 9800gtx (65nm) -> 9800gtx+ (55nm) -> gts 250 (55nm) -> gts 250+ (40nm)
Ahah pensa la gente che la compra!

Ne quoto uno a caso.....

Ma le leggete le news o guardate soltanto le figure e poi commentate alla cacchio di cane?

imperatore_bismark
04-07-2009, 22:47
si come no... con tt i problemi che ci sono...