View Full Version : NVIDIA ridisegna la GeForce GTX 260
Redazione di Hardware Upg
09-02-2009, 14:55
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-ridisegna-la-geforce-gtx-260_27976.html
Dopo aver modificato il proprio processo produttivo, NVIDIA decide di cambiare anche il PCB della propria scheda di fascia medio/alta, tutto in ottica riduzione costi
Click sul link per visualizzare la notizia.
SwatMaster
09-02-2009, 14:58
Si parla di un 10-15$ in meno. Non male, in fondo.
realista
09-02-2009, 14:59
praticamente la hanno castrata?.... ce la vogliono far passare per migliore... ma xme è meglio prendere la vecchia generazione.... che forse si overclocca di piu . .avendo piu fasi. bho...nvidia si è accorta che la 260 era troppo buona e nessuno prendeva la 280 ?
hanno letteralmente dimezzato la qualità... figo venderla a meno... grandi inculate previste però...
E dopo la GTX260, GTX260 216, GTX 260 216 55nm, ecco a voi la GTX260 216 55nm newPCB :O
E vai col turbo :sofico:
Avesse 1Gb di memoria video la prenderei al volo, ma immagino resterà come la vecchia 260, da questo pto di vista.
Probabilmente è più saggio puntare una 4870 1Gb.
PhoEniX-VooDoo
09-02-2009, 15:16
Avesse 1Gb di memoria video la prenderei al volo, ma immagino resterà come la vecchia 260, da questo pto di vista.
Probabilmente è più saggio puntare una 4870 1Gb.
di un po', sarai mica uno di quelli che misura la PUUTENZA delle schede video in base ai GIGGABAIT di memoria?
Immortal
09-02-2009, 15:19
chissà se avrà un nuovo nome per l'occasione....
ilguercio
09-02-2009, 15:26
Premere F2 per rinominare...
beh stavolta ha senso non cambiare nome! se avessero fatto una gtx270 solo per questo allora si che c'è da sparargli. ma così non mi sembra sbagliata come cosa, il cambio di pcb lo fanno in molti sia su schede madri che altro...
GTX 260 e GTX 280 probabilmente prima ad Nvidia costavano uguali e la prima costava meno. Adesso almeno costa anche di meno produrla quindi i guadagni saranno simili per entrambe.
Se è stabile l'ottimizzazione del circuito stampato e della linea di alimentazione è solo una buona cosa. Probabile anche consumi meno.
Aveva pure un bus I2C... li conosco da poco e già li odio :asd:
Mercuri0
09-02-2009, 16:13
E' normale fare una reingegnerizzazione per ridurre i costi di tanto in tanto... ai non overcloccari non dovrebbe importare granché di queste modifiche.
Un design a fasi 4+2 NVVDD usando il regolatore di voltaggio IC ADP4100, il circuito FBVDDQ è stato ridotto da 2 fasi a 1, e il pacchetto MOSFET è stato cambiato da LFPAK a DPAK, per ridurre i costi. All'ADP4100 manca l'intefaccia l'I2C , il che si traduce in una gestione del controllo di voltaggio più difficile rispetto alle versioni attualmente in commercio di GeForce GTX 260,280, 285 and 295
Non vorrei fare lo spocchioso, però, mi consenta, in una frase così, bella tecnica e precisa, che sembra quasi che noialtri ne capiamo di elettronica, usare "tensione" al posto dell'overcloccaro "voltaggio", avrebbe reso l'espressione di un'altra musicalità.
Detto per dire, eh. Non è poi una questione di gran kilogrammaggio. :D
edit: azz non avevo letto bene... c'è anche "regolatore di voltaggio". Eh, questo va un pò fuori metraggio, in effetti. ;)
Stevejedi
09-02-2009, 16:27
Secondo me Topo Gigio sarebbe un ottimo CEO alla Nvidia. Di questi tempi...
Per loro, ottimizzare i costi = ridurre qualità. E grazie, non ci voleva un laureato per capirlo...
dr-omega
09-02-2009, 16:36
IMHO non vedo dove sia il problema, se una scheda ridisegnata ha le stesse prestazioni della versione vecchia, e tra le altre cose costa pure meno, si dovrebbe esultare, non protestare!
Al limite gli "smanettoni" avranno qualche problema in più a farla andare fuori specifica, ma a parte loro, per tutti gli altri questa modifica è solo un bene.
Lo smanettone si dirigerà verso altri lidi, punto. ;)
A questo punto sarei curioso di vedere qualche test
Stech1987
09-02-2009, 16:45
L'unica nota negativa sono i "connettori DVI meno costosi", che presumo diano un segnale un po' meno "pulito"... Per il resto, a parte in caso di OC estremo che potrebbe essere un po' meno stabile a causa dell'alimentazione a 1 fase non ci vedo nulla di male... Se serve ad abbassare i prezzi, poi... W la concorrenza!
Suhadi_Sadono
09-02-2009, 16:46
Hanno dimenticato di dire che la prossima versione sarà sprovvista di dissipatore perchè per risparmiare sarà venduto come optional :asd:
maumau138
09-02-2009, 16:47
Io non credo che la scheda verrà a costare di meno a noi, ma solo a loro ;) .
Mercuri0
09-02-2009, 16:51
L'unica nota negativa sono i "connettori DVI meno costosi", che presumo diano un segnale un po' meno "pulito"...
La DVI è una porta digitale se non erro (a differenza della VGA che è analogica) perciò i connettori "meno costosi" forse sono un problema maggiormente dal lato meccanico che non dal lato della pulizia del segnale.
Eh, e poi parlate male del digitale! :D
appleroof
09-02-2009, 16:54
E' normale fare una reingegnerizzazione per ridurre i costi di tanto in tanto... ai non overcloccari non dovrebbe importare granché di queste modifiche.
Non vorrei fare lo spocchioso, però, mi consenta, in una frase così, bella tecnica e precisa, che sembra quasi che noialtri ne capiamo di elettronica, usare "tensione" al posto dell'overcloccaro "voltaggio", avrebbe reso l'espressione di un'altra musicalità.
Detto per dire, eh. Non è poi una questione di gran kilogrammaggio. :D
edit: azz non avevo letto bene... c'è anche "regolatore di voltaggio". Eh, questo va un pò fuori metraggio, in effetti. ;)
:eh: ma che stai a dì? :asd:
A questo punto sarei curioso di vedere qualche test
di cosa? per vedere se tirandola sul muro pesando qualche grammo in meno si fracassa piu o meno? :D
Mercuri0
09-02-2009, 16:59
:eh: ma che stai a dì? :asd:
Che i "regolatori di voltaggio" non esistono ;)
appleroof
09-02-2009, 17:01
Che i "regolatori di voltaggio" non esistono ;)
ok (mi faceva sorridere come l'hi detto, e non nascondo che appunto non avevo capito l'ironia -forse perchè non sono un tecnico :asd: -) ;)
ilguercio
09-02-2009, 17:01
di cosa? per vedere se tirandola sul muro pesando qualche grammo in meno si fracassa piu o meno? :D
:D
Mercuri0
09-02-2009, 17:07
ok (mi faceva sorridere come l'hi detto, e non nascondo che appunto non avevo capito l'ironia -forse perchè non sono un tecnico :asd: -) ;)
L'ho detto ironicamente proprio perché non volevo far troppa polemica. :)
E' una questione di poco kilogrammaggio (:D), appunto, anche se certo usare la terminologia tecnica corretta "fa punti". Io penso che espressioni come "regolatore di voltaggio" o "voltaggio di alimentazione", non me le potrei permettere, sopratutto se infilate in un discorso che ha l'aria di essere tecnico. Per Hwupgrade è una scelta loro.
(sarebbe "regolatore di tensione", "tensione di alimentazione". "Voltaggio" è un inglesismo storpiato da un termine che già in inglese è storpiato di suo... come dire "metraggio", "kilogrammaggio", etc.)
I grammi indicano il peso come i volt la tensione.
xxfamousxx
09-02-2009, 17:11
quindi la "vecchia" sarà migliore dato che con questo cambiamento verrà penalizzata la qualità della scheda..mah non la vedo una gran cosa..
pietro667
09-02-2009, 17:12
L'unica nota negativa sono i "connettori DVI meno costosi", che presumo diano un segnale un po' meno "pulito"...
...giacchè si tratta di segnale digitale, non vedo come possa influire sulla qualità complessiva la pulizia del segnale in uscita dal connettore...
Se si fosse parlato di VGA, con interfaccia analogica, allora sì, avrei concordato...
quindi la "vecchia" sarà migliore dato che con questo cambiamento verrà penalizzata la qualità della scheda..mah non la vedo una gran cosa..
... onestamente vorrei capire da cosa si evince che la qualità finale del prodotto diminuisca...
Partendo dal fatto che:
a) il mercato per nVidia è molto competitivo
b) l'Azienda ha diminuito vistosamente quote di mercato, fatturato e margini rispetto a AMD
c) la strada del recupero di competitività passa obbligatoriamente per la riduzione dei costi di produzione
d) la qualità complessiva del prodotto non può diminuire, visti ad esempio i precedenti con le GPU da notebook che esplodevano...
non vedo proprio, a costo di sembrare stupido, come un'azienda possa studiare il modo migliore di farsi del male rischiando con un prodotto che tendenzialmente copre il mercato con volumi 'importanti' ...
Mercuri0
09-02-2009, 17:28
d) la qualità complessiva del prodotto non può diminuire
Sono d'accordissimo al 115%, anche se a dirla tutta non è stato raro vedere da queste parti nvidiari che osannavano qualche presunta placcatura dorata sui condensatori delle nVidia rispetto alle ATI.
Ci sarebbe anche da dire che questa reingegnerizzazione vale solo per le schede reference (anche se non so se nVidia lasci fare layout non reference per le GTX260).
Chi necessita di placcature al titanio-iridio sulla serigrafia del chip, può sempre spendere qualche decina d'euro in più per qualche scheda non reference.
di un po', sarai mica uno di quelli che misura la PUUTENZA delle schede video in base ai GIGGABAIT di memoria?
Nu (per fortuna, oserei dire:asd:)..semplicemnte dopo aver visto lo scempio vergognoso che hanno fatto con un VG che attendevo da tempo immemore (GTA IV) cerco di prendermi una scheda dotata di più Vram possibile.
Nel caso a qualcun altro venga in mente di fare merdate simili in futuro, intendo.:rolleyes:
ma se costa meno a loro e a noi, dove ci guadagnano loro?
appleroof
09-02-2009, 17:42
ad ogni modo la notizia era già stata postata e commentata più di 2 mesi fà sul forum...infatti ero lì che pensavo "dove l'ho già letta?" :D
http://www.hwupgrade.it/forum/showpost.php?p=25310014&postcount=1732
Notturnia
09-02-2009, 17:57
costa meno a noi.. costa meno a loro.. ci si guadagna tutti.. il prodotto fa le stesse identiche cose di prima.. che problema c'è ?.. i connettori DVI non sono placcati oro ma solo in rame (faccio per dire) ? .. che cambia.. il segnale è pulito come prima.. (e parlo da audiofilo malato..)
ha 8 layer al posto di 10 ?.. sentite la mancanza dei due strati mancanti ?..
il regolatore di tensione ha una fase sola ? che fa si sente solo ?...
funziona come prima.. stessa gpu.. stessa ram di prima.. l'eprom è più piccola ?.. e chi la usava tutta prima ??? se l'hanno ridotta non serviva..
hanno tolto tutto quello che non le serviva per renderla più economica come costi.. non come prestazioni..
quindi ben fatto.. premesso che non la comprerò perchè ho una GTX280 e aspetto la 295..
ma son contento che abbiano ridotto il costo del modello inferiore per fare concorrenza ad ATI..
anche ati spero che farà scendere i prezzi.. e via così.. (così mi compro la 295 a meno :-DDDD)
chissà se avrà un nuovo nome per l'occasione....
PEZZENT Edition.
ilguercio
09-02-2009, 18:09
PEZZENT Edition.
:D
Notturnia
09-02-2009, 18:18
PEZZENT Edition.
disse la volpe all'uva...
davidTrt83
09-02-2009, 18:56
ma se costa meno a loro e a noi, dove ci guadagnano loro?
Che ne vendono di più.
hanno iniziarto a fare come ATI...
ATI è una vita che lesina su pcb e componenti...
osservate bene una GTX e una 48XX c'è una differanza notevole sulla componentistica e sulla logica di alimentazione...
fino ad ora la maggiore qualità delle schede nvida di fascia alta era l'unico vero vantaggio su ATI... non tanto le prestazioni pure...
ninja750
09-02-2009, 19:37
E dopo la GTX260, GTX260 216, GTX 260 216 55nm, ecco a voi la GTX260 216 55nm newPCB :O
E vai col turbo :sofico:
loro lo fanno per noi! :O
g.luca86x
09-02-2009, 19:38
Attenzione: "* Il numero di layer che compongono la scheda è stato ridotto da 10 a 8, grazie alla rimozione di connessioni inutilizzate". Mi sa che il risparmio sarà superiore ai 10-15$ visto che passare da 10 a 8 significa risparmiare il 20% sul processo produttivo in termini di tempo e risorse, oltre alle maschere e ai fori per le interconnessioni. Una roba del genere, dovuta al fatto che hanno ridotto la circuiteria, deve essergli costato un pochetto in R&S. Probabilmente se avessero pensato a queste soluzioni sin dall'inizio questa scheda non avrebbe avuto quel prezzo proibitivo che ha! da qui il successo della 4870!
g.luca86x
09-02-2009, 19:47
Tra l'altro l'unica pecca che si può tirare fuori è quel connettori dvi meno costosi. Il fatto che il segnale sia digitale non vuol dire beceramente visto che è solo zero o uno me ne frego del rumore e del degrado. Nessuno ha mai sentito parlare di SNR, o meglio Eb/N0 e BER. La trasmissione DVI, come la quasi totalità delle trasmissioni digitali, avrà una sua costellazione che vi posso garantire che risente, non come l'analogico, certo, dei degrado del segnale. Secondo questo ragionamento ad esempio il digitale terrestre dovrebbe funzionare indipendentemente dall'impianto d'antenna, tanto è digitale...
MasterGuru
09-02-2009, 19:49
si ma per questa scheda ci vuole un case largo quanto un armadietto
blackshard
09-02-2009, 20:25
hanno iniziarto a fare come ATI...
ATI è una vita che lesina su pcb e componenti...
osservate bene una GTX e una 48XX c'è una differanza notevole sulla componentistica e sulla logica di alimentazione...
fino ad ora la maggiore qualità delle schede nvida di fascia alta era l'unico vero vantaggio su ATI... non tanto le prestazioni pure...
Lesina in che senso? Se non serve fare una sezione di alimentazione a 4 fasi, perchè farla? Ah certo, per apparire superiore nelle doti di overclock... peccato però che nessuno va a vedere di quanto salgono i consumi quando c'ha la scheda video overcloccata.
Peraltro ati non vende schede BBA in europa dall'epoca della serie 9000, quindi vattelapesa se è sono layout reference oppure no...
blackshard
09-02-2009, 20:27
si ma per questa scheda ci vuole un case largo quanto un armadietto
Quella che sta in foto mi ricorda una vecchissima scheda CGA che dovrei avere in giro per casa, strazeppa di integrati e lunga due volte il pisello di Rocco.
Probabilmente se avessero pensato a queste soluzioni sin dall'inizio questa scheda non avrebbe avuto quel prezzo proibitivo che ha! da qui il successo della 4870!
Come detto il pcb vecchio probabilmente è esattamente identico a quello della 280. Perchè sviluppare due pcb diversi quando se ne ha uno già pronto? Costa meno anche in fase di produzione sia delle schede di test che della produzione. Se ha fatto così evidentemente conveniva così. Il costo è dovuto non di sicuro al pcb o almeno una piccola parte :)
davidTrt83
09-02-2009, 21:32
hanno iniziarto a fare come ATI...
ATI è una vita che lesina su pcb e componenti...
osservate bene una GTX e una 48XX c'è una differanza notevole sulla componentistica e sulla logica di alimentazione...
fino ad ora la maggiore qualità delle schede nvida di fascia alta era l'unico vero vantaggio su ATI... non tanto le prestazioni pure...
Se la GTX consuma il doppio ha anche bisogno di una maggiore circuiteria... e c'è poco da andarne fieri :rolleyes:
Poi scusa, stai dicendo che la ati, "lesinando" sui componenti, sforna schede meno affidabili? No perchè altrimenti, visto che le prestazioni pure non cambiano, non so davvero quale sia il problema che ti turba...
appleroof
09-02-2009, 21:53
Se la GTX consuma il doppio ha anche bisogno di una maggiore circuiteria... e c'è poco da andarne fieri :rolleyes:
cut
:mbe: la gtx@55nm consuma molto meno della 4870
davidTrt83
09-02-2009, 22:45
:mbe: la gtx@55nm consuma molto meno della 4870
Ma quale molto meno :rolleyes:
E poi la gtx@55nm ha +o- la stessa quantità di componenti rispetto alla 4870! Molti di meno rispetto alla 65nm...:mbe:
Cmq ottimo spirito critico prendere la più efficiente delle gtx e la più esosa delle 4800 (perchè è dell'intera serie che si parlava). Allora io potrei confrontare la vecchia gtx280 alla 4830...
Mercuri0
09-02-2009, 23:35
Tra l'altro l'unica pecca che si può tirare fuori è quel connettori dvi meno costosi. Il fatto che il segnale sia digitale non vuol dire beceramente visto che è solo zero o uno me ne frego del rumore e del degrado. Nessuno ha mai sentito parlare di SNR, o meglio Eb/N0 e BER. La trasmissione DVI, come la quasi totalità delle trasmissioni digitali, avrà una sua costellazione che vi posso garantire che risente, non come l'analogico, certo, dei degrado del segnale.
Avresti ragione, ma la notizia è che nVidia userà "connettori DVI meno costosi"... non "connettori DVI fatti col pongo".
E mentre l'analogico, almeno in teoria si può dire che soffre un degrado tra oro e argento, col digitale devi proprio andar di pongo, per perdere il controllo della BER tra un connettore e l'altro.
Bisognerebbe informarsi su quant'è la BER tipica di una porta DVI, a voler dividere il capello.
Mercuri0
09-02-2009, 23:48
Probabilmente se avessero pensato a queste soluzioni sin dall'inizio questa scheda non avrebbe avuto quel prezzo proibitivo che ha! da qui il successo della 4870!
Errrr... io darei colpa alle dimensioni doppie del die della GPU, che facevano costare il chip della GTX260 il doppio di quello della 4870 solo per il silicio. Considerando anche yeld e tutto, ci sta che fossero al 4x del costo di RV770.
(all'epoca facemmo qualche conto sui dati racimolati in giro, ma non ricordo)
Conseguentemente, avendo in mente per la GTX260 un prezzo decisamente più alto di quello della 4870, non avevano risparmiato sul cemento per il primo PCB reference. Del resto l'abbondanza in fase di progettazione riduce eventuali guai e ritardi in fase di collaudo.
La mazzata incredibile della serie 48xx di ATI è stata proprio sui costi... RV770 doveva essere di un'intera fascia sotto il GT200! Invece alla fine c'è stato il testa a testa con la GTX260.
blackshard
10-02-2009, 03:09
Errrr... io darei colpa alle dimensioni doppie del die della GPU, che facevano costare il chip della GTX260 il doppio di quello della 4870 solo per il silicio. Considerando anche yeld e tutto, ci sta che fossero al 4x del costo di RV770.
(all'epoca facemmo qualche conto sui dati racimolati in giro, ma non ricordo)
Conseguentemente, avendo in mente per la GTX260 un prezzo decisamente più alto di quello della 4870, non avevano risparmiato sul cemento per il primo PCB reference. Del resto l'abbondanza in fase di progettazione riduce eventuali guai e ritardi in fase di collaudo.
La mazzata incredibile della serie 48xx di ATI è stata proprio sui costi... RV770 doveva essere di un'intera fascia sotto il GT200! Invece alla fine c'è stato il testa a testa con la GTX260.
Sai com'è, oltre alla massa che si lamenta che le cose costano care, ci sono anche gli anticonformisti che si lamentano quando le cose costano poco :asd:
di cosa? per vedere se tirandola sul muro pesando qualche grammo in meno si fracassa piu o meno? :D
:asd:
appleroof
10-02-2009, 14:23
Ma quale molto meno :rolleyes:
E poi la gtx@55nm ha +o- la stessa quantità di componenti rispetto alla 4870! Molti di meno rispetto alla 65nm...:mbe:
Cmq ottimo spirito critico prendere la più efficiente delle gtx e la più esosa delle 4800 (perchè è dell'intera serie che si parlava). Allora io potrei confrontare la vecchia gtx280 alla 4830...
allora sei tu che sei stato poco chiaro, parlando di GTX che consuma il doppio.....di cosa???? Della 4830 o della 4870x2 :asd: ??? Di quale GTX stai parlando? Qui si parla della gtx 260, la cui antagonista è la 4870 (il consumo della gtx260@55nm è abbastanza inferiore in full e di molto inferiore in idle rispetto alla 4870)...
complimenti: hai davvero un ottimo spirito critico.
davidTrt83
10-02-2009, 15:12
allora sei tu che sei stato poco chiaro, parlando di GTX che consuma il doppio.....di cosa???? Della 4830 o della 4870x2 :asd: ??? Di quale GTX stai parlando? Qui si parla della gtx 260, la cui antagonista è la 4870 (il consumo della gtx260@55nm è abbastanza inferiore in full e di molto inferiore in idle rispetto alla 4870)...
complimenti: hai davvero un ottimo spirito critico.
Allora se non hai capito a cosa mi rifersco me lo chiedi. E cmq se togliessi 2 secondi allo scrivere e li spendessi a leggere il discorso dall'inizio, cominciato da gai@, magari ti risponderesti da solo e eviteresti di sparare cavolate :rolleyes:
Se poi non capisci comunque, beh, il mondo è bello perchè è vario.
appleroof
10-02-2009, 15:51
Allora se non hai capito a cosa mi rifersco me lo chiedi. E cmq se togliessi 2 secondi allo scrivere e li spendessi a leggere il discorso dall'inizio, cominciato da gai@, magari ti risponderesti da solo e eviteresti di sparare cavolate :rolleyes:
Se poi non capisci comunque, beh, il mondo è bello perchè è vario.
come non quotare ;)
davidTrt83 ha espresso il concetto:
loro pagano di meno, noi paghiamo di meno, il guadagno è lo stesso.
ma siccome noi, attratti dal prezzo più basso accorreremo come i klingon nei negozi 7-eleven (:D), loro alla fine avranno un numero di guadagni maggiore.
situazione 1:
- 20 clienti
- gtx260: costa a NV 200€, venduta a 250€
- ati 4870: 220€
in questo caso, si potrebbe avere un acquisto di 10 schede per tipo.
guadagno di Nvidia: 50€*10 = 500€
situazione 2:
- gtx 260: costa a NV 175€, venduta a 225€
- ati 4870: 220€
qui, potremmo avere 13 che comprano la 260, mentre 7 la ati.
guadagno Nvidia: 50€*13=650€
capito? ;) :)
LethalSniper
13-02-2009, 15:56
la 4870 consuma un botto di più, se non sbaglio anche delle gtx260 65nm...
in ogni caso una 4870 1GB costa 250€, solo la 4870 512mb costa 220€, ma non eguaglia la GTX260 core 216(250€ o poco più)
comunque se il ragionamente di brom sul ragionamento nVidia (scucate il giro) è giusto, e quindi il costo è minore, non male!
PS: ho già visto una GTX260 a 230€ °_°
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.