View Full Version : I nomi in codice di due future GPU NVIDIA: GT200b e GT300
Redazione di Hardware Upg
22-09-2008, 08:44
Link alla notizia: http://www.hwupgrade.it/news/skvideo/i-nomi-in-codice-di-due-future-gpu-nvidia-gt200b-e-gt300_26579.html
Su un sito di e-commerce appaiono le specifiche tecniche di due prossime schede video NVIDIA destinate al segmento top di gamma del mercato
Click sul link per visualizzare la notizia.
robert1980
22-09-2008, 08:48
se la prendono comoda...ma fanno bene, speriamo nei prezzi buoni in questa bomba di scheda..
SirCam77
22-09-2008, 08:52
Ho dato una vista sul sito australiano e non ho trovato queste fantomatiche schede video. Io già possiedo una XFX GTX280 XXX (acquistata in germania), quindi mi chiedo dov'è la novità?
spero davvero in una dual chip per la gtx 300... sennò stavolta avrà un chip grande come un post-it...
JohnPetrucci
22-09-2008, 09:02
Adesso ci saranno quelli che attendendo la nuova 260+, opteranno per attendere questa nuova 280+ o addirittura la prossima gt350:D, escono nuove revisioni di schede ogni settimana ormai, rassegnatevi, e cmq scordatevi crysis in very high con filtri e DX10, perchè in quel caso neanche queste schede vi aiuteranno.....lol:D
Già oggi è possibile fare una dual gpu con 2x GTX 260 216SU e mantenersi con consumi analoghi alla HD 4870 X2, cioè spaventosi, figuriamoci con i 55nm.
Il punto è: se è il solito approccio con 2 pcb, doppio bus da 512 e memorie dedicate, meglio lasciar perdere.
Se invece sono 2 gpu con un'unico ampio bus e memoria condivisa, almeno sarebbe qualcosa di diversa dal "già visto".
mircocatta
22-09-2008, 09:18
Adesso ci saranno quelli che attendendo la nuova 260+, opteranno per attendere questa nuova 280+ o addirittura la prossima gt350:D, escono nuove revisioni di schede ogni settimana ormai, rassegnatevi, e cmq scordatevi crysis in very high con filtri e DX10, perchè in quel caso neanche queste schede vi aiuteranno.....lol:D
per il singol player vanno già quasi bene le attuali schede, figurati queste che hanno il "doppio" di specifiche
norbertom
22-09-2008, 09:20
pare quasi che questo sito di e-commerce più che dare notizie cerca "solo" qualche click in più. è solo un impressione... :rolleyes:
Beh almeno le precedenti versioni scenderanno di prezzo.
MiKeLezZ
22-09-2008, 09:23
Una GTX240 a 55nm con 800MHz di core, 2000MHz di sp, 1GB di GDDR5, e 160sp, imho spanerebbe il culo a tutto il mercato, come fece la 8800GT...
Ormai le schedone da 300 euro chi le compra più?
dotlinux
22-09-2008, 09:24
Si certo, avere tra i 15 e i 60 fps è "quasi bene".
mircocatta
22-09-2008, 09:26
Si certo, avere tra i 15 e i 60 fps è "quasi bene".
ripeto: per il single player può anche andare bene
in multy è meglio abbassare un bel po le impostazioni se si vuol giocare bene
paolox86
22-09-2008, 09:33
Beh al lancio meno di 600 € non costerà davvero.... se le specifiche fossero confermate, perchè credo che si posizionerebbe al Top
paolox86
22-09-2008, 09:35
E lo slogan del lancio sarà: Gioca a Crysis a dettagli altissimi a 30 fps!!!!!
Potrebbe essere la scheda video che mi compro a Febbraio.
Kharonte85
22-09-2008, 09:42
Quelle del gt300 mi sembrano abbastanza inverosimili...
molto presumibilmente la GTX350 sarà una GX2, quindi Nvidia riprenderà il top delle prestazioni su singola vga, però mi chiedo adesso quale sarà la risposta di AMD?
@ Kharonte85: se la vedi come una GX2 di GTX280 sembra possibile e plausibile. ovvio che però i consumi ed il calore saranno un po' altini :sofico: (per nn considerare il prezzo di lancio)
DarKilleR
22-09-2008, 09:58
mi chiedo io...
GT300, con 480 SP e bus a 512 bit che occupa meno spazio del GTX280 (anche se è costruita a 55 nm invece di 65 nm) ...a mio avviso è praticamente impossibile...
Poi può essere tutto, ma è più facile che si tratti di una scheda dual GPU...
però dubito enormemente che nVidia riesca a proporla ad un prezzo paragonabile alla 4870X2
Poi che se ne fanno della GDDR5 se hanno il bus a 512 bit??
Mr Resetti
22-09-2008, 10:01
io questa notizia la leggo sotto un'altra luce!
ovvero: dove è finito il processo produttivo a 45 (40?)nm? mi sembra ovvio che anche nvidia debba "attaccarsi al carro" dato che il fornitore taiwanese TSMC al momento non ha nessuna intenzione di variare le proprie linee produttive, come riportato anche nella notizia di qualche giorno fà:
http://www.hwupgrade.it/news/skvideo/tsmc-fatica-a-soddisfare-le-richieste-di-nvidia_26543.html
Che nvidia abbia per il momento accantonato l'idea dei 45nm per rimanere comunque al passo con ATI/AMD?
JohnPetrucci
22-09-2008, 10:01
E lo slogan del lancio sarà: Gioca a Crysis a dettagli altissimi a 30 fps!!!!!
LOL:D
Spellsword
22-09-2008, 10:05
tutte balle ste notizie sul gt350, pensateci bene, chip a 55 nm a 830 con ram gddr5 3360 Mhz ci possono anche stare, ma 480 SP a 2075 Mhz assolutamente no! apparte che il die diventerebbe gigantesco, ma già adesso la gtx280 con 240 sp a poco + di 1300 Mhz consuma e dissipa una follia, questa con 480 SP? no no no tutte balle fatte filtrare ad arte per creare attesa e tamponare la situazione..
Mister Tarpone
22-09-2008, 10:05
Una GTX240 a 55nm con 800MHz di core, 2000MHz di sp, 1GB di GDDR5, e 160sp, imho spanerebbe il culo a tutto il mercato, come fece la 8800GT...
Ormai le schedone da 300 euro chi le compra più?
quoto...
Quelle del gt300 mi sembrano abbastanza inverosimili...
Infatti.
mi chiedo io...
GT300, con 480 SP e bus a 512 bit che occupa meno spazio del GTX280 (anche se è costruita a 55 nm invece di 65 nm) ...a mio avviso è praticamente impossibile...
Poi può essere tutto, ma è più facile che si tratti di una scheda dual GPU...
però dubito enormemente che nVidia riesca a proporla ad un prezzo paragonabile alla 4870X2
Poi che se ne fanno della GDDR5 se hanno il bus a 512 bit??
In effetti raddoppiare praticamente G200, mantenendo la stessa superficie, con solo un half node di differenza, mi pare un po' troppo, soprattutto mantenendo il crossbar a 512.
Tra l'altro il bus a 512bit + le GDDR5 non ha molto senso, quando RV770 ha mostrato che il segreto per sfruttare al meglio la banda è aumentare quella interna. E' inutile avere una banda verso la memoria mostruosa (si toccherebbero i 215 GB/s) quando poi internamente avrebbe una banda di sì e no 50 GB/s, con un crossbar classico come quello di G200...
yossarian
22-09-2008, 10:33
Questa GPU integrerebbe il doppio di stream processors rispetto alla GPU GT200 utilizzata nelle schede GeForce GTX 280, con una marginale riduzione della superficie complessiva del chip passata a 576 millimetri quadrati. Il bus memoria da 512bit di ampiezza, in abbinamento all'utilizzo di memorie GDDR5, permetterebbe di ottenere un valore di bandwidth massima teorica estremamente elevato, prossimo a 216 Gbytes al secondo ma inferiore ai 230 Gbytes al secondo che hanno a disposizione, in modo congiunto, le due GPU montate sulle schede ATI Radeon HD 4870 X2.
il die size di GT200 è di 576 mm^2; se lo fosse anche quello di GT350 sarebbe delle stesse dimensioni
mi chiedo io...
GT300, con 480 SP e bus a 512 bit che occupa meno spazio del GTX280 (anche se è costruita a 55 nm invece di 65 nm) ...a mio avviso è praticamente impossibile...
uno shrink a 55 nm di GT200 farebbe guadagnare circa un 30-35%. Di sicuro un Gt200x2 non entra in un die delle stesse dimensioni dell'attuale. A meno che non si siano fatte altre modifiche (eliminazione delle alu fp64? Aumento del rapporto alu/texture?)
mi chiedo io...
Poi che se ne fanno della GDDR5 se hanno il bus a 512 bit??
forse per gestire i 2 GB di ram di cui si vocifera
tutte balle ste notizie sul gt350, pensateci bene, chip a 55 nm a 830 con ram gddr5 3360 Mhz ci possono anche stare, ma 480 SP a 2075 Mhz assolutamente no! apparte che il die diventerebbe gigantesco, ma già adesso la gtx280 con 240 sp a poco + di 1300 Mhz consuma e dissipa una follia, questa con 480 SP? no no no tutte balle fatte filtrare ad arte per creare attesa e tamponare la situazione..
più che altro poco credibile che esca a settembre un refresh di GT200 a 55 nm e dopo neppure 3 msi un chip che, sulla carta, sarebbe un GT200x2 e poco credibile il fatto che la cosa venga annunciata (le vendite della 280+ sarebbero pressochè nulle). In quanto alle dimensioni, dipende da quali modifiche, eventualmente, si farebbero sull'architettura di GT200, però parliamo comunque di un chip, nella migliore delle ipotesi, comunque più grande del GT200 attuale (e non certo più piccolo).
Altre ipotesi:
- hype creato per cercare di frenare le vendite della concorrenza (non sarebbe la prima volta)
- tentativo di farsi pubblicità da parte di qualche sito
- serie di notizie raccolte da varie fonti, tutte con un qualche fondamento, ma assemblate in maniera tale da rendere tutto inverosimile.
forse per gestire i 2 GB di ram di cui si vocifera
Ma non sarebbe inutile, visto che comunque avresti un collo di bottiglia non da poco nel trasferimento delle informazioni interno al chip? :stordita:
Più aumenta il divario banda interna / vs la memoria più diminuisce l'efficienza nell'uso della banda esterna, no? :fagiano:
Probabilmente in casa nVidia si parla di una gx2 basata su due gtx200 con processo produttivo a 55nm e di un refresh dello stesso gtx200 a 55 nm con ddr5. Sicuramente qualche appasionato di frankenstain ha pensato di prendere una gx2 fondere i due processori gtx200 e creare il mostro gtx300 con 480 sp e 2G di ram ddr5 :)
gianni1879
22-09-2008, 11:14
Quelle del gt300 mi sembrano abbastanza inverosimili...
ma proprio di pochissimo :D
yossarian
22-09-2008, 11:20
Ma non sarebbe inutile, visto che comunque avresti un collo di bottiglia non da poco nel trasferimento delle informazioni interno al chip? :stordita:
Più aumenta il divario banda interna / vs la memoria più diminuisce l'efficienza nell'uso della banda esterna, no? :fagiano:
attualmente sia RV770 che GT200 hanno MC che gestiscono 2 banchi di ram per ogni canale (256 con 512 MB da un lato e 512 bit con 1 GB dall'altro, con canali di 64 bit, ovvero 32+32).
Passando alle GDDR5 si inizieranno ad adottare moduli di taglio più grande rispetto agli attuali da 64 MB, il che permetterà, ad ogni canale, di gestire un quantitativo di ram maggiore ma sempre suddiviso in due soli banchi. Poichè è improbabile che, per un bel pezzo, si avranno tagli superiori ai 128 MB, qualora un ipotetico chip dovese avere 2 GB di ram sarebbe auspicabile che sia dotato di un bus da 512 bit, in modo da evitare che auemntino le latenze per gli accessi alla ram (4 banchi per canale significa avere più problemi nella gestione di accessi multipli allo stesso gruppo di chip di ram, serviti dallo stesso canale). L'idea del ring bus nasce proprio per ovviare a questo inconveniente, ma, al momento, presenta delle criticità qualora si dovesse gestire un numero di gruppi unità di calcolo superiore a 4 (il cell ne ha 8+1 ma ha codice ottimizzato per la sua architettura, mentre una gpu deve lavorare su codice decisamente più generico)
attualmente sia RV770 che GT200 hanno MC che gestiscono 2 banchi di ram per ogni canale (256 con 512 MB da un lato e 512 bit con 1 GB dall'altro, con canali di 64 bit, ovvero 32+32).
Passando alle GDDR5 si inizieranno ad adottare moduli di taglio più grande rispetto agli attuali da 64 MB, il che permetterà, ad ogni canale, di gestire un quantitativo di ram maggiore ma sempre suddiviso in due soli banchi. Poichè è improbabile che, per un bel pezzo, si avranno tagli superiori ai 128 MB, qualora un ipotetico chip dovese avere 2 GB di ram sarebbe auspicabile che sia dotato di un bus da 512 bit, in modo da evitare che auemntino le latenze per gli accessi alla ram (4 banchi per canale significa avere più problemi nella gestione di accessi multipli allo stesso gruppo di chip di ram, serviti dallo stesso canale). L'idea del ring bus nasce proprio per ovviare a questo inconveniente, ma, al momento, presenta delle criticità qualora si dovesse gestire un numero di gruppi unità di calcolo superiore a 4 (il cell ne ha 8+1 ma ha codice ottimizzato per la sua architettura, mentre una gpu deve lavorare su codice decisamente più generico)
Beh, però ora col bus interno a 1024bit ed il "distributed crossbar" pare che siano riusciti ad unire the best of both worlds. :D
Ma credi che abbia un senso avere 2GB di ram oggi? :stordita:
Ossia, non sarebbe meglio puntare ad ottimizzare l'uso di 1GB (sia per le latenze, che per l'uso della banda in percentuale sul totale disponibile, ecc...), che da qui a diversi anni a venire dovrebbe bastare? :)
IlGranTrebeobia
22-09-2008, 11:32
... Io non ci capisco più niente, aggiornerò la mia scheda solo quando torneranno ad esserci dei nomi sensati :fagiano:
halduemilauno
22-09-2008, 11:37
... Io non ci capisco più niente, aggiornerò la mia scheda solo quando torneranno ad esserci dei nomi sensati :fagiano:
giusto uno non compra la scheda ma il nome. e che diamine.
;)
yossarian
22-09-2008, 11:40
Beh, però ora col bus interno a 1024bit ed il "distributed crossbar" pare che siano riusciti ad unire the best of both worlds. :D
resta il limite dei 2 banchi per canale verso la ram, però :D
Ma credi che abbia un senso avere 2GB di ram oggi? :stordita:
Ossia, non sarebbe meglio puntare ad ottimizzare l'uso di 1GB (sia per le latenze, che per l'uso della banda in percentuale sul totale disponibile, ecc...), che da qui a diversi anni a venire dovrebbe bastare? :)
se senti gli sviluppatori, più ram c'è e meglio è. Inoltre, finchè si continuerà a programmare facendo uso di operazioni che hanno un forte impatto sul quatitativo di ram e sulla bandwidth, si dovrà, per forza di cose, far uso di valori elevati per l'uno e l'altra. All'evoluzione teorica delle API non corrisponde una reale evoluzione del codice dei giochi che resta ancorato a schemi vecchi (poche ottimizzazioni sulle geometrie, pochi shader procedurali e texture a gogò)
Si, ma in conclusione ad oggi che ska video prendere per giocare tutto a palla a 1900x1200 ???..... Aspettare??? hd4870x2 ?
halduemilauno
22-09-2008, 11:55
Si, ma in conclusione ad oggi che ska video prendere per giocare tutto a palla a 1900x1200 ???..... Aspettare??? hd4870x2 ?
che è uscita da un mese.
;)
Avantasia
22-09-2008, 12:01
prezzi sempre troppo alti, consumi troppo elevati, pcb troppo lunghi, ecc...
compratevi le matrox per giocare allora
Severnaya
22-09-2008, 12:11
dobbiamo creare un sindacato x avere schede video a prezzi più umani così da nn lavorare 12 ore al giorno x permettercene una! \o/
cit. "il pc è mio e lo gestisco io! ! !" \o/
marchigiano
22-09-2008, 12:31
Poi che se ne fanno della GDDR5 se hanno il bus a 512 bit??
me lo chiedevo pure io... a meno che non hanno diviso a 256bit per die, magari sono 2 gpu sullo stesso pbc e a ogni gpu arriva il bus a 256bit, per riprendere banda persa col dimezzamento del bus hanno usato la ddr5
penso sia la soluzione più economica da fare, perchè altrimenti un bus unico a 512bit con poi un controller che divide l'utilizzo per le 2 gpu? o addirittura una gpu unica con 480sp mi pare troppo costoso... già si parlava che costava troppo fare la gtx280 figuriamoci questa...
E' dal 2006 che Nvidia continua a rifilarci la GeForce 8800 in tutte le salse :(
In questi 2 anni gli ingegneri NVidia sono stati in vacanza? :mad:
E lo slogan del lancio sarà: Gioca a Crysis a dettagli altissimi a 30 fps!!!!!
Veramente già da tempo la 4870 x2 fa 30 fps. Speriamo che si migliori la teconologia, fare collage non serve a molto. Ad esempio nVidia dovrebbe integrare il tasellation e le DX10.1 che le mancano anche nelle ultime schedozze. In confronto AMD mette a disposizione queste tecnologie gia da tempo. In poche parole nVidia farebbe meglio a migliorare i punti deboli della propria architettura. Detto questo non credo che la GTX 280 a 55nano sia ancora a 512 bit, come è gia stato detto, più si riduce il processo di produzione più difficile è integrare un maggior numero di piste per la comunicazione dei dati. Secondo me la scheda dual sara si con GGDR5 pero con un bus a 256bit proprio come la 4870 X2. In questo caso nVidia non farebbe altro che inseguire disperatamente AMD sia come prestazioni che come come ritrovato tecnologico.
MarcoTechnofolle
22-09-2008, 12:49
Link alla notizia: http://www.hwupgrade.it/news/skvideo/i-nomi-in-codice-di-due-future-gpu-nvidia-gt200b-e-gt300_26579.html * NVIDIA GTX 350
* GT300 core
* 55nm technology
* 576mm
* 512bit
* DDR5 2GB memory, doubled GTX280
* 480SP doubled GTX280
* Grating operation units are 64 the same with GTX280
* 216G bandwidth
* Default 830/2075/3360MHZ
* Pixel filling 36.3G pixels/s
* Texture filling 84.4Gpixels/s
* Cannot support D10.1 .10.0/SM4.0
Non ho capito questa parte. La nuova scheda di Nvidia non supporterà le Directx 10.1,10 e gli SM 4??? Spero di aver capito male
MiKeLezZ
22-09-2008, 12:50
E' dal 2006 che Nvidia continua a rifilarci la GeForce 8800 in tutte le salse :(
In questi 2 anni gli ingegneri NVidia sono stati in vacanza? :mad:Cosa te ne fai delle DX10.1? Il prossimo anno tanto arrivano le DX11, e stai sicuro che NVIDIA sarà in prima linea ;) .
Cosa te ne fai delle DX10.1? Il prossimo anno tanto arrivano le DX11, e stai sicuro che NVIDIA sarà in prima linea ;) .
Ok pero se la politica di nVidia fosse come dici tu allora per avere una innovazione tecnologica dovremmo aspettare finche microsoft non si decida di rilasciare le nuove librerie DX che normalmente avviene ogni 3 anni. Nel frattempo quindi vale la pena comprare le stesse schede riproposte da nVidia anno dopo anno solo cambiando il nome?
CoolBits
22-09-2008, 13:08
Veramente già da tempo la 4870 x2 fa 30 fps. Speriamo che si migliori la teconologia, fare collage non serve a molto. Ad esempio nVidia dovrebbe integrare il tasellation e le DX10.1 che le mancano anche nelle ultime schedozze. In confronto AMD mette a disposizione queste tecnologie gia da tempo. In poche parole nVidia farebbe meglio a migliorare i punti deboli della propria architettura. Detto questo non credo che la GTX 280 a 55nano sia ancora a 512 bit, come è gia stato detto, più si riduce il processo di produzione più difficile è integrare un maggior numero di piste per la comunicazione dei dati. Secondo me la scheda dual sara si con GGDR5 pero con un bus a 256bit proprio come la 4870 X2. In questo caso nVidia non farebbe altro che inseguire disperatamente AMD sia come prestazioni che come come ritrovato tecnologico.
A quanti giochi DX10.1 hai giocato? Quanti sfruttano la tasselation? (che con le DX11 dovrà cmq essere rifatta perchè non compatibile)
A che pro dunque mettere tecnologie inutili?
A quanti giochi DX10.1 hai giocato? Quanti sfruttano la tasselation? (che con le DX11 dovrà cmq essere rifatta perchè non compatibile)
A che pro dunque mettere tecnologie inutili?
Ok, hai perfettamente raggione!!!:doh: Iinfatti io non capisco che li hanno fatti a fare i dual e ancora peggio i quad core se ancora non si sfrutta più di un core negli attuali software. Inoltre ancora non mi spiego perche quei sproveduti degli ingenieri Intel abbiano integrato le SSSE4 nei nuovi Core Duo se tanto nella vita normale quelle istruzioni non si usano quasi mai!!! Anzi facciamo una cosa aboliamo tutte le inovazioni tecnologiche perche tanto ora come ora non si stano sfruttando! :muro:
netcrusher
22-09-2008, 13:30
Mi raccomando se Nvidia sale nuovamente al vertice non facciamoci stuprare con i loro prezzi monopolistici ed ingiusti!
CoolBits
22-09-2008, 13:31
Ok, hai perfettamente raggione!!!:doh: Iinfatti io non capisco che li hanno fatti a fare i dual e ancora peggio i quad core se ancora non si sfrutta più di un core negli attuali software. Inoltre ancora non mi spiego perche quei sproveduti degli ingenieri Intel abbiano integrato le SSSE4 nei nuovi Core Duo se tanto nella vita normale quelle istruzioni non si usano quasi mai!!! Anzi facciamo una cosa aboliamo tutte le inovazioni tecnologiche perche tanto ora come ora non si stano sfruttando! :muro:
Bravo bravo :mc: Sta di fatto che nessuna azienda sana di mente investirebbe dei soldi su qualcosa che non è utilizzato e destinato a morire a breve
Bravo bravo :mc: Sta di fatto che nessuna azienda sana di mente investirebbe dei soldi su qualcosa che non è utilizzato e destinato a morire a breve
Ah forse è cosi come dici tu..... o forse ricordo male io?!?!?! Mi sembra pero, che erano questi sani di mente di nVidia che ai tempi delle DX9 fecero uscire le PS3.0 e le VS3.0 al posto delle 2.0 anche se dopo poco cmq sono uscite le DX10. Ohoh non riesco a capire mi sfugge qualcosina... perche giustamente come dici tu nessuna azienda sana di mente investirebbe dei soldi su qualcosa che non è utilizzato e destinato a morire a breve. :sofico:
CoolBits
22-09-2008, 13:46
Ah forse è cosi come dici tu..... o forse ricordo male io?!?!?! Mi sembra pero, che erano questi sani di mente di nVidia che ai tempi delle DX9 fecero uscire le PS3.0 e le VS3.0 al posto delle 2.0 anche se dopo poco cmq sono uscite le DX10. Ohoh non riesco a capire mi sfugge qualcosina... perche giustamente come dici tu nessuna azienda sana di mente investirebbe dei soldi su qualcosa che non è utilizzato e destinato a morire a breve. :sofico:
e infatti ti ricordi male....:D vai a ripassare la storia delle DX...almeno in futuro eviti queste magre figure....;)
Crysis90
22-09-2008, 13:52
480 Stream Processors a quelle frequenze!!! Sembra una bomba di scheda!!!
e infatti ti ricordi male....:D vai a ripassare la storia delle DX...almeno in futuro eviti queste magre figure....;)
Hehehe :D ok se lo dici tu. Mi sa che dovresti leggerti questo link per rinfrescarti la memoria o forse farti una vera e propria cultura: http://www.hwupgrade.it/articoli/skvideo/1004/finalmente-nv40-geforce-6800-ultra_2.html
cmq mi dispiace :cry: che mi hai fatto fare una magra figura tu si che sei informato. :sofico: Hahahahaha
CoolBits
22-09-2008, 14:03
Hehehe :D ok se lo dici tu. Mi sa che dovresti leggerti questo link per rinfrescarti la memoria o forse farti una vera e propria cultura: http://www.hwupgrade.it/articoli/skvideo/1004/finalmente-nv40-geforce-6800-ultra_2.html
cmq mi dispiace :cry: che mi hai fatto fare una magra figura tu si che sei informato. :sofico: Hahahahaha
OMG :doh: ma sai almeno quando sono uscite le DX10 :muro: beh inutile perdere tempo tanto non ci arrivi...o non vuoi arrivarci :D goditi la tua fantastica scheda DX10.1
Cosa te ne fai delle DX10.1? Il prossimo anno tanto arrivano le DX11, e stai sicuro che NVIDIA sarà in prima linea ;) .
Beh, prendendo per buone quelle info (che buone imho non sono) il prossimo chip NVidia non sarà DX11, ma non sarà nemmeno DX10.1.
Il che non sarebbe un bene. :)
A quanti giochi DX10.1 hai giocato? Quanti sfruttano la tasselation? (che con le DX11 dovrà cmq essere rifatta perchè non compatibile)
A che pro dunque mettere tecnologie inutili?
Veramente dai documenti ufficiali MS che sono trapelati:
- le features delle DX10.1 saranno incluse anche nelle DX11, e le schede DX10.1 potranno sfruttare quelle features dei giochi DX11.
- la tessellation delle DX11 sarà implementata proprio come ha già fatto da un anno e mezzo ATI, quindi le schede che hanno già il tessellator potranno sfruttare anche questa feature delle DX11.
MiKeLezZ
22-09-2008, 14:16
Ok pero se la politica di nVidia fosse come dici tu allora per avere una innovazione tecnologica dovremmo aspettare finche microsoft non si decida di rilasciare le nuove librerie DX che normalmente avviene ogni 3 anni. Nel frattempo quindi vale la pena comprare le stesse schede riproposte da nVidia anno dopo anno solo cambiando il nome?Fino ad ora NVIDIA è sempre stata una pioniere dell'innovazione, prima con gli SM 3.0 (alcune schede ATI, come la x800xl, sono fortemente penalizzate dal non averli, addirittura non potendo far girare i giochi), poi con Purevideo e HDR (serie 6), quindi AF perfetto (serie 5,8,9,10), infine CUDA e Physx (serie 8,9,10).
Il non volere implementare le DX10.1 è una scelta come altre, evidentemente hanno ritenuto il lasso di tempo che intercorreva fra la loro release e quello delle DX11 così breve da non meritare una nuova ingegnerizzazione delle GPU a riguardo.
D'altronde è difficile biasimarli nel vedere la quantità di giochi che le sfruttino (=0) e la quantità di persone disposte ad usare Vista (=20%).
Come detto da altri, verosimilmente si tratta semplicemente di una GX2 del die shrink a 55nm del G200. In altre parole la stessa architettura, ergo è ovvio che non supporti le DX10.1.
E' ancora presto per una nuova generazione, l'attuale è uscita da pochi mesi e il processo produttivo non permette salti veri per ora.
MiKeLezZ
22-09-2008, 14:19
Beh, prendendo per buone quelle info (che buone imho non sono) il prossimo chip NVidia non sarà DX11, ma non sarà nemmeno DX10.1.
Il che non sarebbe un bene. :) Dove le hai pescate? Comunque prima delle DX11 ne devono passare di chip sotto ai ponti...
OMG :doh: ma sai almeno quando sono uscite le DX10 :muro: beh inutile perdere tempo tanto non ci arrivi...o non vuoi arrivarci :D goditi la tua fantastica scheda DX10.1
Beh vediamo un po.... Intanto l'articolo che hai letto e che spero ti sia servito a rinfrescarti la memoria è del 14/04/2004. Le DX 10 sono uscite da quando è uscito il primo vista è vale a dire più o meno 1 o 2 anni dopo la 6800 Ultra. Il primo Beta 1, rilasciato nel luglio del 2005 pero il primo Vista è stato rialasciato nel novembre del 2006. La stessa cosa sta accadendo ora non vedo quale sia la differenza....l'AMD ha fatto uscire le VGA con DX10.1 dalla RV670 uscita da più di un anno e delle DX11 ancora nenache l'ombra. Non so magari tu ci puoi fare capire meglio quale sarebbe questa nuova differenza!!!:D
Aspettiamo i consumi...per la 280gtx+ l'idea è buona, il die shrink diminuirà i consumi aumentando le possibilità di OC...
Ma la 350gtx...esagerata, voglio vedere con che alimentano 480SP e tutte le ROPs e TMU che si tiran dietro.
Almeno mi aspettavo un'architettura radicalmente nuova dopo due anni che si viaggia con gli aggiornamenti del G80, il gt200 non ha portato molte modifiche.
:muro: ...sperem,:rolleyes:
nvidia deve fare sta benedetta gtx280 gx2 , ma ci vuol tanto arrivarci? Se continua con i monoscheda, ati sarà sempre sul podio.. oramai per un pc potente è basilare aver tutto il doppio..
JohnPetrucci
22-09-2008, 14:44
Mi raccomando se Nvidia sale nuovamente al vertice non facciamoci stuprare con i loro prezzi monopolistici ed ingiusti!
La stessa cosa avrebbe fatto AMD/Ati se fosse stata al posto di Nvidia, non è che Amd regalasse le sue cpu quando Intel stava dietro ......
Finiamola di fare discorsi campati in aria......
La concorrenza serve appunto ad abbassare i prezzi e le multinazionali non fanno beneficienza ai clienti.
MenageZero
22-09-2008, 14:47
A quanti giochi DX10.1 hai giocato? Quanti sfruttano la tasselation? (che con le DX11 dovrà cmq essere rifatta perchè non compatibile)
A che pro dunque mettere tecnologie inutili?
il problema non è la presunta inutilità della spec. 10.1, che di suo non sarebbe affatto inutile, ma una ottimizzazione delle dx10.1 con effetti apprezzabili anche pratici se queste api fossero usate ...
... il problema di fondo è che c'è sempre un ritardo, se vuoi cmq fisiologico ma che forse tra dx9 e 10 si è un po' dilatato, marketing a parte, tra l'uscita di una nuova major releasae di dx e lo scrivere engine effettivamente basati sulle nuove api da parte delle sw house ...
attualmente questo si traduce nel fatto che non ci sono in giro nemmeno engine dx10.0 ... ma nel momento in cui gli sviluppatori di engine inizieranno a basare veramente il lavoro sulle nuove api, potrebbero esser loro utili sia in ottica risultato finale sia in quella di addirittura agevolare il prorpio compito in alcuni aspetti, anche le features 10.1 (e quindi nel momento in cui effettivamente si programmasse "in dx10" potrebbe anche non essere sconveniente inserire del codice condizionale per sfruttare le features 10.1 sull'hw che le supporti ...)
( il tutto ovviamente stando anche a chi ne sa molto più di me sull'argomento gpu e dintorni
http://www.hwupgrade.it/forum/showpost.php?p=24032756&postcount=134
http://www.hwupgrade.it/forum/showpost.php?p=24087735&postcount=144 )
JohnPetrucci
22-09-2008, 14:48
nvidia deve fare sta benedetta gtx280 gx2 , ma ci vuol tanto arrivarci? Se continua con i monoscheda, ati sarà sempre sul podio.. oramai per un pc potente è basilare aver tutto il doppio..
Con driver funzionanti e stabili e un cross-fire applicato a tutti i giochi senza ritrovarsi in monoscheda pur avendone 2, diciamo che ciò potrebbe avere un senso.
il problema non è la presunta inutilità della spec. 10.1, che di suo non sarebbe affatto inutile, ma una ottimizzazione delle dx10.1 con effetti apprezzabili anche pratici se queste api fossero usate ...
... il problema di fondo è che c'è sempre un ritardo, se vuoi cmq fisiologico ma che forse tra dx9 e 10 si è un po' dilatato, marketing a parte, tra l'uscita di una nuova major releasae di dx e lo scrivere engine effettivamente basati sulle nuove api da parte delle sw house ...
attualmente questo si traduce nel fatto che non ci sono in giro nemmeno engine dx10.0 ... ma nel momento in cui gli sviluppatori di engine inizieranno a basare veramente il lavoro sulle nuove api, potrebbero esser loro utili sia in ottica risultato finale sia in quella di addirittura agevolare il prorpio compito in alcuni aspetti, anche le features 10.1 (e quindi nel momento in cui effettivamente si programmasse "in dx10" potrebbe anche non essere sconveniente inserire del codice condizionale per sfruttare le features 10.1 sull'hw che le supporti ...)
( il tutto ovviamente stando anche a chi ne sa molto più di me sull'argomento gpu e dintorni
http://www.hwupgrade.it/forum/showpost.php?p=24032756&postcount=134
http://www.hwupgrade.it/forum/showpost.php?p=24087735&postcount=144 )
quoto in pieno...
Zappa1981
22-09-2008, 18:21
Ciao a tutti, ho letto tutti i commenti che avete lasciato e se posso dire la mia...il fatto che le directX 10 siano utilizzabili solo con vista penalizza in modo enorme l uso di queste librerie grafiche. Io stesso, pur cercando di mantenermi al passo con i tempi ho saltato la tappa dx10 non sentendone minimamente la mancanza. Ho aprofittato del crollo dei prezzi delle schede top di gamma DX9 per prenderne una e tenermela stretta. Ora gioco a tutto, anche a giochi dx10 perdendo pochissimo in quanto ad effetti e con il mio modesto sistema gioco a tutto e senza scatti.. Il fatto è che come ho letto possediamo tanta tecnologia ma non usata adeguamente. Me ne accorgo con il mio ormai "vecchio" pentiumD che nonostante sia in overclock e spinto quasi al massimo delle sue possibilità, perde colpi quando il sistema è davvero sotto stress, tipo scarico, navigo e comprimo un film, e sono certo che non è l hardware del pc a non funzionare ma il software che nn gestisce al meglio il processone creando vuoti e tempi morti abnormi tra un processo e l altro.. Ora: c'è davvero bisogno oggi della potenza assurda di queste schede che ci propinano a prezzi altrettanto megagalattici? Io gioco a tutto e la mia scheda costava 100 euro un anno fa e oggi se fosse ancora sul mercato costerebbe 50euro..forse!! Il risultato è vista=abominio DX10=inutili so che qualcuno mi ammazzerà di parole, ma secondo me è così :)
Cambierò la mia 7800 gtx solo quando non riuscirò più a fare girare i giochi che usciann in futuro. So che il momento non è molto lontano ma intanto ho evitato di comprare una gtx8xxx , gtx9xxx o una gtx2xx. Sono riuscito a non farmi tentare è ho fatto bene perchè riesco a giocare decentemente cod4 , fear , quake ecc... Certo crysis non s ne parla ma non se ne parlerebbe nemmeno con una 8800 o una 9900 per di piu le gtx200 non è che riescano a dare tuttoi questi frame. Quindi aspetto con pazienza le gtx400 :) o le Ati 5870 :)
corradobernardi
23-09-2008, 08:56
Ciao a tutti, ho letto tutti i commenti che avete lasciato e se posso dire la mia...il fatto che le directX 10 siano utilizzabili solo con vista penalizza in modo enorme l uso di queste librerie grafiche. Io stesso, pur cercando di mantenermi al passo con i tempi ho saltato la tappa dx10 non sentendone minimamente la mancanza. Ho aprofittato del crollo dei prezzi delle schede top di gamma DX9 per prenderne una e tenermela stretta. Ora gioco a tutto, anche a giochi dx10 perdendo pochissimo in quanto ad effetti e con il mio modesto sistema gioco a tutto e senza scatti.. Il fatto è che come ho letto possediamo tanta tecnologia ma non usata adeguamente. Me ne accorgo con il mio ormai "vecchio" pentiumD che nonostante sia in overclock e spinto quasi al massimo delle sue possibilità, perde colpi quando il sistema è davvero sotto stress, tipo scarico, navigo e comprimo un film, e sono certo che non è l hardware del pc a non funzionare ma il software che nn gestisce al meglio il processone creando vuoti e tempi morti abnormi tra un processo e l altro.. Ora: c'è davvero bisogno oggi della potenza assurda di queste schede che ci propinano a prezzi altrettanto megagalattici? Io gioco a tutto e la mia scheda costava 100 euro un anno fa e oggi se fosse ancora sul mercato costerebbe 50euro..forse!! Il risultato è vista=abominio DX10=inutili so che qualcuno mi ammazzerà di parole, ma secondo me è così
è sempre tutto relativo a quanto usi il pc e quanto senso ha cambiare un sistema.... per me ha senso quando ad esempio:
Avevo un Athlon xp 1800+, 1gb ddr, dischi da 40gb a iosa, vga Geforce4... come potenza di calcolo, per fare un ora di rendering di un montaggio in avi il pc ci metteva 2 ore. Consumava in idle sui 140W.
Passando al C2D, per fare un ora di rendering di montaggio in avi ora ci mette più o meno 20-30 minuti e se ci pensi è una bella differenza. Consumo in idle, 160w circa con una 4870. Se abilito Speedstep, C1E State, TM, TM2 e abbasso il clock e voltaggi della vga, arrivo facilmente a 110w.
hai perfettamente ragione sul software, però è anche vero che in questi anni hanno aumentato di molto le prestazioni, mantenendo i consumi a livelli decenti... se prendi un vecchio P4 extreme edition, faceva TDP 130w. Ora ci sono dei C2D anche di fascia medio bassa che vanno molto di più e consumano la metà.
Comunque alla fine, ci prenderanno sempre per il c**o... se vogliamo giocare a quake wars, grid, mass effect, ecc ecc tutto a palla, dobbiamo sfornare dei quarti di stipendio per schede video...
netcrusher
24-09-2008, 23:09
La stessa cosa avrebbe fatto AMD/Ati se fosse stata al posto di Nvidia, non è che Amd regalasse le sue cpu quando Intel stava dietro ......
Finiamola di fare discorsi campati in aria......
La concorrenza serve appunto ad abbassare i prezzi e le multinazionali non fanno beneficienza ai clienti.
Quando mai l'Amd ha fatto una politica del genere????? Sinceramente se c'è una multinazionale che fa beneficenza ai clienti quella è Ati che ci regala schede di altissimo livello(hd4800 series) a prezzi veramente esigui, mica come quei maiali di Nvidia che gonfiano i prezzi a dismisura....ora Ati è in testa ma non vedo monopolio.......
JohnPetrucci
24-09-2008, 23:19
Quando mai l'Amd ha fatto una politica del genere????? Sinceramente se c'è una multinazionale che fa beneficenza ai clienti quella è Ati che ci regala schede di altissimo livello(hd4800 series) a prezzi veramente esigui, mica come quei maiali di Nvidia che gonfiano i prezzi a dismisura....ora Ati è in testa ma non vedo monopolio.......
Perchè non ti informi un pochino sul prezzo dei dual core athlon64 versioni top e non, al loro debutto e anche prima che i core2 Intel li spazzassero via in prestazioni?
E nel frattempo informati anche sul prezzo al debutto di schede Ati come la x1800xt, x1900xt e 9800 pro,.......da quando segui l'high tech da un anno?:rolleyes:
Roba da matti.:doh:
CoolBits
25-09-2008, 12:33
Quando mai l'Amd ha fatto una politica del genere????? Sinceramente se c'è una multinazionale che fa beneficenza ai clienti quella è Ati che ci regala schede di altissimo livello(hd4800 series) a prezzi veramente esigui, mica come quei maiali di Nvidia che gonfiano i prezzi a dismisura....ora Ati è in testa ma non vedo monopolio.......
NON esiste azienda che fa beneficenza ai consumatori....:rolleyes:
netcrusher
25-09-2008, 12:47
Perchè non ti informi un pochino sul prezzo dei dual core athlon64 versioni top e non, al loro debutto e anche prima che i core2 Intel li spazzassero via in prestazioni?
E nel frattempo informati anche sul prezzo al debutto di schede Ati come la x1800xt, x1900xt e 9800 pro,.......da quando segui l'high tech da un anno?:rolleyes:
Roba da matti.:doh:
Colpa vostra che pur di "avercelo più lungo" comprate comprate comprate.......se permettete alle case di lucrarvi addosso è solo colpa vostra......il mercato lo devono comandare i consumatori e non certo le case produttrici.....magari Ati in passato si è comportata come Nvidia ma non penso commetterà mai più quell'errore........
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.