PDA

View Full Version : [Thread ufficiale] Aspettando GTX260 & GTX280


Pagine : 1 2 3 4 5 6 7 [8] 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25

nico88desmo
19-05-2008, 23:39
Un conto sono i benchmark ed un altro sono i giochi. ;)
Se NVidia nel suo materiale di marketing ha scritto che GTX280 è fino al 50% più veloce della precedente generazione, vuol dire che quello è già il best case scenario. Se fosse stato davvero il doppio più veloce non credo si sarebbero fatti problemi a scriverlo nel materiale di marketing (come chiunque, del resto, sia esso AMD o Intel o chicchessia). :)

Supponendo sempre che il 50% dichiarato qualche pag. fa sia materiale provenitente da nVidia.
Comunque un 50% della 9800GX2 non è per niente male direi ;)

Guardate crysis very high a 1900x1200 , una 8800GTX genera 14.1 FPS ed una GX2 19.1 ; Se invece di 128 SP ne mettiamo il doppio, aumentiamo il bus e tutto il resto , forse una GTX280 almeno 30 FPS li farà , se non leggermente di più per via del GB di ram . Inizio a pensare che minimo un 30% in più di una GX2 ci possa andare .

Sempre a parità di condizioni per SP,TMU,TAU, ecc...; ma non penso che GT200 sia solamente un G80 con il doppio di "cose", ma mi auguro che ci sia qualche ottimizzazione anche.

Kharonte85
20-05-2008, 00:01
http://www.pczilla.net/en/post/11.html

GeForce GTX 280 got 7k+ in 3DMark Vantage Extreme Test2008-5-19 23:26:19We learn from pcinlife forum that GeForce GTX 280 graphics card can get 7k+ scores in 3DMark Vantage Extreme test, double the score of 9800GX2 in 3DMark Vantage Extreme test. But now we still don’t know the specification of the test hardware and software configurations.

We learn that GeForce GTX 280 graphics card is equipped with 512-bit 1GB DDR3 video memory; it has 240 stream processors with 250W power consumption. GeForce GTX 280 graphics card uses dual slot cooling fan,

We also heard there’s no problem for GeForce GTX 280 graphics card to run 1920x1200 with AA and AF in Crysis.

;)
SE è vera questa cosa vista la scarsa dipendenza del Vantage al variare dei processori la scheda sara' S-P-A-V-E-N-T-O-S-A.

cristian-BG
20-05-2008, 00:26
ma ste schede le presentano alla fiera che ci sarà dal 3 al 7 giugno? e saranno disponibili oltre il 18 19 giugno?
se è vero che la gtx280 va come si dice lascio stare la gx2 e passo diretto a questa! certo che xò una scheda top che sta al top x pochi mesi come la gx2 poi viene sostituita mi è strano! mah... si parla dal 30% al 50% ma finke nn vedo nn credo! mi sembra un pò troppo ottimista... capisco la nuova architettura xò son tanti.. e niente gddr5 nn andranno ancora??? oramai siamo verso fine mese qualche info in piu darle??????? no eh :P
e voglio vedere anche i consumi di sta scheda speriamo sia a 55nm.. anche se dubito! sotto questo aspetto ati è piu avanti....

The_SaN
20-05-2008, 00:32
Dovrebbero essere 65nm e 250W, stando ai rumors.

cristian-BG
20-05-2008, 00:45
Dovrebbero essere 65nm e 250W, stando ai rumors.

mah.. nemmeno tanto... son curioso...sto aspettando solo nvidia x finire di ordinare il pc
ancora in dubbio sui q9450 o e8500...
mobo dfi x48.. visto che le 790i danno probblemi incredibili...
4gb d ram.. ecc... speriamo si sbrighino a farmi almeno vedere quanto vanno ste schede
:doh:

goldorak
20-05-2008, 03:39
http://www.pczilla.net/en/post/11.html

GeForce GTX 280 got 7k+ in 3DMark Vantage Extreme Test2008-5-19 23:26:19We learn from pcinlife forum that GeForce GTX 280 graphics card can get 7k+ scores in 3DMark Vantage Extreme test, double the score of 9800GX2 in 3DMark Vantage Extreme test. But now we still don’t know the specification of the test hardware and software configurations.

We learn that GeForce GTX 280 graphics card is equipped with 512-bit 1GB DDR3 video memory; it has 240 stream processors with 250W power consumption. GeForce GTX 280 graphics card uses dual slot cooling fan,

We also heard there’s no problem for GeForce GTX 280 graphics card to run 1920x1200 with AA and AF in Crysis.

;)

Chissa' com'e' che questo dato e' passato sotto silenzio. :mbe:
250W di consumo per una scheda video ? :rotfl: ma siamo alla follia piu' totale. In un epoca in cui tutti vanno verso il risparmio energetico alla Nvidia tirano fuori una scheda che da sola consuma quanto un intero pc. Non ci siamo, proprio non ci siamo. L'era del prescott e' finita, qualcuno glielo dovra' dire alla Nvidia.

goldorak
20-05-2008, 03:45
Supponendo sempre che il 50% dichiarato qualche pag. fa sia materiale provenitente da nVidia.
Comunque un 50% della 9800GX2 non è per niente male direi ;)


Dimentichi le seguenti parole: FINO AL, la scheda non andra' il 50% in piu' rispetto alla 9800gx2, ma nel best case scenario sara' il 50% piu' veloce.
E interessante invece sapere nel caso medio quanto andra' in piu', il 20-30% ?

The_SaN
20-05-2008, 04:04
Dimentichi le seguenti parole: FINO AL, la scheda non andra' il 50% in piu' rispetto alla 9800gx2, ma nel best case scenario sara' il 50% piu' veloce.
E interessante invece sapere nel caso medio quanto andra' in piu', il 20-30% ?

SE il 50% é riferito alla 9800gx2 :stordita:
Perché si sta dando per scontato qualcosa che é specificato come un +50% rispetto alla generazione precedente...
Non dice se la singola o la dual.
Spero davvero la seconda, perché consmare 100W in piú per un misero 50% in piú rispetto alla 9800gtx, quando una 4870 sembra fare il 25% in piú consumando 10W in meno, quindi circa 150W...

The_SaN
20-05-2008, 04:28
Dimentichi le seguenti parole: FINO AL, la scheda non andra' il 50% in piu' rispetto alla 9800gx2, ma nel best case scenario sara' il 50% piu' veloce.
E interessante invece sapere nel caso medio quanto andra' in piu', il 20-30% ?

SE il 50% é riferito alla 9800gx2 :stodita:
Perché si sta dando per scontato qualcosa che é specificato come un +50% rispetto alla generazione precedente...
Non dice se la singola o la dual.
Spero davvero la seconda, perché consmare 100W in piú per un misero 50% in piú rispetto alla 9800gtx, quando una 4870 sembra fare il 25% in piú consumando 10W in meno, quindi circa 150W...

The_SaN
20-05-2008, 05:03
Dimentichi le seguenti parole: FINO AL, la scheda non andra' il 50% in piu' rispetto alla 9800gx2, ma nel best case scenario sara' il 50% piu' veloce.
E interessante invece sapere nel caso medio quanto andra' in piu', il 20-30% ?

SE il 50% é riferito alla 9800gx2 :stordita:
Perché si sta dando per scontato qualcosa che é specificato come un +50% rispetto alla generazione precedente...
Non dice se la singola o la dual.
Spero davvero la seconda, perché consumare 100W in piú per un misero 50% in piú rispetto alla 9800gtx, quando una 4870 sembra fare il 25% in piú consumando 10W in meno, quindi circa 150W...


PS: qui dalle 23:00 alle 00:00 mi fa dei casini con i messaggi...sembra che il server non li prenda...ne ho postati 3 uguali ma ne ha contato 1 solo (postato alle 00:03, alle 5 da voi)
Quindi se vedete 3 msg non linciatemi, anzi se mi dite quanti ne vedete mi aiutate :D

D4N!3L3
20-05-2008, 07:48
se viene applicata quella alla italiana allora costerà sui 499€, 500$ ora sono 322€...forse possiamo sperare sui 449€..

Ok, ragazzi mi dovrete dire dove le trovate a sti prezzi. :cool:


Hal quando avevi detto che c'era l'incontro con la stampa? Il 23? :confused:

Athlon 64 3000+
20-05-2008, 08:36
Guardate che 250W sono il TDP come la mia HD 2900XT ha un TDP di 215W quando in realtà comuma 160W sotto sforzo come misurato da xbitlabs.
Penso che alla fine dovrebbe stare comunque sotto i 200W come comsumi.

D4N!3L3
20-05-2008, 08:46
EDIT

halduemilauno
20-05-2008, 08:47
SE il 50% é riferito alla 9800gx2 :stordita:
Perché si sta dando per scontato qualcosa che é specificato come un +50% rispetto alla generazione precedente...
Non dice se la singola o la dual.
Spero davvero la seconda, perché consumare 100W in piú per un misero 50% in piú rispetto alla 9800gtx, quando una 4870 sembra fare il 25% in piú consumando 10W in meno, quindi circa 150W...


PS: qui dalle 23:00 alle 00:00 mi fa dei casini con i messaggi...sembra che il server non li prenda...ne ho postati 3 uguali ma ne ha contato 1 solo (postato alle 00:03, alle 5 da voi)
Quindi se vedete 3 msg non linciatemi, anzi se mi dite quanti ne vedete mi aiutate :D

aridaje con se. ma può mai esser riferito alla 9800gtx?(ve piacerebbe eh)ma che fa tira fuori una scheda che va meno dell'attuale 9800gx2? e che costa di + e che consuma di +?
il vostro guaio(perchè mica sei solo magari)è la malafede che vi frega. e pure qualche altra cosa.

halduemilauno
20-05-2008, 08:48
Ok, ragazzi mi dovrete dire dove le trovate a sti prezzi. :cool:


Hal quando avevi detto che c'era l'incontro con la stampa? Il 23? :confused:

NDA.
;)

halduemilauno
20-05-2008, 08:50
Guardate che 250W sono il TDP come la mia HD 2900XT ha un TDP di 215W quando in realtà comuma 160W sotto sforzo come misurato da xbitlabs.
Penso che alla fine dovrebbe stare comunque sotto i 200W come comsumi.

e cmq ha valori simili all'attuale 9800gx2. che si ha due chip ma questo singolo è ben + potente di tutti e due.

Pakko
20-05-2008, 09:10
Iscritto!!! :oink:
Molto interessato a questo mostro..

D4N!3L3
20-05-2008, 09:13
NDA.
;)

Ma eri tu stesso che l'avevi detto. :confused:

A.L.M.
20-05-2008, 09:40
Guardate che 250W sono il TDP come la mia HD 2900XT ha un TDP di 215W quando in realtà comuma 160W sotto sforzo come misurato da xbitlabs.
Penso che alla fine dovrebbe stare comunque sotto i 200W come comsumi.

Ovviamente il TDP è il valore massimo, ma questo vale per tutte le schede. ;)
Il valore reale rispetto al TDP varia da produttore a produttore e da scheda a scheda, quindi non siamo in grado di dire quanto consumerà effettivamente una scheda della quale si ha solo il TDP. ;)

e cmq ha valori simili all'attuale 9800gx2. che si ha due chip ma questo singolo è ben + potente di tutti e due.

La GX2 ha un TDP di 198W, la GTX280 di 250W, a quanto pare. A me non sembrano valori simili, è un incremento del 25%... ;)

halduemilauno
20-05-2008, 09:46
Ovviamente il TDP è il valore massimo, ma questo vale per tutte le schede. ;)
Il valore reale rispetto al TDP varia da produttore a produttore e da scheda a scheda, quindi non siamo in grado di dire quanto consumerà effettivamente una scheda della quale si ha solo il TDP. ;)



La GX2 ha un TDP di 198W, la GTX280 di 250W, a quanto pare. A me non sembrano valori simili, è un incremento del 25%... ;)

intanto tocca vedere il valore reale del TDP. e cmq giustificatissimi per avere un salto prestazionale medio del doppio. intendo 50%. e per la sua fascia di competenza.

-noxius-
20-05-2008, 10:11
intanto tocca vedere il valore reale del TDP. e cmq giustificatissimi per avere un salto prestazionale medio del doppio. intendo 50%. e per la sua fascia di competenza.

Aridaje ... :rolleyes: Addirittura ''medio del doppio'' ? Questo significherebbe che per avere un incremento MEDIO di tale portata questa gt280 debba anche toccare punte del 70-80 % rispetto ad una singola GX2 ; non ti sembra di averla detta ''leggermente'' troppo grossa ? ;)

Che andrà pari o poco più posso concordare ma secondo me ti stai sbilanciando troppo , come fai ad avere tutte queste certezze ? A meno che tu non abbia informazioni sottobanco mi chiedo come tu possa arrivare a giustificare un tale incremento senza nemmeno aver visto un singolo benchmark ; stai attento , potresti fare la stessa fine di tutti quelli che dissero in merito alla 2900xt ''aspetta e vedrai di cosa sono capaci'' , e poi ..

Percarita , se fosse davvero così ben venga , però oltre al fatto che ne dubito fortemente questo significherà che nel mercato retail il prezzo minimo sarà 550 euro e passa , qualora fosse come hai detto tu .

zorco
20-05-2008, 10:14
La GX2 ha un TDP di 198W, la GTX280 di 250W, a quanto pare. A me non sembrano valori simili, è un incremento del 25%... ;)
è consuma realmente 181watt secondo xbitlabs,quindi probabile che questo mostro di chip consumi un fottio di energia,dico vicino ai 200w....

halduemilauno
20-05-2008, 10:20
Aridaje ... :rolleyes: Addirittura ''medio del doppio'' ? Questo significherebbe che per avere un incremento MEDIO di tale portata questa gt280 debba anche toccare punte del 70-80 % rispetto ad una singola GX2 ; non ti sembra di averla detta ''leggermente'' troppo grossa ? ;)

Che andrà pari o poco più posso concordare ma secondo me ti stai sbilanciando troppo , come fai ad avere tutte queste certezze ? A meno che tu non abbia informazioni sottobanco mi chiedo come tu possa arrivare a giustificare un tale incremento senza nemmeno aver visto un singolo benchmark ; stai attento , potresti fare la stessa fine di tutti quelli che dissero in merito alla 2900xt ''aspetta e vedrai di cosa sono capaci'' , e poi ..

ribadisco(perchè gia detto)intendendo 50% riferito al consumo superiore(supposto)del 25% in +. quindi per un 25% in + di consumo giustificatissimo(a mio avviso)dall'avere il 50% in + nelle prestazioni.
"pari o poco +"
stai attento tu piuttosto alla magra che stai facendo te e come altri.
detto questo ti ho detto tutto.

halduemilauno
20-05-2008, 10:21
http://www.tomshw.it/news.php?newsid=14078

In previsione dell'arrivo delle nuove proposte grafiche che nVidia presenterà nel corso dell'estate - soluzioni GTX 200 e 9800 GT, per esempio - l'azienda aumenterà gli ordini di chip presso le fonderie Taiwan Semiconductor Manufacturing Co. (TSMC) e United Microelectronics Co. (UMC), per far fronte alla domanda, che si preannuncia elevata. Il fatto che nVidia abbia incrementato gli ordini significa che è sicura della buona accoglienza che sarà riservata ai nuovi prodotti. Crediamo inoltre che l'azienda voglia evitare di trovarsi impreparata, come avvenne alla presentazione del chip G92, quando per mesi trovare una scheda nei negozi fu davvero difficile.

Fonti industriali riportano che nVidia avrebbe firmato dei contratti per la produzione di 50 mila wafer con TSMC e da 7 ai 9 mila wafer con UMC. Entrambi gli accordi riguarderebbero la produzione di chip a 65 nanometri e non quella a 55 nanometri, ma non ne abbiamo la certezza. Con questo nuovo ordine, la produzione TSMC per nVidia raggiungerà i 60 mila wafer, mentre UMC arriverà a circa 12 mila. I dati sono da intendersi nell'arco di un trimestre.



In base alla crescente domanda di schede video nVidia, i vertici dell'azienda stimano di poter superare il fatturato record di 935,3 milioni, raggiunto nello stesso periodo dello scorso anno. Con quasi 30 milioni di chip venduti nel corso del trimestre precedente, gli esperti del settore pensano che nVidia possa superare i 100 milioni di chip venduti nel corso dell'anno.

La crescita di nVidia e del partner TSMC sono testimoniate anche dall'incremento nelle vendite di chip fatte segnare nel primo trimestre, rispettivamente in salita del 37 e del 44 percento nei confronti del Q1 2007.

;)

Fray
20-05-2008, 10:24
sicuramente ci saranno "difficoltà tecniche" però la scelta di lanciare Gt200 a 65nm (per quello che si sa) mi sembra la solita "mossa" per rinnovare le schede dopo 3 mesi con i 55nm...e visti i possibili consumi direi che è decisamente saggio aspettare.

zorco
20-05-2008, 10:25
non cè che dire l'azienda và gonfie vele...;)

halduemilauno
20-05-2008, 10:29
sicuramente ci saranno "difficoltà tecniche" però la scelta di lanciare Gt200 a 65nm (per quello che si sa) mi sembra la solita "mossa" per rinnovare le schede dopo 3 mesi con i 55nm...e visti i possibili consumi direi che è decisamente saggio aspettare.

nvidia tradizionalmente rinnova il pp partendo dalle fasce + basse. le prime schede dovrebbero essere le gs260 ex 9500.

-noxius-
20-05-2008, 10:32
ribadisco(perchè gia detto)intendendo 50% riferito al consumo superiore(supposto)del 25% in +. quindi per un 25% in + di consumo giustificatissimo(a mio avviso)dall'avere il 50% in + nelle prestazioni.
"pari o poco +"
stai attento tu piuttosto alla magra che stai facendo te e come altri.
detto questo ti ho detto tutto.

E' no, tu hai detto ''salto PRESTAZIONALE(che centra il TDP ?) MEDIO DEL DOPPIO'' , non ti rimangiare le parole ;) . Magra figura io ? Su, leggimi il futuro su quella bella sfera di cristallo che hai sul comodino :ciapet: .

Ti pagassero almeno lo potrei capire, ma così senza un fine non capisco perchè tu lo faccia . Dici che questa gtx sarà un mostro senza nemmeno aver visto nè le sue prestazioni, nè quelle in merito alla 4870/4870x2, quest'ultima che sembra sarà addirittura più cara della GTX280 .

Aspetta a tirare conclusioni a priori , non vorrei che tu fossi nVIDIOSO delle prestazioni della x2 :ciapet:

halduemilauno
20-05-2008, 10:47
E' no, tu hai detto ''salto PRESTAZIONALE(che centra il TDP ?) MEDIO DEL DOPPIO'' , non ti rimangiare le parole ;) . Magra figura io ? Su, leggimi il futuro su quella bella sfera di cristallo che hai sul comodino :ciapet: .

Ti pagassero almeno lo potrei capire, ma così senza un fine non capisco perchè tu lo faccia . Dici che questa gtx sarà un mostro senza nemmeno aver visto nè le sue prestazioni, nè quelle in merito alla 4870/4870x2, quest'ultima che sembra sarà addirittura più cara della GTX280 .

Aspetta a tirare conclusioni a priori , non vorrei che tu fossi nVIDIOSO delle prestazioni della x2 :ciapet:

detto subito 50% in riferimento al 25% citato a proposito del consumo. in questo caso un +25% tutto da dimostrare e cmq a mio avviso giustificato a fronte del salto prestazionale.


intanto tocca vedere il valore reale del TDP. e cmq giustificatissimi per avere un salto prestazionale medio del doppio. intendo 50%. e per la sua fascia di competenza.

io ho sempre parlato della gtx280 in funzione delle altre schede nvidia. non ho bisogno di sfere di cristallo quelle le lascio volentieri a tutti voi che vedo ne usate e abusate.
pagassero? intanto per dire la propria opinione non è che ti devono pagare. almeno io dico quelle giuste. voi invece gratis cosa dite?
in quanto all'invidioso mi sa che qui ne siete parecchi.
ora se non ti dispiace vorrei continuare a parlare di gtx280 e quant'altro con gli amici. quindi...

Syrux
20-05-2008, 10:49
una top nvidia che va meno di una top ati...uhm quanti anni e' che non capita....boh non ricordo...beh come non pensare che ci sia questo cambio al vertice ci sono tutte le premesse....stupidi noi a non averci pensato prima.

okorop
20-05-2008, 10:52
una top nvidia che va meno di una top ati...uhm quanti anni e' che non capita....boh non ricordo...beh come non pensare che ci sia questo cambio al vertice ci sono tutte le premesse....stupidi noi a non averci pensato prima.

io per il mercato lo trovo solo un fatto positivo.....:)

halduemilauno
20-05-2008, 10:59
riporto la fonte originaria e la sua traduzione...

http://we.pcinlife.com/thread-935774-1-1.html

512bit MC
1GB DDR3
240 Core
250W

GTX280 double the performance of 9800 GX2 , Vantage Extreme 7K +

Crysis 1920x1200 opened AF AA no problem

RV770 has to suffer!

R700 also has to suffer!

;)

HackaB321
20-05-2008, 11:00
una top nvidia che va meno di una top ati...uhm quanti anni e' che non capita....boh non ricordo....

2

Syrux
20-05-2008, 11:04
Guarda non credo prorpio per niente che da una generazione a dun'altra ci sia un passo cosi netto e un cambio di prestazioni cosi netto, piuttosto penso che come e' avvenuto con l'ultima serie,ati stia cercando di creare competivita anche nella fascia alta,il che come dici tu e' sicuramente e ovviamente positivo per il mercato,ci mancherebbe.Lungi da me essere un fan boy fino alla 9800pro sempre avuto ati,ma non ho le fette di prosciutto sugli occhi.

halduemilauno
20-05-2008, 11:15
Guarda non credo prorpio per niente che da una generazione a dun'altra ci sia un passo cosi netto e un cambio di prestazioni cosi netto, piuttosto penso che come e' avvenuto con l'ultima serie,ati stia cercando di creare competivita anche nella fascia alta,il che come dici tu e' sicuramente e ovviamente positivo per il mercato,ci mancherebbe.Lungi da me essere un fan boy fino alla 9800pro sempre avuto ati,ma non ho le fette di prosciutto sugli occhi.

la 6800 ultra andava il doppio della 9800xt(ati). la 8800gtx andava il doppio della 7900gtx. precedenti ce ne sono. qui si parla del 50% in +. il doppio da me riferito era rivolto alla 9800gtx(nvidia). il doppio da me riportato si riferirebbe (credo)al 3d mark vantage. e credo che basti un'attimino capirne e soffermarsi e riflettere sulle caratteristiche per arrivare a quelle semplici e facili conclusioni. almeno per me.
tutto qui.

Syrux
20-05-2008, 11:22
si si hal ma un cambio cosi netto era riferito al fatto che ati andasse piu forte di nvidia...anch'io sono convinto che la gtx280 andra molto di piu di una 9800gx2...:sofico::read:

Fray
20-05-2008, 11:29
in tutta sincerità un sorpasso da parte di ati sembra impossibile, naturalmente per la concorrenza ci si spera, ma...

A.L.M.
20-05-2008, 11:30
intanto tocca vedere il valore reale del TDP. e cmq giustificatissimi per avere un salto prestazionale medio del doppio. intendo 50%. e per la sua fascia di competenza.

Ma nessuno dice che siano ingiustificati. :)
Il mio commento era più relativo al fatto che, dato l'uso dello stesso processo produttivo, l'incremento in termini di performance per watt rispetto a G92 sarà contenuto (nell'ordine del 15%-20%).

D4N!3L3
20-05-2008, 11:30
si si hal ma un cambio cosi netto era riferito al fatto che ati andasse piu forte di nvidia...anch'io sono convinto che la gtx280 andra molto di piu di una 9800gx2...:sofico::read:

:sperem: :sperem: :sperem: :sperem:

halduemilauno
20-05-2008, 11:31
si si hal ma un cambio cosi netto era riferito al fatto che ati andasse piu forte di nvidia...amch'io sono convinto che la gtx280 andra molto di piu di una 9800gx2...:sofico:

beh come leggo le caratteristiche delle nvidia leggo quelle di ati. e questa volta mi paiono valide. certo la base di partenza rimane sempre quel naufragio di r600 quindi è chiaro che per forza di cose il boost sarà nettissimo. la fregatura di ati è che ha trovato il G80 un'autentico capolavoro di chip grafico e il GT200 dovrebbe rappresentare il suo degno sostituto.
e quindi con basi di partenza molto molto diverse ati deve fare moltissimo per guadagnare il terreno e il tempo perduto.
questo nello specifico è l'ultimo rumors...
http://www.pczilla.net/en/post/12.html
R700 lost battle to GTX 280?2008-5-20 1:47:30We learn from pcinlife forum that ATI next generation flagship R700 lost battle to GTX 280 in closed doors tests.

Taiwan graphics cards manufacture obviously got both 4870x2 and GTX 280 graphics card samples for these comparisons. But as we told you before, we still don't know the specification of the test hardware and software configurations.

We hope ATI Catalyst Develop Team could do miracle to save Radeon HD 4870x2 in next gorgeous chips battle between AMD and NVIDIA.

e noi aspettiamo.

halduemilauno
20-05-2008, 11:33
Ma nessuno dice che siano ingiustificati. :)
Il mio commento era più relativo al fatto che, dato l'uso dello stesso processo produttivo, l'incremento in termini di performance per watt rispetto a G92 sarà contenuto (nell'ordine del 15%-20%).

tu hai detto la tua e io la mia. e qui c'è gente che ha detto la loro dicendo 50% in + rispetto alla 9800gtx.

sonnet
20-05-2008, 12:09
tu hai detto la tua e io la mia. e qui c'è gente che ha detto la loro dicendo 50% in + rispetto alla 9800gtx.

l'incremento dei consumi non e' affatto giustificato, altrimenti a questo ritmo di crescita tra 5 anni si dovra' stare attenti a quali elettrodomestici tenere accesi prima di fare una partitina col pc.
Io spero che queste top gamma vengano boicottate,
Il mercato va sempre piu' verso la miniaturizzazione e la la forte espansione del settore notebook.
Io ad esempio uso un case matx, e come me molti, non e' possibile che per giocare nel 2008 devi avere una portaerei come case.
Perche' ovviamente e' difficile tenere nel case matx una scheda che ti consuma 200w.
Come anche nel settore laptop le schede video high-end hanno consumi maggiori rispetto alle high-end di 2 anni fa. Tra l'altro diventa sempre piu' difficile proporre versioni mobile delle top gamma, cosa che non accadeva prima.
Cioe' rendiamoci conto che la M8600gt e la HD2600 mobile(che andava meno del predecessore 7900 ) sono state per lungo tempo le proposte top delle due case nell'ambito notebook.
Una scheda che non va nemmeno un quarto della migliore proposta desktop di allora (la 8800 ultra ).
Mentre solo guardando alla generazione precedente la 7900 mobile era non troppo distante dalla controparte desktop in termini di performance.

A.L.M.
20-05-2008, 12:09
Sembra proprio che quei file cad fossero veri... ;) :fiufiu:

http://img84.imageshack.us/img84/9189/20080520d53acc07f36902dev2.png

http://img262.imageshack.us/img262/6087/x2nj7.png

Fonte: il forum di itocp.com

P.S.: la gpu è davvero enorme... :eek:

l'incremento dei consumi non e' affatto giustificato, altrimenti a questo ritmo di crescita tra 5 anni si dovra' stare attenti a quali elettrodomestici tenere accesi prima di fare una partitina col pc.
Io spero che queste top gamma vengano boicottate,
Il mercato va sempre piu' verso la miniaturizzazione e la la forte espansione del settore notebook.
Io ad esempio uso un case matx, e come me molti, non e' possibile che per giocare nel 2008 devi avere una portaerei come case.
Perche' ovviamente e' difficile tenere nel case matx una scheda che ti consuma 200w.
Come anche nel settore laptop le schede video high-end hanno consumi maggiori rispetto alle high-end di 2 anni fa. Tra l'altro diventa sempre piu' difficile proporre versioni mobile delle top gamma, cosa che non accadeva prima.
Cioe' rendiamoci conto che la M8600gt e la HD2600 mobile(che andava meno del predecessore 7900 ) sono state per lungo tempo le proposte top delle due case nell'ambito notebook.
Una scheda che non va nemmeno un quarto della migliore proposta desktop di allora (la 8800 ultra ).
Mentre solo guardando alla generazione precedente la 7900 mobile era non troppo distante dalla controparte desktop in termini di performance.

Su quanto evidenziato non posso che darti ragione. :)

halduemilauno
20-05-2008, 12:15
l'incremento dei consumi non e' affatto giustificato, altrimenti a questo ritmo di crescita tra 5 anni si dovra' stare attenti a quali elettrodomestici tenere accesi prima di fare una partitina col pc.
Io spero che queste top gamma vengano boicottate,
Il mercato va sempre piu' verso la miniaturizzazione e la la forte espansione del settore notebook.
Io ad esempio uso un case matx, e come me molti, non e' possibile che per giocare nel 2008 devi avere una portaerei come case.
Perche' ovviamente e' difficile tenere nel case matx una scheda che ti consuma 200w.
Come anche nel settore laptop le schede video high-end hanno consumi maggiori rispetto alle high-end di 2 anni fa. Tra l'altro diventa sempre piu' difficile proporre versioni mobile delle top gamma, cosa che non accadeva prima.
Cioe' rendiamoci conto che la M8600gt e la HD2600 mobile(che andava meno del predecessore 7900 ) sono state per lungo tempo le proposte top delle due case nell'ambito notebook.
Una scheda che non va nemmeno un quarto della migliore proposta desktop di allora (la 8800 ultra ).
Mentre solo guardando alla generazione precedente la 7900 mobile era non troppo distante dalla controparte desktop in termini di performance.

ma a pari pp una scheda che ne deve/vuole superare un'altra che ne ha due di chip cosa deve fare se non aumentare le dimensioni e quindi il consumo. fra 5 anni? allora ci sarà il 25nm e anche meno. e non a caso la 4870x2 che ha due chip che individualmente consumano meno ma avendone per l'appunto due consumerà pure di +. e allora che dovrebbe fare ati rinunciare alla fascia enthusiast?

Athlon 64 3000+
20-05-2008, 12:24
Potete insultarmi ma una scheda del genere dal punto di vista estestico è un vero calcio nel sedere ed un aborto ingegneristico dato la sua elevata complessità costruttiva e anche perchè non condivido per niente l'ulilizzo ancora del controller di memoria di tipo crossbar.
Che poi sarà un missile come prestazioni tanto da demolire persino la 9800GX2 questo è un altro discorso.

goldorak
20-05-2008, 12:26
ma a pari pp una scheda che ne deve/vuole superare un'altra che ne ha due di chip cosa deve fare se non aumentare le dimensioni e quindi il consumo. fra 5 anni? allora ci sarà il 25nm e anche meno. e non a caso la 4870x2 che ha due chip che individualmente consumano meno ma avendone per l'appunto due consumerà pure di +. e allora che dovrebbe fare ati rinunciare alla fascia enthusiast?

Il punto e' un'altro. ATI con ogni generazione che passa propone schede anche top di gamma che consumano meno delle precedenti.
Nvidia invece di diminuire i consumi li aumenta.
Uno dei due sbaglia se pensa di attuare una logica del genere a medio-lungo termine, chi secondo te ? :p

Milotto
20-05-2008, 12:29
riporto la fonte originaria e la sua traduzione...

http://we.pcinlife.com/thread-935774-1-1.html

CUT
GTX280 double the performance of 9800 GX2 , Vantage Extreme 7K +

Crysis 1920x1200 opened AF AA no problem

RV770 has to suffer!

R700 also has to suffer!

;)

:D :D FARNETICANO.....:D :D in particolare sulle prestazioni con Crysis : se è possibile giocarlo a 1920*1200 con AA e AF (dando per scontato che si riferiscano al setting "VERY HIGH") allora 280GTX quadruplica le prestazioni di g80..per cortesia...quando postate questa spazzatura abbiate il buon senso di concedervi il beneficio del dubbio..

P.S.: R700 probabilmente non esiste ancora , se non nei laboratori ATI....

goldorak
20-05-2008, 12:39
Non mi sembra che 2900xt consumasse meno di x1950xtx.:read:

La 2900XT e' stata un salto architetturale importante rispetto alla serie x19xx.
L'affermazione ovviamente va intesa a partire da R600.

D'altra parte io non ho visto i consumi ridursi sui modelli Nvidia, parlo a partire dalla generazione 8xxx. :stordita:

Ora aspetto solo di sentire che piu' consuma meglio e'.
Ah si non vedo l'ora di avere un pc che consuma 1 KW reale per fare una partita a Gears of War 5 a 2500x1600. :sofico:

leoneazzurro
20-05-2008, 12:41
Potete insultarmi ma una scheda del genere dal punto di vista estestico è un vero calcio nel sedere ed un aborto ingegneristico dato la sua elevata complessità costruttiva e anche perchè non condivido per niente l'ulilizzo ancora del controller di memoria di tipo crossbar.
Che poi sarà un missile come prestazioni tanto da demolire persino la 9800GX2 questo è un altro discorso.

beh, se riescono a costruire una scheda complessa come quella, non parlerei di "aborto ingegneristico", ma gli farei tanto di cappello ;)

Il punto e' un'altro. ATI con ogni generazione che passa propone schede anche top di gamma che consumano meno delle precedenti.
Nvidia invece di diminuire i consumi li aumenta.
Uno dei due sbaglia se pensa di attuare una logica del genere a medio-lungo termine, chi secondo te ? :p

La questione è sempre quella delle "performance per watt", perchè se è vero che la top di gamma consuma molto, è anche vero che si può scalare verso il basso e quindi bisogna vedere anche il rapporto prestazioni/potenza.

goldorak
20-05-2008, 12:45
b
La questione è sempre quella delle "performance per watt", perchè se è vero che la top di gamma consuma molto, è anche vero che si può scalare verso il basso e quindi bisogna vedere anche il rapporto prestazioni/potenza.

Questo e' vero, ma restando in fascia enthusiast il concetto di performance per watt va a farsi benedire sui modelli Nvidia, mentre invece e' rilevante sui modelli AMD/ATI.
Io vorrei una spiegazione sul perche' solo ATI ha inserito una modalita' di risparmio energetica sulla scheda video e che vale su qualsiasi scheda madre, mentre la Nvidia invece ha fatto una scelta altamente discutibile legando il risparmio energetico dei nuovi modelli solo quando sono insieme ai nuovi chipset Nvidia. A me pare che la soluzione Nvidia sia una non soluzione in definitiva.

zorco
20-05-2008, 12:45
beh, se riescono a costruire una scheda complessa come quella, non parlerei di "aborto ingegneristico", ma gli farei tanto di cappello ;)

concordo...

sonnet
20-05-2008, 12:50
Il punto e' un'altro. ATI con ogni generazione che passa propone schede anche top di gamma che consumano meno delle precedenti.
Nvidia invece di diminuire i consumi li aumenta.
Uno dei due sbaglia se pensa di attuare una logica del genere a medio-lungo termine, chi secondo te ? :p

Ma non penso proprio che ATI ad ogni generazione faccia come dici tu..
ti dovresti andare a guardare le vecchie recensioni di xbitlabs e anandtech per vedere quanto consumavano le vecchie top gamma.
Ai tempi delle 6800-x800 le top stavano sui 50w.
Con la 7800 ma ancor di piu' fu con la serie x1800 che i consumi cominciarono a salire vertiginosamente (tant'e' che passando di generazione la x1800 raddoppio' quasi i consumi ).
Poi non parliamo di quello accaduto prima con g80 e ancor peggio con la 2900 di ati.
L'unica cosa buona di ati e' che ha introdotto nel vga desktop le tecnologie per il risparmio energetico usate nelle vga mobile.
Spero che Nvidia la copi quanto prima.
Io di certo una scheda con TDP superiore a 100w non la comprero' mai.
Gia' la 9600gt che ho ora nel case consuma troppo per i miei gusti.
Certo se il consumatore anziche' guardare solo al numero di fps (per poi gustarsi i benchmark tanto inutili ) pensasse anche al fatto che il pc per la maggior parte del tempo non lo usa per il 3de che maggiori consumi = maggior rumore..

leoneazzurro
20-05-2008, 12:51
Questo e' vero, ma restando in fascia enthusiast il concetto di performance per watt va a farsi benedire sui modelli Nvidia, mentre invece e' rilevante sui modelli AMD/ATI.
Io vorrei una spiegazione sul perche' solo ATI ha inserito una modalita' di risparmio energetica sulla scheda video e che vale su qualsiasi scheda madre, mentre la Nvidia invece ha fatto una scelta altamente discutibile legando il risparmio energetico dei nuovi modelli solo quando sono insieme ai nuovi chipset Nvidia. A me pare che la soluzione Nvidia sia una non soluzione in definitiva.

Perchè vogliono far soldi anche con i chipset? Il che è logico.
Comunque, non è detto che ci siano sorprese anche da quel punto di vista, anche se è da dire che oramai è chiaro che ATI ottimizzerà sempre più le fasce performance e mainstream per performance per watt lasciando alle schede multichip il compito di essere di fascia alta. E' una questione di costi, del resto. invece credo che sparirà a breve la fascia entry level, fagocitata dai chipset integrati ad alte prestazioni, del resto già si è visto qualcosa con i 780/790G di AMD e gli 8200/8300 di Nvidia...

leoneazzurro
20-05-2008, 12:53
Ma non penso proprio che ATI ad ogni generazione faccia come dici tu..
ti dovresti andare a guardare le vecchie recensioni di xbitlabs e anandtech per vedere quanto consumavano le vecchie top gamma.
Ai tempi delle 6800-x800 le top stavano sui 50w.

Naa... la 6800 era vicina ai 100 (un pò sotto) e leggermente meno le x800.

Glorfindelor
20-05-2008, 12:56
scusate se la domanda è stata già posta ma non ho né il tempo né la possibilità di leggermi 92 pagine :p
per caso ci sono novità sulle date di uscita delle nuove schede nvidia? :)

A.L.M.
20-05-2008, 13:08
La questione è sempre quella delle "performance per watt", perchè se è vero che la top di gamma consuma molto, è anche vero che si può scalare verso il basso e quindi bisogna vedere anche il rapporto prestazioni/potenza.

Se i dati sono quelli visti finora, le performance per watt di GT200 penso che aumentino rispetto a G92 più in virtù dell'eliminazione della "castratura" di G92 (bus) che per qualche ottimizzazione specifica. Virtualmente scendendo di fascia il vantaggio prestazionale dovrebbe ridursi a zero o quasi, a parità di specifiche.

Non capisco poi tanta avversità sul controller di tipo crossbar... già utilizzato su vga come le GeForce 3. :boh:

Il problema è che occupa più spazio del ringbus, quindi per i 512bit non è molto indicato (anche se il ringbus si è dimostrato troppo complesso, invece), visto che aumenta le dimensioni del chip a dismisura... ;)

nico88desmo
20-05-2008, 13:08
Sembra proprio che quei file cad fossero veri... ;) :fiufiu:

http://img84.imageshack.us/img84/9189/20080520d53acc07f36902dev2.png

http://img262.imageshack.us/img262/6087/x2nj7.png

Fonte: il forum di itocp.com

P.S.: la gpu è davvero enorme... :eek:



Insieme a questa news c'è da dire anche questo:
We also heard that GeForce GTX 280 graphics card would be the last single chip design from NVIDIA. After GeForce GTX 280, NVIDIA will only bring graphics cards with double and multiple cores design.

A.L.M.
20-05-2008, 13:09
Insieme a questa news c'è da dire anche questo:
We also heard that GeForce GTX 280 graphics card would be the last single chip design from NVIDIA. After GeForce GTX 280, NVIDIA will only bring graphics cards with double and multiple cores design.

Se la news fosse vera, CVD. ;)

goldorak
20-05-2008, 13:12
Insieme a questa news c'è da dire anche questo:
We also heard that GeForce GTX 280 graphics card would be the last single chip design from NVIDIA. After GeForce GTX 280, NVIDIA will only bring graphics cards with double and multiple cores design.

Interessante. :stordita:
Forse anche loro infine capiscono che non possono continuare a proporre schede che consumano quanto una centrale nucleare.
Modularita' e bassi consumi anche per Nvidia.
Peccato che bisognera' aspettare qualche anno in piu', magari in tempo per le dx 11.

Foglia Morta
20-05-2008, 13:12
capito :)

Magia :eek:

Hai risposto ad A.L.M ma nel tuo quote compare Athlon 64 3000+ invece di A.L.M.

Il problema è che occupa più spazio del ringbus, quindi per i 512bit non è molto indicato (anche se il ringbus si è dimostrato troppo complesso, invece), visto che aumenta le dimensioni del chip a dismisura... ;)

Foglia Morta
20-05-2008, 13:15
Se la news fosse vera, CVD. ;)

secondo me no...

IMHO dai 65nm passeranno ai 45nm nel 2009. e saltano i 55nm così come hanno saltato i 80nm nell high end

Milotto
20-05-2008, 13:23
Insieme a questa news c'è da dire anche questo:
We also heard that GeForce GTX 280 graphics card would be the last single chip design from NVIDIA. After GeForce GTX 280, NVIDIA will only bring graphics cards with double and multiple cores design.

Questa news conferma la bontà della strada intrapresa da ATI , a dispetto di quanti sostenevano che fosse una scelta esclusivamente dettata da difficoltà economiche...
Se così fosse si conserva la tendenza "meno conservatrice" o se volete "più innovatrice" di ATI...

A.L.M.
20-05-2008, 14:27
secondo me no...

IMHO dai 65nm passeranno ai 45nm nel 2009. e saltano i 55nm così come hanno saltato i 80nm nell high end

I 55nm non li salteranno imho, se si riveleranno validi almeno dal punto di vista dei consumi, visto che li testeranno su G92b. Penso infatti che la high-end successiva alla GTX280 sarà a 55nm, altrimenti ci vorrebbe troppo tempo.
Il problema è che uno shrink così piccolo non basta ad ottenere spazio sufficiente per incrementi significativi di prestazioni (l'architettura di G80 è più "ingombrante" di quella R600-based), inoltre credo che con quasi 600mm^2 si sia raggiunto un tetto di complicazione difficilmente superabile.
Probabilmente punteranno ad una GX2 basata su un GT200 downclockato a 55nm.
Nvidia non ha mai adottato un processo produttivo per la prima volta sull'high-end, quindi dovrà prima testare il nuovo processo produttivo sulla fascia media, e poi passare alla alta. ;)
P.S.: a rigore nemmeno gli 80nm furono saltati, visto che NVidia li usò sulla GeForce Go 7700, una 7600 mobile a 80nm. ;)

Foglia Morta
20-05-2008, 14:40
mi riferivo all'high end. gli 80nm non li ha usati. i 55nm imho li useranno sul performance e mainstream.

se il die è superiore ai 500mm2 e il tdp sopra i 200w mi pare proprio impossibile fare una dual gpu con uno shrink a 55nm... non ci sta proprio fisicamente.

leoneazzurro
20-05-2008, 14:56
Se i dati sono quelli visti finora, le performance per watt di GT200 penso che aumentino rispetto a G92 più in virtù dell'eliminazione della "castratura" di G92 (bus) che per qualche ottimizzazione specifica. Virtualmente scendendo di fascia il vantaggio prestazionale dovrebbe ridursi a zero o quasi, a parità di specifiche.

Possibile, se si è bandwidth limited lo si è e basta. Ma bisogna vedere come e dove verranno posizionate le "fasce basse" (es. se avessimo l'equivalente di G94 con consumi simili ma prestazioni pari alla GTS 512 sarebbe ad esempio un miglioramento). Ma chiaramente è un discorso prematuro.


Il problema è che occupa più spazio del ringbus, quindi per i 512bit non è molto indicato (anche se il ringbus si è dimostrato troppo complesso, invece), visto che aumenta le dimensioni del chip a dismisura... ;)

Si, infatti credo che a livello di budget di transistor si sia stati un pò di manica larga, ma se Nvidia vuole spendere qualche soldo in più, che faccia ;) .
Piuttosto sarebbe ora che pensasse a qualcosa di diverso dalla GDDR3

Athlon 64 3000+
20-05-2008, 15:25
ho voluto solo puntualizzare che la schede non sara bella solo da quel punto di vista.
Di certo non sarà quello il motivo per cui eventualmente non consiglierò una scheda del genere.
Di certo una scheda del genere sarà in fatto di prestazioni una scheda schiaccia sassi.

Marko91
20-05-2008, 15:27
I 55nm non li salteranno imho, se si riveleranno validi almeno dal punto di vista dei consumi, visto che li testeranno su G92b. Penso infatti che la high-end successiva alla GTX280 sarà a 55nm, altrimenti ci vorrebbe troppo tempo.
Il problema è che uno shrink così piccolo non basta ad ottenere spazio sufficiente per incrementi significativi di prestazioni (l'architettura di G80 è più "ingombrante" di quella R600-based), inoltre credo che con quasi 600mm^2 si sia raggiunto un tetto di complicazione difficilmente superabile.
Probabilmente punteranno ad una GX2 basata su un GT200 downclockato a 55nm.
Nvidia non ha mai adottato un processo produttivo per la prima volta sull'high-end, quindi dovrà prima testare il nuovo processo produttivo sulla fascia media, e poi passare alla alta. ;)
P.S.: a rigore nemmeno gli 80nm furono saltati, visto che NVidia li usò sulla GeForce Go 7700, una 7600 mobile a 80nm. ;)

Non credo sia possibile in tempi brevi e a 55nm proporre una dual-gpu basata su GT200.
Se va bene a 55nm GT200 consumerebbe 180W e occuperebbe 400mm^2 di die-size...
:D La dual-gpu consumerebbe la bellezza di 360W...
Anche per G80 hanno saltato gli 80nm e sono passati ai 65nm con G92. Esattamente 18 mesi dopo G80,lanciato 18 mesi dopo G70, lanciano GT200.
Per me,quindi, tra marzo e giugno 09 lanceranno una revisione a 45nm di GT200. Poi verso agosto la dual-gpu, e poi a novembre GT300 Dx11. Come hanno fatto per G70 ;)

halduemilauno
20-05-2008, 15:37
Non credo sia possibile in tempi brevi e a 55nm proporre una dual-gpu basata su GT200.
Se va bene a 55nm GT200 consumerebbe 180W e occuperebbe 400mm^2 di die-size...
:D La dual-gpu consumerebbe la bellezza di 360W...
Anche per G80 hanno saltato gli 80nm e sono passati ai 65nm con G92. Esattamente 18 mesi dopo G80,lanciato 18 mesi dopo G70, lanciano GT200.
Per me,quindi, tra marzo e giugno 09 lanceranno una revisione a 45nm di GT200. Poi verso agosto la dual-gpu, e poi a novembre GT300 Dx11. Come hanno fatto per G70 ;)

si tutto molto verosimile. ma allo scopo potrebbero utilizzare la gtx260.

leoneazzurro
20-05-2008, 15:44
Non credo sia possibile in tempi brevi e a 55nm proporre una dual-gpu basata su GT200.
Se va bene a 55nm GT200 consumerebbe 180W e occuperebbe 400mm^2 di die-size...
:D La dual-gpu consumerebbe la bellezza di 360W...
Anche per G80 hanno saltato gli 80nm e sono passati ai 65nm con G92. Esattamente 18 mesi dopo G80,lanciato 18 mesi dopo G70, lanciano GT200.
Per me,quindi, tra marzo e giugno 09 lanceranno una revisione a 45nm di GT200. Poi verso agosto la dual-gpu, e poi a novembre GT300 Dx11. Come hanno fatto per G70 ;)

Bisogna vedere anche la complessità di un PCB con 2 GPU a 512 bit (probabilmente si utilizzerebbe un doppio PCB come per la 9800 GX2), se lo shrink della GPU poterebbe supportare i 512 bit di bus, ecc.

kAL-eL88
20-05-2008, 16:01
Se la gt260 e la gt280 dovessero costare rispettivamente 390 e 500 io di certo non me le comprerei ; d'altra parte che senso avrebbe, adesso, prendersele ? Per avere una scheda che fa girare cysis a 2560 quando magari abbiamo un 1600x1200 e basterebbe uno sli di 9600gt e/o una ''semplice'' 8800gts512 ? Mah .. che almeno uscissero altri giochi, se devo spendere 500 e passa euro solo per crysis a questo punto la lascio sullo scaffale.

prova a 1600x1200 ad attivare l'antialiasing....io neanche con vmod ce la faccio al 2x con tutto very high...

-noxius-
20-05-2008, 16:14
Si ma a cosa serve l'antialiasing a 2x ? A crysis nemmeno con le 8800ULTRA te lo puoi permettere ;) . Sarebbe interessante con 8x ma ovviamente direi che ancora non è aria .. Quanti FPS fai a 1280x1024 no aa tutto su high e 1024x768 tutto su medivm ? Solo per curiosità (ovviamente se puoi settare tali risoluzioni .. )

Andrea deluxe
20-05-2008, 16:16
Si ma a cosa serve l'antialiasing a 2x ? A crysis nemmeno con le 8800ULTRA te lo puoi permettere ;)

con la mia gx2 occata manco very high dx10:cry: (@1920x1200)

The_SaN
20-05-2008, 17:25
aridaje con se. ma può mai esser riferito alla 9800gtx?(ve piacerebbe eh)ma che fa tira fuori una scheda che va meno dell'attuale 9800gx2? e che costa di + e che consuma di +?
il vostro guaio(perchè mica sei solo magari)è la malafede che vi frega. e pure qualche altra cosa.

Seguendo il tuo discorso ti invito a leggere TUTTI i miei post.
Perché far intendere che sono di parte scoccia un po' ;)
Anzi...mi basta che leggi il messaggio che ho postato. L' ho messo piú grande perché si vedesse, ma credo che ai tuoi occhioni verdi sia sfuggito.

SPERO DAVVERO LA SECONDA

PS: il mio guaio non é la malafede, é pensare in tutte le ipotesi, cosa che alcuni non fanno vero?

Ale Ale Ale
20-05-2008, 18:04
Ciao a tutti raga!

Scusate il semi OT, ma vorrei un consiglio da voi! :help:

Devo cambiare il PC a breve, anzi brevissimo, in questi giorni! :D

Cosa mi consigliate tra una 9600GT e una 3870????

Motivate anche per favore????? :read:

Ve lo chiedo perchè non riesco a capire da nessuna parte quale delle due sia in effetti la migliore, e non vado su una 8800GT per non andare su di prezzo! :muro:

Per il resto voglio assemblarlo così:
mobo ASUS P5KPL G31
E8400
4gb ddr2 SUPER TALENT
WD SATA II 500GB

Un grazie in anticipo a tutti quelli che mi risponderanno!
E mi scuso ancora per l'OT!

Grazie!

Tioz90
20-05-2008, 18:05
Ragazzi che richieste energetiche in Ampere e Watt dovrebbero avere le GTX280 e GTX260?
Se una 8800GTX chiedeva 30A le nuove dovrebbero richiedere meno no? Per il raffinamento del processo produttivo:confused:

appleroof
20-05-2008, 18:05
Chissa' com'e' che questo dato e' passato sotto silenzio. :mbe:
250W di consumo per una scheda video ? :rotfl: ma siamo alla follia piu' totale. In un epoca in cui tutti vanno verso il risparmio energetico alla Nvidia tirano fuori una scheda che da sola consuma quanto un intero pc. Non ci siamo, proprio non ci siamo. L'era del prescott e' finita, qualcuno glielo dovra' dire alla Nvidia.

Il punto e' un'altro. ATI con ogni generazione che passa propone schede anche top di gamma che consumano meno delle precedenti.
Nvidia invece di diminuire i consumi li aumenta.
Uno dei due sbaglia se pensa di attuare una logica del genere a medio-lungo termine, chi secondo te ? :p

Interessante. :stordita:
Forse anche loro infine capiscono che non possono continuare a proporre schede che consumano quanto una centrale nucleare.
Modularita' e bassi consumi anche per Nvidia.
Peccato che bisognera' aspettare qualche anno in piu', magari in tempo per le dx 11.

forse ti "sfugge" che il tdp vemtilato per rv770xt sia di 160W, e se la 4870x2 fosse formata da 2 x quei chip, e se il dato di tdp fosse confermato, fà 320W

la 3870x2 ha un tdp di quasi 200W

:rolleyes:

halduemilauno
20-05-2008, 18:22
Seguendo il tuo discorso ti invito a leggere TUTTI i miei post.
Perché far intendere che sono di parte scoccia un po' ;)
Anzi...mi basta che leggi il messaggio che ho postato. L' ho messo piú grande perché si vedesse, ma credo che ai tuoi occhioni verdi sia sfuggito.

SPERO DAVVERO LA SECONDA

PS: il mio guaio non é la malafede, é pensare in tutte le ipotesi, cosa che alcuni non fanno vero?

come fai a sapere che ho gli occhioni verdi?

Marko#88
20-05-2008, 18:23
Ciao a tutti raga!

Scusate il semi OT, ma vorrei un consiglio da voi! :help:

Devo cambiare il PC a breve, anzi brevissimo, in questi giorni! :D

Cosa mi consigliate tra una 9600GT e una 3870????

Motivate anche per favore????? :read:

Ve lo chiedo perchè non riesco a capire da nessuna parte quale delle due sia in effetti la migliore, e non vado su una 8800GT per non andare su di prezzo! :muro:

Per il resto voglio assemblarlo così:
mobo ASUS P5KPL G31
E8400
4gb ddr2 SUPER TALENT
WD SATA II 500GB

Un grazie in anticipo a tutti quelli che mi risponderanno!
E mi scuso ancora per l'OT!

Grazie!

Visto che sai di essere OT perchè non usi le discussioni apposite? non è per essere ignoranti ma se ci mettiamo a discutere di altro poi non ne usciamo più...;)

Mister Tarpone
20-05-2008, 18:31
come fai a sapere che ho gli occhioni verdi?

li hai veramente verdi???
beh pure io :O :asd:

appleroof
20-05-2008, 18:31
come fai a sapere che ho gli occhioni verdi?

:D

Ale Ale Ale
20-05-2008, 18:35
Visto che sai di essere OT perchè non usi le discussioni apposite? non è per essere ignoranti ma se ci mettiamo a discutere di altro poi non ne usciamo più...;)

Perchè magari se vado nella discussione ufficiale sulla 9600 mi dicono 9600, se vado in quella della 3870 mi dicono 3870 :muro:

anche senza spiegazioni, solo un parere, senza discussione mi va bene :D

appleroof
20-05-2008, 18:36
Perchè magari se vado nella discussione ufficiale sulla 9600 mi dicono 9600, se vado in quella della 3870 mi dicono 3870 :muro:

anche senza spiegazioni, solo un parere, senza discussione mi va bene :D

apri una discussione ufficiale qua:

http://www.hwupgrade.it/forum/forumdisplay.php?s=&daysprune=-1&f=71

goldorak
20-05-2008, 18:42
forse ti "sfugge" che il tdp vemtilato per rv770xt sia di 160W, e se la 4870x2 fosse formata da 2 x quei chip, e se il dato di tdp fosse confermato, fà 320W

la 3870x2 ha un tdp di quasi 200W

:rolleyes:


Ma io parlo per le schede singole. :p

Se mi dici che la 4870x2 ha un tdp di 320W allora la prossima GT280x2 avra' un tdp di 500W. Chi e' che sta messo peggio ? :Perfido:

The_SaN
20-05-2008, 18:54
come fai a sapere che ho gli occhioni verdi?

Ho un' innata e "strabiliante" capacitá di percepire caratteristiche "fisiche" di una persona, come gli occhi, solo a leggere quello che scrive :asd:

:stordita:

The_SaN
20-05-2008, 18:56
Perchè magari se vado nella discussione ufficiale sulla 9600 mi dicono 9600, se vado in quella della 3870 mi dicono 3870 :muro:

anche senza spiegazioni, solo un parere, senza discussione mi va bene :D

Il consiglio di aprire un thread apposito é il migliore. ;)
Ma in parole povere, la 3870 va di piú senza AA, e di meno con.
La 3870 costa 3 euro in piú.
A te la decisione. :)

appleroof
20-05-2008, 18:58
Ma io parlo per le schede singole. :p

Se mi dici che la 4870x2 ha un tdp di 320W allora la prossima GT280x2 avra' un tdp di 500W. Chi e' che sta messo peggio ? :Perfido:

tu devi confrontare schede della stessa fascia, per favore dai....:rolleyes:

halduemilauno
20-05-2008, 19:00
Ho un' innata e "strabiliante" capacitá di percepire caratteristiche "fisiche" di una persona, come gli occhi, solo a leggere quello che scrive :asd:

:stordita:

azz. peccato che questa tua strabiliante caratteristica non si manifesti anche nell'hardware mondo pc, in particolare schede video.

halduemilauno
20-05-2008, 19:00
li hai veramente verdi???
beh pure io :O :asd:

si occhioni verdi. due.
;)

The_SaN
20-05-2008, 19:07
azz. peccato che questa tua strabiliante caratteristica non si manifesti anche nell'hardware mondo pc, in particolare schede video.

Giá. Come quando dicevo che i SM 3.0 sulle 6800 alla fine non sarebbero serviti a nulla e tu affermavi il contrario...:rolleyes:
Oggi la pensi cosi anche con le dx10.1? Perché io ho mantenuto il mio parere in merito.

Guarda, io non posto qui per mostrarmi migliore di altri, ma per discutere civilmente su un argomento che mi appassiona.
Se tu non condividi quello che penso, meglio controbattere con argomenti invece di dare indirette su tifoserie o capacitá intellettive ;)
Detto questo, ho finito (o almeno per me la discussione é finita, visto che non continueró il battibecco ;) )

halduemilauno
20-05-2008, 19:13
Giá. Come quando dicevo che i SM 3.0 sulle 6800 alla fine non sarebbero serviti a nulla e tu affermavi il contrario...:rolleyes:
Oggi la pensi cosi anche con le dx10.1? Perché io ho mantenuto il mio parere in merito.

Guarda, io non posto qui per mostrarmi migliore di altri, ma per discutere civilmente su un argomento che mi appassiona.
Se tu non condividi quello che penso, meglio controbattere con argomenti invece di dare indirette su tifoserie o capacitá intellettive ;)
Detto questo, ho finito (o almeno per me la discussione é finita, visto che non continueró il battibecco ;) )

lo vedi che ce riai metti sullo stesso piano gli shader 2 con i 3. mentre qui ora si tratta di 4 vs 4.1. i giochi a un certo punto richiedevano gli shader 3 ora nessun gioco richiede gli shader 4.1. ne ora e ne mai.
;)

goldorak
20-05-2008, 19:13
tu devi confrontare schede della stessa fascia, per favore dai....:rolleyes:


Appunto nella fascia performance ce' la 4870 mentre nella fascia high end ce' la GTX280 e la 4870x2.
La 4870 NON E UNA SCHEDA DI FASCIA ALTA.
E per il momento nessuna della nuove schede video che la Nvidia presentera' sono nella fascia media, stanno tutte nell fascia alta.

appleroof
20-05-2008, 19:14
Se tutti i rumor saranno veri c'è anche da considerare che nella 4870 X2 raddoppi le GPU ma non la quantità di ram, e questo immagino avrà un peso non irrisorio nei consumi a pieno carico che un TDP modella.

hai ragione ma da 320W andando bene a quanto arriverà? 250? 220? siamo lì, e questo nonostante le gddr5....



Eh già. Senza contare che ad una GTX280x2 non ci crederò nemmeno se la vedrò, e anche in quel caso non ci crederò subito :asd:

cut

se la faranno sarà senza dubbio a 55nm se non addirittura a 45/40 secondo me....(cmq Nvidia stupisce sempre: g80 non ci credeva nessuno che avrebbero creato un chip così complesso a 90nm, gt200 idem...)

appleroof
20-05-2008, 19:15
Appunto nella fascia performance ce' la 4870 mentre nella fascia high end ce' la GTX280 e la 4870x2.
La 4870 NON E UNA SCHEDA DI FASCIA ALTA.
E per il momento nessuna della nuove schede video che la Nvidia presentera' sono nella fascia media, stanno tutte nell fascia alta.

ma ci sei o ci fai? :mbe:

quanto alla fascia performance, c'è la gtx260, e più giù pare g92 a 55nm (ma anche se continuassero con quello a 65nm...)

The_SaN
20-05-2008, 19:19
ma ci sei o ci fai? :mbe:

quanto alla fascia performance, c'è la gtx260, e più giù pare g92 a 55nm (ma anche se continuassero con quello a 65nm...)

Ci sará una bella differenza di prezzo tra la gtx260 e la 4870.
Rimarrá ancora un vuoto a quanto sembra, almeno dai rumors fino ad ora.

The_SaN
20-05-2008, 19:22
lo vedi che ce riai metti sullo stesso piano gli shader 2 con i 3. mentre qui ora si tratta di 4 vs 4.1. i giochi a un certo punto richiedevano gli shader 3 ora nessun gioco richiede gli shader 4.1. ne ora e ne mai.
;)

Ma anche ai tempi dei 3.0 non esistevano ancora giochi che le usassero. Poi sono iniziati a uscire.
Dire che non usciranno mai giochi only dx10.1 é un po' azzardato, puó essere vero come no. E se ricordo bene non sono retrocompatibili.

Fatto sta che probabilmente le prestazioni di oggi non saranno sufficienti, e ritorniamo al discorso di prima (con le 6800)

halduemilauno
20-05-2008, 19:22
Ci sará una bella differenza di prezzo tra la gtx260 e la 4870.
Rimarrá ancora un vuoto a quanto sembra, almeno dai rumors fino ad ora.

ben 50$.

The_SaN
20-05-2008, 19:24
ben 50$.

Tra i $50 e i $170, ad essere precisi ;)

nico88desmo
20-05-2008, 19:25
Questa news conferma la bontà della strada intrapresa da ATI , a dispetto di quanti sostenevano che fosse una scelta esclusivamente dettata da difficoltà economiche...
Se così fosse si conserva la tendenza "meno conservatrice" o se volete "più innovatrice" di ATI...

E' molto probabile anche che nVidia stia già sviluppando o stia mettendo le basi per le DX11, il che richiede una nuova architettura: per far questo è necessaria una reingegnerizzazione (scritto giusto? :p) della GPU e quindi sarebbe la scusa buona per intraprendere la strada del multi-'chip'.
Per ora vuole ottenere il massimo senza fare molte ricerche in rivoluzionarie architetture, il che costerebbe molto e non avrebbe molto senso, dato che le DX11 sembra che usciranno con Windows7, cioè fra 2 anni.

Gabriyzf
20-05-2008, 19:25
Ma anche ai tempi dei 3.0 non esistevano ancora giochi che le usassero. Poi sono iniziati a uscire.
Dire che non usciranno mai giochi only dx10.1 é un po' azzardato, puó essere vero come no. E se ricordo bene non sono retrocompatibili.

Fatto sta che probabilmente le prestazioni di oggi non saranno sufficienti, e ritorniamo al discorso di prima (con le 6800)

i giochi sm3 non partivano con sm2: ma quelli con sm4.1 partiranno con hardware sm4 :read:

appleroof
20-05-2008, 19:27
Penso di di sì, nell'intorno della GTX280 (w + w -). Il punto forte delle GDDR5, comunque, non è l'abbassamento del TDP (che di fatto non abbassano se non di pochissimo) ma l'abbassamento delle richieste energetiche in idle :>



Mi sembra più probabile, ma a quel punto non si chiamerà più GX280 ma saremo già nella serie 300 :>

già, ma al di là del nome commerciale bisogna vedere se sarà un die-shrink dx10 oppure proprio la nuova architettura...


Ci sará una bella differenza di prezzo tra la gtx260 e la 4870.
Rimarrá ancora un vuoto a quanto sembra, almeno dai rumors fino ad ora.

ben 50$.

bè 50$ non mi sembrano una gran differenza...

halduemilauno
20-05-2008, 19:28
Ma anche ai tempi dei 3.0 non esistevano ancora giochi che le usassero. Poi sono iniziati a uscire.
Dire che non usciranno mai giochi only dx10.1 é un po' azzardato, puó essere vero come no. E se ricordo bene non sono retrocompatibili.

Fatto sta che probabilmente le prestazioni di oggi non saranno sufficienti, e ritorniamo al discorso di prima (con le 6800)

niente ce rifai ancora ho detto che non ci saranno mai giochi che richiedano le dx10.1 ma basterà avere le dx10 no che non ci saranno mai giochi dx10.1. allora gli shader 3 erano necessari altrimenti il gioco non si installava. ricordo ancora quel bel periodo io contro tanti di voi che consigliavano l'inconsigliabile.
e vedo che voi state ancora tutti qui in perfetta assoluta e totale malafede.
tu che puoi vattaffa un bel bagno a copacabana.

The_SaN
20-05-2008, 19:30
i giochi sm3 non partivano con sm2: ma quelli con sm4.1 partiranno con hardware sm4 :read:

Non ne sono sicuro.
Se ricordo bene le dx10.1 non sono retrocompatibili.
Poi devo ricontrollare...ma ora purtroppo non ho tempo, ho una verifica di C tra 20 minuti :D

Ma almeno il path dx10.1 é separato in Assassin's Creed...

halduemilauno
20-05-2008, 19:30
Tra i $50 e i $170, ad essere precisi ;)

tra i 349$ per la 4870 e i 399$ della gtx260 son 50$ di differenza.

The_SaN
20-05-2008, 19:32
tra i 349$ per la 4870 e i 399$ della gtx260 son 50$ di differenza.

I rumors parlano di valori tra i $229 e i $349 ;)

halduemilauno
20-05-2008, 19:38
I rumors parlano di valori tra i $229 e i $349 ;)

a 249$ ce costa la 4850 te hai visto la 4870 a 229$
:rotfl:

The_SaN
20-05-2008, 19:38
ricordo ancora quel bel periodo io contro tanti di voi che consigliavano l'inconsigliabile.
e vedo che voi state ancora tutti qui in perfetta assoluta e totale malafede.
Inconsigliabili tanto non erano, visto che andavano di piú.
E l' effettiva utilitá delle 3.0 sulle 6800 l' abbiamo vista tutti ;)
tu che puoi vattaffa un bel bagno a copacabana. Se potessi ti inviterei. Anche se qua non c'é copacabana. Ma una spiaggia tanto bella quanto.

The_SaN
20-05-2008, 19:40
a 249$ ce costa la 4850 te hai visto la 4870 a 229$
:rotfl:

I rumors si devono vedere tutti, non solo quelli che interessano.
Alcuni dicono $349, $279, $249 e infine $229.
Mentre le 4850 dai $249 al sotto $200.

appleroof
20-05-2008, 19:41
Non ne sono sicuro.
Se ricordo bene le dx10.1 non sono retrocompatibili.
Poi devo ricontrollare...ma ora purtroppo non ho tempo, ho una verifica di C tra 20 minuti :D

Ma almeno il path dx10.1 é separato in Assassin's Creed...

ricordi male...

Amph
20-05-2008, 19:48
ho letto che la top ati (4870x2) superera la gtx280, è una castroneria giusto?

Sergio_Di_Rio
20-05-2008, 19:49
I rumors si devono vedere tutti, non solo quelli che interessano.
Alcuni dicono $349, $279, $249 e infine $229.
Mentre le 4850 dai $249 al sotto $200.

Giustissimo, ritengo però più credibili 349$ per la 4870.

The_SaN
20-05-2008, 19:49
ho letto che la top ati (4870x2) superera la gtx280, è una castroneria giusto?

Si saprá solo al lancio...

Sergio_Di_Rio
20-05-2008, 19:50
ho letto che la top ati (4870x2) superera la gtx280, è una castroneria giusto?

Al momento nessuno lo può dire, personalmente però ritengo la cosa molto improbabile.

halduemilauno
20-05-2008, 19:51
ho letto che la top ati (4870x2) superera la gtx280, è una castroneria giusto?

l'unico rumors(mi pare)è questo...
http://www.pczilla.net/en/post/12.html
non so che rumors tu abbia letto.

D4N!3L3
20-05-2008, 19:52
E' molto probabile anche che nVidia stia già sviluppando o stia mettendo le basi per le DX11, il che richiede una nuova architettura: per far questo è necessaria una reingegnerizzazione (scritto giusto? :p) della GPU e quindi sarebbe la scusa buona per intraprendere la strada del multi-'chip'.
Per ora vuole ottenere il massimo senza fare molte ricerche in rivoluzionarie architetture, il che costerebbe molto e non avrebbe molto senso, dato che le DX11 sembra che usciranno con Windows7, cioè fra 2 anni.

Considerando poi quanto sono durate le DX9 e soprattutto che ancora non hanno veramente iniziato a programmare per le DX10 (ditemi un gioco che va meglio in DX10 piuttosto che in DX9 e ditemi quali differenze visibili ci sono).

leoneazzurro
20-05-2008, 19:54
i giochi sm3 non partivano con sm2: ma quelli con sm4.1 partiranno con hardware sm4 :read:

I giochi "SM3 only" sono roba recente.
Al tempo delle 6800 c'era un path separato per SM2 e SM3, e spesso i giochi erano "SM2 only" e il supporto allo SM3 era introdotto con delle patch (es. il primo gioco a supportare lo SM3 è stato Far Cry con la patch 1.3).
Alla fine, se si vuole supportare 2 path, lo si poteva fare allora con le DX9 e lo si può fare adesso con le DX10.

Kharonte85
20-05-2008, 20:09
I giochi "SM3 only" sono roba recente.
Al tempo delle 6800 c'era un path separato per SM2 e SM3, e spesso i giochi erano "SM2 only" e il supporto allo SM3 era introdotto con delle patch (es. il primo gioco a supportare lo SM3 è stato Far Cry con la patch 1.3).
Alla fine, se si vuole supportare 2 path, lo si poteva fare allora con le DX9 e lo si può fare adesso con le DX10.
ma fino a che i pc non saranno con l'80% di vista non ne vedremo di restrizioni simili...come ho detto piu' volte il paragone (sm 2.0 Vs 3.0 \ d10 vs dx 10.1) non regge perche' ora c'è vista di mezzo!

McGraw
20-05-2008, 20:10
In rete ci sono le foto della GTX 280! un po piccole!

http://forums.vr-zone.com/showthread.php?t=278311

:eek:

halduemilauno
20-05-2008, 20:12
In rete ci sono le foto della GTX 280! un po piccole!

http://forums.vr-zone.com/showthread.php?t=278311

:eek:

gia strapostate.
;)


ps una cosa ma la tua signature(McGraw)vedo male io o a volte si vede e altre no?

leoneazzurro
20-05-2008, 20:16
ma fino a che i pc non saranno con l'80% di vista non ne vedremo di restrizioni simili...come ho detto piu' volte il paragone (sm 2.0 Vs 3.0 \ d10 vs dx 10.1) non regge perche' ora c'è vista di mezzo!

Dico solo che se si volessero supportare sia le DX10 che le DX 10.1, si può ;)
Comunque il "fattore Vista" c'è anche per le DX10.0, ovviamente.

McGraw
20-05-2008, 20:18
gia strapostate.
;)


ps una cosa ma la tua signature(McGraw)vedo male io o a volte si vede e altre no?

Siete imbattibili! per la signature non so cosa dirti, io l'ho sempre vista allo stesso modo! in tal caso posso introdurre un avatar o info supplementari? se si come?

halduemilauno
20-05-2008, 20:26
http://forums.vr-zone.com/showthread.php?t=278360
;)

halduemilauno
20-05-2008, 20:27
Siete imbattibili! per la signature non so cosa dirti, io l'ho sempre vista allo stesso modo! in tal caso posso introdurre un avatar o info supplementari? se si come?

devi andare nel tuo profilo utente.
;)

McGraw
20-05-2008, 20:47
devi andare nel tuo profilo utente.
;)

Si ma poi da li non mi fa fare nessuna modifica! cosa devo spuntare nel profilo utente? grazie

halduemilauno
20-05-2008, 20:53
Si ma poi da li non mi fa fare nessuna modifica! cosa devo spuntare nel profilo utente? grazie

profilo in alto a sinistra. non quello a fianco a te.
;)

McGraw
20-05-2008, 20:57
profilo in alto a sinistra. non quello a fianco a te.
;)

Grazie, sono un pivello! :gluglu:

nico88desmo
20-05-2008, 21:01
Considerando poi quanto sono durate le DX9 e soprattutto che ancora non hanno veramente iniziato a programmare per le DX10 (ditemi un gioco che va meglio in DX10 piuttosto che in DX9 e ditemi quali differenze visibili ci sono).

Vero, questo è comunque da imputare anche a Vista che fà difficoltà a diffondersi come OS. Quindi è ovvio che la maggior parte delle Software House sviluppa ancora per XP.
Comunque sia, le dx 9 per nVidia sono durate 3 gen, NV30, NV40, G70. (dal 2002 fino al 2006)
Ora per le dx 10 siamo a G80-G92, GT200; se la durata di quest'ultimo chip sarà ancora di 1,5 anni, allora per la fine del 2009-inizi 2010 ci saranno le DX11, delle quali si parlerà già all'NVISION di questo Agosto (postate un pò di pag. fà)

Athlon 64 3000+
20-05-2008, 22:11
che io sappia le dx11 sono in uscita nel 2009 e quindi usciranno su vista probabilmente con il SP2 di Vista.

DriftKing
20-05-2008, 22:42
che io sappia le dx11 sono in uscita nel 2009 e quindi usciranno su vista probabilmente con il SP2 di Vista.

io invece credo che usciranno piu tardi ... ancora nn abbiamo giochi completamente dx10 ... credo che uscira con windows 7 ...

J!MmΨ
20-05-2008, 22:47
io invece credo che usciranno piu tardi ... ancora nn abbiamo giochi completamente dx10 ... credo che uscira con windows 7 ...

le dx11 le vedremo minimo minimo nel 2010 ... ricordo che non esistono ancora giochi FULL DX10, e anche secondo me vedranno luce con windows 7 ;)

Kharonte85
20-05-2008, 23:43
Dico solo che se si volessero supportare sia le DX10 che le DX 10.1, si può ;)
Comunque il "fattore Vista" c'è anche per le DX10.0, ovviamente.
Infatti è proprio quello che impedira' di vedere un gioco only dx10 o dx10.1 a breve...
Chi ha Vista ha messo al volo l'SP1, quindi tutti quelli che hanno le DX10 hanno anche le DX10.1. Da questo punto di vista non c'è motivo di non supportare le DX10.1, a meno che i motivi non siano altri.
Secondo me è chiaro che se nvidia non decidera' di supportare le dx10.1 (come pare) neanche nella prossima generazione nessuno (o solo pochi temerari indipendenti dalla partnership nvidia [chi? :stordita: ]) si impegnera' seriamente nello sviluppo di queste features...ma questa condizione sarebbe comunque ben diversa dalla situazione degli sm 3.0 dove col passare del tempo veniva proprio preclusa la possibilita' di giocare al gioco...
http://forums.vr-zone.com/showthread.php?t=278360
;)
ottimo...ormai sembrano non esserci piu' dubbi...

Kharonte85
21-05-2008, 00:11
Questa è la stessa conclusione a cui sono arrivato io riguardo al supporto della fisica.

Finché non sarà uno standard saranno ben pochi a supportarla.
Io credo che per supportarla la supporteranno (accanto al logo http://it.nzone.com/props/IO/12596/89/new_games_twimtbp.jpg comparira' quello di Nvidia Physics)...ma bisognera' vedere con quali benefici reali, che a ripensarci è poi stata la causa della morte della PPU dedicata di Ageia...la battaglia qui si apre su chi imporra' lo standard...Nvidia Physics? le Dx11? Intel con Havock? AMD/ATI con una alternativa non ancora chiara? :boh:

Sergio_Di_Rio
21-05-2008, 01:08
niente dx 10.1 per gt200

Unlike the upcoming AMD Radeon 4000 series, currently scheduled to launch in early June, the D10U chipset does not support DirectX extentions above 10.0.

http://www.dailytech.com/article.aspx?newsid=11842

The_SaN
21-05-2008, 02:04
Vedendo il link di vr-zone (in cui c'é quel famoso + 50%) non sono ancora riuscito a capire a chi sia riferito :mbe:

Dice appena "l' architettura unificata di 2º generazione restituisce 50% in piú di performance da gioco rispetto alla 1º generazione attraverso 240sp."
Puó essere riferito all 9800gtx, 9800gx2 o addirittura a un quad sli :asd:
Questo considerando il rumor isolatamente.

Con questo non voglio dire appunto che sará la prima...ma é solo un ipotesi, come lo sono le altre 2 che ho descritto...niente malafede.
Spero solo di non scatenare il putiferio di nuovo... :(

Marko#88
21-05-2008, 07:19
Vedendo il link di vr-zone (in cui c'é quel famoso + 50%) non sono ancora riuscito a capire a chi sia riferito :mbe:

Dice appena "l' architettura unificata di 2º generazione restituisce 50% in piú di performance da gioco rispetto alla 1º generazione attraverso 240sp."
Puó essere riferito all 9800gtx, 9800gx2 o addirittura a un quad sli :asd:
Questo considerando il rumor isolatamente.

Con questo non voglio dire appunto che sará la prima...ma é solo un ipotesi, come lo sono le altre 2 che ho descritto...niente malafede.
Spero solo di non scatenare il putiferio di nuovo... :(

ma non è che si riferisce al fatto che solo a livello di shader c'è un aumento prestazionale del 50% che poi è da sommare al resto (in pratica tutto raddoppia)?? Oppure che il nuovo tipo di architettura a shader unificati garantisce il 50% di prestazioni in più a prescindere dal numero di shader (e poi c'è anche un raddoppio o quasi del numero stesso quindi andrebbe ancora di più)? Boh eh, mi sto facendo viaggi mentali e sono passate da poco le 7 quindi potrei non essere lucido...:asd:

halduemilauno
21-05-2008, 07:56
http://forums.vr-zone.com/showthread.php?t=278431

GT200 die size measured at 576 mm2

--------------------------------------------------------------------------------

The upcoming GeForce GTX 260/280 GPUs are based on the GT200 (NV60) core and will be built using a 65 nm manufacturing process at TSMC. However, we heard that not many chips will actually fit on a 300 mm wafer, since Nvidia has come up with a huge die measuring 24 x 24 mm, resulting in a die area size of 576 mm2. This area is almost 100 mm2 larger than Nvidia’s previous 90 nm high-end GPU (G80) and a consequence of 16 processing blocks (G80 came with nine blocks, eight were enabled for GTX models, six for GTS versions) and a new 512-bit memory controller, which replaces the old 384-bit model (the GTS260 will integrate a 448-bit version). The current G92 or GeForce 8800GT/8800GTS512/9800GTX/9800GX2 CPUs are built in a 65 nm process and end up at a die size of 330 mm2. With its new GPU generation, Nvidia is going to continue on the safe route and plan with enough spare transistors for 240 shader units (actually, 240FP+240MADD). The same will be the case with the GeForce GTX 280 and 260. The GPU will have 15 processing units (240 shader processors) available on the GTX280, while the GTX260 will come with 12 units for a grand total of 192 shader processors. Our sources state that the manufacturing cost of the GT200 die is somewhere between $100 to $110 per piece.

;)

halduemilauno
21-05-2008, 08:04
http://www.dailytech.com/article.aspx?newsid=11842

NVIDIA's upcoming Summer 2008 lineup gets some additional details

Later this week NVIDIA will enact an embargo on its upcoming next-generation graphics core, codenamed D10U. The launch schedule of this processor, verified by DailyTech, claims the GPU will make its debut as two separate graphics cards, currently named GeForce GTX 280 (D10U-30) and GeForce GTX 260 (D10U-20).

The GTX 280 enables all features of the D10U processor; the GTX 260 version will consist of a significantly cut-down version of the same GPU. The D10U-30 will enable all 240 unified stream processors designed into the processor. NVIDIA documentation claims these second-generation unified shaders perform 50 percent better than the shaders found on the D9 cards released earlier this year.

The main difference between the two new GeForce GTX variants revolves around the number of shaders and memory bus width. Most importantly, NVIDIA disables 48 stream processors on the GTX 260. GTX 280 ships with a 512-bit memory bus capable of supporting 1GB GDDR3 memory; the GTX 260 alternative has a 448-bit bus with support for 896MB.

GTX 280 and 260 add virtually all of the same features as GeForce 9800GTX: PCIe 2.0, OpenGL 2.1, SLI and PureVideoHD. The company also claims both cards will support two SLI-risers for 3-way SLI support.

Unlike the upcoming AMD Radeon 4000 series, currently scheduled to launch in early June, the D10U chipset does not support DirectX extentions above 10.0. Next-generation Radeon will also ship with GDDR5 while the June GeForce refresh is confined to just GDDR3.

The GTX series is NVIDIA's first attempt at incorporating the PhysX stream engine into the D10U shader engine. The press decks currently do not shed a lot of information on this support, and the company will likely not elaborate on this before the June 18 launch date.

After NVIDIA purchased PhysX developer AGEIA in February 2008, the company announced all CUDA-enabled processors would support PhysX. NVIDIA has not delivered on this promise yet, though D10U will support CUDA, and therefore PhysX, right out of the gate.

NVIDIA's documentation does not list an estimated street price for the new cards.



http://en.expreview.com/img/2008/05/21/GT200-core_1.jpg

;)

Athlon 64 3000+
21-05-2008, 08:31
La superficie è veramente molto grande,molto più grande anche di G80 di quasi 100 mm^2 e la scheda avrà anche un pcb molto complesso.
Comunque penso che almeno la 8800GTX con quelle caratteristiche dovrebbe doppiarla senza problemi ed essere una schiaccia sassi a macinare i giochi anche dx10 come Crysis.

Skullcrusher
21-05-2008, 08:53
La superficie è veramente molto grande,molto più grande anche di G80 di quasi 100 mm^2 e la scheda avrà anche un pcb molto complesso.
Comunque penso che almeno la 8800GTX con quelle caratteristiche dovrebbe doppiarla senza problemi ed essere una schiaccia sassi a macinare i giochi anche dx10 come Crysis.

Speriamo :D

HackaB321
21-05-2008, 09:57
While travelling in Europe we stumbled across more details about Nvidia’s upcoming graphics card, which surely looks more and more like a processing monster to us.

The upcoming GeForce GTX 260/280 GPUs are based on the GT200 (NV60) core and will be built using a 65 nm manufacturing process at TSMC. However, we heard that not many chips will actually fit on a 300 mm wafer, since Nvidia has come up with a huge die measuring 24 x 24 mm, resulting in a die area size of 576 mm2.

This area is almost 100 mm2 larger than Nvidia’s previous 90 nm high-end GPU (G80) and a consequence of 16 processing blocks (G80 came with nine blocks, eight were enabled for GTX models, six for GTS versions) and a new 512-bit memory controller, which replaces the old 384-bit model (the GTS260 will integrate a 448-bit version).

The current G92 or GeForce 8800GT/8800GTS512/9800GTX/9800GX2 CPUs are built in a 65 nm process and end up at a die size of 330 mm2. The original G80 (NV50) GPU, better known as the GeForce 8800, was manufactured in 90 nm and delivered a die size of 484 mm2.

With its new GPU generation, Nvidia is going to continue on the safe route and plan with enough spare transistors for 240 shader units (actually, 240FP+240MADD). Just like ATI's graphics parts and Sony Cell processor, this should not be considered odd. Keep in mind that the G92 chip debuted with 112 shader units and, after production had ramped up, Nvidia unlocked all the shader and texture units to create GeForce 8800GTS512, followed by the 9800GTX and GX2.

The same will be the case with the GeForce GTX 280 and 260. The GPU will have 15 processing units (240 shader processors) available on the GTX280, while the GTX260 will come with 12 units for a grand total of 192 shader processors. This may be an indication for the complexity involved in manufacturing such a part – especially if you think about the fact that Nvidia has a tradition of designing its GPUs completely in software and a massive supercomputer system in Santa Clara, California. The company always has been proud of the fact that every GeForce chip you buy essentially is “first silicon.”

Our sources state that the manufacturing cost of the GT200 die is somewhere between $100 to $110 per piece. It is pricey and you will be getting a lot more processing logic inside this core than with any other semiconductor part in the short history of the IT industry.

Typically, the CPU die spends about 66-80% of its real estate on cache and the remainder on logic; in the world of GPUs it is vice versa. Our sources indicated that the number of transistors on the GT200 will settle somewhere in the neighborhood of 1 billion – north of 900 million and south of 1.1 billion.

The production cost of a chip is determined on the amount of chips that fit on a wafer. In light of the fact that a 300mm (12") wafer carried less than 120 G80 GPUs, Nvidia will see even fewer GT200s, apparently about 100, according to what he heard.

We can't wait to lay our hands on one (or two) of these babies, and we'll share our impressions as soon as possible.

http://www.tgdaily.com/content/view/37554/135/

D4N!3L3
21-05-2008, 10:04
Secondo me costerà uno stonfo. :(

Fray
21-05-2008, 10:11
Secondo me costerà uno stonfo. :(

in AMD we trust...

halduemilauno
21-05-2008, 10:15
Beh... tu hai tutta la possibilità di attendere che cali di prezzo (ammesso che costi più di 450€), vista la vga in firma. ;)

inizialmente senza concorrenza diretta(in attesa della 4870x2)costerà anche + di 500€. mentre l'altra avendola sin dall'inizio(4870)potrà essere gia decisamente + abbordabile oltre al fatto che essa è sotto la gtx280.
;)

halduemilauno
21-05-2008, 10:16
in AMD we trust...

http://www.hwupgrade.it/forum/showthread.php?t=1610140
;)

halduemilauno
21-05-2008, 10:23
Ti sei dimenticato la faccina => ;)

azz provvedo subito.
;)

D4N!3L3
21-05-2008, 10:24
Beh... tu hai tutta la possibilità di attendere che cali di prezzo (ammesso che costi più di 450€), vista la vga in firma. ;)

Rimetto la 8800 GTX, la GX2 la vendo. :D

halduemilauno
21-05-2008, 10:26
Dovesse HD4870 X2 rivelarsi prestazionalmente equivalente a GTX280 vedo in grossa ed ulteriore flessione i margini per nVidia. La scelta prestazionalmente conservativa di un chip monolitico gigante rischia di essere azzardata dal punto di vista produttivo, quindi economico, quindi finanziario.

Questo lo sapremo al momento del report finanziario sul 2008, comunque.

quanto mi piace il monolitico. mi ricorda qualcosa.
;)

halduemilauno
21-05-2008, 10:27
Rimetto la 8800 GTX, la GX2 la vendo. :D

:mano:

D4N!3L3
21-05-2008, 10:29
Se tanto mi da tanto sarà bene che ti muovi a venderla ;)

La sto già vendendo. :D

:mano:

:D

Enochian
21-05-2008, 10:59
Chi mi fa un piccolo riassunto? voglio sapere se è vero che esce una gt200 a giugno, il 18 per l'esattezza, che dovrebbe macinare il 40% in più della 9800gx2.

HackaB321
21-05-2008, 11:00
quanto mi piace il monolitico. mi ricorda qualcosa.
;)

:D quello di nvidia però è grigio non nero

halduemilauno
21-05-2008, 11:04
:D quello di nvidia però è grigio non nero

sono un tipo che si adatta.
;)

halduemilauno
21-05-2008, 11:05
Chi mi fa un piccolo riassunto? voglio sapere se è vero che esce una gt200 a giugno, il 18 per l'esattezza, che dovrebbe macinare il 40% in più della 9800gx2.

tutto vero.
;)

D4N!3L3
21-05-2008, 11:05
inizialmente senza concorrenza diretta(in attesa della 4870x2)costerà anche + di 500€. mentre l'altra avendola sin dall'inizio(4870)potrà essere gia decisamente + abbordabile oltre al fatto che essa è sotto la gtx280.
;)

L'importante è che non costi più di 600. :rolleyes:

halduemilauno
21-05-2008, 11:05
:asd:

http://i2.photobucket.com/albums/y6/Dani_Lebowski/2001_space_odyssey_fg2b.jpg

che splendore.
;)

halduemilauno
21-05-2008, 11:07
L'importante è che non costi più di 600. :rolleyes:

tempo fa dissi 530€ magari al + 570€. tocca aspettare.
;)

Enochian
21-05-2008, 11:08
tutto vero.
;)

Ottimo, allora apsettiamo e prendiamo sto piccolo mostro. Intanto mi prendo una 8800 gtx che poi a giugno dirotterò su altro pc.

halduemilauno
21-05-2008, 11:09
Ottimo, allora apsettiamo e prendiamo sto piccolo mostro. Intanto mi prendo una 8800 gtx che poi a giugno dirotterò su altro pc.

un bel dirottamento.
;)

Enochian
21-05-2008, 11:11
un bel dirottamento.
;)


Credo che quel pc che uso come muletto sarà contento, perchè ora ha una 7600 gs.

HackaB321
21-05-2008, 11:12
Ottimo, allora apsettiamo e prendiamo sto piccolo mostro. Intanto mi prendo una 8800 gtx che poi a giugno dirotterò su altro pc.

:eek: eccone un altro con la GTX panchinara...:sofico:
siete peggio di moratti nell'assemblare pc voi...

D4N!3L3
21-05-2008, 11:23
:eek: eccone un altro con la GTX panchinara...:sofico:
siete peggio di moratti nell'assemblare pc voi...

:Prrr:

Beh a me è servito tenerla in panchina, ora la rimetto per un po' a lavorare, poi di nuovo in pausa. :D


:eek: Ho notato ora che sei di Firenze anche tu. :D

DVD2005
21-05-2008, 11:30
:eek: eccone un altro con la GTX panchinara...:sofico:
siete peggio di moratti nell'assemblare pc voi...

:asd:

Athlon 64 3000+
21-05-2008, 11:54
E' sempre meglio avere un chip monolitico che per quanto possa essere grosso che avere una scheda dual gpu visto le sfighe che si porta dietro.

Enochian
21-05-2008, 12:04
:eek: eccone un altro con la GTX panchinara...:sofico:
siete peggio di moratti nell'assemblare pc voi...

:D In effetti

Marko#88
21-05-2008, 12:08
E' sempre meglio avere un chip monolitico che per quanto possa essere grosso che avere una scheda dual gpu visto le sfighe che si porta dietro.

decisamente...:)

Alexkidd85
21-05-2008, 13:14
quanto mi piace il monolitico. mi ricorda qualcosa.
;)

Perché a me ricorda "STALKER"!? :stordita:

:eek: eccone un altro con la GTX panchinara...:sofico:
siete peggio di moratti nell'assemblare pc voi...

:asd: questa è bella

DarkNiko
21-05-2008, 13:21
Ciao a tutti, mi iscrivo anche io. :D

Kharonte85
21-05-2008, 14:15
http://forums.vr-zone.com/showthread.php?t=278431

GT200 die size measured at 576 mm2

--------------------------------------------------------------------------------

The upcoming GeForce GTX 260/280 GPUs are based on the GT200 (NV60) core and will be built using a 65 nm manufacturing process at TSMC. However, we heard that not many chips will actually fit on a 300 mm wafer, since Nvidia has come up with a huge die measuring 24 x 24 mm, resulting in a die area size of 576 mm2. This area is almost 100 mm2 larger than Nvidia’s previous 90 nm high-end GPU (G80) and a consequence of 16 processing blocks (G80 came with nine blocks, eight were enabled for GTX models, six for GTS versions) and a new 512-bit memory controller, which replaces the old 384-bit model (the GTS260 will integrate a 448-bit version). The current G92 or GeForce 8800GT/8800GTS512/9800GTX/9800GX2 CPUs are built in a 65 nm process and end up at a die size of 330 mm2. With its new GPU generation, Nvidia is going to continue on the safe route and plan with enough spare transistors for 240 shader units (actually, 240FP+240MADD). The same will be the case with the GeForce GTX 280 and 260. The GPU will have 15 processing units (240 shader processors) available on the GTX280, while the GTX260 will come with 12 units for a grand total of 192 shader processors. Our sources state that the manufacturing cost of the GT200 die is somewhere between $100 to $110 per piece.

;)
:eek: è immenso....
E' sempre meglio avere un chip monolitico che per quanto possa essere grosso che avere una scheda dual gpu visto le sfighe che si porta dietro.
Sono d'accordo anche io...anche se a questo giro aspettero' quasi di sicuro il refresh a 55nm...

discorso diverso si dovra' fare con le multi-gpu all'interno di un core, che credo essere la strada del futuro (un po' come è successo per i processori), ma è chiaro che le dimensioni del processo produttivo dovranno evolversi...

appleroof
21-05-2008, 14:49
Fino ad oggi senz'altro. Se questo varrà anche domani va capito.

Se a livello di performance l'approccio monolitico è una scelta di sicuro effetto (e quindi chiamiamola pure "conservativa"), a livello produttivo un chip monolitico così grande è al contrario un azzardo, sia perché riduce la parte utile del wafer, si per gli yelds più bassi che si porta obbligatoriamente dietro, perché una criticità del silicio si porta nella tomba un'area più grande e quindi a parità di criticità ne va persa una parte maggiore rispetto a chip più piccoli.

Ovviamente se in questo modo riesci ad avere performance sufficientemente alte da poterci infilare un price premium sontuoso sei a posto e mantieni alti i margini fregandotene delle rese, ma se l'approccio X2 di RV770 dovesse essere migliore del passato potrebbe fare pressioni sui prezzi in virtù di performance allineate e costi di produzione inferiori, e allora sarebbero dolori.

Il tutto con tutte le incognite del caso, visto che di come sia fatto R700, a parte l'inclusione di 2 RV770 non si sa niente :>

non credo che il chippone 65nm abbia una prospettiva di vita maggiore di pochi mesi, fermo restando che anche con g80 90nm hanno fatto una barca (direi un mercantile :D) di soldi, come indirettamente facevi notare

McGraw
21-05-2008, 14:57
dei 55nm quando se ne riparlerà, a settembre?
Non si parla piu di 9800GT, sapete qualcosa?
non credo che produrranno la 9800GT a 65nm sarebbe un controsenso! anche perché di G92 ce ne sono abbastanza! :O

Mercuri0
21-05-2008, 15:44
tutto vero.
;)
Vorrei avere la tua sicurezza nel sapere distinguere le voci fake da quelle "tutte vere".

(mi sembra che la logica di fondo sia facile comunque)

Mercuri0
21-05-2008, 15:49
Non mi aspettavo che fosse così grande! 600mm^2 dovrebbe essere il limite massimo raggiungibile dagli attuali processi.

Questo significa che per superare il GTX280 nVidia dovrà cambiare architettura, altrimenti può solo scalare con le prestazioni con cui scalano i processi produttivi.

Il GTX280 è al limite anche come TDP. Di sicuro, supererà molti record tra i chip :)
Corre voce che a nvidia costi 110$...


discorso diverso si dovra' fare con le multi-gpu all'interno di un core, che credo essere la strada del futuro (un po' come è successo per i processori), ma è chiaro che le dimensioni del processo produttivo dovranno evolversi...
"multi-gpu all'interno di un core" è un neologismo che mancava alla serie di possibilità tra core, die, package e gpu ;)

Forse intendevi "multi-die all'interno di un package" ("2 gpu" nello stesso "chip"), avevo già spiegato da qualche parte che non è la scatola (il package) a fare la differenza: sia che tu veda due chip sulla scheda che ne veda uno, non hai nessun indizio su come funzionino "in sinergia".

Kharonte85
21-05-2008, 15:49
non credo che il chippone 65nm abbia una prospettiva di vita maggiore di pochi mesi
Concordo...:)
"multi-gpu all'interno di un core" è un neologismo che mancava alla serie di possibilità tra core, die, package e gpu ;)
vabbe' scusa...è che non posso proprio mettere un freno alla mia fantasia :asd:

Forse intendevi "multi-die all'interno di un package" ("2 gpu" nello stesso "chip"), avevo già spiegato da qualche parte che non è la scatola (il package) a fare la differenza: sia che tu veda due chip sulla scheda che ne veda uno, non hai nessun indizio su come funzionino "in sinergia".
Comunque vedi che avevi capito...;)

appleroof
21-05-2008, 15:49
dei 55nm quando se ne riparlerà, a settembre?
Non si parla piu di 9800GT, sapete qualcosa?
non credo che produrranno la 9800GT a 65nm sarebbe un controsenso! anche perché di G92 ce ne sono abbastanza! :O

le ultime, che io sappia, davano la scheda per luglio, a 55nm e frequenze della 8800gt

halduemilauno
21-05-2008, 16:04
Vorrei avere la tua sicurezza nel sapere distinguere le voci fake da quelle "tutte vere".

(mi sembra che la logica di fondo sia facile comunque)

esatto per me è facilissimo. per te no neanche se ti applichi.

halduemilauno
21-05-2008, 16:07
dei 55nm quando se ne riparlerà, a settembre?
Non si parla piu di 9800GT, sapete qualcosa?
non credo che produrranno la 9800GT a 65nm sarebbe un controsenso! anche perché di G92 ce ne sono abbastanza! :O

le ultime, che io sappia, davano la scheda per luglio, a 55nm e frequenze della 8800gt

sarebbe esatto. ma si aspettano evoluzioni/conferme di alcuni aspetti legati alle prossime ati.
;)

Mercuri0
21-05-2008, 16:14
esatto per me è facilissimo. per te no neanche se ti applichi.
e già, per certe cose faccio davvero fatica.

zorco
21-05-2008, 16:14
sarebbe esatto. ma si aspettano evoluzioni/conferme di alcuni aspetti legati alle prossime ati.
;)
se avessero voluto l'avrebbero potuta fare uscire una 9800gt a 65nm,ma visto che non cè concorrenza in quella fascia di prezzo nvidia non ha necessita di immetterla sul mercato...

halduemilauno
21-05-2008, 16:16
e già, per certe cose faccio davvero fatica.

dedicati ad altro. magari ce la fai.

halduemilauno
21-05-2008, 16:17
se avessero voluto l'avrebbero potuta fare uscire una 9800gt a 65nm,ma visto che non cè concorrenza in quella fascia di prezzo nvidia non ha necessita di immetterla sul mercato...

esatto anche questo. infatti stanno aspettando l'evolversi della situazione in casa ati.

mircocatta
21-05-2008, 16:23
nVidia, primo passo verso l'evoluzione delle GPU
21/05/2008 [ Manolo De Agostini ]



Per il mondo delle schede grafiche i prossimi anni saranno di evoluzione. Non solo per quanto riguarda le prestazioni, le caratteristiche e la progettazione, ma anche per scopi e impieghi. Con l'uscita dei prodotti DirectX 10, sia nVidia che ATI hanno presentato non più delle semplici GPU, ma delle GPGPU, soluzioni in grado di macinare qualsiasi istruzione a velocità superiore rispetto alle CPU convenzionali.

Da qualche tempo la potenza dei questi prodotti è applicata dalle università e dalle aziende all'interno di server, usati per sbrigare calcoli molto gravosi e impegnativi, per scopi quali la ricerca in campo medico o scientifico. Ma a quanto pare, nVidia non ha intenzione di relegare queste potenzialità al solo settore professionale, puntando dritta anche al settore mainstream, cioè a quello della vita di tutti i giorni. L'imperativo categorico è uno solo: svincolare la potenza della GPU dalla grafica per permetterle di occuparsi altre applicazioni, migliorando l'esperienza dell'utente finale.

I primi passi per arrivare a questo obiettivo stanno prendendo vita proprio in questi giorni. nVidia ha annunciato una competizione per i programmatori che hanno familiarità con il linguaggio CUDA, basato su C++ e interpretabile dalle GPU dell'azienda. Durante questa gara nVidia metterà a disposizione una "versione parzialmente ottimizzata per la GPU di Lame, software per la codifica del formato MP3. La sfida sarà proprio quella di ottimizzare il software per permettergli di lavorare più velocemente possibile sulle GPU compatibili con CUDA".

Sfruttando la potenza del chip grafico nVidia, il tempo di codifica dovrebbe ridursi drasticamente. Certo, non si tratta di fare un porting completo dell'applicazione, ma è un primo passo importante e una sfida concreta per gli sviluppatori.

Da non sottovalutare per il futuro l'arrivo delle CPU con GPU integrata. Secondo diversi esperti, potremmo avere applicazioni in grado di sfruttare la GPU integrata nella CPU, sgravando il processore da alcuni compiti - la scansione antivirus ad esempio. Gran parte di questi sforzi dovranno essere comunque sostenuti da Microsoft: nVidia ha dichiarato che per portare CUDA nel settore mainstream (fisica AGEIA esclusa, ndr), serve l'impegno di Microsoft per far "collaborare" Windows e la GPU.

Ricordiamo che nVidia, con altre grandi aziende del settore, sta collaborando con le università per migliorare gli strumenti e la metodologia per la programmazione multi-core, sia per quanto riguarda le CPU sia le GPU.

http://www.tomshw.it/news.php?newsid=14096

Mercuri0
21-05-2008, 16:43
Sfruttando la potenza del chip grafico nVidia, il tempo di codifica dovrebbe ridursi drasticamente. Certo, non si tratta di fare un porting completo dell'applicazione, ma è un primo passo importante e una sfida concreta per gli sviluppatori.


Sono tanto entusiasta per il GPGPU, ma la strada sarà lunga. :(

I programmatori del LAME sono un pò scettici per vari motivi
http://www.hydrogenaudio.org/forums/index.php?showtopic=63366

dedicati ad altro. magari ce la fai.
Hai ragionissimo, meglio che mi dedichi ad altre cose che mi riescono meglio, che discutere a questo livello.

HackaB321
21-05-2008, 16:46
se avessero voluto l'avrebbero potuta fare uscire una 9800gt a 65nm,ma visto che non cè concorrenza in quella fascia di prezzo nvidia non ha necessita di immetterla sul mercato...

esatto anche questo. infatti stanno aspettando l'evolversi della situazione in casa ati.

Menomale allora non c'è concorrenza. Una sigla in meno. Immagino che con un altra pò di concorrenza in meno ci risparmiavano anche il saltone 8800Gts-9800Gtx. Peccato

appleroof
21-05-2008, 17:19
Menomale allora non c'è concorrenza. Una sigla in meno. Immagino che con un altra pò di concorrenza in meno ci risparmiavano anche il saltone 8800Gts-9800Gtx. Peccato

OT
ma quella che hai nell'avatar è Ruby?
/OT

HackaB321
21-05-2008, 17:30
OT
ma quella che hai nell'avatar è Ruby?
/OT

si

FreeMan
21-05-2008, 17:34
esatto per me è facilissimo. per te no neanche se ti applichi.

dedicati ad altro. magari ce la fai.

non è il modo di rivolgersi agli utenti

sospeso 5gg

>bYeZ<

HackaB321
21-05-2008, 18:03
rumor riassunto

http://digilander.libero.it/hackab321/12113824544cc88e84af.jpeg


http://www.hardware-infos.com/news.php?news=2078

Tioz90
21-05-2008, 18:09
Ma le nuove gtx consumeranno quante Ampere più o meno?

Fray
21-05-2008, 18:11
Sono tanto entusiasta per il GPGPU, ma la strada sarà lunga. :(

I programmatori del LAME sono un pò scettici per vari motivi
http://www.hydrogenaudio.org/forums/index.php?showtopic=63366


Hai ragionissimo, meglio che mi dedichi ad altre cose che mi riescono meglio, che discutere a questo livello.

Certo che cose...Nvidia spinge per rendere le gpu general purpose proprio qualche anno prima del (possibile) cambio di rotta della grafica real-time verso le Cpu (raytrace).

mircocatta
21-05-2008, 18:35
azzo, ora senza hal come facciamo a tenerci aggiornati??:confused:

@ndrey
21-05-2008, 18:37
azzo, ora senza hal come facciamo a tenerci aggiornati??:confused:

Tgcom :asd:

PS. Beh le specifiche è da panico :eek: ma non uso immaginare i consumi :eek:
Una vga del genere consumerà quanto il mio pc in full compreso il portatile :sofico:

mircocatta
21-05-2008, 18:42
io dico la mia:
quando usciranno le nuove ati e le nuove nvidia, i soliti fanatici compreranno sia le top nvidia e top ati...


gli altri, quelli che cmq (come me) sono interessati a cambiare vga, compreranno le nuove ati, lasciando le nvidia sugli scaffali fino quando non serviranno


questo perchè secondo me nvidia ha esagerato un po troppo, dando vita a schede inutili (per ora) alla maggior parte della gente(potenza superflua), che consuma troppo e costa troppo...

discorso diverso per ati, con schede economiche e che consumano poco che hanno prestazioni superiori alle attuali 8800 e 9800..


tutti compreranno le ati e lascieranno le nvidia sulgi scaffali....

forse esagero però ihmo sicuro al 100% che venderà molto di più la serie 4800 invece che la gtx200....nell'ordine del doppio di unità vendute ihmo

Fray
21-05-2008, 18:43
Tgcom :asd:

PS. Beh le specifiche è da panico :eek: ma non uso immaginare i consumi :eek:
Una vga del genere consumerà quanto il mio pc in full compreso il portatile :sofico:

bhè ma infatti sarà una scheda improponibile a livello di consumo, adatta a chi abitualmente consuma così tanto, diciamo i possessori delle x2 :fagiano:
per renderla un minimo "appetibile" sotto questo punto di vista bisognerà aspettare per forza i 55nm e qualche ottimizzazione :muro:

Giustaf
21-05-2008, 18:53
io dico la mia:
quando usciranno le nuove ati e le nuove nvidia, i soliti fanatici compreranno sia le top nvidia e top ati...


gli altri, quelli che cmq (come me) sono interessati a cambiare vga, compreranno le nuove ati, lasciando le nvidia sugli scaffali fino quando non serviranno


questo perchè secondo me nvidia ha esagerato un po troppo, dando vita a schede inutili (per ora) alla maggior parte della gente(potenza superflua), che consuma troppo e costa troppo...

discorso diverso per ati, con schede economiche e che consumano poco che hanno prestazioni superiori alle attuali 8800 e 9800..


tutti compreranno le ati e lascieranno le nvidia sulgi scaffali....

forse esagero però ihmo sicuro al 100% che venderà molto di più la serie 4800 invece che la gtx200....nell'ordine del doppio di unità vendute ihmo


Ti quoto! io ho preso la 9800gtx in previsione di rivenderla per poi acquistare la top di gamma con chip gt200...ma mi sto ricredendo, i soldi mi sa che continuo a tenerli da parte e l'acquisto della nuova scheda si rimanda per i seguenti motivi:
-la 9800gtx è un bomba con tutti i giochi e anche a crysis se la cava benino!
-inutile buttare via 500 euro tra un mese o 2 quando di giochi proprio non ce ne sono per utilizzare questa futura mega scheda! quando uscirà il "pane" mi comprerò i "denti"!!! :D :D

e per pane intendo almeno 2 o 3 titoloni da grafica da urlo..far cry 2 promette molto bene..ma è uno solo e di certo non uscirà tra poco..

Valdis
21-05-2008, 19:00
Per il discorso consumi non penso che si discostino molto dal vecchio G80...migliorando il processo produttivo ed affinando la circuiteria il consumo si dovrebbe attestare intorno ai valori della 8800 GTX/ultra.
In assoluto non bassi ma aumentando le prestazioni del 50% (circa) rispetto una GX2 (quindi fate le dovute proporzioni con una 8000gtx) e mantenendo quei valori dichiarati di consumi non si può dire che questa nuova scheda consumi più di altre (d' alta fascia) e/o troppo.


bye

nico88desmo
21-05-2008, 19:02
io dico la mia:
quando usciranno le nuove ati e le nuove nvidia, i soliti fanatici compreranno sia le top nvidia e top ati...


gli altri, quelli che cmq (come me) sono interessati a cambiare vga, compreranno le nuove ati, lasciando le nvidia sugli scaffali fino quando non serviranno


questo perchè secondo me nvidia ha esagerato un po troppo, dando vita a schede inutili (per ora) alla maggior parte della gente(potenza superflua), che consuma troppo e costa troppo...

discorso diverso per ati, con schede economiche e che consumano poco che hanno prestazioni superiori alle attuali 8800 e 9800..


tutti compreranno le ati e lascieranno le nvidia sulgi scaffali....

forse esagero però ihmo sicuro al 100% che venderà molto di più la serie 4800 invece che la gtx200....nell'ordine del doppio di unità vendute ihmo

Dipende da quanto costeranno queste schede. Se per esempio la GTX260 costerà sui 350€ max 400€, secondo me è una buonissima scheda. la GTX280 presumo costerà >500€, e sarà esclusivamente per gli enthusiast.
Concordo sul fatto che tutta questa potenza non è richiesta dalla maggior parte dei giochi (Crysis escluso), quindi per chi ha acquistato una serie8 o 9 può saltare questa gen come per chi ha acquistato una HD3870...sempre se ci si accontenta...

goldorak
21-05-2008, 19:03
Ma le nuove gtx consumeranno quante Ampere più o meno?

Beh considerando che si parla di TDP intorno ai 200-240W il calcolo spannometrico e' presto fatto.
Consumeranno intorno alla ventina di ampere nel caso peggiore.

Tioz90
21-05-2008, 19:07
Beh considerando che si parla di TDP intorno ai 200-240W il calcolo spannometrico e' presto fatto.
Consumeranno intorno alla ventina di ampere nel caso peggiore.
Fantastico!:)
Avevo immaginato sarebbero scesi i consumi dalla gtx che consumava 30A:)

appleroof
21-05-2008, 19:19
rumor riassunto

http://digilander.libero.it/hackab321/12113824544cc88e84af.jpeg


http://www.hardware-infos.com/news.php?news=2078

ricambio il favore :D :D





notare le differenze di flops ma sopratutto fillrate :)

http://img529.imageshack.us/img529/237/rv7702vi8.jpg (http://imageshack.us)



p.s.: Halduemilauno mi chiede di fare le sue scuse a Mercuri0 ;)

Amph
21-05-2008, 19:22
Dipende da quanto costeranno queste schede. Se per esempio la GTX260 costerà sui 350€ max 400€, secondo me è una buonissima scheda. la GTX280 presumo costerà >500€, e sarà esclusivamente per gli enthusiast.
Concordo sul fatto che tutta questa potenza non è richiesta dalla maggior parte dei giochi (Crysis escluso), quindi per chi ha acquistato una serie8 o 9 può saltare questa gen come per chi ha acquistato una HD3870...sempre se ci si accontenta...

non mi accontento, voglio vedere crysis in ginocchio! :Perfido:

Tioz90
21-05-2008, 19:22
Sembra eserci una bella differenza tra gtx 260=>gtx 280 e 4850=>4870

Skullcrusher
21-05-2008, 19:34
La GTX sarà un mostro :eek:

Tra un mesetto non appena finisce il periodo "no game" odierno ( per vari motivi non ho tempo di giocare, per questo ho venduto la GX2 ), mi sa che la piglio se è davvero così :D

@ndrey
21-05-2008, 19:42
Beh considerando che si parla di TDP intorno ai 200-240W il calcolo spannometrico e' presto fatto.
Consumeranno intorno alla ventina di ampere nel caso peggiore.

si ma chi la tiene @ def :D :sofico:
parliami chiaro.., in oc sta scheda macina di watt :O

leoneazzurro
21-05-2008, 20:09
http://bbs.chiphell.com/attachments/month_0805/20080522_abff62ed403439871cc61nHbb3MTRTZV.jpg
http://bbs.chiphell.com/attachments/month_0805/20080522_7c847c5547289e3fbc893n97SB84ij5Q.jpg
http://bbs.chiphell.com/attachments/month_0805/20080522_3dcbbce9c31bb3bae753feAYKauMjcfW.jpg

ChipHell (http://bbs.chiphell.com/redirect.php?tid=22808&goto=lastpost#lastpost)

Lo avrebbe postato Hal, ma visto che è fuori a causa di forza maggiore ne prendo le veci finché non torna.

Se quello è GT200, è stranamente grande esattamente come G80.

The_SaN
21-05-2008, 20:39
Fantastico!:)
Avevo immaginato sarebbero scesi i consumi dalla gtx che consumava 30A:)

30A per tutto il sistema incluso un quad core.
Qua si parla di 20A per la sola scheda...
Il tdp della 8800gtx era sui 180W se non erro. O qualcosa di simile...mentre la gtx280 sui 70W in piú.

-noxius-
21-05-2008, 20:43
30A per tutto il sistema incluso un quad core.
Qua si parla di 20A per la sola scheda...
Il tdp della 8800gtx era sui 180W se non erro. O qualcosa di simile...mentre la gtx280 sui 70W in piú.

Pensi che basterebbe un 550W della corsair (550vx) con 41 A sui 12 V + un q6600@3720 @ 1.36V, +3HD , 3 120x120 , qualche neon e led ? Resta però sempre l'incognita prezzo , c'è da dire però che una belva del genre dovrebbe almeno tenere la leadership fino a marzo 2009, no ?

-noxius-
21-05-2008, 20:50
Cos'è successo ? Alla fine 550W dovrebbero bastare, certo è però che lavorerebbe sotto sforzo e quindi resta l'incognita di quanto possa reggere l'alimentatore .. Ad ogni modo rimane anche l'incognita prezzo , se la 4870 sfruttasse quei 127 gbdi banda contrro i 130 della GTX 280 sarà uno scontro interessante (anche se sicuramente la vera battaglia sarà con le due r770XT in crossfire ;) )

Tioz90
21-05-2008, 20:59
Io ho appena preso un tagan piperock series da 600W che eroga le sue belle 80A sulla +12V:p
Dovrebbe bastare:sofico:

Mister Tarpone
21-05-2008, 21:10
Io ho appena preso un tagan piperock series da 600W che eroga le sue belle 80A sulla +12V:p
Dovrebbe bastare:sofico:

azz.. addirittura un piperock?? (:confused: ) :eek:

e quanto costa un ali del genere? :confused:

Tioz90
21-05-2008, 21:15
azz.. addirittura un piperock?? (:confused: ) :eek:

e quanto costa un ali del genere? :confused:
90€ spedito sul mercatino:sofico:
Altrimenti l'amico trovaprezzi mi dice 109€ da negozio:D
E' stupendo quest'ali

nico88desmo
21-05-2008, 21:30
Se quello è GT200, è stranamente grande esattamente come G80.

Il che non è male.
Comunque quello non può essere G80, basta vedere i moduli delle memorie come sono posizionati nel pcb.

jp77
21-05-2008, 21:41
Il che non è male.
Comunque quello non può essere G80, basta vedere i moduli delle memorie come sono posizionati nel pcb.


in realtà quello è proprio G80...lo si capisce dai moduli di memoria e dal pcb ;)

Kharonte85
21-05-2008, 21:56
Pensi che basterebbe un 550W della corsair (550vx) con 41 A sui 12 V + un q6600@3720 @ 1.36V, +3HD , 3 120x120 , qualche neon e led ? Resta però sempre l'incognita prezzo , c'è da dire però che una belva del genre dovrebbe almeno tenere la leadership fino a marzo 2009, no ?
Secondo me si', ce la fa anche con la GTX 280...
Secondo me, se ci metti anche una GTX280 fai come me quando ho tirato l'Opteron :asd:
Ma che roba era l'alimentatore?

leoneazzurro
21-05-2008, 22:03
in realtà quello è proprio G80...lo si capisce dai moduli di memoria e dal pcb ;)

Infatti l'ho detto apposta... ci sono 12 chip (32 bit) quindi bus a 384 bit, e anche le misure coincidono.
A meno che GT200 non abbia il bus a 384 bit pure lui (invece di 512) e le dimensioni fossero del tutto identiche a G80...

PS: Il che potrebbe comunque essere possibile, anche se in contrasto con tutti i rumors sino ad ora.

Nel caso GT200 sia grande come G80, avrebbe all'incirca 1.3 miliardi di transistors. Se è 576 mm^2, avrebbe tra 1.5 e 1.6 miliardi di transistors.

The_SaN
22-05-2008, 00:06
Io ho appena preso un tagan piperock series da 600W che eroga le sue belle 80A sulla +12V:p
Dovrebbe bastare:sofico:

Non potrá mai avere 80A sulla 12v...sono 960W !!!
Avrá 4 linee da 20A, il che é molto diverso.
Al massimo massimo ne avrá 50 combinati come il mio seasonic 600W (che é giá il massimo quanto ampere combinati, visto che eroga 600W dalla 12V) ;)

Marko#88
22-05-2008, 07:24
Certo che vedere tutte le caratteristiche messe li a confronto diretto fa paura...la gtx sarà un bel mostro, dovrei convincere mio babbo a finanziarmela...:asd:
vabè che tanto con l'estate non gioco quindi posso temporeggiare fino alla fine dell'estate e cambiarmi tutto il pc...:cool:

D4N!3L3
22-05-2008, 09:27
Maledetta scimmia, sento che sta cominciando a rodermi il cervello. :asd:

Skullcrusher
22-05-2008, 10:44
Maledetta scimmia, sento che sta cominciando a rodermi il cervello. :asd:

:asd:

Io ho venduto ieri la GX2, non dico altro :asd:

McGraw
22-05-2008, 11:00
:asd:

Io ho venduto ieri la GX2, non dico altro :asd:

Con cosa pensi di rimpiazzarla? :D
Io ero tentato di prendere una 9800GTX OC per rimpiazzare i miei mulettini, ma il salto prestazionale non sarebbe un gran che! aspetterò le GT200 e i relativi cali di prezzo! anche perché l'SLI mi tenta ancora, magari due 9800GT o ancor meglio due GTX260 :eek: , rapporto prezzi/prestazioni permettendo...

Foglia Morta
22-05-2008, 11:05
http://img81.imageshack.us/img81/5499/gtx2802pn3ag8.jpg

http://img81.imageshack.us/img81/5721/gtx2801un2pw1.jpg

http://img81.imageshack.us/img81/3318/gtx2804dl8lo0.jpg

Skullcrusher
22-05-2008, 11:53
Con cosa pensi di rimpiazzarla? :D
Io ero tentato di prendere una 9800GTX OC per rimpiazzare i miei mulettini, ma il salto prestazionale non sarebbe un gran che! aspetterò le GT200 e i relativi cali di prezzo! anche perché l'SLI mi tenta ancora, magari due 9800GT o ancor meglio due GTX260 :eek: , rapporto prezzi/prestazioni permettendo...

Fino a fine giugno non ho granchè tempo di giocare, quindi penso che metto un'880GT provvisoria o anche una 9600GT, per qualche partita a BF2 bastano e avanzano. Poi a fine giugno se torno ad avere un po' di tempo libero piglio il mostro :)

Andrea deluxe
22-05-2008, 11:57
AMAZING!

ArCH85
22-05-2008, 12:04
non mi tornano i conti nella vram...

ne vedo 6 nella foto.. non dovrebbero essere 8 da ogni lato? e 7 per la GTX260? :mc:

goldorak
22-05-2008, 12:08
Che chippone !!! :stordita:
Raffreddamento a liquido e centrale nucleare d'obbligo. :p

DVD2005
22-05-2008, 12:09
ci sono indiscrezioni/idee sulla lunghezza ? :stordita:

goldorak
22-05-2008, 12:10
ci sono indiscrezioni/idee sulla lunghezza ? :stordita:


La scheda dovrebbe avere le stesse dimensioni di una 8800GTX/Ultra.

D4N!3L3
22-05-2008, 12:13
:asd:

Io ho venduto ieri la GX2, non dico altro :asd:

Io la sto vendendo. :D

Rimpiazzo con 8800 GTX fino a GTX 280. :sbav:

Andrea deluxe
22-05-2008, 12:13
non mi tornano i conti nella vram...

ne vedo 6 nella foto.. non dovrebbero essere 8 da ogni lato? e 7 per la GTX260? :mc:

ne sono 8!
http://img233.imageshack.us/img233/3527/gtx2801un2pw1fy8.th.jpg (http://img233.imageshack.us/my.php?image=gtx2801un2pw1fy8.jpg)

DVD2005
22-05-2008, 12:13
La scheda dovrebbe avere le stesse dimensioni di una 8800GTX/Ultra.

grazie ;)

Andrea deluxe
22-05-2008, 12:20
Ti ho fregato sul tempo :>

:muro:

ArCH85
22-05-2008, 12:30
l'assenza della pasta mi aveva fuorviato :stordita:


grazie :p

nico88desmo
22-05-2008, 12:42
Impressionante la dimensione della GPU rispetto al PCB!

appleroof
22-05-2008, 14:58
Maledetta scimmia, sento che sta cominciando a rodermi il cervello. :asd:

da mò che ha cominciato....:D :D

carpo93
22-05-2008, 15:02
da mò che ha cominciato....:D :D
per la 9800gtx l'ho fermata(la scimmia) ma ora...:D

Marko#88
22-05-2008, 15:02
da mò che ha cominciato....:D :D

:asd:

appleroof
22-05-2008, 15:13
per la 9800gtx l'ho fermata(la scimmia) ma ora...:D

:asd:

cmq mi sono appena preso il procio nuovo, le vacanze incombono e la 88gtx fà ancora il suo dovere: stavolta per quanto mi riguarda credo proprio che la razionalità-anti scimmia, aiutata dalle circostanze che ho appena detto, avrà la meglio, magari mi prendo la gtx280 a 55nm quest'autunno, e magari a 300 euri :sofico: :ciapet: :D

Jason001
22-05-2008, 15:14
non capisco chi ha comprato la 9800 gx2 e poi già la vende, davvero :D

Sopratutto se si posssedeva già una 8800 :D

Ma quanto riuscite a venderla rispetto al prezzo originale ?

bah :D

Marko#88
22-05-2008, 15:26
cmq mi sono appena preso il procio nuovo, le vacanze incombono e la 88gtx fà ancora il suo dovere: stavolta per quanto mi riguarda credo proprio che la razionalità-anti scimmia, aiutata dalle circostanze che ho appena detto, avrà la meglio, magari mi prendo la gtx280 a 55nm quest'autunno, e magari a 300 euri :sofico: :ciapet: :D

adesso quando la GTX280 esce vediamo dove va a finire la razionalità...:asd:
io sono tentato di andare a svincolare i soldi che hanno messo da parte i miei fin da quando ero piccolo...:rotfl:

appleroof
22-05-2008, 15:29
non capisco chi ha comprato la 9800 gx2 e poi già la vende, davvero :D

Sopratutto se si posssedeva già una 8800 :D

cut

bah :D

dicesi appunto scimmia :D :D

adesso quando la GTX280 esce vediamo dove va a finire la razionalità...:asd:
io sono tentato di andare a svincolare i soldi che hanno messo da parte i miei fin da quando ero piccolo...:rotfl:

:asd: :asd: :asd: :asd:

dovrò impedirmi di leggere le rece al lancio :D :D :D

Marko#88
22-05-2008, 15:31
dicesi appunto scimmia :D :D



:asd: :asd: :asd: :asd:

dovrò impedirmi di leggere le rece al lancio :D :D :D

oltre ovviamente al 3d ufficiale della vga e alle discussioni dei giochi in cui i possessori ostenteranno la brutalità di tale vga...:asd:

appleroof
22-05-2008, 15:36
oltre ovviamente al 3d ufficiale della vga e alle discussioni dei giochi in cui i possessori ostenteranno la brutalità di tale vga...:asd:

sopratutto quelle :D :D

cmq aspettiamo ancora, non per smorzare l'entusiasmo, ma finchè non le vediamo all'opera stè schede meglio andar cauti....
















:D

ArCH85
22-05-2008, 15:38
dicesi appunto scimmia :D :D

io ormai sono fregato...mi sto facendo un sacco di seghe mentali sull'aumento prestazionale dalla 7900GTX alla GTX280 :stordita:

la scimmia si è impadronita totalmente di me :asd:

Marko#88
22-05-2008, 15:39
sopratutto quelle :D :D

cmq aspettiamo ancora, non per smorzare l'entusiasmo, ma finchè non le vediamo all'opera stè schede meglio andar cauti....



Si si, hai ragionissima...dalle caratteristiche pare che sarà una bella belva ma è sempre meglio parlare seriamente con dei dati in mano...:)

appleroof
22-05-2008, 15:44
io ormai sono fregato...mi sto facendo un sacco di seghe mentali sull'aumento prestazionale dalla 7900GTX alla GTX280 :stordita:

la scimmia si è impadronita totalmente di me :asd:

giusto per rincarare la dose :nonio: , pensa che io da una 7800gtx alla 8800gtx sono rimasto così: :eekk: :eekk: :sbavvv:

fatte le debite proporzioni....:D

Si si, hai ragionissima...dalle caratteristiche pare che sarà una bella belva ma è sempre meglio parlare seriamente con dei dati in mano...:)

esatto :)

Jason001
22-05-2008, 15:45
ma poi con che giochi possiamo vederla a bomba ? :confused:

Marko#88
22-05-2008, 15:46
ma poi con che giochi possiamo vederla a bomba ? :confused:

uno a caso?:asd:

appleroof
22-05-2008, 15:48
uno a caso?:asd:

:asd: :asd: :asd:

Marko#88
22-05-2008, 15:49
:asd: :asd: :asd:

quello che mette in CRYSI tutte le vga praticamente...:D

appleroof
22-05-2008, 15:50
quello che mette in CRYSI tutte le vga praticamente...:D

già...:D

Skullcrusher
22-05-2008, 16:02
già...:D

Che sia la volta buona che me lo rigioco come Dio comanda? Mah, sperem :sofico:

L'unica cosa che mi fa realmente paura della GTX280 è la temperatura....ho paura che sarà dannatamente calorosa :doh:

Jason001
22-05-2008, 16:05
ancora quel gioco ?

io pensavo: adesso mi tirano fuori 3 o 4 titoli super gagliardi per questa estate.

No vabè dai :D Io non lo rigioco più,

am'sun rott i cojon :D

voglio cod 5, il multiplayer :muro: