View Full Version : [Thread ufficiale] Aspettando GTX260 & GTX280
NeedForSpeed73
05-06-2008, 18:48
tarpo proviamo crysis a quella risoluzione e quei filtri :asd: e adesso pure crysis warhead, penso che i suicidi dei pcisti aumenteranno, mica più solo 1, ma due crysis ... :asd:
Già, basandosi sulle primissime (e probabilmente false :stordita: ) notizie sulle prestazioni, la 280 dovrebbe essere un 25% più veloce del mio SLI di GTX (si parla di X4800 che probabilmente con la maturazione dei driver arrivera a 5k, io faccio X4000@stock); visto che Crysis a 1920x1200 coi filtri sul mio sistema sta intorno ai 15fps, non credo che con un incremento di potenza del 25% si possano raggiungere prestazioni accettabili.
Per giocare bene a Crysis a quei settaggi ne potrebbero servire almeno 2 in SLI di 280!:muro:
appleroof
05-06-2008, 19:01
L' essere obbiettivi è una cosa che potrebbe capitare
anche in un forum che non parla di macchine fotografiche.....
- non capisco chi osanna nvidia che non intende rilasciare la licenza
x lo sli ad intel (e ne beneficieremmo tutti....)
e poi condanna intel che minaccia di non concedere la licenza x le nuove cpu
a nvidia (ne beneficieremmo tutti anche in questo caso e forse una o due persone coglieranno il doppiosenso...)
- il prezzo dei 24 '' è sceso moltissimo...
a 1920 x 1200 con tutte le impostazioni al max una ultra in oc và in crisi con moltissimi giochi : siano benvenute vga più potenti....
in crisi? forse con qualche gioco (a parte crysis la mia andava un pò in crisi con supreme commander, poi non l'ho vista mai soffrire :D ) ma non penso proprio che sia come dici
piccolo esempio con mass effect che la dice tutta http://www.hwupgrade.it/forum/showpost.php?p=22768454&postcount=2014 )
certo in ottica prospettiva e considerando che ormai la 1680x1050 si appresta ad essere la risoluzione di riferimento (tutte le rece ormai comrpndono risoluzioni che prima sembravano fantascienza e completamente fuori portata) vga più potenti a 1920x1200 ci vorranno presto, ma ora come ora (a meno che vuoi 50fps fissi aa4/8x af16 con qualunque gioco) non credo
Basta guardare le ''fette di mercato'' e la ''copertura di mercato'' delle singole aziende :
INTEL : CPU , mobo per server di fascia alta/XEON/doppio processore (..) e grandi fette di mercato
nVIDIA : GPU (che fanno concorrenza alle cpu più potenti sotto il punto di vista del calcolo parallelo a scopo scientifico) , mobo SLI , CPU di ridottissime dimensioni (che si oppongono alla tecnologia ATOM di intel) e grandi fette di mercato nel lato GPU (in diretta concorrenza con INTEL da qui a 2-3 anni anche per le CPU-GPU , anche contro larrabee )
AMD: CPU di fascia media-bassa , GPU di fascia media-bassa e mobo per supportare le cpu , fette di mercato limitate
Basta poco a capire che per ora INTEL vuole contenere nVIDIA al massimo, altrimenti si troverebbe stretta tra 2 aziende in diretta concorrenza tra di loro e , cosa interessante (per noi..) , sotto ogni versante .
Sarebbe interessante se INTEL scendesse in campo con GPU da associare a nuovi processori ... mah ... Di certo per i consumatori finali la buona notizioa è che si scannano fra di loro e magari qualcuno rinnoverà seriamente il mercato .. L'unico problema è che si dovrà fare ovviamente MOLTISSIMA attenzione alla compatibilità delle schede madri in relazione alle cpu ed ai sottosistemi video che saremo intenzionati a montare, ma d'altra parte mica compriamo alla cieca, no ?
quoto ;)
nico88desmo
05-06-2008, 19:02
Già, basandosi sulle primissime (e probabilmente false :stordita: ) notizie sulle prestazioni, la 280 dovrebbe essere un 25% più veloce del mio SLI di GTX (si parla di X4800 che probabilmente con la maturazione dei driver arrivera a 5k, io faccio X4000@stock); visto che Crysis a 1920x1200 coi filtri sul mio sistema sta intorno ai 15fps, non credo che con un incremento di potenza del 25% si possano raggiungere prestazioni accettabili.
Per giocare bene a Crysis a quei settaggi ne potrebbero servire almeno 2 in SLI di 280!:muro:
A quella risoluzione ci vuole molta banda e diciamo che questa scheda ne avrà abbastanza.
In ogni caso, dalle slide nVidia si nota come in Crysis la GTX280 và circa l'80% in più della HD3870X2.
Facendo qualche calcolo, questa scheda andrà poco più di una 9800GX2 attuale...tenendo conto sempre dei risultati delle slide.
Foglia Morta
05-06-2008, 19:11
http://www.tcmagazine.com/comments.php?shownews=20285&catid=2
Initially expected to arrive around April and replace the 8800 GT, Nvidia's GeForce 9800 GT has now been seen lurking, or bolted to colorful cardboard in Taipei at Computex. Showcased by ELSA, the 9800 GT was not a reference model as it used not only a dual-slot, dual-fan cooler, but also 1GB of GDDR3 memory. Still offering DirectX 10.0 and PCI-Express 2.0 support, the upcoming card features 112 Stream Processors, just like the 8800 GT, and a 256-bit memory interface.
Still reluctant to reveal what chip is powering it - either a 65nm G92 or a 55nm G92b, ELSA's card has its memory clocked at 1800 MHz and a core set to 630 MHz, very close to what a reference 8800 GT would 'brag' with. Also, as you can see below, the card lacks triple-SLI support, a feature that was suggested as being planned for the 9800 GT. In all, it's needless to say that, if the card doesn't at least have a 55nm-built GPU then it's simply a cvasi-disappointing re-branded 8800 GT.
http://www.tcmagazine.com/images/news/Hardware/ELSA_GeForce_9800_GT_1GB_01.jpg
http://www.tcmagazine.com/images/news/Hardware/ELSA_GeForce_9800_GT_1GB_02.jpg
Mister Tarpone
05-06-2008, 19:14
eccaaaallaaaaaaaaa....
ma non è a 55nani??
Foglia Morta
05-06-2008, 19:36
sarà sia 65nm che 55nm... un passaggio silenzioso senza pubblicizzarlo. Tanto i clock saranno gli stessi , consuma solo un po di meno quella a 55nm ma non cambia niente praticamente
Crysis è un caso disperato :asd:
warhead sarà molto più ottimizzato...credo... ;)
speriamo tarpo .... ;)
http://www.tcmagazine.com/comments.php?shownews=20285&catid=2
Initially expected to arrive around April and replace the 8800 GT, Nvidia's GeForce 9800 GT has now been seen lurking, or bolted to colorful cardboard in Taipei at Computex. Showcased by ELSA, the 9800 GT was not a reference model as it used not only a dual-slot, dual-fan cooler, but also 1GB of GDDR3 memory. Still offering DirectX 10.0 and PCI-Express 2.0 support, the upcoming card features 112 Stream Processors, just like the 8800 GT, and a 256-bit memory interface.
Still reluctant to reveal what chip is powering it - either a 65nm G92 or a 55nm G92b, ELSA's card has its memory clocked at 1800 MHz and a core set to 630 MHz, very close to what a reference 8800 GT would 'brag' with. Also, as you can see below, the card lacks triple-SLI support, a feature that was suggested as being planned for the 9800 GT. In all, it's needless to say that, if the card doesn't at least have a 55nm-built GPU then it's simply a cvasi-disappointing re-branded 8800 GT.
http://www.tcmagazine.com/images/news/Hardware/ELSA_GeForce_9800_GT_1GB_01.jpg
http://www.tcmagazine.com/images/news/Hardware/ELSA_GeForce_9800_GT_1GB_02.jpg
O_o ma che marca è ELSA?!?!? lol lo scrivino i ragazzini sul diario e magia diventa Figa!
Enochian
05-06-2008, 19:54
questa schedona serve per far girare TUTTO a 1920x1200 con aa16x af16x con fluidità eccezionali...
Magari ma non penso proprio...:D
speriamo tarpo .... ;)
Si si dai che sarà così.
E poi te lo dice Cevat, non ti vuoi fidare? :asd:
sommersbi
05-06-2008, 20:54
elsa è un marchio di diversi anni fà quando c'era anche hercules con le sue schede video
DriftKing
05-06-2008, 21:17
un brand dal passato glorioso
http://www.elsa.com/EN/
elsa è un marchio di diversi anni fà quando c'era anche hercules con le sue schede video
e fallita? xche nn si vede piu in giro?
:D
e poi ci stà che se la compra punto e basta, che gli serva o meno. E noi tutti (io sicuro) a sbavare :D :D
Io me la compro punto e basta, ovviamente bisogna vedere quanto sarà alto il prezzo. :D
appleroof
05-06-2008, 22:09
Io me la compro punto e basta, ovviamente bisogna vedere quanto sarà alto il prezzo. :D
allora sbaverò sulla tua :D :D
mi raccomando appena la prendi posta l'impossibile di bench, sempre se hai voglia :)
nonikname
05-06-2008, 22:37
http://en.expreview.com/2008/06/05/computex08-coverage-gainward-shows-off-their-gtx-280-boxart/
http://www.expreview.com/img/computex08/0605/gainward_wm/gainward-1.jpg
Ma che ci fanno 1gb sulla 9800gt ? :mbe:
Si si dai che sarà così.
E poi te lo dice Cevat, non ti vuoi fidare? :asd:
Cevat diceva pure che su una 8800gts 320 crysis avrebbe girato al massimo :asd: :sofico:
michelgaetano
05-06-2008, 22:46
http://en.expreview.com/2008/06/05/computex08-coverage-gainward-shows-off-their-gtx-280-boxart/
http://www.expreview.com/img/computex08/0605/gainward_wm/gainward-1.jpg
oh cavolo...se la gainward passa al blu...
è da orgasmo!!1
:D :D :D
Mister Tarpone
05-06-2008, 22:49
Cevat diceva pure che su una 8800gts 320 crysis avrebbe girato al massimo :asd: :sofico:
io invece mi ricordo che la Crytec in una news parlava di 28fps di media con dettaglio high a 1280x800 con una 8800GTX... a 2 mesi dall'uscia di questo gioco.. :asd:
me lo ricordo come se fosse ieri.. infatti nel vecchio thread "aspettando Crysis" (un thread GLORIOSO a dir poco!!!) rimasero tutti scandalizzati... :asd:
michelgaetano
05-06-2008, 22:51
io invece mi ricordo che la Crytec in una news parlava di 28fps di media con dettaglio high a 1280x800 con una 8800GTX... a 2 mesi dall'uscia di questo gioco.. :asd:
me lo ricordo come se fosse ieri.. infatti nel vecchio thread "aspettando Crysis" (un thread GLORIOSO a dir poco!!!) rimasero tutti scandalizzati... :asd:
ma la gtx ne fa indubbiamente di più...han ottimizzato poi?
Mister Tarpone
05-06-2008, 22:51
ma la gtx ne fa indubbiamente di più...han ottimizzato poi?
ovviamente si ;)
almeno nel gpu bench sicuramente :asd:
io invece mi ricordo che la Crytec in una news parlava di 28fps di media con dettaglio high a 1280x800 con una 8800GTX... a 2 mesi dall'uscia di questo gioco.. :asd:
me lo ricordo come se fosse ieri.. infatti nel vecchio thread "aspettando Crysis" (un thread GLORIOSO a dir poco!!!) rimasero tutti scandalizzati... :asd:
minchia :eek: io invece, quando uscirono i primi video di crysis, nel thread dell' 8600, mi ricordo che cevat parlava di massimi dettagli su una 8800 ... :confused: tanto quelli si contraddicono ogni due secondi, come quando dicevano che in dx10 sarebbe girato meglio ...
;)
Crysis90
05-06-2008, 23:15
Io me la compro punto e basta, ovviamente bisogna vedere quanto sarà alto il prezzo. :D
Anke io!!!!!! Non vedo l'ora di giocareci a Crysis a max. dettaglio!!!!
Mister Tarpone
05-06-2008, 23:16
minchia :eek: io invece, quando uscirono i primi video di crysis, nel thread dell' 8600, mi ricordo che cevat parlava di massimi dettagli su una 8800 ... :confused: tanto quelli si contraddicono ogni due secondi, come quando dicevano che in dx10 sarebbe girato meglio ...
;)
han detto pure qualche cazzata..
quella del dx10 che girava meglio è stata colossale..... ;)
Già postata? http://img231.imageshack.us/img231/1808/ixiomgrb2.gif
http://img520.imageshack.us/img520/6379/gtx200series260lf5mh4.jpg
han detto pure qualche cazzata..
quella del dx10 che girava meglio è stata colossale..... ;)
lol verissimo,ci fecero anche uno speciale su Gmc dicendo questa cosa e poi quando arrivarono sul mercato le 10 ehm.......:ciapet:
Nikolaj Wojdelko
05-06-2008, 23:30
minchia :eek: io invece, quando uscirono i primi video di crysis, nel thread dell' 8600, mi ricordo che cevat parlava di massimi dettagli su una 8800 ... :confused: tanto quelli si contraddicono ogni due secondi, come quando dicevano che in dx10 sarebbe girato meglio ...
;)
han detto pure qualche cazzata..
quella del dx10 che girava meglio è stata colossale..... ;)
Ma non avete ancora capito che crysis di dx10 non ha nulla ? E ti credo che non gira meglio, su 120 solo 2 sono Cvar veramente DX10 ! E' come se fosse una versione di stalker dannatamente pesante ed ultra pompata ..
Il fatto che è stato sponsorizzato come dx10 è tutta una presa per il culo all'utente finale, per fargli comprare HW dx10 , nuovo sistema operativo , il 3dmark vantage , ddr3 ultraperformanti e quad core ... peccato che pure con un misero C2DUO 6300@3GHz e delle misere ddr2 800 vada uguale se non addirittura meglio in dx9 su XP magari con tutti i fix very high ..
:muro:
Ma non avete ancora capito che crysis di dx10 non ha nulla ? E ti credo che non gira meglio, su 120 solo 2 sono Cvar veramente DX10 ! E' come se fosse una versione di stalker dannatamente pesante ed ultra pompata ..
Il fatto che è stato sponsorizzato come dx10 è tutta una presa per il culo all'utente finale, per fargli comprare HW dx10 , nuovo sistema operativo , il 3dmark vantage , ddr3 ultraperformanti e quad core ... peccato che pure con un misero C2DUO 6300@3GHz e delle misere ddr2 800 vada uguale se non addirittura meglio in dx9 su XP magari con tutti i fix very high ..
:muro:
Mica si stava parlando di crysis dx10 vs crysis dx9 ... Che poi la versione dx10 abbia solo 2 Cvar dx10 dovrei informarmi, ma ti assicuro che la pesantezza in più c'è, e si vede, motivo per il quale me lo sono giocato su xp .. ;)
Mister Tarpone
05-06-2008, 23:44
Mica si stava parlando di crysis dx10 vs crysis dx9 ... Che poi la versione dx10 abbia solo 2 Cvar dx10 dovrei informarmi, ma ti assicuro che la pesantezza in più c'è, e si vede, motivo per il quale me lo sono giocato su xp .. ;)
pure io ;) ;) ;) ;) ;) ;)
Kharonte85
05-06-2008, 23:57
Già postata? http://img231.imageshack.us/img231/1808/ixiomgrb2.gif
http://img520.imageshack.us/img520/6379/gtx200series260lf5mh4.jpg
Tutti numeri un po' strambi avete notato? :D Poi 999 è il max :asd:...ma che gli costava arrotondare e fare 1000 :boh: :D
michelgaetano
06-06-2008, 00:03
Tutti numeri un po' strambi avete notato? :D Poi 999 è il max :asd:...ma che gli costava arrotondare e fare 1000 :boh: :D
sulla mia 9600 gt ad esempio se setto 793 di core va a 800, mentre lo step precedente è 786.
Semplicemente ti danno i valori reali :)
Piuttosto: avete notato che i numeri sembrano "tornati" a g80 :D la gtx era 576/1350/900 :D
Ibracadabra08
06-06-2008, 00:08
http://en.expreview.com/2008/06/05/computex08-coverage-gainward-shows-off-their-gtx-280-boxart/
http://www.expreview.com/img/computex08/0605/gainward_wm/gainward-1.jpg
oh cavolo...se la gainward passa al blu...
è da orgasmo!!1
:D :D :D
Che????? Solo rosso per Gainward.:mad: E poi via quell'angioletto, un bel diablo......
michelgaetano
06-06-2008, 00:13
Che????? Solo rosso per Gainward.:mad: E poi via quell'angioletto, un bel diablo......
via! le gainward in blu sono il mio sogno :sofico:
Ibracadabra08
06-06-2008, 00:20
via! le gainward in blu sono il mio sogno :sofico:
1-Se vuoi una scheda azzurra comprati una Sapphire (ma c'è solo ATI).
2-Se vuoi una Gainward c'è il rosso. Punto.
3-Se vuoi sognare vai a nanna. :ronf:
;)
Ibracadabra08
06-06-2008, 00:25
http://img520.imageshack.us/img520/6379/gtx200series260lf5mh4.jpg
Dubbio: come mai "power connectors =2 x 6pin"? Non dovevano essere 1 da 6 pin e uno da 8 pin? Mi sbaglio io oppure solo nella 260 sarà così?:confused:
In ogni caso, il dissipatore è proprio brutto, squadrato come pochi.... sembra una VHS...... Sarà anche efficace e magari silenzioso, ma dio quant'è brutto....
michelgaetano
06-06-2008, 00:34
1-Se vuoi una scheda azzurra comprati una Sapphire (ma c'è solo ATI).
2-Se vuoi una Gainward c'è il rosso. Punto.
3-Se vuoi sognare vai a nanna. :ronf:
;)
Non sei simpatico. E comunque lo scatolo e blu ;)
michelgaetano
06-06-2008, 00:35
http://img520.imageshack.us/img520/6379/gtx200series260lf5mh4.jpg
Dubbio: come mai "power connectors =2 x 6pin"? Non dovevano essere 1 da 6 pin e uno da 8 pin? Mi sbaglio io oppure solo nella 260 sarà così?:confused:
In ogni caso, il dissipatore è proprio brutto, squadrato come pochi.... sembra una VHS...... Sarà anche efficace e magari silenzioso, ma dio quant'è brutto....
la 280 ha 6+8 pin.
han detto pure qualche cazzata..
quella del dx10 che girava meglio è stata colossale..... ;)
già è vero! ...vatti a fidare di quelli! :doh:
GTX280...
http://www.vr-zone.com/articles/Detailed_Geforce_GTX_280_Pictures/5826.html
non so se sono state già postate...
ps come lunghezza mi sembra una ultra non vorrei sbagliarmi...o forse qualcosa di piu'?
http://www.tcmagazine.com/comments.php?shownews=20285&catid=2
Initially expected to arrive around April and replace the 8800 GT, Nvidia's GeForce 9800 GT has now been seen lurking, or bolted to colorful cardboard in Taipei at Computex. Showcased by ELSA, the 9800 GT was not a reference model as it used not only a dual-slot, dual-fan cooler, but also 1GB of GDDR3 memory. Still offering DirectX 10.0 and PCI-Express 2.0 support, the upcoming card features 112 Stream Processors, just like the 8800 GT, and a 256-bit memory interface.
Still reluctant to reveal what chip is powering it - either a 65nm G92 or a 55nm G92b, ELSA's card has its memory clocked at 1800 MHz and a core set to 630 MHz, very close to what a reference 8800 GT would 'brag' with. Also, as you can see below, the card lacks triple-SLI support, a feature that was suggested as being planned for the 9800 GT. In all, it's needless to say that, if the card doesn't at least have a 55nm-built GPU then it's simply a cvasi-disappointing re-branded 8800 GT.
http://www.tcmagazine.com/images/news/Hardware/ELSA_GeForce_9800_GT_1GB_01.jpg
http://www.tcmagazine.com/images/news/Hardware/ELSA_GeForce_9800_GT_1GB_02.jpg
Piccola conferma al fatto che la 9800GT dovrebbe essere un semplice rebranding della 8800GT (un pezzo di slide NVidia o di qualche partner).
http://img.donanimhaber.com/resimler/geforce8800gt_9800gt_fx57.jpg
michelgaetano
06-06-2008, 06:45
GTX280...
http://www.vr-zone.com/articles/Detailed_Geforce_GTX_280_Pictures/5826.html
non so se sono state già postate...
ps come lunghezza mi sembra una ultra non vorrei sbagliarmi...o forse qualcosa di piu'?
la ultra era come la gtx? No perchè più di 27 cm c'è da spararsi...
halduemilauno
06-06-2008, 06:45
un riassunto delle slide gia pubblicate...
http://www.nordichardware.com/news,7836.html
A number of slides introducing the GeForce GTX series have been posted all over the web, originating from the one and only CJ. They confirm pretty much all of stories that has been posted in the recent present. GeForce GTX 280 is a full-size 10.5" dual-slot card sporting 1.4 billion transistors, 933GFLOPS of processing power, and 240 fully loaded shaders. The core clock is perhaps a bit lower than expected, but still decent at 600MHz, while the 0.8ns 1GB GDDR3 memory has a 512-bit memory bus at its disposal. The other of the two, GeForce GTX260, will have two less memory chips, which means a 448-bit bus and 896MB memory, and "only" 192 shaders. The core clock has also been lowered to 575MHz.
Beside the raw performance, GeForce GTX brings other features to the game. A seriously optimized power consumption is probably what impresses us the most. Even if the power consumption during load is close to double (184%) that of GeForce 9800GTX, the idle power is has been reduced by 45 percentages. Since a card spends most of its time in idle, the actual power saved will be quite substantial. When you pay as much as $649, or slightly less $449, for a graphics card, every dime you save on power becomes a major factor.
;)
Marko#88
06-06-2008, 07:36
Piccola conferma al fatto che la 9800GT dovrebbe essere un semplice rebranding della 8800GT (un pezzo di slide NVidia o di qualche partner).
http://img.donanimhaber.com/resimler/geforce8800gt_9800gt_fx57.jpg
Una 88GT occata in sostanza...vedremo il prezzo a cui sarà proposta...
Andrea deluxe
06-06-2008, 08:30
ummmmmmmmm
http://www.vr-zone.com/articles/Radeon_HD_4870_X2_R700_Beats_GeForce_GTX_280/5851.html
gia non reference
http://forums.vr-zone.com/showthread.php?t=285102
http://personal.inet.fi/tiede/kimnice/Gainward%20GTX280.png
HackaB321
06-06-2008, 08:38
http://media.bestofmicro.com/E/A/108082/original/10-GTX280-03.jpg
http://media.bestofmicro.com/E/B/108083/original/11-GTX280-04.jpg
http://media.bestofmicro.com/E/C/108084/original/12-GTX280-05.jpg
http://media.bestofmicro.com/E/8/108080/original/08-GTX280-01.jpg
Radeon HD 4870 X2 R700 Beats GeForce GTX 280
While we are away for Computex, CJ let us know that the Radeon HD 4870 X2 R700 prototype card is out and it beats the NVIDIA GeForce GTX 280 in 3DMark Vantage. The R700 card is basically made up of two RV770 GPUs with 2x256-bit memory interface to either GDDR3 or GDDR5 memories. We asked our sources about R700 in Computex and apparently AMD is going to let AIB partners to decide the specs themselves. Therefore, the partners will set their own clock speeds, PCB design, memory types, cooler solutions etc. and there will be Radeon HD 4850 X2 and 4870 X2 cards differentiate by the memory type. The R700 card apparently doing pretty well at this stage scoring about X5500 in 3DMark Vantage Extreme preset while the GeForce GTX 280 card is scoring X4800.
http://www.vr-zone.com/articles/Radeon_HD_4870_X2_R700_Beats_GeForce_GTX_280/5851.html
La HD4870X2 sarebbe piu potente della GTX280.... :rolleyes:
Skullcrusher
06-06-2008, 08:59
Radeon HD 4870 X2 R700 Beats GeForce GTX 280
While we are away for Computex, CJ let us know that the Radeon HD 4870 X2 R700 prototype card is out and it beats the NVIDIA GeForce GTX 280 in 3DMark Vantage. The R700 card is basically made up of two RV770 GPUs with 2x256-bit memory interface to either GDDR3 or GDDR5 memories. We asked our sources about R700 in Computex and apparently AMD is going to let AIB partners to decide the specs themselves. Therefore, the partners will set their own clock speeds, PCB design, memory types, cooler solutions etc. and there will be Radeon HD 4850 X2 and 4870 X2 cards differentiate by the memory type. The R700 card apparently doing pretty well at this stage scoring about X5500 in 3DMark Vantage Extreme preset while the GeForce GTX 280 card is scoring X4800.
http://www.vr-zone.com/articles/Radeon_HD_4870_X2_R700_Beats_GeForce_GTX_280/5851.html
La HD4870X2 sarebbe piu potente della GTX280.... :rolleyes:
Sì, al 3dmark :sofico: poi bisogna vedere nei giochi. Sarei contento se fosse vero, spingerebbe Nvidia ad abbassare i prezzi e a far uscire le vga a 55nm :D
Sì, al 3dmark :sofico: poi bisogna vedere nei giochi. Sarei contento se fosse vero, spingerebbe Nvidia ad abbassare i prezzi e a far uscire le vga a 55nm :D
Appunto e poi prevedo per settembre/ottobre una bella GT200 Ultra aka GTX290, magari a 55nm e con frequenze piu alte! :eek:
halduemilauno
06-06-2008, 09:08
Radeon HD 4870 X2 R700 Beats GeForce GTX 280
While we are away for Computex, CJ let us know that the Radeon HD 4870 X2 R700 prototype card is out and it beats the NVIDIA GeForce GTX 280 in 3DMark Vantage. The R700 card is basically made up of two RV770 GPUs with 2x256-bit memory interface to either GDDR3 or GDDR5 memories. We asked our sources about R700 in Computex and apparently AMD is going to let AIB partners to decide the specs themselves. Therefore, the partners will set their own clock speeds, PCB design, memory types, cooler solutions etc. and there will be Radeon HD 4850 X2 and 4870 X2 cards differentiate by the memory type. The R700 card apparently doing pretty well at this stage scoring about X5500 in 3DMark Vantage Extreme preset while the GeForce GTX 280 card is scoring X4800.
http://www.vr-zone.com/articles/Radeon_HD_4870_X2_R700_Beats_GeForce_GTX_280/5851.html
La HD4870X2 sarebbe piu potente della GTX280.... :rolleyes:
pure la 2900xt al 3dmark andava + della 8800gtx. poi nei giochi andava meno della 8800gts.
aspettiamo bench esaustivi.
;)
It is been over eight months since ATI commercially introduced RV670 55nm chips, and these were followed by 3450 and 3650 in the same architecture.
The whole ATI line-up is based on 55nm chips and Nvidia is just about to try to get its first 55nm chips out.
One of the first will be G92b, which is basically G92 architecture shrunk to 55nm. We’ve heard, but we still cannot confirm, the claim that Geforce 9800GT will have this 55nm chip inside, which probably means at least a bit higher clock at lower consumption.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7750&Itemid=1
Quindi da qui pare che la 9800GT sia a 55nm e con frequenze leggermente piu alte ma sempre con 112sp, se fosse cosi diventerebbe una scheda interessante in fascia media sempre meglio di essere soltanto rinominata come era previsto in partenza, quindi prestazioni da 8800GTS 512Mb... quindi alla pari della HD4850...
http://www.nordichardware.com/image3.php?id=5203
Questa slide contrasta con quella di prima (quelle di Tom's), ma in definitiva queste sono le frequenze attese al debutto...
halduemilauno
06-06-2008, 09:21
It is been over eight months since ATI commercially introduced RV670 55nm chips, and these were followed by 3450 and 3650 in the same architecture.
The whole ATI line-up is based on 55nm chips and Nvidia is just about to try to get its first 55nm chips out.
One of the first will be G92b, which is basically G92 architecture shrunk to 55nm. We’ve heard, but we still cannot confirm, the claim that Geforce 9800GT will have this 55nm chip inside, which probably means at least a bit higher clock at lower consumption.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7750&Itemid=1
Quindi da qui pare che la 9800GT sia a 55nm e con frequenze leggermente piu alte ma sempre con 112sp, se fosse cosi diventerebbe una scheda interessante in fascia media sempre meglio di essere soltanto rinominata come era previsto in partenza, quindi prestazioni da 8800GTS 512Mb... quindi alla pari della HD4850...
chiariamolo una volta per tutte. la 9800gt deve rispondere alla stessa necessità della 8800gt ovvero confrontarsi con la 3870. quindi non servono + shader, + bus, + ram e frequenze superiori. i 55nm devono esser visti in ottica risparmio costi per nvidia e(eventualmente e/o almeno si spera)riduzione prezzi per i consumatori.
per la 4850 nvidia da tempo ha gia dedicato la 9800gtx(eventualmente destinata anch'essa al 55nm per i motivi detti prima).
;)
halduemilauno
06-06-2008, 09:23
http://www.nordichardware.com/image3.php?id=5203
Questa slide contrasta con quella di prima (quelle di Tom's), ma in definitiva queste sono le frequenze attese al debutto...
quelle di tom(e di altri)si rifacevano a una news di the inquirer con un evidente errore di stampa non visto e ne tantomeno corretto nonostante le mie segnalazioni.
;)
chiariamolo una volta per tutte. la 9800gt deve rispondere alla stessa necessità della 8800gt ovvero confrontarsi con la 3870. quindi non servono + shader, + bus, + ram e frequenze superiori. i 55nm devono esser visti in ottica risparmio costi per nvidia e(eventualmente e/o almeno si spera)riduzione prezzi per i consumatori.
per la 4850 nvidia da tempo ha gia dedicato la 9800gtx(eventualmente destinata anch'essa al 55nm per i motivi detti prima).
;)
Ok, ma la HD4850 non dovrebbe avere prestazioni inferiori alla 9800GTX? quindi circa pari a quelle di una 8800GTS 512MB o futura 9800GT? ;)
http://www.matbe.com/divers/zoom.php?img=000000072214.jpg
http://www.matbe.com/divers/zoom.php?img=000000072212.jpg
http://www.matbe.com/actualites/39351/nvidia-geforce-gtx-280/
Cosé il tasto delle casse? :D
Mercuri0
06-06-2008, 09:34
Ok, ma la HD4850 non dovrebbe avere prestazioni inferiori alla 9800GTX? quindi circa pari a quelle di una 8800GTS 512MB o futura 9800GT? ;)
Buh, si dice sia dalle parti della 9800GTX, e che nel vantage la superi agilmente.
chiariamolo una volta per tutte. la 9800gt deve rispondere alla stessa necessità della 8800gt ovvero confrontarsi con la 3870. quindi non servono + shader, + bus, + ram e frequenze superiori. i 55nm devono esser visti in ottica risparmio costi per nvidia e(eventualmente e/o almeno si spera)riduzione prezzi per i consumatori.
per la 4850 nvidia da tempo ha gia dedicato la 9800gtx(eventualmente destinata anch'essa al 55nm per i motivi detti prima).
;)
Il discorso è che mi sembra che tra la 4850 e la 9600GT ci sia poco spazio nel prezzo.
(sopratutto se AMD riesce a rendere disponibile la 4850 in volumi).
Non penso che nvidia abbia "preventivato" di competere con la 9800GTX contro la 4850. Obiettivamente, basta metterle fianco a fianco per vedere che una delle due è di una generazione avanti. Ma per ora nVidia in quella fascia ha solo il G92 (che avuto il suo grande successo) tra qualche mese proporrà qualcos'altro e supererà nuovamente le schede AMD.
Ok, ma la HD4850 non dovrebbe avere prestazioni inferiori alla 9800GTX? quindi circa pari a quelle di una 8800GTS 512MB o futura 9800GT? ;)
No.
Futura 9800GT=presente 8800GT != 8800GTS512 ~ 9800GTX.
gianni1879
06-06-2008, 09:41
pure la 2900xt al 3dmark andava + della 8800gtx. poi nei giochi andava meno della 8800gts.
aspettiamo bench esaustivi.
;)
all'epoca si parlava del 3D Mark 2006, uno dei bench più inutili della storia, che non rispecchiava minimamente la potenza di una vga, appunto R600.
Con in Vantage sembra che in qualche maniera rispetti più fedelmente la situazione, ovviamente ne riparleremo quando uscirà la vga, per adesso si parla sui soliti rumors..
halduemilauno
06-06-2008, 09:41
Buh, si dice sia dalle parti della 9800GTX, e che nel vantage la superi agilmente.
Il discorso è che mi sembra che tra la 4850 e la 9600GT ci sia poco spazio nel prezzo.
(sopratutto se AMD riesce a rendere disponibile la 4850 in volumi).
Non penso che nvidia abbia "preventivato" di competere con la 9800GTX contro la 4850. Obiettivamente, basta metterle fianco a fianco per vedere che una delle due è di una generazione avanti. Ma per ora nVidia in quella fascia ha solo il G92 (che avuto il suo grande successo) tra qualche mese proporrà qualcos'altro e supererà nuovamente le schede AMD.
a ma quello è un'altro discorso. nvidia in previsione della 4850 ha dedicato la 9800gtx e cosa succederà aspettiamo bench. poi è ovvio che nel tempo per affrontare la stessa scheda nvidia potrà proporre un'altra scheda è quantomeno certo. sotto la serie gtx sono attese le gts.
ps per questa tipologia di schede il vantage extreme vale molto poco. queste non sono state fatte per i 1920x1200 filtri a palla. non a caso nel performance sono alla pari e forse in vantaggio la 9800gtx. questo per parlare del vantage aspettiamo i giochi.
Ok, ma la HD4850 non dovrebbe avere prestazioni inferiori alla 9800GTX? quindi circa pari a quelle di una 8800GTS 512MB o futura 9800GT? ;)
:mc:
halduemilauno
06-06-2008, 09:45
all'epoca si parlava del 3D Mark 2006, uno dei bench più inutili della storia, che non rispecchiava minimamente la potenza di una vga, appunto R600.
Con in Vantage sembra che in qualche maniera rispetti più fedelmente la situazione, ovviamente ne riparleremo quando uscirà la vga, per adesso si parla sui soliti rumors..
perchè i giochi sta potenza dell'r600 la rispecchiavano? il 3dmark2006 sarà pur stato inutile ma quanto vi ha fatto sbavare nel famigerato aspettando r600.
:asd:
gianni1879
06-06-2008, 09:46
a ma quello è un'altro discorso. nvidia in previsione della 4850 ha dedicato la 9800gtx e cosa succederà aspettiamo bench. poi è ovvio che nel tempo per affrontare la stessa scheda nvidia potrà proporre un'altra scheda è quantomeno certo. sotto la serie gtx sono attese le gts.
in pratica stai dicendo che Nvidia abbia fatto uscire la 9800gtx ( 1 aprile 2008) in previsione della futura HD4850 di Amd?
Sapeva pure in anticipo che sarebbe andata diciamo allo stesso livello?
Certo che Nvidia deve avere qualche infiltrato che lavora da Amd per sapere ste cose in anticipo... :rolleyes:
gianni1879
06-06-2008, 09:48
perchè i giochi sta potenza dell'r600 la rispecchiavano? il 3dmark2006 sarà pur stato inutile ma quanto vi ha fatto sbavare nel famigerato aspettando r600.
:asd:
ho forse detto il contrario?? il mio post sosteneva proprio questo, che quel 3dmark non rispecchiava la potenza di una vga, non a caso r600 andava come una G80, poi sappiamo bene come andava nei giochi.
Io sbavare?? ma se quel test non mi è mai piaciuto!! forse mi scambi con qualcun altro...
interpreta i post nel giusto modo ;)
halduemilauno
06-06-2008, 09:48
Ok, ma la HD4850 non dovrebbe avere prestazioni inferiori alla 9800GTX? quindi circa pari a quelle di una 8800GTS 512MB o futura 9800GT? ;)
ripeto aspettiamo bench e nell'attesa non dar retta a quelli che gia dicono che la 4850 è superiore alla 9800gtx. sono gli stessi che gia dicevano lo stesso della 2900xt nei confronti della 8800gtx.
ripeto aspettiamo.
;)
ps ti ripeto la 9800gt è = alla 8800gt. stesso compito battere la 3870. compito perfettamente compiuto.
La futura 9800GT è uguale alla presente 8800GT. La HD4850 dovrebbe avere prestazioni allineate alla 9800GTX, da leaks di slide ufficiali AMD.
Cavolo ma quando esce questa 9800GT a momenti sembra che esca domani, a momenti a luglio inoltrato.... in definitiva sarà si uguale alla 8800GT ma con i 55nm! poi speriamo che costi sui 130 euro cosi ne prendo 2 un po di OC e forse forse vanno come una 9800GX2... poi di GT200 ne parliamo ad anno nuovo tanto i prezzi per ora mi sembrano altucci! ;)
halduemilauno
06-06-2008, 09:50
ho forse detto il contrario?? il mio post sosteneva proprio questo, che quel 3dmark non rispecchiava la potenza di una vga, non a caso r600 andava come una G80, poi sappiamo bene come andava nei giochi.
Io sbavare?? ma se quel test non mi è mai piaciuto!! forse mi scambi con qualcun altro...
interpreta i post nel giusto modo ;)
non mi riferivo con lo sbavare per quel test ma per quella scheda. e in generale.
halduemilauno
06-06-2008, 09:51
Cavolo ma quando esce questa 9800GT a momenti sembra che esca domani, a momenti a luglio inoltrato.... in definitiva sarà si uguale alla 8800GT ma con i 55nm! poi speriamo che costi sui 130 euro cosi ne prendo 2 un po di OC e forse forse vanno come una 9800GX2... pi di GT200 ne parliamo ad ano nuovo tanto i prezzi per ora mi sembrano altucci! ;)
certo gt200 è ben altra fascia. il sostituto delle 9800 saranno le gts.
;)
gianni1879
06-06-2008, 09:51
non mi riferivo con lo sbavare per quel test ma per quella scheda. e in generale.
ci si aspettava una vga in grado di andare forte, continuando la tradizione di Ati negli ultimi tempi (da R300 fino a R580), nessuno si aspettava quelle performance.
Mercuri0
06-06-2008, 09:57
ps per questa tipologia di schede il vantage extreme vale molto poco. queste non sono state fatte per i 1920x1200 filtri a palla. non a caso nel performance sono alla pari e forse in vantaggio la 9800gtx. questo per parlare del vantage aspettiamo i giochi.
Hal, avresti il coraggio di ripetere una cosa simile in faccia ad un possessore di 9800GTX???
Stiamo parlando della 9800GTX, la scheda monogpu attualmente più Uber che sia in produzione! Vallo a spiegare ai proprietari che non è fatta per essere usata nei giochi a 1920x1200 coi filtri a palla :)
p.s. secondo me i possessori di 9800GTX, con le loro giacche in pelle nera con il logo verde dietro, comincerebbero a dartele di santa ragione :asd:
p.s.2 se poi la 4850 girasse bene nei giochi a 1950x1200 coi filtri a palla, diciamo "e no, non è fatta per essere usata a quella risoluzione"?
p.s.3 io ti voglio tanto bene ma a volte mi sembra che pur di dar ragione a nVidia tu faccia contorsioni logiche (=arrampicamenti sugli specchi) veramente allucinanti. :flower:
pure la 2900xt al 3dmark andava + della 8800gtx. poi nei giochi andava meno della 8800gts.
aspettiamo bench esaustivi.
;)
E' vero, ma sembra che il Vantage rispecchi meglio le prestazioni reali. Aspettiamo comunque bench veri..
Hal, avresti il coraggio di ripetere una cosa simile in faccia ad un possessore di 9800GTX???
Stiamo parlando della 9800GTX, la scheda monogpu attualmente più Uber che sia in produzione! Vallo a spiegare ai proprietari che non è fatta per essere usata nei giochi a 1920x1200 coi filtri a palla :)
p.s. secondo me i possessori di 9800GTX, con le loro giacche in pelle nera con il logo verde dietro, comincerebbero a dartele di santa ragione :asd:
p.s.2 se poi la 4850 girasse bene nei giochi a 1950x1200 coi filtri a palla, diciamo "e no, non è fatta per essere usata a quella risoluzione"?
p.s.3 io ti voglio tanto bene ma a volte mi sembra che pur di dar ragione a nVidia tu faccia contorsioni logiche (=arrampicamenti sugli specchi) veramente allucinanti. :flower:
Mi hai chiamato?? :)
dai vabbè..capisco che la sigla "gtx" possa far storcere il naso visto che era della gloriosa 8800gtx...però quest'ultima la pagavi 600euro all'uscita, io 20 giorni dopo l'uscita della 9800gtx l'ho pagata 235euro spese spedizione incluse...con questo voglio dire che oltre alla siglia bisogna vedere anche il prezzo, e a quel prezzo ti assicuro che di meglio sul mercato proprio non c'era (cioè minore o uguale prezzo e prestazioni superiori)!
Ti assicuro che sono sottisfattissimo dell'acquisto anche perchè a 1900x1200 non ci arrivo come vedi dalla firma...certo però se avessi preso uno schermo full HD forse avrei preso qualcosa di più potente come vga! ciao mercuri0! :)
Mercuri0
06-06-2008, 10:18
Mi hai chiamato?? :)
dai vabbè..capisco la la sigla "gtx" possa far storcere il naso visto che era della gloriosa 8800gtx...però quest'ultima la pagavi 600euro all'uscita, io 20 giorni dopo l'uscita della 9800gtx l'ho pagata 235euro spese spedizione incluse...con questo voglio dire che oltre alla siglia bisogna vedere anche il prezzo, e a quel prezzo ti assicuro che di meglio sul mercato proprio non c'era (cioè minore o uguale prezzo e prestazioni superiori)!
Ti assicuro che sono sottisfattissimo dell'acquisto anche perchè a 1900x1200 non ci arrivo come vedi dalla firma...certo però se avessi preso uno schermo full HD forse avrei preso qualcosa di più potente come vga! ciao mercuri0! :)
Forse mi hai frainteso: io stavo dicendo che la 9800GTX è una [ottima] scheda fatta per giocare a 1920x1200, anche perché in questi mesi è stata comunque la monogpu più veloce in produzione, e mi aspetto che chi la compri ci guardi il test xtreme col vantage.
Il fatto che la 4850, che ha una sigla "economica" ci arrivi in testa a testa, ha creato un fatto curioso. Leggendo in giro, per alcuni fan nVidia R770 è un fallimento, perché arriva alla velocità di un chip di due anni fa, mentre per altri (sempre fan nvidia) la posizione è "Ma state scherzando, secondo voi è possibile che la 4850 che è mainstream superi la 9800GTX?"
Secondo me, è tutto un discorso di "percezione" e di sigle, e la 9800GTX da scheda Uber si trova "degradata" a testa a testa con una scheda mainstream.
Ma in questi 3 mesi la 9800GTX mica ha cominciato ad andare più lenta ;) , ne sono usciti giochi più pesanti.
E' solo una questione di nomi, prezzi e sigle e percezione di fighezza.
Foglia Morta
06-06-2008, 10:22
Secondo me, è tutto un discorso di "percezione" e di sigle.
Purtroppo si. Però è fuorviante perchè il criterio più oggettivo e che alla fine interessa a chi deve comprare è il rapporto qualità/prezzo.
Forse mi hai frainteso: io stavo dicendo che la 9800GTX è una [ottima] scheda fatta per giocare a 1920x1200, anche perché in questi mesi è stata comunque la monogpu più veloce in produzione, e mi aspetto che chi la compri ci guardi il test xtreme col vantage.
ok ok...però a 1900x1200 con filtri a palla non so quanto vada veloce...cioè imho comincia a sentire la fatica...questo volevo dire... chi prende un fullhd 1900x1200, forse, per stare "sicuro", gli conviene prendere qualcosa di più potente!
Mercuri0
06-06-2008, 10:28
ok ok...però a 1900x1200 con filtri a palla non so quanto vada veloce...cioè imho comincia a sentire la fatica...questo volevo dire... chi prende un fullhd 1900x1200, forse, per stare "sicuro", gli conviene prendere qualcosa di più potente!
boh, raga, io non gioco a quelle risoluzioni (e ultimamente non gioco proprio), ma sopra la 9800GTX ci sta solo la GX2 per ora.
La 8800Ultra non è in produzione, e comunque ha prestazioni da quelle parti, ne sono usciti giochi nuovi più pesanti nei tre mesi di vita dalla 9800GTX. Sarebbe come dire che la 8800Ultra in questi mesi non andava bene per giocare a 1980x1200 coi filtri attivi.
nervoteso
06-06-2008, 11:22
Hal, avresti il coraggio di ripetere una cosa simile in faccia ad un possessore di 9800GTX???
Stiamo parlando della 9800GTX, la scheda monogpu attualmente più Uber che sia in produzione! Vallo a spiegare ai proprietari che non è fatta per essere usata nei giochi a 1920x1200 coi filtri a palla :)
p.s. secondo me i possessori di 9800GTX, con le loro giacche in pelle nera con il logo verde dietro, comincerebbero a dartele di santa ragione :asd:
p.s.2 se poi la 4850 girasse bene nei giochi a 1950x1200 coi filtri a palla, diciamo "e no, non è fatta per essere usata a quella risoluzione"?
p.s.3 io ti voglio tanto bene ma a volte mi sembra che pur di dar ragione a nVidia tu faccia contorsioni logiche (=arrampicamenti sugli specchi) veramente allucinanti. :flower:
ma ti assicuro che con la 9800 gtx gioco perfettamente a tutti i giochi a 1920 con tutto attivato. a parte crysis...
ma ti assicuro che con la 9800 gtx gioco perfettamente a tutti i giochi a 1920 con tutto attivato. a parte crysis...
Quanto da noia quel "a parte Crysis" che ormai si legge praticamente ovunque, quando si parla di VGA, gioco con tutto "A PARTE CRYSIS".
Della serie spina nel fianco che rimane sempre lì e punge e punge e punge. :asd:
ripeto aspettiamo bench e nell'attesa non dar retta a quelli che gia dicono che la 4850 è superiore alla 9800gtx. sono gli stessi che gia dicevano lo stesso della 2900xt nei confronti della 8800gtx.
ripeto aspettiamo.
;)
ps ti ripeto la 9800gt è = alla 8800gt. stesso compito battere la 3870. compito perfettamente compiuto.
AMD ha gia' la risposta pronta alla 9800GT, si chiama HD3950 :)
D'altronde non vedo il motivo di buttare fuori un'altra scheda (quando c'e' gia' la 8800GT) per una 3870 che ormai e' relegata alla fascia media del mercato. Sara' che avevamo ragione, quando dicevamo che con G92 a 65nm, nVidia andava in perdita? :)
bYeZ!
Quanto da noia quel "a parte Crysis" che ormai si legge praticamente ovunque, quando si parla di VGA, gioco con tutto "A PARTE CRYSIS".
Della serie spina nel fianco che rimane sempre lì e punge e punge e punge. :asd:
sindrome del pene, nella sua piu' classica forma nerd :D
bYeZ!
Mercuri0
06-06-2008, 12:04
ma ti assicuro che con la 9800 gtx gioco perfettamente a tutti i giochi a 1920 con tutto attivato. a parte crysis...
Beh ma a me questo non mi sorprende mica, io stavo contestando chi diceva che la 9800GTX non è una scheda buona per giocare a quella risoluzione coi filtri attivi, e siccome giochi nuovi in questi 3 mesi non ne sono usciti, mi meravigliavo per quale ragione le 9800GTX avrebbero cominciato di punto in bianco ad andare più lente. :)
halduemilauno
06-06-2008, 12:13
Hal, avresti il coraggio di ripetere una cosa simile in faccia ad un possessore di 9800GTX???
Stiamo parlando della 9800GTX, la scheda monogpu attualmente più Uber che sia in produzione! Vallo a spiegare ai proprietari che non è fatta per essere usata nei giochi a 1920x1200 coi filtri a palla :)
p.s. secondo me i possessori di 9800GTX, con le loro giacche in pelle nera con il logo verde dietro, comincerebbero a dartele di santa ragione :asd:
p.s.2 se poi la 4850 girasse bene nei giochi a 1950x1200 coi filtri a palla, diciamo "e no, non è fatta per essere usata a quella risoluzione"?
p.s.3 io ti voglio tanto bene ma a volte mi sembra che pur di dar ragione a nVidia tu faccia contorsioni logiche (=arrampicamenti sugli specchi) veramente allucinanti. :flower:
la 9800gtx fatta per i 1920x1200 filtri a palla????? ma che scherziamo con il bus a 256 e 512 mega di ram ma che scherziamo???????
per favore. per quello scenario prima c'erano le 8800gtx e ultra e poi(cmq dal punto di vista cronologico pure prima)la 9800gx2.
la 9800gtx è stata sempre sin dall'inizio scheda di fascia medioalta. dopotutto il prezzo di(allora)300€ lo diceva chiarissimamente.
poi basta vedere qualunque bench in quelle condizioni sta sempre sotto alle 8800gtx/ultra.
e ripeto concepita sin dall'inizio per essere la prima antagonista della 4850 certamente scheda anch'essa non certo fatta per i 1920x1200 filtri a palla. poi ci girerà bene? lo vedremo. andrà meglio della 9800gtx? vedremo anche quello.
halduemilauno
06-06-2008, 12:16
AMD ha gia' la risposta pronta alla 9800GT, si chiama HD3950 :)
D'altronde non vedo il motivo di buttare fuori un'altra scheda (quando c'e' gia' la 8800GT) per una 3870 che ormai e' relegata alla fascia media del mercato. Sara' che avevamo ragione, quando dicevamo che con G92 a 65nm, nVidia andava in perdita? :)
bYeZ!
e vedremo pure se la 3950 sopperirà alle mancanze della 3870 nell'affrontare la 8800gt che è diventata 9800gt.
non confondere sul fatto di aver cambiato nome. esso risponde a una precisa altra esigenza.
Effettivamenet nn basta la sola 9800gtx per giocare bene a 1920+filtri e i test lo confermano, se si vuole usare una sola VGA bisogna prendere uan 9800GX2 per giocare a quella risoluzione bene, altrimenti uno sli di semplici 88GT e' l'ideale;)
la 9800gtx fatta per i 1920x1200 filtri a palla????? ma che scherziamo con il bus a 256 e 512 mega di ram ma che scherziamo???????
eh eh! infatti è quello che ho detto pochi post fa anch'io..:) Bisogna andare su altre schede per stare "tranquilli" a quelle risoluzioni con i filtri. a 1920x1200non l'ho mai provata la 9800gtx, però credo che con filtri attivi faccia un po' fatica..:)
DriftKing
06-06-2008, 12:35
la 9800gtx fatta per i 1920x1200 filtri a palla????? ma che scherziamo con il bus a 256 e 512 mega di ram ma che scherziamo???????
per favore. per quello scenario prima c'erano le 8800gtx e ultra e poi(cmq dal punto di vista cronologico pure prima)la 9800gx2.
la 9800gtx è stata sempre sin dall'inizio scheda di fascia medioalta. dopotutto il prezzo di(allora)300€ lo diceva chiarissimamente.
poi basta vedere qualunque bench in quelle condizioni sta sempre sotto alle 8800gtx/ultra.
e ripeto concepita sin dall'inizio per essere la prima antagonista della 4850 certamente scheda anch'essa non certo fatta per i 1920x1200 filtri a palla. poi ci girerà bene? lo vedremo. andrà meglio della 9800gtx? vedremo anche quello.
quindi secondo te nvidia sapeva gia tre mesi fa come andava la 4850? :rolleyes:
Mercuri0
06-06-2008, 12:38
la 9800gtx fatta per i 1920x1200 filtri a palla????? ma che scherziamo con il bus a 256 e 512 mega di ram ma che scherziamo???????
per favore. per quello scenario prima c'erano le 8800gtx e ultra e poi(cmq dal punto di vista cronologico pure prima)la 9800gx2.
la 9800gtx è stata sempre sin dall'inizio scheda di fascia medioalta. dopotutto il prezzo di(allora)300€ lo diceva chiarissimamente.
poi basta vedere qualunque bench in quelle condizioni sta sempre sotto alle 8800gtx/ultra.
E' lui! E' lui! nvidiari con la giacca di pelle nera e il logo dietro, rincorretelo! E' la! ( :D )
e ripeto concepita sin dall'inizio per essere la prima antagonista della 4850
Mi sa che ho molta più stima di nVidia di te. :)
Metti un pò fianco a fianco la 4850 e la 9800GTX, come prezzi, costi, dimensioni, TDP (per le prestazioni per ora abbiamo solo i rumor - ci aspettiamo che siano li) e vedi un pò se alla nVidia potevano mai aver pianificato "fin dall'inizio" un 9800GTX vs 4850, 3 mesi dopo il lancio della 9800GTX.
eh eh! infatti è quello che ho detto pochi post fa anch'io..:) Bisogna andare su altre schede per stare "tranquilli" a quelle risoluzioni con i filtri. a 1920x1200non l'ho mai provata la 9800gtx, però credo che con filtri attivi faccia un po' fatica..:)
Contanto che ci ho fatto un giro sul 3DM06 tutto a default e rispetto ad uan mai singola 88GT a default ha fatto 1.300 punti in + direi che fa fatica si xD^^
Non ci sono ancora prezzi confermati/ufficiosi sul costo delle Nuove GTX260/280?
halduemilauno
06-06-2008, 12:40
quindi secondo te nvidia sapeva gia tre mesi fa come andava la 4850? :rolleyes:
beh di certo ne aveva un'idea concreta. sapendo la base di partenza ovvero l'rv670 i calcoli e proiezioni si possono benissimo fare. essa, nvidia, partiva ba una base ben superiore ed ecco il risultato(ed annessa scelta del nome). poi lo ripeto per la milionesima volta tocca aspettare i bench e sapremo tutto. non è che nvidia in questo campo è l'ultima arrivata studi e previsioni su quanto possa fare la concorrenza si fanno da tutte le parti.
Kharonte85
06-06-2008, 12:53
un riassunto delle slide gia pubblicate...
http://www.nordichardware.com/news,7836.html
A number of slides introducing the GeForce GTX series have been posted all over the web, originating from the one and only CJ. They confirm pretty much all of stories that has been posted in the recent present. GeForce GTX 280 is a full-size 10.5" dual-slot card sporting 1.4 billion transistors, 933GFLOPS of processing power, and 240 fully loaded shaders. The core clock is perhaps a bit lower than expected, but still decent at 600MHz, while the 0.8ns 1GB GDDR3 memory has a 512-bit memory bus at its disposal. The other of the two, GeForce GTX260, will have two less memory chips, which means a 448-bit bus and 896MB memory, and "only" 192 shaders. The core clock has also been lowered to 575MHz.
Beside the raw performance, GeForce GTX brings other features to the game. A seriously optimized power consumption is probably what impresses us the most. Even if the power consumption during load is close to double (184%) that of GeForce 9800GTX, the idle power is has been reduced by 45 percentages. Since a card spends most of its time in idle, the actual power saved will be quite substantial. When you pay as much as $649, or slightly less $449, for a graphics card, every dime you save on power becomes a major factor.
;)
Questo sarebbe la conferma di quella slide sui consumi e sarebbe sicuramente cosa buona e giusta :D
e vedremo pure se la 3950 sopperirà alle mancanze della 3870 nell'affrontare la 8800gt che è diventata 9800gt.
non confondere sul fatto di aver cambiato nome. esso risponde a una precisa altra esigenza.
e a quale esigenza risponde l'aver cambiato il nome alla 8800GT in 9800GT?
bYeZ!
halduemilauno
06-06-2008, 12:55
E' lui! E' lui! nvidiari con la giacca di pelle nera e il logo dietro, rincorretelo! E' la! ( :D )
Mi sa che ho molta più stima di nVidia di te. :)
Metti un pò fianco a fianco la 4850 e la 9800GTX, come prezzi, costi, dimensioni, TDP (per le prestazioni per ora abbiamo solo i rumor - ci aspettiamo che siano li) e vedi un pò se alla nVidia potevano mai aver pianificato "fin dall'inizio" un 9800GTX vs 4850, 3 mesi dopo il lancio della 9800GTX.
io sto dicendo(intanto confermo tutto quanto detto sulla 9800gtx)che nvidia ovviamente gia sapeva (+ o -)quel che bolliva in pentola amd e quindi ha (in un certo senso)anticipato le mosse dell'avversario ovvero ha creato le basi per un confronto che è ancora tutto da vedere se lo perderà. intanto è pronta di 9800gtx se ne vendono moltissime anche per merito oltre che della sua bontà del prezzo che via via è andato calando e fra tre settimane vedremo i bench. costerà di +? certo, consuma di +? si ma quel che conta son sempre le prestazioni se andrà di +....il buco nell'acqua lo avrà fatto di nuovo ati non conterà quanto costa la scheda ad nvidia.
e ripeto quella è la prima risposta quindi intanto nvidia batte ati 1 a niente. poi se ati pareggia o passerà in vantaggio ci sono A i 55nm e B(connessa ad A) le frequenze maggiorate.
quindi alla nVidia potevano mai aver pianificato "fin dall'inizio" un 9800GTX vs 4850, 3 mesi dopo il lancio della 9800GTX? certo che si. che credi che nvidia abbia scoperto la 4850 leggendo fudzilla?
io son due mesi almeno che vi sto dicendo 9800gtx vs 4850(o come la si chiamava allora)e se lo so io non lo sa nvidia?
Mercuri0
06-06-2008, 12:56
Questo sarebbe la conferma di quella slide sui consumi e sarebbe sicuramente cosa buona e giusta :D
Veramente si stanno riferendo proprio a quella slide, non confermandola ;)
Comunque non abbiamo nessun motivo di credere che non sia vera (l'unico dubbio è se c'entra l'hybrid power o no, ma imo credo di no)
halduemilauno
06-06-2008, 12:57
e a quale esigenza risponde l'aver cambiato il nome alla 8800GT in 9800GT?
bYeZ!
serie 9 fa + figo di serie 8. no? da l'idea di nuovo, di(attuale)ultimo prodotto, ultima serie fatta, che si sta facendo.
Kharonte85
06-06-2008, 12:58
Veramente si stanno riferendo proprio a quella slide, non confermandola ;)
Comunque non abbiamo nessun motivo di credere che non sia vera (l'unico dubbio è se c'entra l'hybrid power o no, ma imo credo di no)
non avevo cliccato sul link...:doh:
gianni1879
06-06-2008, 13:00
quindi secondo te nvidia sapeva gia tre mesi fa come andava la 4850? :rolleyes:
infatti è quello che ho fatto notare qualche post sopra, ma nessuno l'ha letto, semmai è proprio il contrario amd risponderà con la hd4850 contro la 9800gtx visto gli ordini cronologici...
io sto dicendo(intanto confermo tutto quanto detto sulla 9800gtx)che nvidia ovviamente gia sapeva (+ o -)quel che bolliva in pentola amd e quindi ha (in un certo senso)anticipato le mosse dell'avversario ovvero ha creato le basi per un confronto che è ancora tutto da vedere se lo perderà. intanto è pronta di 9800gtx se ne vendono moltissime anche per merito oltre che della sua bontà del prezzo che via via è andato calando e fra tre settimane vedremo i bench. costerà di +? certo, consuma di +? si ma quel che conta son sempre le prestazioni se andrà di +....il buco nell'acqua lo avrà fatto di nuovo ati non conterà quanto costa la scheda ad nvidia.
e ripeto quella è la prima risposta quindi intanto nvidia batte ati 1 a niente. poi se ati pareggia o passerà in vantaggio ci sono A i 55nm e B(connessa ad A) le frequenze maggiorate.
quindi alla nVidia potevano mai aver pianificato "fin dall'inizio" un 9800GTX vs 4850, 3 mesi dopo il lancio della 9800GTX? certo che si. che credi che nvidia abbia scoperto la 4850 leggendo fudzilla?
io son due mesi almeno che vi sto dicendo 9800gtx vs 4850(o come la si chiamava allora)e se lo so io non lo sa nvidia?
Be seguendo il tuo ragionamento, pero' dalla parte di AMD, vedendo dopo 3 mesi circa come si comporta la 9800GTX e il suo prezzo ormai arrivato quasi ai limiti di bassezza, perhce' fare una 4850 che va meno/quasi della 9800GTX? nn avrebbe senso, invece fare uan VGA 4850 dalla prestazioni uguali e magari superiori coi filtri attivi e con consumi e temeprature + basse ad un prezzo inferiore sarebbe la cosa + sensata, pero' questo nn vuol dire che AMD faccia la cosa + sensata ^^^^^^^^
serie 9 fa + figo di serie 8. no? da l'idea di nuovo, di(attuale)ultimo prodotto, ultima serie fatta, che si sta facendo.
allora per favore, consiglialo agli acquirenti nVidia di non confondere sul fatto di aver cambiato nome, ribadendo sinceramente che si tratta sempre della solita minestra riscaldata :)
La 3950 imho avra' il reparto shader cloccato a frequenze superiori, come pare sara' anche per le 48x0.
bYeZ!
quindi secondo te nvidia sapeva gia tre mesi fa come andava la 4850? :rolleyes:
LORO sanno tutto. :O :ave:
gianni1879
06-06-2008, 13:04
e a quale esigenza risponde l'aver cambiato il nome alla 8800GT in 9800GT?
bYeZ!
abbassare i costi, guadagnarci di più ed in un certo senso "ingannare" il consumatore facendogli pensare che sia una vga più potente ...
abbassare i costi, guadagnarci di più ed in un certo senso "ingannare" il consumatore facendogli pensare che sia una vga più potente ...
infatti, ed a sentire halduemilauno, questa operazione di marketing e' quasi degna di lode :)
E mi viene a criticare la 3950 non sapendo nemmeno lui cosa avra' in piu' della 3870 :p
bYeZ!
abbassare i costi, guadagnarci di più ed in un certo senso "ingannare" il consumatore facendogli pensare che sia una vga più potente ...
Quoto sopratutto "l'ingannare" come da ormai diversi mesi fa Nvidia buttando fuori una marea si VGA ma che alla fine son sempre le stesse.
Mercuri0
06-06-2008, 13:08
io sto dicendo [....]
Secondo me invece nVidia è stata presa di sorpresa dalla scelta di AMD di puntare sulla fascia media al lancio, perché si aspettava di poter ripetere quanto successo all'introduzione della serie 8xxx, lanciando la fascia alta e vendendo con tranquillità i G92 in fascia media, che ora invece si troverà a dover svendere.
Anche se nVidia avesse saputo del collocamento di R770 sei mesi prima del lancio, il tempo non le sarebbe bastato.
Comunque queste sono solo le mie opinioni, eh.
Invece sullo schedaVSscheda preferisco proprio non entrare in merito perché di solito per i fanboy (non che io stia dicendo che tu sia un fanboy - non c'è bisogno ;) ) prima scelgono arbitrariamente il contendente in modo che a vincere sia l'amata, e poi le cose che "contano" sono solo le qualità della squadra di cui si fa il tifo, e quando esce una nuova scheda che magari ha qualità opposte, magicamente cambiano anche le qualità che "contano".
Che ci si può fare, così va la vita :)
SSLazio83
06-06-2008, 13:09
infatti, ed a sentire halduemilauno, questa operazione di marketing e' quasi degna di lode :)
xkè nn ti pare geniale?
purtroppo è questo il commercio....:mc:
Kharonte85
06-06-2008, 13:13
LORO sanno tutto. :O :ave:
:asd:
abbassare i costi, guadagnarci di più ed in un certo senso "ingannare" il consumatore facendogli pensare che sia una vga più potente ...
Non c'è da meravigliarsi...lo fece anche AMD a suo tempo anche se sulla fascia bassa x1300 --> x1550...e credo che il vizietto se lo terranno entrambe (Nvidia e AMD) per la prossima occasione...:mc:
halduemilauno
06-06-2008, 13:13
allora per favore, consiglialo agli acquirenti nVidia di non confondere sul fatto di aver cambiato nome, ribadendo sinceramente che si tratta sempre della solita minestra riscaldata :)
La 3950 imho avra' il reparto shader cloccato a frequenze superiori, come pare sara' anche per le 48x0.
bYeZ!
splendida minestra riscaldata. stai pur certo che ribadirò e farò presente questo. splendida minestra riscaldata. tanto splendida che batte la tua in ogni dove.
la 3950 la batterà? vedremo. intanto questa splendida minestra riscaldata continuerà a battere la tua.
halduemilauno
06-06-2008, 13:16
infatti, ed a sentire halduemilauno, questa operazione di marketing e' quasi degna di lode :)
E mi viene a criticare la 3950 non sapendo nemmeno lui cosa avra' in piu' della 3870 :p
bYeZ!
degnissima. fa fare + soldi alla società. e niente a scapito di chicce e sia.
Mercuri0
06-06-2008, 13:16
splendida minestra riscaldata. stai pur certo che ribadirò e farò presente questo. splendida minestra riscaldata. tanto splendida che batte la tua in ogni dove.
la 3950 la batterà? vedremo. intanto questa splendida minestra riscaldata continuerà a battere la tua.
La "mia" la "tua"... abbiamo i progettisti nVidia e AMD tra noi e non ce ne eravamo accorti!! :D
Oki x oggi vi lascio mi sa che la discussione si sta spostando su binari che non mi interessano, e ho già cazzeggiato abbastanza stamane. :D
halduemilauno
06-06-2008, 13:21
Secondo me invece nVidia è stata presa di sorpresa dalla scelta di AMD di puntare sulla fascia media al lancio, perché si aspettava di poter ripetere quanto successo all'introduzione della serie 8xxx, lanciando la fascia alta e vendendo con tranquillità i G92 in fascia media, che ora invece si troverà a dover svendere.
Anche se nVidia avesse saputo del collocamento di R770 sei mesi prima del lancio, il tempo non le sarebbe bastato.
Comunque queste sono solo le mie opinioni, eh.
Invece sullo schedaVSscheda preferisco proprio non entrare in merito perché di solito per i fanboy (non che io stia dicendo che tu sia un fanboy - non c'è bisogno ;) ) prima scelgono arbitrariamente il contendente in modo che a vincere sia l'amata, e poi le cose che "contano" sono solo le qualità della squadra di cui si fa il tifo, e quando esce una nuova scheda che magari ha qualità opposte, magicamente cambiano anche le qualità che "contano".
Che ci si può fare, così va la vita :)
assolutamente no. secondo te ati faceva uscire prima la dual e poi la scheda a un singolo chip? te l'ho gia detto e te lo ripeto il fatto che tu non sappia non significa che io non sappia e che altri non sappiano o possono non sapere.
per il resto quanto da te detto vale anche per te e per tanti altri di voi.
detto questo ti ho detto tutto.
halduemilauno
06-06-2008, 13:23
La "mia" la "tua"... abbiamo i progettisti nVidia e AMD tra noi e non ce ne eravamo accorti!! :D
Oki x oggi vi lascio mi sa che la discussione si sta spostando su binari che non mi interessano, e ho già cazzeggiato abbastanza stamane. :D
il termine "mia" non l'ho detto. ho usato il termine "tua" proprio per indicare la sua scheda.
si ce ne siamo accorti.
LORO sanno tutto. :O :ave:
Sono in mezzo a noi, ci spiano, ci controllano, in questo momento potrebbero essere lì che vi osservano senza che ve ne accorgiate...
Fate molta attenzione... :Perfido:
appleroof
06-06-2008, 13:48
Piccola conferma al fatto che la 9800GT dovrebbe essere un semplice rebranding della 8800GT (un pezzo di slide NVidia o di qualche partner).
http://img.donanimhaber.com/resimler/geforce8800gt_9800gt_fx57.jpg
piccola conferma? ma come si fà a postare ste cose? :asd: :asd: Ma che lingua è??? :asd: :asd: :asd: :asd:
halduemilauno
06-06-2008, 13:49
piccola conferma? ma come si fà a postare ste cose? :asd: :asd: Ma che lingua è??? :asd: :asd: :asd: :asd:
turco.
;)
appleroof
06-06-2008, 13:50
turco.
;)
mamma li turchi!! :sbonk: :sbonk:
non almeno il marchio Nvidia no eh?? :asd:
mamma li turchi!! :sbonk: :sbonk:
non almeno il marchio Nvidia no eh?? :asd:
Come, Uyari vuol dire Nvidia non lo sapevi? :asd:
Piccola conferma al fatto che la 9800GT dovrebbe essere un semplice rebranding della 8800GT (un pezzo di slide NVidia o di qualche partner).
Io veramente ci speravo in qualcosa di nuovo...
se è veramente un rebranding pompato di brutto per me sarebbe una bella delusione... speriamo bene che non lo sia
splendida minestra riscaldata. stai pur certo che ribadirò e farò presente questo. splendida minestra riscaldata. tanto splendida che batte la tua in ogni dove.
la 3950 la batterà? vedremo. intanto questa splendida minestra riscaldata continuerà a battere la tua.
il mio problema non e' essere sorpassato o meno da una scheda di qualche altro, io discuto semplicemente le scelte di mercato e non gradisco quelle che si tengono in piedi grazie all'inganno.
bYeZ!
gianni1879
06-06-2008, 13:56
:asd:
Non c'è da meravigliarsi...lo fece anche AMD a suo tempo anche se sulla fascia bassa x1300 --> x1550...e credo che il vizietto se lo terranno entrambe (Nvidia e AMD) per la prossima occasione...:mc:
ed è una cosa buona questo continuo ingannare il consumatore?
secondo me no!
Nvidia sta un pò calcando questo discorso ultimamente, non mi pare ci siano molti dubbi.
Facciamoci prendere per il sedere passivamente...
degnissima. fa fare + soldi alla società. e niente a scapito di chicce e sia.
te la facciamo da anni sta domanda ma non hai mai risposto..
lavori alla nVidia? i loro soldi sono anche i tuoi?
senza considerare che ancora non hai capito la storia dei guadagni/margini..vabbe :)
ps: quando ati ha cambiato nome alla serie 2xxx alla 3xxx non mi sembra che i tuoi giudizi siano stati cosi' clementi...
bYeZ!
appleroof
06-06-2008, 13:59
Come, Uyari vuol dire Nvidia non lo sapevi? :asd:
avevo trovato una slide in dialetto congolese (ne sono sicuro perchè c'era scritto "Qh'talehx" che in quel dialetto vuol dire Nvidia) ma non l'ho postata per il timore che nessuno la capisse :sofico: (l'avrei fatto se avessi trovato il congolese non dialetto, ma purtroppo non l'ho trovata :D :D :D )
vabbè basta dai, ma certe cose sono troppo lollose :asd: :asd:
il mio problema non e' essere sorpassato o meno da una scheda di qualche altro, io discuto semplicemente le scelte di mercato e non gradisco quelle che si tengono in piedi grazie all'inganno.
bYeZ!
quoto e straquoto.
Personalmente sono sensibile a questo genere di politiche e baso le mie scelte anche su questo (Stò parlando per me, non per le masse).
avevo trovato una slide in dialetto congolese (ne sono sicuro perchè c'era scritto "Qh'talehx" che in quel dialetto vuol dire Nvidia) ma non l'ho postata per il timore che nessuno la capisse :sofico: (l'avrei fatto se avessi trovato il congolese non dialetto, ma purtroppo non l'ho trovata :D :D :D )
vabbè basta dai, ma certe cose sono troppo lollose :asd: :asd:
Beh ma tanto di che vuoi parlare? :D Abbiamo già parlato di tutto il parlabile, mancano 11 giorni alla fine dell'NDA, ormai aspettiamo sto poco tempo e poi vediamo finalmente di che pasta è fatta sta benedetta GTX 280 e soprattutto quanti dindini ci saranno da sborsare. :rolleyes:
appleroof
06-06-2008, 14:05
Ma chi ve lo dice di comprarla per forza?? :asd:
devi comprare una scheda "x", ti informi (spero, e da tutti i punti di vista) sulle sue caratteristiche e vedi se va bene per te, e poi decidi.
Vogliamo discutere di moralità? E' morale far uscire una x1800 a 500€ e dopo sei mesi la x1900? la 2900xt e dopo sei mesi la 3870 a metà prezzo consumi ecc?
Ma dai....
appleroof
06-06-2008, 14:05
Beh ma tanto di che vuoi parlare? :D Abbiamo già parlato di tutto il parlabile, mancano 11 giorni alla fine dell'NDA, ormai aspettiamo sto poco tempo e poi vediamo finalmente di che pasta è fatta sta benedetta GTX 280 e soprattutto quanti dindini ci saranno da sborsare. :rolleyes:
giusto (allora posto quella slide vietnamita che tenevo da parte per discuterne :asd: )
halduemilauno
06-06-2008, 14:08
il mio problema non e' essere sorpassato o meno da una scheda di qualche altro, io discuto semplicemente le scelte di mercato e non gradisco quelle che si tengono in piedi grazie all'inganno.
bYeZ!
ma non è che non lo gradisci perchè ati da tempo non è + in grado di fare manovre simili in quanto non ha chip validi da continuare a proporre?
cmq si prende atto del tuo sdegno. personalmente se il chip è valido(e/o può continuare ad esserlo)non ci vedo niente di male. non è tanto una furbata ma un'opportunità che una società ha in + perchè non giocarsela.
mia opinione.
halduemilauno
06-06-2008, 14:10
Ma chi ve lo dice di comprarla per forza?? :asd:
devi comprare una scheda "x", ti informi (spero, e da tutti i punti di vista) sulle sue caratteristiche e vedi se va bene per te, e poi decidi.
Vogliamo discutere di moralità? E' morale far uscire una x1800 a 500€ e dopo sei mesi la x1900? la 2900xt e dopo sei mesi la 3870 a metà prezzo consumi ecc?
Ma dai....
sei settimane. o poco +.
;)
gianni1879
06-06-2008, 14:21
Ma chi ve lo dice di comprarla per forza?? :asd:
devi comprare una scheda "x", ti informi (spero, e da tutti i punti di vista) sulle sue caratteristiche e vedi se va bene per te, e poi decidi.
Vogliamo discutere di moralità? E' morale far uscire una x1800 a 500? e dopo sei mesi la x1900? la 2900xt e dopo sei mesi la 3870 a metà prezzo consumi ecc?
Ma dai....
forse non ricordi quanto costava la x1900xtx, la 1800xt uscì in ritardo per vari problemi, la x1900xtx seguì la tabella di marcia senza ritardi.
con g92 uscita, rv670 doveva farla pagare quanto r600?? e chi se la comprava...
anche nvidia con g92 ha abbassato i prezzi di vendita rispetto a g80, Non mi pare ci sia nulla di ingannevole, si sa che l'evoluzione c'è in questo campo.
diverso il discorso di lanciare una nuova vga con un nome nuovo, ma identica alla precente serie allo stesso prezzo o più cara.
ma non è che non lo gradisci perchè ati da tempo non è + in grado di fare manovre simili in quanto non ha chip validi da continuare a proporre?
cmq si prende atto del tuo sdegno. personalmente se il chip è valido(e/o può continuare ad esserlo)non ci vedo niente di male. non è tanto una furbata ma un'opportunità che una società ha in + perchè non giocarsela.
mia opinione.
Opinione personale.
Manovre simili per me rappresentano solo una caduta di stile da parte dell'azienda.
si prenda atto anche del mio sdegno.
Marko#88
06-06-2008, 14:26
No. Un 88GT e basta, con il nome diverso.
Avevo letto 730mhz per il core, svarione mattutino...:D
serie 9 fa + figo di serie 8. no? da l'idea di nuovo, di(attuale)ultimo prodotto, ultima serie fatta, che si sta facendo.
Quindi sostanzialmente per inchiappettare gli utonti...:D
sono palesemente ironico eh...però un fondo di veritò c'è, anche se ovviamente capisco il punto di vista di nvidia, il suo scopo è fare soldi alla fine...
Ciao,è uscito qualche bench on ufficiale? :stordita:
piccola conferma? ma come si fà a postare ste cose? :asd: :asd: Ma che lingua è??? :asd: :asd: :asd: :asd:
mamma li turchi!! :sbonk: :sbonk:
non almeno il marchio Nvidia no eh?? :asd:
Ora va bene? http://img210.imageshack.us/img210/6389/pattsb0.gif
http://img237.imageshack.us/img237/2469/9800gtrs9.png
-noxius-
06-06-2008, 15:10
diverso il discorso di lanciare una nuova vga con un nome nuovo, ma identica alla precente serie allo stesso prezzo o più cara.
Ovvero 8800 GTS 512 vs 9800GTX
Metti un pò fianco a fianco la 4850 e la 9800GTX, come prezzi, costi, dimensioni, TDP (per le prestazioni per ora abbiamo solo i rumor - ci aspettiamo che siano li) e vedi un pò se alla nVidia potevano mai aver pianificato "fin dall'inizio" un 9800GTX vs 4850, 3 mesi dopo il lancio della 9800GTX.
Mercurio, ancora non lo hai capito ? nVIDIA aveva pianificato tutto sin dall'inizio ...voleva dimostrare a tutti che ce l'aveva più grosso , sotto ogni punto di vista (eccetto , sembra , nelle prestazioni ) :ciapet:
splendida minestra riscaldata. stai pur certo che ribadirò e farò presente questo. splendida minestra riscaldata. tanto splendida che batte la tua in ogni dove.
la 3950 la batterà? vedremo. intanto questa splendida minestra riscaldata continuerà a battere la tua .
Stai dicendo che la 9800GT batterà la 3950 ? E dove lo hai letto ? Hehe, non ti smentisci mai , che tristezza .. Pur di mettere AMD DIETRO preferiresti camminare sui carboni ardenti (ti pagassero almeno , lo potrei capire :ciapet: )
degnissima. fa fare + soldi alla società. e niente a scapito di chicce e sia.
Quindi sarebbe un comportamento ''DEGNISSIMO'' FREGARE SOLDI ALLA GENTE METTENDO IN COMMERCIO PURI REBRAND PER SPENNARE QUATTRO ''IDIOTI'' DISINFORMATI ? OH cristo cosa mi tocca sentire ..
Io veramente ci speravo in qualcosa di nuovo...
se è veramente un rebranding pompato di brutto per me sarebbe una bella delusione... speriamo bene che non lo sia
La 9800GTX credo che ci abbia già insegnato abbastanza, ovvero del fatto che secondo nVIDIA abbiamo un'etichetta con scritto in fronte ''coglione da spennare'' , comportamento ormai leggittimato dall' HAL2001 qui presente :doh:
PREVISIONI DI HAL (me lo potrei metter in firma :) ) :
-9800GT>3950 ( ''intanto questa minescra riscaldata batterà la ''tua'' ..'' )
-280GTX> del 50% IN MEDIA rispetto ad una 9800GX2
sei settimane. o poco +.
;)
Vogliamo parlare della 9800GX2 che e' appena sucita e costava 600€ al lancio ed ora esce il GTX280 che dovrebbe andare d+ essere una sola VGA e costare di certo nn d+, se poi conti quante schede sono uscite della sere 8800 e 9xxx c'e' da mettersi le mani nei capelli(visto che son sempre le stesse), e per finere ora ripropongono ANCORA una 9800GT che nn serve a nulla.
Che poi Nvidia faccia cosi per gudagnare e' ok mi sta bene, ma nn e' una buona ragione per nn mettere sul mercato nuovi prodotti e nn minestre riscaldate(dopo un anno emmezzo nn an fatto uan SK che va meglio delle 88GTX/ULTRA se nn al 9800gx2), infatti gia' con diversi amici possessori di VGA serie 8800GT/GTS abbiamo storto nn poco il naso ultimamente nei confronti di Nvidia, per esempio un amico qui del forum si e' preso uan 8800GTS XFX g92 pagata la bellezza di 310€ ed era gia' usicta da un pokino, guarda ora a che prezzo sta la suddetta skeda^^ in+ ci abbiamo fatto un po' di test rispetto ad una delle mie GT e vanno praticamente uguali se nn che la sua si occa meglio per il resto nn ci sono margini di prestazioni che razionalizzavano il cosi alto divario di prezzo dalla sua GTS alla mia GT.
PS. nn sono fan boy ne Nvidia ne ATI, compro solo quello che ritengo + giusto per me dando sempre il giuto peso a soldi anche se si hanno.
Scusate che caratteristiche ha la HD3950? e con quale scheda Nvidia si scontrerà? grazie :rolleyes:
appleroof
06-06-2008, 15:46
sei settimane. o poco +.
;)
esatto
forse non ricordi quanto costava la x1900xtx, la 1800xt uscì in ritardo per vari problemi, la x1900xtx seguì la tabella di marcia senza ritardi.
con g92 uscita, rv670 doveva farla pagare quanto r600?? e chi se la comprava...
anche nvidia con g92 ha abbassato i prezzi di vendita rispetto a g80, Non mi pare ci sia nulla di ingannevole, si sa che l'evoluzione c'è in questo campo.
diverso il discorso di lanciare una nuova vga con un nome nuovo, ma identica alla precente serie allo stesso prezzo o più cara.
e va bene, basta informarsi
ciascuno può sdegnarsi quanto vuole, è giusto, ma non dimentichiamo che parliamo di aziende che devono tendere a fare soldi, non beneficenza
non sono contento di questo e sarà cinico ma è così: l'utente che spende anche 10 euro deve informarsi, sempre e comunque (nei limiti del possibile delle sue cognizioni, al limite si fà dare una mano), altrimenti se la cerca anche lui no?
cmq se avessi comprato la 8800gtx e dopo sei settimane fosse uscita la gtx280 allo stesso prezzo o giù di lì, avrei smadonnato non credi? magari me la sarei dovuta prendere con me stesso perchè non mi sono informato bene (ammesso che ci fossero info in tempo, e di g92 rimarchiato si sà da settimane prima che esca sul mercato)
Ora va bene? http://img210.imageshack.us/img210/6389/pattsb0.gif
http://img237.imageshack.us/img237/2469/9800gtrs9.png
dai si scherza, capirai che quella slide era quantomeno comica, almeno io l'ho trovata così :friend:
peace! :D
halduemilauno
06-06-2008, 15:48
Ovvero 8800 GTS 512 vs 9800GTX
Mercurio, ancora non lo hai capito ? nVIDIA aveva pianificato tutto sin dall'inizio ...voleva dimostrare a tutti che ce l'aveva più grosso , sotto ogni punto di vista (eccetto , sembra , nelle prestazioni ) :ciapet:
Stai dicendo che la 9800GT batterà la 3950 ? E dove lo hai letto ? Hehe, non ti smentisci mai , che tristezza .. Pur di mettere AMD DIETRO preferiresti camminare sui carboni ardenti (ti pagassero almeno , lo potrei capire :ciapet: )
Quindi sarebbe un comportamento ''DEGNISSIMO'' FREGARE SOLDI ALLA GENTE METTENDO IN COMMERCIO PURI REBRAND PER SPENNARE QUATTRO ''IDIOTI'' DISINFORMATI ? OH cristo cosa mi tocca sentire ..
La 9800GTX credo che ci abbia già insegnato abbastanza, ovvero del fatto che secondo nVIDIA abbiamo un'etichetta con scritto in fronte ''coglione da spennare'' , comportamento ormai leggittimato dall' HAL2001 qui presente :doh:
PREVISIONI DI HAL (me lo potrei metter in firma :) ) :
-9800GT>3950 ( ''intanto questa minescra riscaldata batterà la ''tua'' ..'' )
-280GTX> del 50% IN MEDIA rispetto ad una 9800GX2
ho detto "la batterà?"(notare il ?) "vedremo" (notare anche questo).
halduemilauno
06-06-2008, 15:50
Vogliamo parlare della 9800GX2 che e' appena sucita e costava 600€ al lancio ed ora esce il GTX280 che dovrebbe andare d+ essere una sola VGA e costare di certo nn d+, se poi conti quante schede sono uscite della sere 8800 e 9xxx c'e' da mettersi le mani nei capelli(visto che son sempre le stesse), e per finere ora ripropongono ANCORA una 9800GT che nn serve a nulla.
Che poi Nvidia faccia cosi per gudagnare e' ok mi sta bene, ma nn e' una buona ragione per nn mettere sul mercato nuovi prodotti e nn minestre riscaldate(dopo un anno emmezzo nn an fatto uan SK che va meglio delle 88GTX/ULTRA se nn al 9800gx2), infatti gia' con diversi amici possessori di VGA serie 8800GT/GTS abbiamo storto nn poco il naso ultimamente nei confronti di Nvidia, per esempio un amico qui del forum si e' preso uan 8800GTS XFX g92 pagata la bellezza di 310€ ed era gia' usicta da un pokino, guarda ora a che prezzo sta la suddetta skeda^^ in+ ci abbiamo fatto un po' di test rispetto ad una delle mie GT e vanno praticamente uguali se nn che la sua si occa meglio per il resto nn ci sono margini di prestazioni che razionalizzavano il cosi alto divario di prezzo dalla sua GTS alla mia GT.
PS. nn sono fan boy ne Nvidia ne ATI, compro solo quello che ritengo + giusto per me dando sempre il giuto peso a soldi anche se si hanno.
ma informarsi prima no?
http://www.matbe.com/images/biblio/refroidissement/000000071956.jpg
http://www.matbe.com/images/biblio/refroidissement/000000071958.jpg
Quoiqu'il en soit, même si son nom n'est pas très original, il n'en est pas moins impressionnant avec ses deux ventilateurs de 120mm et pas moins de 6 heatpipes de gros diamètre (6mm apparemment comme le premier Chilla). Coolink l'annonce comme capable de refroidir le GT200 ou le RV770. Nous avons d'ailleurs plutôt tendance à le croire en voyant sur les photos son air de famille avec un radiateur de voiture...
http://www.matbe.com/actualites/39191/coolink-big-gfxchilla/
Ma il radiatore é quello di una twingo adattato per una GTX280? :D
gianni1879
06-06-2008, 16:22
esatto
e va bene, basta informarsi
ciascuno può sdegnarsi quanto vuole, è giusto, ma non dimentichiamo che parliamo di aziende che devono tendere a fare soldi, non beneficenza
non sono contento di questo e sarà cinico ma è così: l'utente che spende anche 10 euro deve informarsi, sempre e comunque (nei limiti del possibile delle sue cognizioni, al limite si fà dare una mano), altrimenti se la cerca anche lui no?
cmq se avessi comprato la 8800gtx e dopo sei settimane fosse uscita la gtx280 allo stesso prezzo o giù di lì, avrei smadonnato non credi? magari me la sarei dovuta prendere con me stesso perchè non mi sono informato bene (ammesso che ci fossero info in tempo, e di g92 rimarchiato si sà da settimane prima che esca sul mercato)
dai si scherza, capirai che quella slide era quantomeno comica, almeno io l'ho trovata così :friend:
peace! :D
certo basta attenti ed informarsi, non lo metto in dubbio, quanti però lo fanno?
non dobbiamo tener presente hwup e simili che non rappsentano la maggioranza, all'epoca saltai r520 proprio per l'imminente uscità di r580.
nel campo informatico succede, però occhio a non farsi fregare
ma informarsi prima no?
Hai idea di quanti milioni siamo solo in italia? e di quanti pokissimi come noi si informano bene di tutto? in + un sacco di gente(la maggior parte) arriva in negozio o al centro commerciale e chiede li direttamente e ovviamente gli rifilano anche le minestre super riscaldate come roba uber nuova e pro.
Cmq e' uan politica di emrcato che a me nn piace affatto e che di certo nn servova a Nvidia per campare, nn mi sembra che muoiano di fame^^
Hai idea di quanti milioni siamo solo in italia? e di quanti pokissimi come noi si informano bene di tutto? in + un sacco di gente(la maggior parte) arriva in negozio o al centro commerciale e chiede li direttamente e ovviamente gli rifilano anche le minestre super riscaldate come roba uber nuova e pro.
Cmq e' uan politica di emrcato che a me nn piace affatto e che di certo nn servova a Nvidia per campare, nn mi sembra che muoiano di fame^^
Si puó condividere o meno, ma per nVidia questa politica é necessaria.
Con g92 i margini sono bassi e con l' avvento delle 4850 devono correre ai ripari per non abbassare troppo il loro prezzo e non guadagnarci niente, o peggio, perderci ;)
Ed ecco i 55nm anche per loro :)
Enochian
06-06-2008, 18:53
Fuori i bench; hanno le schede da qualche gorno, ma che si sono murati vivi nelle redazioni fulminati dai 120 fps di crysis?
DriftKing
06-06-2008, 19:03
Fuori i bench; hanno le schede da qualche gorno, ma che si sono murati vivi nelle redazioni fulminati dai 120 fps di crysis?
:asd: a 800x600 :asd:
p.s. anche io sono in attesa dei bench :)
Enochian
06-06-2008, 19:06
Ma nemmeno secondo me a 640 x 480, no AA no singoli si automuniti :read:
Fuori i bench; hanno le schede da qualche gorno, ma che si sono murati vivi nelle redazioni fulminati dai 120 fps di crysis?
Si e' vero ormai i test dovrebbero esserci, ne da parte di Nvidia ne da parte di ATI si vede nulla pero', questa attesa e' un po' stressante -_-' che barba
-noxius-
06-06-2008, 19:24
Fuori i bench; hanno le schede da qualche gorno, ma che si sono murati vivi nelle redazioni fulminati dai 120 fps di crysis?
Veramente io mi aspetto qualcosa come 130-140 fps a 1024x768 tutto su medium solo per la 260 (molto ma molto in teoria, anzi dovrebbe fare pure almeno 150 ma vai a capire..) , con una gtx ad 830 di core ha segnato 98 fps ..
Kharonte85
06-06-2008, 19:27
ed è una cosa buona questo continuo ingannare il consumatore?
secondo me no!
Nvidia sta un pò calcando questo discorso ultimamente, non mi pare ci siano molti dubbi.
Facciamoci prendere per il sedere passivamente...
Be' dai io non ho mica detto che è giusto...:p
dico solo che le cose stanno cosi' e che lo fanno entrambe (altro ES: HD2400--->HD3400 e HD2600--->HD3600 altra minestra riscaldata a cui non corrispondono aumenti prestazionali rilevanti [a parte qualche features in più]) quindi cerco solo di vedere la realtà per come è...inutile fare dei moralismi, l'unica cosa che si puo' fare per prevenire cio' è informarsi per vedere se il prodotto è buono o no. non c'è altro da fare. :fagiano:
Enochian
06-06-2008, 19:38
Veramente io mi aspetto qualcosa come 130-140 fps a 1024x768 tutto su medium solo per la 260 (molto ma molto in teoria, anzi dovrebbe fare pure almeno 150 ma vai a capire..) , con una gtx ad 830 di core ha segnato 98 fps ..
A noi possessori di 24'' interessa molto a 1920x1200.
Io faccio la mia previsione, sperando di sbagliare : per me a quella res very high senza effetti farà una media di 45 fps, praticamente un po' di più della 9800gx2, ma poco.
Enochian
06-06-2008, 19:43
Si e' vero ormai i test dovrebbero esserci, ne da parte di Nvidia ne da parte di ATI si vede nulla pero', questa attesa e' un po' stressante -_-' che barba
Sembra parecchio strano, perchè mettiamo che nvidia abbia creato un gap prestazionale molto forte con la precedente generazione con il 280, facendo uscire prima i bench che lo comprovino creerebbe dell' hype a tutto vantaggio delle sue tasche invogliando gli enthusiasts a spendere.
In caso contrario si spiegherebbe il ritardo : perchè una nuova gen che avesse un rendimento soltanto marginale rispetto alla precedente sicuramente non avrebbe impatto mediatico particolare.
-noxius-
06-06-2008, 19:45
effetto GX2 , evidentemente ... un pò come per la 7950GX2 vs 8800gtx :read:
Enochian
06-06-2008, 19:47
Certo ma ora basta, sembra il segreto di stato, mostrate sti bench, così chi deve decidere se prendere 280 o gx2 ha le idee più chiare : se 280 non fa il salto generazionale gx2 che costa la metà.
halduemilauno
06-06-2008, 19:55
Certo ma ora basta, sembra il segreto di stato, mostrate sti bench, così chi deve decidere se prendere 280 o gx2 ha le idee più chiare : se 280 non fa il salto generazionale gx2 che costa la metà.
ma come si fa a mostrare dei bench se chi ha(ufficialmente)la scheda ha firmato un nda ovvero un'accordo a non discuterne? 17 giugno ore 15 scade l'nda.
;)
ps certo una fughina di notizie e qualcosa un pò prima...fine prossima settimana da quelli che non hanno firmato.
vorrei sapere se con una gtx280 mi gira campo fiorito fluido a mazzetta...?
halduemilauno
06-06-2008, 20:00
vorrei sapere se con una gtx280 mi gira campo fiorito fluido a mazzetta...?
a quale risoluzione?
principe081
06-06-2008, 20:05
Fossi stato in nVidia avrai fatto una pubblicità più massiccia prima dell'uscita invece di far finta ke non esista niente. Come fa la gente a informarsi se una scheda è buona o meno se non c'è uno straccio di recensione da nessuna parte? Da quando in qua le recensioni si fanno lo stesso giorno ke un oggetto è sul mercato? Ba pessima politica di marketing, se fanno flop ben gli sta!!
-noxius-
06-06-2008, 20:13
Fossi stato in nVidia avrai fatto una pubblicità più massiccia prima dell'uscita invece di far finta ke non esista niente. Come fa la gente a informarsi se una scheda è buona o meno se non c'è uno straccio di recensione da nessuna parte? Da quando in qua le recensioni si fanno lo stesso giorno ke un oggetto è sul mercato? Ba pessima politica di marketing, se fanno flop ben gli sta!!
2900 Pro ...non si sapeva una mazza nemmeno dopo la sua uscita ..
secondo voi come andrà la GTX260 rispetto alla 9800GX2?
Enochian
06-06-2008, 20:31
Difficile da dire in concreto perchè dipenderà dal singolo gioco. Probabilmente sarà allineata alla gx2 in quanto a prestazioni, o poco più.
secondo voi come andrà la GTX260 rispetto alla 9800GX2?
10% in piu
secondo voi come andrà la GTX260 rispetto alla 9800GX2?
Dipende, la gx2 ha prestazioni troppo altalenanti per un confronto diretto teorico.
DriftKing
06-06-2008, 22:07
secondo voi come andrà la GTX260 rispetto alla 9800GX2?
imho sul 5-10% in+ ... pero e anche vero quello che ha detto The_SaN ...
Foglia Morta
06-06-2008, 22:38
http://www.vr-zone.com/articles/GeForce_GTX_280_Card_Stripped_Naked/5856.html
http://resources.vr-zone.com//newspics/Jun08/07/GTX280_cards.jpg
http://resources.vr-zone.com//newspics/Jun08/07/GTX280_core.jpg
http://www.vr-zone.com/articles/GeForce_GTX_280_Card_Stripped_Naked/5856.html
http://resources.vr-zone.com//newspics/Jun08/07/GTX280_cards.jpg
http://resources.vr-zone.com//newspics/Jun08/07/GTX280_core.jpg
E' un chippone
Mister Tarpone
07-06-2008, 00:11
un bel chippettone si... pure lo smile è bello.. :asd:
michelgaetano
07-06-2008, 00:27
porca miseria se è grande...
Kharonte85
07-06-2008, 00:33
un bel chippettone si... pure lo smile è bello.. :asd:
Ci avrei messo quello del tuo avatar...:asd:
Mister Tarpone
07-06-2008, 00:36
forse sarebbe stato + azzeccato.... :asd:
halduemilauno
07-06-2008, 07:29
ummmmmmmmm
http://www.vr-zone.com/articles/Radeon_HD_4870_X2_R700_Beats_GeForce_GTX_280/5851.html
gia non reference
http://forums.vr-zone.com/showthread.php?t=285102
http://personal.inet.fi/tiede/kimnice/Gainward%20GTX280.png
quella è una 9600gt...
http://www.bailincomputers.com.au/assets/images/gainward_9600gt.jpg
;)
halduemilauno
07-06-2008, 07:31
per fare un confronto...
http://i114.photobucket.com/albums/n273/Wirmish/GPU-Dies.png
RV670 -> 14,36 mm x 13.37 mm = 192 mm²
RV770 -> 15.65 mm x 15.65 mm = 245 mm²
G92b ---> 16.4 mm x 16.4 mm = 268 mm²
G92 ----> 18 mm x 18 mm = 324 mm²
G200 --> 24 mm x 24 mm = 576 mm²
;)
River Phoenix
07-06-2008, 09:11
Confronto 55 nm vs 65 nm :mbe:
Enochian
07-06-2008, 09:49
Se le dimensioni fossero correlate positivamente con le prestazioni saremmo a cavallo.
Se le dimensioni fossero correlate positivamente con le prestazioni saremmo a cavallo.
neanche tanto ... se non andasse almeno il 90 % in piu di una 9800gtx io, come utente enthusiast, non ne sarei molto soddisfatto ... ;)
gillan85
07-06-2008, 10:15
http://www.yougamers.com/forum/showthread.php?p=913182#post913182
primi benchmark non ufficiali
http://www.yougamers.com/forum/showthread.php?p=913182#post913182
primi benchmark non ufficiali
Fakissimo... http://img111.imageshack.us/img111/6163/patasdmi7hq4.gif
Ecco il post in cui un tizio ammette di aver fatto quel grafico col photoshop sulla base dei rumors. ;)
http://www.xtremesystems.org/forums/showpost.php?p=3040647&postcount=1163
gillan85
07-06-2008, 10:38
che sfiga:cry: .Non era male!!asd
Mercuri0
07-06-2008, 10:42
per fare un confronto...
G200 --> 24 mm x 24 mm = 576 mm²
576mm² dovrebbe essere il limite tecnologico attuale.
Di più 'un si può :D
(anche se scalando a 55nm nVidia potrebbe fare un chip con ancora più transistor)
Foglia Morta
07-06-2008, 11:03
576mm² dovrebbe essere il limite tecnologico attuale.
Di più 'un si può :D
(anche se scalando a 55nm nVidia potrebbe fare un chip con ancora più transistor)
anche perchè è ricomparso l' NVIO che da G80 a G92 era stato riassorbito nel die. Se avessero potuto fare tutto in unico die penso l'avrebbero fatto volentieri
Qualcuno conosce la data precisa dell'uscita della GTX280 e dove poter effettuare un preorder?
Grazie
halduemilauno
07-06-2008, 13:16
Qualcuno conosce la data precisa dell'uscita della GTX280 e dove poter effettuare un preorder?
Grazie
17 giugno. preorder credo intorno al 12/13.
;)
ma ci sono dei bench affidabili coi giochi oppure non è uscito ancora nulla?
anche perchè è ricomparso l' NVIO che da G80 a G92 era stato riassorbito nel die. Se avessero potuto fare tutto in unico die penso l'avrebbero fatto volentieri
di conseguenza sono solo cavolate e pippe mentali, quelle secondo le quali Nvidia non stia dando il max, perche' ATI e' poco competitiva.
Nvidia sta gia' tirando fuori il max di cui al momento e' capace.
Qualcuno conosce la data precisa dell'uscita della GTX280 e dove poter effettuare un preorder?
Grazie
Io aspetterrei almeno i bench sia di ATI che di Nvidia,tanto nell'arco di una settimana s sapra' tutto.
ma ci sono dei bench affidabili coi giochi oppure non è uscito ancora nulla?
Ancora nulla di ufficiale:(
17 giugno. preorder credo intorno al 12/13.
;)
grazie :)
Io aspetterrei almeno i bench sia di ATI che di Nvidia,tanto nell'arco di una settimana s sapra' tutto.
la nuova serie sembra molto interessante, attenderò comunque i bench ufficiali per lasciare la mia 9800gx2be :) non ha neanche un mese di vita poveretta :D
halduemilauno
07-06-2008, 13:38
grazie :)
la nuova serie sembra molto interessante, attenderò comunque i bench ufficiali per lasciare la mia 9800gx2be :) non ha neanche un mese di vita poveretta :D
e allora potevi aspettare a farti la 9800gx2.
Mi serviva dato che ero senza sk video :D
Enochian
07-06-2008, 14:14
Intanto continuano a girare i fake :asd:
http://www.youtube.com/watch?v=QSpgkSUdYs4
michelgaetano
07-06-2008, 14:28
Intanto continuano a girare i fake :asd:
http://www.youtube.com/watch?v=QSpgkSUdYs4
che buffoni :asd:
sommojames
07-06-2008, 15:21
Con l'Enermax Liberty 500 watt posso usare la 280? Me la consigliereste abbinata ad un E6600 e monitor 24'' che comprerei per l'occasione?
per fare un confronto...
http://i114.photobucket.com/albums/n273/Wirmish/GPU-Dies.png
RV670 -> 14,36 mm x 13.37 mm = 192 mm²
RV770 -> 15.65 mm x 15.65 mm = 245 mm²
G92b ---> 16.4 mm x 16.4 mm = 268 mm²
G92 ----> 18 mm x 18 mm = 324 mm²
G200 --> 24 mm x 24 mm = 576 mm²
;)
interessanti vederli così :)
anche perchè è ricomparso l' NVIO che da G80 a G92 era stato riassorbito nel die. Se avessero potuto fare tutto in unico die penso l'avrebbero fatto volentieri
Indice che non era la mancanza di concorrenza a frenarli, ma il limite del know-how tecnologico della stessa azienda.
R700 fa molto paura alla casa californiana per produrlo in fretta ed in furia con un processo "vecchio" :asd:
gianni1879
07-06-2008, 20:47
Indice che non era la mancanza di concorrenza a frenarli, ma il limite del know-how tecnologico della stessa azienda.
R700 fa molto paura alla casa californiana per produrlo in fretta ed in furia con un processo "vecchio" :asd:
adesso sarai messo al rogo per questa eresia... :D
adesso sarai messo al rogo per questa eresia... :D
Francamente non m'importa, sono un fanboy solo delle mie tasche ;)
Tabellina riassuntiva con un po' di nuovi test, by PHK (purtroppo ancora solo bench).
http://bbs.chiphell.com/attachments/month_0806/20080607_52b9dabecf4ee472b1c9sCHFvBdoLGz9.jpg
splendida minestra riscaldata. stai pur certo che ribadirò e farò presente questo. splendida minestra riscaldata. tanto splendida che batte la tua in ogni dove.
la 3950 la batterà? vedremo. intanto questa splendida minestra riscaldata continuerà a battere la tua.
Madonna mia, sembra di essere all'asilo..
raga dite che per la risoluzione di 1440x900 sia conveniente prendere una gtx260 ? nel sistema in firma sarei limitato oppure no? quali sono gli ultimi rumors gtx260 è piu performante della 9800gx2 oppure no?
per quella risoluzione tieniti la 3870 dato che va circa ( se nn mejo) di una 9600 gt e con la quale io nn ho probl cn nessun gioco (1280 x 1024 risoluzione simile) compreso crysis che va su elevato senza problemi!!:D
per quella risoluzione tieniti la 3870 dato che va circa ( se nn mejo) di una 9600 gt e con la quale io nn ho probl cn nessun gioco (1280 x 1024 risoluzione simile) compreso crysis che va su elevato senza problemi!!:D
è una ciofeca di vga e crysis è ingiocabile; il mio sistema mi sa che è vga limited:D Adesso vedro i benchmark e decido; spero sempre che costi sulle 400 euro la gtx260 e se sara cosi entrera nel mio case sicuramente
crysis ingiocabile su elveato???!!!! ma tu quanto antialiasing metti ti ripeto che a elevato io nn ho problemi cn una 9600 gt
Ibracadabra08
07-06-2008, 23:57
Se il tuo sistema è CPU limited qusta scheda non la dovrebbe comprare nessuno ad eccezione di chi ha una skulltrail.....
crysis ingiocabile su elveato???!!!! ma tu quanto antialiasing metti ti ripeto che a elevato io nn ho problemi cn una 9600 gt
senza filtri ovviamente e non va.....e poi vorrei giocarci su massimo coi filtri al massimo; spero che la gtx260 ce la faccia a farlo girare decentemente
escluso crysis io con gli altri gioki riesco semrpe ad abilitare 4 x di antialiasing(escluso grid con 8 x) e credo anke tu . sl per un gioko è inutile aspetta altri titoli piu pesanti( far cry 2) nel mentre i prezzi caleranno pure!!
escluso crysis io con gli altri gioki riesco semrpe ad abilitare 4 x di antialiasing(escluso grid con 8 x) e credo anke tu . sl per un gioko è inutile aspetta altri titoli piu pesanti( far cry 2) nel mentre i prezzi caleranno pure!!
saggia decisione ma mi sa che verso luglio un giocattolino nuovo me lo prendo:) son malato che devo fare; e poi quella 3870 in firma stona un pochettino
sono ansioso di vedere i bench e di sapere il prezzo definitivo
saggia decisione ma mi sa che verso luglio un giocattolino nuovo me lo prendo:) son malato che devo fare; e poi quella 3870 in firma stona un pochettino
sono ansioso di vedere i bench e di sapere il prezzo definitivo
Cacchio ma va cosi male la 3870?_? eppure su PCtuner la toxic recensita dai test va come una 88GT, e io prima dello sli di 88GT ne avevo solo una e crysis sotto DX10 tutto su HIGH nn mi ha dato nessun problema a 1440x900(senza filtri ovvio)
-noxius-
08-06-2008, 01:23
Cacchio ma va cosi male la 3870?_? eppure su PCtuner la toxic recensita dai test va come una 88GT, e io prima dello sli di 88GT ne avevo solo una e crysis sotto DX10 tutto su HIGH nn mi ha dato nessun problema a 1440x900(senza filtri ovvio)
Ma infatti è lui che esagera , avrà vista perchè su XP almeno 30 e passa fps su high a 1280x1024 li genera .. ;)
Mister Tarpone
08-06-2008, 03:23
la 88GT con Crysis va un pò di più in dx10 rispetto le altre schede..
guarda questa review: http://www.hardocp.com/article.html?art=MTQ4NSwzLCxoZW50aHVzaWFzdA==
fa vedere come gira veramente Crysis in dx10 con alcune schede..
questo sito è famosissimo perchè testa la media dei fps per bene in game... non si limita ai bench integrati che contano poco..... ;)
cmq con Crysis in dx10 FULL HIGH a 1440x900 su schede così va bene solo se ti accontenti parecchio.. ;)
perchè i fps molte volte sono bassi ;)
a me va bene anche se gira ad un 30-25fps, ed infatti non mi sono mai lamentato.......
ma a molti altri la media di fps che vengan fuori in alcuni punti non soddisfano o potrebbero non soddisfare ;) senza contare che in alcune scene pesantissime con quelle impostazioni (full high) in dx10 diventa strapesante.... pure con una 88GT.. quindi figuriamoci con la 3870..
praticamente per giocarlo decentemente in dx10 vanno abbassati alcuni dettagli... ;)
cmq secondo [H]Enthsiast, questo gioco grazie al motion blur, riesce ad esser giocabile pure con una media di 25fps:
Note that in the graphs, we have lowered our redline to 25 FPS for Crysis. This game is demanding, and low framerates are impossible to avoid, gameplay is also different in this game to where 25 FPS and up feels very playable which is very likely due to the efficient use of motion blur. Note that the down-spikes to 0 FPS in the graphs are due to the saved game points
tradotto:
___Si noti che nei grafici, abbiamo abbassato i nostri Redline a 25 FPS per Crysis. Questo gioco è esigente, e la bassa framerates sono impossibili da evitare, il gioco è diverso anche in questo gioco a 25 fps in cui e fino sente molto giocabile che è molto probabilmente dovuto ad un uso efficiente del moto sfocatura. Nota che il picchi verso il basso-a 0 FPS nei grafici sono dovute al gioco salvato punti____
io da una parte concordo...ma resta il problema dei cali però... che in alcuni livelli (tipo l'ultimo) sono elevati..
River Phoenix
08-06-2008, 09:11
Madonna mia, sembra di essere all'asilo..
Già...per alcuni questa è l'unica minestra che passa il convento :ciapet:
Ma infatti è lui che esagera , avrà vista perchè su XP almeno 30 e passa fps su high a 1280x1024 li genera .. ;)
ho vista e gioco in dx9.......;)
P.s pensavo di non potero neppure finire da come mi andava male l'ultimo livello
io saro' in California intorno al 20 giugno, credo proprio che faro' un pensierino da 600$! :D
Gabriyzf
08-06-2008, 10:51
io crysis l'ho giocato su xp tutto in high a 1280x1024 senza AA con l'88gt non overclockata:
i bench mi danno oltre 40 fps di media.
Ragazzi, sorry per le dimensioni delle immagini, ma penso che meritino... :D
http://img141.imageshack.us/img141/3007/20080607d6ac1e661e770b4ja9.jpg
http://s1.directupload.net/images/080608/l2jj2j7x.jpg
Nella prima la parte nascosta parla di SLI, ossia dice che prima si riusciva a giocare bene con HalfLife 2 a 2560x1600, oggi con le nuove schede si potrà giocare bene (=25fps :asd: ) con Crysis in DX10, a 1920x1200 con le single cards, a 2560x1600 in SLI.
Nella seconda, molto interessante l'HybridSLI e la possibilità di passare alla scheda video integrata, peccato funzioni solo sulle NForce... :(
Il consumo minimo è quello già sentito, 25W per la GTX280, il max invece è molto più alto, come pensavo, di quello visto nell'altra slide (si dice worst case=TDP=236W). :)
Ragazzi, sorry per le dimensioni delle immagini, ma penso che meritino... :D
*CUT*
Nella prima la parte nascosta parla di SLI, ossia dice che prima si riusciva a giocare bene con HalfLife 2 a 2560x1600, oggi con le nuove schede si potrà giocare bene (=25fps :asd: ) con Crysis in DX10, a 1920x1200 con le single cards, a 2560x1600 in SLI.
Nella seconda, molto interessante l'HybridSLI e la possibilità di passare alla scheda video integrata, peccato funzioni solo sulle NForce... :(
Il consumo minimo è quello già sentito, 25W per la GTX280, il max invece è molto più alto, come pensavo, di quello visto nell'altra slide (si dice worst case=TDP=236W). :)
vabbè quella risoluzione uno SLi lo vuole sicuro.. ma 1920X1200 (Single GPU) mi fa ben sperare :sofico:
Kharonte85
08-06-2008, 12:19
Allora, per quanto riguarda le prestazioni se fosse vero che crysis risultasse giocabile a 1900 su dx10 sarebbe davvero notevole...comunque rimane da verificare, invece ottimo per quanto riguarda la conferma del consumo in IDLE, 25w sono davvero incredibili per una scheda del genere...pensavo onestamente che ATI a questo giro su questo aspetto fosse avvantaggiata ma a quanto pare dovro' ricredermi...:stordita:
athlon xp 2400
08-06-2008, 12:21
IO mi domando a 1920*1200 con il mio sistema e gtx 280 ci giochero' a dettagli elevati??a quanti fpsP??
vabbè quella risoluzione uno SLi lo vuole sicuro.. ma 1920X1200 (Single GPU) mi fa ben sperare :sofico:
Senza AA penso che la GTX280 30-35fps li possa fare. Con AA4x lo stesso cinese/taiwanese che posta 'ste immagini tempo fa aveva detto che serve uno SLI di GTX280 per avere 25fps a 1920x1200.
Allora, per quanto riguarda le prestazioni se fosse vero che crysis risultasse giocabile a 1900 su dx10 sarebbe davvero notevole...comunque rimane da verificare, invece ottimo per quanto riguarda la conferma del consumo in IDLE, 25w sono davvero incredibili per una scheda del genere...pensavo onestamente che ATI a questo giro su questo aspetto fosse avvantaggiata ma a quanto pare dovro' ricredermi...:stordita:
A quella risoluzione è "giocabile" già con una GX2 (25fps circa) senza AA. ;)
Il consumo in idle delle ATI dovrebbe essere sui 10W. ;)
IO mi domando a 1920*1200 con il mio sistema e gtx 280 ci giochero' a dettagli elevati??a quanti fpsP??
il tuo sistema è molto simile al mio.. se non la prendi al lancio te lo saprò dire io :sofico:
Kharonte85
08-06-2008, 12:23
Senza AA penso che la GTX280 30-35fps li possa fare. Con AA4x lo stesso cinese/taiwanese che posta 'ste immagini tempo fa aveva detto che serve uno SLI di GTX280 per avere 25fps a 1920x1200.
L'AA4x in Crysis è un utopia...tranne a 800x600 :asd:
DriftKing
08-06-2008, 12:48
L'AA4x in Crysis è un utopia...tranne a 800x600 :asd:
QUOTO
:asd:
vabbè a 1920X1200 non so se si vede la differenza con o senza AA :P
a parte sugli fps ovviamente :asd:
Enochian
08-06-2008, 12:58
1900x1200 in veryhigh a 25-30 fps... come sospettavo, allora se è confermato prendo la gx2.
nico88desmo
08-06-2008, 12:59
Ragazzi, sorry per le dimensioni delle immagini, ma penso che meritino... :D
[cut img]
Nella prima la parte nascosta parla di SLI, ossia dice che prima si riusciva a giocare bene con HalfLife 2 a 2560x1600, oggi con le nuove schede si potrà giocare bene (=25fps :asd: ) con Crysis in DX10, a 1920x1200 con le single cards, a 2560x1600 in SLI.
Nella seconda, molto interessante l'HybridSLI e la possibilità di passare alla scheda video integrata, peccato funzioni solo sulle NForce... :(
Il consumo minimo è quello già sentito, 25W per la GTX280, il max invece è molto più alto, come pensavo, di quello visto nell'altra slide (si dice worst case=TDP=236W). :)
Saranno con impostazioni very-high???
1900x1200 in veryhigh a 25-30 fps... come sospettavo, allora se è confermato prendo la gx2.
Confermato lo sarà tra 9 giorni. Aspetta le rece ufficiali. :)
Saranno con impostazioni very-high???
Sì.
sommojames
08-06-2008, 13:27
vabbè a 1920X1200 non so se si vede la differenza con o senza AA :P
Perchè mai non dovrebbe vedersi? :confused:
I pixel saranno anche di più, ma sono distribuiti su un'area molto più grossa.
vabbè a 1920X1200 non so se si vede la differenza con o senza AA :P
a parte sugli fps ovviamente :asd:
Dipende da quanto è grande lo schermo, ossia dalla sua risoluzione. Se 1920x1200 è su uno schermo relativamente piccolo, i pixel saranno microscopici e tu non ti accorgerai di nulla, se lo schermo è grande, i pixel saranno grandi e la scalettatura si noterà di brutto. Prova a giocare con la PS3 a 1080p su uno schermo molto grande, e poi dimmi se non si vedono le scalettature. ;)
Tornando in topic, vi ricordate questa immagine? :D
http://itocp.com/attachments/month_0806/20080608_2f65dc254a316d6bdc88YpR7wlTridau.jpg.thumb.jpg
Bene, ecco un aiuto per comprendere meglio le diverse parti che si vedono in quella immagine... ;)
http://itocp.com/attachments/month_0806/20080608_fdc53e7275eee7705b28DcjxS0I2TcAS.jpg
In G200 (GTX280) ci sono dunque 10 Thread Processor Cluster, ogni TPC ha 3 Thread Processor Arrays, ogni TPA ha 8 Thread Processors (=SP). Totale 240.
Hanno quindi modificato l'architettura precedente, gruppando 3 arrays di SP per cluster anzichè 2 come in G80. :)
Kharonte85
08-06-2008, 13:52
Dipende da quanto è grande lo schermo, ossia dalla sua risoluzione. Se 1920x1200 è su uno schermo relativamente piccolo, i pixel saranno microscopici e tu non ti accorgerai di nulla, se lo schermo è grande, i pixel saranno grandi e la scalettatura si noterà di brutto. Prova a giocare con la PS3 a 1080p su uno schermo molto grande, e poi dimmi se non si vedono le scalettature. ;)
vabbe' ma la PS3 graficamente è indietro di 1 generazione di schede video e dipende molto da come sono programmati i giochi, alcuni ne soffrono mentre altri no...
vabbe' ma la PS3 graficamente è indietro di 1 generazione di schede video e dipende molto da come sono programmati i giochi, alcuni ne soffrono mentre altri no...
Il fatto di essere indietro o avanti non conta nulla, il problema è avere o meno l'AA. Se in certi giochi da console l'AA non c'è, o al max è 2x, allora sui grossi schermi la differenza si nota uguale. Il problema è di risoluzione (intesa come rapporto tra superficie schermo / numero pixel contenuti nello schermo). ;)
Dire 1920x1200 vuol dire in realtà pochino in termini di resa finale a schermo (ovviamente lo sforzo della vga rimane sempre lo stesso, perchè 2.3m di pixel deve calcolare su un 17.1" 1900x1200 e 2.3m deve calcolarne su un 30"). :)
Tabellina riassuntiva con un po' di nuovi test, by PHK (purtroppo ancora solo bench).
http://bbs.chiphell.com/attachments/month_0806/20080607_52b9dabecf4ee472b1c9sCHFvBdoLGz9.jpg
se questi bench sono reali ho notato una cosa si parla di driver 177.26. Quando saranno disponibili? A partire dal 17 giugno?
Kharonte85
08-06-2008, 14:08
Il fatto di essere indietro o avanti non conta nulla, il problema è avere o meno l'AA. Se in certi giochi da console l'AA non c'è, o al max è 2x, allora sui grossi schermi la differenza si nota uguale.
Il fatto di essere indietro li costringe ad una ottimizzazione della grafica (non è come nel mondo del PC dove o hai l'hardware per far girare il gioco o non ce l'hai, li' il gioco bene o male Deve girare), che alcune volte si traduce appunto in una resa su schermi grandi pessima...
Il problema è di risoluzione (intesa come rapporto tra superficie schermo / numero pixel contenuti nello schermo). ;)
Dire 1920x1200 vuol dire in realtà pochino in termini di resa finale a schermo (ovviamente lo sforzo della vga rimane sempre lo stesso, perchè 2.3m di pixel deve calcolare su un 17.1" 1900x1200 e 2.3m deve calcolarne su un 30"). :)
Su questo non ci sono dubbi pero' per le prove che ho fatto io ti posso dire che il PC a 1900 senza AA su TV 42" fullhd è molto definito su tutti i giochi che ci ho provato, mentre la play no :mc: anzi a dire il vero il PC a risoluzioni piu' basse con un 2X AA va bene uguale (nel senso che l'aliasing è quasi eliminato del tutto)
se questi bench sono reali ho notato una cosa si parla di driver 177.26. Quando saranno disponibili? A partire dal 17 giugno?
Magari è fake la tabella... :boh:
O forse è vera... :Perfido:
Dipende da quanto è grande lo schermo, ossia dalla sua risoluzione. Se 1920x1200 è su uno schermo relativamente piccolo, i pixel saranno microscopici e tu non ti accorgerai di nulla, se lo schermo è grande, i pixel saranno grandi e la scalettatura si noterà di brutto. Prova a giocare con la PS3 a 1080p su uno schermo molto grande, e poi dimmi se non si vedono le scalettature. ;)
si ma la maggior parte dei monitor 1920X1200 per pc è 24" o al max 26".. e i pixel son talmente piccoli che imho l'AA non si vede..il mio è un 26" e faccio fatica a vedere il singolo pixel.. figurarsi in un 24".. :)
ovvio che se uno gioca su un 50" un po' di aliasing si vedrà :asd:
si ma la maggior parte dei monitor 1920X1200 per pc è 24" o al max 26".. e i pixel son talmente piccoli che imho l'AA non si vede..il mio è un 26" e faccio fatica a vedere il singolo pixel.. figurarsi in un 24".. :)
ovvio che se uno gioca su un 50" un po' di aliasing si vedrà :asd:
e vi lamentate io ho un 17" hehehehe
cavolo ma con un 50 devi metterti a 3 metri per giocare, come cavolo fai lol.
tornando it , la dissipazione comè che mi son perso alcune pagine, si potrà star traanquilli anche con tamb di 35? senza dover ricorrere al famigerato accelero :asd:
In G200 (GTX280) ci sono dunque 10 Thread Processor Cluster, ogni TPC ha 3 Thread Processor Arrays, ogni TPA ha 8 Thread Processors (=SP). Totale 240.
Hanno quindi modificato l'architettura precedente, gruppando 3 arrays di SP per cluster anzichè 2 come in G80. :)
Riprendendo il mio discorso precedente, vorrei fare un'ulteriore considerazione, confrontando la nuova struttura con il grafico di G80 (che poi è molto simile a G92)...
http://www.hwupgrade.it/articoli/skvideo/1597/architecture_1.gif
http://www.hwupgrade.it/articoli/skvideo/1597/architecture_2.gif
In ogni cluster ci saranno 8 TFU (e presumibilmente pure 8 TAU, per proseguire con la strada tracciata da G84 prima, e G92 poi), per ottenere 80 "TMU" per GTX280 (10 cluster) e 64 con GTX260 (8 cluster).
Un eventuale G200b a 55nm con 144SP (anzi, ora TP), l'eventuale concorrente di RV770XT, avrebbe quindi 48 TMU, assieme alle probabili 16ROPs collegate al bus a 256bit. Sarebbe interessante capire come potrebbe performare un simile chip vs la 9800GTX o la 8800Ultra (che hanno 64TMU)... IMHO, sarebbe necessaria l'adozione delle GDDR5, perchè altrimenti la differenza di 16SP rischierebbe di essere annullata dalla mancanza di 16TMU... :fagiano:
si ma la maggior parte dei monitor 1920X1200 per pc è 24" o al max 26".. e i pixel son talmente piccoli che imho l'AA non si vede..il mio è un 26" e faccio fatica a vedere il singolo pixel.. figurarsi in un 24".. :)
ovvio che se uno gioca su un 50" un po' di aliasing si vedrà :asd:
cavolo ma con un 50 devi metterti a 3 metri per giocare, come cavolo fai lol.
tornando it , la dissipazione comè che mi son perso alcune pagine, si potrà star traanquilli anche con tamb di 35? senza dover ricorrere al famigerato accelero :asd:
Voi ridete, ma mi sa che sul forum c'è più di una persona che gioca sul maxischermo. :asd:
michelgaetano
08-06-2008, 15:26
vabbe' ma la PS3 graficamente è indietro di 1 generazione di schede video e dipende molto da come sono programmati i giochi, alcuni ne soffrono mentre altri no...
presto pure 2 generazioni :asd:
Riprendendo il mio discorso precedente, vorrei fare un'ulteriore considerazione, confrontando la nuova struttura con il grafico di G80 (che poi è molto simile a G92)...
http://www.hwupgrade.it/articoli/skvideo/1597/architecture_1.gif
http://www.hwupgrade.it/articoli/skvideo/1597/architecture_2.gif
In ogni cluster ci saranno 8 TFU (e presumibilmente pure 8 TAU, per proseguire con la strada tracciata da G84 prima, e G92 poi), per ottenere 80 "TMU" per GTX280 (10 cluster) e 64 con GTX260 (8 cluster).
Un eventuale G200b a 55nm con 144SP (anzi, ora TP), l'eventuale concorrente di RV770XT, avrebbe quindi 48 TMU, assieme alle probabili 16ROPs collegate al bus a 256bit. Sarebbe interessante capire come potrebbe performare un simile chip vs la 9800GTX o la 8800Ultra (che hanno 64TMU)... IMHO, sarebbe necessaria l'adozione delle GDDR5, perchè altrimenti la differenza di 16SP rischierebbe di essere annullata dalla mancanza di 16TMU... :fagiano:
Sicuramente useranno le GDDR5 se avranno un bus di 256bit. Già G92 era bandwidth bound, figurarsi un chip anche solo leggermente più potente.
Credo che comunque le prestazioni dovrebbero sempre essere superiori a G92, ma non in una maniera costante. Probabilmente ci sarà qualche gioco in cui quel chip potrà essere texture bound e avere prestazioni inferiori, ma per il resto sono sempre 16 TMU in più di ATI. Un chip simile dovrebbe lottare con la 4850, mentre invece la versione da 168sp, 56TMU,24Rops,384bit di bus con la HD4870..
Tabellina riassuntiva con un po' di nuovi test, by PHK (purtroppo ancora solo bench).
http://bbs.chiphell.com/attachments/month_0806/20080607_52b9dabecf4ee472b1c9sCHFvBdoLGz9.jpg
Cavolo ma la GX2 fa più della GTX 280 nel 3D Mark 06 a 1280x1024. :eek:
EDIT
Non avevo visto l'AA e l'AF, io ho fatto circa 17000 punti con la GX2 ma senza AA o AF.
Sicuramente useranno le GDDR5 se avranno un bus di 256bit. Già G92 era bandwidth bound, figurarsi un chip anche solo leggermente più potente.
Credo che comunque le prestazioni dovrebbero sempre essere superiori a G92, ma non in una maniera costante. Probabilmente ci sarà qualche gioco in cui quel chip potrà essere texture bound e avere prestazioni inferiori, ma per il resto sono sempre 16 TMU in più di ATI. Un chip simile dovrebbe lottare con la 4850, mentre invece la versione da 168sp, 56TMU,24Rops,384bit di bus con la HD4870.
Tutto può essere... solo che si parlava di 2009 per le GDDR5 in casa NVidia, mentre penso che un chip del genere uscirà a novembre-dicembre 2008.
Io il chip con 168TP lo escludevo a priori perchè come in 8800GT/8800GTS512-9800GTX la differenza sarà abbastanza piccola (tant'è che tra GTX280 e GTX260 ci sono ben 48TP di differenza, e forse la differenza di prestazioni non sarà enorme). :)
Crysis90
08-06-2008, 15:58
Cavolo ma la GX2 fa più della GTX 280 nel 3D Mark 06 a 1280x1024. :eek:
EDIT
Non avevo visto l'AA e l'AF, io ho fatto circa 17000 punti con la GX2 ma senza AA o AF.
Sono fakissimi, è impossibile che le GT200 faccia così poco al 3D Mark 06...14000 punti li faccio io con la 8800 GTX e l'E8400 a 4 Ghz...
Cavolo ma la GX2 fa più della GTX 280 nel 3D Mark 06 a 1280x1024. :eek:
EDIT
Non avevo visto l'AA e l'AF, io ho fatto circa 17000 punti con la GX2 ma senza AA o AF.
Infatti i numeri a 1280x1024 sono senza AA e AF... Sono decisamente strani... Anche se in effetti c'è chi dice sempre su Pcinlife che in effetti una HD3870X2 ha un punteggio superiore alla GTX280 al 3DM06...
Vabbè, credo ci si debba focalizzare sul Vantage per avere qualche indicazione più realistica sul posizionamento di queste schede... :)
Sono fakissimi, è impossibile che le GT200 faccia così poco al 3D Mark 06...14000 punti li faccio io con la 8800 GTX e l'E8400 a 4 Ghz...
Mah, il resto dei valori pare realistico... Secondo me è il 3DMark06 in sè ad essere fakissimo... :asd:
Infatti i numeri a 1280x1024 sono senza AA e AF... Sono decisamente strani... Anche se in effetti c'è chi dice sempre su Pcinlife che in effetti una HD3870X2 ha un punteggio superiore alla GTX280 al 3DM06...
Vabbè, credo ci si debba focalizzare sul Vantage per avere qualche indicazione più realistica sul posizionamento di queste schede... :)
Mah, il resto dei valori pare realistico... Secondo me è il 3DMark06 in sè ad essere fakissimo... :asd:
Giá, il vantage (9600gt a parte) rispecchia piú o meno la situazione odierna delle vga.
Io il 3dmarketing06 lo lascerei stare :)
Sono fakissimi, è impossibile che le GT200 faccia così poco al 3D Mark 06...14000 punti li faccio io con la 8800 GTX e l'E8400 a 4 Ghz...
Si lo penso anch'io, la GX2 ha comunque la pecca dello SLI e la GTX 280 dovrebbe comunque andare di più di quest'ultima perciò mi sembra davvero impossibile.
Gabriyzf
08-06-2008, 16:15
faccio anch'io sui 14000 con q6600@3 GHz e 88gt def.
tufogiulia
08-06-2008, 18:12
se stanno cosi le cose ma non credo, la gx2 per me e stato un'ottimo acquisto:D
Kharonte85
08-06-2008, 18:23
Si ma ragazzi almeno cliccateci sui link...non vedete che nel 3dmark06 è completamente Cpu limited quella scheda? :doh:
Guardate i punti al Vantage in modalità X che sono gli unici significativi...;)
halduemilauno
08-06-2008, 18:33
edit.
come puo essere cpu limited con un qx9650 :confused:
Si ma ragazzi almeno cliccateci sui link...non vedete che nel 3dmark06 è completamente Cpu limited quella scheda? :doh:
Guardate i punti al Vantage in modalità X che sono gli unici significativi...;)
Significativi in assoluto non direi...
La 8800Ultra non va il 50% più di una 9800GTX manco a 2560x1600 AA4x AF16x, figuriamoci a 1920x1200... :asd:
Lo stesso dicasi per la HD3870X2 vs la Ultra...
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/21/#abschnitt_performancerating
Più indicativi del 3DMark06, questo sì. ;)
halduemilauno
08-06-2008, 19:07
http://resources.vr-zone.com/image_deposit/up/12129429920567edf598.jpg
;)
Mister Tarpone
08-06-2008, 19:09
ma come basta un e6300 per una di queste gpu??
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.