View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT
Alexkidd85
10-05-2007, 23:57
Piuttosto vi segnalo librerie DX10 per windows xp, qui (http://www.hwsetup.it/hwsfiles?action=download&file_id=3047).
Vi servono pure le directx SDK, scaricabili da qui (ftp://195.222.33.239/pub/ga/software/dxsdk_aug2006.exe) ;)
Librerie in versione sperimentale (freeware) facenti parte di un progetto che punta ad estendere l'utilizzo in ambiente Microsoft Windows XP degli applicativi sviluppati con la tecnologia DirectX 10 di Vista - tra cui naturalmente i game di ultima generazione - ai sistemi basati su un hardware privo di funzionalità native aderenti all'architettura di DirectX 10. In accordo alla natura sperimentale di questo software, con la presente release non è possibile eseguire giochi DirectX 10 ma alcuni esempi o demo tecnologiche tratte dal pacchetto DirectX SDK di MS o pubblicate dal produttore di chip grafici DirectX 10 NVIDIA (cfr. questo link ("http://www.nzone.com/object/nzone_cascades_downloads.html" )).
Si vabé :D
Anche se con l'estate e il primo service pack,io passerò a vista e credo molti altri utenti.
però ben vengano se veramente ci riuscissero :D
ale0bello0pr
11-05-2007, 00:08
Io sto facendo le veci di Perkam.....di Xtreme .....su HWupgrade......dai ho detto anke troppo....:doh:
Piuttosto vi segnalo librerie DX10 per windows xp, qui (http://www.hwsetup.it/hwsfiles?action=download&file_id=3047).
Vi servono pure le directx SDK, scaricabili da qui (ftp://195.222.33.239/pub/ga/software/dxsdk_aug2006.exe) ;)
Librerie in versione sperimentale (freeware) facenti parte di un progetto che punta ad estendere l'utilizzo in ambiente Microsoft Windows XP degli applicativi sviluppati con la tecnologia DirectX 10 di Vista - tra cui naturalmente i game di ultima generazione - ai sistemi basati su un hardware privo di funzionalità native aderenti all'architettura di DirectX 10. In accordo alla natura sperimentale di questo software, con la presente release non è possibile eseguire giochi DirectX 10 ma alcuni esempi o demo tecnologiche tratte dal pacchetto DirectX SDK di MS o pubblicate dal produttore di chip grafici DirectX 10 NVIDIA (cfr. questo link ("http://www.nzone.com/object/nzone_cascades_downloads.html" )).
bhe, è senz'altro un bel tentativo, chissa, forse xp rimarrà con noi ancora a lungo :sofico:
Personalmente, se posso andare un'attimino OT e chiuderlo subito, istallerei Windows Vista come ha fatto il tipo che ho in firma :read:
:asd: :asd: :asd:
XP a VITA :O (finche non cambio VGA ovvio :asd:)
TecnoWorld8
11-05-2007, 00:45
dove si trova in ordine la sapphire a 399€? se potete, ditemelo in PM, grazie infinite.
dove si trova in ordine la sapphire a 399€? se potete, ditemelo in PM, grazie infinite.
:eek: Ma come??? La prendi pure se non è 65nm????? :Prrr:
:asd:
CIaO
fireradeon
11-05-2007, 07:47
http://211.78.161.57/res/gdsale/st_pic/0535/st-535157-1.jpg
http://211.78.161.57/res/gdsale/st_pic/0535/st-535157-2.jpg
:)
Non so se avete notato l'adesivo di Half Life, immagino ci sarà anche dentro un buono per avere il gioco gratuitamente oppure scontato. OTTIMO!!! :D
fireradeon
11-05-2007, 07:48
dove si trova in ordine la sapphire a 399€? se potete, ditemelo in PM, grazie infinite.
ANCHE A ME PLEASE!!!! :eek:
JoeLatino
11-05-2007, 07:53
non so' quanto veritieri,ma in rete ho trovato questi risultati.....:D
FarCry 1.4 SM3 HDR [1280x1024]
- 8800 GTX: 123.3 fps
- 2900 XT: 119.3 fps
- 8800 GTS: 106.2 fps
- X1950XT: 85.8 fps
FarCry 1.4 SM3 HDR [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 76.7 fps
- 2900 XT: 70.2 fps
- 8800 GTS: 54 fps
- X1950XT: 50.1 fps
Prey [1280x1024]
- 8800 GTX: 184.3 fps
- 2900 XT: 131.2 fps
- 8800 GTS: 127.3 fps
- X1950XT: 117.6 fps
Prey [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 89.9 fps
- 2900 XT: 70.5 fps
- 8800 GTS: 65.5 fps
- X1950XT: 55 fps
Splinter Cell: Chaos Theory SM3 HDR [1280x1024]
- 2900 XT: 142.5 fps
- 8800 GTX: 131.7 fps
- X1950XT: 94.2 fps
- 8800 GTS: 94 fps
Splinter Cell: Chaos Theory SM3 HDR [1600x1200 - 4x AA 8x AF]
- 8800 GTX: 85.6 fps
- 2900 XT: 86.5 fps
- 8800 GTS: 68.5 fps
- X1950XT: 64.7 fps
X3: The Reunion [1280x1024]
- 2900 XT: 118.5 fps
- 8800 GTX: 99.2 fps
- X1950XT: 97 fps
- 8800 GTS: 88.1 fps
X3: The Reunion [1920x1200 - 4x AA 8x AF]
- 8800 GTX: 74 fps
- X1950XT: 65.4 fps
- 8800 GTS: 58.8 fps
- 2900 XT: 56.5 fps
Sono già stati postati qualche decina di pagine fa ;)
Non so se avete notato l'adesivo di Half Life, immagino ci sarà anche dentro un buono per avere il gioco gratuitamente oppure scontato. OTTIMO!!! :D
Era una cosa già risaputa: in ogni confezione di HD2900 ci sarà un coupon per richiedere gratuitamente l'edizione Black box di HL2:Ep2 (che contiene HL2:Ep2, Team fortress 2 e Portal) in uscita il prossimo autunno ;)
pierluigi86
11-05-2007, 08:08
Non so se avete notato l'adesivo di Half Life, immagino ci sarà anche dentro un buono per avere il gioco gratuitamente oppure scontato. OTTIMO!!! :D
cmq come ha fatto notare già qualcuno, questa immagine sembra palesemente photoshoppata. Non notate nella parte anteriore-laterale sotto l' adesiso le striscie del tribale? e poi non vi sembra che l' immagine e la scheda sottostante siano stati illuminati diversamente?
halduemilauno
11-05-2007, 08:39
http://www.fudzilla.com/index.php?option=com_content&task=view&id=939&Itemid=1
Radeon HD 2000 clocks and details
ATI will introduce high end, mainstream and entry level cards based on R600 marchitecture. Let's tell you all the details. The high end one is called Radeon HD 2900XT so no surprises here. It is clocked at 742 MHz and 1650 for the memory.
It has a 512 bit memory bus and 512 MB memory. The chip has 320 Shader units (Stream processors ) and the GPU has 700 million transistors. The card has 16x2 ROPs but we don't understand this part. We reported all this before on the site. The suggested retail price is € or $399.
The mainstream part is called Radeon HD 2600XT and there will be a PRO version later on. This delayed part will only be paper launched on Monday. Radeon HD 2600XT is based on RV630, 65 nanometre chip has 120 Shader units (Stream processors ), 4x2 ROP's (Raster Operators) a massive 390 million transistors 128 bit memory and 256 MB of it.
The core works at 800 MHz while the memory runs at 2200 MHz. the suggested retail price of this part is $/€199. The volume production and any real availability is expected in late June.
The last one is called Radeon HD 2400XT and this baby is also ready for paper launch. It has 40 Shader units, 4x2 ROPs and its RV610 chip has 180 million transistors. The good news is that the chip is 65 nanometre, delayed but coming and that it works at 700 MHz core clock and 1600 MHz memory.
The part that really sucks is that ATI crippled this chip to 64 bit memory interface only so 8500 will probably rip its heart and they both costs about $ or €100. The Radeon HD 2400 XT has 256 MB of memory and the real volume production comes in late June.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=936&Itemid=1
$/ €399 price for +/- 8800 GTS performance
This is one of the most anticipated cards in ATI's long history and unfortunately it comes as a bit disappointment. After seven+ months of delay the R600 can only fight the Geforce 8800 GTS as the GTX and Ultra are definitely outperforming this new part from ATI.
The highlight is that the card comes with a voucher that will get you a free copy of Half Life 2 episode two, whenever it comes out and three more steam based games.
The card is innovative and has HDMI via DVI, it can handle audio and it has a nice video engine. When it comes to 3D it will win in 3Dmark and a few other benchmarks, but it will also lose in many tests compared to a Geforce 8800 GTX and even the GTS.
The good thing is the price, but we didn't wait seven months to get a card that might faster than the seven month old Geforce 8800 GTS at the same price. The card is huge, two power connectors, extremely hot and kind of noisy, but it can still be overclocked to 11,600 points in 3Dmark06. The R600 really leaves a bitter taste, but it finally comes out on Monday, whether you like it or not.
aspettiamo lunedi.
;)
aspettiamo lunedi.
;)
è che purtroppo ormai tutti i vari rumors convergono nella stessa direzione mano a mano che ci avvicina al 14.
halduemilauno
11-05-2007, 08:46
è che purtroppo ormai tutti i vari rumors convergono nella stessa direzione mano a mano che ci avvicina al 14.
c'è chi dice che è tutto un colossale depistaggio. aspettiamo lunedi.
;)
penso che questo dica molto "The R600 really leaves a bitter taste, but it finally comes out on Monday, whether you like it or not.":)
halduemilauno
11-05-2007, 08:51
penso che questo dica molto "The R600 really leaves a bitter taste, but it finally comes out on Monday, whether you like it or not.":)
appunto la gradiremo o meno da lunedi sapremo tutto.
;)
Portocala
11-05-2007, 08:51
ma se la 2900xt compete con la 8800gts.
il prezzo della prima è 399$- cioè 399 euro ( :asd: ) e la seconda costa 270 euro
che vantaggio cè a prendere la scheda AMD?
Non so se avete notato l'adesivo di Half Life, immagino ci sarà anche dentro un buono per avere il gioco gratuitamente oppure scontato. OTTIMO!!! :D
Non hanno detto che sara' disponibile dal 2090...:doh: ;)
halduemilauno
11-05-2007, 08:54
ma se la 2900xt compete con la 8800gts.
il prezzo della prima è 399$- cioè 399 euro ( :asd: ) e la seconda costa 270 euro
che vantaggio cè a prendere la scheda AMD?
è ancora tutto da valutare.
;)
Athlon 64 3000+
11-05-2007, 08:54
c'è chi dice che è tutto un colossale depistaggio. aspettiamo lunedi.
;)
Completamente d'accordo.
Mi chiedo ancora come potete credere ancora a tutti i rumors usciti in questi giorni visto che potrebbero essere delle balle colossali.
Ricordate G80 fino al gioeno stesso non si sapeva niente e poi ci furono delle gradite soprese.
ok depistaggio, possibile, ma non posso credere che in tutte le cose viste sinora non ci sia del vero..improbabile.
Bha tanto manca poco e lunedì si saprà tutto.... tutta sta riservatezza chissà per cosa poi...manco fosse un'invenzione scentifica supertecnologica a disposizione dell'arma...
Cioè è una scheda video! Quando è uscita la ps3 si sapevo molte più cose :O
(anche se non c'è paragone vabè... )
E' un prodotto core business di un'azienda. Come tale essendo quantificati in centinaia di milioni di dollari gli introiti dati da questi progetti direi che nella strategia commerciale che esiste tra queste aziende (in america poi nell'IT saremo quasi a livelli di spionaggio e mafie industriali) il silenzio in certi casi e' d'oro quanto quello per prodotti da te citati.
Portocala
11-05-2007, 08:57
Completamente d'accordo.
Mi chiedo ancora come potete credere ancora a tutti i rumors usciti in questi giorni visto che potrebbero essere delle balle colossali.
Ricordate G80 fino al gioeno stesso non si sapeva niente e poi ci furono delle gradite soprese.
si le 8800 sono super, ma 8600 insegna :asd:
halduemilauno
11-05-2007, 08:57
Completamente d'accordo.
Mi chiedo ancora come potete credere ancora a tutti i rumors usciti in questi giorni visto che potrebbero essere delle balle colossali.
Ricordate G80 fino al gioeno stesso non si sapeva niente e poi ci furono delle gradite soprese.
si ma nel depistaggio mettici in conto anche i prezzi. perchè se andrà più di una gtx non credo che costi 150€ di meno della gtx.
;)
ok depistaggio, possibile, ma non posso credere che in tutte le cose viste sinora non ci sia del vero..improbabile.
quantomeno tattica suicida
si ma nel depistaggio mettici in conto anche i prezzi. perchè se andrà più di una gtx non credo che costi 150€ di meno della gtx.
;)
invece secondo me i prezzi sono una delle poche cose certe, 399€..
Tidus.hw
11-05-2007, 09:00
ma se la HD2600XT ha veramente 120sp@800mhz e 256mb di ram @2,2ghz 128bit come prestazione è un pò meno della metà di R600 giusto??
halduemilauno
11-05-2007, 09:02
invece secondo me i prezzi sono una delle poche cose certe, 399€..
e allora è certo(o quasi) anche il resto. nessuno regala soldi figuriamoci amd che è con l'acqua quasi alla gola. aspettiamo lunedi.
;)
ma se la 2900xt compete con la 8800gts.
il prezzo della prima è 399$- cioè 399 euro ( :asd: ) e la seconda costa 270 euro
che vantaggio cè a prendere la scheda AMD?
Ma secondo me andrà poco meno di un a GTX. Se il prezzo è quello, allora sarà molto conveniente...
La GTS non ha molte speranze. L'unico motivo di confronto tra la hd2900xt e la GTS è appunto il prezzo.
halduemilauno
11-05-2007, 09:04
si le 8800 sono super, ma 8600 insegna :asd:
appunto. insegna che si deve aspettare quello che fa il concorrente. e intanto tra 8600 e 8400 2 milioni e mezzo di schede vendute dal 17 aprile.
;)
invece secondo me i prezzi sono una delle poche cose certe, 399€..
quoto, sono stati confermati anche da utenti qui sul forum degni di fiducia
e allora è certo(o quasi) anche il resto. nessuno regala soldi figuriamoci amd che è con l'acqua quasi alla gola. aspettiamo lunedi.
;)
e allora torniamo al punto di partenza ;)
invece secondo me i prezzi sono una delle poche cose certe, 399€..
QUOTO
Portocala
11-05-2007, 09:07
appunto. insegna che si deve aspettare quello che fa il concorrente. e intanto tra 8600 e 8400 2 milioni e mezzo di schede vendute dal 17 aprile.
;)
perchè la gente si è stufata di aspettare la mainstream di AMD
e se il 15 non vedo la fascia media nei negozi, io, giugno, non lo aspetto ;)
Athlon 64 3000+
11-05-2007, 09:14
lunedì si saprà tutto e comunque anche se la hd 2900xt non sarà veloce come la 8800GTX spero che si al massimo un 10% più lenta di quest'ultima.
halduemilauno
11-05-2007, 09:15
quoto, sono stati confermati anche da utenti qui sul forum degni di fiducia
e allora torniamo al punto di partenza ;)
cmq gia adesso si trovano le gtx a meno di 500€. una addirittura la si trova a 450€. quindi basta adeguarsi un'attimino e...aspettiamo lunedi.
;)
invece secondo me i prezzi sono una delle poche cose certe, 399€..
In USA\Canada in alcuni shop 2900XT disponibile forse già da oggi.
;)
Portocala
11-05-2007, 09:21
In USA\Canada in alcuni shop 2900XT disponibile forse già da oggi.
;)
disponibile non vuol dire che la danno subito. sempre dopo il 14
beato il geek che la vende e che se la prova sto weekend :asd:
http://hardware.multiplayer.it/immagini/news/6/21666/img2.jpg
+
All'epoca dell'uscita dei Radeon 9600 e 9800, ATI proponeva un piccolo coupon in bundle con le sue schede 3D, che permetteva di scaricare gratuitamente il gioco Half-Life 2. A qualche giorno da lancio del nuovo Radeon HD X2900 (R600), apprendiamo che la casa canadese potrebbe ripetere l'offerta.
Così, con alcune schede Radeon HD X2900 potrebbe essere proposto un coupon che permetterà, via Steam, di scaricare gratuitamente il gioco "Hallf Life 2 Black Box", che comprende "Half-Life 2: Episode Two", "Team Fortress 2" e "Portal". Questi giochi dovrebbero essere disponibili prima della fine dell'anno.
Speriamo solo che tra la distribuzione dei coupon e la disponibilità reale del gioco non passi tanto tempo, poichè con i Radeon 9800 e 9600, la disponibilità di Half-Life 2 richiese ben 11 mesi.
disponibile non vuol dire che la danno subito. sempre dopo il 14
...questo mi pare ovvio. Disponibile vuol dire che il 14 mattina te la vai a prendere.
halduemilauno
11-05-2007, 09:24
In USA\Canada in alcuni shop 2900XT disponibile forse già da oggi.
;)
con un hard launch è sempre cosi. le schede mica sono disponibili la notte prima. esempio per la 8800 presentata l'otto novembre disponibile dal tre.
uno shop italiano la dà in arrivo per il 22 di questo mese sempre intorno alle 400 euro...
e allora è certo(o quasi) anche il resto. nessuno regala soldi figuriamoci amd che è con l'acqua quasi alla gola. aspettiamo lunedi.
;)
A volte sei obbligato a perderci. Un po' come le console, vendute a cifre in perdita fin dall'inizio. Nel caso di AMD non era possibile vendere a 550 euro un prodotto che (FORSE chi lo sa fino a lunedi) potrebbe non essere competitivo con nessuna delle alternative high end della concorrenza.
;)
La frequenza di clock della gpu ATI Radeon HD 2900XT aka R600XT ha una tolleranza di circa 100Mhz?
A leggere il testing report del sito FudZilla sembrerebbe proprio di si. La fonte ha eseguito alcuni test con una Radeon HD 2900XT, in versione built by ATI, utilizzando il tool 3DMark06 come ambiente di benchmark.
Variando la frequenza del core del processore grafico dal valore predeterminato dal costruttore e pari a 745Mh fino a 840Mhz, la scheda grafica ha mostrato una operatività stabile, sebbene non sia stata provvvista di un sistema di raffreddamento "moddato", ed un considerevole guadagno prestazionale, almeno con il software di prova impiegato.
Lo score di 3DMark06 è infatti passato dal valore di 10650, registrato con il core a 745Mhz, a quello di 11258 (core a 840Mhz).
halduemilauno
11-05-2007, 09:29
A volte sei obbligato a perderci. Un po' come le console, vendute a cifre in perdita fin dall'inizio. Nel caso di AMD non era possibile vendere a 550 euro un prodotto che (FORSE chi lo sa fino a lunedi) potrebbe non essere competitivo con nessuna delle alternative high end della concorrenza.
;)
e ma 150€ a pezzo mi pare una bella botta(negativa per essa). certo come detto un milione di volte aspettiamo lunedi.
;)
ma se la 2900xt compete con la 8800gts.
il prezzo della prima è 399$- cioè 399 euro ( :asd: ) e la seconda costa 270 euro
che vantaggio cè a prendere la scheda AMD?
Forse la stai comparando con quella sbagliata. Devi confrontare il tutto col prezzo della GTS 640, che costa un centinaio d'euro in più. ;)
ok depistaggio, possibile, ma non posso credere che in tutte le cose viste sinora non ci sia del vero..improbabile.
Ma infatti secondo me in DX9 sarà intermedia tra GTS e GTX (forse più vicina alla GTX).
Comunque, se andate su questo link (http://66.249.91.104/translate_c?hl=it&ie=UTF-8&oe=UTF-8&langpair=zh%7Cen&u=http://forum.coolaler.com/showthread.php%3Ft%3D153076&prev=/language_tools) troverete un'altra pseudo-prova. A parte i punteggi allucinanti ai soliti 3DMark (e sembrerebbero ottenuti a frequenze stock) ci sono le performance ai benchmark interni di Company of Heroes e FEAR. Qualcuno sa quanto fanno le GTS 640 e le GTX a FEAR con tutto al max, soft shadows on e AA4x a 1280x1024? :help:
Le impostazioni di CoH sono in cinese, ma presumo sia tutto al max pure lì.
La cosa però più importante, imho, è il consumo di tutto il sistema. Ovviamente hanno poca affidabilità questi test, però....
Idle
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-38.JPG
Max consumption
http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-39.JPG
A titolo di confronto.
http://www.hwupgrade.it/articoli/skvideo/1714/power.png
P.S.:
Piattaforma di test HWUp
* scheda madre Foxconn C55A01 (chipset nVIDIA nForce 680i SLI, Socket 775 LGA)
* processore Intel Core 2 Extreme X6800 2,93 GHz
* memoria G.Skill F2-6400CL4D-2GBHK, 2x1 Gbyte
* alimentatore Enermax Infiniti 720W
* driver NVIDIA Forceware 158.18
* driver ATI Catalyst 7.4
* sistema operativo Windows Vista Ultimate 32bit
Piattaforma di test utente del Coolaler Forum
X6800 Braised Meat "br> VIA GA-P965-DQ6 (P965)
海盜船 ddr2-800HK 512MB *4Pirate ships ddr2-800HK 512MB *
微星MSI Radeon HD X2900 XT 512MB DDR3MSI MSI Radeon X2900 XT 512MB HD DDR3
GPU 740 記憶體 825MHZGPU 740 825MHZ memory
海韻S12 600wRhine S12 600w
路邊撿到的INTEL原廠扣肉散熱風扇<br /> 日立 7K80 8MB SATA2Intel picked up the roadside manufacturer Braised Meat cooling fans "br> Hitachi 7K80 8MB SATA2
驅動程式版本: 官方出貨光碟的8.36Driver version : Official shipment CD 8.36
EDIT: ho letto che sembra che FEAR non permetta di attivare AA e soft shadows contemporaneamente ingame, quindi avranno forzato l'AA via drivers. Questo quasi sicuramente porta ad un decadimento pesante delle prestazioni.
e allora è certo(o quasi) anche il resto. nessuno regala soldi figuriamoci amd che è con l'acqua quasi alla gola. aspettiamo lunedi.
;)
C'è anche chi vende a meno perchè vuole recuperare il terreno perso. Chi ha comprato G80 ha pagato il fatto di avere preso una scheda senza concorrenti.
Se vendere a meno si trasforma in vendere di più non è affatto una cattiva strategia.
A volte sei obbligato a perderci. Un po' come le console, vendute a cifre in perdita fin dall'inizio. Nel caso di AMD non era possibile vendere a 550 euro un prodotto che (FORSE chi lo sa fino a lunedi) potrebbe non essere competitivo con nessuna delle alternative high end della concorrenza.
;)
Imho non ci perde nè nVIDIA nè ATi. Le console sono, economicamente, un discorso diverso, perchè ci si può permettere di vendere un prodotto sottocosto. ;)
Imho non ci perde nè nVIDIA nè ATi. Le console sono, economicamente, un discorso diverso, perchè ci si può permettere di vendere un prodotto sottocosto. ;)
"dura" per più anni e si recupera con i giochi.
halduemilauno
11-05-2007, 09:49
Forse la stai comparando con quella sbagliata. Devi confrontare il tutto col prezzo della GTS 640, che costa un centinaio d'euro in più. ;)
Ma infatti secondo me in DX9 sarà intermedia tra GTS e GTX (forse più vicina alla GTX).
C'è anche chi vende a meno perchè vuole recuperare il terreno perso. Chi ha comprato G80 ha pagato il fatto di avere preso una scheda senza concorrenti.
Se vendere a meno si trasforma in vendere di più non è affatto una cattiva strategia.
e perchè? la 320 e la 640 hanno un comportamento identico almeno fino a 1600x1200 quindi la 320 va benissimo. e cmq deve essere presa in considerazione in fase di acquisto. se 100/120€ di meno valgono in un senso possono valere anche nell'altro.
beh vedo che il tuo giudizio è notevolmente cambiato da quando dicesti:
Boh? Imho ATi non ha molto da temere sulle prestazioni della 8800Ultra... Se, come penso, le informazioni mostrate per sbaglio da Dell sono vere, la Ultra sarà solo una GTX pompata.
pensa è pure pompata di meno e allora si stava parlando della ultra.
se la strategia sarà buona o cattiva lo sapremo nel tempo.
intanto aspettiamo lunedi.
Foglia Morta
11-05-2007, 09:54
e allora è certo(o quasi) anche il resto. nessuno regala soldi figuriamoci amd che è con l'acqua quasi alla gola. aspettiamo lunedi.
;)
può anche essere che il prezzo della XT non sia stato rapportato a ciò che offre la concorrenza ma più semplicemente ciò che offre la gamma completa della serie HD2900
ale0bello0pr
11-05-2007, 09:54
Non so se avete notato l'adesivo di Half Life, immagino ci sarà anche dentro un buono per avere il gioco gratuitamente oppure scontato. OTTIMO!!! :D
A me non pare photoshoppata....:confused:
halduemilauno
11-05-2007, 09:58
può anche essere che il prezzo della XT non sia stato rapportato a ciò che offre la concorrenza ma più semplicemente ciò che offre la gamma completa della serie HD2900
può esser tutto. aspettiamo. appena 76 ore.
e perchè? la 320 e la 640 hanno un comportamento identico almeno fino a 1600x1200 quindi la 320 va benissimo. e cmq deve essere presa in considerazione in fase di acquisto. se 100/120€ di meno valgono in un senso possono valere anche nell'altro.
Dipende se giochi coi filtri o meno. 320MB sono lo stretto indispensabile già oggi, bisognerà vedere domani.
beh vedo che il tuo giudizio è notevolmente cambiato da quando dicesti:
pensa è pure pompata di meno e si stava parlando della ultra.
se la strategia sarà buona o cattiva lo sapremo nel tempo.
intanto aspettiamo lunedi.
Credo che tu non abbia colto il senso di ciò che dicevo. Con la Ultra non si scontra nessuno, perchè praticamente nessuno, per un bel po' di tempo, la comprerà. Non porta reali vantaggi e costa un botto. E' una scheda "fittizia" (almeno per ora) così come lo fu la 7800GTX 512MB. Puro e-penis measurement. ;)
E non sono il solo a pensarla così...
"The NVIDIA GeForce 8800 Ultra is an utter waste of money." Fonte: Anandtech
ale0bello0pr
11-05-2007, 09:59
Rileggo i tuoi post 10 volte nella speranza di capire qualcosa in piu sulle reali prestazioni di queste 2900xt.Sembri abbastanza sicuro da quanto ho capito che queste schede facciano del male :D
Non è così?:fagiano:
(scusate mod dell'OT)
Nooooo quale male.... :p
Piu' che altro BENE....tanto BENE...per noi....era ora finalmente...:) :D
la vita è diventata troppo cara anche in ambito IT....
Paragonerei AMD come quella azienda che vuole dare il TOP....con prezzi ragionevoli....(ankè perkè nn dimentichiamoci che ora ha dei debiti allucinanti con la J.P. Morgan).....x poter tornare sul mercato e restare la competitor di INTEL e nVidia....
Cavolo 3 gg.........
Qui si parlera' soprattutto di rapporto QUALITA'/POTENZA/PREZZO....ma nn xkè vada a confrontarsi con la piu' bassa categoria HIGH END.....
può esser tutto. aspettiamo. appena 76 ore.
hal, l'hai detto in tutte le salse, il concetto è sufficientemente chiaro. ;)
halduemilauno
11-05-2007, 10:03
Credo che tu non abbia colto il senso di ciò che dicevo. Con la Ultra non si scontra nessuno, perchè praticamente nessuno, per un bel po' di tempo, la comprerà. Non porta reali vantaggi e costa un botto. E' una scheda "fittizia" (almeno per ora) così come lo fu la 7800GTX 512MB. Puro e-penis measurement. ;)
E non sono il solo a pensarla così...
"The NVIDIA GeForce 8800 Ultra is an utter waste of money." Fonte: Anandtech
ma potrei anche essere d'accordo. ma perchè citarla? perchè l'hai citata tu la ultra.
halduemilauno
11-05-2007, 10:05
hal, l'hai detto in tutte le salse, il concetto è sufficientemente chiaro. ;)
si forse alla massa ma non a tutti. ricorderai cosa si diceva non più tardi del 23 aprile. e in qualche caso(sempre troppi) anche dopo.
;)
thommy87
11-05-2007, 10:05
spero solo di non dover cambiare il mio alimentatore da 450 watt...secondo voi ce la farà?
Portocala
11-05-2007, 10:08
io non capisco le seghe mentali sul va meno della gtx e della ultra, o è in mezzo.
Io quando compro una scheda guardo la scelta migliore per i soldi che ho.
quindi prestazioni/prezzo batte tutto!
Quindi: se la 2900xt costa 100 euro in più ma le prestazioni non distano esageratamente dalla 8800gts 320, preferisco di granlunga quest'ultima.
Anche ragionando sul futuro, dato che non ci sono giochi dx10 nemmeno la 640 si può affermare sia sufficiente.
E poi, cavolo, stiamo parlando di giocabilità a 2000x1600 che senza offesa rispetto agli 800x600 che uso adesso li trovo assurdi.
halduemilauno
11-05-2007, 10:08
spero solo di non dover cambiare il mio alimentatore da 450 watt...secondo voi ce la farà?
A) dipende dal resto del pc.
B) dipende da quanti ampere ci sono sui +12 volt.
;)
Robbysca976
11-05-2007, 10:12
io non capisco le seghe mentali sul va meno della gtx e della ultra, o è in mezzo.
Io quando compro una scheda guardo la scelta migliore per i soldi che ho.
quindi prestazioni/prezzo batte tutto!
Quindi: se la 2900xt costa 100 euro in più ma le prestazioni non distano esageratamente dalla 8800gts 320, preferisco di granlunga quest'ultima.
Anche ragionando sul futuro, dato che non ci sono giochi dx10 nemmeno la 640 si può affermare sia sufficiente.
E poi, cavolo, stiamo parlando di giocabilità a 2000x1600 che senza offesa rispetto agli 800x600 che uso adesso li trovo assurdi.
Santo Subito... ;)
thommy87
11-05-2007, 10:12
18 leggevo ce ne sono sui 12 volt ...il resto del pc e buono(conroe 6600 a 3150 mhz mobo gigabyte ds 4 e 2 giga di ram corsair...penso di riuscire a sfruttare la scheda benone:O
halduemilauno
11-05-2007, 10:12
io non capisco le seghe mentali sul va meno della gtx e della ultra, o è in mezzo.
Io quando compro una scheda guardo la scelta migliore per i soldi che ho.
quindi prestazioni/prezzo batte tutto!
Quindi: se la 2900xt costa 100 euro in più ma le prestazioni non distano esageratamente dalla 8800gts 320, preferisco di granlunga quest'ultima.
Anche ragionando sul futuro, dato che non ci sono giochi dx10 nemmeno la 640 si può affermare sia sufficiente.
E poi, cavolo, stiamo parlando di giocabilità a 2000x1600 che senza offesa rispetto agli 800x600 che uso adesso li trovo assurdi.
è stato ed è il mio pensiero. immaginando che amd/ati non potesse fare molto sulla fascia 250/270€(e in tutti i casi 130/150€ di meno sono una bella molla per l'acquisto) ho preso una 8800gts320 a 250€ I.I.
;)
halduemilauno
11-05-2007, 10:14
18 leggevo ce ne sono sui 12 volt ...il resto del pc e buono(conroe 6600 a 3150 mhz mobo gigabyte ds 4 e 2 giga di ram corsair...penso di riuscire a sfruttare la scheda benone:O
il resto del pc intendevo anche in'ottica consumo. 18 ampere sono di gran lunga insufficienti.
;)
18 leggevo ce ne sono sui 12 volt ...il resto del pc e buono(conroe 6600 a 3150 mhz mobo gigabyte ds 4 e 2 giga di ram corsair...penso di riuscire a sfruttare la scheda benone:O
non và bene compratente uno buono,in base a quanto consuma presumo che ne occorreranno oltre i 30A sui 12v..
Portocala
11-05-2007, 10:15
anticipato. Cmq Tommy sei offtopic.
in effetti 100 euro fanno gola perchè possono permettere un up da qualche altra parte nel sistema perdendo quei 5-10 fps ma guadagnando in qualcos'altro
ma potrei anche essere d'accordo. ma perchè citarla? perchè l'hai citata tu la ultra.
Veramente l'avevano citata "altri", alcuni dei quali poi si sono anche andati a "vantare" su altri thread (quello della GTX, ma non riporterò i loro post per non scatenare flame), dicendo che con l'uscita della Ultra la XT si sarebbe scontrata col top di gamma nVIDIA, cioè la Ultra. Comunque è un discorso sterile, che non proseguirò.
io non capisco le seghe mentali sul va meno della gtx e della ultra, o è in mezzo.
Io quando compro una scheda guardo la scelta migliore per i soldi che ho.
quindi prestazioni/prezzo batte tutto!
Quindi: se la 2900xt costa 100 euro in più ma le prestazioni non distano esageratamente dalla 8800gts 320, preferisco di granlunga quest'ultima.
Anche ragionando sul futuro, dato che non ci sono giochi dx10 nemmeno la 640 si può affermare sia sufficiente.
E poi, cavolo, stiamo parlando di giocabilità a 2000x1600 che senza offesa rispetto agli 800x600 che uso adesso li trovo assurdi.
Il problema è: siamo proprio sicuri che la 320 vada proprio come la 640 a 1280x1024 con tutto al max e HDR in R6Vegas per esempio? O in TDU con filtri e HDR?
Inoltre bisogna ancora vedere quali sono le prestazioni della XT.
Dipende se giochi coi filtri o meno. 320MB sono lo stretto indispensabile già oggi, bisognerà vedere domani.
Credo che tu non abbia colto il senso di ciò che dicevo. Con la Ultra non si scontra nessuno, perchè praticamente nessuno, per un bel po' di tempo, la comprerà. Non porta reali vantaggi e costa un botto. E' una scheda "fittizia" (almeno per ora) così come lo fu la 7800GTX 512MB. Puro e-penis measurement. ;)
E non sono il solo a pensarla così...
"The NVIDIA GeForce 8800 Ultra is an utter waste of money." Fonte: Anandtech
La 8800ULTRA non si scontra con nessuno perchè non c'è un altra scheda dello stesso prezzo con cui confrontarla. Se qualcuno ha 700€ da spendere per una vga, può solo scegliere quella.
Si potrebbe confrontarla con una soluzione SLI o CF, tenendo in considerazione il costo di una mb dual vga e un alimentatore più potente.
Continuate a confrontare le schede in base alle prestazioni, ma il metro di paragone è il prezzo. Ed è su questo che punta ATI. Se esce a 399€, andrà a competere con le 8800 più abbordabili.
Questo dovrebbe essere solo il primo passo verso un ribasso generale dei prezzi.
io non capisco le seghe mentali sul va meno della gtx e della ultra, o è in mezzo.
Io quando compro una scheda guardo la scelta migliore per i soldi che ho.
quindi prestazioni/prezzo batte tutto!
Quindi: se la 2900xt costa 100 euro in più ma le prestazioni non distano esageratamente dalla 8800gts 320, preferisco di granlunga quest'ultima.
Anche ragionando sul futuro, dato che non ci sono giochi dx10 nemmeno la 640 si può affermare sia sufficiente.
E poi, cavolo, stiamo parlando di giocabilità a 2000x1600 che senza offesa rispetto agli 800x600 che uso adesso li trovo assurdi.
peccato che non tieni conto che in quei 100 euro in più hai 192MB di ram video in più, hai l'uscita HDMI con HDCP e audio digitale 7.1 attraverso l'HDMI. Hai un chip di decodifica COMPLETAMENTE IN HARDWARE dei filmati con formati HD, ha 2 dual DVi dual link a 30bit.
In ambito 3d hanno introdotto il bicubic filtering per le texture, nuovi metodi di AA, i geometry shaders che la nvidia se lo scorda per un bel po.
No...non si possono paragonare questi 2 prodotti... ati con la serie HD proprone molto di più che una "semplice" scheda video.
thommy87
11-05-2007, 10:24
ok mi arrendo ne comprerò uno di marca decente scusate per l ot...cmq io non mi sbilancerei a dire che la l 8800 vada meglio di una 2900 per il fatto che nvidia e da 6 mesi che perfeziona i driver per queste schede mentre quindi aspetterei almeno 2 mesi..
Il problema è: siamo proprio sicuri che la 320 vada proprio come la 640 a 1280x1024 con tutto al max e HDR in R6Vegas per esempio? O in TDU con filtri e HDR?
Inoltre bisogna ancora vedere quali sono le prestazioni della XT.
Sono d'accordo con te. Anche secondo me la 320mb non è una scheda che ti permetterà di giocare a 1280x1024 ancora per molto...
La 8800ULTRA non si scontra con nessuno perchè non c'è un altra scheda dello stesso prezzo con cui confrontarla. Se qualcuno ha 700€ da spendere per una vga, può solo scegliere quella.
Si potrebbe confrontarla con una soluzione SLI o CF, tenendo in considerazione il costo di una mb dual vga e un alimentatore più potente.
Continuate a confrontare le schede in base alle prestazioni, ma il metro di paragone è il prezzo. Ed è su questo che punta ATI. Se esce a 399€, andrà a competere con le 8800 più abbordabili.
Questo dovrebbe essere solo il primo passo verso un ribasso generale dei prezzi.
se ti sente appleroof sono dolori! :asd:
se ti sente appleroof sono dolori! :asd:
effettivamente..... :asd:
Sono d'accordo con te. Anche secondo me la 320mb non è una scheda che ti permetterà di giocare a 1280x1024 ancora per molto...
Quotone.
ale0bello0pr
11-05-2007, 10:29
per tutti quelli che dicono che le schede in DX9 non andranno.....
guardate qui......io sono senza parole...
http://files.filefront.com/Crysis+Multiplayer+DX9+Movie/;7479657;/fileinfo.html
io non capisco le seghe mentali sul va meno della gtx e della ultra, o è in mezzo.
Io quando compro una scheda guardo la scelta migliore per i soldi che ho.
quindi prestazioni/prezzo batte tutto!
Quindi: se la 2900xt costa 100 euro in più ma le prestazioni non distano esageratamente dalla 8800gts 320, preferisco di granlunga quest'ultima.
Anche ragionando sul futuro, dato che non ci sono giochi dx10 nemmeno la 640 si può affermare sia sufficiente.
E poi, cavolo, stiamo parlando di giocabilità a 2000x1600 che senza offesa rispetto agli 800x600 che uso adesso li trovo assurdi.
Non devi vederla sotto l'ottica del "Va 10 frame in meno a 2000x1000 dell'altra allora non mi va bene". A molti come a me interessa capire e sapere le scelte dell'azienda, l'aspetto anche "politico" dietro il rilascio di nuova scheda e il perche' certe cose hanno portato a situazioni tra cui il posizionamento prestazionale rispetto alla spesa.
Poi e' ovvio che entrambe siano mostri ed entrambe le schede concorrenti renderanno magnificamente (anche se NV30 insegna che a volte...) a questi livelli.
peccato che non tieni conto che in quei 100 euro in più hai 192MB di ram video in più, hai l'uscita HDMI con HDCP e audio digitale 7.1 attraverso l'HDMI. Hai un chip di decodifica COMPLETAMENTE IN HARDWARE dei filmati con formati HD, ha 2 dual DVi dual link a 30bit.
In ambito 3d hanno introdotto il bicubic filtering per le texture, nuovi metodi di AA, i geometry shaders che la nvidia se lo scorda per un bel po.
No...non si possono paragonare questi 2 prodotti... ati con la serie HD proprone molto di più che una "semplice" scheda video.
Di tutte le feature che hai descritto, solo i nuovi filtri mi incuriosiscono. Il resto conta poco ai fini del video gaming, che è lo scopo principale di chi compra una scheda del genere.
L'AF delle 8800 è nettamente superiore a tutti quelli visti in precedenza, chissà come sarà quello di ATI :)
Portocala
11-05-2007, 10:31
Sono d'accordo con te. Anche secondo me la 320mb non è una scheda che ti permetterà di giocare a 1280x1024 ancora per molto...
come fai a dirlo? Cavolo le schede di adesso fanno 150, ripeto 150 fps a 1280x1024. :mc: scendere a 30 fps a questa risoluzione mi sembra esagerato.
Non tutti si permettono ste schede, ed i produttori di videogames lo sanno. non sono scemi da fare un prodotto per soli 18241gb di ram video. dai :mc:
scalabilità >>>
peccato che non tieni conto che in quei 100 euro in più hai 192MB di ram video in più, hai l'uscita HDMI con HDCP e audio digitale 7.1 attraverso l'HDMI. Hai un chip di decodifica COMPLETAMENTE IN HARDWARE dei filmati con formati HD, ha 2 dual DVi dual link a 30bit.
In ambito 3d hanno introdotto il bicubic filtering per le texture, nuovi metodi di AA, i geometry shaders che la nvidia se lo scorda per un bel po.
No...non si possono paragonare questi 2 prodotti... ati con la serie HD proprone molto di più che una "semplice" scheda video.
quindi dovrei prendere un monitor da 3000 euro, 2 monitor lcd, casse da 800 euro. Devo giocare non aprire un cinema.
E se le 8800gts da 320 scendono a 200-220 euro con l'uscita delle 2900, non le consiglieresti come fascia media, perchè no hdmi, hdcp,audio e tutte quelle cose?
non ci credo :stordita:
Di tutte le feature che hai descritto, solo i nuovi filtri mi incuriosiscono.
a me invece tutte le altre cose fanno gola, e non poco..:)
Portocala
11-05-2007, 10:34
Non devi vederla sotto l'ottica del "Va 10 frame in meno a 2000x1000 dell'altra allora non mi va bene". A molti come a me interessa capire e sapere le scelte dell'azienda, l'aspetto anche "politico" dietro il rilascio di nuova scheda e il perche' certe cose hanno portato a situazioni tra cui il posizionamento prestazionale rispetto alla spesa.
Poi e' ovvio che entrambe siano mostri ed entrambe le schede concorrenti renderanno magnificamente (anche se NV30 insegna che a volte...) a questi livelli.
lo so, ci sono tanti aspetti da guardare, ma sentire "va meno della ultra" non si riferisce alla politica dell'azienda e a tutto quello che cè stato dietro al lancio del prodotto.
Questa telenovella di AMD mi ha incuriositò molto e aspetto ansioso il 14 per vedere l'epilogo, e spero ci sia il happy-ending. :D
per tutti quelli che dicono che le schede in DX9 non andranno.....
guardate qui......io sono senza parole...
http://files.filefront.com/Crysis+Multiplayer+DX9+Movie/;7479657;/fileinfo.html
Bisogna purtroppo vedere quale scheda farà andare così Crysis in DX9 in multiplayer... Da quanto ne sappiamo (cioè nulla) per quel video avrebbero anche potuto usare una 8800GTX (in modalità DX9).
se ti sente appleroof sono dolori! :asd:
Beh, ma ha ragionissima johnson ;) la quasi totalità delle review, anche quelle di HWup, utilizza questi criteri per stabilire le fasce, il resto sono seghe mentali che all'utente finale importano zero...
Piuttosto, se la 2900 xt si dovesse scontrare con le 8800gts per fascia di prezzo, scegliere l'antagonista nella versione da 640 o 320 cambia poco, anzi... è meglio per nVidia ed i suoi supporter che si scontri con la versione da 640, perchè tra features nuove, dotazione ram e prestazioni (pare) superiori, la 320 ne uscirebbe decisamente male.
Per quanto, delle 2900xt me ne frego, vorrei delle indiscrezioni sulle 2600xt con test nei giochi :muro:
E se le 8800gts da 320 scendono a 200-220 euro con l'uscita delle 2900, non le consiglieresti come fascia media, perchè no hdmi, hdcp,audio e tutte quelle cose?
non ci credo :stordita:
Sicuramente per chi vuole solo giocare sì. Ma nella fascia media le prestazioni multimediali contano parecchio, e lì le 8800 sono nettamente carenti (sono peggio delle 8600). ;)
peccato che non tieni conto che in quei 100 euro in più hai 192MB di ram video in più, hai l'uscita HDMI con HDCP e audio digitale 7.1 attraverso l'HDMI. Hai un chip di decodifica COMPLETAMENTE IN HARDWARE dei filmati con formati HD, ha 2 dual DVi dual link a 30bit.
In ambito 3d hanno introdotto il bicubic filtering per le texture, nuovi metodi di AA, i geometry shaders che la nvidia se lo scorda per un bel po.
No...non si possono paragonare questi 2 prodotti... ati con la serie HD proprone molto di più che una "semplice" scheda video.
L'HDCP non è prerogativa ATI e basta.Tutte 8800 hanno sicuramente la codifica...
Portocala
11-05-2007, 10:39
per tutti quelli che dicono che le schede in DX9 non andranno.....
guardate qui......io sono senza parole...
http://files.filefront.com/Crysis+Multiplayer+DX9+Movie/;7479657;/fileinfo.html
ammetto che non sapevo nemmeno cosa fosse sto Crysis :stordita:
Perchè andava cosi veloce il video? è il mio pc che visualizzava il video cosi o davvero il gioco è cosi frenetico?
Continuate a confrontare le schede in base alle prestazioni, ma il metro di paragone è il prezzo. Ed è su questo che punta ATI. Se esce a 399€, andrà a competere con le 8800 più abbordabili.
Questo dovrebbe essere solo il primo passo verso un ribasso generale dei prezzi.
Sono d'accordo... la classificazione di una gamma di schede (e il confronto con quelle "avversarie") deve avvenire in base al prezzo, unico parametro in "comune" e quindi direttamente relazionabile... ;)
Portocala
11-05-2007, 10:41
Per quanto, delle 2900xt me ne frego, vorrei delle indiscrezioni sulle 2600xt con test nei giochi :muro:
bisogna vedere se le 2600 andranno contro le 8800/320 o contro le 8600GTS
Sicuramente per chi vuole solo giocare sì. Ma nella fascia media le prestazioni multimediali contano parecchio, e lì le 8800 sono nettamente carenti (sono peggio delle 8600). ;)
vero, avevo letto che le 8600 hanno una decodifica spettacolare.
EDIT:
500 ... po po po :asd:
halduemilauno
11-05-2007, 10:42
Inoltre bisogna ancora vedere quali sono le prestazioni della XT.
tu questo lo dici adesso. io è da due aspettando fa(e questo è il terzo) che lo dico.
thommy87
11-05-2007, 10:43
secondo voi è davvero cosi sprecata scheda video di tale potenza su uno schermo lcd di risoluzione massima a 1280 x 1024?
Soulbringer
11-05-2007, 10:43
secondo voi è davvero cosi sprecata scheda video di tale potenza su uno schermo lcd di risoluzione massima a 1280 x 1024?
si
secondo voi è davvero cosi sprecata scheda video di tale potenza su uno schermo lcd di risoluzione massima a 1280 x 1024?
Secondo me non tanto. Coi giochi DX10 non credo si potrà giocare con tutto al max, filtri e figate varie a risoluzioni tanto più alte di quella.
bisogna vedere se le 2600 andranno contro le 8800/320 o contro le 8600GTS
IMHO la vera battaglia si combatterà nella fascia mainstream, e qui c'è il problema: se effettivamente la disponibilità delle 2600XT arriverà solo da giugno inoltrato, le recensioni di lunedì dovranno mostrare un dominio pressochè netto sulle 8600gts, altrimenti tutti quelli che hanno aspettato finora si fionderanno a prendersi una 8600... a che pro aspettare ancora per una scheda che va quasi uguale?
La faccenda 8800gts 320 io invece la prenderei con le molle: il VERO prezzo delle gts320, a parte un singolo shop che non spedisce :asd: quindi ininfluente, rimane sui 300 e passa. E segnali di abbassamento non ne vedo, anche perchè per abbassare quelle nVidia dovrebbe far crollare verticalmente anche il prezzo delle 8600.
Certo, se le gts320 arrivassero sui 200 (il che vuol dire UN TERZO in meno di quello che costano adesso, siamo realistici su...) sarebbero più che appetibili... ma mi pare fantascienza nel prossimo futuro (per tutto quest'anno e parte dell'anno prossimo, credo proprio che meno di 250 non le pagherà nessuno)
thommy87
11-05-2007, 10:47
bah per me no..per quanto potrai giocare al massimo a 1280 con questa scheda?penso sara sprecata adesso ma sara piu longeva e per 2 anni potro giocare al massimo no?se compro una scheda che adesso ti permette di giocare a 1280 ma oltre non va tra 6 mesi sara gia da buttare..non so se mi spiego
halduemilauno
11-05-2007, 10:47
secondo voi è davvero cosi sprecata scheda video di tale potenza su uno schermo lcd di risoluzione massima a 1280 x 1024?
oltre che di tale potenza direi anche di tale costo. io per la stessa risoluzione ho speso 250€.
;)
secondo voi è davvero cosi sprecata scheda video di tale potenza su uno schermo lcd di risoluzione massima a 1280 x 1024?
Per come la vedo io, no. ;)
thommy87
11-05-2007, 10:52
oltre che di tale potenza direi anche di tale costo. io per la stessa risoluzione ho speso 250€.
;)
si ma tra un po di mesi magari farai gia fatica io andro fluido per molto piu tempo..questo intendo..certo adesso basterebbe anche una x1900 xt a 1280
secondo voi è davvero cosi sprecata scheda video di tale potenza su uno schermo lcd di risoluzione massima a 1280 x 1024?
No (in ottica futura).
Un domani all'arrivo dei primi titoloni Directx10 vedrai come si ridimensioneranno le risoluzioni e torneremo tutti a livelli piu' umani.
Ora tutti approfittano del fatto che l'hardware aspetta il software. Poi arriva un qualsiasi gioco alla Doom3 ed ecco tutti a scendere fino a risoluzioni da handheld.
Soulbringer
11-05-2007, 10:54
bah per me no..per quanto potrai giocare al massimo a 1280 con questa scheda?penso sara sprecata adesso ma sara piu longeva e per 2 anni potro giocare al massimo no?se compro una scheda che adesso ti permette di giocare a 1280 ma oltre non va tra 6 mesi sara gia da buttare..non so se mi spiego
Nessun dubbio che ti dura di più e che per 2 anni giocherai al max..però bisogna valutare bene se conviene appoggiarsi su più fasce medie e tirare avanti così oppure tenersi per più anni una hd2900xt..
halduemilauno
11-05-2007, 10:55
si ma tra un po di mesi magari farai gia fatica io andro fluido per molto piu tempo..questo intendo..certo adesso basterebbe anche una x1900 xt a 1280
non è in discussione che la 2900xt sia più potente della 8800gts320. se ne faceva un discorso di prezzo. poi quanto tu andrai fluido e io faticherò lo vediamo da lunedi in poi.
;)
secondo voi è davvero cosi sprecata scheda video di tale potenza su uno schermo lcd di risoluzione massima a 1280 x 1024?
Magari andrò contro la maggioranza delle opinioni ma credo che una tale scelta non sia così un controsenso.
Credo che a tale risoluzione avrò una ottima longevità con tutti i filtri attivati (speriamo, considerando l'esponenziale incrememnto di risorse), diciamo per 16-18 mesi? (mia personalissima supposizione).
Al contrario avendo un ottimo monitor LCD con risuluzioni superiori ora come ora potrò giocare al max ma tra 1 anno sarò probabilmente costretto a compromessi (consierando che al di fuori della risoluzione nativa gli LCD hanno un bel degrado di qualità dell'imamgine)
io per ora me ne resto con il mio monitor 1280x1024 a tubo catodico con schermo piatto, che mi ha onorevolmente servito per tanti anni :D
halduemilauno
11-05-2007, 10:59
La 8800ULTRA non si scontra con nessuno perchè non c'è un altra scheda dello stesso prezzo con cui confrontarla. Se qualcuno ha 700€ da spendere per una vga, può solo scegliere quella.
Si potrebbe confrontarla con una soluzione SLI o CF, tenendo in considerazione il costo di una mb dual vga e un alimentatore più potente.
Continuate a confrontare le schede in base alle prestazioni, ma il metro di paragone è il prezzo. Ed è su questo che punta ATI. Se esce a 399€, andrà a competere con le 8800 più abbordabili.
Questo dovrebbe essere solo il primo passo verso un ribasso generale dei prezzi.
si deve sempre confrontare top contro top. che fai nelle rece la ultra non ce la metti??? poi si possono fare altri discorsi. che infatti abbiamo fatto.
;)
si deve sempre confrontare top contro top. che fai nelle rece la ultra non ce la metti??? poi si possono fare altri discorsi. che infatti abbiamo fatto.
;)
Che senso ha confrontare una vga da 400€ con una da 700€? Mi pare abbastanza ovvio che quella da 700 vada meglio...
thommy87
11-05-2007, 11:02
Magari andrò contro la maggioranza delle opinioni ma credo che una tale scelta non sia così un controsenso.
Credo che a tale risoluzione avrò una ottima longevità con tutti i filtri attivati (speriamo, considerando l'esponenziale incrememnto di risorse), diciamo per 16-18 mesi? (mia personalissima supposizione).
Al contrario avendo un ottimo monitor LCD con risuluzioni superiori ora come ora potrò giocare al max ma tra 1 anno sarò probabilmente costretto a compromessi (consierando che al di fuori della risoluzione nativa gli LCD hanno un bel degrado di qualità dell'imamgine)
io per ora me ne resto con il mio monitor 1280x1024 a tubo catodico con schermo piatto, che mi ha onorevolmente servito per tanti anni :D
è quello che intendo dire..w i filtri spinti:D
Che senso ha confrontare una vga da 400€ con una da 700€? Mi pare abbastanza ovvio che quella da 700 vada meglio...
ha senso quando entrambe rappresentano il massimo della tecnologia raggiunta da un'azienda in un determinato periodo..come già detto, il prezzo presunto che amd chiede per la 2900 é proporzionale alle prestazioni..se fosse vero il contrario penso che molti vedrebbero il paragone top g80 con top r600..se lunedi risulta che la 2900 va come la ultra che si fa ? paragonate con la gts ?
non è in discussione che la 2900xt sia più potente della 8800gts320. se ne faceva un discorso di prezzo. poi quanto tu andrai fluido e io faticherò lo vediamo da lunedi in poi.
;)
Più che altro dai giochi DX10 in poi. :asd:
non è in discussione che la 2900xt sia più potente della 8800gts320. se ne faceva un discorso di prezzo. poi quanto tu andrai fluido e io faticherò lo vediamo da lunedi in poi.
;)
non è in discussione, questo è poco ma sicuro, pero scusate tanto ormai in pratica si è detto molto ma molto di più di quello che io avevo visto l'altro mese, e più che lato game mi ero impressionato per la multimedialita, poco tempo fa veniva decretato la dismissione delle aiw che erano il nonplus ati, ora la nuova serie oltre che il marchio HD stampato che dara una bella botta di mercato tipo athlon xp dei vecchi tempi, e già un'indicazione di dove vogliono puntare, a mio avviso le hd2xxx, sono l'evoluzione delle aiw dalla tv alla alta definizione ed andranno ad intacare verso Gamer incalliti e non, appasionati di multimedialita video compositori e quant'altro, vi prego di non considerarla solo una mangi frame e basta:)
ha senso quando entrambe rappresentano il massimo della tecnologia raggiunta da un'azienda in un determinato periodo..come già detto, il prezzo presunto che amd chiede per la 2900 é proporzionale alle prestazioni..se fosse vero il contrario penso che molti vedrebbero il paragone top g80 con top r600
Dubito fortemente che sia vero il contrario, ovvero che la 2900xt sia paragonabile anche con una gtx pur costando nettamente meno. L'ho scritto anche altre volte, io sono sempre dell'idea che a questo mondo nessuno ti regala nulla, indi se la 2900xt costa 400 sacchi vuol dire che tanto vale.
http://www.pctuner.info/up/results/_200705/20070511120559_bab2290803003b0e1a2b88402fdf5c3b_MSI_wc_hd2900xt_large.jpg
http://www.pctuner.info/up/results/_200705/20070511120905_02.jpg
http://www.pctuner.info/up/results/_200705/20070511120934_05.jpg
IMHO la vera battaglia si combatterà nella fascia mainstream, e qui c'è il problema: se effettivamente la disponibilità delle 2600XT arriverà solo da giugno inoltrato, le recensioni di lunedì dovranno mostrare un dominio pressochè netto sulle 8600gts, altrimenti tutti quelli che hanno aspettato finora si fionderanno a prendersi una 8600... a che pro aspettare ancora per una scheda che va quasi uguale?
La faccenda 8800gts 320 io invece la prenderei con le molle: il VERO prezzo delle gts320, a parte un singolo shop che non spedisce :asd: quindi ininfluente, rimane sui 300 e passa. E segnali di abbassamento non ne vedo, anche perchè per abbassare quelle nVidia dovrebbe far crollare verticalmente anche il prezzo delle 8600.
Certo, se le gts320 arrivassero sui 200 (il che vuol dire UN TERZO in meno di quello che costano adesso, siamo realistici su...) sarebbero più che appetibili... ma mi pare fantascienza nel prossimo futuro (per tutto quest'anno e parte dell'anno prossimo, credo proprio che meno di 250 non le pagherà nessuno)
Se le hd2600xt dovessero polverizzare le 8600GTS, a nvidia non resterebbe altro che abbassare la 8800 320mb e di conseguenza tutte le 8600/8500. Non è che ci siano molte alternative se si vuole vendere.
Magari non scenderanno a 200€, ma forse non c'è nemmeno bisogno che scendano così tanto... basterebbe un abbassamento a 250€ per diventare appettibile.
Secondo il tuo ragionamento, ATI dovrebbe vendere la sua ammiraglia a 550/600€ come la GTX appena uscita ( un terzo di meno di quello che molto probabilmente sarà il loro costo :D )... per nostra fortuna, le loro direzioni marking sono un po' più sveglie :D
Dubito fortemente che sia vero il contrario, ovvero che la 2900xt sia paragonabile anche con una gtx pur costando nettamente meno. L'ho scritto anche altre volte, io sono sempre dell'idea che a questo mondo nessuno ti regala nulla, indi se la 2900xt costa 400 sacchi vuol dire che tanto vale.
lo sempre pensato anch'io questo, ma comunque sempre meglio ipotizzare:)
a me invece tutte le altre cose fanno gola, e non poco..:)
...quotone. M'incuriosiscono davvero tanto tutte le novità previste in R600. e chissà se ci sarà qualche sorpresa da questo punto di vista...
:)
lo sempre pensato anch'io questo, ma comunque sempre meglio ipotizzare:)
Fino a lunedi si può SOLO ipotizzare. :D
http://www.pctuner.info/up/results/_200705/20070511120905_02.jpg
http://www.pctuner.info/up/results/_200705/20070511120934_05.jpg
GDDR4 su 2600XT. molto bene, quindi dovrebbe essere 800/2200. Ed avere 120 shader unificati. Mi sa che sarà questa la grossa sorpresa per ATi...
:)
Portocala
11-05-2007, 11:15
nooo il 14 maggio devo andare dal medico e non potro vedere la rece se non in tardo pomeriggio :cry:
halduemilauno
11-05-2007, 11:16
Se le hd2600xt dovessero polverizzare le 8600GTS, a nvidia non resterebbe altro che abbassare la 8800 320mb e di conseguenza tutte le 8600/8500. Non è che ci siano molte alternative se si vuole vendere.
Magari non scenderanno a 200€, ma forse non c'è nemmeno bisogno che scendano così tanto... basterebbe un abbassamento a 250€ per diventare appettibile.
Secondo il tuo ragionamento, ATI dovrebbe vendere la sua ammiraglia a 550/600€ come la GTX appena uscita ( un terzo di meno di quello che molto probabilmente sarà il loro costo :D )... per nostra fortuna, le loro direzioni marking sono un po' più sveglie :D
Magari non scenderanno a 200€, ma forse non c'è nemmeno bisogno che scendano così tanto... basterebbe un abbassamento a 250€ per diventare appettibile.
oppure presentare la 8600 che si è tenuta nel cassetto. e contemporaneamente abbassare i prezzi delle altre sotto.
;)
Se le hd2600xt dovessero polverizzare le 8600GTS, a nvidia non resterebbe altro che abbassare la 8800 320mb e di conseguenza tutte le 8600/8500. Non è che ci siano molte alternative se si vuole vendere.
Magari non scenderanno a 200€, ma forse non c'è nemmeno bisogno che scendano così tanto... basterebbe un abbassamento a 250€ per diventare appettibile.
Secondo il tuo ragionamento, ATI dovrebbe vendere la sua ammiraglia a 550/600€ come la GTX appena uscita ( un terzo di meno di quello che molto probabilmente sarà il loro costo :D )... per nostra fortuna, le loro direzioni marking sono un po' più sveglie :D
Magari non scenderanno a 200€, ma forse non c'è nemmeno bisogno che scendano così tanto... basterebbe un abbassamento a 250€ per diventare appettibile.
Ci sono anche altre variabili da tenere in conto... La fantomatica uscita di una 8600 a 256bit (anche se bisogna capire se a castrare la 8600 non siano invece le altre specifiche), la sicura uscita della X2900XL a (forse) 279€, il fatto che in quella fascia le prestazioni multimediali contano, ecc...
Danielao
11-05-2007, 11:17
già nel dubbio l'ho già ordinata.
Resta il fatto che se la scheda risulterà una sorpresa (che per me vuol dire allineata o leggermente superiore alla GTX) non giudicherò più il marketing.
ha senso quando entrambe rappresentano il massimo della tecnologia raggiunta da un'azienda in un determinato periodo..come già detto, il prezzo presunto che amd chiede per la 2900 é proporzionale alle prestazioni..se fosse vero il contrario penso che molti vedrebbero il paragone top g80 con top r600..se lunedi risulta che la 2900 va come la ultra che si fa ? paragonate con la gts ?
Il confronto TOP vs TOP indipendentemente dal prezzo è solo una chiacchiera al "chi lo ha più lungo". Le recensioni hanno l'obiettivo di analizzare un prodotto e di guidare all'acquisto chi è interessato a prodotti simili ed è evidente che in tal caso il rapporto prezzo/prestazioni è l'aspetto più importante.
Se poi si vogliono leggere le recensioni solo per poter scrivere il commento "mamma mia che potenza NVIDIA/ATI" ed autocopiacersi della scelta fatta...:rolleyes:
GDDR4 su 2600XT. molto bene, quindi dovrebbe essere 800/2200. Ed avere 120 shader unificati. Mi sa che sarà questa la grossa sorpresa per ATi...
:)
mmm è ipotizzabile che 2 di queste in xfire vadano meglio di una singola 2900?
Portocala
11-05-2007, 11:19
GDDR4 su 2600XT. molto bene, quindi dovrebbe essere 800/2200. Ed avere 120 shader unificati. Mi sa che sarà questa la grossa sorpresa per ATi...
:)
quel PC2008 sperò non voglia dire che le ritardano al 2008 :asd: :sofico: :fagiano:
...quotone. M'incuriosiscono d'avvero tanto tutte le novità previste in R600. e chissà se ci sarà qualche sorpresa da questo punto di vista...
:)
Pure io sono curioso :D
halduemilauno
11-05-2007, 11:20
mmm è ipotizzabile che 2 di queste in xfire vadano meglio di una singola 2900?
difficile ipotizzare. cmq ne dubito. tocca aspettare.
;)
GDDR4 su 2600XT. molto bene, quindi dovrebbe essere 800/2200. Ed avere 120 shader unificati. Mi sa che sarà questa la grossa sorpresa per ATi...
:)
mi sà che sarà questa la mia prossima vga,attendo con impazienza:D
a me invece tutte le altre cose fanno gola, e non poco..:)
quoto... ormai io il pc lo uso per molte altre cose...chi ci gioca e basta? nessuno...
Portocala
11-05-2007, 11:23
quoto... ormai io il pc lo uso per molte altre cose...chi ci gioca e basta? nessuno...
per molte altre cose intendi: navigare, guardare i film, le foto fatte al mare con la digitale, ascoltare la musica, e fare degli excel? perchè il pc è quello, le console sono solo per giocare.
Portocala chiudiamo l'OT subito và.
thommy87
11-05-2007, 11:24
http://www.pctuner.info/up/results/_200705/20070511120559_bab2290803003b0e1a2b88402fdf5c3b_MSI_wc_hd2900xt_large.jpg
http://www.pctuner.info/up/results/_200705/20070511120905_02.jpg
http://www.pctuner.info/up/results/_200705/20070511120934_05.jpg
le ragazze sono brutte le schede sono favoloseee
Il confronto TOP vs TOP indipendentemente dal prezzo è solo una chiacchiera al "chi lo ha più lungo". Le recensioni hanno l'obiettivo di analizzare un prodotto e di guidare all'acquisto chi è interessato a prodotti simili ed è evidente che in tal caso il rapporto prezzo/prestazioni è l'aspetto più importante.
Se poi si vogliono leggere le recensioni solo per poter scrivere il commento "mamma mia che potenza NVIDIA/ATI" ed autocopiacersi della scelta fatta...:rolleyes:
...questo discorso non fa una grinza. concordo.
mmm è ipotizzabile che 2 di queste in xfire vadano meglio di una singola 2900?
...non so, bisogna vedere. E' ancora tutto da decifrare questo R600 & figli. Sulla carta questa 2600XT promette molto. Ma promette molto anche 2900. Lo ripeto, imho, la battaglia più importante per ATi adesso sono i driver. Poi in DX10 si vedrà.
(ci sentiamo dopo...se hai news...;) )
Le recensioni hanno l'obiettivo di analizzare un prodotto e di guidare all'acquisto chi è interessato a prodotti simili ed è evidente che in tal caso il rapporto prezzo/prestazioni è l'aspetto più importante.
Quotone! :O
Next we have the MSI RX2600XT-T2D256E, which as it happens, is a Radeon HD 2600XT with dual-DVI, TV-out and 256MB of GDDR4 memory. Again a total lack of clock speeds, but the interesting thing here is that it is an MSI design and it is using a black PCB. The cooler actually looks quite similar to that of the Radeon X1950XTX, but without the heat pipe. The card features internal Crossfire connectors and there was space on the back of the card for additional memory for a 512MB version. Interestingly, this card did not feature the extra power connector that we expected it to have, although there is space for a power connector at the top of the PCB.
http://www.pctuner.info/up/results/_200705/th_20070511122855_MSI_RHD2600XT_large.jpg (http://www.pctuner.info/up/image.php?src=_200705/20070511122855_MSI_RHD2600XT_large.jpg)
http://www.tweaktown.com/articles/1098/3/page_3_graphics_cards/index.html
per molte altre cose intendi: navigare, guardare i film, le foto fatte al mare con la digitale, ascoltare la musica, e fare degli excel? perchè il pc è quello, le console sono solo per giocare.
sinceramente i tuoi discorsi cominciano a farmi pensare che sei qua per flammare e basta...
io il pc lo collego al lcd HD, ci faccio video editing e grafica (2d e photoshop e 3d) senza contare i siti web...quindi li ci sono molte cosine che a me vanno a genio....
Next we have the MSI RX2600XT-T2D256E, which as it happens, is a Radeon HD 2600XT with dual-DVI, TV-out and 256MB of GDDR4 memory. Again a total lack of clock speeds, but the interesting thing here is that it is an MSI design and it is using a black PCB. The cooler actually looks quite similar to that of the Radeon X1950XTX, but without the heat pipe. The card features internal Crossfire connectors and there was space on the back of the card for additional memory for a 512MB version. Interestingly, this card did not feature the extra power connector that we expected it to have, although there is space for a power connector at the top of the PCB.
http://www.pctuner.info/up/results/_200705/th_20070511122855_MSI_RHD2600XT_large.jpg (http://www.pctuner.info/up/image.php?src=_200705/20070511122855_MSI_RHD2600XT_large.jpg)
http://www.tweaktown.com/articles/1098/3/page_3_graphics_cards/index.html
azz
..questa esce il 14:stordita: ???????
sinceramente i tuoi discorsi cominciano a farmi pensare che sei qua per flammare e basta...
io il pc lo collego al lcd HD, ci faccio video editing e grafica (2d e photoshop e 3d) senza contare i siti web...quindi li ci sono molte cosine che a me vanno a genio....
stesso discorso per te:
chiudiamo l'OT subito và.
ale0bello0pr
11-05-2007, 11:37
per molte altre cose intendi: navigare, guardare i film, le foto fatte al mare con la digitale, ascoltare la musica, e fare degli excel? perchè il pc è quello, le console sono solo per giocare.
mmmm queste considerazioni sono un po' troppo banali e riduttive....:rolleyes: e cmq qui stiamo parlando di HD 2000 Series...
Next we have the MSI RX2600XT-T2D256E, which as it happens, is a Radeon HD 2600XT with dual-DVI, TV-out and 256MB of GDDR4 memory. Again a total lack of clock speeds, but the interesting thing here is that it is an MSI design and it is using a black PCB. The cooler actually looks quite similar to that of the Radeon X1950XTX, but without the heat pipe. The card features internal Crossfire connectors and there was space on the back of the card for additional memory for a 512MB version. Interestingly, this card did not feature the extra power connector that we expected it to have, although there is space for a power connector at the top of the PCB.
http://www.pctuner.info/up/results/_200705/th_20070511122855_MSI_RHD2600XT_large.jpg (http://www.pctuner.info/up/image.php?src=_200705/20070511122855_MSI_RHD2600XT_large.jpg)
http://www.tweaktown.com/articles/1098/3/page_3_graphics_cards/index.html
come si farà a paragonare la banale 8600 GT/GS quello che vuoi...con questo mostro di tecnologia...bho...:boh:
azz
..questa esce il 14:stordita: ???????
presentazione il 14
commercializzazione a giugno
azz
..questa esce il 14:stordita: ???????
si è già detto e ripetuto. NO.
bYeZ!
Altra info certa :in questa prima partita di Sapphire non c'è il cavetto adattatore 6pin --> 8pin.
si è già detto e ripetuto. NO.
bYeZ!
hehe
domanda di routine:D
Il confronto TOP vs TOP indipendentemente dal prezzo è solo una chiacchiera al "chi lo ha più lungo". Le recensioni hanno l'obiettivo di analizzare un prodotto e di guidare all'acquisto chi è interessato a prodotti simili ed è evidente che in tal caso il rapporto prezzo/prestazioni è l'aspetto più importante.
Se poi si vogliono leggere le recensioni solo per poter scrivere il commento "mamma mia che potenza NVIDIA/ATI" ed autocopiacersi della scelta fatta...:rolleyes:
sembro polemico, ma le scoperte della tecnologia hanno sempre un prezzo, chiaro che il rapporto prezzo prestazioni conta, comunque se il mio bisogno é quello di giocare con un 30" e tutto al massimo sceglierò la scheda che "ce l'ha + lungo" quindi rapporterò il top che trovo sul mercato in quel determinato momento, questo credo valga ancora di + in un momento di transizione fra dx9 e dx10 poichè si presume che le prestazioni richieste dalla gpu saranno in salita
mmmm queste considerazioni sono un po' troppo banali e riduttive....:rolleyes: e cmq qui stiamo parlando di HD 2000 Series...
come si farà a paragonare la banale 8600 GT/GS quello che vuoi...con questo mostro di tecnologia...bho...:boh:
mostro? è tutto da vedere:asd: a quanti bit è?
webbuffa
11-05-2007, 11:48
Altra info certa :in questa prima partita di Sapphire non c'è il cavetto adattatore 6pin --> 8pin.
:O Due euro di cavetto... ma dai!
Portocala
11-05-2007, 11:49
mi scuso per i posts di prima :(
A quanto pare anche le 2600 saranno castrate a 128bit, mentre le HD 2900 XT sono a 512bit.
La versione a 256?
mi scuso per i posts di prima :(
A quanto pare anche le 2600 saranno castrate a 128bit, mentre le HD 2900 XT sono a 512bit.
La versione a 256?
Uscirà la X2900Pro, forse la presenteranno al Computex a giugno, ma non ho capito quando potrebbe essere in vendita.
stesso discorso per te:
gli ho risposto prima che andaste avanti col thread.... :O
scusaste... e cmq è un argomento IT alla grande, si parla di destinazione di utilizzo di questa scheda video.
Qua si parla di SCHEDE VIDEO, di HD2900, che non è il solito semplice acceletatore 3D...
Se volete relegare questa scheda video a queste semplici funzioni ludiche...beh...siete fuori strada!
sembro polemico, ma le scoperte della tecnologia hanno sempre un prezzo, chiaro che il rapporto prezzo prestazioni conta, comunque se il mio bisogno é quello di giocare con un 30" e tutto al massimo sceglierò la scheda che "ce l'ha + lungo" quindi rapporterò il top che trovo sul mercato in quel determinato momento, questo credo valga ancora di + in un momento di transizione fra dx9 e dx10 poichè si presume che le prestazioni richieste dalla gpu saranno in salita
Questo tuo discorso presuppone una disponibilità illimitata di denaro. Se così è, sono d'accordo con te. Che mi frega se costa 300€ (45%) in più e va solo un 20% più veloce? Prendo il top e via. Anzi, io con un 30", se non avessi problemi di soldi, comprerei 2 ULTRA in SLI :D
Alexkidd85
11-05-2007, 11:54
Comunque non sono d'accordo su chi dice "nessuno ti da niente per niente".
Amd sta passando un periodo non felicissimo(ma non direi sul "baratro") e consideriamo che anni fa faceva prezzi migliori della concorrenza con prestazioni superiori(i gloriosi tempi del tetto del giga raggiunto da lei).
Non vedo impossibile che lanci una vga che vada in alcuni giochi quanto la gts,in altri quanto la gtx e perché no:in overclock anche quanto la gtx.
Veramente non lo vedo sconvolgente uno scenario così.
Dissento anche da chi dice che a 1280 si possa giocare a tutti i titoli bene,o meglio,è in parte vero con i giochi fatti bene ma,sarò ripetitivo,uno su tutti,oblivion a 1280 diventa veramente un colosso...metto nel pentolone anche i 2 tom clancy's e il simpaticissimo(ma non a me e non sto qua a dire il perché) stalker e la lista continua tanto. Ovviamente parlo tutto al max,come uno vuole giocare con queste schede.
In un futuro spero in giochi veramente ben ottimizzati,come stanno facendo con crysis e hanno fatto con far cry. Allora si che sarò contento e per anni soddisfatto di avere una top di gamma :)
ale0bello0pr
11-05-2007, 11:55
mi scuso per i posts di prima :(
A quanto pare anche le 2600 saranno castrate a 128bit, mentre le HD 2900 XT sono a 512bit.
La versione a 256?
effettivamente xkè questa cag@ta dei 128 bit....almeno 256 dico io...forse farla a 256 bit vuol dire HD 2900 XL??
pierluigi86
11-05-2007, 11:58
:O Due euro di cavetto... ma dai!
appunto, visto che costa pochissimo lo potevano mettere! è come un televisore nuovo senza pile nel telecomando.
effettivamente xkè questa cag@ta dei 128 bit....almeno 256 dico io...forse farla a 256 bit vuol dire HD 2900 XL??
a 128bit possono pure portare il core a 1Ghz ma le 8800GTs 320 rimarranno + veloci IHMO.sicuro uscirà una XL
ale0bello0pr
11-05-2007, 11:59
appunto, visto che costa pochissimo lo potevano mettere! è come un televisore nuovo senza pile nel telecomando.
sai che tragedia.....:muro:
...sempre 2600 XT, dal punto di vista HDMI
http://www.hardspell.com/pic/2007/4/30/9f373797-af2f-4e94-be53-cff8f4557e25.jpg
http://www.hardspell.com/pic/2007/4/30/9360ec53-ef69-404e-8158-bdc674a5d431.jpg
http://www.hardspell.com/pic/2007/4/30/2ca7a891-cc58-4431-9a1b-1edf9f932e4c.jpg
http://www.hardspell.com/pic/2007/4/30/61ca9858-9a9c-4e04-87e5-a944ceb42b1c.jpg
...nella stessa recensione (che purtroppo non è scritta in inglese) ci sono le foto di due 2600, probabilmente PRO e XT. Nessuna delle due ha bisogno di alimentazione esterna.
:)
Portocala
11-05-2007, 12:00
effettivamente xkè questa cag@ta dei 128 bit....almeno 256 dico io...forse farla a 256 bit vuol dire HD 2900 XL??
2600xt 128 ddr3 - 2600xt 128 ddr4.
castrate cosi non credo che le memorie potranno fare tutta sta differenza.
sbaglio o stanno cercando di alzare il prezzo delle fasce. Una 2600/8600 sembra da fascia medio bassa al prezzo di una medio/alta di un paio di mesi fa.
Next we have the MSI RX2600XT-T2D256E, which as it happens, is a Radeon HD 2600XT with dual-DVI, TV-out and 256MB of GDDR4 memory. Again a total lack of clock speeds, but the interesting thing here is that it is an MSI design and it is using a black PCB. The cooler actually looks quite similar to that of the Radeon X1950XTX, but without the heat pipe. The card features internal Crossfire connectors and there was space on the back of the card for additional memory for a 512MB version. Interestingly, this card did not feature the extra power connector that we expected it to have, although there is space for a power connector at the top of the PCB.
http://www.pctuner.info/up/results/_200705/th_20070511122855_MSI_RHD2600XT_large.jpg (http://www.pctuner.info/up/image.php?src=_200705/20070511122855_MSI_RHD2600XT_large.jpg)
http://www.tweaktown.com/articles/1098/3/page_3_graphics_cards/index.html
Dal che ne deduciamo che il passaggio a 65nm ha dato i suoi frutti... meno calore e meno energia da succhiare :D
Cosa che mi rende felicissimo, ora tutto sta nel vedere le reali prestazioni - se decentemente sopra a 8600, una versione con 512mb non me la toglie nessuno, viste anche le possibilità multimediali che la concorrente non ha. E che, vista l'architettura, difficilmente avrà la futura versione a 256 bit (ma con lo stesso, irrisorio numero di shaders :rolleyes: ) della 8600...
Portocala
11-05-2007, 12:04
http://www.pcdiga.net/showpost.php?p=169044&postcount=22
Alexkidd85
11-05-2007, 12:08
2600xt 128 ddr3 - 2600xt 128 ddr4.
castrate cosi non credo che le memorie potranno fare tutta sta differenza.
E beh se così fosse...son d'accordo...
pierluigi86
11-05-2007, 12:08
sai che tragedia.....:muro:
infatti non è una tragedia, ma è pur sempre un piccolo fastidio che si poteva facilmente evitare.
infatti non è una tragedia, ma è pur sempre un piccolo fastidio che si poteva facilmente evitare.
esatto.
sembro polemico, ma le scoperte della tecnologia hanno sempre un prezzo, chiaro che il rapporto prezzo prestazioni conta, comunque se il mio bisogno é quello di giocare con un 30" e tutto al massimo sceglierò la scheda che "ce l'ha + lungo" quindi rapporterò il top che trovo sul mercato in quel determinato momento, questo credo valga ancora di + in un momento di transizione fra dx9 e dx10 poichè si presume che le prestazioni richieste dalla gpu saranno in salita
Considerando che le persone che si possono permettere ciò che dici tu (praticamente disponibilità illimitata) rappresentano probabilmente meno dello 0,01% dell'intero mercato delle schede video, mi sembra decisamente sbagliato decretare il successo o l'insuccesso di un prodotto basandosi solo sul "chi va più veloce in assoluto indipendentemente dal prezzo".
Di solito quando si usa il termine "tecnologia" con le schede video ci si riferisce più che altro alle loro capacità, al supporto degli shaders, l'antialiasing, riproduzione video, ecc... insomma più a livello di "features" che non di puri e semplici fps. Però è chiaro che il punto di vista è soggettivo. Anche in questo campo possiamo rapportare il tutto al prezzo: un prodotto dotato della tecnologia più avanzata possibile ma dal costo elevatissimo, rispetto ad un altro tecnologicamente un po meno avanzato ma dal costo più abbordabile, secondo te commercialmente come andrà?
La transizione DX9 - DX10 ad oggi è difficilmente valutabile. Non è detto che il prodotto più veloce in DX9 lo sarà anche in DX10 e non essendoci molti strumenti per valutare questo aspetto, al momento direi di non considerarlo proprio perché si potrebbero solo fare delle ipotesi e non ci si può basare sulle chiacchiere per un acquisto.
infatti non è una tragedia, ma è pur sempre un piccolo fastidio che si poteva facilmente evitare.
Neanche tanto piccolo, visto che ancora adesso è un terno al lotto trovare l'adattatore a 6 pin in Italia, figuriamoci quello da 8...
Gabriyzf
11-05-2007, 12:16
scusate, nella rece di hwu di Lunedì, oltre alla 2900xt ci sarà anche la 2600xt?
e si conoscono i prezzi di quest'ultima? 200€?
la 2600xt è a 65nm?
grazie e chiedo scusa se sono cose già state dette
DakmorNoland
11-05-2007, 12:19
sembro polemico, ma le scoperte della tecnologia hanno sempre un prezzo, chiaro che il rapporto prezzo prestazioni conta, comunque se il mio bisogno é quello di giocare con un 30" e tutto al massimo sceglierò la scheda che "ce l'ha + lungo" quindi rapporterò il top che trovo sul mercato in quel determinato momento, questo credo valga ancora di + in un momento di transizione fra dx9 e dx10 poichè si presume che le prestazioni richieste dalla gpu saranno in salita
Quello che dici è totalmente sbagliato!
Perchè la differenza tra una 2900XT o una 8800GTX e una Ultra è minima!
Quindi con uno schermo con risoluzione mostruosa con la Ultra guadagnerai 2FPS, che saranno cmq inutili!
Cioè se un gioco ti scatterà con GTX o 2900XT, nelle stesse condizioni ti scatterà pure con la Ultra.
Inoltre man mano che si va avanti e i giochi diventeranno + pesanti la differenza tra la Ultra e le altre due, diventerà sempre minore sino ad annullarsi!
Quindi prima di dire magari pensa un attimo! :rolleyes:
Mister Tarpone
11-05-2007, 12:21
come si farà a paragonare la banale 8600 GT/GS quello che vuoi...con questo mostro di tecnologia...bho...:boh:
ma infatti sta scheda è mitica :oink: sembra prometter bene!!! se va come una sassata me la compro al volo ;)
io ho l'impressione che una grossa sorpresa potrebbe essere proprio questa hd2600 ............... :fagiano:
Considerando che le persone che si possono permettere ciò che dici tu (praticamente disponibilità illimitata) rappresentano probabilmente meno dello 0,01% dell'intero mercato delle schede video, mi sembra decisamente sbagliato decretare il successo o l'insuccesso di un prodotto basandosi solo sul "chi va più veloce in assoluto indipendentemente dal prezzo".
Di solito quando si usa il termine "tecnologia" con le schede video ci si riferisce più che altro alle loro capacità, al supporto degli shaders, l'antialiasing, riproduzione video, ecc... insomma più a livello di "features" che non di puri e semplici fps. Però è chiaro che il punto di vista è soggettivo. Anche in questo campo possiamo rapportare il tutto al prezzo: un prodotto dotato della tecnologia più avanzata possibile ma dal costo elevatissimo, rispetto ad un altro tecnologicamente un po meno avanzato ma dal costo più abbordabile, secondo te commercialmente come andrà?
La transizione DX9 - DX10 ad oggi è difficilmente valutabile. Non è detto che il prodotto più veloce in DX9 lo sarà anche in DX10 e non essendoci molti strumenti per valutare questo aspetto, al momento direi di non considerarlo proprio perché si potrebbero solo fare delle ipotesi e non ci si può basare sulle chiacchiere per un acquisto.
Piu' che altro nascendo per primo il progetto high end quasi sempre se la scheda al top va davvero tanto ed e' costata "poco" o "il preventivato" in termini di progettazione e sviluppo significhera' piu' spazio per creare una famiglia middle e low end competitiva con una resa migliore soprattutto economica. Se la scheda al top e' costata un enormita' e non ha una collocazione commerciale a causa della competitivita' concorrente, la fascia media potrebbe (!) non essere competitiva imho.
Poi e' anche probabile che in questo caso AMD abbia deciso fin dall'inizio consapevole di un ritardo comunque non rimediabile, di focalizzarsi principalmente sulla fascia media e bassa lasciando all'high end un progetto che a 65nm era attualmente impossibile da pretendere (in termini di tape out e resa produttiva per il 2007) e che a 80nm non poteva essere spinto come avrebbe dovuto essere per vincere (come ci si aspetterebbe di logica dopo tot mesi) contro un prodotto (G80) che ha dimostrato che Nvidia vuoi per capacita' vuoi per "buona sorte", riesce da un po' di anni in progetti ambiziosi senza passi falsi dopo lo scivolone della serie FX.
Mister Tarpone
11-05-2007, 12:29
A quanto pare anche le 2600 saranno castrate a 128bit, mentre le HD 2900 XT sono a 512bit.
La versione a 256?
e l'hai scoperto solo ora???............... :stordita:
avranno anche sto bus ma dovrebbero costare un pò meno della metà delle 2900 ;) e (spero) con prestazioni di tutto rispetto.... ;) :sperem:
Di solito quando si usa il termine "tecnologia" con le schede video ci si riferisce più che altro alle loro capacità, al supporto degli shaders, l'antialiasing, riproduzione video, ecc... insomma più a livello di "features" che non di puri e semplici fps. Però è chiaro che il punto di vista è soggettivo. Anche in questo campo possiamo rapportare il tutto al prezzo: un prodotto dotato della tecnologia più avanzata possibile ma dal costo elevatissimo, rispetto ad un altro tecnologicamente un po meno avanzato ma dal costo più abbordabile, secondo te commercialmente come andrà?
La transizione DX9 - DX10 ad oggi è difficilmente valutabile. Non è detto che il prodotto più veloce in DX9 lo sarà anche in DX10 e non essendoci molti strumenti per valutare questo aspetto, al momento direi di non considerarlo proprio perché si potrebbero solo fare delle ipotesi e non ci si può basare sulle chiacchiere per un acquisto.
Concordo e infatti e' difficile rapportare G80 commercialmente a R600. Potrebbero effettivamente esserci sorprese e la collocazione del primo e' decisamente pro Directx9 che non 10 sebbene supportato pienamente .
Non tutti riescono in progetti alla R300 potenti in Directx8.1 e 9.0 in maniera incredibile tala da permettere alle schede Radeon 9700 di essere usate tuttoggi.
Mister Tarpone
11-05-2007, 12:31
forse farla a 256 bit vuol dire HD 2900 XL??
No. vorrebbe dire hd 2900pro ;)
Mister Tarpone
11-05-2007, 12:33
scusate, nella rece di hwu di Lunedì, oltre alla 2900xt ci sarà anche la 2600xt?
e si conoscono i prezzi di quest'ultima? 200€?
la 2600xt è a 65nm?
grazie e chiedo scusa se sono cose già state dette
sembrerebbe di si....(in realtà ancora non l'ho capito)
180/200€.
Si.
TecnoWorld8
11-05-2007, 12:33
l'unico modo in cui potrebbe sorprenderci, sarebbe che solo con un driver particolare questa scheda raggiunga la sua "vera" velocità di clock in 3D, driver che chi sta "rompendo" l'NDA non ha ancora o fa finta di non avere...
poi magari sbaglio, ma penso che se così non fosse, non raggiungerebbe la GTX.
pierluigi86
11-05-2007, 12:34
una brutta notizia da parte di amd/ati
http://www.tomshw.it/news.php?newsid=10029
Mister Tarpone
11-05-2007, 12:37
una brutta notizia da parte di amd/ati
http://www.tomshw.it/news.php?newsid=10029
niente.... vedo solo una pagina bianca............... :stordita:
a me funzia....parla di licenziamenti in casa amd.
una brutta notizia da parte di amd/ati
http://www.tomshw.it/news.php?newsid=10029
brutta notizia? Se sono il capo che me ne faccio di 2 o 3 persone nello stesso ruolo? o le riqualifico o le licenzio (e come licenziamento fidati che solo con quello ci vivono 2 anni).
Non vedo come ogni news di questo tipo possa sempre essere utile a far vedere iombre che non ci sono...
Probabilmente qua qualcuno che lavora in aziende VERAMENTE grandi sa che queste cose dopo fusioni o ricapitalizzione avvengono e spesso, e nessuno si lamenta.
Questa riorganizzazione avviene in un periodo non proprio felice per AMD, risultando "amplificata". Ricordiamo che anche Intel ha ridotto in maniera ben più cospicua il suo personale: d'altronde, da una parte e dall'altra, non ha senso pagare persone per scaldare la sedia.
Le motivazioni, oltre ad essere di carattere prettamente finanziario, comprendono anche una fascia puramente "tecnica": sono diverse infatti le posizioni che si sono "duplicate" all'interno dell'azienda.
fisiologico quando 2 società si fondono, come al solito i lavoratori ne fanno le spese :mc:
dantes76
11-05-2007, 12:40
una brutta notizia da parte di amd/ati
http://www.tomshw.it/news.php?newsid=10029
brutta, indubbiamente, per chi perde il lavoro, anche perche intel ha fatto tagli[enormi]di personale.[a settembre :tagli per 10.000 persone..]
Confrontando frequenze ed unità di elaborazione la X2900XT dovrebbe essere un 160% (quasi il triplo) più veloce di una X2600XT.
Invece ripetendo lo stesso procedimento tra nVidia la 8800GTX è un 210% (poco più del triplo) più veloce di 8600GTS.
Tutto "in teoria"
Quindi se la X2900XT sarà veloce quanto la GTX la X2600XT dovrebbe facilmente superare la 8600GTS.
Danielao
11-05-2007, 12:53
La demo di Lost Planet è confermata per il 15 maggio. Potremo finalmente vedere all'opera le schede con le nuove DX
brutta notizia? Se sono il capo che me ne faccio di 2 o 3 persone nello stesso ruolo? o le riqualifico o le licenzio (e come licenziamento fidati che solo con quello ci vivono 2 anni).
Non vedo come ogni news di questo tipo possa sempre essere utile a far vedere iombre che non ci sono...
Probabilmente qua qualcuno che lavora in aziende VERAMENTE grandi sa che queste cose dopo fusioni o ricapitalizzione avvengono e spesso, e nessuno si lamenta.
quoto, queste sono cose all'odine del giorno, soprattutto in seguito a fusioni di questo genere. Inoltre ridurre il personale vuol dire ridurne i relativi costi, quindi per l'azienda è un bene e non un male. Dispiace ovviamente per i lavoratori, che magari hanno anche una famiglia da mantenere
brutta notizia? Se sono il capo che me ne faccio di 2 o 3 persone nello stesso ruolo? o le riqualifico o le licenzio (e come licenziamento fidati che solo con quello ci vivono 2 anni).
Non vedo come ogni news di questo tipo possa sempre essere utile a far vedere iombre che non ci sono...
Probabilmente qua qualcuno che lavora in aziende VERAMENTE grandi sa che queste cose dopo fusioni o ricapitalizzione avvengono e spesso, e nessuno si lamenta.
Beh, che nessuno si lamenta la vedo dura. Certo, concordo che e' piu' normale di quello che sembra e che in aziende "non italiane" e' una cosa piu' comune di quanto possa a noi "vogliamo l'indeterminato" apparire.
Non e' comunque un bel sentire per coloro che professionalmente preparati e volenterosi si ritrovanno appiedati in ogni caso.
La demo di Lost Planet è confermata per il 15 maggio. Potremo finalmente vedere all'opera le schede con le nuove DX
buono :)
ale0bello0pr
11-05-2007, 13:24
brutta notizia? Se sono il capo che me ne faccio di 2 o 3 persone nello stesso ruolo? o le riqualifico o le licenzio (e come licenziamento fidati che solo con quello ci vivono 2 anni).
Non vedo come ogni news di questo tipo possa sempre essere utile a far vedere iombre che non ci sono...
Probabilmente qua qualcuno che lavora in aziende VERAMENTE grandi sa che queste cose dopo fusioni o ricapitalizzione avvengono e spesso, e nessuno si lamenta.
esatto e poi si parla di amministrazione...sai che mi interessa a me consumer(dal punto di vista umano mi dispiace cmq...)...basta che i cervelloni restano....:)
ale0bello0pr
11-05-2007, 13:25
l'unico modo in cui potrebbe sorprenderci, sarebbe che solo con un driver particolare questa scheda raggiunga la sua "vera" velocità di clock in 3D, driver che chi sta "rompendo" l'NDA non ha ancora o fa finta di non avere...
poi magari sbaglio, ma penso che se così non fosse, non raggiungerebbe la GTX.
mmmmmmmm.........bellissima.......BRAVO (leva GTX e metti ULTRA)
La demo di Lost Planet è confermata per il 15 maggio. Potremo finalmente vedere all'opera le schede con le nuove DX
QUESTA E' TROPPO UNA COINCIDENZA :D
.
.
.
mmmmmmmm.........bellissima.......BRAVO (leva GTX e metti ULTRA)
ormai la recensione di sta skeda è stata fatta qua......:fagiano: non serve aspettare il 14;)
Portocala
11-05-2007, 13:29
QUESTA E' TROPPO UNA COINCIDENZA :D
.
.
.
:asd:
sperò sia una piccola dimostrazione di cosa sono capaci ste schede in dx10
QUESTA E' TROPPO UNA COINCIDENZA :D
.
.
.
no dai siamo noi a pensare male e una solo una coincidenza, e pensare che sta skeda se va bene la prendero a settembre:cry:
Considerando che le persone che si possono permettere ciò che dici tu (praticamente disponibilità illimitata) rappresentano probabilmente meno dello 0,01% dell'intero mercato delle schede video, mi sembra decisamente sbagliato decretare il successo o l'insuccesso di un prodotto basandosi solo sul "chi va più veloce in assoluto indipendentemente dal prezzo".
Di solito quando si usa il termine "tecnologia" con le schede video ci si riferisce più che altro alle loro capacità, al supporto degli shaders, l'antialiasing, riproduzione video, ecc... insomma più a livello di "features" che non di puri e semplici fps. Però è chiaro che il punto di vista è soggettivo. Anche in questo campo possiamo rapportare il tutto al prezzo: un prodotto dotato della tecnologia più avanzata possibile ma dal costo elevatissimo, rispetto ad un altro tecnologicamente un po meno avanzato ma dal costo più abbordabile, secondo te commercialmente come andrà?
La transizione DX9 - DX10 ad oggi è difficilmente valutabile. Non è detto che il prodotto più veloce in DX9 lo sarà anche in DX10 e non essendoci molti strumenti per valutare questo aspetto, al momento direi di non considerarlo proprio perché si potrebbero solo fare delle ipotesi e non ci si può basare sulle chiacchiere per un acquisto.
quando parlo di top intendo tecnologia, la risposta alla tua domanda la trovi nelle vendite della 8800gtx, in pochi mesi ne hanno vendute milioni anche se il mercato era saturo di soluzioni ad un prezzo + abbordabile con meno tecnologia, considerando pure che i giochi dx10 erano lontani fra gli acquirenti summenzionati credo che pochi abbiano un budget illimitato la maggior parte l'ha acquistata poiché in questo momento è la miglior gpu sul mercato stesso discorso immagino sarà per la 2900xtx che se e quando uscirà si posizionerà in una fascia di prezzo/prestazioni superiore alla xt
mmmmmmmm.........bellissima.......BRAVO (leva GTX e metti ULTRA)
mha non credo arriverà mai ai livelli della GTX figurarsi se raggiunge la Ultra:mbe:
mha non credo arriverà mai ai livelli della GTX figurarsi se raggiunge la Ultra:mbe:
sai a volte succede di doversi ricredere, a me succede spesso
ale0bello0pr
11-05-2007, 13:32
mha non credo arriverà mai ai livelli della GTX figurarsi se raggiunge la Ultra:mbe:
nVidioso .... il 14 allora non resterai così... :sbav:
Portocala
11-05-2007, 13:34
nVidioso .... il 14 allora resterai così... :sbav:
:asd: lo spero, altrimenti ho aspettato per niente :D :muro:
sai a volte succede di doversi ricredere, a me succede spesso
nVidioso .... il 14 allora non resterai così... :sbav:
spero proprio di no!
sicuramente visto che queste schede sono praticamente di vecchia generazione visto che sono uscite 7mesi dopo Nvidia;) cmq tutto IHMO:D
ale0bello0pr
11-05-2007, 13:37
spero proprio di no!
sicuramente visto che queste schede sono praticamente di vecchia generazione visto che sono uscite 7mesi dopo Nvidia;) cmq tutto IHMO:D
ah le schede R600 sarebbero OLD GENERATION xkè uscite 7 mesi dopo quelle G80??? Ragioni al contrario...? Cioè da quale pianeta vieni....
Foglia Morta
11-05-2007, 13:37
mmmmmmmm.........bellissima.......BRAVO (leva GTX e metti ULTRA)
ti riferisci alla XT o l' "altra" ?
Quello che dici è totalmente sbagliato!
Perchè la differenza tra una 2900XT o una 8800GTX e una Ultra è minima!
Quindi con uno schermo con risoluzione mostruosa con la Ultra guadagnerai 2FPS, che saranno cmq inutili!
Cioè se un gioco ti scatterà con GTX o 2900XT, nelle stesse condizioni ti scatterà pure con la Ultra.
Inoltre man mano che si va avanti e i giochi diventeranno + pesanti la differenza tra la Ultra e le altre due, diventerà sempre minore sino ad annullarsi!
Quindi prima di dire magari pensa un attimo! :rolleyes:
prima di essere cosi categorico e flammoso leggiti tu i miei post il 30" era solo un ipotesi per far capire il mio punto di vista e sinceramente io spero che le differenze fra una gtx una ultra e la 2900 siano minime poichè avremmo tutto da guadagnare noi consumatori:)
Portocala
11-05-2007, 13:38
ah le schede R600 sarebbero OLD GENERATION xkè uscite 7 mesi dopo quelle G80??? Ragioni al contrario...? Cioè da quale pianeta vieni....
si chiama lasciare una porta aperta. in qualche modo uno devo salvarsi la pelle :asd:
mamma mia come spero che la fascia media non sia uno schiaffo come le 8600 :cry:
Non per dire, ma FarCry io non l'ho mai giocato, e spero non mi sia perso niente, se no, a settembre compro il pc nuovo.
ale0bello0pr
11-05-2007, 13:40
ti riferisci alla XT o l' "altra" ?
Ti avevo perso ;)
Foglia ...l'"altra"... sarà vs 8900...(non so se 8950GX2)...[difficilissimo IMHO]..
:cool:
QUESTA E' TROPPO UNA COINCIDENZA :D
.
.
.
Già. Un assaggino delle DX10 si potrebbe già avere con questo gioco, anche se alcune voci dicono che sia stato pensato soprattutto per le nVIDIA.
Comunque, una prima delusione per chi ha una 8800GTS 320MB?
Specifications – please note that these are not finalised and may be subject to change before release as we work to optimise the code
Minimum system requirements:
OS: Windows XP
CPU: Intel Pentium 4 HT
RAM: 512Mb (XP) / 1GB (Vista)
Hard Drive: 8 GB
Disc Drive: DVD9 compatible
Video: VRAM 256Mb. Direct X9.0c/Shader3.0
NVIDIA GeForce 6600 or greater
Sound: DirectSound compatible, Direct X9.0c
Peripherals: Mouse, Keyboard
Recommended system specifications:
Windows Vista
Intel Core 2 Duo
RAM: 2 GB (Vista) / 1 GB (XP)
Video: VRAM 512MB. Geforce 8800+
http://www.capcom-europe.com/gamesheet.aspx?game=lostplanetpc
Già col primo gioco DX10 sembrerebbe essere tagliata fuori dalle schede raccomandate (poi è ovvio che ci si giocherà, spero per chi ce l'ha, bene).
Articolo sulle features grafiche del gioco in questione:
The PC version will feature enhanced graphics and effects to optimize the realistic presentation and explosive action in the game, including better shadows and more detailed textures, as well as higher monitor resolutions. In addition, the game will support multiplayer modes for up to 16 players online via the internet as well as LAN connections. Setting up or joining multiplayer games has been made easier thanks to an improved lobby system for PC gamers. Players will also have the option to play either using a mouse and keyboard or a gamepad controller. Lost Planet for PC will run under Windows XP (supporting DirectX 9) and Windows Vista (supporting both DirectX 9 and DirectX 10.) The DirectX 10 version will utilize the advanced features of Shader model 4.0 and Geometry Shader only available with DirectX 10. Lost Planet will also carry the Games for Windows branding, offering a better gaming experience with easy installation, reliability and safety features, and support for the Xbox 360 controller for Windows.
http://blogs.capcomusa.com/blogs/news.php/2007/05/10/pc_gamers_to_get_a_taste_of_lost_planet_
la xtx cosi detta altra si sa che sara il 65nm, li la vedo molto dura e per nvidia dovra far arriva il cambio tecnologico con 8900 sperando che non sa affinamento e basta della 8800 sara un'anno meraviglioso per gli appasionati:D
La faccenda 8800gts 320 io invece la prenderei con le molle: il VERO prezzo delle gts320, a parte un singolo shop che non spedisce :asd: quindi ininfluente, rimane sui 300 e passa. E segnali di abbassamento non ne vedo
Veramente le si trova in diversi shop a meno di 280€ :rolleyes:
Foglia Morta
11-05-2007, 13:48
Ti avevo perso ;)
Foglia ...l'"altra"... sarà vs 8900...(non so se 8950GX2)...[difficilissimo IMHO]..
:cool:
se non ci prendi in giro confermi i sospetti che ho da mesi...
è inutile progettare un ring bus evoluto ed efficientissimo se poi le prestazioni della gpu non sono ben proporzionate alla banda passante
la xtx cosi detta altra si sa che sara il 65nm, li la vedo molto dura e per nvidia dovra far arriva il cambio tecnologico con 8900 sperando che non sa affinamento e basta della 8800 sara un'anno meraviglioso per gli appasionati:D
gli ingenieri nvidia hanno comunque avuto un anno per trovare delle soluzioni non credi ? non penso che le differenze tecnologiche fra le due case siano cosi abissali la fisica e i suoi limiti valgono per entrambe:)
ah le schede R600 sarebbero OLD GENERATION xkè uscite 7 mesi dopo quelle G80??? Ragioni al contrario...? Cioè da quale pianeta vieni....
:asd: a vorresti dire di no? cioe sono basate sulle stesse SM e DX10 soltanto che una esce a Novembre e la rivale a Maggio secondo te non sono vecchie? casomai come ragioni te:boh:
la risposta alla tua domanda la trovi nelle vendite della 8800gtx, in pochi mesi ne hanno vendute milioni anche se il mercato era saturo
...questa non l'avrebbe scritta nemmeno Lui...LOL! :D
visto che queste schede sono praticamente di vecchia generazione visto che sono uscite 7mesi dopo Nvidia
ah le schede R600 sarebbero OLD GENERATION xkè uscite 7 mesi dopo quelle G80??? Ragioni al contrario...? Cioè da quale pianeta vieni....
:D
...comunque tornado IT sul discorso game DX10, le specifiche\requisiti di Lost Planet sono veramente pazzesche. Concordo con chi diceva che nel giro di pochissimi mesi torneremo a vedere recensioni fatte a risoluzioni molto più basse di adesso.
...ciao!
Portocala
11-05-2007, 13:53
Specifications – please note that these are not finalised and may be subject to change before release as we work to optimise the code
Minimum system requirements:
OS: Windows XP
CPU: Intel Pentium 4 HT
RAM: 512Mb (XP) / 1GB (Vista)
Hard Drive: 8 GB
Disc Drive: DVD9 compatible
Video: VRAM 256Mb. Direct X9.0c/Shader3.0
NVIDIA GeForce 6600 or greater
Sound: DirectSound compatible, Direct X9.0c
Peripherals: Mouse, Keyboard
Recommended system specifications:
Windows Vista
Intel Core 2 Duo
RAM: 2 GB (Vista) / 1 GB (XP)
Video: VRAM 512MB. Geforce 8800+
è un errore :asd: voleva dire 320MB
Recommended system specifications:
Windows Vista
Intel Core 2 Duo
RAM: 2 GB (Vista) / 1 GB (XP)
Video: VRAM 320MB. Geforce 8800+
e poi, chicca :D
Best system specifications:
Windows XP SP2
Athlon XP+
RAM: 512 MB
Video: VRAM 128MB. Geforce 6600+
:asd: :ciapet: :sofico:
pierluigi86
11-05-2007, 13:53
edit
TecnoWorld8
11-05-2007, 13:53
mmmmmmmm.........bellissima.......BRAVO (leva GTX e metti ULTRA)
se io ci avessi azzeccato, diciamo che allora potrei dire che l'esperienza un pochino conta ;) e sarei felice di acquistare una di queste schede.
domanda, se qualcuno sa...: ma la sapphire con le heatpipes, è l'unica versione sapphire o ce ne sarà una normale ed una (più cara) con questo dissipatore alternativo?
ale0bello0pr
11-05-2007, 13:55
gli ingenieri nvidia hanno comunque avuto un anno per trovare delle soluzioni non credi ? non penso che le differenze tecnologiche fra le due case siano cosi abissali la fisica e i suoi limiti valgono per entrambe:)
esatto...a meno che nn sia proprio uno scoperta riguardante un singolo team di un azienda come nVidia/ATI/Intel/AMD etc... dove si scopre qualcosa che RIVOLUZIONA completamente il modo di vedere la tecnologia...(si chiama PROGRESSO) quindi a parte quest'eccezione e quella di INTEL (che effettivamente sembra stare piu' avanti di AMD di qualke trimestre in piu'..si parla di tre/sei,dipende dalle fonti ovviamente..)
sicuramente nn ci sono differenze abissali fra nVidia e Ati..anzi ricordiamoci che ora ATI è AMD....quindi..piu' risorse in uno.... io aspetto ancora la CP-GP-U....:D (fantascienza?)
Zlatan91
11-05-2007, 13:56
http://hardware.multiplayer.it/immagini/news/6/21666/img2.jpg
+
All'epoca dell'uscita dei Radeon 9600 e 9800, ATI proponeva un piccolo coupon in bundle con le sue schede 3D, che permetteva di scaricare gratuitamente il gioco Half-Life 2. A qualche giorno da lancio del nuovo Radeon HD X2900 (R600), apprendiamo che la casa canadese potrebbe ripetere l'offerta.
Così, con alcune schede Radeon HD X2900 potrebbe essere proposto un coupon che permetterà, via Steam, di scaricare gratuitamente il gioco "Hallf Life 2 Black Box", che comprende "Half-Life 2: Episode Two", "Team Fortress 2" e "Portal". Questi giochi dovrebbero essere disponibili prima della fine dell'anno.
Speriamo solo che tra la distribuzione dei coupon e la disponibilità reale del gioco non passi tanto tempo, poichè con i Radeon 9800 e 9600, la disponibilità di Half-Life 2 richiese ben 11 mesi.
che mano fortunata!:D
:asd: a vorresti dire di no? cioe sono basate sulle stesse SM e DX10 soltanto che una esce a Novembre e la rivale a Maggio secondo te non sono vecchie? casomai come ragioni te:boh:
:mc: che dici di smetterla un po? :confused:
tecnologia...che cosa intendi? l'archittetura? le features utilizzate?
R600 ha una archittetura completamente DIVERSA da G80.
Non si può dire ne che sia più vecchia ne che sia più nuova.
Infatti sono schede con UN OBIETTIVO, ossia raggiungere le specifiche IMPOSTE dalle DX10.0
Capirei il tuo discorso se Nvidia avesse fatto g80 con le dx10.1 in testa, ma non è così. E non si può dire niente di Ati,primo perchè ancora questa scheda non è uscita, secondo ha già nel suo portafoglio lavori nati "superiori" alle richieste software (vedi xbox360, vedi r300 quando usci).
Sinceramente i post da fanboy e privi di fondamenti tecnici stanno un po stancando qua dentro... :mc:
domanda, se qualcuno sa...: ma la sapphire con le heatpipes, è l'unica versione sapphire o ce ne sarà una normale ed una (più cara) con questo dissipatore alternativo?
...una normale ed una "alternativa". Comunque, se siete interessati all'acquisto, in Italia il 14 puntate su altre marche perchè qui da noi le Sapphire dovrebbero arrivare qualche giorno dopo. ;)
TecnoWorld8
11-05-2007, 13:59
...una normale ed una "alternativa". Comunque, se siete interessati all'acquisto, in Italia il 14 puntate su altre marche perchè qui da noi le Sapphire dovrebbero arrivare qualche giorno dopo. ;)
questo mi spiace davvero molto...speravo che ci fosse solo la versione con dissipatore speciale, che è quella che maggiormente mi interessa...
dunque quella di cui si parla ad un prezzo sotto i 400 sarebbe la normale? l'altra si sa già quanto dovrebbe costare?
gli ingenieri nvidia hanno comunque avuto un anno per trovare delle soluzioni non credi ?
lo spero vivamente, la questione è le tirenno fuori o andranno avanti con oc della gtx?
io sono con te e vorrei le nuove soluzioni ed a settembre l'epica Battaglia.
per questo dico sara un anno incredibile per noi appasionati :)
mmmmmmmm.........bellissima.......BRAVO (leva GTX e metti ULTRA)
Poi non lamentarti se arrivano i fanboy nVidia, perché tu non sei certo da meno, quando fai queste uscite (e ne fai molte di questo genere) :rolleyes:
Senza offesa, ma il bue che dice cornuto all'asino mi fa sempre ridere :)
Già. Un assaggino delle DX10 si potrebbe già avere con questo gioco, anche se alcune voci dicono che sia stato pensato soprattutto per le nVIDIA.
Non sono voci: CapCom ha lavorato insieme agli ingegneri nVidia nello sviluppo del porting del gioco ;)
leoneazzurro
11-05-2007, 14:06
Evitiamo di ritrasformare questo thread in uno sfogo di fanboy? Grazie.
peccato che lost planet favorisca nvidia
http://it.theinquirer.net/2007/04/lost_planet_e_huxley_favorisco.html
Già scritto. Però è anche un porting da XboX360. Si vedrà.
ale0bello0pr
11-05-2007, 14:08
Poi non lamentarti se arrivano i fanboy nVidia, perché tu non sei certo da meno, quando fai queste uscite (e ne fai molte di questo genere) :rolleyes:
Senza offesa, ma il bue che dice cornuto all'asino mi fa sempre ridere :)
peccato che io sia FANboy di nessuno.....(oddio quanto odio questa parola...)....e scrivo quello che penso...e ovviamente quello che so.....Se bisogna far paragoni di certo non li faccio con la Loreal o la Barilla...che non centrano nulla....:rolleyes:
ale0bello0pr
11-05-2007, 14:09
Poi non lamentarti se arrivano i fanboy nVidia, perché tu non sei certo da meno, quando fai queste uscite (e ne fai molte di questo genere) :rolleyes:
Senza offesa, ma il bue che dice cornuto all'asino mi fa sempre ridere :)
Ok ora non rispondero' piu' alle provocazioni di nessuno.FINE OT
MonsterMash
11-05-2007, 14:12
:asd: a vorresti dire di no? cioe sono basate sulle stesse SM e DX10 soltanto che una esce a Novembre e la rivale a Maggio secondo te non sono vecchie? casomai come ragioni te:boh:
Interessante. Quindi una 7900gt (per restare in casa nvidia) è tecnologicamente più vecchia di una 6800 perchè sono entrambe schede sm3, ma la prima è uscita molto tempo dopo...
...mi sa che AMD s'è un pò incavolata...
- AMD blasts Nvidia for R600 FUD document (http://www.theinquirer.net/default.aspx?article=39557)
(notare quanto astio ci sia tra TheInq e Fudzilla alias Fakezilla alias FUD)
Zlatan91
11-05-2007, 14:15
lunedi vedrai che ritardano il lancio.....:D
:mc: che dici di smetterla un po? :confused:
tecnologia...che cosa intendi? l'archittetura? le features utilizzate?
R600 ha una archittetura completamente DIVERSA da G80.
Non si può dire ne che sia più vecchia ne che sia più nuova.
Infatti sono schede con UN OBIETTIVO, ossia raggiungere le specifiche IMPOSTE dalle DX10.0
Capirei il tuo discorso se Nvidia avesse fatto g80 con le dx10.1 in testa, ma non è così. E non si può dire niente di Ati,primo perchè ancora questa scheda non è uscita, secondo ha già nel suo portafoglio lavori nati "superiori" alle richieste software (vedi xbox360, vedi r300 quando usci).
Sinceramente i post da fanboy e privi di fondamenti tecnici stanno un po stancando qua dentro... :mc:
bé immagino ti rivolgevi pure a me:) per tecnologia intendo tutti i parametri di una gpu e non solo fps, ma come sono state risolte le varie specifiche della gpu in questione; anche i consumi ne fanno parte infatti troverei praticamente inutile una gpu avanzata con consumi spropositati
Portocala
11-05-2007, 14:19
...mi sa che AMD s'è un pò incavolata...
- AMD blasts Nvidia for R600 FUD document (http://www.theinquirer.net/default.aspx?article=39557)
(notare quanto astio ci sia tra TheInq e Fudzilla alias Fakezilla alias FUD)
Satan Clara, Powerpointless presentations, Graphzilla
ahahahhahaha
Graphzilla, it suggested, had eaten too many mushrooms and saw some features inside the R600 GPU that were just plain wrong.
si sono fatti di funghi :asd:
:mc: che dici di smetterla un po? :confused:
tecnologia...che cosa intendi? l'archittetura? le features utilizzate?
R600 ha una archittetura completamente DIVERSA da G80.
Non si può dire ne che sia più vecchia ne che sia più nuova.
Infatti sono schede con UN OBIETTIVO, ossia raggiungere le specifiche IMPOSTE dalle DX10.0
Capirei il tuo discorso se Nvidia avesse fatto g80 con le dx10.1 in testa, ma non è così. E non si può dire niente di Ati,primo perchè ancora questa scheda non è uscita, secondo ha già nel suo portafoglio lavori nati "superiori" alle richieste software (vedi xbox360, vedi r300 quando usci).
Sinceramente i post da fanboy e privi di fondamenti tecnici stanno un po stancando qua dentro... :mc:
Interessante. Quindi una 7900gt (per restare in casa nvidia) è tecnologicamente più vecchia di una 6800 perchè sono entrambe schede sm3, ma la prima è uscita molto tempo dopo...
come al solito non interpreti il valore delle cose che ho postato siete voi i fanboy qui dentro e non io ma vabbè lasciamo perdere....
Qui il discorso è differente si tratta di 2 progetti differenti la 7800 è la naturale evoluzione della 6800 con sopra implementate nuove tecnologie affinato il processo produttivo consumi e prestazioni se poi credete che la Ati R600 sia un progetto innovativo fate pure ma io non la penso cosi.
P.S:io fanboy di Nvidia? ha me non interessa una cippa ne di Ati ne di Nvidia prendo quella con le maggiori prestazioni/prezzo e l'ultima Nvidia prima di questa è stata la Geffo4 Mx quindi pensa che grande fanboy di Nvidia che sono...
anche i consumi ne fanno parte infatti troverei praticamente inutile una gpu avanzata con consumi spropositati
Infatti come avrai notato dalle prime immagini che mostrano il consumo di un sistema con un X6800 ed una HD2900 XT non solo quel sistema sembra consumare poco più di un sistema equivalente con GTX, ma in idle (cioè più della metà del tempo di accensione di un pc) consuma meno.
SCUSATE ma questo è un bellisimo trend, ma quali fan boy ATI e/o Nvidia, siamo tutti italiani vero qui allora non diciamo cazz.....
la skeda migliore e quella che costa meno e fa di più, che sia fatta da ati nvidia o nel mio garage non freghera a nessuno quindi vi prego continuiamo a divertirci, e piano piano a capire cosa arrivera lunedi, visto che ormai qui si è quasi detto tutto :) e lasciamo stare screzzi vari
fine ot
ciuzz
se poi credete che la Ati R600 sia un progetto innovativo fate pure ma io non la penso cosi.
Ma si dai, stop. Tanto sinceramente non ho mai creduto che tu avessi le conoscenze per poter giudicare questa cosa :)
Per me e per l'altro 90% della gente appassionata di schede video e architteture, il progetto R600 di Ati è innovativo quanto basta per sperare in prestazioni eccellenti in dx10 superiori alla controparte nvidia.
Senza contare il solito elenco di cose che questo R600 ha in più di tutti i vecchi processori grafici (dalla voodoo1 a g80).
Ok ora non rispondero' piu' alle provocazioni di nessuno.FINE OT
La mia non era una provocazione, ma una semplice constatazione delle modalità con cui dai certe risposte, che danno fastidio, almeno a me, tanto quanto le risposte dei presunti "tifosi" nVidia ;)
ale0bello0pr
11-05-2007, 14:36
La mia non era una provocazione, ma una semplice constatazione delle modalità con cui dai certe risposte, che danno fastidio, almeno a me, tanto quanto le risposte dei presunti "tifosi" nVidia ;)
No scusa ma qui devo risponderti....
La modalita' con cui do certe risposte??? ma se fino ad ora sono stato il piu' ENIGMATICO possibile sulle reali prestazioni di R600 x vari motivi che nn sto ora di nuovo ad elencare...quindi ho dato degli INPUT poi chi è "capace" ELABORA gli INPUT...e ne scaturiscono gli OUTPUT (la risposta)....se ti senti offeso x quello che ho scritto finora mi spiace...ma sono "negligente" in quanto non riesco a percepire la tua sensibilita' emotiva e percezionale.... X gli altri "presunti"(come dici tu)fanboy..... meglio che nn mi esprimo...non sono l'unico che se ne è accorto a quanto pare.
Inteligenti Pauca...e ripeto...STOP
non rispondermi...spero che tu capisca...
...mi sa che AMD s'è un pò incavolata...
- AMD blasts Nvidia for R600 FUD document (http://www.theinquirer.net/default.aspx?article=39557)
(notare quanto astio ci sia tra TheInq e Fudzilla alias Fakezilla alias FUD)
che si ammazzino tra loro :asd:
TecnoWorld8
11-05-2007, 14:38
infatti il mio output è scaturito dal ragionamento sui tuoi input e su alcune cose viste in rete e secondo me...ci ho preso :)
Senza contare il solito elenco di cose che questo R600 ha in più di tutti i vecchi processori grafici (dalla voodoo1 a g80).
Sarebbe preoccupante il contrario. :p
Comunque il discorso e' che ognuno la vedra' in modo diverso. Una scheda e' un successo se riesce a ponderare le varie caratteristiche di interesse del compratore e da una parte le innovazioni architetturali dall'altra le prestazioni, entrambe valgono tanto e permettono all'azienda di passare mesi felici o infelici a seconda di una miriade infinita di fattori non per ultimo tutto l'aspetto commerciale e di marketing che c'e' dietro studiata da cervelloni strapagati e che potrebbero far vendere sabbia nel deserto o ghiaccio al polo nord.
Ci sono casi in cui la troppa velocita' non basto' a decretare un successo se architetturalmente erano obsolete e se a condire il tutto c'erano scelte di marketing davvero sbagliate. (vedi Voodoo3)
Altri in cui un architettura fantastica rimase di nicchia e penalizzata dalle prestazioni comunque inferiori al mercato (vedi Kyro 1 e successivamente Kyro 2).
E' il mercato a decidere comunque.. ed e' tutta una bilancia su cio' che verra' offerto. Di sicuro il prezzo sara' un fattore chiave tra tutte queste cose se no una scheda che costa tanto e va poco e risulta inutilmente collocata, sicuramente sarebbe un fallimento e i testimoni sono Parhelia e NV30.
Ma si dai, stop. Tanto sinceramente non ho mai creduto che tu avessi le conoscenze per poter giudicare questa cosa :)
Per me e per l'altro 90% della gente appassionata di schede video e architteture, il progetto R600 di Ati è innovativo quanto basta per sperare in prestazioni eccellenti in dx10 superiori alla controparte nvidia.
Senza contare il solito elenco di cose che questo R600 ha in più di tutti i vecchi processori grafici (dalla voodoo1 a g80).
non l'ho mai detto che avevo le conoscienze.ma neanche tu a quanto vedo....se non hai dubbi perchè non prendi subito R600 visto che è superiore(secondo te) e la smettiamo di prenderci in giro;)
Fine OT
askani, nOS89 e (di nuovo) ale0bello0pr siete pregati di sistemare la firma, massimo 3 righe a 1024 di risoluzione.
grazie.
No scusa ma qui devo risponderti....
La modalita' con cui do certe risposte??? ma se fino ad ora sono stato il piu' ENIGMATICO possibile sulle reali prestazioni di R600 x vari motivi che nn sto ora di nuovo ad elencare...quindi ho dato degli INPUT poi chi è "capace" ELABORA gli INPUT...e ne scaturiscono gli OUTPUT (la risposta)....se ti senti offeso x quello che ho scritto finora mi spiace...ma sono "negligente" in quanto non riesco a percepire la tua sensibilita' emotiva e percezionale.... X gli altri "presunti"(come dici tu)fanboy..... meglio che nn mi esprimo...non sono l'unico che se ne è accorto a quanto pare.
Inteligenti Pauca...e ripeto...STOP
non rispondermi...spero che tu capisca...
Dico a tutti e due e tre e quattro.... STOP OT!
Latest warning.
pierluigi86
11-05-2007, 14:43
si sono fatti di funghi :asd:
http://en.wikipedia.org/wiki/Psychedelic_mushrooms
:D :D :D :D :D
infatti era troppo strano che durante la presentazione ufficiale abbiano detto che la 2900xt era ai livelli di una 8800 gts.
askani, nOS89 e (di nuovo) ale0bello0pr siete pregati di sistemare la firma, massimo 3 righe a 1024 di risoluzione.
grazie.
;) avevo il monitor a 1280 e non mi ero accorto che era troppo lunga.
halduemilauno
11-05-2007, 14:48
un'altra testimonianza. dovbrebbe essere la conclusione di una rece che sarà pubblicata il 14.
http://www.pcadvisor.co.uk/reviews/index.cfm?reviewid=834
;)
JoeLatino
11-05-2007, 14:55
...a quanto pare le opengl girano molto meglio su queste schede che sulle Nvdia!!
se fosse cosi' mi sa' che aspetto a settembre la versione con 1gb ed abbandono Nvidia:D
http://www.xtremesystems.org/forums/showthread.php?t=143104
Portocala
11-05-2007, 14:56
un'altra testimonianza. dovbrebbe essere la conclusione di una rece che sarà pubblicata il 14.
http://www.pcadvisor.co.uk/reviews/index.cfm?reviewid=834
;)
va più piano e costa meno. :confused:
un'altra testimonianza. dovbrebbe essere la conclusione di una rece che sarà pubblicata il 14.
http://www.pcadvisor.co.uk/reviews/index.cfm?reviewid=834
;)
The 2900 XT's tendency to slow down at higher detail settings suggests it might not shine as much as we'd like.
The advantage is greatest at a resolution of 1,024x768, which suggests that the less detail you want to stack on, the better this card will prove.
Interessante.. l'architettura sembre effettivamente piu' tendente a mostrare i muscoli a risoluzioni basse.. ;)
leoneazzurro
11-05-2007, 15:03
http://www.xtremesystems.org/forums/showpost.php?p=2183918&postcount=860
Uhm...
che in SM2.0 faccia sui 4.400 e in SM3.0 sui 5.100 overcloccata, ormai mi sembra certo.
The 2900 XT's tendency to slow down at higher detail settings suggests it might not shine as much as we'd like.
The advantage is greatest at a resolution of 1,024x768, which suggests that the less detail you want to stack on, the better this card will prove.
Interessante.. l'architettura sembre effettivamente piu' tendente a mostrare i muscoli a risoluzioni basse.. ;)
utile -.-' troppo utile
Athlon 64 3000+
11-05-2007, 15:06
+ 30% performence
:eek:
in che sarebbe più veloce del 30%?
+ 30% performence
:eek:
sarebbe possibile? o è una balla o i driver di prima erano vergognosi..
http://www.xtremesystems.org/forums/showpost.php?p=2183918&postcount=860
Uhm...
Ehh 30% non son mica briciole,mi sa di cavolata :O
leoneazzurro
11-05-2007, 15:08
Ehh 30% non son mica briciole,mi sa di cavolata :O
Io aspetto sempre le recensioni ufficiali (nota l'"uhm" dubbioso nel mio post). Il fatto è che sicuramente dai numeri di R600 ci si aspetterebbe di meglio di quanto si è visto finora.
The 2900 XT's tendency to slow down at higher detail settings suggests it might not shine as much as we'd like.
The advantage is greatest at a resolution of 1,024x768, which suggests that the less detail you want to stack on, the better this card will prove.
Interessante.. l'architettura sembre effettivamente piu' tendente a mostrare i muscoli a risoluzioni basse.. ;)
Più che interessante mi sembra drammatico, se sarà confermata dalle recensioni il 14: una vga simile che non regge alte risoluzioni e dettagli pompati? In ogni caso non mi sembra una grande scoperta la diminuzione delle prestazioni aumentando risoluzione/dettagli grafici :mbe:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.