NVIDIA GeForce 8600 GTS e GT

Con le serie GeForce 8600 GTS, GT e GeForce 8500 GT, NVIDIA propone nuove schede video destinate alla molto ambita fascia media del mercato, ora compatibili con le API Microsoft DirectX10 e destinate a sostituire soluzioni ormai mature e giunte alla fine del loro naturale sviluppo. Ecco il report dei nostri test, condotti a confronto con schede di pari livello
di Alessandro Bordin , Paolo Corsini pubblicato il 17 Aprile 2007 nel canale Schede VideoNVIDIAMicrosoftGeForce
466 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infomettere un bus a 256bit nelle fasce medie siginifica riprogettare il controler memoria e sono dei soldi,riprogettare il pcb e metterne uno + costoso e sono altri soldi.
cosa + economia è invece progettare bus pcb e layout della scheda video a 128bit ma comprare in grandi stock per avere + sconti da samsung per gddr3 da 1800-2000mhz.
alla fine se mi mettono il bus a 128bit e le ram a 2000mhz e oppure mi mettono i 256bit e per risparmiare devono usare delle ram da 1200mhz gddr3 il risultato è similare ma con il risultato di un grande aumento di prezzo della vga per via del maggior costo di componenti da saldare sul pcb(un layer per ospitare la circuiteria a 128bit è sicuramente + conomico e facile da realizzare di uno da 256bit)
le prestazioni davvero ridicolo di questa 8600gts vanno da ritrovarsi nel chip stesso 32sp sono davvero poche molto poche per una fascia media dove adesso la top invidia ne ha 128 e la seconda ne ha 96...troppo divario e di prezzo e di prestazione.
evidentemente contavano ancora sulla stragia che vide le 6600 e 7600 chip pesantemente castrati ma con frequenze molto alte per cercare di recuperare li le prestazioni...putroppo a questo giro pare che abbiano decurtato davvero troppo il chip pur con una frequenza ragguardevole di 675mhz.
una ipotetica 8600gts da 64sp e bus a 128bit ma ram a 2000mhz avrebbe fatto sicuramente maggiore figura...evidentemente si erano resi conto che cosi la 8800gts da 320mb o anche quella da 640(sicuramente ci sarebbero state versioni della 8600gts con 512mb di ram) non avrebbe avuto + mercato...almeno optare per un 48sp.
per non dire la 8500 con solo 16sp già mi immagino la 8300turbocache con solo 8sp e 128mb di ram onboard
aspettiamo ati che sicuramente anche se ha lasciato il bus a 128bit sempre per la storia del layout meno costoso che non comprare ram veloci speriamo almeno che ci abbia messo su un onesto chip da vera fascia media.
http://en.wikipedia.org/wiki/Radeon_R600
Una HD2900GTO magari modabile @65nm con le mem ddr4-0.8ns con i controllo di voltaggio via software ti fa schifo
...il test a 1600x1200 è fatto xkè la x1950pro con illuminazione dinamica nn riesce a garantire un gameplay fluido e si è costretti a disabilitarla utilizzando l'illuminazione fissa ke forza il render in dx8 con ovvie penalità in fatto di resa visiva, la 8600gts invece consente, usando una risoluzione inferiore (1024x768) di abilitare l'illuminazione dinamica sugli oggetti mantenendo un gameplay fluido...da qui la presenza del test a 1600x1200 x confrontarla contro la x1950pro dove l'unico beneficio è un framerate superiore e il test a 1024x768 con illuminazione dinamica in cui manca la x1950pro poikè nn riesce a garantire proprio fluidità con tali impostazioni...
...tralasciando il discorso meglio 8600 o meglio x1950 ke, ripeto, nn mi inyeressa minimamente...e tornando sul discorso metodologia di test pare ke poki abbiano capito come quei test vengono svolti e la loro utilità...
...a mio parere, come in ogni cosa, l'estremismo nn porta mai niente di buono e la giusta misura sta nel mezzo...intenedendo ke, sempre secondo me, un test completo dovrebbe integrare entrambe le tipologie di test (quella classica tipo hwup e quella invece usata da hard-ocp)...questo xkè...
...come dici anke tu l'utente può essere interessato a sapere come si comporta a risoluzioni e impostazioni ke nn vengono contemplate dal test di hard-ocp...
...ma è utile anke la metodologia di test di hard-ocp xkè ti consente di sapere quali sono le migliori impo e settaggi ke una determinata skeda riesce a supportare nei vari gioki garantendo un gameplay fluido...
...x es. con i test normali saprai ke la skeda A ti da 36fps medi alla risoluzione XXX e la skeda B ne fa 34fps...tu saresti portato a pensare ke la skeda A è quindi preferibile...magari xò scopriresti ke proprio quella ha un min inferiore oppure magari nn avendolo inferiore scopriresti ke mentre la skeda B col min inferiore nella soglia di fps "ingiocabili" ci cade una sola volta la skeda A anke se col min superiore nella soglia dei fps "ingiocabili" ci cade + volte portando quindi ad un gameplay inferiore...
...l'immissione oltre dei fps medi anke dei min e max e la registrazione del framerate istante x istante x la durata del bench (ke da poco son entrati a far parte della metodologia di hwup, e son sicuramente un passo nella direzione giusta) son già di aiuto...essi xò nn dicono tutto...
...questo xkè in alcuni gioki le impo da regolare son veramente tante e la loro influenza sulle performance varia in base alle caratteristike della skeda, oltre a variare quanto ognuna di queste impostazioni inlfuenza la qualità visiva, e varia anke il rapporto ke vi è, x ogni impo, tra l'impatto estetico e quello prestazionale...
...x concludere, secondo me, la metodologia migliore e + completa, è quella ke comprende entrambi i tipi di test (quello ke confronta le skede a parita di impostazioni e quello ke invece vede quali sono le impostazioni migliori ke una skeda può supportare in ogni determinato gioco mantenendo un gameplay fluido)...
...ciao
il problema sta proprio nel fatto che loro decidono l'unica impostazione tra risoluzione e filtri che ti e' consentito di vedere nei test! e' inammissibile!
Sn d'accordo cn te quando dici che oltre ad i test di hwupgrade magari sarebbe bello conoscere una config con cui si possa giocare costantemente sopra i 30 fps, ma quello che fa hardocp e' cmq sbagliato.
Sarei d'accordo se mi dicessi...tipo:
"Togliendo i filtri da entrambe le schede, abbiamo riscontrato che mettendo al massimo i dettagli la 8600GTS riesce a rendere perfettamente giocabile il gioco X a 1280x1024 invece con la 1950 abbiamo dovuto abbassare la risoluzione a 1024x768"
Oppure:
"Alla risoluzione di 1024x768 a dettagli massimi con la 8600 abbiamo potuto attivare il filtro AA 8x rimanendo sopra i 30 fps, invece con la x1950 abbiamo dovuto abbassare l'AA a 4x.."
Non puoi invece testarmi il gioco solamente a 1600x1200 e con l'af 16x xche TU pensi che sia la configurazione ottimale...Allora IO, in malafede(ma alla volte ci piglio), penso che nn mi hai voluto attivare l'AA di proposito xke' altrimenti le prestazioni delle 8600GTS sarebbero crollate...
Ribadisco..sarebbero utili questi tipi di test ma condotti in tutt'altro modo...serieta' ragazzi...nn facciamoci prendere x i fondelli...
Ciao
Wing
P.S.:
W HWU!!
Un po' meno d'accordo con le conclusioni: secondo me con DX10 non cambierà molto il quadro, ed è pura questione matematica, 32 stream processor contro 128!!!
Direi che la X1950PRO acquistata settimana scorsa si è rivelata un ottimo acquisto per quello che costa...
Sarebbe molto carino se nvidia proponesse nuove versioni delle sue schede top di gamma attuali con processo produttivo a 80 nm (come la nova 8600), a nessuno è sfuggito il margine di overclock raggiunto da questa GPU 8600GTS, immaginatelo su una 8800GTS.
Sono sempre stato cliente della fascia media e dopo questo articolo (sempre grande e come al solito ben curato) è matematico che il salto che farò sarà quello di 2 Generazioni, dalla 6600 GT passerò alla 8800 GTS 320 (stando a quanto visto fino a oggi);
Deciderò l'acquisto a Natale di quest'anno, tempo ragionevole per vedere un sufficiente numero di titoli Dx10 (Crysis dove sei?), per quel periodo anche tutte le nuove soluzioni AMD dovrebbero vedere la luce;
Spero anche (viva la concorrenza) in una soluzione AMD che si vada a scannare con la 8800 GTS 320
mettere un bus a 256bit nelle fasce medie siginifica riprogettare il controler memoria e sono dei soldi,riprogettare il pcb e metterne uno + costoso e sono altri soldi.
.
infatti si vede la diffrenza di prezzo tra 8600 gts e 8800 gts 320 MB.
mah! il prezzo per la gts è troppo altooooo, pero' ste cose non dobbiamo vederle noi ma direttamente il marketing di nvidia. Cavolo guadagneranno anche un sacco di soldi...
Già da alcuni venditori tedeschi ADESSO è possibile comprare la 8600gt a 129 euro..
Cmq...Non e' strano che i risultati di HardOCP siano COMPLETAMENTE in controtendenza rispetto a quelli di hwupgrade???
Sembrano che si siano scelti le risoluzioni che volevano loro x far rendere di piu' la 8600...bah ridicolo...ogni gioco l'hanno provato con UNA SOLA RISOLUZIONE ed UN SOLO SETTAGGIO DI FILTRI . Non Fanno vedere MAI ed in NESSUN MODO la scalabilita' della 8600... Dove magari come fa vedere HWU se abiliti L'AA le prestazioni crollano...
Vabbe Cmq sia, (Test idioti ed inutili quelli di hardocp a mio parere), nn mi interessa se la 8600 sia poco piu' o poco meno veloce della x1950pro...gia' il solo fatto che si debba confrontare con questa scheda e' una sconfitta.
Aspettative non mantenute. Adesso tocca ad ati convincermi a cambiare la mia 6800GT superoccata
qndi dire XFX 8600GT e 8600GT è la stessa cosa, con le stesse caratteristiche? cioe si parla di una sola scheda?
Già da alcuni venditori tedeschi ADESSO è possibile comprare la 8600gt a 129 euro..
si ma non tutti possono/vogliono comprare all'estero. io credo invece che molti o alcuni abbiano mal compreso il confronto che non va assolutamente fatto con schede del calibro x1900/1950xt o 7950gt. quelle erano si dall'inizio irrangiungibili anche da una 8600gts con 64 shader.
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".