PDA

View Full Version : GeForce 8950 GX2: l'anti R600?


Redazione di Hardware Upg
21-03-2007, 15:37
Link alla notizia: http://www.hwupgrade.it/news/skvideo/20545.html

Pare possibile che NVIDIA possa presentare una scheda GeForce 8950 GX2, con due GPU G80 in parallelo, per meglio contrastare la soluzione R600 di AMD

Click sul link per visualizzare la notizia.

The_SaN
21-03-2007, 15:44
Avevo letto questa news 2 orette fa ed ero rimasto davvero incuriosito.
La 8800ultra mi sembra piuttosto ovvia, ma la 8950gx2 proprio non me la aspettavo (credevo che insieme alla xtx2 non potesse che rimanere un sogno).

Chissá (se si rivelasse vero) i possibili problemi per integrare ben 2 chip g80 e i consumi.
Anche se me li aspetto minori di 2 8800gts, come nVidia fece l' anno scorso con la serie 7.
Chissá i prezzi, sono davvero curioso :)

ultimate_sayan
21-03-2007, 15:50
Se nVidia realizza una scheda con due GPU per contrastare R600 significa che la soluzione ATI-AMD è davvero valida...

Sim89one
21-03-2007, 15:51
Sbav 8950gx2 :O

Evangelion01
21-03-2007, 15:51
Però, visto il costo attuale della 8800gtx, mi chiedo quanto costerà questa 8950... :(

Il Creativo
21-03-2007, 15:52
E va bene, continuiamo a proporre nuove soluzioni, due GPU in una singola scheda e così via... ma dei driver Nvidia se ne è dimenticata? Come mai non esistono driver certificati per la 8800 dal 10 di gennaio? Sinceramente ho acquistato la 8800 contando su una serietà particolare sotto il punto di vista tecnico e di supporto driver ma, a quanto pare, stavolta mi sono sbagliato, si sono concentrati sui driver per Vista non considerando più una fetta molto ampia(circa il 90% a mio avviso) di possessori di schede video che utilizzano ancora XP, neanche i driver attuali fossero il massimo... fanno abbastanza cag... con diversi titoli DX 9... scusate lo sfogo forse un tantino off-topic... ma non acquisterò più una scheda single o dual-gpu se prima non passano 3 mesi dalla sua uscita!!!:mad:

cribri
21-03-2007, 15:57
Già una gpu g80 è affamata di corrente e dissipa un sacco di watt
Due cosa cobineranno?Spero che con la scheda diano in bundle un alimentatore a parte da affiancare a quello del pc per dissetare la scheda oltre ad un sistema completo di raffreddamento a liquido per raffreddare i bollenti spiriti.

Dox
21-03-2007, 15:58
l' R600 è dal 2 al 7% piu veloce della 8800... non vi aspettate un granchè la 8900 basterà e non lo dico da fanboy davvero non me ne frega niente io faccio semplicemente il consumatore solo vi consiglio di no farvi strane idee tipo che vada come 2 g80... reastate sulla terra... siate felici per l'abbassamento dei prezzi

Mizar74
21-03-2007, 16:00
Se nVidia realizza una scheda con due GPU per contrastare R600 significa che la soluzione ATI-AMD è davvero valida...

Già, R600 è talmente valido che AMD-Ati non lo ha presentato nemmeno al Cebit irritando tutti i propri partner. :mbe:

MenageZero
21-03-2007, 16:00
se la ragion d'essere di una eventuale 8950gx2 sarà quella ipotizzata nella news, una ulteriore indizio nella direzione che che r600 superi non di poco g80, prendendo a riferimento le singole gpu e non le s.v. ovviamente.

DjLode
21-03-2007, 16:00
l' R600 è dal 2 al 7% piu veloce della 8800... non vi aspettate un granchè la 8900 basterà

Quindi tu l'hai provata, con quali giochi? Sopratutto alle alte risoluzioni con i filtri al massimo come si comporta? I driver sono stabili? Introducono nuove funzionalità o sono uguali agli attuali?

Catan
21-03-2007, 16:02
della gtx 2 se ne parlava da abbastanza tempo si erano ipotizziati che il g80 utilizzato fossero 2 chip gts quindi con 96sv per chip per un totale di 192sv.
il clock per motivi di calore sarebbe rimasto fissato a 500mhz.
mentre si parlava di 512mb di ram divisi in 2 blocchi da 256mb per scheda con 256bit ogni uno per un teorico 512bit in combinata con frequenza di 1600mhz per un totale di banda di 102gb.


per Il Creativo è da molto tempo che nvidia sembra essere regredita a livello dvr imbottendoci di beta di dubbia origine e facendo uscire dvr ufficiali a ritmo di 3 mesi di distanza gli uni dagli altri.
per ora ho una 8800gts ma venendo da una serie di ati posso solo dirti che dal mio punto di vista con i dvr ati a cadenza mensile e sempre aggiornati con problematiche risolte nei giochi non c'è confronto

Gurzo2007
21-03-2007, 16:04
l'ennesima contromossa commerciale di marketing...

MenageZero
21-03-2007, 16:05
l' R600 è dal 2 al 7% piu veloce della 8800... non vi aspettate un granchè la 8900 basterà

bah così poco ? (nel caso, solite differenze minimali degli ultimi anni)

sarebbe più "divertente" che tornino a darsi vere batoste come ai tempi di gf4xxx vs r8xxx o r3xx vs nv3x ... :D

ps: com' è che avresti info tanto certe e tanto precise ? :wtf:

Catan
21-03-2007, 16:11
Quindi tu l'hai provata, con quali giochi? Sopratutto alle alte risoluzioni con i filtri al massimo come si comporta? I driver sono stabili? Introducono nuove funzionalità o sono uguali agli attuali?

come non quotarti aggiungo altre questions che versione hai provato?
la versione full con gddr3 o quella gddr4?512mb di ram o 1gb onboard?
hai provato anche la versione con 48unità vettoriali oltre che la versione con 64?
il dissipatore è ingombrate e rumoroso?e a tec come dicevano i rumors?
attendiamo trepidanti tue notizie

OPPURE SEI SOTTO NDA?

The_SaN
21-03-2007, 16:13
bah così poco ? (nel caso, solite differenze minimali degli ultimi anni)

sarebbe più "divertente" che tornino a darsi vere batoste come ai tempi di gf4xxx vs r8xxx o r3xx vs nv3x ... :D

ps: com' è che avresti info tanto certe e tanto precise ? :wtf:

Basandosi su rumors, visto che é l' unica cosa che si ha al momento.....

Io comunque non mi fido molto, soprattutto perché é improbabile che abbiano driver abbastanza maturi per dare un punteggio simile a quello finale.
Come sempre bisognerá aspettare fino all' uscita.......

Comunque una scheda del genere servirá moltissimo per le risoluzioni piú elevate, mi aspetto grandi cose dai 512bit +1gb gddr4 della x2900xtx ;)
Potrebbe ripetersi la storia delle 7900 e x1950 (dove la differenza alle alte risoluzioni era grandissima, ma con la serie 8 penso succederá in maniera piú ridotta) per poi vedere una fantastica gx2 che riprendeva il primato su tutto, ;)

Dox
21-03-2007, 16:18
Quindi tu l'hai provata, con quali giochi? Sopratutto alle alte risoluzioni con i filtri al massimo come si comporta? I driver sono stabili? Introducono nuove funzionalità o sono uguali agli attuali?

scusa hai ragione ho dimenticato un "IMHO" , però davvero per quel che si sente in giro e dai test apparsi negli ultimi 2-3 gg davano in certi test sintetici dei vantaggi dell'ordine del 2-3% ma sperando in drv un po più ottimizzati direi che potremmo arrivare sul un po più in su, il 7% non è poi così poco...

il mio commento era solo per sedare eventuali strane idee (che poi si sono avverate) che vedono nel r600 il santo graal mentre è puro marketing , a fronte di un bus a 512 bit i vantaggi maggiori si avranno alle alte risoluzioni con filtri ma a risoluzioni umane tipo 1280 o 1024 non sarà molto diverso da 8800, se la 8900 riuscirà a colmare il gap dei 512bit sarà di tanto guadagnato per nvidia di certo una eventuale 8950 non avra problemi ad asfaltarla patto di drv decenti

non voglio scatenare flame e non sono fan di nessuna casa :p viva la guerra dei prezzi

The_SaN
21-03-2007, 16:21
scusa hai ragione ho dimenticato un "IMHO" , però davvero per quel che si sente in giro e dai test apparsi negli ultimi 2-3 gg davano in certi test sintetici dei vantaggi dell'ordine del 2-3% ma sperando in drv un po più ottimizzati direi che potremmo arrivare sul un po più in su, il 7% non è poi così poco...

il mio commento era solo per sedare eventuali strane idee (che poi si sono avverate) che vedono nel r600 il santo graal mentre è puro marketing , a fronte di un bus a 512 bit i vantaggi maggiori si avranno alle alte risoluzioni con filtri ma a risoluzioni umane tipo 1280 o 1024 non sarà molto diverso da 8800, se la 8900 riuscirà a colmare il gap dei 512bit sarà di tanto guadagnato per nvidia di certo una eventuale 8950 non avra problemi ad asfaltarla patto di drv decenti

non voglio scatenare flame e non sono fan di nessuna casa :p viva la guerra dei prezzi

Beh una vga da 500-600 Euro serve proprio per questo: giocare ad alte risoluzioni.
Se si vuole giocare a 1280x1024 si prende una 8800gts 320mb o equivalente, perché lí la differenza in prestazioni con la GTX é quasi nulla.

Rubberick
21-03-2007, 16:23
800W di scheda?

zanardi84
21-03-2007, 16:24
Sapete che se la situazione è quella della notizia, la 8800 è la nuova FX5800?

The_SaN
21-03-2007, 16:26
Sapete che se la situazione è quella della notizia, la 8800 è la nuova FX5800?

Perché scusa?

Dox
21-03-2007, 16:26
800W di scheda?

DTP 240W poi ovviamente starà sotto... spero almeno del 15%

DjLode
21-03-2007, 16:29
a fronte di un bus a 512 bit i vantaggi maggiori si avranno alle alte risoluzioni con filtri ma a risoluzioni umane tipo 1280 o 1024 non sarà molto diverso da 8800

Certo, prendiamo questa scheda per giocare a 1024x768...

zanardi84
21-03-2007, 16:30
Perché scusa?

Perchè se per stare sui livelli di una r600 ci vogliono 2 8800 in SLi, vuol dire che la singola 8800 non è poi questo fenomeno.

Oppure spostiamo i punti di vista: r600 potrebbe essere la nuova 9700, perchè se la notizia è vera, potrebbe avere una potenza esagerata.

GiovanniGTS
21-03-2007, 16:35
Perché scusa?

quello che lui forse vuole dire è:


FX5800 : DX9 = 8800 : DX10

peccato che sia tutto da dimostrare

finche' R600 non viene commercializzato
le 8800 sono il top sia in DX9 che in DX10

questo è l'unico dato certo

certo che ad uscire 6 mesi dopo le 8800 .................. se R600 fosse di poco superiore sarebbe un grande delusione

in fondo è il ciclo

io esco, ho un migliore prestazioni/prezzo, vendo
poi
tu esci, hai un migliore prestazioni/prezzo, vendi
poi
ecc.........

se qualcosa si inceppa addio la concorrenza ..............

The_SaN
21-03-2007, 16:35
Perchè se per stare sui livelli di una r600 ci vogliono 2 8800 in SLi, vuol dire che la singola 8800 non è poi questo fenomeno.

Oppure spostiamo i punti di vista: r600 potrebbe essere la nuova 9700, perchè se la notizia è vera, potrebbe avere una potenza esagerata.

Si ma devi tenere conto che r600 esce 6 mesi dopo la 8800.
La 5800 é stato un vero fracasso, perché scaldava molto ed era inferiore alla 9700 (anche liscia) , ma anche per un altro motivo IMPORTANTISSMO: é uscita dopo. Quindi hanno fatto un aborto di progetto.

La serie 8 invece si é dimostrata a novembre (e tutt' ora) la migliore sulla piazza, raddoppiando la precedente serie.
Quindi direi un progetto ben realizzato.
Adesso, se r600 va piú veloce (e ci mancherebbe, arriva dopo) non é certo colpa del progetto di nVidia ;)

Stig
21-03-2007, 16:37
secondo me questa notizia è ottima dal punto di vista dei prezzi! la 8950gx2 non è che la potranno far costare piu di 600 euro...quindi la 8800gtx/ultra DOVRA calare a prezzi decenti e molto piu abbordabili!! :D

The_SaN
21-03-2007, 16:37
quello che lui forse vuole dire è:


FX5800 : DX9 = 8800 : DX10

peccato che sia tutto da dimostrare

finche' R600 non viene commercializzato
le 8800 sono il top sia in DX9 che in DX10

questo è l'unico dato certo

certo che ad uscire 6 mesi dopo le 8800 .................. se R600 fosse di poco superiore sarebbe un grande delusione

in fondo è il ciclo

io esco, ho un migliore prestazioni/prezzo, vendo
poi
tu esci, hai un migliore prestazioni/prezzo, vendi
poi
ecc.........

se qualcosa si inceppa addio la concorrenza ..............

Perfetto e nello stesso minuto :D

halduemilauno
21-03-2007, 16:39
Perchè se per stare sui livelli di una r600 ci vogliono 2 8800 in SLi, vuol dire che la singola 8800 non è poi questo fenomeno.

Oppure spostiamo i punti di vista: r600 potrebbe essere la nuova 9700, perchè se la notizia è vera, potrebbe avere una potenza esagerata.

quale notizia?

Dox
21-03-2007, 16:42
Perchè se per stare sui livelli di una r600 ci vogliono 2 8800 in SLi, vuol dire che la singola 8800 non è poi questo fenomeno.

Oppure spostiamo i punti di vista: r600 potrebbe essere la nuova 9700, perchè se la notizia è vera, potrebbe avere una potenza esagerata.

non ti preoccupare non sarà così , ti basti sapere che ATI-AMD ha perso alcuni partner a causa dei ritardi ingiustificati del r600 , e loro i test li fanno già da un po

PS : W R300 !!!

zanardi84
21-03-2007, 16:43
Si ma devi tenere conto che r600 esce 6 mesi dopo la 8800.
La 5800 é stato un vero fracasso, perché scaldava molto ed era inferiore alla 9700 (anche liscia) , ma anche per un altro motivo IMPORTANTISSMO: é uscita dopo. Quindi hanno fatto un aborto di progetto.

La serie 8 invece si é dimostrata a novembre (e tutt' ora) la migliore sulla piazza, raddoppiando la precedente serie.
Quindi direi un progetto ben realizzato.
Adesso, se r600 va piú veloce (e ci mancherebbe, arriva dopo) non é certo colpa del progetto di nVidia ;)

E invece sì perchè non c'era bisogno di mettere le 8800 sul mercato quando tutte le precedenti schede erano in grado di gestire bene qualsiasi titolo. Secondo me avrebbero dovuto aspettare e magari perfezionare il progetto, o meglio, si sarebbero dovuti fermare a lavorare sui driver.
Pare che su Vista le cose non stiano andando bene, nemmeno con le 8800.

stgww
21-03-2007, 16:46
IMHO se mai uscirà questa scheda la chiameranno 8850 GX2, perche si riserveranno il modello 89** per quelle successive... cmq non penso proprio che r600 vada il doppio di g80, magari qualcosa di più. anche 20-30%, ma il doppio mi sembra un po' esagerato, detto questo io spero che vada almeno il triplo, perchè pur essendo fanboy nvidia, i prezzi che si abbassano, tecnologia che avanza e x2600 che và che è una bestia piace anche a me

stgww
21-03-2007, 16:48
E invece sì perchè non c'era bisogno di mettere le 8800 sul mercato quando tutte le precedenti schede erano in grado di gestire bene qualsiasi titolo. Secondo me avrebbero dovuto aspettare e magari perfezionare il progetto, o meglio, si sarebbero dovuti fermare a lavorare sui driver.
Pare che su Vista le cose non stiano andando bene, nemmeno con le 8800.

Ti ricordo che nvidia stava perdendo quote nel mercato di fascia alta, perchè le x1950xtx andavano meglio delle 7950GTX , quindi voleva mettere in commercio una scheda competitiva

Marko91
21-03-2007, 16:48
Perchè se per stare sui livelli di una r600 ci vogliono 2 8800 in SLi, vuol dire che la singola 8800 non è poi questo fenomeno.

Oppure spostiamo i punti di vista: r600 potrebbe essere la nuova 9700, perchè se la notizia è vera, potrebbe avere una potenza esagerata.

Dai rumor finora trapelati sembra che sia potente, ma poco più di G80. Un sito affidabile (vr-zone.com) ha dichiarato di avere testato un R600 a 80 nm e 800 Mhz vs un G80 a default. Al 3D Mark 06, R600 ha fatto 97xx, G80 95xx entrambi su un Conroe a 2.93 Ghz.
Se i risultati sono confermati, dal punto di vista dell'architettura per G80 sarebbe una vittoria. Nvidia ha prodotto un chip che a frequenze di 200 Mh inferiori e con 100 milioni in meno di transistor (sempre da rumor su R600) ha prestazioni leggermente inferiori, ed avrebbe ampissimo margine per produrre un chip molto più performante associando su un unico pcb 2 chip G80, e perfino potendosi permettere di produrre i chip a 65 nm e alzare la frequenza.
Sinceramente spero che questi risultati siano dovuti ai driver acerbi, perchè mi aspettavo di più da Ati. E' da tempo che producono chip a shader unificati.
Spero che arrivi in fretta il software DirectX 10 nativo (anche una beta...), in modo da poter testare bene le prestazioni delle due schede.:)

The_SaN
21-03-2007, 16:50
E invece sì perchè non c'era bisogno di mettere le 8800 sul mercato quando tutte le precedenti schede erano in grado di gestire bene qualsiasi titolo. Secondo me avrebbero dovuto aspettare e magari perfezionare il progetto, o meglio, si sarebbero dovuti fermare a lavorare sui driver.
Pare che su Vista le cose non stiano andando bene, nemmeno con le 8800.

Ognuno fa i tempi che ritiene migliori, e io non vedo dove il progetto g80 sia sbagliato.
Ripeto, va il doppio della serie 7, cosa si puó volere di piú?
Di giochi (e risoluzioni) che hanno bisogno di una 8800 ce ne sono ;)

Quanto ai driver hai ragione, sono penosi a dir poco.
Ma a questo c' é rimedio, mentre per la 5800 non c' é stato, visto che il problema era HW.

appleroof
21-03-2007, 16:52
E invece sì perchè non c'era bisogno di mettere le 8800 sul mercato quando tutte le precedenti schede erano in grado di gestire bene qualsiasi titolo. Secondo me avrebbero dovuto aspettare e magari perfezionare il progetto, o meglio, si sarebbero dovuti fermare a lavorare sui driver.
Pare che su Vista le cose non stiano andando bene, nemmeno con le 8800.

:mbe: pare? io ho Vista ce l'ho e và una scheggia, idem la 8800gtx :boh:

appleroof
21-03-2007, 16:54
Ognuno fa i tempi che ritiene migliori, e io non vedo dove il progetto g80 sia sbagliato.
Ripeto, va il doppio della serie 7, cosa si puó volere di piú?
Di giochi (e risoluzioni) che hanno bisogno di una 8800 ce ne sono ;)

Quanto ai driver hai ragione, sono penosi a dir poco.
Ma a questo c' é rimedio, mentre per la 5800 non c' é stato, visto che il problema era HW.

Aggiungerei anche cha và il doppio della x1950xtx, questo per dx9. Quanto ai driver continuo a non capire le cose che leggo da qualche mese al riguardo, io (a parte call of juarez e scda) non ho avuto il minimo problema, nè con xp nè con vista...

Quanto al fatto che R600 vada meglio/peggio, chi lo sa ancora?

zanardi84
21-03-2007, 16:54
I partner che lasciano secondo me non sono sempre segno di un prodotto scadente. Potrebbero esserci anche dei giochi commerciali con vantaggi economici se ci si schiera con uno o l'altro produttore.
Certo è che comunque chi si aspettava r600 al Cebit è rimasto deluso, e coloro che avrebbero dovuto presentare le proprie versioni di tale scheda non hanno fatto certo bella figura, dovendosi un po' reinventare l'esposizione con prodotti riciclati o modificati con improbabili sistemi di raffeddamento a griglia o a barbecue.

Aspettiamo! I rumors sono tanti e le aspettative pure. Le nuove generazioni delle Radeon generalmente sono sempre molto interessanti e performanti. Ci si attende che questo r600 mantenga intatto il trend!

SolidSnake587
21-03-2007, 17:00
Non capisco i commenti di certi utenti...E' vero che una 8950 GX2 per sfruttarla appieno bisogna farla lavorare a risoluzioni molto alte, ma c'è comunque da dire che a quelle risoluzioni non si può giocare con tutti i dettagli al massimo e filtri abbondanti per tanti mesi. Se si rivelerà un'ottima scheda come è stata la 7950 GX2, che nonostante fosse dual GPU consumava relativamente poco, beh credo possa essere allettante per tutti. Personalmente preferisco giocare a 1280*1024 con tutte le impostazioni al massimo in tutti i giochi con AA4X AF8X e HDR attivo e un ottimo frame rate, almeno per un pò di tempo posso tenermi la mia VGA invece di doverla sostituire dopo qualche mese e poi dai parliamoci chiaro il gioco "mattone" esce sempre e questi discorsi riguardanti lo spreco di una scheda video mostruosa se utilizzata a res umane beh sono un pò campati in aria, prendiamo per esempio l'attuale 8800 GTX col gioco F.E.A.R. che a risoluzione di 2560*1600 con AA4X AF16X genera 32 fps, ecco il punto, un gioco come F.E.A.R. che è uscito da più di un anno (anche se ancora pesante) stressa così tanto una scheda video top gamma, pensate di poter giocare in questo modo al futuro Crysis?

appleroof
21-03-2007, 17:08
Non capisco i commenti di certi utenti...E' vero che una 8950 GX2 per sfruttarla appieno bisogna farla lavorare a risoluzioni molto alte, ma c'è comunque da dire che a quelle risoluzioni non si può giocare con tutti i dettagli al massimo e filtri abbondanti per tanti mesi. Se si rivelerà un'ottima scheda come è stata la 7950 GX2, che nonostante fosse dual GPU consumava relativamente poco, beh credo possa essere allettante per tutti. Personalmente preferisco giocare a 1280*1024 con tutte le impostazioni al massimo in tutti i giochi con AA4X AF8X e HDR attivo e un ottimo frame rate, almeno per un pò di tempo posso tenermi la mia VGA invece di doverla sostituire dopo qualche mese e poi dai parliamoci chiaro il gioco "mattone" esce sempre e questi discorsi riguardanti lo spreco di una scheda video mostruosa se utilizzata a res umane beh sono un pò campati in aria, prendiamo per esempio l'attuale 8800 GTX col gioco F.E.A.R. che a risoluzione di 2560*1600 con AA4X AF16X genera 32 fps, ecco il punto, un gioco come F.E.A.R. che è uscito da più di un anno (anche se ancora pesante) stressa così tanto una scheda video top gamma, pensate di poter giocare in questo modo al futuro Crysis?

Il ragionamento fila anche se la penso diversamente sull' "aspetto risoluzioni", ma su questo punto finale secondo me non tieni conto di un aspetto fondamentale: le dx10, che potrebbero cambiare totalmente lo scenario che prefiguri, visto che questa scheda è progettata per esse, e solo in secondo luogo gira in dx9, anche se tanti (più o meno a ragion veduta) invertono la cosa ;)

Mister Tarpone
21-03-2007, 17:14
Non capisco i commenti di certi utenti...E' vero che una 8950 GX2 per sfruttarla appieno bisogna farla lavorare a risoluzioni molto alte, ma c'è comunque da dire che a quelle risoluzioni non si può giocare con tutti i dettagli al massimo e filtri abbondanti per tanti mesi. Se si rivelerà un'ottima scheda come è stata la 7950 GX2, che nonostante fosse dual GPU consumava relativamente poco, beh credo possa essere allettante per tutti. Personalmente preferisco giocare a 1280*1024 con tutte le impostazioni al massimo in tutti i giochi con AA4X AF8X e HDR attivo e un ottimo frame rate, almeno per un pò di tempo posso tenermi la mia VGA invece di doverla sostituire dopo qualche mese e poi dai parliamoci chiaro il gioco "mattone" esce sempre e questi discorsi riguardanti lo spreco di una scheda video mostruosa se utilizzata a res umane beh sono un pò campati in aria, prendiamo per esempio l'attuale 8800 GTX col gioco F.E.A.R. che a risoluzione di 2560*1600 con AA4X AF16X genera 32 fps, ecco il punto, un gioco come F.E.A.R. che è uscito da più di un anno (anche se ancora pesante) stressa così tanto una scheda video top gamma, pensate di poter giocare in questo modo al futuro Crysis?
Hai ragione ;) ma chi se ne frega di giocare a quelle risoluzioni con Crysis ;)
anche a me basterebbe la 1280x per godermelo... a che ca22o serve farlo girare in 2560x1600?? ma per giocare con un gioco poi..:asd: è assurda dai!! :asd:
A voler esagerare con la qualità grafica, basterebbe una 1600x1200 + filtri...toh

ciocia
21-03-2007, 17:15
8950gx2, potrebbe essere la mia vga per quando vorro' giocare a crysis, ma bisognera' vedere:
1-costi
2-consumi

Mister Tarpone
21-03-2007, 17:18
8950gx2, potrebbe essere la mia vga per quando vorro' giocare a crysis, ma bisognera' vedere:
1-costi
2-consumi

3- che cpu ci vuole per tirarla :)

yossarian
21-03-2007, 17:29
non ti preoccupare non sarà così , ti basti sapere che ATI-AMD ha perso alcuni partner a causa dei ritardi ingiustificati del r600 , e loro i test li fanno già da un po

PS : W R300 !!!

hai, per caso, dimenticato un IMHO anche qui, oppure vuoi elencarci tutti i produttori che hanno riunciato a utilizzare R600 per le loro vga?

:mbe:

MisterG
21-03-2007, 17:29
- Penso che se nvidia tira fuori una serie 8 gx2 non lo fa per contrastare r600 ma con l'intento di proporre una soluzione quadri-gpu come al tempo della 7950gx2 (due gx2 in sli).

- Penso anche che se ati aspetta ancora un po a tirar fuori l'r600 nvidia fa in tempo a proporre g81 altro che g80gx2.:p

- Che R600 sia superiore e non di poco a g80 è il minimo che mi aspetto dati i tempi di presentazione.

- Ultimo e non ultimo speriamo anche di vedere qualcosa che sfrutti a dovere ste cavolo di dx10 perchè per ora una gx2 per fare fluttuare due finestre mi sembra uno spreco di potenza esagerato senza pensare al fattore economico. :D

Salut

SolidSnake587
21-03-2007, 17:37
Hai ragione ;) ma chi se ne frega di giocare a quelle risoluzioni con Crysis ;)
anche a me basterebbe la 1280x per godermelo... a che ca22o serve farlo girare in 2560x1600?? ma per giocare con un gioco poi..:asd: è assurda dai!! :asd:
A voler esagerare con la qualità grafica, basterebbe una 1600x1200 + filtri...toh
Era per fare un esempio di un prossimo titolo promettente e molto pesante probabilmente :D
Ma infatti è quello che volevo dire! E' troppo presto per giocare a queste risoluzioni secondo me.

fukka75
21-03-2007, 17:37
- Penso che se nvidia tira fuori una serie 8 gx2 non lo fa per contrastare r600 ma con l'intento di proporre una soluzione quadri-gpu come al tempo della 7950gx2 (due gx2 in sli).

Quotissimo

Mister Tarpone
21-03-2007, 17:39
- Ultimo e non ultimo speriamo anche di vedere qualcosa che sfrutti a dovere ste cavolo di dx10 perchè per ora una gx2 per fare fluttuare due finestre mi sembra uno spreco di potenza esagerato senza pensare al fattore economico. :D

Salut

quoto :asd:

Mister Tarpone
21-03-2007, 17:41
Era per fare un esempio di un prossimo titolo promettente e molto pesante probabilmente :D
Ma infatti è quello che volevo dire! E' troppo presto per giocare a queste risoluzioni secondo me.

e per me lo sarà sempre :asd: perchè non ci vedo una vera utilità ;)
non servono a un caz.. :)

dwfgerw
21-03-2007, 17:58
penso che la 8950gx2 sarò realizzata con uno shrink a 65nm di G80, intanto vedremo invece la g80 ultra con gddr4. Anche se, a mio parere, una 8800GTX attuale non sarà molto distante da R600, io vedo il chip di ati come un prodotto che verrà velocemente sorpassato, come avvenne con R520, proprio in virtu del suo eccessivo ritardo.

Kharonte85
21-03-2007, 18:14
La 8950Gx2 andra' a sostituire la 7950gx2.

Ovviamente avra' costi e consumi elevati, ma se saranno paragonabili ad R-600 Nvidia sara' ancora davanti come è avvenuto con la x1950xtx Vs 7950gx2...

Sarei curioso invece di sapere di piu' sulla versione ultra, io credo che sara' una versione G80 a 80nm con frequenza + alte...

McGraw
21-03-2007, 18:20
MA QUESTA NEWS E' DEL 15 FEBBRAIO!!!

E OLTRE TUTTO CON TANTO DI SPECIFICHE!!!

http://www.hwupgrade.it/news/skvideo/geforce-8900-5-nuove-schede-al-debutto_20161.html

JohnPetrucci
21-03-2007, 18:39
E va bene, continuiamo a proporre nuove soluzioni, due GPU in una singola scheda e così via... ma dei driver Nvidia se ne è dimenticata? Come mai non esistono driver certificati per la 8800 dal 10 di gennaio? Sinceramente ho acquistato la 8800 contando su una serietà particolare sotto il punto di vista tecnico e di supporto driver ma, a quanto pare, stavolta mi sono sbagliato, si sono concentrati sui driver per Vista non considerando più una fetta molto ampia(circa il 90% a mio avviso) di possessori di schede video che utilizzano ancora XP, neanche i driver attuali fossero il massimo... fanno abbastanza cag... con diversi titoli DX 9... scusate lo sfogo forse un tantino off-topic... ma non acquisterò più una scheda single o dual-gpu se prima non passano 3 mesi dalla sua uscita!!!:mad:
Non hai torto, ma per fortuna io almeno fino ad ora con i titoli che ho avuto modo di provare, non ho riscontrato problemi con la mia 8800gts, spero soltanto che Nvidia non continui a perseverare su questa linea di abbandono verso Xp e rilasci un buon set di driver whql a breve.

ciocia
21-03-2007, 18:44
3- che cpu ci vuole per tirarla :)

Niente di particolare. Anche dagli utlimi test di hwupgrade si vede che a risoluzioni alte, dai 1600x1200 con filtri attivi in su, il collo di bottiglia e' sempre la vga...e siccome io gioco ( quando riesco ) a 1920x1200...

Mister Tarpone
21-03-2007, 19:16
Niente di particolare. Anche dagli utlimi test di hwupgrade si vede che a risoluzioni alte, dai 1600x1200 con filtri attivi in su, il collo di bottiglia e' sempre la vga...e siccome io gioco ( quando riesco ) a 1920x1200...

a si?? pensavo ci volesse un pc bello tosto per (praticamente) uno SLI di 8800 :asd:
Tu monteresti una 8950gx2 su un x2 3800?? io sinceramente no.ma neanche sul mio 4400+..perchè salterebbe in aria :asd:
Cmq poco importa. non avendo un monitor che costa come un intero computer,punterò al max su una 8800gts 320...che mi sembra un vero affare per quello che offre.
Infatti trovo che la grafica dei giochi a 1280x1024 con filtri a palla sia già ottima ;)

Tidus.hw
21-03-2007, 19:28
certo che se nvidia non si sbriga a fare driver decenti e sopratutto che supportano lo SLI anche sotto vista, la gx2 serve a ben poco, visto che di fatto sono 2 gpu in sli :)

aaasssdddfffggg
21-03-2007, 19:42
provato oggi STALKER a 2560x1600 tutto al massimo dettaglio assoluto ed è uno spettacolo per gli occhi.Ho 2 8800gtx in SLI che lavorano dietro un core2quad che le spinge più che può'.Se il pc è ben rapportato tra i vari componenti il risultato è una goduria totale.

MadMax of Nine
21-03-2007, 20:03
Io attualmente devo ancora trovare un titolo che mi dia problemi a 1680x1050 con tutti filtri a palla... sono anche supportato bene dalla conf in sign da 3.42GHz che è quella daily :D

La cosa da vedere è come realizzeranno i dx10... magari danno il meglio con multi-gpu come l'evoluzione dei processori da single a dual/quad core :rolleyes:

Bulz rulez
21-03-2007, 20:14
la 8950gx2 e' la vga ke aspettavo imho sono le soluz migliori, due gpu e magari sotto liquido, ottimizzate a lavorare in parallelo

a maggio-giugno passo al quadcore col crollo dei prezzi e se tt va bene
per natale mi regalo na vga finalmente dx 10

Mister Tarpone
21-03-2007, 20:14
Io attualmente devo ancora trovare un titolo che mi dia problemi a 1680x1050 con tutti filtri a palla... sono anche supportato bene dalla conf in sign da 3.42GHz che è quella daily :D

La cosa da vedere è come realizzeranno i dx10... magari danno il meglio con multi-gpu come l'evoluzione dei processori da single a dual/quad core :rolleyes:

Un e4300 a 3400mhz?? AZZ..:oink: Sto procio è molto conveniente :oink:

capitan_crasy
21-03-2007, 20:25
non ti preoccupare non sarà così , ti basti sapere che ATI-AMD ha perso alcuni partner

quali e quandi parther avrebbe perso ATI/AMD?

a causa dei ritardi ingiustificati del r600 , e loro i test li fanno già da un po

sembra che uno dei motivi ingiustificati per il ritardo del R600 sia l'adozione del processo produttivo a 65nm su tutta la gamma R6xxx con un conseguente diminuzione del costo di produzione e soprattutto di un risparmio energetico attorno al 30% se paragonato al processo produttivo 80nm...

SolidSnake587
21-03-2007, 20:29
Dite che un E6600 possa reggerla senza problemi? :confused: :confused: anche perchè me lo vorrei godere per un bel pezzo questo procio, non vorrei già trovarmi CPU limited.

Nos89
21-03-2007, 20:43
Dite che un E6600 possa reggerla senza problemi? :confused: :confused: anche perchè me lo vorrei godere per un bel pezzo questo procio, non vorrei già trovarmi CPU limited.

ce la fa tranquillo,se poi proprio avessi bisogno di + potenza lo mandi a 3.0Ghz e voli

The_SaN
21-03-2007, 20:51
Poi con i titoli che sfrutteranno il multicore il cpu limited tenderá a diminuire IMHO.

DjLode
21-03-2007, 20:54
Poi con i titoli che sfrutteranno il multicore il cpu limited tenderá a diminuire IMHO.


Ho visto che sei di Vitoria, sono appena tornato dopo 10 giorni di lavoro (ok, 3 di spiaggia :)) da lì.

Catan
21-03-2007, 21:09
Dite che un E6600 possa reggerla senza problemi? :confused: :confused: anche perchè me lo vorrei godere per un bel pezzo questo procio, non vorrei già trovarmi CPU limited.

fidati che con le vga di adesso devi preoccuparti + di essere monitor limited che nn cpu limited;)

Mister Tarpone
21-03-2007, 21:15
fidati che con le vga di adesso devi preoccuparti + di essere monitor limited che nn cpu limited;)

Già..
poi ci sarebbe anche il problema degli € limited :bsod:

Nos89
21-03-2007, 21:16
Già..
poi ci sarebbe anche il problema degli € limited :bsod:

quello sempre:O

Mister Tarpone
21-03-2007, 21:23
quello sempre:O

purtroppo si :asd:

Stig
21-03-2007, 21:47
Già..
poi ci sarebbe anche il problema degli € limited :bsod:

e mi sa che è anche importante sto problemino....:asd:

Apple80
21-03-2007, 23:13
ecciaoooooo. Amd ha dato tempo alla controparte per contrastare R600.

Apple80
21-03-2007, 23:22
mi viene già da ridere. Chissà che putiferio il gionro che uscirà R600. Altro che Salvate il soldato Ryan.

Salvate l'R600 !!!!!

Nos89
21-03-2007, 23:40
mi viene già da ridere. Chissà che putiferio il gionro che uscirà R600. Altro che Salvate il soldato Ryan.

Salvate l'R600 !!!!!

:asd:

Darkgift
21-03-2007, 23:44
Intanto circolano le prime in discrezioni sul fatto che la fascia media di Nvidia(8600 GTS/Gt) al Cebit abbia deluso molto nel rendering complesso..........si parla di DRASTICO calo delle prestazioni......dovuto ai drivers oppure(MOLTO PRESUMIBILMENTE) al bus ridicolo.
Pare che invece le schede viaggino molto bene nel rendering semplice...........cosa che non mi interessa.....xci'o siccome ATI ha rotto le biglie anche ai suoi partner(oltre che a me) e la fascia media di Nvidia fa ridere(lo stesso fara la fascia media di Ati)......mi tengo la mia gloriosa XL.....gioco agli arretrati....ed attendo che g80 e r600 non costino piu una tombola per fare l'upgrade.

Forse questo sara' lanno in cui nessuno dei due avra' una fascia media dignitosa fin dall'inizio.....c'è stato l'anno delle 4200....poi le 9500....poi le 6600......e quest'anno? .......niente !!...faranno pena tutte e due :-)))))

Pensate a fare i drivers che è meglio !!!!

PS: si vocifera che Ati/Amd per meglio contrastare Nvidia.......fara'......niente...non fara' niente.......salta questa generazione di schede video e passa direttamente alla prossima.
AMD invece tra un po i processori li regala :-)

Giallo77
21-03-2007, 23:56
Le cose sono 2:

1) nVidia s'è così abituata ad avere il monopolio di soluzioni DX10 (anche se di fatto giochi non ne sono ancora usciti... Forza co sto Crysis :Prrr: ) da volerlo mantenere anche in avanti.

2) Si sta ca**ndo sotto perchè i suoi "servizi segreti" hanno messo le mani in un sample di R600 e vuol correre ai ripari (anche se da riparare c'è ben poco perchè per sei mesi è stata nell'olimpo).

Quello che è sicuro è che R600, in DX10, non sarà una delusione (poichè esce bene o male al momento giusto e a rigor di logica bella pronta in tutti i sensi), le VGA nVidia... Boooh speriamo!
Benedetta sia la concorrenza, abbassate i prezzi e vissero tutti felici e contenti!

Samuele86
22-03-2007, 00:09
sèèèèè vai a capire i prezzi e i consumi...miliardiiii ahha

capitan_crasy
22-03-2007, 00:14
Intanto circolano le prime in discrezioni sul fatto che la fascia media di Nvidia(8600 GTS/Gt) al Cebit abbia deluso molto nel rendering complesso..........si parla di DRASTICO calo delle prestazioni......dovuto ai drivers oppure(MOLTO PRESUMIBILMENTE) al bus ridicolo.
Pare che invece le schede viaggino molto bene nel rendering semplice...........cosa che non mi interessa.....xci'o siccome ATI ha rotto le biglie anche ai suoi partner(oltre che a me) e la fascia media di Nvidia fa ridere(lo stesso fara la fascia media di Ati)......mi tengo la mia gloriosa XL.....gioco agli arretrati....ed attendo che g80 e r600 non costino piu una tombola per fare l'upgrade.

Forse questo sara' lanno in cui nessuno dei due avra' una fascia media dignitosa fin dall'inizio.....c'è stato l'anno delle 4200....poi le 9500....poi le 6600......e quest'anno? .......niente !!...faranno pena tutte e due :-)))))

Pensate a fare i drivers che è meglio !!!!

PS: si vocifera che Ati/Amd per meglio contrastare Nvidia.......fara'......niente...non fara' niente.......salta questa generazione di schede video e passa direttamente alla prossima.
AMD invece tra un po i processori li regala :-)

per la cronaca; ecco i primi bench della 8600GTS su un FX-62:
http://www.oc.com.tw/article/0703/imgs/cebit2007-gf86all86gts03.jpg
http://www.oc.com.tw/article/0703/imgs/cebit2007-gf86all86gts06.jpg

Apple80
22-03-2007, 00:39
I
Pensate a fare i drivers che è meglio !!!!




io direi...

pensate a fare i giochi ottimizzati che poverina ati e nvidia devono correre dietro alle softwarehouse. :doh:

Syran
22-03-2007, 00:59
Io sono dell'idea che non ha senso giocare con risoluzioni assurde, perche innanzitutto ora come ora non riusciresti a sfruttare tutta la potenza di una scheda grafica come la 8800GTX in quanto mancando le DX10 non si puo ancora vedere la VERA potenza della scheda, e poi perche per giocare a quelle risoluzioni ti servirebbe un monitor enorme, nonche costosissimo, dato che le scritte, tanto per fare un esempio, diventerebbero quasi microscopiche e con un 22 pollici per esempio, che è gia un bel monitor, si fa fatica.

Per quanto riguarda l' R600, dopo le varie notizie che si leggono in giro, non mi ispira molta fiducia, secondo me verrà soppiantato, e in maniera anche pesante, dopo pochissimo tempo da nvidia.

Io sono dalla parte di nvidia, perche, a parte la figuraccia della serie 5, è sempre stata simbolo di qualità superiore. (anche se ora ho la sk. madre e la sk. video marcate Sapphire)

Comunque staremo a vedere, spero proprio che R600 sia un bel flop, cosi imparano a fare i chipset con il :ciapet: (tanto come gia detto, tempo che esce R600, nvidia avrà gia prodotto il G81 :D )

mjordan
22-03-2007, 03:12
Quindi tu l'hai provata, con quali giochi? Sopratutto alle alte risoluzioni con i filtri al massimo come si comporta? I driver sono stabili? Introducono nuove funzionalità o sono uguali agli attuali?

Bhè, come ipotesi non è per niente azzardata. Quanto tempo alla fine le differenze pratiche sono qualche numeretto di discostamento nei benchmark. E' parecchio tempo che non escono vincitori reali, con differenze di valori che per rappresentarle ci vogliono i double... :asd: :asd:
Io piu' che della potenza, stavolta mi preoccuperei seriamente dei watt. :D
E poi il problema dell'€ limited, come diceva qualcuno, non è per niente trascurabile... :asd: :asd:

Stigmata
22-03-2007, 07:33
Già una gpu g80 è affamata di corrente e dissipa un sacco di watt
Due cosa cobineranno?Spero che con la scheda diano in bundle un alimentatore a parte da affiancare a quello del pc per dissetare la scheda oltre ad un sistema completo di raffreddamento a liquido per raffreddare i bollenti spiriti.

Come alimentatore daranno questo:

http://img92.imageshack.us/img92/474/2kpsu1ee7.jpg

:sofico:

MisterG
22-03-2007, 08:01
Forse questo sara' lanno in cui nessuno dei due avra' una fascia media dignitosa fin dall'inizio.....c'è stato l'anno delle 4200....poi le 9500....poi le 6600......e quest'anno? .......

Quest'anno è l'anno delle x19XX :D

Apple80
22-03-2007, 08:34
Io sono dalla parte di nvidia, perche, a parte la figuraccia della serie 5, è sempre stata simbolo di qualità superiore. (anche se ora ho la sk. madre e la sk. video marcate Sapphire)

Comunque staremo a vedere, spero proprio che R600 sia un bel flop, cosi imparano a fare i chipset con il :ciapet: (tanto come gia detto, tempo che esce R600, nvidia avrà gia prodotto il G81 :D )


io dopo la 970pro ho avuto solo schede Nvidia.
C'è da dire che ATI coi filtri è sempre stata avanti. E con la X1800 e la X1900 cè la possibilità di abilitare HDR con l'AA. A parte l'HDR , ATI è sempre stata avanti coi filtri.

Ma ora col G80 la storia cambia. In ogni modo già con STalker si puo' vedere la potenza della 8800GTX. :)

Apple80
22-03-2007, 08:34
Come alimentatore daranno questo:

http://img92.imageshack.us/img92/474/2kpsu1ee7.jpg

:sofico:

è compreso tra i requisiti per Vista ? :sofico:

DjLode
22-03-2007, 08:41
Bhè, come ipotesi non è per niente azzardata. Quanto tempo alla fine le differenze pratiche sono qualche numeretto di discostamento nei benchmark. E' parecchio tempo che non escono vincitori reali, con differenze di valori che per rappresentarle ci vogliono i double... :asd: :asd:
Io piu' che della potenza, stavolta mi preoccuperei seriamente dei watt. :D
E poi il problema dell'€ limited, come diceva qualcuno, non è per niente trascurabile... :asd: :asd:

Certo, come ipotesi non è azzardata. Ma visto che si parla di supposizioni, mettere un "secondo me" di solito è buona norma. Oltretutto basarsi su un rumor, e sopratutto che parla di 3d mark... bhè non è il massimo.
Ho sentito sparare dei 30% di differenza di prestazioni per non giudicare R600 un flop. Questa è fantascienza. Le schede saranno sicuramente allineate. Poi ci saranno i pro e i contro dell'una e dell'altra. Prima di trarre conclusioni io aspetterei almeno numeri reali, no?

Stigmata
22-03-2007, 08:48
è compreso tra i requisiti per Vista ? :sofico:

E' tra i requisiti minimi per Vista :O
Per fare le cose bene, ne servono due in CrossSLIre :D

mjordan
22-03-2007, 09:18
Ma visto che si parla di supposizioni, mettere un "secondo me" di solito è buona norma.

Già, ma visto che lo sapevi in anticipo che erano supposizioni, pretendere un "secondo me" è polemica ;)
Tutto IMHO, ovviamente :D :sofico:

mjordan
22-03-2007, 09:20
Come alimentatore daranno questo:

http://img92.imageshack.us/img92/474/2kpsu1ee7.jpg

:sofico:

Scherza scherza, quà fra un po ci vogliono gli alimentatori in rack dei data center :sofico:

DjLode
22-03-2007, 09:27
Già, ma visto che lo sapevi in anticipo che erano supposizioni, pretendere un "secondo me" è polemica ;)
Tutto IMHO, ovviamente :D :sofico:

"l' R600 è dal 2 al 7% piu veloce della 8800... non vi aspettate un granchè la 8900 basterà"

A me non sembra un "secondo me" o una supposizione ;)
Tutto IMHO, ovviamente ;)

Mister Tarpone
22-03-2007, 09:37
"l' R600 è dal 2 al 7% piu veloce della 8800... non vi aspettate un granchè la 8900 basterà"


butterebbe male eh!!! mesi e mesi di ritardo per i 65nm, gddr4, bus gigantesco, i famosi 64 shader che per via dell'architettura ATI vanno come 256 e core a frequenza esagerata :asd:
e tutto questo per una 7% in più al max rispetto alla gtx??? :mc:

Spero di no per ati :asd:

Catan
22-03-2007, 09:57
butterebbe male eh!!! mesi e mesi di ritardo per i 65nm, gddr4, bus gigantesco, i famosi 64 shader che per via dell'architettura ATI vanno come 256 e core a frequenza esagerata :asd:
e tutto questo per una 7% in più al max rispetto alla gtx??? :mc:

Spero di no per ati :asd:

sa la vendono allo stesso prezzo della 8800gtx o 8900 a seconda di quale ci sia anche un 7% in + non sarebbe male.
se poi va solo un 7% e si fa pagare il doppio darebbe decisamente peggio...
cmq aspettiamo e come al solito la news per parlare na scheda nvidia si è trasformato nel solito tread su r600 e 8900

Syran
22-03-2007, 10:33
SECONDO ME (lo scrivo bene prima che mi tocca metterlo dopo :D ) anche se si dimostrasse vera questa teoria del 7% in piu della G80, bisognerebbe vedere, innanzitutto il prezzo, come gia detto prima, e poi la flessibilità della scheda, poichè c'è sempre una percentuale di utenti ( che ormai sta diventando sempre piu consistente) che in una scheda video guarda anche la possibilità di modding e overclocking.
Come ad esempio nel caso della Sapphire x800 GTO2, che, chi come me, l'ha comprata, di certo non l'ha fatto perche era superiore ad altre, ma bensi per la possibilità di avere una scheda Hi-End spendendo poco e facendole due piccole modifiche.
Per ora la 8800GTX, da ciò che si legge in giro, si è rivelata abbastanza flessibile sotto questo punto di vista, non ressta altro che aspettare e vedere di cosa sarà capace questa nuova scheda ATI.

mjordan
22-03-2007, 10:56
SECONDO ME (lo scrivo bene prima che mi tocca metterlo dopo :D ) anche se si dimostrasse vera questa teoria del 7% in piu della G80, bisognerebbe vedere, innanzitutto il prezzo, come gia detto prima, e poi la flessibilità della scheda, poichè c'è sempre una percentuale di utenti ( che ormai sta diventando sempre piu consistente) che in una scheda video guarda anche la possibilità di modding e overclocking.
Come ad esempio nel caso della Sapphire x800 GTO2, che, chi come me, l'ha comprata, di certo non l'ha fatto perche era superiore ad altre, ma bensi per la possibilità di avere una scheda Hi-End spendendo poco e facendole due piccole modifiche.
Per ora la 8800GTX, da ciò che si legge in giro, si è rivelata abbastanza flessibile sotto questo punto di vista, non ressta altro che aspettare e vedere di cosa sarà capace questa nuova scheda ATI.

Io personalmente mi aspetto abbastanza da questa nuova scheda di AMD. Voglio dire... Alla fine ci sono stati molti mesi che la separano dalla 8800GTX, quindi o è parecchio migliore o non ne è valsa la pena. Per migliore chiaramente non guardo solo le prestazioni, sia ben chiaro. Già se andasse come la 8800GTX in prestazioni ma avesse consumi assai piu' ridotti, mi riterrei comunque molto soddisfatto.

DjLode
22-03-2007, 11:24
Io personalmente mi aspetto abbastanza da questa nuova scheda di AMD. Voglio dire... Alla fine ci sono stati molti mesi che la separano dalla 8800GTX, quindi o è parecchio migliore o non ne è valsa la pena. Per migliore chiaramente non guardo solo le prestazioni, sia ben chiaro. Già se andasse come la 8800GTX in prestazioni ma avesse consumi assai piu' ridotti, mi riterrei comunque molto soddisfatto.

Ho paura che sui consumi rimarrai deluso...

Syran
22-03-2007, 11:40
Io personalmente mi aspetto abbastanza da questa nuova scheda di AMD. Voglio dire... Alla fine ci sono stati molti mesi che la separano dalla 8800GTX, quindi o è parecchio migliore o non ne è valsa la pena. Per migliore chiaramente non guardo solo le prestazioni, sia ben chiaro. Già se andasse come la 8800GTX in prestazioni ma avesse consumi assai piu' ridotti, mi riterrei comunque molto soddisfatto.

Effettivamente sul fatto dei consumi devo darti ragione... La 8800, gia la versione GTS 320 che è la piu piccola della famiglia ha dei consumi eccessivi. Per la mia infatti ho dovuto mettere addirittura un alimentatore nuovo perche quello che avevo non ce la faceva a farla andare...

mjordan
22-03-2007, 11:58
Ho paura che sui consumi rimarrai deluso...

Perchè l'hai provata? :sofico:
Scherzi a parte, temo pure io :fagiano:

Stigmata
22-03-2007, 11:58
Leggetevi questo se avete tempo e/o voglia:

http://www.bit-tech.net/columns/2007/01/25/starting_at_the_sun/1.html

è decisamente illuminante per il discorso consumi...

mjordan
22-03-2007, 12:16
Leggetevi questo se avete tempo e/o voglia:

http://www.bit-tech.net/columns/2007/01/25/starting_at_the_sun/1.html

è decisamente illuminante per il discorso consumi...

Veramente dice cose abbastanza scontate per chi paga le bollette :stordita:
E comunque 185W per una scheda grafica sono un "furto energetico" in ogni caso, la possono considerare energy efficient quanto gli pare, sono sempre 185W di picco :O
2 molex di alimentazione...
Io ho il PC acceso praticamente tutto il giorno (e a volte anche la notte), quindi la questione consumi è cruciale, non mi serve la tessera elite dell'Enel. :doh:
Non sono d'accordo invece quando fa il ragionamento del framerate. Sebbene applicabile ai piu', ste schede non si usano solo con i giochi. :O

Non mi farebbe problema comprarne una o due. Mi da solo molto fastidio fare consumi scellerati. Personalmente ho smesso di comprare schede top solo per questo motivo. Mi hanno rotto le OO :muro:

Stigmata
22-03-2007, 12:35
Veramente dice cose abbastanza scontate per chi paga le bollette :stordita:

CUT



L'articolo non si riferisce solo al consumo "nudo e crudo"

stgww
22-03-2007, 15:26
Qui moriamo tutti per l'inquinamento e noi sprechiamo 200W solo di cheda video per giocare?? mah...io mi sto sempre più convincendo che tanto vale prendere un console, il computer costa troppo

Stigmata
22-03-2007, 15:28
Qui moriamo tutti per l'inquinamento e noi sprechiamo 200W solo di cheda video per giocare?? mah...io mi sto sempre più convincendo che tanto vale prendere un console, il computer costa troppo

basta non usare vga da 200w, no? ;)

indio68
22-03-2007, 15:36
Infatti prima di pensare a nuove schede , dovrebbero mettere a posto di driver che sia su XP che su Vista , leggo che danno problemi a moltissimi utenti ,,con i gioichi + disparati....inoltre finchè non c'è un titolo DX10 giocabile , che senso ha avere una scheda Dx10 che può essere che in DX10 faccia cagare?
meglio la mossa di ATI che aspetta e tirerà fuori una scheda subito utilizzabile con le DX10...per le DX9 la 1950Pro a venduto benissimo....

appleroof
22-03-2007, 16:30
Certo, come ipotesi non è azzardata. Ma visto che si parla di supposizioni, mettere un "secondo me" di solito è buona norma. Oltretutto basarsi su un rumor, e sopratutto che parla di 3d mark... bhè non è il massimo.
Ho sentito sparare dei 30% di differenza di prestazioni per non giudicare R600 un flop. Questa è fantascienza. Le schede saranno sicuramente allineate. Poi ci saranno i pro e i contro dell'una e dell'altra. Prima di trarre conclusioni io aspetterei almeno numeri reali, no?

Io lo considererei un flop eccome, visto tutto quello che c'è dietro, non sono mica uscite contemporaneamente sul mercato, o quasi, per cui se è veramente sotto il 10%, è un flop, non esistono altre parole per giudicare quella situazione.

Specifico che sarebbe un flop commerciale e di immagine, più che tecnico (ma anche tecnico).

Aspettiamo conferme/smentite ;)

ciocia
22-03-2007, 16:36
beh, se andasse 10% in piu' e costasse un 10% in meno non sarebbe un flop, i nuovi acquirenti immagino che punterebbero su ati e non piu' nvidia.

appleroof
22-03-2007, 16:39
beh, se andasse 10% in piu' e costasse un 10% in meno non sarebbe un flop, i nuovi acquirenti immagino che punterebbero su ati e non piu' nvidia.

questo è giusto, ma già adesso la 8800gtx si comincia a trovare appena sotto i 500 euro, per maggio sarà sui 450 almeno di sicuro, io la vedo difficile che R600 parta da quel prezzo, però tutto è possibile, sopratutto considerando che la 8800gtx quando uscì non aveva concorrenza (come ora d'altra parte, eppure già scende...)

M4R1|<
22-03-2007, 17:38
io credo (anche se con gli ultimi test R600 non si è comportato come speravo) che sia superiore dei processori G80 e G81, anche perchè R600 ha subito numerosissimi test per la qualità e l'affidabilità, non tolgo niente a nvidia ma solitamente le cose fatte bene sono quelle fatte con calma, non puo buttare fuori GPU dalla sera alla mattina e garantire anche che siano... e lo abbiamo visto con 7xxx vs X1xxx

mjordan
23-03-2007, 02:10
Qui moriamo tutti per l'inquinamento e noi sprechiamo 200W solo di cheda video per giocare?? mah...io mi sto sempre più convincendo che tanto vale prendere un console, il computer costa troppo

Cosi i soldi al posto di spenderli in hardware li spendi in giochi :D

mjordan
23-03-2007, 02:11
beh, se andasse 10% in piu' e costasse un 10% in meno non sarebbe un flop, i nuovi acquirenti immagino che punterebbero su ati e non piu' nvidia.

Bisogna vedere quanti di quelli che hanno già acquistato una 8800GTX sarebbero disposti a pagare un nuovo prezzo pieno per un 10% punti in più. Se io avessi già una 8800GTX e uscisse una nuova AMD da 10% in piu', probabilmente aspetterei la prossima generazione per cambiare.

ciocia
23-03-2007, 10:40
Certamente chi ha preso la 8800 non compra R600, che senso avrebbe.... ( Ovviamente ci sono i casi particolari, che non hanno problemi di soldi, e che per un 10% possono permettersi di vendere la 8800 e prendere R600:O )

MenageZero
23-03-2007, 20:44
IMHO se mai uscirà questa scheda la chiameranno 8850 GX2, perche si riserveranno il modello 89** per quelle successive... cmq non penso proprio che r600 vada il doppio di g80, magari qualcosa di più. anche 20-30%, ma il doppio mi sembra un po' esagerato, detto questo io spero che vada almeno il triplo, perchè pur essendo fanboy nvidia, i prezzi che si abbassano, tecnologia che avanza e x2600 che và che è una bestia piace anche a me

un 20-30 % se per es non dovuto a dei picchi isolati in casi particolari ma con un andamento "puntuale" tra tutti i vari test che non si discosti molto al giorno d'oggi più che un "qualcosa di più" sarebbe quasi un colpo da k.o. ... ;)

MenageZero
23-03-2007, 20:50
Dai rumor finora trapelati sembra che sia potente, ma poco più di G80. Un sito affidabile (vr-zone.com) ha dichiarato di avere testato un R600 a 80 nm e 800 Mhz vs un G80 a default. Al 3D Mark 06, R600 ha fatto 97xx, G80 95xx entrambi su un Conroe a 2.93 Ghz.
Se i risultati sono confermati, dal punto di vista dell'architettura per G80 sarebbe una vittoria. Nvidia ha prodotto un chip che a frequenze di 200 Mh inferiori e con 100 milioni in meno di transistor (sempre da rumor su R600) ha prestazioni leggermente inferiori, ed avrebbe ampissimo margine per produrre un chip molto più performante associando su un unico pcb 2 chip G80, e perfino potendosi permettere di produrre i chip a 65 nm e alzare la frequenza.
Sinceramente spero che questi risultati siano dovuti ai driver acerbi, perchè mi aspettavo di più da Ati. E' da tempo che producono chip a shader unificati.
Spero che arrivi in fretta il software DirectX 10 nativo (anche una beta...), in modo da poter testare bene le prestazioni delle due schede.:)

occhio che lo shader-core di g80 ha un clock di 1300 e rotti MHz mentre quello di r600 potrebbe essere alla stessa freq. "generale" della gpu(se è quelal che intendi nel tuo post) o cmq appunto 800MHz, come veniva dedotto a partire da info ufficialmente rilasciate da amd (numero di alu di r600 e valore di Gflops max teorico per un xfire con 2 di queste gpu) ... ;)

MenageZero
23-03-2007, 21:02
provato oggi STALKER a 2560x1600 tutto al massimo dettaglio assoluto ed è uno spettacolo per gli occhi.Ho 2 8800gtx in SLI che lavorano dietro un core2quad che le spinge più che può'.Se il pc è ben rapportato tra i vari componenti il risultato è una goduria totale.

ma che vuol dire ... se ci mettiamo a contare i M(G)flops tu c'hai un centro di elaborazione non un pc ... :asd:

ps: ma d'estate smetti di usare il "pc" o hai una stanza climatizzata ? ... e sopratutto, con un mostro del genere dentro una normale casa abitata, i canonici 3kW che dà l'enel bastano ? :D

MenageZero
23-03-2007, 21:14
butterebbe male eh!!! mesi e mesi di ritardo per i 65nm, gddr4, bus gigantesco, i famosi 64 shader che per via dell'architettura ATI vanno come 256 e core a frequenza esagerata :asd:
e tutto questo per una 7% in più al max rispetto alla gtx??? :mc:

Spero di no per ati :asd:

veramente la stessa amd qualche settimana fa accreditava r600 di 320 MAD ... ;)

thesaggio
25-03-2007, 19:44
Parlate, parlate, parlate, ma non vi rendete conto che nvidia, ati (e Bill Gates con il suo Vista) vi stanno letteralmente prendendo per i fondelli?????
Chi vince tra nvidia e geforce?? Tutte e due!!!!!
Chi perde realmente???Voi!!! (meglio, NOI acquirenti)
Voi che state facendo esattamente il loro gioco, voi che sbavate ad ogni lancio di questi baracconi obsoleti mangia soldi che si chiamano schede video!!!!
Baracconi obsoleti??? Si, baracconi obsoleti!!!
Tecnologia significa aumentare le prestazioni diminuendo gli ingombri, il consumo energetico e il surriscaldamento.
Al contrario, cosa sono diventate oggi le schede video?
Sberle di 40 cm, che consumano come una lavastoviglie e un forno messi insieme, che scaldano più di una stufa a pellet, che ti costringono a rivoluzionare annualmente il pc (scheda madre, processore, alimentatore, sistema operativo e di raffreddamento e, vista la nuova "r600", case!!!!) e che, appena uscite, costano una barca di soldi per poi, dopo 6 mesi, costare 1/3 del prezzo di lancio (molte volte perchè diventate INUTILIZZABILI).
Quanto sono durate, solo per fare due nomi a caso, le varie 7600 e x800 che, a suo tempo, della povera gente ha comprato per 500, 400, 300€ ????Un paio di mesi???????
E quanto credete dureranno le varie 8800 e (chiamiamole così) r600???
1 anno???Secondo me, anche meno!!!
Quanto tempo è passato dall'uscita della mitica, mostruosa, inarrivabile 8800 all'annuncio delle 8950 GX2??? MENO DI 3 MESI!!!!
Quanti giochi per pc sono usciti nell'ultimo anno degni di questo nome???
Quanti giochi per pc recenti hanno un motore grafico degno di questo nome???
1 e 1 solo: la "saga" di half life 2 (un gioco di 2 anni fa!!!).
Oltre alla scheda video, avete mai visto i requisiti (sia hardware che software) per giocare, ad esempio, a crysis???

Concludendo: un mio modestissimo parere?
Compratevi una bella console (magari una ps3) collegatela alla vostra tv (magari una tv lcd hd) e godete alla stra-grandissima!!!!!
Neppure con un pc da 3.000 € e una 8950 gx2 godrete così tanto!!!!

Poi che sia ben chiaro: nvidia e ati non obbligano nessuno a comprare le loro schede video.
Se uno ha i soldi, la voglia o il desiderio di cambiare ogni 6 mesi la propria scheda video (...e non solo), non fa bene, fa benissimo a farlo!!!
Del resto, come l'alcool, il fumo, il lotto...,anche la scheda video (e il desiderio di poter dire "in commercio non esiste una scheda video più potente della mia") è una vera e propria droga!

thesaggio
25-03-2007, 19:49
Scusatemi, nel messaggio precedente ho scritto

Chi vince tra nvidia e geforce??

Ovviamente volevo scrivere Chi vince tra nvidia ed ati ??

Kharonte85
25-03-2007, 20:19
Parlate, parlate, parlate, ma non vi rendete conto che nvidia, ati (e Bill Gates con il suo Vista) vi stanno letteralmente prendendo per i fondelli?????
Chi vince tra nvidia e geforce?? Tutte e due!!!!!
Dura lotta...:asd:

Chi perde realmente???Voi!!! (meglio, NOI acquirenti)
Voi che state facendo esattamente il loro gioco, voi che sbavate ad ogni lancio di questi baracconi obsoleti mangia soldi che si chiamano schede video!!!!
Baracconi obsoleti??? Si, baracconi obsoleti!!!
Tecnologia significa aumentare le prestazioni diminuendo gli ingombri, il consumo energetico e il surriscaldamento.
Al contrario, cosa sono diventate oggi le schede video?
Sberle di 40 cm, che consumano come una lavastoviglie e un forno messi insieme, che scaldano più di una stufa a pellet, che ti costringono a rivoluzionare annualmente il pc (scheda madre, processore, alimentatore, sistema operativo e di raffreddamento e, vista la nuova "r600", case!!!!) e che, appena uscite, costano una barca di soldi per poi, dopo 6 mesi, costare 1/3 del prezzo di lancio (molte volte perchè diventate INUTILIZZABILI).
Ma se non conosci come stanno le cose mi chiedo cosa parli a fare...

- Le schede video non superano i 30cm (eccezione per le versione OEM)

- un alimentatore da 450w con 30A sui +12v è capace di farti girare tutto il pc + 8800gtx


Quanto sono durate, solo per fare due nomi a caso, le varie 7600 e x800 che, a suo tempo, della povera gente ha comprato per 500, 400, 300€ ????Un paio di mesi???????
Ma se conosco persone che giocano ancora con le 9800pro (tutto sta a sapersi accontentare) :rolleyes:

E una 7600gt (a parte alcuni giochi obiettivamente programmati male) consente di giocare ancora degnamente...

E quanto credete dureranno le varie 8800 e (chiamiamole così) r600???
1 anno???Secondo me, anche meno!!!
Certo la longevita' delle schede Top è corta...cio' non toglie che con una 8800gtx/R600 si potra' giocare per un bel po' di tempo se si accetta di non avere sempre il TOP...;)

Quanto tempo è passato dall'uscita della mitica, mostruosa, inarrivabile 8800 all'annuncio delle 8950 GX2??? MENO DI 3 MESI!!!!
Le 8800 sono uscite a Novembre, ora siamo a fine Marzo...quindi 5mesi (dai primi rumors, dell'uscita si sa poco)

Quanti giochi per pc sono usciti nell'ultimo anno degni di questo nome???
Quanti giochi per pc recenti hanno un motore grafico degno di questo nome???

Cosi' a caldo mi vengono in mente: Oblivion, Call of Juarez, Dark Messiah, Call of duty 2, Company of Heroes, FEAR extraction point...

1 e 1 solo: la "saga" di half life 2 (un gioco di 2 anni fa!!!).
Oltre alla scheda video, avete mai visto i requisiti (sia hardware che software) per giocare, ad esempio, a crysis???
Si sa ancora poco, quello che si vede è che con l'arrivo delle DX10 le console rischiano di diventare Old-Gen :fagiano:

Concludendo: un mio modestissimo parere?
Compratevi una bella console (magari una ps3) collegatela alla vostra tv (magari una tv lcd hd) e godete alla stra-grandissima!!!!!
600 euro di console (con una nvidia serie 7 castrata dentro) + 2000 euri per un tv HD decente + 60-70 euri a gioco col rischio che HD-DVD vinca la guerra degli standard? ma col cavolo! :Prrr:

Neppure con un pc da 3.000 € e una 8950 gx2 godrete così tanto!!!!
Bastera' meno...

Poi che sia ben chiaro: nvidia e ati non obbligano nessuno a comprare le loro schede video.
Se uno ha i soldi, la voglia o il desiderio di cambiare ogni 6 mesi la propria scheda video (...e non solo), non fa bene, fa benissimo a farlo!!!
Del resto, come l'alcool, il fumo, il lotto...,anche la scheda video (e il desiderio di poter dire "in commercio non esiste una scheda video più potente della mia") è una vera e propria droga!
Guarda che c'è anche chi riesce a giocare per anni senza dover fare aggiornamenti troppo sconvolgenti...per questo esiste la fascia media...

Cmq il tuo post è assolutamente OT dato che si parla di schede video.

thesaggio
26-03-2007, 22:50
Un esempio fra i tanti che potrei fare: <<Sberle di 40 cm, che consumano come una lavastoviglie e un forno messi insieme, che scaldano più di una stufa a pellet>> = figura retorica detta "Iperbole".

<<Ma se conosco persone che giocano ancora con le 9800pro (tutto sta a sapersi accontentare)>>
<<Guarda che c'è anche chi riesce a giocare per anni senza dover fare aggiornamenti troppo sconvolgenti...per questo esiste la fascia media...>>
Mi fai conoscere queste persone???
Oggi se la tua scheda video non supporta "ALMENO " le Shader Model 3.0 devi prenderla e buttarla nel cesso (vedi tutte le schede video ati dall'x850xt in giù!!!)
Nvidia intanto si sta già preparando allo Shader Model 5.0

I requisiti per giocare a crysis???
Li conosci, li conosci bene, li conosci meglio di me.

Soprattutto Call of Juarez e FEAR extraction point hanno segnato la storia dei giochi pc.

Uno non deve comprarsi appositamente un lcd hd per cazzeggiare 1 oretta al giorno con la console.
Se ce l'ha, tanto meglio.
Tra l'altro, 2.000€ di lcd?"Leggermente" carino.

The_SaN
27-03-2007, 02:20
Un esempio fra i tanti che potrei fare: <<Sberle di 40 cm, che consumano come una lavastoviglie e un forno messi insieme, che scaldano più di una stufa a pellet>> = figura retorica detta "Iperbole".

<<Ma se conosco persone che giocano ancora con le 9800pro (tutto sta a sapersi accontentare)>>
<<Guarda che c'è anche chi riesce a giocare per anni senza dover fare aggiornamenti troppo sconvolgenti...per questo esiste la fascia media...>>
Mi fai conoscere queste persone???
Oggi se la tua scheda video non supporta "ALMENO " le Shader Model 3.0 devi prenderla e buttarla nel cesso (vedi tutte le schede video ati dall'x850xt in giù!!!)
Nvidia intanto si sta già preparando allo Shader Model 5.0

I requisiti per giocare a crysis???
Li conosci, li conosci bene, li conosci meglio di me.

Soprattutto Call of Juarez e FEAR extraction point hanno segnato la storia dei giochi pc.

Uno non deve comprarsi appositamente un lcd hd per cazzeggiare 1 oretta al giorno con la console.
Se ce l'ha, tanto meglio.
Tra l'altro, 2.000€ di lcd?"Leggermente" carino.

Quanto al consumo ti dico solo una cosa: l' Xbox 360 consuma quasi 200W.
Un pc di fascia media (che fa andare qualsiasi cosa ad una risoluzione di 1280x1024 (e ci giochi benissimo in un plasma a 1366x768 che é minore) consuma al massimo 220W.
Non mi sembra ci sia questa enorme differenza.
Ah si...l' XScatolo ne consuma 121 (:eek: ) per vedere un dvd ... da paura :stordita:
Queste schede da millemila Watt servono solo per risoluzioni disumane, che qualsiasi console si puó SCORDARE. Vuoi di piú? Paghi (e consumi) di piú.

PS: secondo me l' LCD per una console é d' obbligo....sennó paghi 400Euri di console per non usarne neanche metá ;)

thesaggio
27-03-2007, 08:04
<<quello che si vede è che con l'arrivo delle DX10 le console rischiano di diventare Old-Gen>>

Vorrà dire che tra meno di un anno le butteremo nel cesso insieme ai milioni di schede video che non supporteranno le dx 10, le shader model 4 e ai Pc sprovvisti di Win Vista

fsdfdsddijsdfsdfo
27-03-2007, 08:25
consuma al massimo 220W.


BOOOM.

Te li mangia solo la scheda madre, processore e dischi.
A medio carico.

Sennò cosa li farebbero gli ali da 450-500 w? ( che sono i piu venduti)?

200 W di tolleranza sono un po troppi...

amperometro alla mano il mio pc fa 380 W... e ho una scheda video RIDICOLA...

The_SaN
27-03-2007, 14:39
<<quello che si vede è che con l'arrivo delle DX10 le console rischiano di diventare Old-Gen>>

Vorrà dire che tra meno di un anno le butteremo nel cesso insieme ai milioni di schede video che non supporteranno le dx 10, le shader model 4 e ai Pc sprovvisti di Win Vista

Come con le x850xt? :stordita: :Prrr:

The_SaN
27-03-2007, 14:41
BOOOM.

Te li mangia solo la scheda madre, processore e dischi.
A medio carico.

Sennò cosa li farebbero gli ali da 450-500 w? ( che sono i piu venduti)?

200 W di tolleranza sono un po troppi...

amperometro alla mano il mio pc fa 380 W... e ho una scheda video RIDICOLA...

Guardati la rece di Hwupgrade sulle x1950pro agp e fatti due conti sull' utilitá di un alimentatore da 500w per un pc di fascia media.

PS: 380W? é il consumo di una config con un a 8800gtx.
Ho una config simile alla tua (ma con xp 3200+ e x850pro ma senza 10k) e a malapena arriva a 200w in full.
Un core 2 duo consuma meno dell' XP, le ddr2 consumano meno delle ddr1, e una scheda di fascia media ciccierá al massimo 40W di piú della mia ;)

mjordan
28-03-2007, 05:20
<<quello che si vede è che con l'arrivo delle DX10 le console rischiano di diventare Old-Gen>>

Vorrà dire che tra meno di un anno le butteremo nel cesso insieme ai milioni di schede video che non supporteranno le dx 10, le shader model 4 e ai Pc sprovvisti di Win Vista

Cosi come abbiamo fatto con le DX8 quando sono arrivate le 9 e cosi come abbiamo fatto con Windows ME quando è arrivato XP. Non vedo cosa ci sia di strano. Il mercato PC è questo e soprattutto non serve solo per giocare. Puoi benissimo tenere il tuo XP DX9 SM 4 per fare tutto. Se invece vuoi giocare ma non vuoi accollarti gli aggiornamenti necessari, significa che hai sbagliato piattaforma.

thesaggio
28-03-2007, 14:38
Originariamente inviato da: mjordan

<<Cosi come abbiamo fatto con le DX8 quando sono arrivate le 9 e cosi come abbiamo fatto con Windows ME quando è arrivato XP. Non vedo cosa ci sia di strano. Il mercato PC è questo e soprattutto non serve solo per giocare. Puoi benissimo tenere il tuo XP DX9 SM 4 per fare tutto. Se invece vuoi giocare ma non vuoi accollarti gli aggiornamenti necessari, significa che hai sbagliato piattaforma.>>

Hai perfettamente ragione!!!

Ma il mio discorso era per rispondere a chi ha il coraggio di dire:
<<Ma se conosco persone che GIOCANO ANCORA con le 9800pro. Guarda che c'è anche chi riesce a GIOCARE PER ANNI senza dover fare aggiornamenti troppo sconvolgenti......>>

Qui, per l'appunto, si parlava di PC per GIOCARE, e non per fare altro..

The_SaN
28-03-2007, 15:02
Originariamente inviato da: mjordan

<<Cosi come abbiamo fatto con le DX8 quando sono arrivate le 9 e cosi come abbiamo fatto con Windows ME quando è arrivato XP. Non vedo cosa ci sia di strano. Il mercato PC è questo e soprattutto non serve solo per giocare. Puoi benissimo tenere il tuo XP DX9 SM 4 per fare tutto. Se invece vuoi giocare ma non vuoi accollarti gli aggiornamenti necessari, significa che hai sbagliato piattaforma.>>

Hai perfettamente ragione!!!

Ma il mio discorso era per rispondere a chi ha il coraggio di dire:
<<Ma se conosco persone che GIOCANO ANCORA con le 9800pro. Guarda che c'è anche chi riesce a GIOCARE PER ANNI senza dover fare aggiornamenti troppo sconvolgenti......>>

Qui, per l'appunto, si parlava di PC per GIOCARE, e non per fare altro..

Ma ci si puó sempre accontentare...
Ad esempio... io la sto tirando lunga con la x850pro, i giochi che ti obbligano a usare una SV shader model 3.0 (per me fatto osceno) sono 2 o 3 e neanche mi interessano.
Quindi posso permettermi di aspettare, e quando usciranno i primi giochi dx10 allora penseró ad un upgrade.

Guarda...Non tutti hanno bisogno di giocare risoluzioni alte e tutto a palla, se ti accontenti di un 1024x768 dettagli medi una 9800pro puó ancora bastare.

thesaggio
28-03-2007, 17:56
Originariamente inviato da: The_SaN

<<Ma ci si puó sempre accontentare...
Ad esempio... io la sto tirando lunga con la x850pro, i giochi che ti obbligano a usare una SV shader model 3.0 (per me fatto osceno) sono 2 o 3 e neanche mi interessano>>

Speriamo allora che Splinter Cell: Double Agent e Tom Clancy's Rainbow Six Vegas siano state solo un'eccezione e che non sia questo l'andazzo che seguiranno i prossimi giochi pc.


Originariamente inviato da: The_SaN

<<Guarda...Non tutti hanno bisogno di giocare risoluzioni alte e tutto a palla, se ti accontenti di un 1024x768 dettagli medi una 9800pro puó ancora bastare>>.

Bisognerebbe mettersi d'accordo sul significato da attribuire alle parole "ACCONTENTARE" e "GIOCARE"

The_SaN
28-03-2007, 19:11
Originariamente inviato da: The_SaN

Speriamo allora che Splinter Cell: Double Agent e Tom Clancy's Rainbow Six Vegas siano state solo un'eccezione e che non sia questo l'andazzo che seguiranno i prossimi giochi pc.

Bisognerebbe mettersi d'accordo sul significato da attribuire alle parole "ACCONTENTARE" e "GIOCARE"

Punto 1: Adesso ci sará il vero salto generazionale (non SM 2.0 --> 3.0) quindi se hai una scheda dx9 la dovrai cambiare comunque. Le serie x8xx e x1xxx sempre dx9 sono, a parte il piccolo dettaglio citato, e questo non dovrebbe escludere la prima di nessun gioco dx9 (per questo trovavo Splinter cell e rainbow six assurdi...meno male che non mi piacciono).
Riassunto: i giochi SM3.0 only sono solo 2 e ora con le dx10 bisognerá cambiare comunque ;)
Ma ritengo che fino a che non usciranno i primi giochi dx10 (crysis sará la 1° killer app) una sv SM2.0 sia ancora in grado di gestire praticamente tutto ( a risoluzioni umane)

Punto 2: giocare a 1024x768 o a 1920x1220 sempre GIOCARE é .
Il tutto dipende solo dalle esigenze personali.

thesaggio
28-03-2007, 23:44
In linea generale, sono d'accordo con te.

Tra l'altro, anch'io reputo trovavo Splinter cell e rainbow six assurdi.

Non credere poi che io sia uno di quelli che per giocare intende 1920x1220, livello altisssimo.

Per me uno standard accettabile è 1024x768, livello medio-alto.
Come vedi sono uno che si accontenta.
Come vedi attibuiamo alla parola giocare lo stesso significato.

L'unico appunto che ti facciio, dunque, è che con una 9800pro, non soli io, ma anche tu "non giochi".

Con una 9800pro non giochi a FEAR, PREY, HALF LIFE 2 episode One (solo per fare 3 nomi a caso di titoli, tra l'altro, neppure tanto recenti) a 1024x768 livello completamente "medio".
Se mi dici di sì, allora hai sbagliato, dovevi fare l'affare: comprarti la 9800pro, lasciare stare la x850pro e aspettare le dx10.

The_SaN
29-03-2007, 00:50
In linea generale, sono d'accordo con te.

Tra l'altro, anch'io reputo trovavo Splinter cell e rainbow six assurdi.

Non credere poi che io sia uno di quelli che per giocare intende 1920x1220, livello altisssimo.

Per me uno standard accettabile è 1024x768, livello medio-alto.
Come vedi sono uno che si accontenta.
Come vedi attibuiamo alla parola giocare lo stesso significato.

L'unico appunto che ti facciio, dunque, è che con una 9800pro, non soli io, ma anche tu "non giochi".

Con una 9800pro non giochi a FEAR, PREY, HALF LIFE 2 episode One (solo per fare 3 nomi a caso di titoli, tra l'altro, neppure tanto recenti) a 1024x768 livello completamente "medio".
Se mi dici di sì, allora hai sbagliato, dovevi fare l'affare: comprarti la 9800pro, lasciare stare la x850pro e aspettare le dx10.

Io con la x850pro (disattivando gli effetti shader model 3.0) gioco a 1280x1024 con tutto al massimo, in casi come HL2:EP1 addirittura con AA e filtri a palla.
Vengo da una 9500pro (che non ho venduto, é la mia scheda di prova ora :D ), e per curiositá, visto che dovevo formattare,l' ho rimessa oggi pomeriggio. Ho provato 2 dei titoli da te citati : HL2:ep1 e F.E.A.R. (demo) e tutti e 2 li ho giocati a 1024x768. F.E.A.R. a dettagli medi, HL2:ep1 con tutto al massimo. Giocabilissimi. Giá Prey non lo so, ma doom3 l' ho giocato a 1024x768 tutto nei medi all' epoca.
E la 9800pro va addirittura meglio :)

Sono arrivato a questa conclusione: gli effetti SM3.0 sono pesantissimi :eek:
Oltre a non avere differenze abissali graficamente parlando, ti spezzano la scheda video in 2...

mjordan
29-03-2007, 16:32
Per curiosità... Avete tutti monitor CRT 4:3?

The_SaN
29-03-2007, 16:44
Per curiosità... Avete tutti monitor CRT 4:3?

Io ho un crt 17" , per questo gioco a 1280x1024.
Lo sfizio dell' LCD solo con il prossimo PC (a giugno/luglio), e prendo subito un 20" wide :D

Kharonte85
29-03-2007, 17:10
Io ho un crt 17" , per questo gioco a 1280x1024.
Idem