View Full Version : [Thread ufficiale] Aspettando GTX260 & GTX280
xo...40a sui +12, dovrei starci cmq.
ma come basta un e6300 per una di queste gpu??
Mi parevano esagerate le previsioni di CPU limited con i core duo.... ;)
michelgaetano
08-06-2008, 19:15
per un attimo ho creduto che il mio alimentatore non reggesse (ho letto 22A sulla linea 12V1, ma era da moltiplicare per 2), lol
halduemilauno
08-06-2008, 19:16
ma come basta un e6300 per una di queste gpu??
beh diciamo che quelli sarebbero i minimi. non è che ti possono sparare un E8500 di minimo.
;)
beh diciamo che quelli sarebbero i minimi. non è che ti possono sparare un E8500 di minimo.
;)
E poi se giochi a 1920x1200 o peggio ancora 2560x1600 la cpu non conta molto... hanno messo la cpu meno performante con i 4mb di cache (e quelli dai test hanno fatto piú differenza di quanto abbiano fatto le frequenze)
Mister Tarpone
08-06-2008, 19:20
si però mi spettavo almeno un e6600 di minimo :asd:
40a come MINIMO...mmh comincio a preoccuparmi, visto che dovrò overcloccare il futuro q9450 che prenderò, dite che reggerà il 620?
si però mi spettavo almeno un e6600 di minimo :asd:
Ad Half-life 2 (gioco che sfrutta molto la cpu) a 1600x1200 AA4x AF16x la differenza tra un X2 5200+ e un c2d e6600 é di esattamente.....2 fps ;)
E tra X2 e c2q qx6800 é di esattamente 4 fps.
Ecco, per avere un idea...immaginati alle risoluzioni di riferimento per una gtx280 +AA e AF :)
il connettore 6+2 va bene =, giusto?
Mister Tarpone
08-06-2008, 19:34
immagino... quasi quasi ci faccio un pensierino e la monto nel mio pc dotato di una cpu :sborone: quasi fx62 :sborone: ... tanto dovrebbe andare bene ad alte risoluzioni.. :asd:
Nvidia works on new 55nm GT200
Computex 08: Likely to launch in 2009
Nvidia is working on improved version of GT200 done in 55nm and the new chip is most likely to come next year. GT200 can support GDDR5 but we believe that this will be Nvidia's last resort.
The question remains if Nvidia really needs to push with a potential version of GDDR5 GT200 and this would only occur if ATI's R700, possibly called Radeon HD 4870 X2 bets Nvidia in performance crown match.
Nvidia cannot do its cool marketing without performance crown and therefore they will fight until their last breath. Some people suggeted that dual chip R700 card can beat Nvidia but we cannot confirm or deny these claims, as both are possible.
One thing is certain that Nvidia never sleeps.
lol
appleroof
08-06-2008, 20:08
Allora, per quanto riguarda le prestazioni se fosse vero che crysis risultasse giocabile a 1900 su dx10 sarebbe davvero notevole...comunque rimane da verificare, invece ottimo per quanto riguarda la conferma del consumo in IDLE, 25w sono davvero incredibili per una scheda del genere...pensavo onestamente che ATI a questo giro su questo aspetto fosse avvantaggiata ma a quanto pare dovro' ricredermi...:stordita:
quoto, davvero ottimo :)
nico88desmo
08-06-2008, 20:11
Nvidia works on new 55nm GT200
Computex 08: Likely to launch in 2009
Nvidia is working on improved version of GT200 done in 55nm and the new chip is most likely to come next year. GT200 can support GDDR5 but we believe that this will be Nvidia's last resort.
The question remains if Nvidia really needs to push with a potential version of GDDR5 GT200 and this would only occur if ATI's R700, possibly called Radeon HD 4870 X2 bets Nvidia in performance crown match.
Nvidia cannot do its cool marketing without performance crown and therefore they will fight until their last breath. Some people suggeted that dual chip R700 card can beat Nvidia but we cannot confirm or deny these claims, as both are possible.
One thing is certain that Nvidia never sleeps.
lol
Potrebbe essere la mia scheda insieme a Nehalem :D
Marko#88
08-06-2008, 20:12
immagino... quasi quasi ci faccio un pensierino e la monto nel mio pc dotato di una cpu :sborone: quasi fx62 :sborone: ... tanto dovrebbe andare bene ad alte risoluzioni.. :asd:
:asd:
scherzi a parte, secondo me non si esprimerebbe lo stesso, nemmeno a palla...io con la gts320 spesso avevo prestazioni inferiori ai c2d anche a 1680...in altri casi invece no, variava molto...certo è che con una gtx280 non dovrebbero esserci problemi, anche se va un pelo meno che con i proci migliori...:asd:
http://forums.vr-zone.com/showthread.php?t=286096
L'incremento del 3DM Vantage score @ 1920x1200 e incredibile contro 3870x2
per un attimo ho creduto che il mio alimentatore non reggesse (ho letto 22A sulla linea 12V1, ma era da moltiplicare per 2), lol
Scusate io di ali non so un tubo. Sarò ot ma visto che ci siamo... sul mio in firma segna 18A sulla linea 12v1 ... ma ne ho sei di ste linee da 12 e tutte sono da 18 meno che la v3 e la v4 che segnano 28A.
poi ho un altro ali che ha 4 linee da 12 tutte a 20A. Qundi ? Devo fare la somma????
Grzie mille ;)
Scusate io di ali non so un tubo. Sarò ot ma visto che ci siamo... sul mio in firma segna 18A sulla linea 12v1 ... ma ne ho sei di ste linee da 12 e tutte sono da 18 meno che la v3 e la v4 che segnano 28A.
poi ho un altro ali che ha 4 linee da 12 tutte a 20A. Qundi ? Devo fare la somma????
Grzie mille ;)
no non è una somma devi vedere quanti ampere dichiara il produttore sul totale dei 12V
Kharonte85
08-06-2008, 21:29
Significativi in assoluto non direi...
La 8800Ultra non va il 50% più di una 9800GTX manco a 2560x1600 AA4x AF16x, figuriamoci a 1920x1200... :asd:
Lo stesso dicasi per la HD3870X2 vs la Ultra...
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/21/#abschnitt_performancerating
Più indicativi del 3DMark06, questo sì. ;)
infatti...;)
http://resources.vr-zone.com/image_deposit/up/12129429920567edf598.jpg
;)
I requisiti di alimentazione sono piu' di quanto mi aspettavo...:fagiano:
se richiede un minimo di 40, il massimo che valori raggiungera + o -?
io penso con 50amp dovresti stare tranquillo...
io penso con 50amp dovresti stare tranquillo...
50 ampere non è mica poco!!!! chissa due in sli quanto richiedono, almeno un alimentatore da 1000watt:eek:
il mio ne ha 60 d ampere e ne eroga 750 di watt....
se richiede un minimo di 40, il massimo che valori raggiungera + o -?
40A é il minimo per montarci una gtx280, un quadcore bello potente, una marea di hard disk e di tutto e di piú.
E di solito sono 40A di ali mezzi scrausi.
adesso han fatto il 1000watt della corsair 80A :sbav:
adesso han fatto il 1000watt della corsair 80A :sbav:
si ho visto ma se ne richiede 40a come minimo.....due saturano gli 80a e quindi per un triple sli hai bisogno di due alimentatori in pratica
cristian-BG
08-06-2008, 21:44
scusate io ho acquistato un tagan piperock 800w le linee che ho sono queste sulla 12v
Amperaggio a +3.3Volt: 26A
Amperaggio a +5Volt: 26A
Amperaggio a +12Volt(1): 20A
Amperaggio a +12Volt(2): 20A
Amperaggio a +12Volt(3): 20A
Amperaggio a +12Volt(4): 20A
Amperaggio a +12Volt(5): 20A
Amperaggio a +12Volt(6): 20A
Potenza totale: 800Watt
Potenza massima +12Volt: 768W
Amperaggio massimo +12Volt: 64A
Potenza massima combinato +3.3Volt, +5Volt e +12Volt: 780W
se richiede 40A minimo ci sto dentro visto che è su 2 linee che prende l'alimentazione...
solo che nn capisco le linee con 8 pin che ho e sono 2 da 8 pin hanno anche loro 20A?
X quello da starci dentro ci sto solo che nn capisco un 50A come posso tirarli fuori essi che è molto buono cm potenza
invece il mio attuale ali enermax infinity 720 ne ha 3 linee ma molto alte di amperaggio
28A sui 12V linea 1
28A sui 12V linea 2
30A sui 12V linea 3
nn capisco
Futura12
08-06-2008, 21:51
Scusate io di ali non so un tubo. Sarò ot ma visto che ci siamo... sul mio in firma segna 18A sulla linea 12v1 ... ma ne ho sei di ste linee da 12 e tutte sono da 18 meno che la v3 e la v4 che segnano 28A.
poi ho un altro ali che ha 4 linee da 12 tutte a 20A. Qundi ? Devo fare la somma????
Grzie mille ;)
si sommano le linee....e poi ti esce un valore, che non è sempre la somma reale...il reale amperaggio di tutte le linee...lo trovi cmq scritto alla fine.
Ad esempio il mio Enermax Pro82+ ha 3 linee da 25A,che in totale dovrebbero fare 75A....invece sono solo 40A.
Certo mi spiegate questa bestia come fa a richiedere 480 watt? stanno impazziti è un valore estremamente eccessivo e ingiustificato....quasi non ci sto con il mio:(
si sommano le linee....e poi ti esce un valore, che non è sempre la somma reale...il reale amperaggio di tutte le linee...lo trovi cmq scritto alla fine.
Ad esempio il mio Enermax Pro82+ ha 3 linee da 25A,che in totale dovrebbero fare 75A....invece sono solo 40A.
Certo mi spiegate questa bestia come fa a richiedere 480 watt? stanno impazziti è un valore estremamente eccessivo e ingiustificato....quasi non ci sto con il mio:(
Ma i 40A mica servono esclusivamente per la VGA :rolleyes:
Quelli sono i requisiti di alimentazione di un sistema con le nuove vga...
si ho visto ma se ne richiede 40a come minimo.....due saturano gli 80a e quindi per un triple sli hai bisogno di due alimentatori in pratica
40A sono per tutto il sistema, come ho scritto poco sopra.
La sola scheda dovrebbe consumare 19-20A nel worst case scenario.
40A sono per tutto il sistema, come ho scritto poco sopra.
La sola scheda dovrebbe consumare 19-20A nel worst case scenario.
a ho capito quindi due gtx280 dovrebbero consumare sui 60a quindi il mio alimentatore è dentro pure per uno sli:) che non faro mai
a ho capito quindi due gtx280 dovrebbero consumare sui 60a quindi il mio alimentatore è dentro pure per uno sli:) che non faro mai
Esatto, comunque dovrebbe pure stare un po' sotto ai 60A, visto che di solito nei requisiti minimi mettono valori piú alti del consumo reale (per chi ha alimentatori piú scrausi) ;)
ma delle prestazioni ancora nulla? mancano pochi giorni alla commercializzazione....la gtx260 sara o meno piu performante della gx2?
appleroof
08-06-2008, 22:12
40A sono per tutto il sistema, come ho scritto poco sopra.
La sola scheda dovrebbe consumare 19-20A nel worst case scenario.
prima dici così (corretto)....
Esatto, comunque dovrebbe pure stare un po' sotto ai 60A, visto che di solito nei requisiti minimi mettono valori piú alti del consumo reale (per chi ha alimentatori piú scrausi) ;)
e poi così? :mbe: :D
cmq un ali con 20A sui + 12v (linea solo vga) oppure 30A totali (parlo di ali buoni) ce la fà senza dubbio secondo me (singola gtx280) ;)
prima dici così (corretto)....
e poi così? :mbe: :D
cmq un ali con 20A sui + 12v (linea solo vga) oppure 30A totali (parlo di ali buoni) ce la fà senza dubbio secondo me (singola gtx280) ;)
con 60A mi riferisco all' intero sistema, quindi 40A + 20A della seconda scheda in full. ;)
Che comunque, ripeto, saranno belli larghi visto che nVidia dichiara valori piú alti per stare al sicuro.
appleroof
08-06-2008, 22:44
con 60A mi riferisco all' intero sistema, quindi 40A + 20A della seconda scheda in full. ;)
Che comunque, ripeto, saranno belli larghi visto che nVidia dichiara valori piú alti per stare al sicuro.
non avevo capito una mazza :D :D ;)
40A sono per tutto il sistema, come ho scritto poco sopra.
La sola scheda dovrebbe consumare 19-20A nel worst case scenario.
ma come 20, la 8800gt non sta sui 26???
appleroof
08-06-2008, 23:16
ma come 20, la 8800gt non sta sui 26???
evidentemente no, forse ti riferisci ad un consumo dell'intero sistema
occorre sempre distinguere questo dal consumo della vga, purtroppo non tutte le rece lo fanno chiaramente
cmq basta fare un semplice calcolo: partendo dall'amperaggio, basta moltiplicare questo per i volt e ottieni i watt; nella gtx280 20Ax12v=240W
considerando che 230W circa dovrebbe essere il consumo di picco della vga (tipo una cpu sottoposta a prime, nell'uso normale del componente al 99% dei casi non raggiunge quel picco, e cmq non in maniera continua e costante) un ali con una linea dedicata di 20A sui+12v, oppure 30/35A dedicate và già alla grande
ma come 20, la 8800gt non sta sui 26???
La 8800gt consuma 110w circa, quindi sono poco piú di 9A ;)
michelgaetano
08-06-2008, 23:42
Stica, sono fuori col mio liberty, dovrebbe avere 36 A :|
speravo fosse più longevo :asd:
Stica, sono fuori col mio liberty, dovrebbe avere 36 A :|
speravo fosse più longevo :asd:
Penso che un ali come il tuo ce la faccia comunque a reggere un sistema con una GTX280. Piuttosto faccio notare una cosa: coi nuovi sistemi di switch dinamico della potenza, gli alimentatori di qualità bassa avranno vita breve. Non è semplice passare più volte, magari nell'arco di pochi minuti, da fornire una certa potenza su una linea e poi passare di colpo ad un decimo. ;)
Stica, sono fuori col mio liberty, dovrebbe avere 36 A :|
speravo fosse più longevo :asd:
Regge, sono 36A veri, non solo dichiarati ;)
Piú che altro in full lo sforzeresti un po' troppo imho.
Mister Tarpone
09-06-2008, 00:16
Penso che un ali come il tuo ce la faccia comunque a reggere un sistema con una GTX280. Piuttosto faccio notare una cosa: coi nuovi sistemi di switch dinamico della potenza, gli alimentatori di qualità bassa avranno vita breve. Non è semplice passare più volte, magari nell'arco di pochi minuti, da fornire una certa potenza su una linea e poi passare di colpo ad un decimo. ;)
io son tagliato fuori subito... :asd:
il mio ali non ce l'ha neanche una marca... :asd:
michelgaetano
09-06-2008, 00:59
Il liberty non è certo dei migliori, però non te lo regalano comunque tutt'oggi, visto che parte da 115 €.
Ciò implica quindi una bella spesa pure di ali, per reggere la scheda ^^"
io l'ho preso a novembre, di cambiarlo non se ne parla, piuttosto fumo tutto :stordita:
Il liberty non è certo dei migliori, però non te lo regalano comunque tutt'oggi, visto che parte da 115 €.
Ciò implica quindi una bella spesa pure di ali, per reggere la scheda ^^"
Perchè? Non mi pare così male, anzi... :stordita:
Perchè? Non mi pare così male, anzi... :stordita:
non è un ali da "forza bruta" come possono essere altri con 4 linee separate +12 e 30 amperes su ognuna :D , però il suo lo fa imho :) e penso che basti ed avanzi comunque anche con questa bestia.. secondo me c'è troppa ansia da wattaggio.. ho misurato il mio sistema compreso il monitor 26" e non ho mai superato i 500 watt con orthos in funzione..
Perchè? Non mi pare così male, anzi... :stordita:
A parte il fatto che la prima serie esplodeva ogni tanto (risolta con la seconda serie) e a parte il fatto che sono incompatibili con ups a onda non sinusoidale, come prestazioni si attestano su buoni livelli.
non è un ali da "forza bruta" come possono essere altri con 4 linee separate +12 e 30 amperes su ognuna :D , però il suo lo fa imho :) e penso che basti ed avanzi comunque anche con questa bestia.. secondo me c'è troppa ansia da wattaggio.. ho misurato il mio sistema compreso il monitor 26" e non ho mai superato i 500 watt con orthos in funzione..
A parte il fatto che la prima serie esplodeva ogni tanto (risolta con la seconda serie) e a parte il fatto che sono incompatibili con ups a onda non sinusoidale, come prestazioni si attestano su buoni livelli.
Uhm, ali con quel wattaggio validi secondo voi (meno male che non ho preso il Liberty per il fisso, allora... :sofico: )? :fagiano:
Uhm, ali con quel wattaggio validi secondo voi (meno male che non ho preso il Liberty per il fisso, allora... :sofico: )? :fagiano:
uhm veramente io ho il liberty e per ora va benone :P
Uhm, ali con quel wattaggio validi secondo voi (meno male che non ho preso il Liberty per il fisso, allora... :sofico: )? :fagiano:
Sempre della enermax, le serie pro82 e modu82.
Altre marche: Seasonic M12, Corsair HX e VX, tagan piperock series, zalman HP series per fare qualche esempio :)
Comunque il liberty non é male. Piú che altro in molti si sono spaventati a causa della prima serie che esplodeva senza motivo apparente.
Sempre della enermax, le serie pro82 e modu82.
Altre marche: Seasonic M12, Corsair HX e VX, tagan piperock series, zalman HP series per fare qualche esempio :)
Comunque il liberty non é male. Piú che altro in molti si sono spaventati a causa della prima serie che esplodeva senza motivo apparente.
Allora ho fatto una buona scelta. Bene. :O
Chiuso OT. :D
Tornando IT, ecco la struttura di un TPC di G200... ;)
http://we.pcinlife.com/attachments/forumid_206/20080609_460144c21daa7d058bf2taFKmtYg8xub.jpg
L'architettura di G80 come confronto. :)
http://www.hwupgrade.it/articoli/skvideo/1597/architecture_1.gif
http://www.hwupgrade.it/articoli/skvideo/1597/architecture_2.gif
halduemilauno
09-06-2008, 08:21
a 1920x1200 in vh sui 37/38 di media in crysis.
http://plusd.itmedia.co.jp/pcuser/articles/0806/09/news034.html
Athlon 64 3000+
09-06-2008, 08:32
Mi sbaglio o la struttura dello shader core in GT200 ha subito delle modifiche rispetto a G80 oltre ad avere distruibile i blocchi dello shader in maniera diversa da G80?
a 1920x1200 in vh sui 37/38 di media in crysis.
http://plusd.itmedia.co.jp/pcuser/articles/0806/09/news034.html
:eek: :sob:
halduemilauno
09-06-2008, 08:44
Una bella differenza...
beh 37/38 di media come valore massimo i 50 li potrà pure raggiungere/superare. ho sbagliato? aspettiamo i bench e i driver di allora.
Mercuri0
09-06-2008, 09:21
beh 37/38 di media come valore massimo i 50 li potrà pure raggiungere/superare. ho sbagliato? aspettiamo i bench e i driver di allora.
Penso che 80FPS di picco in VH li faccia anche la 9600GT, al menù :rolleyes:
Il problema di solito è il framerate minimo :)
Una bella differenza...
Beh ma a quella risoluzione non è comunque per niente poco, già a quei frame va comunque abbastanza fluido senza problemi, l'unica cosa è che nei livelli successivi il frame-rate è destinato a calare.
Beh ma a quella risoluzione non è comunque per niente poco, già a quei frame va comunque abbastanza fluido senza problemi, l'unica cosa è che nei livelli successivi il frame-rate è destinato a calare.
quoto sopratutto nella portaerei del lvl finale
beh 37/38 di media come valore massimo i 50 li potrà pure raggiungere/superare. ho sbagliato? aspettiamo i bench e i driver di allora.
E cosa c'entra? :sbonk:
Se anche per 10 secondi facesse 100fps non cambia un tubo, rimangono sempre 37fps al benchmark (=ancora meno nella realtà, soprattutto verso la fine del gioco).
beh 37/38 di media come valore massimo i 50 li potrà pure raggiungere/superare. ho sbagliato? aspettiamo i bench e i driver di allora.
il problema è che dovrebbe stare a 37/38 di picco minimo :D
DarkMessiah90
09-06-2008, 09:49
il problema è che dovrebbe stare a 37/38 di picco minimo :D
si ma crysis è ottimizzato col culo!
una scheda ceh tiene i 35 fps su 1920 con tutto attivo a quel gioco, di media agli altri giochi ti fa 100 fps a sto punto penso che sia il gioco il problema e che la crytek trovi un modo per alleggerire il motore grafico!
e questo vale anche per le cpu perchè crysis come scalabilità nelle cpu defecare:muro:
gillan85
09-06-2008, 09:52
Ma è con Anti aliasing o senza?.Se fosse senza:rolleyes: ;se fosse con:eek: :eek:
Enochian
09-06-2008, 09:53
Ma 37 in vh dx9 o dx10?
si ma crysis è ottimizzato col culo!
una scheda ceh tiene i 35 fps su 1920 con tutto attivo a quel gioco, di media agli altri giochi ti fa 100 fps a sto punto penso che sia il gioco il problema e che la crytek trovi un modo per alleggerire il motore grafico!
e questo vale anche per le cpu perchè crysis come scalabilità nelle cpu defecare:muro:
Ma infatti secondo me ne vedremo delle belle con Crysis Warhead, vedremo che lavoro faranno, secondo me girerà molto meglio, Crysis avrebbe avuto ancora bisogno magari di qualche ritocchino, comunque aspettiamo fiduciosi e vediamo cosa ci tirà fuori sta scheda quando scade sto maledettissimo NDA. :p
Ma è con Anti aliasing o senza?.Se fosse senza:rolleyes: ;se fosse con:eek: :eek:
Senza, obviously. ;)
Con si era già detto che per farlo andare a 25fps di media serve uno SLI di GTX280.
halduemilauno
09-06-2008, 10:10
l'NDA pare che finisca il 16 giugno. pare.
;)
michelgaetano
09-06-2008, 10:14
Con si era già detto che per farlo andare a 25fps di media serve uno SLI di GTX280.
Molto triste :asd:
ci sono aggiornamenti per la data di uscita?
Mercuri0
09-06-2008, 10:26
e questo vale anche per le cpu perchè crysis come scalabilità nelle cpu defecare:muro:
A cosa ti riferisci per scalabilità nelle CPU?
halduemilauno
09-06-2008, 10:35
http://www.pczilla.net/en/post/35.html
la cpu utilizzata è un q6700.
;)
http://www.pczilla.net/en/post/35.html
la cpu utilizzata è un q6700.
;)
a default? minghia, ottimo :)
Mercuri0
09-06-2008, 10:52
a default? minghia, ottimo :)
:confused:
Sulla percezione degli utenti della relazione tra GPU e CPU nei giochi, il 3dmark2006 è stato una vera disgrazia.
:confused:
Sulla percezione degli utenti della relazione tra GPU e CPU nei giochi, il 3dmark2006 è stato una vera disgrazia.
bhe poche pagine fa si parlava di un ipotetico cpu limited con queste nuove bestioline.. :)
(mi sembra ne parlasse leoneazzurro, poi può darsi non abbia capito un tubo ma è un altro discorso :D )
michelgaetano
09-06-2008, 11:02
bhe poche pagine fa si parlava di un ipotetico cpu limited con queste nuove bestioline.. :)
(mi sembra ne parlasse leoneazzurro, poi può darsi non abbia capito un tubo ma è un altro discorso :D )
Se i quads fossero davvero sfruttati, altro che CPU limited :(
sertopica
09-06-2008, 11:10
Sta scheda fa solo 37 fps di media con il bench di crysis?? Il problema è il gioco a questo punto... vabbè che è stato fatto a 1920x1200, ma francamente mi aspettavo qualcosina di più... e i fps minimi (che sono quelli che contano)? E poi io preferirei vedere i frames ingame piuttosto che quelli del bench, dato che ormai sanno tutti che il gioco man mano che si procede acquista, come dire... peso :stordita: ...
sertopica
09-06-2008, 11:20
Il problema era il gioco anche prima o non si spiega perché con tutti gli altri giochi si possa andare alla grande con qualunque scheda video dalla HD3850/9600GT in su...
Già, è vero, ma almeno prima si poteva confidare nelle generazioni future di schede che si sperava avrebbero portato un considerevole boost... ma qui siamo sempre sulla soglia (o quasi) della giocabilità... Certo, bisognerebbe vedere come si comporta la scheda anche a risoluzioni minori, quelle che la maggior parte di noi utilizza, magari lì si comporta meglio... Ma comunque il CryEngine 2 è qualcosa di fenomenale, solo ieri ho visto il video che imita la pubblicità del sony bravia (quello con i palloncini che invadono san francisco)... :eek: !!! Riesce a fare cose impensabili fino a poco tempo fa... quanto si dovrà aspettare per goderselo :confused: Magari con warhead faranno qualcosa, magari :stordita: !
Ad ogni modo, mi chiedevo se con il mio modu82+ da 525W riuscirei a tenere una gtx280 senza problemi... è possibile?
sommojames
09-06-2008, 11:32
Ma mi spiegate sta storia delle linee da 6+8? Io ho un Enermax Liberty 500 watt, con 2 linee da 6 sui 12 v, entrambe da 20 A, ci posso attaccare la 280, magari con qualche adattatore, o tocca accontarmi della 260?
Perche' se devo pure cambiare ALI la spesa inizia a diventare insostenibile.
sertopica
09-06-2008, 11:41
Ma mi spiegate sta storia delle linee da 6+8? Io ho un Enermax Liberty 500 watt, con 2 linee da 6 sui 12 v, entrambe da 20 A, ci posso attaccare la 280, magari con qualche adattatore, o tocca accontarmi della 260?
Perche' se devo pure cambiare ALI la spesa inizia a diventare insostenibile.
Ciao, da quanto ho letto, o è possibile farsi una piccola mod casereccia (di cui non ricordo le modalità), o usare l'adattatore spesso fornito con la scheda, o, dulcis in fundo :D , comprarsi l'alimentatore nuovo... Comunque calcola che nei requisiti per la gtx280 c'è un ali da 550... forse se il tuo è ad alta efficienza non dovresti avere problemi...
Il mio è predisposto per il 6+8, ma è da 525 e non 550, ma credo passi poca differenza se i watt erogati sono effettivamente quelli...
michelgaetano
09-06-2008, 11:44
Ciao, da quanto ho letto, o è possibile farsi una piccola mod casereccia (di cui non ricordo le modalità), o usare l'adattatore spesso fornito con la scheda, o, dulcis in fundo :D , comprarsi l'alimentatore nuovo... Comunque calcola che nei requisiti per la gtx280 c'è un ali da 550... forse se il tuo è ad alta efficienza non dovresti avere problemi...
Il mio è predisposto per il 6+8, ma è da 525 e non 550, ma credo passi poca differenza se i watt erogati sono effettivamente quelli...
ma io pensavo non ce la facesse il mio liberty 620 che ha 22 sulle linee o.o
sommojames
09-06-2008, 11:44
Ciao, da quanto ho letto, o è possibile farsi una piccola mod casereccia (di cui non ricordo le modalità), o usare l'adattatore spesso fornito con la scheda, o, dulcis in fundo :D , comprarsi l'alimentatore nuovo... Comunque calcola che nei requisiti per la gtx280 c'è un ali da 550... forse se il tuo è ad alta efficienza non dovresti avere problemi...
Il mio è predisposto per il 6+8, ma è da 525 e non 550, ma credo passi poca differenza se i watt erogati sono effettivamente quelli...
Bho, speriamo mettano l'adattatore nella scatola, mi darebbe fastidio spendere altri 100 euro per un nuovo ali :muro: piuttosto prendo la 260 e rinuncia all'idea di farmi il 24''.
Cmq credevo che un sistema con 2 GTX in SLI non consumasse piu' di 380 watt in full, come fanno ste schede a richiedere minimo 550 watt? :eek:
sertopica
09-06-2008, 11:49
Onestamente l'acquisto di una VGA da 600€ per poter giocare a risoluzioni umane in modo decente ad un solo gioco, prettamente single player, e ormai finito e strafinito, mi sembra un acquisto sbagliato. Un acquisto del genere può aver senso solo per giocare senza alcun compromesso in HD, Crysis lasciamolo perdere è un gioco che ha dimostrato di essere solo un benchmark.
È vero, sarebbe comunque frustrante giocare a risoluzioni più basse per UN gioco con una scheda come questa... è solo un benchmark, ma che benchmark! E poi, nonostante tutto, devo dire che mi ha divertito...
Sono bravi tutti nel fare un motore grafico anche fotorealistico. La difficoltà nel fare un engine di successo è ottenere il massimo per quello che è l'hardware esistente. Infatti l'UE3 ha venduto una quantità indecente di licenze ;)
Quoto, hai perfettamente ragione... L'UE3 però non è arrivato ai livelli del CE2...
sertopica
09-06-2008, 11:57
ma io pensavo non ce la facesse il mio liberty 620 che ha 22 sulle linee o.o
Io non ho ancora capito come funziona la cosa... Io ho tre linee da 25a, dovrebbero bastare, no?
Bho, speriamo mettano l'adattatore nella scatola, mi darebbe fastidio spendere altri 100 euro per un nuovo ali :muro: piuttosto prendo la 260 e rinuncia all'idea di farmi il 24''.
Cmq credevo che un sistema con 2 GTX in SLI non consumasse piu' di 380 watt in full, come fanno ste schede a richiedere minimo 550 watt? :eek:
Ste schede sono vampiri assatanati :D !
sommojames
09-06-2008, 12:00
Ste schede sono vampiri assatanati :D !
Speriamo ne facciano versioni piu' efficienti dal punto di vista energetico in futuro, nel frattempo sto a guardare.
sertopica
09-06-2008, 12:03
Speriamo ne facciano versioni piu' efficienti dal punto di vista energetico in futuro, nel frattempo sto a guardare.
È quello che farò anche io... questa prima versione la salterò in attesa delle revision... Magari la prendo quando arrivano quelle a 55nm (se riesco a resistere!)... Intanto devo pensare ad un monitor nuovo, dato che sto ancora con un Acer AL532 LCD da 15" :( ...
sertopica
09-06-2008, 12:12
Con un 15" la GTS320 mi pare più che sufficiente... ;)
Infatti l'ho presa apposta :) ! Questa GTX la prenderò solo quando avrò un monitor più grande, e probabilmente punterò sulla 260...
tufogiulia
09-06-2008, 12:14
37fps li faccio pure io con la gx2 purtroppo giocare a crysis in veri high dobbiamo aspettare chi sa quale scheda video magari che viene da marte :asd:
michelgaetano
09-06-2008, 12:32
Da come ho capito non si fa la somma delle linee (sigh :asd: speravo nei 44A :asd:)
Quindi dovresti vedere da specifiche. Il mio se non erro eroga 36 A, che pena :(
fr4nc3sco
09-06-2008, 12:32
Ma mi spiegate sta storia delle linee da 6+8? Io ho un Enermax Liberty 500 watt, con 2 linee da 6 sui 12 v, entrambe da 20 A, ci posso attaccare la 280, magari con qualche adattatore, o tocca accontarmi della 260?
Perche' se devo pure cambiare ALI la spesa inizia a diventare insostenibile.
enermax vende il cavo per i modulari suoi ne ho sempre 2 imballati presi per errore
Geforce 9800GT supports Hybrid Power
Geforce 9800GT has two 6-pin connectors
We got ourselves just about G92 but this time it's G92(b) and no wonder market is confused since Nvidia is selling many SKUs with the same chips but different shader configurations and clocks.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7791&Itemid=1
Finalmente qualcosa sulla 9800GT, quindi una 8800GT forse a 55nm!:confused: e con due connettori a 6 pin come la GTX per il supporto all' Hybrid Power ma a differenza di quest'ultima soltanto un connettore SLI al posto dei due per il supporto Triple SLI! :mbe:
-noxius-
09-06-2008, 12:38
cioè un cesso rimarchiato e castrato :) .. Scherzi a parte , questa scheda se non fosse a 55nm sarebbe altamente inutile (in tal caso sarebbe utile SOLO per nVIDIA a causa delle maggiori rese ..)
sommojames
09-06-2008, 12:40
37fps li faccio pure io con la gx2 purtroppo giocare a crysis in veri high dobbiamo aspettare chi sa quale scheda video magari che viene da marte :asd:
Ma secondo me basta gia' solo abbassare le ombre da very high ad high per guadagnare una decina di fps medi senza perdere visibilmente in qualita' grafica, sempre che non soffochiate nell'abbassare il dettaglio :asd:
Sul fronte GTX280/260 sembra che per i 55nm se ne riparli nel 2009!!!
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7780&Itemid=1
Altro che ottobre come si era previsto, fornetti per tutto il 2008... ;)
sertopica
09-06-2008, 12:41
Da come ho capito non si fa la somma delle linee (sigh :asd: speravo nei 44A :asd:)
Quindi dovresti vedere da specifiche. Il mio se non erro eroga 36 A, che pena :(
Ho controllato, il modello mio ne eroga 40 giusti giusti, quindi gliela farei anche con una gtx280, quello da 625W invece 50 :eek: ...
sertopica
09-06-2008, 12:42
Ma secondo me basta gia' solo abbassare le ombre da very high ad high per guadagnare una decina di fps medi senza perdere visibilmente in qualita' grafica, sempre che non soffochiate nell'abbassare il dettaglio :asd:
Io soffoco e ho le convulsioni :asd: :asd: !
michelgaetano
09-06-2008, 12:45
se penso che c'era pure l inutile cavo da 8 pin...sigh :asd:
sertopica
09-06-2008, 12:49
se penso che c'era pure l inutile cavo da 8 pin...sigh :asd:
Dai... tentar (non) nuoce :asd: !
michelgaetano
09-06-2008, 12:52
Dai... tentar (non) nuoce :asd: !
Secondo me salta tutto in aria :sofico:
Vabeh, tanto non ho intenziojne di prenderla prima che si riduca a prezzi umani :D
bluefrog
09-06-2008, 13:29
Quanto andrà a costare più o meno la GTX280? Meno di 600€? Ci sto facendo un pensierino...
sertopica
09-06-2008, 13:32
Quanto andrà a costare più o meno la GTX280? Meno di 600€? Ci sto facendo un pensierino...
Forse starà più o meno sui 500, ma non è detto... qui i prezzi lievitano sempre...
cristian-BG
09-06-2008, 13:32
allora vedo che c'è un bel casino sul fattore dei amperaggi..
penso personalmente che i requisiti minimi di queste schede in fattore di ampere sia sulla linea totale delle 12v
anche xè sennò trovo assurdo uno sli.. visto che ci sono alimentatori tipo quello attuale infinity 720 con linee da 36A... Quando un galaxy 1000w ne ha tutte da 20A.... la trovo strana... è piu plausibile sul totale amperaggio della 12v... poi o non so ma è la piu logica..
sul tagan che ho acquistato ad esempio è un piperock 800w Amperaggio massimo +12Volt: 64A quindi uno sli non penso che riesca a farlo! avendo già 40A impegnati o piu... voi che dite??? nn si capisce una mazza :doh:
Facendo 2 calcoli, una GTX280 dovrebbe fare 17fps medi a 1920x1200@4xAA/16xAF a Dx10VH. i 38 fps senza filtri significano un +50% sulla GX2, che fa 24fps medi..
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/
-noxius-
09-06-2008, 13:42
buon risultato , allora 3870-9600gt sino alle dx11 :rolleyes:
nemmeno i filtri ... C'è da sperare che la r700 possa arrivare almeno a 45 fps e 40 con i filtri (che sembrano ottimizzati) solo che pure qui è tutto da dimmostrare ..
CoolBits
09-06-2008, 13:51
allora vedo che c'è un bel casino sul fattore dei amperaggi..
penso personalmente che i requisiti minimi di queste schede in fattore di ampere sia sulla linea totale delle 12v
anche xè sennò trovo assurdo uno sli.. visto che ci sono alimentatori tipo quello attuale infinity 720 con linee da 36A... Quando un galaxy 1000w ne ha tutte da 20A.... la trovo strana... è piu plausibile sul totale amperaggio della 12v... poi o non so ma è la piu logica..
sul tagan che ho acquistato ad esempio è un piperock 800w Amperaggio massimo +12Volt: 64A quindi uno sli non penso che riesca a farlo! avendo già 40A impegnati o piu... voi che dite??? nn si capisce una mazza :doh:
veramente mi sembra tutto cosi chiaro e semplice....per un sistema (pc completo ) con una GTX280 occorre un ali da circa 550W e con 40A totali sui 12V ( 1 , 2, 3 ecc linee)...per uno SLi facendo un piccolo calcolo (21A per la singola) servono 40+21A ovvero circa 61A
bluefrog
09-06-2008, 13:53
buon risultato , allora 3870-9600gt sino alle dx11 :rolleyes:
nemmeno i filtri ... C'è da sperare che la r700 possa arrivare almeno a 45 fps e 40 con i filtri (che sembrano ottimizzati) solo che pure qui è tutto da dimmostrare ..
Beh, il 50% in più di una 9800GX2 non mi sembra poco... inoltre ricordiamoci che R700 è composto da due RV770, GT200 è un singolo chip...
michelgaetano
09-06-2008, 13:54
buon risultato , allora 3870-9600gt sino alle dx11 :rolleyes:
woo :asd:
DriftKing
09-06-2008, 14:03
Beh, il 50% in più di una 9800GX2 non mi sembra poco... inoltre ricordiamoci che R700 è composto da due RV770, GT200 è un singolo chip...
a quella ris. la gx2 e limitata dai 512mb di memopria ... si ... pero nvidia nn potra fare un gt200gx2 ...
p.s. e cmq un ottimo risultato ... io pero aspetto i 55nm ... tanto .. da quello che ho capito arriveranni in contemporanea con i nehalem ... :(
michelgaetano
09-06-2008, 14:06
Per un attimo ho immaginato un quad SLI di 280gx2
Affianco al case ho ovviamente visualizzato subito una centrale nucleare e 8 phase per raffreddare :sofico: :sofico: :sofico:
DriftKing
09-06-2008, 14:08
Per un attimo ho immaginato un quad SLI di 280gx2
Affianco al case ho ovviamente visualizzato subito una centrale nucleare e 8 phase per raffreddare :sofico: :sofico: :sofico:
si ... credo che una tonnellata di ghiaccio secco dovrebbe bastare ... con la centrale esageri ... basterebbero due ali da 1000W...
:asd::asd::asd:
michelgaetano
09-06-2008, 14:14
si ... credo che una tonnellata di ghiaccio secco dovrebbe bastare ... con la centrale esageri ... basterebbero due ali da 1000W...
:asd::asd::asd:
dai, la centrale fa più "potenza" :D Immagina un tip che mostra il suo quad SLI di 280 gx2 al compagno:
A: Wow, bel pc! cosa è quel fumo?
B: Nah, nulla di che, è per raffredare *nasconde gli 8 phase con una telo*. Piuttosto metti questa e indossa quest'altra *passa una tuta antiradiazioni e una mascherina*
A: Ah.....Certo che è bello grande *squadra il case alto 2 metri e largo 1,5*
B: Beh, è un quad sli di 280gx2, mica roba da pezzenti!
A: Già...e come a consumi come sei messo?
B: Tutto in regola, ho lei! *da delle pacchette e accarezza una mini centrale nucleare affaincata al pc*
A: Wow, scommeto che ci fai anche girare Crysis alla grande!
B: Da dio! 26 di average fps 1680*1050 tutto very high e AA 4x! E non scendo sotto i 15 nella battaglia finale!
A: ma vaf*******
Ok, troppo studio fa male :asd:
sommojames
09-06-2008, 14:25
dai, la centrale fa più "potenza" :D Immagina un tip che mostra il suo quad SLI di 280 gx2 al compagno:
A: Wow, bel pc! cosa è quel fumo?
B: Nah, nulla di che, è per raffredare *nasconde gli 8 phase con una telo*. Piuttosto metti questa e indossa quest'altra *passa una tuta antiradiazioni e una mascherina*
A: Ah.....Certo che è bello grande *squadra il case alto 2 metri e largo 1,5*
B: Beh, è un quad sli di 280gx2, mica roba da pezzenti!
A: Già...e come a consumi come sei messo?
B: Tutto in regola, ho lei! *da delle pacchette e accarezza una mini centrale nucleare affaincata al pc*
A: Wow, scommeto che ci fai anche girare Crysis alla grande!
B: Da dio! 26 di average fps 1680*1050 tutto very high e AA 4x! E non scendo sotto i 15 nella battaglia finale!
A: ma vaf*******
Ok, troppo studio fa male :asd:
Muoio :rotfl:
sertopica
09-06-2008, 14:41
Della serie... costruisci la tua chernobyl personalizzata :asd: ! In omaggio una mutazione genetica :asd: !
Kharonte85
09-06-2008, 14:44
dai, la centrale fa più "potenza" :D Immagina un tip che mostra il suo quad SLI di 280 gx2 al compagno:
A: Wow, bel pc! cosa è quel fumo?
B: Nah, nulla di che, è per raffredare *nasconde gli 8 phase con una telo*. Piuttosto metti questa e indossa quest'altra *passa una tuta antiradiazioni e una mascherina*
A: Ah.....Certo che è bello grande *squadra il case alto 2 metri e largo 1,5*
B: Beh, è un quad sli di 280gx2, mica roba da pezzenti!
A: Già...e come a consumi come sei messo?
B: Tutto in regola, ho lei! *da delle pacchette e accarezza una mini centrale nucleare affaincata al pc*
A: Wow, scommeto che ci fai anche girare Crysis alla grande!
B: Da dio! 26 di average fps 1680*1050 tutto very high e AA 4x! E non scendo sotto i 15 nella battaglia finale!
A: ma vaf*******
Ok, troppo studio fa male :asd:
:sbonk:
Dai non ci lasciamo andare al panico...se farà una versione gx2 sara' con 2 gtx260...;)
halduemilauno
09-06-2008, 14:47
dai, la centrale fa più "potenza" :D Immagina un tip che mostra il suo quad SLI di 280 gx2 al compagno:
A: Wow, bel pc! cosa è quel fumo?
B: Nah, nulla di che, è per raffredare *nasconde gli 8 phase con una telo*. Piuttosto metti questa e indossa quest'altra *passa una tuta antiradiazioni e una mascherina*
A: Ah.....Certo che è bello grande *squadra il case alto 2 metri e largo 1,5*
B: Beh, è un quad sli di 280gx2, mica roba da pezzenti!
A: Già...e come a consumi come sei messo?
B: Tutto in regola, ho lei! *da delle pacchette e accarezza una mini centrale nucleare affaincata al pc*
A: Wow, scommeto che ci fai anche girare Crysis alla grande!
B: Da dio! 26 di average fps 1680*1050 tutto very high e AA 4x! E non scendo sotto i 15 nella battaglia finale!
A: ma vaf*******
Ok, troppo studio fa male :asd:
buona.
:D
scorpion73
09-06-2008, 16:38
scusate ma io ho letto che le specifiche prevedono un alimentatore che supporti i 40 ampere sulle uscite a 12V del PCIE.
Ma quali alimentatori supportano sta tensione?
Io ho un Enermax Noisetaker II da 600W e mi sa che ne supporta 36W.
Non mi dite pf che devo cambiare ali per sta scheda, sennò ci ripenso e non la compro
michelgaetano
09-06-2008, 16:38
scusate ma io ho letto che le specifiche prevedono un alimentatore che supporti i 40 ampere sulle uscite a 12V del PCIE.
Ma quali alimentatori supportano sta tensione?
Io ho un Enermax Noisetaker II da 600W e mi sa che ne supporta 36W.
Non mi dite pf che devo cambiare ali per sta scheda, sennò ci ripenso e non la compro
Io sto come te, col liberty 620w :( proprio 36A
Jason001
09-06-2008, 16:42
Facendo 2 calcoli, una GTX280 dovrebbe fare 17fps medi a 1920x1200@4xAA/16xAF a Dx10VH. i 38 fps senza filtri significano un +50% sulla GX2, che fa 24fps medi..
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18/
se è così è una vergogna...
tral'altro nel bench :rolleyes:
figuriamoci, ai livelli "core", "paradise lost"..vabè..ciaoooo :muro:
È assurdo ma come fa a essere così incasinato sto gioco -_- programmato veramente col culo... lo so lo abbiamo già detto tante volte. È che devo dirlo ancora -______-
major1977
09-06-2008, 16:47
infatti nn hanno già parlato di una versione meno "ciucciosa" ? :stordita:
scorpion73
09-06-2008, 16:52
va be ma se è così mi compro una GX2
Non mi va di spendere dopo 600 euro di scheda altri 180 per l'alimentatore
passo tanto la GX2 è ottima lo stesso
fanculium
09-06-2008, 17:03
Ciao raga!!
E' il primo post che faccio qui!!
Visto che stiamo parlando di alim. vi faccio una domanda...Sto per comprarmi L'ali della coolermaster: il real power m850 pro modulare...Reggera questa BESTIA???Grazie e ciao!:D :D
-noxius-
09-06-2008, 17:04
va be ma se è così mi compro una GX2
Non mi va di spendere dopo 600 euro di scheda altri 180 per l'alimentatore
passo tanto la GX2 è ottima lo stesso
Concordo pienamente .. Se queste fossero le prestazioni una gx2 usata a 330 euro è un'affare , anche perchè secondo voi queste nuove gt200 nvidia le regalerà all'uscita ? Effetto novità, alto costo di produzione , nuove top di gamma enthusiast, etc,etc , costeranno troppo (ammesso e concesso che la 260 andrà più della GX2 ovviamente, cosa che desta qualche sospetto ..)
Ciao raga!!
E' il primo post che faccio qui!!
Visto che stiamo parlando di alim. vi faccio una domanda...Sto per comprarmi L'ali della coolermaster: il real power m850 pro modulare...Reggera questa BESTIA???Grazie e ciao!:D :D
ce ne metti 2 in sli ..
Concordo pienamente .. Se queste fossero le prestazioni una gx2 usata a 330 euro è un'affare , anche perchè secondo voi queste nuove gt200 nvidia le regalerà all'uscita ? Effetto novità, alto costo di produzione , nuove top di gamma enthusiast, etc,etc , costeranno troppo (ammesso e concesso che la 260 andrà più della GX2 ovviamente, cosa che desta qualche sospetto ..)
se la gtx260 andra meglio della gx2 allora non sara affatto male...se invece non sara cosi non penso che in molti la prenderebbero visto che la x2 costera meno sempre non tenendo conto della concorrenza che è viva piu che mai dai rumors
Io sto come te, col liberty 620w :( proprio 36A
In pratica la scheda vuole due alimentazione per un totale da 40a quindi 2 x20a giusto?
scorpion73
09-06-2008, 17:15
Esatto mentre su ogni uscita 12V del mio ali io ho 18A
Ho fatto un paio di conti e per prendere un alimentatore con 20A come Enermax Infiniti DXX 650W ci vogliono 145 euro se lo trovi bene
Poi la scheda vuoi che non costi 550/600 euro (la GTX 280)?
Totale 745 euro.... ma de che!!!!
Col mio Enermax 600W penso che la GX2 ci gira bene per cui mi piglio quella e buona notte al secchio
Esatto mentre su ogni uscita 12V del mio ali io ho 18A
Ho fatto un paio di conti e per prendere un alimentatore con 20A come Enermax Infiniti DXX 650W ci vogliono 145 euro se lo trovi bene
Poi la scheda vuoi che non costi 550/600 euro (la GTX 280)?
Totale 745 euro.... ma de che!!!!
Col mio Enermax 600W penso che la GX2 ci gira bene per cui mi piglio quella e buona notte al secchio
Allora gia' un tagan 500W da 99€ c'e' la fa a farne andare una, e il 700W 2 in sli, ovviamente i pipe rock xD.
frankdan
09-06-2008, 17:23
Fatemi capire...
Come ali (vedete la mia firma) ho un Enermax Liberty 620W...controllando la scheda tecnica scopro che sulle linee +12V1 e +12V2 eroga 22 A+22 A...anche se poi la scheda dice 36A totali.Cmq ecco la scheda :
http://www.pctunerup.com/up/results/_200806/20080609172124_ali.JPG
Domanda fatidica : il mio ali andrà bene per una vga GTX280 ?
Fatemi capire...
Come ali (vedete la mia firma) ho un Enermax Liberty 620W...controllando la scheda tecnica scopro che sulle linee +12V1 e +12V2 eroga 22 A+22 A...anche se poi la scheda dice 36A totali.Cmq ecco la scheda :
http://www.pctunerup.com/up/results/_200806/20080609172124_ali.JPG
Domanda fatidica : il mio ali andrà bene per una vga GTX280 ?
Se il tuo ali e' questo Enermax Liberty PSU ELT620AWT dovrebbe farcela senza problemi, anche se pero' nn capisco quel 36a finali bo^^ cioe' nn vorrei che come max puo' comunque dare 36a allora se la sk video consuma 40a forse nn c'e' glie la fa', aspetta un parere di qualcuno + esperto xD
frankdan
09-06-2008, 17:35
Se il tuo ali e' questo Enermax Liberty PSU ELT620AWT dovrebbe farcela senza problemi, anche se pero' nn capisco quel 36a finali bo^^
Si,confermo,è il Liberty 620W...i 36 A finali credo siano dovuti al PFC (fattore di correzione della potenza).
Il problema è che nella pagina precedente del thread un'altro utente si preoccupa del fatto che lui,avendo un Liberty come me,crede che queste nuove vga non ce la farà a farle andare...
Ecco il suo messaggio quotato :
Io sto come te, col liberty 620w :( proprio 36A
A chi devo credere ?
major1977
09-06-2008, 17:37
Impossibile dunque una conf SLI di Gtx280..? :stordita:
comunque un liberty da 500W niafa?!
Si,confermo,è il Liberty 620W...i 36 A finali credo siano dovuti al PFC (fattore di correzione della potenza).
Il problema è che nella pagina precedente del thread un'altro utente si preoccupa del fatto che lui,avendo un Liberty come me,crede che queste nuove vga non ce la farà a farle andare...
Ecco il suo messaggio quotato :
A chi devo credere ?
Bo nn so che dire, cmq mi pare molto strano che fanno una sk video che rikieda tutta sta potenza, cioe' mi pare uns gran cazzata fare una VGA cosi esigente di corrente perhce' limiterebbe un sacco la vendita della suddeta sk video.
Bo nn so che dire, cmq mi pare molto strano che fanno una sk video che rikieda tutta sta potenza, cioe' mi pare uns gran cazzata fare una VGA cosi esigente di corrente perhce' limiterebbe un sacco la vendita della suddeta sk video.
non è una scheda da volumi tali in grado di generare differenze significative sulle vendite, non a caso è dedicata ad un'utenza enthusiast... ed un enthusiast cambia anche ali (se non l'ha già fatto) per alimentare questa belva :)
non è una scheda da volumi tali in grado di generare differenze significative sulle vendite, non a caso è dedicata ad un'utenza enthusiast... ed un enthusiast cambia anche ali (se non l'ha già fatto) per alimentare questa belva :)
Si ma qui c'e' gente che si preoccupa di nn poter far andare una sola di queste nuove VGA quando ha degli ali (che nn costano poco) con cui ci fanno andare easy uno sli di 88GT, e poi col cavolo che per una sola VGA cambio ali;)
HackaB321
09-06-2008, 17:53
Foto prese dall'azienda cinese dove stanno assemblando le GTX
http://bbs.pczilla.net/attachments/month_0806/20080609_d1eec75b0bfb5f4e2397y9CK8gfO30vy.jpg
http://bbs.pczilla.net/attachments/month_0806/20080609_63aef50777f8d78caee3dkfYnn0Phz1x.jpg
http://www.pczilla.net/en/post/37.html
In pratica la scheda vuole due alimentazione per un totale da 40a quindi 2 x20a giusto?
Che culo :ciapet: , il mio alimentatore ha proprio 40A..:sofico:
Certo idea di cambiare vga non ne ho, prima mb e cpu..e poiiiii vga!
:asd:
Foto prese dall'azienda cinese dove stanno assemblando le GTX
http://bbs.pczilla.net/attachments/month_0806/20080609_d1eec75b0bfb5f4e2397y9CK8gfO30vy.jpg
http://bbs.pczilla.net/attachments/month_0806/20080609_63aef50777f8d78caee3dkfYnn0Phz1x.jpg
http://www.pczilla.net/en/post/37.html
Ci pensate? Una di quelle cosine finirà nel mio case, cavolo, dalla Cina al mio case, ne farà di strada la mia GTX 280. :D
mircocatta
09-06-2008, 18:10
Foto prese dall'azienda cinese dove stanno assemblando le GTX
http://bbs.pczilla.net/attachments/month_0806/20080609_d1eec75b0bfb5f4e2397y9CK8gfO30vy.jpg
http://bbs.pczilla.net/attachments/month_0806/20080609_63aef50777f8d78caee3dkfYnn0Phz1x.jpg
http://www.pczilla.net/en/post/37.html
cosa gli costa darcene una gratis? :rolleyes: :mad: :mad:
mircocatta
09-06-2008, 18:13
20ax2 non fa 40a ma meno, a quanto pare 36a, e se una vga chiede 40a (mamma mia quanti) vuol dire che in uno che ne da 36 allora non va,perchè oltre alla vga, c'è altro, minimo minimo converrebbe avere un alimentatore da 50a totali
Ci pensate? Una di quelle cosine finirà nel mio case, cavolo, dalla Cina al mio case, ne farà di strada la mia GTX 280. :D
Azz sei gai' cosi sicuro di prenderla senza vedere test seri su consumi/temperature/prestazioni, magari costa un cifro scalda un botto consuma un disastro e le prestazioni nn sono allineate, io sinceramnete nn so cosa mi prendero' se questa o la 4870, aspetto con MOLTA ansia test seri xD.
appleroof
09-06-2008, 18:19
Beh, il 50% in più di una 9800GX2 non mi sembra poco... inoltre ricordiamoci che R700 è composto da due RV770, GT200 è un singolo chip...
c'è sempre chi vede (vuol vedere?) il bicchiere mezzo vuoto....
ricordo, in generale, tutti "quelli" della "minestra riscaldata", adesso c'è la novità, spacca il 50% in più della GX2 e il commento è: "tutto qui?" :rolleyes:
In pratica la scheda vuole due alimentazione per un totale da 40a quindi 2 x20a giusto?
imho per la scheda va bene un ali con lineee separate e che ne abbia una da 20A sui +12v (dedicata alla vga), che da soli sono 240W, oppure 40A totali (se l'ali non ha linee separate), che sono 480W per il complessivo canale a 12volts
io credo (ma ovviamente è solo una mia opinione) che nella slide postata si faccia riferimento a 40A complessivi per dare un'idicazione veloce e immediatamente comprensibile alla massa di utenti, escludendo tutti quelli più esperti da conoscere gli ali con linee separate ecc
c'è sempre chi vede (vuol vedere?) il bicchiere mezzo vuoto....
ricordo, in generale, tutti "quelli" della "minestra riscaldata", adesso c'è la novità, spacca il 50% in più della GX2 e il commento è: "tutto qui?" :rolleyes:
imho per la scheda va bene un ali con lineee separate e che ne abbia una da 20A sui +12v (dedicata alla vga), che da soli sono 240W, oppure 40A totali (se l'ali non ha linee separate), che sono 480W per il complessivo canale a 12volts
io credo (ma ovviamente è solo una mia opinione) che nella slide postata si faccia riferimento a 40A complessivi per dare un'idicazione veloce e immediatamente comprensibile alla massa di utenti, escludendo tutti quelli più esperti da conoscere gli ali con linee separate ecc
Kk pensavo anchio cosi ma nn essendo un intenditore di ALI nn en ero sicuro xD.
Gabriyzf
09-06-2008, 18:22
mi spiace ma io di una vga che quando gioco devo spegnere la lavatrice, non me ne faccio niente.
Forza 88gt, che per qualche mese, in attesa di revisioni più economiche e meno esose d'energia, vai ancora benone.
Qualche beninformato si è lasciato scappare qualcosa...
There'll be a "1Tflop+" GT200-based product (with GDDR3) released this quarter, methinks.
http://forum.beyond3d.com/showpost.php?p=1172905&postcount=2259
E qualche altro beninformato gli ha risposto..
Just don't tell'em the amount of VRAM - odds are, nobody would believe you.
http://forum.beyond3d.com/showpost.php?p=1172912&postcount=2262
Credo sia un prodotto Quadro o Tesla. Dubito che in Nvidia abbiano già una revisione A3 di GT200 per lanciare una GTX290 , che oltretutto dovrebbe avere un core clockato a 650 Mhz e SP clockati a 1400 per aggiungere 1 Teraflops rispettando lo stesso rapporto clock shader: clock core di GTX280. Inoltre parlano di strano amount of VRAM, probabilmente un taglio oltre 1 gb o perfino oltre 2 gb, e questo già escludo una card top-end: i chip GDDR3 più veloci sono quelli da 512bit, per andare oltre ad 1 Gb dovrebbero usare o più di 16 chip , aumentando la complessità e i costi del pcb, o usare chip più lenti e più capienti, a discapito della bandwitdth. Potrebbe essere quindi un prodotto Quadro o Tesla con solo la frequenza degli SP più alta, in quanto serve molta potenza computazionale per quelle schede, e un quantitativo di ram molto elevato.
appleroof
09-06-2008, 18:26
Qualche beninformato si è lasciato scappare qualcosa...
http://forum.beyond3d.com/showpost.php?p=1172905&postcount=2259
E qualche altro beninformato gli ha risposto..
http://forum.beyond3d.com/showpost.php?p=1172912&postcount=2262
Credo sia un prodotto Quadro o Tesla. Dubito che in Nvidia abbiano già una revisione A3 di GT200 per lanciare una GTX290 , che oltretutto dovrebbe avere un core clockato a 650 Mhz e SP clockati a 1400 per aggiungere 1 Teraflops rispettando lo stesso rapporto clock shader: clock core di GTX280. Inoltre parlano di strano amount of VRAM, probabilmente un taglio oltre 1 gb o perfino oltre 2 gb, e questo già escludo una card top-end: i chip GDDR3 più veloci sono quelli da 512bit, per andare oltre ad 1 Gb dovrebbero usare o più di 16 chip , aumentando la complessità e i costi del pcb, o usare chip più lenti e più capienti, a discapito della bandwitdth. Potrebbe essere quindi un prodotto Quadro o Tesla con solo la frequenza degli SP più alta, in quanto serve molta potenza computazionale per quelle schede, e un quantitativo di ram molto elevato.
in riferimento al secondo post quotato, qualcuno qui sul tread qualche girno fà ha parlato di circa 1,5Gb di v-ram
per le frequenze, forse è il chip a 55nm di cui si vocifera
appleroof
09-06-2008, 18:28
Kk pensavo anchio cosi ma nn essendo un intenditore di ALI nn en ero sicuro xD.
non si possono avere dubbi con un Tagan 700W :D
non si possono avere dubbi con un Tagan 700W :D
Lo ho preso apposta :cool: (anche perche' e' molto figo cmq)
appleroof
09-06-2008, 18:32
Lo ho preso apposta :cool: (anche perche' e' molto figo cmq)
molto figo? :D :D :asd:
cmq in generale l'ali è uno dei componenti su cui non bisogna risparmiare, l'ho imparato a mie spese (bruciata una 7800gtx per colpa di un 500W economico) ma è una regola sacrosanta, e credo che il tuo Tagan sia di sicuro un investimento vero e proprio, almeno il mio si è rivelato tale :)
molto figo? :D :D :asd:
cmq in generale l'ali è uno dei componenti su cui non bisogna risparmiare, l'ho imparato a mie spese (bruciata una 7800gtx per colpa di un 500W economico) ma è una regola sacrosanta, e credo che il tuo Tagan sia di sicuro un investimento vero e proprio, almeno il mio si è rivelato tale :)
Si senza dubbio e' un componente di cui sono + che soddisfatto.
Cmq le VGA sono gia' in assemblaggio, ormai potrebebro rilasciare dati SERI:muro:
michelgaetano
09-06-2008, 18:35
imho per la scheda va bene un ali con lineee separate e che ne abbia una da 20A sui +12v (dedicata alla vga), che da soli sono 240W, oppure 40A totali (se l'ali non ha linee separate), che sono 480W per il complessivo canale a 12volts
io credo (ma ovviamente è solo una mia opinione) che nella slide postata si faccia riferimento a 40A complessivi per dare un'idicazione veloce e immediatamente comprensibile alla massa di utenti, escludendo tutti quelli più esperti da conoscere gli ali con linee separate ecc
magari, le linee del infamous liberty sono 2 da 22 (che fino a ieri reputavo decenti, come cambiano le cose lol)
appleroof
09-06-2008, 18:37
magari, le linee del infamous liberty sono 2 da 22 (che fino a ieri reputavo decenti, come cambiano le cose lol)
sei a posto, secondo me: 264W sui +12 dedicati alla vga, 264 per il resto, ma secondo te? :D
Mister Tarpone
09-06-2008, 18:39
SE è vero era come ipotizzavo io :asd:
la gtx280 fa 37fps di media con Crysis VERY HIGH DX10 a 1920x1200...
http://www.pczilla.net/en/post/35.html
quando una 9800GX2 con le stesse impo ne fa 19fps :asd:
http://www.hwupgrade.it/articoli/skvideo/1926/nvidia-geforce-9800gx2-gioco-al-raddoppio_5.html
considerando che nuove release di driver miglioreranno di un pochetto le prestazioni, la GTX280 potrebbe arrivare tranquillamente a 40fps di media...ma anche oltre.. andando, con il gioco più pesante in circolazione, il doppio di una GX2 :fagiano:
SE sta notizia è vera....
Crysis90
09-06-2008, 18:39
Comunque ragazzi se i 36.81 FPS in Crysis a 1920x1200 in Very High non sono fake, facendo un confronto con 9800 GX2 e 3870X2 si vede che la GTX 280 in Crysis è rispettivamente 2 e 3 volte + veloce delle attuali top di gamma di ATI e NVidia:
http://www.hwupgrade.it/articoli/skvideo/1926/nvidia-geforce-9800gx2-gioco-al-raddoppio_5.html
Che ne dite??
Crysis90
09-06-2008, 18:42
Qualche beninformato si è lasciato scappare qualcosa...
http://forum.beyond3d.com/showpost.php?p=1172905&postcount=2259
E qualche altro beninformato gli ha risposto..
http://forum.beyond3d.com/showpost.php?p=1172912&postcount=2262
Credo sia un prodotto Quadro o Tesla. Dubito che in Nvidia abbiano già una revisione A3 di GT200 per lanciare una GTX290 , che oltretutto dovrebbe avere un core clockato a 650 Mhz e SP clockati a 1400 per aggiungere 1 Teraflops rispettando lo stesso rapporto clock shader: clock core di GTX280. Inoltre parlano di strano amount of VRAM, probabilmente un taglio oltre 1 gb o perfino oltre 2 gb, e questo già escludo una card top-end: i chip GDDR3 più veloci sono quelli da 512bit, per andare oltre ad 1 Gb dovrebbero usare o più di 16 chip , aumentando la complessità e i costi del pcb, o usare chip più lenti e più capienti, a discapito della bandwitdth. Potrebbe essere quindi un prodotto Quadro o Tesla con solo la frequenza degli SP più alta, in quanto serve molta potenza computazionale per quelle schede, e un quantitativo di ram molto elevato.
Comunque sia, se è vero che GT200 era già pronto 5 mesi fa, NVidia stà sicuramente progettando qualcos'altro e non parlo di un semplice GT200b, non so se mi spiego...
michelgaetano
09-06-2008, 18:42
40 fps a quella rendono quasi inutile l AA, e magari rinuncaidno a qualche inutile effetto andrà giocabile per tutto il gioco
Ma a che prezzo :doh: :cry:
comunque se gt200 era pronto da quel tempo praticamente han quasi in cantiere una nuova generazione?! animali :D
Comunque ragazzi se i 36.81 FPS in Crysis a 1920x1200 in Very High non sono fake, facendo un confronto con 9800 GX2 e 3870X2 si vede che la GTX 280 in Crysis è rispettivamente 2 e 3 volte + veloce delle attuali top di gamma di ATI e NVidia:
http://www.hwupgrade.it/articoli/skvideo/1926/nvidia-geforce-9800gx2-gioco-al-raddoppio_5.html
Che ne dite??
Il framerate di Crysis dipende molto dal livello. Credo che siano più corretti questi risultati:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/18
Quindi +80% sulla HD3870X2 e +50% sulla GX2
DarkNiko
09-06-2008, 18:45
SE è vero era come ipotizzavo io :asd:
la gtx280 fa 36fps di media con Crysis VERY HIGH DX10 a 1920x1200...
http://www.pczilla.net/en/post/35.html
quando una 9800GX2 con le stesse impo ne fa 19fps :asd:
http://www.hwupgrade.it/articoli/skvideo/1926/nvidia-geforce-9800gx2-gioco-al-raddoppio_5.html
considerando che nuove release di driver miglioreranno di un pochetto le prestazioni, la GTX280 potrebbe arrivare tranquillamente a 40fps di media...ma anche oltre.. andando, con il gioco più pesante in circolazione, il doppio di una GX2 :fagiano:
SE sta notizia è vera....
Non vedo cosa ci sia da stupirsi. E' la naturale evoluzione tecnologica, parliamo anche di un'architettura completamente differente, visto che il memory controller è da 512bit per singola GPU (e non come la GX2 che sono 256 bit * 2), 1 Gb di RAM (e non 512 * 2), 240 stream processor dedicati (e non 128 * 2), quindi è chiaro che in proporzione vada così.
Più che altro, spero non si offenderà nessuno, è ridicolo il vedere che i test di paragone vengano fatti sempre ed esclusivamente con Crysis, che oramai ha soppiantato il 3D Mark per quanto riguarda le valutazioni di potenza di una VGA.
Siamo al colmo, anche perchè :
1) Crysis non è gran chè ottimizzato (lo dimostrano la pesantezza con cui gira e il livello di occupazione delle cpu, specialmente nei quad, che è ridicolo)
2) C'è gente che si cambierebbe VGA solo per raddoppiare i frames a Crysis.
A sto punto tanto meglio una console, mi verrebbe da dire. Spendi un tot, infili il disco e giochi. Magari uno dirà "Sì ma Crysis su console non c'è", ed io risponderei "E chissenefrega !!". :D
Se poi, e chiudo, aggiungiamo il fatto che a Settembre ci sarà il processo produttivo di GT200b a 55 nm, si capisce come non abbia alcun senso prendere ora una VGA che fra 3 mesi è già bella che superata.
Ora, fucilatemi pure. :p
c'è sempre chi vede (vuol vedere?) il bicchiere mezzo vuoto....
ricordo, in generale, tutti "quelli" della "minestra riscaldata", adesso c'è la novità, spacca il 50% in più della GX2 e il commento è: "tutto qui?" :rolleyes:
Ecco perchè forse sarebbe meglio che la gente non alimentasse voci di 60fps (che non è affatto il 50% in più ma oltre il 100% in più di GX2) a 1920x1200 fin dall'inizio. Ovvio che se prometti troppo, rischi di creare delusione. :) Crysis tra l'altro è uno dei famosi best case scenarios, visto che la GX2 è framebuffer e bandwidth limited in questo gioco. ;)
Mister Tarpone
09-06-2008, 18:49
Non vedo cosa ci sia da stupirsi.
ma io non mi stupisco affatto... perchè come ho scritto prima, lo avevo previsto.. (dissi 35-40fps) ;)
erano altri ad essere scettici :) ;)
Mister Tarpone
09-06-2008, 18:54
Ecco perchè forse sarebbe meglio che la gente non alimentasse voci di 60fps (che non è affatto il 50% in più ma oltre il 100% in più di GX2) a 1920x1200 fin dall'inizio. Ovvio che se prometti troppo, rischi di creare delusione. :) Crysis tra l'altro è uno dei famosi best case scenarios, visto che la GX2 è framebuffer e bandwidth limited in questo gioco. ;)
60fps no.. ma SE già ora ne fa veramente 37 ...chissà se con release nuove di driver non arrivi anche a 40-42fps.... + in overclock aggiungi altri 4-5-6fps eeeeeeee zachete....
45-47fps... :asd: :asd: :asd:
mo mi sto ad allargà... :asd: :asd: :asd:
SE è vero era come ipotizzavo io :asd:
la gtx280 fa 37fps di media con Crysis VERY HIGH DX10 a 1920x1200...
http://www.pczilla.net/en/post/35.html
quando una 9800GX2 con le stesse impo ne fa 19fps :asd:
http://www.hwupgrade.it/articoli/skvideo/1926/nvidia-geforce-9800gx2-gioco-al-raddoppio_5.html
considerando che nuove release di driver miglioreranno di un pochetto le prestazioni, la GTX280 potrebbe arrivare tranquillamente a 40fps di media...ma anche oltre.. andando, con il gioco più pesante in circolazione, il doppio di una GX2 :fagiano:
SE sta notizia è vera....
Io cmq faccio 30 di media con very High sotto DX10 a 1920 zenza filtri senza aver ottimizzato il game nel fiel congif o altro e ho 2 88GT, qualcosa nn mi torna^^
http://img364.imageshack.us/img364/662/crysis1920veryhighnofiljp7.th.jpg (http://img364.imageshack.us/my.php?image=crysis1920veryhighnofiljp7.jpg)
c'è comunque da dire che con quel che spende un utente enthusiast all'anno per aggiorare vga/cpu si pja un monitor 42" supermegafico, una ps3/xbox360 e a momenti gli avanzano pure dei soldi :D
Supponendo di rivendere la mia 9800gx2 BE a 300€, spenderne altri 200€, e dopo 2 mesi fare la stessa identica cosa grazie ai 55nm :|
Tutto per aver anche solo un minimo 50% di incremento di prestazioni in crysis che ho già bello che finito un mese fa (e di sicuro non mi metto a rigiocarlo solo perchè ho X fps in più). Oltretutto quali giochi attuali sfruttano a pieno le caratteristiche della nuova VGA Nvidia? attualmente non c'è nulla di decente per sfruttarla, io mi trovo già in full details con tutti i giochi attuali (eccetto crysis) con una "ormai vecchia" 9800GX2 BE :)
DriftKing
09-06-2008, 19:13
Non vedo cosa ci sia da stupirsi. E' la naturale evoluzione tecnologica, parliamo anche di un'architettura completamente differente, visto che il memory controller è da 512bit per singola GPU (e non come la GX2 che sono 256 bit * 2), 1 Gb di RAM (e non 512 * 2), 240 stream processor dedicati (e non 128 * 2), quindi è chiaro che in proporzione vada così.
Più che altro, spero non si offenderà nessuno, è ridicolo il vedere che i test di paragone vengano fatti sempre ed esclusivamente con Crysis, che oramai ha soppiantato il 3D Mark per quanto riguarda le valutazioni di potenza di una VGA.
Siamo al colmo, anche perchè :
1) Crysis non è gran chè ottimizzato (lo dimostrano la pesantezza con cui gira e il livello di occupazione delle cpu, specialmente nei quad, che è ridicolo)
2) C'è gente che si cambierebbe VGA solo per raddoppiare i frames a Crysis.
A sto punto tanto meglio una console, mi verrebbe da dire. Spendi un tot, infili il disco e giochi. Magari uno dirà "Sì ma Crysis su console non c'è", ed io risponderei "E chissenefrega !!". :D
Se poi, e chiudo, aggiungiamo il fatto che a Settembre ci sarà il processo produttivo di GT200b a 55 nm, si capisce come non abbia alcun senso prendere ora una VGA che fra 3 mesi è già bella che superata.
Ora, fucilatemi pure. :p
:nonsifa: niente fucilate ... dici cose,imho, giustissime ...
DarkNiko
09-06-2008, 19:14
60fps no.. ma SE già ora ne fa veramente 37 ...chissà se con release nuove di driver non arrivi anche a 40-42fps.... + in overclock aggiungi altri 4-5-6fps eeeeeeee zachete....
45-47fps... :asd: :asd: :asd:
mo mi sto ad allargà... :asd: :asd: :asd:
Ehehe, però non so come ti sia sentito quando crysis fece il suo debutto. Io ancora oggi non ho digerito l'enorme presa per il culo (e passatemi il termine) da parte del CEO Cevat Yerli e compagni quando facevano circolare in rete video fluidi e promettevano framerate alti e altre magie, che forse a Casanova sarebbero riuscite meglio.
La realtà è stata ben diversa e, a tratti, scottante per tutti. Il gioco non era come ce lo si attendeva (per me non conta solo la grafica, per quanto eccezionale possa essere) e non esisteva, come non esiste nemmeno adesso, hardware in grado di farlo girare come si deve con tutto al massimo, e per tutto intendo TUTTO.
O forse, dovrei essere più duro ed obbiettivo, dicendo che l'hardware che esiste è anche fin troppo potente per Crysis, mentre il gioco è un mattone più per volontà (o mancanza di volontà, vedetela come preferite) dei programmatori che per altro.
Speriamo solo che Crysis Warhead, memore degli errori e delle false promesse del suo predecessore, riscatti la propria immagine offrendo un titolo degno di nota.
sei a posto, secondo me: 264W sui +12 dedicati alla vga, 264 per il resto, ma secondo te? :D
Se usi le 2 linee separatamente, non puoi sommare gli Ampere ;)
Arrivano a massimo 36 :)
Che comunque basteranno per una gtx280 + quadcore, ci mancherebbe...sono 432W...
Mister Tarpone
09-06-2008, 19:16
Io cmq faccio 30 di media con very High sotto DX10 a 1920 zenza filtri senza aver ottimizzato il game nel fiel congif o altro e ho 2 88GT, qualcosa nn mi torna^^
http://img364.imageshack.us/img364/662/crysis1920veryhighnofiljp7.th.jpg (http://img364.imageshack.us/my.php?image=crysis1920veryhighnofiljp7.jpg)
evidentemente uno sli di GT @ 760/1060/1900
son meglio di una gx2 @ 600/1000/1500
se invece lo hai fatto a default bohh.... allora in quella rece la gx2 fa quel risultato per via dei driver poco ottimizzati.. :boh:
michelgaetano
09-06-2008, 19:16
Se usi le 2 linee separatamente, non puoi sommare gli Ampere ;)
Arrivano a massimo 36 :)
Che comunque basteranno per una gtx280 + quadcore, ci mancherebbe.
Boh, magari...Mi sa che aspetto il refresh a 55nm, dovrebbe consumare di meno o è solo una chimera? :D
Si ma per tutti quelli che si so presi la 9800GX2 vi dico che avete fatto una cazzata, lo sapevano tutti che sarebbe durata pokissimo la 9800GX2 e andavano aspettate queste VGA, o cmq potevate fare come me uno sli di 88GT che mi e' costato solo 350€ in tottale prendendo una VGA dal mercatino ed una la havevo gia' ovviamente, tanto gia' con una sola 88GT si gioca a tutto fino alla risoluzone di 1650, sopra nn basta ma cmq nn avrei mai preso una 9800GX2 visto l'imminete arrivo della serie GT260/280.
evidentemente uno sli di GT @ 760/1060/1900
son meglio di una gx2 @ 600/1000/1500
se invece lo hai fatto a default bohh.... allora in quella rece la gx2 fa quel risultato per via dei driver poco ottimizzati.. :boh:
Le frequenze con cui gioco e ci ho fatto quel test veloce sono 700/1000/1850 cosi vedo bene come mi gira in game, perche' nn le tengo a manetta mentre gioco ma propio a 700/1000/1850 perhce' me la meno a tiralgi il collo per ore e ore mentre gioco xD.
Cmq credo che ogni tanto toppano anche le rece ahhahaha
michelgaetano
09-06-2008, 19:21
Si ma per tutti quelli che si so presi la 9800GX2 vi dico che avete fatto una cazzata, lo sapevano tutti che sarebbe durata pokissimo la 9800GX2 e andavano aspettate queste VGA, o cmq potevate fare come me uno sli di 88GT che mi e' costato solo 350€ in tottale prendendo una VGA dal mercatino ed una la havevo gia' ovviamente, tanto gia' con una sola 88GT si gioca a tutto fino alla risoluzone di 1650, sopra nn basta ma cmq nn avrei mai preso una 9800GX2 visto l'imminete arrivo della serie GT260/280.
Cazzata no, non scherziamo. Permette pur sempre uno SLI di 8800 gts su schede madri non nVidia.
Certo non l avrei presa all'uscita (personalmente non la prenderei per il quantitativo di ram), ma ora usata la trovi sui 320. E per chi non può fare uno SLI di gt è ok, eh.
DriftKing
09-06-2008, 19:25
Si ma per tutti quelli che si so presi la 9800GX2 vi dico che avete fatto una cazzata, lo sapevano tutti che sarebbe durata pokissimo la 9800GX2 e andavano aspettate queste VGA, o cmq potevate fare come me uno sli di 88GT che mi e' costato solo 350€ in tottale prendendo una VGA dal mercatino ed una la havevo gia' ovviamente, tanto gia' con una sola 88GT si gioca a tutto fino alla risoluzone di 1650, sopra nn basta ma cmq nn avrei mai preso una 9800GX2 visto l'imminete arrivo della serie GT260/280.
mah ... cazzata nn direi ... forse chi l'ha presa all'uscita ... beh ... diciamo che nn ha fatto molto bene ... ma cmq ... la gx2 ,x ora (nn si sanno le prestazioni della gtx260), e la seconda vga sul mercato ... se guardiamo la potenza ... quindi ... a chi l'ha presa ... potrebbe durare parecchio ...
Cazzata no, non scherziamo. Permette pur sempre uno SLI di 8800 gts su schede madri non nVidia.
Certo non l avrei presa all'uscita (personalmente non la prenderei per il quantitativo di ram), ma ora usata la trovi sui 320. E per chi non può fare uno SLI di gt è ok, eh.
Si ma e' una scheda uscita solo per inculare i soldi alla gente e per togliere dalla cima come sk video + potente la 3870x2, poi e' usicta troppo tardi per fare il discorso che si mette in un solo slot , discorso che si poteva fare se usciva molto pirma di queste nuove ma nn cosi tardi e' una politica che a me nn piace di Nvidia come ha gestito ultimanente le sue VGA sopratutto la 9800GX2 che appena usicta veniva 600€ ed ora con la stessa cifra dopo pokissimi mesi ti prendi la GTX280.
Poi c'e' da dire che io sono il primo a dire no chipset Nvidia e single VGA ma col monitor 1920 nn e' possibile xD spero che con queste nuove VGA invece si cosi mi uso definitivamente la DFI DK p35 e via.
PS. nn c'e' lo con chi ha preso al 9800GX2 ma con Nvidia^^
michelgaetano
09-06-2008, 19:30
Non dico che non è vero, ma parli come se fosse una emrdaccia di scheda.
350 euro circa li vale.
-noxius-
09-06-2008, 19:30
Si ma per tutti quelli che si so presi la 9800GX2 vi dico che avete fatto una cazzata, lo sapevano tutti che sarebbe durata pokissimo la 9800GX2 e andavano aspettate queste VGA, o cmq potevate fare come me uno sli di 88GT che mi e' costato solo 350€ in tottale prendendo una VGA dal mercatino ed una la havevo gia' ovviamente, tanto gia' con una sola 88GT si gioca a tutto fino alla risoluzone di 1650, sopra nn basta ma cmq nn avrei mai preso una 9800GX2 visto l'imminete arrivo della serie GT260/280.
Scusami ma se le hai overcloccate devi riportare anche i risultati della gx2 overcloccata , almeno a 650 di core ! Che senso ha fare comparazioni con una config overcloccata ed una no ? Sono d'accordo per il fatto che chi l'ha presa all'uscita ha fatto malissimo però sui 330 (usata)-380(nuova) euro attualmente (anche in previsione gtx280) non c'è di meglio .
C'è da dire che 1 mese fa la situazione era diversa per il semplice fatto che i costi erano molto più alti ed infatti si è giustamente svalutata , però adesso stà a livelli quantomeno accettabili (per lo SLI serve una mobo adatta e DECENTE , oltre a spendere almeno 370 euro per due GTS 512 dell'asus ) .
michelgaetano
09-06-2008, 19:34
Scusami ma se le hai overcloccate devi riportare anche i risultati della gx2 overcloccata , almeno a 650 di core ! Che senso ha fare comparazioni con una config overcloccata ed una no ? Sono d'accordo per il fatto che chi l'ha presa all'uscita ha fatto malissimo però sui 330 (usata)-380(nuova) euro attualmente (anche in previsione gtx280) non c'è di meglio .
C'è da dire che 1 mese fa la situazione era diversa per il semplice fatto che i costi erano molto più alti ed infatti si è giustamente svalutata , però adesso stà a livelli quantomeno accettabili (per lo SLI serve una mobo adatta e DECENTE , oltre a spendere almeno 370 euro per due GTS 512 dell'asus ) .
Esattamente.
Inoltre penso che chi abbia un minimo di "acume economico" (non so come definirlo) è ben conscio del fatto che ogni scheda all uscita vede un pezzo strapompato, figuriamoci la nuova scheda top di nVidia.
Leggasi: chi la prende ora si porta a casa un ottima scheda, imo ancor meglio dopo che esce gtx 280, se mantiene le promesse.
Mister Tarpone
09-06-2008, 19:35
mmmhhh..... qui per esempio una GX2 con tutto high tranne shader a very high fa 30fps di media a 1920x1200 in dx10 :confused:
http://www.xbitlabs.com/articles/video/display/zotac-9800gx2_9.html#sect0
Le frequenze con cui gioco e ci ho fatto quel test veloce sono 700/1000/1850 cosi vedo bene come mi gira in game, perche' nn le tengo a manetta mentre gioco ma propio a 700/1000/1850 perhce' me la meno a tiralgi il collo per ore e ore mentre gioco xD.
Cmq credo che ogni tanto toppano anche le rece ahhahaha
ma fai 30 fps con TUTTO very high a 1920(senza filtri)? no xche c'è gente che dice tutto very high e poi si scopre che magari ha messo o le ombre su high o il post-processing su medio e cagate simili...tutto vuol dire TUTTO sia chiaro. ci credo poco cmq...posta qualche screens
-noxius-
09-06-2008, 19:39
30 , e poi come giustamente hai detto su very high ci sono solo gli shaders (molto pesanti tra l'altro ..)
michelgaetano
09-06-2008, 19:41
mmmhhh..... qui per esempio una GX2 con tutto high tranne shader a very high fa 34fps di media a 1920x1200 in dx10 :confused:
http://www.xbitlabs.com/articles/video/display/zotac-9800gx2_9.html#sect0
http://www.tomshw.it/guides/hardware/graphic/20080318/images/crysis_1920.jpg
Come sempre, le prestazioni generali sono inferiori rispetto agli altri giochi, nonostante le risoluzioni inferiori. Per questo test abbiamo usato la modalità DirectX 10, in qualità Very High, con solo le ombre a un livello qualitativo inferiore.
Tutto su very high, ombre su high (presumo). E scheda non OC. quindi i 30 fps di padsi non sono nulla di anormale.
Il miglior SLI resta imo quello di 9600 GT.
Mister Tarpone
09-06-2008, 19:43
30 , e poi come giustamente hai detto su very high ci sono solo gli shaders (molto pesanti tra l'altro ..)
ma?? :confused: e come fa quell'altro a fare 29fps con 2 88gt alla stessa risoluzione e completamente in very high?? :confused:
le ombre e l'object a very high sono molto pesanti per esempio..... :confused:
ah gia lui le ha occate :) beh allora ci puo stare, cmq son importanti i minimi, se con la tgx280 non si scenderà in nessun caso sotto i 30 a 1920x1200 con TUTTO very high no aa, beh è davvero buono...
Scusami ma se le hai overcloccate devi riportare anche i risultati della gx2 overcloccata , almeno a 650 di core ! Che senso ha fare comparazioni con una config overcloccata ed una no ? Sono d'accordo per il fatto che chi l'ha presa all'uscita ha fatto malissimo però sui 330 (usata)-380(nuova) euro attualmente (anche in previsione gtx280) non c'è di meglio .
C'è da dire che 1 mese fa la situazione era diversa per il semplice fatto che i costi erano molto più alti ed infatti si è giustamente svalutata , però adesso stà a livelli quantomeno accettabili (per lo SLI serve una mobo adatta e DECENTE , oltre a spendere almeno 370 euro per due GTS 512 dell'asus ) .
Ecco il test a defualt 26 di media http://img296.imageshack.us/img296/4710/crysis1920veryhighnofiljx6.th.jpg (http://img296.imageshack.us/my.php?image=crysis1920veryhighnofiljx6.jpg)
Ora vedo che su torva prezzi la 9800GX2 la + bassa sta a360€ che come prezzo e' ottimo, ma cmq e' troppo tardi idem, poi cmq e' un forno e cosnuma un delirio, se al lancio costava max e dico propio max 450€ allora se ne poteva parlare ma io manco la ho tenuta in considerazione per 2 motivi.
1.Uscita troppo vicina con le nuove VGA ATI e Nvidia
2.a 1920 in crysis appunto nn mi cambiava una mazza anzi.... mettendone 2 si avevano solo problemi
nico88desmo
09-06-2008, 19:46
Qui elencano i migliramenti dell'architettura di GT200 rispetto a G80.
http://www.hardware-infos.com/news.php?news=2135
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6568820&postcount=523
ma?? :confused: e come fa quell'altro a fare 29fps con 2 88gt alla stessa risoluzione e completamente in very high?? :confused:
le ombre e l'object a very high sono molto pesanti per esempio..... :confused:
xche sono in OC...xo adesso che ci penso, con il suo OC una 88gt guadagna solo 2 fps quindi 2 88gt in sli 3 fps(lo sli non è il 100% in +, ma il 50% giusto?); c'è qualcosa che non torna, non è che ha messo ombre su medium :asd:
ma fai 30 fps con TUTTO very high a 1920(senza filtri)? no xche c'è gente che dice tutto very high e poi si scopre che magari ha messo o le ombre su high o il post-processing su medio e cagate simili...tutto vuol dire TUTTO sia chiaro. ci credo poco cmq...posta qualche screens
Tutto su very high senza filtri, cambio solo la voce che modifica tutte le altre assieme.
PS. se gli dico trova impostazioni ottimali in automatico mi setta tutto su ver high , mi prende per il culo xD
mi ricordi di quanto le hai occate?
Mister Tarpone
09-06-2008, 19:50
xche sono in OC...xo adesso che ci penso, con il suo OC una 88gt guadagna solo 2 fps quindi 2 88gt in sli 3 fps(lo sli non è il 100% in +, ma il 50% giusto?); c'è qualcosa che non torna, non è che ha messo ombre su medium :asd:
qui 2 8800GT in sli fanno a 1920x1200 in dx10 HIGH 29fps
http://firingsquad.com/hardware/geforce_9600_gt_sli_performance/page9.asp
qui 2 8800GT in sli fanno a 1920x1200 in dx10 HIGH 29fps
http://firingsquad.com/hardware/geforce_9600_gt_sli_performance/page9.asp
saranno i massimi
mi ricordi di quanto le hai occate?
il primo bench erano settate a 700, 1000, 1850 rispetto al defualt del secondo 600 900 1500
Mister Tarpone
09-06-2008, 19:52
edit
appleroof
09-06-2008, 19:53
Se usi le 2 linee separatamente, non puoi sommare gli Ampere ;)
Arrivano a massimo 36 :)
Che comunque basteranno per una gtx280 + quadcore, ci mancherebbe...sono 432W...
come no? :mbe:
mi risultava di si, invece.....mi spiego meglio: a me risulta che se hai 2 linee da +12v a, diciamo, 10A, ciascuna di esse avrà (indipendentemente l'una dall'altra) 120W
però non possono dare insieme e contemporaneamente 240W, se mi spiego (ecco perchè 2 linee da 10A ciascuna non ne danno una da 20A su un unico canale)
cmq può darsi bene che mi sbagli eh?
(esempio: il mio ali ha 2 lineee separate da, mi pare 20A ciascuna: si possono usare così, e ciascuna erogherà 240W, oppure in combinata e daranno 360W su un unico canale, all'occorrenza l'ali le combina automaticamente)
-noxius-
09-06-2008, 19:54
Ecco il test a defualt 26 di media http://img296.imageshack.us/img296/4710/crysis1920veryhighnofiljx6.th.jpg (http://img296.imageshack.us/my.php?image=crysis1920veryhighnofiljx6.jpg)
Ora vedo che su torva prezzi la 9800GX2 la + bassa sta a360€ che come prezzo e' ottimo, ma cmq e' troppo tardi idem, poi cmq e' un forno e cosnuma un delirio, se al lancio costava max e dico propio max 450€ allora se ne poteva parlare ma io manco la ho tenuta in considerazione per 2 motivi.
1.Uscita troppo vicina con le nuove VGA ATI e Nvidia
2.a 1920 in crysis appunto nn mi cambiava una mazza anzi.... mettendone 2 si avevano solo problemi
Se consideri ''forno'' le temperature della gx2 allora lo stesso vale per le tue GT in sli ; IDEM dicasi per il consumo che nel tuo caso dovrebbe essere uguale se non superiore . Capisco che bisogna leggittimare il proprio acquisto ma almeno cerchiamo di essere obbiettivi ;)
Diciamo che alla fine offre un buon livello di performance ad alte risoluzioni con crysis , però non il massimo (che sembra forse ottenibbile spendendo 600 e passa euro :rolleyes: ) , mentre permette uno SLI a chi non ne ha la possibilità e non si fida del CF .
Lo ripeto, all'inizio costava troppo per offrire troppo poco , adesso invece sembra una buona soluzione per via del prezzo , tutto qui .
e no.. 26fps contro 37fps ;)
i confronti si fanno a default ;)
Ovvio ;) .
Ricapitolando : 1920x1200 High - very high
-280 OC --------- 4.000/10.000 600 (così facciamo contento ''halduemilauno'' :sofico: )
-280 ------------ 36/37 600 CONSUMI : 595W
-GX2 OC -------- 35/36 370
-GX2 ----------- 31/32 370
-SLI 8800gtx ---- 32 (?)
-SLI 8800GTOC - 29/30 320
-SLI 8800GT ---- 25/26 320 CONSUMI: 520W
-SLI 8800GTX -- 25 CONSUMI : 609W
-GX2 ---------- 19 CONSUMI : 551W
-9800GTX ----- 14.3
-8800GTX ----- 14.1
-8800GT ------- 12
-3870X2 ------- 11.6
Un conteggio ''alla bruta'' tanto per dare un'idea
il primo bench erano settate a 700, 1000, 1850 rispetto al defualt del secondo 600 900 1500
ok ci siamo, hai guadagnato quei 3.5 fps circa, cmq alla fine i conti tornano, xche la 8800gt e poco meno potente rispetto alla 9800gtx, la gtx280 è il 100% della 9800gtx, giusto? quindi sarà il 125% della 8800gt..ci siamo dai 30 fps contro 37, poi conta che i drivers non sono ottimizzati quindi...
non mi ricordo solo quanto è la gtx280 rispetto alla 9800gtx...illuminatemi cosi edito l'eventuale cazzata :asd:
Mister Tarpone
09-06-2008, 19:57
e no.. 26fps contro 37fps ;)
i confronti si fanno a default ;)
ah vero, va beh cmq direi che è giusto
.
.
.
ho rifatto i calcoli dovrebbe essere il 125% in + rispetto alla 9800gtx e il 150-160% in + rispetto alla 8800gt
Mister Tarpone
09-06-2008, 20:02
ah vero, va beh cmq direi che è giusto
che sarebbe un 30% di differenza..se non sbaglio..
Se consideri ''forno'' le temperature della gx2 allora lo stesso vale per le tue GT in sli ; IDEM dicasi per il consumo che nel tuo caso dovrebbe essere uguale se non superiore . Capisco che bisogna leggittimare il proprio acquisto ma almeno cerchiamo di essere obbiettivi ;)
Diciamo che alla fine offre un buon livello di performance ad alte risoluzioni con crysis , però non il massimo (che sembra forse ottenibbile spendendo 600 e passa euro :rolleyes: ) , mentre permette uno SLI a chi non ne ha la possibilità e non si fida del CF .
Lo ripeto, all'inizio costava troppo per offrire troppo poco , adesso invece sembra una buona soluzione per via del prezzo , tutto qui .
Le mie gainward erano gia' un modello con dissi maggiorato a doppio slot e nn superavano mai i 65° gradi sotto massimo stress, mi pare che la GX2 salga sui 70 o + ma nn avendola nn ho dati certi alla mano mi baso su cosa dicono le rece e gli utenti che la hanno, poi appena ho fatto lo sli ci ho messo i dissi diversi sulle GT e nn posso fare un confronto adeguato perhce' ora stanno a 15° in meno di media, come consumo di sicuro le GTX e le ultra in sli consumano d+ della 9800GX2 le GT in sli consumano meno credo.
appleroof
09-06-2008, 20:08
Qui elencano i migliramenti dell'architettura di GT200 rispetto a G80.
http://www.hardware-infos.com/news.php?news=2135
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6568820&postcount=523
interessantissimo, in questa elencazione, questo:
* 2,5x more threads per chip
* Doubled register file size
* Double-precision floating-point support
* Much faster geometry shading
* More efficient instruction scheduling and instruction issue
* Higher clocked and more efficient frame buffer memory access
* Improvements in on-chip communications between various units
* Improved Z-cull and compression supporting higher performance at high resolutions
* 10-bit color support
alcuni sostengono che g80 sia deficitario nel geometry shading e quell'aspetto, unito al commento sul demo Medusa, mi sembra davvero molto interessante in ottica futuri giochi....
Crysis90
09-06-2008, 20:15
Qui elencano i migliramenti dell'architettura di GT200 rispetto a G80.
http://www.hardware-infos.com/news.php?news=2135
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6568820&postcount=523
"It looks like GT200 is 50% faster per clock than G80".
:eek: :sbavvv: :sbavvv:
-noxius-
09-06-2008, 20:31
Le mie gainward erano gia' un modello con dissi maggiorato a doppio slot e nn superavano mai i 65° gradi sotto massimo stress, mi pare che la GX2 salga sui 70 o + ma nn avendola nn ho dati certi alla mano mi baso su cosa dicono le rece e gli utenti che la hanno, poi appena ho fatto lo sli ci ho messo i dissi diversi sulle GT e nn posso fare un confronto adeguato perhce' ora stanno a 15° in meno di media, come consumo di sicuro le GTX e le ultra in sli consumano d+ della 9800GX2 le GT in sli consumano meno credo.
Ecco qui, ho appena finito i conti ;)
Ricapitolando : 1920x1200 High - very high
-280 OC --------- 4.000/10.000 600 (così facciamo contento ''halduemilauno'' :sofico: )
-280 ------------ 36/37 600 CONSUMI : 595W
-GX2 OC -------- 35/36 370
-GX2 ----------- 31/32 370
-SLI 8800gtx ---- 32 (?)
-SLI 8800GTOC - 29/30 320
-SLI 8800GT ---- 25/26 320 CONSUMI: 520W
-SLI 8800GTX -- 25 380 CONSUMI : 609W
-GX2 ---------- 19 370 CONSUMI : 551W
-9800GTX ----- 14.3 205
-8800GTX ----- 14.1 190
-SLI 8800GT ---13.6 240
-8800GT ------- 12 130
-3870X2 ------- 11.6 240
Un conteggio ''alla bruta'' tanto per dare un'idea
appleroof
09-06-2008, 20:37
Ecco qui, ho appena finito i conti ;)
non ci capisco nulla in quella lista :stordita:
ma 600 watt compreso tutto il sistema giusto?
-noxius-
09-06-2008, 21:12
non ci capisco nulla in quella lista :stordita:
Cosa c'è da capire ?
nome scheda - fps a crysis su high e very high @1920x1200 - prezzo - consumo totale riferito al sistema :rolleyes:
fonte : http://www.hwupgrade.it/articoli/skvideo/1926/nvidia-geforce-9800gx2-gioco-al-raddoppio_5.html e http://www.hwupgrade.it/articoli/skvideo/1936/nvidia-geforce-9800gtx-potenza-a-basso-consumo_5.html
Mister Tarpone
09-06-2008, 21:16
concordo con i conti di noxius...
anche se pure io ci ho messo un pò a capire.. :asd:
37 a quella risoluzione + conta che io lo giocherò a 1680x1050 + drivers ottimizzati e oc, salirò come minimo a 45, togliamo 10 fps per gli fps minimi e siamo a 35; alla grande!!! ci metto pure x4aa e starò cmq sui 30 SEMPRE, proprio quello che volevo...la gtx280 sara mia :D
michelgaetano
09-06-2008, 21:31
30 di average sono pochi dai miei test, 35 già molto meglio.
Mister Tarpone
09-06-2008, 21:42
30 di average sono pochi dai miei test, 35 già molto meglio.
a me sembra vada quasi uguale...
30, 40fps... c'è giusto un media leggermente + alta in game... ma il problema restano sempre i cali nelle scene pese..
michelgaetano
09-06-2008, 21:44
a me sembra vada quasi uguale...
30, 40fps... c'è giusto un media leggermente + alta in game... ma il problema restano sempre i cali nelle scene pese..
che dirti tarpo, coi 29 a volte non lo sopportavo, coi 36 della precedente gts era praticamente sempre ok :(
Mister Tarpone
09-06-2008, 21:46
che dirti tarpo, coi 29 a volte non lo sopportavo, coi 36 della precedente gts era praticamente sempre ok :(
pensa che io con 45fps di media nel gpu bench i cali qualche volta li trovo lo stesso...
quelli danno noia.. non la media con cui ci si aggira nei livelli nei momenti + calmi... perchè in quei momenti, il gioco tanto è perfettamente fluido pure a 24-26fps...
ma nelle scene di battaglia..... AZZ....
nico88desmo
09-06-2008, 21:51
interessantissimo, in questa elencazione, questo:
* 2,5x more threads per chip
* Doubled register file size
* Double-precision floating-point support
* Much faster geometry shading
* More efficient instruction scheduling and instruction issue
* Higher clocked and more efficient frame buffer memory access
* Improvements in on-chip communications between various units
* Improved Z-cull and compression supporting higher performance at high resolutions
* 10-bit color support
alcuni sostengono che g80 sia deficitario nel geometry shading e quell'aspetto, unito al commento sul demo Medusa, mi sembra davvero molto interessante in ottica futuri giochi....
Da considerare anche l'introduzione della Double-precision floating-point support per quanto riguarda Cuda; sono molto curioso di vedere le prestazioni che avrà questo chip in doppia precisione in confronto con RV770.
pensa che io con 45fps di media nel gpu bench i cali qualche volta li trovo lo stesso...
quelli danno noia.. non la media con cui ci si aggira nei livelli nei momenti + calmi... perchè in quei momenti, il gioco tanto è perfettamente fluido pure a 24-26fps...
ma nelle scene di battaglia..... AZZ....
vero, con tante esplosioni manco con lo sli di gtx280 ti salvi, bisogna notare sempre gli fps minimi non l'average...
Foglia Morta
09-06-2008, 22:48
Da considerare anche l'introduzione della Double-precision floating-point support per quanto riguarda Cuda; sono molto curioso di vedere le prestazioni che avrà questo chip in doppia precisione in confronto con RV770.
da quel che si dice su B3D ( penso siano speculazioni ) GT200 in doppia precisione dovrebbe andare poco meno del doppio rispetto alla HD3650 . Mentre RV770 potrebbe andare 3,2 + veloce in confronto a GT200. Nessun utilizzo nel gaming per quel che riguarda il futuro prossimo , solo gpgpu
Crysis90
09-06-2008, 23:01
GT200 in doppia precisione dovrebbe andare poco meno del doppio rispetto alla HD3650 . Mentre RV770 potrebbe andare 3,2 + veloce in confronto a GT200.
E' una battuta vero???
Foglia Morta
09-06-2008, 23:07
E' una battuta vero???
no. è quel che si dice su B3d per ora... tutto da verificare ancora, quindi inutile farne una tragedia
frankdan
09-06-2008, 23:10
magari, le linee del infamous liberty sono 2 da 22 (che fino a ieri reputavo decenti, come cambiano le cose lol)
sei a posto, secondo me: 264W sui +12 dedicati alla vga, 264 per il resto, ma secondo te? :D
Quindi chi ha un Enermax Liberty 620W come me,per far andare le gtx 280 l'ali dovrà cambiarlo o no ?
Crysis90
09-06-2008, 23:10
no. è quel che si dice su B3d per ora... tutto da verificare ancora, quindi inutile farne una tragedia
Ah ho capito...a quelli di B3D piace fare dell'umorismo...:D :D
Mister Tarpone
09-06-2008, 23:12
no. è quel che si dice su B3d per ora... tutto da verificare ancora, quindi inutile farne una tragedia
ma infatti meglio 2 3650 in crossfire di una gt200 ;)
ma nettamente.... ;)
:sbonk: :D
Per me, girerà bene anche sul mio liberty 500. cmq vi farò sapere :D
... e in ogni caso, rotolo dalle risate quando leggo sempre le stesse storie sul fatto che crysis non sarebbe ottimizzato, visto che tutti gli altri giochi fanno registrare il triplo degli fps alla stessa risoluzione hahaha.
E ti credo, tra script vari ed edifici fatti con un poligono, son buoni tutti ad ottimizzare...
Fek, tu che dici (se ci sei eh :D )
come no? :mbe:
mi risultava di si, invece.....mi spiego meglio: a me risulta che se hai 2 linee da +12v a, diciamo, 10A, ciascuna di esse avrà (indipendentemente l'una dall'altra) 120W
però non possono dare insieme e contemporaneamente 240W, se mi spiego (ecco perchè 2 linee da 10A ciascuna non ne danno una da 20A su un unico canale)
cmq può darsi bene che mi sbagli eh?
(esempio: il mio ali ha 2 lineee separate da, mi pare 20A ciascuna: si possono usare così, e ciascuna erogherà 240W, oppure in combinata e daranno 360W su un unico canale, all'occorrenza l'ali le combina automaticamente)
Eh, lo so, sarebbe bello se fosse cosi :D
Allora il mio Seasonic M12 600w che ha 4 linee da 18A ciascuna, se le usasse separatamente potrebbe erogare la bellezza di 864W sui 12V :sofico:
Mentre combinati "solo" 50A (600W), quindi la sua potenza nominale.
Nel caso del liberty citato, ogni linea quando usata DA SOLA puó erogare 22A.
Se una seconda linea viene sollecitata allo stesso tempo, mentre la prima viene utilizzata in full, potrá erogare solo 14A.
Quindi sarebbero 22A e 14A rispettivamente sulla 12V1 e 12V2.
E sono possibili tutte le combinazioni finché si arriva a 36A. Di piú e l' ali si spegne.
L' enermax ha l' OCP (over current protection), quindi ogni linea non puó erogare piú di 22A massimi (quindi non puó fare 23A e 13A per esempio).
Nel caso del mio valgono le stesse identiche cose del liberty, non fosse per il fatto che non ha l' OCP.
Quindi posso erogare 50A in una sola linea. Ma sempre 50A sono ;)
Per me, girerà bene anche sul mio liberty 500. cmq vi farò sapere :D
... e in ogni caso, rotolo dalle risate quando leggo sempre le stesse storie sul fatto che crysis non sarebbe ottimizzato, visto che tutti gli altri giochi fanno registrare il triplo degli fps alla stessa risoluzione hahaha.
E ti credo, tra script vari ed edifici fatti con un poligono, son buoni tutti ad ottimizzare...
Fek, tu che dici (se ci sei eh :D )
Un motore grafico che non sfrutta appieno i multi-core nel 2008 (roba che persino il motore di Doom3 ci riesce, e parliamo di roba di 4 anni fa circa), è una porcata, c'è poco da dire, temo.
Poi sulla qualità grafica nulla da dire, ma io trovo Crysis davvero outstanding solo in alcuni dettagli, non certo in tutto (graficamente parlando).
Un motore grafico che non sfrutta appieno i multi-core nel 2008 (roba che persino il motore di Doom3 ci riesce, e parliamo di roba di 4 anni fa circa), è una porcata, c'è poco da dire, temo.
Poi sulla qualità grafica nulla da dire, ma io trovo Crysis davvero outstanding solo in alcuni dettagli, non certo in tutto (graficamente parlando).
Quoto ;)
Premettendo che crysis brilla solamente negli esterni...gli interni sono superati imho da alcuni giochi in circolazione o di prossima uscita.
Quello che secondo me fa arrabbiare la gente, non é solo la pesantezza del motore, ma l' aver fatto leva su una cosa che non esiste: l'ottimizzazione per il multicore/multivga.
Roba che giochi di 3-4 anni fa riescono in modo piú che dignitoso.
Mi ricordo ancora le parole dette da crytek: "Questo gioco vi fará sentire la differenza tra un dualcore e un quadcore", quando a malapena ti accorgi la differenza tra un pentium4 e un core2quad.
Oltre al fatto che non esiste differenza di fps tra interni ed esterni :mbe:
Piú un sacco di altra roba che non sto qui ad elencare...(anzi ne elenco una: perché tra dx10 VH e dx9 con la modifica c'é tutta sta differenza di fps e non di grafica? Semplice...hanno messo un sacco di effetti pesanti che non si vedono affatto)
belli gli interni di doom3, dove manco le lattine di coca si spostavano se gli sparavi addosso lol
Poi è vero che il quad core non è sfruttato, ma secondo me, manco in d3 è sfruttato, come in nessun altro gioco imho
Che poi la pubblicità fatta, sia stata fuorviante, su questo concordo. Ma pretendere che tutti sti poligoni avrebbero potuto girare meglio se avessero ottimizzato di più, non ci credo.
Mi piacerebbe sentire l'opinione di chi si occupa di grafica nei vg, con tutto il rispetto per voi eh
Crysis90
09-06-2008, 23:50
tra dx10 VH e dx9 con la modifica c'é tutta sta differenza di fps e non di grafica? Semplice...hanno messo un sacco di effetti pesanti che non si vedono affatto
Si ma poi il problema non è questo, è che in realtà le DX 10 NON ESISTONO!!! E' una boiata di Microsoft, perchè in Very High ci si gioca anke su XP, quindi...:mc: :mc:
Quoto ;)
Premettendo che crysis brilla solamente negli esterni...gli interni sono superati imho da alcuni giochi in circolazione o di prossima uscita.
Quello che secondo me fa arrabbiare la gente, non é solo la pesantezza del motore, ma l' aver fatto leva su una cosa che non esiste: l'ottimizzazione per il multicore/multivga.
Roba che giochi di 3-4 anni fa riescono in modo piú che dignitoso.
Mi ricordo ancora le parole dette da crytek: "Questo gioco vi fará sentire la differenza tra un dualcore e un quadcore", quando a malapena ti accorgi la differenza tra un pentium4 e un core2quad.
Oltre al fatto che non esiste differenza di fps tra interni ed esterni :mbe:
Piú un sacco di altra roba che non sto qui ad elencare...(anzi ne elenco una: perché tra dx10 VH e dx9 con la modifica c'é tutta sta differenza di fps e non di grafica? Semplice...hanno messo un sacco di effetti pesanti che non si vedono affatto)
secondo me crysis è un gioco benchmark fatto per far vendere le 8800GTX in configurazioni triple SLI e basta.
La cosa che mi fa + incazz è che c'è gente che l'ha comprato e che ha preso anche lo SLI di 8800ultra per farcelo girare... :mbe:
belli gli interni di doom3, dove manco le lattine di coca si spostavano se gli sparavi addosso lol
Poi è vero che il quad core non è sfruttato, ma secondo me, manco in d3 è sfruttato, come in nessun altro gioco imho
Che poi la pubblicità fatta, sia stata fuorviante, su questo concordo. Ma pretendere che tutti sti poligoni avrebbero potuto girare meglio se avessero ottimizzato di più, non ci credo.
Mi piacerebbe sentire l'opinione di chi si occupa di grafica nei vg, con tutto il rispetto per voi eh
visto che gli interni di d3 sono ormai penosi, prendiamo quelli di HL2, il source, tra l'altro, è un motore anche più leggero di quello di d3 (forse lo dico perchè ho sempre avuto ATI) e la grafica è veramente ottima ancora oggi.
Non ci sono ragioni LOGICHE del perchè il motore di crysis debba essere così pesante.
Secondo me hanno messo tanta di quella roba inutile, apposta, per far vendere le VGA. Nvidia è ben conscia che ormai tutti i giochi per PC sono porting dalle console, ci voleva un killer game per PC che mettesse in ginocchio le VGA, altrimenti staremmo qua ancora tutti con le x1900 e le 7900 a giocare a tutto a dettagli alti e per questo ha "sponsorizzato" crysis, facendo tra l'altro un favore anche ad AMD, che però ovviamente non ha saputo sfruttare :doh: ...
Si ma poi il problema non è questo, è che in realtà le DX 10 NON ESISTONO!!! E' una boiata di Microsoft, perchè in Very High ci si gioca anke su XP, quindi...:mc: :mc:
Purtroppo devo dissentire.
Le dx10 (e meglio ancora le dx10.1) hanno un sacco di feature in grado di velocizzare la comunicazione gpu-sistema.
A paritá di effetti si dovrebbe avere un percepibile aumento di prestazioni, oppure avere un maggior numero di effetti a paritá di performance con le dx9.
Il vero problema é che vista é poco diffuso e i programmatori sono troppo abituati con le dx9.
Il primo punto implica che non ci siano giochi dx10 nativi immessi sul mercato, con conseguente path del gioco in dx9 adattato alle dx10 (con evidente calo di performance e meno evidenti migliorie grafiche).
Il secondo invece implica che i programmatori non si siano ancora abituati a programmare in dx10 (che é abbastanza diverso), e tornando al punto 1, non vogliono perdere tempo e dedicarsi a qualcosa che non darebbe profitto.
Azz come sto scrivendo stasera :D
michelgaetano
09-06-2008, 23:59
visto che gli interni di d3 sono ormai penosi, prendiamo quelli di HL2, il source, tra l'altro, è un motore anche più leggero di quello di d3 (forse lo dico perchè ho sempre avuto ATI) e la grafica è veramente ottima ancora oggi.
Non ci sono ragioni LOGICHE del perchè il motore di crysis debba essere così pesante.
Secondo me hanno messo tanta di quella roba inutile, apposta, per far vendere le VGA. Nvidia è ben conscia che ormai tutti i giochi per PC sono porting dalle console, ci voleva un killer game per PC che mettesse in ginocchio le VGA, altrimenti staremmo qua ancora tutti con le x1900 e le 7900 a giocare a tutto a dettagli alti e per questo ha "sponsorizzato" crysis, facendo tra l'altro un favore anche ad AMD, che però ovviamente non ha saputo sfruttare :doh: ...
adoro il source :love:
Purtroppo devo dissentire.
Le dx10 (e meglio ancora le dx10.1) hanno un sacco di feature in grado di velocizzare la comunicazione gpu-sistema.
A paritá di effetti si dovrebbe avere un percepibile aumento di prestazioni, oppure avere un maggior numero di effetti a paritá di performance con le dx9.
Il vero problema é che vista é poco diffuso e i programmatori sono troppo abituati con le dx9.
Il primo punto implica che non ci siano giochi dx10 nativi immessi sul mercato, con conseguente path del gioco in dx9 adattato alle dx10 (con evidente calo di performance e meno evidenti migliorie grafiche).
Il secondo invece implica che i programmatori non si siano ancora abituati a programmare in dx10 (che é abbastanza diverso), e tornando al punto 1, non vogliono perdere tempo a migliorarsi visto che le dx10 non sono diffuse.
Azz come sto scrivendo stasera :D
quoto, IMHO i veri giochi dx10 (che a sto punto spero siano già DX10.1, se NVIDIA VUOLE... :doh: ) li potremmo vedere già nel 2009 visto che le vendite di XP mi pare siano terminate da poco e il prezzo di vista è in costante discesa, così come il prezzo di buone vga DX10 (vedi le HD4850 o le 9800GTX).
paolox86
10-06-2008, 00:01
Si ma poi il problema non è questo, è che in realtà le DX 10 NON ESISTONO!!! E' una boiata di Microsoft, perchè in Very High ci si gioca anke su XP, quindi...:mc: :mc:
Si ma prova a mettere i dettagli very high con dx9 e le prestazioni si dimezzano rispetto al very high dx10.. A dimostrazione del fatto che in realtà le dx10 a parità di effetti riescono un pò a snellire la grafica..
adoro il source :love:
anche io! IMHO è uno dei motori grafici più ottimizzati per PC! Pensa che ho giocato ad HL2 a dettagli alti con una radeon 9200SE 64mb (ovviamente senza AA). Ce ne vorrebbero di motori grafici così!! :)
Mister Tarpone
10-06-2008, 00:01
visto che gli interni di d3 sono ormai penosi, prendiamo quelli di HL2, il source, tra l'altro, è un motore anche più leggero di quello di d3 (forse lo dico perchè ho sempre avuto ATI) e la grafica è veramente ottima ancora oggi.
Non ci sono ragioni LOGICHE del perchè il motore di crysis debba essere così pesante.
Secondo me hanno messo tanta di quella roba inutile, apposta, per far vendere le VGA. Nvidia è ben conscia che ormai tutti i giochi per PC sono porting dalle console, ci voleva un killer game per PC che mettesse in ginocchio le VGA, altrimenti staremmo qua ancora tutti con le x1900 e le 7900 a giocare a tutto a dettagli alti e per questo ha "sponsorizzato" crysis, facendo tra l'altro un favore anche ad AMD, che però ovviamente non ha saputo sfruttare :doh: ...
un motivo c'è ;)
http://img48.imageshack.us/img48/928/crysis2008060922560898sa2.jpg (http://imageshack.us)
http://img512.imageshack.us/img512/2645/cryzb8.jpg (http://imageshack.us)
mica mi vorrai paragonare sta grafica con quella di hl2 eh :asd:
e negli interni arrivo anche a 50fps già con la mia schedina da 105€ ;)
Secondo me hanno messo tanta di quella roba inutile, apposta, per far vendere le VGA. Nvidia è ben conscia che ormai tutti i giochi per PC sono porting dalle console, ci voleva un killer game per PC che mettesse in ginocchio le VGA ...
Ma io questo non lo contesto. Non sono d'accordo su chi dice che il gioco non sia ottimizzato. Poi, sul fatto che le baracche cadano a pezzi a causa di una bomba, si può anche dire che sia inutile e che ci si possa divertire anche con case che manco se gli tiri un atomica vengono scalfite :D
michelgaetano
10-06-2008, 00:07
beh il source è molto più vecchio, ma è leggerissimo, e la resa grafica è tutt'altro che scarsa! :D
http://www.pctunerup.com/up/results/_200806/th_20080610000621_eyecandy1.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080610000621_eyecandy1.jpg)
A suo tempo rimasi basito, e tutt'ora con Ep. 2 mi è piaciuto tantissimo (ho già citato la leggerezza, AA e AF maxati di brutto a 1680*1050 tutto al massimo, bellissimo :D )
poi sarà l'ambientazione che imo è superiore... :D
Mister Tarpone
10-06-2008, 00:10
azz effettivamente se si guarda quell'immagine è bello pure hl2...
ma non è ai livelli di crysis...
neanche l'acqua.. anche se è bella pure nel gioco della valve....
poi non parliamo della vegetazione che è ridicola (in 2d) rispetto a quella di Crysis.. :asd:
idem il numero di poligoni... nettamente + basso..
anche io! IMHO è uno dei motori grafici più ottimizzati per PC! Pensa che ho giocato ad HL2 a dettagli alti con una radeon 9200SE 64mb (ovviamente senza AA). Ce ne vorrebbero di motori grafici così!! :)
Un motore grafico dove il fuoco è una gif bidimensionale e gli edifici sono tipo quelli di cinecittà (solo un poligono per fare la facciata e dietro niente lol) è sicuramente un gran motore... moooolto ottimizzato :D
Mister Tarpone
10-06-2008, 00:13
Un motore grafico dove il fuoco è una gif bidimensionale e gli edifici sono tipo quelli di cinecittà (solo un poligono per fare la facciata e dietro niente lol) è sicuramente un gran motore... moooolto ottimizzato :D
quotone..
in crysis tutto quello che vedi è raggiungibile....
non sono mica immagini "finte" come in hl2... messe li per decorare lo sfondo :asd:
beh il source è molto più vecchio, ma è leggerissimo, e la resa grafica è tutt'altro che scarsa! :D
http://www.pctunerup.com/up/results/_200806/th_20080610000621_eyecandy1.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080610000621_eyecandy1.jpg)
A suo tempo rimasi basito, e tutt'ora con Ep. 2 mi è piaciuto tantissimo (ho già citato la leggerezza, AA e AF maxati di brutto a 1680*1050 tutto al massimo, bellissimo :D )
poi sarà l'ambientazione che imo è superiore... :D
quoto, è ovvio che il motore di crysis come grafica sia superiore (e ci mancherebbe altro!) ma come rapporto dettagli/pesantezza il source rimane tuttora imbattibile, IMHO e quello di crysis è il peggiore da questo PDV.
P.s.: il motore di COD4 non è niente male, certo, non è come crysis, ma è OGGETTIVAMENTE un bel motore grafico, superiore al source, ed è molto leggero, tant'è che quello di cod2 e quello di cod4 + o - fanno gli stessi FPS sul mio sistema!! Questa si che è OTTIMIZZAZIONE. :)
-noxius-
10-06-2008, 00:16
Si ma prova a mettere i dettagli very high con dx9 e le prestazioni si dimezzano rispetto al very high dx10.. A dimostrazione del fatto che in realtà le dx10 a parità di effetti riescono un pò a snellire la grafica..
Cosa ? E questo da dove salta fuori ?
Una 8800gt su vista 1280x1024 VH genera 12 fps, su xp con i 118 Cvar su 120 del VH ne ottenevo 22 , a default :read: . Non è che le DX10 non esistono (tra l'altro credo che tu abbia letto una mia frase precedente e maleinterpretata pesantemente .. :rolleyes: ) , è IN CRYSIS che non le hanno messe , sponsorizzando le dx9.0c per tali --> VISTA .
Il problema è che crysis non è dx10 nativo ed oltre a questo di dx10 non ha proprio nulla (andatevi a vedere i Cvar , basta un attimo ) . E' come se fosse stalker con 10.000 più opzioni , ti credo che è pesantissimo ; quando renderanno compatibile il cryengine 2 con un utilizzo massivo di dx10 allora le cose cambieranno, ma non ora !
Discorso diverso per COH e tutto il resto, anche se alla fine pure lì qualche dubbio mi sorge .. Diciamo che hanno fatto un pò troppa propaganda per le dx10 , però la colpa è di VISTA ; l'unico sistema operativo che invece di far girare le applicazioni deve prima fare i conti con sè stesso, rallentando tutto all'inverosimile .. E' assurdo che su XP vada così più veloce che su vista , e questa sarebbe ottimizzazione ?
P.s.: il motore di COD4 non è niente male, certo, non è come crysis, ma è OGGETTIVAMENTE un bel motore grafico, superiore al source, ed è molto leggero, tant'è che quello di cod2 e quello di cod4 + o - fanno gli stessi FPS sul mio sistema!! Questa si che è OTTIMIZZAZIONE. :)
E ti credo !! Il motore grafico è praticamente lo stesso , più qualche piccolo aggiornamento ed effetto di luce :doh: (livello della nave nella tempesta, avete provato a guardare l'oceano ? Avete provato a guardare l'erba a 70-80 mt ? E' la stessa di crysis su medium .. )
michelgaetano
10-06-2008, 00:16
Bello è bello, giocarlo è anche meglio, ma a me piace troppo HL e sono quasi di parte ^^
Crysis è magnifico, ma davvero, certe volte deprime per quanto pesante.
Source, UE 3 e CoD 4 insegnano a mio avviso: come si dice:"Tanta resa, poca spesa" :)
Aaaah...basterebbero 10 fps in più... :(
Mister Tarpone
10-06-2008, 00:18
purtroppo crysis fa un pò girare le palle durante le battaglie piene di soldati esplosioni ecc.... ma è anche vero che in quelle scene è ancor + inarrivabile... non esiste proprio niente di superiore...
cmq oh!! io nonostante abbia visto e finito crysis, continuo lo stesso a rimanere stupito dei giochi che escono... tipo ultimamente mi ha colpito tanto anche devil may cry 4... è inferiore graficamente a Crysis.... ma nel complesso è sempre bellissimo.. poi ha stile..
frankdan
10-06-2008, 00:22
Quindi chi ha un Enermax Liberty 620W come me,per far andare le gtx 280 l'ali dovrà cambiarlo o no ?
up...vorrei chiarirmi le idee...
Mister Tarpone
10-06-2008, 00:23
Bello è bello, giocarlo è anche meglio, ma a me piace troppo HL e sono quasi di parte ^^
come motore grafico a me piace + quello di far cry... imho è + avanti rispetto a quello di hl2...
quoto, è ovvio che il motore di crysis come grafica sia superiore (e ci mancherebbe altro!) ma come rapporto dettagli/pesantezza il source rimane tuttora imbattibile, IMHO e quello di crysis è il peggiore da questo PDV.
P.s.: il motore di COD4 non è niente male, certo, non è come crysis, ma è OGGETTIVAMENTE un bel motore grafico, superiore al source, ed è molto leggero, tant'è che quello di cod2 e quello di cod4 + o - fanno gli stessi FPS sul mio sistema!! Questa si che è OTTIMIZZAZIONE. :)
Ahhh cod_script_4 :D phhhorte :D:D:D
Io non parlo di definizione delle texture. Parlo della possibilità di spaccare tutto con qualsiasi arma (relativamente alla potenza), parlo di fisica applicata a tutto e non solo a bidoni da sovrapporre con la gravity gun per saltare un ostacolo o a muri distruttibili perchè si DEVE passare per di lì, mentre tutto il resto non si può scalfire :D
come motore grafico a me piace + quello di far cry... imho è + avanti rispetto a quello di hl2...
Vedere il cielo al tramonto sul veicolo acquatico (con tutti i riflessi del cielo in acqua) in HL2 al suo tempo mi diede una sensazione di stupore e incredulitá che fino ad oggi non ho piú provato...neanche con crysis :eek:
Roba da far venire le lacrime agli occhi :D
Che poi si possano creare giochi molto divertenti e appaganti anche senza tutta questa interattività, sono d'accordo :)
Mister Tarpone
10-06-2008, 00:28
Vedere il cielo al tramonto sul veicolo acquatico (con tutti i riflessi del cielo in acqua) in HL2 al suo tempo mi diede una sensazione di stupore e incredulitá che fino ad oggi non ho piú provato...neanche con crysis :eek:
Roba da far venire le lacrime agli occhi :D
naaaa.... a me colpì molto di + far cry rispetto ad hl2..... e con Crysis non c'è proprio confronto..
cmq son gusti..
crysis ha l'unico difetto che è ingiocabile anche con schede video da 600 euro a quanto pare.....poi se andasse a 60fps come altri giochi tipo bioshock e hl2 un tempo sarebbe stratosferico, pero a 30fps non rende molto anche perche i cali di frame rate nelle sparatorie si fanno sentire assai....chissa come andra l'espansione
tufogiulia
10-06-2008, 00:29
io penso che chi a preso la 9800gx2 compreso me non ha fatto una cazzata
intando chi prende questa scheda fa una cazzata perche tra non molto uscira la versione a 55 nano quindi piu potenza e meno consumi poi aspettiamo i bench e poi tiriamo le somme adesso sono solo chiacchiere non ufficiali la gtx280 sara piu veloce di poco + del 20% e questa sarebbe la nuova generazione di schede video :rolleyes: :D :ciapet:
Mister Tarpone
10-06-2008, 00:31
Discorso diverso per COH e tutto il resto, anche se alla fine pure lì qualche dubbio mi sorge .. Diciamo che hanno fatto un pò troppa propaganda per le dx10 , però la colpa è di VISTA ; l'unico sistema operativo che invece di far girare le applicazioni deve prima fare i conti con sè stesso, rallentando tutto all'inverosimile .. E' assurdo che su XP vada così più veloce che su vista , e questa sarebbe ottimizzazione ?
straquoto :mad: :mad: :mad:
naaaa.... a me colpì molto di + far cry rispetto ad hl2..... e con Crysis non c'è proprio confronto..
cmq son gusti..
Certo che non sono confrontabili :D
Parlo della sensazione che mi ha causato il motore di HL2.
Vedere quei riflessi e quel tramonto (che ti giuro, erano uno scenario semplicemente appagante) era un qualcosa di talmente nuovo che rimasi molto colpito...e il tutto con una 9500@9700pro...
La grafica di crysis é sicuramente insuperata (sia come bellezza che come pesantezza), ma secondo me non c'é stato quello stacco netto che secondo me half-life 2 ha determinato nel 2004.
io penso che chi a preso la 9800gx2 compreso me non ha fatto una cazzata
intando chi prende questa scheda fa una cazzata perche tra non molto uscira la versione a 55 nano quindi piu potenza e meno consumi poi aspettiamo i bench e poi tiriamo le somme adesso sono solo chiacchiere non ufficiali la gtx280 sara piu veloce di poco + del 20% e questa sarebbe la nuova generazione di schede video :rolleyes: :D :ciapet:
secondo me l'unica cosa che conviene fare è o il crossfire o lo sli di schede video che costano poco tipo la 9600gt oppure 4850 quando uscira per avere prestazioni decenti....i 600 euro ora come ora non convengono assai anche perche un boost prestazionale del 50-60% atteso dalla gtx280 rispetto alla gx2 non c'è...in caso contrario mi rimangio tutto anche se ne dubito fortemente
Mister Tarpone
10-06-2008, 00:37
La grafica di crysis é sicuramente insuperata (sia come bellezza che come pesantezza), ma secondo me non c'é stato quello stacco netto che secondo me half-life 2 ha determinato nel 2004.
lo stacco netto nel 2004 ci fu più con far cry (che uscì pure prima) che con hl2...
Con una 9800pro 512mb di ram e pentium4 a 2.6ghz girava bene con i filtri (aa4x af16x) a palla a 1024x768... e vedere quei scenari vasti e completamente esplorabili al tramonto, di notte ecc.... era proprio da mascella per terra.. :asd:
tufogiulia
10-06-2008, 00:39
qua se non si è capito conviene fare crossfire o sli di schede video che costano poco 9600gt oppure 4850 quando uscira per avere prestazioni decenti....i 600 euro ora come ora non convengono assai anche perche il boost prestazionale del 50-60% atteso dalla gtx280 rispetto alla gx2 non c'è...in caso contrario mi rimangio tutto anche se ne dubito fortemente
questo e stato il mio ultimo acquisto di sceda video(9800gx2) ed ora in poi se non uscira una scheda video ingrado di far girare crysis a manetta(60fps1680x1050 very high senza cali di frame) nvidia non vedra piu un soldo da me :O :fuck:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.