View Full Version : NVIDIA GeForce 8800 GTX e GTS in SLI
Redazione di Hardware Upg
08-12-2006, 15:38
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1616/index.html
4 schede video GeForce 8800 GTX e GTS, prodotte da XFX, Gainward e Foxconn, per analizzare quali siano i margini prestazionali delle nuove architetture video NVIDIA top di gamma quando utilizzate in configurazione SLI. Si ottiene un sistema molto costoso, ma estremamente veloce
Click sul link per visualizzare l'articolo.
pasqualesteve
08-12-2006, 15:45
Ottima recensione come sempre ormai!!
Comunque il bus di memoria della 8800gts è sbagliato.
Mi sembra che SLi comincia a rendere ora... :)
ThePunisher
08-12-2006, 15:57
Ottima recensione! :D
Un bel passo in avanti rispetto allo sli con GF7xx0.
L' incremento medio finalmente si assesta quasi sul radddoppio delle prestazioni specie con la GTS dacchè la potenza di 2 8800GTX è frenata da qualsiasi risoluzione.
capitan_crasy
08-12-2006, 16:02
Per fornire ulteriori informazioni circa il comportamento di queste schede video ai possessori di schermi LCD d 19 pollici di diagonale con risoluzione video massima di 1280x1024, sono stati eseguiti alcuni test anche a questa risoluzione, riportati in un capitolo a parte della recensione.
Un super Grazie da parte mia!!! :winner:
masicuro
08-12-2006, 16:11
già che ci sono compro una piattaforma che monta 4 gpu e spendo 4 milioni solo per le sk video.. ah dimenticavo.. prima di accendere il pc dovrò controllare prima di aver chiuso bene il forno/microonde, stereo, tv, dvd ecc ecc.. altrimenti andrà via la corrente:lol:
trapanator
08-12-2006, 16:15
posso chiedervi una cosa ? Che senso ha pompare, pompare, pompare e pompare di nuovo l'hardware per ringraziare l'ENEL...
piuttosto chiedetevi come mai non nevica quest'anno, il circolo polare artico si sta restringendo...
e queste soluzioni battono record su record i consumi...
che vergogna.
markus_81
08-12-2006, 16:17
già che ci sono compro una piattaforma che monta 4 gpu e spendo 4 milioni solo per le sk video.. ah dimenticavo.. prima di accendere il pc dovrò controllare prima di aver chiuso bene il forno/microonde, stereo, tv, dvd ecc ecc.. altrimenti andrà via la corrente:lol:
non dimenticarti un nuovo monitor da almeno 1500€ necessario per poter sfruttare tutto ciò :D
finalmente test a risoluzioni umane che dimostrano l'inutilità di queste schede al momento attuale per la maggior parte degli utenti...
MiKeLezZ
08-12-2006, 16:21
già che ci sono compro una piattaforma che monta 4 gpu e spendo 4 milioni solo per le sk video.. ah dimenticavo.. prima di accendere il pc dovrò controllare prima di aver chiuso bene il forno/microonde, stereo, tv, dvd ecc ecc.. altrimenti andrà via la corrente:lol:
Uno che spende tutti questi soldi non vedo per quale assurdo motivo non cambi anche il contratto ENEL per innalzare il tetto massimo disponibile a 4,5kW (operazione che ben poco inciderà sui costi) e quindi non avere nessuno dei problemi che hai elencato.......................
markus_81
08-12-2006, 16:22
una cosa che non ho capito è perchè se questa configurazione, processore intel extreme 6800,schede in sli, 2gb di ram, etc etc ( quindi il top del mercato in questo momento), richiede in full load 460W vengano richiesti alimentatori da 800-1000W..non ne basterebbe uno da poco più di 500????? :confused: :stordita:
oppure un secondo hd e un masterizzatore dvd consumano 400W???? :mc:
Guardato velocemente l'articolo, ma secondo me c'è qualcosa che nn va nel consumo, come può esserci una differenza di 140 e oltre watt con una o due schede in idle? :mbe:
MiKeLezZ
08-12-2006, 16:25
una cosa che non ho capito è perchè se questa configurazione, processore intel extreme 6800,schede in sli, 2gb di ram, etc etc ( quindi il top del mercato in questo momento), richiede in full load 460W vengano richiesti alimentatori da 800-1000W..non ne basterebbe uno da poco più di 500????? :confused: :stordita:
certo, nella realtà i 500W basterebbero (seppur al limite), i 600W sarebbero quelli consigliati, e gli 800W-1000W si capisce bene siano solo "quelli per pararsi il culo"....... sia dai niubbi che dai costruttori di alimentatori di scarsa qualità
Dumah Brazorf
08-12-2006, 16:40
464VA, mica male...
Su una piattaforma 4x4 quanto sarà? Oltre 600VA? Chi fa 2 calcolini? :asd:
ottima rece :ave:
che spettacolo quel dellone da 30" :sofico:
Dumah Brazorf
08-12-2006, 16:51
Mmm... mi sa che si sforano anche i 700...
piccolo errore, in prima pagina, in cui si attribuiscono 640 Gbytes di vram alla GTS, nel penultimo paragrafo... per i 640 GB di vram dobbiamo aspettare ancora una 15ina di anni :D
A vedere questi test la 8800GTS ne esce con le ossa rotte.
scusate eh..ma per giocare non esistono le consolle?
Wilfrick
08-12-2006, 17:12
Si, va beh... consumi consumi consumi... non è con due schede video che si scioglie il ghiaccio in antartide! Anzichè guardare ai 400 watt usati magari una o due ore al giorno bisognerebbe lamentarsi per un sacco di altre cose... perchè non andate a dire (per esempio, visto che è una cosa molto più facile che raggiungere i politici a roma) a qualche amico assessore nel paesello in cui si vive perchè mettono i lampioni ogni 3 metri per strada, o perchè illuminano tutta notte una merdosissima statua moderna nell'angolo di due vie dove non passa nessuno, ecc ecc ecc.
Non credo proprio che siano le schede in sli a causare problemi all'ambiente.
eta_beta
08-12-2006, 17:36
oppure perché non si coibentano le case come si deve
Snickers
08-12-2006, 17:37
Alla luce delle prestazioni della 8.8K GTX, penso possano essere veritiera le voci che danno Free Antialiasing su R600.
Wilfrick
08-12-2006, 18:05
Cosa significa "free antialias"? Che puoi settarlo a XXx? (hem... ics ics per)
urca veramente gia con l'ultiam generazione di dx9 ma con queste prime dx10 altro che cpu limited siamo in condizione di monitor limited.
quindi se oltre i 900E per fare lo sli o il cf bisognerà tener contro anche dell'acquisto di un monitor da almeno 500E...
cmq fare un sistema sli o cf è davvero troppo esoso io da 2 x1950pro sto pensando di ritornare al single vga
oppure perché non si coibentano le case come si deve
e le si riscaldano ad energia elettrica con stufette da 2000 watt
bonzuccio
08-12-2006, 18:29
A vedere questi test la 8800GTS ne esce con le ossa rotte.
Si.. concordo, anche nella prima rece si evidenziavaquesto fatto..
ma questa seconda "passata" mi da molto da pensare:
inizio a credere cioè che a livelo di scalability questo g80 è una CIOFECA, la gts (con dx9 ok) diventa cioè una scheda quasi "normale" che si confonde tra le vecchie architetture ati ed nvidia..
scenari apocalittici mi sovvengono con una fascia medio bassa sotto tono rispetto a r600.. ma a sto punto anche alta (per chi chiama l'enel e si fa i 4,5 KW).. BAH!!!
Menzione speciale alle x1950 che in sli mettono ancora paura
JohnPetrucci
08-12-2006, 18:33
Mi è piaciuta l'aggiunta della risoluzione "umana" a cui giocano in molti(se non la maggior parte) di 1280x1024.
Cmq per un anno ancora mi tengo la mia cara 1800xt che il suo lavoro lo fa ancora bene, poi deciderò.
Di sicuro per il monitor da 30" per poter sfruttare al meglio queste schede se ne parlerà tra 3-4 anni per quanto mi riguarda e forse ancor di più visti i prezzi.
nonikname
08-12-2006, 18:37
Alla luce delle prestazioni della 8.8K GTX, penso possano essere veritiera le voci che danno Free Antialiasing su R600.
A che risoluzione ?? Es. : per essere free AA4x a 2560 deve come minimo avere 16MByte di ram embedded ...( e la soglia del miliardo di transistor è bella che passata...:D )
E soprattutto , dove hai comprato la sfera di cristallo???
A vedere questi test la 8800GTS ne esce con le ossa rotte.
E' una scheda che va come una 1900xtx ma è anche DX10 ... e di sicuro , dopo natale , costerà come la 1900xtx...
Boh.. chissà se abbiamo letto la stessa recensione??? (che fra l'altro è veramente ben fatta)
LightForce
08-12-2006, 18:56
:oink: :oink:
hardstyler
08-12-2006, 19:17
SPLENDIDA!!! SPLENDIDA SIA IN SINGOLO CHE IN SLI!!!!.....certo i prezzi non sono alla portata di tutti....vista poi la config.....6800....mica un p4 3ghz single core!!!
hardstyler
08-12-2006, 19:20
quanto vorrei quella config in SLI!!!!! monitor compreso!!! ciò che invece non mi piace è l'alimentatore....1100watt...per carità non li farà tutti sempre e comunque però sono 1100 watt che anche in semplice standby consumano comunque di più del mio enermax da 485.....per standby intendo sia quando il pc è spento e nel mio caso le ventole dell'ali girano ancora finchè non diminuisce la temperatura interna che nel caso in cui imposti via WINDOZ il standby.
1300€.....tra qualche mese scenderanno di molto, ormai non conviene più prendere schede video estreme....! :read:
Non trascuriamo le "basse" risoluzioni di 1280 e se possibile 1024.. altrimenti come facciamo a confreontare?
cmq è un bene che siano già uscite queste superpotenze.. :D
Kharonte85
08-12-2006, 21:30
Un bel passo in avanti rispetto allo sli con GF7xx0.
L' incremento medio finalmente si assesta quasi sul radddoppio delle prestazioni
Infatti...secondo me questo è il dato piu' significativo... ;)
E impressionante :eek:
raga secondo me si esagera con la preoccupazione che oramai le risoluzioni 1280 siano troppo poco...e che ci vuole un supermonitor per godere appieno della potenza di ste schede...
questo potra essere vero per i giochi di ora e quelli vecchi, ma secondo me tra qualche mese quando inizieranno a uscire i giochi SERI in dx10, la risoluzione 1280 tornera ad essere lo standard piu diffuso...
redaxelfoley
08-12-2006, 21:51
lol...ram potentissime - skede sli/cross da paura - cpu QUAD CORE - Velocissimi Chipset 975x e nFORCE - e hard disk ke fanno letteralmente fottere dalle risate.
Ma quand'è ke la finite di prenderci x il culo e inkominciate a produrre nuovi hard disk più performanti? Altro ke raid 0/1/0+1/5 tzè
lol...ram potentissime - skede sli/cross da paura - cpu QUAD CORE - Velocissimi Chipset 975x e nFORCE - e hard disk ke fanno letteralmente fottere dalle risate.
Ma quand'è ke la finite di prenderci x il culo e inkominciate a produrre nuovi hard disk più performanti? Altro ke raid 0/1/0+1/5 tzè
beh...ci siamo quasi....pero costeranno come un ferrari all'inizio... :cry:
quanto vorrei quella config in SLI!!!!! monitor compreso!!! ciò che invece non mi piace è l'alimentatore....1100watt...per carità non li farà tutti sempre e comunque però sono 1100 watt che anche in semplice standby consumano comunque di più del mio enermax da 485.....per standby intendo sia quando il pc è spento e nel mio caso le ventole dell'ali girano ancora finchè non diminuisce la temperatura interna che nel caso in cui imposti via WINDOZ il standby.
il consumo è lo stesso...+o-
per il calore è lopposto semmai si scaldera di meno a parita di potenza sfruttata rispetto al tuo.
Vedere la mia nuova 8800GTX che va mediamente piu veloce di uno sli di 7900 mi impizza :D
Ringrazio la redazione per aver accolto la richieste di alcuni utenti per avere i test a 1280!
MiKeLezZ
08-12-2006, 23:01
Si, va beh... consumi consumi consumi... non è con due schede video che si scioglie il ghiaccio in antartide! Anzichè guardare ai 400 watt usati magari una o due ore al giorno bisognerebbe lamentarsi per un sacco di altre cose... perchè non andate a dire (per esempio, visto che è una cosa molto più facile che raggiungere i politici a roma) a qualche amico assessore nel paesello in cui si vive perchè mettono i lampioni ogni 3 metri per strada, o perchè illuminano tutta notte una merdosissima statua moderna nell'angolo di due vie dove non passa nessuno, ecc ecc ecc.
Non credo proprio che siano le schede in sli a causare problemi all'ambiente.Oddio, mi pare difficile pensare anche la colpa sia tutta delle luci stradali......... Le lampade usate sono le migliori in assoluto (o quasi) come efficienza luminosa, meglio di CCFL, e anche di Xenon
Il problema sono i milioni di automobilisti che ogni giorno mettono il culo sul sedile invece che usare i mezzi pubblici, dividere i passaggi, usare la bici
Poi ci si lamenta che le grandi aziende facciano cartello al prezzo della benzina
A me non pare che la GTS ne esca con le ossa rotte, anzi.
Visti inoltre gli ottimi test condotti dal buon Corsini, a meno che R600 non mi stupisca veramente, passerò ad un SLI per i titoli dx10.
Ciauz
Io non riesco a capire chi può giocare a quelle risoluzioni! Io con la mia 7800 GTX e un AMD64-4000+, con certi giochi non posso tenere i dettagli tutti al max altrimenti rischio di perdere fps! Mi chiedo per giocare a 2000 e passa di risoluzione come possa andare il gioco.
Inoltre mi sembra di aver capito che per una risoluzione di 1600 su un LCD ci vuole almeno un 19 pollici (forse). Con il vecchio tubo catodico c'è qualche 17. Su un 19 pollici si può arrivare a 1920 ma a 2500 di risoluzione che monitor ci vuole???
markus_81
09-12-2006, 00:59
Io non riesco a capire chi può giocare a quelle risoluzioni! Io con la mia 7800 GTX e un AMD64-4000+, con certi giochi non posso tenere i dettagli tutti al max altrimenti rischio di perdere fps! Mi chiedo per giocare a 2000 e passa di risoluzione come possa andare il gioco.
Inoltre mi sembra di aver capito che per una risoluzione di 1600 su un LCD ci vuole almeno un 19 pollici (forse). Con il vecchio tubo catodico c'è qualche 17. Su un 19 pollici si può arrivare a 1920 ma a 2500 di risoluzione che monitor ci vuole???
Lui :read:
http://accessories.euro.dell.com/sna/productdetail.aspx?c=it&l=it&sku=52658&category_id=6198&first=true&s=dhs&cs=itdhs1
Lui :read:
http://accessories.euro.dell.com/sna/productdetail.aspx?c=it&l=it&sku=52658&category_id=6198&first=true&s=dhs&cs=itdhs1
:ave:
guarda ero proprio sul sito della dell italia per vedere il monitor!
1900€ per un monitor di 30 pollici!!!!
Forse a quella risoluzione ci gira solo lo staff di Hw. Magari potessi prenderlo anche io, ma mi sembra esagerato.
A questo punto conviene prendere quello da 24 pollici, costa 809€ e ha una risoluzione di 1920*1200, che direi più che accettabile
bonzuccio
09-12-2006, 01:06
A me non pare che la GTS ne esca con le ossa rotte, anzi.
Visti inoltre gli ottimi test condotti dal buon Corsini, a meno che R600 non mi stupisca veramente, passerò ad un SLI per i titoli dx10.
Ciauz
Scusa ma se guardi i grafici si vede comela 8800gts mi pare fosse ultima in half life 2, in cal of duty.. dopo la 7900 e come fosse sotto in fear, x3.. e non è che sono 10 i giochi provati sono meno mi pare :read:
bonzuccio
09-12-2006, 01:13
In FEAR (che parla da solo) è penultima leggerissimamente sopra alla 7900.. cioè se questa è la fascia media dei giochi di domani siamo messi malino.. poi posso pure sbagliarmi
capitan_crasy
09-12-2006, 01:29
lol...ram potentissime - skede sli/cross da paura - cpu QUAD CORE - Velocissimi Chipset 975x e nFORCE - e hard disk ke fanno letteralmente fottere dalle risate.
Ma quand'è ke la finite di prenderci x il culo e inkominciate a produrre nuovi hard disk più performanti? Altro ke raid 0/1/0+1/5 tzè
se hai un metodo che non comporti testine, dischi e meccanica...
Che abbia un basso costo con capacità e prestazioni elevate bussa pure alla porta di Seagate o simili e proponi le tue idee rivoluzionarie... :cool:
Ho il 24 pollici LCD e giocare a 1900x1200, non e' semplice con le schede attuali. Ci vuole poco ad andare sotto i 60 fps con i dettagli al massimo.
Spesso si deve rinunciare a qualche dettaglio per non perdere in fluidita'.
Naturalmente con le nuove stufette grafiche :-) questo limite sara' superato!
Lud von Pipper
09-12-2006, 03:48
Lui :read:
http://accessories.euro.dell.com/sna/productdetail.aspx?c=it&l=it&sku=52658&category_id=6198&first=true&s=dhs&cs=itdhs1
Lui (http://www.amazon.com/HP-LP3065-12ms-1000-Black%25b7Silver/dp/B000KI9W74), Lui (http://store.apple.com/Apple/WebObjects/italystore.woa/6754043/wa/PSLID?mco=D5BB854C&nclm=AppleDisplays&wosid=Jl2ocUJnOqmu21ppkZpOP75COl9), o il migliore di tutti: Lui (http://www.xyzcomputing.com/index.php?option=content&task=view&id=810)
Grave Digger
09-12-2006, 09:32
raga secondo me si esagera con la preoccupazione che oramai le risoluzioni 1280 siano troppo poco...e che ci vuole un supermonitor per godere appieno della potenza di ste schede...
questo potra essere vero per i giochi di ora e quelli vecchi, ma secondo me tra qualche mese quando inizieranno a uscire i giochi SERI in dx10, la risoluzione 1280 tornera ad essere lo standard piu diffuso...
quoto,chissà perchè stig finora è l'unico ad avere fatto una considerazione sensata,tra decine di migliaia di utenti :rolleyes: ????a mio modesto parere il carico maggiore che dovranno sopportare le schede in ambito dx10 comporterà un assestamento su risoluzioni più umane riallineandosi con le gerazioni precedenti,in singola scheda ovviamente,con una complessità maggiore dello scenario......
ed inoltre la 8800 gts non esce con le ossa rotte,i driver sono quello che sono,diciamocelo,e ancora non si è potuto constatare la bontà di queste schede nei giochi per cui sono state progettate.......
bonzuccio
09-12-2006, 10:56
ed inoltre la 8800 gts non esce con le ossa rotte,i driver sono quello che sono,diciamocelo,e ancora non si è potuto constatare la bontà di queste schede nei giochi per cui sono state progettate.......
potrebbero infatti garantire un supporto nativo che potrebbe rivelarsi solo PARZIALE per problematiche non ancora testabili su dx10..
credo di aver esposto tutti i miei dubbi spero sensati :Prrr:
In FEAR (che parla da solo) è penultima leggerissimamente sopra alla 7900.. cioè se questa è la fascia media dei giochi di domani siamo messi malino.. poi posso pure sbagliarmi
Beh queste sono le prime release dei drivers per G80, con le prossime e con vista secondo me le cose cambieranno parecchio, cmq per questo si vedrà.
Soprattutto in SLI, che è quello che mi interessava, mi pare renda parecchio.
Inoltre il 90% delle GTS regge tranquillamente 600/650mhz di core e quasi 2000mhz per le ram, raggiungendo i risultati della gtx (basta vedere un pò di prove in rete).
Cmq in tutti i test, imho, bisognerebbe mostrare anche i frames minimi raggiunti dalle schede (come in fear) e non solo i medi, che non danno una vera idea della resa delle varie gpu.
Ciauz
Grave Digger
09-12-2006, 11:14
quoto frmus,c'è da dire che però le due vga differiscono per il numero di shader,e lì c'è ben poco da sperimentare.....credo che i tempi delle vga moddate sia finito :( ,queste nuove architetture diversificate hanno dichiarato guerra a noi "moddatori"....
bonzuccio
09-12-2006, 11:35
Si ma siete sempre voi a quotarvi manca solo Nemesis e si possono mettere le palline all'albero :asd:
CosasNostras
09-12-2006, 11:35
riconfermano che serve un monitor ad alte ris.
chi è quello che con na 8800 gioca con la classica ris 1280x1024 su un 19" ?? :rolleyes: :rolleyes: :rolleyes:
serve almeno un 20" 1600x1200...
per quanto riguarda la versione GTS....in oc raggiunge tranquillamente la GTX ..chi se ne fut set se "architetturalmente" è meno "riuscita"?Ciò che conta è renda come la GTX
Grave Digger
09-12-2006, 11:45
Si ma siete sempre voi a quotarvi manca solo Nemesis e si possono mettere le palline all'albero :asd:
:confused: si fino ad ora sono state dette cose grosso modo sensate,che ci possiamo fare :mbe: ???
zanardi84
09-12-2006, 11:46
Ottima recensione!
Ma questi risultati sono una vittoria di Pirro. E' la più veloce in DX9 e in OpenGL (capirai che sforzo), ma con le DX10?
Secondo me è una scheda uscita prematuramente.
Quando ci saranno i veri giochi DX10 probabilmente nVidia avrà già lanciato il nuovo modello evoluto, e questa passerà nel dimenticatoio, quasi come la FX5800, scheda assolutamente anonima se non per il triste record di rumorosità.
Insomma, AMD/ATI ha tutto il tempo per apportare modifiche alla propria soluzione DX10 nel caso si accorgesse che la concorrenza ha qualcosa di speciale. E questo sarebbe un vantaggio non da poco.
bonzuccio
09-12-2006, 11:54
Cioè nel senso che voi dite cose sensate e io ne dico di insensate.. chiedersi se spendere 5-600 euri è sensato o no adesso è una cosa insensata.. sto mettendo i pacchi sotto l'albero ma quest'anno niente da mettere nel case :asd:
per quanto riguarda la versione GTS....in oc raggiunge tranquillamente la GTX ..chi se ne fut set se "architetturalmente" è meno "riuscita"?Ciò che conta è renda come la GTX
Anche se la mandi alle stesse frequenze nn renderà mai come la gtx :D
bonzuccio
09-12-2006, 11:57
Ottima recensione!
Ma questi risultati sono una vittoria di Pirro. E' la più veloce in DX9 e in OpenGL (capirai che sforzo), ma con le DX10?
Secondo me è una scheda uscita prematuramente.
Quando ci saranno i veri giochi DX10 probabilmente nVidia avrà già lanciato il nuovo modello evoluto, e questa passerà nel dimenticatoio, quasi come la FX5800, scheda assolutamente anonima se non per il triste record di rumorosità.
Insomma, AMD/ATI ha tutto il tempo per apportare modifiche alla propria soluzione DX10 nel caso si accorgesse che la concorrenza ha qualcosa di speciale. E questo sarebbe un vantaggio non da poco.
For example io giudico sensato questo post e quindi lo quoto visto che va di moda
Grave Digger
09-12-2006, 11:57
riconfermano che serve un monitor ad alte ris.
chi è quello che con na 8800 gioca con la classica ris 1280x1024 su un 19" ?? :rolleyes: :rolleyes: :rolleyes:
serve almeno un 20" 1600x1200...
per quanto riguarda la versione GTS....in oc raggiunge tranquillamente la GTX ..chi se ne fut set se "architetturalmente" è meno "riuscita"?Ciò che conta è renda come la GTX
appena crescerà la complessità degli scenari e le vga avranno un carico superiore,dovuto anche all'implementazione dx10,si riavrà secondo me un incremento prestazionale con tutto al massimo di uno step di risoluzione,tipo 1920x1600.....altrimenti o la nvidia rinuncia ad una fetta di mercato con monitor standard o abolisce lo sli oppure,siccome il suo sli garantisce tutto al massimo a risoluzioni folli,questa è l'ultima scheda che produce per prossimi 2 anni :rolleyes: .....
per il discorso overclock di cosanostras:
secondo me ciò che dici non sussiste affatto,in quanto con una gts puoi raggiungere una gtx a default se sei bravo,e qui siamo all'acqua calda,ma se occhi una gtx non c'è paragone(vedi bus a 384 bit tra le altre cose e quantitativo di ram installata...)....quindi le architetture sono bloccate e non c'è modo di comprare una gts ed avere una gtx occabile di fatto,in questo sta la proporzionalità delle cose,io intendevo questo ;) ;infatti chi aveva una x850gto ed è passato ad una xt con in più la possibilità di occare tranquillamente(esempio),risparmiando quindi dei soldini,non potrà fare lo stesso con g80,quindi o caccia gli euros o non se ne fà niente :) .....
quindi non confondiamo gtx e gts,sono fondamentalmente due cose diverse:per caratteristiche tecniche,per prestazioni,per costi,per dimensioni
capitan_crasy
09-12-2006, 12:02
riconfermano che serve un monitor ad alte ris.
chi è quello che con na 8800 gioca con la classica ris 1280x1024 su un 19" ?? :rolleyes: :rolleyes: :rolleyes:
serve almeno un 20" 1600x1200...
per quanto riguarda la versione GTS....in oc raggiunge tranquillamente la GTX ..chi se ne fut set se "architetturalmente" è meno "riuscita"?Ciò che conta è renda come la GTX
chiunque abbia un monitor a 19" e una 8800... :D
Grave Digger
09-12-2006, 12:06
chiunque abbia un monitor a 19" e una 8800... :D
:asd:
For example io giudico sensato questo post e quindi lo quoto visto che va di moda
Il quote sarebbe una moda :mbe: ma scherzi o fai sul serio?
500/600 euro?Chi Ti dice quanto ho speso per la GTS?Non tutti hanno i normali canali di acquisto.
Terza cosa: perchè si discute di questo in un thread sullo SLI di G80 ;)?
Io ripeto che bisognerebbe mostrare i frames minimi raggiunti dalle GPU con i vari titoli, e non tanto quelli medi.
Infine mi sembra che l'sli di 2 gts sia buono, se poi quando uscirà R600 supererà tutti in DX10 ben venga e si cambia.
Parlo solo dal punto di vista delle prestazioni, non infiliamoci i soliti commenti sul prezzo, sulle spese o altro...si sa che con l'IT si è solo e costantemente in perdita ;)
Ciauz
bonzuccio
09-12-2006, 12:58
Scusa ma sono un utente iper cinicritico :D
Grave Digger
09-12-2006, 13:00
ok,in futuro però cerchiamo di parlare di patate dove si parla di patate,altrimenti non è più costruttivo ;) ...
senza offesa ovviamente
riconfermano che serve un monitor ad alte ris.
chi è quello che con na 8800 gioca con la classica ris 1280x1024 su un 19" ??
secondo me in molti tra qualche mese....
e secondo me non tanto per scelta...ma perche a risoluzioni maggiori ste schede non riusciranno a mantenere frames elevati con i nuovi giochi next gen....
vi immaginate un ipotetico gears of war su pc a 1920 x 1080 a 40 frames?? io no... :rolleyes:
Scusa ma sono un utente iper cinicritico :D
Ok allora si spiega tutto :D :D
Ciauz
secondo me in molti tra qualche mese....
e secondo me non tanto per scelta...ma perche a risoluzioni maggiori ste schede non riusciranno a mantenere frames elevati...
E' verissimo. E' inutile illudersi di eseguire i primi titoli DX10 a 1920x1200 con dettagli al max ;) Si dovrà diminuire la risoluzione per forza.
Ciauz
aaasssdddfffggg
09-12-2006, 14:12
Figuriamoci chi non ha queste schede!!Dovrà selezionare 800x600.
bonzuccio
09-12-2006, 14:13
ok,in futuro però cerchiamo di parlare di patate dove si parla di patate,altrimenti non è più costruttivo ;) ...
senza offesa ovviamente
Forse intendi dire che qui si parla delle 8800 in sli?
Il discorso non cambia affatto per la gts anche in questo caso ma solitamente si cerca di partire dal semplice e cioè una scheda sola per capire senza mettere la complicazione dello sli.. le risoluzioni alte e lo sli fungono da conferma e non da diversivo
bonzuccio
09-12-2006, 14:23
Poi non lo so la gts ha complessevamente 96 stream processor (unità di calcolo), una 1950 ne ha 56 e non ha una rchitettura unificata, i grafici stanno li e non so se sfido le capacità di astrazione di qualcuno o se dico na bojata pazzesca ma ati potrebbe garantire supporto alle dx10 e con l'architettura unificata (e il processo produttivo + "affinato") non avrebbe bisogno di nessun cambiamento grazie alla banda delle gddr4..
cioè restare con le stesse 56 unità di calcolo contro le 96 e avere prestazioni superiori anche con accesso alla memoria a 256 bit e 512 mega .. vediamo un po
Un componente fondamentale nell'analisi di schede video di così elevata potenza elaborativa è il display: ha infatti poco senso abbinare schede così veloci a risoluzioni video ridotte. La scelta è caduta su una delle due soluzioni attualmente disponibili in commercio capaci di supportare nativamente la risoluzione di 2560x1600 pixel: parliamo del display Dell 3007WFP, soluzione con diagonale da 30 pollici.
Una frase che finalmente trova un MINIMO di senso in questa occasione, testando queste nuove schede in SLI e non singolarmente...
Per fornire ulteriori informazioni circa il comportamento di queste schede video ai possessori di schermi LCD d 19 pollici di diagonale con risoluzione video massima di 1280x1024, sono stati eseguiti alcuni test anche a questa risoluzione, riportati in un capitolo a parte della recensione.
Grazie per aver accolto le richieste di molti... :) comunque non è che esistano solo gli LCD, esistono anche monitor da 17" e 19" CRT che supportano tale risoluzione con refresh ottimale.
La risoluzione video di 1280x1024 è ancora particolarmente diffusa tra gli utenti, a motivo del proliferare di display PCD da 19 pollici di diagonale che hanno tipicamente proprio questa come risoluzione video massima supportata. Ricordiamo nuovamente come sia consigliato abbinare schede di potenza elaborativa così elevata come le più recenti soluzioni NVIDIA della serie GeForce 8800 a display capaci di risoluzioni ben superiori a quella di 1280x1024, così da sfruttarne tutte le potenzialità di elaborazione.
Perchè continuare ad insistere?
Le 8800GTS SLI fanno 34fps (min 26) a 2560x1600 in FEAR, le GTX SLI 62 (min 39).
Le 8800GTS SLI fanno 33,1fps a 2560x1600 in CoD2 e 48,8 a 1920x1200; le GTX SLI fanno 54,7 a 2560x1600 e 63,3 a 1920x1200.
Non mi sembra indice di estrema fluidità... visto che parliamo di un sistema estremamente performante in toto e VGA in SLI.
Grazie, saluti!
ghiltanas
09-12-2006, 15:40
io sono un fortunato possessore dell'elemento + bello e incisivo di questo sistema:
la TASTIERA!!!!!! :D
M.i.c.h.a.e.l.
09-12-2006, 16:22
perchè non testare quaste schede alla risoluzione di 1920x1080?
Con la diffusione dei tv full hd ci saranno sempre + utenti che per farsi una bella partita su 46" collegheranno il pc a questi tv.
Che ne dite?
coschizza
09-12-2006, 16:42
E' verissimo. E' inutile illudersi di eseguire i primi titoli DX10 a 1920x1200 con dettagli al max ;) Si dovrà diminuire la risoluzione per forza.
Ciauz
ma potrebbe capitare anche l'opposto questo perche a parità di gioco e utilizzando il medesimo dettaglio grafico, un gioco fatto girare con il motore nativo directx10 va nettamente piu veloce dello stesso fatto girare con il motore directx9 di oggi.
aaasssdddfffggg
09-12-2006, 16:46
Non ti sembra cosa?Guarda che fare 60 frame a 2560x1600 è uno spettacolo per gli occhi.Comunque precisiamo di nuovo che queste sono schede directx10 ....vuol dire che con le stesse andranno ancora di più semplicmente perchè sono studiate per queste API e non di meno come qualcuno qui ha detto.
incredibile, sono schede molto performanti. Ma come consumano! Oramai bisogna andare verso alimentatori che forniscono potenze >= 850W (per chi si sollazza con lo SLI)
Comunque come fa notare Cloud76 non sembrano fornire una uscita fluida per risoluzioni elevate. Forse è una questione di driver.
lol sentire definire "non fluide" schede che a risoluzioni mostruose non scendono sotto i 30fps quando io con gli ultimi giochi quando sto sopra i 20 festeggio mi ha messo una tristezza immensa :cry:
nessuna polemica eh, visto il prezzo degli articoli trattati dalla rece son discorsi sensatissimi, solo che vi nVidio :P
comunque a me non sembra cosi una ciofeca sta gts, visto quello che costa e il supporto futuro alle dx10 le sue prestazioni mi sembrano più che accettabili.
ma è propio il supporto alle dx10 il punto interrogativo, come sarà? insomma, dovremo aspettare la release al pubblico home di vista o visto che per le aziende è stato già presentato c'è la possibilità di vedere qualcosa anche prima? bench anche in beta ce ne saranno no?
perchè, sarò paranoico io, ma per quello che ne so, su g80 il supporto alle dx10 potrebbe anche essere solo a parole :look:
Ottima rece e mi raccomando, continuate a mettere sempre i consumi nelle rece di vga e cpu :)
aaasssdddfffggg
09-12-2006, 20:28
supporto del g80 per le driectx10 solo a parole?Madonna quanto cazzo di cazzate si sentono qui dentro.Va vi rendete conto di quello che scrivete?Da riferire subito a PAOLO CORSINI : qui la gente entra nei forum senza leggere gli articoli.
CosasNostras
09-12-2006, 20:36
Anche se la mandi alle stesse frequenze nn renderà mai come la gtx :D
bhè ...magari non andrà proprio proprio come la GTX però quasi
CosasNostras
09-12-2006, 20:38
appena crescerà la complessità degli scenari e le vga avranno un carico superiore,dovuto anche all'implementazione dx10,si riavrà secondo me un incremento prestazionale con tutto al massimo di uno step di risoluzione,tipo 1920x1600.....altrimenti o la nvidia rinuncia ad una fetta di mercato con monitor standard o abolisce lo sli oppure,siccome il suo sli garantisce tutto al massimo a risoluzioni folli,questa è l'ultima scheda che produce per prossimi 2 anni :rolleyes: .....
per il discorso overclock di cosanostras:
secondo me ciò che dici non sussiste affatto,in quanto con una gts puoi raggiungere una gtx a default se sei bravo,e qui siamo all'acqua calda,ma se occhi una gtx non c'è paragone(vedi bus a 384 bit tra le altre cose e quantitativo di ram installata...)....quindi le architetture sono bloccate e non c'è modo di comprare una gts ed avere una gtx occabile di fatto,in questo sta la proporzionalità delle cose,io intendevo questo ;) ;infatti chi aveva una x850gto ed è passato ad una xt con in più la possibilità di occare tranquillamente(esempio),risparmiando quindi dei soldini,non potrà fare lo stesso con g80,quindi o caccia gli euros o non se ne fà niente :) .....
quindi non confondiamo gtx e gts,sono fondamentalmente due cose diverse:per caratteristiche tecniche,per prestazioni,per costi,per dimensioni
si si..è chiaro che una gtx occata viaggi molto di più...intendovo che a default la gts si avvicina parecchio ad una gtx default
aaasssdddfffggg
09-12-2006, 21:39
Non è solo un fatto di overclock per raggiungere le prestazioni della 8800GTX.E' un fatto architetturale!Ci sono 96 stream processor contro i 128 della 8800gtx, interfaccia di memoria a 320 bit contro i 384 della gtx e per ultimo abbiamo pure 640M di memoria contro i 768.Questi sono numeri che non è possibile pareggiare.
Non è solo un fatto di overclock per raggiungere le prestazioni della 8800GTX.E' un fatto architetturale!Ci sono 96 stream processor contro i 128 della 8800gtx, interfaccia di memoria a 320 bit contro i 384 della gtx e per ultimo abbiamo pure 640M di memoria contro i 768.Questi sono numeri che non è possibile pareggiare.
esatto! :)
coschizza
09-12-2006, 22:00
perchè, sarò paranoico io, ma per quello che ne so, su g80 il supporto alle dx10 potrebbe anche essere solo a parole :look:
non preoccuparti se vai a confrontare le specifiche directx 10 microsoft e poi quelle introdotte nel g80 vedrai che l'hardware implementa tutte le funzioni ruchieste.
anzi direi di piu, in passato se ti ricordi esistevano schede per esempio directx 8 o anche 9 che in realtà non supportavano pienamente le specifiche obbligando i programmatori a fare piu "path" nel codice per poter sfruttare tutte le varianti disponibili.
ora purtroppo devi fidarti delle mie parole, ma se hai un po di pazienda e ti studi come sono strutturate le nuove DX vedrai che la microsoft ha OBBLIGATO ai produttori hardware di utilizzare tutti le stesse funzioni base in modo da rendere il codice indipendente dall'hardware il piu possibile (cosa che doveva essere anche in passato ma che poi non è stato cosi)
mentre una volta potei dire che una gpu utilizzava una certa funzione a 24bit invece di 32bit per motivi di costruzione o prestazionali ora con queste gpu le specifiche di base sono fondamentali e tutte le caratteristiche devono essere rispettate pena il non funzionamento del gioco /applicazione scritta con tali funzioni. Quindi la g80 potra non essere la migliore implementazione delle nuove api visto la suo giovine età ma non avrà nessun problema di compatibilità.
con questo articolo ti puoi fare una buona idea http://www.behardware.com/articles/631-2/directx-10-and-gpus.html
supporto del g80 per le driectx10 solo a parole?Madonna quanto cazzo di cazzate si sentono qui dentro.Va vi rendete conto di quello che scrivete?Da riferire subito a PAOLO CORSINI : qui la gente entra nei forum senza leggere gli articoli.
bè, la gente commenta i post senza leggerli (o capirli, ma è uguale)
bah
non preoccuparti se vai a confrontare le specifiche directx 10 microsoft e poi quelle introdotte nel g80 vedrai che l'hardware implementa tutte le funzioni ruchieste.
anzi direi di piu, in passato se ti ricordi esistevano schede per esempio directx 8 o anche 9 che in realtà non supportavano pienamente le specifiche obbligando i programmatori a fare piu "path" nel codice per poter sfruttare tutte le varianti disponibili.
ora purtroppo devi fidarti delle mie parole, ma se hai un po di pazienda e ti studi come sono strutturate le nuove DX vedrai che la microsoft ha OBBLIGATO ai produttori hardware di utilizzare tutti le stesse funzioni base in modo da rendere il codice indipendente dall'hardware il piu possibile (cosa che doveva essere anche in passato ma che poi non è stato cosi)
mentre una volta potei dire che una gpu utilizzava una certa funzione a 24bit invece di 32bit per motivi di costruzione o prestazionali ora con queste gpu le specifiche di base sono fondamentali e tutte le caratteristiche devono essere rispettate pena il non funzionamento del gioco /applicazione scritta con tali funzioni. Quindi la g80 potra non essere la migliore implementazione delle nuove api visto la suo giovine età ma non avrà nessun problema di compatibilità.
ecco, questo mi interessava sapere ;) grazie mille. magari mi cercherò qualche documento sulle dx10.. non che preveda di capirci qualcosa comunque. :asd: mi fido sulla parola :D
coschizza
09-12-2006, 22:09
ecco, questo mi interessava sapere ;) grazie mille. magari mi cercherò qualche documento sulle dx10.. non che preveda di capirci qualcosa comunque. :asd: mi fido sulla parola :D
prego
per caso ho trovato questo in italiano che è ancora meglio
http://www.tomshw.it/graphic.php?guide=200611081&page=directx_10_le_novita-03
Hereticus
10-12-2006, 02:33
Io vorrei capire solo questo. Ho una delle schede confrontate, una XFX 7950 GX2 che esce direi piuttosto bene dal confronto, ed avendo uno spettacolare LCD da 24" tengo ovviamente la risoluzione nativa per i giochi di 1920x1200. Bene con alcuni giochi non riesco a tenere un dettaglio elevato, altrimenti vanno a scatti (caso a parte è Microsoft Flight Simulator X che è addirittura ingiocabile). Devo dedurre che il limite è posto dal mio processore AMD 4000+ anche se overcloccato a 2700Mhz ? Un Conroe 6600 riuscirebbe a garantirmi migliori performance a quella risoluzione, oppure dato che i giochi sfruttano un solo Core non cambierebbe nulla?
Naufr4g0
10-12-2006, 04:03
Io vorrei capire solo questo. Ho una delle schede confrontate, una XFX 7950 GX2 che esce direi piuttosto bene dal confronto, ed avendo uno spettacolare LCD da 24" tengo ovviamente la risoluzione nativa per i giochi di 1920x1200. Bene con alcuni giochi non riesco a tenere un dettaglio elevato, altrimenti vanno a scatti (caso a parte è Microsoft Flight Simulator X che è addirittura ingiocabile). Devo dedurre che il limite è posto dal mio processore AMD 4000+ anche se overcloccato a 2700Mhz ? Un Conroe 6600 riuscirebbe a garantirmi migliori performance a quella risoluzione, oppure dato che i giochi sfruttano un solo Core non cambierebbe nulla?
Questo è uno dei grossi svantaggi di usare monitor lcd di grandi dimensioni: la maledetta risoluzione nativa!
ciao
ho visto con piacere che avete aggiunto anche il comportamento riguardo i frames rate minimi per f.e.a.r.
consiglio di aggiungerli anche per tutti gli altri giochi in quanto sono il vero indice della giocabilià effettiva
bye
aaasssdddfffggg
10-12-2006, 10:28
Ci sono giochi che sfruttano già i dual core.Passando ad un Core2 DUO 6600 la tua scheda ne trarrà sicuramente giovamento.
Ciao a tutti,
sinceramente pare anche a me che la 8800GTS non faccia proprio un figurone.
Ipotizzo che ci sia qualcosa che non va a livello driver su questo specifico modello, dato che la 8800GTX in diversi casi va parecchio più forte (e la cosa non mi pare giustificabile solo dal diverso numero degli stream processor e dalla differenza di clock).
Ovviamente potrei anche sbagliarmi... :)
C'è da dire però che la X1950XTX costa solo poco di meno e non offre la compatibilità DX10.
In ogni caso, per me la scheda migliore come rapporto prezzo/prestazioni rimane la X1950XT 256MB.
Ciao. :)
supporto del g80 per le driectx10 solo a parole?Madonna quanto cazzo di cazzate si sentono qui dentro.Va vi rendete conto di quello che scrivete?Da riferire subito a PAOLO CORSINI : qui la gente entra nei forum senza leggere gli articoli.
Io direi di moderare i termini: si parla di schede video, non di una questione di vita o di morte. :rolleyes:
Intanto perdonami ma segnalo il tuo post...
Buona giornata.
ma potrebbe capitare anche l'opposto questo perche a parità di gioco e utilizzando il medesimo dettaglio grafico, un gioco fatto girare con il motore nativo directx10 va nettamente piu veloce dello stesso fatto girare con il motore directx9 di oggi.
Quindi è confermato che le DX10 impongono un overhead molto più basso rispetto alle precedenti versioni?
Così "a naso", le OpenGL rimangono ancora più "leggere" oppure le DX hanno colmato in pieno il GAP (magari anche migliorando il risultato delle OpenGL)?
Ciao grazie. :)
aaasssdddfffggg
10-12-2006, 10:42
Esatto shodan.Con le Directx10 si accede più velocemente all'hardware comportanto un sensibile aumento di frame.Per chi dice che le 8800 andranno peggio con le Directx10 è proprio andato fuori strada.Queste schede adesso (nonstante vadano fortissimo a tutte le risoluzioni)stanno lavorando in "ambiente compatibile".
Si certo shodan sei libero di segnalare il mio post a chi vuoi ma io non vambio idea.Qui dentro ci sono persone che scrivono cose campate in aria.
coschizza
10-12-2006, 10:44
Quindi è confermato che le DX10 impongono un overhead molto più basso rispetto alle precedenti versioni?
Così "a naso", le OpenGL rimangono ancora più "leggere" oppure le DX hanno colmato in pieno il GAP (magari anche migliorando il risultato delle OpenGL)?
Ciao grazie. :)
l'overhead in certe funzioni si e ridotto anche di quasi 10x rispetto alla precedenti, ma questo non è dovuto solo alle directx10 e basta, questo avviene perche è stato riscritto tutto il codice del driver e kernel che sta sotto.
considera che ad oggi la ms sta gia sviluppando le directx 10.1 che implementeranno le funzioni che sono state accantonate dalla versioni 10 per motivi di tempo, tra le prime cose gia annunciano ulteriori miglioramenti dal punto di vista prestazionale.
le OpenGL da questa nuova versione delle dx restano indietro di parecchio sia dal punto di vista prestazionale puro ma anche soprattutto di feature.
aaasssdddfffggg
10-12-2006, 10:49
Ho installato un livello alpha (presumo sia il primo livello,scaricabile da un sito asiatico del peso di 423 mega che circola ormai da una settimana)in cui ci accingiamo a lasciare la portaerei per recarci sull'isola dopo aver visto cadere lo strano meteorite dietro le montagne dell'isola.L'acqua è la cosa che colpisce di più immediatamente con l'effetto onda e la salsedine in movimento sulla superficie.Gira in maniera impeccabile con 2 8800gtx anche se questa versione non mi faceva andare oltre 1600x1200.
L'impatto grafico è devastante comunque e siamo abbondantemente (ma a questa risoluzione però) sopra i 60 frame testato con l'utility fraps.
Da considerare che il numero di poligoni per scena è assolutamente non paragonabile con nessun gioco esistente al momento quindi essendo un livello "alpha"potrà solo essere migliorato ed ottimizzato.
Comunque qui le 8800 lavorano da matti.
Saluti.
aaasssdddfffggg
10-12-2006, 10:50
Parlavo di Crysis appunto quanto detto sopra.
dragonheart81
10-12-2006, 13:43
Da paura...ho finito ora a leggere l'articolo...comunque si vede che queste schede per essere sfruttate devono passare la risoluzione di 1280x1024 con filtri ecc x cui bisogna spendere anche soldi per un monitor adeguato...una basta e avanza in alcuni test la scheda singola da la carne a le 7900gtx in SLI e alle x1950xtx ATI in Crossfire...
Le attacco a un plasma Full HD
Ho installato un livello alpha (presumo sia il primo livello,scaricabile da un sito asiatico del peso di 423 mega che circola ormai da una settimana)in cui ci accingiamo a lasciare la portaerei per recarci sull'isola dopo aver visto cadere lo strano meteorite dietro le montagne dell'isola.L'acqua è la cosa che colpisce di più immediatamente con l'effetto onda e la salsedine in movimento sulla superficie.Gira in maniera impeccabile con 2 8800gtx anche se questa versione non mi faceva andare oltre 1600x1200.
L'impatto grafico è devastante comunque e siamo abbondantemente (ma a questa risoluzione però) sopra i 60 frame testato con l'utility fraps.
Da considerare che il numero di poligoni per scena è assolutamente non paragonabile con nessun gioco esistente al momento quindi essendo un livello "alpha"potrà solo essere migliorato ed ottimizzato.
Comunque qui le 8800 lavorano da matti.
Saluti.
bene bene!! :) :D
anche se cmq ne hai 2 di 8800gtx...cosa che pochi si possono permettere purtroppo.... :cry:
in effetti.... sarà una alpha.... saranno i driver immaturi....saranno le dx9... tutto quello che volete... ma pensare che a 1600x1200 con 2 8800gtx si abbia un fps medio superiore a 60 non è incoraggiante (per chi avrà 1 sola scheda e cmq non gtx..), speriamo di esser smentito a breve :D
doom 3 in alpha andava in certi punti a 1 fps su una geforce 4 mx... ok che la scheda non era 'sto gran che, ma 1 fps è 1 fps: scordatevi di fare ipotesi basandovi sulle alpha...
supersalam
10-12-2006, 17:56
A quando una bella rece sui monitor?? Facciamo un po di chiarezza please.
Cmq ottima recensione.
Si certo shodan sei libero di segnalare il mio post a chi vuoi ma io non vambio idea.Qui dentro ci sono persone che scrivono cose campate in aria.
Nessuno pretende che tu cambi idea, ma ti prego di usare un linguaggio più consono e di esprimere le tue idee in modo più pacato senza assalire gli altri utenti. Non mi riferisco solo al post sopra, ma anche ad altri che hai fatto in passato.
...Onestamente? Non capisco. Abbiamo una tecnologia che ci potrebbe portare 1, 1.5, magari anche 2 anni luce da quella che chiamiamo "8800 gtx". E siamo ancora "fermi" ad una "8800 gtx".
Siamo lenti.
Siamo vecchi.
Siamo indietro.
Nel 1968 è stata necessaria la potenza di calcolo di un paio di Commodore 64 per andare sulla luna. Nel 2007 ci vuole un alimentatore da 1Kw per far girare Windows.
Cos'è che è andato storto?
:asd:
Scherzi a parte, ottima recensione, anche se la "vera" recensione per schede come questa andrà fatta una volta disponibili titoli DX10 - feature per la quale queste vga vedono la luce.
Grave Digger
11-12-2006, 11:38
non so voi come avete intenzione di investire i vostri euro,ma sto benedettissimo r600 in uscita a breve riuscirà o no a scalzare la controparte nvidia una volta per tutte????si sa altro su queste schede???
bonzuccio
11-12-2006, 11:55
non so voi come avete intenzione di investire i vostri euro,ma sto benedettissimo r600 in uscita a breve riuscirà o no a scalzare la controparte nvidia una volta per tutte????si sa altro su queste schede???
Adesso se si prende si prende la gtx che su dx10 e con driver migliori
dovrebbe fustigare di brutto qualsiasi architettura su dx9.0
(anche se siamo alla TERZA versione e ancora permangono svariati problemi vedere 3d dei driver nvidia appena usciti) ,
ma ho come l'impressione che r600 sbaraglerà questo g80 questo stavo
cercando di dire, sono schede di transizione e bisogna essere pronti a rivenderle al momento giusto
Ghiacciolo=ITA=
11-12-2006, 12:27
Test con le dx10 ancora nisba, eh?!
che bella presa per i fondelli...dubito che qualsiasi titolo di prox uscita (halo2,UT2007,Crysis) ne usufruirà...
Abit KD7s
11-12-2006, 13:39
almeno il 90% degli utenti che ha un LCD non può avere piu di 1280x1024 di risoluzione, e quindi risulta inutile fare uno SLI perfino con 2x 7950 GT, inoltre per sfruttare almeno in parte la potenze di queste VGA ci vuole un processore da alcune centinaia di euro che fra l'altro al momento solo intel può fornire, chi come me ha ancora il socket 939 si trova a dover cambiare: mobo, ram, cpu oltre a comprare le VGA, perchè Cpu per 939 in grado di sfruttare almeno in parte queste VGA non se ne trovano già piu e cmq ci vorrebbe almeno un 4800X2 ma meglio l'FX60, che anche se si trovano i prezzi sono ancora altissimi, inoltre chi si è fatto un top di gamma come computer 4-5 mesi fa se lo vende ora ci rimette piu della metà io ad esempio ho come CPU un opteron 150 sk939 pagato 5 mesi fa 370 euro ora dovrei venderlo a 140 euro, come anke la mia mobo DFI SLI-DR sk939 pagata 230 euro 5 mesi fa ora la dovrei vendere a 100 euro, ovviamente non ci penso neanche e mi terrò il mio computer per moooooooooltoooo tempo ancora alla faccia del conroe e delle 8800 gts e gtx infondo la mia 7950GT della sparkle va ancora alla grande, e ovviamente avendo un monitor samsung da 19" con la misera risoluzione 1280x1024 la vga viene sfruttata solo con gli ultimi giochi, anche se devo dire che con gothic 3 con filtri medi a volte arrivo anche a soli 7-8 FPS questo con ben 2GB di RAM vitesta extreme PC4000, anke NFS carbon pur avendo sempre un minimo di 40 FPS ma molto spesso 80 FPS scatta fastidiosamente ma siccome lo faceva anke NFS most wanted e anke NFS underground 2 ne deduco che è programmato con il sedere..............
Grave Digger
11-12-2006, 13:43
almeno il 90% degli utenti che ha un LCD non può avere piu di 1280x1024 di risoluzione, e quindi risulta inutile fare uno SLI perfino con 2x 7950 GT, inoltre per sfruttare almeno in parte la potenze di queste VGA ci vuole un processore da alcune centinaia di euro che fra l'altro al momento solo intel può fornire, chi come me ha ancora il socket 939 si trova a dover cambiare: mobo, ram, cpu oltre a comprare le VGA, perchè Cpu per 939 in grado di sfruttare almeno in parte queste VGA non se ne trovano già piu e cmq ci vorrebbe almeno un 4800X2 ma meglio l'FX60, che anche se si trovano i prezzi sono ancora altissimi, inoltre chi si è fatto un top di gamma come computer 4-5 mesi fa se lo vende ora ci rimette piu della metà io ad esempio ho come CPU un opteron 150 sk939 pagato 5 mesi fa 370 euro ora dovrei venderlo a 140 euro, come anke la mia mobo DFI SLI-DR sk939 pagata 230 euro 5 mesi fa ora la dovrei vendere a 100 euro, ovviamente non ci penso neanche e mi terrò il mio computer per moooooooooltoooo tempo ancora alla faccia del conroe e delle 8800 gts e gtx infondo la mia 7950GT della sparkle va ancora alla grande, e ovviamente avendo un monitor samsung da 19" con la misera risoluzione 1280x1024 la vga viene sfruttata solo con gli ultimi giochi, anche se devo dire che con gothic 3 con filtri medi a volte arrivo anche a soli 7-8 FPS questo con ben 2GB di RAM vitesta extreme PC4000, anke NFS carbon pur avendo sempre un minimo di 40 FPS ma molto spesso 80 FPS scatta fastidiosamente ma siccome lo faceva anke NFS most wanted e anke NFS underground 2 ne deduco che è programmato con il sedere..............
chissà perchè quando ho detto che il 939 non andava bene con le vga di nuova generazione,soprattutto se con sli,in un thread su un acceleratore fisico, si è scatenato un flame,perchè dicevo cose false :rolleyes: .....
cmnq scusate l'OT
aaasssdddfffggg
11-12-2006, 13:52
Ciao Bonzuccio.Se hai deciso di aspettare febbraio per l'uscita di r600 ok ma potresti anche fare uno sforzo di attendere un altro mesetto e ti prendi il G80 potenziato che surclasserà R600.Verrà presnetato al cebit di hannower (confermato da nVIDIA stessa)ed avrà frequenze più alte,nonchè 1 giga ddr4 e un sensibile calo nei consumi.Se è un mostro adesso figuriamoci quello.A te la scelta comunqe.
Grave Digger
11-12-2006, 14:04
Ciao Bonzuccio.Se hai deciso di aspettare febbraio per l'uscita di r600 ok ma potresti anche fare uno sforzo di attendere un altro mesetto e ti prendi il G80 potenziato che surclasserà R600.Verrà presnetato al cebit di hannower (confermato da nVIDIA stessa)ed avrà frequenze più alte,nonchè 1 giga ddr4 e un sensibile calo nei consumi.Se è un mostro adesso figuriamoci quello.A te la scelta comunqe.
devo fidarmi di quello che stai affermando :D ????se è così,io mi fiondo su quello!!!aspetto il 2007 e mi faccio un sistema con chipset intel e ram ddr3 ;) !!!
bonzuccio
11-12-2006, 14:25
ma saranno 80nm le future 8800?
sarà un semplice die shrink?
A me interessa moltissimo il fattore consumi, il pc nuovo dovrà avere vga silenziosisima
questo potrà avvenire ancora di + con DX10 visto che con la maggiore standardizzazione le sw house avranno sempre meno scuse se per far girare per bene un gioco ci vogliono le portaerei,
frega niente dei costi a me per qualcosa di buono, sono disposto a spendere visto anche che metto da parte da tempo
chissà perchè quando ho detto che il 939 non andava bene con le vga di nuova generazione,soprattutto se con sli,in un thread su un acceleratore fisico, si è scatenato un flame,perchè dicevo cose false :rolleyes: .....
cmnq scusate l'OT
non vorrei generare flame io o andare troppo OT, ma da quanto ho letto in questa rece
http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=588
pare che tra un procio amd (5000x2 am2) e un conroe (6700) nei giochi non vi siano quasi per nulla differenze...
e dato che mi sembra che anche tra il 939 e l'am2 non ci siano differenze di prestazioni a parita di proci, fai un po tu... :)
Ciao Bonzuccio.Se hai deciso di aspettare febbraio per l'uscita di r600 ok ma potresti anche fare uno sforzo di attendere un altro mesetto e ti prendi il G80 potenziato che surclasserà R600.Verrà presnetato al cebit di hannower (confermato da nVIDIA stessa)ed avrà frequenze più alte,nonchè 1 giga ddr4 e un sensibile calo nei consumi.Se è un mostro adesso figuriamoci quello.A te la scelta comunqe.
Ma allora fai uno sforzo e aspetti un altro mesetto per vedere uscire R600 ultra-turbo che surclasserà il surclassabile, verrà presentato alla sagra del cicciolo di Bologna (confermato da Amd stessa), avrà frequenze più alte, consumerà di meno ed andrà il triplo.
Visto che qua si chiacchiera di aria fritta, un link della conferma UFFICIALE da parte di NVIDIA della versione potenziata di G80 la dai? Così vediamo se è vero o ti sei inventato tutto...
Ma tanto la risposta già la so ;)
bonzuccio
11-12-2006, 15:16
Ma allora fai uno sforzo e aspetti un altro mesetto per vedere uscire R600 ultra-turbo che surclasserà il surclassabile, verrà presentato alla sagra del cicciolo di Bologna (confermato da Amd stessa), avrà frequenze più alte, consumerà di meno ed andrà il triplo.
Davvero?? :sbavvv: :sbavvv:
dai che le 9000 furono una rivoluzione, le 1000 una mezza rivoluzione, mi apsetto molto da questo giro..
anche perchè sarò io a dovermi fare la scheda video,
essenzialmente spingo per questo :D
aaasssdddfffggg
11-12-2006, 16:54
il g80 potenziato uscirà al cebit di hannover ovvero a metà MARZO 2007.E' la stessa nVIDIA ad averlo affermato.Per chi non crede non puo' far altro che aspettare.
il g80 potenziato uscirà al cebit di hannover ovvero a metà MARZO 2007.E' la stessa nVIDIA ad averlo affermato.Per chi non crede non puo' far altro che aspettare.
Quindi implicitamente hai risposto di non avere nessun link. Quindi stiamo parlando di aria fritta. Era solo per capire di cosa stavamo parlando ;)
Pwerfettamente inutili a meno di nion avere un mega schermo in casa stile MONDIALI di germania...bah!
aaasssdddfffggg
11-12-2006, 18:13
DJ LODE ne riparliamo a Marzo ok?Segnati questo post.
aaasssdddfffggg
11-12-2006, 18:26
Nonostante le intenzioni, Amd/Ati sarà costretta a rilasciare R600, la nuova gpu, a febbraio, in luogo di gennaio come originariamente voluto dai vertici dell'azienda di Sunnyvale.
Confermato, per questo processore grafico, il processo produttivo ad 80 nanometri e le piene funzionalità DirectX10; sulla base di quanto detto circa il rilascio, è adesso ipotizzabile che questo avvenga all'incirca nello stesso periodo in cui sarà presentato Windows Vista.
Tutto ciò mentre nVidia non dorme sicuramente sugli allori, dal momento che sta preparando una versione di G80 più veloce dell'attuale e che sarà pronta per il CeBit di Hannover, a marzo.Avrà frequenze più elevate,monterà GDDR4 ed godrà di una sensibile diminuzione dei consumi.
Questo vuol dire che se R600 dovesse risultare più veloce di G80 avrà scarso un mesetto soltanto di gloria...
DJ LODE ne riparliamo a Marzo ok?Segnati questo post.
Eh no ragazzo, troppo facile :)
Tu hai detto che Nvidia ha confermato, quindi l'hai letto da una fonte ufficiale, quindi hai un link. O no?
Perchè sono tutti capaci di dire "Nvidia ha confermato" senza uno straccio di prova e poi rimandare il tutto a "data-a-caso" per vedere se uno ci ha preso...
Ripeto, vogliamo parlare di hardware o sparare a caso?
Ah, verso Settembre 2007 Amd rilascerà la nuova versione potenziata di R600, l'ha confermato ufficialmente Amd. Ci vediamo a Settembre, segnati questo post :asd:
Tutto ciò mentre nVidia non dorme sicuramente sugli allori, dal momento che sta preparando una versione di G80 più veloce dell'attuale e che sarà pronta per il CeBit di Hannover, a marzo.Avrà frequenze più elevate,monterà GDDR4 ed godrà di una sensibile diminuzione dei consumi.
Questo vuol dire che se R600 dovesse risultare più veloce di G80 avrà scarso un mesetto soltanto di gloria...
Fonte? The Inquirer scommetto...
Mi dai un link UFFICIALE dove NVIDIA e nessun altro annuncia UFFICIALMENTE questo? Non ce l'hai, quindi amen.
aaasssdddfffggg
11-12-2006, 18:32
Amen...
aaasssdddfffggg
11-12-2006, 18:35
Ps : SETTEMBRE viene tra 10 mesi,Marzo viene tra 3 mesi.
bonzuccio
11-12-2006, 18:51
Nonostante le intenzioni, Amd/Ati sarà costretta a rilasciare R600, la nuova gpu, a febbraio, in luogo di gennaio come originariamente voluto dai vertici dell'azienda di Sunnyvale.
Confermato, per questo processore grafico, il processo produttivo ad 80 nanometri e le piene funzionalità DirectX10; sulla base di quanto detto circa il rilascio, è adesso ipotizzabile che questo avvenga all'incirca nello stesso periodo in cui sarà presentato Windows Vista.
Tutto ciò mentre nVidia non dorme sicuramente sugli allori, dal momento che sta preparando una versione di G80 più veloce dell'attuale e che sarà pronta per il CeBit di Hannover, a marzo.Avrà frequenze più elevate,monterà GDDR4 ed godrà di una sensibile diminuzione dei consumi.
Questo vuol dire che se R600 dovesse risultare più veloce di G80 avrà scarso un mesetto soltanto di gloria...
Nemesis.. hai postato un qualcosa che era spiccicato a un tuo post di poco tempo fa.. di la verità ci hai il .txt sul desktop e fai copia incolla dai :eek:
Nemesis.. hai postato un qualcosa che era spiccicato a un tuo post di poco tempo fa.. di la verità ci hai il .txt sul desktop e fai copia incolla dai :eek:
:asd:
Se uno non ha bisogno ADESSO di un elevata potenza di calcolo, gli conviene aspettare febbraio/marzo per vedere all'opera la nuova G80 e R600. Penso che la lotta sarà tra di loro, a giudicare dal probabile lancio quasi in contemporanea (si parla di 1 mese di differenza, contro i 4 mesi che ci saranno fra R600 e la 8800GTX uscita a novembre)...
aaasssdddfffggg
11-12-2006, 19:43
Certo che ho postato le stese righe che ho messo sull'articolo della sus 8800gtx per il semplice fatto che non ritrovo ancor al'articolo che ho letto circa una settimana fa su vr-zone.com.
Sono certo che la notizia è veritiera considerando il fatto che se così fosse nVIDIA sta impostando la stessa strategia di marketing apparsa quando uscì la 7800 gtx512 e 4 mesi dopo la 7900gtx.Attendiamo Marzo..
MiKeLezZ
11-12-2006, 20:24
Ma allora fai uno sforzo e aspetti un altro mesetto per vedere uscire R600 ultra-turbo che surclasserà il surclassabile, verrà presentato alla sagra del cicciolo di Bologna (confermato da Amd stessa), avrà frequenze più alte, consumerà di meno ed andrà il triplo.
Visto che qua si chiacchiera di aria fritta, un link della conferma UFFICIALE da parte di NVIDIA della versione potenziata di G80 la dai? Così vediamo se è vero o ti sei inventato tutto...
Ma tanto la risposta già la so ;)
Potrei fare lo stesso discorso mettendo R600 come soggetto, di cui non si sa una data precisa, specifiche tecniche, e quant'altro.
Potrei fare lo stesso discorso mettendo R600 come soggetto, di cui non si sa una data precisa, specifiche tecniche, e quant'altro.
Certo, infatti mi hai per caso visto fare previsioni su R600? No. Quindi mi spieghi perchè quoti me? ;)
velorius
11-12-2006, 22:53
credo di essere come alcuni di voi un appassionato di pc tra Oc e mod ormai non si capisce piu un c&/$o!! :D
senza andare fuori tema vorrei circoncido la questione in 2 parole
se giochi online e ti servono fps alti prendi un e6600 OC a 3,6ghz e la 7950 ora che uscita la 8800 calerà di prezzo e cambiate i dissi e il pc non lo cambiate piu per un bel pò
Grave Digger
11-12-2006, 23:24
credo di essere come alcuni di voi un appassionato di pc tra Oc e mod ormai non si capisce piu un c&/$o!! :D
senza andare fuori tema vorrei circoncido la questione in 2 parole
se giochi online e ti servono fps alti prendi un e6600 OC a 3,6ghz e la 7950 ora che uscita la 8800 calerà di prezzo e cambiate i dissi e il pc non lo cambiate piu per un bel pò
può anche darsi,ma il supporto alle dx10 dove lo metti????se uno vuole il massimo,per ora sbatacchia una 8800 nel pc e quando poi uscirà la 8900 rivenderà e con una aggiunta di 150 euro sarà nuovamente sulla cresta dell'onda(si spera :rolleyes: ).....inoltre a mio modo di vedere,meglio spendere tanto ora per qualcosa che non si svaluterà tanto facilmente,che non 350 euro per una 7900 che fra un mese e mezzo varrà si e no 200 euro,e non la vorrà nessuno :( ....
aaasssdddfffggg
12-12-2006, 10:58
Ottima osservazione Grave Digger.Concordo co nte.
steverance1987
19-12-2006, 21:44
non capisco l'utilità di far uscire una 8900 un mese dopo l'r600 quando ancora il 99% dell'utenza pc ha ancora una scheda dx9, mi sembrano scemi
capitan_crasy
19-12-2006, 21:48
non capisco l'utilità di far uscire una 8900 un mese dopo l'r600 quando ancora il 99% dell'utenza pc ha ancora una scheda dx9, mi sembrano scemi
:sofico:
forse volevi dire DX10! :D
steverance1987
19-12-2006, 21:54
:sofico:
forse volevi dire DX10! :D
no no ho detto bene, la gente a casa ha ancora schede come 6600, 6800,7600
diciamo il 70%
poi c'è un 29%, ma anche di meno, che può permettersi schede come 7900,1950 ecc
e infine un 1% che ha la 8800
tutta questo fretta di far uscire un successore dell' 8800 al momento non c'è
non guardate l'utenza del forum, non fa testo, la massa non sta sui forum
capitan_crasy
19-12-2006, 22:23
no no ho detto bene, la gente a casa ha ancora schede come 6600, 6800,7600
diciamo il 70%
poi c'è un 29%, ma anche di meno, che può permettersi schede come 7900,1950 ecc
e infine un 1% che ha la 8800
tutta questo fretta di far uscire un successore dell' 8800 al momento non c'è
non guardate l'utenza del forum, non fa testo, la massa non sta sui forum
scusa ho letto male io... :ops:
...
tutta questo fretta di far uscire un successore dell' 8800 al momento non c'è
...
penso che la voglia di avere sempre la scheda piu veloce del mercato sia un incentivo sufficente :)
the AdmiraL
21-12-2006, 16:20
sono d'accordo con voi queste sono soluzioni improponibili x la media....quanto si dovrebbe spendere x assaporarsi tutto ciò??? ma la cosa piu grave è ke poi è comunque un sistema castrato....
ma caspita sti aggeggi servono x giocare... certo ipotizzando ke io avessi un sacco di soldi comprerei tutto... ma poi cosa accadrebbe?? ke palle giocare con una macchina di migliaia di euro ad unreal tournament 2004 sempre con mouse e tastiera....
quello ke voglio dire è ke l'esperienza non cambia....
grande nintendo con wii ma la grafica è una pena.... io spero ke un domani giocare ad unreal 3 con un controller simil wii anke su pc... una 8600 gt overclokkata a 250 euro e vai....
cmq vedrete che tra meno di un anno la ris di 2048x1536 nn sara più accessibile con framerate decenti e la ris di 1280x1024 tornera ad essere quella standard per la maggior parte degli utenti!!!
io cmq ho l'intenzione di comprarla questa 8800gtx, ma aspettero l'uscita delle dx10 e delle r600, poi valuterò un po la situazione!!
cmq la cosa che fa + paura è che magari noi compriamo questo mostro di potenza, spendendo 700€ circa, ma poi tra un paio di mesi usciranno nuove tecnologie nel quale la nostra scheda sarà ormai considerata cosa vecchia!!!!
aaasssdddfffggg
25-12-2006, 10:03
Se tra 2 mesi la consideri "vecchia" la 8800 gtx ,quella che hai adesso la consideri da preistoria?Allora tanto vale avere la "vecchia" no?.Comunque se aspetti Marzo puoi prenderti la versione piuù potente del g80 che nVIDIA presenterà al cebit di Hannover verso la metà del suddetto mese.
cmq la cosa che fa + paura è che magari noi compriamo questo mostro di potenza, spendendo 700€ circa, ma poi tra un paio di mesi usciranno nuove tecnologie nel quale la nostra scheda sarà ormai considerata cosa vecchia!!!!
Beh ma è sempre stato così nell'IT, non è una novità ;)
Ciauz
Grave Digger
25-12-2006, 11:04
sono d'accordo con voi queste sono soluzioni improponibili x la media....quanto si dovrebbe spendere x assaporarsi tutto ciò??? ma la cosa piu grave è ke poi è comunque un sistema castrato....
ma caspita sti aggeggi servono x giocare... certo ipotizzando ke io avessi un sacco di soldi comprerei tutto... ma poi cosa accadrebbe?? ke palle giocare con una macchina di migliaia di euro ad unreal tournament 2004 sempre con mouse e tastiera....
quello ke voglio dire è ke l'esperienza non cambia....
grande nintendo con wii ma la grafica è una pena.... io spero ke un domani giocare ad unreal 3 con un controller simil wii anke su pc... una 8600 gt overclokkata a 250 euro e vai....
è stato adattato il controller wii su pc ;) ...hanno giocato ad half life 2 :D ...
Beh ma è sempre stato così nell'IT, non è una novità ;)
Ciauz
si siè vero cio che hai detto, ma nn alla velocità di questi ultimi mesi!!!!
prendi ad esempio in considerazione i processori, nel giro di 3 mesi circa sono usciti i core 2 duo e successivamente ma in brevissimo tempo i quad core :muro:
io ovviamente appena è uscito il core 2 duo l'ho agguantato al volo!!!
ma sapendo che la stessa cosa accadra con le schede video, se dovrei aspettare, aspetterei all'infinito, però poi se fai un acquisto magari dopo un paio di giorni esce una scheda nuova e ti penti e dici "se avrei aspettato altri 10 giorni!!!:ncomment: :bsod::incazzed:
per questo io ora ho un po di timore a spendere 650€ se poi in meno di un anno sono uscite altre 10 schede più potenti di quella!!!!!! :cry: :cry:
si siè vero cio che hai detto, ma nn alla velocità di questi ultimi mesi!!!!
No guarda è la storia che si ripete ;)!Tanto per fare un esempio negli anni dal '93 al '98 c'è stata una escalation nel mondo dei processori impressionante, uno si prendeva un 486 SX e dopo un mese c'era il DX, dopo una settimana il DX2 dopo 6 mesi i primi Pentium, poi i pentium MMX...il tutto condito dalla concorrenza di Cyrix (i vari 6x86), AMD (i vari K5-k6), Neptune etc...
E anche li le cifre erano le solite, 600000lire per un processore di fascia medio/alta....
Io avevo 14 anni nel 93, e in quegli anni non facevi in tempo a comprare un sistema che dopo 1 settimana era stravecchio :D
Quindi tutto ciò che accade ora con le 8800, per me è routine ;)!
PS: Questo ragionamento vale per tutto il campo IT, basti pensare, che so, all'evoluzione delle macchine fotografiche/videocamere digitali....
Ciauz
bonzuccio
27-12-2006, 12:03
Casomai adesso è il contrario nel senso cioè che se non stai dietro all'ultimo grido non sei "old" come allora: l'evoluzione del software non sta più dietro a quella dell'hardware
Mi riferisco solo all'evoluzione hardware.
Ciauz
No guarda è la storia che si ripete ;)!Tanto per fare un esempio negli anni dal '93 al '98 c'è stata una escalation nel mondo dei processori impressionante, uno si prendeva un 486 SX e dopo un mese c'era il DX, dopo una settimana il DX2 dopo 6 mesi i primi Pentium, poi i pentium MMX...il tutto condito dalla concorrenza di Cyrix (i vari 6x86), AMD (i vari K5-k6), Neptune etc...
E anche li le cifre erano le solite, 600000lire per un processore di fascia medio/alta....
Io avevo 14 anni nel 93, e in quegli anni non facevi in tempo a comprare un sistema che dopo 1 settimana era stravecchio :D
Quindi tutto ciò che accade ora con le 8800, per me è routine ;)!
PS: Questo ragionamento vale per tutto il campo IT, basti pensare, che so, all'evoluzione delle macchine fotografiche/videocamere digitali....
Ciauz
gia hai ragione!!! :Prrr: :Prrr:
però la differenza tra oggi e gli anni 90 sono parecchie, tanti anni fa le differenze erano pochissime, mentre al tempo d'oggi se esce un componente nuovo in molti casi le prestazioni sono due volte superiori al componente uscito qualche mese dopo, come appunto i core2duo con i quad core, o prova a pensare a chi si è comprato un 4600x2 a circa 500€ e un mese dopo sono usciti i core2duo e con una spesa di 350€ circa aveva un processore con il doppio delle prestazioni!!!
a questo punto io mi sarei sentito male!! :muro: :muro:
e questo è un errore che stavo per fare pure io, infatti stavo per prendermi un 4800x2 a circa 700€, ma appena sono usciti i core 2 duo l'ho preso visto il rapporto qualità/prezzo!!! :D :sofico:
la stessa cosa penso proprio che accada con le schede video, ma è anche vero che se aspetto che il prezzo scenda poi escono componenti nuovi, allora voglio quelli, ma poi dico di nuovo e intanto il pezzo scende, poi esce un'altro componente nuovo.......allora nn riuscirò mai ad acquistare nulla!!!
In pratica la mia paura è che magari se acquisto un componente, poi 3 mesi dopo la tecnologia fa un nuovo grande passo in avanti, mi pentirei di brutto!!!
come ad esempio agp->pci-e, oppure cambio di soket di procio, oppure ddr->ddr2->o addirittura tra un po ho sentito parlare dell'uscita delle ddr 3 :sbavvv: , cioè sono cose impressionanti!!!!
se magari le differenze sono poche come ad esempio l'anno scorso l'uscita dei 4200x2,4400x2,4600x2,4800x2, cioè nn sono grandissimi passi!!!! :rolleyes:
capisci!! ;) ;)
serious!doom
22-01-2007, 14:14
Salve... volevo qualche consiglio! A breve dovrò cambiarmi il mio pc...Penso di montare un dual core 6600, corsair xms2 twinx 2 gb DDR2 5300/5400, geforce 8800 gts! Purtroppo ho ancora la risoluzione 1280 per 1024.
Secondo voi posso andare bene con una (bestia) di questo tipo? qualche consiglio da darmi vi sarei molto grato!
Mi conviene aspettare all'uscita del r600?
Avrei voluto qualche fps di più sui test riguardanti la g80 gts! voi che dite?
bonzuccio
22-01-2007, 14:23
Accattati una 7600gs/gt o una x1300xt/x1650pro o ancora meglio una x1900gt (molto meglio non mi va di cancellare quello che avevo scritto) e vedi come va R600
cia
Salve... volevo qualche consiglio! A breve dovrò cambiarmi il mio pc...Penso di montare un dual core 6600, corsair xms2 twinx 2 gb DDR2 5300/5400, geforce 8800 gts! Purtroppo ho ancora la risoluzione 1280 per 1024.
Secondo voi posso andare bene con una (bestia) di questo tipo? qualche consiglio da darmi vi sarei molto grato!
Mi conviene aspettare all'uscita del r600?
Avrei voluto qualche fps di più sui test riguardanti la g80 gts! voi che dite?
se non hai fretta aspetta l'uscita di R600 cosi potrai prenderti una 8800gts risparmiando un pò ;)
serious!doom
22-01-2007, 15:45
Il fatto è che... quando cavolo escono queste benedette r600? a volte nn sono paziente, vorrei giocare a tantissimi giochi a palla! però! :cry: :mad:
Il fatto è che... quando cavolo escono queste benedette r600? a volte nn sono paziente, vorrei giocare a tantissimi giochi a palla! però! :cry: :mad:
Marzo...cmq a breve dovrebbe uscire (prossimo mese) una 8800gts con 380mb di ram l'ideale se giochi al max a 1280x1024 e dovrebbe costare meno di 300€
serious!doom
22-01-2007, 18:23
Marzo...cmq a breve dovrebbe uscire (prossimo mese) una 8800gts con 380mb di ram l'ideale se giochi al max a 1280x1024 e dovrebbe costare meno di 300€
Lo sò! Però penso che è meglio comprare una scheda di fascia alta ora... tipo gts... cosi anche per giochi con le directx 10 in un futuro questa bestia andrà più che bene!
L'acquisto se lo devo fare.. lo voglio fare bene! che mi dura!spero di nn sbagliarmi...
saviola81
12-03-2007, 21:13
Compra 2 8800 gts in sli e vai alla grande
scusate, ma mi sembra di vedere che con configurazione sli, la 8800gts non sale i 500watt complessivi... quindi avendo un 6600 di procio e non un ex6800, in teoria consuma meno e con il 500watt della enermax dovrei starci dentro... qualcuno mi smentisca o mi dia ragione, visto che pensavo all'acquisto prossimo di un'altra 8800gts, o addirittura aspettare che calano le gts e prenderne 2...
calano le gtx, scusate l'errore di battitura :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.