PDA

View Full Version : NVIDIA GeForce 8800 GTX: un passo nel futuro


Pagine : [1] 2 3

Redazione di Hardware Upg
08-11-2006, 19:59
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1597/index.html

G80 è il nome in codice della prima generazione di schede video dotate di supporto alle API DirectX 10 e allo Shader Model 4. Windows Vista è ancora lontano, ma questo non impedisce alla nuova soluzione NVIDIA GeForce 8800 GTX di svettare sulle proposte concorrenti

Click sul link per visualizzare l'articolo.

ErminioF
08-11-2006, 20:00
Mia :D
Gran bella schedozza, ora mi leggo con calma il resto della recensione :asd:

dididj
08-11-2006, 20:01
un mostro di tecnologia °_°

ale0bello0pr
08-11-2006, 20:02
:asd: presa

Fl1nt
08-11-2006, 20:03
Per la scheda GeForce 8800 GTS il quantitativo scende a 640 Gbytes

Errore.


Cmq ora mi leggo per bene sta bella recensione

Filo89
08-11-2006, 20:05
Un solo commento ... fantastica !!!!! :eek: :eek:

Dylan BJ
08-11-2006, 20:05
corro a leggere la rece!! :p

Spider-Mans
08-11-2006, 20:06
eccomi
posso dire che "io c'ero" :asd:

ora leggo :D

Pinko7
08-11-2006, 20:13
Ed è già Qui!!! leggiamola!! :)

linuxianoxcaso
08-11-2006, 20:16
ma non vi pare che consumino un po troppo ste schede ? :cry: :cry:

X-ICEMAN
08-11-2006, 20:18
se qualcuno trova forum o articoli in cui hanno provato ad installarla nello slot 1 ( pci express 16x) di un mac pro ed usarla sotto windows mi può far sapere se funge ? tipo via pm o linking vario ... mi potrebbe interessare parecchio ( non importa se non va da osx, per quello basta la 7300 sullo slot4 ) :D :D

ale0bello0pr
08-11-2006, 20:18
eccezionali i risultati..... è piu' potente anche se di poco in certi punti della 7950GX2.... e si parla di DX10 e qualità a risoluzioni davvero assurde per i monitor LCD da 19" come me :doh:



Un componente fondamentale nell'analisi di schede video di così elevata potenza elaborativa è il display: ha infatti poco senso abbinare schede così veloci a risoluzioni video ridotte. La scelta è caduta su una delle due soluzioni attualmente disponibili in commercio capaci di supportare nativamente la risoluzione di 2560x1600 pixel: parliamo del display Dell 3007WFP, soluzione con diagonale da 30 pollici.



Aspettero Giugno...400€ e sarà mia così vedrò anke la controparte di ATI abbassata di un pochino :D mi spiace ma questa scheda è veramente INUTILE per un monitor che non supporti risoluzioni esagerate così alte.... :rolleyes:

e lo sapete quanto costa un monitor che sia utile???
toh :read:

1.484,10 € Vedi+l'offerta Dell - Monitor lcd flat panel digitale widescreen 3007wfp da 30 pollici (210-15496)

:muro: :muro:

quindi facendo un calcolo...mumble... nn è difficile capire che per questo mostro bisogna spendere SOLO di video..... 2.000 eurozzi abbondanti :doh:
:mbe:

deck
08-11-2006, 20:19
Ehm...e la GTS?

fukka75
08-11-2006, 20:20
Ma HL2 non usa HDR FP16: che senso ha fare la prova HDR+AA, se questa impostazione è utilizzabile anche con le 6x00/7x00? Non sarebbe stato meglio usare Oblivion o Call of Juarez?

VitOne
08-11-2006, 20:24
Veramente interessante, complimenti alla redazione. Direi che questa GPU conferma quanto era stato promesso.
Sarebbe interessante una prova in SLI su piattaforma 680, anche a singola scheda ;).

ErminioF
08-11-2006, 20:27
Quoto #11, senza monitor adeguato, oggi, con i giochi attuali, è quasi inutile, ormai la risoluzione di riferimento sta diventando la 1600x1200 con aa4x...non riesco ad immaginare uno sli che risultati darà :D
Mi sarebbe piaciuto vedere dei bench con tomb raider legend e grafica next generation abilitata :D

kenjcj2000
08-11-2006, 20:27
Prima dico CHE FANTASTICA VGA sulla fiducia :D vado a leggere :sofico:

Pinko7
08-11-2006, 20:28
Bhà sinceramnete mi aspettavo qualcosa di più da questo "mostro".. una 7950gx2 supera la 8800 in parecchi test.. forse la sorpesa sarà con le dx10. Io adesso attendo una bella Risposta da ATI. W ATI, I LOVE ATI, ATI FOREVER, ATI THE BEST !!! I powered by Ati Radeon ☼

Pinko7
08-11-2006, 20:30
fukka hai ragione!

Uriziel
08-11-2006, 20:31
Bhà sinceramnete mi aspettavo qualcosa di più da questo "mostro".. una 7950gx2 supera la 8800 in parecchi test.. forse la sorpesa sarà con le dx10. Io adesso attendo una bella Risposta da ATI. W ATI, I LOVE ATI, ATI FOREVER, ATI THE BEST !!! I powered by Ati Radeon ☼
sospensione assicurata.

ale0bello0pr
08-11-2006, 20:32
sospensione assicurata.

:asd: è un fanboy-less

Uriziel
08-11-2006, 20:34
posso dire che imho rispetto a tutti i watt che poccia mi aspettavo prestazioni migliori con i giochi dx9?

imho queste sono schede INUTILI ma non tanto per il discorso monitor-risoluzioni ma piu che altro perche tuttora basta ancora una x800pro per andare alla grande con praticamente tutti i giochi.

senza contare che le dx10 escono a gennaio i giochi belli che le supportano magari tra 6-10 mesi se non di piu.

ah dimenticavo....c'è chi si masturba con i bench. :muro:

Angi92
08-11-2006, 20:34
avrei voluto vedere anche la GTS

MaerliN
08-11-2006, 20:35
Bhà sinceramnete mi aspettavo qualcosa di più da questo "mostro".. una 7950gx2 supera la 8800 in parecchi test.. forse la sorpesa sarà con le dx10. Io adesso attendo una bella Risposta da ATI. W ATI, I LOVE ATI, ATI FOREVER, ATI THE BEST !!! I powered by Ati Radeon ☼

AI LUV IMPARER INGLISH.

Jesus. :muro:

Pinko7
08-11-2006, 20:44
Maerlin excuse you can translate what you have written?

zanardi84
08-11-2006, 20:45
Bus da 384 bit???
Ecco perchè i filtri impattano meno! Vantaggi architetturali e compressione dei dati a parte, un bus così ampio permette di gestire più dati. Attualmente infatti, ridurre il bus delle ram significa degradare le prestazioni con i filtri attivati, gap che poi viene in qualche modo ricompensato aumentando le frequenze delle memorie e della GPU (in pratica, i dati si fanno viaggiare più velocemente invece di averne di più). Mi chiedo: perchè hanno optato per delle DDR3, invece di mettere le 4?

All'occhio mi balza subito un aspetto che definirei sconcertante: le dimensioni del pcb: si è ulteriormente allungato e questo influirà decisamente nelle vendite: sarà necessario avere case di profondità maggiore di quasi 10 cm per poter far stare comodamente tutto l'ambaradam. Mi sembra strano che si parli di immutato ingombro grazie ai connettori ruotabili. Sarà, ma c'è il rischio di dover sacrificare un vando hard disk.
Secondo aspetto notevole: i consumi. la presenza di ben 2 prese supplementari mi fa pensare a consumi molto elevati, maggiorni di quelli di cui si parla. Sarà un investimento anche per quanto concerne la bolletta Enel.

Terzo aspetto: la soglia del cpu limited tende ad alzarsi sempre più: a quanto pare il nuovo limite è fissato ai 1600x1200 punti, ma mi chiedo chi mai giocherà a risoluzioni superiori, essendo difficile trovare monitor lcd in grado di salire (bisogna andare sui formati extra, ma a quel punto non sono più schermi da computer perchè andrebbero posti a 10 metri dalla postazione, bensì maxi schermi).

Concludendo: c'è poco da dire, per ora è un mostro. E come sempre accade, migliori considerazioni andranno fatte quando scenderà in campo r600.
Inoltre non possiamo dare sentenze definitive, per il fatto che per ora abbiamo solo titoli DX9: chi ci dice che otterrà ottime prestazioni anche con le nuove librerie? Le FX andavano bene con le librerie precedenti, mentre per quelle per le quali erano state progettate non si erano dimostrate all'altezza. Lo stesso discorso ovviamente varrà anche per la concorrenza.

appleroof
08-11-2006, 20:46
Ottima recensione come sempre, completa ed esaustiva. Unico appunto: avreste dovuto fare dei test anche con gli x2 AMD.

Adesso aspetto la recensione della 8800GTS...

JOHNNYMETA
08-11-2006, 20:47
Bella notizia che funzioni anche senza attaccare un connettore ma depotenziata,almeno gira lo stesso.
Paurosissima questa NEXT GEN!

Dj Antonino
08-11-2006, 20:49
Maerlin excuse you can translate what you have written?
:asd: si dice "excuse me, maerlin"..
Bus da 384 bit???
Ecco perchè i filtri impattano meno! beh, forse anche le 24 ROP aiutano non poco :D
cmq questo g80 non ha deluso le aspettative.. davvero un bel passo avanti rispetto alla generazione precedente.. :D

aaasssdddfffggg
08-11-2006, 20:49
Io ne ho prese 2 evga 8800 gtx in SLI.Adesso attendo che mi arrivi il SAMSUNG 305T 2560X1600 e poi mi godo lo spettacolo.

ZiP!
08-11-2006, 20:50
bhè poco da dire, un gioiello anche se forse mi aspettavo un pò di più nel confronto con la gx2 (anche se giusta l'osservazione che tutti i test sono dx9). Impressionante con i filtri, con cui le nvidia hanno sempre peccato nei confronti della concorrenza ATI. Concordo con chi ha detto che questa scheda è inutile, al momento sarebbe davvero una spesa folle e ingiustificata. A mio giudizio converrebbe aspettare l'uscita delle dx10 (e magari dei relativi giochi) per acquistare una scheda che le supporti, senza contare della controparte ATI.

Albi80
08-11-2006, 20:51
Bhà sinceramnete mi aspettavo qualcosa di più da questo "mostro".. una 7950gx2 supera la 8800 in parecchi test.. forse la sorpesa sarà con le dx10. Io adesso attendo una bella Risposta da ATI. W ATI, I LOVE ATI, ATI FOREVER, ATI THE BEST !!! I powered by Ati Radeon ☼


HAhahahahaha .. ma dai .. si vede lontano un miglio che ha fatto solo per far ridere ......non è provocatorio :confused:
:eek: o almeno spero :doh:
Boh ...
Comunque tornando sul discorso, questa scheda video è un fulmine ...
Pur essendo simpatizzante ati mi sa che questo giro di boa la vedo molto dura per i canadesi (azz AMD ) . Mi auguro di no.Speriamo in un prodotto sullo stesso piano .Non vorrei un monopolio nvidia sulle schede di vertice .
Bellissima recensione .Comunque la Gtx2 dice ancora la sua in modo egreggio .
Per un altro pezzettino tengo la mia x1900.Poi fra un paio di mesi, valutando l'acquisto win VISTA+VGA farò i miei conti .. anche se mi sa che prendero il sistema operativo , sicuramente un regalo piu longevo .

zanardi84
08-11-2006, 20:51
Bus da 384 bit???
Ecco perchè i filtri impattano meno! Vantaggi architetturali e compressione dei dati a parte, un bus così ampio permette di gestire più dati. Attualmente infatti, ridurre il bus delle ram significa degradare le prestazioni con i filtri attivati, gap che poi viene in qualche modo ricompensato aumentando le frequenze delle memorie e della GPU (in pratica, i dati si fanno viaggiare più velocemente invece di averne di più). Mi chiedo: perchè hanno optato per delle DDR3, invece di mettere le 4?

All'occhio mi balza subito un aspetto che definirei sconcertante: le dimensioni del pcb: si è ulteriormente allungato e questo influirà decisamente nelle vendite: sarà necessario avere case di profondità maggiore di quasi 10 cm per poter far stare comodamente tutto l'ambaradam. Mi sembra strano che si parli di immutato ingombro grazie ai connettori ruotabili. Sarà, ma c'è il rischio di dover sacrificare un vando hard disk.
Secondo aspetto notevole: i consumi. la presenza di ben 2 prese supplementari mi fa pensare a consumi molto elevati, maggiorni di quelli di cui si parla. Sarà un investimento anche per quanto concerne la bolletta Enel.

Terzo aspetto: la soglia del cpu limited tende ad alzarsi sempre più: a quanto pare il nuovo limite è fissato ai 1600x1200 punti, ma mi chiedo chi mai giocherà a risoluzioni superiori, essendo difficile trovare monitor lcd in grado di salire (bisogna andare sui formati extra, ma a quel punto non sono più schermi da computer perchè andrebbero posti a 10 metri dalla postazione, bensì maxi schermi).

Concludendo: c'è poco da dire, per ora è un mostro. E come sempre accade, migliori considerazioni andranno fatte quando scenderà in campo r600.
Inoltre non possiamo dare sentenze definitive, per il fatto che per ora abbiamo solo titoli DX9: chi ci dice che otterrà ottime prestazioni anche con le nuove librerie? Le FX andavano bene con le librerie precedenti, mentre per quelle per le quali erano state progettate non si erano dimostrate all'altezza. Lo stesso discorso ovviamente varrà anche per la concorrenza.


Mi quoto per osservare che, alla luce di quanto si sta dicendo sul forum, le prestazioni non sono proprio spaventose rispetto a ciò che c'è adesso, specialmente alla luce di quanto c'è in giro adesso. Per capirci, in alcuni casi la 7950X2 o la X1950 riescono a reggere il passo, intendendo con questo il fatto che riescono a rendere perfettamente anche alle massime risoluzioni possibili (che bisogno c'è di applicare AA ad una risoluzione in cui le scalettature non si vedono per tanto piccoli sono i punti?). Non siamo nel caso in cui con le vecchie schede tutto scatta mentre con quella nuova no.
Resta il fatto che per ora è la più veloce.

uzzy
08-11-2006, 20:53
Bohia Dé!

zanardi84
08-11-2006, 20:53
:asd: si dice "excuse me, maerlin"..
beh, forse anche le 24 ROP aiutano non poco :D

Anche vero, ma se di dati da elaborare che arrivano sono pochi, col cavolo che le sfrutti le 24 sorelle! Vale anche il contrario: se hai una marea di dati ma le sorelle scarseggiano, hai le code al casello.
Diciamo che è una situazione di equilibrio, ma il bus maggiorato fa certamente senso.

AzEnZI
08-11-2006, 20:57
Io ne ho prese 2 evga 8800 gtx in SLI.Adesso attendo che mi arrivi il SAMSUNG 305T 2560X1600 e poi mi godo lo spettacolo.
:mbe:

Uriziel
08-11-2006, 20:58
Io ne ho prese 2 evga 8800 gtx in SLI.Adesso attendo che mi arrivi il SAMSUNG 305T 2560X1600 e poi mi godo lo spettacolo.
ma come fai a spendere tutti sti soldi per queste cazzate?

Hyxshare
08-11-2006, 20:59
bella scheda....peccato che non sia stato fatto un confronto anche con le x1950 in crossfire....

aaasssdddfffggg
08-11-2006, 21:00
Perchè per mia fortuna non mancano!

aaasssdddfffggg
08-11-2006, 21:01
ma prima del SAMSUNG 305T mi sa che arriva prima il core2 quad.Qundi si fa prima quello.

Free Gordon
08-11-2006, 21:05
Gran belle scheda, complimenti ad Nvidia, nel settore dx9 ha raggiunto davvero l'apice.

Per un barlume di dx10 dovremo aspettare almeno altri 6 mesi.. :(

Cmq la GTX, quando avrà un prezzo sulle 350 euro, sarà una vga molto allettante per me.. :D

Catan
08-11-2006, 21:12
ragazzi guardiamo una cosa orami non siamo manco + cpu limeted ma monitor limited...
queste e parlo della 8800 ma discorso vale anche per 7950 e x1950 sono schede che manco con un 19" 1600x1200 le si mette in crisi...nemmeno utilizzando i filtri...
sono gran belle schede purtroppo gia a un proiitivo costo aggiungono che cmq anche chi ha un buon 17" da 8ms per sfruttarle deve prendere almeno un 19" o 20" e chi vuole le dx10 deve prendere vista...
con tutto che siamo appassionati
650E sk grafica+400E monitor+200E vista=1250E....
davvero esorbitanti...
vediamo la gts come va magari è la scheda per noi poveri motali che abbiamo solo un 17"

reptile9985
08-11-2006, 21:14
a quando la fascia media sui 300€?...tocca aspettare che ati butti fuori qualcosa? :(

Sig. Stroboscopico
08-11-2006, 21:16
Mhmhmmm

Bella scheda... certo che dover mettere su un alimentatore solo per accendere sta scheda?

Mi siamo ormai nella condizione per usare lo SLI per mettere su 2 schede:

La prima con basso consumo per l'uso quotidiano.
La seconda che accendiamo solo quando si gioca o si lavora.

Sarebbe finalmente un uso intelligente per SLI o simili...

Ciao

DVD2005
08-11-2006, 21:19
Ottima recensione, anche perchè mette in evidenza di quale companatico serva per gustare questa scheda, caratteristiche spesso sottovalutate o proprio non considerate (alimentatori, monitor, processori adeguati.)

nico88desmo
08-11-2006, 21:26
prima di tutto...COMPLIMENTI PER LA RECENSIONE! :D Ottimo lavoro come sempre! :D
Ormai ci siamo abituati bene! :D

La scheda...che dire, sbalorditiva! Rispetto alla 7900GTX c'è praticamente un raddoppio delle prestazioni, impressionante! Un'altra cosa che mi ha stupito davvero è la qualità dell'anisotropico e, punto dolente da sempre per nVidia, il degrado di prestazioni abilitando il filtro antialiasing che grazie a questa nuova architettura e alla maggiore grandezza del bus non si nota come in passato!

Come ho letto negli ultimi post, adesso si ritiene questa scheda inutile...beh, secondo me lo è per chi non se la può permettere; e dico di più, questa scheda è stupenda, potente...ma soprattutto...mi fà ben sperare per le schede sorelle... 8600(?) - 8300(?);

Alzando la qualità della fascia enthusiast, si alzerà sicuramente anche quella della fascia media, magari portando la 8600 (scheda in cui personalmente sono ancora più curioso ora :D ) a eguagliare o andare leggermente meno di 7900gtx - x1950xtx...il che vuol dire giocare a 1600x1200 senza problemi.

Se diciamo che la scheda è inutile, pensiamo alle sorelle allora...i nostri portafogli possono solo che ringraziare :D

Grey 7
08-11-2006, 21:26
molto completa la recensione, che dire...è un mostro di scheda, di certo me la godrò al max sul mio crt da 17"" con risoluzione max di 1280*1024 :asd: :asd:

DakmorNoland
08-11-2006, 21:29
Tutto ok però sta cosa che c'è bisogno di almeno un 20'' e che va tenuto a minimo 1600, non la capisco propio! Sono cavolate! Poi va bene con i giochi di adesso anche ad alte risoluzioni non ha problemi, ma io voglio propio vedere se con giochi spessi DX10 girerà con altrettanta scioltezza a ste risololuzioni pazzesche quanto inutili!

Poi anche il fatto del widescreen...Le solite manovre commerciali! Però da chi ha scritto l'articolo propio non me l'aspettavo...

Dj Antonino
08-11-2006, 21:30
Gran belle scheda, complimenti ad Nvidia, nel settore dx9 ha raggiunto davvero l'apice.

Per un barlume di dx10 dovremo aspettare almeno altri 6 mesi.. :(

Cmq la GTX, quando avrà un prezzo sulle 350 euro, sarà una vga molto allettante per me.. :D
qua ci sono dei filmatini che in teoria dovrebbero mostrare un barlume di dx10 :D
http://www.nvidia.com/page/geforce8.html

Paolo Corsini
08-11-2006, 21:35
Poi anche il fatto del widescreen...Le solite manovre commerciali! Però da chi ha scritto l'articolo propio non me l'aspettavo...
Forse chi ha scritto l'articolo scrive
1) avendo provato tutte le schede in prova
2) avendo provato a giocare a risoluzioni standard, e a risoluzioni wide molto alte
quantomeno non dovrebbe scrivere per sentito dire ;)

Dylan BJ
08-11-2006, 21:37
ottimo test!!!
ke dire?? ora potranno zittirsi coloro ke gridavano alla scarsa qalita' filtri by nvidia........ :p un po' x i rossi, un po' x i verdi (o dovrei dir un po' x i verdi.. un po' x i "verdi amd-iani!!!) :D

davide22
08-11-2006, 21:42
Recensione curata...complimenti...
peccato le poche informazioni sulla gts...si aspetta.. :)

che per godere appieno di questi mostri sia necessario di un "ambaradam" altrettanto ottimo si sà...però per fortuna che il mercato avanza a passi da gigante portando i componenti a svalutazioni veloci...
io credo cmq che anche a risoluzioni "normali" la scheda sia sfruttata (ovviamente a patto di fare poi upgrade successivi) ...
forse sicuramente l'acquisto è meno giustificato ...ma nn certo propriamente "inutile".

bart noel
08-11-2006, 21:42
Italia, la mia patria. Terra dove tutti sono commissari tecnici, piloti, politici, editori di siti web e system admin.
:sofico: :rotfl: :rotfl:

complimenti per la recensione molto esauriente, forse mi aspettavo qualche games più recente nella lista benchmark....tipo Call Of Juarez e Need for Speed Carbon ;)

Eraser|85
08-11-2006, 21:45
665 euri la GTX, 490 la GTS disponibili ora :O
Cmq l'esperienza mi insegna a saltare a piè pari la prima iterazione di una nuova architettura video per poter prendere successivamente la versione "rivista e migliorata" che in teoria dovrebbe essere preferibile da diversi punti di vista (vedasi 9700 vs 9800, x1800 vs x1900 etc..)

Imho forse potremmo aspettarci un miglioramento nei consumi con la prossima famiglia (almeno ci spero! :( )

Asd lo immaginate.. GeForce 9800 (pro) :P :P :P

Dexther
08-11-2006, 21:46
mostruosa! :ave:

Stig
08-11-2006, 21:52
Asd lo immaginate.. GeForce 9800 (pro) :P :P :P
siceramente prevedo piu una 8900gtx...

:asd:

lzeppelin
08-11-2006, 22:00
Complimenti allo staff per il mega articolo!

CosasNostras
08-11-2006, 22:01
ragazi godo di brutto per aver preso un moniotr 20" widescreen 16:10....1680x1050 ...potrò godermi e sfruttare pienamente la risoluzione :D :D

Koji
08-11-2006, 22:03
Bene bene, il mio prox pc si va componendo: Conroe 6600 + Nvidia 8800GTS.....chissà che mostricciattolo viene fuori. :sbav:

ale0bello0pr
08-11-2006, 22:08
Forse chi ha scritto l'articolo scrive
1) avendo provato tutte le schede in prova
2) avendo provato a giocare a risoluzioni standard, e a risoluzioni wide molto alte
quantomeno non dovrebbe scrivere per sentito dire ;)

grande :read: :D
non è ke ora dopo il test quel bel dell vuole essere prestato a qualcuno? :D :asd: mi offro volontario... :cool:

Blackmag
08-11-2006, 22:12
Io aspetterei la risposta di ati per poi decidere con cognizione di causa che fare...

Dylan BJ
08-11-2006, 22:15
edit

Solido
08-11-2006, 22:17
Bohia Dé!


Botta incredibile :D


nn c'è che dire una bella scheda... spero che i mac le supportino :rolleyes:

Einhander
08-11-2006, 22:17
complimenti per la recensione,ottima come sempre anche se,come qualcuno ha fatto notare,inserire tra i giochi anche qualcosa di piu' attuale tipo call of juarez,dark messiah o NFS corbon nn sarebbe stato male....

Cmq ancora complimenti!!!!

Per quanto riguarda la scheda voglio essere onesto dichiarando di essere un simpatizzante ATI ,ma devo ammettere che questa volta nvidia e' riuscita a stupirmi nn tanto per le prestazioni-me lo aspettavo-quanto per la serie di difettucci che in un colpo solo ha risolto portando la qualita' della sua proposta addirittura ad un livello superiore.....
Il che mi fa pensare che la fusione di ati con amd abbia impensierito nn poco quelli di casa Nvidia,il che francamente,e' un bene per noi....

Ora nn rimane che aspettare Vista e vedere cosa realmente e' in grado di fare questa scheda-credo che un buon test potrebbe essere Crysis,anche se nn e' nativo dx10...-
E,ovviamente,R600!

Intanto i miei piu' sinceri complimenti ad Nvidia!

P.S.:!1080p?MA DOVEEEEEEE????!!!!Siamo gia' oltre mio dio!!!!

Koji
08-11-2006, 22:30
Io aspetterei la risposta di ati per poi decidere con cognizione di causa che fare...

Hai ragione. Ognuno di noi però ha il suo metro di giudizio per scegliere. Per quanto mi riguarda la mia scelta non si basa sulla pura potenza bruta ma sull'esperienza personale. Se non fosse per le nuove dx10 mi terrei la mia stupenda 6800GT per altri 3 anni, ma tant'è............e senza dubbio la mia scelta cadrà sulla 8800, anche se Ati sfodererà un R600 ancora più potente. Anzi, me lo auguro anche, ogni battaglia tra produttori va a vantaggio nostro, quindi non mi augurerei mai il predominio dell'uno sull'altro. ;)

Colgo l'occasione per unirmi ai complimenti per la stupenda recensione e per dire che non vedo l'ora di leggermi quella sulla GTS, mio vero obiettivo. :cool:

reptile9985
08-11-2006, 22:34
Il che mi fa pensare che la fusione di ati con amd abbia impensierito nn poco quelli di casa Nvidia,il che francamente,e' un bene per noi....
non penso nvidia si sia preoccupata di questo mentre costruiva questa scheda che aveva già superato il tape-out in giugno quando ancora non si immaginava nulla dell'accordo amd-ati ;) ormai hanno già la risposta pronta a r600 :eek:

Free Gordon
08-11-2006, 22:38
qua ci sono dei filmatini che in teoria dovrebbero mostrare un barlume di dx10 :D
http://www.nvidia.com/page/geforce8.html


Hmmm... :p proprio un barlume di un barlume eh.. :D

ToXSys_Dwn
08-11-2006, 22:38
innanzitutto la recensione è grandiosa e merita un 10+, grandioso.

la scheda è eccezionale, prestazioni da urlo.
sec me però si sta intraprendendo una strada sbagliata, troppo consumo. bisognerebbe cambiare comunque rotta.
IMHO

Free Gordon
08-11-2006, 22:44
Certo che però 50W di più in idle, rispetto alle top di gamma ATI e nVidia della vecchia gen non sono pochi eh... sopratutto per chi il pc lo usa anche in internet e non solo per giocare!
Secondo me è lì il grosso del problema, non in full load..

nico88desmo
08-11-2006, 22:46
secondo me il consumo è relativo...ricordo che siamo nella fascia altissima del mercato, dove chi compra di solito sono persone che non hanno problemi economici...con questa scheda un utente di deve rifare tutto il pc:
alimentatore, skeda video, skeda madre, processore, memoria ram...a questo punto aggiungo anche monitor...

deck
08-11-2006, 22:49
Perchè per mia fortuna non mancano!
Non credevo che avere molti soldi privasse della capacità di discernimento! :P

aaasssdddfffggg
08-11-2006, 22:49
Per chi attende con impazienza ATI R600 per un eventuale confronto avrà qualche sorpesina...non appena uscirà ATIR600 non sarà questa la scheda di riferimento ma una versione ulteriormente superiore in frequenze.Ormai nVIDIA ci gioca con ATI.Vedrete ...

ale0bello0pr
08-11-2006, 22:51
purtroppo la bolletta della 'Enel o AEM non si svaluta come le schedozze o altro hardware :rolleyes: ...bensi aumenta :muro: ..... altro che ali da 1000 W... io con i miei 750W non mi smuovo nemmeno fra 3 anni...quindi meglio che si decidino a realizzare veramente invenzioni straordinarie a basso consumo.... li si che si può chiamare innovazione... :fagiano:

cristt
08-11-2006, 22:58
eh beh, con questa nuova generazione nvidia ha fatto un salto in avanti notevole sia in termini di prestazioni che di architettura. l'unica pecca rimane il consumo, terreno sul quale ci si dovrà concentrare maggiormente nel futuro, per non cadere nel ridicolo (1.000 watt!?!?).
la versione GTS in questo senso appare la più equilibrata ed appetibile, e anche dal prezzo umano.

sempre complimenti alle recensioni di hw, tecniche al punto giusto, chiare ed esaurienti. ci vorrebbe solo qualche screenshot per godere delle risoluzioni più elevate con i filtri a palla

Free Gordon
08-11-2006, 23:01
secondo me il consumo è relativo...ricordo che siamo nella fascia altissima del mercato, dove chi compra di solito sono persone che non hanno problemi economici...con questa scheda un utente di deve rifare tutto il pc:
alimentatore, skeda video, skeda madre, processore, memoria ram...a questo punto aggiungo anche monitor...


Sì, concordo.
Chi si compra 600 euro di scheda non va a guardare i 30 euro in più di bolletta all'anno.. :D

Free Gordon
08-11-2006, 23:01
Per chi attende con impazienza ATI R600 per un eventuale confronto avrà qualche sorpesina...non appena uscirà ATIR600 non sarà questa la scheda di riferimento ma una versione ulteriormente superiore in frequenze.Ormai nVIDIA ci gioca con ATI.Vedrete ...


Eh già.. :D si è visto con le 7900 infatti... LOL!

ToXSys_Dwn
08-11-2006, 23:03
Eh già.. :D si è visto con le 7900 infatti... LOL!

:D

CicCiuZzO.o
08-11-2006, 23:04
Innanzitutto, a costo di essere ripetitivo, complimenti per l'ottima recensione! :D

Come prima scheda del salto generazionale mi pare buona, però bisogna utilizzarla con un sistema altrettanto performante, altrimenti ciccia :rolleyes:

Risoluzioni al limite dell'umano (vi immaginate a giocare a 2560x1600? devi per forza comprare mouse e tastiera wireless :asd: ) ma per il futuro vedo grosse godurie per noi gamers :oink:

considerando che oggi mi hanno dato la conferma dell'assunzione a lavoro, ho capito dove andranno a finire i miei soldini tra qualche mese... :read: (sempre che Ati non ci sorprenda)

buona sbavata a tutti :sbav:

kenjcj2000
08-11-2006, 23:05
ma come fai a spendere tutti sti soldi per queste cazzate?

complimenti :rolleyes: complimenti

aaasssdddfffggg
08-11-2006, 23:13
7950x2 vuoi dire E NON 7900.Ti ricordo che la 7950x2 fino all'arrivo della 8800 è stata la scheda più performante del pianeta.E' un dato di fatto e assodato questo su tutti i siti mondiali.Informati per bene Free Gordon.

aaasssdddfffggg
08-11-2006, 23:14
Lascialo perdere.Uriziel è un frustato che muore di nVIDIA...appunto.

ale0bello0pr
08-11-2006, 23:14
7950x2 vuoi dire E NON 7900.Ti ricordo che la 7950x2 fino all'arrivo della 8800 è stata la scheda più performante del pianeta.E' un dato di fatto e assodato questo su tutti i siti mondiali.Informati per bene Free Gordon.


e si potevi anke dire la scheda + performante dell'universo, assodato in tutti i pianeti..... :rotfl:

:doh:

johnson
08-11-2006, 23:20
Finalmente ho visto che la recensione ha almeno un test (di fear) dove si vedono gli fps minimi, metro di valutazione fondamentale imho. Spesso il frame rate medio è "falsato" dal fatto che i benchmark alternano scene movimentate (20 fps) con passaggi in corridoi stretti (100fps).
Analizzando il grafico si vede che a 1600x1200 la scheda fa 48fps di minimo. Sembrerebbe anche parecchio se non fosse che fear è uscito ormai da più di anno se non sbaglio. Sarebbe interessante usare il benchmark del recentissimo company of hero che se non sbaglio integra nei risultati anche gli fps minimi come fear.
Avrei però gradito ancora i test a 1280x1024 con filtri al max. Preferisco giocare a risoluzioni più umane (potendo scegliere con un CRT), tipo 1280x1024, per mantenere un valore alto di fps minimi.

Speravo un vantaggio superiore sulla gx2, ma effettivamente era solo una speranza :sofico:

Forse la prendo cmq :D

Free Gordon
08-11-2006, 23:20
7950x2 vuoi dire E NON 7900.Ti ricordo che la 7950x2 fino all'arrivo della 8800 è stata la scheda più performante del pianeta.E' un dato di fatto e assodato questo su tutti i siti mondiali.Informati per bene Free Gordon.


Ovviamente i paragoni si fanno a parità di costo e architettura. :rolleyes:
Non ha molto senso paragonare una scheda che costa 150 euro più di un'altra e che integra all'interno ben due gpu..

Tra 1900XTX e 7900TGX la vincente è la prima, anche se la seconda è uscita dopo. ;)

Tu dicevi che nVidia fa come il gatto col topo con ATI.. beh, mi pare un tantino azzardata la tua affermazione. :D

capitan_crasy
08-11-2006, 23:21
Molto bella la recensione, complimenti... :)
Due appunti:
1) Nvidia consiglia una configurazione di Hard disk in Raid, mentre nella prova ce solo un un modello...
2) Anche se:

Le risoluzioni video utilizzate in questo articolo non sono mai state inferiori a quella di 1600x1200, e in nessun caso è stata utilizzata una modalità senza filtro anisotropico 16x abilitato; questa scelta è nuovamente motivata dall'elevata potenza elaborativa di queste schede video, che necessitano proprio di impostazioni qualitative spinte al massimo per poter essere sfruttate al meglio.
una prova a 1280X1024 ci voleva proprio.
Ok per sfruttare tutta la potenza del G80 ma in pochi si possono permettere un
monitor con risoluzioni che arrivano a 2560x1600...

kenjcj2000
08-11-2006, 23:30
7950x2 vuoi dire E NON 7900.Ti ricordo che la 7950x2 fino all'arrivo della 8800 è stata la scheda più performante del pianeta.E' un dato di fatto e assodato questo su tutti i siti mondiali.Informati per bene Free Gordon.


non sono d^accordo x nulla su ciò che dici.....

è più veloce? si e vorrei vedere


è più performante? non credo propio

una vga del genere senza HDR-AA insieme è potenza sprecata.... tanto è vero che sono anni che compro vga top all^uscita ma il salto dalla 1900xtx a una 7950gx2 mi avrebbe fatto guadagnare in frame ma perdere in quella visiva... fatto passo


Complimenti a nVidia nulla da dire scredidata da me x la serie 7^^^ vista l^architettura (mio parere) inferiore paragonandola a Ati... queste G80 su questo aspetto sono una meraviglia

nVidia a fatto un salto mortale con triplo avvitamento

complimenti

DVD2005
08-11-2006, 23:33
non sono d^accordo x nulla su ciò che dici.....

è più veloce? si e vorrei vedere


è più performante? non credo propio

una vga del genere senza HDR-AA insieme è potenza sprecata.... tanto è vero che sono anni che compro vga top all^uscita ma il salto dalla 1900xtx a una 7950gx2 mi avrebbe fatto guadagnare in frame ma perdere in quella visiva... fatto passo


Complimenti a nVidia nulla da dire scredidata da me x la serie 7^^^ vista l^architettura (mio parere) inferiore paragonandola a Ati... queste G80 su questo aspetto sono una meraviglia

nVidia a fatto un salto mortale con triplo avvitamento

complimenti

concordo con te, anche se il metro di paragone di G80 sarà R600 e non le attuali X1950

kenjcj2000
08-11-2006, 23:40
concordo con te, anche se il metro di paragone di G80 sarà R600 e non le attuali X1950

questo sono d^accordo al 100% con te se la R600 sarà migliore rifarò in cambio :sofico:

b0mber
08-11-2006, 23:46
una prova a 1280X1024 ci voleva proprio.
Ok per sfruttare tutta la potenza del G80 ma in pochi si possono permettere un
monitor con risoluzioni che arrivano a 2560x1600...

Quoto in pieno, alla fine all'utente interessano i test alle risoluzioni alle quali farà girare i vari giochi sul proprio pc.. E dato che la maggior parte degli utenti hanno monitor da 17 o 19" con risoluzione massima 1280x1024...
Personalmente sono rimasto un pò deluso dal non vedere nemmeno un test a quella risoluzione...

dragonheart81
08-11-2006, 23:49
Me che razza di bomba, ora attendo ATI con R600, e via alla sfida :)

Tetsujin
08-11-2006, 23:53
Ottima recensione, come al solito molto esaustiva, anche se senza la presenza di riferimenti "reali" nella risoluzione video, è difficile comprendere appieno la potenza di questo mostro (mi riferisco almeno alla più diffusa 1280x1024). Spero in un ulteriore approfondimento, soprattutto con i nuovi titoli che stanno letteralmente invadendo il mercato attuale: gothic 3, need for speed carbon, splinter cell double agent, tomb raider next gen.

Dark Schneider
08-11-2006, 23:55
Quoto in pieno, alla fine all'utente interessano i test alle risoluzioni alle quali farà girare i vari giochi sul proprio pc.. E dato che la maggior parte degli utenti hanno monitor da 17 o 19" con risoluzione massima 1280x1024...
Personalmente sono rimasto un pò deluso dal non vedere nemmeno un test a quella risoluzione...


Ma il motivo è semplice: una 8800GTX è una scheda pensata per risoluzioni molto più estreme, quindi inutile a mio avviso se si dispone di un monitor da 17-19 pollici.
Probabilmente saranno le fasce medie le vga ideali per risoluzioni come la 1280x1024.
La potenza delle vga in questi 2 anni è cresciuta a ritmo elevatissimo. Probabilmente in futuro assisteremo ad uno scenario in cui le vga top di fascia alta saranno un acquisto sensato solo per chi intende utilizzare risoluzioni iper estreme. Mentre la fascia media per risoluzioni più "umane". :)

Tetsujin
09-11-2006, 00:01
Ma il motivo è semplice: una 8800GTX è una scheda pensata per risoluzioni molto più estreme, quindi inutile a mio avviso se si dispone di un monitor da 17-19 pollici.
Probabilmente saranno le fasce medie le vga ideali per risoluzioni come la 1280x1024.
La potenza delle vga in questi 2 anni è cresciuta a ritmo elevatissimo. Probabilmente in futuro assisteremo ad uno scenario in cui le vga top di fascia alta saranno un acquisto sensato solo per chi intende utilizzare risoluzioni iper estreme. Mentre la fascia media per risoluzioni più "umane". :)

si ma scusami se insisto...faccio difficoltà a capire: va bene che a 1280x1024 la scheda non è totalmente sfruttata, pero' correggimi se sbaglio: se diminuisco la risoluzione, aumentano i frame al secondo. E' così assurdo quindi chiedere di sapere questo framerate? A me non pare :confused:

Tra l'altro in rete ho trovato questo:

http://xtreview.com/images/332006-8800gtx-b-1.PNG

:eek:

zforever
09-11-2006, 00:13
si ma scusami se insisto...faccio difficoltà a capire: va bene che a 1280x1024 la scheda non è totalmente sfruttata, pero' correggimi se sbaglio: se diminuisco la risoluzione, aumentano i frame al secondo. E' così assurdo quindi chiedere di sapere questo framerate? A me non pare :confused:
:eek:

Hai ragione ed in rete si trovano recensioni della 8800gtx anche a 1280x1024.
Sinceramente non so manco se sia utile giocare a risoluzioni superiori a quelle supportate dal proprio LCD...

hibone
09-11-2006, 00:20
hihihihi tempo fa ho buttato un occhio al curriculum di Mr. Corsini..
proprio me lo vedo che lo chiamano dall'ufficio accanto e lui con episode one con risoluzione a palla "un attimo... sto lavorando!"

ps. ho letto solo le conclusioni perchè al momento mi godo la mia blissettona.. a giudicare dall'indice direi che di prove ne ha fatte molte.. complimenti..

c'è da dire che un 21'' crt la supporta benissimo una scheda del genere.. è la bolletta che mi preoccupa...
1kw di alimentatore quando mediamente una famiglia ha 3kw di fornitura mi sembra abbastanza preoccupante...
senza considerare che in tanti hanno anche un muletto..

cmq sono curioso di vedere se vengono fuori delle magagne e le ottimizzazioni che introdurranno coi prossimi processi produttivi...

samslaves
09-11-2006, 00:33
A tutti i personaggi che mi davano contro in questa news

http://www.hwupgrade.it/articoli/skvideo/1596/ati-radeon-x1950pro-roundup_9.html

facendo riferimento alla X1950XTX e alle DX9, come avevo detto...

oxota
09-11-2006, 00:39
Non hanno fatto la prova a quella risoluzione per il semplice motivo molti giochi penso siano cpu limited comunque le differenze non sono cosi' eclatanti specialmento prendendo come riferimento i prezzi e quindi la versione gts che forse e' la piu' ghiotta!
http://www.tomshw.it/graphic.php?guide=20061108&page=geforce_8800_nvidia_g80-13.
Visto che il tutto scalera' in base ai stream processors e alla velocita' delle memorie perche' per una prossima recensione non azzardare le prestazioni di una ipotetica 8600gt? insomma la fascia piu' ghiotta quella delle 200 euro?
Per uno che si fa' un pc nuovo non la denigrerei tanto.
Visto che vi trovavate potevate simulare anche un e6300 mica era una cattiva idea, uno parte con la versione base della cpu che e' l'unica che puo' sicuro scende di prezzo e prendersi la versione gts e stai tranuillo come minimo 2 anni

The_SaN
09-11-2006, 00:41
Davvero complimenti per la rece !!!
Proprio completa sotto ogni punto, peccato per la risoluzione 1280x1024...
Comunque...che schedona ragazzi :eek: :eek: :eek:
Anche se io aspetto R600 per le conclusioni, é sempre meglio poter scegliere (anche perché io compro si una scheda di fascia alta, ma non ogni 3-6 mesi ;) ).
Comunque mi preoccupano i watt in piú in idle (e non quelli in full), perché io il pc lo uso abbastanza per giocare, ma internete programmi da "ufficio" li uso molto di piú e sicuramente peseranno sulla bolletta (anche se io downclocko il tutto).
Infine, la scheda nVidia mi ha davvero colpito (apparte questo fatto del consumo in idle) :Ha eliminato il gap sulla qualitá del filtro, puó usare HDR +AA e ha una potenza mostruosa. Comunque dovremo aspettare bench e giochi dx10 per vedere la bontá dell' architettura (vi ricordate la serie 5xxx ? Anche se sono sicuro che hanno imparato la lezione :) )

@ Nemesis Elite : sei sempre il solito, ormai non sto neanche a discutere...
Dai...solo un ultima volta :Prrr:
Quando capirai che la x1950XTX é l' avversaria della 7900GTX e non della GX2!!!!!
Oltre al fatto che in qualitá visiva (quello che conta in una scheda del genere) le prendeva e non poteva neanche fare HDR + AA ...

deck
09-11-2006, 00:45
Ragazzi, io non concordo su alcune considerazioni che ho letto...
In effetti nonostante le varie considerazioni sulle performance in ambito DX9 mi sembra evidente che una scheda del genere non sia da acquistare per avere il massimo delle prestazioni OGGI. In questo senso una 7900GTX/1900XTX sono abbastanza per godere appieno dei giochi a risoluzioni umane (1280*1024). L'importanza di avere questi numeri è quella di rassicurare l'utenza attuale che c'è una riserva di potenza tale da non rendere questa scheda obsoleta nel giro di 6 mesi quando usciranno i giochi next-gen, perchè a quel punto le risoluzioni giocabili non saranno più 3000*2250 ma magari proprio 1280*1024. Personalmente tra giocare a 1600*1200 a 600frame a Tomb Raider (il primo!) e a 1024*768 a 50 con Oblivion io preferisco il secondo! Con l'aumentare della complessità dei modelli e degli effetti la risoluzione passa in secondo piano, se si riuscisse ad arrivare ad un grado di dettaglio tale da sembrare un film in DVD in real time io non mi preoccuperei del fatto che gira al massimo in 720p...

prova
09-11-2006, 00:56
Complimenti di rito ma non meno sentiti: recensione GRANDIOSA!
[ma che fine ha fatto Raffaele? Non se ne occupava lui di recensire le vga? Corsini, lo hai per caso fired? :asd: ]

La scheda è spaventosa e i consumi purtroppo altrettanto.

Vorrei però soffermarmi su un aspetto che considero molto importante, e che sarebbe molto bello veder specificare da chi si occupa di recensioni almeno una volta. Magari qualche sciocco tifoso che affolla le pagine di questo sito pubblicando commenti idioti e ciechi potrebbe fare un'analisi critica [sempre ricordando il fatto che un approccio critico richiede un'intelligenza minima da cui partire ... ]

Seguo il mondo dell'hw da quando Hwupgrade era poco più che una paginetta nel mare di internet [un blog, diremmo oggi] e di cose ne sono cambiate davvero tante.
Nel caso specifico, la condizione di concorrenza tra Ati e Nvidia.
Sarebbe bello ricordare a chi tanto si ostina a sperare nella "vittoria" di un'azienda su un'altra [ma che siete, tonti? E' calcio?] che una volta, quando Nvidia regnava incontrastata in un mercato di fatto in regime di monopolio, gli aumenti prestazionali da una generazione all'altra erano ridicoli.
Ricordate il passaggio da Geforce a Geforce2? E quello dalla Geforce2 GTS alla Geforce3?
Erano miglioramenti prestazionali spiccioli, dettati dal fatto che l'azienda monopolista [Nvidia] non aveva certo interesse ad un aumento esasperato del contenuto tecnologico.
Ed oggi leggo di gente che si lamenta quando la 8800GTX ha prestazioni pari AL DOPPIO [!!!] della generazione precedente?!!!
Ma voi siete fuori di testa.

Ringraziate che le aziende in lotta sono due, e sperate che nessuna di loro chiuda baracca e burattini. Sarebbero cazzi per tutti. O forse i tifosi sperano che l'azienda del loro cuore invierà loro schede più perfomanti delle altre e a prezzi inferiori perchè sono fanboy?

Ma che scrivo a fare? Gli ottusi non sanno ragionare :asd:

capitan_crasy
09-11-2006, 01:02
Ma il motivo è semplice: una 8800GTX è una scheda pensata per risoluzioni molto più estreme, quindi inutile a mio avviso se si dispone di un monitor da 17-19 pollici.
Probabilmente saranno le fasce medie le vga ideali per risoluzioni come la 1280x1024.
La potenza delle vga in questi 2 anni è cresciuta a ritmo elevatissimo. Probabilmente in futuro assisteremo ad uno scenario in cui le vga top di fascia alta saranno un acquisto sensato solo per chi intende utilizzare risoluzioni iper estreme. Mentre la fascia media per risoluzioni più "umane". :)
aspetta un momento:
NON ci credo che Nvidia abbia creato il G80 SOLO per chi ha monitor con risoluzioni superiori a 1280x1024;
Nvidia consiglia per la 8800 potenza alimentatore, configurazione hard disk in raid, CPU moderne e 2Gb di ram ma NON la risoluzione.
La scelta di risoluzioni così alte è stata fatta dalla redazione di HWUPGRADE, ma non è la regola per l'acquisto di questa scheda.
Quindi sotto il mio modesto parere una prova in 1280X1024 ci stava benissimo!

Uriziel
09-11-2006, 01:02
Lascialo perdere.Uriziel è un frustato che muore di nVIDIA...appunto.
MUOIO DI NVIDIA?

ma lol ragazzi sveglia....cioè siamo arrivati al punto che chi cerca di riportare un po la gente sulla terra viene trattato da sfigato????

qua stiamo parlando di gente che compra monitor da 1000 mila pollici( e altrettanti euro) 2 schede video da non so quante centinaia di euro PER GIOCARE anzi manco, per far girare 3d mark(non mi so immaginare altre applicazioni per hardware del genere) e quando uno si permette di stupirsi per una spesa del genere deve anche passare da sfigato o frustrato?????


io nvidio(INVIDIO) chi magari con 4000 euro si fa una vacanza da sogno o li investe per qualcosa di utile non chi butta soldi per queste cose.
ma mica ho 12 anni...
ASSURDO.


lasciate stare i bench e tornate sulla terra!!!!

c'è gente che questi soldi se li deve guadagnare con mesi di lavoro e li deve spendere per campare...scusate eh.

DVD2005
09-11-2006, 01:10
aspetta un momento:
NON ci credo che Nvidia abbia creato il G80 SOLO per chi ha monitor con risoluzioni superiori a 1280x1024;
Nvidia consiglia per la 8800 potenza alimentatore, configurazione hard disk in raid, CPU moderne e 2Gb di ram ma NON la risoluzione.
La scelta di risoluzioni così alte è stata fatta dalla redazione di HWUPGRADE, ma non è la regola per l'acquisto di questa scheda.
Quindi sotto il mio modesto parere una prova in 1280X1024 ci stava benissimo!

anche secondo me.

nel 3D ufficiale abbiamo il primo possessore della 8800GTX del forum ;)

MenageZero
09-11-2006, 01:14
sicuramente "mostruosa" come novità architetturali, molto più innovativa di come me la aspettavo
(infatti si davano praticamente per certi shader separati e si era scettici sul clock differenziato per gli shader e superiore ad 1GHz, anche se poi è mancata la ppu dedicata e integrata di cui si vociferava)

a livello delle prestazioni emerse nel test però... :wtf:
mi ha sorpreso vedere spesso molto vicina o anche davanti la 7950gx2 (anche se in alcuni test anche questa scheda viene distanziata nettamente)...

viste le risorse di calcolo disponibili nella 8800gtx, 128 "stream proc." (nonché operanti a 1,35 GHz !) vs (24+8)x2=64 shader units nella 7950gx2, mi sarei aspettato che la nuova scheda "doppiasse" o quasi anche la 7950gx2 quasi sempre !
invece sembra che effettivamente "vada solo" il doppio o quasi di una 7900gtx (distanziando sempre o quasi cmq nettamente la x1950xtx)...

a cosa può essere dovuto ciò ?

driver per la 8800 non ancora al max dell'efficenza nello sfruttare il nuovo hw ?

al fatto che le shader units nella 7950 pur essendo la metà e operando a clock molto minore sono molto più efficenti essendo specializzate ?
(ma, se fosse così, allora non è si "rischia" che continunado con gli shder separati, anche se non si può avere bilanciamento dinamico delle risorse da allocare a calcolo pixel e vertex, si sarebbero potute avere gpu ancora più performanti anche con i futuri titoli, anche dx10 ?)

a proposito delle "units", si sa come è fatto il singolo stream processor ?
(per esempio r580 ha il doppio di pixel units di g71, ma questo non conferisce alla soluzione ati il doppio di potenza di calcolo in questo ambito i quanto la unit hati ha 1 alu scalare e 1 vettoriale, quella nvidia 2 vettoriali; se ricordo bene)
quante alu ha ? di che tipo ?

rigurado agli alimentatori consigliati, se con una configurazione abbastanza "leggera" apparte la gpu e forse la cpu(per la quale però forse i + di 120 W delle soluzioni top iniziano ad essere troppi), basta un ali da 450 con 30A "garantiti" sui circuiti a 12V,

perché, con l'sli, gli alimentatori consigliati, tendono ad essere intono ai 1000W (inoltre si preouccupano di consigliare valori anche superiori ai 30A sui 12V se il sistema ha molteplicità di hdd o odd, ma non nominano cosa si deve cercare per tale parametro se hai più di una 8800gtx... :confused: ), o nel caso migliore 750W ?

la seconda scheda che fa, aggiunge almeno circa 300W al consumo totale del sistema nel momento in cui questo sta lavorando e cosumando al max in tutti i suoi componenti ? mi pare una variazione attesa un po' esagerata anche volendo essere di manica larga... :wtf:

infine direi un plauso anche al dissipatore reference, che nonostante la montagna di transistor in più rispetto alle generazioni precedenti, il processo ancora a 90nm e le freq. "mostruose" di alcune parti della gpu e quindi il coseguente significativo aumento di consumo e calore prodotto, riesce ad essere meno rumoroso di quello di una x1950xtx (che mi pare di capire la redazione considera non male, almeno)

[K]iT[o]
09-11-2006, 01:26
Scusatemi ma non sono daccordo sull'idea generale che una scheda simile serva solo su risoluzioni assurde. Io ho provato il demo dell'ultimo Total War e vi dico che a 1024x768 con filtri e dettagli massimi mi scende a 18fps, e dubito che questa 8800gtx riesca a pari dettagli a fare più di 30fps come frame minimo a queste impostazioni, per cui... Sono sicuro che i giochi del prossimo anno saranno già in grado di metterla ko già a 1280x1024.

Mister_Satan
09-11-2006, 01:27
dopo l'eccellente recensione dell'altrettanto impeccabile Corsini, ecco la solita pletora di commenti che accompagnano l'uscita di un componente top di gamma, che si ripetono puntuali e vedono i due scheramenti ben contrappsti ai limiti della sospensione....


in realtà, oggettivamente si parla di cifre e componenti assolutamente irrazionali, e questo da un freddo punto di vista logico ed economico è insindacabile. Qualunque utente che considera il pc un mezzo e non una passione, oppure una persona distaccata da questo mondo, non può che rimanere disgustata (i termini sono ben ponderati) da questo prolificare di persne che accorrono a dilapidare migliaia di euro per l'hardware dell'ultimo grido, spesso inutile o inutilizzabile al momento dell'acquisto, provocando tra l'altro una svalutazione eccessiva dell'usato a cascata. Gli esempi sono molteplici (cpu 64 bit, gli stessi DX10), e la giustificazione "almeno è longeva" è ridicola perchè chi ha acquistato adesso questa vga, all'uscita consolidata dei giochi dx10 ne avrà cambiate un altro paio....

Tuttavia, facendo io parte di questi folli, e non essendo ricco ne spendaccione (neolaureato in ing. e quindi passato da studente a disoccupato, part time a parte, martello con i curriculum la redazione x farmi assumere ma nada...) posso esporre altre considerazioni.

Primo: è una passione. un desiderio irrefrenabile, una curiosità, una certa vanità, e tutto questo non può essere razionale; ogni uomo ha passioni, e per quelle passioni, hobbies o simili usa comportamenti illogici e inspiegabili ad occhi distaccati. Inoltre, spesso basta saper ruotare bene l'hardware per non dover mai spendere molto in tutti i passaggi di upgrade.

Quindi, evitiamo i soliti post, e passiamo alle considerazioni tecniche: per chi è una spesa irrazionale, non legga la news, trascuri i commenti e passi ad altro;: gli altri, non usino termini pesanti per difendere la propria posizione.

Scusate la lunghezza, ma questo tipo di 3d si arricchiscono sempre di questi post inutili e ripetitivi che appesantiscono incredibilmente la lettura, distolgono l'attenzione dai commenti interessanti e fanno passare la voglia di cliccare sul tasto "successiva"

samslaves
09-11-2006, 01:34
>
ma come fai a spendere tutti sti soldi per queste cazzate?
<

Ognuno li spende come vuole.
Magari tu fumi e non ti rendi conto che potresti spenderli per questo o quel sistema (facendo un paio di conti) e rischi anche di ammalarti i polmoni; oppure hai la fissa del gioco d'azzardo o dello scooter.

MenageZero
09-11-2006, 01:40
L'inutilità fatta vga... Ma a chi cavolo serve una scheda così? Devi avere un 30 pollici a risoluzion galattiche, non devi scendere sotto 16x come filtri, serve una centrale elettrica dedicata e tra scheda e sistema da abbinare spendi un patrimonio... Bello!

Il tutto per poter dire "noi abbiamo il top di gamma"... Ma x carità... Abbassate i prezzi delle 7900 che sono appena uscite! Io ho una x850xt da meno di un anno, ci gioco a tutto benone eppure sono indietro di due generzioni... Non so se ridere o piangere...

il problema è che per rimediare alla "inutilità" a cui ti riferisci, doverbbero fermare sia l'evoluzione delle gpu che dei video-giochi almeno per qualche anno, se no è normale che periodicamente ci siano "strappi in avanti" (alla lunga per chi ha i soldi da metterci, "rende" molto di più comprarsi queste schde "inutili" che una delle frequenti revisioni della stessa arcgitettura base)
;)

poi chiaro che ancora oggi trattasi essenzialmente al 99% di "giocattoli" (non vogliatemene , non è dispregiativo) per il tempo libero, per cui in questo ambito molto soggettivo e svincolato da qualunque concetto di necessità per definizione ognuno valuta cosa gli è "utilie" e cosa "no" e quello che vuole/può spendere per un hobby

a me per esempio istintivamente potrebbe venire di accostare l'aggettivo "inutile" all'acquisto di una 8800 in questo momento, anche perché ancora devono uscire dx10 e relativi giochi, non certo per la "colpa" di "eccesso di potenza", ma al limite se fosse vero che in meno di 6 mesi ne esce la versione shrinkata che presumibilmente consumerà e scalderà meno, dato che ora una 8800 è un componente che consuma e scalda sensibilmente di più dei predecessori e veramente molto in assoluto,

ma alla fine non è che una opinione personale e molto poco "generalizzabile" in quanto nella stragrande maggioranza dei casi,per l'acquirente di componenti di questo livello(e prezzo) i problemi di cosumi e calore sono molto relativi data la ovvia disponibilità economica ed il fatto che non prende certo queste schede per metterle in un pc medio e "tranquillo" che non deve richiedere particolari accorgimenti o essere "troppo costoso da usare" assiduamente

pupgna
09-11-2006, 01:49
fantastica la prova della NVIDIA 8800 SOPRA alla (scatola) ATI


eh eh eh


bando alle ciance....lavora bene la ragazza
un pò cresiutella...impossibile che entri nella maggior parte dei case....

mrt75
09-11-2006, 01:59
secondo me il consumo è relativo...ricordo che siamo nella fascia altissima del mercato, dove chi compra di solito sono persone che non hanno problemi economici...con questa scheda un utente di deve rifare tutto il pc:
alimentatore, skeda video, skeda madre, processore, memoria ram...a questo punto aggiungo anche monitor...

Sì, concordo.
Chi si compra 600 euro di scheda non va a guardare i 30 euro in più di bolletta all'anno.. :D

Oggi vi do ragione,ma non avete pensato che tra qualche tempo quando saranno calati i prezzi o quando la vecchia VGA non riuscira a fare quello che l'utente desidera, anche gli altri la compreranno? Poi se continuano su questa strada tra 3/4 anni ciucceranno 800W solo le VGA!
E come la storia del zuchetto! gira gira ma finisce sempre nel C..O all'ortolano.. ;)

MuadDibb
09-11-2006, 02:05
il problema è che per rimediare alla "inutilità" a cui ti riferisci, doverbbero fermare sia l'evoluzione delle gpu che dei video-giochi almeno per qualche anno, se no è normale che periodicamente ci siano "strappi in avanti" (alla lunga per chi ha i soldi da metterci, "rende" molto di più comprarsi queste schde "inutili" che una delle frequenti revisioni della stessa arcgitettura base)
;)

poi chiaro che ancora oggi trattasi essenzialmente al 99% di "giocattoli" (non vogliatemene , non è dispregiativo) per il tempo libero, per cui in questo ambito molto soggettivo e svincolato da qualunque concetto di necessità per definizione ognuno valuta cosa gli è "utilie" e cosa "no" e quello che vuole/può spendere per un hobby

a me per esempio istintivamente potrebbe venire di accostare l'aggettivo "inutile" all'acquisto di una 8800 in questo momento, anche perché ancora devono uscire dx10 e relativi giochi, non certo per la "colpa" di "eccesso di potenza", ma al limite se fosse vero che in meno di 6 mesi ne esce la versione shrinkata che presumibilmente consumerà e scalderà meno, dato che ora una 8800 è un componente che consuma e scalda sensibilmente di più dei predecessori e veramente molto in assoluto,

ma alla fine non è che una opinione personale e molto poco "generalizzabile" in quanto nella stragrande maggioranza dei casi,per l'acquirente di componenti di questo livello(e prezzo) i problemi di cosumi e calore sono molto relativi data la ovvia disponibilità economica ed il fatto che non prende certo queste schede per metterle in un pc medio e "tranquillo" che non deve richiedere particolari accorgimenti o essere "troppo costoso da usare" assiduamente

Sinceramente mi verrebbe da QUOTARTI A META'... mi spiego!!

Prima cosa:Il fatto che a me piaccia correre con la macchina, non vuol dire che io compri una benzina... infatti ho una CDI: un diesel!! Quindi un minimo risparmio mi interessa! :D

Seconda cosa: è vero che chi compra questa Scheda Video ha soldi da spendere, io stesso ho comprato la 7800GTX-256 quando ancora costava 540 euro. Ma e' stata una spesa che ho fatto a novembre 2005, quest'anno col ca$$o che lo faccio!!! Non perche' sia pentito, ma spendere cosi tanti soldi... sempre... non lo si puo' fare! O cmq l'utente medio-alto (che non vuole buttare i suoi soldi) giudica quando e' opportuno comprare o quando no! Ognuno di noi ha il suo metro di paragone...

Terza cosa: sinceramente il calore prodotto mi da fastidio, perche' non va a toccare solo la scheda video, ma inficia tutto un sistema: ho ventole da 12 a mai finire sul mio PC ma sinceramente mi comincia a rompere le scatole giocare sempre col Rheobus per settarle... se gioco le ventole vanno a manetta, se dormo e il mulo scarica le ventolo le metto al minimo!!! Ufff... :O

E in ogni caso... ma secondo voi, ma perche' la Intel e l'AMD si spaccano in 2 per diminuire i consumi e invece Nvidia e ATI (ok, lo so, è AMD) aumentano i consumi cosi tanto!!?? :rolleyes:

A scanso di equivoci, se avessi soldi disponibili questa scheda me la comprerei senza manco pensarci 2 volte!!! Pero' mi pongo questa domanda... :D
E non pensate che con lo shrink cambi qualcosa... diminuiranno i consumi ma contemporaneamente la scheda acquistera' Mhz e quindi siamo punto e d'accapo (sempre che non si compri una scheda medio-alta e non una Enthusiast).

PS. W ATI e W Nvidia... state tranquilli che non volevo flammare, era solo (e lo giuro) per aumentare la mia conoscenza! ;) ;)

mrt75
09-11-2006, 02:12
dopo l'eccellente recensione dell'altrettanto impeccabile Corsini, ecco la solita pletora di commenti che accompagnano l'uscita di un componente top di gamma, che si ripetono puntuali e vedono i due scheramenti ben contrappsti ai limiti della sospensione....


in realtà, oggettivamente si parla di cifre e componenti assolutamente irrazionali, e questo da un freddo punto di vista logico ed economico è insindacabile. Qualunque utente che considera il pc un mezzo e non una passione, oppure una persona distaccata da questo mondo, non può che rimanere disgustata (i termini sono ben ponderati) da questo prolificare di persne che accorrono a dilapidare migliaia di euro per l'hardware dell'ultimo grido, spesso inutile o inutilizzabile al momento dell'acquisto, provocando tra l'altro una svalutazione eccessiva dell'usato a cascata. Gli esempi sono molteplici (cpu 64 bit, gli stessi DX10), e la giustificazione "almeno è longeva" è ridicola perchè chi ha acquistato adesso questa vga, all'uscita consolidata dei giochi dx10 ne avrà cambiate un altro paio....

Tuttavia, facendo io parte di questi folli, e non essendo ricco ne spendaccione (neolaureato in ing. e quindi passato da studente a disoccupato, part time a parte, martello con i curriculum la redazione x farmi assumere ma nada...) posso esporre altre considerazioni.

Primo: è una passione. un desiderio irrefrenabile, una curiosità, una certa vanità, e tutto questo non può essere razionale; ogni uomo ha passioni, e per quelle passioni, hobbies o simili usa comportamenti illogici e inspiegabili ad occhi distaccati. Inoltre, spesso basta saper ruotare bene l'hardware per non dover mai spendere molto in tutti i passaggi di upgrade.

Quindi, evitiamo i soliti post, e passiamo alle considerazioni tecniche: per chi è una spesa irrazionale, non legga la news, trascuri i commenti e passi ad altro;: gli altri, non usino termini pesanti per difendere la propria posizione.

Scusate la lunghezza, ma questo tipo di 3d si arricchiscono sempre di questi post inutili e ripetitivi che appesantiscono incredibilmente la lettura, distolgono l'attenzione dai commenti interessanti e fanno passare la voglia di cliccare sul tasto "successiva"

Anche io sono un folle!,ho sta' passione irrefrenabile, sta smania,la bava alla bocca quanto la vedo!! Xho caspita! non me la da' mai nessuna! :rotfl:

Scusa ma non ho resistito! :D
A parte gli schezi ,condivido pienamente quello che dici.

Benzamen
09-11-2006, 02:13
Bellissima scheda non c'è che dire un concentrato puro di potenza :sofico:

Sarà sicuramente sul mio pc in costruzione :Prrr:

Non vedo l'ora che esca :D

Dark Schneider
09-11-2006, 02:14
aspetta un momento:
NON ci credo che Nvidia abbia creato il G80 SOLO per chi ha monitor con risoluzioni superiori a 1280x1024;
Nvidia consiglia per la 8800 potenza alimentatore, configurazione hard disk in raid, CPU moderne e 2Gb di ram ma NON la risoluzione.
La scelta di risoluzioni così alte è stata fatta dalla redazione di HWUPGRADE, ma non è la regola per l'acquisto di questa scheda.
Quindi sotto il mio modesto parere una prova in 1280X1024 ci stava benissimo!


Ma mica io ho detto che la vga supporta solo risoluzioni più elevate. Se per quello supporta anche la 320x200.

Dicevo semplicemente che ormai il ritmo con cui la potenza delle vga sta crescendo è elevatissimo, quindi ormai ci troviamo schede di fascia alta che sono pensate per risoluzione estreme.
Non so se ve ne siete accorti ma con tutto questo aumentare di potenza si sta cercando di spostare verso l'alto la risoluzione che quotidianamente la(maggior parte della) gente utilizza. Una volta la più usata era senza dubbio la 1024. Adesso la 1280 ha preso molto piede.

A mio avviso è probabile che in futuro le vga di fascia alta saranno destinate a chi ha monitor dai 21 pollici in su con super risoluzioni.
Mentre per risoluzioni più umane le schede di fascia media probabilmente saranno l'ideale.

Ricordiamoci anche dei tempi in cui Ati nell'arco di 2 anni proponeva vga come 9700 e 9800, la cui differenza prestazionale era veramente poca. Stessa cosa per nVidia ai tempi in cui era sola a dominare il mercato.

Da 2 anni a questa parte invece è cambiato tutto. La potenza delle schede aumenta con un ritmo molto più veloce. Di conseguenza abbiamo schede di fascia alta che mostrano gli artigli solo a risoluzioni spinte come quelle usate da HwUpgrade nella recensione.
Ripeto, io vedo le schede di fascia media sempre più come le vga ideali per chi possiede monitor da 17-19 pollici.

Secondo me non hanno testato a 1280x1024 per il semplice motivo che la scheda non poteva mostrare la sua vera potenza. Molto probabilmente schede nettamente meno veloci come X1900 e 7900 alla risoluzione di 1280 attualmente non sono lontane dalla 8800GTX. Segno che tutta la potenza di cui dispone la 8800GTX è esagerata per simili risoluzioni.

Mister_Satan
09-11-2006, 02:16
Anche io sono un folle!,ho sta' passione irrefrenabile, sta smania,la bava alla bocca quanto la vedo!! Xho caspita! non me la da' mai nessuna! :rotfl:

Scusa ma non ho resistito! :D
A parte gli schezi ,condivido pienamente quello che dici.


questa passione è altrettanto complessa... :D ma diffusa...

MenageZero
09-11-2006, 02:25
Sinceramente mi verrebbe da QUOTARTI A META'... mi spiego!!

Prima cosa:Il fatto che a me piaccia correre con la macchina, non vuol dire che io compri una benzina... infatti ho una CDI: un diesel!! Quindi un minimo risparmio mi interessa! :D

Seconda cosa: è vero che chi compra questa Scheda Video ha soldi da spendere, io stesso ho comprato la 7800GTX-256 quando ancora costava 540 euro. Ma e' stata una spesa che ho fatto a novembre 2005, quest'anno col ca$$o che lo faccio!!! Non perche' sia pentito, ma spendere cosi tanti soldi... sempre... non lo si puo' fare! O cmq l'utente medio-alto (che non vuole buttare i suoi soldi) giudica quando e' opportuno comprare o quando no! Ognuno di noi ha il suo metro di paragone...

Terza cosa: sinceramente il calore prodotto mi da fastidio, perche' non va a toccare solo la scheda video, ma inficia tutto un sistema: ho ventole da 12 a mai finire sul mio PC ma sinceramente mi comincia a rompere le scatole giocare sempre col Rheobus per settarle... se gioco le ventole vanno a manetta, se dormo e il mulo scarica le ventolo le metto al minimo!!! Ufff... :O

E in ogni caso... ma secondo voi, ma perche' la Intel e l'AMD si spaccano in 2 per diminuire i consumi e invece Nvidia e ATI (ok, lo so, è AMD) aumentano i consumi cosi tanto!!?? :rolleyes:

A scanso di equivoci, se avessi soldi disponibili questa scheda me la comprerei senza manco pensarci 2 volte!!! Pero' mi pongo questa domanda... :D
E non pensate che con lo shrink cambi qualcosa... diminuiranno i consumi ma contemporaneamente la scheda acquistera' Mhz e quindi siamo punto e d'accapo (sempre che non si compri una scheda medio-alta e non una Enthusiast).

PS. W ATI e W Nvidia... state tranquilli che non volevo flammare, era solo (e lo giuro) per aumentare la mia conoscenza! ;) ;)

anche se a volte compri il top nelle schede video, probabilmente non sei il "top" come consumatore, quindi alcune mie considerazioni precedenti credo ti calzino solo in parte ;) (il vero "enthusiast" quando c'è un cambio generazionale compra " per forza :O :D)

per ati ed nvidia è più difficile andare verso il contenimento dei consumi pur aumentando sensibilmente le prestazioni, nonostante la progressiva riduzione dle processo produttivo, perché, oltre ad essere anche un po' indietro a miniaturizzazione, soprattutto le gpu sono già architetture largamente parallelizzate e votate all'efficenza anziché alla scalata in frequenza(come era prima per le cpu) e contano molti più transistor

ps: augurandoti tutto il bene del mondo, guarda che correre in macchina fa male alla salute... :read: (a meno che non vai su pista, ovviamente)

Edgar83
09-11-2006, 03:03
Non credo che queste schede siano destinate solo a chi usa monitor con risoluzioni elevatissime.

Vedrete che quando usciranno i primi giochi che sfruttano pesantemente le DX10 1280 pixel sarà la risoluzione orizzontale che verrà usata con queste schede. ciao!

JohnPetrucci
09-11-2006, 03:11
Una scheda potentissima e di qualità ma che consuma troppo.
Direi che Nvidia ha tirato fuori un vero mostro di potenza, dotato pure di ottima qualità di filtraggio anisotropico e AA.
Adesso non si potrà più dire che Hdr+a.a. girano solo su Ati, che il filtro anisotropico è più scadente e che degrada troppo le prestazioni.
Nvidia ha lavorato bene e l'unica "pecca" (che cmq avrà anche Ati R600) sono i consumi.

t0mcat
09-11-2006, 04:31
il match deve ancora cominciare. quel che sappiamo finora e' che il gap generazionale c'e', ed e' eccezionale... io ho sempre comprato nvidia per principio (loro almeno un'occhio a linux glielo danno piu' spesso di ogni giubileo), ma ho sempre consigliato ati laddove risultasse migliore, e sono certo che ati non stara' a guardare. Di certo e' poco furbo comprare una scheda del genere adesso, quando le potenzialita' sono inespresse e manca la concorrenza che provvede ad abbattere i prezzi.



Io ne ho prese 2 evga 8800 gtx in SLI.Adesso attendo che mi arrivi il SAMSUNG 305T 2560X1600 e poi mi godo lo spettacolo.
ma prima del SAMSUNG 305T mi sa che arriva prima il core2 quad.Qundi si fa prima quello.

"e chi se ne frega nun ce lo metti?"

ma ti rendi conto che a leggerti sembri un bambino di 10 anni che fa lo sborone perche' il papi gli ha comprato il giocattolo tanto piu' figo quanto inutile?

:muro:

cioe', posti giusto per rendere giusto noto che stai spendendo una barca di soldi?
e poi puntualizzi pure, con il tono del fighetto arrogante che pompa il proprio ego, con un esibizionismo che e' veramente indice della tua scarsezza mentale?

ma ti rendi conto di quanto sei patetico? :muro:

e fai pure la battutina da nerd, "muore di nvidia"... scommetterei che non attendevi altro... :rolleyes:

questo forum ormai e' avviato al degrado... :doh:

MexeM
09-11-2006, 06:13
-Non è che se si mette un alimentatore da 1000W, si consumano 1000W... -_-
Il consumo reale dipende dal sistema, che probabilmente consuma uguale anche con un alimentatore da 500W...
Li avete visti i grafici del consumo? Con una configurazione che certo non definirei "di base" in redazione consumavano a pieno regime meno di 300W
Senza 3D (o chi per esso) sotto i 200W... Cioè come 2/3 lampadine...
Un alimentatore come si deve serve per i picchi in avvio di sistema e per la capacità di erogare gli Ampere necessari sui vari voltaggi (nonchè per avere maggiore costanza dei voltaggi all'aumentare dei carichi).

Non che consumi poco, per carità... ma prima di arrivare a 1000W ce ne vuole (ed è pure scritto chiaramente nell'ottima recensione)

-Quanto alle risoluzioni ci sono da dire due cose:
1) Fra 6 mesi col cavolo che giochi a 2560x1600 con un gioco nuovo... (questa è una scheda in grado di avere AA e HDR abilitati contemporaneamente. Col tempo tra drivers e patch si potranno abilitare entrambi anche in titoli come Oblivion e Splintercell DA e vedrete che allora non ci saranno più FPS medi tanto alti da sentirsi così al sicuro come adesso. E sono giochi già sugli scaffali...)
Quindi adesso serve avere potenza per non ritrovarsi subito con l'acqua alla gola.
D'altro canto è giusto testare ADESSO con queste risoluzioni, perchè stressano la scheda e ne mostrano le potenzialità. Un'analisi tecnica della nuova generazione era giusto farla così.

2) E' comunque vero che le risoluzioni medie si stanno alzando. Complici gli LCD a risoluzione fissa, lo standard per il 2007 sarà sicuramente 1280x1024 (ed in pratica lo è già), visto che gli LCD 19" erano già in fascia "gamers" all'inizio di quest'anno. Altrettanto evidentemente la risoluzione successiva e probabilmente con "buone" fette di mercato già a inizio 2008 (data la diffusione dei 20" che ci sarà nel 2007->notato come sono arrivati sempre di più i pannelli TN o comunque molto veloci ed economici anche su diagonali che un anno fa avevano solo IPS?) sarà 1680x1050.
E d'altra parte la spinta data dalle console nexgen è un'altra botta verso l'aumento delle risoluzioni (e del 16/10, insieme a mille altre cose, GUI dei programmi comprese). Se lì si gioca minimo 720p e adesso tutti spingono verso 1080p (anche se probabilmente si dovranno dare una ridimensionata perchè con giochi complessi non ce la faranno sempre), la tendenza sarà simile anche in ambito PC.

halduemilauno
09-11-2006, 07:59
nel fare i complimenti a Paolo Corsini segnalo quest'altre due rece.
http://www.hardware.fr/articles/644-1/nvidia-geforce-8800-gtx-8800-gts.html
http://www.hothardware.com/viewarticle.aspx?articleid=903&cid=2
e aggiungo che tuttte queste son state fatte in casa dx9 e con driver diciamo acerbi. e nonostante questo la 8800gtx ha mostrato cosa sa fare. pensate gia con driver più maturi.
;)

Babo
09-11-2006, 08:29
presa..

cionci
09-11-2006, 08:32
Lascialo perdere.Uriziel è un frustato che muore di nVIDIA...appunto.
Sei ammonito per attacco personale e tentativo di flame...
cioe', posti giusto per rendere giusto noto che stai spendendo una barca di soldi?
e poi puntualizzi pure, con il tono del fighetto arrogante che pompa il proprio ego, con un esibizionismo che e' veramente indice della tua scarsezza mentale?

ma ti rendi conto di quanto sei patetico? :muro:

e fai pure la battutina da nerd, "muore di nvidia"... scommetterei che non attendevi altro... :rolleyes:

questo forum ormai e' avviato al degrado... :doh:

Sei sospeso 24 ore per attacco personale...

ale0bello0pr
09-11-2006, 08:39
-Non è che se si mette un alimentatore da 1000W, si consumano 1000W... -_-
Il consumo reale dipende dal sistema, che probabilmente consuma uguale anche con un alimentatore da 500W...
Li avete visti i grafici del consumo? Con una configurazione che certo non definirei "di base" in redazione consumavano a pieno regime meno di 300W
Senza 3D (o chi per esso) sotto i 200W... Cioè come 2/3 lampadine...
Un alimentatore come si deve serve per i picchi in avvio di sistema e per la capacità di erogare gli Ampere necessari sui vari voltaggi (nonchè per avere maggiore costanza dei voltaggi all'aumentare dei carichi).

Non che consumi poco, per carità... ma prima di arrivare a 1000W ce ne vuole (ed è pure scritto chiaramente nell'ottima recensione)

-Quanto alle risoluzioni ci sono da dire due cose:
1) Fra 6 mesi col cavolo che giochi a 2560x1600 con un gioco nuovo... (questa è una scheda in grado di avere AA e HDR abilitati contemporaneamente. Col tempo tra drivers e patch si potranno abilitare entrambi anche in titoli come Oblivion e Splintercell DA e vedrete che allora non ci saranno più FPS medi tanto alti da sentirsi così al sicuro come adesso. E sono giochi già sugli scaffali...)
Quindi adesso serve avere potenza per non ritrovarsi subito con l'acqua alla gola.
D'altro canto è giusto testare ADESSO con queste risoluzioni, perchè stressano la scheda e ne mostrano le potenzialità. Un'analisi tecnica della nuova generazione era giusto farla così.

2) E' comunque vero che le risoluzioni medie si stanno alzando. Complici gli LCD a risoluzione fissa, lo standard per il 2007 sarà sicuramente 1280x1024 (ed in pratica lo è già), visto che gli LCD 19" erano già in fascia "gamers" all'inizio di quest'anno. Altrettanto evidentemente la risoluzione successiva e probabilmente con "buone" fette di mercato già a inizio 2008 (data la diffusione dei 20" che ci sarà nel 2007->notato come sono arrivati sempre di più i pannelli TN o comunque molto veloci ed economici anche su diagonali che un anno fa avevano solo IPS?) sarà 1680x1050.
E d'altra parte la spinta data dalle console nexgen è un'altra botta verso l'aumento delle risoluzioni (e del 16/10, insieme a mille altre cose, GUI dei programmi comprese). Se lì si gioca minimo 720p e adesso tutti spingono verso 1080p (anche se probabilmente si dovranno dare una ridimensionata perchè con giochi complessi non ce la faranno sempre), la tendenza sarà simile anche in ambito PC.


Pensa che ho sentito gente che si è acquistata degli EIZO (il massimo come qualità di video risoluzione monitor ) con una vga che non c'azzecca nulla X1900 XT o 7900 che sia.... perchè quelle risoluzioni alte te le sogni se nn hai appunto una scheda come questa... poi ovvio uno è libero difare ciò ke vuole... punirsi e frustarsi anche... :asd:

Magnagati
09-11-2006, 08:58
Possibile che 3/4 delle recensioni siano sulle schede video per i ragazzini che non hanno di meglio da fare che giocare con il pc? Qualche recensioni su qualcosa di più utile mai, no?

sonnet
09-11-2006, 08:59
Ma mica io ho detto che la vga supporta solo risoluzioni più elevate. Se per quello supporta anche la 320x200.

Dicevo semplicemente che ormai il ritmo con cui la potenza delle vga sta crescendo è elevatissimo, quindi ormai ci troviamo schede di fascia alta che sono pensate per risoluzione estreme.
Non so se ve ne siete accorti ma con tutto questo aumentare di potenza si sta cercando di spostare verso l'alto la risoluzione che quotidianamente la(maggior parte della) gente utilizza. Una volta la più usata era senza dubbio la 1024. Adesso la 1280 ha preso molto piede.

A mio avviso è probabile che in futuro le vga di fascia alta saranno destinate a chi ha monitor dai 21 pollici in su con super risoluzioni.
Mentre per risoluzioni più umane le schede di fascia media probabilmente saranno l'ideale.

Ricordiamoci anche dei tempi in cui Ati nell'arco di 2 anni proponeva vga come 9700 e 9800, la cui differenza prestazionale era veramente poca. Stessa cosa per nVidia ai tempi in cui era sola a dominare il mercato.

Da 2 anni a questa parte invece è cambiato tutto. La potenza delle schede aumenta con un ritmo molto più veloce. Di conseguenza abbiamo schede di fascia alta che mostrano gli artigli solo a risoluzioni spinte come quelle usate da HwUpgrade nella recensione.
Ripeto, io vedo le schede di fascia media sempre più come le vga ideali per chi possiede monitor da 17-19 pollici.

Secondo me non hanno testato a 1280x1024 per il semplice motivo che la scheda non poteva mostrare la sua vera potenza. Molto probabilmente schede nettamente meno veloci come X1900 e 7900 alla risoluzione di 1280 attualmente non sono lontane dalla 8800GTX. Segno che tutta la potenza di cui dispone la 8800GTX è esagerata per simili risoluzioni.


forse molti non si rendono conto che le risoluzioni crescono col tempo.
10 anni fa la media era 800x600.
Oggi la media e' 1280x1024.
Tempo 2 anni e vedrete che i prezzi dei 23" pollici calano e la risoluyione 16xx diventera molto comune.
Onestamente cmq,non capisco perche uno spenda ogni sei mesi 500 euro per la vga,e non ne spenda 500 per un monitor 23" che ti dura anni.
IO dal mio punto di vista posso dire che e' molto meglio giocare su uno schermo + grande che non su un 17" che oggi come oggi mi sembra misero.
Cmq penso che il recensore abbia in un certo senso sconsigliato l'acquisto a chi non ha monitor ad alte ris per dei semplici e RAZIONALI motivi:
gia' il top precedente ti permette di giocare al max a ris 1280.
Con la 8800gtx la differenza probabilmente non si sentirebbe,sopratutto contando sul fatto che pochi credo abbiano un x6800.. quindi..

ale0bello0pr
09-11-2006, 09:15
Possibile che 3/4 delle recensioni siano sulle schede video per i ragazzini che non hanno di meglio da fare che giocare con il pc? Qualche recensioni su qualcosa di più utile mai, no?

ma veramente queste schede video in teoria sarebbero per i ragazzini (game & simili).. :asd: xkè se la vuoi in ambito professionale ti prendi una QUADRO FX e stai apposto e hai prestazioni ancor maggiori... :rolleyes:

ale0bello0pr
09-11-2006, 09:15
forse molti non si rendono conto che le risoluzioni crescono col tempo.
10 anni fa la media era 800x600.
Oggi la media e' 1280x1024.
Tempo 2 anni e vedrete che i prezzi dei 23" pollici calano e la risoluyione 16xx diventera molto comune.
Onestamente cmq,non capisco perche uno spenda ogni sei mesi 500 euro per la vga,e non ne spenda 500 per un monitor 23" che ti dura anni.
IO dal mio punto di vista posso dire che e' molto meglio giocare su uno schermo + grande che non su un 17" che oggi come oggi mi sembra misero.
Cmq penso che il recensore abbia in un certo senso sconsigliato l'acquisto a chi non ha monitor ad alte ris per dei semplici e RAZIONALI motivi:
gia' il top precedente ti permette di giocare al max a ris 1280.
Con la 8800gtx la differenza probabilmente non si sentirebbe,sopratutto contando sul fatto che pochi credo abbiano un x6800.. quindi..

quello testato è un QX :read:

Imrahil
09-11-2006, 09:26
Bella recensione complimenti ;) Da sbavo il monitor :cry: Bel ferro comunque, vedremo le soluzioni "intermedie" (serie 8600 ;)), fermo restando che queste schede saranno veramente "utili" quando uscirà Vista :)

Paolo Corsini
09-11-2006, 09:35
Possibile che 3/4 delle recensioni siano sulle schede video per i ragazzini che non hanno di meglio da fare che giocare con il pc? Qualche recensioni su qualcosa di più utile mai, no?
Ad esempio?
Trattantosi comunque di schede specificamente orientate al gaming, direi che il loro target è quello dei "ragazzini che non hanno di meglio da fare che giocare con il pc", oppure dei 32-enni padri di famiglia appassionati di tecnologia, che dopo una giornata di lavoro magari apprezzano giocare un po' al PC al posto che guardare l'ennesimo reality ;)

PsyCloud
09-11-2006, 09:36
molto potente, ma non mi sembra poi questa gran bellezza.
Usa troppa corrente elettrica per i vantaggi che da oltretutto occorre vederla in azione su titoli DX10 per valutarne davvero le prestazioni.

Non ho capito con che criterio viene valutata la qualità di filtraggio nel test sul filto anisotropico.

Cecco BS
09-11-2006, 09:37
gran bel mezzo, indubbiamente ma... che consumi!! mi sembra che i produttori di schede video vadano in direzione opposta rispetto a quelli di processori... cmq sicuramente è già stato detto nelle precedenti pagine di discussione... :D ora me la leggo per bene...

halduemilauno
09-11-2006, 09:39
Ad esempio?
Trattantosi comunque di schede specificamente orientate al gaming, direi che il loro target è quello dei "ragazzini che non hanno di meglio da fare che giocare con il pc", oppure dei 32-enni padri di famiglia appassionati di tecnologia, che dopo una giornata di lavoro magari apprezzano giocare un po' al PC al posto che guardare l'ennesimo reality ;)

ben detto.

Uriziel
09-11-2006, 09:45
sarei piu interessato ad una 8600...è prevista?

halduemilauno
09-11-2006, 09:52
sarei piu interessato ad una 8600...è prevista?

certo che si.

Luk3D
09-11-2006, 09:54
mia!!!!! stupenda...

Uriziel
09-11-2006, 09:56
certo che si.
speriamo solo che riducano drasticamente i consumi..tanto sarà prodotta con tecnologia produttiva 65nm no?

aaasssdddfffggg
09-11-2006, 10:12
Neanche un 6800 extreme edition overcloccato a 3,8 Ghz non riesce a stare dietro a 2 8800 gtx in SLI.Comunque le schede sono assolutamente potentissime.Un saluto.

angel110
09-11-2006, 10:14
Ma è lunghissima.. se continuano di questo passo bisognerà bucare il case per farcela entrare!
Tecnologicamente è la scheda migliore del momento.. supera tutte le altre anche la geforce 7950 gx2 tranne in rare eccezzioni... è davvero un grande passo in avanti.
Però sia chiaro solo per i ricconi, e non parlo solo di prezzo:
1) per sfruttarla adesso anche solo in directx9, ci vuole un computer ninja e un monitor enorme sennò non ha senso comprarla.
2) Consuma un casino e ci vuole un alimentatore molto potente.

MuadDibb
09-11-2006, 10:22
Ad esempio?
Trattantosi comunque di schede specificamente orientate al gaming, direi che il loro target è quello dei "ragazzini che non hanno di meglio da fare che giocare con il pc", oppure dei 32-enni padri di famiglia appassionati di tecnologia, che dopo una giornata di lavoro magari apprezzano giocare un po' al PC al posto che guardare l'ennesimo reality ;)

Per Dio, sante parole... sti reality sono proprio da :banned: :banned:

Cmq sia, consumi o meno... una riserva di potenza è sempre bene averla!!! Penso che fra un anno e mezzo avremo un gioco che metterà in ginocchio sia il G80 che l'R600 e quindi tutti noi a godere del G90 e dell'R700! :D
Dio quanto ci costa, ma quanto è massiccia l'informatica!!! Certo, se i pezzi costassero di meno, la tipa potrebbe regalarcene qualcuno... ed invece... :muro: :muro:

Vi immaginate la scena: "Amore, tanti auguri, ti ho comprato un pensiero!" :p . Tu apri il pacco regalo e vedi una 8800GTX e dici: "Tesoro mio, ma non dovevi..." :cry: :cry:

Uahhhhhhhhhhhhhhhhhhhhh!!!

DjLode
09-11-2006, 10:29
Ho letto solo sommariamente l'articolo perchè non ho avuto tempo di farlo accuratamente.
Due cose non mi piacciono, la corrente consumata e le dimensioni veramente esagerate. C'è anche da dire che tali soluzioni sono fatte per chi non sta di certo a lesinare sui "pezzi" dei loro pc, quindi avranno di sicuro case e alimentatori adeguati.

Detto questo le prestazioni sono veramente enormi, do ragione a chi dice che questa scheda deve essere accompagnata da un monitor adeguato, altrimenti non dico che sia inutile ma comunque è sfruttabile al di sotto delle capacità. Di certo saranno più appetibili per chi ha monitor umani le versioni medie. Sperando che escano ben bilanciate e che non siano troppo castrate (vedi Ati che ha una fascia media che mi piace ben poco).
I costi sono tutto sommato paragonabili a quanto visto con 7800 (la 7900 qui non fa testo, in quanto era stata fatta proprio per contenere i costi e non aggiungeva niente di nuovo) e alle gpu di alta gamma precedenti. Ma qui Nvidia ultimamente è rimasta fedele a questa politica.
Bhè... sull'architettura dx10 non commento, non esiste ancora niente che possa saggiarne le prestazioni. Su questa architettura con dx9 non c'è molto di nuovo da dire. E' la più veloce sul mercato. Giocare a tali risoluzioni con tali fps è sintomo che la gpu macina :)
Interessante sia l'anisotropico "totale" che il nuovo AA che presenta lo stesso calo di prestazioni sia a 4x che a 16x. Mi devo solo togliere lo sfizio di capire cosa fa, non ho avuto tempo di vedere.
Insomma per chi ha un sistema adeguato e un portafoglio fornito non vedo altre scelte al momento :)

GigiDagostino
09-11-2006, 10:29
Gran bella scheda, non c'è dubbio, ma aspetterò cmq la mossa di ATI quando presenterà al pubblico la sua vga DX10...tanto io con la mia amata X1900XT posso dormire sonni tranquilli e cmq in ogni caso oggi comprare una 8800 è da folli megalomani perchè a conti fatti non la sfrutti a dovere pagandola di più rispetto a quando usciranno i giochi che la sfrutteranno a dovere.
Quindi meglio aspettare gennaio/febbraio.

Edgar83
09-11-2006, 10:31
Io penso che acquistare adesso una scheda del genere, non ha nessun senso e nessun vantaggio in termini di prestazioni:

-Considerate che le schede precedenti, riescono a fare girare TUTTO decentemente, a risoluzioni sino a 1600 x 1200

-Per sfruttare questa scheda video, sarà necessierio avere le dx10, che usciranno solo su VISTA (parliamo sempre al futuro)

-Pur avendo delle prestazioni eccezionali, per contenere il consumo pare non sia stato fatto molto dagl ingegneri nvidia, anche in idle consuma davvero tanto.


Acquistarla ora ha senso solo per poi dire: "Io cel'ho più lungo" (che tecnicamente è anche vero vista le dimensioni del pcb :mc: )

Ne vale la pena di spendere sta barca di soldi???

Gerardo Emanuele Giorgio
09-11-2006, 10:32
ho letto solo i primi 30 post (ce ne sono troppi) ma vorrei dire la mia cmq:
Secondo me giocare d'anticipo non è stata una scelta saggia per nvidia.
A meno che non abbiano intenzione, uscito R600, di passare alla generazione successiva G90 con una nuova GPU... ma mi sembra improbabile.

Non credo che molti azzarderanno a comprare la prima dx10 prima ancora che esca vista. Mi sembra di capire che molti camperanno con le dx9 fino a marzo-aprile per aspettare R600 e fare qualche comparativa.
Personalmente attendo una 8800gs o una (immaginaria si intende) x2800gto. La fascia medio alta tra i 200 e i 300 eurozzi è quella che mi attrae di piu.

Cmq ottima recensione, molto completa. Alla faccia di chi dice che HW è sfacciatamente schierato con alcuni produttori :D:D.

Ciao a tutti!

TyGerONE
09-11-2006, 10:33
Me ne sono arrivate 2 stamattina, penso che le venderò ben oltre i 600 euro :-)

ale0bello0pr
09-11-2006, 10:39
effettivamente per vedere i bench completi su tutti i giochi attuali e in 8800 gtx in sli dovete andare qui..... :read:

http://www.hardware.fr/articles/644-1/nvidia-geforce-8800-gtx-8800-gts.html

sizzla
09-11-2006, 10:45
cosa ne pensate di queste nuove schede in confronto a quelle di xbox360 e ps3? per me il sorpasso c'è e non di poco, soprattutto quando usciranno le dx10 con i giochi futuri, per me con questa potenza di calcolo saranno spaventosi....ciao

davidon
09-11-2006, 10:46
vera dimostrazione di forza da parte di nvidia

ma ad eccezione di chi fa upgrade da 1000€ a ciclo continuo ogni 3 mesi, ritengo che anche l'utente medio da 650€/vga non abbia molte ragioni di acquistare questa 8800gtx

sto solo sognando con €€ e tempo che non ho, ma personalmente attenderei cmq l'uscita di R600, perchè in fondo questa scheda non è indispensabile alle videogiocate del prossimo periodo natalizio, quindi con una sopportabile attesa si può vedere cosa propone la concorrenza
se (come credo) nvidia ribatterà alla risposta di ati con un die shrink e un lieve aumento prestazionale rispetto a quanto presentato ieri, ritengo che l'attesa sarebbe premiata

per concludere: sogni o non sogni, il mercato dovrebbe dare un segnale forte!
fatto salvo l'aumento di prestazioni, è comunque inaccettabile (imho) che una 8800gtx consumi (scaldando) in idle quasi 50w in più delle precedenti schede top mono-gpu

ciaobye

aaasssdddfffggg
09-11-2006, 10:54
Ti lamneti per 50watt in più verso la generazione precedente?Aspetta ATI R600 allora e poi ne riparliamo.Ci sarà da divertirsi..

DjLode
09-11-2006, 10:57
Ti lamneti per 50watt in più verso la generazione precedente?Aspetta ATI R600 allora e poi ne riparliamo.Ci sarà da divertirsi..

Hai qualche link che dimostri quello che stai dicendo o come al solito si dispensa aria fritta? ;)

Jackari
09-11-2006, 10:58
Gran bella scheda, non c'è dubbio, ma aspetterò cmq la mossa di ATI quando presenterà al pubblico la sua vga DX10...tanto io con la mia amata X1900XT posso dormire sonni tranquilli e cmq in ogni caso oggi comprare una 8800 è da folli megalomani perchè a conti fatti non la sfrutti a dovere pagandola di più rispetto a quando usciranno i giochi che la sfrutteranno a dovere.
Quindi meglio aspettare gennaio/febbraio.

quoto ma a mio parere è meglio aspettare di più
tipo giugno luglio quando si potrà prendere una 8800gts ad un ottimo prezzo (è cmq una schda che va come la x1950xtx). almeno spero ;)

Jackari
09-11-2006, 11:01
Secondo me giocare d'anticipo non è stata una scelta saggia per nvidia.
A meno che non abbiano intenzione, uscito R600, di passare alla generazione successiva G90 con una nuova GPU... ma mi sembra improbabile.

Non credo che molti azzarderanno a comprare la prima dx10 prima ancora che esca vista.
:sbonk: :sbonk: :sbonk: :sbonk: :sbonk:
vai a fare un giro nel mercatino e vedi quante x1950xtx e geforce 7950gx2 sono state messe in vendita tra ieri ed oggi ;)

davidon
09-11-2006, 11:02
Ti lamneti per 50watt in più verso la generazione precedente?Aspetta ATI R600 allora e poi ne riparliamo.Ci sarà da divertirsi..
mi lamento per un trend sbagliato, sono l'ultimo degli interessati all'acquisto di questa categoria di schede (che come ho scritto posso solo sognare)
ma non avendo ragioni di tifare per nessun produttore (non mi hanno mai regalato niente...) ritengo che questa sia la sede opportuna per esprimere una critica e valutare le opinioni degli appassionati del settore come me

ciaobye

Audionaut
09-11-2006, 11:20
Il mio primo commento che emozione :)

Mi rivolgo a quelli che scrivono "questa scheda in questo momento non serve a nulla".

Il punto secondo me è che queste super-schede non sono messe sul mercato per soddisfare una richiesta di utilità o praticità o necessità degli utenti.
Secondo me sono prodotti che, almeno al lancio, sono pensati principalmente per giovare all'immagine del produttore.
Sono come quelle concept-car che vengono presentate ai saloni delle auto. Sono il top della tecnologia, del design, del progresso in quel settore. E' un modo per il produttore per dire "ecco quello che so fare".
La differenza nel campo delle schede video, rispetto al settore auto, è che queste "concept-vga", che potranno essere sfruttate realmente sono tra qualche mese o anno, sono già acquistabili, anche ora che sono "premature" come in tanti sostengono. Io per primo.
Perchè sono già acquistabili? Secondo me perchè di persone che possono permettersi una "concept-vga" da 700 euro se ne possono trovare parecchie. Di persone che possono permettersi una concept-car da 2 milioni di euro forse un po' meno :)
Vi ricorderete infatti la news di qualche tempo fa da cui veniva alla luce che, secondo le analisi del mercato vga, qualche cosa tipo il 10% degli utenti "hardcore" genera qualche cosa tipo il 70% degli introiti per i produttori. Ecco perchè le concept-vga vengono messe in vendita subito e le concept-car no.

I produttori di vga prendono quel ~70% di introiti da quel ~10% di utenti e contemporaneamente traggono i benefici a livello di immagine per la presentazione della nuova perla tecnologica.
Sono allora "inutili" queste schede? Certo non per chi le produce :)

Il tutto IMHO e il tutto con un saluto, visto che era il mio primo messaggino, ciao :)

capitan_crasy
09-11-2006, 11:22
Ma mica io ho detto che la vga supporta solo risoluzioni più elevate. Se per quello supporta anche la 320x200.

Dicevo semplicemente che ormai il ritmo con cui la potenza delle vga sta crescendo è elevatissimo, quindi ormai ci troviamo schede di fascia alta che sono pensate per risoluzione estreme.
Non so se ve ne siete accorti ma con tutto questo aumentare di potenza si sta cercando di spostare verso l'alto la risoluzione che quotidianamente la(maggior parte della) gente utilizza. Una volta la più usata era senza dubbio la 1024. Adesso la 1280 ha preso molto piede.

A mio avviso è probabile che in futuro le vga di fascia alta saranno destinate a chi ha monitor dai 21 pollici in su con super risoluzioni.
Mentre per risoluzioni più umane le schede di fascia media probabilmente saranno l'ideale.

Ricordiamoci anche dei tempi in cui Ati nell'arco di 2 anni proponeva vga come 9700 e 9800, la cui differenza prestazionale era veramente poca. Stessa cosa per nVidia ai tempi in cui era sola a dominare il mercato.

Da 2 anni a questa parte invece è cambiato tutto. La potenza delle schede aumenta con un ritmo molto più veloce. Di conseguenza abbiamo schede di fascia alta che mostrano gli artigli solo a risoluzioni spinte come quelle usate da HwUpgrade nella recensione.
Ripeto, io vedo le schede di fascia media sempre più come le vga ideali per chi possiede monitor da 17-19 pollici.

credo che fino a questo punto siamo d'accordo... ;)

Secondo me non hanno testato a 1280x1024 per il semplice motivo che la scheda non poteva mostrare la sua vera potenza. Molto probabilmente schede nettamente meno veloci come X1900 e 7900 alla risoluzione di 1280 attualmente non sono lontane dalla 8800GTX. Segno che tutta la potenza di cui dispone la 8800GTX è esagerata per simili risoluzioni.
Non importa se la 8800GTX non dimostri la sua vera potenza a 1280x1024; attualmente è una delle risoluzioni più usata per giocare.
Alla fine dei conti interessa relativamente quanti frame guadagna il G80 a 2560x1600!
Il perchè è molto semplice, pochi di noi hanno un monitor in grado di raggiungere risoluzioni cosi esagerate.
Ecco perchè insisto che la prova del G80 DOVEVA avere la risoluzione 1280X1024 magari con anti aliasing a 8X/16X.

P.S. i miei commenti non vogliono creare polemiche con nessuno... :)

Bambù
09-11-2006, 11:32
è vero che non può esprimersi... è vero che consuma tanto... è vero che costa un botto...
PER ME ha ragione l'utente che ha detto che questa è una sorta di "scheda preview" per accaparrarsi il mercato top finchè Ati non sforna il suo prodotto.
2 sono gli indizi che mi portano a questo pensiero:
1_il sistema di raffreddamento è in alluminio e non completamente in rame (anche se è molto spinto in dimensioni)
2_il rumore generato dallo stesso non è così alto e ciò mi fa pensare che volendo ci sia ancora margine per tale sistema!
Credo proprio che nvidia sia pronta a ripetere la stragedia utilizzata all'uscita di g70!
Nel frattempo può dedicarsi a piccoli ritocchi di architettura o costruzione atti ad ottimizzare (per quanto poco) consumi e calore prodotto!
A mio parere aspettiamo una SUPER scheda (magari con un GB di ram) dopo l'uscita della scheda ATi/Amd!

CicCiuZzO.o
09-11-2006, 11:32
[...]Ecco perchè insisto che la prova del G80 DOVEVA avere la risoluzione 1280X1024 magari con anti aliasing a 8X/16X.[...]il punto è che sta GeForce 8800 GTX, ad una risoluzione di 1280x1024 con tutti i filtri sparati al max, non accusa niente... Cosa ti serve poi il grafico per vedere che tiene un picco MINIMO di fps a 100? :fagiano:

sonnet
09-11-2006, 11:34
quello testato è un QX :read:

recensore..ma agli utenti home

sonnet
09-11-2006, 11:40
Ad esempio?
Trattantosi comunque di schede specificamente orientate al gaming, direi che il loro target è quello dei "ragazzini che non hanno di meglio da fare che giocare con il pc", oppure dei 32-enni padri di famiglia appassionati di tecnologia, che dopo una giornata di lavoro magari apprezzano giocare un po' al PC al posto che guardare l'ennesimo reality ;)


parlo per me,mi piacerebbe vedere almeno una rece al mese su una distro linux.
Almeno una volta a settimana somparative software (che ne so..utility per il backup,ßper la masteriyayione etc etc).
Mi piacerebbero + articoli How-to come quello sul server casalingo..
Magari invece di roundup sulle schede video,una bella guida su come moddare e cambiare i voltaggi sulle medesime (come fa ad esempio xbitlabs)
Comparative sui prodotti hardware differenti da processori..)che ne so modem router monitor stampanti tastiere joystick cose che non si vedono + molto ultimamente..)
Non sto criticando la redazione, ma ho colto il tuo post per esprimere i miei suggerimenti-desideri su quello che mi piacerebbe vedere di + sul forum.

ShadowThrone
09-11-2006, 11:42
ottima recensione e complimenti a NVidia.
giù al centro stella ho delle prese che supportano max 1000 watt, posso collegare il pc lì? :asd:

Raven
09-11-2006, 11:47
Ti lamneti per 50watt in più verso la generazione precedente?Aspetta ATI R600 allora e poi ne riparliamo.Ci sarà da divertirsi..

Non cominciare come tuo solito... sei hai dati oggettivi bene... altrimenti quello che scrivi non ha nessun senso...

Duncan
09-11-2006, 11:51
Schedona, certo ampiamente sottosfruttata per ora...

Kharonte85
09-11-2006, 11:51
Prima di tutto vorrei ringraziare Alice ADSL che mi ha fatto perdere l'arrivo di questa recensione e tutti i commenti successivi...ma che gli venga la peste (possibilmente bubbonica :mad: ) :ncomment:


Recensione ampissima e curata... :)

Ma c'è qualcosa che non mi quadra:

http://www.hwupgrade.it/articoli/skvideo/1597/sc_2.png

http://www.hwupgrade.it/articoli/skvideo/1562/sc_1.png

Guardate la 7950gx2 :read: :eek:

Miglioramento dovuto ai driver? :mc:

DjLode
09-11-2006, 11:53
1_il sistema di raffreddamento è in alluminio e non completamente in rame (anche se è molto spinto in dimensioni)


Attenzione, già così pesa 700/800 grammi (se non ricordo male l'ho letto da qualche parte). Un dissipatore completamente in rame avrebbe fatto pesare la scheda almeno 1kg. Sai quanti begli slot strappati :)


2_il rumore generato dallo stesso non è così alto e ciò mi fa pensare che volendo ci sia ancora margine per tale sistema!


Che sia efficiente e faccia poco rumore per me significa che è progettato bene, non di certo che ha ancora margine :)

capitan_crasy
09-11-2006, 11:54
il punto è che sta GeForce 8800 GTX, ad una risoluzione di 1280x1024 con tutti i filtri sparati al max, non accusa niente... Cosa ti serve poi il grafico per vedere che tiene un picco MINIMO di fps a 100? :fagiano:
e cosa mi serve un grafico a risoluzione 2560x1600 quando la STRAGRANDE maggioranza non ha un monitor per quella risoluzione??? :mbe:

CicCiuZzO.o
09-11-2006, 11:57
per farti capire le possibilità della scheda, e anche per farti capire il target per cui viene proposta sul mercato :D

GigiDagostino
09-11-2006, 12:01
quoto ma a mio parere è meglio aspettare di più
tipo giugno luglio quando si potrà prendere una 8800gts ad un ottimo prezzo (è cmq una schda che va come la x1950xtx). almeno spero ;)
si forse hai ragione, meglio aspettare di più.

GigiDagostino
09-11-2006, 12:02
:sbonk: :sbonk: :sbonk: :sbonk: :sbonk:
vai a fare un giro nel mercatino e vedi quante x1950xtx e geforce 7950gx2 sono state messe in vendita tra ieri ed oggi ;)
guarda non dico niente verso questa gente perchè sennò mi bannano a vita va! :banned:

rubex
09-11-2006, 12:02
Vista la larga diffusione dei monitor LCD max 1280x1024 concordo che un test con questa risoluzione sarebbe stato indicativo e di aiuto per chi vorrebbe upgradare la scheda video, in modo da raffrontare con le varie X19XX/79XX le differenze di prestazioni a tale risoluzione.
Capisco che la rece è stata fatta x scoprire/sottolineare gli alti limiti di questa scheda, ma confido in un update con la risoluzione 1280x1024.
Ovviamente, complimenti x la rece!

mak77
09-11-2006, 12:02
mh, vado controcorrente, secondo me non ci siamo proprio...

Nvidia ha fatto il passo più lungo della gamba, mi spiego...

Come progetto e innovazione sicuramente è il TOP, la tecnologia interna è ben bilanciata e sfruttata... e questo è i lato positivo.

l'impressione che ho è però che nvidia abbia voluto anticipare i tempi, proprio x creare problemi ad ATI (paura della fusione forse), facendo uscire un prodotto con il processo produttivo sbagliato.

0.09 non è adatto alla produzione di questa gpu, e lo dimostra la fuoriuscita del TMDS dal package, evidentemente non ci stava, il processo produttivo avrebbe dovuto essere 0.08 ma non avendolo pronto si è estratta una parte dalla gpu. questo comporta una maggiore dimensione della scheda.

il quantitativo di memoria pare troppo elevato, e si è visto che spesso viene usato x "ingannare" gli utenti, è noto che i meno esperti x valutare la potenza di una scheda tendono a guardare i megabyte di memoria...

il processo produttivo troppo "grande" porta anche a consumi eccessivi... è come se intel avesse rilasciato core2 a 0.09, sarebbe assurdo...

quando uscirà a 0.08 prob reintegrerà tutto e ridurrà sensibilmente i consumi, ma imho sarà appetibile solo avvicinandosi a 0.065.
Ora amd ha dalla sua molte tecnologie per la produzione di transistor a basso consumo, e fabbriche per lo 0.65, forse nvidia teme che ati possa scendere di processo produttivo prima di loro, e integrare le tecnologie che ibm ha concesso in uso ad amd (SOI, strained silicon).
quindi non potendo competere in questo campo tendono ad anticipare le mosse...

aaasssdddfffggg
09-11-2006, 12:08
progetto sbagliato?Ma smettiamola.Parlano i dati che sono sotto gli occhi di tutti adesso.A cominciare da questa recensione.La gente si aspettava un mostro dipotenza e così ,amio parere ,è stato.E pensare che all'inizio si dava a nvidia della fantascienza quando si parlava di 700 milioni di transistor in 90 nm etc..

jp77
09-11-2006, 12:16
mi aggiungo al coro di elogi per la recensione....ma veniamo alla scheda ecco IMHO i :

PRO

- Prestazioni globali
- Qualita\prestazione filtri
- Qualità pure video
- Ottimo dissipatore

CONTRO

- Consumo

in definitiva scheda stratosferica ma non tanto per la "forza bruta" ma per tutte le altre migliorie apportate.

Free Gordon
09-11-2006, 12:19
Pensa che ho sentito gente che si è acquistata degli EIZO (il massimo come qualità di video risoluzione monitor ) con una vga che non c'azzecca nulla X1900 XT o 7900 che sia.... perchè quelle risoluzioni alte te le sogni se nn hai appunto una scheda come questa... poi ovvio uno è libero difare ciò ke vuole... punirsi e frustarsi anche... :asd:


Gioco a Dark Messiah @1920x1200 con AA 2x, AF16x e HDR, ad una media tra i 30-40 fps, col sistema in sign. ;)
Con i giochi attuali non serve una 8800 per giocare ad alte risoluzioni.

Quando uscirà Crysis invece, sarà un altro paio di maniche. :D

aaasssdddfffggg
09-11-2006, 12:30
ma a 2560x1600 con tutti i filtri attivati fidati...serve.

mak77
09-11-2006, 12:31
non ho detto che il progetto è sbagliato, ho detto che è stata anticipata l'uscita, a mio parere il progetto originale prevedeva il processo a 0.08, e quando uscirà a 0.08 allora converrà acquistare queste schede...

IlTurko
09-11-2006, 12:36
Bel mostro. Si sa qualcosa dei prezzi?

Free Gordon
09-11-2006, 12:37
Secondo me giocare d'anticipo non è stata una scelta saggia per nvidia. A meno che non abbiano intenzione, uscito R600, di passare alla generazione successiva G90 con una nuova GPU... ma mi sembra improbabile. Non credo che molti azzarderanno a comprare la prima dx10 prima ancora che esca vista. Mi sembra di capire che molti camperanno con le dx9 fino a marzo-aprile per aspettare R600 e fare qualche comparativa.



Che non sia stato saggio per nVidia, non si sa (diciamo che le roadmap non si fanno in base all'avversario, ma in base alle risorse interne ;) ), ma condivido in generale le tue parole.

Ora come ora è una scheda per pochi, o cmq è fatta per chi è un nVidia fan (come ci sono gli ATI fan..), dato che ti fa spender un mucchio di soldi alla "cieca". Ma gente che cambia una VGA top di gamma ogni 6 mesi ce n'è...e per quelli il problema non si pone mai. :D

Per me invece non ha senso comprare una scheda dx10 adesso, non perchè non sia la migliore in dx9 attualmente, ma perchè manca il giusto metro di paragone per giudicarla e i prezzi sono ancora molto alti (un centinaio di euro sopra alla fascia alta monoGPU, della scorsa gen).

letsmakealist
09-11-2006, 12:38
mi aggiungo al coro di complimenti per la recensione, davvero ben fatta e soprattutto particolareggiata. non condivido le critiche alla mancanza dei test sulla risoluzione 1280x1024 (che è quella maggiormente usata, anche dal sottoscritto) poichè allo stato attuale delle cose non avrebbe senso, visto che tutte le schede in esame riescono agevolmente a far girare qualsiasi gioco ad un framerate molto più che giocabile a quella risoluzione, anche con i filtri attivati.
in un confronto tra schede, quello che non vorrei mai vedere è un grafico piatto senza differenze. ed è chiaro che, per ora, le differenze sostanziali saltano fuori alle risoluzioni estreme.
ottimo anche il confronto sui frame minimi, è molto più fastidioso perdere qualche frame per strada nei punti critici, che guadagnarne dove già ce ne sono a sufficienza.

per il momento comunque tutta questa potenza mi pare sovradimensionata rispetto alle mie esigenze, e credo salterò la prima generazione di schede DX10 per passare alla successiva, sperando che nel frattempo si prenda in maggiore considerazione il fattore consumo.

Free Gordon
09-11-2006, 12:39
Hai qualche link che dimostri quello che stai dicendo o come al solito si dispensa aria fritta? ;)


Cmq secondo me ha ragione, R600 consumerà di più di G80.. :D per il semplice fatto che sarà più complesso di G80 (come R520-580, a livello di circuiteria, è più complesso di G70/71). ;).

GigiDagostino
09-11-2006, 12:39
progetto sbagliato?Ma smettiamola.Parlano i dati che sono sotto gli occhi di tutti adesso.A cominciare da questa recensione.La gente si aspettava un mostro dipotenza e così ,amio parere ,è stato.E pensare che all'inizio si dava a nvidia della fantascienza quando si parlava di 700 milioni di transistor in 90 nm etc..
:oink:

Ma hai letto cosa ha scritto o no????? :oink:

dalamar
09-11-2006, 12:45
Possibile che 3/4 delle recensioni siano sulle schede video per i ragazzini che non hanno di meglio da fare che giocare con il pc? Qualche recensioni su qualcosa di più utile mai, no?

ma veramente queste schede video in teoria sarebbero per i ragazzini (game & simili).. :asd: xkè se la vuoi in ambito professionale ti prendi una QUADRO FX e stai apposto e hai prestazioni ancor maggiori... :rolleyes:

Ad esempio?
Trattantosi comunque di schede specificamente orientate al gaming, direi che il loro target è quello dei "ragazzini che non hanno di meglio da fare che giocare con il pc", oppure dei 32-enni padri di famiglia appassionati di tecnologia, che dopo una giornata di lavoro magari apprezzano giocare un po' al PC al posto che guardare l'ennesimo reality ;)

Lungi dal me criticare che si faccia la recensione di una delle schede video piu' attese dal mercato. Anzi l'ho trovata molto interessante.
Pero' forse si voleva mettere in luce come il target del sito sia divenuto quasi completamente "videoludico" (la svolta forse nell'inserimento delle news sui videogiochi) e si sia perso l'aspetto "business" collegato all'informatica di produzione.
Pescando dal suggerimento di ale0bello0pr...
Sempre in ambito di schede video, quand'e' stato l'ultimo articolo completo su un prodotto della serie QUADRO FX?
Non voglio essere polemico, solo una costatazione.

GigiDagostino
09-11-2006, 12:45
Cmq secondo me ha ragione, R600 consumerà di più di G80.. :D per il semplice fatto che sarà più complesso di G80 (come R520-580, a livello di circuiteria, è più complesso di G70/71). ;).
Quoto può darsi che sia più ciuccellona, bisogna vedere alla fine se più complessa/veloce.
Io per un paragone rimando tutto all'uscita di R600, oggi non si può dire altro che G80 è la migliore scheda ( e ci mancherebbe), tutto a questo punto dipenderà da quello che tirerà fuori ATI e poi si potrà dire quale scheda è migliore...oggi no, non ci sono antagonisti.

DjLode
09-11-2006, 12:45
Cmq secondo me ha ragione, R600 consumerà di più di G80.. :D per il semplice fatto che sarà più complesso di G80 (come R520-580, a livello di circuiteria, è più complesso di G70/71). ;).

I secondo me e primo te in informatica purtroppo non hanno senso :)
Come non ho espresso giudizio su G80 prima di vedere bench veritieri, io mi asterrei da dire certe cose se non si hanno prove concrete. Si finisce poi per fare una figuraccia ;)

C.le Rommel
09-11-2006, 12:46
In ogni caso con sta bestia i PC volanoooo... ci mangiamo di prepotenza la PS3 ancora prima che esca! :D

Jackari
09-11-2006, 12:48
guarda non dico niente verso questa gente perchè sennò mi bannano a vita va! :banned:

direi che sotto sotto tra questi c'è qualcuno che invece è molto furbo (seriamente) ;)

Free Gordon
09-11-2006, 12:48
ma a 2560x1600 con tutti i filtri attivati fidati...serve.


Ho un CRT 24", la res a cui rende meglio è la 1920x1200, la 2560x1600 l'ho provata (la supporta :D ).. ma mi obbliga a scendere in refresh.. e non è un bene per gli occhi. Oltre al fatto che la 1800 a quella res non regge. ;)

Certo, se vuoi giocare a 2500x1600 ti serve almeno una 1950XTX, oppure meglio ancora una 7950.


Cmq mi pare che giocare a 1900x1200 sia già abbastanza alto rispetto alla media.. ^_^ per questo dicevo che per le res alte coi giochi di oggi, basta anche un sistema di un anno fà..

Hoolman
09-11-2006, 12:51
Vi chiedo una opinione. NO fanboysmo vario...

Gioco a 1440x900, vorrei attivare ovviamente quanti più effetti possibili.
Ho un athlon x2 4400.
Devo cambiare scheda. Prendo questa (pensavo alla GTS) o una ottima dx9? Vi ringrazio!

Koji
09-11-2006, 12:56
Vi chiedo una opinione. NO fanboysmo vario...

Gioco a 1440x900, vorrei attivare ovviamente quanti più effetti possibili.
Ho un athlon x2 4400.
Devo cambiare scheda. Prendo questa (pensavo alla GTS) o una ottima dx9? Vi ringrazio!

Se ti prendi una dx9 adesso parti già con una scheda che tra un anno al max è da cambiare. Io ti consiglio la GTS, così sei a posto per un bel pò e sei già pronto per i futuri giochi dx10. ;)

Koji
09-11-2006, 13:00
speriamo solo che riducano drasticamente i consumi..tanto sarà prodotta con tecnologia produttiva 65nm no?

Sicuramente le future 8600 consumeranno meno, avranno anche un dissipatore a singolo slot. Tutto sta a vedere quanto si discosteranno dalle 8800 in termini di prestazioni...se non verranno troppo castrate insomma.

Mparlav
09-11-2006, 13:06
Problemi con risoluzioni alte?
Soluzione: ci sono ottimi monitor usati CRT 21" e 22" che reggono 2048x1536 e che costano 50-100 euro (io ho un Philips Brilliance 22")
Non vi piace tornare al passato?
Giocate a 16AAQ-16AF HQ a 1280x1024 con LCD da 19" la generazione attuale dei giochi e godetevela (anche 100fps cpu-limited, dov'è il problema?), perchè tanto poi, tempo 6 mesi, dovrete calare i settaggi.
Non crederete davvero di giocare UT2007 e Crysis con quei settaggi, vero? :-)

(è sempre stato così negl'anni, non vedo perchè debba cambiare ora)

La 8800GTX è troppo cara?
Direi che è normale che lo sia, ma lo street price non sarà molto diverso da quello della x1900XTX o della 7950GX2, quando sono uscite (oppure ricordatevi al 7800GTX 512Mb).
I prezzi delle prime 2 settimane di vendita sono sempre gonfiati.
Ed aggiungeteci che siamo prossimi a Natale (pessimo periodo per fare acquisti)

Cmq, c'è la 8800 GTS, che costa 100-150 euro in meno (e quindi vicino al prezzo di una x1950XTX), e darà cmq soddisfazioni.

TROJ@N
09-11-2006, 13:09
DOMANDONE: ma uno ora come ora cosa si compra a fare una sk video da + di 200€??? ci fa i bench? no xchè a dirla tutta di sk video potenti tante, ma di game all'altezza poco o niente...della serie ho la ferrari enzo ma è finito il petroli...

Banus
09-11-2006, 13:12
non ho detto che il progetto è sbagliato, ho detto che è stata anticipata l'uscita, a mio parere il progetto originale prevedeva il processo a 0.08, e quando uscirà a 0.08 allora converrà acquistare queste schede...
Vedendo i consumi e soprattutto il numero di transistor (680 milioni...) è la prima impressione, ma ascoltando il CEO di nVidia pare che l'uscita fosse prevista addirittura per l'anno scorso, e poi posticipata perchè non realizzabile:

Do you consider it late?

Jen-Hsun: Yes, we tried to get it out last year. But it was just too big. So it’s late by our own standards. In the end, it cost us 4 years. (fonte (http://blogs.mercurynews.com/aei/2006/11/nvidia_launches.html))

carlo37
09-11-2006, 13:16
che tristezza 450W per giocare al computer.....

DjLode
09-11-2006, 13:26
Vedendo i consumi e soprattutto il numero di transistor (680 milioni...) è la prima impressione, ma ascoltando il CEO di nVidia pare che l'uscita fosse prevista addirittura per l'anno scorso, e poi posticipata perchè non realizzabile:

Do you consider it late?

Jen-Hsun: Yes, we tried to get it out last year. But it was just too big. So it’s late by our own standards. In the end, it cost us 4 years. (fonte (http://blogs.mercurynews.com/aei/2006/11/nvidia_launches.html))

Considera che pure R400 è stato accantonato perchè troppo complesso per l'epoca, poi è finito dentro Xbox. Non credo sia una cosa fuori dal normale :)
Metti quei gruppi di teste a progettare e ti faranno sempre qualcosa di troppo complesso :)

Tetsujin
09-11-2006, 13:28
Io comunque non la vedo così rosea come situazione, prendendo un titolo appena uscito come NFS Carbon:

http://www.hothardware.com/articleimages/Item903/nfs.png

http://www.hardware.fr/medias/photos_news/00/18/IMG0018424.gif

70 fps a 1280x1024 non mi sembrano tanto eccezionali su una scheda top di gamma appena uscita.... e nemmeno 50 fps a 1600x1200

ulk
09-11-2006, 13:28
Basandosi sulle conclusioni con il mio wide 16/10 1680*1050 non dovrei considerare l'acquisto.

Mie impressioni.

Scheda troppo lunga, già la mia x1950xtx mi sembra troppo lunga e compromettente per la gestione dei flussi d'aria all'interno del PC.

La scheda è/dovrebbe essee full dx10, ma vista non è ancora uscito e non si sa la reale compatibilità e/o problemi.

L'unica cosa che mi piace è il sistema di raffedamento che trovo accettabile, poteva essere ottimizzato e reso più gradevole alla vista.. sembra di infilare una bara nel PC.

Capisco l'imbarazzo nel fare bench per utenti terrestri, ma in percentuale quanti saranno a giocare a risoluzioni da 1900*1200 in su?

Cloud76
09-11-2006, 13:37
Dato il prossimo rilascia di Windows Vista sarebbe interessante un confronto prestazionale tra questo nuovo sistema operativo ed XP, vista la differenti directX. Si vocifera tanto che Vista promette migliori prestazioni, quindi sarebbe interessante fare qualche test di confronto almeno per quanto riguarda le Dx9.


Una delucidazione, viene detto:
"A parità di livello di anti aliasing, la modalità Coverage Sampling permette di ridurre il numero di sample per colori memorizzati e per Z rispetto alla più dispendiosa modalità Multisample; NVIDIA dichiara che il Coverage Sampling 16x permette quindi di ottenere livelli prestazionali molto vicini a quelli dell'anti aliasing Multisample 4x, con un netto incremento della qualità d'immagine."

Non ho ben capito se la qualita dell'AA sia superiore o meno rispetto a prima ed aa ATI; ai miei occhi un multisampling 4x ha una qualità piuttosto scadente, fosse un supersampling (anche solo 2x2) la qualità sarebbe molto migliore... quindi avere un Coverage Sampling 16x con una qualità un po' superiore ad un multisampling 4x non mi pare una grande cosa in fatto di qualità assoluta...

Forse ho capito male... qualche delucidazione?
Grazie, saluti!

CosasNostras
09-11-2006, 13:48
Basandosi sulle conclusioni con il mio wide 16/10 1680*1050 non dovrei considerare l'acquisto.

Mie impressioni.

Scheda troppo lunga, già la mia x1950xtx mi sembra troppo lunga e compromettente per la gestione dei flussi d'aria all'interno del PC.

La scheda è/dovrebbe essee full dx10, ma vista non è ancora uscito e non si sa la reale compatibilità e/o problemi.

L'unica cosa che mi piace è il sistema di raffedamento che trovo accettabile, poteva essere ottimizzato e reso più gradevole alla vista.. sembra di infilare una bara nel PC.

Capisco l'imbarazzo nel fare bench per utenti terrestri, ma in percentuale quanti saranno a giocare a risoluzioni da 1900*1200 in su?

percentuale 000,1%.........e qualcuno come me a 1680x1050(2%)

mak77
09-11-2006, 13:50
Vedendo i consumi e soprattutto il numero di transistor (680 milioni...) è la prima impressione, ma ascoltando il CEO di nVidia pare che l'uscita fosse prevista addirittura per l'anno scorso, e poi posticipata perchè non realizzabile:


si però vedi che ai tempi non era prevista la fusione amd-ati... così come non si sapeva quando sarebbe stato pronto un processo produttivo più fine.

perchè realizzare una scheda così grande ed esosa, estrapolando esternamente anche parti della gpu, se non per poterla produrre con un processo disponibile da subito, senza attendere il corretto 0.08 che permette di integrare tutto e contenere i consumi. ripeto che è un mio parere, mi pare una versione beta della scheda, che diverrà finale con il passaggio a un processo più fine.

sicuramente il progetto è molto valido, ma troppo orientato al futuro...

Free Gordon
09-11-2006, 13:57
I secondo me e primo te in informatica purtroppo non hanno senso :)
Come non ho espresso giudizio su G80 prima di vedere bench veritieri, io mi asterrei da dire certe cose se non si hanno prove concrete. Si finisce poi per fare una figuraccia ;)


Si possono fare scommesse? :D

Ecco, scommetto che consumerà almeno la stessa cifra, se non di più... :D
E scommetto anche che sarà più grosso a livello di transistor (o perlomeno sui 700 anche lui). :p

Oltre che integrare 64 ALU complesse ad una frequenza più bassa, invece che 128 alu scalari ad alta frequenza! :D

Free Gordon
09-11-2006, 13:58
Vi chiedo una opinione. NO fanboysmo vario...

Gioco a 1440x900, vorrei attivare ovviamente quanti più effetti possibili.
Ho un athlon x2 4400.
Devo cambiare scheda. Prendo questa (pensavo alla GTS) o una ottima dx9? Vi ringrazio!


Per quella res mi prenderei una 1950XTX su ebay, ad un prezzo basso. :D

Evangelion01
09-11-2006, 14:02
Imho questa scheda al momento attuale è inutile, perchè
1) non può essere sfruttata a dovere nè dai giochi ne dal s.o. .
2) Quando potrà esserlo davvero sarà già uscito R600 e compagnia, il che comporterà un abbassamento di costi non indifferente
3) non è possibile attualmente vedere come và con le dx10, se ci sono problemi ecc..
Se poi avete soldi da buttare...

MenageZero
09-11-2006, 14:02
riposto sinteticamente una domanda che avevo messo più in dettaglio in un post precedente:

quali sono le ragioni tecniche per cui la 8800gtx, pur con il suo "mostruoso" hw, spesso è superiore solo di poco o anche di poco inferiore, anche ad altissime risoluzioni, ad una 7950gx2 ?

se qualcuno ha interessanti informazioni in proposito o link chiarificatori, qualunque cosa sarà molto gradita, grazie anticipatamente. :help: :)

(stando allo screenshot di pochi post sopra, anche meno del 50% in più di una x1950xtx su un gioco appena uscito di un tipo e serie notoriamente pesante, non sembrano poi molti rispetto alle novità hw; anche se, visto anche come tale gioco sembra "ammazzare" l'architettura g7x rispetto a quella ati, c'è da registrare proprio in quel un enorme passo avanti in casa propria per nv, al contrario di quello che si vede spesso nella recensione rispetto alla 7950gtx :wtf: )

hackboyz
09-11-2006, 14:07
se qualcuno ha interessanti informazioni in proposito o link chiarificatori, qualunque cosa sarà molto gradita, grazie anticipatamente. :help: :)
Perchè i giochi che ci sono ora sono non vecchi ma stravecchi.
Anche un recentissimo Splinter Cell Double Agent è spinto da un motore vecchio di 4 anni. Probabilmente neanche le X1900 sono sfruttate appieno... figuriamoci questa...

Pat77
09-11-2006, 14:12
Sicuramente il più grosso balzo prestazionale da 6800/x800, oltre che un modo completamente nuovo di supportare i videogiochi 3d, in più migliora la qualità, raddoppia le prestazioni (a parità di classe) rispetto alla gen precedente in dx9, avrà dei driver e dei videogiochi che non la supportano per nulla e già dimostra un tale potenziale.
Di contro il consumo, ma si sapeva.
Detto questo l'interesse, imho, è più sulla GTS, che mi pare più equilibrata.

Sileno
09-11-2006, 14:16
secondo me questa recensione ha poco senso.. nel senso che finchè questa scheda nn viene testata in directx10 è totalmente inutile.. ovviamente con i giochi dx10 essa non potrà ottenere frame rates elevati a quelle risoluzioni e con quei filtri.. quindi penso che si continuerà a giocare bene a 1280x1024 , quindi nn ci si deve fare problemi per il monitor.. Insomma aspettiamo che escano giochi che la sfruttino davvero e che il suo prezzo scenda : coi giochi attuali è uno spreco di soldi , uno fa prima a comprarsi una x1950xtx che costa meno..

josefor
09-11-2006, 14:40
Basandosi sulle conclusioni con il mio wide 16/10 1680*1050 non dovrei considerare l'acquisto.

Mie impressioni.

Scheda troppo lunga, già la mia x1950xtx mi sembra troppo lunga e compromettente per la gestione dei flussi d'aria all'interno del PC.

La scheda è/dovrebbe essee full dx10, ma vista non è ancora uscito e non si sa la reale compatibilità e/o problemi.

L'unica cosa che mi piace è il sistema di raffedamento che trovo accettabile, poteva essere ottimizzato e reso più gradevole alla vista.. sembra di infilare una bara nel PC.

Capisco l'imbarazzo nel fare bench per utenti terrestri, ma in percentuale quanti saranno a giocare a risoluzioni da 1900*1200 in su?

Ahahhah ti piace soli in parte il sistema di raffreddamento ahhah lol..... :mc:

Si hai ragione è veramente una chiavica di scheda....aspetta che nel frattempo ne ordino una..... :sofico:

MenageZero
09-11-2006, 14:48
Si possono fare scommesse? :D

Ecco, scommetto che consumerà almeno la stessa cifra, se non di più... :D
E scommetto anche che sarà più grosso a livello di transistor (o perlomeno sui 700 anche lui). :p

Oltre che integrare 64 ALU complesse ad una frequenza più bassa, invece che 128 alu scalari ad alta frequenza! :D

ah, ma quindi uno stream processor è solo (o ha solo) una alu scalare ?

se ricordo bene che g7x ha 2 alu vettoriali x ogni pixel unit e che ciascuna di queste alu opera su 2 dati contemporaneamente
sulla 7950gx2, tra pixel e vertex units, abbiamo in tutto l' "equivalente" di circa 2*2*(24+8)*2/2.7 "stream processor", ovvero crica 95
(2 dati scalari, 2 alu vett., 24+8 shader units, 2 gpu, 2.7 è il rapporto tra il clock delle alu nella 8800gtx, 1350MHz, e nella 7950, 500MHz)

se tali considerazioni a spanne sono vaganmente accettabili, forse spiegano in parte la frequente vicinanza, molto più di quello che ci si potrebbe aspettare ad una prima lettura delle specifiche, tra le due schede,
ma, cosiderato anche che la 8800 ha un vantaggio anche in tremini di banda verso la mem. e di frquenza "esterna" dell gpu (forse "compensati" dal maggiornumero di rops nella 7950gx2 ?), avendo cmq +/- 1/3 in più di risorse di calcolo, rimane l' impressione che spesso faccia troppo poco rispetto alla 7950gx2, per non parlare della gts (96 s.p.) che +/- a parità di tali "risorse normalizzate" sta sempre dietro...

CicCiuZzO.o
09-11-2006, 14:51
secondo me questa recensione ha poco senso.. nel senso che finchè questa scheda nn viene testata in directx10 è totalmente inutile.. ovviamente con i giochi dx10 essa non potrà ottenere frame rates elevati a quelle risoluzioni e con quei filtri.. quindi penso che si continuerà a giocare bene a 1280x1024 , quindi nn ci si deve fare problemi per il monitor.. Insomma aspettiamo che escano giochi che la sfruttino davvero e che il suo prezzo scenda : coi giochi attuali è uno spreco di soldi , uno fa prima a comprarsi una x1950xtx che costa meno..*

MenageZero
09-11-2006, 14:53
Perchè i giochi che ci sono ora sono non vecchi ma stravecchi.
Anche un recentissimo Splinter Cell Double Agent è spinto da un motore vecchio di 4 anni. Probabilmente neanche le X1900 sono sfruttate appieno... figuriamoci questa...

anche mettendo che il motore "vecchio" e quindi supposto "leggero" da far girare permetta di non far sfigurare le "vecchie" schede, a risoluzioni altissime che eliminano il cpu limited e impegnmano cmq appieno tutte le gpu per la grande quantità di dati da elaborare, in termini puramente di valori di fps raggiungibili, il motore "vecchio" dovrebbe favorire ancor di più l'hw più nuovo, quindi più potente e ancor più "sovradimensionato", ovvero in qusto caso la 8800... :wtf:

cioè, i motori grafici, almeno quelli usati nei bench, per la natura stessa del concetto bench, non possono certo agire come fattore esterno limitante, impedendo la resa di fps oltre un certo valore max (ovvero per esmpio quello che accade a basse risoluzioni per "lentezza" della cpu rispetto alla gpu), tantomeno far saltare davanti, anche se di poco, la scheda di "vecchia" generazione

ulk
09-11-2006, 15:06
Ahahhah ti piace soli in parte il sistema di raffreddamento ahhah lol..... :mc:

Si hai ragione è veramente una chiavica di scheda....aspetta che nel frattempo ne ordino una..... :sofico:


E' stata certamente buttata nella mischia troppo presto come con la 7800 uscirà la 7900 otimizzata. Chi comprerà questa non farà altro che fare da betatester, vedrai che uscirà un nuovo modello di punta dai consumi più contenuti e con supporto otimizzato verso dx10.

K4d4sh
09-11-2006, 15:22
I pro li vedono tutti... i CONTRO, IMHO, sono i seguenti

- Dimensioni nel case
- Consumi
- necessità di risoluzioni (leggi: monitor) esose
- probabile uscita della soluzione superiore (8900?) a breve
- creata per DX10, quindi non sfruttata appieno fino ad allora
- conseguente assenza di giochi che la spremano a dovere

In definitiva, un assaggio del futuro.. ma a livello commericale è una scheda per early adopters e per chi vuole giocare sui maxischermi e può permetterselo, sempre IMHO ;)

Cià

letsmakealist
09-11-2006, 15:53
Perchè i giochi che ci sono ora sono non vecchi ma stravecchi.
Anche un recentissimo Splinter Cell Double Agent è spinto da un motore vecchio di 4 anni. Probabilmente neanche le X1900 sono sfruttate appieno... figuriamoci questa...

è per questo che sarei curioso di vedere come ci girerebbe Crysis.
i filmati in DX9 con le due 1900XTX in crossfire sembravano ok, chissà se il DX10 è davvero così "oro" come luccica.

TROJ@N
09-11-2006, 15:55
se rende il dissy....

http://www.bit-tech.net/content_images/nvidia_geforce_8800_gtx_g80/cooler1.jpg

Paolillo82
09-11-2006, 16:03
Bhè chi ha schede di ultima generazione io ho la x1900xtx come alimentazione dovrei essere a posto. Però non mi sembra così un mostro di potenza. Forse perchè è la prima.

P.s. Il monitor della foto è da sbavo

magic carpet
09-11-2006, 16:05
Veramente notevole, soprattutto nelle dimensioni!
Si hanno notizie delle dimensioni di R600?
Mi sa che se è così lunga, mi toccherà spostare un disco per fargli posto... :(

nudo_conlemani_inTasca
09-11-2006, 16:06
Troppa la foga nel voler leggere la 1ma Recensione su questi gioielli tecnologici.
Le mie prime impressioni a caldo: "fa paura!!!" :eek: :eek: :eek: :D

Non ho mai visto niente del genere, altro che salto nel futuro.. questo è 1 salto nell' IPER-Spazio! :p :rotfl:
Le nVidia Serie 88000GTX-TS contengono tanti e tali innovazioni e miglioramenti tecnolgici da lasciare a bocca aperta.

Ma dai, ma esiste veramente una SVGA così?
Ma già nel 2006.. mi prendete allla sprovvista. :asd:

Cmq. grande Recensione di Hw Up.it, questa mi è piaciuta davvero molto,
meticolosa, attenta e densa di contenuti tecnici & valutazioni di 1 certo spessore.

Che dire?
Al diavolo i consumi.. semplicemente F.A.N.T.A.S.T.I.C.H.E. !!! :ubriachi: :yeah: :idea:
(che cmq. limiteranno con GPU @80nm)

arxangel
09-11-2006, 16:16
bella recensione,comunque concordo con la maggior parte degli utenti sul fatto che per il momento si tratta di un giocattolo tecnologico appetibile solo dagli appassionati di tecnologia e a chi gioca utilizzando uno schermo da cinema,penso che bisognera attendere crysis e la risposta ATI per fare delle valutazioni attendibili,secondo me i test fatti nella recensione non dicono assolutamente nulla anche se erano gli unici test fattibili

KuWa
09-11-2006, 16:20
Questa scheda è un mostro.. fa veramente paura... peccato che per sfruttarla a pieno ci vogliano alimentatori, cpu e monitor di altissima qualità. E' superiore ad uno SLI ed è a singola gpu e poi non abbiamo ancora visto il vero potenziale di questa schedozza... Non vedo l'ora che esca qlche gioco in dx10 per testarne la reale potenza. Comunque non so se manterrà queste prestazioni in dx10 quindi potrebbe bastare un montor che tenga 1600×1200...
@chi dice che è inutile: Voglio proprio vedere quando le 7900GTX e 1950XTX soffriranno di brutto in dx10 cosa ve ne farete...

DakmorNoland
09-11-2006, 16:24
Questa scheda è un mostro.. fa veramente paura... peccato che per sfruttarla a pieno ci vogliano alimentatori, cpu e monitor di altissima qualità. E' superiore ad uno SLI ed è a singola gpu e poi non abbiamo ancora visto il vero potenziale di questa schedozza... Non vedo l'ora che esca qlche gioco in dx10 per testarne la reale potenza. Comunque non so se manterrà queste prestazioni in dx10 quindi potrebbe bastare un montor che tenga 1600×1200...
@chi dice che è inutile: Voglio proprio vedere quando le 7900GTX e 1950XTX soffriranno di brutto in dx10 cosa ve ne farete...

Quando usciranno giochi DX10 degni di nota sta pur certo che andrà già bene se riuscirai a giocarci a 1280x1024 con filtri e tutto al max! Quindi non stiamo troppo qui a contarla con risoluzioni tipo 1600! :rolleyes:

Wilfrick
09-11-2006, 16:25
Questa scheda ha senso in questi due o tre mesi, poi sarà da rottamare. E' la stessa cosa della prima 7800. Oggi nvidia può dire di avere la scheda più veloce ed ha fatto benissimo ad uscire ora. Ati metterà in commercio una scheda più potente di questa ed una settimana dopo nvidia uscirà con il vero G80, senza cose strane (tipo quantità di memoria e frequenze) che sono un po' sospette ora, ed avrà ancora la scheda più veloce costringendo ATI ad altri mesi per poter essere all'altezza.
Intanto chi se la compra ora ha qualche mese di puro godimento davanti, chi aspetta il vero G80 godrà dopo. Chi rimarrà fregato sarà colui che aspetta R600 e lo compra appena esce per accorgersi dopo una settimana che esiste già altro più veloce. E non sarei sorpreso nemmeno di vedere un g80 a 80 nanometri, contro ogni previsione, così come lo sono stati gli shader unificati. A quel punto nvidia avrebbe proprio fatto il colpaccio schiacciando ati per un bel po'.
Vabbé, cmq a me schifano le schede che occupano due slot. ;)

Apple80
09-11-2006, 16:29
E' prevedibile che per il lancio vi saranno prezzi praticati ben superiori a quanto consigliato da NVIDIA e dai partner:



Io l'ho pagata 653 euro .Della BFG. (ripeto... della BFG) E non mi pare un prezzo di molto superiore. Oddio, c'è negozio e negozio. Io avrei scommesso di tutto che l'avrei pagata almeno 700.. e invece :)

aaasssdddfffggg
09-11-2006, 16:33
io le ho pagate 699 della evga.Accettabile considerando l'hard launch appunto.

oscuroviandante
09-11-2006, 16:43
Rosico..... :D


Ho deciso che la 8900 GTX sarà sicuramente mia. :ciapet:

MenageZero
09-11-2006, 16:43
Questa scheda ha senso in questi due o tre mesi, poi sarà da rottamare. E' la stessa cosa della prima 7800. Oggi nvidia può dire di avere la scheda più veloce ed ha fatto benissimo ad uscire ora. Ati metterà in commercio una scheda più potente di questa ed una settimana dopo nvidia uscirà con il vero G80, senza cose strane (tipo quantità di memoria e frequenze) che sono un po' sospette ora, ed avrà ancora la scheda più veloce costringendo ATI ad altri mesi per poter essere all'altezza.
Intanto chi se la compra ora ha qualche mese di puro godimento davanti, chi aspetta il vero G80 godrà dopo. Chi rimarrà fregato sarà colui che aspetta R600 e lo compra appena esce per accorgersi dopo una settimana che esiste già altro più veloce. E non sarei sorpreso nemmeno di vedere un g80 a 80 nanometri, contro ogni previsione, così come lo sono stati gli shader unificati. A quel punto nvidia avrebbe proprio fatto il colpaccio schiacciando ati per un bel po'.
Vabbé, cmq a me schifano le schede che occupano due slot. ;)

e quali saranno iyho ( :D ) le specifiche del vero g80 ? si sono già ( :eek: ) "uditi" rumors in proposito nei siti specializzati ?

MenageZero
09-11-2006, 16:45
E' prevedibile che per il lancio vi saranno prezzi praticati ben superiori a quanto consigliato da NVIDIA e dai partner:



Io l'ho pagata 653 euro .Della BFG. (ripeto... della BFG) E non mi pare un prezzo di molto superiore. Oddio, c'è negozio e negozio. Io avrei scommesso di tutto che l'avrei pagata almeno 700.. e invece :)

xché, cos' è bfg, oltre al cannone in doom e (ovviamente) un dei produttori dim s. video ? :D

halduemilauno
09-11-2006, 16:49
Quando usciranno giochi DX10 degni di nota sta pur certo che andrà già bene se riuscirai a giocarci a 1280x1024 con filtri e tutto al max! Quindi non stiamo troppo qui a contarla con risoluzioni tipo 1600! :rolleyes:

o hai fatto un viaggio nel futuro o i motivi per farti dire queste cose sono riconducibili ad altro. credo alla seconda ipotesi.

DakmorNoland
09-11-2006, 16:54
o hai fatto un viaggio nel futuro o i motivi per farti dire queste cose sono riconducibili ad altro. credo alla seconda ipotesi.

Guarda che è sempre stato così! :D Non so se te ne sei accorto ma man mano che si va avanti i giochi diventano + pesanti!

Che all'uscita una scheda del genere faccia girare tutto al max con filtri a 1600 ok, ma quando arriveranno giochi DX10 + tosti, sta pur certo che non ce la farà! O mi vuoi dire che uno che si compra G80 non dovrà mai + cambiare scheda video! :D

Perchè sai di solito quando si cambia è perchè non ce la fa + a far girare i giochi nemmeno e risoluzioni tipo 1024 con tutto al max e magari filtri. Quindi non stiamo troppo qui a contarcela, vale per qualunque GPU.

josefor
09-11-2006, 16:57
Il rapporto prestazioni\consumo mi pare che sia decisamente favorevole alla 8800 che rispetto alla 7900 o alle x1950... cioè in HL2 non c'è paragone consuma 15% in più ma in certi casi è il 100% più performante, non capisco di cosa vi lamentate...

MexeM
09-11-2006, 17:02
Chi rimarrà fregato sarà colui che aspetta R600 e lo compra appena esce per accorgersi dopo una settimana che esiste già altro più veloce. E non sarei sorpreso nemmeno di vedere un g80 a 80 nanometri, contro ogni previsione, così come lo sono stati gli shader unificati. A quel punto nvidia avrebbe proprio fatto il colpaccio schiacciando ati per un bel po'.
Vabbé, cmq a me schifano le schede che occupano due slot. ;)

Fossi in te andrei direttamente da Ati/amd a dire che la smettano di fare schede video, che tanto hanno perso in partenza.
Ah e già che ci siamo, potrebbero piantarla anche di fare CPU, tanto Intel ha già Core 2 DUO...

Poi vorrei sapere perchè adesso tutti pensano che ci vogliono monitor enormi...
Non ho capito se è qualcosa di cui si cerca di autoconvincersi per resistere alla tentazione insostenibile di collezionare anche l'ultima scheda uscita (non avendo il monitor adatto), o un'alibi per comprarsi un monitor più grande...
No dico, avete visto il frame rate con NFS Carbon? 70 fps a 1280x1024... Sicuri che ci vogliano dei 30 pollici per sfruttare questa scheda?
Quelli di HWupgrade hanno fatto benissimo a fare i test a 2560x1600 perchè con i titoli provati e la configurazione adottata, se avessero testato a 1280 si sarebbero trovati una differenza molto più risicata con le attuali GTX e XTX...
Il processore sarebbe stato il collo di bottiglia e avrebbe ridotto notevolmente gli scarti tra una scheda e l'altra, appiattendo le prestazioni. La 8800GTX comincia a non essere più CPU limited a 1600x1200-1920x1200 con i titoli provati...
Con titoli più pesanti e complessi, non c'è nessun bisogno di andare a 2560... (e già basta prendere qualche gioco uscito nell'ultimo mese)

halduemilauno
09-11-2006, 17:06
Guarda che è sempre stato così! :D Non so se te ne sei accorto ma man mano che si va avanti i giochi diventano + pesanti!

Che all'uscita una scheda del genere faccia girare tutto al max con filtri a 1600 ok, ma quando arriveranno giochi DX10 + tosti, sta pur certo che non ce la farà! O mi vuoi dire che uno che si compra G80 non dovrà mai + cambiare scheda video! :D

Perchè sai di solito quando si cambia è perchè non ce la fa + a far girare i giochi nemmeno e risoluzioni tipo 1024 con tutto al max e magari filtri. Quindi non stiamo troppo qui a contarcela, vale per qualunque GPU.

allora se vale per qualunque gpu perchè ce la stai a smenà?

The_SaN
09-11-2006, 17:12
Il rapporto prestazioni\consumo mi pare che sia decisamente favorevole alla 8800 che rispetto alla 7900 o alle x1950... cioè in HL2 non c'è paragone consuma 15% in più ma in certi casi è il 100% più performante, non capisco di cosa vi lamentate...
Come ho giá scritto alcuni (molti :D) post fa, io ad esempio non mi lamento del consumo in full, e credo che anche molti altri.
Il vero problema é il consumo in idle, fatto che mi preoccupa un po', perché io mica gioco 24/7 :Prrr: :Prrr:
Io ad esempio tengo il pc acceso in media 10 ore al giorno (lavoro e scuola soprattutto, poi i giochi) e non pesa poco sulla bolletta.
La scheda la compro io, ma la bolletta la pagano i miei e poi smadonnano (ho solo 18 anni :( :()

johnson
09-11-2006, 17:14
Come hanno già detto in molti, sarebbe bello vedere dei test a 1280x1024. Il punto è che i giochi usati sono troppo vecchi, bisognerebbe usare titoli molto più nuovi.
Uno non prende una 8800GTX per giocare ad hl2, farcry (che ha quasi 4 anni lol), ss2.

Spero che la redazione si sbrighi ad ordinare qualche titolo più nuovo!

JOHNNYMETA
09-11-2006, 17:15
Dakmor forse dimentichi che quando i DX10 verranno sfruttati ci sarà un'ulteriore impennata di frame grazie proprio alla molto migliore efficienza delle 10.

Januka
09-11-2006, 17:15
ATI ora dovrebbe combattere sul fronte dei consumi per sorprendere nvidia :)

aaasssdddfffggg
09-11-2006, 17:22
...è proprio questo il tasto dolente di ati.Scalldano e consuma molto di più della rivale nVIDIA.Non penso proprio che r600 sarà una santina di scheda in questo....tutt'altro.

DakmorNoland
09-11-2006, 17:24
Dakmor forse dimentichi che quando i DX10 verranno sfruttati ci sarà un'ulteriore impennata di frame grazie proprio alla molto migliore efficienza delle 10.

Sì ma propio sapendo questo gli sviluppatori potrebbero puntare direttamente su motori grafici DX10 con molto + complessi e qualitativamente migliori che eliminerebbero questo vantaggio prestazionale DX10, sempre che sia così accentuato come dicono.

fex89
09-11-2006, 17:25
Bella scheda.
Ora è tempo che ati faccia il grande passo con R600

DakmorNoland
09-11-2006, 17:28
Bella scheda.
Ora è tempo che ati faccia il grande passo con R600

Si e si spera anche per quanto riguarda i consumi! Anche se da quello che è trapelato non sembrerebbe! :p

Però magari punterà propio su questo per riportarsi al passo con nvidia, un colpo di scena, una gpu con consumi contenuti, speriamo! :D Anche perchè se in full sta davvero a 250-300 possono anche tenersela! :p

Free Gordon
09-11-2006, 18:09
riposto sinteticamente una domanda che avevo messo più in dettaglio in un post precedente:
quali sono le ragioni tecniche per cui la 8800gtx, pur con il suo "mostruoso" hw, spesso è superiore solo di poco o anche di poco inferiore, anche ad altissime risoluzioni, ad una 7950gx2 ?
se qualcuno ha interessanti informazioni in proposito o link chiarificatori, qualunque cosa sarà molto gradita, grazie anticipatamente. :help: :)
(stando allo screenshot di pochi post sopra, anche meno del 50% in più di una x1950xtx su un gioco appena uscito di un tipo e serie notoriamente pesante, non sembrano poi molti rispetto alle novità hw; anche se, visto anche come tale gioco sembra "ammazzare" l'architettura g7x rispetto a quella ati, c'è da registrare proprio in quel un enorme passo avanti in casa propria per nv, al contrario di quello che si vede spesso nella recensione rispetto alla 7950gtx :wtf: )



32rops, 112 alu, 1Gb di ram...banda a volontà! La 7950 GX2 ha dei numeri impressionanti eh.. ;) son due GPU di fascia alta messe insieme, mi pare normale che una GPU singola, anche se di una gen successiva, fatichi ad essergli molto superiore. :)

gianni1879
09-11-2006, 18:11
bella scheda davvero, Nvidia ha fatto un ottimo lavoro, non nego che potrebbe essere la mia futura scheda video :D

Non so se R600 sarà all'altezza, un incremento così grande di prestazioni tra una generazione ed un'altra era da tempo che non si vedeva :)

Spero nelle prossime revisioni si scenda un pò con i consumi, che son davvero tanti

nudo_conlemani_inTasca
09-11-2006, 18:17
bella recensione,comunque concordo con la maggior parte degli utenti sul fatto che per il momento si tratta di un giocattolo tecnologico appetibile solo dagli appassionati di tecnologia e a chi gioca utilizzando uno schermo da cinema,penso che bisognera attendere crysis e la risposta ATI per fare delle valutazioni attendibili,secondo me i test fatti nella recensione non dicono assolutamente nulla anche se erano gli unici test fattibili

Come non dicono nulla?! :mbe:
Cioè.. già che in molti titoli realizzati con DX9.0c fanno quasi il doppio o il 50% in più rispetto alla già cattivissima ATI X1950XTX.. ti sembra poco?

Ovvio che devono fare 1 raffronto/paragone con quello che c'è disponibile oggi.. anche per avere 1 idea di dove andare a parare come prestazioni.. è l'unico metro di confronto/giudizio, poi quando arriveranno i titoli DX10 'full compliant' a quel punto avrai una panoramica ancora più completa ed esaustiva su quello che hai realmente comprato (e pagato :D ).

Un gioiello del genere impiegherà almeno 2 anni per essere sfruttata decentemente.. e forse neanche.
bye. :read:

MenageZero
09-11-2006, 18:19
32rops, 116 alu, 1Gb di ram...banda a volontà! La 7950 GX2 ha dei numeri impressionanti eh.. ;) son due GPU di fascia alta messe insieme, mi pare normale che una GPU singola, anche se di una gen successiva, fatichi ad essergli molto superiore. :)
ma come sono queste alu ? scalari ? vettoriali ? quante "componenti" per quelle vettoriali ? io andando a memoria (e probabilmente sbagliando credo ora) ne avevo contate alla gx2 128 vettoriali, ognuna che esegue operazioni simultanee su 2 dati scalari.

ps: le tmu che fine hanno fatto in g80 ? se ci sono quante sono ? g70(71) ne ha 24 ?

DVD2005
09-11-2006, 18:21
Come non dicono nulla?! :mbe:
Cioè.. già che in molti titoli realizzati con DX9.0c fanno quasi il doppio o il 50% in più rispetto alla già cattivissima ATI X1950XTX.. ti sembra poco?

Ovvio che devono fare 1 raffronto/paragone con quello che c'è disponibile oggi.. anche per avere 1 idea di dove andare a parare come prestazioni.. è l'unico metro di confronto/giudizio, poi quando arriveranno i titoli DX10 'full compliant' a quel punto avrai una panoramica ancora più completa ed esaustiva su quello che hai realmente comprato (e pagato :D ).

Un gioiello del genere impiegherà almeno 2 anni per essere sfruttata decentemente.. e forse neanche.
bye. :read:


concordo con te, tranne che per i 2 anni. Chi oggi la compra non penso la avrà ancora nel case tra 24 mesi ;)

Free Gordon
09-11-2006, 18:22
ah, ma quindi uno stream processor è solo (o ha solo) una alu scalare ?
se ricordo bene che g7x ha 2 alu vettoriali x ogni pixel unit e che ciascuna di queste alu opera su 2 dati contemporaneamente
sulla 7950gx2, tra pixel e vertex units, abbiamo in tutto l' "equivalente" di circa 2*2*(24+8)*2/2.7 "stream processor", ovvero crica 95
(2 dati scalari, 2 alu vett., 24+8 shader units, 2 gpu, 2.7 è il rapporto tra il clock delle alu nella 8800gtx, 1350MHz, e nella 7950, 500MHz)
se tali considerazioni a spanne sono vaganmente accettabili, forse spiegano in parte la frequente vicinanza, molto più di quello che ci si potrebbe aspettare ad una prima lettura delle specifiche, tra le due schede,
ma, cosiderato anche che la 8800 ha un vantaggio anche in tremini di banda verso la mem. e di frquenza "esterna" dell gpu (forse "compensati" dal maggiornumero di rops nella 7950gx2 ?), avendo cmq +/- 1/3 in più di risorse di calcolo, rimane l' impressione che spesso faccia troppo poco rispetto alla 7950gx2, per non parlare della gts (96 s.p.) che +/- a parità di tali "risorse normalizzate" sta sempre dietro...


Conta anche che la GX2 ha anche 1GB di ram (oltre che 112 ALU (56x2)). Complessivamente non siamo ad 1/3 di risorse in più. ;)


La situazione è più o meno quella che descrivi, ora non so ESATTAMENTE come è fatta una ALU di G80 (per questo bisognerà attendere il maestro Yoss.. :D preghiamo per il suo ritorno :D ) ma, anche osservando le frequenze che raggiunge lo shader core, è molto probabile che siano scalari.

La strada in sostanza è quella di fare ALU con funzioni unificate ma semplici nella forma, in modo tale da non complicare troppo la cirtuiteria e di farle andare ad alta frequenza.

Il primo buon terreno di battaglia sarà Crysis.. :D

Free Gordon
09-11-2006, 18:26
ma come sono queste alu ? scalari ? vettoriali ? quante "componenti" per quelle vettoriali ? io andando a memoria (e probabilmente sbagliando credo ora) ne avevo contate alla gx2 128 vettoriali, ognuna che esegue operazioni simultanee su 2 dati scalari.
ps: le tmu che fine hanno fatto in g80 ? se ci sono quante sono ? g70(71) ne ha 24 ?


Sono vettoriali quelle di G70 (cmq son 112 nella gx2, mi sono sbagliato sopra).

Le TMU in G70/71 sono 24, in G80 devo ancora capire che cosa sono diventate le TMU... :D Quì la cosa è differente rispetto a tutte le architetture del passato.

nudo_conlemani_inTasca
09-11-2006, 18:32
Dakmor forse dimentichi che quando i DX10 verranno sfruttati ci sarà un'ulteriore impennata di frame grazie proprio alla molto migliore efficienza delle 10.

Evviva l'itagliano correggiuto. :rolleyes: :D

Free Gordon
09-11-2006, 18:36
Questa scheda ha senso in questi due o tre mesi, poi sarà da rottamare. E' la stessa cosa della prima 7800. Oggi nvidia può dire di avere la scheda più veloce ed ha fatto benissimo ad uscire ora. Ati metterà in commercio una scheda più potente di questa ed una settimana dopo nvidia uscirà con il vero G80, senza cose strane (tipo quantità di memoria e frequenze) che sono un po' sospette ora, ed avrà ancora la scheda più veloce costringendo ATI ad altri mesi per poter essere all'altezza.
Intanto chi se la compra ora ha qualche mese di puro godimento davanti, chi aspetta il vero G80 godrà dopo. Chi rimarrà fregato sarà colui che aspetta R600 e lo compra appena esce per accorgersi dopo una settimana che esiste già altro più veloce.


Mi sfugge il periodo in cui è avvenuto quel che dici :D cmq va bene lo stesso eh.. . :stordita:

Free Gordon
09-11-2006, 19:05
ps: le tmu che fine hanno fatto in g80 ? se ci sono quante sono ? g70(71) ne ha 24 ?


Nel G80 ci sono 32T Address e 64T Filter unit.. che cosa siano in grado di fare per ora mi è oscuro. :D Quanti Gt/s? Boh..

Cmq nVidia conferma la sua tendenza ad essere conservatrice. L'architettura è sì unificata ma non particolarmente sofisticata, anche questo G80 bada molto alla forza bruta e al bilanciamento fra texture e shader.
Ati sarà molto più protesa verso gli shader che verso il texturing, cosa che già accade con R580.

Deschutes
09-11-2006, 19:23
Una potenza di scheda, ma non mi piace la strada seguita da nividia e ati (mentre amd e intel hanno invertito, la rotta con grande attenzione ai consumi tdp) che prestano scarsa attenzione ai consumi e alla rumorosità (le varie ati x1800 x1900 x es. fanno un rumore infernale situazione recentemente migliorata con la x1950xtx, le schede con raffreddamento passivo sono rare e costano di più).
Vi rendete conto che la 8800 GTX in idle si mangia 188 watt e in full load 291? Questa bestia di scheda x navigazione web e scrittura letterine si fotte 200 watt!! :eek:
Ciao