View Full Version : GeForce 7800 GTX 512 MB: il ritorno del Re
Redazione di Hardware Upg
14-11-2005, 15:00
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1387/index.html
Poteva forse NVIDIA lasciarsi sfilare il trono dalla Radeon X1800XT senza presentare una contro proposta? Naturalmente no, e quest'oggi si materializza nella scheda GeForce 7800 GTX 512 MB, una versione di G70 spinta nelle frequenze e dotata di un maggior quantitativo di memoria video. Alla caccia della corona perduta.
Click sul link per visualizzare l'articolo.
però complimenti ad ATI per le prestazioni con filtri al massimo!!!
OverClocK79®
14-11-2005, 15:18
veramente impressionante......
le 24 pipe a quelle freq si fanno sentire....
e i 512Mb a 1700 aiutano sicuramente...
la skeda poi risulta essere in linea con i consumi e a livello rumore è pure + bassa della concorrente e della sorella minore GTX256
kissà il prezzo però......
sarò una skeda fuori dagli standard......come le prestazioni....
una nota positiva per ATI
il suo ringbus rende veramente bene....
e credo che la lotta delle prossime skVideo....sarà nn solo di pipe
ma a quanto pare anke a livello ottimizzazione della gestione della memoria
se questi sono i risultati :)
speriamo che questo faccia anticipare l'introduzione di R580
BYEZZZZZZZZZZZZZ
p.s ottima rece come sempre ;)
bello davvero l'articolo me lo sono bevuto :)
caspita! nvidia nn è rimasta a guardare ma ha sfoderato gli artigli appena la concorrente ha provato a superarla! mostrando tutta la vera potenza della
7800gtx (supersaian 4livello :D ) mi dispiace un po' per chi ha acquistato la 7800gtx 256 credendo di avere la scheda video piu' potente del lotto!!
in attesa dello scontro 7800gtx 512mb vs. r580 :)
hackboyz
14-11-2005, 15:23
Bel mostro ... ma continuo ad aspettare la next-gen :D
anche i margini di overclock non sono male considerando il processo produttivo e la già elevata frequenza di GPU e soprattutto memorie
ma tanto di cappello ancora a X1800XT: macina tranquillamente fps con i filtri
Senza filtri è meglio la 7800?!?!?
Se uno compra una di queste schede e gioca senza filtri me lo dica così gli mando una maglietta con scritto "sono un coglione"... :p
Tutto sommato sono alla pari. L'unica differenza la fa il 3DM05... :rolleyes:
Per chi era convinto che una scheda con mezzo giga di memoria fosse inutile.... :D
Ora mi chiedo ma perchè ho preso queste due che ho in firma??? :D Ok chi le vuole??? che mi compro le due sorelline maggiori!!!! :sofico: :D
Senza filtri è meglio la 7800?!?!?
Se uno compra una di queste schede e gioca senza filtri me lo dica così gli mando una maglietta con scritto "sono un coglione"... :p
Tutto sommato sono alla pari. L'unica differenza la fa il 3DM05... :rolleyes:
Quoto!!!
Sono sempre del parere che il crossfire sia una soluzione piu' carina... anche se per gli appassionati di overclock spinti la mobo migliore risulta ancora essere l'NF4... si insomma qui ci vorrebbe un bel ibrido ma nn si puo' avere il Crossfire su NF4???? :asd:
Raga ma ve lo immaginate uno SLI con ste bellezze??? 640 euri x 2... evvai!!!! siamo sui 1300 euri.... hihihi 2 pali e 6 per giocare!! e fare bench!!!! :)
Raga ma ve lo immaginate uno SLI con ste bellezze??? 640 euri x 2... evvai!!!! siamo sui 1300 euri.... hihihi 2 pali e 6 per giocare!! e fare bench!!!! :)
E' no mio caro!
Con la nuova NF4 Gigabyte ci puoi montare 4 di queste schede! Perché ti vuoi limitare a due??? :confused:
:asd:
scusate ma xkè il test è stato fatto in high quality e non in ULTRA (visto che ultra è quella fantomatica modalità che permette di usare 500MB di ram video)????
E' no mio caro!
Con la nuova NF4 Gigabyte ci puoi montare 4 di queste schede! Perché ti vuoi limitare a due??? :confused:
:asd:
Pronto, si, AEM, si, volevo chiedere l'aumento del contatore di casa, sa nn riesco a sfruttare tutta la potenza del mio pc :stordita:
Cioè la cosa più impressionante a mio avviso è la frequenza di clock che nvidia è riuscita ad imporre al progetto G70 realizzato a 0.11, sembra che la soglia dei 600Mhz sia facilmente raggiungibile anche in altre rece di siti stranieri.
Complimenti a nvidia, un altro lancio con disponibilità immediata!
Si non mi interessa se sono CPU limited.... le voglio!!!!!!!!!!!! ne compro 8 cosi' magari se esce in futuro una mobo con 8 pci-ex sono a posto!!!!! :D :asd: :asd:
:asd:[/QUOTE]
Graphicmaniac
14-11-2005, 15:46
il crossfire ha un bel po' di problemi ancora..
vedremo con i futuri dirvers se il gap diminuirà o aumenterà
vorrei sottolineare come oc ci saranno schede sui 600mhz nonostante usi ancora un processo a 110 conto i 90 di ATI
sarebbe ineterssante notare un raffronto anche usando il trasparent antialiasing
l'AA8x uccide le prestazioni ma volete mettere la qualità che vi dà??
senza contare che l'8x si può usare in tutti i giochi ora esistenti sui monito che abbiamo che se si èfortunati raggiungomno i 1600*1200
il mio fa 1024 ..
MiKeLezZ
14-11-2005, 15:47
MOSTRUOSA!!!
Fra un modello e l'altro c'è lo stesso salto che va da una generazione di schede all'altra!!!
Il prezzo, considerando il lancio, è ottimo. Il consumo di corrente tutto sommato limitato, il sistema di raffreddamento perfetto.
Ragazzi se fanno un die shrink a 0,9 , sono dolori per ATI (minori consumi, maggior overcloccabilità!).
Un plauso all'architettura ATI per l'innovazione, però come potenza bruta mi spiace ma non c'è proprio paragone...
E si vedeva che le 7800 erano mezze castrate!
Strano vedere quelli che criticavano Ati per le frequenze lodare ora Nvidia per lo stesso motivo... Anzi più che strano divertente :)
Complimenti per l'articolo, come dicevo non avrei accettato una versione dei catalyst inferiore alla 5.11 :)
Appena uscita e già Qui (http://www.guru3d.com/article/Videocards/285/13/) , l'hanno provata in Sli :eek:
MiKeLezZ
14-11-2005, 15:59
comunque qua il futuro è l'architettura unificata e il miglioramento dell'efficienza
soprattutto i filtri abbisognano di qualche mirabolante novità che li renda fruibili con piccolissimi impatti sulle performance
come clock imho siamo arrivati al capolinea (un po' come nel desktop, siam tutti lì sui 3Ghz)
Adesso ci vuole la 1800 XT PE da parte di ATI :)
Matrix_Genesis
14-11-2005, 16:06
Quoto!!!
Sono sempre del parere che il crossfire sia una soluzione piu' carina... anche se per gli appassionati di overclock spinti la mobo migliore risulta ancora essere l'NF4... si insomma qui ci vorrebbe un bel ibrido ma nn si puo' avere il Crossfire su NF4???? :asd:
Si magari un bel nforce "ibrido" con due VGA SLI con due linee x16 + due VGA CrossFire con due linee x16 (seeeeeeeeeee) un procio quad core(tanto per risaltare il quattro :asd: ) 4GB di RAM e un alimentatore da due kilowatt :asd:
Cmq devo dire che si stanno impagnando molto per migliorare le prestazioni.
Queste schede sono un capolavoro dell'ingegneria. Complimenti agli sviluppatori.
Ho due cose da far notare: mi sa che gli schermi stanno diventando sempre di più i veri limitatori delle schede grafiche. Anche se la risoluzione aumenta, rimane sempre un'immagine vista su una superficia piana. Magari dei bei occhiali per la realtà virtuale...ma forse questa cosa è ancora impossibile, il mercato dei monitor è troppo diffuso, si potrebbe paragonare quasi al mercato del petrolio.
La seconda cosa che tutti questi bei giochi rimangono delle texture. Anche se dal 2002 al 2005 il salto di grafica c'è stato, almeno penso di averlo notato, la grafica è ancora basata sull'apparenza, cioè manca l'interno delle cose rapprensentate. Non voglio di certo sminuire tutte quelle persone che lavorano ala creazione dei giochi, perchè mi INCHINO davanti alla loro bravura ed esperienza.
Mi piacerebbe vedere come potrebbe "girare" un corpo di una persona con tutta la struttura interna, magari a livello atomico su un pc(nel senso un corpo di una pesona creato al pc).Forse sarebbe già tanto vedere la scritta 1 frame al sec. :D Ma forse chiedo troppo nn è ancora il tempo.
Ciauz
Jimmy3Dita
14-11-2005, 16:10
GG nVidia, anche se tutto cio' serve molto di piu' ai forum e ai flame che altro.
Dai forza sbrigatevi a ordinarla, cosi' compro sul mercatino una gtx256 e faccio lo sli :D
Graphicmaniac
14-11-2005, 16:13
alla X1800XTPE semmai uscirà ci penseranno le GF7800GTX-512MB oc
questa scheda era addirittura in vendita una settimana prima dell'annuncio ufficiale!
andate sul forum di nvnews e vedrete di che parlo, in USA la si poteva acquistare da qualche giorno.
ho la pelle d'oca... e non ho parole per descrivere quello che ho letto.
hackboyz
14-11-2005, 16:17
alla X1800XTPE semmai uscirà ci penseranno le GF7800GTX-512MB oc
che vuol dire, allora paragoniamo a questa GTX 512 la X1800XT@ 1 ghz? :asd:
AndreaG.
14-11-2005, 16:18
Bella scheda... bella.... chissà in che volumi si troverà in vendita!? :wtf:
Impressive!
Complimenti per la review e brava Nvidia per il mostro di scheda che ha tirato fuori dal cilindro.
1700Mhz sulla ram ... ugh, fanno impressione!
La mia X850XT sta già accusando qualche complesso di inferiorità! :asd:
gianni1879
14-11-2005, 16:18
Pronto, si, AEM, si, volevo chiedere l'aumento del contatore di casa, sa nn riesco a sfruttare tutta la potenza del mio pc :stordita:
:D
ForeverBlue
14-11-2005, 16:19
alla X1800XTPE semmai uscirà ci penseranno le GF7800GTX-512MB oc
questa scheda era addirittura in vendita una settimana prima dell'annuncio ufficiale!
andate sul forum di nvnews e vedrete di che parlo, in USA la si poteva acquistare da qualche giorno.
Già tanto la X1800XT PE non si overcloccherà vero :asd: .........
cmq godo a vedere a X18 mentre le piglia sonoramente a AA4x 1920*1440 dalla GTX......si profila una PE con conseguente diminuzione dei prezzi :sofico:
il crossfire ha un bel po' di problemi ancora..
vedremo con i futuri dirvers se il gap diminuirà o aumenterà
vorrei sottolineare come oc ci saranno schede sui 600mhz nonostante usi ancora un processo a 110 conto i 90 di ATI
sarebbe ineterssante notare un raffronto anche usando il trasparent antialiasing
l'AA8x uccide le prestazioni ma volete mettere la qualità che vi dà??
senza contare che l'8x si può usare in tutti i giochi ora esistenti sui monito che abbiamo che se si èfortunati raggiungomno i 1600*1200
il mio fa 1024 ..
A 1600 e oltre l'AA diventa quasi inutile... :p
E' appena uscita una news di HWU... :p
http://www.hwupgrade.it/news/skvideo/15787.html
gianni1879
14-11-2005, 16:25
che vuol dire, allora paragoniamo a questa GTX 512 la X1800XT@ 1 ghz? :asd:
si infatti che senso ha paragonare schede oc. :rolleyes:
siete stufi della bolletta del gas?
siete stufi di quei brutti termosifoni?
siete stufi del'acqua fredda quando si svuata il bollitore?
siete stufi della stufa?
allora 4 di queste bellezze e una nf4 gigabyte fanno per te!!!*
disponibile nelle versioni casa, auto e l'ultimissima a forma di barile con vero fuoco per essere un barbone sempre all'avanguardia.
al prezzo di 23,75 reni cent. (iva esclusa)
*centrale nucleare non inclusa
gianni1879
14-11-2005, 16:29
siete stufi della bolletta del gas?
siete stufi di quei brutti termosifoni?
siete stufi del'acqua fredda quando si svuata il bollitore?
siete stufi della stufa?
allora 4 di queste bellezze e una nf4 gigabyte fanno per te!!!*
disponibile nelle versioni casa, auto e l'ultimissima a forma di barile con vero fuoco per essere un barbone sempre all'avanguardia.
al prezzo di 23,75 reni cent. (iva esclusa)
*centrale nucleare non inclusa
troppo forte.......... :D
Certo che potevano anche chiamarla 7800 ULTRA :sofico:
1100000110100000
:)
MiKeLezZ
14-11-2005, 16:42
Certo che potevano anche chiamarla 7800 ULTRA :sofico:
1100000110100000
:)
forse la ultra se la tengono per il prossimo giro
:o
skerzi a parte.
se ne possono mettere quattro sopra la nf4 gigabyte.
per quanto ne so io con quattro skede i canali pci-e diventano a 8x, e il ponticello serve propio per non tappare il bus pci-e.
ma allora (driver permettendo) per usare quattro skede (non necessariamente queste) dovrebbero riprogettare il ponticello per collegarle?
ATI è stata conservativa con il clock della XT, c'è ancora parecchio margine, poi con il tempo la resa migliorerà molto permettendo clock ben maggiori :)
Dark Schneider
14-11-2005, 16:50
Un bel mostro davvero. Bella recensione.
Unica cosa che volevo chiedere, ok il Core...ma come mai le memorie son salite così poco? Ci son articoli in cui le memorie si son OC molto di più...1800 e quasi anche 1900. Può essere al momento le memorie samsung disponibili non sono tutte performanti allo stesso modo?
ma se questa non è la ultra e la ultra si dice verrà prodotta a 90nm,
alla prossima di casa ati ne uscirà un'altra bestia da parte di nvidia.
Minkia ke passi da gigante e ke prezzi, preferisco dare un rene a qualke sconosciuto in fin di vita ke al mio negoziante di fiducia per una skeda del genere. Se poi lo sconosciuto e il negoziante sono la stessa persona allora è un'altro discorso. :)
Ogni volta che si accendono i filtri il divario si assotiglia nettamente e a volte ATi la supera pure. Ma allora che caspita di ritorno del re è se il re viene battuto dalla regina con 16 pippe?
MiKeLezZ
14-11-2005, 16:57
ma come mai le memorie son salite così poco? Ci son articoli in cui le memorie si son OC molto di più...1800 e quasi anche 1900. Può essere al momento le memorie samsung disponibili non sono tutte performanti allo stesso modo?
chiaro
wonder, non mi sembra proprio che la 1800 riesca a batterla
ci si avvicina più o meno, a certe risoluzioni
ma battere proprio no
certo ke certe skede madri propio non si addicono per queste 7800 in sli.
Raga vi siete resi conto che praticamente le schede video sono un mostro di potenza in confronto al resto del sistema....
Cioè un fx 55, ram di ottima fattura, migliori hd disponidili ecc sono tutti colli di bottiglia ENORMI per queste belve...
Cacchio un fx 55 è molte volte cpu limited....
ASSURDO....
Perchè non fanno fare cpu e tutt il resto alla nvidia ed ati...????
Ottima scheda ma imho si sta esagerando con questa rincorsa al megahertz.
Poi ho i miei seri dubbi di trovarla in Italia a 649€.
Kudos a Nvidia comunque.
MiKeLezZ
14-11-2005, 17:13
ah poi vi consiglio di farvi un giro anche per il web
certe recensioni fanno vedere che supera del DOPPIO le prestazioni della x1800xt
del tipo 40fps una, 80fps l'altra
:o
ora non so dire quale sia di parte, ma è sempre meglio farsi un'idea generale piuttosto che pendere dalle labbra di un solo sito
innanzi tutto complimenti per la recensione favolosa...come sempre :)
grazie per l'iniziale precisazione sul Fill Rate :cool illuminante :D
un commento sulla "grafica" di questa VGA va fatto... imho è spettacolare, quel dissipatore è veramente bellissimo, sicuramente anche molto molto efficiente :) ... e come volevasi dimostrare il dissy è veramente ottimo, il più silenzioso dei 3 e credo anche il più efficiente
visti i bench e :eek: questo era quello che mi sarei aspettato dalla soluzione X1800XT dopo una lunga attesa e invece è stata NVidia che probabilmente aveva lasciato a riposo tutta la potenza di G70 :p veramente impressionanti gli score :O
i consumi sono veramente paurosi...mentre l'OC non sembra così rilevante, direi che il CHIP video è veramente tiratissimo, per salire ancora LN2 RuleZ :cool:
c'è da dire che ATi ha ora un leggero vantaggio tecnologico, se fatta un po' le ossa con il nuovo processo produttivo (anche se la storia Intel/AMD ci insegna che non è forse la strada più giusta quella di voler forzare i tempi) e ha soprattutto il supporto ad HDR e H.264 (anche se non ancora ufficialmente disponibile) :)
NicoMcKiry
14-11-2005, 17:23
Ciao a tutti,
sono un perfetto ignorante in materia di schede video. Qualcuno conosce un sito dove sono spiegati un po' i vari termini tecnici specifici per queste periferiche? (pipe, banda passante ecc ecc...) ringrazio per la risposta e mi scuso per il post OT.
nachtymnen
14-11-2005, 17:47
Nuovi WR by Shamino:
http://www.vr-zone.com/?i=2938
Ram a 2GHZ
yossarian
14-11-2005, 17:48
Ogni volta che si accendono i filtri il divario si assotiglia nettamente e a volte ATi la supera pure. Ma allora che caspita di ritorno del re è se il re viene battuto dalla regina con 16 pippe?
16 pippe credo stenderebbero chiunque
:D
16 pippe credo stenderebbero chiunque
:D
:rotfl:
MiKeLezZ
14-11-2005, 17:51
c'è da dire che ATi ha soprattutto il supporto ad HDR e H.264 (anche se non ancora ufficialmente disponibile) :)
Pure nvidia.
:P
Adesso ci vuole la 1800 XT PE da parte di ATI :)
Già. potrebbero già presentarla così forse sarà disponibile per pasqua :D
Pure nvidia.
:P
hanno il supporto per HDR :what: mi è sfuggito qualche cosa :muro: e magari anche H.264 :mc: ?!
MiKeLezZ
14-11-2005, 17:57
hanno il supporto per HDR :what: mi è sfuggito qualche cosa :muro: e magari anche H.264 :mc: ?!
Hai voglia!
"Da quel dì", aggiungerei.
Anche se per H.264 mancano anche per loro i driver. Si parla di Natale..
ciauz
Hai voglia!
"Da quel dì", aggiungerei.
Anche se per H.264 mancano anche per loro i driver. Si parla di Natale..
ciauz
questa mi era proprio sfuggita :p
Ci sono alcune cose che da ultrafan di nvidia (come verrò dipinto dopo questo reply heh) non mi vanno giù di questa recensione :D
1. Anche nvidia può fare HDR + AA assieme, basta utilizzare un altra tecnica di realizzazione del HDR, come discusso ampiamente qui (http://www.hwupgrade.it/forum/showthread.php?p=10085907#post10085907) .
2. Sono sicuro che se nvidia proponeva un AA x32 come massimo lo si paragonava a quello di ATI x6, lodando il distacco in termini di frame al secondo e senza fare il minimo accenno alla differenza di qualità :D
Cioè come si fa a paragonare un x8 con un x6... :doh:
MiKeLezZ
14-11-2005, 18:06
Cioè come si fa a paragonare un x8 con un x6... :doh:han paragonato un x8 a un x6? lol..
comunque imho hwupgrade ha un ciccinino di preferenza verso amd e ati
anche se questa review mi è sembrata molto meno di parte del solito (anche se non son stato bene a controllare i grafici)
han paragonato un x8 a un x6? lol..
comunque imho hwupgrade ha un ciccinino di preferenza verso amd e ati
anche se questa review mi è sembrata molto meno di parte del solito (anche se non son stato bene a controllare i grafici)
non credo proprio che la redazione sia di parte :O
e poi non è stato paragonato AA8x vs. AA6x ma AA8xS (che per NVidia sostituisce il "mancante" 6x) con il 6x di ATi ;)
NVidia non avendo AA6x ha due modalità di AA8x, la S (basso) e la Q (alto) :D
Il distacco in termini di prestazioni non segue molto la tua logica. Non trovi che se fosse un 6x l'avrebbero chiamato 6x e non 8xS ?
Il distacco in termini di prestazioni non segue molto la tua logica. Non trovi che se fosse un 6x l'avrebbero chiamato 6x e non 8xS ?
ma hai notato che NVidia non dispone di AA6x??? :p invece di usare 6 Samples ne usa 8 ma non so in che modo differisce dall'8x classico l'8xS :(
comunque AA6x di ATi è del tutto paragonabile come qualità al AA8xS di NVidia ;)
Free Gordon
14-11-2005, 18:22
Complimenti ad Nvidia, non credevo riuscisse a tirare la GTX a 550mhz, mantenendo lo stesso processo a 110nm!
Preferisco ancora l'approccio di Ati e la sua nuova architettura pensata per rendere al meglio con filtri e rendering complesso.
Tutto sommato nei giochi nuovi (Fear, CoD2 ecc) e filtri attivi, le schede sono vicine. ;)
ps. un saluto a Yoss. :D
MiKeLezZ
14-11-2005, 18:23
potevano usare il 4x per entrambe! :)
bella la 7800 tirata al max ma io mi accontento di una onorevole x1800 se la fanno agp come dicono alcuni articoli.
nulla da togliere al nuovo re delle schede video (magari fear cosi nn swappa piu' :sofico: )
nn oso pensare 2 bestie di questo genere in sli UN GIGA DI RAM VIDEO di massima potenza
quale gioko potrebbe impensierirle?? ma secondo me nemmeno tra 2-3 anni (ottimista)
haveacigar
14-11-2005, 18:32
Scheda eccezionale.
Recensione ottima.Nelle conclusioni ho apprezzato un atteggiamento equilibrato.
Vorrei togliermi dei dubbi però.
Sbaglio o nessuno (ne tantomeno la redazione)ha accennato al fatto che questa scheda faccia uso di bus interno a 512 bit come la x1800?Questa non dovrebbe essere una novità da sottolineare?Potrebbe contribuire a spiegare l'enorme guadagno prestazionale.
Qualcuno qualche settimana fa si diceva sicuro del fatto che questa scheda non avrebbe guadagnato minimamente dall'innalzamento delle frequenze della memoria...sembra esattamente il contrario...
Qualcuno inoltre sottolineava come questa scheda fosse una bench-edition..non mi sembra di poter condividere...la disponibilità sembra assolutamente ottima..
Ati dovrebbe imparare da Nvidia sotto quest'ultimo punto di vista...
Ultime due cose.
Avrei preferito una versione con queste frequenze ma con la metà del quantitativo di memoria...sono sicuro che allo stato attuale non serve a nulla mezz gb di ram.In questo modo avrebbero potuto contenere i costi ed avere un prodotto + concorrenziale.
E' comunque eccezionale vedere come Ati riesca a far registrare prestazioni di tutto rispetto con i filtri abilitati.
MiKeLezZ
14-11-2005, 18:32
http://www.hwupgrade.it/articoli/skvideo/1311/14.html
bha..
JohnPetrucci
14-11-2005, 18:33
Ottima review, come sempre!
E ottime le ultime parole di consigli per gli acquisti in base alle proprie esigenze, optando per l'una o l'altra soluzione, mi trovate perfettamente d'accordo.
Mi hanno stupito i risultati al 3dmerd 2005, in genere tendenzialmente un pò più favorevole ad Ati.
Cmq la scelta è Ati per la qualità o Nvidia per le prestazioni con 50€ in più da versare sul piatto. :O
Nella rece di hwupgrade non viene menzionato questo :
Con la 7800 GTX 512, il bus interno è in grado di trasferire 512 bit per clock, grazie alla sua funzionalità double data rate. Il bus esterno rimane da 256 bit, quindi la velocità di trasferimento da e verso i 512 MB di memoria rimane identica.
tratto da toms
ma hai notato che NVidia non dispone di AA6x??? :p invece di usare 6 Samples ne usa 8 ma non so in che modo differisce dall'8x classico l'8xS :(
comunque AA6x di ATi è del tutto paragonabile come qualità al AA8xS di NVidia ;)
:wtf:
E' ovvio che usando 8 samples, il carico di lavoro che deve sobbarcarsi la gpu è notevolmente superiore al calcolo su 6 samples.
Il fatto che qualitativamente siano paragonabili non mi convince molto, anche se forse qualsiasi AA oltre il 4x non è misurabile ad occhio nudo durante una sessione di gioco. In effetti nessun altro sito ha benchato le 2 schede con impostazioni massime di filtri, che sia proprio questo il motivo?
:wtf:
E' ovvio che usando 8 samples, il carico di lavoro che deve sobbarcarsi la gpu è notevolmente superiore al calcolo su 6 samples.
Il fatto che qualitativamente siano paragonabili non mi convince molto, anche se forse qualsiasi AA oltre il 4x non è misurabile ad occhio nudo durante una sessione di gioco. In effetti nessun altro sito ha benchato le 2 schede con impostazioni massime di filtri, che sia proprio questo il motivo?
poi superati i 1600*1200 l'apporto del AA è quasi inutile :O Anisotropico invece si continua a vedere :p
Erian Algard
14-11-2005, 18:46
Cavoli che bomba....è interessante notare come a 1024*768 in alcuni casi la 7800GTX 256 sia più veloce della x1800xt.....comunque sono tutte delle grandi schede.
poi superati i 1600*1200 l'apporto del AA è quasi inutile :O Anisotropico invece si continua a vedere :p
Infatti, sembrava quasi che questi test fossero stati messi lì, giusto per non affossare più di tanto la 1800xt (che cercando col trovaprezzi, ancora non è disponibile in italia, a differenza di quello che si dice nelle conclusioni della recensione... per completezza, nemmeno la 7800 512mb è disponibile col trovaprezzi).
MiKeLezZ
14-11-2005, 18:56
Infatti, sembrava quasi che questi test fossero stati messi lì, giusto per non affossare più di tanto la 1800xt (che cercando col trovaprezzi, ancora non è disponibile in italia, a differenza di quello che si dice nelle conclusioni della recensione...).
guarda, i test che ho visto su anandtech, erano fatti semplicemente con aa4x
a 1600x1200 la gtx si magnava la x1800 in un boccone, roba del tipo 90% più veloce, non stava MAI e dico MAI sotto
MiKeLezZ
14-11-2005, 18:58
Infatti, sembrava quasi che questi test fossero stati messi lì, giusto per non affossare più di tanto la 1800xt (che cercando col trovaprezzi, ancora non è disponibile in italia, a differenza di quello che si dice nelle conclusioni della recensione... per completezza, nemmeno la 7800 512mb è disponibile col trovaprezzi).
http://www.alternate.de/html/shop/productDetails.html?artno=JBXX11&
670€
disponibilità verdolina, ce ne sono quante volete
se non è serietà questa...
Foglia Morta
14-11-2005, 19:02
Questa scheda fa ottimamente ciò che deve fare...
Però esco dal coro riguardo la recensione , fatta bene nelle sue parti , però di parti appunto ce ne mancano per fare un lavoro veramente completo... mi spiego :
1)Una delle novità di queste nuove X1800 è la programmabilità del memory controller e del dispatch processor , si è visto nei giochi opengl l'incremento che si è avuto con la X1800XT 512 Mb , ma la X1800XT 256MB la X1800XL 256 Mb e la 7800GT 256 Mb non potevano essere testate nuovamente per avere un quadro veramente completo della situazione della fascia alta ?
2)L' unica differenza fra la X1800XT 512Mb e la X1800XT 256 Mb ( a differenza della fascia altissima di nVidia ) è il quantitativo di memoria e ad oggi ancora non sappiamo in che misura questi 256 Mb aggiuntivi avvantaggiano la soluzione 512Mb di Ati nei confronti della 256 Mb, che teoricamente in base al prezzo dovrebbe essere quella da paragonare alla 7800GTX 256 Mb .
Questo articolo è uscito giustamente per presentare la nuova scheda di nVidia però mancando una panoramica veramente completa della fascia alta poteva essere sfruttata l' occasione
http://www.alternate.de/html/shop/productDetails.html?artno=JBXX11&
670€
disponibilità verdolina, ce ne sono quante volete
se non è serietà questa...
Si parlava della disponibilità in italia :)
gianni1879
14-11-2005, 19:17
devo fare i complimenti ad Nvidia per la ottima scheda, ottime freq,. cmq sinceramente mi aspettavo un divario piu' marcato da parte di Nvidia con questa scheda, evidentemente l'architetture della Ati è ottima, nulla da dire, si difende molto bene.
Vedremo il confronto con le nuove architetture Ati con più pipeline, quando usciranno.
Ma quando calano i prezzi di ste schede??
Complimenti per la rece,e per la scelta del nuovo pacchetto di benchmark :)
Che dire,sono rimasto veramente impressionato dalla forza bruta di questa scheda,Nvidia ora rimane dietro solo per il supporto all'hdr,che a differenza di Ati continua a essere privo di AA.
C'è da dire però che,se si pensa che rende questa tecnica utilizzabile a risoluzioni come 1600*1200..beh...a quei livelli l'assenza di AA è irrilevante imho.
A questo proposito volevo sapere se i test con HDR sono stati fatti abilitando o meno l'aa nella 1800xt.
Un'applauso come sempre alla disponibilità reale della scheda da parte di Nvidia,io questa politica la trovo veramente da lodare e stralodare :)
han paragonato un x8 a un x6? lol..
comunque imho hwupgrade ha un ciccinino di preferenza verso amd e ati
anche se questa review mi è sembrata molto meno di parte del solito (anche se non son stato bene a controllare i grafici)
:mano:
1100000110100000
;)
Paolo Corsini
14-11-2005, 19:21
potevano usare il 4x per entrambe! :)
Se perdessi 3 minuti a leggere quello che scriviamo, troveresti anche questi valori. Oplà!
MiKeLezZ
14-11-2005, 19:24
Se perdessi 3 minuti a leggere quello che scriviamo, troveresti anche questi valori. Oplà!
touchè
cmq mi basavo su cose dette da altri (scusa che regge poco lo so..)
Complimenti per la rece,e per la scelta del nuovo pacchetto di benchmark :)
Che dire,sono rimasto veramente impressionato dalla forza bruta di questa scheda,Nvidia ora rimane dietro solo per il supporto all'hdr,che a differenza di Ati continua a essere privo di AA.
C'è da dire però che,se si pensa che rende questa tecnica utilizzabile a risoluzioni come 1600*1200..beh...a quei livelli l'assenza di AA è irrilevante imho.
A questo proposito volevo sapere se i test con HDR sono stati fatti abilitando o meno l'aa nella 1800xt.
Un'applauso come sempre alla disponibilità reale della scheda da parte di Nvidia,io questa politica la trovo veramente da lodare e stralodare :)
Anche la 7800 può fare AA + HDR.
capitan_crasy
14-11-2005, 19:30
forse la ultra se la tengono per il prossimo giro
:o
basta non ne posso più!!!
Qualcuno li fermi!!!
MiKeLezZ
14-11-2005, 19:36
rileggendo... in effetti è SEMPRE davanti
c'è anche scritto che il motivo del crollo è dato dall'abilitazione dell'8x
bhe dai mi devo ricrede, vedo dell'imparzialità
*si cosparge il cranio di cenere*
ciauz
alexfx79
14-11-2005, 19:42
Ragazzi mi dovete spiegare una cosa ma perche' dopo questi "mostri" appena usciti che il prezzo se non ricordo male (almeno per la 7800gtx 256mb) e' di €450 grossomodo io con il mio antichissimo agp devo pagare ancora una 6800ultra agp nuova €360/400 e l'ho vista anche a €450 vi sembra possibile????????
Non dovrebbe calare vorticosamente con l'uscita di queste nuove tecnologie per vga ????(come sarebbe giusto)
Edit: a quello che avevo scritto ha già risposto Paolo Corsini.
Il test con il massimo antialiasing IMHO è molto interessante, evidenzia che andando oltre l'AA4X le prestazioni della GTX crollano. E su schede di fascia altissima come queste andare oltre l'AA4X non è uno scenario improbabile, seppure sono dell'idea che con i giochi nuovi non siano praticamente mai CPU limited (se usate da sole).
DioBrando
14-11-2005, 19:49
Strano vedere quelli che criticavano Ati per le frequenze lodare ora Nvidia per lo stesso motivo... Anzi più che strano divertente :)
Complimenti per l'articolo, come dicevo non avrei accettato una versione dei catalyst inferiore alla 5.11 :)
và a periodi...prima la massa parteggia per uno poi per l'altro...è il tifoso che n sta mai in pace e che vorrebbe vincere sempre ( e quindi cambia bandiera a seconda dell'occasione :))...
ma prima o poi la corrente del Golfo si fermerà e con essa la mitigazione dei poli, la desalinizzazione dell'acqua avrà toccato il punto di n ritorno ed assisteremo ad un radicale mutamento climat...
ah no, ho sbagliato film :D
Anche la 7800 può fare AA + HDR.
No....
MiKeLezZ
14-11-2005, 19:52
No....
sì
c'è un link poco addietro
leggilo.
alfredino85
14-11-2005, 19:56
Bell'articolo l'ho letto tutto dun fiato e con la bava alla bocca sono un fan di nvidia e un simpatizzante di ati xò c'è da ammettere che se non fosse per le frequenze non ce l'avrebbe mai fatta mi disp ammetterlo ma l'architettura ati funziona meglio e i filtri lo dimostrano...vabbè facciano il gioco dei frame e basta se non altro ha guadagnoto di nuovo il trono..per vedere la vera sfida bisognerà aspettare la prossima generazione.. :-)
sì
c'è un link poco addietro
leggilo.
Sono cavilli tecnici.
Nell'hdr utilizzato dalla maggioranza dei game presenti e futuri non può generare AA+HDR.
Ci sono alcune cose che da ultrafan di nvidia (come verrò dipinto dopo questo reply heh) non mi vanno giù di questa recensione :D
1. Anche nvidia può fare HDR + AA assieme, basta utilizzare un altra tecnica di realizzazione del HDR, come discusso ampiamente qui (http://www.hwupgrade.it/forum/showthread.php?p=10085907#post10085907) .
2. Sono sicuro che se nvidia proponeva un AA x32 come massimo lo si paragonava a quello di ATI x6, lodando il distacco in termini di frame al secondo e senza fare il minimo accenno alla differenza di qualità :D
Cioè come si fa a paragonare un x8 con un x6... :doh:
1) Il discorso HDR + AA è complesso e personalmente non me la sono sentita di appensatire le conclusioni con un discorso tecnico di questo tipo. In ogni caso se vogliamo la possiamo mettere in questo modo: R520 può effettuare HDR + AA in tutte le situazioni e con qualsiasi tecnica di HDR attualmente utilizzata. G70 non può usare HDR + AA in tutti i casi, ma essenzialmente, rifacendoci all'attuale panorama videoludico, lo può fare solo con Half-Life 2 Lost Coast, mentre non lo può fare in Splinter Cell Chaos Theory, Far Cry e Serious Sam 2.
2) Se NVIDIA avesse implementato un AA 6x, lo avrei inserito, ma purtroppo non lo hanno fatto. La differenza qualitativa che c'è tra AA 6x e AA 8xS è praticamente non percepibile e, anche se la si percepisse, di certo non giustifica un frame rate che è, dati alla mano, in alcuni casi arriva ad essere la metà di quello ottenuto con AA 6x.
halduemilauno
14-11-2005, 20:05
và a periodi...prima la massa parteggia per uno poi per l'altro...è il tifoso che n sta mai in pace e che vorrebbe vincere sempre ( e quindi cambia bandiera a seconda dell'occasione :))...
ma prima o poi la corrente del Golfo si fermerà e con essa la mitigazione dei poli, la desalinizzazione dell'acqua avrà toccato il punto di n ritorno ed assisteremo ad un radicale mutamento climat...
ah no, ho sbagliato film :D
peccato era bello.
;)
xXxCoKxXx
14-11-2005, 20:07
beh se devo comprare una scheda di questo livello io nn ho dubbi... rimango sulla 1800xt.. consuma di meno.. devo giocare ad alte risoluzioni e ad ampi filtri.. e devo pagare di meno... scusate ma nn ci vuole un genio x capire che è meglio la 1800xt .. tenendo conto poi che è tirata x il collo questa 7800gtx.. nn sale più di frequenza.. ditemi voi
Scusate. Sono rimasto con una curiosità che vorrei soddisfare :D ... Nella prima pagina si accenna a modifiche a G70 per permettergli di arrivare a queste frequenze. Quali sono? Sono curiosissimo...
Grazie.
Scheda eccezionale.
Recensione ottima.Nelle conclusioni ho apprezzato un atteggiamento equilibrato.
Vorrei togliermi dei dubbi però.
Sbaglio o nessuno (ne tantomeno la redazione)ha accennato al fatto che questa scheda faccia uso di bus interno a 512 bit come la x1800?Questa non dovrebbe essere una novità da sottolineare?Potrebbe contribuire a spiegare l'enorme guadagno prestazionale.
Qualcuno qualche settimana fa si diceva sicuro del fatto che questa scheda non avrebbe guadagnato minimamente dall'innalzamento delle frequenze della memoria...sembra esattamente il contrario...
Qualcuno inoltre sottolineava come questa scheda fosse una bench-edition..non mi sembra di poter condividere...la disponibilità sembra assolutamente ottima..
Ati dovrebbe imparare da Nvidia sotto quest'ultimo punto di vista...
Ultime due cose.
Avrei preferito una versione con queste frequenze ma con la metà del quantitativo di memoria...sono sicuro che allo stato attuale non serve a nulla mezz gb di ram.In questo modo avrebbero potuto contenere i costi ed avere un prodotto + concorrenziale.
E' comunque eccezionale vedere come Ati riesca a far registrare prestazioni di tutto rispetto con i filtri abilitati.
Nella rece di hwupgrade non viene menzionato questo :
Con la 7800 GTX 512, il bus interno è in grado di trasferire 512 bit per clock, grazie alla sua funzionalità double data rate. Il bus esterno rimane da 256 bit, quindi la velocità di trasferimento da e verso i 512 MB di memoria rimane identica.
tratto da toms
Il fatto che alcuni colleghi scrivano un qualcosa non significa che questo qualcosa sia corretto, con tutto il rispetto che meritano ovviamente i colleghi di Toms Hardware. Quanto scritto nel loro articolo, infatti, non mi risulta. Secondo quanto da loro scritto G70 utilizzato per la versione da 512 MB è un chip differente da quello usato per la versione da 256 MB, perché è impossibile cambiare bus interno senza cambiare il chip, cosa che non corrisponde a realtà. E' lo stesso identico chip. Il bus interno di G70 è a 512 bit, lo è sempre stato così come quello di NV40 o anche di R420.
Al riguardo vi riporto una parte della Reviewer's Guide, il documento rilasciato da NVIDIA riguardo la 7800 GTX 512 MB.
The large performance gains were accomplished by both raising the clocks and tuning the fabrication process to speed up certain data paths inside the chip, and by tuning the printed circuit board (PCB) design.
beh se devo comprare una scheda di questo livello io nn ho dubbi... rimango sulla 1800xt.. consuma di meno.. devo giocare ad alte risoluzioni e ad ampi filtri.. e devo pagare di meno... scusate ma nn ci vuole un genio x capire che è meglio la 1800xt .. tenendo conto poi che è tirata x il collo questa 7800gtx.. nn sale più di frequenza.. ditemi voi
scusa eh,ma quando compri una Ferrari vai a badare a quanto consuma?O vai a tirare sul prezzo?
Chi si compra una scheda del genere non ci pensa manco di striscio a queste cose.
Contano solo le prestazioni pure,ad alte risoluzioni e filtri attivi.
halduemilauno
14-11-2005, 20:13
beh se devo comprare una scheda di questo livello io nn ho dubbi... rimango sulla 1800xt.. consuma di meno.. devo giocare ad alte risoluzioni e ad ampi filtri.. e devo pagare di meno... scusate ma nn ci vuole un genio x capire che è meglio la 1800xt .. tenendo conto poi che è tirata x il collo questa 7800gtx.. nn sale più di frequenza.. ditemi voi
che sale. a 600/1800 praticamente tutte. alcune anche a 625/630 il core e 1900 o quasi la ram. in una rece 620/1930.
http://www.digit-life.com/articles2/video/g70-7.html
ma questo certo può non essere la norma.
;)
Scusate. Sono rimasto con una curiosità che vorrei soddisfare :D ... Nella prima pagina si accenna a modifiche a G70 per permettergli di arrivare a queste frequenze. Quali sono? Sono curiosissimo...
Grazie.
Viene svelato nelle conclusioni e non sono altro che affinamenti relativi al processo produttivo.
Complimenti per la rece,e per la scelta del nuovo pacchetto di benchmark :)
Che dire,sono rimasto veramente impressionato dalla forza bruta di questa scheda,Nvidia ora rimane dietro solo per il supporto all'hdr,che a differenza di Ati continua a essere privo di AA.
C'è da dire però che,se si pensa che rende questa tecnica utilizzabile a risoluzioni come 1600*1200..beh...a quei livelli l'assenza di AA è irrilevante imho.
A questo proposito volevo sapere se i test con HDR sono stati fatti abilitando o meno l'aa nella 1800xt.
Un'applauso come sempre alla disponibilità reale della scheda da parte di Nvidia,io questa politica la trovo veramente da lodare e stralodare :)
I test con HDR per R520 sono stati effettuati senza antialiasing, a parte ovviamente Half-Life 2 Lost Coast dove è stato abilitato su tutte le schede grazie alla tecnica implementata da Valve che lo consente.
xXxCoKxXx
14-11-2005, 20:21
ma se permetti io guardo anche il consumo.. visto che poi se ne affianchi 2 in sli o in Cf il gap raddoppia.. come raddoppiano quei 50 euro di differenza .. insomma.. e poi come hai detto tu.,. kn una sceda del genere giocherei soltanto a risoluzione immense kn tt i filtri attivati e di conseguenza punterei x forza il dito su r520.. ma senza ombra di dubbio!
MiKeLezZ
14-11-2005, 20:21
beh se devo comprare una scheda di questo livello io nn ho dubbi... rimango sulla 1800xt.. consuma di meno.. devo giocare ad alte risoluzioni e ad ampi filtri.. e devo pagare di meno... scusate ma nn ci vuole un genio x capire che è meglio la 1800xt .. tenendo conto poi che è tirata x il collo questa 7800gtx.. nn sale più di frequenza.. ditemi voi
Meglio HDR a 1600x1200 oppure HDR + AA a 1280x1024?
Poi comunque quelli che faranno la differenza saranno i programmatori.
Creare un HDR come quello di Lost Cost è semplice, e non vedo perchè non preferirlo a quello per esempio di Serious Sam 2.
Quantomeno così tutti possono sfruttare l'AA.
I test con HDR per R520 sono stati effettuati senza antialiasing, a parte ovviamente Half-Life 2 Lost Coast dove è stato abilitato su tutte le schede grazie alla tecnica implementata da Valve che lo consente.
Ok,mi sarebbe sembrato strano il contrario,ma ho voluto comunque chiedere per essere sicuro.
Grazie mille e ancora complimenti per la rece :)
OverClocK79®
14-11-2005, 20:25
Il fatto che alcuni colleghi scrivano un qualcosa non significa che questo qualcosa sia corretto, con tutto il rispetto che meritano ovviamente i colleghi di Toms Hardware. Quanto scritto nel loro articolo, infatti, non mi risulta. Secondo quanto da loro scritto G70 utilizzato per la versione da 512 MB è un chip differente da quello usato per la versione da 256 MB, perché è impossibile cambiare bus interno senza cambiare il chip, cosa che non corrisponde a realtà. E' lo stesso identico chip. Il bus interno di G70 è a 512 bit, lo è sempre stato così come quello di NV40 o anche di R420.
[/i]
infatti leggendo Tom's mi sembrava quasi di aver letto una cosa in +
ossia sembrava che ci fosse un nuova ottimizzazione nel chip
eppure qui nn l'avevo letta.....
prob hanno fatto confusione
BYEZZZZZZZZZZZ
haveacigar
14-11-2005, 20:30
Il fatto che alcuni colleghi scrivano un qualcosa non significa che questo qualcosa sia corretto, con tutto il rispetto che meritano ovviamente i colleghi di Toms Hardware. Quanto scritto nel loro articolo, infatti, non mi risulta. Secondo quanto da loro scritto G70 utilizzato per la versione da 512 MB è un chip differente da quello usato per la versione da 256 MB, perché è impossibile cambiare bus interno senza cambiare il chip, cosa che non corrisponde a realtà. E' lo stesso identico chip. Il bus interno di G70 è a 512 bit, lo è sempre stato così come quello di NV40 o anche di R420.
Al riguardo vi riporto una parte della Reviewer's Guide, il documento rilasciato da NVIDIA riguardo la 7800 GTX 512 MB.
The large performance gains were accomplished by both raising the clocks and tuning the fabrication process to speed up certain data paths inside the chip, and by tuning the printed circuit board (PCB) design.
Grazie per il chiarimento. ;)
1) Il discorso HDR + AA è complesso e personalmente non me la sono sentita di appensatire le conclusioni con un discorso tecnico di questo tipo. In ogni caso se vogliamo la possiamo mettere in questo modo: R520 può effettuare HDR + AA in tutte le situazioni e con qualsiasi tecnica di HDR attualmente utilizzata. G70 non può usare HDR + AA in tutti i casi, ma essenzialmente, rifacendoci all'attuale panorama videoludico, lo può fare solo con Half-Life 2 Lost Coast, mentre non lo può fare in Splinter Cell Chaos Theory, Far Cry e Serious Sam 2.
Starà ai programmatori implementare un HDR che possa essere utilizzato anche con AA sulle nvidia.
2) Se NVIDIA avesse implementato un AA 6x, lo avrei inserito, ma purtroppo non lo hanno fatto. La differenza qualitativa che c'è tra AA 6x e AA 8xS è praticamente non percepibile e, anche se la si percepisse, di certo non giustifica un frame rate che è, dati alla mano, in alcuni casi arriva ad essere la metà di quello ottenuto con AA 6x.
Sono altrettanto sicuro che non si percepisce nessuna differenza tra AAx6 x8 s o Q rispetto a x4, in game, con risoluzioni piu alte di 1024... quindi mi sembra un test abbastanza inutile.
Ho letto la recensione su guru3d.
Una cosa molto interessante che mi piacerebbe leggere anche sui vostri articoli, sono i test con differenti cpu.
Chissà magari un giorno :D
Sono altrettanto sicuro che non si percepisce nessuna differenza tra AAx6 x8 s o Q rispetto a x4, in game, con risoluzioni piu alte di 1024... quindi mi sembra un test abbastanza inutile.
Mi dispiace, ma la differenza tra un 4x ed un 6x o 8x è abbastanza evidente, specie in giochi con tonalità chiare. E' chiaro che nella frenesia del gioco alcune finezze grafiche possono non saltare all'occhio, ma questo vale anche nel passaggio dal rendering senza AA a quello con AA 4x. Esistono, tuttavia, giochi meno frenetici degli sparatutto come, ad esempio, i simulatori di volo, dove la differenza tra il 4x ed il 6x/8x si nota. Se poi tu non la vuoi notare a tutti costi perché NVIDIA va bene a 4x e male a 8x, allora possiamo ritenere conclusa questa discussione. Del resto, avendo definito la scheda oggetto di questo articolo la più veloce attualmente disponibile, è evidente che il peso dato da me a questa problematica è molto ridotto e pertanto trovo ingiustificato il tuo malcontento.
MiKeLezZ
14-11-2005, 20:54
Meglio HDR a 1600x1200 oppure HDR + AA a 1280x1024?
Domanda sincera!
Sarebbe interessante anche sapere in quale caso si ottengono i migliori risultati velocistici!
yossarian
14-11-2005, 20:55
Qualcuno qualche settimana fa si diceva sicuro del fatto che questa scheda non avrebbe guadagnato minimamente dall'innalzamento delle frequenze della memoria...sembra esattamente il contrario...
forse ti sbagli col fatto che qualcuno diceva che non sarebbe servito a niente mettere 512 Mb di ram con frequenze stellari senza alzare la frequenza del chip; e mi pare che i fatti confermino questa versione, visto che si è passati da 430 a 550 Mhz. Vuoi scommettere che abbassando solo il core a 430 Mhz, la GTX torne dietro?
Qualcuno inoltre sottolineava come questa scheda fosse una bench-edition..non mi sembra di poter condividere...la disponibilità sembra assolutamente ottima..
Ati dovrebbe imparare da Nvidia sotto quest'ultimo punto di vista...
vedremo quante se ne vedranno in giro. :D
yossarian
14-11-2005, 20:59
1)
2) Se NVIDIA avesse implementato un AA 6x, lo avrei inserito, ma purtroppo non lo hanno fatto. La differenza qualitativa che c'è tra AA 6x e AA 8xS è praticamente non percepibile e, anche se la si percepisse, di certo non giustifica un frame rate che è, dati alla mano, in alcuni casi arriva ad essere la metà di quello ottenuto con AA 6x.
vero, però l'AA 8xs di NV ha una componente di supersampling, che giustifica il calo di prestazioni per due motivi:
il circuito dedicato fa solo multisampling (quindi fa aumentare il lavoro per le pixel pipeline)
il supersampling richiede tanti subpixel diversi quanti sono i valori del campionamento
ciao Free Gordon :D
la cosa strana è questa. dicono 649 euri come prezzo consigliato. e per la 7800 da 256 che era di 549 il prezzo fu mantenuto all'uscita. qui invece vedo già prezzi oltre i 700 euri.
boh
mi ricorreggo. è già disponibile qui in italia della point of view. a 682 euri
Niente male davvero.
Dark Schneider
14-11-2005, 21:04
la cosa strana è questa. dicono 649 euri come prezzo consigliato. e per la 7800 da 256 che era di 549 il prezzo fu mantenuto all'uscita. qui invece vedo già prezzi oltre i 700 euri.
boh
Tecnoc@mput@r ce le ha disponibli a 689 o 682...il modello della POV che è cloccato a 580/1730.
Ginger79
14-11-2005, 21:10
Mi complimento con Nvidia che ha sfornato una scheda da paura che porta G70 a regnare incontrastato da + di 6 mesi. Che dire: semplicemente THE BEST!
Il prezzo risulta cmq eccessivo anche se è auspicabile una diminuzione dello stesso entro un paio di mesi... il che porterebbe alla conseguente diminuzione delle fasce inferiori rendendo assolutamente appetibile la 7800GT (che nella sua fascia già da ora non ha rivali in termini di prestazioni generali).
Rimane cmq un desiderio per tutti coloro che, come me, possiedono un XP-M@2600Mhz (o simili) su Asus Deluxe (o simili) con AGP 8X e non possono aggiornare la scheda video a questo STEP a causa della mancanza di schede dotate del famoso BRIDGE.
giammy91988
14-11-2005, 21:40
certo che a comprare codeste schede cè da essere fulminati !! che prezzi
haveacigar
14-11-2005, 21:45
E penso che qualcuno su questo forum dovrebbe imparare.E mi riferisco soprattutto a chi, pur conoscendo molto del "3D", finisce miserabilmente per assumere atteggiamenti di parte.E soprattutto finisce per promuovere le proprie idee faziose mescolando le proprie cognizioni con i propri desideri.
io invece penso che qualcuno, su questo forum, debba imparare a non a fare affermazioni o asserzioni su cose di cui non ha cognizione e, tanto meno, a non fare morali quando non ne ha titolo.
In tal modo si risparmiano tante brutte figure e si evita di inquinare i thread con post di dubbia utilità
Che strano ogni volta che critico atteggiamenti di chiaro favore nei confronti di Ati rispondi tu...senza che ti abbia mai nominato....converrai con me che questa cosa è molto strana....vero? :mbe:
avrai mica la coda di paglia..... :mbe:
non è malizia nè cattiveria ma a me sembra che tu ce l'abbia.... :asd:
forse ti sbagli col fatto che qualcuno diceva che non sarebbe servito a niente mettere 512 Mb di ram con frequenze stellari senza alzare la frequenza del chip; e mi pare che i fatti confermino questa versione, visto che si è passati da 430 a 550 Mhz. Vuoi scommettere che abbassando solo il core a 430 Mhz, la GTX torne dietro?
Se ti rileggi qualche post di qualche settimana fa...sinceramente non mi ricordo di chi sia....si diceva che mettere ram con frequenze più elevate non avrebbe cambiato nulla...quello che sostengo io è il fatto che la scelta da parte di Nvidia di raggiungere quelle frequenze sia più che giustificato...
Ovvio che la modifica delle sole frequenze della ram non potesse bastare ma è altrettanto ovvio il fatto che una frequenza maggiore delle stesse a parità di frequenza di chip comporti un incremento prestazionale...
vedremo quante se ne vedranno in giro. :D
ci scommettiamo che si vedranno più 7800 gtx 512 mb che x1800 xt???
vero, però l'AA 8xs di NV ha una componente di supersampling, che giustifica il calo di prestazioni per due motivi:
il circuito dedicato fa solo multisampling (quindi fa aumentare il lavoro per le pixel pipeline)
il supersampling richiede tanti subpixel diversi quanti sono i valori del campionamento
Il fatto che ci sia la componente in supersampling è stato scritto, ma per l'utente finale questi dettagli tecnici non sono importanti. Se voglio andare oltre l'AA 4x, l'8xS è l'unica opzione disponibile per le schede NVIDIA e le prestazioni sono quelle riportate. Qui bisogna fare un discorso di rapporto qualità/prestazioni ed il rapporto è favorevole al 6x di ATI, tutto qui. Le motivazioni le ho scritte, ma non rappresentano una giustificazione, al più una spiegazione, alla fine ciò che importa è il rapporto.
yossarian
14-11-2005, 21:57
Che strano ogni volta che critico atteggiamenti di chiaro favore nei confronti di Ati rispondi tu...senza che ti abbia mai nominato....converrai con me che questa cosa è molto strana....vero? :mbe:
avrai mica la coda di paglia..... :mbe:
non è malizia nè cattiveria ma a me sembra che tu ce l'abbia.... :asd:
Se ti rileggi qualche post di qualche settimana fa...sinceramente non mi ricordo di chi sia....si diceva che mettere ram con frequenze più elevate non avrebbe cambiato nulla...quello che sostengo io è il fatto che la scelta da parte di Nvidia di raggiungere quelle frequenze sia più che giustificato...
Ovvio che la modifica delle sole frequenze della ram non potesse bastare ma è altrettanto ovvio il fatto che una frequenza maggiore delle stesse a parità di frequenza di chip comporti un incremento prestazionale...
ok, visto che hai chiarito che non ti riferivi a me, allora ti chiedo scusa :)
ci scommettiamo che si vedranno più 7800 gtx 512 mb che x1800 xt???
scommessa accettata
yossarian
14-11-2005, 22:04
Il fatto che ci sia la componente in supersampling è stato scritto, ma per l'utente finale questi dettagli tecnici non sono importanti. Se voglio andare oltre l'AA 4x, l'8xS è l'unica opzione disponibile per le schede NVIDIA e le prestazioni sono quelle riportate. Qui bisogna fare un discorso di rapporto qualità/prestazioni ed il rapporto è favorevole al 6x di ATI, tutto qui. Le motivazioni le ho scritte, ma non rappresentano una giustificazione, al più una spiegazione, alla fine ciò che importa è il rapporto.
Certo, ATi ha il vantaggio dato dalla possibilità di far ruotare la griglia di campionamento e nVIDIA è costretta a ricorrere a questa modalità mista per aumentare il numero di campioni; per questo, la prima riesce ad avere un 6x abbastanza abuon mercato. Però è anche vero che, nella maggior parte dei casi, non si va oltre il 4x.
Quindi, giusta un'analisi con i filtri al massimo, soprattutto per valutare l'impatto sul frame rate alla massima qualità possibile; però, e qui mi rivolgo a chi legge, le analisi andrebbero fatte a parità di condizioni (anche se qui il discorso da fare è molto lungo e complesso e coinvolge anche l'AF e la possibilità dei chip NV di utilizzare fp16).
Michelangelo_C
14-11-2005, 22:05
Non avrei mai pensato che incrementando le frequenze (seppur di molto) si sarebbe arrivati a prestazioni del genere. Cioè va bene il sorpasso delle 1800XT, ma la vera cosa che fa gridare al miracolo è secondo me l'incremento rispetto alla vecchia 7800. Sull' AA oltre il 4X sono daccordo con chi ne critica l'utilità, la differenza è difficilmete prcepibile negli sparatutto o simili.
La cosa che mi delude un po' sia in nvidia che in ati è il calo di prestazioni che si verifica abilitando le soft shadows su fear: in pratica al momento è una feature che non è possibile utilizzare, nemmeno con schede da 600 e più euro.
Michelangelo_C
14-11-2005, 22:12
Una domanda sulle rops: nell'articolo è scritto che sono le unità che devono scrivere i pixel nel frame buffer prima che questi siano visualizzati sullo schermo: allora perchè il fatto che la GTX processi 24 pixel a ciclo di clock (per via delle pipe) ma ne possa scrivere solo 16 (per via delle rops) non incide nell'utilizzo reale con pixel shaders e filtro anisotropico? Centra qualcosa con il discorso single texturing/multitexturing? Chiedo illuminazione..
Certo che potevano anche chiamarla 7800 ULTRA
Lo penso anch'io, le prestazioni sono devastanti.
Per fortuna a marzo presentano R580 :)
aaasssdddfffggg
14-11-2005, 22:24
Ormai è un dato di fatto.Chi comanda e chi detiene lo scettro di scheda 3D più veloce del pianeta è NVIDIA.Gli ingegneri della NVIDIA avevano previsto tutto quando misero sul mercato la 7800gtx a 256.Volevano giocare soltanto con ATI come il gatto fa con il topo già sapendo in partenza che non appena ATI con moltissima fatica (e non sono ancora in vendita!)è riuscita a mettere sul mercxato la X1800XT,queli della nVIDIA cacciano quest'altro mostro (e subito in vendita in tutto il mondo)che spezza le gambe di brutto ad ATI.
Nuovi WR by Shamino:
http://www.vr-zone.com/?i=2938
Ram a 2GHZ
Very impressive 800/2000!
16 pippe credo stenderebbero chiunque
:D
L:DL
Hai voglia!
"Da quel dì", aggiungerei.
Anche se per H.264 mancano anche per loro i driver. Si parla di Natale..
ciauz
Anche per le 6800GT e Ultra lo hanno detto.
Si sono scordati però a dire che ci hanno ripensato.
O meglio il bug è stato noto, hanno solo "scordato" di avvertire chi ha speso poche centinaia di euro :D
Michelangelo_C
14-11-2005, 22:30
Ormai è un dato di fatto.Chi comanda e chi detiene lo scettro di scheda 3D più veloce del pianeta è NVIDIA.Gli ingegneri della NVIDIA avevano previsto tutto quando misero sul mercato la 7800gtx a 256.Volevano giocare soltanto con ATI come il gatto fa con il topo già sapendo in partenza che non appena ATI con moltissima fatica (e non sono ancora in vendita!)è riuscita a mettere sul mercxato la X1800XT,queli della nVIDIA cacciano quest'altro mostro (e subito in vendita in tutto il mondo)che spezza le gambe di brutto ad ATI.
Questo è in parte vero, ma non con i filtri attivati (intendo AA 4X e AF 8X). Con questi le prestazioni sono sempre complessivamente a favore di nvidia, ma non di tanto e neanche sempre. Comunque più che d'accordo sul fatto che le prestazioni di questa scheda sono incredibili, soprattutto se paragonate con quelle dello stesso chip (o quasi) uscito a giugno. Come giustamente detto da qualcuno, la differenza è quasi quella che c'è tra una 6800 Ultra e una 7800 GTX 256MB, quindi è praticamente un salto generazionale pur restando con stesso chip e processo produttivo.
OverClocK79®
14-11-2005, 22:36
pubblicità
Ormai è un dato di fatto.Chi comanda e chi detiene lo scettro di scheda 3D più veloce del pianeta è NVIDIA.Gli ingegneri della NVIDIA avevano previsto tutto quando misero sul mercato la 7800gtx a 256.Volevano giocare soltanto con ATI come il gatto fa con il topo già sapendo in partenza che non appena ATI con moltissima fatica (e non sono ancora in vendita!)è riuscita a mettere sul mercxato la X1800XT,queli della nVIDIA cacciano quest'altro mostro (e subito in vendita in tutto il mondo)che spezza le gambe di brutto ad ATI.
pubblicità
facciamo così....
è + corretto..... ;)
scusa ma......sembra che parli di tutto
fuori che del mercato delle skVideo......
io userei termini + pacati
e scommetto che se ti metto 1 pc con la x1800 e un Pc con la GTX 512
tu a OKKIO senza bench nn ti accorgi manco della differenza
BYEZZZZZZZZZZ
Certo, ATi ha il vantaggio dato dalla possibilità di far ruotare la griglia di campionamento e nVIDIA è costretta a ricorrere a questa modalità mista per aumentare il numero di campioni; per questo, la prima riesce ad avere un 6x abbastanza abuon mercato. Però è anche vero che, nella maggior parte dei casi, non si va oltre il 4x.
Quindi, giusta un'analisi con i filtri al massimo, soprattutto per valutare l'impatto sul frame rate alla massima qualità possibile; però, e qui mi rivolgo a chi legge, le analisi andrebbero fatte a parità di condizioni (anche se qui il discorso da fare è molto lungo e complesso e coinvolge anche l'AF e la possibilità dei chip NV di utilizzare fp16).
yossarian ovviamente il discorso dell'analisi a parità di condizione è corretto, ma bisogna non andare oltre un certo punto. Mi spiego. Queste schede sono fatte per giocare e io devo testarne le prestazioni con i giochi. Io sono restio normalmente a modificare più di tanto i settaggi interni di un gioco, come quelli che potrebbero portare all'uso sempre della Full Precision, perché alla fine si tratta di impostazioni che non verranno mai modificate da un utente (bisogna andare nelle impostazioni avanzate della scheda, o in console o file di configurazioni del gioco e cambiare alcune variabili, ecc...). L'utente comune a malapena va nei settaggi video a regolare risoluzione, antialiasing e filtro anisotropico, figuriamoci se cambia la precisione di calcolo dei pixel shaders. Anche perché poi alla fine se gli sviluppatori hanno ritenuto sufficiente l'uso di FP16 è giusto rispettare le scelte alla base del loro motore grafico.
Ciò non toglie che un confronto FULL precision R520 verso FULL precision G70 possa essere interessante in termini di studio dell'architettura del processore grafico, ma indipendentemente dai risultati ottenuti, penso che la mia valutazione debba basarsi il + possibile su condizioni reali di gioco.
Chiudendo il discorso dell'antialiasing, è ovvio che sarebbe stato preferibile avere un 6x anche per le schede NVIDIA, ma sono impossibilitato a fare una cosa simile. Personalmente preferisco comunque un'analisi in più (che rispecchia situazioni reali), alla quale, ripeto, è stato dato un peso quasi nullo in fase di valutazione, che non una in meno.
Raffaele scusa se mi permetto dopo qualche anno di darti ancora del tu (:D), ma vorrei sapere se hai provato a titolo di curiosità, tanto lo sappiamo che non cambia nulla, a underclockare le frequenze di gpu e ram di questa scheda fino a quelle di G70. Lo hai fatto? :p
fabietto27
14-11-2005, 22:52
Scusatemi ragazzi ma certi accanimenti non li capisco proprio.Certo oggi è la piu veloce del pianeta fra qualche mese non lo sarà più e la prossima piu veloce potrebbe essere ancora Nvidia oppure no.Ma questa storia va avanti da quando ero ragazzino.Ho avuto l'Atari Il Vic20 Il Commodore 64 poi un 486 un celeron 166 con Win 95 un pIII 800 un pIV 1500 e un Athlon 2000 ,un 2600 con radeon 9800 pro e tutte le volte a dire:che roba quanto va,che schifo quello che avevo prima.Arrivato a 40 anni ho imparato a scegliere le cose che mi piacciono,indipendentemente dal pensiero degli altri ,ho smesso da anni di fare bench e fosse per me quelli del 3dMark sarebbero disoccupati.Giovedi ritiro il mio nuovo Amd 64 4000 la mia Asus nuova e la mia X1800xt e se poi la 7800 è più veloce chissenefrega.L'importante e che mi facciano DIVERTIRE!
Non avrei mai pensato che incrementando le frequenze (seppur di molto) si sarebbe arrivati a prestazioni del genere. Cioè va bene il sorpasso delle 1800XT, ma la vera cosa che fa gridare al miracolo è secondo me l'incremento rispetto alla vecchia 7800. Sull' AA oltre il 4X sono daccordo con chi ne critica l'utilità, la differenza è difficilmete prcepibile negli sparatutto o simili.
La cosa che mi delude un po' sia in nvidia che in ati è il calo di prestazioni che si verifica abilitando le soft shadows su fear: in pratica al momento è una feature che non è possibile utilizzare, nemmeno con schede da 600 e più euro.
Le soft shadows sono una funzionalità molto pesante da implementare. Anzi in realtà vi ricordo che stiamo pur sempre parlando di pseudo soft shadows, perché le vere soft shadows dovrebbero tener conto del fenomeno ottico per cui si crea la penombra (cioè la parte sfumata) attorno ad un'ombra cosa che attualmente nessuno riesce ad implementare in maniera corretta con prestazioni adeguate.
L'approccio di Fear è uno dei pochi attualmente in voga nella letturatura per realizzare pseudo soft shadows con stencil shadows e consiste nel proiettare il volume d'ombra più volte in maniera lettermente traslata una dall'altra. Se vi avvicinate alle soft shadows di Fear vi accorgerete che ci sono tante ombre una sopra l'altra che, vedendo la scena nella sua globalità, danno l'impressione di una soft shadows. Naturalmente si tratta di un'operazione piuttosto gravosa ed è per questo che si ottengono i risultati visti.
Michelangelo_C
14-11-2005, 23:01
Le soft shadows sono una funzionalità molto pesante da implementare. Anzi in realtà vi ricordo che stiamo pur sempre parlando di pseudo soft shadows, perché le vere soft shadows dovrebbero tener conto del fenomeno ottico per cui si crea la penombra (cioè la parte sfumata) attorno ad un'ombra cosa che attualmente nessuno riesce ad implementare in maniera corretta con prestazioni adeguate.
L'approccio di Fear è uno dei pochi attualmente in voga nella letturatura per realizzare pseudo soft shadows con stencil shadows e consiste nel proiettare il volume d'ombra più volte in maniera lettermente traslata una dall'altra. Se vi avvicinate alle soft shadows di Fear vi accorgerete che ci sono tante ombre una sopra l'altra che, vedendo la scena nella sua globalità, danno l'impressione di una soft shadows. Naturalmente si tratta di un'operazione piuttosto gravosa ed è per questo che si ottengono i risultati visti.
Si infatti lo avevo intuito guardando le ombre di fear con e senza soft shadows: a mio parere è una tecnica piuttosto scarsa qualitativamente, non mi piacciono affatto le ombre con queste pseudo soft shadows, soprattutto visto l'enorme impatto prestazionale.
Grazie per la risposta :)
Senza dubbio un vero e proprio mostro (nel lato positivo del termine). :eek: :sofico:
Forse, ma questa è solo una mia supposizione, la scelta di continuare a chiamarla GTX e non Ultra (nel die c'è scritto U ad indicare che in origine doveva chiamarsi così) è per rispondere all'1800XT di ATi in maniera "sottotono" (virgolette d'obbligo) cercando di non scatenare una reazione eccessiva di quest'ultima (PE).
Credo che ATi non risponderà, se non con una disponibilità di GPU overlockabili e "consigli" alle case prodruttici di offrire modelli per l'appunto con frequenze leggermente più spinte, e fino a Marzo del prossimo anno (CeBIT) non vedremo novità di rilievo.
yossarian
14-11-2005, 23:09
yossarian ovviamente il discorso dell'analisi a parità di condizione è corretto, ma bisogna non andare oltre un certo punto. Mi spiego. Queste schede sono fatte per giocare e io devo testarne le prestazioni con i giochi. Io sono restio normalmente a modificare più di tanto i settaggi interni di un gioco, come quelli che potrebbero portare all'uso sempre della Full Precision, perché alla fine si tratta di impostazioni che non verranno mai modificate da un utente (bisogna andare nelle impostazioni avanzate della scheda, o in console o file di configurazioni del gioco e cambiare alcune variabili, ecc...). L'utente comune a malapena va nei settaggi video a regolare risoluzione, antialiasing e filtro anisotropico, figuriamoci se cambia la precisione di calcolo dei pixel shaders. Anche perché poi alla fine se gli sviluppatori hanno ritenuto sufficiente l'uso di FP16 è giusto rispettare le scelte alla base del loro motore grafico.
Ciò non toglie che un confronto FULL precision R520 verso FULL precision G70 possa essere interessante in termini di studio dell'architettura del processore grafico, ma indipendentemente dai risultati ottenuti, penso che la mia valutazione debba basarsi il + possibile su condizioni reali di gioco.
Chiudendo il discorso dell'antialiasing, è ovvio che sarebbe stato preferibile avere un 6x anche per le schede NVIDIA, ma sono impossibilitato a fare una cosa simile. Personalmente preferisco comunque un'analisi in più (che rispecchia situazioni reali), alla quale, ripeto, è stato dato un peso quasi nullo in fase di valutazione, che non una in meno.
al di là del confronto full precision vs full precision, comunque impossibile, perchè l'AF quality di ATi non può essere forzato su NV, il mio intervento era rivolto a chi legge, facendo considerazioni analoghe alle tue: ossia, la situazione va valutata on game e, poichè in tale situazione, difficilmente si imposta il massimo valore dell'AA (un 4x è già sufficiente), la comparazione può essere fatta su queste basi. Ovvio che poi tu, come recensore, debba fare valutazioni anche di altra natura, come quelle sull'impatto che si ha con l'utilizzo dei filtri alle impostazioni massime possibili.
Dark Schneider
14-11-2005, 23:25
Senza dubbio un vero e proprio mostro (nel lato positivo del termine). :eek: :sofico:
Forse, ma questa è solo una mia supposizione, la scelta di continuare a chiamarla GTX e non Ultra (nel die c'è scritto U ad indicare che in origine doveva chiamarsi così) è per rispondere all'1800XT di ATi in maniera "sottotono" (virgolette d'obbligo) cercando di non scatenare una reazione eccessiva di quest'ultima (PE).
Non credo affatto che sia così. Mica nVidia ha "paura" di una XT PE. Non ha mica paura di una sigla.
E' molto più probabile che il suffisso GTX sia rimasto per non danneggiare proprio la GTX 256 MB che si è ben comportata in questi mesi...ed allo stesso tempo per cercare di "placare" i malumori di chi praticamente da poco aveva preso la GTX da 256 MB. Un suffisso Ultra..sarebbe stato un po' devastante. Effettivamente questa è una Ultra, però questo "GTX" tende un po' ad offuscare il tutto. Lo so è senz'altro brutto...perchè magari la gente pensa che cambia solo il quantiativo ed invece ci son anche le frequenze aumentate di brutto. Ed inoltre la GeForce 7800 GTX è la scheda più veloce del mondo. E' questo il dato di fatto. Poi se è la 512 MB o la 256 MB poco importa...anzi meglio così per nVidia..la gente continuerà a prendere il modello da 256 MB credendolo più veloce dell'X1800XT...perchè il chip video più performante si chiama cmq GeForce 7800 GTX. :)
Può sembrare un po' "scorretto", ma queste sono aziende e devono guadagnarci al max. I guadagni li fanno anche sulle sigle. Se a livello di immagine la GTX era stata adesso offuscata dalla soluzione Ati, beh adesso non lo è più. :)
Insomma le guerre si combattono in tanti modi. Ripeto può sembrare brutto e scorretto, ma alla fine è la normalità invece. E' la realtà di un azienda che deve guadagnare in tutti i sensi, con tutti i mezzi ed in tutti i campi. :)
Inoltre penso che nVidia chiamerà Ultra il G70 a 0.09 micron. :)
:sbonk: :rotfl: SCUSATE MA... pagina 12 nessuna l'ha vista! OK OK una va di + dell'altra coi filtri AA4x AA8X ,l'altra con l'anis 16x, ma quella se... l'altra ma...
I 55/56 Db nessuno li caga neppure di striscio ! se uno fa lo SLI ,deve mettere in preventivo ,o un impianto a liquido o una vagonata di fonoassorbente!, se non vuol tener sveglio l'intero quartiere!
Roba che quando accendo il PC dal fischio prodotto dalle ventole devo adoperare le cuffie! fischia!! che e!? un'aereo!!?? :sofico:
PS: Si avverte i signori NVidia e ATI possessori di allacciare le cinture! e di prepararsi al decollo! sssssssssvvvvvvvvvviiiiiii!!!!! :sofico:
Cosa daTener presente,e il dissipatore della 7800 512, due dissipatori in alluminio attraverso un complesso sistema ad heat-pipe!! = scalda a bestia!!
:doh:, voglio vedere i produttori di dissipatori ad aria, i cosidetti ad alte prestazioni(Zalman,nvsilencer e compagnia bella),che si inventano ora,x raffreddare con pochi Db ste cose!!
Altra cosa, ma i filtri ,aax,l'anis. ogni quanto vanno sostituiti?..... :sbonk: :sbonk: :rotfl:
MiKeLezZ
14-11-2005, 23:35
Chiudendo il discorso dell'antialiasing, è ovvio che sarebbe stato preferibile avere un 6x anche per le schede NVIDIA, ma sono impossibilitato a fare una cosa simile. Personalmente preferisco comunque un'analisi in più (che rispecchia situazioni reali), alla quale, ripeto, è stato dato un peso quasi nullo in fase di valutazione, che non una in meno.
Io mi trovo perfettamente d'accordo, pur essendo stato uno di quelli che inizialmente lo ha criticato.
D'altronde le recensioni son state fatte con settaggi standar, il full filtri è giusto una curiosità che ci si è tolti.
Comunque non è stato adottato ultra, anche perchè altrimenti si creava involontariamente fascia media (7800gt), fascia alta (7800gsx) e fascia altissima (512MB gsx). Quando invece è bene che resti tutto a fascia alta, i chip di fascia media devono ancora uscire (7600). Poi chi lo sa non ci sia spazio per un'ulteriore reginetta.
Rinnovo i miei complimenti ad Nvidia che, dalla presentazione dell'NV40, non ha più sbagliato nulla.
Altrettanto non posso dire per ATI.
Dark Schneider
14-11-2005, 23:41
:sbonk: :rotfl: SCUSATE MA... pagina 12 nessuna l'ha vista! OK OK una va di + dell'altra coi filtri AA4x AA8X ,l'altra con l'anis 16x, ma quella se... l'altra ma...
I 55/56 Db nessuno li caga neppure di striscio ! se uno fa lo SLI ,deve mettere in preventivo ,o un impianto a liquido o una vagonata di fonoassorbente!, se non vuol tener sveglio l'intero quartiere!
Roba che quando accendo il PC dal fischio prodotto dalle ventole devo adoperare le cuffie! fischia!! che e!? un'aereo!!?? :sofico:
PS: Si avverte i signori NVidia e ATI possessori di allacciare le cinture! e di prepararsi al decollo! sssssssssvvvvvvvvvviiiiiii!!!!! :sofico:
Cosa daTener presente,e il dissipatore della 7800 512, due dissipatori in alluminio attraverso un complesso sistema ad heat-pipe!! = scalda a bestia!!
:doh:, voglio vedere i produttori di dissipatori ad aria, i cosidetti ad alte prestazioni(Zalman,nvsilencer e compagnia bella),che si inventano ora,x raffreddare con pochi Db ste cose!!
Altra cosa, ma i filtri ,aax,l'anis. ogni quanto vanno sostituiti?..... :sbonk: :sbonk: :rotfl:
Scusa ma perchè non ti rileggi la questione del consumo/calore/rumore? Mi sa proprio che non hai letto. Tra l'altro i 56 decibel sono misurati stando praticamente attaccato alla vga...tu che fai ti metti con un orecchio appiccicato alla vga quando sei al computer? :asd:
Dark Schneider
14-11-2005, 23:44
Quoto dall'articolo a pagina 12
Le misurazioni della rumorosità sono state effettuate su un sistema di test privo di case con un fonometro posto ad una distanza di circa 10 cm dal sistema di dissipazione della scheda video. Bisogna, pertanto, interpretare questi valori non come misure assolute, ma limitatamente alla comparazione tra i vari prodotti, cioè solo per la valutazione di quale è la scheda più rumorosa del lotto. E' evidente, infatti, che la maggioranza degli utenti monta il proprio personal computer in un case chiuso dal quale si trova normalmente ad una distanza superiore a 10 cm.
^TiGeRShArK^
14-11-2005, 23:52
Strano vedere quelli che criticavano Ati per le frequenze lodare ora Nvidia per lo stesso motivo... Anzi più che strano divertente :)
Complimenti per l'articolo, come dicevo non avrei accettato una versione dei catalyst inferiore alla 5.11 :)
e xkè quelli ke erano skifati dal consumo della skeda???
e quelli ke dicevano ke il vantaggio di x1800 xt era ESIGUO mentre ora quello di 7800 gtx 512 è ENORME???
:asd:
MiKeLezZ
14-11-2005, 23:53
le misurazioni di rumorosità sono utili solo se viste relativamente, in rapporto alle altre
così prese una per una hanno significato pari a zero
e xkè quelli ke erano skifati dal consumo della skeda???
e quelli ke dicevano ke il vantaggio di x1800 xt era ESIGUO mentre ora quello di 7800 gtx 512 è ENORME???
:asd:
E le gpu overclockate di fabbrica? E il dual slot? E gli overclock esigui? :asd:
_. SLM ._
14-11-2005, 23:59
Ottima scheda, davvero.
Stupefacente come dallo stesso pezzo di silicio di qualche mese fa
si siano ricavate prestazioni tali da giustificare se non altro l'appellativo di "Ultra".
Ottimo il lavoro di ottimizzazione del PCB e del core,
se v'interessa qualche retroscena, su Penstar System (http://www.penstarsys.com/previews/graphics/nvidia/512_7800gtx/index.html) trovate notizie interessanti.
Un solo appunto:
buona recensione ma mi lasciano decisamente perplesso i valori da voi registrati in Fear
considerato che in almeno altri tre siti piuttosto noti (Guru3D (http://www.guru3d.com/article/Videocards/285/20/), TechReport (http://techreport.com/reviews/2005q4/geforce-7800gtx-512/index.x?pg=7) e AnandTech (http://www.anandtech.com/video/showdoc.aspx?i=2607&p=7) )
i valori sono esattamente rovesciati ed in favore della nuova scheda Nvidia.
un po' off topic ...
le console di nuova generazione non sono ancora uscite e sono gia' dietro (non sono molto al corrente dei dettagli di R500 e RSX, ma 44 (ATI) e 54 (NVIDIA) GB/sec di banda sono veramente un enormita')
certamente queste schede costano un occhio della testa pero' ...
:rolleyes: Grazie me lo ai risparmiato il quote! se gia dicevano che erano e sono! rumorose le 6800!! figuriamoci queste! ma xfavore..... adesso siete (sono (io)) tutti euforici x le prestazioni di tali schede ok! poi voglio vedere in quanti utilizzeranno tale dissi nel case,senza sostituirlo con altro!! Io o un case tutto insonorizzato ma con una 6800 gt il dissi originale lo sentivo eccome! e come me anche altri utenti del forum!,che come me l'anno sostituito con altro! ,non ricordo i Db della 6800 GT ma di certo non arrivano a 55/56 col dissi originale .
POI,possiamo anche parlare consumo/calore/rumore,ma i 55 Db rimangono!
PS:Scusa ma le prossime schede video!?,se come spero andranno di+,consumeranno di+ il rumore? .....Sta a vedere che faranno un tal baccano, che una MOTOSEGA e + silenziosa.
^TiGeRShArK^
15-11-2005, 00:17
Mi dispiace, ma la differenza tra un 4x ed un 6x o 8x è abbastanza evidente, specie in giochi con tonalità chiare. E' chiaro che nella frenesia del gioco alcune finezze grafiche possono non saltare all'occhio, ma questo vale anche nel passaggio dal rendering senza AA a quello con AA 4x. Esistono, tuttavia, giochi meno frenetici degli sparatutto come, ad esempio, i simulatori di volo, dove la differenza tra il 4x ed il 6x/8x si nota. Se poi tu non la vuoi notare a tutti costi perché NVIDIA va bene a 4x e male a 8x, allora possiamo ritenere conclusa questa discussione. Del resto, avendo definito la scheda oggetto di questo articolo la più veloce attualmente disponibile, è evidente che il peso dato da me a questa problematica è molto ridotto e pertanto trovo ingiustificato il tuo malcontento.
:rotfl:
grande raffaele! :D
ora ke hai finito anke questa rece ti vogliamo tutto x noi che dobbiamo finire il nostro gioco x sfruttare appieno la 7800 gtx 512 con le open gl 1.1 :asd:
:rotfl:
;)
Free Gordon
15-11-2005, 00:17
vero, però l'AA 8xs di NV ha una componente di supersampling, che giustifica il calo di prestazioni per due motivi:
il circuito dedicato fa solo multisampling (quindi fa aumentare il lavoro per le pixel pipeline) il supersampling richiede tanti subpixel diversi quanti sono i valori del campionamento
ciao Free Gordon :D
Finalmente uomo equo e pacato in questo forum. :D
Ciauu
:eek: :eek: :eek: :eek:
Trova in VENDITA IN NOTO SHOP ITALIANO!!!!!!!!!!! Te..........
Point of View 7800-GTX PCI-E 512Mb. Extreme Version RETAIL
Prezzo:
€ 682,75 - IVA Inclusa
Disponibilità:
buona
Point of View 7800-GTX PCI-E 512Mb. Extreme Version : 580/1730
Graphics Engine NVIDIA 7800 Ultra GPU
Video Memory 512MB
Core Clock 580Mhz
Memory Clock 1730Mhz
Memory Speed GDDR 3
Interface PCI Express 16x
D-Sub No
DVI-I Yes, 2x
TV-Out Yes
Video-In Yes
^TiGeRShArK^
15-11-2005, 00:20
Se ti rileggi qualche post di qualche settimana fa...sinceramente non mi ricordo di chi sia....si diceva che mettere ram con frequenze più elevate non avrebbe cambiato nulla...quello che sostengo io è il fatto che la scelta da parte di Nvidia di raggiungere quelle frequenze sia più che giustificato...
mi sa proprio che ti stai confondendo col fatto che la 7800 gtx 256 era MENO limitata dalla banda passante di quanto lo fosse la X1800 XT come diceva yossarian......
ma ovviamente aumentando la frequenza della GPU hanno anche dovuto aumentare lafrequenza della RAM per mantenere invariato questo rapporto ;)
CORRETE!!!!!!!!!!!!! CORRETE!!!!!!!!!!!!!!!!!!!!!!
IO o gia' impostato come pagina iniziale il mecatino! cosi mi faccio lo sli con 2 7800 gtx :D
^TiGeRShArK^
15-11-2005, 00:26
Scusatemi ragazzi ma certi accanimenti non li capisco proprio.Certo oggi è la piu veloce del pianeta fra qualche mese non lo sarà più e la prossima piu veloce potrebbe essere ancora Nvidia oppure no.Ma questa storia va avanti da quando ero ragazzino.Ho avuto l'Atari Il Vic20 Il Commodore 64 poi un 486 un celeron 166 con Win 95 un pIII 800 un pIV 1500 e un Athlon 2000 ,un 2600 con radeon 9800 pro e tutte le volte a dire:che roba quanto va,che schifo quello che avevo prima.Arrivato a 40 anni ho imparato a scegliere le cose che mi piacciono,indipendentemente dal pensiero degli altri ,ho smesso da anni di fare bench e fosse per me quelli del 3dMark sarebbero disoccupati.Giovedi ritiro il mio nuovo Amd 64 4000 la mia Asus nuova e la mia X1800xt e se poi la 7800 è più veloce chissenefrega.L'importante e che mi facciano DIVERTIRE!
:asd:
peinamente d'accordo..
io sono ancora + drastico! :D
9700 pro agosto dell'anno scorso 138 € (anzi 113€ se contiamo ke ho rivenduto la mia 7500 a 25€ :D)
venice 3000+ appena uscito + o - 150 euro
...
non mi metto certo a svenarmi x avere il top sul mercato ke verrà superato nel giro di un paio di mesi (quando va bene! :D)
^TiGeRShArK^
15-11-2005, 00:27
Si infatti lo avevo intuito guardando le ombre di fear con e senza soft shadows: a mio parere è una tecnica piuttosto scarsa qualitativamente, non mi piacciono affatto le ombre con queste pseudo soft shadows, soprattutto visto l'enorme impatto prestazionale.
Grazie per la risposta :)
quoto...
pure a me non piacciono x niente..
anke se ovviamente mi rendo conto ke la cosa è soggettiva..
yossarian
15-11-2005, 00:29
Finalmente uomo equo e pacato in questo forum. :D
Ciauu
:D
OverClocK79®
15-11-2005, 00:56
E le gpu overclockate di fabbrica? E il dual slot? E gli overclock esigui? :asd:
infatti un OVERCLOCK DI FABBRICA
nn l'ho mai capito
posso comprendere l'OC fatto dai produttori
tipo POV XFX ecc ecc
ma l'OC fatto dal produttore del chip io lo chiamo freq nominale....
BYEZZZZZZZZZZ
Ragazzi mi dovete spiegare una cosa ma perche' dopo questi "mostri" appena usciti che il prezzo se non ricordo male (almeno per la 7800gtx 256mb) e' di €450 grossomodo io con il mio antichissimo agp devo pagare ancora una 6800ultra agp nuova €360/400 e l'ho vista anche a €450 vi sembra possibile????????
Non dovrebbe calare vorticosamente con l'uscita di queste nuove tecnologie per vga ????(come sarebbe giusto)
Le 6800Ultra si trovano a 300€ e spicci, le GT dai 240 ai 270, le 7800GT a 340-390 e le GTX (da 256) da 470 in su.. se paghi 450€ una Ultra.. vienila a comprare da me!! :D
P.S. La X1800XL la si vende dai 420 agli oltre 500.. se la tengono stretta, io non le prendo.
Rimane cmq un desiderio per tutti coloro che, come me, possiedono un XP-M@2600Mhz (o simili) su Asus Deluxe (o simili) con AGP 8X e non possono aggiornare la scheda video a questo STEP a causa della mancanza di schede dotate del famoso BRIDGE.
E che ci fai?? il massimo per la tua CPU e' piu' o meno una 6600GT/6800 (LE o liscia), se vuoi strafare una 6800GT/GS, ma gia' saresti pesantemente CPU limited.
pubblicità
scusa ma......sembra che parli di tutto
fuori che del mercato delle skVideo......
io userei termini + pacati
e scommetto che se ti metto 1 pc con la x1800 e un Pc con la GTX 512
tu a OKKIO senza bench nn ti accorgi manco della differenza
Allora non ti accorgi nemmeno della differenza di qualita' e scegli la scheda per la scatola piu' bella?? :)
Raffaele scusa se mi permetto dopo qualche anno di darti ancora del tu (:D), ma vorrei sapere se hai provato a titolo di curiosità, tanto lo sappiamo che non cambia nulla, a underclockare le frequenze di gpu e ram di questa scheda fino a quelle di G70. Lo hai fatto? :p
E' stato fatto, ma piu' o meno le prestazioni sono quelle, nessuno ha avuto il buon senso di provarlo con Quake in UQ (almeno non mi pare).
Pero' forse questo puo' essere utile.
http://www.beyond3d.com/previews/nvidia/78512/index.php?p=11
Qui le frequenze sono quelle di serie, ma assistiamo a un bel 57% di incremento circa!! Ben oltre l'incremento medio in tutti gil altri titoli che piu' o meno e' percentualmente paragonabile all'incremento delle frequenze.
Yoss, ho vinto la scommessa!! :) Che mi offri?? :D
A prosito di scommesse, mi associo a quella della disponibilita' delle due schede.. I miei fornitori mi stanno gia' proponendo la GTX nuova..
E' stato fatto, ma piu' o meno le prestazioni sono quelle, nessuno ha avuto il buon senso di provarlo con Quake in UQ (almeno non mi pare).
Allora appena si raffinerà ancora il processo produttivo o meglio si passerà allo 0.09u si potranno tranquillamente superare i 550Mhz con qualsiasi scheda, le uniche cose che potrebbero frenare sono le ram on-board.
Se avessi una scheda del genere sotto, farei mille prove aumentando o dimuendo il rapporto fra gpu e ram.
Le soft shadows sono una funzionalità molto pesante da implementare. Anzi in realtà vi ricordo che stiamo pur sempre parlando di pseudo soft shadows, perché le vere soft shadows dovrebbero tener conto del fenomeno ottico per cui si crea la penombra (cioè la parte sfumata) attorno ad un'ombra cosa che attualmente nessuno riesce ad implementare in maniera corretta con prestazioni adeguate.
L'approccio di Fear è uno dei pochi attualmente in voga nella letturatura per realizzare pseudo soft shadows con stencil shadows e consiste nel proiettare il volume d'ombra più volte in maniera lettermente traslata una dall'altra. Se vi avvicinate alle soft shadows di Fear vi accorgerete che ci sono tante ombre una sopra l'altra che, vedendo la scena nella sua globalità, danno l'impressione di una soft shadows. Naturalmente si tratta di un'operazione piuttosto gravosa ed è per questo che si ottengono i risultati visti.
Praticamente quello che si vede in Chronicles of Riddick con il settaggio massimo negli shader (se non erro li chiama 2.0++ e se non ricordo male richiede stranamente gil SM3.0, tanto che, sempre che non ricordi male, su ATI non era disponibile), sfuma le ombre e cambia le l'illuminazione dell'ambiente, portando i frame rate da valori (esempio) di 50fps a 10!! (pero' che bello veramente!! :D)
I 55/56 Db nessuno li caga neppure di striscio ! se uno fa lo SLI ,deve mettere in preventivo ,o un impianto a liquido o una vagonata di fonoassorbente!, se non vuol tener sveglio l'intero quartiere!
Roba che quando accendo il PC dal fischio prodotto dalle ventole devo adoperare le cuffie! fischia!! che e!? un'aereo!!?? :sofico:
PS: Si avverte i signori NVidia e ATI possessori di allacciare le cinture! e di prepararsi al decollo! sssssssssvvvvvvvvvviiiiiii!!!!! :sofico:
Cosa daTener presente,e il dissipatore della 7800 512, due dissipatori in alluminio attraverso un complesso sistema ad heat-pipe!! = scalda a bestia!!
:doh:, voglio vedere i produttori di dissipatori ad aria, i cosidetti ad alte prestazioni(Zalman,nvsilencer e compagnia bella),che si inventano ora,x raffreddare con pochi Db ste cose!!
Altra cosa, ma i filtri ,aax,l'anis. ogni quanto vanno sostituiti?..... :sbonk: :sbonk: :rotfl:
Non sono valori distanti da quelli delle vecchie 6800U-GT o X8x0XT.
Poi c'e' da notare come la GTX sia sempre stata recensita come "rumorosa", la realta' e' ben differente (e non so perche' vi sia tale differenza), quando installate una GTX reference, la ventolina e' "quasi ferma", fara' si e no 25db!! Quando scalda la situazione cambia ma non di molto. Ne ho installate un mare e sono TUTTE cosi'. Questa nuova proprio non so ancora. ma vedremo presto, sono comuqnue sicuro che il classico Zalman sara' piu' che sufficiente per tenerla a bada, considerando che la GTX da 430Mhz funziona anche con la ventola ferma!! (cosa non consigliabile, che ho fatto per errore!! :D )
E le gpu overclockate di fabbrica? E il dual slot? E gli overclock esigui? :asd:
Stai parlando della X1800XT?? vero?? ;)
Allora appena si raffinerà ancora il processo produttivo o meglio si passerà allo 0.09u si potranno tranquillamente superare i 550Mhz con qualsiasi scheda, le uniche cose che potrebbero frenare sono le ram on-board.
Se avessi una scheda del genere sotto, farei mille prove aumentando o dimuendo il rapporto fra gpu e ram.
Prove che per ora ho fatto con la vrs da 256Mb. Come giustamente dice Yoss, non cambia quasi nulla, se non èroprio nulla nell'innalzare la frequenza delle RAM senza toccare la VPU. I limiti del G70 sono abbastanza facilmente individuabili, anche se ho il sospetto che queste nuove frequenze abbiano scavallato qualche collo di bottiglia, sto ancora analizzando bene i grafici della moltitudine di recensioni che sono appartse in un giorno per il web.
Free Gordon
15-11-2005, 02:06
Le 6800Ultra si trovano a 300€ e spicci, le GT dai 240 ai 270, le 7800GT a 340-390 e le GTX (da 256) da 470 in su.. se paghi 450€ una Ultra.. vienila a comprare da me!! :D
P.S. La X1800XL la si vende dai 420 agli oltre 500.. se la tengono stretta, io non le prendo.
:mbe: il prezzo più basso che ho trovato per le GT (fuori e-bay ovviamente), è di 300euro da pixmania...
Mi dici dove l'hai vista a 240?
yossarian
15-11-2005, 03:30
Le 6800Ultra si trovano a 300€ e spicci, le GT dai 240 ai 270, le 7800GT a 340-390 e le GTX (da 256) da 470 in su.. se paghi 450€ una Ultra.. vienila a comprare da me!! :D
P.S. La X1800XL la si vende dai 420 agli oltre 500.. se la tengono stretta, io non le prendo.
E che ci fai?? il massimo per la tua CPU e' piu' o meno una 6600GT/6800 (LE o liscia), se vuoi strafare una 6800GT/GS, ma gia' saresti pesantemente CPU limited.
Allora non ti accorgi nemmeno della differenza di qualita' e scegli la scheda per la scatola piu' bella?? :)
E' stato fatto, ma piu' o meno le prestazioni sono quelle, nessuno ha avuto il buon senso di provarlo con Quake in UQ (almeno non mi pare).
Pero' forse questo puo' essere utile.
http://www.beyond3d.com/previews/nvidia/78512/index.php?p=11
Qui le frequenze sono quelle di serie, ma assistiamo a un bel 57% di incremento circa!! Ben oltre l'incremento medio in tutti gil altri titoli che piu' o meno e' percentualmente paragonabile all'incremento delle frequenze.
Yoss, ho vinto la scommessa!! :) Che mi offri?? :D
A prosito di scommesse, mi associo a quella della disponibilita' delle due schede.. I miei fornitori mi stanno gia' proponendo la GTX nuova..
vero; pensavo che in UQ la differenza si cominciasse a delineare solo alle alte risoluzioni, invece, si ha già da 1280. Non so, scegli tu :D
:mbe: il prezzo più basso che ho trovato per le GT (fuori e-bay ovviamente), è di 300euro da pixmania...
Mi dici dove l'hai vista a 240? La versione AGP costa quelle cifre, e' inutile darti il link perche' ho appena visto che le hanno tolte, ma posso anche dirti il perche', le AGP sono veramente rare oramai. Comuqnue restano le PCX a 274,20 ivate Ti do il link in PVT.
vero; pensavo che in UQ la differenza si cominciasse a delineare solo alle alte risoluzioni, invece, si ha già da 1280. Non so, scegli tu :D
Mi basta aver vinto una scommessa con te su simili argomenti!! :D :p Non sono poi cosi' arrigginito, che bello!!:D
ThePunisher
15-11-2005, 06:31
Quello che non capisco è perchè tra i benchmark non mettiate anche il risultato finale al 3DMark05... in fondo è solo un numero che per ci interessa :D.
Graphicmaniac
15-11-2005, 09:37
ho anteposto alle pe le oc perchè
1 la pe è una xt oc
2 le pe si oc come le nvoc
3 occupano la stessa fascia di prezzo
Vifani si dimentica che l'8X non è l'unico modo per avere un AA di qualità superiore a 4 su nvidia
si dimentica anche che in una o più recensioni passate di Hwupgrade si era lodato l'8X come qualitativamente NETTAMENTE superiore al 6x
se lo vada a rileggere prego.
per i bench sn solo dubbioso sul test di Fear, in altre recensioni online la 512 non sta mai sotto la x1800xt nemmeno con i filtri attivi..
cmq il successo lo decreterà il mercato.. e chi tratta di economia sa già le cose come stanno andando :D
Mi dispiace, ma la differenza tra un 4x ed un 6x o 8x è abbastanza evidente, specie in giochi con tonalità chiare. E' chiaro che nella frenesia del gioco alcune finezze grafiche possono non saltare all'occhio, ma questo vale anche nel passaggio dal rendering senza AA a quello con AA 4x. Esistono, tuttavia, giochi meno frenetici degli sparatutto come, ad esempio, i simulatori di volo, dove la differenza tra il 4x ed il 6x/8x si nota. Se poi tu non la vuoi notare a tutti costi perché NVIDIA va bene a 4x e male a 8x, allora possiamo ritenere conclusa questa discussione. Del resto, avendo definito la scheda oggetto di questo articolo la più veloce attualmente disponibile, è evidente che il peso dato da me a questa problematica è molto ridotto e pertanto trovo ingiustificato il tuo malcontento.
Non trovi che sia singolare dire che la differenza tra 4x e 6x si vede solamente in giochi come i simulatori di volo e poi non testarne nemmeno uno nella recensione?
Per i vari djlode e tigershark del forum invece ho una domanda. Ma secondo voi, solo ATI può oc "di fabbrica" la scheda? Solo ATI può utilizzare sistemi di raffreddamento dual slot e solo ATI può vendere schede con margini esigui di overclock? Non mi è chiara la vostra logica :wtf:
Un commento del genere da parte vostra, avrebbe avuto senso se la scheda ATI fosse stata non OC di fabbrica, con dissi single slot e con margini di overclock considerevoli (più o meno la situazione in cui ci siamo trovati di fronte quando abbiamo confrontato la vecchia GTX 256mb contro la x1800xt)...
AH, mi sono venuti in mente i commenti scettici di chi diceva che era facile battere la GTX con quelle frequenze di core/memorie nonchè 512mb invece che 256mb.
Tutti a dire, non centra nulla perchè l'architettura ATI è migliore, è più performante. Ricordo anche i test fatti con la x1800xt downcloccata alle freq della GTX per dimostrare la bontà di questa nuova architettura. Discorsi tecnici lunghissimi per avvalorare le proprie tesi che si sono dimostrate sbagliate, alla luce dei risultati di questa nuova scheda nvidia :fagiano:
leoneazzurro
15-11-2005, 11:23
Non trovi che sia singolare dire che la differenza tra 4x e 6x si vede solamente in giochi come i simulatori di volo e poi non testarne nemmeno uno nella recensione?
Io direi che a seconda del gioco, si può o meno apprezzare la differenza, non solo nei simulatori di volo.
Es. Doom3 IMHO ha poco bisogno di AA, mentre HL2 tende ad apparire molto più "seghettato" e passibile di miglioramenti con l'antialiasing. Stesso discorso con molti altri giochi.
Ad ogni modo, anche apprezzare la differenza è un discorso soggettivo.
Per i vari djlode e tigershark del forum invece ho una domanda. Ma secondo voi, solo ATI può oc "di fabbrica" la scheda? Solo ATI può utilizzare sistemi di raffreddamento dual slot e solo ATI può vendere schede con margini esigui di overclock? Non mi è chiara la vostra logica :wtf:
Un commento del genere da parte vostra, avrebbe avuto senso se la scheda ATI fosse stata non OC di fabbrica, con dissi single slot e con margini di overclock considerevoli (più o meno la situazione in cui ci siamo trovati di fronte quando abbiamo confrontato la vecchia GTX 256mb contro la x1800xt)...
ma le X1800XT non sono "OC" di fabbrica, semplicemente sono i chip che lavorano bene a frequenze (e voltaggi superiori), lo dimostra il fatto che hanno anch'esse ampi margini di overclock. Sono le XL ad essere un pò "downclockate", immagino per massimizzare le rese. Il discorso però deve anche tenere conto che G70 è ancora a 110 nm, mentre R520 è già passato a 90 nm. Ora, è possibile che R580 abbia frequenze anche superiori ad R520, IMHO ritengo che se saranno superiori non lo saranno di molto. Mentre un eventuale G70 a 90 nm potrebbe salire ancora molto di frequenze.
Io direi che a seconda del gioco, si può o meno apprezzare la differenza, non solo nei simulatori di volo.
Es. Doom3 IMHO ha poco bisogno di AA, mentre HL2 tende ad apparire molto più "seghettato" e passibile di miglioramenti con l'antialiasing. Stesso discorso con molti altri giochi.
Ad ogni modo, anche apprezzare la differenza è un discorso soggettivo.
ma le X1800XT non sono "OC" di fabbrica, semplicemente sono i chip che lavorano bene a frequenze (e voltaggi superiori), lo dimostra il fatto che hanno anch'esse ampi margini di overclock. Sono le XL ad essere un pò "downclockate", immagino per massimizzare le rese. Il discorso però deve anche tenere conto che G70 è ancora a 110 nm, mentre R520 è già passato a 90 nm. Ora, è possibile che R580 abbia frequenze anche superiori ad R520, IMHO ritengo che se saranno superiori non lo saranno di molto. Mentre un eventuale G70 a 90 nm potrebbe salire ancora molto di frequenze.
Si ma Hl2 non è che sia un gioco dove ti fermi a notare i contorni più o meno seghettati. E anche se fosse un 4x sarebbe assolutamente più che sufficente considerando la velocità e la dinamica del gioco.
Per quanto riguarda l'altro discorso che fai, non vedo alcuna rilevanza sul fatto che un chip sia nato per lavorare a frequenze superiori, quando qualsiasi chip migliora le sue prestazioni (e anche di molto come possiamo vedere dalla 7800GTX 512) aumentando le freq lavorative.
Quindi dire a suo tempo, dire che r520 batteva 7800GTX 256 anche e soprattutto a causa delle freq operative molto elevate era tutto tranne che falso.
La versione AGP costa quelle cifre, e' inutile darti il link perche' ho appena visto che le hanno tolte, ma posso anche dirti il perche', le AGP sono veramente rare oramai. Comuqnue restano le PCX a 274,20 ivate Ti do il link in PVT.
Anche a me,anche a me!!! grazie
yossarian
15-11-2005, 13:08
Mi basta aver vinto una scommessa con te su simili argomenti!! :D :p Non sono poi cosi' arrigginito, che bello!!:D
oggi deve essere la mia giornata fortunata :D
Non trovi che sia singolare dire che la differenza tra 4x e 6x si vede solamente in giochi come i simulatori di volo e poi non testarne nemmeno uno nella recensione?
Non è colpa mia se i simulatori di volo non consentono di effettuare benchmark registrando demo o cose simili. Nonostante ciò, è comunque importante valutare l'impatto sulle prestazioni di una determinata modalità di antialiasing e filtro anisotropico e l'impatto è quello mostrato dai titoli da noi riportati.
Comunque finiscila con questa commedia. Non è il pacchetto benchmark utilizzato il problema, il problema è la tua faziosità che ti porta a voler nascondere il comportamento delle scheda da te tifate nelle situazioni in cui sono in difficoltà. Io, invece, poiché vado oltre la visione ristretta e limitata del fanboy, cerco di offrire il maggior numero di informazioni possibili per poi dare ad ogni informazione il peso adeguato.
yossarian
15-11-2005, 13:24
AH, mi sono venuti in mente i commenti scettici di chi diceva che era facile battere la GTX con quelle frequenze di core/memorie nonchè 512mb invece che 256mb.
Tutti a dire, non centra nulla perchè l'architettura ATI è migliore, è più performante. Ricordo anche i test fatti con la x1800xt downcloccata alle freq della GTX per dimostrare la bontà di questa nuova architettura. Discorsi tecnici lunghissimi per avvalorare le proprie tesi che si sono dimostrate sbagliate, alla luce dei risultati di questa nuova scheda nvidia :fagiano:
non si sono rivelati sbagliati; tutt'altro.
Guarda cosa succede all'aumentare della complessità dei calcoli:
queste sono le texture performance della GTX
http://www.beyond3d.com/previews/nvidia/78512/index.php?p=04
queste quelle della XL (nota bene, non XT, quindi solo 500 Mhz di core e 1000 di ram, quindi la frequenza non c'entra niente)
http://www.beyond3d.com/reviews/ati/r520/index.php?p=15
guarda cosa succede, a partire da 4 texture in poi (tenendo conte che la GTX ha 24 tmu e la XL solo 16).
Prova a fare le stesse considerazioni in test su dynamic branching e hdr e prova a chiederti i motivi di un calo così repentino (la XDL ha meno tmu, minor fillrate, minor bandwidth).
Non è colpa mia se i simulatori di volo non consentono di effettuare benchmark registrando demo o cose simili. Nonostante ciò, è comunque importante valutare l'impatto sulle prestazioni di una determinata modalità di antialiasing e filtro anisotropico e l'impatto è quello mostrato dai titoli da noi riportati.
Comunque finiscila con questa commedia. Non è il pacchetto benchmark utilizzato il problema, il problema è la tua faziosità che ti porta a voler nascondere il comportamento delle scheda da te tifate nelle situazioni in cui sono in difficoltà. Io, invece, poiché vado oltre la visione ristretta e limitata del fanboy, cerco di offrire il maggior numero di informazioni possibili per poi dare ad ogni informazione il peso adeguato.
Come ovviamente tu non batti ciglio all'accusa di fare recensioni che pendono un filino da una parte, io non posso che fare altrettanto quando mi accusi delle stesse cose nei commenti hehe :D
Non mi pare di aver offeso nessuno quindi non vedo perchè dovrei smettere di far notare attegiamenti secondo me di parte, soprattutto fornendo prove confutabili a riguardo. Perchè se permetti una cosa è un commento mio, che non sono nessuno, un 'altra cosa è un commento tuo, che sei redattore (imho) del più seguito internet magazine d'italia.
Mi sono sorti dei dubbi tutto qui. ho ricevuto risposte soddisfacenti per alcuni, ma non per tutti. Secondo me quei test fatti con AA x8/ x6 sono assolutamente inutili, come anche il commento finale che uno si dovrebbe prendere la x1800xt al posto della 7800GTX 512mb se vuole giocare con AA a più di 4x, cioè praticamente nessuno sarebbe cosi stupido da sacrificare decine di fps per attivare un filtro che non si nota minimamente durante le sessioni di gioco. E infatti nessun altro sito internet ha sprecato tempo per fare un simile test...
Avrei trovato molto più interessante dei test replicati con cpu differenti e quantitativi di ram differenti, per vedere che impatto hanno queste due componenti sui giochi, quando si utilizzano VGA di fascia altissima.
Ma se in ogni mia critica, si vuole mettere in rilievo solamente il discorso "giova a nvidia o ad ati" allora mi sa che si parte da un presupposto sbagliato.
Quello che non capisco è perchè tra i benchmark non mettiate anche il risultato finale al 3DMark05... in fondo è solo un numero che per ci interessa :D.
Perche' e' un numero che non indica proprio nulla, e' un parametro inventato da quelli della futuremark assolutamente soggettivo ed inutile. Puo' andar bene per qualche "gara" di clk, non certo per valutare un prodotto. :)
Non è colpa mia se i simulatori di volo non consentono di effettuare benchmark registrando demo o cose simili. Nonostante ciò, è comunque importante valutare l'impatto sulle prestazioni di una determinata modalità di antialiasing e filtro anisotropico e l'impatto è quello mostrato dai titoli da noi riportati.
Hem.. non vorrei fare il guastafeste, ma ce ne di simulatori usati come bench in giro che voi non utilizzate.. Comunque sarebbe stato interessante vedere un'analisi dell'anisotropico separata da quella dell'AA, perche' sono certo che in AF16 AA4, comuqnue il G70 sarebbe avvantaggiato.
Per quanto riguarda, mi rivolgo a chi critica la scelta di provare l'AA8s contro l'AA6:
Perche' litigare?? non e' stato valutato o quasi come risultato, e' stato chiaramente spiegato nella recensione il perche' del calo prestazionale del G70 dettato dalla differente tipologia di AA, ora si sa che con nVidia si puo' avere l'8s ad un certo costo e con ATI il 6 ad un altro, se poi qualcuno e' cosi' tordo da impiegare l'8s o il 6 a 1600 o 1900, generando solo un inutile calo di FPS senza alcun vantaggio visivo tangibile sono affari (e scelte) suoi.
MiKeLezZ
15-11-2005, 14:10
Comunque sarebbe stato interessante vedere un'analisi dell'anisotropico separata da quella dell'AA, perche' sono certo che in AF16 AA4, comuqnue il G70 sarebbe avvantaggiato.
Vero... Anche per vedere quale subisce il maggior calo di performance (magari, appunto, dando poi i dati percentuali)
Comunque mi sa che da qualche parte l'ho letta una cosa del genere :D
Riguardo 256MB-512MB, magari un underclock di core e ram ci sarebbe stato bene... Giusto per vedere cosa cambia (nulla, ma ci son parecchi S.Tommaso...)
oggi deve essere la mia giornata fortunata :D
Anzi ci ho ripensato, potresti regalarmi una GTX 512!! :ciapet:
non si sono rivelati sbagliati; tutt'altro.
Guarda cosa succede all'aumentare della complessità dei calcoli:
queste sono le texture performance della GTX
http://www.beyond3d.com/previews/nvidia/78512/index.php?p=04
queste quelle della XL (nota bene, non XT, quindi solo 500 Mhz di core e 1000 di ram, quindi la frequenza non c'entra niente)
http://www.beyond3d.com/reviews/ati/r520/index.php?p=15
guarda cosa succede, a partire da 4 texture in poi (tenendo conte che la GTX ha 24 tmu e la XL solo 16).
Prova a fare le stesse considerazioni in test su dynamic branching e hdr e prova a chiederti i motivi di un calo così repentino (la XDL ha meno tmu, minor fillrate, minor bandwidth).
Io guarderei anche pero' il costo di tutto questo, a me sembrano due architetture "differenti", poco importa quale sia piu' efficiente. Cerco di spiegarmi sotto paragone, se un motore endotermico di 5000 cc e sviluppa 300cv a 5500giri/min, possiamo dire che sia peggiore di un piu' moderno 3000 cc con la stessa potenza a 80000 giri/m?? (ammettendo pesi uguali, solidita' uguale e consumi identici), io direi di no. Sono due motori differenti "dentro", ed in questo caso sicuramente il 5000cc sara' piu' economico da progettare e costruire.
Intendo dire che Ati per ottenere tuto questo non ha certo risparmiato transistor o temperature, tantomeno consumi energetici. Suppongo che la vera espressione di quet'architettura sara' il nuovo R580 che comunque rimane una sorta di ibrido tra shader separati ed unificati.
leoneazzurro
15-11-2005, 14:18
Si ma Hl2 non è che sia un gioco dove ti fermi a notare i contorni più o meno seghettati. E anche se fosse un 4x sarebbe assolutamente più che sufficente considerando la velocità e la dinamica del gioco.
Io sto solo dicendo che è molto soggettivo, io in HL2 la differenza tra 4x e 8x la vedo, in Doom 3 fatico a distinguere tra default e AA 4x. Quindi, che l'azione sia frenetica o meno, la differenza dipende molti dal gioco. Su di un Rts si nota o no, ad esempio?
Per quanto riguarda l'altro discorso che fai, non vedo alcuna rilevanza sul fatto che un chip sia nato per lavorare a frequenze superiori, quando qualsiasi chip migliora le sue prestazioni (e anche di molto come possiamo vedere dalla 7800GTX 512) aumentando le freq lavorative.
Quindi dire a suo tempo, dire che r520 batteva 7800GTX 256 anche e soprattutto a causa delle freq operative molto elevate era tutto tranne che falso.
Veramente io non ho detto nulla sul fatto che è un chip nato per funzionare a frequenze alte, semplicemente contraddivo l'enunciato secondo il quale le X1800XT sono schede "overcloccate", dato che hanno ulteriori (ampi) margini di oc, cosa che non avresti su schede overcloccate.
E' ovvio che se una scheda batte un altra, le si considera alle frequenze di default. Del resto, per lasciare dietro la X1800XT, nvidia non ha dovuto incrementare le frequenze? ;)
Anzi, ho anche detto che se uscisse un G70 a 90 nm sarebbe ulteriormente favorito a livello di frequenze rispetto alla serie 5X0 di ATI che è già a 90 nm.
E poi Ati con il suo Ring bus farà "La compagnia dell'Anello"?
E con uno Sli Facciamo "Le due Torri"
Ehm...vado :stordita:
OverClocK79®
15-11-2005, 14:31
Allora non ti accorgi nemmeno della differenza di qualita' e scegli la scheda per la scatola piu' bella?? :)
sicuramente guardo i test ecc ecc
ma a OKKIO la differenza nn è visibile....a meno che tu nn abbia l'okkio che cattura il frame e vedi differenze da 140 a 100 o 80fps
BYEZZZZZZZZZZZZ
sicuramente guardo i test ecc ecc
ma a OKKIO la differenza nn è visibile....a meno che tu nn abbia l'okkio che cattura il frame e vedi differenze da 140 a 100 o 80fps
BYEZZZZZZZZZZZZ
Quando si parla di dover disabilitare filtri per aver prestazioni in cambio non si palra certo di 100-140 FPS. :)
yossarian
15-11-2005, 14:35
Anzi ci ho ripensato, potresti regalarmi una GTX 512!! :ciapet:
Io guarderei anche pero' il costo di tutto questo, a me sembrano due architetture "differenti", poco importa quale sia piu' efficiente. Cerco di spiegarmi sotto paragone, se un motore endotermico di 5000 cc e sviluppa 300cv a 5500giri/min, possiamo dire che sia peggiore di un piu' moderno 3000 cc con la stessa potenza a 80000 giri/m?? (ammettendo pesi uguali, solidita' uguale e consumi identici), io direi di no. Sono due motori differenti "dentro", ed in questo caso sicuramente il 5000cc sara' piu' economico da progettare e costruire.
Intendo dire che Ati per ottenere tuto questo non ha certo risparmiato transistor o temperature, tantomeno consumi energetici. Suppongo che la vera espressione di quet'architettura sara' il nuovo R580 che comunque rimane una sorta di ibrido tra shader separati ed unificati.
:ciapet:
infatti; è solo per replicare a chi continua a fare paragoni a parità di frequenza e via discorrendo. Tra l'altro, anche la logica con cui funzionano i due chip è profondamente diversa.
R580 è della stessa famiglia; ha solo più unità di pixel shading (il triplo di r520)
E' ovvio che se una scheda batte un altra, le si considera alle frequenze di default. Del resto, per lasciare dietro la X1800XT, nvidia non ha dovuto incrementare le frequenze? ;)
Io direi che ha semplicemente immesso sul mercato il G70 per come e' nato.. Prima non serviva adesso sì. Le 6800 scendono e tutti noi ci guadagnamo!! :D
Mi sono sorti dei dubbi tutto qui. ho ricevuto risposte soddisfacenti per alcuni, ma non per tutti. Secondo me quei test fatti con AA x8/ x6 sono assolutamente inutili, come anche il commento finale che uno si dovrebbe prendere la x1800xt al posto della 7800GTX 512mb se vuole giocare con AA a più di 4x, cioè praticamente nessuno sarebbe cosi stupido da sacrificare decine di fps per attivare un filtro che non si nota minimamente durante le sessioni di gioco. E infatti nessun altro sito internet ha sprecato tempo per fare un simile test...
L'analisi dell'impatto sulle prestazioni dell'antialiasing in tutte le sue modalità, compresa l'8x e la 6x, è stata fatta da noi a tutti i lanci prodotto di fascia alta da diverso tempo a questa parte: NV40, R420, G70, R520 e questa nuova G70. Se altri colleghi non lo hanno fatto, non mi interessa nel modo più assoluto. Io ritengo che se uno spende 650 euro per una scheda video, le sue prestazioni debbano essere tutte valutate, comprese quelle con i settaggi più aggressivi.
Se poi tu non ritieni utili quelle valutazioni, sei liberissimo di andare avanti e leggere gli altri grafici. Come ho già detto, nella valutazione di quel discorso si è tenuto conto in misura assolutamente infima, ma ciò non significa che le informazioni non si debbano dare perché la percezione delle priorità è un aspetto legato anche a preferenze personali (+ fps o + qualità).
Concludendo, continueremo a valutare le prestazioni per le schede di fascia più alta anche con le massime modalità di antialiasing disponibili, specie nell'articolo dedicato al lancio del prodotto. Se ciò non ti va bene, sei liberissimo di ignorare l'articolo in questione.
Resto fermamente convinto che se quei risultati fossero stati a favore di NVIDIA, questa discussione non avrebbe mai avuto luogo. Inoltre penso anche che se non avessi realizzato quei benchmark, molti se ne sarebbero usciti col discorso "perché non avete fatto i test con l'antialiasing 8x e 6x?". Poiché noi abbiamo un tempo limitato da dedicare ad un articolo e poiché non possiamo fare tutte le valutazioni di questo mondo, la realità è che qualcuno che avrà da ridire qualcosa ci sarà sempre. Detto questo... chi mi ama mi segua :oink: :D
:ciapet:
infatti; è solo per replicare a chi continua a fare paragoni a parità di frequenza e via discorrendo. Tra l'altro, anche la logica con cui funzionano i due chip è profondamente diversa.
R580 è della stessa famiglia; ha solo più unità di pixel shading (il triplo di r520)
Io ci ho quasi rinunciato, qui parlano ancora di aumento di pipeline per R580!! Ma quanto fiato abbiamo sprecato?? :doh: :D
E poi Ati con il suo Ring bus farà "La compagnia dell'Anello"?
E con uno Sli Facciamo "Le due Torri"
Ehm...vado :stordita:
Sgnalato ad un mod. :mad:
Per una cosa del genere ti devono come minimo sospendere per 10gg. :D
MiKeLezZ
15-11-2005, 14:41
Io ci ho quasi rinunciato, qui parlano ancora di aumento di pipeline per R580!! Ma quanto fiato abbiamo sprecato?? :doh: :D
Mi sa tanto:
Foglia Morta è convinto al 100% che escano le nuove Radeon da 32 pipeline.
Mi ha espressamente detto che la notizia gli è arrivata da mr. yossarian in persona.
leoneazzurro
15-11-2005, 14:43
Io direi che ha semplicemente immesso sul mercato il G70 per come e' nato.. Prima non serviva adesso sì. Le 6800 scendono e tutti noi ci guadagnamo!! :D
Intendevo rispetto alla GTX 256 Mbyte ;)
yossarian
15-11-2005, 14:43
E poi Ati con il suo Ring bus farà "La compagnia dell'Anello"?
E con uno Sli Facciamo "Le due Torri"
Ehm...vado :stordita:
semplicemente geniale mr Bilbo Baggins :D
Per tutta la redazione, http://www.xbitlabs.com/articles/video/display/radeon-x1800_14.html questi sono due simulatori che potreste usare come parametro, ora non dite piu' che non ci sono. :)
Intendevo rispetto alla GTX 256 Mbyte ;)
Infatti ho detto che piu' che incrementare le frequenze, ha proposto sul mercato quello che era il G70 fin dall'inizio. Era palese che la GTX 256 fosse "strozzata".
leoneazzurro
15-11-2005, 14:55
Infatti ho detto che piu' che incrementare le frequenze, ha proposto sul mercato quello che era il G70 fin dall'inizio. Era palese che la GTX 256 fosse "strozzata".
Io parlo di incrementare le frequenze rispetto al prodotto immesso sul mercato, non a "quello che doveva essere e non è stato".
Che quello di adesso sia il "vero" G70 lo sa solo Nvidia, le GTX 256 Mbyte sinora immesse a quelle frequenze del core ci arrivano solo con pesante overcklock e accessori non standard. Che avessero margine, OK.
Io parlo di incrementare le frequenze rispetto al prodotto immesso sul mercato, non a "quello che doveva essere e non è stato".
Che quello di adesso sia il "vero" G70 lo sa solo Nvidia, le GTX 256 Mbyte sinora immesse a quelle frequenze del core ci arrivano solo con pesante overcklock e accessori non standard. Che avessero margine, OK.
Se rileggi i miei post sin dal giorno della presentazione del G70 ti rendi conto di come ho previsto tutto, ma non perche' so' maco :D!!
Quando lessi le frequenze e vidi che bastava "giusto giusto" per battere in tutto la concorrenza, quando vidi la sigla GTX (chiaramente furba e priva di paragoni), capii come non fosse altro che "quanto bastava per.." Infatti i ritardi di ATI hanno decretato e permesso l'uscita di una GT che altrimenti si sarebbe chiamata sicuramente 7800 (liscia). Almeno io la vedo e vedevo cosi' e ci ho preso. :)
A prova di tutto il lancio tempestivo della nuova soluzione, quasi (quasi??) a beffa di ATI.
Addirittura le foto sono disponibili da mesi e la quadro e' uscita prima della versione ludica.
leoneazzurro
15-11-2005, 15:31
Possiamo essere d'accordo sul fatto che G70 potesse essere tirato in più, ma questo non l'ho mai messo in dubbio. Ho solo detto che prestazioni medie GTX256 mega < Prestazioni medie X1800XT se le frequenze sono quelle viste sino ad ora, e che poi per avere prestazioni medie X1800XT < Prestazioni medie GTX 512 Mbyte G70 è stato portato a 550/1700.
Il che non è una deduzione, trattasi semplicemetne di fatti. Poi possiamo ragionare del perchè G70 sia stato proposto inizialmente a 430 MHz, del fatto che avesse dei margini, che evidentemente per avere rese notevoli non lo si è spinto al massimo, ecc.
Fatto sta che G70 430/1200 < R520 625/1500 < G70 550/1700, e che il G70 550/1700 è stato presentato in risposta a R520 e non come "il prodotto standard".
Per tutta la redazione, http://www.xbitlabs.com/articles/video/display/radeon-x1800_14.html questi sono due simulatori che potreste usare come parametro, ora non dite piu' che non ci sono. :)
E invece continueremo a dire che non ci sono. Dovresti leggere meglio ciò che ho scritto: "Non è colpa mia se i simulatori di volo non consentono di effettuare benchmark registrando demo o cose simili."
Quei titoli non consentono di realizzare benchmark registrando demo o sequenze di gioco, ma per eseguire benchmark con quei titoli bisogna fare utilizzo di FRAPS e intavolare dubbie e poco accurate misurazioni. Alcuni giocano un minuto e poi fanno la media dei risultati fatti con FRAPS il che è ridicolo perché tale discorso andrebbe eseguito per ogni risoluzione per ogni scheda video e se durante il gioco io da una scheda all'altra o da una risoluzione all'altra inquadro una zona differente, o eseguo movimenti diversi, i risultati cambiano. Questo genere di misurazioni sono assolutamente imprecise e non ripetibili e pertanto vengono escluse. Ho sentito anche di gente che usava Colin McRae Rally 2005 per eseguire i test e sapete cosa fa? Avete in mente la sequenza della scelta della macchina? Beh misurava le prestazioni là :eek: Vi sembra una misura attendibile? Io dico di no.
Ripeto: se il gioco non è predisposto e purtroppo la maggioranza non lo sono, i test non possono essere eseguiti e non li useremo.
Per i vari djlode e tigershark del forum invece ho una domanda. Ma secondo voi, solo ATI può oc "di fabbrica" la scheda? Solo ATI può utilizzare sistemi di raffreddamento dual slot e solo ATI può vendere schede con margini esigui di overclock? Non mi è chiara la vostra logica :wtf:
Un commento del genere da parte vostra, avrebbe avuto senso se la scheda ATI fosse stata non OC di fabbrica, con dissi single slot e con margini di overclock considerevoli (più o meno la situazione in cui ci siamo trovati di fronte quando abbiamo confrontato la vecchia GTX 256mb contro la x1800xt)...
Era una battuta infatti. Visto che si sono spesi fiumi di parole per la X1800XT che in tanti (prima di vederla uscire) dicevano : Ah che schifo il dissipatore dual slot; Ah che schifo per andare ha bisogno di frequenze blablabla; Ah che schifo, con tali frequenze non avrà mai overclock degni di nota blablabla; Ah che schifo è overclockata di fabbrica blablabla. Ora gli stessi mi vengono a lodare Nvidia per le frequenze raggiunte, per il dissipatore dual slot, non mi vengono a dire che la 7800GTX è overlcockata di fabbrica (anzi, questa è la vera GTX, l'altra è underclockata per avere frequenze conservative), non si curano più dei consumi (quando la GTX di prima avendoli più bassi della XT era da lodare per questo), così come qualcuno spacciava per overclock mediocre un overclock da 625mhz a 750mhz, definendo ora miracoloso un overclock da 550mhz a 600mhz. Insomma, ero divertito nel vedere i paladini difensori utilizzare le "armi" in meno dell'avversaria come "armi" in più della Beneamata.
Capisci ora? La XT non è overclockata di fabbrica, anzi, ha voltaggi e frequenze molto conservative. La GTX 512mb è una versione overlcockata della GTX, perchè altrimenti con dissipatore standard e voltaggio identico si raggiungevano le stesse frequenze. Così come i consumi, ora inferiori, non sono più importanti.
Ecco, se non altro sono divertito dalla mancanza di obbiettività di certa genta :)
Io guarderei anche pero' il costo di tutto questo, a me sembrano due architetture "differenti", poco importa quale sia piu' efficiente.
Ok, questa è definitivamente la perla :asd:
Non eri tu che cercava di dimostrare che la GTX fosse più efficiente? Ora non importa più?
Possiamo essere d'accordo sul fatto che G70 potesse essere tirato in più, ma questo non l'ho mai messo in dubbio. Ho solo detto che prestazioni medie GTX256 mega < Prestazioni medie X1800XT se le frequenze sono quelle viste sino ad ora, e che poi per avere prestazioni medie X1800XT < Prestazioni medie GTX 512 Mbyte G70 è stato portato a 550/1700.
Il che non è una deduzione, trattasi semplicemetne di fatti. Poi possiamo ragionare del perchè G70 sia stato proposto inizialmente a 430 MHz, del fatto che avesse dei margini, che evidentemente per avere rese notevoli non lo si è spinto al massimo, ecc.
Fatto sta che G70 430/1200 < R520 625/1500 < G70 550/1700, e che il G70 550/1700 è stato presentato in risposta a R520 e non come "il prodotto standard".
Allora ti faccio una domanda, se tu fossi stato nVidia, avresti prosto una versione a 550Mhz quando 430 sarebbero bastati ed avanzati?? no, non credo, anche perche' cosi' ricicla la stessa tecnologia e la vende due volte. :)
Era ovvio che con l'avvento del nuovo R520 avrebbero aumentato le frequenze, mi sembra il minimo per un'architettura uscita molti mesi fa. Io credevo l'avrebbero chiamato "ultra", invece no, lo faranno probabilmente con la vrs a 90nm che contrastera' l'R580. Lode al progetto innovativo ATI, ma altrettante al G70.
E invece continueremo a dire che non ci sono. Dovresti leggere meglio ciò che ho scritto: "Non è colpa mia se i simulatori di volo non consentono di effettuare benchmark registrando demo o cose simili."
Quei titoli non consentono di realizzare benchmark registrando demo o sequenze di gioco, ma per eseguire benchmark con quei titoli bisogna fare utilizzo di FRAPS e intavolare dubbie e poco accurate misurazioni. Alcuni giocano un minuto e poi fanno la media dei risultati fatti con FRAPS il che è ridicolo perché tale discorso andrebbe eseguito per ogni risoluzione per ogni scheda video e se durante il gioco io da una scheda all'altra o da una risoluzione all'altra inquadro una zona differente, o eseguo movimenti diversi, i risultati cambiano. Questo genere di misurazioni sono assolutamente imprecise e non ripetibili e pertanto vengono escluse. Ho sentito anche di gente che usava Colin McRae Rally 2005 per eseguire i test e sapete cosa fa? Avete in mente la sequenza della scelta della macchina? Beh misurava le prestazioni là :eek: Vi sembra una misura attendibile? Io dico di no.
Ripeto: se il gioco non è predisposto e purtroppo la maggioranza non lo sono, i test non possono essere eseguiti e non li useremo.
Il discorso sarebbe corretto se non fosse che in tutte le recensioni di quei giochi, le differenze tra ATI ed nVidia sono le medesime. Dunque non sara' preciso come un bench predisposto, ma sicuramente molto indicativo.
E' ovvio che misurare le prestazioni come portato da te come esempio (McRae) e' ridicolo, ma confidiamo nel vostro buon senso!!
La mia non era e non e' una critica, e' solo un consiglio.
Potreste chiarire nella recensione il metodo di test di modo che la gente possa farsi un idea e dargli il giuso peso. Non sarebbe una situazione completamente "corretta", ma come si passa sopra a differenti sistemi di filtraggio che non portano alla situazione di legale parita', si puo' passare sopra al piccolo scarto percentuale che si puo' avere misurando una sessione di gioco uguale con fraps su sistemi differenti. Torno a dire che nelle varie recensioni i risultati ottenuti si somigliano molto.
Io intanto me la sono presa e via :D
Ok, questa è definitivamente la perla :asd:
Non eri tu che cercava di dimostrare che la GTX fosse più efficiente? Ora non importa più?
Dove l'ho mai dichiarato?? non mi sogno di dire cose simili.
Parlare di efficienza e' troppo vago, bisogna vedere cosa si intende per "efficienza". Prima ho fatto un paragone parlando con yoss, rileggitelo, cosi' ci fornisci un'altra delle tue belle "perle" assolutamente imparziali. :)
Io intanto me la sono presa e via :D
Gia'?? tu stai fuori!! :D
Adesso vorrei trovare qualcuno che sia gia' riuscito a prendere una X1800XT a diversi giorni dal lancio.
L'analisi dell'impatto sulle prestazioni dell'antialiasing in tutte le sue modalità, compresa l'8x e la 6x, è stata fatta da noi a tutti i lanci prodotto di fascia alta da diverso tempo a questa parte: NV40, R420, G70, R520 e questa nuova G70. Se altri colleghi non lo hanno fatto, non mi interessa nel modo più assoluto. Io ritengo che se uno spende 650 euro per una scheda video, le sue prestazioni debbano essere tutte valutate, comprese quelle con i settaggi più aggressivi.
Se poi tu non ritieni utili quelle valutazioni, sei liberissimo di andare avanti e leggere gli altri grafici. Come ho già detto, nella valutazione di quel discorso si è tenuto conto in misura assolutamente infima, ma ciò non significa che le informazioni non si debbano dare perché la percezione delle priorità è un aspetto legato anche a preferenze personali (+ fps o + qualità).
Concludendo, continueremo a valutare le prestazioni per le schede di fascia più alta anche con le massime modalità di antialiasing disponibili, specie nell'articolo dedicato al lancio del prodotto. Se ciò non ti va bene, sei liberissimo di ignorare l'articolo in questione.
Resto fermamente convinto che se quei risultati fossero stati a favore di NVIDIA, questa discussione non avrebbe mai avuto luogo. Inoltre penso anche che se non avessi realizzato quei benchmark, molti se ne sarebbero usciti col discorso "perché non avete fatto i test con l'antialiasing 8x e 6x?". Poiché noi abbiamo un tempo limitato da dedicare ad un articolo e poiché non possiamo fare tutte le valutazioni di questo mondo, la realità è che qualcuno che avrà da ridire qualcosa ci sarà sempre. Detto questo... chi mi ama mi segua :oink: :D
Non ho sicuramente la pretesa di avere i test che ritengo più idonei in una recensione del genere sulle pagine web del sito per il quale lavori.
Sono anch'io d'accordo che anche cambiando qualcosa, avresti trovato sempre qualcuno non d'accordo :)
Rimango tuttavia molto perplesso sul discorso cpu/ram test da fare in abbinamento a questi mostri. E' un test fondamentale per capire se oltre ai soldi della vga bisogna metterci vicino quelli di una nuova cpu o di piu ram, non trovi?
Rimango tuttavia molto perplesso sul discorso cpu/ram test da fare in abbinamento a questi mostri. E' un test fondamentale per capire se oltre ai soldi della vga bisogna metterci vicino quelli di una nuova cpu o di piu ram, non trovi?
Mi associo all'appello. Ho trovato dei test molto interessanti tra combinazioni della GTX 512 e CPU differenti. Si puo' notare come un marginale l'aumento delle frequenze o della cache della CPU porti a volte ad un incremento notevole delle prestazioni globali ed altre volte non cambi assolutamente nulla.
leoneazzurro
15-11-2005, 16:57
Allora ti faccio una domanda, se tu fossi stato nVidia, avresti prosto una versione a 550Mhz quando 430 sarebbero bastati ed avanzati?? no, non credo, anche perche' cosi' ricicla la stessa tecnologia e la vende due volte. :)
Era ovvio che con l'avvento del nuovo R520 avrebbero aumentato le frequenze, mi sembra il minimo per un'architettura uscita molti mesi fa. Io credevo l'avrebbero chiamato "ultra", invece no, lo faranno probabilmente con la vrs a 90nm che contrastera' l'R580. Lode al progetto innovativo ATI, ma altrettante al G70.
Ovvio fino ad un certo punto, sicuramente nvidia ha saputo tirare fuori molto dal progetto G70. Ma non tutti i G70 raggiungono quelle frequenze, anche salendo con la tensione di alimentazione. Nvidia stessa ha dichiarato che per far girare il G70 a 550 Mhz e più, sono stati richiesti "affinamenti al processo produttivo" (leggi almeno un nuovo stepping, oltre alle modifiche del PCB, ecc.). Ossia, Nvidia poteva tirare ancora il G70, per tirarlo a questi livelli l'ha dovuto aiutare un pò ;). Insomma, IMHO quando ha tirato fuori la GTX 256 Mbyte probabilmente non si pensava a 550+ MHz, ma a qualcosa di più conservativo (es. 500 MHz).
Certo che era ovvio che nvidia aumentasse le frequenze per contrastare R520, ma dire che questo è il "vero" G70, è un pò forzare i termini. E' una versione di G70, ma la versione extra-lusso, non la scheda di fascia alta da proporre in centinaia di migliaia (e più) di esemplari, con altissime rese produttive.
Quindi, nessuno dei due è il "vero" G70 a seconda di come lo si consideri. La versione 256 Mbyte è il vero G70 se parliamo di prodotto standard, ad alte rese produttive e a (relativamente) larga diffusione. La versione G70 è il vero G70 se parliamo di potenzialità del progetto dal punto di vista delle massime prestazioni raggiungibili con il processo a 110 nm.
Dicamo che la GTX 512 sta alla GTX 256 come R480 sta a R420.
con queste schede in giro bisogna aspettare qualche nuovo gioco davvero rivoluzionario in grado di sfruttare tanta potenza!
Consideranzo che Fear è già un nuovo punto di riferimento mi piacerebbe proprio vederlo "pompato" su una scheda del genere!
halduemilauno
15-11-2005, 19:34
Era una battuta infatti. Visto che si sono spesi fiumi di parole per la X1800XT che in tanti (prima di vederla uscire) dicevano : Ah che schifo il dissipatore dual slot; Ah che schifo per andare ha bisogno di frequenze blablabla; Ah che schifo, con tali frequenze non avrà mai overclock degni di nota blablabla; Ah che schifo è overclockata di fabbrica blablabla. Ora gli stessi mi vengono a lodare Nvidia per le frequenze raggiunte, per il dissipatore dual slot, non mi vengono a dire che la 7800GTX è overlcockata di fabbrica (anzi, questa è la vera GTX, l'altra è underclockata per avere frequenze conservative), non si curano più dei consumi (quando la GTX di prima avendoli più bassi della XT era da lodare per questo), così come qualcuno spacciava per overclock mediocre un overclock da 625mhz a 750mhz, definendo ora miracoloso un overclock da 550mhz a 600mhz. Insomma, ero divertito nel vedere i paladini difensori utilizzare le "armi" in meno dell'avversaria come "armi" in più della Beneamata.
Capisci ora? La XT non è overclockata di fabbrica, anzi, ha voltaggi e frequenze molto conservative. La GTX 512mb è una versione overlcockata della GTX, perchè altrimenti con dissipatore standard e voltaggio identico si raggiungevano le stesse frequenze. Così come i consumi, ora inferiori, non sono più importanti.
Ecco, se non altro sono divertito dalla mancanza di obbiettività di certa genta :)
questo si chiama scoramento da insufficienza di score.
;)
^TiGeRShArK^
15-11-2005, 19:34
Per i vari djlode e tigershark del forum invece ho una domanda. Ma secondo voi, solo ATI può oc "di fabbrica" la scheda? Solo ATI può utilizzare sistemi di raffreddamento dual slot e solo ATI può vendere schede con margini esigui di overclock? Non mi è chiara la vostra logica :wtf:
Un commento del genere da parte vostra, avrebbe avuto senso se la scheda ATI fosse stata non OC di fabbrica, con dissi single slot e con margini di overclock considerevoli (più o meno la situazione in cui ci siamo trovati di fronte quando abbiamo confrontato la vecchia GTX 256mb contro la x1800xt)...
quanto si poteva overclokkare la vekkia gtx 256 e quanto la x1800 xt???
quanto invece la gtx 512? ;)
^TiGeRShArK^
15-11-2005, 19:38
Come ovviamente tu non batti ciglio all'accusa di fare recensioni che pendono un filino da una parte, io non posso che fare altrettanto quando mi accusi delle stesse cose nei commenti hehe :D
Ma se in ogni mia critica, si vuole mettere in rilievo solamente il discorso "giova a nvidia o ad ati" allora mi sa che si parte da un presupposto sbagliato.
non mi pare ke raffaele abbia mai sostenuto cose come "la x1800 xt è iverclokkata di fabbrica" cosa ESTREMAMENTE falsa dato ke sale con tranquillità di 100 mhz...
allora x la gtx 512 ke si dovrebbe dire dato ka sale di soli 50 mhz??? ;)
^TiGeRShArK^
15-11-2005, 19:40
Io guarderei anche pero' il costo di tutto questo, a me sembrano due architetture "differenti", poco importa quale sia piu' efficiente. Cerco di spiegarmi sotto paragone, se un motore endotermico di 5000 cc e sviluppa 300cv a 5500giri/min, possiamo dire che sia peggiore di un piu' moderno 3000 cc con la stessa potenza a 80000 giri/m??
:eek:
minkia! m'immagino la felicità dei pistoni a quella velocità! :D
halduemilauno
15-11-2005, 19:41
quanto si poteva overclokkare la vekkia gtx 256 e quanto la x1800 xt???
quanto invece la gtx 512? ;)
la 7800gtx 256 da 430/1200 a sui 500 il core e sui 1350 la ram ma si è visto anche 520/1420.
la x1800xt ho visto 725/1650.
la 7800gtx 512 600/1800 tutte ma ho visto anche 620 di core e sui 1900 la ram.
mi riferisco a oc umani niente estremismi.
;)
MiKeLezZ
15-11-2005, 19:44
non mi pare ke raffaele abbia mai sostenuto cose come "la x1800 xt è iverclokkata di fabbrica" cosa ESTREMAMENTE falsa dato ke sale con tranquillità di 100 mhz...
allora x la gtx 512 ke si dovrebbe dire dato ka sale di soli 50 mhz??? ;)
550->620 è il 13%
625->725 è il 16%
siam lì :)
^TiGeRShArK^
15-11-2005, 19:58
550->620 è il 13%
625->725 è il 16%
siam lì :)
la 7800gtx 512 600/1800 tutte ma ho visto anche 620 di core e sui 1900 la ram.
:asd:
pure io ho visto il 4400+ di mo3bius stabile ad aria a 2800 e passa....
ma non vuol dire certo ke tutti i proci siano :ciapet: km il suo! :D
in genere si sono visti 50 mhz di incremento per la gtx 512 e 100 mhz x la x 1800 xt....
quindi rispettivamente 9% e 16% ... mi pare ke un pò di differenza ci sia ;)
MiKeLezZ
15-11-2005, 20:01
in genere si sono visti 50 mhz di incremento per la gtx 512
uscita ieri.. e già puoi stilare una media
complimenti
sì, 9% e 16%
grandissima differenza che certamente riuscirà a colmare il vuoto di circa il 90% di fps in più per G70
adesso capisco se una a 5 e l'altra a 30 (tipo le nuove GS o le x800gto2 da 400 a 520) ma da 10 a 15 non cambia una mazza
ThePunisher
15-11-2005, 20:03
Perche' e' un numero che non indica proprio nulla, e' un parametro inventato da quelli della futuremark assolutamente soggettivo ed inutile. Puo' andar bene per qualche "gara" di clk, non certo per valutare un prodotto. :)
Visto che comunque può essere considerato come un ulteriore metro di paragone (simulazione di 3 giochi diversi e risultato finale basato sui FPS in ognuno) non vedo perchè ometterlo, visto che metterlo non costa nulla...
MiKeLezZ
15-11-2005, 20:06
Come è "inutile" il 3DMARK, io non capisco come possano esser "utili" i timedemo.
Credete quelli non siano ottimizzati?
Per questo una partitina usando FRAPS non è così una scemata come si pensa.
^TiGeRShArK^
15-11-2005, 20:11
uscita ieri.. e già puoi stilare una media
complimenti
sì, 9% e 16%
grandissima differenza che certamente riuscirà a colmare il vuoto di circa il 90% di fps in più per G70
adesso capisco se una a 5 e l'altra a 30 (tipo le nuove GS o le x800gto2 da 400 a 520) ma da 10 a 15 non cambia una mazza
e ki ha detto ke cambia qualkosa?
io replicavo solo a ki sosteneva ke la x1800 xt fosse overclokkata di fabbrica :D
pekkato ke è overclokkabile quasi il doppio della gtx 512 (il doppio del 9% è il 18% ke mi pare piuttosto vicino al 16% della ati)....
alla luce di questo, usando gli stessi argomenti sarebbe giusto dire ke la 7800 gtx è overclokkata d fabbrica???
x me sono discorsi assolutamente privi di senso... ma vallo a dire a ki criticava tanto l'overclock della x1800 xt x favore! ;)
ThePunisher
15-11-2005, 20:12
Come è "inutile" il 3DMARK, io non capisco come possano esser "utili" i timedemo.
Credete quelli non siano ottimizzati?
Per questo una partitina usando FRAPS non è così una scemata come si pensa.
Sì, esatto... se è inutile lo score del 3DMark05 per capire la validità di una scheda si può dire lo stesso di tutte le FPS demo dei vari FPS... è l'insieme che conta alla fine oltre ai test specifici per fill rate, ecc. e il 3DMark05 fa parte di questo insieme e imho lo fa anche in una posizione di rilievo :D.
MiKeLezZ
15-11-2005, 20:14
x me sono discorsi assolutamente privi di senso... ma vallo a dire a ki criticava tanto l'overclock della x1800 xt x favore! ;)
eh sì.. in effetti..
purtroppo dall'uscita della serie 5 di nvidia è rimasta questo "spettro" dell'OC di fabbrica che aleggia sulle nuove VGA..
ma questi sono semplici risultati dei processi produtti, anzi, è più probabile le downclocchino, che il contrario (sai che risate e che cali di immagine se comprassi una x1800xt e ti crashasse perchè non regge le frequenze)
Gia'?? tu stai fuori!! :D
Adesso vorrei trovare qualcuno che sia gia' riuscito a prendere una X1800XT a diversi giorni dal lancio.
Diciamo che la mette GIA' pure in vendita! :sofico:
DOVE! INDOVINA!? :D
http://www.hwupgrade.it/forum/showthread.php?t=1063194&highlight=x1800xt
bartolino3200
15-11-2005, 21:24
han paragonato un x8 a un x6? lol..
comunque imho hwupgrade ha un ciccinino di preferenza verso amd e ati
anche se questa review mi è sembrata molto meno di parte del solito (anche se non son stato bene a controllare i grafici)
Ti quoto ;) e non aggiungo altro.
in ogni caso la differenza di prezzo nei negozi è ben più alta e si aggira sui 150 euro.... la x1800xt si trova a 450 nei posti furbi, la gtx 512 a meno di 650 non la troverete mai....
anche solo 100 euro di differenza non valgono quei pochi fps in più, senza contare la superiorità di r520 nel campo della qualità.
in ogni caso la differenza di prezzo nei negozi è ben più alta e si aggira sui 150 euro.... la x1800xt si trova a 450 nei posti furbi, la gtx 512 a meno di 650 non la troverete mai....
anche solo 100 euro di differenza non valgono quei pochi fps in più, senza contare la superiorità di r520 nel campo della qualità.
Mi mandi in pvt i posti furbi! :D :Perfido:
i posti furbi sono i negozi in germania!!! svegliaaa! gooogleeee!
MiKeLezZ
15-11-2005, 21:47
anche solo 100 euro di differenza non valgono quei pochi fps in più
ah bhe se lo dici te buona camicia a tutti!!!
http://www.anandtech.com/video/showdoc.aspx?i=2607&p=4
Giusto 30 fps invece che 14 fps e 35 fps invece che 17 fps
Bazzecole
bartolino3200
15-11-2005, 22:00
Mi mandi in pvt i posti furbi! :D :Perfido:
Si riferiva all' isola che non c' è, visto che la mettono a listino ma non disponibile. Poi la versione 256 Mb costa quanto dice lui ;) ...
yossarian
15-11-2005, 22:17
la 7800gtx 256 da 430/1200 a sui 500 il core e sui 1350 la ram ma si è visto anche 520/1420.
la x1800xt ho visto 725/1650.
la 7800gtx 512 600/1800 tutte ma ho visto anche 620 di core e sui 1900 la ram.
mi riferisco a oc umani niente estremismi.
;)
vero, hal, ma sai pure che
7800 GTX v-core 1,4 V
x1800xt v-core 1,1 V
7800 GTX 512 MB V-core 1,5 V
In quanto alle percentuali:
se passo da 40 a 45 ho + 12,5%
da 500 a 550 + 10%
da 1 a 2, + 100% :D
Battute a parte, vale quanto detto già in precedenza; i prodotti vanno comparati con le frequenze con cui sono proposti. Se uno è tirato quasi al limite, vuol dire che non sarà una vga da overclocker ma, visto che non tutti capiscono di overclock e overvolt, tanto vale lasciare le cose così come stanno
sdjhgafkqwihaskldds
15-11-2005, 22:22
IL RITORNO DELLO SCALDAPIZZETTE. ricorda la fx5800...
solo che questa volta le prestazioni ci sono!
sdjhgafkqwihaskldds
15-11-2005, 22:27
i posti furbi sono i negozi in germania!!! svegliaaa! gooogleeee!
boooooooooooo
in usa no?
alienzero
15-11-2005, 23:30
non mi convincono i bench di http://www.anandtech.com/video/show...?i=2607&p=4
citati pochi commenti fa...
Black & white a 1280 2x aa tutto al max su una x850 PE raggiungo i fps compresi fra 30<fps<60 in quasi ogni situazione. (con ati tool trace attivato!! se lo tengo chiuso secco che guadagno altri 4/6fps)
Questo fa dubitare la veridicita' del bench imho
saluti
Free Gordon
15-11-2005, 23:57
ah bhe se lo dici te buona camicia a tutti!!!
http://www.anandtech.com/video/showdoc.aspx?i=2607&p=4
Giusto 30 fps invece che 14 fps e 35 fps invece che 17 fps
Bazzecole
In questi bench la 1800XT va meno della 850xt pe... :mbe:
MiKeLezZ
16-11-2005, 00:10
In questi bench la 1800XT va meno della 850xt pe... :mbe:
solo a basse risoluzioni.. poi si riprende
ci sarà una spiegazione logica che non implica necessariamente favoritismi
preferisco prove sul campo, che timedemo
MiKeLezZ
16-11-2005, 00:11
non mi convincono i bench di http://www.anandtech.com/video/show...?i=2607&p=4
citati pochi commenti fa...
Black & white a 1280 2x aa tutto al max su una x850 PE raggiungo i fps compresi fra 30<fps<60 in quasi ogni situazione. (con ati tool trace attivato!! se lo tengo chiuso secco che guadagno altri 4/6fps)
Questo fa dubitare la veridicita' del bench imho
saluti
perchè non provi a fare test alle stesse condizioni?
1600x1200 con 4x aa
lì c'è scritto che viaggeresti sui 25
mi sembra ragionevole pensare che a 1280x1024 con 2x aa tu raggiunga 40+fps
Scusate ma cacchio cioè ..
- Una scheda NUOVA DI PACCA
- ... da 650 euro
- ... montata su un PC della madonna come quello dei test
minkia ma non puo farmi solo
- in Chronicles Of Riddick - 60 FPS senza filtri, 30 FPS coi filtri
- in Fear 50 - 60 FPS coi filtri e ombre soft
cacchio!!! ma cosa è? il motore di questi giochi che fa cacare, o la shceda?? cioè rega, con questi dati alla mano, il prossimo gioco o MOD gratuito per qualsiasi dei titoloni oggi in giro, su questa shceda faranno fatica a girare ai massimi livelli!!
Secondo me non è possibile cacchio !!
Cioè se compro una skeda da 600 euro, (montata su un PC che ne vale almeno 1000) sono disposto ad accettare che faccia fatica a fare andare giochi che usciranno tra qualche mese!! ma qua fa fatica a fare girare i giochi attuali!!!! già usciti!! non è possibile!!!
riccofricco
16-11-2005, 01:10
Speriamo che tirino fuori alla svelta mobo con due linee pci express a 16x (ora dovrebbero cominciare a servire) :)
P.S perchè ho dei problemi mastodontici con la asus a8n-sli deluxe?
Ovvio fino ad un certo punto, sicuramente nvidia ha saputo tirare fuori molto dal progetto G70. Ma non tutti i G70 raggiungono quelle frequenze, anche salendo con la tensione di alimentazione. Nvidia stessa ha dichiarato che per far girare il G70 a 550 Mhz e più, sono stati richiesti "affinamenti al processo produttivo" (leggi almeno un nuovo stepping, oltre alle modifiche del PCB, ecc.). Ossia, Nvidia poteva tirare ancora il G70, per tirarlo a questi livelli l'ha dovuto aiutare un pò ;). Insomma, IMHO quando ha tirato fuori la GTX 256 Mbyte probabilmente non si pensava a 550+ MHz, ma a qualcosa di più conservativo (es. 500 MHz).
Certo che era ovvio che nvidia aumentasse le frequenze per contrastare R520, ma dire che questo è il "vero" G70, è un pò forzare i termini. E' una versione di G70, ma la versione extra-lusso, non la scheda di fascia alta da proporre in centinaia di migliaia (e più) di esemplari, con altissime rese produttive.
Quindi, nessuno dei due è il "vero" G70 a seconda di come lo si consideri. La versione 256 Mbyte è il vero G70 se parliamo di prodotto standard, ad alte rese produttive e a (relativamente) larga diffusione. La versione G70 è il vero G70 se parliamo di potenzialità del progetto dal punto di vista delle massime prestazioni raggiungibili con il processo a 110 nm.
Dicamo che la GTX 512 sta alla GTX 256 come R480 sta a R420.
Sono d'accordo con tutto, tanto che volevo dirlo io che probabilmente sarebbe dovuto essere a 500Mhz, tranne che con un punto, l'ultimo. L'R580 se la dovra' vedere con il G70 a 90nm.
Poi non abbiamo considerato che nVidia ha avuto molti mesi per mettere da parte le VPU meglio riuscite. Per fare un G70 che arriva in overclock a 530Mhz massimo (senza modificare bios o v-core) non servivano di certo i migliori sample!! :)
:eek:
minkia! m'immagino la felicità dei pistoni a quella velocità! :D
Senza scomodare motori a due tempi o da competizione, possiamo prendere l'Honda S2000 il cui 2000cc sfodera 241Cv a 8300rpm con limitatore oltre i 9000, valori che, rimappata la centralina, arrivano attorno ai 14000rpm. :D Se vuoi sentire un pistone dire messa in modo poco consono ascolta quel motore!! :D
Ma forse siamo OT!! :D
:asd:
pure io ho visto il 4400+ di mo3bius stabile ad aria a 2800 e passa....
ma non vuol dire certo ke tutti i proci siano :ciapet: km il suo!
in genere si sono visti 50 mhz di incremento per la gtx 512 e 100 mhz x la x 1800 xt....
quindi rispettivamente 9% e 16% ... mi pare ke un pò di differenza ci sia ;)
Normalemnte arrivano a 610 dunque 11% e non 9% a me sembra che entrambe le schede abbiano margini di overclock medi con una differenza del 5%, personalmente ho fatto salire schede quasi del 30% ad aria, questo la chiamo tolleranza.
Comunque parliamo di una tecnologia con nanometria differente. Il fatto che nVidia sia riuscita ancora a controlare la situazione con 110nm e' quantomeno sorprendente. Sinceramente, come ho deto poco fa, mi sarei aspettato un 500Mhz.
i posti furbi sono i negozi in germania!!! svegliaaa! gooogleeee!
Allora prendi in germania pure la GTX512, poi se ti si rompe ti diverti e resti senza per 2 mesi se ti dice bene. Poi aggiungi le spese di spedizione (anche nel caso si rompesse). In italia costano la stessa cifra (le versioni da 512Mb) e prestazionalmente non c'e' paragone.
La X1800XT paragonata alla vecchia GTX mi convinceva "abbastanza", un parimerito variabile con qualita' a favore di ATI, ma ora fa veramente una magra figura.
1) Speriamo che tirino fuori alla svelta mobo con due linee pci express a 16x (ora dovrebbero cominciare a servire) :)
2) P.S perchè ho dei problemi mastodontici con la asus a8n-sli deluxe?
1) Non servono ancora a nulla, yoss confermi?? :)
2) Preche non c'e' scritto MSI o DFI!! :D :p
Battute a parte, vale quanto detto già in precedenza; i prodotti vanno comparati con le frequenze con cui sono proposti. Se uno è tirato quasi al limite, vuol dire che non sarà una vga da overclocker ma, visto che non tutti capiscono di overclock e overvolt, tanto vale lasciare le cose così come stanno
Consideriamo anche che fare overclock con una scheda da 650€ non e' propriamente una cosa furbissima!! :)
In pochi saranno cosi' fessi da tenerla overcloccata per avere pochi fps in piu' al rischio di fonderla e non vedersela cambiata in garanzia.
Sì, esatto... se è inutile lo score del 3DMark05 per capire la validità di una scheda si può dire lo stesso di tutte le FPS demo dei vari FPS... è l'insieme che conta alla fine oltre ai test specifici per fill rate, ecc. e il 3DMark05 fa parte di questo insieme e imho lo fa anche in una posizione di rilievo :D.
La differenza e' che le time demo restituiscono un frame rate minimo, medio e massimo, mentre, mentre il 3Dm restituisce un punteggio privo di alcun significato e riscontro pratico. ;)
Diciamo che la mette GIA' pure in vendita! :sofico:
DOVE! INDOVINA!? :D
http://www.hwupgrade.it/forum/showthread.php?t=1063194&highlight=x1800xt
Ce l'ha fatta finalmente!! io toglierei il "già" e metterei "finalmente" ;). Comunque come da mia ed altrui previsione e' allo stesso prezzo della 7800 512.
Come è "inutile" il 3DMARK, io non capisco come possano esser "utili" i timedemo.
Credete quelli non siano ottimizzati?
Per questo una partitina usando FRAPS non è così una scemata come si pensa.
Non hai tutti i torti, ma un time demo puo' essere ottimizzato quanto il gioco stesso, poi se considerassimo tutti questi fattori avremmo bisogno di comparare i risultati delle time demo e di FRAPS. :) Dura la vita di un redattore!! :p
ThePunisher
16-11-2005, 07:34
La differenza e' che le time demo restituiscono un frame rate minimo, medio e massimo, mentre, mentre il 3Dm restituisce un punteggio privo di alcun significato e riscontro pratico. ;)
Gran parte dei timedemo restituiscono invece solo il framerate medio e quello te lo dà anche il 3DMark05...
In ogni caso anche con medio, max e minimo si perdono molte informazioni, quello più sensato è quello di FEAR in questo senso (che ti dà la % per INTERVALLI DI VALORI di FPS).
ghiandolo
16-11-2005, 08:17
OK MA ORA PARLIAMO DI COSE SERIE... ADESSO VISTO I TEMPI LA SI PUO' FINALMENTE DEFINIRE PAPER LANUCH? X1800XT PL.
CHE TRISTEZZA... ANCORA OGGI NIENTE, NEMMENO NEI LISTINI DEI FORNITORI NAZIONALI. CI CREDO CHE NVIDIA (GIUSTAMENTE) FA IL BELLO E CATTTIVO TEMPO. QUELLI HANNO PENSATO SOLO ALL'XBOX360 CHE ESCE TRA MENO DI 7 GIORNI.
E DIRE CHE NVIDIA FA SOLO SK VIDEO, CHIPSET (PAUROSI), E LA GPU DELLA PS3......
halduemilauno
16-11-2005, 09:25
:asd:
pure io ho visto il 4400+ di mo3bius stabile ad aria a 2800 e passa....
ma non vuol dire certo ke tutti i proci siano :ciapet: km il suo! :D
in genere si sono visti 50 mhz di incremento per la gtx 512 e 100 mhz x la x 1800 xt....
quindi rispettivamente 9% e 16% ... mi pare ke un pò di differenza ci sia ;)
per carità. infatti io ho descritto tutto lo scenario umano che mi è capitato di vedere.
;)
leoneazzurro
16-11-2005, 09:31
vero, hal, ma sai pure che
7800 GTX v-core 1,4 V
x1800xt v-core 1,1 V
7800 GTX 512 MB V-core 1,5 V
Scusa Yoss, ma non era X1800Xt Vcore=1.3 V?
halduemilauno
16-11-2005, 09:32
vero, hal, ma sai pure che
7800 GTX v-core 1,4 V
x1800xt v-core 1,1 V
7800 GTX 512 MB V-core 1,5 V
In quanto alle percentuali:
se passo da 40 a 45 ho + 12,5%
da 500 a 550 + 10%
da 1 a 2, + 100% :D
Battute a parte, vale quanto detto già in precedenza; i prodotti vanno comparati con le frequenze con cui sono proposti. Se uno è tirato quasi al limite, vuol dire che non sarà una vga da overclocker ma, visto che non tutti capiscono di overclock e overvolt, tanto vale lasciare le cose così come stanno
certo. infatti non a caso ho usato l'espressione "ma ho visto anche" cosi come completezza di info.
tutto qui.
;)
^TiGeRShArK^
16-11-2005, 09:39
Senza scomodare motori a due tempi o da competizione, possiamo prendere l'Honda S2000 il cui 2000cc sfodera 241Cv a 8300rpm con limitatore oltre i 9000, valori che, rimappata la centralina, arrivano attorno ai 14000rpm. :D Se vuoi sentire un pistone dire messa in modo poco consono ascolta quel motore!! :D
Ma forse siamo OT!! :D
ma tu avevi scritto OTTANTAMILA :D
;)
Normalemnte arrivano a 610 dunque 11% e non 9% a me sembra che entrambe le schede abbiano margini di overclock medi con una differenza del 5%, personalmente ho fatto salire schede quasi del 30% ad aria, questo la chiamo tolleranza.
Comunque parliamo di una tecnologia con nanometria differente. Il fatto che nVidia sia riuscita ancora a controlare la situazione con 110nm e' quantomeno sorprendente. Sinceramente, come ho deto poco fa, mi sarei aspettato un 500Mhz.
il discorso che facevo, secondo me privo di senso, era per controbattere chi sosteneva che la x1800 xt fosse overclokkata d fabbrica cosa assolutamente NON vera come dimostrato dai due margii di overclock delle due skede ;)
perchè non provi a fare test alle stesse condizioni?
1600x1200 con 4x aa
lì c'è scritto che viaggeresti sui 25
mi sembra ragionevole pensare che a 1280x1024 con 2x aa tu raggiunga 40+fps
Attenzione che se il livello di multisampling e' impostato dal driver, BW2 lo ignora se gli effetti di post processing sono abilitati, quindi 2X o 4X sono perfettamente equivalenti al non avere multisampling.
Per avere multisampling attivato bisogna agire dal menu interno di configurazione.
Sono curioso... Come fate a disattivare una feature forzata da driver???
Sono curioso... Come fate a disattivare una feature forzata da driver???
Non lo disattivo, lo ignoro completamente :)
La scena e' renderizzata in un render target secondario che e' creato multisampeld o no a seconda dell'opzione del menu di gioco.
Se il backbuffer e' forzato multisampled dal driver mi e' indifferente perche' l'ultima operazione e' solo un tone mapping fatto con due poligoni che coprono l'intero schermo, quindi non soggetti a MSAA.
Fare cosi' mi salva una copia, ma mi crea altri problemi. Non e' detto che le cose non cambino nella prossima patch.
Free Gordon
16-11-2005, 11:53
Non lo disattivo, lo ignoro completamente :)
La scena e' renderizzata in un render target secondario che e' creato multisampeld o no a seconda dell'opzione del menu di gioco.
Se il backbuffer e' forzato multisampled dal driver mi e' indifferente perche' l'ultima operazione e' solo un tone mapping fatto con due poligoni che coprono l'intero schermo, quindi non soggetti a MSAA.
Fare cosi' mi salva una copia, ma mi crea altri problemi. Non e' detto che le cose non cambino nella prossima patch.
Gran bel gioco, Fek.
Complimenti! :cool:
L'ho preso una settimana fà e me lo sto letteralmente divorando (col leoncino :D ).
alienzero
16-11-2005, 12:06
che sia piu' o meno un bel gioco e' indubbio.
non ho capito il discorso del 2xaa rispetto al 4xaa che ignorano le impostazioni del control center
a tal proposito esiste una "guida alla miglior configurazione" dei parametri del control center?
saluti
Ancora un paio di cose... :D Perchè due poligoni? E perchè se coprono l'intero schermo non si applica il MSAA?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.