PDA

View Full Version : NUOVE INDISCREZIONI R480/430 !


dwfgerw
22-10-2004, 11:37
Leggete qui :

http://www.hardware-mania.it/modules.php?name=News&file=article&sid=886

ATi7500
22-10-2004, 12:03
bello schifo
0.13, due slot di raffreddamento, stessa minestra riscaldata
boh ati mi sta deludendo parecchio


bYeZ!

Athlon 64 3000+
22-10-2004, 12:20
Ultimamente Ati ha presentato dei prodotti strani.
Io naturalmente anche se mi piace molto la V9999 GT 128 che mi piacerebbe prendere preferisco le X800 alle 6800 ma nella fascia media e bassa le 6600 e 6200 sono le migliori.
Se adesso presentano queste schede sono proprio dei pagliacci.:muro:

dwfgerw
22-10-2004, 12:38
io personalmente ritengo la 6800GT la migliore scheda degli ultimi 12 mesi, sia per prestazioni che per contenuto tecnologico.

BTinside
22-10-2004, 13:02
L'architettura NV40 è più pregiata/complessa/efficiente di quella R420.

Innanzitutto è stata fatta EX-novo e non come Ati che ha riscaldato la minestra come dice qualcun'altro in questo thread.

E' più complessa per gli shader 3.0 l'ultrashadow 2 e altre chicche

Per quanto riguarda l'efficienza è pur vero che un X800XT PE rende meglio di un 6800Ultra, ma in che condizoni?

Cioè il 6800Ultra più o meno riesce a tenere il passo di X800XT PE con 120Mhz di core in meno, 100Mhz di ram in meno, 100 milioni di poligoni al sec in meno è una banda passante leggermente inferiore (35,2 contro 35,8),
Ciò significa, secondo me , che se nvidia proponesse un modello di 6800ultra di pari frequenze di un X800Xt PE, la 6800 sarebbe in vantaggio sulla x800. Questo ovviamente in teoria, ma sembra abbastanza ovvio però no? E' come overclocckare tantissimo un 6800ultra e certo che la superi una X800. Correggetemi se sbaglio

Se poi aggiungete che in Call Of Duty e Doom3 una 6800GT riesce a superare un X800XT PE allora è fatta! La precedente 5950 Ultra FX non riesce a superare un 9800XT ne in Doom3 ne in Call Of duty. Solo in Quake 3.

Qundi Nvidia h adavvero creato un architettura nuova con la serie 6800 e fa bene chi lo dice a dire che il 6800GT è la miglior scheda col rapporto prezzo/prestazioni in assoluto. La X800pro non è in grado di impensierirla. Inoltre a 448€ c'è la Gainward che presta come una Ultra , meglio di così;)

Praticamente io sono passato da sotenitore di Ati e possessore di Ati a Nvidia

checo
22-10-2004, 13:28
Originariamente inviato da BTinside
non come Ati che ha riscaldato la minestra

si, ma se la minestra è ottima, è buona pire riscaldata, se riscaldi l'acqua (nv30) non sarà mai minestra quindi nvidia ha dovuto fare tutto ex novo per forza

Athlon 64 3000+
22-10-2004, 13:39
Sull'NV40 potete dite quello che volete ma io non guardo solo il contenuto tecnologico ma anche altri aspetti che per altro in passato ho gia detto e quindi continuo a preferire le X800.
Se avete letto il mio post predecente capirete che non sono a favore di Ati o Nvidia.

DjLode
22-10-2004, 13:39
Francamente mi chiedo cosa vi aspettavate da un refresh. Non è una gpu nuova. Si vocifera addirittura che NV45 non sia altro che un NV40 pci-ex nativo. Entrambe le gpu sono ottime (r420 e nv40) non vedo perchè spendere inutilmente soldi in ricerca ora. Con R520 pronto e Nv50 sicuramente sulla buona strada.

DjLode
22-10-2004, 13:42
Originariamente inviato da BTinside
fa bene chi lo dice a dire che il 6800GT è la miglior scheda col rapporto prezzo/prestazioni in assoluto. La X800pro non è in grado di impensierirla. Inoltre a 448€ c'è la Gainward che presta come una Ultra , meglio di così;)


Francamente a dire che una scheda da un milione di lire circa possieda il migliore rapporto prezzo prestazioni ce ne vuole...
Le 6600GT e X700XT cosa sono allora? Quelle con il migliora rapporto prestazioni/superficie? :)

DjLode
22-10-2004, 13:43
Dimenticavo, se mi date tempo preparo una paio di slides ufficiali Ati con la roadmap fino al 2026 :asd:
Veramente qualcuno crede a quella roba?

Athlon 64 3000+
22-10-2004, 13:44
Se vogliamo dire la vera scheda con il miglior prezzo/prestazioni e la 6600GT dato che si trova a poco più di 200 euro ed ha ottime prestazioni e non la 6800GT che costà più del doppio.

Athlon 64 3000+
22-10-2004, 13:47
Originariamente inviato da DjLode
Dimenticavo, se mi date tempo preparo una paio di slides ufficiali Ati con la roadmap fino al 2026 :asd:
Veramente qualcuno crede a quella roba?

Infatti prensandoci bene potrebbe essere un fake.Comunque se le presentassero Ati farebbe una enorme cavolata in quanto mettono fuori dei prodotti solo rimarchiati e aumenterebbero ulteriormente la confusione sul mercato delle schede grafiche.

DjLode
22-10-2004, 13:51
E' la normale evoluzione del mercato, migliorano i processi produttivi e le maschere di produzione e si possono permettere gpu con frequenze superiori di fabbrica. Le schede rimpiazzerebbero le attuali e nessun casino si creeberre (credi che Nvidia non abbia un NV45?). Solo che la slide fa veramente pietà :) Anche la 9800 non era altro che una 9700 con frequenze superiori, eppure nessuno si è lamentato, allo stesso prezzo di una 9700 Pro prendevi una 9800 Pro. Sarà la stessa cosa, al posto di una X800 prenderai una X900... Non ci vedo niente di strano.

zerothehero
22-10-2004, 14:37
Originariamente inviato da BTinside

Ciò significa, secondo me , che se nvidia proponesse un modello di 6800ultra di pari frequenze di un X800Xt PE, la 6800 sarebbe in vantaggio sulla x800. Questo ovviamente in teoria, ma sembra abbastanza ovvio però no? E' come overclocckare tantissimo un 6800ultra e certo che la superi una X800. Correggetemi se sbaglio

Praticamente io sono passato da sotenitore di Ati e possessore di Ati a Nvidia


si ma che vuol dire...mica si valuta un progetto a parità di mhz...:rolleyes: ati ad esempio sta usando il low-k per salire di più rispetto alla controparte invidia...nvidia tra l'altro è stata costretta a cambiare per via dell'architettura fallimentare della generazione precedente, cosa ovviamente che non è successo ad ati..

l'unico errore di ati è stato non aver presentato una 16 pipeline a 450 euro..

BTinside
22-10-2004, 16:34
Non è una gpu nuova. Si vocifera addirittura che NV45 non sia altro che un NV40 pci-ex nativo

Come no?:) Anche le recensioni di Hwupgrade e Tom's Hardware lo dicono. Queste cose le ho apprese da lì io.

"Le 6800 di ogni fascia riescono ad essere migliori e più efficienti delle loro controparti FX della stessa fascia.">anche queste sono parole di uno dei due siti

Magari si NV45 sarà un NV40 , ma da NV3x a Nv4x la differenza c'è, secondo me e nn solo.
----------------------------------------------------------------------------------

Francamente a dire che una scheda da un milione di lire circa possieda il migliore rapporto prezzo prestazioni ce ne vuole...

Scusate ho dimenticato ua frase importante : La 6800GT ha il miglior rapporto/ prezzo prestazioni in assoluto nella sua categoria , quindi X800pro etc..
E poi un milione di lire circa è quella portata ad ultra. Una 6800GT se sai dove comprarla ti costa 350/370€;)
----------------------------------------------------------------------------------

Se vogliamo dire la vera scheda con il miglior prezzo/prestazioni e la 6600GT dato che si trova a poco più di 200 euro ed ha ottime prestazioni e non la 6800GT che costà più del doppio.

Stesso discorso di prima, ho dimenticato ad aggiungere "nella sua categoria "

------------------------------------------------------------------------------------

si ma che vuol dire...mica si valuta un progetto a parità di mhz... ati ad esempio sta usando il low-k per salire di più rispetto alla controparte invidia...nvidia tra l'altro è stata costretta a cambiare per via dell'architettura fallimentare della generazione precedente, cosa ovviamente che non è successo ad ati..

Si lo so, hai perfettamente ragione, ciò che conta di più non sono i mhz ma l'architettura, però forse non mi hai capito bene in quanto,
proprio perchè parlavo dell'efficienza superiore (una mia idea e un idea della recensione di Hwupgrade o Tom's Hardware, non ricordo) dell'architettura NV40 se si alzassero le frequenze a pari livelli di una X800XT PE riusciremmo sicuramente a superarla>>
In parole povere:
ipotizzando una situazione pari frequenza per core e ram ci sarebbe efficienza superiore dell'architettua NV40
In quanto 6800Ultra regge il paragone di X800XT con frequenze,banda,poligoni inferiori.

vi posto dei link:
nel primo c'è scritto che NV40 è un progetto totalmente nuovo, così per farvi vedere che non è solo una mia idea

http://www.hwupgrade.it/articoli/1004/index.html


In quest'altro c'è una sorta di apllicazione della mia teoria riguardante la miglior efficineza di NV40 a parità di frequenze.
Praticamente hanno testato la Gainward CoolFX Ultra/2600 che può essere portata alle frequenze di 470/1252
E bene a queste frequenze la scheda riesce a superare la X800XT PE in un test dove la 6800ultra normale non ce la fa.
Pensate sun po' se le frequenze salissero fin quelle di una X800XT PE 520/1200. Capito cosa voglio dire?

Fate un salto quì per vedere: http://www.tomshw.it/graphic.php?guide=20040721&page=coolfx_ultra-08



Questo spezzone di Tom's Hardware parla sempre della maggior innovazione di NV40 rispetto R420
Il problema è che i pochi sforzi fatti per la progettazione portano ad alcuni svantaggi. A livello tecnologico, ora l'architettura 3D di ATi è indietro rispetto a quella di NVIDIA, che può vantare a piena ragione di avere il chip più innovativo e con più caratteristiche. Sebbene le schede X800 possono elaborare codice shader più lungo e complesso rispetto alla R9800XT, sono ancora limitate a una precisione in virgola mobile a 24 bit e allo ShaderModel 2.0

Quì c'è un documento che critica pesantemente(forse hanno esagerato) l'architettura R420 come obsoleta:
http://www.elitebastards.com/page.php?pageid=4929&head=1&comments=1



Anche se poi si sà che Ati ha i motori shader più efficienti, un AA di qualità leggermente superiore e una maggiore resistenza al calo dei frame attivando i filtri.



[Attenzione ragazzi io con tutti questi link di dimostrazione non voglio imporre niente a nessuno, sono solo mie idee nate sulla base di documenti e recensioni sparse per internet. Potrebbero non essere l'assoluta realtà dei fatti ma il forum è fatto per conforntarsi. Quindi concludo ritenendomi felice che questo argomento abbia suscitato più riscontri, dal confronto nasce anche l'esperienza.

superCippo
22-10-2004, 17:52
Originariamente inviato da BTinside
L'architettura NV40 è più pregiata/complessa/efficiente di quella R420.

Innanzitutto è stata fatta EX-novo e non come Ati che ha riscaldato la minestra come dice qualcun'altro in questo thread.

E' più complessa per gli shader 3.0 l'ultrashadow 2 e altre chicche

Per quanto riguarda l'efficienza è pur vero che un X800XT PE rende meglio di un 6800Ultra, ma in che condizoni?

Cioè il 6800Ultra più o meno riesce a tenere il passo di X800XT PE con 120Mhz di core in meno, 100Mhz di ram in meno, 100 milioni di poligoni al sec in meno è una banda passante leggermente inferiore (35,2 contro 35,8),
Ciò significa, secondo me , che se nvidia proponesse un modello di 6800ultra di pari frequenze di un X800Xt PE, la 6800 sarebbe in vantaggio sulla x800. Questo ovviamente in teoria, ma sembra abbastanza ovvio però no? E' come overclocckare tantissimo un 6800ultra e certo che la superi una X800. Correggetemi se sbaglio

Se poi aggiungete che in Call Of Duty e Doom3 una 6800GT riesce a superare un X800XT PE allora è fatta! La precedente 5950 Ultra FX non riesce a superare un 9800XT ne in Doom3 ne in Call Of duty. Solo in Quake 3.

Qundi Nvidia h adavvero creato un architettura nuova con la serie 6800 e fa bene chi lo dice a dire che il 6800GT è la miglior scheda col rapporto prezzo/prestazioni in assoluto. La X800pro non è in grado di impensierirla. Inoltre a 448€ c'è la Gainward che presta come una Ultra , meglio di così;)

Praticamente io sono passato da sotenitore di Ati e possessore di Ati a Nvidia

per quanto riguarda le frequenze hai detto una castroneria..... nn puoi paragonare 2 chip differente dicendo ke uno pur avendo meno mhz sta dietro a quella d piu mhz... è un ragionamento sbagliato xke, appunto sono 2 tecnologie diverse.
per secondo, hai fatto dei paragoni assurdi dicendo ke, la 6800gt supera la x800xtPE in doom3... oramai penso ke anke la mia sedia sa ke le nvidia nel campo ogl sono piu veloci d ati... se provi a far partire un farcry o un tocaricedriver2 la storia cambia...
Invece il discorso ke la 6800gt sia la migliore skeda prezzo\prestazioni del momento t do ragione, difatti l'ho consgiliata al mio amico....Ma nn puoi paragonarla con la x800xt è su un altro livello ;)

BTinside
22-10-2004, 18:29
per quanto riguarda le frequenze hai detto una castroneria..... nn puoi paragonare 2 chip differente dicendo ke uno pur avendo meno mhz sta dietro a quella d piu mhz... è un ragionamento sbagliato xke, appunto sono 2 tecnologie diverse

naaaaaaaaaaaaaaaaaa !!Perchè non riesco a spiegarmi??!:cry: :muro:

Appunto perchè sono due chip differenti uno, pur avendo meno mhz ,sta dietro all'altro!!!

Non credi che se fossero stati due chip uguali(X800XT contro X800XT) quello con frequenze più basse avrebbe reso di meno?

Ed invece essendo due chip differenti, ma avendo un divario di mhz notevole per il core, quasi si equivalgono.

Se fossero stati un X800XT da 400/1100 e un X800XT 520/1200 allora è ovvio che quella con frequenze più alte risulti abbastanza più performante, perchè sono due chip uguali

Ma invece sono 6800Ultra 400/1100 e X800XT PE 520/1200 e pur avendo un divario di mhz quasi si equivalgono perchè sono due chip differenti

E lamia teoria, probabilmente del tutto infondata, ma pur sempre ricavata da quella di Tom's hardware, era quella che proprio perchè sono 2 chip differenti il 6800ultra tiene testa al''X800XT avendo frequenze inferiori, proprio perchè è un architettura diversa , e per questo sembra più efficiente.

più di così non so come farmi capire


Capisci ora cosa voglio dire??
speriamo bene

superCippo
22-10-2004, 19:35
capisco perfettamente quello ke vuoi dire....... un po come gli athlon e i p4... sono 2 tecnologie differenti.. nn si puo dire "se un athlon arrivasse a 4 ghz sarebbe il pc piu performante al mondo".. ogni casa a una sua tecnologia e i mhz vengono sfruttati diversamente...
solo ke tra amd e i p4 cè un abisso, mentre tra una x800xt pe e una 6800ultra no :sofico:
e giusto per fare un po d flame, (skerzo!!!) una x800xt PE superpompata supera due 6800u in slimode :cool:

DarKilleR
22-10-2004, 20:32
E' più complessa per gli shader 3.0 l'ultrashadow 2 e altre chicche

Gli SM 3.0 sono una buffonata che ci fanno bere, sono i SM 2.0 b infatti offrono le stesse "opzioni" grafiche, ma solo con un 7% teorico di velocità di elaborazione degli algoritmi in +.

il DC3 dove lo mettete??? quello mi sembra rivoluzionario, compressione 4:1 delle normalmap senza calo di prestazioni e qualità.

X i 2 chip, è lo stesso discorso AMD , Intel, mandate una A64 a 3.6 Ghz e vedete cosa vi combina....

Cmq da ricordare che nonostante la X800 XT e X800 Pro hanno frequenze maggiori, consumano e scaldano meno delle rispettive concorrenti.

Stilizzando l'attuale situazione top level abbiamo:
Che la X800 XT > 6800 Ultra
e la 6800 GT >= X800 Pro

e che una X800 XT pompata è migliore di 2 6800 Ultra in SLI

L'unico sbaglio di ATI è stato quello di non esibile una X800 Pro a 16 Pipe. e tirare fuori una X300 che costa + di 20€ :mad:
----------------------------------------------------------------------------------

Cmq se ATI presenta questi chipset, l'R480 ok è un affinamento della XT e fa ben 13500 punti al 3dmark 03 @ default

...ma l'utilità dell'R430 quale è???? una scheda che ha le prestazioni di una X800 Pro ma con 16 pipe???

ed in oltre la R480 e R430 sono entrambe in versione XT e Pro???

BTinside
22-10-2004, 22:06
Ah alla fine vedo ke mi avete ben compreso, e avete capito che anche io evidenziavo l'efficienza di 2 architetture diverse :Perfido:
Bello l'esempio AMD-Intel, è azzeccato. Secondo quel ke volevo dire io allora si vede che l'architettura AMD è più efficiente, perchè nei puri calcoli velocistici i mhz netti e puri dei Pentium 4 si fanno notare, ma nei giochi gli Amd risultano più efficienti.


Gli SM 3.0 sono una buffonata che ci fanno bere, sono i SM 2.0 b infatti offrono le stesse "opzioni" grafiche, ma solo con un 7% teorico di velocità di elaborazione degli algoritmi in +.

Mi hai fatto pentire di aver preso la 6800ultra:doh:

Cioè sei sicuro di quel ke dici?! Guarda che la demo Nalu utilizza una caratteristica degli shader 3.0
Dove l'hai appresa questa cosa? è appurata?

Come si può truffare in questo modo, scrivendo full Directx9c
compatible??? quando invece non lo è?

Ma tu guarda un po', cioè se nn era per gli shder 3.0 mi prendevo la X800XT! solo solo che sacrifica un solo molex e bastano 350w di ali

Per quanto riguarda l'errore di Ati con la X800pro io l'ho sempre sostenuto, ha sabgliato mettendo le 12 pipeline, a quest'ora avrebbe venduto molte più schede.
Che la X800XT PE è superiore (ma non in tutto) alla 6800ultra si sapeva

Cosa intendi per X800XT pompata????E' vero che l'incremento di prestazioni delle 6800 in SLI è di circa il 40% ma Non penso che la x800 possa essere spinta tanto da superare due 6800ultra SLI

non è cmq DC3 è 3Dc

superCippo
22-10-2004, 23:17
Originariamente inviato da BTinside
Ah alla fine vedo ke mi avete ben compreso, e avete capito che anche io evidenziavo l'efficienza di 2 architetture diverse :Perfido:
Bello l'esempio AMD-Intel, è azzeccato. Secondo quel ke volevo dire io allora si vede che l'architettura AMD è più efficiente, perchè nei puri calcoli velocistici i mhz netti e puri dei Pentium 4 si fanno notare, ma nei giochi gli Amd risultano più efficienti.




Mi hai fatto pentire di aver preso la 6800ultra:doh:

Cioè sei sicuro di quel ke dici?! Guarda che la demo Nalu utilizza una caratteristica degli shader 3.0
Dove l'hai appresa questa cosa? è appurata?

Come si può truffare in questo modo, scrivendo full Directx9c
compatible??? quando invece non lo è?

Ma tu guarda un po', cioè se nn era per gli shder 3.0 mi prendevo la X800XT! solo solo che sacrifica un solo molex e bastano 350w di ali

Per quanto riguarda l'errore di Ati con la X800pro io l'ho sempre sostenuto, ha sabgliato mettendo le 12 pipeline, a quest'ora avrebbe venduto molte più schede.
Che la X800XT PE è superiore (ma non in tutto) alla 6800ultra si sapeva

Cosa intendi per X800XT pompata????E' vero che l'incremento di prestazioni delle 6800 in SLI è di circa il 40% ma Non penso che la x800 possa essere spinta tanto da superare due 6800ultra SLI

non è cmq DC3 è 3Dc

pentire di aver preso una skeda come la 6800u ma stai skerzando???
l'unica cosa ke mi fa sorridere di questa cosa è ke.... (ritorno al tuo discorso d nvidia con i gioki ogl) se continuiamo cosi tra qualke hanno ci ritroveremo una skeda per il d3d e una per le ogl... siamo veramente al colmo :(
cmq l unica cosa di cui t puoi pentire è solo la "vagonata" di soldi spesi... ma a me piace vederlo come un investimento a lungo termine :cool:

BTinside
23-10-2004, 00:06
ne ho spesi 448€ eh eh

superCippo
23-10-2004, 00:16
io d piu, ma nn ci voglio pensare xke mi viene male.. per un cavolo d rettangolo rosso con una ventola e un dissi in rame...
xo viaggia :sofico:

BTinside
23-10-2004, 00:23
Dai che però in doom3 te le dò:read: :fuck:

Maiorana
23-10-2004, 01:36
Originariamente inviato da BTinside
L'architettura NV40 è più pregiata/complessa/efficiente di quella R420.

Innanzitutto è stata fatta EX-novo e non come Ati che ha riscaldato la minestra come dice qualcun'altro in questo thread.

E' più complessa per gli shader 3.0 l'ultrashadow 2 e altre chicche

Per quanto riguarda l'efficienza è pur vero che un X800XT PE rende meglio di un 6800Ultra, ma in che condizoni?

Cioè il 6800Ultra più o meno riesce a tenere il passo di X800XT PE con 120Mhz di core in meno, 100Mhz di ram in meno, 100 milioni di poligoni al sec in meno è una banda passante leggermente inferiore (35,2 contro 35,8),
Ciò significa, secondo me , che se nvidia proponesse un modello di 6800ultra di pari frequenze di un X800Xt PE, la 6800 sarebbe in vantaggio sulla x800. Questo ovviamente in teoria, ma sembra abbastanza ovvio però no? E' come overclocckare tantissimo un 6800ultra e certo che la superi una X800. Correggetemi se sbaglio
Come potrà Nvidia eguagliare le frequenze di Ati visto il processo produttivo e il numero di transistor in più?A mio avviso il paragone non ha fondamenta

Maiorana
23-10-2004, 01:48
Originariamente inviato da BTinside
L'architettura NV40 è più pregiata/complessa/efficiente di quella R420.

Innanzitutto è stata fatta EX-novo e non come Ati che ha riscaldato la minestra come dice qualcun'altro in questo thread.

E' più complessa per gli shader 3.0 l'ultrashadow 2 e altre chicche

Per quanto riguarda l'efficienza è pur vero che un X800XT PE rende meglio di un 6800Ultra, ma in che condizoni?


L'architettura dell Nvidia è sicuramente più complessa dell'Ati,ma non sono d'accordo sul fatto che la nv 40 sia più efficiente dell' R 420!
Si da il caso che attivando i filtri di Ati(X 800 xt P.E.),quest'ultima surclassa l'Nvidia (6800 ultra).
Gli shader 3.0?
Ma a che servono ora?
Un investimento fututro?
Non credo vista l 'uscita di tale versione shader in epoca tarda,praticamente quando saranno disponibile schede video sicuramente più performanti dell'attuale Ultra!!
Ati - minestra?
Ma fatemi la cortesia.... grazie....

[/QUOTE]
:D

Athlon 64 3000+
23-10-2004, 09:55
Originariamente inviato da Maiorana
L'architettura dell Nvidia è sicuramente più complessa dell'Ati,ma non sono d'accordo sul fatto che la nv 40 sia più efficiente dell' R 420!
Si da il caso che attivando i filtri di Ati(X 800 xt P.E.),quest'ultima surclassa l'Nvidia (6800 ultra).
Gli shader 3.0?
Ma a che servono ora?
Un investimento fututro?
Non credo vista l 'uscita di tale versione shader in epoca tarda,praticamente quando saranno disponibile schede video sicuramente più performanti dell'attuale Ultra!!
Ati - minestra?
Ma fatemi la cortesia.... grazie....


:D [/QUOTE]

Ti quoto IO!:D

BTinside
23-10-2004, 10:05
Come potrà Nvidia eguagliare le frequenze di Ati visto il processo produttivo e il numero di transistor in più?A mio avviso il paragone non ha fondamenta



Mamma mia, mi convine scappare dal forum:D :ops:



Ma è ovvio che con il normale processo produttivo 0.13 micron nvidia non può eguagliare le frequenze di X800 che usa un low-k 0.13 micron ed ha meno transistor.

io parlavo dell'arhitettura dal punto di vista della gestione di shader poligoni etc. tralasciando l'alimentazione e il numero di tansistor capite?



Ma poi vi dico che non è che mi sono svegliato una bella mattina e l'ho deciso io, l'ha detto un recensore di Tom's Hardware o della stessa Hardware Upgrade in un bench di schede le cui protagoniste erano appunto 6800ultra e X800XT.
Quindi in primis prendetevela con lui o lei che sia.

Fai finta che anche 6800 sia low-k e aumenti le frequenze, come il discorso AMD-Intel.

Ma poi vi dico che io stesso mi sn un po' petito di averla comprata.

Se avessi preso la X800XT avrei avuto:

-più potenza in D3d (campo chemi interessa di più)

-meno calore

-un molex libero

-meno rumore (perchè ho preso una gainward)

-avrei attivato i filtri con più serenità

E' vero che oggi gli shader 3.0 non vengono supportati (a parte Far Cry ) ma neanche il 3Dc mi pare che sia così utilizzato no??

Io sono sempre stato un sostenitore Ati da tempo, perchè nvidia è stata truffaldina e ci ha impaccato la serie FX con gli shader con sola funzione simbolica, ma adesso mi pare che anche Ati se la stia prendendo comoda, con tutte le questioni sul filtro trilineare ottimizzato e tante altre cosette e accuse che gli sono state mosse.
Per cui una volta tanto che Nvidia fa un progetto buono e si sta dimostrando più onesta di Ati in certi frangenti vorrei evitare di buttarla a terra come tutti abbiam fatto fino a quest'inverno per la serie FX.

romansnake
23-10-2004, 10:08
Originariamente inviato da BTinside
Ciò significa, secondo me , che se nvidia proponesse un modello di 6800ultra di pari frequenze di un X800Xt PE, la 6800 sarebbe in vantaggio sulla x800.

Se anche AMD proponesse un modello di A64 di pari frequenza di un P4 3.8... :O :p

Maiorana
23-10-2004, 10:33
Originariamente inviato da BTinside
Mamma mia, mi convine scappare dal forum:D :ops:



Ma è ovvio che con il normale processo produttivo 0.13 micron nvidia non può eguagliare le frequenze di X800 che usa un low-k 0.13 micron ed ha meno transistor.

io parlavo dell'arhitettura dal punto di vista della gestione di shader poligoni etc. tralasciando l'alimentazione e il numero di tansistor capite?



Ma poi vi dico che non è che mi sono svegliato una bella mattina e l'ho deciso io, l'ha detto un recensore di Tom's Hardware o della stessa Hardware Upgrade in un bench di schede le cui protagoniste erano appunto 6800ultra e X800XT.
Quindi in primis prendetevela con lui o lei che sia.

Fai finta che anche 6800 sia low-k e aumenti le frequenze, come il discorso AMD-Intel.

Ma poi vi dico che io stesso mi sn un po' petito di averla comprata.

Se avessi preso la X800XT avrei avuto:

-più potenza in D3d (campo chemi interessa di più)

-meno calore

-un molex libero

-meno rumore (perchè ho preso una gainward)

-avrei attivato i filtri con più serenità

E' vero che oggi gli shader 3.0 non vengono supportati (a parte Far Cry ) ma neanche il 3Dc mi pare che sia così utilizzato no??

Io sono sempre stato un sostenitore Ati da tempo, perchè nvidia è stata truffaldina e ci ha impaccato la serie FX con gli shader con sola funzione simbolica, ma adesso mi pare che anche Ati se la stia prendendo comoda, con tutte le questioni sul filtro trilineare ottimizzato e tante altre cosette e accuse che gli sono state mosse.
Per cui una volta tanto che Nvidia fa un progetto buono e si sta dimostrando più onesta di Ati in certi frangenti vorrei evitare di buttarla a terra come tutti abbiam fatto fino a quest'inverno per la serie FX.
A mio avviso,sia la x 800 xt P.E. che la 6800 ultra sono due schede video eccellenti nel senso che il punto di forza di una rappresenta il punto debole dell'altra e viceversa,quindi si eguagliano.
Gli shader 3.0 saranno operativi fra qualche anno,non sono presenti in Farcry.La maggior parte delle recensioni relative alle schede video di alta fascia sostengono che tali schede hanno risorse future,quando poi nella fattispecie concreta dopo un anno dall'acquisto della Top delle Top,serve praticamente poco
coi i giochi di ultima generazione.
Ascolta,il tuo acquisto della 6800 ultra è stato degno di ogni cosa,quindi non pentirtene!;)

superCippo
23-10-2004, 11:45
Originariamente inviato da BTinside
Dai che però in doom3 te le dò:read: :fuck:
io xo posso giocare a tocaricedriver2 a 1600x1200 con aniso16x a 60fps a te è gia tanto se t arriva a 30 :fuck: :sofico:

BTinside
23-10-2004, 13:15
Gli shader 3.0 saranno operativi fra qualche anno,non sono presenti in Farcry

C'è la patsch ufficiale che la Crytek ha rilasciato per sfruttare gli shader 3.0
Ho visto su un sito che la differenza qualitativà c'è, ma come dice qualcun'altro quì potrebbero essere shader 2.0b






io xo posso giocare a tocaricedriver2 a 1600x1200 con aniso16x a 60fps a te è gia tanto se t arriva a 30

In effetti, non hai tutti i torti, ma tu pensi ke io non legga i bench eh???!:Perfido: lo so che sei andato a prendere l'unico bench dove attualmente la X800XT ha un netto vantaggio, cioè il bench dove ha + vantaggio in assoluto , bastardone che sei!!;)

Mi sa che anche in Half-Life 2 godrai di questi vantaggi;)

Proviamo invece con Call Of Duty:fuck: , anche una "misera" 6800GT ti surclassa,:friend:
quindi si vede che un po' di efficienza c'è in NV40,
perchè ai tempi delle GeForceFX in Call Of Duty erano ancora le 9800pro e XT ad averela piena supremazia, adesso le cose cambiano:asd:


Vabè dai diciamolo, un X800XT ha tutta la pura potenza velocistica che gli serve per superare un 6800ultra anche in Doom3 o Call Of Duty, infatti il trucco sta nei driver Nvidia OpenGl,
Su questo frangente la Ati ha ancora da imparare, ma credo che non si ci dedichi molto perchè l'opengl nei giochi ormai non interessa quasi nessuno.

DjLode
23-10-2004, 14:45
Originariamente inviato da BTinside
C'è la patsch ufficiale che la Crytek ha rilasciato per sfruttare gli shader 3.0
Ho visto su un sito che la differenza qualitativà c'è, ma come dice qualcun'altro quì potrebbero essere shader 2.0b


A dire il vero Crytek è stata presa con le mani nella marmellata, e ha praticamente usato Shader lunghi invece che Shader 3.0. In pratica attivando sulle Ati l'estensione allo shader model 2.0b si ottengono gli stessi risultati qualitativi e di prestazioni che si ottengono attivando sulle Nvidia lo SM3.
In pratica non hanno inserito un bel nulla :)

Vabè dai diciamolo, un X800XT ha tutta la pura potenza velocistica che gli serve per superare un 6800ultra anche in Doom3 o Call Of Duty, infatti il trucco sta nei driver Nvidia OpenGl,
Su questo frangente la Ati ha ancora da imparare, ma credo che non si ci dedichi molto perchè l'opengl nei giochi ormai non interessa quasi nessuno.

Interessa interessa :)
E' da un pò che Ati si sta sforzando sotto quel punto di vista, si vocifera di una riscrittura della parte OGL, solo che è una cosa che non richiede 2 giorni.
Anche se dubito che possa recuperare tutto il divario in poco tempo, Nvidia è da tanto che affina i driver sotto il reparto OGl e anche in mesi Ati non credo possa arrivare a risultati confrontabili.

DarKilleR
23-10-2004, 14:54
C'è la patsch ufficiale che la Crytek ha rilasciato per sfruttare gli shader 3.0


é una ladrata bella e buona...Far Cry è il primo gioco che supporta i 64bit....

Il fatto del supporto ai pixel shader 3.0...è stata una grossa cavolata, in quanto con questa patch venivano abilitati i PS 2.0b solo per le Nvidia...e non per ATI (par conditio no????) con un certo incremento di prestazioni...

Il problema è venuto quando qualche programmatore è riuscito ad abilitare la stessa patch anche per ATI, e le X800 acquistavano lo stesso vantaggio che aveva preso Nvidia....

Cmq non ti devi pentire di avere una 6800 Ultra...cazzo la vorrei io...fai a cambio????
ho una X800 Pro e cmq faccio 12743 punti al 3dmark 2003 (in OC), la cosa bella è che occupa un solo slot e ha solo un molez.

---> Per il fatto di cosa sono gli SM 3.0 l'avevo letto su un link di un sito inglese....c'era una discussione propio su questo forum o quello di TGM non ricordo...

in oltre dicevano che x molti programmatori fare programmi che sfruttassero i PS 3.0 era un po' + complicato (il motivo non lo so), e richiedeva più tempo...ma non ne capisco il motivi.

P.S. qualcuno fa il 3dmark 2005 con una 6800 U con i PS 3.0 e i PS 2.0b??? e vediamo i risultati????


Cosa intendi per X800XT pompata????E' vero che l'incremento di prestazioni delle 6800 in SLI è di circa il 40% ma Non penso che la x800 possa essere spinta tanto da superare due 6800ultra SLI

Il record del 3dmark 2005 è di una X800 XT overcloccata e fa quasi 8000 punti (7986 se non erro) .... , 2 6800 U in SLI fanno 8150 punti, la differenza non è che sia esagerata...

DjLode
23-10-2004, 15:03
Originariamente inviato da DarKilleR
P.S. qualcuno fa il 3dmark 2005 con una 6800 U con i PS 3.0 e i PS 2.0b??? e vediamo i risultati????


Sono identici. E' presumibile che la Ultra quando è richiesto lo shader model 2.0b "scali" al 3.0 anche perchè il primo non dovrebbe essere supportato (anche se si tratta di un subset del 3 o di qualcosa di inferiore).
Adesso come adesso le differenze sono minime, basti pensare che a quanto ne so lo shader più complesso (o dovrei meglio dire lungo) in giro (intendo in giochi o bench) è quello della parete riocciosa del 3d mark 05 che è esattamente 96 istruzioni, il massimo eseguibile con lo SM2 puro. Direi che c'è ancora margine :)

BTinside
23-10-2004, 15:07
Anche se dubito che possa recuperare tutto il divario in poco tempo, Nvidia è da tanto che affina i driver sotto il reparto OGl e anche in mesi Ati non credo possa arrivare a risultati confrontabili.

Beh comq i risultati oggi di Ati in Ogl non sono poi così deludenti, di passi avanti ne ha fatti.
Se poi andiamo a guardare sul frangente FireGl e Quadro praticamente queste due soluzioni, nelle loro versioni più spinte, si equivalgono, se poi ci aggiungete che le firegl costano la metà della metà di una quadro top della gamma allora veramente siamo avanti. (questa cosa che ho detto ora suscita un flame per gli appassionati di quadro).



8000punti sono niente male rispetto agli 8150 delle SLI, ma dì un po' con che processore sono stati fatti questi bench???? Io penso che se per adesso siamo più o meno in CPU limited con una sola scheda, figurati con due 6800ultra SLI,
quindi credo che col passare del tempo il vantaggio di ben 2 6800ultra si farà quantomeno più marcato!

BTinside
23-10-2004, 15:17
Cioè praticamente sti Shader 3.0 nons ervono a un caz**
Tempo fa mi litigavo con un mio amico fanatico Nvidia che difendeva la sua posizione per gli shader 3.0, e io gli ho sempre spiegato che quando gli shader 3.0 saranno uno standard la 6800ultra reggerà al massimo 30fps in un gioco , e neanche.
Ma lui non ci credeva, secondo me andrà a finire cosi!

E lui mi ha sempre ribadito che l'Unreal Engine 3 con SM 3 al momento della presentazione girava su 6800Ultra,
allora gli ho spiegato che anche alla presentazione di doom3 questo girava su 5800ultra fluidissimo!!!
Ma quando poi andrai ad applicare il motore fisico e l'intelligenza artificiale a un motore come l'Unreal Engine 3.0 mi sà che le richieste hardware salgano di un bel pò,
ditemi se ho torto.

E poi anche se ho sempre ribadito, e lo ribadisco, che NV40 sia EX novo è più complesso e difficile da programmare di R420, ma alla fine alla ati fanno le cose più azzeccate.
Ciò che non mi piace di un X800 è la precisione ancora a 24bit, è assurdo, fino a R350 lo accettavo, considerano che i GeforceFX erano 32bit ma renderizzavano a 16(vedi i quadrettoni di far cry quando ti appiccihi a un muro ma). Per questo ritengo il chip NV40 dotato di caratteristiche più nuove, diciamo la verità alla Nvidia si sono sforzati molto di più che alla Ati,
L'R420 si potrebbe definire anche un R350 ultra pompato ma con shader più lunghi, 3Dc e temporal AA, fine!

DjLode
23-10-2004, 15:20
Originariamente inviato da BTinside
Beh comq i risultati oggi di Ati in Ogl non sono poi così deludenti, di passi avanti ne ha fatti.


Il fatto è che su questo forum se una scheda fa 0.2 fps in meno di un'altra, la prima fa schifo, la seconda è la migliore. Quindi distanze di 10 fps amplificano la cosa da prestazioni scadenti a prestazioni ridicole e via dicendo.
Francamente a me basta che un gioco sia giocabile come lo gioco io al massimo (o quasi) delle opzioni grafiche. Se poi una scheda (che io non ho e quindi non mi frega) fa 5 fps in più... pazienza, meglio per chi la possiede.
Detto questo, le prestazioni in OGL delle Ati non sono deludenti, ma inferiori a quelle Nvidia (anche se i primi test con Doom 3 davano la 9800 Pro più veloce dell'avversaria Nvidia anche di poco). Prestazioni deludenti per me sono quelle che non ti permettono di giocare ad un qualcosa.

DjLode
23-10-2004, 15:30
Originariamente inviato da BTinside
Cioè praticamente sti Shader 3.0 nons ervono a un caz**
Tempo fa mi litigavo con un mio amico fanatico Nvidia che difendeva la sua posizione per gli shader 3.0, e io gli ho sempre spiegato che quando gli shader 3.0 saranno uno standard la 6800ultra reggerà al massimo 30fps in un gioco , e neanche.
Ma lui non ci credeva, secondo me andrà a finire cosi!


Aspetta, non esagerare. Al giorno d'oggi sono poco utili perchè nessun gioco o motore grafico dell'imminente futuro li utilizza come base nativa e quindi anche lo SM2.0b è sufficiente.
Però sono molto utili per i programmatori, prima di arrivare allo SM4 (con le prossime DX che si chiameranno in un altro modo che non ricordo lo si vedrà) lo SM3 diventerà lo standard e quindi chi vorrà far uscire un gioco che lo supporti dovrà programmarlo su una 6800 o sulla futura R520 (che si vociferà avrà lo SM3).


E lui mi ha sempre ribadito che l'Unreal Engine 3 con SM 3 al momento della presentazione girava su 6800Ultra,
allora gli ho spiegato che anche alla presentazione di doom3 questo girava su 5800ultra fluidissimo!!!
Ma quando poi andrai ad applicare il motore fisico e l'intelligenza artificiale a un motore come l'Unreal Engine 3.0 mi sà che le richieste hardware salgano di un bel pò,
ditemi se ho torto.


Girava su una Ultra a 20fps se non ricordo male, ma era appunto una presentazione. Come hai detto tu mettici fisica e tutto il resto e sicuramente il gioco avrà dei problemi a girare su sistemi attuali. Cmq a detta dei programmatori del motore di U3 anche le R420 si comportano bene, generando ben pochi artefatti grafici dovuti alla precisione di calcolo inferiore (32bit per le Nvidia e 24bit per le Ati).


E poi anche se ho sempre ribadito, e lo ribadisco, che NV40 sia EX novo è più complesso e difficile da programmare di R420, ma alla fine alla ati fanno le cose più azzeccate.


Su certi giudizi non mi soffermo. Sicuramente R420 per i programmatori è un'architettura più "amichevole" non è che è più facile da programmare. Come R3x0 digerisce molto bene il codice scritto in HLSL delle DX. Cosa che ora fa molto bene anche NV40 senza dove ottimizzare di molto il codice come si doveva fare con NV3x.


Ciò che non mi piace di un X800 è la precisione ancora a 24bit, è assurdo, fino a R350 lo accettavo,


Ora come ora è inutile come lo SM3. Non esistono sul mercato shader tali da dover eccedere i 16 bit, figurati i 24bit (che sono sufficienti). Con R520 e lo SM3 vedremo i 32bit anche su Ati.


considerano che i GeforceFX erano 32bit ma renderizzavano a 16(vedi i quadrettoni di far cry quando ti appiccihi a un muro ma).


Era un problema dello shader non delle schede Nvidia. Anche a 16bit non si generano artefatti perchè sono sufficienti per farci stare i dati dei calcoli. Non confondere la profondità di colore con la precisione dei calcoli. Le FX scalavano (anzi erano i programmatori che lo facevano) a 16bit perchè i 32bit erano troppo pesanti per essere gestiti da tali GPU. NV40 soffre molto meno di questo problema :)


Per questo ritengo il chip NV40 dotato di caratteristiche più nuove, diciamo la verità alla Nvidia si sono sforzati molto di più che alla Ati,
L'R420 si potrebbe definire anche un R350 ultra pompato ma con shader più lunghi, 3Dc e temporal AA, fine!

Nvidia aveva un'architettura non all'altezza da cui partire, l'ha dovuto "reinventare" (allineandosi con le scelte progettuali dell'avversaria a dire il vero). Ati da parte sua ha un'architettura "perfetta" (passami il termine) e anche R520 sarà un progetto derivato da questa architettura (architettura e gpu sono due cose diverse, occhio). Quindi anche R520 sarà un R300 con 32bit, SM3 e tante altre cose. Quindi non sarà un R300 :)

BTinside
23-10-2004, 15:36
Si ma tu devi ben capire che 10fps sono ASSAI!
finchè le schede sono nuove e ti segnao 100fps una e 90l'altra la cosa è irrilevante!
ma quando poi queste due schede saranno al limite e una ti fa 20fps mentre l'altra te ne fa 30, e quì c'è une bella differenza,
perchè 20fps è ingiocabile , 30 è giocabile!!

In realta anche da 25 a 30fps le cose migliorano quindi non sottovalutare quelle manciatie di frame in meno perchè un giorno saranno importanti.

Per quanto riguarda le 9800pro uguali alle 5900 in Doom3, ti ricordo che la serie FX era quel ke era, doom3 usa anche gli shader quindi......

Anche una 9800XT supera una 5950 in Doom3, adesso che però NV40 è un buon progetto, il divario c'è e come

DjLode
23-10-2004, 15:42
Originariamente inviato da BTinside
Si ma tu devi ben capire che 10fps sono ASSAI!
finchè le schede sono nuove e ti segnao 100fps una e 90l'altra la cosa è irrilevante!
ma quando poi queste due schede saranno al limite e una ti fa 20fps mentre l'altra te ne fa 30, e quì c'è une bella differenza,
perchè 20fps è ingiocabile , 30 è giocabile!!


Già ma tra 90 e 100 sono c'è un 11 percento di differenza. Tra 20 e 30 c'è il 50 percento in più di differenza :)
Lo stesso rapporto si ottiene con 20 fps e 22.2 fps. Il che direi che non è tanto più giocabile no? :)
Quindi 10 fps su un totale di 80 sono un'inezia.

BTinside
23-10-2004, 15:45
Era un problema dello shader non delle schede Nvidia. Anche a 16bit non si generano artefatti perchè sono sufficienti per farci stare i dati dei calcoli. Non confondere la profondità di colore con la precisione dei calcoli. Le FX scalavano (anzi erano i programmatori che lo facevano) a 16bit perchè i 32bit erano troppo pesanti per essere gestiti da tali GPU. NV40 soffre molto meno di questo problema

No no , l'ho proprio letto qui su Hwupgrade, è vero si ke si scala a 16bit per avere le prestazioni, ma scalava anche la qualità.
Le GeForce FX a differenza degli R350 non riuscivano a trovare un settaggio intermedio tra 16 e 32bit, quindi si sono scelti i 16bit di precisione, ciò ha causato la perdita di qualità che penso anche tu hai potuto notare in una rece in questo sito.
Senza dubbio più azzeccata la scelta intermedia di Ati dei 24 bit, giusto compromesso fra prestazioni e qualità visiva.
Quindi non è prorpio vero quel ke dici tu che i 16bit sono più che sufficienti, altrimenti proprio gli ingegneri Ati , che sono famosi per dotare le schede dello stretto indispensabile accettabile, anche loro avrebbero optato per una soluzione 16bit

BTinside
23-10-2004, 15:46
ià ma tra 90 e 100 sono c'è un 11 percento di differenza. Tra 20 e 30 c'è il 50 percento in più di differenza
Cioè il rapporto scende così tanto all'aumentare della complessità???
In effetti è giusto il calcolo che fai, io associavo il vanatggio di 10fps in tutte le condizioni di gioco senza calcolare l'assotigliamento che si genera nel tempo.
Hai ragione!


ora vado, vi rispondo al + presto, buon sabato a tutto il forum;)

DjLode
23-10-2004, 15:49
Originariamente inviato da BTinside
Cioè il rapporto scende così tanto all'aumentare della complessità???

Scusa, forse non mi sono spiegato. Tu hai detto che 10fps tra 90 e 100 non sono tanti, ma sono tanti tra 20 e 30. Ma tra 90 e 100 la differenza dei 10fps è data da un 11% di prestazioni in pi. Tra 20 e 30 la differenza è del 50% e non certo dell'11%. Ovvio che tra 20 e 30 la cosa cambia ben di più che tra 90 e 100, ma è anche vero che le differenze in OGL tra le schede sono sempre di una decina di fps su un ottantina disponibili e non su 30.

BTinside
23-10-2004, 15:51
Scusa, forse non mi sono spiegato. Tu hai detto che 10fps tra 90 e 100 non sono tanti, ma sono tanti tra 20 e 30. Ma tra 90 e 100 la differenza dei 10fps è data da un 11% di prestazioni in pi. Tra 20 e 30 la differenza è del 50% e non certo

lo so hai ragione, mi sono corretto nel post precedente, leggi leggi:D

DjLode
23-10-2004, 15:51
Originariamente inviato da BTinside
No no , l'ho proprio letto qui su Hwupgrade, è vero si ke si scala a 16bit per avere le prestazioni, ma scalava anche la qualità.
Le GeForce FX a differenza degli R350 non riuscivano a trovare un settaggio intermedio tra 16 e 32bit, quindi si sono scelti i 16bit di precisione, ciò ha causato la perdita di qualità che penso anche tu hai potuto notare in una rece in questo sito.


Ti assicuro che ti sbagli :)
Cercati la recensione o il thread e vedrai che non c'è scritto quello che dici tu :)


Senza dubbio più azzeccata la scelta intermedia di Ati dei 24 bit, giusto compromesso fra prestazioni e qualità visiva.


Punti di vista :)


Quindi non è prorpio vero quel ke dici tu che i 16bit sono più che sufficienti, altrimenti proprio gli ingegneri Ati , che sono famosi per dotare le schede dello stretto indispensabile accettabile, anche loro avrebbero optato per una soluzione 16bit

Fidati :)
O se non ti fidi di me, leggiti i post di fek in giro per il forum, è un attimino più preparato di me :)

superCippo
23-10-2004, 17:34
Originariamente inviato da BTinside
C'è la patsch ufficiale che la Crytek ha rilasciato per sfruttare gli shader 3.0
Ho visto su un sito che la differenza qualitativà c'è, ma come dice qualcun'altro quì potrebbero essere shader 2.0b








In effetti, non hai tutti i torti, ma tu pensi ke io non legga i bench eh???!:Perfido: lo so che sei andato a prendere l'unico bench dove attualmente la X800XT ha un netto vantaggio, cioè il bench dove ha + vantaggio in assoluto , bastardone che sei!!;)

Mi sa che anche in Half-Life 2 godrai di questi vantaggi;)

Proviamo invece con Call Of Duty:fuck: , anche una "misera" 6800GT ti surclassa,:friend:
quindi si vede che un po' di efficienza c'è in NV40,
perchè ai tempi delle GeForceFX in Call Of Duty erano ancora le 9800pro e XT ad averela piena supremazia, adesso le cose cambiano:asd:


Vabè dai diciamolo, un X800XT ha tutta la pura potenza velocistica che gli serve per superare un 6800ultra anche in Doom3 o Call Of Duty, infatti il trucco sta nei driver Nvidia OpenGl,
Su questo frangente la Ati ha ancora da imparare, ma credo che non si ci dedichi molto perchè l'opengl nei giochi ormai non interessa quasi nessuno.
con l unica differenza ke a COD la 6800gt fara' nn so 150fps e la xt ne fa 90 ma resta pue sempre piu ke giocabile metre a 30 fps no :fuck:

Maury
23-10-2004, 20:10
Originariamente inviato da Maiorana
A mio avviso,sia la x 800 xt P.E. che la 6800 ultra sono due schede video eccellenti nel senso che il punto di forza di una rappresenta il punto debole dell'altra e viceversa,quindi si eguagliano.


Punti deboli ? Queste due schede sono dei mostri, non hanno punti deboli :)

BTinside
24-10-2004, 01:34
Ti assicuro che ti sbagli


leggiti il docoumento e vedi che la differenza fra i 16 e 32 bit c'è

sei pregato di guardare quà e vedrai che non faccio confusione con la profndità di colore:
guardate tutti, in fondo alla pagina, la differenza fra i 16bit di NV38 e i 24bit di Ati, se ne accorge anche un bambino di 3 anni.
Capisco che sei un appassionato nvidia ma non dire che non esiste differenza qualitativa fra 16 e 24bit o fra 16 e 32

http://www.hwupgrade.it/articoli/1013/15.html

fd-82
24-10-2004, 03:24
Originariamente inviato da BTinside
leggiti il docoumento e vedi che la differenza fra i 16 e 32 bit c'è

sei pregato di guardare quà e vedrai che non faccio confusione con la profndità di colore:
guardate tutti, in fondo alla pagina, la differenza fra i 16bit di NV38 e i 24bit di Ati, se ne accorge anche un bambino di 3 anni.
Capisco che sei un appassionato nvidia ma non dire che non esiste differenza qualitativa fra 16 e 24bit o fra 16 e 32

http://www.hwupgrade.it/articoli/1013/15.html

Nel caso in cui uno shader non dovesse prevedere calcoli troppo complessi la società americana ritiene che la precisione FP16 sia più che sufficiente. In caso contrario è possibile usare 32 bit per canale per un totale di ben 128 bit.

http://www.hwupgrade.it/articoli/1013/15.html
;)

BTinside
24-10-2004, 15:23
Nel caso in cui uno shader non dovesse prevedere calcoli troppo complessi la società americana ritiene che la precisione FP16 sia più che sufficiente. In caso contrario è possibile usare 32 bit per canale per un totale di ben 128 bit.
--------------------------------------------------------------------------------



http://www.hwupgrade.it/articoli/1013/15.html


Ognuno ha esigenze diverse, ci sono molti di noi che ascolatano ciò ke la Nvidia dice e si rassicurano che i 16bit bastino,

poi c'è chi è esigente e pretende , anche se non si appiccica a un muro per guardarla, la precisione a 32 o 24 bit,

e poi c'è ki come me, la prende come una questione di principio,
Ati fa le cose per bene!

Athlon 64 3000+
24-10-2004, 15:36
Fek ha detto che comunque quando non si devono scrivere shader troppo complessi la precisione FP16 è sufficiente.

checo
24-10-2004, 17:11
Originariamente inviato da BTinside
altrimenti proprio gli ingegneri Ati , che sono famosi per dotare le schede dello stretto indispensabile accettabile

non è vero basta che guardi le features del primo radeon

Dark Schneider
24-10-2004, 18:45
Originariamente inviato da BTinside
leggiti il docoumento e vedi che la differenza fra i 16 e 32 bit c'è

sei pregato di guardare quà e vedrai che non faccio confusione con la profndità di colore:
guardate tutti, in fondo alla pagina, la differenza fra i 16bit di NV38 e i 24bit di Ati, se ne accorge anche un bambino di 3 anni.
Capisco che sei un appassionato nvidia ma non dire che non esiste differenza qualitativa fra 16 e 24bit o fra 16 e 32

http://www.hwupgrade.it/articoli/1013/15.html


BTinside stai facendo un po' di confusione. Quel problemino visivo di FC sulle 6800 i primi tempi erano dati dal fatto che addirittura veniva scalato pare ad FX12 come precisione.
Attualmente ed ancora per un bel po' di tempo in avanti non ci saranno differenze qualitative tra FP16-FP24-FP32. ;)
Tra l'altro la scelta nVidia sull'FP16-FP32 rende tutto più flessibile. E' molto più semplice scalare da FP32 a FP16 senza perdere qualità guadagnando anche prestazioni, che riscrivere di nuovo uno shader(Ati).
Sicuramente Ati per il suo R520 adotterà questo approccio vista la presenza degli Shader 3.0! ;)

BTinside
24-10-2004, 21:39
e allora meglio così;) , far cry è un caso a parte.
Cioè quindi se le Geffo usano sempre 16 bit per i giochi a favore delle prestazioni e un motivo in più per lodare Ati quando fa frame superiori a Nvidia con tutti i 24bit attivati

Sai se in Doom3 vanno a 16 o 32bit?

Free81
24-10-2004, 23:06
Originariamente inviato da Maury
Punti deboli ? Queste due schede sono dei mostri, non hanno punti deboli :)
Punti deboli non nei giochi ma tra le due schede in questione
Si dail caso che una è più performante dell'altra in certi giochi e l'altra scheda in altri;)

Maury
25-10-2004, 08:39
Originariamente inviato da Free81
Punti deboli non nei giochi ma tra le due schede in questione
Si dail caso che una è più performante dell'altra in certi giochi e l'altra scheda in altri;)

Seguono diverse scelte, una va meglio in un campo l'altra nell'opposto, è il termine "punti deboli" che sta stretto a schede con 16 pipeline ... :)

Chiamiamole se vuoi "caratterizzazioni" :)

Dark Schneider
25-10-2004, 10:39
Originariamente inviato da BTinside
e allora meglio così;) , far cry è un caso a parte.
Cioè quindi se le Geffo usano sempre 16 bit per i giochi a favore delle prestazioni e un motivo in più per lodare Ati quando fa frame superiori a Nvidia con tutti i 24bit attivati

Sai se in Doom3 vanno a 16 o 32bit?


La scelta di nVidia è migliore e più flessibile. Cmq come ti hanno detto sopra a seconda dei casi viene applicata una certa precisione. La scelta nVidia è più azzeccata di certo, perchè è inutile utilizzare precisioni superiori quando è sufficente una inferiore per ottenere lo stesso risultato qualitativo. Utilizzare una precisione superiore in questi casi è solo uno spreco. E' meglio ottenere i migliori risultati con meno risorse no?

Il caso di Far Cry come ho detto non centra con l'FP16, lì pare che il problema era che scalava a FX12. Problemino tra l'altro risolto.

Non è che c'è da lodare Ati perchè in determinati giochi va meglio di nVidia usando l'FP24. Semplicemente ci son determinati giochi che meglio si adattano con l'architettura Ati(come ce ne sono per nVidia) e grazie anche a quei + 120 Mhz di Core la scheda Ati la spunta.
Poi invece ci son altri giochi dove accade il contrario nonostante quei + 120 Mhz di Core di Ati(che significa cmq anche un fillrate superiore).

In ogni caso stiam parlando di due mostri. :)

Dark Schneider
25-10-2004, 10:40
Originariamente inviato da Maury
Seguono diverse scelte, una va meglio in un campo l'altra nell'opposto, è il termine "punti deboli" che sta stretto a schede con 16 pipeline ... :)

Chiamiamole se vuoi "caratterizzazioni" :)

Quoto! ;)

Free81
25-10-2004, 13:03
Originariamente inviato da Maury
Seguono diverse scelte, una va meglio in un campo l'altra nell'opposto, è il termine "punti deboli" che sta stretto a schede con 16 pipeline ... :)

Chiamiamole se vuoi "caratterizzazioni" :)
Si precisamente!;)
Certo che non esiste una scheda video migliore in assoluto....:(

Maury
25-10-2004, 14:31
Originariamente inviato da Free81
Si precisamente!;)
Certo che non esiste una scheda video migliore in assoluto....:(


Infatti :)

A certi livelli bisogna essere un pò smaliziati nel valutare l'acquisto ;)

Le schede video sono come le auto, ognuna ha un suo terreno ideale, a me ad es interessa poco o nulla dell'OpenGL (dato che detesto Doom 3) quindi mi decade il fatto che le ATI vadano meno in predetta API ... :)

BTinside
25-10-2004, 16:31
La scelta di nVidia è migliore e più flessibile. Cmq come ti hanno detto sopra a seconda dei casi viene applicata una certa precisione. La scelta nVidia è più azzeccata di certo, perchè è inutile utilizzare precisioni superiori quando è sufficente una inferiore per ottenere lo stesso risultato qualitativo. Utilizzare una precisione superiore in questi casi è solo uno spreco. E' meglio ottenere i migliori risultati con meno risorse no?

Questi tuoi son più ke altro punti di vista,
per qualcu'altro invece potrebbe essere stata più azzeccata la scelta di ati di crearesin dall'inizio un hardware in grado di non farsi intimidire dai 24bit di precisione e, in tal modo, offrire come costante (senza preoccuparsi di quando implementarne 16 o 32 come nvidia) qualitativa per tutti i giochi.
Anche perchè la differenza fra 16 e 24 e 32 potrebbe essere nulla come dici tu,
ma poi ti spuntanto quei casi a parte come far cry, in cui la differenza fra 16 e 24 se vede e come! ma fra 24 e 32 bit no! E quì potrebbe spuntarla Ati.

Resta cmq il fatto che io personalemente non mi passo ore di gioco di far cry strisciando muri muri e zoommando, ma piuttosto penso a sparare.
Quindi non è che a me cambi nulla, la prendo più ke altro come una questione di principio