PDA

View Full Version : R580: 16 pipeline, 48 pixel shader unit


Pagine : 1 [2]

yossarian
15-12-2005, 14:04
Se allunghi le "vacanze" ci vediamo a San Jose il 20 per il GDC? vado a parlare dell'acquetta, ci sara' da ridere :p


dovrei allungarle di un bel po' :D

Ok, vedo cosa si può fare :)

fek
15-12-2005, 14:07
dovrei allungarle di un bel po' :D

Ok, vedo cosa si può fare :)

Dai vediamo, ci mettiamo d'accordo in PM.

yossarian
15-12-2005, 14:16
ok ho capito yossarian... lasciamo stare questo immensa digressione

RITORNIAMO IN TOPIC:

secondo te yossarian... una distribuzione così ampia di ALU nelle pixel shader unit può portare ad un incremento considerevole globali delle prestazioni oppure migliorerà solamente l'esecuzione di ps longer?

l'esecuzione dei ps2.0 longer sono solo un indice sulle capacità di calcolo di un chip.
Per affrontare questo discorso si deve risalire a come funziona una pipeline di un chip (o meglio, a come "ragiona" :D ).
Una pipeline lavora su quad; questo significa che prende 4 pixel e li invia alle unità di calcolo interne; o meglio, prende 4 pixel per volta e li alloca all'interno della batteria di registri costanti interni alla pipeline. I registri relativi alle istruzioni e quelli relativi ai dati immagazzinati, danno il limite dei thread che ogni pipeline può gestire in totale. Il numero di registri temporanei dedicati ad ogni alu, invece, danno il limite sul numero totale di thread tra cui quella alu può switchare durante le fasi di elaborazione. Ad esempio, allo stato attuale, i chip hanno 4 set di registri a 32 bit (per un totale di 4 thread contemporaneamente gestibili; infatti, se vedi i grafici che ho postato, puoi vedere che, con più di 4 registri, tutti i chip accusano cali di rendimento).
Allo stato attuale, R520 ha un quad di alu che lavora su batch di 16 pixel (4x4, ossia un quad di pixel per ognuna delle 4 alu). Ogni quad di alu gestisce, in totale, 128 thread. Questo significa, 4 alu e 4 tmu dedicate a 128 thread complessivi. Se R580 dovesse avere un'architettura analoga a quella di RV530, allora significherebbe che le alu dedicate ad un gruppo di 128 thread sarebbero 12, mentre le tmu sempre 4. Questo significa una velocità di esecuzione di un singolo thread di molto superiore (tripla se si considerano le sole operazioni matematiche e a parità di frequenza), rispetto a R520, oppure possibilità di lavorare sul triplo dei thread (presi tra quei 128 gestiti dalla pipeline), rispetto a R520.

fek
15-12-2005, 14:20
I registri relativi alle istruzioni e quelli relativi ai dati immagazzianti, danno il limite dei thread che ogni pipeline può gestire in totale.

Infatti ho sbattuto la testa nel muro dei limiti sul numero di registri dell'R500 :)

Lui e' veloce, macina tante shader op e tanti texture fetch, ma come si usano piu' di 12 registri temporanei il numero di thread contemporanei crolla e non riesce piu' a nascondere le latenze. E inizia ad andare piano.

Al che la domanda: ci sono indiscrezioni sull'eventuale aumento di registri temporanei nell'R580 rispetto all'R520?

T3d
15-12-2005, 14:24
di conseguenza si può dire che "non è tutto oro quello che luccica" in quanto le sole 32 ALU in più non sono indice di una superiore velocità di esecuzione dei thread, in qualsiasi condizione di carico... ma dipendono appunto dalla quantità di informazioni che devono macinare i quad pixel core (vedi utilizzo dei registri temporanei)... giusto?

diabolik1981
15-12-2005, 14:26
si grassie! :D
adoro i popcorn...
nn c'è niente di meglio qdo si assiste a certi spettacoli! :D


posso unirmi anche io ai pop-corn? porto con me anche :coffee:

yossarian
15-12-2005, 14:29
Infatti ho sbattuto la testa nel muro dei limiti sul numero di registri dell'R500 :)

Lui e' veloce, macina tante shader op e tanti texture fetch, ma come si usano piu' di 12 registri temporanei il numero di thread contemporanei crolla e non riesce piu' a nascondere le latenze. E inizia ad andare piano.

Al che la domanda: ci sono indiscrezioni sull'eventuale aumento di registri temporanei nell'R580 rispetto all'R520?

puoi ritenerti soddisfatto: 12 registri temporanei è un bel numero, rispetto al limite degli attuali chip per pc (ti sei già scordato del limite dei 2 registri in fp32 con NV3x? :D ). In R500, c'è più di un motivo specifico per l'aumento del numero di registri temporanei. Uno, ad esempio, risiede nel fatto che la gestione dei thread relativi a pixel e vertici è tenuta separata, sia a livello di istruzioni che di immagazzinamento dati. Quindi ps e vs hanno, ciascuno, il loro set di registri dedicato

Per R580, che io sappia, resta il limite di 4 registri per alu. Per un aumento ci sarà da aspettare R600

yossarian
15-12-2005, 14:36
di conseguenza si può dire che "non è tutto oro quello che luccica" in quanto le sole 32 ALU in più non sono indice di una superiore velocità di esecuzione dei thread, in qualsiasi condizione di carico... ma dipendono appunto dalla quantità di informazioni che devono macinare i quad pixel core (vedi utilizzo dei registri temporanei)... giusto?

beh, diciamo che ogni alu avrà sempre il suo set di registri temporanei (quindi saranno triplicati gli attuali, visto che si triplica il numero di alu).

Piuttosto, c'è da dire che ci saranno sempre "solo" 4 tmu, a gestire le operazioni di texturing, dedicate ad ogni quad. Quindi, a dettare i tempi delle elaborazioni saranno ancora di più le operazioni di texture fetch (un accesso in cache con ricerca del dato da elaborare richiede qualche centinaio di cicli di clock). Allo stato attuale, R520 perde il confronto con G70 ogni volta che questo si sposta sulla potenza di calcolo matematica (perchè ha molte meno alu del chip NV che ricordo, ha due MAD per pipeline), tranne nei casi di utilizzo di db o di aumento della complessità dei calcoli (situazioni in cui è aiutato dal ring bus e dalla cache fully associative); con R580 questa situazione dovrebbe, come minimo, riequilibrarsi se non spostarsi a favore di ATi, nell'ipotesi che nVIDIA non aumenti il numero delle pp o delle unità di calcolo per pipeline del suo chip a 0,09

fek
15-12-2005, 14:40
In R500, c'è più di un motivo specifico per l'aumento del numero di registri temporanei. Uno, ad esempio, risiede nel fatto che la gestione dei thread relativi a pixel e vertici è tenuta separata, sia a livello di istruzioni che di immagazzinamento dati. Quindi ps e vs hanno, ciascuno, il loro set di registri dedicato

Ti farebbe piacere un API chiamata SetShaderGPRAllocation(), possiamo controllare l'allocazione dei registri per vertex e pixel shader per ogni primitiva :D

diabolik1981
15-12-2005, 14:41
domanda da profano: ma NVidia con questa sua abitudine ad aumentare il numero di Pipe, non si sta avvicinando ad un limite fisico oltre il quale non si può andare? un po come i famosi 18 nanometri per i processi proudttivi dei proci?

T3d
15-12-2005, 14:41
certo che c'è da dire una cosa:
per quanto tempo si potrà ancora aumentare le pipelines a piacimento? nel senso che aumentare il numero di transistor esponenzialmente (parlavi di 400mil di transistor per un ipotetico G71 a 32pipes :eek: ) non è di per sè una scelta che alla lunga paga. Che razza di yield rate si avrà per un chip del genere (vedi itanium2 :read: montecito)?

yossarian
15-12-2005, 14:47
Ti farebbe piacere un API chiamata SetShaderGPRAllocation(), possiamo controllare l'allocazione dei registri per vertex e pixel shader per ogni primitiva :D


se ci dovessimo vedere in USA (e comunque quando ci vedremo, perchè se non succede li si farà in modo di farlo succedere altrove), devo fare una full immersion (se dovessi riuscire a restare fino a oltre il 20, mi fai imbucare al GDC?) :D

Comunque, tornando ai 12 registri temporanei, ecco spiegato uno dei principali motivi per cui è stato così difficile sdraiare il bambino :D

yossarian
15-12-2005, 14:56
domanda da profano: ma NVidia con questa sua abitudine ad aumentare il numero di Pipe, non si sta avvicinando ad un limite fisico oltre il quale non si può andare? un po come i famosi 18 nanometri per i processi proudttivi dei proci?


non si tratta solo di intervenire sul numero di pipeline. Volendo si può anche aumentare ma si deve lavorare di più sull'efficienza.
Ad esempio, prima di aumentare il nuemro di pipeline. IMHO, nVIDIA dovrebbe lavorare sul memory controller. Nel crossbar, il mc gestisce direttamente tutte la fasi di ricezione, invio della richiesta, ricezione e invio del dato richiesto dall'unità elaborativa; questo significa 4 fasi in cui il mc non può accogliere ulteriori richieste. Inoltre, nella crossbar connection ad ognuno dei 4 canali sono collegati un gruppo di chip (ad esempio nella versione da 256 MB ce ne sono 2 per canale, in quella da 512 4. Questo significa che, aumentando il quantitivo di ram, aumenta la probabilità di richiesta di dati allocati nel gruppo di banchi facenti capo allo stesso canale del crossbar. Il che significa che aumenta la latenza delle operazioni di accesso alla vram.

Con il ring bus, al contrario, il mc gestisce solo le prime due fasi dell'operazione (ricezione della richiesta e invio della richiesta al modulo di ram corrispondente), mentre gli altri due non passano attraverso il mc ma attraverso i "cosiddetti" ring stop. Quindi, il MC può di fatto lavorare ad una frequenza teorica doppia rispetto a quello di un normale crossbar e i dati circolano lungo un anello (anzi due anelli concentrici) e non sono obbligati ad andare avanti e indietro lungo lo stesso percorso. Questo permette di lavorare senza un consistente aumento delle latenze e potendo sfruttare la meglio anche ram ad elevato bit rate.

sirus
15-12-2005, 17:25
mamma mia io volevo commentare ma dopo 27 pagine di commento ogni cosa sarebbe superflua :D quindi...
attendo solo conferme e bench per vedere se le 32 pipeline (che sembra nvidia voglia implementare) batteranno le 16 pipeline di ati :)

WarDuck
15-12-2005, 23:33
Se ATi aumentasse le pipe, ci sarebbe un reale guadagno rispetto alle 16, oppure vista la particolare architettura nn influirebbero molto?

Ad ogni modo secondo me è da apprezzare il lavoro svolto da ATi, in quanto le prestazioni che si ottengono con i filtri sono superiori a quelle di nVidia con il 7800GTX 256mb.

A proposito, punisher, l'ordine è stato questo se nn ricordo male:

7800GTX 256mb
X1800XT
7800GTX 512mb

Quindi quando è uscito l'X1800XT con i filtri aveva prestazioni superiori ed è uscito per coprire la fascia della 7800GTX 256mb...
Poi nVidia ha tirato fuori quel mostro a 512mb, e ora ATi si appresta a fare la sua mossa.
Eccoli gli scacchi :D

gianni1879
16-12-2005, 00:14
cavolo due giorni che non mi collego e avete fatto una marea di discussioni! :)

cmq molto interessante complimenti a yossarian per le sue spiegazioni, davvero una persona da lodare ;)

bs82
16-12-2005, 10:07
ma da quando? :D
e prima di iniziare una guerra considera che le mie ultime schede video sono state ati

vatti a vedere cosa succede nel secondo stage 2 di AF alle schede nvidia!!!

il 16x nvidia di nv40/g70 come qualità arriva circa alla qualità del 2x quality ati di r520... :mbe:

yossarian
16-12-2005, 12:07
Se ATi aumentasse le pipe, ci sarebbe un reale guadagno rispetto alle 16, oppure vista la particolare architettura nn influirebbero molto?



nessun guadagno; non è importante aumentare il numero delle pipeline quanto la capacità di calcolo complessiva del pixel processor; questo si può fare aumentando il numenro delle alu e ottimizzando le operazioni che comportano elevate latenze. Con G70 nVIDIA ha fatto la prima delle due operazioni, con R520 ATi ha fatto la seconda. Con R580 dovrebbe completare l'opera aumentando anche la capacità matematica aumentando il numero di unità.
Il discorso non è legato alla particolare architettura di R5x0, ma è generico e applicabile a qualunque architettura.

WarDuck
16-12-2005, 14:25
Grazie per la risposta ;)

MadRat
18-12-2005, 01:11
vatti a vedere cosa succede nel secondo stage 2 di AF alle schede nvidia!!!

il 16x nvidia di nv40/g70 come qualità arriva circa alla qualità del 2x quality ati di r520... :mbe:

Mi mostri una sostanziale differenza tra l'anisotropico 8 o 16x di ATi e di nVidia?? numeri a parte.

Se ATi aumentasse le pipe, ci sarebbe un reale guadagno rispetto alle 16, oppure vista la particolare architettura nn influirebbero molto?

Ad ogni modo secondo me è da apprezzare il lavoro svolto da ATi, in quanto le prestazioni che si ottengono con i filtri sono superiori a quelle di nVidia con il 7800GTX 256mb.

A proposito, punisher, l'ordine è stato questo se nn ricordo male:

7800GTX 256mb
X1800XT
7800GTX 512mb

Quindi quando è uscito l'X1800XT con i filtri aveva prestazioni superiori ed è uscito per coprire la fascia della 7800GTX 256mb...
Poi nVidia ha tirato fuori quel mostro a 512mb, e ora ATi si appresta a fare la sua mossa.
Eccoli gli scacchi :D

non e' vero, la 512 era pronta al lancio, si aspettava la mossa ATI. La differenza in termini di tempo tra la X1800XT e la GTX 512 e' di qualche ora.
Che la GTX sia sempre piu' lenta con i filtri e' puramente falso, sicuramente ha una media a favore, ma costa anche di piu'. Seguendo il discorso della longevita', la GTX 256 senza filtri ha ancora molto da esprimere, ed e' sicuramente piu' longeva della controparte ATI, cosi' come la GT lo e' rispetto alla XL.

Ora mi leggo 10 pagine di post e commento tutto!! :D (non ci credete?? :D)

ThePunisher
18-12-2005, 01:41
A proposito, punisher, l'ordine è stato questo se nn ricordo male:

7800GTX 256mb
X1800XT
7800GTX 512mb

Assolutamente no. In via teorica doveva essere quello. In pratica NVIDIA è riuscita a garantire la disponibilità della 512MB prima che ATI riuscisse a distribuire la X1800XT.

MiKeLezZ
18-12-2005, 02:11
vatti a vedere cosa succede nel secondo stage 2 di AF alle schede nvidia!!!

il 16x nvidia di nv40/g70 come qualità arriva circa alla qualità del 2x quality ati di r520... :mbe:
ehhhh O_O""

16x nvidia
http://www.hwupgrade.it/articoli/1311/immagini_g70/g70/anisotropico/testfilter/d3d/Q16x.jpg
16x ati
http://www.hwupgrade.it/articoli/1311/immagini_g70/x850/anisotropico/testfilter/d3d/advanced/HQ16x.jpg
2x ati
http://www.hwupgrade.it/articoli/1311/immagini_g70/x850/anisotropico/testfilter/d3d/advanced/HQ2x.jpg

che ti sei bevuto?

MadRat
18-12-2005, 02:38
ehhhh O_O""

che ti sei bevuto?

Ora sarebbe da vedere la differenza su vere schermate di gioco.

MadRat
18-12-2005, 02:42
Inizio dando un piccolo input a Yoss.. Hai parlato di Chip selezionati, hai detto esattamente “il chip e' lo stesso identico”, probabilmente “facendola breve”, Punisher non essendo tecnico in alcuna misura ti ha contestato questo (malamente, ha sbagliato a prenderti cosi', ma era anche messo sotto pressione, piu' che da te da altri due individui che sfottevano per decine e decine di post, senza portare mezzo argomento).
Sei stato un signore a comportarti come ti sei comportato, ma Punisher non aveva torto, la tua affermazione era sbagliata.
Menomale che il tutto si sia chiarito a dovere.



se è per questo pure io ke ho speso 138 euro un anno e mezzo fa me la sono ben goduta la 9700 pro... e sicuramente ho spesp MOLTO meno :Prrr:
Il vero affare lo ha fatto chi ha preso la 950 ed e' riuscito ad abilitare li piepe mancanti. Un anno e mezzo fa era il giusto prezzo, anche buono direi, ma era una rimanenza. :) (quanche folle le vende ancora in rete.. a 400€ :D)

vabbè.. ho approssimato un pò troppo col QUASI ke avevo scritto...
34,2% t va bene???
e visto che ami le percentuali la differenza di prezzo tra le due schede è esattamente il 145,6% in più di quanto ho speso io x la mia skeda video......
spettacolare come rapporto prezzo/prestazioni, no?
se poi c'è e ci sarà sempre gente che comprerà sempre cose che abbiano un rapporto prezzo/prestazioni scandaloso non ci sarà niente da fare....
basta pensare a chi comprava i willamette con RIMM

Cerchiamo ci capirci, secondo me chi compra ora una VGA TOP gamma, che sia basata su R520 (barbarica mutilazione dell'R580) o sul G70, non brilla d'intalligenza. Tra uno o due messi varranno infinitamente meno data la prossima presentazione dei veri nuovi processori ATI ed nVidia. La X1800XT ed la GTX 512 sono veramente solo il miglior modo per togliere soldi a chi non sa aspettare un po'.
Per la GTX 256, non lo so ancora, sta scendendo giorno per giorno, vedremo dove si fermera', per ora sta a 466,80€ ivata sia Asus che Leadtek, pertanto pure belle marche, credo sia abbastanza appetibile.
Chi acquista una GTX 512 a 750€ non e' piuy' furbo di chi compro' una PE di ATI.
(saro' curioso di vedere se tra un anno questo sito usera' la GTX 512 come paragone della gen precedente, dicendo che chi l'ha presa ha fatto bene!! :D :read: ). Anche se la 512 si trova meglio di qualunque PE nella storia di ATI (detto da chi ha molta voce in capitolo in quanto a vendite di componenti per PC in Italia, per quanto a qualcuno non vada proprio giu').
:rotfl:
ma ancora che fai???
quindi secondo te per le P.E. della ATI non c'era alcun pre-order...
lì la colpa era di ati ke forniva poke schede, mentre qui è dei pre-order ke sono troppi...
non potrei dire la stessa kosa io facendoti notare che i pre-order delle skede ATI erano TROPPO elevati e quindi ati nn c'entra niente... invece è nvidia ad essere indifficoltà con le forniture e i pre-order non c'entrano niente!
se ancora non l'avessi capito è ESATTAMENTE la stessa identica situazione.....
forse faresti meglio ad aprire gli okki... magari tu 6 uno di quelli ke aveva la fx 5800 ultra solo xkè era nvidia???
La PE era una VGA che costava uno sproposito, almeno chi prende una GTX 512 ha migliori ragioni, costano troppo (per ora) va bene, non e' il momento adatto, va bene ugualmente, ma butta un occhio qui
http://www.guru3d.com/article/Videocards/285/21
http://www.anandtech.com/printarticle.aspx?i=2616
http://www.anandtech.com/printarticle.aspx?i=2616
Fino al 37% di incremento rispetto alla GTX 256 per la POV, poco meno per la reference!! Risparmio il raffronto con la x1800XT perche' si tratta di Doom3 (in due casi) e perche' i risultati differiscono molto da sito a sito.
(qui darei un'occhiata alla XL che sta poco sopra alla 6800GS.. ma vediamo pure con la 7800GT.. Direi che si respiri un'altra aria da queste parti. http://www.guru3d.com/article/Videocards/285/20 )

APPUNTO NIUBBO LO DICI PURE TE!!! quindi fino adesso la quantità di memorie sammsung erano scarsissime... di conseguenza di 7800gtx 512 ce ne sono pochissime ma ci sei o ci fai?
vabbè dopo questa ti puoi pure autobannare o dicono pure le testate internazionali che sono pochissime le schede sul mercato (anche il prezzo elevato ne è una prova)
http://theinquirer.net/?article=28200
leggi va....
Anche il piu' fesso dei fessi capirebbe che se una scheda non fosse richiesta verrebbe venduta a presso scontato e solo su ordinazione (quando si tratta di simili cifre) esattamente come e' accaduto SEMPRE per le versioni PE di ATI, se costa cosi' tanto e' perche' evidentemente qualcuno reputa che valga quella cifra. Questa scheda offre prestazioni inarrivabili e VERAMENTE distanti da qualunque altra proposta del mercato, non stimao parlando del 8-10% di una PE.
Sul fatto che siamo poche penso che il tuo parare conti un po' meno di niente e l'arroganza con la quale non porti argomenti non ti rende piacevole.
Il fatto che non riescano a produrne quante ne sono richieste, potrebbe anche significare che sono molto piu' richieste di quanto ci si potesse mai immaginare (non ho dato per assodato che si acosi', bada bene, ma sembrerebbe che tu abbia un quadro perfetto della situazione, netre non sai assolutamente nulla), ma questo non ti riesce ad entrare in testa, nemmeno quando qualcuno che conta e' venuto qui a dire "non ne ho ordinate abbastanza, ma c'erano". Ora il discorso e' cambiato, ma non sai nulla nemmeno di questo, hai solo parlato di “aria” Se poi sei a conoscenza dei volumi di produzioni nVidia, mi appecorono a sua signoria. :D Sta di fatto che fino ad oggi hai solo parlato di “nulla”.

stiamo parlando del mercato MONDIALE ovviamente...
e secondo te le cifre delle vendite delle P.E. quant'erano????
+ o - le stesse..
quindi non vedo perchè dire che nvidia non ha alcun problema di fornitura mentre ati si....
la situazione è IDENTICA fattene una ragione....
Altra pillola di fantacommercio. Le PE non venivano vendute SOLAMENTE con un sovrapprezzo notevole applicato. Cerca di chiederti quale sia la ragione che consenta ai commercianti di farlo. Dai che non e' difficile.
dai ragazzo mio, fatti un giro negli shop italiani... di schede non se ne trovano... e di forniture non ne arrivano tutti i giorni :rolleyes: (se hai mai lavorato in un negozio di hardware lo dovresti sapere) o la compri a 800€ oppure devi aspettare... chissà per quanto :rolleyes: (i quattro giorni si attesa non sono realistici mi dispiace... infatti c'è molta gente qui dentro che ha disdetto per prendersi una x1800xt :rolleyes: )
i fatti sono questi... fattene una ragione
Chi spende quella cifra puo' essere giustificato molto piu' di chi spese centinaia di euro in piu' per una versione PE dal 10% di prestazioni in piu' . Almeno la GTX512 offre prestazioni imparagonabili con nessuna altra VGA in commercio Come si e' detto che chi ha comprato una PE ha fatto bene (ancora sto ridendo :D), si puo' dire che chi prende la nuova GTX sia mooolto piu' motivato.
Fermo resta il mio parare riguardo l'acquisto di tale gamma di VGA in questo momento.

ah ecco..
quelle di yossarian ke km tutti ben sanno NON CAPISCE UNA MAZZA DI SKEDE VIDEO (:D) sono banalità indimostrate.. i tuoi invece sono verbi divini...
non sapevo ke certi fan-boy fossero anke affetti da delirio da onnipotenza! :rotfl:
Tutti lo stimiamo come tecnico io per primo, ma non mi pare questo sia il suo campo (a meno che non mi manchi qualche nozione). Ben venga il suo parare, ma pesa come quello di chiunque altri qui dentro. Stiamo parlando di vendite e forniture, non di architetture e transistor.

la produzione in massa non vuol dire che prima non erano disponibili. Altrimenti cosa avrebbe impiegato nVIDIA? Esemplari di pre-produzione? I campioni che si utilizzano di solito per testare eventuali difetti del prodotto?

Insomma, NV30 tarda ad arrivare e la colpa è di TSMC, la GTX 512 MB non si trova e la colpa è di samsung................. :sofico:

Semplice, la prima copertura, il famoso lancio mondiale e' stato fatto con le ram ed i chip disponibili.
Mi sembra anche ovvio che nVidia non produca un eccesso di questi processori in quanto, come hai detto tu (ed io) passra' presto a 90nm, entro breve. Questo non toglie che con un po' di giorni arriveranno probabilmente diverse GTX512 ed il prezzo (si spera) si abbassera'). Fermo restando che i numeri nella categoria TOP seguitera' a farli con la GT e la GTX256, anche se qualcuno si e' bevuto la minchiata del manager ATI secondo la quale la GTX512 avrebbe distrutto al 256 (una ora si trova a 780€, l'altra a 468 in discesa!! ed a questa cifra si vende da sola).

NV30 tarda ad arrivare perche' e' un prodotto del c** :o (e non
credo che qui nessuno lo neghi).. non lo si puo' dire del G70.

L'unica cosa concreta è il prezzo che continua a salire ogni giorno (in USA ce n'è un modello, ovviamente non disponibile ma solo in listino, che ha superato gli 800 $).
Personalmente, nutro qualche dubbio sul fatto che la presenza sul mercato italiano sia superiore rispetto a quello nord americano o britannico.
Mi sembra una situazione tipica da banditori delle aste nei mercatini rionali (a parte la disponibilità immediata iniziale di, almeno sulla carta, 12-15 mila pezzi, in tutto, in seguito non si è visto più nulla)

Dovresti sapere pure tu che quando un prodotto viene ripetutamente venduto fuori prezzo, vuol dire che il suo VALORE effettivo e' superipore a quello di partenza. Le spiegazioni.. Beh, ci arrivi da solo. Le percentuali velocistiche parlano molto chiaro.

ripeto la domanda: le ram da 1,1 ns di samsung, al momento hanno lo stesso volume di disponibilità del momento del lancio della 512 MB: dove sono le vga?
Dove posso vedere questi i dati??

MadRat
18-12-2005, 02:51
vabbè ti riempi la bocca di parole che poco centrano con la nostra discussione... il risultato non cambia! le schede sono introvabili! se questa è disponibilità! :muro:
Se lui dice che le VGA non arrivano per via delle RAM e da link che comprovano la sua tesi e tu dici che il G70 non ha resa sufficiente e non porti prova alcuna di cio' che dici, quello che spara a caso e non dice nulla di inerente al discorso sei tu. Mi sembra logico ed inconfutabile.

in un mese e mezzo credo che di x1800xt ne ha venute parecchie... molte di più delle 12000 in tutto il mondo di nvidia ;) TI RICORDO CHE SIAMO NEL PERIODO NATALIZIO e di 7800gtx 512mb NON CI SONO! questo è una sbaglio commerciale, c'è poco da ribattere :)


Sei sicuro che ATi abbia venduto piu' X1800XT di quante GTX abbia venduto nVidia tra 512 e 256?? Mi spiace ma 100€ in piu' la X1800XT proprio non li vale (soprattutto ora) e questo lo capiscono in molti.
P.S. Mi dai i dati di vendita ATI dai quali hai preso le tue certezze?? :) Grazie.
Il tuo errore e' paragonare le vendite della GTX512 alla X1800XT, paragonale alla 256, almeno qualche bench lo vince. :)
certo... chi lo nega. Però devi pagarla 200€ in più e aspettare un mese per averla :muro: la mossa di mercato di Nvidia in questo periodo di grossa vendita è uno sbaglio MADORNALE! :rolleyes:
Se paghi 100€ in piu' una XT rispetto ad una GTX256, puoi spendere anche 150€ in piu' per una GTX 512 rispetto ad una XT (anzi, è molto piu' logico), non mi sembra difficile da capire, ma uno lo comprendi l'altro no.. questo mi fa riflettere sulla tua obiettivita'.
Se poi non sei scemo, aspetti e la prendi a prezzo giusto o come detto ti risparmi 600€ e prendi le nuove uscite tra due mesi. (se poi i soldi non sono un problema la scelta e' obbligata, GTX512, le prestazioni parlano molto chiaro).
Che nVidia abbia sbagliato e' una tua considerazione, ma non penso a questo punto che tu capisca nulla in merito, senza offesa, ma credo che il commercio non sia propriamente il tuo pane. A natale il mercato della gamma alta nVidia sarà deviato sulla vecchia GTX256 e sulla GT, dunque sui prodotti largamente disponibili e piu' appetibili, una cazzata MADORNALE hai proprio ragione!! Perche' non vai a fare l'area manager di nVidia?? :D

ma se non ci sono 7800gtx 512mb... secondo te la gente cosa stà comprando? :mc: solo in italia il country manager di ATI ha allocato 1200 SCHEDE solo per dicembre

Ma quante ne dici?? se le misurassimo in KW avremmo risolto i problemi di mezzo pianeta.
http://www.hw-vault.com/news/2991,0.html
Ti faccio un sunto :D
"Giusto per dare una idea, nel mese di Novembre sono state allocate per l´Italia 296 pezzi"
Ancora piu' sunto:
296 pezzi a novembre. :D
e se lo dice un rappresentante ATI, per me vuol dire 100 pezzi.

infatti, su questo non c'è niente da eccepire; Ad ATi si può rimproverare che sia arrivata in ritardo con il crossfire, con le X800XL e la GTO e GTO2. Anche che la 1600 non è una facsia media (ma adesso devono vendere le rimanenze della serie X800, così come nVIDIA sta facendo con la serie 6), prima che siano lanciate tutte le nuove linee di prodotti.
Con la differenza che la serie 6 di nVidia si vende da sola, la X8 di ATI va svenduta. Se a te sembra una condizione paritetica..


Per il resto
un SanDiego 3700+ non sempre sale come un FX 57
il chip della 7800GTX viene chiamato sempre G70
possono aver fatto un passo in più
ossia ottimizzato i layer o semplicemente introdotto qualche miglioria al package ma di certo NON è un chip nuovo
il fatto che regga frequenze superiori (neanche tanto) è dato anche dal maggior raffreddameno e magari da un vcore superiore o altro, di sicuro non hanno rivoluzionato la gpu.

Non diciamo assurdita', un G70 "vecchio" (prima rev) se arriva a 480Mhz con vcore 1,5 e' tanto!! Le modifiche sono state fatte al mille per cento al CHIP, non si tratta di una mera selezione, che poi il DIE sia rimasto quello e' ovvio direi, non penso che nVidia si rimetta a produrre e progettare nuovi die a 110nm.

P.S. Ho visto dopo la digressione dell'argomento, ma e' bene che sia chiaro.

Byez

yossarian
18-12-2005, 14:01
Inizio dando un piccolo input a Yoss.. Hai parlato di Chip selezionati, hai detto esattamente “il chip e' lo stesso identico”, probabilmente “facendola breve”, Punisher non essendo tecnico in alcuna misura ti ha contestato questo (malamente, ha sbagliato a prenderti cosi', ma era anche messo sotto pressione, piu' che da te da altri due individui che sfottevano per decine e decine di post, senza portare mezzo argomento).
Sei stato un signore a comportarti come ti sei comportato, ma Punisher non aveva torto, la tua affermazione era sbagliata.
Menomale che il tutto si sia chiarito a dovere.



il chip è lo stesso; sono semplicemente stati messi da parte e marchiati in maniera diversa, ma escono dallo stesso ciclo produttivo della 256 MB. Non c'è alcun processo produttivo differenziato. Non esistono due processo produttivi differenziati per i chip a 512 MB e per quelli a 256 MB.



Cerchiamo ci capirci, secondo me chi compra ora una VGA TOP gamma, che sia basata su R520 (barbarica mutilazione dell'R580) o sul G70, non brilla d'intalligenza. Tra uno o due messi varranno infinitamente meno data la prossima presentazione dei veri nuovi processori ATI ed nVidia. La X1800XT ed la GTX 512 sono veramente solo il miglior modo per togliere soldi a chi non sa aspettare un po'.
Per la GTX 256, non lo so ancora, sta scendendo giorno per giorno, vedremo dove si fermera', per ora sta a 466,80€ ivata sia Asus che Leadtek, pertanto pure belle marche, credo sia abbastanza appetibile.
Chi acquista una GTX 512 a 750€ non e' piuy' furbo di chi compro' una PE di ATI.
(saro' curioso di vedere se tra un anno questo sito usera' la GTX 512 come paragone della gen precedente, dicendo che chi l'ha presa ha fatto bene!! :D :read: ). Anche se la 512 si trova meglio di qualunque PE nella storia di ATI (detto da chi ha molta voce in capitolo in quanto a vendite di componenti per PC in Italia, per quanto a qualcuno non vada proprio giu').

La PE era una VGA che costava uno sproposito, almeno chi prende una GTX 512 ha migliori ragioni, costano troppo (per ora) va bene, non e' il momento adatto, va bene ugualmente, ma butta un occhio qui
http://www.guru3d.com/article/Videocards/285/21
http://www.anandtech.com/printarticle.aspx?i=2616
http://www.anandtech.com/printarticle.aspx?i=2616
Fino al 37% di incremento rispetto alla GTX 256 per la POV, poco meno per la reference!! Risparmio il raffronto con la x1800XT perche' si tratta di Doom3 (in due casi) e perche' i risultati differiscono molto da sito a sito.
(qui darei un'occhiata alla XL che sta poco sopra alla 6800GS.. ma vediamo pure con la 7800GT.. Direi che si respiri un'altra aria da queste parti. http://www.guru3d.com/article/Videocards/285/20 )


Anche il piu' fesso dei fessi capirebbe che se una scheda non fosse richiesta verrebbe venduta a presso scontato e solo su ordinazione (quando si tratta di simili cifre) esattamente come e' accaduto SEMPRE per le versioni PE di ATI, se costa cosi' tanto e' perche' evidentemente qualcuno reputa che valga quella cifra. Questa scheda offre prestazioni inarrivabili e VERAMENTE distanti da qualunque altra proposta del mercato, non stimao parlando del 8-10% di una PE.
Sul fatto che siamo poche penso che il tuo parare conti un po' meno di niente e l'arroganza con la quale non porti argomenti non ti rende piacevole.
Il fatto che non riescano a produrne quante ne sono richieste, potrebbe anche significare che sono molto piu' richieste di quanto ci si potesse mai immaginare (non ho dato per assodato che si acosi', bada bene, ma sembrerebbe che tu abbia un quadro perfetto della situazione, netre non sai assolutamente nulla), ma questo non ti riesce ad entrare in testa, nemmeno quando qualcuno che conta e' venuto qui a dire "non ne ho ordinate abbastanza, ma c'erano". Ora il discorso e' cambiato, ma non sai nulla nemmeno di questo, hai solo parlato di “aria” Se poi sei a conoscenza dei volumi di produzioni nVidia, mi appecorono a sua signoria. :D Sta di fatto che fino ad oggi hai solo parlato di “nulla”.


Altra pillola di fantacommercio. Le PE non venivano vendute SOLAMENTE con un sovrapprezzo notevole applicato. Cerca di chiederti quale sia la ragione che consenta ai commercianti di farlo. Dai che non e' difficile.

Chi spende quella cifra puo' essere giustificato molto piu' di chi spese centinaia di euro in piu' per una versione PE dal 10% di prestazioni in piu' . Almeno la GTX512 offre prestazioni imparagonabili con nessuna altra VGA in commercio Come si e' detto che chi ha comprato una PE ha fatto bene (ancora sto ridendo :D), si puo' dire che chi prende la nuova GTX sia mooolto piu' motivato.
Fermo resta il mio parare riguardo l'acquisto di tale gamma di VGA in questo momento.


ormai il prezzo di un bene materiale non è più dato dalla legge della domanda e dell'offerta reali, ma da altri parametri. Ad esempio, duramte tutto l'arco del 2004, il prezzo del petrolio è aumentato in maniera vertiginosa, eppure, per tutto l'anno, la domanda è stata sempre inferiore all'offerta.

Con la 512 MB è stata fatta una semplice operazione commerciale: è stata lanciata quando c'era una sufficiente diaponibilità di vga per garantire un minimo di vendite al momento della presentazione; sono state aumentate le frequenze al punto da permettere a NV di riprendersi in maniera convincente lo scettro delle prestazioni pure (i 550 MHz non sono casuali, visti i fallimenti delle varie versioni a 480, 490 MHz e vie dicendo). Questo ha incentivato la domanda di un bene che, nella realtà, non nè mai esistito (né sarà mai prodotto) in volumi. Ovvia conseguenza, il prezzo sale. Ma quello che sta salendo è il prezzo di qualcosa che, allo stato attuale, sul mercato non è presente. E' un bene fittizio, come le contrattazioni sul petrolio che avvengono al Nymex e all'IPE.
Tra l'altro, parlando do prestazioni pure, ti faccio notare che le vga Nv benchano tutte a fp16. Se si forzasse fp32 perderebbero, in percentuale, almewno il 20% (questo vale anche per la 512 MB, poichè si tratta di un limite architetturale: in fp16 hanno una normalizzazione vettoriale gratuita, in fp32 no).



Semplice, la prima copertura, il famoso lancio mondiale e' stato fatto con le ram ed i chip disponibili.
Mi sembra anche ovvio che nVidia non produca un eccesso di questi processori in quanto, come hai detto tu (ed io) passra' presto a 90nm, entro breve. Questo non toglie che con un po' di giorni arriveranno probabilmente diverse GTX512 ed il prezzo (si spera) si abbassera'). Fermo restando che i numeri nella categoria TOP seguitera' a farli con la GT e la GTX256, anche se qualcuno si e' bevuto la minchiata del manager ATI secondo la quale la GTX512 avrebbe distrutto al 256 (una ora si trova a 780€, l'altra a 468 in discesa!! ed a questa cifra si vende da sola).



hai detto bene, ram è chip disponibili; e secondo te, un'azianda sana di mente, mette su nuova una catena produttiva per pochi chip, che blocca subito dopo il lancio e tiene immobilizzata in attesa dell'arrivo della ram per le vga?
Non credo che nVIDIA abbia intenzione di fallire entro i prossimi 6 mesi, soprattutto adesso che le cose vanno piuttosto bene :D


NV30 tarda ad arrivare perche' e' un prodotto del c** :o (e non
credo che qui nessuno lo neghi).. non lo si puo' dire del G70.



il paragone tra NV30 e GTX 512 MB è relativo alle scuse accampate per la mancata presenza sul mercato. NV30 non ha tardato perchè TSMC aveva difficoltà con il ciclo produttivo? Le fonderie taiwanesi sono le più all'avanguardia in fatto di processi produttivi; così come le GTX 512 MB non sono assenti dal mercato per mancanza di moduli di ram? Secondo te e secondo il pr NV che ha fatto quest'affermazione, Samsung avrebbe prodotto un numero limitato di chip da 1,1 ns e poi, improvvisamente, sospesa la produzione? Come mai le stesse motivazioni non sono state addotte con le DDR2 della 5800 ultra, visto che le specifiche erano state definite solo ai primi di novembre del 2002, mentre per le gddr3 da 1,1 ns le specifiche preliminari risalgono all'agosto 2005 e quelle definitive a settembre (ossia a ben tre mesi fa)?
In quanto a NV30, secondo me, era un ottimo chip DX8.x con una compatibilità di facciata con le DX9; però aveva alcuni aspetti positivi che sono stati ripresi in un secondo tempo e sono presenti anche su G70.


Dovresti sapere pure tu che quando un prodotto viene ripetutamente venduto fuori prezzo, vuol dire che il suo VALORE effettivo e' superipore a quello di partenza. Le spiegazioni.. Beh, ci arrivi da solo. Le percentuali velocistiche parlano molto chiaro.


non necessariamente; il valore non lo fa il mercato; dovresti documentarti sulle norme fondamentali della new economy; le tecniche sono molto diverse da quelle ideali: si fissa un prezzo e si pilota la domanda in modo che si portino gli acquirenti a comprare a quella cifra. Ci sono interessanti studi, soprattutto giapponesi a americani sull'argomento




Dove posso vedere questi i dati??

leggi sopra; le grrd3 da 1,1 ns non sono sperimetali, ma in produzione almeno dal mese di ottobre.

yossarian
18-12-2005, 14:03
Non diciamo assurdita', un G70 "vecchio" (prima rev) se arriva a 480Mhz con vcore 1,5 e' tanto!! Le modifiche sono state fatte al mille per cento al CHIP, non si tratta di una mera selezione, che poi il DIE sia rimasto quello e' ovvio direi, non penso che nVidia si rimetta a produrre e progettare nuovi die a 110nm.

P.S. Ho visto dopo la digressione dell'argomento, ma e' bene che sia chiaro.

Byez

già, ma nel frattempo ci sono state almeno altre due revisioni del chip. E guarda caso, quelli delle ultime salgono molto bene anche con v-core a 1,4 V.

yossarian
18-12-2005, 14:08
ehhhh O_O""

16x nvidia
http://www.hwupgrade.it/articoli/1311/immagini_g70/g70/anisotropico/testfilter/d3d/Q16x.jpg
16x ati
http://www.hwupgrade.it/articoli/1311/immagini_g70/x850/anisotropico/testfilter/d3d/advanced/HQ16x.jpg
2x ati
http://www.hwupgrade.it/articoli/1311/immagini_g70/x850/anisotropico/testfilter/d3d/advanced/HQ2x.jpg

che ti sei bevuto?

guarda la modalità HQ di R520 in D3D e confrontala con le modalità di G70 o R4x0

http://www.digit-life.com/articles2/video/r520-part4-a.html

http://www.hwupgrade.it/articoli/skvideo/1361/7.html

tra l'altro, nell'immagine di G70 che hai preso la sfumatura è quasi inesistente: questo significa che il filtraggio è quasi del tutto bilineare, oltre ad utilizzare direzioni privilegiate (ciò vuol dire che hai preso una modalità di tipo aggressive e non HQ come termine di paragone).

MadRat
18-12-2005, 16:48
il chip è lo stesso; sono semplicemente stati messi da parte e marchiati in maniera diversa, ma escono dallo stesso ciclo produttivo della 256 MB. Non c'è alcun processo produttivo differenziato. Non esistono due processo produttivi differenziati per i chip a 512 MB e per quelli a 256 MB.

Per quanto riguarda questo non ho dati ufficiali per replicare, dunque basta cosi'. :)

ormai il prezzo di un bene materiale non è più dato dalla legge della domanda e dell'offerta reali, ma da altri parametri. Ad esempio, duramte tutto l'arco del 2004, il prezzo del petrolio è aumentato in maniera vertiginosa, eppure, per tutto l'anno, la domanda è stata sempre inferiore all'offerta.
Con la 512 MB è stata fatta una semplice operazione commerciale: è stata lanciata quando c'era una sufficiente diaponibilità di vga per garantire un minimo di vendite al momento della presentazione; sono state aumentate le frequenze al punto da permettere a NV di riprendersi in maniera convincente lo scettro delle prestazioni pure (i 550 MHz non sono casuali, visti i fallimenti delle varie versioni a 480, 490 MHz e vie dicendo). Questo ha incentivato la domanda di un bene che, nella realtà, non nè mai esistito (né sarà mai prodotto) in volumi. Ovvia conseguenza, il prezzo sale. Ma quello che sta salendo è il prezzo di qualcosa che, allo stato attuale, sul mercato non è presente. E' un bene fittizio, come le contrattazioni sul petrolio che avvengono al Nymex e all'IPE.
Tra l'altro, parlando do prestazioni pure, ti faccio notare che le vga Nv benchano tutte a fp16. Se si forzasse fp32 perderebbero, in percentuale, almewno il 20% (questo vale anche per la 512 MB, poichè si tratta di un limite architetturale: in fp16 hanno una normalizzazione vettoriale gratuita, in fp32 no).

Anche la 7800GTX era esattamente calibrata per superare in tutto la X8500XT PE. Resta il fatto che la GTX e' presente negli shop online piu' di quanto non lo sia mai stata una PE, nonostante cio', nessuna PE e' stata mai cosi' richiesta da aumentarne il prezzo. A confermarne la disponibilita' c'e' anche il numero di utenti in giro per i forum che ne possiede gia' una. Non penso che sfiguri poi cosi' tanto, se paragonata al numero di X1800XT vendute nello steso periodo eppure si tratta di versioni palesemente differenti.

Passando all'FP16, tu insisti.. ma che ti viene in tasca a fare questa prova?? perche' si dà il caso che i processori nVidia possano lavorare a 16bit quando vogliono, gli ATI sono a precisione fissa. Questo non vuol dire un degrado qualitativo di niente!! a volre i 16bit bastano ed avanzano, usare i 32 e' solo uno spreco. Detto come dici tu, sembra una pecca di tali processori, invece e' un'ottima cosa. Se ATI non lo adotta, e' perche' ha un'architettura differente. Sono scelte che evidentemente pagano nVidia.
Esistono dei motori endotermici che sono in grado di disattivare la meta' dei cilindri, consumando di fatto molto molto meno, perche' dobbiamo dire che in realta' consumano come se li avessereo sempre tutti attivi??


hai detto bene, ram è chip disponibili; e secondo te, un'azianda sana di mente, mette su nuova una catena produttiva per pochi chip, che blocca subito dopo il lancio e tiene immobilizzata in attesa dell'arrivo della ram per le vga?
Non credo che nVIDIA abbia intenzione di fallire entro i prossimi 6 mesi, soprattutto adesso che le cose vanno piuttosto bene :D

Rimaniamo sempre lì, non abbiamo dati ufficiali, almeno per ora. Comunque..
Non penso neppure io, che nVidia voglia fallire, ma non penso che posa accadere per una cosa simile. Accadrebbe per VGA che fanno mercato, non certo per questa che fermerebbe per qualche giorno una percentuale minima.

il paragone tra NV30 e GTX 512 MB è relativo alle scuse accampate per la mancata presenza sul mercato. NV30 non ha tardato perchè TSMC aveva difficoltà con il ciclo produttivo? Le fonderie taiwanesi sono le più all'avanguardia in fatto di processi produttivi; così come le GTX 512 MB non sono assenti dal mercato per mancanza di moduli di ram? Secondo te e secondo il pr NV che ha fatto quest'affermazione, Samsung avrebbe prodotto un numero limitato di chip da 1,1 ns e poi, improvvisamente, sospesa la produzione? Come mai le stesse motivazioni non sono state addotte con le DDR2 della 5800 ultra, visto che le specifiche erano state definite solo ai primi di novembre del 2002, mentre per le gddr3 da 1,1 ns le specifiche preliminari risalgono all'agosto 2005 e quelle definitive a settembre (ossia a ben tre mesi fa)?
In quanto a NV30, secondo me, era un ottimo chip DX8.x con una compatibilità di facciata con le DX9; però aveva alcuni aspetti positivi che sono stati ripresi in un secondo tempo e sono presenti anche su G70.

Sinceramente ancora non lo so, se ne sai di piu' parla. Per quanto riguarda l'NV30 che fosse un ottimo DX8 siamo d'accordo, spesso migliore dell'R3x0, ma in DX9 era un fallimento.
Non ho sputato completamente sulla serie FX, la 5200 valeva queli due soldi che costava e la 5900XT era ottima al prezzo politico al quale era venduta (svenduta).


non necessariamente; il valore non lo fa il mercato; dovresti documentarti sulle norme fondamentali della new economy; le tecniche sono molto diverse da quelle ideali: si fissa un prezzo e si pilota la domanda in modo che si portino gli acquirenti a comprare a quella cifra. Ci sono interessanti studi, soprattutto giapponesi a americani sull'argomento
[quote]
Potrei anche darti retta, ammettendo che non ne sapessi nulla.. ma con la GTX 512 e' stato ed e' possibile, con le PE assolutamente no.
Io sconsiglio sempre l'acquisto online, proprio per via dei prezzi.
[quote]
leggi sopra; le grrd3 da 1,1 ns non sono sperimetali, ma in produzione almeno dal mese di ottobre.

Ho capito, ma tu hai detto con certezza che ora ci sono in volumi (relativamente al segmento), dove posso vederne anche io la disponibilita'?? dove posso vedere da quando vi sia questa disponibilita'?? Perche' se lo sono da 5 giorni e non vediamo ancora le GTX 512, direi che sia normale..

MadRat
18-12-2005, 16:55
già, ma nel frattempo ci sono state almeno altre due revisioni del chip. E guarda caso, quelli delle ultime salgono molto bene anche con v-core a 1,4 V.

Sì, ma non superano i 560Mhz, solo rarissimi casi, mentre quelli della 512 arrivano tutti da 480 a 620Mhz. Possiamo pensare che sia solo il ponte d'alimentazione migliorata?? Mi sembra strano.
Pensa che la mia arriva a 520 con vcore 1,4 e con 1,5 sono costretto a scendere.

Gia che ci siamo aggiungerei anche questa..
Come gia' vi dimostrai in un altro thread, la qualita' e la profondita' cromatica nVidia, a volte risulta palesemente superiore..

7800
http://www.ixbt.com/video2/images/r520/scct_gf7800_aa1x_af16xhq_hdr_sm3.png

X1800
http://www.ixbt.com/video2/images/r520/scct_rx1800_aa1x_af16xhq_aioff_hdr_sm3.png

Come accadeva nell'immagine di lost coast che mostrai tempo fa, la versione ATI risulta "patinata".

P.S.
Notare come ovviamente nemmeno qui il filtro anisotropico di maggior qualita' influisca assolutamente.

MadRat
18-12-2005, 17:11
guarda la modalità HQ di R520 in D3D e confrontala con le modalità di G70 o R4x0

http://www.digit-life.com/articles2/video/r520-part4-a.html

http://www.hwupgrade.it/articoli/skvideo/1361/7.html

tra l'altro, nell'immagine di G70 che hai preso la sfumatura è quasi inesistente: questo significa che il filtraggio è quasi del tutto bilineare, oltre ad utilizzare direzioni privilegiate (ciò vuol dire che hai preso una modalità di tipo aggressive e non HQ come termine di paragone).

Grazie per i link..
7800
http://www.ixbt.com/video2/images/r520/fc_gf7800_aa4xt_af16xhq.png
X1800
http://www.ixbt.com/video2/images/r520/fc_rx1800_aa4xa_af16xhq_aioff.png

Sono identici in tutto e per tutto.

7800
http://www.ixbt.com/video2/images/r520/d3_gf7800_aa4x_af16x.png
X1800
http://www.ixbt.com/video2/images/r520/d3_rx1800_aa4x_af16x.png

questi possiamo dirli identici, anche se ad onor del vero si scorgono alune minime differenze (possibili da trovare SOLO guardando l'immagine per molto tempo e SOLO alternandola piu' volte con l'altra) che tuttavia non possono in alcun modo far dire che uno sia piu' bello dell'altro.

Inutile mettere altri link, come volevasi dimostrare sulla carte e nei test fatti per misurare la qualita' dell'anisotropico la qualita' di quello ATI risulta migliore, ma all'atto pratico.. non porta alcun vantaggio.

Ora mi chiedo io.. perche' nVidia dovreebbe cambiarlo?? Perche' preferirne uno anziche' un altro??
Anche nVidia lo cambiera'/miglioera' con il tempo, forse con il G71, ma per ora, chi possiede o acquista un G70 non perde nulla, ma proprio nulla.

Mi sembra impossibile indicarlo come effettivo vantaggio per ATI.

yossarian
18-12-2005, 18:22
Sì, ma non superano i 560Mhz, solo rarissimi casi, mentre quelli della 512 arrivano tutti da 480 a 620Mhz. Possiamo pensare che sia solo il ponte d'alimentazione migliorata?? Mi sembra strano.
Pensa che la mia arriva a 520 con vcore 1,4 e con 1,5 sono costretto a scendere.

Gia che ci siamo aggiungerei anche questa..
Come gia' vi dimostrai in un altro thread, la qualita' e la profondita' cromatica nVidia, a volte risulta palesemente superiore..

7800
http://www.ixbt.com/video2/images/r520/scct_gf7800_aa1x_af16xhq_hdr_sm3.png

X1800
http://www.ixbt.com/video2/images/r520/scct_rx1800_aa1x_af16xhq_aioff_hdr_sm3.png

Come accadeva nell'immagine di lost coast che mostrai tempo fa, la versione ATI risulta "patinata".

P.S.
Notare come ovviamente nemmeno qui il filtro anisotropico di maggior qualita' influisca assolutamente.

qiuelli della 256 MB sono alimentati a 1,4 e quelli della 512 MB (che parte da 550 Mhz, non 480) a 1,5; inoltre, quelli della 512 MB sono quelli usciti meglio dal proceso produttivo (non faccio lavorare fuori specifica un chip di cui non posso garantire il corretto funzionamento; ma per garantirlo, devo essere certo che quel chip sia quanto di meglio esce dal processo produttivo). La tua affermazione equivale a dire che la GT e la GTX vengono fuori da processi produttivi differenti, il che è un assurdo.

Per i vantaggi pratici dell'anisotropico, basta che guardi superfici con angoli diversi da 45° e ti puoi rendere conto della differenza

yossarian
18-12-2005, 18:48
Anche la 7800GTX era esattamente calibrata per superare in tutto la X8500XT PE. Resta il fatto che la GTX e' presente negli shop online piu' di quanto non lo sia mai stata una PE, nonostante cio', nessuna PE e' stata mai cosi' richiesta da aumentarne il prezzo. A confermarne la disponibilita' c'e' anche il numero di utenti in giro per i forum che ne possiede gia' una. Non penso che sfiguri poi cosi' tanto, se paragonata al numero di X1800XT vendute nello steso periodo eppure si tratta di versioni palesemente differenti.


neppure la 512 MB sarebbe così richiesta se fosse presente sul mercato; la richiesta è altissima se confrontata con l'offerta (praticamente nulla).
Chi ne ha una ha avuto la fortuna di prenderla con la prima (e finora unica) immissione sul mercato (in tirature limitate), di questi chip.


Passando all'FP16, tu insisti.. ma che ti viene in tasca a fare questa prova?? perche' si dà il caso che i processori nVidia possano lavorare a 16bit quando vogliono, gli ATI sono a precisione fissa. Questo non vuol dire un degrado qualitativo di niente!! a volre i 16bit bastano ed avanzano, usare i 32 e' solo uno spreco. Detto come dici tu, sembra una pecca di tali processori, invece e' un'ottima cosa. Se ATI non lo adotta, e' perche' ha un'architettura differente. Sono scelte che evidentemente pagano nVidia.
Esistono dei motori endotermici che sono in grado di disattivare la meta' dei cilindri, consumando di fatto molto molto meno, perche' dobbiamo dire che in realta' consumano come se li avessereo sempre tutti attivi??


resta il fatto che si tratta di elaborazioni a fp16 e di anisotropic fatto applicando filtraggio trilineare su tutti i layer solo su angoli multipli di 45° anche in HQ (il che significa molte meno operazioni di interpolazione lineare).
Quello di scalare a fp16 può essere un pregio ma, nell'ottica di un investimento a lungo termine, bisogna guardare anche le prestazioni con full fp32. Continui a ripetere che domani, quando toglieremo i filtri, la NV saranno migliori. E domani, quando fp16 nei calcoli non sarà più sufficiente (con l'aumento della complessità degli shader, diminuisce la possibilità di adoperare filtri, ma aumenta anche il rischio di porpagazione degli errori e la necessità di adoperare precisioni di calcolo più elevate)?
N.B. l'applicazione di fp32 non avviene quando si vuole, ma quando non se ne può fare a meno (come specificato nelle indicazioni fornite dalla stessa NV, che consiglia di applicare sempre la precisione più bassa possibile, tra le varie ottimizzazioni).



Rimaniamo sempre lì, non abbiamo dati ufficiali, almeno per ora. Comunque..
Non penso neppure io, che nVidia voglia fallire, ma non penso che posa accadere per una cosa simile. Accadrebbe per VGA che fanno mercato, non certo per questa che fermerebbe per qualche giorno una percentuale minima.



non ha senso concettualmente creare due "catene di montaggio" per produrre lo stesso chip. Inoltre, non tutti i dati che si hanno a disposizione si possono postare su un forum.
Spero, comunque, che ci si rebda conto dell'essurdità anche della sola idea di mettere su una linea a parte, per produrre poche migliaia di esemplari di un chip.




Sinceramente ancora non lo so, se ne sai di piu' parla. Per quanto riguarda l'NV30 che fosse un ottimo DX8 siamo d'accordo, spesso migliore dell'R3x0, ma in DX9 era un fallimento.
Non ho sputato completamente sulla serie FX, la 5200 valeva queli due soldi che costava e la 5900XT era ottima al prezzo politico al quale era venduta (svenduta).



ho scritto quello che potevo e che si può reperire anche in rete; le specifiche definitive delle gddr3 da 1,1 ns sono state definite il 26 settembre 2005 (e rispetto a quelle di agosto presentavano solo una variazione a livello di specifiche sull'alimentazione dei chip). Le gddr3 da 1,1 escono fuori dallo stesso processo produttivo di quelle da 1,2 e sono regolarmente prodotte, con le specifiche definitive, da ottobre.

Riguardo alle serie fx, mi riferivo a NV30 e al fatto che, tra i tanti difetti, aveva anche dei pregi (come la possibilità di gestire in maniera dinamica il flusso di dati, ripresa da NV40 e G70)


Potrei anche darti retta, ammettendo che non ne sapessi nulla.. ma con la GTX 512 e' stato ed e' possibile, con le PE assolutamente no.
Io sconsiglio sempre l'acquisto online, proprio per via dei prezzi.



con la GTX è stato possibile perchè la cosa è stata gestita in maniera da crearne le premesse; ad iniziare dalla disponibilità immediata, seppure in volumi limitati, delle vga, che ha fatto crescere la febbre (e l'illusione che ce ne fossero per tutti).
ATi, in fatto di marketing, ha ancora molto da imparare :D


Ho capito, ma tu hai detto con certezza che ora ci sono in volumi (relativamente al segmento), dove posso vederne anche io la disponibilita'?? dove posso vedere da quando vi sia questa disponibilita'?? Perche' se lo sono da 5 giorni e non vediamo ancora le GTX 512, direi che sia normale..

la produzione delle gddr3 da 1,2 e da 1,1 ns non è mai stata sospesa e, in un secondo tempo, ripresa. Finora non ha proceduto a ritmi elevati (la disponibilità in volumi si ha solo dal 13/12), però la disponibilità, seppure in volumi ridotti, non è mai mancata. Dire che non ci sono e dire che non ce ne sono tante non è esattamente la stessa cosa e la situazione, prima del 13/12, era esattamente la stessa del momento dell lancio della 512 MB.
Al contrario, nel momento in cui nVIDIA porterà a termine la transizione verso gli 0,09, non ci saranno più GTX 512 MB a 0,11.
Altra cosa che ti avrebbe dovuto far riflettere, sarebbe dovuta essere l'affermazione di NV in merito alle forniture di RSX a Sony (sull'impossibilità di fornire elevati volumi di chip funzionanti senza problemi a 550 Mhz).

MadRat
19-12-2005, 02:17
qiuelli della 256 MB sono alimentati a 1,4 e quelli della 512 MB (che parte da 550 Mhz, non 480) a 1,5; inoltre, quelli della 512 MB sono quelli usciti meglio dal proceso produttivo (non faccio lavorare fuori specifica un chip di cui non posso garantire il corretto funzionamento; ma per garantirlo, devo essere certo che quel chip sia quanto di meglio esce dal processo produttivo). La tua affermazione equivale a dire che la GT e la GTX vengono fuori da processi produttivi differenti, il che è un assurdo.

Per il 480 mi riferivo al clock raggiungibile con le prime versioni del G70 con vcore 1,5, non certo al clock della GTX512, ma per chi mi hai preso?? :D
Per quanto riguarda il Chip..

L’architettura resta la medesima così come le funzionalità in quanto il processore grafico alla base di questa GeForce 7800 GTX 512 MB è lo stesso G70 visto fino a questo nelle schede GeForce 7800 GTX e GT. NVIDIA ha confermato come a livello di chip sussistano alcune differenze, che di fatto rendono questo GeForce 7800 GTX non semplicemente una versione del precedente chip G70 con clock leggermente aumentato; le innovazioni sono sicuramente state necessarie per NVIDIA in modo da garantire un funzionamento stabile del chip alla frequenza di 550 MHz.
Questo testo non ti e' nuovo, avra' pure un significato.. Hai gia' detto bene quali possano essere le differenze. :)
Che sia selezionato non lo metto in dubbio e ritengo anche possibile che oramai sia usato identico anche per l'altra GTX, anche se continuo a dire che si tratta solo di ipotesi.

Sta di fatto che Punisher quando diceva che la GTX512 ha richiesto un chip rivisto, diceva bene.


Per i vantaggi pratici dell'anisotropico, basta che guardi superfici con angoli diversi da 45° e ti puoi rendere conto della differenza

Ti ho gia' dimostrato una volta di avere un colpo d'occhio discreto per quanto riguarda la grafica (lost coast), ma proprio non riesco a scorgere alcuna differenza.. non dico che non ci siano, percarita', ma aiutami a vederli, indicami una delle immagini di quel test che hai mostrato (ed io ho utilizzato per il post successivo) e dimmi cosa e dove guardare.

yossarian
19-12-2005, 02:29
Per il 480 mi riferivo al clock raggiungibile con le prime versioni del G70 con vcore 1,5, non certo al clock della GTX512, ma per chi mi hai preso?? :D
Per quanto riguarda il Chip..

L’architettura resta la medesima così come le funzionalità in quanto il processore grafico alla base di questa GeForce 7800 GTX 512 MB è lo stesso G70 visto fino a questo nelle schede GeForce 7800 GTX e GT. NVIDIA ha confermato come a livello di chip sussistano alcune differenze, che di fatto rendono questo GeForce 7800 GTX non semplicemente una versione del precedente chip G70 con clock leggermente aumentato; le innovazioni sono sicuramente state necessarie per NVIDIA in modo da garantire un funzionamento stabile del chip alla frequenza di 550 MHz.
Questo testo non ti e' nuovo, avra' pure un significato.. Hai gia' detto bene quali possano essere le differenze. :)
Che sia selezionato non lo metto in dubbio e ritengo anche possibile che oramai sia usato identico anche per l'altra GTX, anche se continuo a dire che si tratta solo di ipotesi.

Sta di fatto che Punisher quando diceva che la GTX512 ha richiesto un chip rivisto, diceva bene.



le prime versioni arrivavano a 480-490 MHz senza overvolt (come hanno mostrato tutti i test fatti al'uscita della 256 MB).

Le modifiche non sono state fatte in funzione della 512 MB (e non si tratta di vere modifiche al chip ma solo ai transistor di giunzione) ma sono fisiologiche nei processi di revisione di ogni chip. L'uscita di versioni a clock sensibilmente più alti, era non solo preventivabile, ma ampiamente stata prevista. Ne aveva parlato persino il CEO di ATi, nello scorso agosto. Questo perchè chi è del mestiere sa benissimo cosa è possibile ottimizzare e in che misura, con le successive revisioni di un chip.
La stessa cosa è avvenuta con la serie R3x0, con NV4x e con i vari R4x0.
I chip montati sulle 512 MB sono solo i migliori usciti dai processi di produzione delle ultime revisioni e fatti funzionare a 1,5 V (anzichè gli 1,4 delle versioni a 256 MB).



Ti ho gia' dimostrato una volta di avere un colpo d'occhio discreto per quanto riguarda la grafica (lost coast), ma proprio non riesco a scorgere alcuna differenza.. non dico che non ci siano, percarita', ma aiutami a vederli, indicami una delle immagini di quel test che hai mostrato (ed io ho utilizzato per il post successivo) e dimmi cosa e dove guardare.

c'era un'immagine (non ricordo se postata da DjLode o da pandyno), in cui, su una parete inclinata, si vedeva chiaramente e al primo colpo d'occhio la differenza tra l'anisotropico di tipo adaptive e quello full.

MadRat
19-12-2005, 02:41
neppure la 512 MB sarebbe così richiesta se fosse presente sul mercato; la richiesta è altissima se confrontata con l'offerta (praticamente nulla).
Chi ne ha una ha avuto la fortuna di prenderla con la prima (e finora unica) immissione sul mercato (in tirature limitate), di questi chip.

Beh, seguitiamo con le ipotesi, non credo questo discorso ci porti piu' oltre e possiamo farne di piu' interessanti. :)

resta il fatto che si tratta di elaborazioni a fp16 e di anisotropic fatto applicando filtraggio trilineare su tutti i layer solo su angoli multipli di 45° anche in HQ (il che significa molte meno operazioni di interpolazione lineare).
Quello di scalare a fp16 può essere un pregio ma, nell'ottica di un investimento a lungo termine, bisogna guardare anche le prestazioni con full fp32. Continui a ripetere che domani, quando toglieremo i filtri, la NV saranno migliori. E domani, quando fp16 nei calcoli non sarà più sufficiente (con l'aumento della complessità degli shader, diminuisce la possibilità di adoperare filtri, ma aumenta anche il rischio di porpagazione degli errori e la necessità di adoperare precisioni di calcolo più elevate)?
N.B. l'applicazione di fp32 non avviene quando si vuole, ma quando non se ne può fare a meno (come specificato nelle indicazioni fornite dalla stessa NV, che consiglia di applicare sempre la precisione più bassa possibile, tra le varie ottimizzazioni).

So cosa chiede nVidia e lo condivido. Ora pero' vediamo in un altro modo.. Quello che dici e' assolutamente perfetto, aggiungerei che si passera' anche a 48 e 64 bit presto (non so quanto sia 'sto presto :D), ma accadra' di certo, anche oltre. Questo non vuol dire che i 16bit non possano bastare per alcune cose anche quando questo sara' accaduto.. La flessibilita' in questo caso e' un pregio piu' importante della potenza bruta.
Inoltre e' fondamentale capire come queste VGA non saranno in grado di far girare bene giochi cosi' avanzati da richiedere un calcolo full32, perche' si trattera' di mostri di grafica che ora nemmeno immaginiamo, AoE mette gia' alla frusta qualunque VGA. Guardare lontano va bene, ma con un po' di "piadi per terra". Sono convinto che la prossima generazione nVidia (magari con il G80) la situazione sara' gia' ridimensionata. Ora pero' mi sembra la miglior soluzione, non presenta differeza alcuna all'atto pratico e rende meglio.


non ha senso concettualmente creare due "catene di montaggio" per produrre lo stesso chip. Inoltre, non tutti i dati che si hanno a disposizione si possono postare su un forum.
Spero, comunque, che ci si rebda conto dell'essurdità anche della sola idea di mettere su una linea a parte, per produrre poche migliaia di esemplari di un chip.

Di questo ne ho parlato sopra, ridico solo che ritengo molto probabile che la nuova rev sia usata anche per le 256.


ho scritto quello che potevo e che si può reperire anche in rete; le specifiche definitive delle gddr3 da 1,1 ns sono state definite il 26 settembre 2005 (e rispetto a quelle di agosto presentavano solo una variazione a livello di specifiche sull'alimentazione dei chip). Le gddr3 da 1,1 escono fuori dallo stesso processo produttivo di quelle da 1,2 e sono regolarmente prodotte, con le specifiche definitive, da ottobre.

Dunque non posso verificare da nessuna parte che le ram ci sono e non posso scrivere ad nVidia dicendo: "ma che cavolo state a di'?!?! le ram ci sono e ci state prendendo per i fondelli!!" ??


con la GTX è stato possibile perchè la cosa è stata gestita in maniera da crearne le premesse; ad iniziare dalla disponibilità immediata, seppure in volumi limitati, delle vga, che ha fatto crescere la febbre (e l'illusione che ce ne fossero per tutti).
ATi, in fatto di marketing, ha ancora molto da imparare :D

La vediamo differentemente, seguito a dire che la finiamo qui. :) Penso tu sia d'accordo.
Concordiamo sul fatto che quanto a marketing ATi abbia da imparare motlo da nVidia, che per altro ha trovato un partner perfetto in Sony!! tra loro due non saprei proprio quale sia migliore su questo fronte. :)


Altra cosa che ti avrebbe dovuto far riflettere, sarebbe dovuta essere l'affermazione di NV in merito alle forniture di RSX a Sony (sull'impossibilità di fornire elevati volumi di chip funzionanti senza problemi a 550 Mhz).

L'RSX e' a 90nm, non penso che si abbiano problemi a produrne da 550Mhz. Forse si trattava di quelli destinati ai primi Kit di sviluppo non basati su G70.

yossarian
19-12-2005, 03:00
Beh, seguitiamo con le ipotesi, non credo questo discorso ci porti piu' oltre e possiamo farne di piu' interessanti. :)



di ipotetica c'è solo la disponibilità in volumi elevati dei chip per la 512 MB.


So cosa chiede nVidia e lo condivido. Ora pero' vediamo in un altro modo.. Quello che dici e' assolutamente perfetto, aggiungerei che si passera' anche a 48 e 64 bit presto (non so quanto sia 'sto presto :D), ma accadra' di certo, anche oltre. Questo non vuol dire che i 16bit non possano bastare per alcune cose anche quando questo sara' accaduto.. La flessibilita' in questo caso e' un pregio piu' importante della potenza bruta.
Inoltre e' fondamentale capire come queste VGA non saranno in grado di far girare bene giochi cosi' avanzati da richiedere un calcolo full32, perche' si trattera' di mostri di grafica che ora nemmeno immaginiamo, AoE mette gia' alla frusta qualunque VGA. Guardare lontano va bene, ma con un po' di "piadi per terra". Sono convinto che la prossima generazione nVidia (magari con il G80) la situazione sara' gia' ridimensionata. Ora pero' mi sembra la miglior soluzione, non presenta differeza alcuna all'atto pratico e rende meglio.



già lo sm4.0 prevede l'uso di full fp32.
Al momento può essere ancora utilizzato fp16, ma possono essere utilizzati tranquillamente anche i filtri, Quindi il discorso che hai fatto sulla longevità, basandoti sull'utilizzo o meno dei filtri, se attualizzato, viene automaticamente a decadere.


Di questo ne ho parlato sopra, ridico solo che ritengo molto probabile che la nuova rev sia usata anche per le 256.


Non è che è stato messo a punto un nuovo processo per la versione a 512 che "forse" si utilizza anche epr la 256; è il contrario; sono uscite nuove rev di G70 (in genere), i chip più perfetti delle quali sono utilizzati per la versione a 512 MB.

Dunque non posso verificare da nessuna parte che le ram ci sono e non posso scrivere ad nVidia dicendo: "ma che cavolo state a di'?!?! le ram ci sono e ci state prendendo per i fondelli!!" ??


non puoi neppure verificare che ci siano i chip grafici; eppure hai preso per buone la parole di un pr nVIDIA che dava la colpa a samsung per la carenza di GTX da 512 MB; faccio presente che samsung non ha mai detto da nessuna parte che le ram da 1,1 e da 1,2 ns non erano in produzione). La storia delle ram da 1,1 ns è analoga a quella dei chip della 512 MB; escono dallo stesso processo produttivo di quelle da 1,2, con cui condividono caratteristiche pressochè identiche (ad esempio il numero di pin e i valori delle tensioni di alimentazione; la sigla BJ indica una tensione di VDD e VDDQ di 2 V, mentre la sigla BC indica una tensione di 1,8 V). Come per i chip grafici, anche per i moduli di ram, i migliori sono messi da parte e fatti funzionare a frequenze più elevate. Man mano che si affina il processo produttivo aumenta lo yield dei chip di maggior qualità. Ora, i chip da 1,2 ns sono prodotti in volumi dal Q2 2005 (basta consultare il sito di samsung per rendersene conto); ovviamente, il numero di quelli da 1,1 (la cui produzione è iniziata a ottobre, dopo la definizione delle specifiche definitive) è ridotto rispetto a quelli da 1,2, ma questo non significa che non ce ne siano.
Per curiosità, fino a marzo, in specifica c'erano chip da 1,1, 1,2 e, addirittura, 1,0 ns di tipo BC che sono stati rimossi perchè il loro funzionamento non era stabile con quella tensione di alimentazione (non sono mai stati immessi sul mercato)

L'RSX e' a 90nm, non penso che si abbiano problemi a produrne da 550Mhz. Forse si trattava di quelli destinati ai primi Kit di sviluppo non basati su G70.


forse non mi sono spiegato bene io; sappiamo tutti che l'RSX è a 0,09; il discorso era articolato nel modo seguente: si è chiesto a NV per quale motivo non avesse fornito a Sony chip a 0,11 e la risposta è stata che non l'avevano fatto perchè a 0,11 non potevano garantire uan produzione in volumi elevati (si parlava di un milione di chip come richiesta iniziale, a fronte di una capacità produttiva di qualche decina di migliaia di chip a 0,11).
Con gli 0,09 problemi non credo proprio che ce ne siano.

MadRat
19-12-2005, 05:17
di ipotetica c'è solo la disponibilità in volumi elevati dei chip per la 512 MB.

Ce ne sono tante di cose ipotetiche, compresa l'assenza di ram da 1,1. :)


già lo sm4.0 prevede l'uso di full fp32.
Al momento può essere ancora utilizzato fp16, ma possono essere utilizzati tranquillamente anche i filtri, Quindi il discorso che hai fatto sulla longevità, basandoti sull'utilizzo o meno dei filtri, se attualizzato, viene automaticamente a decadere.

Ti sei contraddetto, il full 32 sara' richiesto alle VGA SM4.0, non penso proprio che i giochi che utilizzeranno a pieno le potenzialita' di VGA che saranno dalle 2 alle 4 volte piu' potenti di queste, potranno mai funzionare su una X1800XT solo perche' e' full 32. ;) Ora e per molto tempo ancora la soluzione ibrida di nVidia andra' bene. Il mio discorso di longevita' non arriva fino all'usare giochi SM 4.0 (magari tra un anno e mezzo). Comuqnue questi titoli a prescindere dalla precisione a 32bit, non funzioneranno affatto sugli R5xx, dunque calando la quailta' dai settaggi (SM3.0), rtornera' il vantaggio nVidia.


Non è che è stato messo a punto un nuovo processo per la versione a 512 che "forse" si utilizza anche epr la 256; è il contrario; sono uscite nuove rev di G70 (in genere), i chip più perfetti delle quali sono utilizzati per la versione a 512 MB.

La news bubblicata non diceva questo. Era abbastanza chiara.


forse non mi sono spiegato bene io; sappiamo tutti che l'RSX è a 0,09; il discorso era articolato nel modo seguente: si è chiesto a NV per quale motivo non avesse fornito a Sony chip a 0,11 e la risposta è stata che non l'avevano fatto perchè a 0,11 non potevano garantire uan produzione in volumi elevati (si parlava di un milione di chip come richiesta iniziale, a fronte di una capacità produttiva di qualche decina di migliaia di chip a 0,11).
Con gli 0,09 problemi non credo proprio che ce ne siano.

Mi sembra anche ovvio che non sia possibile con un chip a 0,11nm arrivare a tanto, per quanto benissimo possa essere venduta una VGA d'elite come quella, il proprio numero sara' sempre ridicolo rispetto alle PS3 che verranno piazzate, dunque e' necessaria, per forza, una produzione con nanometria differente, che consenta maggiori rese e minori costi. Non scordare inoltre che l'RSX va inserito dentro una console, le temperature si elevano all'ennesima poteza in tali condizioni. Un RSX a 90nm lavorante a 550Mhz sarebbe downcloccato e scalderebbe un niente, uno a 0,11nm invece da solo scalderebbe come un fornello da cucina e farebbe la fine di alcuni xbox360. :)

yossarian
19-12-2005, 13:09
Ce ne sono tante di cose ipotetiche, compresa l'assenza di ram da 1,1. :)



questione di punti di vista



Ti sei contraddetto, il full 32 sara' richiesto alle VGA SM4.0, non penso proprio che i giochi che utilizzeranno a pieno le potenzialita' di VGA che saranno dalle 2 alle 4 volte piu' potenti di queste, potranno mai funzionare su una X1800XT solo perche' e' full 32. ;) Ora e per molto tempo ancora la soluzione ibrida di nVidia andra' bene. Il mio discorso di longevita' non arriva fino all'usare giochi SM 4.0 (magari tra un anno e mezzo). Comuqnue questi titoli a prescindere dalla precisione a 32bit, non funzioneranno affatto sugli R5xx, dunque calando la quailta' dai settaggi (SM3.0), rtornera' il vantaggio nVidia.


dov'è la contraddizione? Lo sm4.0 sarà introdotto nel corso del 2006 e prevede un aumento della precisione di calcolo; questo significa che si sta già migrando verso applicazioni che richiederanno sempre più l'utlizzo di fp32.
La contraddizione, semmai, è stata tua, quando hai affermato che G70 è più longevo perchè un domani non si potranno utilizzare i filtri e, quando ti ho fatto notare che un domani sarà richiesta una maggiore precisione di calcolo, che farà perdere, nella migliore delle ipotesi, un 20% solo per i calcoli matematici (n.b. non ho parlato di operazioni di texture fetch, in cui, all'aumentare del numero di texel per pixel, il vantaggio di R520, rispetto a G70 cresce in maniera imbarazzante, tanto che già con soli 4 layer la GTX 512 MB è sotto alla 1800XL), hai affermato che oggi sono sufficienti i 16 bit per la maggior parte delle applicazioni


La news bubblicata non diceva questo. Era abbastanza chiara.



la news pubblicata dice pure che è stato messo a punto un nuovo processo proiduttivo esclusivo per la 512 MB di cui "forse" potrebbe beneficiare la 256 MB, oppure che sono state apportate alcune modifiche (non specificate), che permettono di aumentare le frequenze e le tensioni di alimentazioni ai chip della famiglia G70? Da quanto hai affermato, sembra che si sia messo a punto un processo esclusivo per la 512 MB di cui potrebbero beneficiare altri chip della stessa famiglia (il che equivale a mettere su una linea di produzione parallela per fabbricare, sostanzialmente, lo stesso chip). Ripeto, le uniche varianti modifiche sono state apportate a i transistor di giunzione per ridurre gli accoppiamenti capacitivi e al pcb della vga (circuito di alimentazione e connessioni con ram da 136 pin). Variazioni analoghe a quelle viste nel passaggio da R300 a R350 prima e R360 poi (tanto per fare un esempio)



Mi sembra anche ovvio che non sia possibile con un chip a 0,11nm arrivare a tanto, per quanto benissimo possa essere venduta una VGA d'elite come quella, il proprio numero sara' sempre ridicolo rispetto alle PS3 che verranno piazzate, dunque e' necessaria, per forza, una produzione con nanometria differente, che consenta maggiori rese e minori costi. Non scordare inoltre che l'RSX va inserito dentro una console, le temperature si elevano all'ennesima poteza in tali condizioni. Un RSX a 90nm lavorante a 550Mhz sarebbe downcloccato e scalderebbe un niente, uno a 0,11nm invece da solo scalderebbe come un fornello da cucina e farebbe la fine di alcuni xbox360. :)
Questo contraddice quanto hai affermato precedentemente: se esiste una linea di produzione "dedicata", si presume che sia stata messa in piedi per sfornare un numero elevato di chip, non poche migliaia o decine di migliaia. Il che vuol dire che potrebbe andare a coprire le richieste di sony per la sua ps3 in attesa delle famigerate ram da 1,1 ns. Solo un pazzo investirebbe soldi in una "catena di montaggio" destinata a produrre un numero limitato di esemplari.
Insomma, non si sfugge: linea di produzione dedicata, con annessa possibile produzione di massa (altrimenti viene a mancare il senso di una linea dedicata), oppure produzione di un numero limitato di esemplari usciti dalla linea di produzione unica dedicata alla serie 7?

MadRat
19-12-2005, 17:43
dov'è la contraddizione? Lo sm4.0 sarà introdotto nel corso del 2006 e prevede un aumento della precisione di calcolo; questo significa che si sta già migrando verso applicazioni che richiederanno sempre più l'utlizzo di fp32.
La contraddizione, semmai, è stata tua, quando hai affermato che G70 è più longevo perchè un domani non si potranno utilizzare i filtri e, quando ti ho fatto notare che un domani sarà richiesta una maggiore precisione di calcolo, che farà perdere, nella migliore delle ipotesi, un 20% solo per i calcoli matematici (n.b. non ho parlato di operazioni di texture fetch, in cui, all'aumentare del numero di texel per pixel, il vantaggio di R520, rispetto a G70 cresce in maniera imbarazzante, tanto che già con soli 4 layer la GTX 512 MB è sotto alla 1800XL), hai affermato che oggi sono sufficienti i 16 bit per la maggior parte delle applicazioni

Dunque vuoi dirmi che i giochi che funzineranno con gli SM4.0 gireranno meglio su una X1800 anziche' su una 7800?? Possiamo giocarci un'altra birra se vuoi. ;) Ne riparleremo tra un anno, quando usciranno.

la news pubblicata dice pure che è stato messo a punto un nuovo processo proiduttivo esclusivo per la 512 MB di cui "forse" potrebbe beneficiare la 256 MB, oppure che sono state apportate alcune modifiche (non specificate), che permettono di aumentare le frequenze e le tensioni di alimentazioni ai chip della famiglia G70? Da quanto hai affermato, sembra che si sia messo a punto un processo esclusivo per la 512 MB di cui potrebbero beneficiare altri chip della stessa famiglia (il che equivale a mettere su una linea di produzione parallela per fabbricare, sostanzialmente, lo stesso chip). Ripeto, le uniche varianti modifiche sono state apportate a i transistor di giunzione per ridurre gli accoppiamenti capacitivi e al pcb della vga (circuito di alimentazione e connessioni con ram da 136 pin). Variazioni analoghe a quelle viste nel passaggio da R300 a R350 prima e R360 poi (tanto per fare un esempio)


Questo contraddice quanto hai affermato precedentemente: se esiste una linea di produzione "dedicata", si presume che sia stata messa in piedi per sfornare un numero elevato di chip, non poche migliaia o decine di migliaia. Il che vuol dire che potrebbe andare a coprire le richieste di sony per la sua ps3 in attesa delle famigerate ram da 1,1 ns. Solo un pazzo investirebbe soldi in una "catena di montaggio" destinata a produrre un numero limitato di esemplari.
Insomma, non si sfugge: linea di produzione dedicata, con annessa possibile produzione di massa (altrimenti viene a mancare il senso di una linea dedicata), oppure produzione di un numero limitato di esemplari usciti dalla linea di produzione unica dedicata alla serie 7?

Direi che ci siano altre soluzioni tra i punti di vista. Come gia' ipotizzato, in vista dell'uscita della 512mb nVidia ha affinato la produzione del proprio chip ed i migliori sono destinati a questa, gli altri alla 256. Produzione assolutamente insufficiente per coprire le richieste Sony, nemmeno se fossero TUTTI buoni per i 550Mhz.
Un tale chip a 110nm va bene solo per una VGA come al 7800 che e' d'elite, dunque venduta in pochi esemplari.

yossarian
19-12-2005, 18:39
Dunque vuoi dirmi che i giochi che funzineranno con gli SM4.0 gireranno meglio su una X1800 anziche' su una 7800?? Possiamo giocarci un'altra birra se vuoi. ;) Ne riparleremo tra un anno, quando usciranno.



a parte il fatto che il discorso sullo sm4.0 l'ho introdotto solo per farti capire che la transizione verso SW che richiederanno fp32 è molto più vicina di quello che pensi, non puoi, comunque, negare, che l'architettura di R5x0 ha parentele più strette con una a shader unificati di quanto non l'abbia quella di G70 :D
Facciamo un passo indietro: hai affermato che un domani, quando non sarà possibile usare i filtri, i chip NV saranno da preferire. Analizziamo questa affermazione.
Cosa dovrebbe rallentare le applicazioni al punto da non permettere l'utilizzo dei filtri? Basta guardare quali sono gli stadi che più di tutti influenzano le operazioni. Nello specifico, parliamo della complessità delle operazioni matematiche (soprattutto nei ps) e delle operazioni di texturing. Si presume che un SW più complesso sia tale perchè utilizzi operazioni più complesse (che richiedono più cicli e un elevato numero di registri impegnati) e, nello stesso tempo, più layer di texture. Istruzioni più lunghe presentano un più elevato rischio di propagazione degli errori. Questo significa che, per non incorrere in difetti di visualizzazione, si deve ricorrere a una maggior precisione di calcolo; e sappiamo che in fp32 le prestazioni dei chip Nv calano del 20% almeno (dato che viene fuori da calcoli teorici, confermato sperimentalmente). Aumentando il numero di texel per pixel a fare la differenza sono la texture cache fully associative e il ring bus a cui fanno ricorso i chip ATi (quella di NV40 e di G70 è a mappatura diretta con bus di tipo crossbar). Anche qui, i dati teorici e quelli sono molto chiari. Nei test sulle operazioni di texture fetch, il degrado di prestazioni della 512 MB è piuttosto veloce, tanto che, già con 4 texel, è sotto alla 1800XL (non XT, quindi frequenza di chip inferiore, minore bandwidth e 16 tmu contro le 24 della GTX).
Se, invece, non dovesse aumentare la complessitàd ei SW (cosa che non credo), allora si potrebbe continuare a utilizzare anche i filtri in tutta tranquillità.




Direi che ci siano altre soluzioni tra i punti di vista. Come gia' ipotizzato, in vista dell'uscita della 512mb nVidia ha affinato la produzione del proprio chip ed i migliori sono destinati a questa, gli altri alla 256. Produzione assolutamente insufficiente per coprire le richieste Sony, nemmeno se fossero TUTTI buoni per i 550Mhz.
Un tale chip a 110nm va bene solo per una VGA come al 7800 che e' d'elite, dunque venduta in pochi esemplari.

questo è esattamente quello che ho detto io. Tra l'altro di una GTX a frequenze sensibilemnte più elevate e con 512 MB di ra, Orton ne aveva parlato a luglio di quest'anno; quindi non solo non è stata una sorpresa, ma era ampiamente prevista e preventivabile (almeno dagli addetti ai lavori) :D

MadRat
19-12-2005, 18:58
a parte il fatto che il discorso sullo sm4.0 l'ho introdotto solo per farti capire che la transizione verso SW che richiederanno fp32 è molto più vicina di quello che pensi, non puoi, comunque, negare, che l'architettura di R5x0 ha parentele più strette con una a shader unificati di quanto non l'abbia quella di G70 :D

Sono assolutamente d'accordo, sapessi quanto mi hanno dato dell'ignorante perche' sostenevo cio' prima che uscise. :)

Facciamo un passo indietro: hai affermato che un domani, quando non sarà possibile usare i filtri, i chip NV saranno da preferire. Analizziamo questa affermazione.
Cosa dovrebbe rallentare le applicazioni al punto da non permettere l'utilizzo dei filtri? Basta guardare quali sono gli stadi che più di tutti influenzano le operazioni. Nello specifico, parliamo della complessità delle operazioni matematiche (soprattutto nei ps) e delle operazioni di texturing. Si presume che un SW più complesso sia tale perchè utilizzi operazioni più complesse (che richiedono più cicli e un elevato numero di registri impegnati) e, nello stesso tempo, più layer di texture. Istruzioni più lunghe presentano un più elevato rischio di propagazione degli errori. Questo significa che, per non incorrere in difetti di visualizzazione, si deve ricorrere a una maggior precisione di calcolo; e sappiamo che in fp32 le prestazioni dei chip Nv calano del 20% almeno (dato che viene fuori da calcoli teorici, confermato sperimentalmente). Aumentando il numero di texel per pixel a fare la differenza sono la texture cache fully associative e il ring bus a cui fanno ricorso i chip ATi (quella di NV40 e di G70 è a mappatura diretta con bus di tipo crossbar). Anche qui, i dati teorici e quelli sono molto chiari. Nei test sulle operazioni di texture fetch, il degrado di prestazioni della 512 MB è piuttosto veloce, tanto che, già con 4 texel, è sotto alla 1800XL (non XT, quindi frequenza di chip inferiore, minore bandwidth e 16 tmu contro le 24 della GTX).
Se, invece, non dovesse aumentare la complessitàd ei SW (cosa che non credo), allora si potrebbe continuare a utilizzare anche i filtri in tutta tranquillità.


Non sono d'accordo con nulla di cio' che dici!! :D Un evento, non capita spesso!!
I giochi che richiedeanno simile precisione saranno concepiti per VGA molto piu' potenti delle attuali. Un po' come accade per i titoli che fanno uso degli SM3.0 le vecchie generazioni dovranno ricorrere ai 2.0 perdendo parte del nuovo motore grafico. Duqnue un domani, quando usciranno questi titoli, si dovranno settare per TUTTE le VGA attuali, impostazioni conservative che elimineranno la necessita' della precisione full32.
Ora credo sia inutile allungare questo post. Vedremo. :)


questo è esattamente quello che ho detto io. Tra l'altro di una GTX a frequenze sensibilemnte più elevate e con 512 MB di ra, Orton ne aveva parlato a luglio di quest'anno; quindi non solo non è stata una sorpresa, ma era ampiamente prevista e preventivabile (almeno dagli addetti ai lavori) :D

Vedi che alla fine diciamo le stesse cose vedendole da due punti di vista differenti?? :)

fek
19-12-2005, 20:29
I giochi che richiedeanno simile precisione saranno concepiti per VGA molto piu' potenti delle attuali. Un po' come accade per i titoli che fanno uso degli SM3.0 le vecchie generazioni dovranno ricorrere ai 2.0 perdendo parte del nuovo motore grafico. Duqnue un domani, quando usciranno questi titoli, si dovranno settare per TUTTE le VGA attuali, impostazioni conservative che elimineranno la necessita' della precisione full32.
Ora credo sia inutile allungare questo post. Vedremo. :)


Shader che richiedono l'SM3.0 pensati per architetture high-end di oggi richiedono gia' oggi fp32 in molte situazioni, pena decadimenti inaccettabili della precisione e quindi del risultato finale. Mi vengono in mente effetti quali parallax mapping, oppure tone mapping non banali.

Ha assolutamente ragione yoss ad affermare che un'architettura che gia' oggi supporta fp32 nativamente ha un certo vantaggio in prospettiva non troppo remota.

MadRat
20-12-2005, 00:43
Shader che richiedono l'SM3.0 pensati per architetture high-end di oggi richiedono gia' oggi fp32 in molte situazioni, pena decadimenti inaccettabili della precisione e quindi del risultato finale. Mi vengono in mente effetti quali parallax mapping, oppure tone mapping non banali.

Ha assolutamente ragione yoss ad affermare che un'architettura che gia' oggi supporta fp32 nativamente ha un certo vantaggio in prospettiva non troppo remota.

Me la gioco anche con te la birra, sempre che non me la avveleni, perche' saro io a berla. :)

Io ho semplicemente detto che quando i giochi richiederanno un full 32, queste VGA saranno tropo scarse per farli girare ed impostando i settaggi fino al renderli "utilizzabili" le nVida balzeranno nuovamente avanti. Magari mi sbaglio, si vedra'. ;)

yossarian
20-12-2005, 01:04
Me la gioco anche con te la birra, sempre che non me la avveleni, perche' saro io a berla. :)

Io ho semplicemente detto che quando i giochi richiederanno un full 32, queste VGA saranno tropo scarse per farli girare ed impostando i settaggi fino al renderli "utilizzabili" le nVida balzeranno nuovamente avanti. Magari mi sbaglio, si vedra'. ;)

quali elementi dovrebbero far aumentare la complessità di un gioco, al punto da rendere inutilizzabili i filtri?

MiKeLezZ
20-12-2005, 01:19
quali elementi dovrebbero far aumentare la complessità di un gioco, al punto da rendere inutilizzabili i filtri?
Calcoli fisici?
Ma perchè non fanno 2 chip come nella xbox360? Con uno dedicato solo ai filtri?

yossarian
20-12-2005, 01:34
Calcoli fisici?
Ma perchè non fanno 2 chip come nella xbox360? Con uno dedicato solo ai filtri?

la fisica la può calcolare la cpu o si possono integrare schede dedicate. Parlo di elaborazioni riservate esclusivamente alla gpu.

Ci sono due unità distinte, di cui una dedicata ai filtri. Nella 360 si tratta di due chip, nelle gpu per pc si hanno le rop's che si occupano dell'applicazione del MSAA (hanno anche un'unità dedicata, che è presente anche sul chip della 360). Nella 360, il secondo chip svolge le funzioni delle rop's

MadRat
20-12-2005, 03:25
quali elementi dovrebbero far aumentare la complessità di un gioco, al punto da rendere inutilizzabili i filtri?

Assolutamente sì, basterebbe un maggior numero di poligoni. Fai conto un gioco attuale in SM3.0 con modelli piu' dettagliati, che con quelle che saranno le ultime VGA potra' funzionare con gli SM4.0 e risoluzioni piu' elevate.

fek
20-12-2005, 09:45
Me la gioco anche con te la birra, sempre che non me la avveleni, perche' saro io a berla. :)

Io ho semplicemente detto che quando i giochi richiederanno un full 32, queste VGA saranno tropo scarse per farli girare ed impostando i settaggi fino al renderli "utilizzabili" le nVida balzeranno nuovamente avanti. Magari mi sbaglio, si vedra'. ;)

Black&White 2 sia nello shader dell'acqua sia negli shader di post processing richiede alcuni calcoli a 32 bit altrimenti presenta pesanti artefatti. Infatti disabilito quegli shader su NV3X. Ci devi una birra :)

yossarian
20-12-2005, 10:20
Assolutamente sì, basterebbe un maggior numero di poligoni. Fai conto un gioco attuale in SM3.0 con modelli piu' dettagliati, che con quelle che saranno le ultime VGA potra' funzionare con gli SM4.0 e risoluzioni piu' elevate.

finora il numero di poligoni non è stato fattore determinante per le prestazioni, se non in rarissime occasioni.
La principale discriminante è dovuta ai calcoli matematici nei ps e alle operazioni di texture fetch. Basta fare un calcolo relativo alle latenze di un'operazione di texturing, ad esempio, per farsi un'idea.

Come ti ha detto anche fek, già adesso, la complessità delle operazioni a livello di pixel shading richiede, per alcuni shader, la compilazione in fp32.
Questo senza tener conto del fatto che una cache a mappatura diretta può dar luogo a problemi di cache miss e che con una crossbar connection, all'aumentare del quantitativo di ram, aumentano le latenze relative ad operazioni che richiedono il trasferimento dati da e verso locazioni di memoria connesse al mc tramite lo stesso canale.

MadRat
20-12-2005, 16:02
finora il numero di poligoni non è stato fattore determinante per le prestazioni, se non in rarissime occasioni.
La principale discriminante è dovuta ai calcoli matematici nei ps e alle operazioni di texture fetch. Basta fare un calcolo relativo alle latenze di un'operazione di texturing, ad esempio, per farsi un'idea.

Come ti ha detto anche fek, già adesso, la complessità delle operazioni a livello di pixel shading richiede, per alcuni shader, la compilazione in fp32.
Questo senza tener conto del fatto che una cache a mappatura diretta può dar luogo a problemi di cache miss e che con una crossbar connection, all'aumentare del quantitativo di ram, aumentano le latenze relative ad operazioni che richiedono il trasferimento dati da e verso locazioni di memoria connesse al mc tramite lo stesso canale.

Hai detto bene; "finora". :) I prossimi titoli saranno sicuramente molto piu' spinti da questo punto di vista e gli SM utilizzati saranno i 4.0 (che richiederanno una precisione full 32). Saremo percio' costretti a passare ai "vecchi" 3.0 con le attuali VGA, dunque l'NV40 andra benissimo, anzi meglio. Comunque stiamo procedendo per ipotesi riguardo al futuro, meglio attendere, tanto il tempo scorre in fretta.

yossarian
20-12-2005, 16:10
Hai detto bene; "finora". :) I prossimi titoli saranno sicuramente molto piu' spinti da questo punto di vista e gli SM utilizzati saranno i 4.0 (che richiederanno una precisione full 32). Saremo percio' costretti a passare ai "vecchi" 3.0 con le attuali VGA, dunque l'NV40 andra benissimo, anzi meglio. Comunque stiamo procedendo per ipotesi riguardo al futuro, meglio attendere, tanto il tempo scorre in fretta.

tu hai parlato di titoli che non permetterebbero l'utilizzo di filtri (per cui sarebbero da preferire i chip NV) e non richiederebbero l'uso di fp32.
Allo stato attuale il trend è che ci sono più titoli che fanno ricorso a fp32 di quanti non permettano l'attivazione dei filtri e che i giochi non sono quasi mai limitati dalla geometria.

Inoltre, devo ricordarti che in tutti i test relativi ai vertex shaders ATi è avanti (addirittura con R4x0)?

Continuo a non vedere il motivo per cui i chip Nv dovrebbero essere migliori o più longevi

fek
20-12-2005, 17:16
tu hai parlato di titoli che non permetterebbero l'utilizzo di filtri (per cui sarebbero da preferire i chip NV) e non richiederebbero l'uso di fp32.
Allo stato attuale il trend è che ci sono più titoli che fanno ricorso a fp32 di quanti non permettano l'attivazione dei filtri e che i giochi non sono quasi mai limitati dalla geometria.

Inoltre, devo ricordarti che in tutti i test relativi ai vertex shaders ATi è avanti (addirittura con R4x0)?

Continuo a non vedere il motivo per cui i chip Nv dovrebbero essere migliori o più longevi

D'accordo con il trend dipinto da yoss. Anch'io vedo un deciso vantaggio architetturale di NVIDIA ed in prospettiva un vantaggio di ATI, soprattutto per l'esperienza accumulata con l'R500.

MadRat
20-12-2005, 20:19
Black&White 2 sia nello shader dell'acqua sia negli shader di post processing richiede alcuni calcoli a 32 bit altrimenti presenta pesanti artefatti. Infatti disabilito quegli shader su NV3X. Ci devi una birra :)

Non ho detto che non si usano/useranno i 32bit.. sia mai.. la stessa nVidia dice di usarli qualora non fosse possibile usare la precisione a 16 bit!!
Leggi bene cosa ho detto.
Quale va meglio l'NV40 o l'R520 in questo caso?? ;)

Ora per quanto si tratti di tom&gerryHW
http://www.tomshw.it/graphic.php?guide=20051202&page=vga_charts_viii-13
I risultati parlano chiaro.
Non so la patch che risultati dia, ma non mi sembra che quegli shader a 32bit mettano in crisi l'NV4x.. Per ora la birra e' mia.. da qui a un anno magari diventa vostra. :D (siete due, ovviamente ne voglio due!!)

MadRat
20-12-2005, 20:25
tu hai parlato di titoli che non permetterebbero l'utilizzo di filtri (per cui sarebbero da preferire i chip NV) e non richiederebbero l'uso di fp32.
Allo stato attuale il trend è che ci sono più titoli che fanno ricorso a fp32 di quanti non permettano l'attivazione dei filtri e che i giochi non sono quasi mai limitati dalla geometria.

Inoltre, devo ricordarti che in tutti i test relativi ai vertex shaders ATi è avanti (addirittura con R4x0)?

Continuo a non vedere il motivo per cui i chip Nv dovrebbero essere migliori o più longevi

D'accordo con il trend dipinto da yoss. Anch'io vedo un deciso vantaggio architetturale di NVIDIA ed in prospettiva un vantaggio di ATI, soprattutto per l'esperienza accumulata con l'R500.


Sicuramente il trend lo sai meglio di me, cio' nonostante, almeno per ora non vi sono casi nei quali gli shader a 32bit possano mettere in crisi le attuali VGA nVidia.
Vedremo in futuro. Per ora e' certo che eliminando i filtri nVidia e' avanti, il resto sono supposizioni.

yossarian
20-12-2005, 20:29
Non ho detto che non si usano/useranno i 32bit.. sia mai.. la stessa nVidia dice di usarli qualora non fosse possibile usare la precisione a 16 bit!!
Leggi bene cosa ho detto.
Quale va meglio l'NV40 o l'R520 in questo caso?? ;)

Ora per quanto si tratti di tom&gerryHW
http://www.tomshw.it/graphic.php?guide=20051202&page=vga_charts_viii-13
I risultati parlano chiaro.
Non so la patch che risultati dia, ma non mi sembra che quegli shader a 32bit mettano in crisi l'NV4x.. Per ora la birra e' mia.. da qui a un anno magari diventa vostra. :D (siete due, ovviamente ne voglio due!!)

dov'è scritto che i chip NV usano fp32 e non forzino fp16? In fondo la stessa cosa la fanno anche in altri giochi. Come pesìnsi che abbiano guadagnato quel 20% in HL2 da una release di driver alla successiva, all'epoca dell'uscita del gioco?

A proposito, guardando i test di Tom, mi sa tanto che sia sa rimettere in discussione anche l'esito dell'altra scommessa: sembra che i 512 MB non siano cosi importanti in UQ :D

http://www.tomshw.it/graphic.php?guide=20051202&page=vga_charts_viii-10

yossarian
20-12-2005, 20:41
Sicuramente il trend lo sai meglio di me, cio' nonostante, almeno per ora non vi sono casi nei quali gli shader a 32bit possano mettere in crisi le attuali VGA nVidia.
Vedremo in futuro. Per ora e' certo che eliminando i filtri nVidia e' avanti, il resto sono supposizioni.

mi pare che non ci siano neppure giochi che non permettano l'attivazione dei filtri con vga ATi. Quindi non vedo il motivo di fare confronti senza filtri tra vga di fascia alta. Se devo giocare senza filtri mi tengo una 9700 pro :D

MadRat
20-12-2005, 20:54
dov'è scritto che i chip NV usano fp32 e non forzino fp16? In fondo la stessa cosa la fanno anche in altri giochi. Come pesìnsi che abbiano guadagnato quel 20% in HL2 da una release di driver alla successiva, all'epoca dell'uscita del gioco?

Dove ho mai detto una cosa del genere?? :o
Io ho detto che per ora si possono usare i 16bit senza pregiudicare la qualita' (e mi pare che HL2 sia perfetto) e che in quei pochi titoli, come B&W2, nei quali e' presente qualche shader a 32bit non si presentano cali prestazionali o palesi vantaggi ATI.

A proposito, guardando i test di Tom, mi sa tanto che sia sa rimettere in discussione anche l'esito dell'altra scommessa: sembra che i 512 MB non siano cosi importanti in UQ :D

http://www.tomshw.it/graphic.php?guide=20051202&page=vga_charts_viii-10

Quando troviamo un altro test ne parliamo, lo sai che la penso piu' o meno come te riguardo i test di tom's, no dico che siano sempre errati, ma hanno quanto meno un mare di errori di impaginazione ed incolonnamento.

Foglia Morta
20-12-2005, 21:00
dov'è scritto che i chip NV usano fp32 e non forzino fp16? In fondo la stessa cosa la fanno anche in altri giochi. Come pesìnsi che abbiano guadagnato quel 20% in HL2 da una release di driver alla successiva, all'epoca dell'uscita del gioco?
ah ecco chiarito il mistero :) , ricordavo che le vga nVidia perdevano in Half Life 2 più di quanto le Ati perdessero con Doom3... ora è tutto chiaro

MadRat
20-12-2005, 21:02
mi pare che non ci siano neppure giochi che non permettano l'attivazione dei filtri con vga ATi. Quindi non vedo il motivo di fare confronti senza filtri tra vga di fascia alta.


A parte che ci sono.. e poi ci saranno entro breve.

Se devo giocare senza filtri mi tengo una 9700 pro :D

Ne ho una e non so che farmene oramai, la vuoi?? :D

http://img331.imageshack.us/img331/968/9800pro4lt.jpg (http://imageshack.us)

yossarian
20-12-2005, 21:02
Dove ho mai detto una cosa del genere?? :o
Io ho detto che per ora si possono usare i 16bit senza pregiudicare la qualita' (e mi pare che HL2 sia perfetto) e che in quei pochi titoli, come B&W2, nei quali e' presente qualche shader a 32bit non si presentano cali prestazionali o palesi vantaggi ATI.



e infatti, non a caso fek ha parlato di un vantaggio attuale da parte di NV e di uno in prospettiva da parte di ATi.
Solo che tu hai parlato di una maggior longevità in quanto si hanno migliori prestazioni senza filtro, e ti ho fatto notare che, finora, non ci sono giochi in cui non si possano utilizzare i filtri e quando ciò non sarà possibile con le attuali vga, il motivo sarà da imputare alla complessità dei calcoli che avvantaggerà ATi. Quindi quello che NV guadagnerà dalla disabilitazione dei filtri, lo riperderà a causa delle maggiori difficoltà a gestire calcoli complessi.

MadRat
20-12-2005, 21:04
ah ecco chiarito il mistero :) , ricordavo che le vga nVidia perdevano in Half Life 2 più di quanto le Ati perdessero con Doom3... ora è tutto chiaro

Con la differenza che le VGA nVidia permettono di recuperare il divario senza perdere qualita', le ATI no.. ;)

MadRat
20-12-2005, 21:05
e infatti, non a caso fek ha parlato di un vantaggio attuale da parte di NV e di uno in prospettiva da parte di ATi.
Solo che tu hai parlato di una maggior longevità in quanto si hanno migliori prestazioni senza filtro, e ti ho fatto notare che, finora, non ci sono giochi in cui non si possano utilizzare i filtri e quando ciò non sarà possibile con le attuali vga, il motivo sarà da imputare alla complessità dei calcoli che avvantaggerà ATi. Quindi quello che NV guadagnerà dalla disabilitazione dei filtri, lo riperderà a causa delle maggiori difficoltà a gestire calcoli complessi.

Vedremo!! :cincin:

yossarian
20-12-2005, 21:08
A parte che ci sono.. e poi ci saranno entro breve.



quali, visto che anche FEAR è giocabilissimo almeno a 1024x768 con AA4x e AF16x (e volendo si può giocare anche a 1280x1024)?

Ne ho una e non so che farmene oramai, la vuoi??


Se me la regali, visto che ne ho già una (e mi ci trovo benissimo) :D

Foglia Morta
20-12-2005, 21:13
Con la differenza che le VGA nVidia permettono di recuperare il divario senza perdere qualita', le ATI no.. ;)
guarda per me non fa testo perchè entrambi i titoli sono giocabilissimi sia con Ati che con nVidia , quando ci saranno titoli che stressano le gpu in questione si rifaranno i conti ma da quanto leggo le Ati dovrebbero cavarsela meglio.

fek
20-12-2005, 21:21
e infatti, non a caso fek ha parlato di un vantaggio attuale da parte di NV e di uno in prospettiva da parte di ATi.
Solo che tu hai parlato di una maggior longevità in quanto si hanno migliori prestazioni senza filtro, e ti ho fatto notare che, finora, non ci sono giochi in cui non si possano utilizzare i filtri e quando ciò non sarà possibile con le attuali vga, il motivo sarà da imputare alla complessità dei calcoli che avvantaggerà ATi. Quindi quello che NV guadagnerà dalla disabilitazione dei filtri, lo riperderà a causa delle maggiori difficoltà a gestire calcoli complessi.

Parlare di vantaggi in prospettiva perche' le prestazioni senza filtri sono maggiori e' errato, visto che l'MSAA gia' oggi, ma ancora piu' in futuro, sara' un requisito fondamentale per migliorare la qualita' dell'immagine. Infatti l'X360 permette l'applicazione di MSAA 4X "quasi" gratuito, la nuova architettura ATI supporta MSAA su superfici in floating point, NVIDIA ha introdotto un supporto esplicito a MSAA con alto numero di sample su configurazioni SLI. Tutti gli indizi portano a concludere che quello e' il futuro.

yossarian
20-12-2005, 21:50
Parlare di vantaggi in prospettiva perche' le prestazioni senza filtri sono maggiori e' errato, visto che l'MSAA gia' oggi, ma ancora piu' in futuro, sara' un requisito fondamentale per migliorare la qualita' dell'immagine. Infatti l'X360 permette l'applicazione di MSAA 4X "quasi" gratuito, la nuova architettura ATI supporta MSAA su superfici in floating point, NVIDIA ha introdotto un supporto esplicito a MSAA con alto numero di sample su configurazioni SLI. Tutti gli indizi portano a concludere che quello e' il futuro.

non solo

L'AA su texture e l'utilizzo di MSAA+HDR (che sarà implementato da nVIDIA con la prossima famiglia di chip).
Per quanto riguarda l'AF, invece, la possibilità di abilitare la modalità full trilinear con un impatto prestazionale minimo sugli ultimi chip ATi.

Tutto lascia intendere che i filtri assumeranno sempre più importanza ai fini del miglioramento della qualità d'immagine (ovvio che in quest'ottica non vanno trascurati i vantaggi ottenibili con la maggior precisione di calcolo e il più ampio range disponibile all'interno del frame buffer).


Mi sembra di essere tornati al periodo delle radeon e delle geforce2, quando i fan nVIDIA dicevano che le GF2 erano più longeve perchè era possibile aumentare le prestazioni impostando i 16 bit (4 per canale: qualcosa di inguardabile :D ), mentre con le radeon non si ottenevano vantaggi consistenti (lavorava comunque sempre a 32 bit). :D

MadRat
21-12-2005, 01:31
quali, visto che anche FEAR è giocabilissimo almeno a 1024x768 con AA4x e AF16x (e volendo si può giocare anche a 1280x1024)?

Ho visto varie prove di quel titolo e nesun altro sito propone i risultati che vediamo in questo. Comunque con le softshadow mi sembra avvantaggiata nVidia.. parlando di effetti implementati nel futuro.


Se me la regali, visto che ne ho già una (e mi ci trovo benissimo) :D
Guarda che non le puoi mettere in CF. :D

guarda per me non fa testo perchè entrambi i titoli sono giocabilissimi sia con Ati che con nVidia , quando ci saranno titoli che stressano le gpu in questione si rifaranno i conti ma da quanto leggo le Ati dovrebbero cavarsela meglio.

Il trend attuale e' pro nVidia, il trend teorico (di fek e yoss) e' pro ATI .
Tutti noi sappiamo che c'e' differenza tra la teoria e la pratica. :)

Parlare di vantaggi in prospettiva perche' le prestazioni senza filtri sono maggiori e' errato, visto che l'MSAA gia' oggi, ma ancora piu' in futuro, sara' un requisito fondamentale per migliorare la qualita' dell'immagine. Infatti l'X360 permette l'applicazione di MSAA 4X "quasi" gratuito, la nuova architettura ATI supporta MSAA su superfici in floating point, NVIDIA ha introdotto un supporto esplicito a MSAA con alto numero di sample su configurazioni SLI. Tutti gli indizi portano a concludere che quello e' il futuro.

Infatti quando sara' cosi' (forse, aggiungerei, perche' non si sa mai che altro filtro possa uscire dal cappello di ATI o nVidia) sara' su giochi nuovi/futuri, fatti per girare sulle VGA nuove/future in grado di funzionare bene con MSAA e quant'altro. Queste (attuali) si accontenteranno di zero filtri (MS3.0 ecc..).

MadRat
21-12-2005, 01:43
non solo

L'AA su texture e l'utilizzo di MSAA+HDR (che sarà implementato da nVIDIA con la prossima famiglia di chip).
Per quanto riguarda l'AF, invece, la possibilità di abilitare la modalità full trilinear con un impatto prestazionale minimo sugli ultimi chip ATi.

Tutto lascia intendere che i filtri assumeranno sempre più importanza ai fini del miglioramento della qualità d'immagine (ovvio che in quest'ottica non vanno trascurati i vantaggi ottenibili con la maggior precisione di calcolo e il più ampio range disponibile all'interno del frame buffer).


Il punto e' sempre lo stesso, i titoli che richiederanno cosi' tanto, non andranno nè su G70 nè su R520 e via con le mutilazioni.


Mi sembra di essere tornati al periodo delle radeon e delle geforce2, quando i fan nVIDIA dicevano che le GF2 erano più longeve perchè era possibile aumentare le prestazioni impostando i 16 bit (4 per canale: qualcosa di inguardabile :D ), mentre con le radeon non si ottenevano vantaggi consistenti (lavorava comunque sempre a 32 bit). :D

Se vuoi ti mostro due immagini, una proveniente da una geffo4 ed una identica da una radeon 9700pro.. Poi mi dici quale e' palesemente migliore..
Ti aiuto, quella nVidia mille volte!! poi, dalla serie 5 anche nVidia ha cominciato a fare schifo (doveva pur recuperare il divario prestazionale).

Sunto della storia e' che se ATI deve camminare di piu', ma deteriorare la qualita' (sbandierando invece il contrario), e' meglio che si fermi un poco.

NB: Ho mostrato anche di recente la differenza palese di spessore d'immagine tra ATI ed nVidia, molto accentuata, ma mai distruttiva quanto quella tra geffo4 e tutte le ATI, dalla 7000 in poi (precedenti non ne ho provate perche' non ne avevo piu').

fek
21-12-2005, 07:33
Il trend attuale e' pro nVidia, il trend teorico (di fek e yoss) e' pro ATI .
Tutti noi sappiamo che c'e' differenza tra la teoria e la pratica. :)

Stiamo parlando di trend reali, non trend teorici. C'e' una differenza fra attualita' e trend.

Il punto e' sempre lo stesso, i titoli che richiederanno cosi' tanto, non andranno nè su G70 nè su R520 e via con le mutilazioni.

Capzioso e sostanzialmente errato. Come ti abbiamo dimostrato i titoli che beneficerebbero di MSAA e fp32 esistono gia' oggi. E in prospettiva aumenteranno, rendendo l'architettura NV4X/G7X potenzialmente meno longeva, che e' il punto della questione.

Foglia Morta
21-12-2005, 07:49
Il trend attuale e' pro nVidia, il trend teorico (di fek e yoss) e' pro ATI .
Tutti noi sappiamo che c'e' differenza tra la teoria e la pratica. :)
Ora non ti allargare :D , tu potrai parlare di trend di vendita ( relativamente al tuo punto vendita e a qualche statistica ), yoss di hardware e fek di software... quello più distante per capire la qualità di un chip in prospettiva di longevità mi sembra proprio quello di vendita :)

yossarian
21-12-2005, 09:46
Ho visto varie prove di quel titolo e nesun altro sito propone i risultati che vediamo in questo. Comunque con le softshadow mi sembra avvantaggiata nVidia.. parlando di effetti implementati nel futuro.


Io ne ho visti tanti di risultati analoghi invece (e li ho anche postati in un altro thread).
non credo proprio; finora l'unico gioco testato con soft shadow presenta artefatti su entrambi i chip. Vediamo quello che succede quando saranno implementate in maniera corretta :D

.

Guarda che non le puoi mettere in CF. :D



non mi interessa né lo SLi né in CF :D



Il trend attuale e' pro nVidia, il trend teorico (di fek e yoss) e' pro ATI .
Tutti noi sappiamo che c'e' differenza tra la teoria e la pratica. :)



su questo ti hanno già risposto e non aggiungo altro


Infatti quando sara' cosi' (forse, aggiungerei, perche' non si sa mai che altro filtro possa uscire dal cappello di ATI o nVidia) sara' su giochi nuovi/futuri, fatti per girare sulle VGA nuove/future in grado di funzionare bene con MSAA e quant'altro. Queste (attuali) si accontenteranno di zero filtri (MS3.0 ecc..).

chi lo dice? Mi pare che più o meno quasi tutti i titoli siano giocabilissimi con MSAA e AF attivi

yossarian
21-12-2005, 09:52
Se vuoi ti mostro due immagini, una proveniente da una geffo4 ed una identica da una radeon 9700pro.. Poi mi dici quale e' palesemente migliore..
Ti aiuto, quella nVidia mille volte!! poi, dalla serie 5 anche nVidia ha cominciato a fare schifo (doveva pur recuperare il divario prestazionale).

Sunto della storia e' che se ATI deve camminare di piu', ma deteriorare la qualita' (sbandierando invece il contrario), e' meglio che si fermi un poco.

NB: Ho mostrato anche di recente la differenza palese di spessore d'immagine tra ATI ed nVidia, molto accentuata, ma mai distruttiva quanto quella tra geffo4 e tutte le ATI, dalla 7000 in poi (precedenti non ne ho provate perche' non ne avevo piu').

non sai di cosa stai parlando. La GF4 è sm1.3 e fa uso di calcoli con precisione fx8 o, al massimo, fx12 (già R200 arriva a fx16). R300 lavora a fp24. A livello di precisione di calcolo, NV2x non può neppure avvicinarsi a ciò che può fare un chip sm2.0 (ed è già sotto lo sm1,4). Tra l'altro, il confronto di cui parli, ho avuto modo di farlo anch'io, visto che avevo una Ti4200 fino ad un anno fa.
Inoltre ho fatto il paragone tra GF2 (a 16 bit) e Radeon (a 32 bit) e la qualità dei 16 bit era veramente penosa (a dire poco).
Altra assurdità è che nVIDIA abbia peggiorato, in termini di IQ, con la serie 5. La seie 5 lavora, nella pegiore delle ipotesi, con la stessa precisione della serie 4; inoltre, il controllo sui materiali utilizzati da terze parti nell'assemblaggio delle vga è stato molto più rigoroso, in modo che fosse il più possibile attinente alle specifiche (cosa che non si era verificata con le serie precedenti).
A sentirti, sembrerebbe che l'introduzione degli sm successivi all'1,1 siano serviti solo a peggiorare la qualità anzichè a migliorarla.

DjLode
21-12-2005, 14:42
Yoss lui sta accusando Ati di deteriorare l'immagine e di renderizzare meno oggetti (non ricordo cosa aveva detto di preciso ma parlava di meno particolato da qualche parte in qualche gioco) di quanto faccia il corrispettivo Nvidia. Insomma sta dicendo bellamente (cosa credo assolutamente non dimostrata) che Ati peggiora la qualità a favore delle prestazioni mentre Nvidia no.
E' un pò che va avanti sostenendo questo e mi sa che neppure la tua pazienza sarà capace di fargli capire che non ha senso confrontare immagini con impostazioni palesemente diverse (come quella che su NV40 faceva fallire il test di supporto allo SM3 per intenderci).

yossarian
21-12-2005, 15:02
Yoss lui sta accusando Ati di deteriorare l'immagine e di renderizzare meno oggetti (non ricordo cosa aveva detto di preciso ma parlava di meno particolato da qualche parte in qualche gioco) di quanto faccia il corrispettivo Nvidia. Insomma sta dicendo bellamente (cosa credo assolutamente non dimostrata) che Ati peggiora la qualità a favore delle prestazioni mentre Nvidia no.
E' un pò che va avanti sostenendo questo e mi sa che neppure la tua pazienza sarà capace di fargli capire che non ha senso confrontare immagini con impostazioni palesemente diverse (come quella che su NV40 faceva fallire il test di supporto allo SM3 per intenderci).

se si riferisce alle operazioni di rasterizazione, né ATi né nVIDIA rispettano le precise specifiche MS; infatti, sia NV3x che R3x0 (il primo un po' di più), si discostavano dal modello proposto da MS; stesso discorso èer NV40 e G70 che, se si prendesse per buona la comparazione con il refrast, non sarebbero neppure full sm3.0 compliant.
Ma basare un'analisi sulla qualità d'immagine sul modello di resterizzazione non porta da nessuna parte, a meno che non ci siano artefatti evidenti (e non mi pare sia il caso né per ATi né per nVIDIA).
Ancora meno senso ha parlare di peggioramento qualitativo nel passaggio dallo sm1.3 al 2.0 prima e al 3.0 poi.

MadRat
21-12-2005, 16:01
Stiamo parlando di trend reali, non trend teorici. C'e' una differenza fra attualita' e trend.
Capzioso e sostanzialmente errato. Come ti abbiamo dimostrato i titoli che beneficerebbero di MSAA e fp32 esistono gia' oggi. E in prospettiva aumenteranno, rendendo l'architettura NV4X/G7X potenzialmente meno longeva, che e' il punto della questione.
Un titolo non trae vantaggio dall'MSAA, tutti i titoli ne traggono.. Certo e' che non e' obbligatorio usarlo. Vedremo se con i titoli futuri l'R520 avra' potenza da svendere per l'utilizzo di questo. Ho come l'impresione che non sara' cosi'.

MadRat
21-12-2005, 16:02
Ora non ti allargare :D , tu potrai parlare di trend di vendita ( relativamente al tuo punto vendita e a qualche statistica ), yoss di hardware e fek di software... quello più distante per capire la qualità di un chip in prospettiva di longevità mi sembra proprio quello di vendita :)

Voglio solo dire che quello che ci sara' tra un anno non lo sa nessuno. :)

MadRat
21-12-2005, 16:08
Io ne ho visti tanti di risultati analoghi invece (e li ho anche postati in un altro thread).

Va be', al limite li confrontiamo o mi dai i link. :)

non credo proprio; finora l'unico gioco testato con soft shadow presenta artefatti su entrambi i chip. Vediamo quello che succede quando saranno implementate in maniera corretta :D

Vedremo..
Se non erro il G71 dovrebbe avere un'accelerazione HW per le softshadows, o sbaglio??

non mi interessa né lo SLi né in CF

Nemmeno a me interessano, ma allora che te ne fai della seconda 9800pro?? me la tengo!! :D

chi lo dice? Mi pare che più o meno quasi tutti i titoli siano giocabilissimi con MSAA e AF attivi
Forse con due VGA.

MadRat
21-12-2005, 16:12
non sai di cosa stai parlando. La GF4 è sm1.3 e fa uso di calcoli con precisione fx8 o, al massimo, fx12 (già R200 arriva a fx16). R300 lavora a fp24. A livello di precisione di calcolo, NV2x non può neppure avvicinarsi a ciò che può fare un chip sm2.0 (ed è già sotto lo sm1,4). Tra l'altro, il confronto di cui parli, ho avuto modo di farlo anch'io, visto che avevo una Ti4200 fino ad un anno fa.
Inoltre ho fatto il paragone tra GF2 (a 16 bit) e Radeon (a 32 bit) e la qualità dei 16 bit era veramente penosa (a dire poco).
Altra assurdità è che nVIDIA abbia peggiorato, in termini di IQ, con la serie 5. La seie 5 lavora, nella pegiore delle ipotesi, con la stessa precisione della serie 4; inoltre, il controllo sui materiali utilizzati da terze parti nell'assemblaggio delle vga è stato molto più rigoroso, in modo che fosse il più possibile attinente alle specifiche (cosa che non si era verificata con le serie precedenti).
A sentirti, sembrerebbe che l'introduzione degli sm successivi all'1,1 siano serviti solo a peggiorare la qualità anzichè a migliorarla.

So benissimo di cosa siamo capaci le due VGA (grazie per la considerazione!!), ma ti assicuro che nelle FX come le radeon manca veramente un layer di colore. Te lo mostro piu' tardi, ora sto uscendo.
Magari mi trovi una spiegazione plausibile.

MadRat
21-12-2005, 16:14
se si riferisce alle operazioni di rasterizazione, né ATi né nVIDIA rispettano le precise specifiche MS; infatti, sia NV3x che R3x0 (il primo un po' di più), si discostavano dal modello proposto da MS; stesso discorso èer NV40 e G70 che, se si prendesse per buona la comparazione con il refrast, non sarebbero neppure full sm3.0 compliant.
Ma basare un'analisi sulla qualità d'immagine sul modello di resterizzazione non porta da nessuna parte, a meno che non ci siano artefatti evidenti (e non mi pare sia il caso né per ATi né per nVIDIA).
Ancora meno senso ha parlare di peggioramento qualitativo nel passaggio dallo sm1.3 al 2.0 prima e al 3.0 poi.

Non faro' fatica a postare nuovamente le immagini a prova di cio'. :)

MiKeLezZ
21-12-2005, 16:21
Non ha molto senso parlare di longevità da qui a un anno.
Io per ora vedo solo che di 100 giochi, l'80% sono ottimizzati per architettura nvidia (anche B&W2, gira meglio su questi, quindi mi risulta ancora più difficile capire il perchè fek elogi così fortemente ATI, mentre capisco yoss che si esalta per un'architettura migliore).
Vedremo se con i porting xbox cambieranno le cose, a favore ATI (ma l'incognita G70 della PS3 secondo me tirerà enormemente di più).

p.s. sto giocando a Splinter Cell Chaos Theory, ma quei puntini bianchi che (rarissimamente) vedo qua e là, che significano (il gioco ha tinte scurissime quindi saltano subito all'occhio)? Se avessi una ATI li vedrei? E' questo quando parlate di "full precision"? Se no, cosa comporta la "non full precision"?

cmq tutto al massimo compresi filtri va dignitosamente.. non mi lamento.

MadRat
21-12-2005, 17:49
Non ha molto senso parlare di longevità da qui a un anno.
Io per ora vedo solo che di 100 giochi, l'80% sono ottimizzati per architettura nvidia (anche B&W2, gira meglio su questi, quindi mi risulta ancora più difficile capire il perchè fek elogi così fortemente ATI, mentre capisco yoss che si esalta per un'architettura migliore).
Vedremo se con i porting xbox cambieranno le cose, a favore ATI (ma l'incognita G70 della PS3 secondo me tirerà enormemente di più).

p.s. sto giocando a Splinter Cell Chaos Theory, ma quei puntini bianchi che (rarissimamente) vedo qua e là, che significano (il gioco ha tinte scurissime quindi saltano subito all'occhio)? Se avessi una ATI li vedrei? E' questo quando parlate di "full precision"? Se no, cosa comporta la "non full precision"?

cmq tutto al massimo compresi filtri va dignitosamente.. non mi lamento.
Probabilmente la diffusione delle due console incidera' in una certa misura, certo e' che le VGA andranno avanti e non si potra' rimaner vincolati alle DX9.

SCCT da te citato e' uno dei titoli che a mio avviso e' piu' bello su ATI, su nVidia si nota una palese mancanza di alcuni colori ed ombre (l'immagine ha molto meno spessore, esattamente come accade nel 3dmark 2005).
Attivando pero' l'HDR, il risultato si capovolge, la profondita' di questo e' di gran lunga maggiore su nVidia, tanto da compensare le altre mancanze.
Mentre in HL lost coast, accade l'esatto contrario, in questo caso pero', nVidia e' sempre migliore hdr o no.

In sintesi.. fregano tutti e due e nè ATI nè nVidia possiede "con certezza" la grafica migliore, ma almeno nVidia ha la decenza di non sbandierare minchiate.

SCCT ATI 4x+TA/16x+HQ
http://www.ixbt.com/video2/images/r520/scct_rx1800_aa4xa_af16xhq_aioff.png

la lucidita' dell'immagine e' eccellente e si notano alcune macchie e colori che nella versione nVidia sono totalmente assenti. (osserva bene la parete di fondo). Inoltre le ombre su nVidia quasi non ci sono!!

SCCT nVidia 4x+TA/16x+HQ
http://www.ixbt.com/video2/images/r520/scct_gf7800_aa4xt_af16xhq.png

Qui abbiamo invece le versioni con HDR:

ATI 1x/16x+HQ/HDR

http://www.ixbt.com/video2/images/r520/scct_rx1800_aa1x_af16xhq_aioff_hdr_sm3.png

nVidia 1x/16x+HQ/HDR

http://www.ixbt.com/video2/images/r520/scct_gf7800_aa1x_af16xhq_hdr_sm3.png

Le immagini parlano da sole.. nVidia e' migliore di ATI in tutto, l'immagine riacquista dinamismo cromatico e supera non solo quello precedente di ATI, ma anche ATI+HDR senza spazio alcuno per commenti.

Ho notato che i link diretti non finzionano, Le immagini utilizzate sono le due "4x+TA/16x+HQ" e le due "1x/16x+HQ/HDR".
Scaricale in PNG assolutamente non JPG, perderensti molto sui toni scuri che sono il centro del discorso.
Raffrontale con qualche SW che permetta la successione rapida delle immagini tipo ACDSee.

Il link e' questo

http://www.digit-life.com/articles2/video/r520-part4-e.html

yossarian
21-12-2005, 18:02
Non ha molto senso parlare di longevità da qui a un anno.
Io per ora vedo solo che di 100 giochi, l'80% sono ottimizzati per architettura nvidia (anche B&W2, gira meglio su questi, quindi mi risulta ancora più difficile capire il perchè fek elogi così fortemente ATI, mentre capisco yoss che si esalta per un'architettura migliore).
Vedremo se con i porting xbox cambieranno le cose, a favore ATI (ma l'incognita G70 della PS3 secondo me tirerà enormemente di più).

p.s. sto giocando a Splinter Cell Chaos Theory, ma quei puntini bianchi che (rarissimamente) vedo qua e là, che significano (il gioco ha tinte scurissime quindi saltano subito all'occhio)? Se avessi una ATI li vedrei? E' questo quando parlate di "full precision"? Se no, cosa comporta la "non full precision"?

cmq tutto al massimo compresi filtri va dignitosamente.. non mi lamento.

è un difetto che ti fa anche con AF attivo? Hai provato a settarlo in modalità HQ?

p.s. l'entusiasmmo dura un paio di giorni; e poi, di R5x0, si può dire che conosca pregi e difetti :D

yossarian
21-12-2005, 18:08
Probabilmente la diffusione delle due console incidera' in una certa misura, certo e' che le VGA andranno avanti e non si potra' rimaner vincolati alle DX9.

SCCT da te citato e' uno dei titoli che a mio avviso e' piu' bello su ATI, su nVidia si nota una palese mancanza di alcuni colori ed ombre (l'immagine ha molto meno spessore, esattamente come accade nel 3dmark 2005).
Attivando pero' l'HDR, il risultato si capovolge, la profondita' di questo e' di gran lunga maggiore su nVidia, tanto da compensare le altre mancanze.
Mentre in HL lost coast, accade l'esatto contrario, in questo caso pero', nVidia e' sempre migliore hdr o no.

In sintesi.. fregano tutti e due e nè ATI nè nVidia possiede "con certezza" la grafica migliore, ma almeno nVidia ha la decenza di non sbandierare minchiate.

SCCT ATI 4x+TA/16x+HQ
http://www.ixbt.com/video2/images/r520/scct_rx1800_aa4xa_af16xhq_aioff.png

la lucidita' dell'immagine e' eccellente e si notano alcune macchie e colori che nella versione nVidia sono totalmente assenti. (osserva bene la parete di fondo). Inoltre le ombre su nVidia quasi non ci sono!!

SCCT nVidia 4x+TA/16x+HQ
http://www.ixbt.com/video2/images/r520/scct_gf7800_aa4xt_af16xhq.png

Qui abbiamo invece le versioni con HDR:

ATI 1x/16x+HQ/HDR

http://www.ixbt.com/video2/images/r520/scct_rx1800_aa1x_af16xhq_aioff_hdr_sm3.png

nVidia 1x/16x+HQ/HDR

http://www.ixbt.com/video2/images/r520/scct_gf7800_aa1x_af16xhq_hdr_sm3.png

Le immagini parlano da sole.. nVidia e' migliore di ATI in tutto, l'immagine riacquista dinamismo cromatico e supera non solo quello precedente di ATI, ma anche ATI+HDR senza spazio alcuno per commenti.

Ho notato che i link diretti non finzionano, Le immagini utilizzate sono le due "4x+TA/16x+HQ" e le due "1x/16x+HQ/HDR".
Scaricale in PNG assolutamente non JPG, perderensti molto sui toni scuri che sono il centro del discorso.
Raffrontale con qualche SW che permetta la successione rapida delle immagini tipo ACDSee.

Il link e' questo

http://www.digit-life.com/articles2/video/r520-part4-e.html

scusa Mad, a parte che non ci vedo questa gran differenza, ma hai dimenticato di riportare questo

Let's clear up the HDR issue at first: I guess it's not hard to notice that while HDR works on the X1800, it's obviously not the very HDR, which can be seen in the 7800. This HDR is more like the "HDR" implemented in Patch 1.4 for SM2, that is for old Radeon cards. Why the quotes? That's because it's hard to bring into line HDR GF7800 with Tone Mapping and HDR RX850 with... no, Tone Mapping is available in the menu, but we haven't seen its results. And the dynamic range of the RX850 is evidently narrower than in the GF7800.

So, again no rational HDR comparison. We look forward to game patches and new RX1800 driver versions.

MadRat
21-12-2005, 18:24
scusa Mad, a parte che non ci vedo questa gran differenza, ma hai dimenticato di riportare questo

Let's clear up the HDR issue at first: I guess it's not hard to notice that while HDR works on the X1800, it's obviously not the very HDR, which can be seen in the 7800. This HDR is more like the "HDR" implemented in Patch 1.4 for SM2, that is for old Radeon cards. Why the quotes? That's because it's hard to bring into line HDR GF7800 with Tone Mapping and HDR RX850 with... no, Tone Mapping is available in the menu, but we haven't seen its results. And the dynamic range of the RX850 is evidently narrower than in the GF7800.

So, again no rational HDR comparison. We look forward to game patches and new RX1800 driver versions.

Sì, hai ragione e non trovo raffronti piu' recenti.
Comuqnue lo so che non ci vedi gran differenza, e' su questo che si basano per fregare, perche' la gente non ci vede bene!! :D
Potrei farti un patchwork come gia' feci per lost coast (anche se in quel caso la "piattezza" era delal versione ATI) se ricordi, che esalterebbe le differenze. Comuqnue nota sul fondo e sui barili la profondita' delle ombre (prendi solo le immagini senza HDR, vista la storia della patch) e regola bene il monitor. O sul fondo sempre ci sono dei colori (tra il verde ed il marrone) che nella versione nVidia non ci sono affatto. Questo fenomeno l'ho riscontrato spesso ed e' (in forma minore) quello che accadeva anche tra geffo4 e ati (dalla 7000 in su, prima non so).

Ora esco nuovamente, ma piu' tardi ti mostro anche le immagini del 3dm2005 ove ci sono le stesse differenze (senza dubbio a favore ATI).

yossarian
21-12-2005, 19:45
Sì, hai ragione e non trovo raffronti piu' recenti.
Comuqnue lo so che non ci vedi gran differenza, e' su questo che si basano per fregare, perche' la gente non ci vede bene!! :D
Potrei farti un patchwork come gia' feci per lost coast (anche se in quel caso la "piattezza" era delal versione ATI) se ricordi, che esalterebbe le differenze. Comuqnue nota sul fondo e sui barili la profondita' delle ombre (prendi solo le immagini senza HDR, vista la storia della patch) e regola bene il monitor. O sul fondo sempre ci sono dei colori (tra il verde ed il marrone) che nella versione nVidia non ci sono affatto. Questo fenomeno l'ho riscontrato spesso ed e' (in forma minore) quello che accadeva anche tra geffo4 e ati (dalla 7000 in su, prima non so).

Ora esco nuovamente, ma piu' tardi ti mostro anche le immagini del 3dm2005 ove ci sono le stesse differenze (senza dubbio a favore ATI).

sono differenze che potrebbero imputarsi anche alla gamma correction; per questo dicevo che mi sembrano abbastanza simili. Questo può significare che un effetto o un colore o qualunque altra diavoleria, viene calcolata correttamente ma viene visualizzata in maniera diversa (come accadeva a R3x0 e NV30 con acquamark)

DjLode
21-12-2005, 19:57
p.s. sto giocando a Splinter Cell Chaos Theory, ma quei puntini bianchi che (rarissimamente) vedo qua e là, che significano (il gioco ha tinte scurissime quindi saltano subito all'occhio)? Se avessi una ATI li vedrei? E' questo quando parlate di "full precision"? Se no, cosa comporta la "non full precision"?
cmq tutto al massimo compresi filtri va dignitosamente.. non mi lamento.

Mi sembra strano che sia dovuto alla full precision. Io con una 9700 non li ho mai visti con il gioco in questione. Ovviamente non potevo permettermi tutto al massimo ma l'HDR almeno lo attivavo :)
Poi il gioco causa protezione non è più partito (ci tengo a ribadire che è originale) e quindi giace non finito sulla mia scrivania. Chissà quando mi tornerà voglia...

MadRat
22-12-2005, 01:53
sono differenze che potrebbero imputarsi anche alla gamma correction; per questo dicevo che mi sembrano abbastanza simili. Questo può significare che un effetto o un colore o qualunque altra diavoleria, viene calcolata correttamente ma viene visualizzata in maniera diversa (come accadeva a R3x0 e NV30 con acquamark)

Penso di aver fatto tutte le prove possibili ed immaginabili. Ora ti mostro delle immagini del 3dm2005 e ti evidenzio alcune ombre, poi mi dici. Guardando bene si capisce che mancano, non sono semplicemente meno marcate.
Il tempo di scartabellare un paio di terabyte e torno. Sarei veramente curioso di sapere per quale motivo si manifesta questa cosa ogni tanto.
P.S. Osserva bene quelle immagini, il gamma puo' variare il contrasto, non certo eliminare o aggiungere ombre e soprattutto colori!!
A piu' tardi!!

MadRat
22-12-2005, 02:47
Rieccomi.. dunque..

Questo e' un radeon (x850) dunque SM2.0/2.0b ani 16 AA0

http://img301.imageshack.us/my.php?image=gt10270ani16xrad2is.jpg

Questo invece e' nVidia (6800/7800, tanto non cambia nulla) con SM3.0 ani16 AA0

http://img463.imageshack.us/my.php?image=gt10270ani16nvmip03eq.jpg

Questo invece e' sempre nVidia ma con SM2.0/2.0b (per altro piu' vrloce nel test!!)

http://img463.imageshack.us/my.php?image=gt10270ani16nvmip0sm24gq.jpg

Ora osserva attentamente le schermate, le trovi uguali?? quelle nVidia sono assolutamente piatte, colori fintissimi, ombre assenti e colori mancanti!! soprattutto sul lato di destra manca un livello di verde notevole, sul pavimento manca come una texture!! ci sono delle articolazioni verdi che nella NV non ci sono affatto. Le immagini ATI tendono ad un miscuglio di colori notevole, quelle NV sono grigissime. Guarda le scatole!! Oppure osserva i silo, su quello di destra c'e' un ombra aggiunta in ATI che arriva quasi al simbolo di radioattivo (credo, insomma gli somiglia :D ).
Altro discorso per le luminescenze ed i riflessi. La versione SM3.0 e' indubbiamente la piu' brutta, mangia tonnellate di riflessi (salta agli occhi, non serve indicartene) e deteriora le ombre (osserva la colonnina in basso a sinistra ad esempio vedila con gli SM3.0, meta' e' nera o quasi), mentre la vrs 2.0b migliora un po' la situazione, ma mai arrivando alla qualita' e profondita' dell'effetto che si vedono nella schermata ATI (osserva il barile verde sulla destra del soldato a destra e confrontalo con la vrs NV.. non c'e' paragone!! oppure il braccio sinistro che regge il silo di sinistra, nella versione ATI ha dei riflessi, nella versione Nvidia no, nemmeno con i 2.0).
In fine posa un occhio sulle texture, su tutte le scatole (chiamiamole cosi' :D) sia quelle scure che quelle chiare e' come se NV saltasse delle texture, sono "quasi monotone", oppure osserva il simbolo di radioattivo (sì, quello di prima sullo stesso silo di destra) subito sotto c'e' una texture con un disegno, uno sporco, come una macchia.. su NV quasi sparisce!! sono maghi. :) Osserva ogni particolare, sotto la colonnina (quella di prima a sinistra che poi e' un tubo in realta' :D) la parete grigia mentre su ATI e' grigio verdina piena di sfumature e contrasti.

In fine vedile come quadro d'insieme ed alternale, vedrai quale differenza di profondita' ci sia tra le due versioni, abissale!!

Questo e' il caso piu' eclatante, ma in SCCT il fenomeno e' il medesimo, forse giusto un po' meno marcato. Mentre in HLLC accade il contrario.

MadRat
22-12-2005, 20:03
Vedo che avete un mare di risposte a cio' anche voi. :D

yossarian
23-12-2005, 03:22
non riesco a visualizzare le immagini.

In ogni caso, secpndo me tu ci vedi troppa malafede. Potrebbe sempicemente essere, ad esempio, l'algoritmo di rasterizzazione adoperato a causare quelle differenze nelle immagini (o le differenze tra quanto mostrato da una vga e l'immagine di riferimento).

Ti ho fatto l'esempio, prima, del fatto che NV40 e G70 producono immagini che si discostano in misura abbastanza sensibile dal modello di riferimento dello sm3.0. Non per questo si può dire che non siano chip sm3.0 full compliant (e neppure si può dire che nVIDIA stia barando per questo motivo).

MadRat
23-12-2005, 08:04
non riesco a visualizzare le immagini.

In ogni caso, secpndo me tu ci vedi troppa malafede. Potrebbe sempicemente essere, ad esempio, l'algoritmo di rasterizzazione adoperato a causare quelle differenze nelle immagini (o le differenze tra quanto mostrato da una vga e l'immagine di riferimento).

Ti ho fatto l'esempio, prima, del fatto che NV40 e G70 producono immagini che si discostano in misura abbastanza sensibile dal modello di riferimento dello sm3.0. Non per questo si può dire che non siano chip sm3.0 full compliant (e neppure si può dire che nVIDIA stia barando per questo motivo).

Non e' questione di SM, se applico i 2.0 non cambia come ho scrito lì sotto, comuqnue ho visto, che non funzionano i link, ora li correggo. Credimi, no si tratta di differenze da pignolo!! io quando vidi come si vedeva su ATI ci rimasi malissimo, (perche' per me avevo preso un'nVidia :) ).

Ho aggiornato, ora dovrebbero funzionare.

A proposito, sto facendo dei test con la 1800, ho visto gia' che le variazioni tra 3.0 e 2.0 sono identiche a quelle nVidia e la qualita' resta comuqnue quella della x800, piu' tardi (ancora devo dormire e sono in italia :D) le aggiungo al post di ieri.

MadRat
24-12-2005, 01:09
Finalmente due minuti liberi..
ATI
http://img422.imageshack.us/img422/1484/ra1a7lr.png (http://imageshack.us)
nVidia
http://img422.imageshack.us/img422/8049/nv1a1dm.png (http://imageshack.us)

Notare le palesi differenze di definizione della texture e l'ombra sulla sinistra quasi completamente assente sulal nVidia.
ATI
http://img422.imageshack.us/img422/9039/rab4000nt.png (http://imageshack.us)
nVidia
http://img422.imageshack.us/img422/7145/nvb4004ul.png (http://imageshack.us)
Questo oltre ad essere molto piu' definito su ATI, presenta anche un colore differente, dovuto ad un livello (di colore appunto) che a parer mio su nVidia viene completamente saltato (lo vedo chiaramente in moltissime parti).

Su entrame le immagini ATI se ci si fa caso, sono presenti almeno il doppio dei colori!!
Se qualcuno avesse una risposta plausibile a cio' (che non sfoci nella malafede come le mie), glene sarei molto grato!!

Forse la compressione delle tezture su nVidia e' piu' spinta??

MrBond
24-12-2005, 09:39
Finalmente due minuti liberi..
Notare le palesi differenze di definizione della texture e l'ombra sulla sinistra quasi completamente assente sulal nVidia.
ATI
Questo oltre ad essere molto piu' definito su ATI, presenta anche un colore differente, dovuto ad un livello (di colore appunto) che a parer mio su nVidia viene completamente saltato (lo vedo chiaramente in moltissime parti).

Su entrame le immagini ATI se ci si fa caso, sono presenti almeno il doppio dei colori!!
Se qualcuno avesse una risposta plausibile a cio' (che non sfoci nella malafede come le mie), glene sarei molto grato!!

Forse la compressione delle tezture su nVidia e' piu' spinta??

Pure io ho notato questa differenza... sono passato da 9000pro->9700pro->6800 e ora X800XT PE. Cavoli, io in questo ultimo periodo ho giocato tantissimo a fable dove i colori sono bellissimi e sgargiantissimi... cronologia:
a marzo ho dismesso la 9700pro :cry:
a marzo ho messo su la 6800 :(
già prime differenze di colore (meno brillante) in WC3 ma giocando poco ho lasciato perdere.
A settembre ho comprato fable... bello ma sembrava tutto falso, con colori impalpabili...
A novembre ho visto girare fable da un negoziante su un pc con gpu ati... una meraviglia...
Tornato a casa ho riesumeto la 9700pro e a pari impostazioni con la 6800 ho notato che la sensazione che avevo avuto era vera.
Venduta la 6800 (moddata gtina ;) ). Montata :D la X800XT PE :eek: .... un nuovo gioco per grafica e colori con tutto attivato!!

Io non sono un tecnico specializzato che fà analisi al pixel, ma sono una persona alla quale piace il connubio prestazione/qualità.
Detto questo, ma ne frego di avere una gpu che mi dia 150fps ma che non mi faccia comprendere la bellezza del gioco anche in termini di colori e qualità visiva!
Non sò è come andare in giro con una ferrari e poi nell'abitacolo cigola tutto...
Detto ciò ho solo voluto riportare la mia esperienza.
Ciauzzz e buon natale!

leoneazzurro
24-12-2005, 12:32
Attenzione che la "brillantezza" differente dei colori nel 90% dei casi è dovuto alla correzione gamma. In ATI è attiva di default, mentre per Nvidia bisogna attivare il Digital Vibrance Control dal pannello di controllo dei drivers...

MrBond
24-12-2005, 12:44
Attenzione che la "brillantezza" differente dei colori nel 90% dei casi è dovuto alla correzione gamma. In ATI è attiva di default, mentre per Nvidia bisogna attivare il Digital Vibrance Control dal pannello di controllo dei drivers...
Avevo corretto anche il gamma... la differenza c'era comunque... :muro:
Io utilizzo un monitor LCD Hundai ImageQuest L70B 17"

leoneazzurro
24-12-2005, 12:47
Avevo corretto anche il gamma... la differenza c'era comunque... :muro:
Io utilizzo un monitor LCD Hundai ImageQuest L70B 17"

Beh, ci sono diversi livelli di correzione (i o geenralmente setto su low-medium ed è tutto OK). ATI ad ogni modo è un pò più avanti su questo punto.

MadRat
24-12-2005, 15:27
Attenzione che la "brillantezza" differente dei colori nel 90% dei casi è dovuto alla correzione gamma. In ATI è attiva di default, mentre per Nvidia bisogna attivare il Digital Vibrance Control dal pannello di controllo dei drivers...

Leo, questo puo' essere valido per alcuni titoli e per un'impressione generale a colpo d'occhio, ma guarda le immagini che ho messo io.. Mancano palesemente colori e texture!!

Sfido chiunque abbia una VGA nVidia a raggiungere la qualita' delle immagini ATI che ho inserito qui sopra. Veramente hanno il doppio dei colori!!

Comunque non crediate che ATI sia esente da "trucchetti", mangia ombre, particolato e colori anche lei!! in HL2LC l'immagine sbiadita e spenta (con ombre e colori in meno) e' proprio quella di ATI.

Sto pensando comunque di mandare una segnalazione ad nVidia riguardo la qualita' di questo 3DM2005, voglio proprio vedere la loro giustificazione.

MrBond
24-12-2005, 15:40
Sto pensando comunque di mandare una segnalazione ad nVidia riguardo la qualita' di questo 3DM2005, voglio proprio vedere la loro giustificazione.
a che pro?

MadRat
24-12-2005, 19:10
a che pro?

a che pro chiederglielo?? Per vedere come :mc: .. :D e pubblicare sui forum la risposta. :)
Io capisco che debbano imbrogliare in certi test che e' notoriamente pro ATI. Il 3DM e' oramai il primo test che si fa quando esce un nuovo HW, l'immagine di supremazia la ha proprio la VGA che visualizza maggiore quell'insignificante numero finale, ma vederlo con la meta' dei colori e delle ombre.. beh.. cosi' sono buoni tutti. :)

Piu' tardi o domani postero' delle immagini clamorose, anche in Doom3 ci sono dei particolari relativi alle ombreggiature di alcune superfici a favore ATI!! :D
Se l'argomento interessa a qualcuno oltre che a me, apro un thread apposito.

Per ora se magna!!

Buon natale (paganissimo :D) a tutti!! :)

MrBond
24-12-2005, 19:34
a che pro chiederglielo?? Per vedere come :mc: .. :D e pubblicare sui forum la risposta. :)
Io capisco che debbano imbrogliare in certi test che e' notoriamente pro ATI. Il 3DM e' oramai il primo test che si fa quando esce un nuovo HW, l'immagine di supremazia la ha proprio la VGA che visualizza maggiore quell'insignificante numero finale, ma vederlo con la meta' dei colori e delle ombre.. beh.. cosi' sono buoni tutti. :)

Piu' tardi o domani postero' delle immagini clamorose, anche in Doom3 ci sono dei particolari relativi alle ombreggiature di alcune superfici a favore ATI!! :D
Se l'argomento interessa a qualcuno oltre che a me, apro un thread apposito.
Buon natale (paganissimo :D) a tutti!! :)
A ME INTERESSA... io ti ho detto come la vedo... una ferrari che cigola tutta... meglio una macchina meno performante ma più accogliente e con maggior cura al dettaglio!
Detto ciò.... Fabale con una ATI è davvero un'altro spettacolo!
Buon natale a todosss!
P.s. Non magNate troppo che poi si ingrassa...

leoneazzurro
24-12-2005, 22:38
Leo, questo puo' essere valido per alcuni titoli e per un'impressione generale a colpo d'occhio, ma guarda le immagini che ho messo io.. Mancano palesemente colori e texture!!

Sfido chiunque abbia una VGA nVidia a raggiungere la qualita' delle immagini ATI che ho inserito qui sopra. Veramente hanno il doppio dei colori!!

Comunque non crediate che ATI sia esente da "trucchetti", mangia ombre, particolato e colori anche lei!! in HL2LC l'immagine sbiadita e spenta (con ombre e colori in meno) e' proprio quella di ATI.

Sto pensando comunque di mandare una segnalazione ad nVidia riguardo la qualita' di questo 3DM2005, voglio proprio vedere la loro giustificazione.

IO mi riferivo solo alla questione "brillantezza dei colori", non certo alla mancanza di texture et similia :)

^TiGeRShArK^
24-12-2005, 23:40
Buon Natale! :D

diabolik1981
25-12-2005, 09:05
Buon Natale a tutta la compagnia

MadRat
25-12-2005, 17:10
IO mi riferivo solo alla questione "brillantezza dei colori", non certo alla mancanza di texture et similia :)

Infatti credo proprio che in fable la differenza sia dovuta solo alle impostazioni. io lo ho qui, posso installarlo, se qualcuno dovesse averlo du ATI, potremmo fare dei paragoni, se fosse solo questione di gamma "et similia" (:p), lo vedrei subito. Apriamo un thread??

Mi riassocio agli auguri. :)

MadRat
29-12-2005, 04:15
A ME INTERESSA... io ti ho detto come la vedo... una ferrari che cigola tutta... meglio una macchina meno performante ma più accogliente e con maggior cura al dettaglio!
Detto ciò.... Fabale con una ATI è davvero un'altro spettacolo!
Buon natale a todosss!
P.s. Non magNate troppo che poi si ingrassa...

Ho fatto un'altro po' di prove ed ho scoperto un po' di cose interessanti riguardo la qualita' d'immagine del 3Dmark2005 su ATI ed nVidia.. Chi frega suelle texture e chi sul mipmapping e/o la qualita'.. :doh:
Se mi avanzano due minuti apro il thread. Non so se su questo forum, ma se lo arpissi altrove, comunque avvertirei per chi come te fosse interessato.

Avevo corretto anche il gamma... la differenza c'era comunque... :muro:
Io utilizzo un monitor LCD Hundai ImageQuest L70B 17"

Questa mi era scappata!! Ho quel monitor da una vita, (in lire costava veramente molto), ora e' diventato il mio muletto. Non e' un granché oramai, tende al giallo, non ha una gran velocita' e soprattutto no ha per nulal un buon angolo di visuale, per vedere i toni scuri, si deve inclinare il lato superiore in avanti!! e non basta (io ci mettevo degli spessori dietro!! :D).

s0r4
29-12-2005, 09:51
Ma vi rendete conto che vi state ammazzando per differenze che si avvertono con fatica solo facendo ingrandimenti di screenshot? :confused:

sulle immagini postate sopra o sono cecato io oppure sono cose veramente infinitesimali di cui nessuno si accorge durante il gioco

e considerate che io non sono di parte ne per nvidia, anche perchè le mie ultime due schede video sono ati...

MadRat
29-12-2005, 11:54
Ma vi rendete conto che vi state ammazzando per differenze che si avvertono con fatica solo facendo ingrandimenti di screenshot? :confused:

sulle immagini postate sopra o sono cecato io oppure sono cose veramente infinitesimali di cui nessuno si accorge durante il gioco

e considerate che io non sono di parte ne per nvidia, anche perchè le mie ultime due schede video sono ati...

Veramente ho fatto gli shot proprio perche' mi faceva schifo vedendolo. :)
Ci sono la meta' dei colori, anche una talpa lo vedrebbe (mettendoli a confronto).