PDA

View Full Version : HAWX 2: benchmark per GPU e tessellation


Redazione di Hardware Upg
25-10-2010, 14:57
Link alla notizia: http://www.hwfiles.it/news/hawx-2-benchmark-per-gpu-e-tessellation_34176.html

Disponibile un benchmark basato sul gioco Tom Clancy's H.A.W.X. 2, compatibile con le API DirectX 11; l'implementazione della tessellation non è tuttavia senza ripercussioni polemiche

Click sul link per visualizzare la notizia.

DucaMare
25-10-2010, 15:10
... e siamo alle solite: nVidia ladrona o ATI piagnona?

... o entrambe? :mc:

Sire_Angelus
25-10-2010, 15:14
nvidia ladrona, dato che hanno dato a ubisoft gratis un metodo per migliorare la gestione della tesselation su tutte le gpu e quella ha fatto orecchie da mercante.

Revelator
25-10-2010, 15:14
sul notebook in firma ris nativa tutto al max tess attivo fsaa off

28max
21med

:sofico:

jaja36
25-10-2010, 15:32
Ci credo nvidia paga invece AMD offre gratis mica scema ubisoft.

MiKeLezZ
25-10-2010, 15:42
"HAWK 2 è brutto e cattivo, non usatelo per i benchmark..."

Così dice ATI ;)

http://img101.imageshack.us/img101/4574/img0029781j.gif

Come mai? Chissà.

focuswrc
25-10-2010, 15:49
ovviamente un download obbligatorio per tutti quelli con schede verdi!

Elrim
25-10-2010, 15:49
dal momento che anche le nuove ATI vanno male col tessellation, non vedo cosa ci sia da stupirsi.
Ah ma siccome è un nuovo benchmark dev'esserci lo zampino di Nvidia, non può essere che le schede ATI siano mostruosamente inferiori come in tutti gli altri benchmark che supportano tessellation.

MiKeLezZ
25-10-2010, 15:54
dal momento che anche le nuove ATI vanno male col tessellation, non vedo cosa ci sia da stupirsi.
Ah ma siccome è un nuovo benchmark dev'esserci lo zampino di Nvidia, non può essere che le schede ATI siano mostruosamente inferiori come in tutti gli altri benchmark che supportano tessellation.Se il gioco va male con RADEON e va bene con GEFORCE, è perché lo sviluppatore è uno venduto a NVIDIA.
Se il gioco va bene con RADEON e va male con NVIDIA, è perché ATI è cazzuta a fare le schede.
Sono troppo forti gli utenti delle schede video.

Revelator
25-10-2010, 15:55
"HAWK 2 è brutto e cattivo, non usatelo per i benchmark..."

Così dice ATI ;)

http://img101.imageshack.us/img101/4574/img0029781j.gif

Come mai? Chissà.

c'è troppa poca differenza tra 5770 e 5870.si capisce che è programmato male.

focuswrc
25-10-2010, 15:57
dal momento che anche le nuove ATI vanno male col tessellation, non vedo cosa ci sia da stupirsi.
Ah ma siccome è un nuovo benchmark dev'esserci lo zampino di Nvidia, non può essere che le schede ATI siano mostruosamente inferiori come in tutti gli altri benchmark che supportano tessellation.

quali altri benchmark mostrano la stessa differenza? dai che ridiamo tutti insieme

questi magheggi li faceva (e magari fa) anche Intel nel suo settore e Microsoft nel suo, non c'è mica da stupirsi che la casa dominante faccia un pò la furba

Notturnia
25-10-2010, 15:59
forse sarebbe ora che anche ATI spendesse due soldi per l'implementazione delle sue sk video come fa nvidia al posto di piangere perchè il concorrente sprona le ditte ad usare i suosi sistemi..

forza ati sveglia.. sembri rimasta alla mia vecchia atimach32 con un supporto assistenza penoso..

ndrmcchtt491
25-10-2010, 16:07
il 1° capitolo era noiosissimo e monotono, il 2° per mè è scaffale in automatico e il bench fà vedere le meravigliose dx11...

Ho detto tutto

Prometheus Unbound
25-10-2010, 16:12
Sempre i soliti. Sempre a dire Nvidia ladrona. Io direi piuttosto che i prodotti Nvidia sono decisamente migliori rispetto ad Ati. E che chi se ne frega del calore e delle solite scemate tirate fuori. Nvidia và, Ati no.

MiKeLezZ
25-10-2010, 16:13
c'è troppa poca differenza tra 5770 e 5870.si capisce che è programmato male.Quello che è programmato male è l'engine di tesselation delle Radeon dalla serie HD5000 alla più recente HD6000 in quanto è fisso ovvero quasi indipendente dalla potenza della scheda - nel benchmark la differenza da una all'altra è minima proprio per questo motivo, si arriva al punto per cui è la capacità in tesselation che frena i frame macinati dalla scheda.

NVIDIA utilizza un approccio più dinamico e potente utilizzando gli shader core, quindi più ce ne sono, maggiori le performance, e infatti si vede chiaramente dal grafico il distacco che ha la 480 rispetto le altre, e la stretta vicinanza delle due 460 (pur in linea di massima essendoci fra le due una maggior differenza).

Visto che il tesselator è la feature trainante delle DX11, più giochi DX11 escono, maggiore sarà il vantaggio della scelta Fermi, che di fatto è più lungimirante rispetto quella Radeon.

Il fix che AMD avrebbe voluto dare a Ubisoft era probabilmente semplicemente atto a ridurre l'influenza dell'engine di tesselation (es. non processando oggetti distanti o fuori visuale) in modo da mitigare quel problema hardware che ha con le proprie schede. Non essendoci riuscita agirà via driver con una ottimizzazione ad uopo (atta ovviamente ad ottenere le stesse cose), come si faceva all'epoca di 3DMark taroccando i driver.

Someone
25-10-2010, 16:16
quali altri benchmark mostrano la stessa differenza?
Non so bene cosa misuri in dettaglio questo benchmark, ma per la tesselation esistono diversi benchmark nel campo professionale dove la differenza tra le capacità delle due architetture è evidente (e imbarazzante per AMD).
Che AMD possa dire che i livelli di tesselation usati nel bench siano eccessivi e mostrino i limiti delle proprie GPU ci sta. Ma se il bench è fatto per mostrare di quanta potenza in tesseltion le due architetture siano capaci, allora mi spiace ma è solo una ammissione di essere rimasti indietro rispetto a quello presentato dalla concorenza.
D'altronde la questione è: si mostrano le capacità reali delle schede o quelle che fa comodo? Perchè allora non si comprendono quei numeri irrealizzabili relativamente alle capacità di calcolo delle Radeon che sbandierano operazioni in SP più che triple rispetto alla concorrenza (ma poi a conti fatti vanno meno).
Ognuno combatte con le proprie armi, e in questo caso il rifiuto da parte di Ubisoft di piegarsi alle lamentele di AMD (che sembra avrebbero comunque avuto impatto sulla qualità finale) non è certo da considerarsi una tangente di nvidia.
AMD, oltre a investire a fare hardware dovrebbe capire che il supporto software è molto ma molto più importante. nvidia lo ha capito da tempo immemore, e infatti investe in software tanto quanto in hardware. La sua architettura è inferiore? E chi se ne frega se poi alla fine da risultati migliori della concorrenza perchè meglio supportata.

Prometheus Unbound
25-10-2010, 16:26
La cosa davvero che dovrebbe saltare agli occhi di tutti è che le nuove Ati serie 6 non sono migliori della serie 5. Le Fermi sono migliori per i giochi che usano pesantemente le features di Dx11 (come han fatto notare altri utenti).
In più se si pensa che sia solo un bench, figuriamoci nel gioco vero e proprio quali saranno i risultati.

Revelator
25-10-2010, 16:38
innanzi tutto io aspetterei a dare giudizi assoluti.e cmq sia vi posto questo link magari può esserci utile...
http://www.overclock.net/9346179-post19.html


From what I've been reading on various forums, it seems there is a lot more to this 'tessellation' thing than I thought.

ATI uses 1 hardware tessellation unit. Nvidia uses 16 tessellation units that are emulated within the CUDA cores. Currently, ATI's tessellation is not aided by the Stream Processors, whereas Nvidia's SP's are what does it. This is one of the major reasons the tessellation performance difference in Unigine Heaven bench is so huge; NV's cores are constantly being used for emulating Tessellation, while ATI's are only partially used for everything else and only the 1 hardware tessellation unit is being used for tessellation. Once there are moving players/monsters and fighting going on and physics being processed, those shader cores need to process a lot more so there is less room for processing tessellation. This is why the performance gap is smaller in actual games.

Currently, ATI is working on changing this within the drivers so that the Stream Processors will aid the Tessellation Unit with processing tessellation. Supposedly this change will be released with the 10.5 drivers and will be the first large tessellation-based improvement.

They're also working to further improve tessellation by making the cache work better between the tessellation unit and the SP's, which is going to be in the 11.0 Catalyst drivers.

Also, it's likely they're increasing the amount of Hardware Tessellation units in the 5xxx refresh. Very likely even further improved in the 6xxx series.

At this point it's very hard to tell if Nvidia is only 'temporarily' better in tessellation, or if they'll hold on to this for a while. Based on the improvements ATI will be making, I'm not doubting at all that the difference in the near future between both will be much smaller than today, for tessellation performance.

Quote:
Originally Posted by NoahDiamond (Overclockers.net)
As for improving your scores, stick with 10.3a drivers. The CrossfireX profiles are larger and support more software, and the drivers handle 2D better. There are still problems with multiple monitors going to sleep. This can be resolved by installing the Catalyst 10.2 RC2 drivers, then upgrading to the Catalyst 10.3a drivers without doing an uninstall. This workaround works for now.

If you want to boost performance, focus on overclocking the core to boost the tessellation unit processing clocks. Right now, ATI are working on a way to expand tessellation onto the Stream Processors. When they complete that, nVidia is dead. If they get the SP units to work hand in hand as cache and pre/post processors for the tessellation units, then the tessellation performance will SKYROCKET! It technically could be called cheating, but if you want to get the most out of a benchmark with a dedicated tessellation processor, the only way to get more tessellation processor is to assist it. nVidia has no tessellation processor, as tessellation is emulated on the CUDA cores. When the new drivers are finished, likely to be released in the 10.5 beta catalyst drivers, things will change in the benchmark world.

Catalyst 11.0 is already in the works, but it is focusing on using the Stream Processors to aid in render on benchmarks and graphics systems, using the tessellation units as a math base cache systems and booster. When these are complete, the HD 5000 series will eat the GTX 480 as a midnight snack, and it will only be the first bite out of the proverbial cake.

ATI is re-working the driver models as we speak. In the end, ATI learned from how nVidia handled tessellation, and uses the multiple SIMD I/O system to destroy the graphics gap. Right now, we are using an older model from 9.1 catalyst where tessellation is only run on the tessellation units. The new model will be a complete re-working of the way the card is run.

The beauty of ATI's dedicated cores is the card can be software adapted to do so many things, and with the ECC and tessellation units in place, the sky is the limit.

P.S.: We found a way to run CUDA core on FireStream, aka the Stream Processors of the HD 5000 series. This does not mean ATI will license it, but hackers are bound to make custom drivers like they did years back that use OpenCL code to run CUDA on ATI 5000 series processors, namely Cypress and Evergreen. The future of ATI is upon us.
:read:

roccia1234
25-10-2010, 16:39
Sempre i soliti. Sempre a dire Nvidia ladrona. Io direi piuttosto che i prodotti Nvidia sono decisamente migliori rispetto ad Ati. E che chi se ne frega del calore e delle solite scemate tirate fuori. Nvidia và, Ati no.

Detta così è una trollata da fanboy bella e buona, senza mezzi termini.
Dire che nvidia va e ati no (o che i prodotti nvidia sono decisamnte migliori di quelli ati) è una cavolata. Entrambe le case sono su ottimi livelli, sia lato hardware che lato driver, entrambe con dei vantaggi e dei svantaggi rispetto alla concorrente, che non sto ad elencare, dato che di recensioni è pieno il web. Ognuno valuta la propria scelta in base all sue esigenze e compra. A te non importa di consumi e calore? bene, scegli nvidia. A me importa? bene, scelgo ati (semplificando, altrimenti non finsco più)
Le prestazioni del tassellatore amd sono inferiori alle prestazioni del tassellatore nvidia per i motivi spiegati da mikelezz, il quale limita pesantemente gli fps (in questo bench), fine della storia.
Guardando il grafico é palese che la gpu non viene sfruttata completamente, proprio perchè il tassellatore amd non riesce a fare di più. È impensabile che una 5870 faccia solo 20 fps in più (su 60) di una 5770 senza che intervengano limitazioni """esterne""".
Già con la serie 6 la situazione è migliorata, infatti perfino la 6850 va meglio della 5870, ma a me l'approccio di ati al tassellatore convince sempre meno, e penso che la soluzione ideale sia quella dinamica adottata da nvidia, e i risultati sembrano confermarlo.
L'unica "scappatoia" per ati sarebbe implementare un tassellatore molto potente, però credo che dovrebbe aumentare il numero di transistor delle proprie gpu, aumentando costi, calore e consumi (a meno di non ottimizzare ancora).
La cosa che spero di più è che ati riveda il suo approccio con la tessellation con la serie 7 (oramai la 6 è andata) e lo renda dinamico come ha fatto nvidia, o magari ibrido, che sfrutta il tassellatore e, se non basta, emula la tessellation sugli SP.

Prima che qualcuno mi dia del fanboy verde, guardate che sistema ho in firma e sappiate che prima avevo una x1950 pro agp.

EDIT: parlando del gioco... ma solo a me è sembrata una mezza ciofeca?? le esplosioni sono una schifezza :fagiano:

Revelator
25-10-2010, 16:44
Detta così è una trollata da fanboy bella e buona, senza mezzi termini.
Dire che nvidia va e ati no (o che i prodotti nvidia sono decisamnte migliori di quelli ati) è una cavolata. Entrambe le case sono su ottimi livelli, sia lato hardware che lato driver, entrambe con dei vantaggi e dei svantaggi rispetto alla concorrente, che non sto ad elencare, dato che di recensioni è pieno il web. Ognuno valuta la propria scelta in base all sue esigenze e compra. A te non importa di consumi e calore? bene, scegli nvidia. A me importa? bene, scelgo ati (semplificando, altrimenti non finsco più)
Le prestazioni del tassellatore amd sono inferiori alle prestazioni del tassellatore nvidia per i motivi spiegati da mikelezz, il quale limita pesantemente gli fps (in questo bench), fine della storia.
Guardando il grafico é palese che la gpu non viene sfruttata completamente, proprio perchè il tassellatore amd non riesce a fare di più. È impensabile che una 5870 faccia solo 20 fps in più (su 60) di una 5770 senza che intervengano limitazioni """esterne""".
Già con la serie 6 la situazione è migliorata, infatti perfino la 6850 va meglio della 5870, ma a me l'approccio di ati al tassellatore convince sempre meno, e penso che la soluzione ideale sia quella dinamica adottata da nvidia, e i risultati sembrano confermarlo.
L'unica "scappatoia" per ati sarebbe implementare un tassellatore molto potente, però credo che dovrebbe aumentare il numero di transistor delle proprie gpu, aumentando costi, calore e consumi (a meno di non ottimizzare ancora).
La cosa che spero di più è che ati riveda il suo approccio con la tessellation con la serie 7 (oramai la 6 è andata) e lo renda dinamico come ha fatto nvidia, o magari ibrido, che sfrutta il tassellatore e, se non basta, emula la tessellation sugli SP.

Prima che qualcuno mi dia del fanboy verde, guardate che sistema ho in firma e sappiate che prima avevo una x1950 pro agp.

EDIT: parlando del gioco... ma solo a me è sembrata una mezza ciofeca?? le esplosioni sono una schifezza :fagiano:

leggi mio post sopra.alcune fonti dicono che ati stia ESTENDENDO la funzione agli stream processor OLTRE al tessellator principale via DRIVER.il che,se riuscisse sarebbe un bel colpo.non ci resta che attendere l'evoluzione futura dei catalyst...

al135
25-10-2010, 16:45
La cosa davvero che dovrebbe saltare agli occhi di tutti è che le nuove Ati serie 6 non sono migliori della serie 5. Le Fermi sono migliori per i giochi che usano pesantemente le features di Dx11 (come han fatto notare altri utenti).
In più se si pensa che sia solo un bench, figuriamoci nel gioco vero e proprio quali saranno i risultati.


hai scoperto l'acqua calda :asd:
e inoltre aggiungo... da quando i bench contano qualcosa? :)
eh.. brava nvidia che ha soldi da buttar via :)
comunque bisognera' vedere con i prossimi driver se riusciranno a ottimizzare questa tesselation , dato che non è un problema sembra di potenza hardware ( di cui ati sa il fatto suo ;) )

roccia1234
25-10-2010, 17:08
leggi mio post sopra.alcune fonti dicono che ati stia ESTENDENDO la funzione agli stream processor OLTRE al tessellator principale via DRIVER.il che,se riuscisse sarebbe un bel colpo.non ci resta che attendere l'evoluzione futura dei catalyst...

missà che hai postato mentre stavo scrivendo e me lo sono perso :fagiano: :doh:

Se ati sta veramente lavorando in questo senso... è un ottima notizia!!
però nel post parla di catalyst 10.5 ... :confused:

blackshard
25-10-2010, 17:16
forse sarebbe ora che anche ATI spendesse due soldi per l'implementazione delle sue sk video come fa nvidia al posto di piangere perchè il concorrente sprona le ditte ad usare i suosi sistemi..

forza ati sveglia.. sembri rimasta alla mia vecchia atimach32 con un supporto assistenza penoso..

Cioè deve fare questo:

http://www.tomshw.it/cont/news/crysis-2-meglio-su-nvidia-ci-sono-2-milioni-di-ragioni/26917/1.html

??

A naso sembrerebbe una tematica da proporre all'antitrust...

Per quanto riguarda il tassellatore:

http://images.anandtech.com/graphs/amdradeon6000_102110222210/25174.png

che è migliorato di parecchio rispetto alla serie hd5xxx (in barba a quei disinformati disinformatori, forse prezzolati, che sbraitano sul contrario) nonostante il numero di shader processor si sia ridotto sensibilmente.

Poi certo vedere la hd5770 che fa quasi gli stessi fps di una hd5850 rende bene l'idea di quanto sia realistico questa preview di benchmark... :mc: :mc:

edit: ah, e magari i fantozzi di nvidia dovrebbero evitare di appendersi ad una misteriosa benchmark preview solo perchè mostra che il loro hardware da sogno va' meglio perchè uno potrebbe erroneamente dire che in GPGPU le nvidia fanno schifo (vedi qui (http://images.anandtech.com/graphs/graph3987/33239.png)) facendo di tutta l'erba un unico fascio...

MiKeLezZ
25-10-2010, 17:18
Se ati sta veramente lavorando in questo senso... è un ottima notizia!!
però nel post parla di catalyst 10.5 ... :confused:Eh sì... Sono solo i sogni bagnati di un ignoto forumista (ma di chiara preferenza schedaiola)

Si paventava che con i 10.5 si sarebbero visti degli enormi miglioramenti visto che il tesselatore si fondeva con la cache che si fondeva con i SP che si fondeva con i razzi missile che diventavano supersayan di 4° livello (così disse il forumista)

Peccato 10.5 significa 5 mesi fa, e ad oggi non c'è stato il minimo cambiamento (sono solo uscite nuove schede), né alcuna altra notizia ufficiale in questo senso

:rolleyes:

IlGranTrebeobia
25-10-2010, 17:18
però nel post parla di catalyst 10.5 ... :confused:

Già... :stordita:

Revelator
25-10-2010, 17:19
missà che hai postato mentre stavo scrivendo e me lo sono perso :fagiano: :doh:

Se ati sta veramente lavorando in questo senso... è un ottima notizia!!
però nel post parla di catalyst 10.5 ... :confused:

leggi mio post lungo in pagina 1.:)

MiKeLezZ
25-10-2010, 17:24
Cioè deve fare questo:

http://www.tomshw.it/cont/news/crysis-2-meglio-su-nvidia-ci-sono-2-milioni-di-ragioni/26917/1.html

??Allora, vediamo... NVIDIA sta impastata con Ubisoft (quindi i vari Assassin's Creed che è diventata trilogia, Batman, e ora ci esce anche il capitolo nuovo, HAWX 1 e 2...), poi sta impastata con 2K Games (Mafia 2), poi Epic Games (Unreal Engine 1 e 2, cioè la base del 80% dei FPS), ora si scopre pure Crytek (Crysis è oramai trilogia acclamata e vanto del mondo PC), ma sai che ti dico?
E un VALORE AGGIUNTO... e pure DI BRUTTO! Altro che antitrust.
NVIDIA si fa il culo con i sviluppatori e so che se mi compro uno di quei giochi mi andrà da Dio, con presumibilmente zero problemi e tutte le feature attivate.
Che ATI muova il culo e faccia lo stesso, poi se ne riparla di quale scheda è migliore... Alla mia età ho capito che i 2 o 3 fps di differenza non contano niente, conta tutto il resto che c'è intorno. Del modo in cui lo fa, con mazzette, con pezzi di codici, con bagascie, non mi frega, l'importante è che poi del risultato ne goda pure io. E mi pare il risultato ci sia eccome.

MiKeLezZ
25-10-2010, 17:32
Per quanto riguarda il tassellatore:

http://images.anandtech.com/graphs/amdradeon6000_102110222210/25174.pngAh cavolo, questo sì che è un ottimo benchmark.

In effetti quando sono lì lì per comprare la scheda video non mi sto a chiedere "questa come andrà con Mafia 2? Li potrò attivare tutti gli effetti al palo?", oppure "con questa bestia mi attivo 8x AA su Assassin's Creed"...

Bensì guardo il benchmark che mi hai linkato (di cosa non si sa) e vedo che la HD6870 fa MILLE E SETTANTANOVE FRAME AL SECONDO e me la compro... Così ho una scheda che mi fa MILLE E SETTANOVE FRAME AL SECONDO... MOLTI DI PIU' dei OTTOCENTOOTTANTASEI della 460... Con OTTOCENTOOTTANSEI frame rischierei di vedere laggare di brutto... Poi magari se invece che "medium" mettiamo su "low"... arriviamo alla milionata... e allora sì che mi gaso dell'acquisto...

roccia1234
25-10-2010, 17:32
leggi mio post lungo in pagina 1.:)

L'ho letto, però, come ho scritto, i riferimenti sono per i catalyst 10.5, quindi le hd5 e le hd6 di oggi dovrebbero già sfruttare gli SP per aiutare il tassellatore, ma al momento non mi pare lo facciano, guardando i risultati di questo bench.

Parla anche della serie 11 dei catalyst, quindi secondo il tizio l'anno prossimo dovremmo vederne delle belle lato driver, ammesso e non concesso che quello che scrive sia affidabile.
Di quello che scrive (per il momento) non si è verificato nulla mi pare, poi non cita manco una fonte. Personalmente lo ritengo poco affidabile, anche se mi farebbe piacere se si verificasse quello che lui scrive.

focuswrc
25-10-2010, 17:35
ho appena preso una gts450 e le superqualità non si vedono manco di striscio, la 4850 che ovviamente ho ancora da la paga come fluidità con e senza filtri, quindi anche la seconda chance che ho dato a nvidia è finita male (la prima era una 7900 gs). io credo solo a quello che vedo, il resto è fuffa e benchmark per fare i fighi

strange_loop
25-10-2010, 17:39
"HAWK 2 è brutto e cattivo, non usatelo per i benchmark..."

Così dice ATI ;)

http://img101.imageshack.us/img101/4574/img0029781j.gif

Come mai? Chissà.

dal momento che anche le nuove ATI vanno male col tessellation, non vedo cosa ci sia da stupirsi.
Ah ma siccome è un nuovo benchmark dev'esserci lo zampino di Nvidia, non può essere che le schede ATI siano mostruosamente inferiori come in tutti gli altri benchmark che supportano tessellation.

Sempre i soliti. Sempre a dire Nvidia ladrona. Io direi piuttosto che i prodotti Nvidia sono decisamente migliori rispetto ad Ati. E che chi se ne frega del calore e delle solite scemate tirate fuori. Nvidia và, Ati no.

Quello che è programmato male è l'engine di tesselation delle Radeon dalla serie HD5000 alla più recente HD6000 in quanto è fisso ovvero quasi indipendente dalla potenza della scheda - nel benchmark la differenza da una all'altra è minima proprio per questo motivo, si arriva al punto per cui è la capacità in tesselation che frena i frame macinati dalla scheda.

NVIDIA utilizza un approccio più dinamico e potente utilizzando gli shader core, quindi più ce ne sono, maggiori le performance, e infatti si vede chiaramente dal grafico il distacco che ha la 480 rispetto le altre, e la stretta vicinanza delle due 460 (pur in linea di massima essendoci fra le due una maggior differenza).

Visto che il tesselator è la feature trainante delle DX11, più giochi DX11 escono, maggiore sarà il vantaggio della scelta Fermi, che di fatto è più lungimirante rispetto quella Radeon.

Il fix che AMD avrebbe voluto dare a Ubisoft era probabilmente semplicemente atto a ridurre l'influenza dell'engine di tesselation (es. non processando oggetti distanti o fuori visuale) in modo da mitigare quel problema hardware che ha con le proprie schede. Non essendoci riuscita agirà via driver con una ottimizzazione ad uopo (atta ovviamente ad ottenere le stesse cose), come si faceva all'epoca di 3DMark taroccando i driver.

Forse sarebbe bene fare qualche ricerca prima di parlare. Il problema è HAWK 2 impiega un fattore di tessellation assurdamente elevato (con poligoni più piccoli di un pixel!), senza alcun beneficio per l'utente, che con fattori di tessellation molto più bassi non noterebbe alcuna differenza. L'architettura di Fermi, essendo molto più scalabile da questo punto di vista, è enormemente avvantaggiata.
AMD ha proposto a Ubisoft di implementare un tessellation dinamica, ma questa ha rifiutato, e il motivo è che Nvidia lo ha impedito, come già era successo ai tempi di Assassin's Creed e le Dx 10.1.

drak69
25-10-2010, 17:44
ho appena preso una gts450 e le superqualità non si vedono manco di striscio, la 4850 che ovviamente ho ancora da la paga come fluidità con e senza filtri, quindi anche la seconda chance che ho dato a nvidia è finita male (la prima era una 7900 gs). io credo solo a quello che vedo, il resto è fuffa e benchmark per fare i fighi

Beh però le hai selezionate accuratamente le schede nvidia da usare xD e te lo dico io che sono simpatizzante ATI (non fanboy). Da una hd4850 dovevi passare almeno ad una GTX460 per notare le differenze. (nella discussione ho dato per scontato che come base hai una buona configurazione da gioco e hai un monitor full-hd)

MiKeLezZ
25-10-2010, 17:44
ho appena preso una gts450 e le superqualità non si vedono manco di striscio, la 4850 che ovviamente ho ancora da la paga come fluidità con e senza filtri, quindi anche la seconda chance che ho dato a nvidia è finita male (la prima era una 7900 gs). io credo solo a quello che vedo, il resto è fuffa e benchmark per fare i fighiLa HD4850 ce l'ho anche io e oramai con gli ultimi giochi arranca come una Ape Piaggio in una salita del 40% a meno di non abbassare risoluzione e dettaglio
La GTS450 non sarà quel fulmine di guerra (visto che avevi speso 180 euro per la HD4850 potevi anche essere meno braccine a questo giro, visto che hai racimolato una fascia medio-bassa), ma sicuramente è (poco) più veloce

focuswrc
25-10-2010, 17:47
la 4850 mi è costata 130 euro, a 180 euro mi compravo la 4870
la 450 è più veloce (e ci mancherebbe) ma la fluidità lascia molto a desiderare, sarà che ha i driver migliori del pianeta? mah

ps i miei soldi li spendo come mi pare, segnatelo

Strato1541
25-10-2010, 18:00
Io metto i miei risultati(con singola scheda ovviamente e a default)

http://yfrog.com/86p1020481oj

E non dimentichiamo che stiamo parlnado solo di schede, cerchiamo di essere obiettivi che è a beneficio di tutti, anche perchè onestamente mi sono davvero stancato di leggere sempre gli stessi post e sempre delle stesse persone..
Siamo in un forum e dovremo aiutarci tutti.
Saluti.

TheDarkAngel
25-10-2010, 18:08
Chissà quando su questo forum si farà l'epurazione dei prezzolati come su anandtech...
chissà :asd:

sniperspa
25-10-2010, 18:09
la 4850 mi è costata 130 euro, a 180 euro mi compravo la 4870
la 450 è più veloce (e ci mancherebbe) ma la fluidità lascia molto a desiderare, sarà che ha i driver migliori del pianeta? mah

ps i miei soldi li spendo come mi pare, segnatelo

Ne ho appena montato su uno di pc con una 450 e per carita', di prestazioni sa il fatto suo ma come qualita' grafica non mi ha entusiasmato(notato sta cosa soprattutto su crysis)..sara' stata solo una mia impressione, oppure sono le famose ottimizazioni driver nvidia

Al di la delle chiacchere da bar, mi domando cosa abbia graficamente di migliore questo nuovo capitolo rispetto al primo perche' se ha di meglio solamente il tessellatore fanno parecchio ridere visto che il gioco girava gia' in fullhd con tutti i dettagli attivati ancora sulla mia 3850

Revelator
25-10-2010, 18:12
Io metto i miei risultati(con singola scheda ovviamente e a default)

http://yfrog.com/86p1020481oj

E non dimentichiamo che stiamo parlnado solo di schede, cerchiamo di essere obiettivi che è a beneficio di tutti, anche perchè onestamente mi sono davvero stancato di leggere sempre gli stessi post e sempre delle stesse persone..
Siamo in un forum e dovremo aiutarci tutti.
Saluti.

mi sbaglio o i tuoi risultati sono largamente inferiori ai bench (sei anche a 1600x1200)postati piu su?cmq rifallo disattivando il vsync poi vediamo quanto fai...

Zeorymer
25-10-2010, 18:27
Mi sono letteralmente scassato le sfere: tempo fà le discussioni sulle vga erano belle da seguire, c'erano mostri del calibro di Yossarian che ti insegnavano qualcosa, c'erano toni garbati e scambi di idee. Ora, invece, si assiste costantemente al solito spettacolino penoso messo sù dagli altrettanto soliti fanboy nVidia (non sono più di 4/5, ma spaccano le @@ come fossero 100.000:muro: ). Sempre gli stessi, i loro nick li conosciamo tutti bene, non sanno fare altro che dire "ATi è penosa" e cose simili, senza dare un reale contributo alle discussioni. Poi, ovviamente, i rossi rispondono e tutto diventa uno stadio. Quando si dice far passare alla gente la voglia di frequentare un forum......

A mio parere, una vga non si giudica dai bench, ma dal gaming "real world". Queste Ati hanno problemi coi filtri? Ok, l'importante è saperlo: chi vorrà prestazioni e filtri apposto (ma rumore e calore orribili) prenderà una 470, chi invece vorrà un buon bilanciamento tra prestazioni/consumi/rumore (ma problemi suddetti) prenderà una 6870. Senza come al solito dire che la propria squadra del cuore è la migliore, e gli altri fanno schifo. Tutti hanno pregi, tutti hanno difetti

blackshard
25-10-2010, 18:30
Ah cavolo, questo sì che è un ottimo benchmark.

In effetti quando sono lì lì per comprare la scheda video non mi sto a chiedere "questa come andrà con Mafia 2? Li potrò attivare tutti gli effetti al palo?", oppure "con questa bestia mi attivo 8x AA su Assassin's Creed"...

Bensì guardo il benchmark che mi hai linkato (di cosa non si sa) e vedo che la HD6870 fa MILLE E SETTANTANOVE FRAME AL SECONDO e me la compro... Così ho una scheda che mi fa MILLE E SETTANOVE FRAME AL SECONDO... MOLTI DI PIU' dei OTTOCENTOOTTANTASEI della 460... Con OTTOCENTOOTTANSEI frame rischierei di vedere laggare di brutto... Poi magari se invece che "medium" mettiamo su "low"... arriviamo alla milionata... e allora sì che mi gaso dell'acquisto...

Magari se ti calmi un attimo e leggi quello che ho scritto, invece di guardare solo le figure, afferri pure il concetto.

Tie', te lo ripropongo:

"Per quanto riguarda il tassellatore:

[immagine]

che è migliorato di parecchio rispetto alla serie hd5xxx (in barba a quei disinformati disinformatori, forse prezzolati, che sbraitano sul contrario) nonostante il numero di shader processor si sia ridotto sensibilmente."

forse si intuisce e forse no, ma quello su cui volevo sottolineare è il fatto che il tassellatore sia stato migliorato nella serie hd6xxx, a dispetto dei fanbozzi che dicono il contrario. Se non ti senti un fanbozzo la cosa non dovrebbe tangerti minimamente.

Per il resto del discorso, per quanto mi riguarda prendo solo la roba che ha il miglior rapporto prezzo/prestazioni e figurati se mi faccio le pippe appresso a chi ha il tassellatore più potente...

L'altro discorso sul foraggiare le software house non lo condivido affatto. Mi ricorda tanto tangentopoli.

Sire_Angelus
25-10-2010, 18:31
il problema é che secondo me queste sono scelte fatte a tavolino per impedire alle ati di brillare.... l'unità di tesselation non é così brutta, é semplicemente fixed.

in più, se i fanboy nvidia avessero seguito gli articoli del lancio della nuova serie 6 avrebbero scoperto che la fascia di mercato che queste due nuove schede vanno a ricoprire é quella delle 5830 e 5850, mentra invece devono ancora uscire le 6970, che questa volta saranno a core singolo.

Pier2204
25-10-2010, 18:40
interessante questa estenuante diatriba tra verdi e rossi...mi ci metto anche io..

Posso capire che dopo un anno ATI vende il 90% di schede directx 11 un benchmark fatto con un gioco che nessuno mai giocherà è una boccata d'ossigeno per i fan Nvidia, come un palombaro a 100 metri di profondità ha la pompa d'aria rotta, appena emerge diventa verde in faccia e grida :D

Scusate ma non ho resistito..:asd:

MiKeLezZ
25-10-2010, 18:42
Magari se ti calmi un attimo e leggi quello che ho scritto, invece di guardare solo le figure, afferri pure il concetto.

Tie', te lo ripropongo:

"Per quanto riguarda il tassellatore:

[immagine]

che è migliorato di parecchio rispetto alla serie hd5xxx (in barba a quei disinformati disinformatori, forse prezzolati, che sbraitano sul contrario) nonostante il numero di shader processor si sia ridotto sensibilmente."

forse si intuisce e forse no, ma quello su cui volevo sottolineare è il fatto che il tassellatore sia stato migliorato nella serie hd6xxx, a dispetto dei fanbozzi che dicono il contrario. Se non ti senti un fanbozzo la cosa non dovrebbe tangerti minimamente.

Per il resto del discorso, per quanto mi riguarda prendo solo la roba che ha il miglior rapporto prezzo/prestazioni e figurati se mi faccio le pippe appresso a chi ha il tassellatore più potente...

L'altro discorso sul foraggiare le software house non lo condivido affatto. Mi ricorda tanto tangentopoli.Sì il tesselatore delle nuove HD6000 è cresciuto di potenza così come in proporzione sono cresciute in potenza le schede rispetto la serie HD5000, rimangono i suoi precedentemente discussi limiti (da verificare evidentemente gioco per gioco), e sotto questo punto di vista nulla è cambiato rispetto la serie precedente.

costa@73
25-10-2010, 18:48
:D come lo immaginavo...
ecco l'ultima arma rimasta ad nvidia per contrastare i fatti con il fumo.
la storia si ripete, d'altronde sono gli stessi che all'epoca fecero di tutto per non dare il giusto valore alle nuove schede Dx10.1 di ati, con il gioco assassin's..
Ed ecco che ricomincia il fud al limite del truffaldino a cui nvidia ci ha abituati, le schede di cartone, i rebranding a catena , le recensioni diciamo.. gonfiate con schede overcloccate vs default ecc ecc..
Da parte mia sarei contento se ati abbassasse il prezzo delle sue nuove schede ora che può permetterselo, e dia la spallata finale a questa casa che ha sempre operato in modo scorretto, sarei anche disposto a pagare qualcosa in più per mancanza di concorrenza, ma finalmente scomparirebbero tutti i barbatrucchi e la confusione che nvidia ha creato in questi anni
Che sia la volta buona. me lo auguro veramente.

!fazz
25-10-2010, 18:54
Vedete di smetterla con i soliti battibecchi


mi riservo di controllare con calma i post

Ale55andr0
25-10-2010, 18:58
Sempre i soliti. Sempre a dire Nvidia ladrona. Io direi piuttosto che i prodotti Nvidia sono decisamente migliori rispetto ad Ati. E che chi se ne frega del calore e delle solite scemate tirate fuori. Nvidia và, Ati no.


Che io sappia flammare è contro il regolamento :stordita:
Mi chiedo però perchè pochi giorni fa' sono stato sospeso per molto meno e le continue trollate dei fanboy nvidia non vengono "notate"...dove sono i MOD? e chissenefrega se vengo sospeso, ma almeno lo dico, perchè tra queste idiozie (si', sto flammando anch'io) e quelle sparate da altri utenti davvero non se ne può più :rolleyes:

costa@73
25-10-2010, 19:23
he io sappia flammare è contro il regolamento
Mi chiedo però perchè pochi giorni fa' sono stato sospeso per molto meno e le continue trollate dei fanboy nvidia non vengono "notate"...dove sono i MOD? e chissenefrega se vengo sospeso, ma almeno lo dico, perchè tra queste idiozie (si', sto flammando anch'io) e quelle sparate da altri utenti davvero non se ne può più

Fa tutto parte della grande putenza By Nvidia...
chi vuol sentire..

Revelator
25-10-2010, 19:24
:) :) :) :) ;)

Strato1541
25-10-2010, 19:27
Riposto i test con vsync disattivato.. così si allinea ai test fatti mi sembra..
http://yfrog.com/f1p1020483gj

Riguardo le schede e i soliti flammatori( mi semra ce nè siano tanti sia ati che nvidia ) se uno vuole informarsi le cose le comprende e sà cosa scegliere..
Dato che allo stato attuale delle cose non esiste una scheda che dia tutto interamente..direi che è meglio concentrarsi e capire cosa si vuole e agire di conseguenza..
Mi permetto di aggiungere , che avere una scheda potente che dà problemi con alcuni titoli o con alcune condizioni può essere una gran rottura, e questo putroppo mi è successo spesso con le ati..sebbene con il recente acquisto di una 5970 ho visto che molti bug sono stati risolti, ciò non togli eche sia fastidioso, vuoi per i driver vuoi per la politica di chi programma i giochi, ma alla fine se non si è appassionati e si vuole solo giocare si constata che il gioco và male!

IlGranTrebeobia
25-10-2010, 19:30
Fa tutto parte della grande putenza By Nvidia...
chi vuol sentire..

Suvvia :doh:

Riposto i test con vsync disattivato.. così si allinea ai test fatti mi sembra..
http://yfrog.com/f1p1020483gj

Quanto incide la "tassellatura terreno" che si vede lì nel resoconto?

Revelator
25-10-2010, 19:39
chi ha ati può testare coi 10.10+profili no vsync?

CYRANO
25-10-2010, 19:54
Ero curioso di testarlo , ma se è l'ennesimo taroccamento nvidia lascio perdere va...



Clslmslm,slm,s

shodan
25-10-2010, 20:24
Provo a dire la mia...
Innanzitutto alcune precisazioni: diversamente da quanto indicato da più parti, non mi risulta che Nvidia usi i CUDA cores per emulare le operazioni fisse del tessellatore; questa funzionalità è implementata dai PoliMorph Engine (1 per ogni SM cluster), come si vede bene qui: http://www.techreport.com/articles.x/18332/2
Questo significa che, fatte le debite proporzioni, l'uso del tessellatore non impegna lo shader core di Nvidia di più rispetto a quello di ATI.

Detto questo, proviamo a commentare il benchmark. Un utente (mi pare blackshard) faceva giustamente notare che l'uso del tessellatore così come fatto da HAWX2 è totalmente fuori luogo e che ATI, approntando una patch per impostare dinamicamente il fattore di tessellamento, si è vista sbattere la porta in faccia.

Se le cose stanno così, il comportamento dell'accoppiata Ubisoft / Nvidia non è un granchè corretto e, considerando quello che è già successo in passato con la storia delle DX10.1 su Assassin Creed (prima introdotte e poi misteriosamente eliminate) non è che ci facciano una bella figura...

Ciao. :)

shodan
25-10-2010, 20:27
interessante questa estenuante diatriba tra verdi e rossi...mi ci metto anche io..

Posso capire che dopo un anno ATI vende il 90% di schede directx 11 un benchmark fatto con un gioco che nessuno mai giocherà è una boccata d'ossigeno per i fan Nvidia, come un palombaro a 100 metri di profondità ha la pompa d'aria rotta, appena emerge diventa verde in faccia e grida :D

Scusate ma non ho resistito..:asd:

Ciao,
il punto non è che l'unità di ATI è "fixed" (lo era su R600/RV700), ma che Nvidia ha adottato un approccio distribuito: ogni SM cluster ha un suo motore geometrico, mentre ATI ne ha uno solo, a monte di tutto il resto del chip.

Ciao. :)

shodan
25-10-2010, 20:31
Sì il tesselatore delle nuove HD6000 è cresciuto di potenza così come in proporzione sono cresciute in potenza le schede rispetto la serie HD5000, rimangono i suoi precedentemente discussi limiti (da verificare evidentemente gioco per gioco), e sotto questo punto di vista nulla è cambiato rispetto la serie precedente.

Ciao,
direi che non è così: il tessellatore delle 6870 è più veloce di quello delle 5870, me quest'ultime hanno un chip decisamente più grosso e "potente" a livello di FLOPS.
Qui puoi vedere un test:
http://www.techreport.com/r.x/radeon-hd-6800/heaven.gif

A quanto pare, il miglioramento del tessellatore deriva da alcuni tweak "minori", come il ridimensionamento di alcuni buffer interni e l'introduzione di due UTDP.

Certo l'implementazione distribuita di Nvidia è superiore, ma il punto è: con fattori di tessellazione "umani" e attualmente utilizzabili, il tessellatore di ATI è adatto? A me pare di si, quindi il risultato di questo bench lascia più o meno il tempo che trova...

Ciao. :)

killer978
25-10-2010, 20:32
Ragazzi ormai tutti li conosciamo i trool , basta non risponderli fare finta che non esistono, io quando commento una news vengo spesso quotato e punzecchiato dai soliti......., evito propio di leggere i loro post , dicono sempre le stesse cose, su anandtech esistevano utenti simili sono stati epurati , forse succedera anche qui un giorno!...

La tasselation è una feature DX 11 che solo oggi sta iniziando ad intravedersi in qualche gioco , e dai bench che circolano le schede ATI/Nvidia si equivalgono non ci sono cali mostruosi come si vede nei bench specifici tipo questo!... ATI ha puntato su GPU/piccole parsimoniose e con prestazioni da paura se confontate alle GPU Nvidia che mediamente hanno un die grosso il doppio, magari avranno pensato che per un anno/anno e mezzo le schede andranno benone con i giochi, in futuro si vedrà.

Parliamoci chiaro oggi abbiamo delle ottime scelte x chi vuole acquistare una VGA, io a chi mi chiede cosa comprare senza spendere un rene consiglio o una GTX460 oppure la nuova 6850 entrambe ottime schede x giocare a 1680x1050, mentre x chi vuole spendere qualcosa in + , la scelta resta solo x le schede ATI , le GTX470/480 le sconsiglio a tutti, schede che scaldano da paura e che fanno aumentare la bolletta anche di 20€ ogni 2 mesi x chi gioca ogni giorno.

bYz!..

Revelator
25-10-2010, 20:49
ho il fisso smontato...ripeto c'è qualcuno che mi posta un result con schede ati...
ho potuto provare solo il notebook e mi fa 28-21:sofico:

psychok9
25-10-2010, 20:55
Fatemi capire, se AMD lanciasse un benchmark che gira bene solo su AMD, lo useremmo come metro di paragone? Chi ha una scheda nVidia la venderebbe e comprerebbe subito AMD perché superiore? Siete seri? :eek:

Ubisoft per sua stessa ammissione ha depennato le ottimizzazioni sul benchmark preview, su pressione di nVidia, e le prestazioni finali del gioco saranno diverse.
Oltretutto un tessellation che non si adatta alla nostra capacità ottica, non ha nemmeno senso di esistere, a meno che lo scopo è solo far vedere barre più lunghe... (target adolescente a cui piacciono i numeri, poco smart).
AMD ha bilanciato diversamente da nVidia l'uso del tessellation, e infatti dove ci sono giochi con grafica molto pesante e non si esagere con il tessellation del tipo 5 mila poligon su un pixel a 1km di distanza... vanno benone e sono destinate a migliorare ancora.
Una GPU moderna non fa solo tessellation su un videogioco, altrimenti avrebbe fatto una GPU di sole unità tessellation :doh:

psychok9
25-10-2010, 21:03
"HAWK 2 è brutto e cattivo, non usatelo per i benchmark..."

Così dice ATI ;)

Come mai? Chissà.

Comprare una scheda GTX 480 solo per vedere una barra più sopra di altre: 350€, con mastercard :D

Sapere che non contano nulla: non ha prezzo ;)

psychok9
25-10-2010, 21:08
innanzi tutto io aspetterei a dare giudizi assoluti.e cmq sia vi posto questo link magari può esserci utile...
http://www.overclock.net/9346179-post19.html


Molto interessante, grazie!

Balthasar85
25-10-2010, 21:09
Che magra figura che state facendo, manco all'asilo.. :O


CIAWA

sniperspa
25-10-2010, 21:11
Fatemi capire, se AMD lanciasse un benchmark che gira bene solo su AMD, lo useremmo come metro di paragone? Chi ha una scheda nVidia la venderebbe e comprerebbe subito AMD perché superiore? Siete seri? :eek:

Ubisoft per sua stessa ammissione ha depennato le ottimizzazioni sul benchmark preview, su pressione di nVidia, e le prestazioni finali del gioco saranno diverse.
Oltretutto un tessellation che non si adatta alla nostra capacità ottica, non ha nemmeno senso di esistere, a meno che lo scopo è solo far vedere barre più lunghe... (target adolescente a cui piacciono i numeri, poco smart).
AMD ha bilanciato diversamente da nVidia l'uso del tessellation, e infatti dove ci sono giochi con grafica molto pesante e non si esagere con il tessellation del tipo 5 mila poligon su un pixel a 1km di distanza... vanno benone e sono destinate a migliorare ancora.
Una GPU moderna non fa solo tessellation su un videogioco, altrimenti avrebbe fatto una GPU di sole unità tessellation :doh:

Pompassero un pò la grafica prima di passare a cose secondarie come il tessellation...non sarei ancora quì con una scheda di 3 anni fa di fascia media che mi fa girare ancora i giochi a dettagli alti :asd: :sofico:
Comprare una scheda GTX 480 solo per vedere una barra più sopra di altre: 350€, con mastercard :D

Sapere che non contano nulla: non ha prezzo ;)

Quoterazzo ;)

psychok9
25-10-2010, 21:11
Che magra figura che state facendo, manco all'asilo.. :O


CIAWA

Secondo me il tema è: vi piacerebbe se AMD e nVidia si spartissero a colpi di mazzette il mercato pc?
Io direi che ne verrebbe una bella frittata, e chi al momento sembra gradire è solo perché sa che non c'è una situazione contraria (che io sappia tutti i giochi sponsorizzati da AMD vanno benone anche su nVidia).

psychok9
25-10-2010, 21:12
Pompassero un pò la grafica prima di passare a cose secondarie come il tessellation...non sarei ancora quì con una scheda di 3 anni fa di fascia media che mi fa girare ancora i giochi a dettagli alti :asd: :sofico:


Quoto... Credo ci sia ancora molto da lavorare sulle luci e sulle texture... Sicuramente ci sono oggettive difficoltà, ma il rallentamento è evidente.

mirkonorroz
25-10-2010, 21:16
Imho, il fatto che nel bench (o in un qualsiasi gioco) vi sia un grado esagerato di tassellazione non giustifica il fatto di dire che il tassellatore X e' troppo potente. Quindi se la soluzione Nvidia risulta migliore (ma bisogna avere piu' riscontri con piu' giochi reali) lode ad Nvidia. Non vedo comunque male un approccio ibrido con tassellatore dedicato, a patto di potenziarlo costantemente mano mano che escono nuove generazioni di schede: il tassellatore dedicato garantirebbe la soglia minima, probabilmente, ma tutto dipende dai bilanciamenti delle richieste dei giochi reali.

In ogni caso, visto che, a volte si parla di ottimizzazioni, mi chiedo dunque se la parte di codice che poi influira' per la tassellazione sia realmente "DX11 trasparente", nel senso che non esiste codice aggiuntivo dedicato che ottimizzi l'uso di una soluzione rispetto all'altra. Se il codice e' uno solo ed indipendente, lode al piu' veloce, altrimenti i sospetti di maneggi da parte di una o l'altra azienda sarebbero piu' che fondati.

longhorn7680
25-10-2010, 21:24
Forse non dovrei dar da mangiare ai soliti troll ma leggendo i commenti non si puo non cercare di far chiarezza. Che nel Bench puro il tassellatore nVidia sia superiore lo sanno anche i muri, ma altrettanto (tranne una decina di persone che continuano a non volerlo capire per convevnienza) anche i muri sanno che la condizione di Bench NON SI PRESENTA in condizioni di gioco normali, poi qui stiamo vedendo l'ennesima taroccata di Nvidia che per rapporti commerciali con Ubisoft si fa avantaggiare proprio nei giorni di lancio delle 68XX che hanno dato una sonora batosta ad nVidia e cercano di limitare i danni. Questo e marketing e siccome in ballo ci sono molti soldi quasi tutto e lecito. Sicuramente io non mi mettero a criticare nVidia per una mossa del genere, basta avere un minimo di intelligenza per valutare i risultati che danno le varie VGA e siccome il tassellation lo valutiamo in game e non con UH o questa pseudo demo allora il risultato e che in DX11 le 68XX si comportano meglio nei confronti di Fermi rispetto a DX9 e DX10. Questi sono dati oggettivi mentre il mare di scemenze scritte qui sopra fa soltanto ridere.

Balthasar85
25-10-2010, 21:53
Secondo me il tema è: [..]
Che se nVidia in alcuni bench (vedi HAWX2) va meglio ha uscito mazzette, se ATI in alcuni bench (vedi 3Dmark) va meglio ha uscito mazzette, se nVidia con un suo team ottimizza un antialiasing su un motore che nativamente non lo usa e dice "questo lavoro l'ho fatto io e decido io dove farlo girare" (vedi Batman ark..) ha uscito delle mazzette..

Una cosa è certa, per far funzionare bene il mercato delle schede video non basta produrle con buone specifiche e buttarle fuori, bisogna anche seguire i produttori di videogame ed aggiornare nel minor tempo possibile i drive altrimenti poi non lamentiamoci dicendo "quell'AA ci spetta di diritto" quando per tutta la durata della progettazione del gioco te ne sei disinteressato.
Non è questione di mazzette, è questione di creare un buon ecosistema in grado di seguire i produttori per far si che l'utilizzatore finale ottenga il meglio possibile.


Detto questo basta usare la giustificazione delle mazzette come unica fonte di guai per una cattiva ottimizzazione per l'uno o l'altro produttore, questa storiella ce la raccontiamo da decenni oramai, da ben prima di Moto Racer 2 e MDK 2, da ben prima di ATI e 3DFx.


CIAWA

Revelator
25-10-2010, 22:15
Che se nVidia in alcuni bench (vedi HAWX2) va meglio ha uscito mazzette, se ATI in alcuni bench (vedi 3Dmark) va meglio ha uscito mazzette, se nVidia con un suo team ottimizza un antialiasing su un motore che nativamente non lo usa e dice "questo lavoro l'ho fatto io e decido io dove farlo girare" (vedi Batman ark..) ha uscito delle mazzette..

Una cosa è certa, per far funzionare bene il mercato delle schede video non basta produrle con buone specifiche e buttarle fuori, bisogna anche seguire i produttori di videogame ed aggiornare nel minor tempo possibile i drive altrimenti poi non lamentiamoci dicendo "quell'AA ci spetta di diritto" quando per tutta la durata della progettazione del gioco te ne sei disinteressato.
Non è questione di mazzette, è questione di creare un buon ecosistema in grado di seguire i produttori per far si che l'utilizzatore finale ottenga il meglio possibile.


Detto questo basta usare la giustificazione delle mazzette come unica fonte di guai per una cattiva ottimizzazione per l'uno o l'altro produttore, questa storiella ce la raccontiamo da decenni oramai, da ben prima di Moto Racer 2 e MDK 2, da ben prima di ATI e 3DFx.


CIAWA

:sofico:

roccia1234
25-10-2010, 22:25
:sofico:

:asd:

scendi il cane che lo piscio

:asd:

Balthasar85
25-10-2010, 22:31
Ovviamente il linguaggio è stato scelto per scimmiottare alcuni discorsi da sempliciotti fatti fino ad ora.
Sui contenuti vedo che non avete nulla da ribattere. Concordate con quanto sopra esposto? Beh, che dire, grazie. ;)


CIAWA

TheDarkAngel
25-10-2010, 22:46
Ovviamente il linguaggio è stato scelto per scimmiottare alcuni discorsi da sempliciotti fatti fino ad ora.

Spero anche l'italiano perché leggere certe cose fa impressione :mbe:

CYRANO
25-10-2010, 22:47
:asd:

scendi il cane che lo piscio

:asd:

escile il pescie !

:sofico:



C,òs,òs,òl,lòs

leoneazzurro
25-10-2010, 22:53
"HAWK 2 è brutto e cattivo, non usatelo per i benchmark..."

Così dice ATI ;)

http://img101.imageshack.us/img101/4574/img0029781j.gif

Come mai? Chissà.

Se il gioco va male con RADEON e va bene con GEFORCE, è perché lo sviluppatore è uno venduto a NVIDIA.
Se il gioco va bene con RADEON e va male con NVIDIA, è perché ATI è cazzuta a fare le schede.
Sono troppo forti gli utenti delle schede video.


Quello che è programmato male è l'engine di tesselation delle Radeon dalla serie HD5000 alla più recente HD6000 in quanto è fisso ovvero quasi indipendente dalla potenza della scheda - nel benchmark la differenza da una all'altra è minima proprio per questo motivo, si arriva al punto per cui è la capacità in tesselation che frena i frame macinati dalla scheda.

NVIDIA utilizza un approccio più dinamico e potente utilizzando gli shader core, quindi più ce ne sono, maggiori le performance, e infatti si vede chiaramente dal grafico il distacco che ha la 480 rispetto le altre, e la stretta vicinanza delle due 460 (pur in linea di massima essendoci fra le due una maggior differenza).

Visto che il tesselator è la feature trainante delle DX11, più giochi DX11 escono, maggiore sarà il vantaggio della scelta Fermi, che di fatto è più lungimirante rispetto quella Radeon.

Il fix che AMD avrebbe voluto dare a Ubisoft era probabilmente semplicemente atto a ridurre l'influenza dell'engine di tesselation (es. non processando oggetti distanti o fuori visuale) in modo da mitigare quel problema hardware che ha con le proprie schede. Non essendoci riuscita agirà via driver con una ottimizzazione ad uopo (atta ovviamente ad ottenere le stesse cose), come si faceva all'epoca di 3DMark taroccando i driver.

Allora, vediamo... NVIDIA sta impastata con Ubisoft (quindi i vari Assassin's Creed che è diventata trilogia, Batman, e ora ci esce anche il capitolo nuovo, HAWX 1 e 2...), poi sta impastata con 2K Games (Mafia 2), poi Epic Games (Unreal Engine 1 e 2, cioè la base del 80% dei FPS), ora si scopre pure Crytek (Crysis è oramai trilogia acclamata e vanto del mondo PC), ma sai che ti dico?
E un VALORE AGGIUNTO... e pure DI BRUTTO! Altro che antitrust.
NVIDIA si fa il culo con i sviluppatori e so che se mi compro uno di quei giochi mi andrà da Dio, con presumibilmente zero problemi e tutte le feature attivate.
Che ATI muova il culo e faccia lo stesso, poi se ne riparla di quale scheda è migliore... Alla mia età ho capito che i 2 o 3 fps di differenza non contano niente, conta tutto il resto che c'è intorno. Del modo in cui lo fa, con mazzette, con pezzi di codici, con bagascie, non mi frega, l'importante è che poi del risultato ne goda pure io. E mi pare il risultato ci sia eccome.

Ah cavolo, questo sì che è un ottimo benchmark.

In effetti quando sono lì lì per comprare la scheda video non mi sto a chiedere "questa come andrà con Mafia 2? Li potrò attivare tutti gli effetti al palo?", oppure "con questa bestia mi attivo 8x AA su Assassin's Creed"...

Bensì guardo il benchmark che mi hai linkato (di cosa non si sa) e vedo che la HD6870 fa MILLE E SETTANTANOVE FRAME AL SECONDO e me la compro... Così ho una scheda che mi fa MILLE E SETTANOVE FRAME AL SECONDO... MOLTI DI PIU' dei OTTOCENTOOTTANTASEI della 460... Con OTTOCENTOOTTANSEI frame rischierei di vedere laggare di brutto... Poi magari se invece che "medium" mettiamo su "low"... arriviamo alla milionata... e allora sì che mi gaso dell'acquisto...

Ennesima flammata. Diverse te ne ho lasciate passare, questa volta no. 3 giorni. Tra parentesi, se un benchmark pone l´accento su uno dei colli di bottiglia di un´architettura, non vuole dire che in totale l´architettura nei giochi odierni non performi. Sarebbe come misurare la potenza aritmetica di picco o il texture fill rate e dedurne da lí le prestazioni in una generica applicazione.

Sempre i soliti. Sempre a dire Nvidia ladrona. Io direi piuttosto che i prodotti Nvidia sono decisamente migliori rispetto ad Ati. E che chi se ne frega del calore e delle solite scemate tirate fuori. Nvidia và, Ati no.

La cosa davvero che dovrebbe saltare agli occhi di tutti è che le nuove Ati serie 6 non sono migliori della serie 5. Le Fermi sono migliori per i giochi che usano pesantemente le features di Dx11 (come han fatto notare altri utenti).
In più se si pensa che sia solo un bench, figuriamoci nel gioco vero e proprio quali saranno i risultati.

E qui, speranza non ne ho piú. Utenza bannata.


he io sappia flammare è contro il regolamento
Mi chiedo però perchè pochi giorni fa' sono stato sospeso per molto meno e le continue trollate dei fanboy nvidia non vengono "notate"...dove sono i MOD? e chissenefrega se vengo sospeso, ma almeno lo dico, perchè tra queste idiozie (si', sto flammando anch'io) e quelle sparate da altri utenti davvero non se ne può più

Fa tutto parte della grande putenza By Nvidia...
chi vuol sentire..

E´una critica all´operato dei moderatori? Ammonizione.

Consideriamo che i mod sono persone che hanno una vita ed un lavoro, non sono sempre qui a fare da balia a chi non vuole farlo da sé.

Balthasar85
25-10-2010, 23:09
Spero anche l'italiano perché leggere certe cose fa impressione :mbe:
Dopo quasi 600 post, solo in questo foro, credo di potermi permettere simili licenze poetiche senza destar sospetti. :stordita:


CIAWA

IlGranTrebeobia
25-10-2010, 23:26
ho il fisso smontato...ripeto c'è qualcuno che mi posta un result con schede ati...
ho potuto provare solo il notebook e mi fa 28-21:sofico:

Lo farei anche ma non riesco ad attivare l'opzione che credo ci interessi: "tassellatura terreno" :mbe:

psychok9
26-10-2010, 00:15
Che se nVidia in alcuni bench (vedi HAWX2) va meglio ha uscito mazzette,
Mi pare l'abbia detto la stessa Ubisoft, e stiamo parlando stavolta di un benchmark preview, non del gioco finito che avrà le ottimizzazioni del caso.

se ATI in alcuni bench (vedi 3Dmark) va meglio ha uscito mazzette,
Non mi risulta ne' che andasse peggio (mi pare stiano lì lì), ne' che abbiano disabilitato feature per penalizzare gpu nVidia.

se nVidia con un suo team ottimizza un antialiasing su un motore che nativamente non lo usa e dice "questo lavoro l'ho fatto io e decido io dove farlo girare" (vedi Batman ark..) ha uscito delle mazzette..
Hanno implementato una cosa che era già implementata in altri giochi simili con il defered, eppure solo in quello c'era un check per l'id della gpu...
Non so come fai a difendere una scelta del genere, che nulla aggiunge, e solo toglie a chi non compra per fede ad un marchio :doh:.
Io preferisco gli standard, e poter scegliere l'hardware che più gradisco o posso comperare.

Una cosa è certa, per far funzionare bene il mercato delle schede video non basta produrle con buone specifiche e buttarle fuori, bisogna anche seguire i produttori di videogame ed aggiornare nel minor tempo possibile i drive altrimenti poi non lamentiamoci dicendo "quell'AA ci spetta di diritto" quando per tutta la durata della progettazione del gioco te ne sei disinteressato.
Non è questione di mazzette, è questione di creare un buon ecosistema in grado di seguire i produttori per far si che l'utilizzatore finale ottenga il meglio possibile.
Non si sono affatto disinteressati, ma la software house si era rifiutata di implementarlo su schede ATi, perché aveva un accordo $$$ con nVidia...
Ripeto, secondo me questo atteggiamento 1 po' calcistico e 1 po' fanboystico è dovuto al fatto che non vi stanno danneggiando... ma lo trovo davvero autolesionistico.
Alle software house non deve intereressare che marchio uso per il mio pc, voglio poter scegliere e ottenere il massimo che quello che ho comprato con i miei soldi mi può dare, nulla di più e nulla di meno.
E l'AA non era di sicuro una cosa che le ATi non potevano dare.
Tral'altro all'epoca avevo una 8800 GT, ma ho trovato vergognosa la cosa comunque...

Detto questo basta usare la giustificazione delle mazzette come unica fonte di guai per una cattiva ottimizzazione per l'uno o l'altro produttore, questa storiella ce la raccontiamo da decenni oramai, da ben prima di Moto Racer 2 e MDK 2, da ben prima di ATI e 3DFx.
CIAWA
Non è una giustificazione di nulla, è un dato di fatto... nVidia purtroppo, anziché investire soltanto in R&D e nel classico marketing, investe anche in modi anti-concorrenziali a danno di noi consumatori in primis. Di tutto il resto non mi frega nulla ;)

Tra parentesi, se un benchmark pone l´accento su uno dei colli di bottiglia di un´architettura, non vuole dire che in totale l´architettura nei giochi odierni non performi. Sarebbe come misurare la potenza aritmetica di picco o il texture fill rate e dedurne da lí le prestazioni in una generica applicazione.


Quoto. Alla fine, quello che conta, è il risultato finale che ci fornisce il prodotto "XYZ" con il software che utilizziamo.

giusemanuel
26-10-2010, 00:15
scusatre raga,ho installato il bench ma m quando gaccio inizia bench mi appare una schermata con scritto in nero su sfondo giallo "esci dal gioco" o una cosa simile,che è?

Revelator
26-10-2010, 07:26
Lo farei anche ma non riesco ad attivare l'opzione che credo ci interessi: "tassellatura terreno" :mbe:

devi cliccare col tasto dx su icona gioco...e avviarlo in modalità dx10/dx11 prova.;)

Revelator
26-10-2010, 07:28
scusatre raga,ho installato il bench ma m quando gaccio inizia bench mi appare una schermata con scritto in nero su sfondo giallo "esci dal gioco" o una cosa simile,che è?

hai os/drivers/directx aggiornate?vorrai mica lanciarlo sulla 9600...

Ghostfox
26-10-2010, 07:28
però mi son letto tutte le 8 pagine.. aoh quando ATI va peggio di nvidia è perchè ha rubato, quando nvidia va peggio di ati è perchè è un epic fail... ahhaha... è ridicola sta cosa...mi ricordo che solo un paio di anni fa la storia era totalmente opposta..

Ma le politiche aziendali di queste 2 aziende non si basano di certo sui gossip che ne fanno i clienti... alla fine cio che conta è che un gioco vada bene e il meglio possibile, quale strategia ci sia dietro alla fine la sapete voi? qui è un po come al bar, tutti sono allenatori e tutti avrebbero vinto tutto se avessero fatto giocare la squadra di calcio preferita a proprio piacimento... NESSUNO, a parte i general manager e gli sviluppatori, può sapere cosa ci sia dietro.... vogliamo parlare delle voci su crysis 2 dove pare che nvidia abbia dato 2 milioni di dollari per lo sviluppo ottimizzato sulle proprie schede? amen... è il mercato e la guerra non si fa a furia di fare chippettini nuovi...si fa in tanti modi e quello del denaro è il piu sicuro visto che le schede le vendi proprio perchè NOI POVERI FESSI CI BASIAMO SUL BENCHMARK CON CRYSIS E SU QUANTI FPS ION PIU FA QUELLA O L'ALTRA SCHEDA...o state ancora pensando che il trucco per vendere le schede sia SOLO quello di aumentarne la potenza?!.. le schede sono tutte li,fateci caso..fanno la guerra a colpi di 5fps.. e pensate che 2 colossi come AMD e NVIDIA stiano li a guardare SOLO quello? ma perfavore, aprite gli occhi... io ho solo fatto caso,spesso negli ultimi tempi, che nvidia fa uscire driver nuovi e ne aumenta le performance perchè problemi ne hanno pochi, ati invece sta cacciando fuori driver su driver SOLO per correggere problemi.. a parte sti ultimi 10.10 che forse cambiano anche sta solfa...nvidia investe sulle software house, amd no.. si può fare politica per questo? mah..

al135
26-10-2010, 08:07
però mi son letto tutte le 8 pagine.. aoh quando ATI va peggio di nvidia è perchè ha rubato, quando nvidia va peggio di ati è perchè è un epic fail... ahhaha... è ridicola sta cosa...mi ricordo che solo un paio di anni fa la storia era totalmente opposta..

Ma le politiche aziendali di queste 2 aziende non si basano di certo sui gossip che ne fanno i clienti... alla fine cio che conta è che un gioco vada bene e il meglio possibile, quale strategia ci sia dietro alla fine la sapete voi? qui è un po come al bar, tutti sono allenatori e tutti avrebbero vinto tutto se avessero fatto giocare la squadra di calcio preferita a proprio piacimento... NESSUNO, a parte i general manager e gli sviluppatori, può sapere cosa ci sia dietro.... vogliamo parlare delle voci su crysis 2 dove pare che nvidia abbia dato 2 milioni di dollari per lo sviluppo ottimizzato sulle proprie schede? amen... è il mercato e la guerra non si fa a furia di fare chippettini nuovi...si fa in tanti modi e quello del denaro è il piu sicuro visto che le schede le vendi proprio perchè NOI POVERI FESSI CI BASIAMO SUL BENCHMARK CON CRYSIS E SU QUANTI FPS ION PIU FA QUELLA O L'ALTRA SCHEDA...o state ancora pensando che il trucco per vendere le schede sia SOLO quello di aumentarne la potenza?!.. le schede sono tutte li,fateci caso..fanno la guerra a colpi di 5fps.. e pensate che 2 colossi come AMD e NVIDIA stiano li a guardare SOLO quello? ma perfavore, aprite gli occhi... io ho solo fatto caso,spesso negli ultimi tempi, che nvidia fa uscire driver nuovi e ne aumenta le performance perchè problemi ne hanno pochi, ati invece sta cacciando fuori driver su driver SOLO per correggere problemi.. a parte sti ultimi 10.10 che forse cambiano anche sta solfa...nvidia investe sulle software house, amd no.. si può fare politica per questo? mah..

hai colto nel segno :)
per me si possono pure boicottare , comprare e bastonare, basta che alla fine ci guadagnamo noi poveri acquirenti :D
ora veramente con un paio di centoni di porti a casa una gran bella scheda video, avanzata e capace di elaborare degli engine grafici quasi fotorealistici :)

))Lexandrus((
26-10-2010, 10:03
Come dice qualcuno, ad alcuni non bisognerebbe neanche rispondere, perchè si alimentano flame e si da soddisfazione a chi trolleggia.

Io però ho sempre seguito il forum e i commenti per approfondire e informarmi maggiormente, e mi ha sempre dato fastidio chi afferma cose che di veritiero hanno poco o nulla, quindi non posso non commentare alcune sparate:


"HAWK 2 è brutto e cattivo, non usatelo per i benchmark..."

Così dice ATI ;)

http://img101.imageshack.us/img101/4574/img0029781j.gif

Come mai? Chissà.

Non ti pare strano che solo in questo benchmark una HD 5870 vada molto meno di una GTX460 768mb?? :mbe:

Fino ad ora, tutti i benchmark senza sponsorizzazioni che utilizzano la tesselation, hanno rivelato prestazioni co distacchi nella norma, e hanno fatto capire che la tecnica che utilizza NVidia è un po' più performante di quella usata da ATi/AMD.
Ma non è possibile che ci sia una differenza così elevata tra schede di marchi diversi, a meno che non si utilizzino codici fatti apposta per avvantaggiare un certo tipo di soluzione hardware.

dal momento che anche le nuove ATI vanno male col tessellation, non vedo cosa ci sia da stupirsi.
Ah ma siccome è un nuovo benchmark dev'esserci lo zampino di Nvidia, non può essere che le schede ATI siano mostruosamente inferiori come in tutti gli altri benchmark che supportano tessellation.

Se mi dai dei test in cui risulta che le Ati sono MOSTRUOSAMENTE inferiori ad AMD, si può fare un discorso sensato.
Altrimenti stai solo facendo DISINFORMAZIONE, flame, e trollaggio.

Questo è il test effettuato da HWupgrade (che vede il confronto con una GTX460 overclockata):
http://www.hwupgrade.it/articoli/skvideo/2584/unigine.png

Questi sono altri test fatti da un famoso sito estero:
http://tpucdn.com/reviews/HIS/Radeon_HD_6870/images/heaven_1680_1050.gif
http://tpucdn.com/reviews/HIS/Radeon_HD_6870/images/heaven_1920_1200.gif
http://tpucdn.com/reviews/HIS/Radeon_HD_6870/images/heaven_2560_1600.gif

Dove sarebbe il gap pesante da te affermato?

Io vedo che la nuova fascia media AMD (serie 6000), va come la vecchia fascia alta, quindi direi che ci si può solo aspettare un miglioramento dalla serie 6900, che uscirà tra meno di un mese.

Se il gioco va male con RADEON e va bene con GEFORCE, è perché lo sviluppatore è uno venduto a NVIDIA.
Se il gioco va bene con RADEON e va male con NVIDIA, è perché ATI è cazzuta a fare le schede.
Sono troppo forti gli utenti delle schede video.

Hai mai visto questo simbolo (http://images.bit-tech.net/content_images/2005/03/interview_nvidia_dev/twimtbp.jpg) apparire nella scermata introduttiva di un gioco?
Sai, dato che non si tende a fare pubblicità gratis, significa che NVidia ha pagato qualcosa.
Se in questi giochi le prestazioni con le schede NVidia sono enormemente migliori, è lecito pensare che ci sia sotto qualcosa.
Basta fare 2+2, non bisogna essere dei detective...

Aggiungiamo il fatto che Ati/AMD non sponsorizza praticamente nessun gioco.
Cosa dovrebbero pensare gli utenti??

forse sarebbe ora che anche ATI spendesse due soldi per l'implementazione delle sue sk video come fa nvidia al posto di piangere perchè il concorrente sprona le ditte ad usare i suosi sistemi..

forza ati sveglia.. sembri rimasta alla mia vecchia atimach32 con un supporto assistenza penoso..

Assolutamente no!
Da consumatore, preferisco che le aziende investano in tecnologia e sviluppo, piuttosto che in marketing e finte ottimizzazioni!

Ma che diavolo!
Se anche AMD si mettesse a pagare le SH, finirebbe che dovrei prendermi due sistemi, uno per i giochi sponsorizzati da NVidia, e un altro per quelli sponsorizzati AMD! :mad:

Le lotte scorrette porterebbero ad un rallentamento nello sviluppo dei videogiochi, e dell' HW, a causa degli investimenti maggiori nel marketing.

Io vieterei le sponsorizzazioni da marchi produttori di HW, perchè devo essere libero di scegliere il prodotto e il marchio che mi pare, e devo essere in grado di sfruttare tutte le tecnologie del software, senza limitazioni dovute al marchio.

PhisiX non avrà mai successo, perchè se è di proprietà NVidia, AMD non lo utilizzerà mai, e i giochi non potranno mai utilizzarlo per influenzare la giocabilità.
Guardate i games che lo utilizzano usciti fino ad ora, attivandolo, si limitano ad offrire qualche effetto grafico in più, senza però stravolgere la giocabilità.
E siamo fermi alla fisica di 4 anni fa...
Bisogna utilizzare un motore opensource, o uno di un marchio esterno alle case produttrici di HW.

Lo stesso vale per il 3D, finchè rimarra una tecnologia proprietaria NVidia, non avrà diffusione e non ci sarà sviluppo e di conseguenza un abbassamento dei prezzi.
Molto meglio la soluzion di AMD, 3D opensource, e chi lo vuole utilizzare può farlo.
Oltre ad essere una soluzione più furba, la trovo anche più corretta, poichè se volesse utilizzarlo NVidia, potrebbe e di conseguenza si vedrebbe chi è in grado di gestirlo meglio.

Sempre i soliti. Sempre a dire Nvidia ladrona. Io direi piuttosto che i prodotti Nvidia sono decisamente migliori rispetto ad Ati. E che chi se ne frega del calore e delle solite scemate tirate fuori. Nvidia và, Ati no.

:mbe:
Io spero che vi paghino per dire ste cose...

La cosa davvero che dovrebbe saltare agli occhi di tutti è che le nuove Ati serie 6 non sono migliori della serie 5. Le Fermi sono migliori per i giochi che usano pesantemente le features di Dx11 (come han fatto notare altri utenti).
In più se si pensa che sia solo un bench, figuriamoci nel gioco vero e proprio quali saranno i risultati.

Forse dovresti cominciare a leggere le recensioni, anzichè limitarti a guardare le figure.

Fa ridere affermare che AMD non ha migliorato con la serie 6000.
Con lo stesso processo produttivo ha solamente migliorato le prestazioni del 25% a parità di shader rispetto alla serie 5000, diminuendo ulteriormente i consumi (che erano già ben più bassi delle concorrenti NVidia) e ottimizzando ulteriormente il tessellation core, che è il punto debole della serie 5000.
Insomma, ha migliorato un prodotto che era già ottimo.

NVidia invece cos' ha fatto?

Ah si, ha solo ritardato di 6 mesi il lancio di Fermi, che è stato castrato come SP visto che scaldava e consumava troppo, e poi si sono accorti che nemmeno in questo modo riuscivano a dissipare sufficientemente il calore, quindi hanno riprogettato in tempo record i dissipatori, ritardando ancora un po' la commercializzazione.

Allora, vediamo... NVIDIA sta impastata con Ubisoft (quindi i vari Assassin's Creed che è diventata trilogia, Batman, e ora ci esce anche il capitolo nuovo, HAWX 1 e 2...), poi sta impastata con 2K Games (Mafia 2), poi Epic Games (Unreal Engine 1 e 2, cioè la base del 80% dei FPS), ora si scopre pure Crytek (Crysis è oramai trilogia acclamata e vanto del mondo PC), ma sai che ti dico?
E un VALORE AGGIUNTO... e pure DI BRUTTO! Altro che antitrust.
NVIDIA si fa il culo con i sviluppatori e so che se mi compro uno di quei giochi mi andrà da Dio, con presumibilmente zero problemi e tutte le feature attivate.
Che ATI muova il culo e faccia lo stesso, poi se ne riparla di quale scheda è migliore... Alla mia età ho capito che i 2 o 3 fps di differenza non contano niente, conta tutto il resto che c'è intorno. Del modo in cui lo fa, con mazzette, con pezzi di codici, con bagascie, non mi frega, l'importante è che poi del risultato ne goda pure io. E mi pare il risultato ci sia eccome.

Quale sarebbe il valore aggiunto?

A me risulta che tutti i possessori di serie HD5000 si siano goduti tutti i giochi da te elencati, avendo alle volte anche prestazioni migliori (vedi benchmark)...

l' unica nota negativa per AMD è che i giochi che utilizzano PhisiX hanno qualche effettino in più, come Mafia II, ma avendo una VGA NVidia, ti assicuro che la fisica del gioco è uguale con PhisiX disattivato, e attivandolo si aggiungono solo le schegge che rimangono per terra, anzichè sparire (e questa te la chiami innovazione??), a fronte di un calo di frame-rate notevole. Per il resto non cambia nulla, le cose si spaccano benissimo, i vestiti si muovono realisticamente, e le animazioni sono identiche.

Tralasciamo i casi veramente ridicoli, come Batman AA, in cui è stato dimostrato che il software riconosce le schede Ati e le impedisce di attivare l'AA.
Ma alcuni hanno modificato il codice, facendo riconoscere le schede Ati come NVidia, e hanno ottenuto prestazioni identiche sia come velocità (anzi, le 5800 andavano da dio) che come qualità d'immagine.
Questo dimostra che è puro e semplice gioco scorretto verso la concorrenza

innanzi tutto io aspetterei a dare giudizi assoluti.e cmq sia vi posto questo link magari può esserci utile...
http://www.overclock.net/9346179-post19.html


From what I've been reading on various forums, it seems there is a lot more to this 'tessellation' thing than I thought.

ATI uses 1 hardware tessellation unit. Nvidia uses 16 tessellation units that are emulated within the CUDA cores. Currently, ATI's tessellation is not aided by the Stream Processors, whereas Nvidia's SP's are what does it. This is one of the major reasons the tessellation performance difference in Unigine Heaven bench is so huge; NV's cores are constantly being used for emulating Tessellation, while ATI's are only partially used for everything else and only the 1 hardware tessellation unit is being used for tessellation. Once there are moving players/monsters and fighting going on and physics being processed, those shader cores need to process a lot more so there is less room for processing tessellation. This is why the performance gap is smaller in actual games.

Currently, ATI is working on changing this within the drivers so that the Stream Processors will aid the Tessellation Unit with processing tessellation. Supposedly this change will be released with the 10.5 drivers and will be the first large tessellation-based improvement.

They're also working to further improve tessellation by making the cache work better between the tessellation unit and the SP's, which is going to be in the 11.0 Catalyst drivers.

Also, it's likely they're increasing the amount of Hardware Tessellation units in the 5xxx refresh. Very likely even further improved in the 6xxx series.

At this point it's very hard to tell if Nvidia is only 'temporarily' better in tessellation, or if they'll hold on to this for a while. Based on the improvements ATI will be making, I'm not doubting at all that the difference in the near future between both will be much smaller than today, for tessellation performance.

Quote:
Originally Posted by NoahDiamond (Overclockers.net)
As for improving your scores, stick with 10.3a drivers. The CrossfireX profiles are larger and support more software, and the drivers handle 2D better. There are still problems with multiple monitors going to sleep. This can be resolved by installing the Catalyst 10.2 RC2 drivers, then upgrading to the Catalyst 10.3a drivers without doing an uninstall. This workaround works for now.

If you want to boost performance, focus on overclocking the core to boost the tessellation unit processing clocks. Right now, ATI are working on a way to expand tessellation onto the Stream Processors. When they complete that, nVidia is dead. If they get the SP units to work hand in hand as cache and pre/post processors for the tessellation units, then the tessellation performance will SKYROCKET! It technically could be called cheating, but if you want to get the most out of a benchmark with a dedicated tessellation processor, the only way to get more tessellation processor is to assist it. nVidia has no tessellation processor, as tessellation is emulated on the CUDA cores. When the new drivers are finished, likely to be released in the 10.5 beta catalyst drivers, things will change in the benchmark world.

Catalyst 11.0 is already in the works, but it is focusing on using the Stream Processors to aid in render on benchmarks and graphics systems, using the tessellation units as a math base cache systems and booster. When these are complete, the HD 5000 series will eat the GTX 480 as a midnight snack, and it will only be the first bite out of the proverbial cake.

ATI is re-working the driver models as we speak. In the end, ATI learned from how nVidia handled tessellation, and uses the multiple SIMD I/O system to destroy the graphics gap. Right now, we are using an older model from 9.1 catalyst where tessellation is only run on the tessellation units. The new model will be a complete re-working of the way the card is run.

The beauty of ATI's dedicated cores is the card can be software adapted to do so many things, and with the ECC and tessellation units in place, the sky is the limit.

P.S.: We found a way to run CUDA core on FireStream, aka the Stream Processors of the HD 5000 series. This does not mean ATI will license it, but hackers are bound to make custom drivers like they did years back that use OpenCL code to run CUDA on ATI 5000 series processors, namely Cypress and Evergreen. The future of ATI is upon us.
:read:

Molto interessante! ;)

Riassumendo brevemente per chi non mastica l'inglese, si dice che ATI ha scelto una soluzione completamente diversa da NVidia per l'utilizzo della Tessellation.
Ati/AMD ha un core dedicato a questa tecnologia, chiamato Tessellator, che si occupa di processare interamente tutto l'algoritmo, senza influenzare gli stream processor, lasciandoli quindi liberi di processare normalmente la scena 3d.

NVidia viceversa non ha un core dedicato, ma fa processare tutto ai Cuda core, tramite un' emulazione, che risulta al momento molto più efficiente.
Ovviamente più Cuda core dispone la scheda, migliori saranno le performance.
Questa soluzione però potrebbe risultare negativa nei giochi, poichè se i Cuda core sono già pesantemente utilizzati per renderizzare la scena, l'utilizzo della tessellation potrebbe risultare meno efficiente.

Nei commmenti però fanno notare che Ati/AMD ha capito che il tessellator non è abbastanza veloce rispetto alla concorrenza, e stanno lavorando per ottimizzare i driver, in modo che possano supportare la tessellation anche attraverso l'emulazione via stream processor.
Se riusciranno ad utilizzare il tessellator chip abbinato all' emulazione degli stream processor, AMD riuscirà ad annullare il gap e a surclassare pesantemente NVidia sul fronte tessellation.

Vedremo cosa accadrà :cool:

Quello che è programmato male è l'engine di tesselation delle Radeon dalla serie HD5000 alla più recente HD6000 in quanto è fisso ovvero quasi indipendente dalla potenza della scheda - nel benchmark la differenza da una all'altra è minima proprio per questo motivo, si arriva al punto per cui è la capacità in tesselation che frena i frame macinati dalla scheda.

NVIDIA utilizza un approccio più dinamico e potente utilizzando gli shader core, quindi più ce ne sono, maggiori le performance, e infatti si vede chiaramente dal grafico il distacco che ha la 480 rispetto le altre, e la stretta vicinanza delle due 460 (pur in linea di massima essendoci fra le due una maggior differenza).

Visto che il tesselator è la feature trainante delle DX11, più giochi DX11 escono, maggiore sarà il vantaggio della scelta Fermi, che di fatto è più lungimirante rispetto quella Radeon.

Il fix che AMD avrebbe voluto dare a Ubisoft era probabilmente semplicemente atto a ridurre l'influenza dell'engine di tesselation (es. non processando oggetti distanti o fuori visuale) in modo da mitigare quel problema hardware che ha con le proprie schede. Non essendoci riuscita agirà via driver con una ottimizzazione ad uopo (atta ovviamente ad ottenere le stesse cose), come si faceva all'epoca di 3DMark taroccando i driver.

Alt!

Leggi bene i link sopra, e capirai che se ci sarà mai un boost, sarà dovuto ad una ottimizzazione, e non a driver taroccati ;)

E poi se vogliamo dirla tutta, gli unici ad aver taroccato i driver fino ad ora, per fare più punti al 3D Mark, sono stati quelli di NVidia, per non far sfigurare la serie FX5800 :p

Ragazzi ormai tutti li conosciamo i trool , basta non risponderli fare finta che non esistono, io quando commento una news vengo spesso quotato e punzecchiato dai soliti......., evito propio di leggere i loro post , dicono sempre le stesse cose, su anandtech esistevano utenti simili sono stati epurati , forse succedera anche qui un giorno!...

La tasselation è una feature DX 11 che solo oggi sta iniziando ad intravedersi in qualche gioco , e dai bench che circolano le schede ATI/Nvidia si equivalgono non ci sono cali mostruosi come si vede nei bench specifici tipo questo!... ATI ha puntato su GPU/piccole parsimoniose e con prestazioni da paura se confontate alle GPU Nvidia che mediamente hanno un die grosso il doppio, magari avranno pensato che per un anno/anno e mezzo le schede andranno benone con i giochi, in futuro si vedrà.

Parliamoci chiaro oggi abbiamo delle ottime scelte x chi vuole acquistare una VGA, io a chi mi chiede cosa comprare senza spendere un rene consiglio o una GTX460 oppure la nuova 6850 entrambe ottime schede x giocare a 1680x1050, mentre x chi vuole spendere qualcosa in + , la scelta resta solo x le schede ATI , le GTX470/480 le sconsiglio a tutti, schede che scaldano da paura e che fanno aumentare la bolletta anche di 20€ ogni 2 mesi x chi gioca ogni giorno.

bYz!..

Hai perfettamente ragione ;)

Però non ce la faccio a star zitto quando si dicono cose non vere.

E' la cosa che mi da più fastidio della mentalità italiana, ed è quella che ci sta portando alla rovina, quindi nel mio piccolo faccio la mia parte ;)

Imho, il fatto che nel bench (o in un qualsiasi gioco) vi sia un grado esagerato di tassellazione non giustifica il fatto di dire che il tassellatore X e' troppo potente. Quindi se la soluzione Nvidia risulta migliore (ma bisogna avere piu' riscontri con piu' giochi reali) lode ad Nvidia. Non vedo comunque male un approccio ibrido con tassellatore dedicato, a patto di potenziarlo costantemente mano mano che escono nuove generazioni di schede: il tassellatore dedicato garantirebbe la soglia minima, probabilmente, ma tutto dipende dai bilanciamenti delle richieste dei giochi reali.

In ogni caso, visto che, a volte si parla di ottimizzazioni, mi chiedo dunque se la parte di codice che poi influira' per la tassellazione sia realmente "DX11 trasparente", nel senso che non esiste codice aggiuntivo dedicato che ottimizzi l'uso di una soluzione rispetto all'altra. Se il codice e' uno solo ed indipendente, lode al piu' veloce, altrimenti i sospetti di maneggi da parte di una o l'altra azienda sarebbero piu' che fondati.

Il fatto è che la soluzione di NVidia risulta essere la più furba, ma in questo caso Ubisoft ha esagerato, rifiutando le richieste di AMD e ottimizzando ridicolmente per l'architettura NVidia, che sta cercando di spacciare cose non vere, per cercare di rovinare le vendite delle ottime 6800, non si può far finta di niente.

Come è stato già detto, se AMD facesse la stessa cosa sfruttando una features della sua architettura (tipo il morphological antialiasing) con un benchmark fatto appositamente per lei, sono sicuro che i fanboy NVidia intaserebbero i forum di insulti.
AMD/Ati però queste cose non le ha mai fatte.

Che se nVidia in alcuni bench (vedi HAWX2) va meglio ha uscito mazzette, se ATI in alcuni bench (vedi 3Dmark) va meglio ha uscito mazzette, se nVidia con un suo team ottimizza un antialiasing su un motore che nativamente non lo usa e dice "questo lavoro l'ho fatto io e decido io dove farlo girare" (vedi Batman ark..) ha uscito delle mazzette..

Una cosa è certa, per far funzionare bene il mercato delle schede video non basta produrle con buone specifiche e buttarle fuori, bisogna anche seguire i produttori di videogame ed aggiornare nel minor tempo possibile i drive altrimenti poi non lamentiamoci dicendo "quell'AA ci spetta di diritto" quando per tutta la durata della progettazione del gioco te ne sei disinteressato.
Non è questione di mazzette, è questione di creare un buon ecosistema in grado di seguire i produttori per far si che l'utilizzatore finale ottenga il meglio possibile.

Ti ha già risposto più che degnamente psychok9

Io aggiungo che se un' azienda avesse un buon prodotto, non si dovrebbe preoccupare ne della concorrenza, ne di pagare SH per ottimizzazioni strane, ne investire tanto nel marketing.

Se un prodotto è migliore della concorrenza, gli utenti lo comprano.

Così è stato per la serie 5000, che ha praticamente dominato il mercato rispetto alla serie GTX400, nonostante la politica poco corretta di NVidia.

Io ti chiedo:
Secondo te, se NVidia non avesse continuato a pagare i vari giochi, se non avesse continuato a pubblicizzare fino alla nausea PhisiX, se non si fosse costruita l' immagine da leader che si è vista fino ad oggi, avrebbe venduto qulache GTX470 e 480?

Io dico di no.

Ati, essendo un azienda molto più piccola, ha rischiato il fallimento a causa delle sfortunate serie HD1000 - HD2000 e HD 3000, che erano delle buone schede, che andavano praticamente come la concorrenza NVidia, ma quest' ultima, essendo molto più famosa, più presente nei negozi, e più propensa al marketing (non parliamo delle vicende che son saltate fuori dopo...), ha venduto molto di più.
Da quando Ati è stata acquistata da AMD, è pian piano riemersa, facendo una serie HD4000 che andava esattamente come la concorrenza (esclusa top di gamma), costando un po' di meno, e tornando alla ribalta con la perfetta serie HD5000, che ha sbaragliato la concorrenza.

Se tieni conto che Ati è dovuta riemergere dal nulla, e che la maggior parte della gente conosce solo NVidia e la preferisce a priori, quello che ha fatto ATI, è un puro miracolo, dovuto al fatto di aver sfornato dei prodotti validi, completi, performanti e con il miglior rapporto qualità prezzo.

NVidia è ancora potenzialmente valida solo grazie a quello che è riuscita a creare in passato, e che la mantiene sempre in vita.

Si potrebbe dire che NVidia è come la Ferrari o la Ducati, non bastano un paio di flop per far crollare il mito.
Ati/AMD invece è come la Pagani o la MV Agusta, sono relativamente piccoli e sconosciuti dai meno esperti, e se non facessero dei prodotti favolosi, rischierebbero da un giorno all' altro il fallimento.

IlGranTrebeobia
26-10-2010, 10:09
http://img823.imageshack.us/img823/6425/benchhawktessel.th.jpg (http://img823.imageshack.us/i/benchhawktessel.jpg/)

In linea con il grafico postato nel thread, io faccio 68 loro 66 con le stesse impostazioni. :O

Revelator
26-10-2010, 10:19
http://img823.imageshack.us/img823/6425/benchhawktessel.th.jpg (http://img823.imageshack.us/i/benchhawktessel.jpg/)

In linea con il grafico postato nel thread, io faccio 68 loro 66 con le stesse impostazioni. :O

sei coi 10.10?

blackshard
26-10-2010, 10:25
Come dice qualcuno,

[...cuttone...]

rischierebbero da un giorno all' altro il fallimento.

Mado' che post chilometrico! :D
Comunque io editerei perchè hai risposto ad un utente sospeso (e non è carino parlare con chi non può rispondere...) e un utente bannato :asd:

IlGranTrebeobia
26-10-2010, 10:27
sei coi 10.10?

si

Balthasar85
26-10-2010, 11:27
[..]
Non è una giustificazione di nulla, è un dato di fatto... nVidia purtroppo, anziché investire soltanto in R&D e nel classico marketing, investe anche in modi anti-concorrenziali a danno di noi consumatori in primis. Di tutto il resto non mi frega nulla ;)
[..]
I videogame non si scrivono da soli, è giusto che ci sia una certa interazione tra i team che progettano questi ultimi e coloro che progettano l'hardware per far si che girino al meglio. Non dico che "loschi movimenti di denaro" per me vadano bene (tutti da verificare i mezzi ed i modi), dico che ATI dovrebbe metterci del suo per far si che ci sia un suo supporto durante la progettazione dei videogame prima che questi arrivino sugli scaffali. Dovetti aspettare più di 12 mesi prima di veder un bug video di Crysis venir risolto e certo la cosa non mi è piaciuta.


Ultima considerazione.
Giochi come Metro e Dirt2, checché ne si dica, utilizzano una tessellation molto blanda rispetto a quella vista in test come l'Unigine Heaven o Stone Giant (decisamente più spettacolari). Se aumentare quindi la tessellation è l'unico modo per migliorare visivamente questo effetto allora è giusto che si lavori anche in questo senso.. a maggior ragione se una architettura può agevolmente gestire questo carico aggiuntivo.


[..]
Ti ha già risposto più che degnamente psychok9
Io aggiungo che se un' azienda avesse un buon prodotto, non si dovrebbe preoccupare ne della concorrenza, ne di pagare SH per ottimizzazioni strane, ne investire tanto nel marketing.
Se un prodotto è migliore della concorrenza, gli utenti lo comprano.
[..]
Sfortunatamente le schede video attuali utilizzano, spesso e volentieri, architetture radicalmente diverse tra loro ed è necessario seguire anche i produttori di videogame per dar all'utente finale la miglior esperienza possibile per far si che la propria VGA dia il meglio.
Se una architettura va meglio (esempio) con una tassellation spinta è giusto che il produttore faccia si che questa peculiarità sia sfruttata, se una architettura va meglio con l'antialiasing a 64x è giusto che colui che ti mette a disposizione il prodotto si impegni a far si che quella peculiarità sia sfruttata. Alla fine l'utente finale potrà decidere se preferire quella che gira meglio con l'aa o con la tass (tanto per fare un esempio).

Inserir una VGA nel case e farla funzionare non è semplice come infilar una scarpa nel piede e camminare ed un lavoro di cooperazione tra team diversi di diversi settori non è cosa rara in un mercato, ovunque avviene, anche nel settore automobilistico per far si che i vari componenti inseriti in una automobile funzionino al meglio in cooperazione con gli altri.


CIAWA

))Lexandrus((
26-10-2010, 11:43
Mado' che post chilometrico! :D
Comunque io editerei perchè hai risposto ad un utente sospeso (e non è carino parlare con chi non può rispondere...) e un utente bannato :asd:

Eheh :D
E poi mi chiedo come faccio ed essere diventato dattilografo senza mai aver studiato XD

Ops, non avevo notato, grazie per la segnalazione!
Ma preferisco lasciare le risposte, dopotutto chiunque potrebbe fare le stesse domande ;)

Comunque ho trovato su un famosissimo negozio online che vende un po' di tutto, le 6850 con dissipatore migliorato della Sapphire a 154€, e le 6870 reference a 204€!! :eek:
Tutte disponibili e con prezzo normale (non si tratta di offerte temporanee)!

La battaglia sui prezzi sta cominciando!
Meglio per noi consumatori! ;)

))Lexandrus((
26-10-2010, 11:54
Sfortunatamente le schede video attuali utilizzano, spesso e volentieri, architetture radicalmente diverse tra loro ed è necessario seguire anche i produttori di videogame per dar all'utente finale la miglior esperienza possibile per far si che la propria VGA dia il meglio.
Se una architettura va meglio (esempio) con una tassellation spinta è giusto che il produttore faccia si che questa peculiarità sia sfruttata, se una architettura va meglio con l'antialiasing a 64x è giusto che colui che ti mette a disposizione il prodotto si impegni a far si che quella peculiarità sia sfruttata. Alla fine l'utente finale potrà decidere se preferire quella che gira meglio con l'aa o con la tass (tanto per fare un esempio).

Inserir una VGA nel case e farla funzionare non è semplice come infilar una scarpa nel piede e camminare ed un lavoro di cooperazione tra team diversi di diversi settori non è cosa rara in un mercato, ovunque avviene, anche nel settore automobilistico per far si che i vari componenti inseriti in una automobile funzionino al meglio in cooperazione con gli altri.


CIAWA

Si, hai ragione, le architetture sono diverse, ma bene o male funzionano nello stesso modo ;)
Stream Processor e Cuda core sono più o meno la stessa cosa vista in due modi diversi.
Inoltre le DirectX 10 e 11 sono molto più ottimizzate per far lavorare questo tipo di architettura, quindi le differenze in ambito pratico non sono poi enormi.

Se un marchio offre poi una tecnologia particolare, è giusto che la si utilizzi nei giochi, ma non che la si spacci come una rivoluzione nei benchmark, se in realtà non lo è.
Nel caso di Hawk2 hanno spiegato più volte che la tessellation è utilizzata in maniera a dir poco esagerata, al punto di non essere percepibile ad occhio.
Questa è una cosa che può accadere solo in un benchmark "taroccato", perchè in un videogioco, nessuno implementerebbe una cosa che rallenta senza creare miglioramenti tangibili.

Un esempio lampante di corretta implementazione delle tecnologie risale a tanti anni fa, in cui la Matrox G400 fu la prima a supportare il Bump Mapping, e da allora i giochi cominciarono a sfruttarlo.

Ubisoft non sta sfruttando una tecnologia utilizzabile in game, sta solo esagerando per far figurare meglio qualcuno.

))Lexandrus((
26-10-2010, 11:59
Un altro esempio può essere quello della serie GeForce 7800, che supportava per la prima volta il trasparent antialiasing, e Ati ci mise un po' ad arrivare agli stessi livelli qualitativi.

Se si analizzavano i giochi con Trasp.AA attivo, il vantaggio di NVida come qualità di immagine era notevole, e difatti la serie 7900, che migliorava in tutto la 7800, ha avuto un successo enorme.

LkMsWb
26-10-2010, 13:17
Sul benchmark in sé è stato detto di tutto, ed alla fine si evince che sì, le GTX 400 hanno vantaggi evidenti con livelli molto elevati di Tessellation, e questo è innegabile, d'altra parte è anche vero che nel benchmark specifico lo si utilizza a livelli puramente inutili (subpixel? Stiamo scherzando?), così da avere risultati che non rispecchiano l'andamento delle schede una volta utilizzate con prodotti "reali".

Si evince anche dalle dichiarazioni che Ubisoft avrebbe rifiutato un'offerta AMD circa l'ottimizzazione del codice, sottostando alle richieste nVidia (per la prima volta? Sembra di no... ma tant'è).

E si è detto che quello che fa nVidia (ovvero sponsorizzare i giochi) dovrebbe farlo anche AMD/ATI, dato che di giochi che all'inizio mostrano il logo TWIMTBP ce ne sono a bizzeffe.

Beh su quest'ultimo punto mi piacerebbe aggiungere che AMD/ATI effettivamente lo fa... solo che non fa mettere loghi all'avvio del gioco. Alcuni esempi? Solo nell'ultimo anno Dragon Age: Origins, DiRT 2, Divinity 2, Mass Effect 2, Command & Conquer 4, STALKER Call of Pripryat, Bad Company 2, Medal of Honor... ma sicuramente ne ho saltati svariati. Il punto è che, credo (non ho prove a sostegno), AMD faccia ottimizzazioni gratuite, cioé "paga" in hardware o aiuto per il codice, ma non in dollari, come invece dovrebbe fare nVidia (l'esempio è il prossimo Crysis 2).

Probabilmente ad Ubisoft non basta... benché il primo HAWX sponsorizzasse le DirectX 10.1, all'epoca esclusiva AMD/ATI.

bobby10
26-10-2010, 13:44
:) :) :) :) ;)

bello schifo di thread... scappo.
La cosa più interessante che ho notato è che le faccine che sorridono sono più abbronzate di quella che fa l'occhiolino.

Revelator
26-10-2010, 13:52
bello schifo di thread... scappo.
La cosa più interessante che ho notato è che le faccine che sorridono sono più abbronzate di quella che fa l'occhiolino.

quindi?:stordita:

giusemanuel
26-10-2010, 13:58
hai os/drivers/directx aggiornate?vorrai mica lanciarlo sulla 9600...

ho in rpestito una gtx470 e volevo provare....
cmq si ho tutto aggiornato. Quando faccio esegui benchmark mi appare una finestra con niente scritto,c'è solo scritto "esci dal gioco" in basso....
a voi quando fate esegui bench che cosa vi appare?

Sire_Angelus
26-10-2010, 14:48
Sul benchmark in sé è stato detto di tutto, ed alla fine si evince che sì, le GTX 400 hanno vantaggi evidenti con livelli molto elevati di Tessellation, e questo è innegabile, d'altra parte è anche vero che nel benchmark specifico lo si utilizza a livelli puramente inutili (subpixel? Stiamo scherzando?), così da avere risultati che non rispecchiano l'andamento delle schede una volta utilizzate con prodotti "reali".

Si evince anche dalle dichiarazioni che Ubisoft avrebbe rifiutato un'offerta AMD circa l'ottimizzazione del codice, sottostando alle richieste nVidia (per la prima volta? Sembra di no... ma tant'è).

E si è detto che quello che fa nVidia (ovvero sponsorizzare i giochi) dovrebbe farlo anche AMD/ATI, dato che di giochi che all'inizio mostrano il logo TWIMTBP ce ne sono a bizzeffe.

Beh su quest'ultimo punto mi piacerebbe aggiungere che AMD/ATI effettivamente lo fa... solo che non fa mettere loghi all'avvio del gioco. Alcuni esempi? Solo nell'ultimo anno Dragon Age: Origins, DiRT 2, Divinity 2, Mass Effect 2, Command & Conquer 4, STALKER Call of Pripryat, Bad Company 2, Medal of Honor... ma sicuramente ne ho saltati svariati. Il punto è che, credo (non ho prove a sostegno), AMD faccia ottimizzazioni gratuite, cioé "paga" in hardware o aiuto per il codice, ma non in dollari, come invece dovrebbe fare nVidia (l'esempio è il prossimo Crysis 2).

Probabilmente ad Ubisoft non basta... benché il primo HAWX sponsorizzasse le DirectX 10.1, all'epoca esclusiva AMD/ATI.

vorrei aggiungere una cosa: in questi giochi, (alien vs predator e bad company per prendere due esempi) amd non li ha sponsorizzati facendoli ottimizzare appositamente per le proprie schede, ma si é solo assicurata che venissero sviluppati seguendo RIGIDAMENTE le linee guida per directx, e sopratutto che i vari motori avessero un codepath 10.1/11 puro.. ovvero, che non fosse riconvertito dal codice dx9 ma scritto da 0, come sarà il frostbite engine 2.0. E infatti in tutti questi giochi vanno BENE con le ati, ma se le 4xx di base sono più veloci mostreranno tutti i loro muscoli e andranno con i relativi rapporti di forza.
Il concetto invece che bisogna capire é questo:

Se scrivete le stesse righe di codice in dx9, 10 e 10.1 notate come sono progressivamente più lente.. ma se invece scrivete lo stesso effetto usando le estensioni e il codice specifico si nota immediatamente un boost di performance. Il problema é che invece nella maggio parte degli engine si tende a usare codice dx9 e poi gli si "stratifica" sopra il codice dx10.1 e e 11... con perdite di performance relative.

Se già si tende a fare questo casino(e ricordiamo che le schede desktop nvidia hanno saltato completamente le 10.1, che se programmate native danno dei bei salti prestazionali... c'erano delle slide riguardo il codice del frostbite su come programmare correttamente con le 10.1), allora sì che ottimizzare il codice per una scheda video nvidia conta, eccome se conta!!

Vuol dire che, (probabilmente si useranno anche modelli con il dataflow dei vari chip)la scheda video si ritrova con i dati e le istruzionmigià disposti nel suo ordine e come dovrebbero essere ottimizzati, della dimensione corretta per stare nella cache e così' via; quindi si ritrova con meno o 0 lavoro da parte del driver per riottimizzare il codice, oltre al fatto che sicuramente(siamo nel campo delle speculazioni) ci saranno dei "breakpoint" nel codice del gioco fatti apposta per dare indicazioni utili allo sviluppo dei driver. Secondo me ati non fa altro che fare reverse engineering di questi "breakpoint" per ottimizzare a propria volta il driver e riconvertire E ricompilare per bene tutte le istruzioni, ma questo lavoro, se non fatto dall'inizio, purtroppo richiede tempo...

C'é da dire invece che il 5% a release promesso da ati si vede eccome(in tanto giochi anche se non menzionati dalle release note negli ultimi 2-3 rilasci ho notato incrementi anche di 10fps... comunque incrementi tali da permettermi di aumentare il dettaglio per esempio su star trek online) mentre in casa nvdia questo é sempre stato altalenante.

in ogni caso, ho sempre la sensazione che nvidia si comporti in modo scorretto nei confronti dei concorrenti, come il ragno che per soddisfare la propria immensa fame finì per mangare se stesso del silmarillion... se ati non é un santo, per lo meno si comporta sicuramente meglio, dando sempre spazio per tutti.. l'idea é: perché ci dobbiamo scannare se possiamo stare bene tutti?
E con la filosofia open di amd il discorso sembra proprio questo....

bobby10
26-10-2010, 14:50
quindi?:stordita:

interessante no?

Elrim
26-10-2010, 15:25
Se mi dai dei test in cui risulta che le Ati sono MOSTRUOSAMENTE inferiori ad AMD, si può fare un discorso sensato.
Altrimenti stai solo facendo DISINFORMAZIONE, flame, e trollaggio.

Questo è il test effettuato da HWupgrade (che vede il confronto con una GTX460 overclockata):
http://www.hwupgrade.it/articoli/skvideo/2584/unigine.png

Questi sono altri test fatti da un famoso sito estero:
http://tpucdn.com/reviews/HIS/Radeon_HD_6870/images/heaven_1680_1050.gif
http://tpucdn.com/reviews/HIS/Radeon_HD_6870/images/heaven_1920_1200.gif
http://tpucdn.com/reviews/HIS/Radeon_HD_6870/images/heaven_2560_1600.gif

Dove sarebbe il gap pesante da te affermato?

Io vedo che la nuova fascia media AMD (serie 6000), va come la vecchia fascia alta, quindi direi che ci si può solo aspettare un miglioramento dalla serie 6900, che uscirà tra meno di un mese.



Wow, ma un po' di contegno?
Repliche ad utenti bannati, accuse infondate, tono decisamente sopra il limite dell'accettabilità? Tutto ok? Mah

Dunque, io ci vedo gap compresi tra il 30 e il 50%, rispettivamente delle attuali teste di serie (5870-6870-480) e confrontando i risultati in extreme tessellation, il che è più che sufficiente per parlare di gap MOSTRUOSI. Gap accettabili sarebbero stati tra il 10 e il 20%, gap che invece spesso e volentieri ammontano al 40-50% sono enormi. E sopratutto mi pare assolutamente risibile lo sbandierato miglioramento della nuova serie ATI.
La 6900 migliorerà le cose? Ci mancherebbe, un po' come dovrebbe fare la 580 però.

Sperando che la prossima volta chiunque non porti in spalla la bandiera rossa non venga additato come "troll, flamer e disinformatore".

))Lexandrus((
26-10-2010, 16:07
Wow, ma un po' di contegno?
Repliche ad utenti bannati, accuse infondate, tono decisamente sopra il limite dell'accettabilità? Tutto ok? Mah

Dunque, io ci vedo gap compresi tra il 30 e il 50%, rispettivamente delle attuali teste di serie (5870-6870-480) e confrontando i risultati in extreme tessellation, il che è più che sufficiente per parlare di gap MOSTRUOSI. Gap accettabili sarebbero stati tra il 10 e il 20%, gap che invece spesso e volentieri ammontano al 40-50% sono enormi. E sopratutto mi pare assolutamente risibile lo sbandierato miglioramento della nuova serie ATI.
La 6900 migliorerà le cose? Ci mancherebbe, un po' come dovrebbe fare la 580 però.

Sperando che la prossima volta chiunque non porti in spalla la bandiera rossa non venga additato come "troll, flamer e disinformatore".

Non mi sembra di averti insultato, o di aver usato toni sgarbati, ma se può sembrar così, ti chiedo scusa ;)

Quello che volevo farti capire è che quello che dici non è corretto.

Tu stai facendo paragoni tra fasce diverse di mercato.

Se facciamo paragoni tra VGA della stessa fascia, si nota che il vantaggio di NVidia è praticamente inesistente, o molto contenuto.

Fermo restando che negli shop aggiornati (e non si parla di prezzi in offerta, ma di prezzi fissi e disponibilità immediata) le 6850 costano meno delle GTX460 1Gb non overclockate, se andiamo a fare un paragone tra GTX460 e 6850, sono simili, così come tra GTX 470 e 6970.
Considerato che le nuove 6800 sono la fascia media, e costano meno della rispettiva concorrenza, ci sta che vadano un po' di meno.

Se volessi le prestazioni pure mi comprerei una 5970, che anche nelle tessellation batterebbe la top di gamma NVidia.

Vorrei anche sottolineare che le AMD soffrono tanto con impostazioni di tessellation extreme per i motivi più volte indicati, mentre con la tessellation normal (lo scenario più propabile di utilizzo in game), le prestazioni sono praticamente allineate alla concorrenza.

psychok9
26-10-2010, 16:08
I videogame non si scrivono da soli, è giusto che ci sia una certa interazione tra i team che progettano questi ultimi e coloro che progettano l'hardware per far si che girino al meglio. Non dico che "loschi movimenti di denaro" per me vadano bene (tutti da verificare i mezzi ed i modi), dico che ATI dovrebbe metterci del suo per far si che ci sia un suo supporto durante la progettazione dei videogame prima che questi arrivino sugli scaffali. Dovetti aspettare più di 12 mesi prima di veder un bug video di Crysis venir risolto e certo la cosa non mi è piaciuta.

E' inutile che continui... Io ti vorrei con la situazione opposta e poi allora mi farei due risate. Il supporto di AMD c'è sempre stato, ad esempio, sono state postate in altri siti esteri pure molte email tra AMD e gli sviluppatori di Batman. C'era tutta la collaborazione di AMD ma ad un certo punto il discorso muore, per via della manovra scorretta di nVidia... C'è ben poco da discutere, a me queste cose fanno schifo, a prescindere di chi stiamo parlando.
Io ho avuto fino a pochi mesi fa un nVidia, ma non capisco come non si possa capire che i primi danneggiati da queste manovre siamo noi a prescindere.


Ultima considerazione.
Giochi come Metro e Dirt2, checché ne si dica, utilizzano una tessellation molto blanda rispetto a quella vista in test come l'Unigine Heaven o Stone Giant (decisamente più spettacolari).
La prossima volta che AMD pubblica un benchmark marketing ne parliamo. Ogni riferimento a Unigine e Stone Giant è voluto.

Se aumentare quindi la tessellation è l'unico modo per migliorare visivamente questo effetto allora è giusto che si lavori anche in questo senso.. a maggior ragione se una architettura può agevolmente gestire questo carico aggiuntivo.
Cerca tessellation adaptive e tessellation continuos in rete, yossarian ha fatto un analisi approfondita su appunti digitali.
Non dico altro... :rolleyes:

Sfortunatamente le schede video attuali utilizzano, spesso e volentieri, architetture radicalmente diverse tra loro ed è necessario seguire anche i produttori di videogame per dar all'utente finale la miglior esperienza possibile per far si che la propria VGA dia il meglio.
Se una architettura va meglio (esempio) con una tassellation spinta è giusto che il produttore faccia si che questa peculiarità sia sfruttata, se una architettura va meglio con l'antialiasing a 64x è giusto che colui che ti mette a disposizione il prodotto si impegni a far si che quella peculiarità sia sfruttata. Alla fine l'utente finale potrà decidere se preferire quella che gira meglio con l'aa o con la tass (tanto per fare un esempio).

Inserir una VGA nel case e farla funzionare non è semplice come infilar una scarpa nel piede e camminare ed un lavoro di cooperazione tra team diversi di diversi settori non è cosa rara in un mercato, ovunque avviene, anche nel settore automobilistico per far si che i vari componenti inseriti in una automobile funzionino al meglio in cooperazione con gli altri.
CIAWA

1) Se AMD si mette a pagare SH per penalizzare nVidia io mi inc... non so tu?
2) Un videogioco non deve fare solo tessellation... quindi che senso ha questa discussione? Tutto va' vista nell'ottica del risultato finale... A meno che a te serve un programma specifico che fa solo tessellation... :doh:

Alla fine di tutto vedremo se la soluzione AMD è abbastanza bilanciata, sicuramente verrà potenziata tramite driver e i risultati finali nei videogiochi di nostro interesse, e tutta questa discussione forse inutile sarà storia. Poi ognuno compri quello che vuole, e per i motivi più disparati... anche per una barretta per un solo tipo di calcolo... de gustibus...
Poi ricordiamoci che le gpu DX11 AMD sono arrivate 6 mesi prima.

))Lexandrus((
26-10-2010, 16:15
...C'è ben poco da discutere, a me queste cose fanno schifo, a prescindere di chi stiamo parlando.
Io ho avuto fino a pochi mesi fa un nVidia, ma non capisco come non si possa capire che i primi danneggiati da queste manovre siamo noi a prescindere.

Come non quotare! :mano:

Romain1985
26-10-2010, 16:20
scusatre raga,ho installato il bench ma m quando gaccio inizia bench mi appare una schermata con scritto in nero su sfondo giallo "esci dal gioco" o una cosa simile,che è?

stesso problemo pure a me rimane inchiodato su questa schermata e non succede niente
Ho una Ati 5770 Dx11
soluzioni al problema...???
grazie
ciao

Revelator
26-10-2010, 16:48
stesso problemo pure a me rimane inchiodato su questa schermata e non succede niente
Ho una Ati 5770 Dx11
soluzioni al problema...???
grazie
ciao

bo a me col notebook in sign funziona perfettamente...aggiornate l'aggiornabile e lanciate eseguibile giusto con tasto dx mouse...

Elrim
26-10-2010, 16:59
Non mi sembra di averti insultato, o di aver usato toni sgarbati, ma se può sembrar così, ti chiedo scusa ;)

Quello che volevo farti capire è che quello che dici non è corretto.

Tu stai facendo paragoni tra fasce diverse di mercato.

Se facciamo paragoni tra VGA della stessa fascia, si nota che il vantaggio di NVidia è praticamente inesistente, o molto contenuto



Non mi pare proprio, anzi chiunque può vederlo.

Ho paragonato le teste di serie, ho incluso la 6870 perché si sbandierava un miglioramento, cosa che vista la fascia avrebbe dovuto portare ad un avvicinamento notevole alle schede Nvidia di precedente generazione, cosa che non è.
Cmq vogliamo paragonare le teste di serie rispettive? 5870 vs 480? C'è un gap tra il 40 e il 50%, punto, chiunque può vederlo. Io non vado a vedere la differenza che c'è tra i tassellatori su schede di fascia medio-bassa, non m'interessa se una scheda fa 12 frames al secondo mentre l'altra ne fa addirittura 14, il tassellatore non è roba da fascia bassa e neanche da fascia media, è roba da fascia alta e altissima.



Se volessi le prestazioni pure mi comprerei una 5970, che anche nelle tessellation batterebbe la top di gamma NVidia.

Cioè, ti permetti di dire agli altri che fanno disinformazione ma poi confronti una dual gpu con una single gpu? Che siamo deficienti noi?


Vorrei anche sottolineare che le AMD soffrono tanto con impostazioni di tessellation extreme per i motivi più volte indicati, mentre con la tessellation normal (lo scenario più propabile di utilizzo in game), le prestazioni sono praticamente allineate alla concorrenza.

Cos' è una scusa? Stai dicendo che le ATI sono indietro perché con settaggi estremi non ce la fanno. Il perché è noto, solo che non è una scusa.
Posto che ancora si aspetta un gioco che faccia un ricco uso del tassellatore, e di certo AvP che lo usa solo occasionalmente non è un banco di prova significativo, per ora ci si deve accontentare dei benchmark.

E stiamo discutendo sul nulla dato che i risultati sono sotto gli occhi di tutti.

Scrivere che le prestazioni sono allineate, questa è vera disinformazione assolutamente irrispettosa dell'intelligenza altrui.

blackshard
26-10-2010, 18:39
Non mi pare proprio, anzi chiunque può vederlo.

Ho paragonato le teste di serie, ho incluso la 6870 perché si sbandierava un miglioramento, cosa che vista la fascia avrebbe dovuto portare ad un avvicinamento notevole alle schede Nvidia di precedente generazione, cosa che non è.
Cmq vogliamo paragonare le teste di serie rispettive? 5870 vs 480? C'è un gap tra il 40 e il 50%, punto, chiunque può vederlo. Io non vado a vedere la differenza che c'è tra i tassellatori su schede di fascia medio-bassa, non m'interessa se una scheda fa 12 frames al secondo mentre l'altra ne fa addirittura 14, il tassellatore non è roba da fascia bassa e neanche da fascia media, è roba da fascia alta e altissima.

Dove è questo gap? Parli del benchmark oggetto della notizia?

Che poi sto tassellatore è solo per fascia alta e altissima lo dici tu. A livello basso si ottengono dei miglioramente già notevoli e impostarlo a livelli elevati non comporta un aumento del dettaglio altrettanto netto. C'era un articolo su dinoxpc che parlava proprio di questo riguardo a stalker CoP, ma purtroppo non lo trovo.
Che il tassellatore sia "o tutto o niente" è solo una tua idea.

edit: e poi, francamente, basta co' ste ancore di salvataggio di nvidia che puntualmente si ripresentano. E prima era physx, e po' il 3D, e po' il tassellatore... insomma ogni volta c'è una cosa che nessuno usa che su nvidia va' meglio e dovrebbe costituire un motivo di acquisto assolutamente obbligatorio, quando magari le prestazioni reali (e i consumi) nei giochi poi sono quelle che sono.


Cioè, ti permetti di dire agli altri che fanno disinformazione ma poi confronti una dual gpu con una single gpu? Che siamo deficienti noi?

Cos' è una scusa? Stai dicendo che le ATI sono indietro perché con settaggi estremi non ce la fanno. Il perché è noto, solo che non è una scusa.
Posto che ancora si aspetta un gioco che faccia un ricco uso del tassellatore, e di certo AvP che lo usa solo occasionalmente non è un banco di prova significativo, per ora ci si deve accontentare dei benchmark.

E stiamo discutendo sul nulla dato che i risultati sono sotto gli occhi di tutti.

Scrivere che le prestazioni sono allineate, questa è vera disinformazione assolutamente irrispettosa dell'intelligenza altrui.

Beh dai test di computerbase la 6870 è l'11% più lenta della 470 a 1680x1050 fino ad un risicato 3,76% più lenta a 2560x1600. Considerato che il price tag è lo stesso, e considerato che è un benchmark del cavolo, non c'è bisogno di stracciarsi le vesti, invocare i fanbozzi bannati e strepitare per il nulla subìto.

))Lexandrus((
26-10-2010, 19:00
Non mi pare proprio, anzi chiunque può vederlo.

Ho paragonato le teste di serie, ho incluso la 6870 perché si sbandierava un miglioramento, cosa che vista la fascia avrebbe dovuto portare ad un avvicinamento notevole alle schede Nvidia di precedente generazione, cosa che non è.
Cmq vogliamo paragonare le teste di serie rispettive? 5870 vs 480? C'è un gap tra il 40 e il 50%, punto, chiunque può vederlo. Io non vado a vedere la differenza che c'è tra i tassellatori su schede di fascia medio-bassa, non m'interessa se una scheda fa 12 frames al secondo mentre l'altra ne fa addirittura 14, il tassellatore non è roba da fascia bassa e neanche da fascia media, è roba da fascia alta e altissima.


Cioè, ti permetti di dire agli altri che fanno disinformazione ma poi confronti una dual gpu con una single gpu? Che siamo deficienti noi?


Cos' è una scusa? Stai dicendo che le ATI sono indietro perché con settaggi estremi non ce la fanno. Il perché è noto, solo che non è una scusa.
Posto che ancora si aspetta un gioco che faccia un ricco uso del tassellatore, e di certo AvP che lo usa solo occasionalmente non è un banco di prova significativo, per ora ci si deve accontentare dei benchmark.

E stiamo discutendo sul nulla dato che i risultati sono sotto gli occhi di tutti.

Scrivere che le prestazioni sono allineate, questa è vera disinformazione assolutamente irrispettosa dell'intelligenza altrui.

Ok, allora forse non ci capiamo...

Fasce a confronto:
Medio alta : GTX460 -> HD 5850 (e aggiungiamoci la nuova fascia media 6850)
Alta: GTX 470 -> HD 5870 (e aggiungiamoci la nuova fascia medio-alta 6870)
Enthusiast: GTX 480 -> HF5970

Cos'è che non ti torna?? :mbe:

E ci credo che se tu paragoni la GTX 480 alle 5870 (generazione vecchia), o alle 6800 (generazione nuova ma di due fasce inferiore) le cose vanno a vantaggio di NVidia!!
Se mi prendo una Punto Abarth e spero di star dietro ad una Ferrari sto fresco!

Non capisco se salti parte dei discorsi fatti da altri o se lo fai apposta...

Che NVidia gestisca (al momento) in maniera migliore la tessellation, non lo nega nessuno, e i pro e i contro delle due diverse gestioni sono già stati analizzati.
Quello che non si può dire è che le schede di entrambe le fasce siano tanto diverse, perchè non lo sono.

Mi tiri in ballo la GTX 480, dimenticandoti che costa almeno 380€ (e solo da adesso con gli ultimi sconti) e che consuma quanto un Crossfire di 6850, che però al momento si porta a casa con 310€ e che in prestazioni pure ammazza la GTX480 anche nelle tessellation (cerca i benchmark se non ci credi).
La 5870 non è mai stata la rivale della GTX480, anche perchè la prima costava al lancio 340€, mentre la seconda 500€.
La rivale della 5870 è sempre stata la GTX470 (che costava 370€), in tutte le recensioni.

Ati ha scelto dalla serie 3000 un' impostazione diversa da NVidia, ovvero preferire un' architettura semplice in modo da fare schede economiche ma performanti, e allo stesso tempo riuscire a rivaleggiare anche nella fascia alta, utilizzando VGA con singolo PCB e doppia GPU.
NVidia d'altro canto ha preferito puntare al singolo core senza compromessi.
Ma molto probabilmente la GTX580 seguirà la filosofia Ati, utilizzando una GPU derivata dall'unione di due GF104.

Comunque se sei ancora convinto che le differenze nelle tessellation siano così elevate, aspetta ancora una ventina di giorni, e quando effettivamente usciranno le nuove 6900, che potranno essere paragonate alla GTX480, ne riparleremo ;)

longhorn7680
26-10-2010, 19:07
Ok, allora forse non ci capiamo...

Fasce a confronto:
Medio alta : GTX460 -> HD 5850 (e aggiungiamoci la nuova fascia media 6850)
Alta: GTX 470 -> HD 5870 (e aggiungiamoci la nuova fascia medio-alta 6870)
Enthusiast: GTX 480 -> HF5970

Cos'è che non ti torna?? :mbe:

E ci credo che se tu paragoni la GTX 480 alle 5870 (generazione vecchia), o alle 6800 (generazione nuova ma di due fasce inferiore) le cose vanno a vantaggio di NVidia!!
Se mi prendo una Punto Abarth e spero di star dietro ad una Ferrari sto fresco!

Non capisco se salti parte dei discorsi fatti da altri o se lo fai apposta...

Che NVidia gestisca (al momento) in maniera migliore la tessellation, non lo nega nessuno, e i pro e i contro delle due diverse gestioni sono già stati analizzati.
Quello che non si può dire è che le schede di entrambe le fasce siano tanto diverse, perchè non lo sono.

Mi tiri in ballo la GTX 480, dimenticandoti che costa almeno 380€ (e solo da adesso con gli ultimi sconti) e che consuma quanto un Crossfire di 6850, che però al momento si porta a casa con 310€ e che in prestazioni pure ammazza la GTX480 anche nelle tessellation (cerca i benchmark se non ci credi).
La 5870 non è mai stata la rivale della GTX480, anche perchè la prima costava al lancio 340€, mentre la seconda 500€.
La rivale della 5870 è sempre stata la GTX470 (che costava 370€), in tutte le recensioni.

Ati ha scelto dalla serie 3000 un' impostazione diversa da NVidia, ovvero preferire un' architettura semplice in modo da fare schede economiche ma performanti, e allo stesso tempo riuscire a rivaleggiare anche nella fascia alta, utilizzando VGA con singolo PCB e doppia GPU.
NVidia d'altro canto ha preferito puntare al singolo core senza compromessi.
Ma molto probabilmente la GTX580 seguirà la filosofia Ati, utilizzando una GPU derivata dall'unione di due GF104.

Comunque se sei ancora convinto che le differenze nelle tessellation siano così elevate, aspetta ancora una ventina di giorni, e quando effettivamente usciranno le nuove 6900, che potranno essere paragonate alla GTX480, ne riparleremo ;)

Post praticamente perfetto e straquotone!!!!
Per la parte in grassetto, lo fa apposta e purtroppo il tuo sforzo per tentare di far capire certe cose e inutile, ma almeno chi e meno ferrato in materia avra un quadro molto piu chiaro della situazione perche certe sparate possono far venir dubbi infondati a chi e meno informato.

leoneazzurro
26-10-2010, 19:40
cut...

Rispondere ad utenti sospesi e/o bannati non é ammissibile. Considerati ammonito.

Per tutti: date un taglio ai soliti flame o poi son dolori...

giusemanuel
26-10-2010, 21:11
bo a me col notebook in sign funziona perfettamente...aggiornate l'aggiornabile e lanciate eseguibile giusto con tasto dx mouse...

non ho nulla da aggiornare....ho tutto aggiornato dx10 dx11 driver...
ke devo aggiornare?

Romain1985
26-10-2010, 21:16
non ho nulla da aggiornare....ho tutto aggiornato dx10 dx11 driver...
ke devo aggiornare?

Problema risolto
1- Disinstalla il programma Ubisoft Game Launcher
2- Disinstalla il benchmark Hawx 2
3- Installa il benchmark
4- Il benchmark funziona perfettamente :)

ciao

longhorn7680
26-10-2010, 21:17
non ho nulla da aggiornare....ho tutto aggiornato dx10 dx11 driver...
ke devo aggiornare?

A questo punto prima di formattare ti consiglierei di deinstallare i driver della VGA pulire il registro e reinstallarli.

Scrambler77
26-10-2010, 22:43
Secondo me vi state facendo una paranoia tremenda per un bench che evidenzia le qualità di una sola caratteristica di una sola delle due architetture in questione: il tessellatore di GF100.

Se il bench in questione mostra la superiorità di G100 con utilizzi estremi del tessellatore, addirittura impropri, significa solamente questo: GF100 ha un'architettura più indicata per quei bench che fanno uso intensivo del tessellatore. Stop. Lo scenario dei videogames è totalmente diverso. A parte i bench, non conosci titoli che ne facciano un uso così estremo.

E poi, secondo voi, davvero Ubisoft può permettersi di tagliarsi fuori dal mercato dei possessori AMD solo per un bench? Ma per piacere... Pure AMD: quante storie per una barretta colorata. Dopo tanti anni dovrebbe saperlo che l'utente sceglie in funzione di numerosissimi fattori e non solo perchè la 480gtx fa millemila punti alla preview di hawx...

giusemanuel
27-10-2010, 01:36
Problema risolto
1- Disinstalla il programma Ubisoft Game Launcher
2- Disinstalla il benchmark Hawx 2
3- Installa il benchmark
4- Il benchmark funziona perfettamente :)

ciao

Risolto anche io seguendo ciò che hai fatto tu...a quanto pare avevamo un problema con l' ubisoft game launcher...
Grazie

LewisX
29-10-2010, 16:05
a me funziona ma non mi fa inserire la funzionalità tessellation, mi compare ma non mi fa abilitare, coa devo fare ?
ho la 5870

Romain1985
29-10-2010, 16:21
a me funziona ma non mi fa inserire la funzionalità tessellation, mi compare ma non mi fa abilitare, coa devo fare ?
ho la 5870

Premi tasto destro sull'eseguibile e seleziona gioca dx 10 dx 11 e poi nelle opzioni del gioco attiva le opzioni dx 11 :)