HAWX 2: benchmark per GPU e tessellation

HAWX 2: benchmark per GPU e tessellation

Disponibile un benchmark basato sul gioco Tom Clancy's H.A.W.X. 2, compatibile con le API DirectX 11; l'implementazione della tessellation non è tuttavia senza ripercussioni polemiche

di pubblicata il , alle 15:57 nel canale Programmi
 
113 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
))Lexandrus((26 Ottobre 2010, 11:03 #81
Come dice qualcuno, ad alcuni non bisognerebbe neanche rispondere, perchè si alimentano flame e si da soddisfazione a chi trolleggia.

Io però ho sempre seguito il forum e i commenti per approfondire e informarmi maggiormente, e mi ha sempre dato fastidio chi afferma cose che di veritiero hanno poco o nulla, quindi non posso non commentare alcune sparate:


Originariamente inviato da: MiKeLezZ
"HAWK 2 è brutto e cattivo, non usatelo per i benchmark..."

Così dice ATI

Link ad immagine (click per visualizzarla)

Come mai? Chissà.


Non ti pare strano che solo in questo benchmark una HD 5870 vada molto meno di una GTX460 768mb??

Fino ad ora, tutti i benchmark senza sponsorizzazioni che utilizzano la tesselation, hanno rivelato prestazioni co distacchi nella norma, e hanno fatto capire che la tecnica che utilizza NVidia è un po' più performante di quella usata da ATi/AMD.
Ma non è possibile che ci sia una differenza così elevata tra schede di marchi diversi, a meno che non si utilizzino codici fatti apposta per avvantaggiare un certo tipo di soluzione hardware.

Originariamente inviato da: Elrim
dal momento che anche le nuove ATI vanno male col tessellation, non vedo cosa ci sia da stupirsi.
Ah ma siccome è un nuovo benchmark dev'esserci lo zampino di Nvidia, non può essere che le schede ATI siano mostruosamente inferiori come in tutti gli altri benchmark che supportano tessellation.


Se mi dai dei test in cui risulta che le Ati sono MOSTRUOSAMENTE inferiori ad AMD, si può fare un discorso sensato.
Altrimenti stai solo facendo DISINFORMAZIONE, flame, e trollaggio.

Questo è il test effettuato da HWupgrade (che vede il confronto con una GTX460 overclockata):
Link ad immagine (click per visualizzarla)

Questi sono altri test fatti da un famoso sito estero:
Link ad immagine (click per visualizzarla)
Link ad immagine (click per visualizzarla)
Link ad immagine (click per visualizzarla)

Dove sarebbe il gap pesante da te affermato?

Io vedo che la nuova fascia media AMD (serie 6000), va come la vecchia fascia alta, quindi direi che ci si può solo aspettare un miglioramento dalla serie 6900, che uscirà tra meno di un mese.

Originariamente inviato da: MiKeLezZ
Se il gioco va male con RADEON e va bene con GEFORCE, è perché lo sviluppatore è uno venduto a NVIDIA.
Se il gioco va bene con RADEON e va male con NVIDIA, è perché ATI è cazzuta a fare le schede.
Sono troppo forti gli utenti delle schede video.


Hai mai visto questo simbolo apparire nella scermata introduttiva di un gioco?
Sai, dato che non si tende a fare pubblicità gratis, significa che NVidia ha pagato qualcosa.
Se in questi giochi le prestazioni con le schede NVidia sono enormemente migliori, è lecito pensare che ci sia sotto qualcosa.
Basta fare 2+2, non bisogna essere dei detective...

Aggiungiamo il fatto che Ati/AMD non sponsorizza praticamente nessun gioco.
Cosa dovrebbero pensare gli utenti??

Originariamente inviato da: Notturnia
forse sarebbe ora che anche ATI spendesse due soldi per l'implementazione delle sue sk video come fa nvidia al posto di piangere perchè il concorrente sprona le ditte ad usare i suosi sistemi..

forza ati sveglia.. sembri rimasta alla mia vecchia atimach32 con un supporto assistenza penoso..


Assolutamente no!
Da consumatore, preferisco che le aziende investano in tecnologia e sviluppo, piuttosto che in marketing e finte ottimizzazioni!

Ma che diavolo!
Se anche AMD si mettesse a pagare le SH, finirebbe che dovrei prendermi due sistemi, uno per i giochi sponsorizzati da NVidia, e un altro per quelli sponsorizzati AMD!

Le lotte scorrette porterebbero ad un rallentamento nello sviluppo dei videogiochi, e dell' HW, a causa degli investimenti maggiori nel marketing.

Io vieterei le sponsorizzazioni da marchi produttori di HW, perchè devo essere libero di scegliere il prodotto e il marchio che mi pare, e devo essere in grado di sfruttare tutte le tecnologie del software, senza limitazioni dovute al marchio.

PhisiX non avrà mai successo, perchè se è di proprietà NVidia, AMD non lo utilizzerà mai, e i giochi non potranno mai utilizzarlo per influenzare la giocabilità.
Guardate i games che lo utilizzano usciti fino ad ora, attivandolo, si limitano ad offrire qualche effetto grafico in più, senza però stravolgere la giocabilità.
E siamo fermi alla fisica di 4 anni fa...
Bisogna utilizzare un motore opensource, o uno di un marchio esterno alle case produttrici di HW.

Lo stesso vale per il 3D, finchè rimarra una tecnologia proprietaria NVidia, non avrà diffusione e non ci sarà sviluppo e di conseguenza un abbassamento dei prezzi.
Molto meglio la soluzion di AMD, 3D opensource, e chi lo vuole utilizzare può farlo.
Oltre ad essere una soluzione più furba, la trovo anche più corretta, poichè se volesse utilizzarlo NVidia, potrebbe e di conseguenza si vedrebbe chi è in grado di gestirlo meglio.

Originariamente inviato da: Prometheus Unbound
Sempre i soliti. Sempre a dire Nvidia ladrona. Io direi piuttosto che i prodotti Nvidia sono decisamente migliori rispetto ad Ati. E che chi se ne frega del calore e delle solite scemate tirate fuori. Nvidia và, Ati no.



Io spero che vi paghino per dire ste cose...

Originariamente inviato da: Prometheus Unbound
La cosa davvero che dovrebbe saltare agli occhi di tutti è che le nuove Ati serie 6 non sono migliori della serie 5. Le Fermi sono migliori per i giochi che usano pesantemente le features di Dx11 (come han fatto notare altri utenti).
In più se si pensa che sia solo un bench, figuriamoci nel gioco vero e proprio quali saranno i risultati.


Forse dovresti cominciare a leggere le recensioni, anzichè limitarti a guardare le figure.

Fa ridere affermare che AMD non ha migliorato con la serie 6000.
Con lo stesso processo produttivo ha solamente migliorato le prestazioni del 25% a parità di shader rispetto alla serie 5000, diminuendo ulteriormente i consumi (che erano già ben più bassi delle concorrenti NVidia) e ottimizzando ulteriormente il tessellation core, che è il punto debole della serie 5000.
Insomma, ha migliorato un prodotto che era già ottimo.

NVidia invece cos' ha fatto?

Ah si, ha solo ritardato di 6 mesi il lancio di Fermi, che è stato castrato come SP visto che scaldava e consumava troppo, e poi si sono accorti che nemmeno in questo modo riuscivano a dissipare sufficientemente il calore, quindi hanno riprogettato in tempo record i dissipatori, ritardando ancora un po' la commercializzazione.

Originariamente inviato da: MiKeLezZ
Allora, vediamo... NVIDIA sta impastata con Ubisoft (quindi i vari Assassin's Creed che è diventata trilogia, Batman, e ora ci esce anche il capitolo nuovo, HAWX 1 e 2...), poi sta impastata con 2K Games (Mafia 2), poi Epic Games (Unreal Engine 1 e 2, cioè la base del 80% dei FPS), ora si scopre pure Crytek (Crysis è oramai trilogia acclamata e vanto del mondo PC), ma sai che ti dico?
E un VALORE AGGIUNTO... e pure DI BRUTTO! Altro che antitrust.
NVIDIA si fa il culo con i sviluppatori e so che se mi compro uno di quei giochi mi andrà da Dio, con presumibilmente zero problemi e tutte le feature attivate.
Che ATI muova il culo e faccia lo stesso, poi se ne riparla di quale scheda è migliore... Alla mia età ho capito che i 2 o 3 fps di differenza non contano niente, conta tutto il resto che c'è intorno. Del modo in cui lo fa, con mazzette, con pezzi di codici, con bagascie, non mi frega, l'importante è che poi del risultato ne goda pure io. E mi pare il risultato ci sia eccome.


Quale sarebbe il valore aggiunto?

A me risulta che tutti i possessori di serie HD5000 si siano goduti tutti i giochi da te elencati, avendo alle volte anche prestazioni migliori (vedi benchmark)...

l' unica nota negativa per AMD è che i giochi che utilizzano PhisiX hanno qualche effettino in più, come Mafia II, ma avendo una VGA NVidia, ti assicuro che la fisica del gioco è uguale con PhisiX disattivato, e attivandolo si aggiungono solo le schegge che rimangono per terra, anzichè sparire (e questa te la chiami innovazione??), a fronte di un calo di frame-rate notevole. Per il resto non cambia nulla, le cose si spaccano benissimo, i vestiti si muovono realisticamente, e le animazioni sono identiche.

Tralasciamo i casi veramente ridicoli, come Batman AA, in cui è stato dimostrato che il software riconosce le schede Ati e le impedisce di attivare l'AA.
Ma alcuni hanno modificato il codice, facendo riconoscere le schede Ati come NVidia, e hanno ottenuto prestazioni identiche sia come velocità (anzi, le 5800 andavano da dio) che come qualità d'immagine.
Questo dimostra che è puro e semplice gioco scorretto verso la concorrenza

Originariamente inviato da: Revelator
innanzi tutto io aspetterei a dare giudizi assoluti.e cmq sia vi posto questo link magari può esserci utile...
http://www.overclock.net/9346179-post19.html


From what I've been reading on various forums, it seems there is a lot more to this 'tessellation' thing than I thought.

ATI uses 1 hardware tessellation unit. Nvidia uses 16 tessellation units that are emulated within the CUDA cores. Currently, ATI's tessellation is not aided by the Stream Processors, whereas Nvidia's SP's are what does it. This is one of the major reasons the tessellation performance difference in Unigine Heaven bench is so huge; NV's cores are constantly being used for emulating Tessellation, while ATI's are only partially used for everything else and only the 1 hardware tessellation unit is being used for tessellation. Once there are moving players/monsters and fighting going on and physics being processed, those shader cores need to process a lot more so there is less room for processing tessellation. This is why the performance gap is smaller in actual games.

Currently, ATI is working on changing this within the drivers so that the Stream Processors will aid the Tessellation Unit with processing tessellation. Supposedly this change will be released with the 10.5 drivers and will be the first large tessellation-based improvement.

They're also working to further improve tessellation by making the cache work better between the tessellation unit and the SP's, which is going to be in the 11.0 Catalyst drivers.

Also, it's likely they're increasing the amount of Hardware Tessellation units in the 5xxx refresh. Very likely even further improved in the 6xxx series.

At this point it's very hard to tell if Nvidia is only 'temporarily' better in tessellation, or if they'll hold on to this for a while. Based on the improvements ATI will be making, I'm not doubting at all that the difference in the near future between both will be much smaller than today, for tessellation performance.

Quote:
Originally Posted by NoahDiamond (Overclockers.net)
As for improving your scores, stick with 10.3a drivers. The CrossfireX profiles are larger and support more software, and the drivers handle 2D better. There are still problems with multiple monitors going to sleep. This can be resolved by installing the Catalyst 10.2 RC2 drivers, then upgrading to the Catalyst 10.3a drivers without doing an uninstall. This workaround works for now.

If you want to boost performance, focus on overclocking the core to boost the tessellation unit processing clocks. Right now, ATI are working on a way to expand tessellation onto the Stream Processors. When they complete that, nVidia is dead. If they get the SP units to work hand in hand as cache and pre/post processors for the tessellation units, then the tessellation performance will SKYROCKET! It technically could be called cheating, but if you want to get the most out of a benchmark with a dedicated tessellation processor, the only way to get more tessellation processor is to assist it. nVidia has no tessellation processor, as tessellation is emulated on the CUDA cores. When the new drivers are finished, likely to be released in the 10.5 beta catalyst drivers, things will change in the benchmark world.

Catalyst 11.0 is already in the works, but it is focusing on using the Stream Processors to aid in render on benchmarks and graphics systems, using the tessellation units as a math base cache systems and booster. When these are complete, the HD 5000 series will eat the GTX 480 as a midnight snack, and it will only be the first bite out of the proverbial cake.

ATI is re-working the driver models as we speak. In the end, ATI learned from how nVidia handled tessellation, and uses the multiple SIMD I/O system to destroy the graphics gap. Right now, we are using an older model from 9.1 catalyst where tessellation is only run on the tessellation units. The new model will be a complete re-working of the way the card is run.

The beauty of ATI's dedicated cores is the card can be software adapted to do so many things, and with the ECC and tessellation units in place, the sky is the limit.

P.S.: We found a way to run CUDA core on FireStream, aka the Stream Processors of the HD 5000 series. This does not mean ATI will license it, but hackers are bound to make custom drivers like they did years back that use OpenCL code to run CUDA on ATI 5000 series processors, namely Cypress and Evergreen. The future of ATI is upon us.


Molto interessante!

Riassumendo brevemente per chi non mastica l'inglese, si dice che ATI ha scelto una soluzione completamente diversa da NVidia per l'utilizzo della Tessellation.
Ati/AMD ha un core dedicato a questa tecnologia, chiamato Tessellator, che si occupa di processare interamente tutto l'algoritmo, senza influenzare gli stream processor, lasciandoli quindi liberi di processare normalmente la scena 3d.

NVidia viceversa non ha un core dedicato, ma fa processare tutto ai Cuda core, tramite un' emulazione, che risulta al momento molto più efficiente.
Ovviamente più Cuda core dispone la scheda, migliori saranno le performance.
Questa soluzione però potrebbe risultare negativa nei giochi, poichè se i Cuda core sono già pesantemente utilizzati per renderizzare la scena, l'utilizzo della tessellation potrebbe risultare meno efficiente.

Nei commmenti però fanno notare che Ati/AMD ha capito che il tessellator non è abbastanza veloce rispetto alla concorrenza, e stanno lavorando per ottimizzare i driver, in modo che possano supportare la tessellation anche attraverso l'emulazione via stream processor.
Se riusciranno ad utilizzare il tessellator chip abbinato all' emulazione degli stream processor, AMD riuscirà ad annullare il gap e a surclassare pesantemente NVidia sul fronte tessellation.

Vedremo cosa accadrà

Originariamente inviato da: MiKeLezZ
Quello che è programmato male è l'engine di tesselation delle Radeon dalla serie HD5000 alla più recente HD6000 in quanto è fisso ovvero quasi indipendente dalla potenza della scheda - nel benchmark la differenza da una all'altra è minima proprio per questo motivo, si arriva al punto per cui è la capacità in tesselation che frena i frame macinati dalla scheda.

NVIDIA utilizza un approccio più dinamico e potente utilizzando gli shader core, quindi più ce ne sono, maggiori le performance, e infatti si vede chiaramente dal grafico il distacco che ha la 480 rispetto le altre, e la stretta vicinanza delle due 460 (pur in linea di massima essendoci fra le due una maggior differenza).

Visto che il tesselator è la feature trainante delle DX11, più giochi DX11 escono, maggiore sarà il vantaggio della scelta Fermi, che di fatto è più lungimirante rispetto quella Radeon.

Il fix che AMD avrebbe voluto dare a Ubisoft era probabilmente semplicemente atto a ridurre l'influenza dell'engine di tesselation (es. non processando oggetti distanti o fuori visuale) in modo da mitigare quel problema hardware che ha con le proprie schede. Non essendoci riuscita agirà via driver con una ottimizzazione ad uopo (atta ovviamente ad ottenere le stesse cose), come si faceva all'epoca di 3DMark taroccando i driver.


Alt!

Leggi bene i link sopra, e capirai che se ci sarà mai un boost, sarà dovuto ad una ottimizzazione, e non a driver taroccati

E poi se vogliamo dirla tutta, gli unici ad aver taroccato i driver fino ad ora, per fare più punti al 3D Mark, sono stati quelli di NVidia, per non far sfigurare la serie FX5800

Originariamente inviato da: killer978
Ragazzi ormai tutti li conosciamo i trool , basta non risponderli fare finta che non esistono, io quando commento una news vengo spesso quotato e punzecchiato dai soliti......., evito propio di leggere i loro post , dicono sempre le stesse cose, su anandtech esistevano utenti simili sono stati epurati , forse succedera anche qui un giorno!...

La tasselation è una feature DX 11 che solo oggi sta iniziando ad intravedersi in qualche gioco , e dai bench che circolano le schede ATI/Nvidia si equivalgono non ci sono cali mostruosi come si vede nei bench specifici tipo questo!... ATI ha puntato su GPU/piccole parsimoniose e con prestazioni da paura se confontate alle GPU Nvidia che mediamente hanno un die grosso il doppio, magari avranno pensato che per un anno/anno e mezzo le schede andranno benone con i giochi, in futuro si vedrà.

Parliamoci chiaro oggi abbiamo delle ottime scelte x chi vuole acquistare una VGA, io a chi mi chiede cosa comprare senza spendere un rene consiglio o una GTX460 oppure la nuova 6850 entrambe ottime schede x giocare a 1680x1050, mentre x chi vuole spendere qualcosa in + , la scelta resta solo x le schede ATI , le GTX470/480 le sconsiglio a tutti, schede che scaldano da paura e che fanno aumentare la bolletta anche di 20€ ogni 2 mesi x chi gioca ogni giorno.

bYz!..


Hai perfettamente ragione

Però non ce la faccio a star zitto quando si dicono cose non vere.

E' la cosa che mi da più fastidio della mentalità italiana, ed è quella che ci sta portando alla rovina, quindi nel mio piccolo faccio la mia parte

Originariamente inviato da: mirkonorroz
Imho, il fatto che nel bench (o in un qualsiasi gioco) vi sia un grado esagerato di tassellazione non giustifica il fatto di dire che il tassellatore X e' troppo potente. Quindi se la soluzione Nvidia risulta migliore (ma bisogna avere piu' riscontri con piu' giochi reali) lode ad Nvidia. Non vedo comunque male un approccio ibrido con tassellatore dedicato, a patto di potenziarlo costantemente mano mano che escono nuove generazioni di schede: il tassellatore dedicato garantirebbe la soglia minima, probabilmente, ma tutto dipende dai bilanciamenti delle richieste dei giochi reali.

In ogni caso, visto che, a volte si parla di ottimizzazioni, mi chiedo dunque se la parte di codice che poi influira' per la tassellazione sia realmente "DX11 trasparente", nel senso che non esiste codice aggiuntivo dedicato che ottimizzi l'uso di una soluzione rispetto all'altra. Se il codice e' uno solo ed indipendente, lode al piu' veloce, altrimenti i sospetti di maneggi da parte di una o l'altra azienda sarebbero piu' che fondati.


Il fatto è che la soluzione di NVidia risulta essere la più furba, ma in questo caso Ubisoft ha esagerato, rifiutando le richieste di AMD e ottimizzando ridicolmente per l'architettura NVidia, che sta cercando di spacciare cose non vere, per cercare di rovinare le vendite delle ottime 6800, non si può far finta di niente.

Come è stato già detto, se AMD facesse la stessa cosa sfruttando una features della sua architettura (tipo il morphological antialiasing) con un benchmark fatto appositamente per lei, sono sicuro che i fanboy NVidia intaserebbero i forum di insulti.
AMD/Ati però queste cose non le ha mai fatte.

Originariamente inviato da: Balthasar85
Che se nVidia in alcuni bench (vedi HAWX2) va meglio ha uscito mazzette, se ATI in alcuni bench (vedi 3Dmark) va meglio ha uscito mazzette, se nVidia con un suo team ottimizza un antialiasing su un motore che nativamente non lo usa e dice "questo lavoro l'ho fatto io e decido io dove farlo girare" (vedi Batman ark..) ha uscito delle mazzette..

Una cosa è certa, per far funzionare bene il mercato delle schede video non basta produrle con buone specifiche e buttarle fuori, bisogna anche seguire i produttori di videogame ed aggiornare nel minor tempo possibile i drive altrimenti poi non lamentiamoci dicendo "quell'AA ci spetta di diritto" quando per tutta la durata della progettazione del gioco te ne sei disinteressato.
Non è questione di mazzette, è questione di creare un buon ecosistema in grado di seguire i produttori per far si che l'utilizzatore finale ottenga il meglio possibile.


Ti ha già risposto più che degnamente psychok9

Io aggiungo che se un' azienda avesse un buon prodotto, non si dovrebbe preoccupare ne della concorrenza, ne di pagare SH per ottimizzazioni strane, ne investire tanto nel marketing.

Se un prodotto è migliore della concorrenza, gli utenti lo comprano.

Così è stato per la serie 5000, che ha praticamente dominato il mercato rispetto alla serie GTX400, nonostante la politica poco corretta di NVidia.

Io ti chiedo:
Secondo te, se NVidia non avesse continuato a pagare i vari giochi, se non avesse continuato a pubblicizzare fino alla nausea PhisiX, se non si fosse costruita l' immagine da leader che si è vista fino ad oggi, avrebbe venduto qulache GTX470 e 480?

Io dico di no.

Ati, essendo un azienda molto più piccola, ha rischiato il fallimento a causa delle sfortunate serie HD1000 - HD2000 e HD 3000, che erano delle buone schede, che andavano praticamente come la concorrenza NVidia, ma quest' ultima, essendo molto più famosa, più presente nei negozi, e più propensa al marketing (non parliamo delle vicende che son saltate fuori dopo...), ha venduto molto di più.
Da quando Ati è stata acquistata da AMD, è pian piano riemersa, facendo una serie HD4000 che andava esattamente come la concorrenza (esclusa top di gamma), costando un po' di meno, e tornando alla ribalta con la perfetta serie HD5000, che ha sbaragliato la concorrenza.

Se tieni conto che Ati è dovuta riemergere dal nulla, e che la maggior parte della gente conosce solo NVidia e la preferisce a priori, quello che ha fatto ATI, è un puro miracolo, dovuto al fatto di aver sfornato dei prodotti validi, completi, performanti e con il miglior rapporto qualità prezzo.

NVidia è ancora potenzialmente valida solo grazie a quello che è riuscita a creare in passato, e che la mantiene sempre in vita.

Si potrebbe dire che NVidia è come la Ferrari o la Ducati, non bastano un paio di flop per far crollare il mito.
Ati/AMD invece è come la Pagani o la MV Agusta, sono relativamente piccoli e sconosciuti dai meno esperti, e se non facessero dei prodotti favolosi, rischierebbero da un giorno all' altro il fallimento.
IlGranTrebeobia26 Ottobre 2010, 11:09 #82
Link ad immagine (click per visualizzarla)

In linea con il grafico postato nel thread, io faccio 68 loro 66 con le stesse impostazioni.
Revelator26 Ottobre 2010, 11:19 #83
Originariamente inviato da: IlGranTrebeobia
Link ad immagine (click per visualizzarla)

In linea con il grafico postato nel thread, io faccio 68 loro 66 con le stesse impostazioni.


sei coi 10.10?
blackshard26 Ottobre 2010, 11:25 #84
Originariamente inviato da: ))Lexandrus((
Come dice qualcuno,

[...cuttone...]

rischierebbero da un giorno all' altro il fallimento.


Mado' che post chilometrico!
Comunque io editerei perchè hai risposto ad un utente sospeso (e non è carino parlare con chi non può rispondere...) e un utente bannato
IlGranTrebeobia26 Ottobre 2010, 11:27 #85
Originariamente inviato da: Revelator
sei coi 10.10?


si
Balthasar8526 Ottobre 2010, 12:27 #86
Originariamente inviato da: psychok9
[..]
Non è una giustificazione di nulla, è un dato di fatto... nVidia purtroppo, anziché investire soltanto in R&D e nel classico marketing, investe anche in modi anti-concorrenziali a danno di noi consumatori in primis. Di tutto il resto non mi frega nulla
[..]

I videogame non si scrivono da soli, è giusto che ci sia una certa interazione tra i team che progettano questi ultimi e coloro che progettano l'hardware per far si che girino al meglio. Non dico che "loschi movimenti di denaro" per me vadano bene (tutti da verificare i mezzi ed i modi), dico che ATI dovrebbe metterci del suo per far si che ci sia un suo supporto durante la progettazione dei videogame prima che questi arrivino sugli scaffali. Dovetti aspettare più di 12 mesi prima di veder un bug video di Crysis venir risolto e certo la cosa non mi è piaciuta.


Ultima considerazione.
Giochi come Metro e Dirt2, checché ne si dica, utilizzano una tessellation molto blanda rispetto a quella vista in test come l'Unigine Heaven o Stone Giant (decisamente più spettacolari). Se aumentare quindi la tessellation è l'unico modo per migliorare visivamente questo effetto allora è giusto che si lavori anche in questo senso.. a maggior ragione se una architettura può agevolmente gestire questo carico aggiuntivo.


Originariamente inviato da: ))Lexandrus((
[..]
Ti ha già risposto più che degnamente psychok9
Io aggiungo che se un' azienda avesse un buon prodotto, non si dovrebbe preoccupare ne della concorrenza, ne di pagare SH per ottimizzazioni strane, ne investire tanto nel marketing.
Se un prodotto è migliore della concorrenza, gli utenti lo comprano.
[..]

Sfortunatamente le schede video attuali utilizzano, spesso e volentieri, architetture radicalmente diverse tra loro ed è necessario seguire anche i produttori di videogame per dar all'utente finale la miglior esperienza possibile per far si che la propria VGA dia il meglio.
Se una architettura va meglio (esempio) con una tassellation spinta è giusto che il produttore faccia si che questa peculiarità sia sfruttata, se una architettura va meglio con l'antialiasing a 64x è giusto che colui che ti mette a disposizione il prodotto si impegni a far si che quella peculiarità sia sfruttata. Alla fine l'utente finale potrà decidere se preferire quella che gira meglio con l'aa o con la tass (tanto per fare un esempio).

Inserir una VGA nel case e farla funzionare non è semplice come infilar una scarpa nel piede e camminare ed un lavoro di cooperazione tra team diversi di diversi settori non è cosa rara in un mercato, ovunque avviene, anche nel settore automobilistico per far si che i vari componenti inseriti in una automobile funzionino al meglio in cooperazione con gli altri.


CIAWA
))Lexandrus((26 Ottobre 2010, 12:43 #87
Originariamente inviato da: blackshard
Mado' che post chilometrico!
Comunque io editerei perchè hai risposto ad un utente sospeso (e non è carino parlare con chi non può rispondere...) e un utente bannato


Eheh
E poi mi chiedo come faccio ed essere diventato dattilografo senza mai aver studiato XD

Ops, non avevo notato, grazie per la segnalazione!
Ma preferisco lasciare le risposte, dopotutto chiunque potrebbe fare le stesse domande

Comunque ho trovato su un famosissimo negozio online che vende un po' di tutto, le 6850 con dissipatore migliorato della Sapphire a 154€, e le 6870 reference a 204€!!
Tutte disponibili e con prezzo normale (non si tratta di offerte temporanee)!

La battaglia sui prezzi sta cominciando!
Meglio per noi consumatori!
))Lexandrus((26 Ottobre 2010, 12:54 #88
Originariamente inviato da: Balthasar85
Sfortunatamente le schede video attuali utilizzano, spesso e volentieri, architetture radicalmente diverse tra loro ed è necessario seguire anche i produttori di videogame per dar all'utente finale la miglior esperienza possibile per far si che la propria VGA dia il meglio.
Se una architettura va meglio (esempio) con una tassellation spinta è giusto che il produttore faccia si che questa peculiarità sia sfruttata, se una architettura va meglio con l'antialiasing a 64x è giusto che colui che ti mette a disposizione il prodotto si impegni a far si che quella peculiarità sia sfruttata. Alla fine l'utente finale potrà decidere se preferire quella che gira meglio con l'aa o con la tass (tanto per fare un esempio).

Inserir una VGA nel case e farla funzionare non è semplice come infilar una scarpa nel piede e camminare ed un lavoro di cooperazione tra team diversi di diversi settori non è cosa rara in un mercato, ovunque avviene, anche nel settore automobilistico per far si che i vari componenti inseriti in una automobile funzionino al meglio in cooperazione con gli altri.


CIAWA


Si, hai ragione, le architetture sono diverse, ma bene o male funzionano nello stesso modo
Stream Processor e Cuda core sono più o meno la stessa cosa vista in due modi diversi.
Inoltre le DirectX 10 e 11 sono molto più ottimizzate per far lavorare questo tipo di architettura, quindi le differenze in ambito pratico non sono poi enormi.

Se un marchio offre poi una tecnologia particolare, è giusto che la si utilizzi nei giochi, ma non che la si spacci come una rivoluzione nei benchmark, se in realtà non lo è.
Nel caso di Hawk2 hanno spiegato più volte che la tessellation è utilizzata in maniera a dir poco esagerata, al punto di non essere percepibile ad occhio.
Questa è una cosa che può accadere solo in un benchmark "taroccato", perchè in un videogioco, nessuno implementerebbe una cosa che rallenta senza creare miglioramenti tangibili.

Un esempio lampante di corretta implementazione delle tecnologie risale a tanti anni fa, in cui la Matrox G400 fu la prima a supportare il Bump Mapping, e da allora i giochi cominciarono a sfruttarlo.

Ubisoft non sta sfruttando una tecnologia utilizzabile in game, sta solo esagerando per far figurare meglio qualcuno.
))Lexandrus((26 Ottobre 2010, 12:59 #89
Un altro esempio può essere quello della serie GeForce 7800, che supportava per la prima volta il trasparent antialiasing, e Ati ci mise un po' ad arrivare agli stessi livelli qualitativi.

Se si analizzavano i giochi con Trasp.AA attivo, il vantaggio di NVida come qualità di immagine era notevole, e difatti la serie 7900, che migliorava in tutto la 7800, ha avuto un successo enorme.
LkMsWb26 Ottobre 2010, 14:17 #90
Sul benchmark in sé è stato detto di tutto, ed alla fine si evince che sì, le GTX 400 hanno vantaggi evidenti con livelli molto elevati di Tessellation, e questo è innegabile, d'altra parte è anche vero che nel benchmark specifico lo si utilizza a livelli puramente inutili (subpixel? Stiamo scherzando?), così da avere risultati che non rispecchiano l'andamento delle schede una volta utilizzate con prodotti "reali".

Si evince anche dalle dichiarazioni che Ubisoft avrebbe rifiutato un'offerta AMD circa l'ottimizzazione del codice, sottostando alle richieste nVidia (per la prima volta? Sembra di no... ma tant'è.

E si è detto che quello che fa nVidia (ovvero sponsorizzare i giochi) dovrebbe farlo anche AMD/ATI, dato che di giochi che all'inizio mostrano il logo TWIMTBP ce ne sono a bizzeffe.

Beh su quest'ultimo punto mi piacerebbe aggiungere che AMD/ATI effettivamente lo fa... solo che non fa mettere loghi all'avvio del gioco. Alcuni esempi? Solo nell'ultimo anno Dragon Age: Origins, DiRT 2, Divinity 2, Mass Effect 2, Command & Conquer 4, STALKER Call of Pripryat, Bad Company 2, Medal of Honor... ma sicuramente ne ho saltati svariati. Il punto è che, credo (non ho prove a sostegno), AMD faccia ottimizzazioni gratuite, cioé "paga" in hardware o aiuto per il codice, ma non in dollari, come invece dovrebbe fare nVidia (l'esempio è il prossimo Crysis 2).

Probabilmente ad Ubisoft non basta... benché il primo HAWX sponsorizzasse le DirectX 10.1, all'epoca esclusiva AMD/ATI.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^