View Full Version : Un po' di codice DirectX 10.1 in Far Cry 2, per le GPU ATI
Redazione di Hardware Upg
23-10-2008, 11:17
Link alla notizia: http://www.hwupgrade.it/news/skvideo/un-po-di-codice-directx-101-in-far-cry-2-per-le-gpu-ati_26928.html
Far Cry implementa compatibilità con le API DirectX 10.1, ufficialmente supportate solo da GPU ATI, ma questo non rappresenta un limite per le architetture NVIDIA
Click sul link per visualizzare la notizia.
halduemilauno
23-10-2008, 11:21
Bene.
;)
Willy_Pinguino
23-10-2008, 11:28
come dire...
non ho l'acqua che bolle, ma se vieni a 2000 metri di altezza ti posso fare comunque la pasta...
solo a me pare che nvidia stia rimanendo un sacco indietro? magari a potenza bruta ha ancora dei vantaggi, ma come tecnologie sembra indietro, e non sembra sula strada del recupero...
ultimate_sayan
23-10-2008, 11:30
sequel di quel Far Cry che è stato negli scorsi anni un punto di riferimento quanto a potenzialità della grafica 3D oltre che banco di prova delle schede video top di gamma del tempo.
Condivido appieno questo frase... Far Cry è stato un punto di riferimento quanto a potenzialità, peccato che (IMHO) si siano dimenticati del fatto che doveva essere anche un gioco... personalmente l'ho trovato talmente noioso da abbandonarlo dopo un paio di livelli. Spero che questo seguito sia anche divertente oltre che bello.
MiKeLezZ
23-10-2008, 11:32
come dire...
non ho l'acqua che bolle, ma se vieni a 2000 metri di altezza ti posso fare comunque la pasta...
solo a me pare che nvidia stia rimanendo un sacco indietro? magari a potenza bruta ha ancora dei vantaggi, ma come tecnologie sembra indietro, e non sembra sula strada del recupero...Indietro? Ha abilitato nuove feature su di un hardware legacy
Cose fantascientifiche
Condivido appieno questo frase... Far Cry è stato un punto di riferimento quanto a potenzialità, peccato che (IMHO) si siano dimenticati del fatto che doveva essere anche un gioco... personalmente l'ho trovato talmente noioso da abbandonarlo dopo un paio di livelli. Spero che questo seguito sia anche divertente oltre che bello.Impossibile se l'hai giocato nel 2004, appena uscito
gianni1879
23-10-2008, 11:36
Condivido appieno questo frase... Far Cry è stato un punto di riferimento quanto a potenzialità, peccato che (IMHO) si siano dimenticati del fatto che doveva essere anche un gioco... personalmente l'ho trovato talmente noioso da abbandonarlo dopo un paio di livelli. Spero che questo seguito sia anche divertente oltre che bello.
oddio noiso non so tanto, io mi sono divertito parecchio all'epoca :D
Il sacro unto non si dimentica mai ;)
A me non sembra affatto indietro.
Solo il tempo dirà se ha fatto meglio Ati a supportare le Directx 10.1 e tralasciando Havok oppure Nvidia a saltarle puntando direttamente alle Directx11 e spingere da subito su Physics.
Semplicemente con questa generazione di schede, si è drasticamente ridotto il gap presente con R600 vs G80 e R670 vs G92.
E visto quanto si stanno scannando, auspico pure che RV870 e GT3xx, l'estate prossima, siano altrettanto vicini :-)
Condivido appieno questo frase... Far Cry è stato un punto di riferimento quanto a potenzialità, peccato che (IMHO) si siano dimenticati del fatto che doveva essere anche un gioco... personalmente l'ho trovato talmente noioso da abbandonarlo dopo un paio di livelli. Spero che questo seguito sia anche divertente oltre che bello.
Neanche io ne sono rimasto entusiasta, ma è una questione di gusti.
Più che altro fatico a capire il perché sia stato osannato tanto un prodotto che per la maggior parte degli utilizzatori di pc è si riduce a una sorta di slide-show di bellissime immagini che scorrono a velocità di 2 o 3 frames al secondo, a meno di rinunciare alle alte risoluzioni e ai filtri grafici (e quindi alla sua bellezza) o avere a disposizione diverse migliaia di euro per allestire una macchina sufficientemente potente da farlo girare fluido.
come dire...
non ho l'acqua che bolle, ma se vieni a 2000 metri di altezza ti posso fare comunque la pasta...
solo a me pare che nvidia stia rimanendo un sacco indietro? magari a potenza bruta ha ancora dei vantaggi, ma come tecnologie sembra indietro, e non sembra sula strada del recupero...
Ma direi proprio di no.. la battaglia tra nvidia e ati è sempre molto serrata!
Succede magari che nvidia vada a sviluppare di puù una determinata cosa piuttosto che un'altra e viceversa..
Esempio: se parliamo di CUDA nvidia è molto più avanti di ATI..
Perchè si deve vedere del male dove c'è del bene ? Solo faziosità ?
Le GPU Nvidia ufficialmente non supportano DX 10.1 ma tante altre tecnologie compresa la gestione della fisica.
Oggi "scopriamo" che Nvidia pur non potendosi fregiare del supporto DX 10.1 ha implementato in hardware funzioni simili, o almeno quelle funzioni che ha ritenuto maggiormente interessanti. Quindi, per il momento, il primo titolo importante che supporta le DX 10.1 si può giocare con la massima qualità anche con le GPU Nvidia.
Domani lo vado a comprare, tecnologia o meno. Me ne frega davvero poco. Mi interessano i 50km cubici da esplorare, in tutta sincerità
BTW su un normale e6600 e una 8800 gt 2gb e vista home premium x32 andava una bellezza a 1440x900. Non mi pare di aver giocato ad uno SlideShow, ieri.
ultimate_sayan
23-10-2008, 12:02
E' sicuramente una questione di gusti (come ho specificato nel mio commento). Purtroppo l'ho giocato dopo Half Life 2 e forse questo ha influenzato pesantemente il mio giudizio... ho riprovato a giocarci recentemente ma non è stato un bene, anzi...
Rimane comunque il fatto che un gioco, se è davvero divertente e innovativo, rimane tale anche dopo qualche anno. Per Far Cry questo non accade... e penso che il motivo stia proprio nel fatto che si sia pensato più a stupire dal punto di vista grafico che della giocabilità.
MuadDibb
23-10-2008, 12:03
Neanche io ne sono rimasto entusiasta, ma è una questione di gusti.
Più che altro fatico a capire il perché sia stato osannato tanto un prodotto che per la maggior parte degli utilizzatori di pc è si riduce a una sorta di slide-show di bellissime immagini che scorrono a velocità di 2 o 3 frames al secondo, a meno di rinunciare alle alte risoluzioni e ai filtri grafici (e quindi alla sua bellezza) o avere a disposizione diverse migliaia di euro per allestire una macchina sufficientemente potente da farlo girare fluido.
Ma si parla di Far Cry, mica di Crysis...
Crimson Skies
23-10-2008, 12:09
I nuovi drivers Nvidia permettono di giocare FC2 meglio che con Ati. Secondo me Nvidia ha fatto meglio a puntare sulle DX11 tanto a parte FC2 penso nessun altro gioco supporti le DX10.1
Al massimo molti giochi vanno con le DX10 quindi non ha alcun senso quello che ha fatto Ati.
A parte questo FC era bello solo me dava al cavolo la storia troppo fantascientifica. Il secondo mi piace di più perchè più realistico in questione di storia. E poi ci sono i compagni (Buddy) che ti danno una mano e altre features che il primo non aveva. Ubi sta facendo un gran bel lavoro con i propri giochi.
dtpancio
23-10-2008, 12:10
Come si fa a parlare di NVIDIA indietro rispetto a ATI se detiene ancora lo scettro di gpu singola più veloce sul mercato, supporto al gpgpu computing molto più avanzato di ATI, supporto alla fisica, ecc?
Ok, le GTX 260/280 non sono a 55nm, ma è stata una scelta dovuta al ritmo di produzione, che a 55nm non sarebbe stato sufficiente, e cmq a breve esce la revision proprio a 55nm. Consumano un po' di più delle ATI, ma anche qui si spera di colmare il gap coi 55nm. Non supportano le 10.1 ufficialmente ma di fatto ne supportano le funzioni più interessanti..ergo..
E cmq, è un gatto che si morde la coda, una volta è avanti una, la volta dopo l'altra, è normale così. L'unica che è rimasta veramente indietro è stata ATI fino all'anno scorso. Ma ora ha pienamente recuperato, e ne abbiamo guadagnato tutti..
A me sinceramente da fastidio una cosa..il fatto di the way it's meant to be played...ma che vuol dire, ora per esempio le ati sono tecnologicamente più avanzate supportanto le 10.1 e inizialmente far cry 2 si pensava fosse basato su 10.1 e non semplicemente solo per qualche implementazione...comunque il fatto è che mi da davvero fastidio che ultimamente se vado a vedere sul retro di un gioco vedo sempre quella scritta e non perchè davvero magari è ottimizzato per le geforce... scusate un po lo sfogo :)
parlo da possessore di ati e nvidia...
Kharonte85
23-10-2008, 12:14
Perchè si deve vedere del male dove c'è del bene ? Solo faziosità ?
Le GPU Nvidia ufficialmente non supportano DX 10.1 ma tante altre tecnologie compresa la gestione della fisica.
Oggi "scopriamo" che Nvidia pur non potendosi fregiare del supporto DX 10.1 ha implementato in hardware funzioni simili, o almeno quelle funzioni che ha ritenuto maggiormente interessanti. Quindi, per il momento, il primo titolo importante che supporta le DX 10.1 si può giocare con la massima qualità anche con le GPU Nvidia.
le cose stanno così.
Solo che sono cose che si sapevano gia'...:D
nell'eterna disputa a detta di chi le sosteneva, le dx10.1 dovevano rappresentare CHIARAMENTE un vantaggio delle schede AMD/ATI...cosa che col passare dei mesi e con l'uscita dei nuovi giochi, nei fatti, NON si sta verificando.
ekerazha
23-10-2008, 12:15
Esempio: se parliamo di CUDA nvidia è molto più avanti di ATI..
ATI ha Stream SDK che non è comunque da buttare...
Mercuri0
23-10-2008, 12:17
Indietro? Ha abilitato nuove feature su di un hardware legacy
Cose fantascientifiche
Macché l'hardware c'era già. Le nVidia hanno un supporto solo parziale alle DX10.1, il che rende impossibile avere il bollo sulle sue schede.
Ma se nVidia paga e i programmatori sgobbano, qualcuna di quelle funzioni può essere usata ;)
Qualche malpensante potrebbe dire che le nvidia hanno un supporto parziale alle "DX10" in sè, ma che questa volta, a differenza dei tempi della serie FX, MS è stata buona e ha chiamato le "vere DX10" DX10.1, facendo uscire col bollo DX10 la versione azzoppata.
Vabbé, pace, abbiamo avuto qualche hanno di stagnazione per mancanza di concorrenza. Per fortuna recentemente la concorrenza è tornata... e gli effetti si vedono :D Oltre a i prezzi massacrati, magicamente compaiono effetti DX10.1 anche sulle schede DX10 :asd:
Kharonte85
23-10-2008, 12:19
Consumano un po' di più delle ATI
non è esatto perchè in idle le nuove gtx consumano meno della concorrenza.
Al momento non vedo nessuno chiaramente davanti all'altro...entrambe hanno feautures interessanti anche se diverse...per vedere chi ha intrapreso la strada giusta tocchera' aspettare le dx11
costa@73
23-10-2008, 12:20
Marketing + mazzette per ottimizzazioni fanno spuntare magicamente le 10.1.
Mercuri0
23-10-2008, 12:23
A me sinceramente da fastidio una cosa..il fatto di the way it's meant to be played...ma che vuol dire, ora per esempio le ati sono tecnologicamente più avanzate supportanto le 10.1 e inizialmente far cry 2 si pensava fosse basato su 10.1 e non semplicemente solo per qualche implementazione...comunque il fatto è che mi da davvero fastidio che ultimamente se vado a vedere sul retro di un gioco vedo sempre quella scritta e non perchè davvero magari è ottimizzato per le geforce... scusate un po lo sfogo :)
parlo da possessore di ati e nvidia...
nVldia dice che il marchio twimtbp è sostanzialmente una operazione di co-marketing: la casa che distribuisce il gioco fa pubblicità ad nVldia, e nVldia paga e fa pubblicità al gioco.
La pubblicità fa parte del mercato, anche se per lo più serve ad :ciapet: i consumatori...
Se cominciassero davvero a fare giochi per questo o quello hard-ware, sarebbe davvero il momento di passare definitivamente alle console per giocare. :D
edit: storpiati i nomi per rimuovere i link pubblicitari... deh, due in un sol post da 3 righe sono veramente troppi. Cacchio ma non potrei avere una particina ina ina dei soldi che vengono fuori dai post che scrivo ^^''?
Kharonte85
23-10-2008, 12:27
A me sinceramente da fastidio una cosa..il fatto di the way it's meant to be played...ma che vuol dire, ora per esempio le ati sono tecnologicamente più avanzate supportanto le 10.1 e inizialmente far cry 2 si pensava fosse basato su 10.1 e non semplicemente solo per qualche implementazione...comunque il fatto è che mi da davvero fastidio che ultimamente se vado a vedere sul retro di un gioco vedo sempre quella scritta e non perchè davvero magari è ottimizzato per le geforce... scusate un po lo sfogo :)
parlo da possessore di ati e nvidia...
Faccio notare, per l'ennesima volta, che il fatto che nvidia abbia una partnership molto forte è innanzitutto un suo merito e se vogliamo un demerito di ATI (a meggior ragione se come dici tu sono "piu' avanzate").
C'e' un errore nell'articolo: "estensioni alle API DirectX 10" non esistono.
FC2 al massimo sfrutta delle funzionalita' della scheda video tramite l'accesso diretto al driver, ma non usa nessuna estensione delle DX, visto che dalle DX10 in poi' e' stato rimosso da Microsoft il concetto di CAPS e funzioni proprietarie.
ekerazha
23-10-2008, 12:30
non è esatto perchè in idle le nuove gtx consumano meno della concorrenza.
In idle... e sotto carico? :D
Dalla più "esosa"
GTX 280 (consuma un casino sotto carico) - Hd 4870 - GTX 260 - Hd 4850
Mercuri0
23-10-2008, 12:31
Faccio notare, per l'ennesima volta, che il fatto che nvidia abbia una partnership molto forte è innanzitutto un suo merito e se vogliamo un demerito di ATI (a meggior ragione se come dici tu sono "piu' avanzate").
Ci sarebbe anche da far notare che i costi per la patnership alla fine nVldia li fa pagare a chi compra le schede: ebbene si, si paga la presenza del logo verde anche per i giochi che non si comprano!
Sicuramente dal punto di vista commerciale nVidia fa strabene, ma dal punto di vista del nostro portafoglio queste cose sono una inculata
(come ho avuto modo di dire anche nel caso della patnership tra AMD e Blizzard)
Kharonte85
23-10-2008, 12:38
In idle... e sotto carico? :D
Dalla più "esosa"
GTX 280 (consuma un casino sotto carico) - Hd 4870 - GTX 260 - Hd 4850
solitamente si ritiene piu' importante il consumo in idle poiche' per la maggior parte del tempo è cosi' che rimane il sistema (durante navigazione, download) ecc...
Ci sarebbe anche da far notare che i costi per la patnership alla fine nVldia li fa pagare a chi compra le schede.
Sicuramente dal punto di vista commerciale nVidia fa strabene, ma dal punto di vista del nostro portafoglio queste cose sono una inculata
(come ho avuto modo di dire anche nel caso della patnership tra AMD e Blizzard)
Mi pare economia semplicistica...finche' le schede hanno un prezzo adeguato è una scelta personale e valutativa dei pro/contro il fatto di prendere nvidia o Ati...in questo senso le quote di mercato parlano da sole; la partneship di nvidia non ha influenza sul prezzo...
Mercuri0
23-10-2008, 12:53
Mi pare economia semplicistica...
Fidati che è buona ;)
Che tutti i costi debba pagarli l'acquirente, non ci piove.
La pubblicità è utile per chi vende, per chi compra sarebbe utile solo la corretta informazione -e non dover pagare i costi della pubblicità -, ma so bene che è utopico.
La serie GTX ha "un prezzo adeguato" a causa della concorrenza di ATI, e perché la nVidia la sta vendendo in perdita o giù di lì, sua o dei distributori.
(e comunque per alcuni, la GTX280 aveva un "prezzo adeguato" anche all'uscita, cosa che veramente usciva da ogni logica razionale. E infatti...)
p.s. io ancora non capisco perché la gente tifi meglio per un marchio che per il proprio portafoglio. Ma fanno sconti ai fanboy?
Kharonte85
23-10-2008, 13:03
Fidati che è buona ;)
Che tutti i costi debba pagarli l'acquirente, non ci piove.
La pubblicità è utile per chi vende, per chi compra sarebbe utile solo la corretta informazione -e non dover pagare i costi della pubblicità -, ma so bene che è utopico.
Ho capito...tu paghi il canone mediaset :asd:
La serie GTX ha "un prezzo adeguato" a causa della concorrenza di ATI, e perché la nVidia la sta vendendo in perdita o giù di lì, sua o dei distributori.
(e comunque per alcuni, la GTX280 aveva un "prezzo adeguato" anche all'uscita, cosa che veramente usciva da ogni logica razionale. E infatti...)
p.s. io ancora non capisco perché la gente tifi meglio per un marchio che per il proprio portafoglio. Ma fanno sconti ai fanboy?
Il prezzo di Ati non è indipendente dalle quote di mercato di nvidia...entrambe le aziende sono a fini di lucro...l'unica arma che ha il consumatore è l'informazione.
se credi alla favola di ATI buona e onesta e nvidia cattiva non sono io il fanboy.
ninja750
23-10-2008, 13:05
solitamente si ritiene piu' importante il consumo in idle poiche' per la maggior parte del tempo è cosi' che rimane il sistema (durante navigazione, download) ecc...
con alcuni programmi i consumi in idle delle HD4xxx li dimezzi
ekerazha
23-10-2008, 13:05
solitamente si ritiene piu' importante il consumo in idle poiche' per la maggior parte del tempo è cosi' che rimane il sistema (durante navigazione, download) ecc...
Dipende... secondo me è molto più importante il picco di consumo, ad esempio per la scelta del dissipatore devi sapere se al picco del consumo e della temperatura, il dissipatore riuscirà a smaltire il calore generato.
Mercuri0
23-10-2008, 13:07
se credi alla favola di ATI buona e onesta e nvidia cattiva non sono io il fanboy.
Dov'è che lo avrei detto? :confused:
Io al massimo posso pensare che una azienda possa essere più o meno favorevole ai consumatori a seconda della sua posizione di mercato.
(basta leggere la storia dei miei post per capire che sono bipartisan, o meglio dei pochi "del partito del portafoglio", anche se ovviamente posto di più per difendere il marchio di volta in volta meno pubblicizzato, solo perché quello più pubblicizzato non ha bisogno di me per esser difeso)
Kharonte85
23-10-2008, 13:10
con alcuni programmi i consumi in idle delle HD4xxx li dimezzi
Sono forniti in bundle? No...devi invalidare la garanzia...
Dipende... secondo me è molto più importante il picco di consumo, ad esempio per la scelta del dissipatore devi sapere se al picco del consumo e della temperatura, il dissipatore riuscirà a smaltire il calore generato.
vedi sopra...i confronti si fanno alla pari (fuori scatola) e si parla di utente generico, nello specifico sono infinite le possibilita' sia per le schede ati che per quelle nvidia eb infinite le esigenze.
ekerazha
23-10-2008, 13:14
Sono forniti in bundle? No...devi invalidare la garanzia...
vedi sopra...i confronti si fanno alla pari (fuori scatola) e si parla di utente generico, nello specifico sono infinite le possibilita' sia per le schede ati che per quelle nvidia eb infinite le esigenze.
Ci sono schede che hanno di default dissipatori diversi, ad esempio c'è la Gigabyte hd 4850 passiva... prova a mettere un dissipatore passivo su una NVIDIA GTX :D
Vale sia per i dissipatori in bundle che per quelli acquistati a parte.
Ginger79
23-10-2008, 13:17
p.s. io ancora non capisco perché la gente tifi meglio per un marchio che per il proprio portafoglio. Ma fanno sconti ai fanboy?
Certo che hai proprio un bel coraggio a dire una frase del genere. Da che pulpito... :fagiano:
MiKeLezZ
23-10-2008, 13:19
In idle... e sotto carico? :D
Dalla più "esosa"
GTX 280 (consuma un casino sotto carico) - Hd 4870 - GTX 260 - Hd 4850Vanno anche di più :-)
ekerazha
23-10-2008, 13:22
Vanno anche di più :-)
Quello non si discute (tra l'altro proprio nello stesso ordine in cui consumano direi). Anche se c'è da dire che in proporzione al guadagno prestazionale, le GTX in full-load sono dei bei fornetti :D
KampMatthew
23-10-2008, 13:24
oddio noiso non so tanto, io mi sono divertito parecchio all'epoca :D
Il sacro unto non si dimentica mai ;)
intanto non vedo il link promulgatore nella tua firma :read:
Kharonte85
23-10-2008, 13:29
Ci sono schede che hanno di default dissipatori diversi, ad esempio c'è la Gigabyte hd 4850 passiva... prova a mettere un dissipatore passivo su una NVIDIA GTX :D
Vale sia per i dissipatori in bundle che per quelli acquistati a parte.
occhio che ati e nvidia non mettono becco sui dissipatori diversi forniti dai partner; quindi questo discorso è fuorviante.
Domani lo vado a comprare, tecnologia o meno. Me ne frega davvero poco. Mi interessano i 50km cubici da esplorare, in tutta sincerità
BTW su un normale e6600 e una 8800 gt 2gb e vista home premium x32 andava una bellezza a 1440x900. Non mi pare di aver giocato ad uno SlideShow, ieri.
Quando uscì Far Cry quella era una configurazione normalissima?
Ma si parla di Far Cry, mica di Crysis...
Appunto, si parla di un gioco uscito nel 2004. Non ricordo con precisione quale fosse una configurazione standard per un pc da supermercato (che sono quelli che vanno per la maggiore, purtroppo), ma mi sembra di ricordare che in molti si lamentassero allora che per farlo girare come si doveva servivano pc molto potenti.
Poi può darsi benissimo che io mi ricordi male e allora chiedo venia.
KampMatthew
23-10-2008, 13:36
quando uscì farcry la configurazione normale era con la 9800 e i più fortunati avevano x800
Trovo che le nuove schede ATI siano decisamente convenienti ,ottime schede probabilmente molto piu convenienti delle controparti Nvidia.....però che dire amo Nvidia per tante cose,CUDA,Phisyx,rilascio a nastro di driver beta con cui provare e smanettare e come ultima cosa sto supporto agli effetti 10.1 nonostante non sia stata "ufficializzata" la cosa...
Direi un'ottima cosa,sia per i possessori di Nvidia sia per quelli di ATI che possono contare su una validissima concorrenza che non può che fare bene a entrambe le parti.
quando uscì farcry la configurazione normale era con la 9800 e i più fortunati avevano x800
Gli "entusiasti" avevano la 9800, ma la maggior parte si accontentava della 9600...
OT...ma la 4830 esce o no?
non doveva essere il 21 ottobre?
ekerazha
23-10-2008, 13:49
occhio che ati e nvidia non mettono becco sui dissipatori diversi forniti dai partner; quindi questo discorso è fuorviante.
E' irrilevante, la garanzia la offrono "i partner" in ogni caso: i becchi non c'entrano, tra l'altro ATI non dovrebbe proprio parlare considerando i dissipatori pessimi che ha progettato per le ATI hd 4xxx, dissipa di più quello passivo di Gigabyte di quello attivo ATI, il che è tutto dire :D
gianni1879
23-10-2008, 14:09
E' irrilevante, la garanzia la offrono "i partner" in ogni caso: i becchi non c'entrano, tra l'altro ATI non dovrebbe proprio parlare considerando i dissipatori pessimi che ha progettato per le ATI hd 4xxx, dissipa di più quello passivo di Gigabyte di quello attivo ATI, il che è tutto dire :D
non è esattamente così, l'eccessivo calore è dovuto alla ventolina, sulle HD4850 single slot, regolata a livelli minimi per garantire max silenziosità.
Basta anzare la ventolina, adesso anche con gli 8.10, ed è tutto risolto
Mister Tarpone
23-10-2008, 14:11
non è esattamente così, l'eccessivo calore è dovuto alla ventolina, sulle HD4850 single slot, regolata a livelli minimi per garantire max silenziosità.
Basta anzare la ventolina, adesso anche con gli 8.10, ed è tutto risolto
devo confermare ;)
portandola al 30% incredibilmente il rumore NON cambia. ma la scheda scende a 44gradi.
ekerazha
23-10-2008, 14:20
non è esattamente così, l'eccessivo calore è dovuto alla ventolina, sulle HD4850 single slot, regolata a livelli minimi per garantire max silenziosità.
Basta anzare la ventolina, adesso anche con gli 8.10, ed è tutto risolto
Ripeto: dissipa meglio il Gigabyte PASSIVO 0db :D
1 - per l'articolo che pubblicizza spaventosamente Nvidia come se supportasse DX10.1
2 - per il fatto che una singola istruzione che "fa parte delle dx10.1" ma non "da la compatibilità completa dx10.1" viene pubblicizzata a favore di nvidia...
bella mossa!
FC2 non è dx10.1, è dx10 e sfrutta per l'aa un'istruzione supportata in HW da entrambe le GPU. Stop....
juninho85
23-10-2008, 15:24
ghghgh
attesa ...
hai pvt :D
Ma FC2 si trova già da qualche giorno da MW, stamattina lo ho preso, in effetti l'AA incide molto poco sulle prestazioni, ma mi sono limitato a 2x, non ho avuto molto tempo per fare prove, piu o meno era così:
1920*1080 25fps
1280*720 45fps
1280*720 AA2x 44fps
gianni1879
23-10-2008, 15:49
Ripeto: dissipa meglio il Gigabyte PASSIVO 0db :D
ancora? :D
ma non è vero, prendi ad es. la mia in firma, ti ritrovi con 33° in idle :Prrr:
Cmq come ha detto MisterTarpone lui ha la reference e basta aumentare gli rpm della ventolina per risolvere
appleroof
23-10-2008, 15:59
Dov'è che lo avrei detto? :confused:
Io al massimo posso pensare che una azienda possa essere più o meno favorevole ai consumatori a seconda della sua posizione di mercato.
(basta leggere la storia dei miei post per capire che sono bipartisan, o meglio dei pochi "del partito del portafoglio", anche se ovviamente posto di più per difendere il marchio di volta in volta meno pubblicizzato, solo perché quello più pubblicizzato non ha bisogno di me per esser difeso)
azz ci mancava il giustiziere :asd:
a parte gli scherzi (ti sei proprio prestato :D ) credo che nessuna delle 2 abbia bisogno di essere "difesa" da chicchessia...
la cosa veramente che mi interesserebbe è capire perchè i 180.xx danno un boost particolare a questo gioco, aspetto analisi approfondite sul tema (magari ci pensa rage3d o anandtech :asd: :asd: )
per il resto tornando in topic credo che sia una "battaglia" relativa quella sulle dx10.1: l'anno prossimo escono le nuove vga dx11 e te saluto querelle (tra l'altro già finora inconsistente, qualunque lettura di essa si voglia dare, pro-ati o pro-nvidia, visto che appunto di giochi dx10.1 o "veri" giochi dx10 che dir si voglia manco l'ombra lontana --consolle :doh: -- )
ekerazha
23-10-2008, 16:14
ancora? :D
ma non è vero, prendi ad es. la mia in firma, ti ritrovi con 33° in idle :Prrr:
Cmq come ha detto MisterTarpone lui ha la reference e basta aumentare gli rpm della ventolina per risolvere
Si parlava di schede a default, in una recensione con schede a default:
We put this card through 8 hours of heavy DX10 gaming and we were surprised to see that the "Multi-Core" cooloing technology was wroking flawlessly, with temperatures averaging around 48 degrees Celsius. It's definitely much cooler than what you would get from a stock cooler which can be in excess of 70 degrees Celsius
Fonte: http://www.cpu3d.com/review/5924-13/gigabyte-gv-r485mc-1gh-graphic-card/verdict-conclusion.html
Sintesi: 48° contro oltre 70° a full-load
Ovviamente non possiamo confrontare questa recensione con il tuo sistema, essendo ovviamente sistemi diversi con diverse caratteristiche di areazione. Certo... nulla vieta di incrementare artificiosamente i regimi di rotazione della ventola, a qualcuno "l'effetto eliporto" fa compagnia, altri nemmeno lo notano :D
La scheda Gigabyte produce un rumore di 0 decibel, essendo appunto passiva e come hai potuto leggere sembra piuttosto efficace.
gianni1879
23-10-2008, 16:17
allora tutti sul passivo :D
cmq fattelo dire da chi la possiede che anche la ventola stock alzando non è rumorosa, ed in ogni caso la versione passiva devi tenere un case ben areato
ekerazha
23-10-2008, 16:23
devi tenere un case ben areato
Questo è un comandamento :D
Mercuri0
23-10-2008, 16:50
azz ci mancava il giustiziere :asd:
Giustiziere del mio portafoglio :asd:
Davvero, se non fosse perché credo sinceramente che più gli utenti siamo informati più ne traiamo vantaggio, non starei a perder troppo tempo a postare. ;)
(a parte qualche interessante discussione tecnica su cui a volte capita di trovare ottime sponde ^^)
appleroof
23-10-2008, 16:58
Giustiziere del mio portafoglio :asd:
Davvero, se non fosse perché credo sinceramente che più gli utenti siamo informati più ne traiamo vantaggio, non starei a perder troppo tempo a postare. ;)
(a parte qualche discussione tecnica per cui a volte capita che trovo un interlocutore da cui imparare)
bè la concorrenza (cartelli a parte :D ) è sempre ben accetta se porta innovazione e prezzi più bassi, solo uno stupido non sarebbe d'accordo con questo
ma questo è un discorso e attiene ai principi generali: un altro è dire (semplifico per farmi capire, non voglio dire che tu lo affermi apertamente o l'hai mai fatto) Nvidia mafia, Ati buona; Nvidia affossa l'innovazione Ati no, e cose del genere...
credo che le cose siano più complesse di queste semplificazioni, e dipendano da una serie di fattori diversi ma dipendenti tra loro, dove il peso relativo di Nvidia ne costituisce uno, ma da solo non può essere determinante di nulla, a meno di credere alle marmotte che confezionano il cioccolato
ovviamente come sempre questa è solo la mia opinione
ThePunisher
23-10-2008, 22:31
1 - per l'articolo che pubblicizza spaventosamente Nvidia come se supportasse DX10.1
2 - per il fatto che una singola istruzione che "fa parte delle dx10.1" ma non "da la compatibilità completa dx10.1" viene pubblicizzata a favore di nvidia...
bella mossa!
FC2 non è dx10.1, è dx10 e sfrutta per l'aa un'istruzione supportata in HW da entrambe le GPU. Stop....
In effetti la visione che lascia l'articolo non è molto diversa da quella che hai indicato.
SwatMaster
23-10-2008, 23:10
Far Cry 2 me lo son preso oggi, e sebbene abbia avuto poco tempo per provarlo, tutto al massimo con la config in firma e AA2x ottengo un Frame Rate tra i 40 ed i 65.
Notare che nel bench integrato (che stressa molto), ho una media di 48FPS.
Altro che Crysis. :sofico:
MiKeLezZ
24-10-2008, 01:14
50 FPS di average con tutto su Very High e a 1280x1024 con AA 2x
Purtroppo il gioco non pare il massimo (un 8 tondo, l'erba arriva fino al torace, altro che Africa e Deserto, è Jungla), certo quelli di NVIDIA sembra abbiano fatto una mezza magia
Mi lascia perplesso chi rosika per le DX10.1 che siano vere o meno
Quel che conta è il risultato, e qua c'è
yossarian
24-10-2008, 01:40
1 - per l'articolo che pubblicizza spaventosamente Nvidia come se supportasse DX10.1
2 - per il fatto che una singola istruzione che "fa parte delle dx10.1" ma non "da la compatibilità completa dx10.1" viene pubblicizzata a favore di nvidia...
bella mossa!
FC2 non è dx10.1, è dx10 e sfrutta per l'aa un'istruzione supportata in HW da entrambe le GPU. Stop....
In effetti la visione che lascia l'articolo non è molto diversa da quella che hai indicato.
azz ci mancava il giustiziere :asd:
a parte gli scherzi (ti sei proprio prestato :D ) credo che nessuna delle 2 abbia bisogno di essere "difesa" da chicchessia...
la cosa veramente che mi interesserebbe è capire perchè i 180.xx danno un boost particolare a questo gioco, aspetto analisi approfondite sul tema (magari ci pensa rage3d o anandtech :asd: :asd: )
per il resto tornando in topic credo che sia una "battaglia" relativa quella sulle dx10.1: l'anno prossimo escono le nuove vga dx11 e te saluto querelle (tra l'altro già finora inconsistente, qualunque lettura di essa si voglia dare, pro-ati o pro-nvidia, visto che appunto di giochi dx10.1 o "veri" giochi dx10 che dir si voglia manco l'ombra lontana --consolle :doh: -- )
l'utilizzo del depth buffer è una feature dx10 e non dx10.1; con deferred rendering si può procedere in diversi modi; in dx10, in particolare, hai 2 possibilità:
1) l'utilizzo di render to texture (quello visto finora); ovvero si renderizzano su una texture i valori contenuti nello z-buffer (a 8 bit INT per canale) e ogni volta che serve avere i valori z del frame occorre fare accesso a texture.
2) si usa un color buffer accessibile dallo shader core, come secondo render target; in pratica, si ha sempre lo z-buffer (con INT8) su cui si applica il MSAA e che viene calcolato nella fase di setup geometrico; in un secondo tempo, si usa un color buffer per immagazzinare i dati relativi alle coordinate z- di tutti i pixel del frame (a fp32). Questo buffer viene denominato depth buffer perchè contiene i dati relativi alla coordinata z che rappreenta la profondità rispetto all'osservatore. Quando serve accedere ai valori delle coordinate z dei pixel questi si leggono direttamente dal depth buffer.
L'utilizzo di uno spazio in cui immagazzinare i dati si rende necessario con deferred rendering con MSAA, perchè il secondo è applicato direttamente sui dati geometrici (quindi nella pirma fase dell'elaborazione), mentre il rendering avviene dopo che si è proceduto alle operazioni di HSR, il che fa perdere informazione sui valori contenuti nello z-buffer. Quindi è necessario salvare altrove quegli stessi valori per poterli riutilizzare all'occorrenza.
In dx10.1, oltre alle due modalità previste per le dx10, c'è la possibilità di utilizzare più render target anche per lo z-buffer; questo significa che è possibile creare tanti render target quanti sono i sample utilizzati per l'AA e andare a leggere/scrivere direttamente i valori li. Lo z-buffer fa uso, in questo caso di fp32.
Per le prestazioni si va in ordine crescente, dal render to texture al MRT per lo z-buffer (questo per rispondere ad apple che chiede come mai si ha questo incremento). Per la qualità, l'utilizzo delle ultime due garantisce una qualità pressochè uguale (un leggero vantaggio per le dx10.1 per il maggior numero di bit impiegati per lo z-buffer, ma si tenga conto che le modalità di MSAA box non richiedono elevate precisioni di calcolo).
@lucio68
Parlavo, ovviamente, di Far Cry 2. Non del primo.
Il primo l'ho giocato su una x700, ai tempi.
Ottima scalabilità!
beh ok... quindi?
E' corretto secondo te presentare l'articolo così?
Avete la minima idea di quanto nvidia marcierà sul fatto che i niubbi crederanno che le sue schede siano ora dx10.1?
Kharonte85
24-10-2008, 10:08
l'utilizzo del depth buffer è una feature dx10 e non dx10.1; con deferred rendering si può procedere in diversi modi; in dx10, in particolare, hai 2 possibilità:
1) l'utilizzo di render to texture (quello visto finora); ovvero si renderizzano su una texture i valori contenuti nello z-buffer (a 8 bit INT per canale) e ogni volta che serve avere i valori z del frame occorre fare accesso a texture.
2) si usa un color buffer accessibile dallo shader core, come secondo render target; in pratica, si ha sempre lo z-buffer (con INT8) su cui si applica il MSAA e che viene calcolato nella fase di setup geometrico; in un secondo tempo, si usa un color buffer per immagazzinare i dati relativi alle coordinate z- di tutti i pixel del frame (a fp32). Questo buffer viene denominato depth buffer perchè contiene i dati relativi alla coordinata z che rappreenta la profondità rispetto all'osservatore. Quando serve accedere ai valori delle coordinate z dei pixel questi si leggono direttamente dal depth buffer.
L'utilizzo di uno spazio in cui immagazzinare i dati si rende necessario con deferred rendering con MSAA, perchè il secondo è applicato direttamente sui dati geometrici (quindi nella pirma fase dell'elaborazione), mentre il rendering avviene dopo che si è proceduto alle operazioni di HSR, il che fa perdere informazione sui valori contenuti nello z-buffer. Quindi è necessario salvare altrove quegli stessi valori per poterli riutilizzare all'occorrenza.
In dx10.1, oltre alle due modalità previste per le dx10, c'è la possibilità di utilizzare più render target anche per lo z-buffer; questo significa che è possibile creare tanti render target quanti sono i sample utilizzati per l'AA e andare a leggere/scrivere direttamente i valori li. Lo z-buffer fa uso, in questo caso di fp32.
Per le prestazioni si va in ordine crescente, dal render to texture al MRT per lo z-buffer (questo per rispondere ad apple che chiede come mai si ha questo incremento). Per la qualità, l'utilizzo delle ultime due garantisce una qualità pressochè uguale (un leggero vantaggio per le dx10.1 per il maggior numero di bit impiegati per lo z-buffer, ma si tenga conto che le modalità di MSAA box non richiedono elevate precisioni di calcolo).
Quindi l'articolo è sbagliato secondo te...e di conseguenza Far cry 2 non è un titolo con features dx10.1
Probabilmente questo signore:
...Now a statement of Vincent Greco, Worldwide Production Technical Coordinator at Ubisoft, was released:
Vincent Greco: "The Ubisoft team wanted to enhance the Anti-Aliasing through the reading of the multisampled depth Z-buffers. This feature was enabled by either using DX10.1 or using a DX10.0 extension supported by NVIDIA DirectX 10 GPU's. Since NVIDIA supports this in their hardware, we were pleased to be able to accelerate this feature. In the case of Far Cry 2, either option will work with similar performance.”
...It is interesting to see that Ubisoft uses some kind of unofficial DX10 extension to utilize the DirectX 10.1 Anti-Aliasing technology. This requires manual programming, since those features are not exposed in the DX10 API as they are in DirectX 10.1. In the end owners of Nvidia and AMD graphics cards benefit from Ubisofts efforts and the faster Anti-Aliasing calculation in Far Cry 2.
http://www.pcgameshardware.com/aid,664385/News/Far_Cry_2_und_DX101_Official_developer_statement_at_PCGH/
non ne sa quanto te, dato che è convinto che siano una "estensione" delle dx10 prevista dalle schede nvidia :D
non è che far cry 2 non è dx10.1 secondo lui o secondo altri. Far cry 2 non è 10.1 punto e basta :-) ... e poi hwupgrade arriva sempre con 2gg di ritardo.
Le news con tanto di interviste ai programmatori, che dicono appunto che viene usata una SINGOLA estensione hardware presente anche nelle dx10.1, sono molto chiare in proposito...
Kharonte85
24-10-2008, 10:23
non è che far cry 2 non è dx10.1 secondo lui o secondo altri. Far cry 2 non è 10.1 punto e basta :-) ... e poi hwupgrade arriva sempre con 2gg di ritardo.
Le news con tanto di interviste ai programmatori, che dicono appunto che viene usata una SINGOLA estensione hardware presente anche nelle dx10.1, sono molto chiare in proposito...
veramente se leggi sopra vedi come non siano chiare per nulla, non nel senso che intendi tu...:read:
Resti il punto fermo che a me delle dx10.1 non me ne frega assolutamente nulla dato che ogni giorno che passa non aumentano la loro utilita', a maggior ragione se anche Far cry 2 non ha nessuna features propria delle dx10.1
guarda che hai letto "una" intervista al "Worldwide Production Technical Coordinator". Sai interviste che sono uscite nei giorni scorsi a PROGRAMMATORI del dunia e non a un "Worldwide Production Technical Coordinator"?
Kharonte85
24-10-2008, 10:34
guarda che hai letto "una" intervista al "Worldwide Production Technical Coordinator". Sai interviste che sono uscite nei giorni scorsi a PROGRAMMATORI del dunia e non a un "Worldwide Production Technical Coordinator"?
Dominic Guay (Engineering Director)
Dominic: So we were lucky enough, that the DX10.1 features we wanted to use are also supported on DX10 boards, although the API was not exposed, they were there, so now we are kind of able to get that hardware functionality used even on DX10 boards.
http://www.pcgameshardware.com/aid,664083/News/Far_Cry_2_Vague_statements_on_Direct_X_101/
Il gioco lo hanno fatto loro, poi se parlano a vanvera la colpa non è dei giornalisti che riportano le loro parole.
Se ne conosci altre linkami le tue fonti...vediamo se si trova una oggettivita' in tutto questo, a me basta il parere di Yoss ma credo che sia utile anche per la redazione chiarire questo aspetto ed eventualmente fare una precisazione :)
o sei tu che non sai l'inglese o non ci capiamo. Anche lui ha detto "the DX10.1 features we wanted to use[/SIZE][/B] are also supported on DX10 boards" trad "le features che vogliamo usare delle dx10.1 sono anche supportate sulle schede dx10". Non mi pare di aver letto "Far cry è dx10.1 e usa le dx10.1". Se vogliamo fare una traduzione non giornalistica cosa ne esce fuori? "Le features, PRESENTI ANCHE NELLE dx10.1, che vogliamo usare si possono usare anche su schede dx10."
Kharonte85
24-10-2008, 10:55
o sei tu che non sai l'inglese o non ci capiamo. Anche lui ha detto "the DX10.1 features we wanted to use[/SIZE][/B] are also supported on DX10 boards" trad "le features che vogliamo usare delle dx10.1 sono anche supportate sulle schede dx10". Non mi pare di aver letto "Far cry è dx10.1 e usa le dx10.1". Se vogliamo fare una traduzione non giornalistica cosa ne esce fuori? "Le features, PRESENTI ANCHE NELLE dx10.1, che vogliamo usare si possono usare anche su schede dx10."
Testualmente sarebbe: le caratteristiche dx10.1 (soggetto della frase) che vogliamo usare sono supportate anche dalle schede dx10.
Che sarebbe appunto esattamente la stessa cosa che sostiene la notizia che stiamo commentando:
La lettura diretta dal buffer multisample depth è una delle funzionalità specifiche delle API DirectX 10.1 che sembra aver catturato il maggior interesse da parte dei games developer. Per questo motivo NVIDIA ne ha implementato l'utilizzo sin dalle proprie prime architetture di GPU compatibili con le API DirectX 10, invitando gli sviluppatori di giochi.
In Far Cry 2, pertanto, le tecniche di anti-aliasing attraverso la lettura di multisampled depth Z-buffer sono state sfruttate con entrambe le tipologie di architetture hardware di ATI e NVIDIA. Nel primo caso, ricorrendo alle API DirectX 10.1 e nel secondo con le estensioni alle API DirectX 10 supportate dalle GPU NVIDIA a livello hardware. Le implicazioni, stando a quanto anticipato da Ubisoft, dovrebbero essere tali da far ottenere livelli prestazionali pressoché equivalenti tra le due tipologie di architetture video, quantomeno nell'utilizzo del multisampled depth Z-buffers.
Chi ha ragione?
MiKeLezZ
24-10-2008, 12:13
non è che far cry 2 non è dx10.1 secondo lui o secondo altri. Far cry 2 non è 10.1 punto e basta :-) ... e poi hwupgrade arriva sempre con 2gg di ritardo.
Le news con tanto di interviste ai programmatori, che dicono appunto che viene usata una SINGOLA estensione hardware presente anche nelle dx10.1, sono molto chiare in proposito...Embè? Perchè, secondo te i giochi DX10 utilizzano TUTTE le estensioni DX10??? No!!!
Non solo, è lo stesso yossarian a ripetere da 2-3 mesi a questa parte (così come scritto su Beyond3D, Guru3D, etc :) :) ) che la quasi totalità di giochi DX10 fino ad ora commercializzati utilizzino in realtà effetti DX9.0c, e di DX10 ci sia poco o nulla...
Quindi il fatto che Far Cry 2 non utilizzi TUTTE le feature DX10.1 non è giustificazione di certo per non dire che sia un gioco DX10.1...
yossarian
24-10-2008, 12:33
Quindi l'articolo è sbagliato secondo te...e di conseguenza Far cry 2 non è un titolo con features dx10.1
Probabilmente questo signore:
...Now a statement of Vincent Greco, Worldwide Production Technical Coordinator at Ubisoft, was released:
Vincent Greco: "The Ubisoft team wanted to enhance the Anti-Aliasing through the reading of the multisampled depth Z-buffers. This feature was enabled by either using DX10.1 or using a DX10.0 extension supported by NVIDIA DirectX 10 GPU's. Since NVIDIA supports this in their hardware, we were pleased to be able to accelerate this feature. In the case of Far Cry 2, either option will work with similar performance.”
...It is interesting to see that Ubisoft uses some kind of unofficial DX10 extension to utilize the DirectX 10.1 Anti-Aliasing technology. This requires manual programming, since those features are not exposed in the DX10 API as they are in DirectX 10.1. In the end owners of Nvidia and AMD graphics cards benefit from Ubisofts efforts and the faster Anti-Aliasing calculation in Far Cry 2.
http://www.pcgameshardware.com/aid,664385/News/Far_Cry_2_und_DX101_Official_developer_statement_at_PCGH/
non ne sa quanto te, dato che è convinto che siano una "estensione" delle dx10 prevista dalle schede nvidia :D
non ho letto l'intervista; certo è che FC2 è stato sviluppato con la stretta collaborazione di nVIDIA, quindi gli sviluppatori dovrebbero conoscere bene l'architettura dei chip. Fatto sta che la tecnica di readback da un depth buffer è descritta
http://developer.download.nvidia.com/whitepapers/2007/SDK10/SoftParticles_hi.pdf
dove dice "using a second render target (che di fatto è quello che si fa in FC2). Alla fine ci sono anche interessanti valutazioni sull'incremento prestazionale ottenibile. Ma è una tecnica dx10 e non dx10.1
ThePunisher
24-10-2008, 12:36
Allora in tutto questo... cosa diavolo c'entrano le DX10.1?
yossarian
24-10-2008, 12:38
Testualmente sarebbe: le caratteristiche dx10.1 (soggetto della frase) che vogliamo usare sono supportate anche dalle schede dx10.
Che sarebbe appunto esattamente la stessa cosa che sostiene la notizia che stiamo commentando:
La lettura diretta dal buffer multisample depth è una delle funzionalità specifiche delle API DirectX 10.1 che sembra aver catturato il maggior interesse da parte dei games developer. Per questo motivo NVIDIA ne ha implementato l'utilizzo sin dalle proprie prime architetture di GPU compatibili con le API DirectX 10, invitando gli sviluppatori di giochi.
In Far Cry 2, pertanto, le tecniche di anti-aliasing attraverso la lettura di multisampled depth Z-buffer sono state sfruttate con entrambe le tipologie di architetture hardware di ATI e NVIDIA. Nel primo caso, ricorrendo alle API DirectX 10.1 e nel secondo con le estensioni alle API DirectX 10 supportate dalle GPU NVIDIA a livello hardware. Le implicazioni, stando a quanto anticipato da Ubisoft, dovrebbero essere tali da far ottenere livelli prestazionali pressoché equivalenti tra le due tipologie di architetture video, quantomeno nell'utilizzo del multisampled depth Z-buffers.
Chi ha ragione?
non so quale tecnica è stata utilizzata per le dx10.1; l'uso di MRT è possibile con entrambe le architetture, con modalità differenti. In dx10 tramite la lettura da un secondo render target utilizzato come depth buffer (di fatto viene creato come color render target e adibito a contenere z value); in dx10.1 utilizzando z-render target . In questo secondo caso si ha una qualità leggermente superiore ed un ulteriore incrememnto prestazionale rispetto all'utilizzo di color render target. Però può anche darsi che abbiano utilizzato la prima delle due anche su chip ATi
yossarian
24-10-2008, 12:44
Allora in tutto questo... cosa diavolo c'entrano le DX10.1?
ci sono effettivamente delle feature dx10.1 supportate anche dalle gpu nVIDIA; altre sono emulabili. L'utilizzo di MSAA con deferred rendering, in particolare, ha una soluzione nativa in dx10.1 (più render target per le z ops) e soluzioni emulative in dx10: render to texture e utilizzo di più color buffer inizializzati come depth buffer. La seconda è migliore sia qualitativamente che prestazionalmente. Però non ti so dire se in FC2 ci siano anche implementate feature dx10.1 supportate da nVIDIA. L'utilizzo di depth buffer readback non è tra queste.
http://developer.amd.com/gpu_assets/GDC%20Paris%202008%20-%20Ultimate%20Graphics%20Performance%20for%20DirectX%2010%20Hardware%20-%20Publishable%20version.ppt
anche qui c'è qualcosa al paragrafo access depth and stencil. Ma si tratta di ottimizzazioni per le dx10, come recita il titolo. Inoltre ci sono anche discussioni su vari forum di sviluppatori al riguardo (è una tecnica usata anche in OpenGL)
ThePunisher
24-10-2008, 12:45
ci sono effettivamente delle feature dx10.1 supportate anche dalle gpu nVIDIA; altre sono emulabili. L'utilizzo di MSAA con deferred rendering, in particolare, ha una soluzione nativa in dx10.1 (più render target per le z ops) e soluzioni emulative in dx10: render to texture e utilizzo di più color buffer inizializzati come depth buffer. La seconda è migliore sia qualitativamente che prestazionalmente. Però non ti so dire se in FC2 ci siano anche implementate feature dx10.1 supportate da nVIDIA. L'utilizzo di depth buffer readback non è tra queste.
Capito! Grazie!
yossarian
24-10-2008, 12:50
Capito! Grazie!
ti ho aggiunto anche un ulteriore link nel post precedente; se vuoi dargli un'occhiata, riguarda le ottimizazioni nella programmazione di HW dx10
Prego, non c'è di che :)
yossarian
24-10-2008, 12:52
beh ok... quindi?
E' corretto secondo te presentare l'articolo così?
Avete la minima idea di quanto nvidia marcierà sul fatto che i niubbi crederanno che le sue schede siano ora dx10.1?
non lo so, perchè non so se effettivamente ci sono feature dx10.1 in FC2. Questa in particolare non lo è ma ciò non esclude che ce ne siano ed alcune sono supportate anche dalle gpu nVIDIA, nativamente o in emulazione. E, comunque, rispetto alla tecnica di render to texture, vista in altri game con deferred rendering, garantisce un incremento di prestazioni con MSAA attivo
appleroof
24-10-2008, 14:19
cut
Per le prestazioni si va in ordine crescente, dal render to texture al MRT per lo z-buffer (questo per rispondere ad apple che chiede come mai si ha questo incremento). cut
ottimo, grazie della spiegazione ;)
p.s.: finalmente cominciano ad usare qualcosina delle dx10...dai dai che per l'anno prossimo cominciamo a vedere qualcosa di veramente interessante...:D
yossarian
24-10-2008, 14:40
ottimo, grazie della spiegazione ;)
p.s.: finalmente cominciano ad usare qualcosina delle dx10...dai dai che per l'anno prossimo cominciamo a vedere qualcosa di veramente interessante...:D
anche la tecnica del render to texture usata in altri game è prevista dalle dx10. Solo che è il modo peggiore per implementare il MSAA su engine con deferred rendering :D
Comunque forse qualcosa si inizia a muovere nella giusta direzione, effettivamente
yossarian
24-10-2008, 17:26
Quindi l'articolo è sbagliato secondo te...e di conseguenza Far cry 2 non è un titolo con features dx10.1
Probabilmente questo signore:
...Now a statement of Vincent Greco, Worldwide Production Technical Coordinator at Ubisoft, was released:
Vincent Greco: "The Ubisoft team wanted to enhance the Anti-Aliasing through the reading of the multisampled depth Z-buffers. This feature was enabled by either using DX10.1 or using a DX10.0 extension supported by NVIDIA DirectX 10 GPU's. Since NVIDIA supports this in their hardware, we were pleased to be able to accelerate this feature. In the case of Far Cry 2, either option will work with similar performance.”
...It is interesting to see that Ubisoft uses some kind of unofficial DX10 extension to utilize the DirectX 10.1 Anti-Aliasing technology. This requires manual programming, since those features are not exposed in the DX10 API as they are in DirectX 10.1. In the end owners of Nvidia and AMD graphics cards benefit from Ubisofts efforts and the faster Anti-Aliasing calculation in Far Cry 2.
http://www.pcgameshardware.com/aid,664385/News/Far_Cry_2_und_DX101_Official_developer_statement_at_PCGH/
non ne sa quanto te, dato che è convinto che siano una "estensione" delle dx10 prevista dalle schede nvidia :D
ho dato una letta all'intervento di Greco: dice testualmente che hanno inteso migliorare le prestazioni con MSAA utilizzando la tecnica del depth buffer e che questo è possibile sia in dx10.1 che in dx10 per cui la vga nVIDIA hanno supporto HW. Infine afferma (e questo è opinabile, eprchè le dx10.1 danno dei vantaggi prestazionali se ben implementate) che entrambe le tecniche hanno lo stesso impatto (positivo) sulle prestazioni.
Questo significa che nVIDIA supporta l'utilizzo del MRT previsto dalle dx10 non che abbia supporto per le dx10.1 per questa feature.
Il resto è solo interpretazione della notizia, per altro non corretta, in quanto il readback depth buffer non è una feature nascosta delle dx10 con cui è possibile emulare le dx10.1: è una tecnica dx10 e basta :D
yossarian
24-10-2008, 17:30
Dominic Guay (Engineering Director)
Dominic: So we were lucky enough, that the DX10.1 features we wanted to use are also supported on DX10 boards, although the API was not exposed, they were there, so now we are kind of able to get that hardware functionality used even on DX10 boards.
http://www.pcgameshardware.com/aid,664083/News/Far_Cry_2_Vague_statements_on_Direct_X_101/
Il gioco lo hanno fatto loro, poi se parlano a vanvera la colpa non è dei giornalisti che riportano le loro parole.
Se ne conosci altre linkami le tue fonti...vediamo se si trova una oggettivita' in tutto questo, a me basta il parere di Yoss ma credo che sia utile anche per la redazione chiarire questo aspetto ed eventualmente fare una precisazione :)
anche in questo caso non si è parlato a vanvera; si è affermato che le feature dx10.1 che volevano implementare (ovvero l'utilizzo di MRT) sono supportate anche dalle dx10 (tramite MRT ma con color buffer e non con z-buffer). Non dice che l'implementazione è la stessa, dice solo che è possibile farlo su entrambi i tipi di HW. Ovvero non si tratta di una feature che è impossibile riprodurre su HW nVIDIA (malignamente si potrebbe aggiungere un: "grazie, lo avete sviluppato in collaborazione con nVIDIA" :D )
yossarian
24-10-2008, 17:35
secondo quanto riportato nelle interviste postate da Kharonte, il gioco implementa feature dx10.1 (MRT per MSAA) riproducibili anche in dx10 con tecniche differenti. Non c'è, quindi, spporto HW a questa feature dx10.1 da parte delle gpu nVIDIA che si limitano all'utilizzo di una tecnica, definita readback depth buffer, propria delle dx10. Non si tratta di una nuova feature o un'estensione ma una tecnica prevista dalle dx10, tanto che fa parte delle ottimizzazioni previste per HW dx10
appleroof
24-10-2008, 18:46
secondo quanto riportato nelle interviste postate da Kharonte, il gioco implementa feature dx10.1 (MRT per MSAA) riproducibili anche in dx10 con tecniche differenti. Non c'è, quindi, spporto HW a questa feature dx10.1 da parte delle gpu nVIDIA che si limitano all'utilizzo di una tecnica, definita readback depth buffer, propria delle dx10. Non si tratta di una nuova feature o un'estensione ma una tecnica prevista dalle dx10, tanto che fa parte delle ottimizzazioni previste per HW dx10
e finalmente, direi!!
interessante notare come una tecnica dx10 porti benefici prestazionali in g80 e derivati, questo per chi sosteneva che erano gpu "più dx9 che dx10"
Kharonte85
24-10-2008, 23:13
secondo quanto riportato nelle interviste postate da Kharonte, il gioco implementa feature dx10.1 (MRT per MSAA) riproducibili anche in dx10 con tecniche differenti. Non c'è, quindi, spporto HW a questa feature dx10.1 da parte delle gpu nVIDIA che si limitano all'utilizzo di una tecnica, definita readback depth buffer, propria delle dx10. Non si tratta di una nuova feature o un'estensione ma una tecnica prevista dalle dx10, tanto che fa parte delle ottimizzazioni previste per HW dx10
A questo punto quindi nelle schede ATI dovrebbe essere eseguita sfruttando le native capacità delle dx10.1 (sto finendo le perifrasi pur di non ripetere le stesse parole :sofico: )...quindi il gioco sfrutta qualcosa delle dx10.1 solo per chi ha ATI, o forse no :wtf:
Wahhh...:muro: mi sa che me lo giochero' su XP in dx9 e baffanculo alle dx10 e 10.1 :O :asd:
yossarian
25-10-2008, 00:00
A questo punto quindi nelle schede ATI dovrebbe essere eseguita sfruttando le native capacità delle dx10.1 (sto finendo le perifrasi pur di non ripetere le stesse parole :sofico: )...quindi il gioco sfrutta qualcosa delle dx10.1 solo per chi ha ATI, o forse no :wtf:
Wahhh...:muro: mi sa che me lo giochero' su XP in dx9 e baffanculo alle dx10 e 10.1 :O :asd:
secondo quello che lasciano intendere gli sviluppatori nelle interviste che hai linkato dovrebbe essere così; ovvero la stessa feature implementata su ATi in dx10.1 e su nVIDIA in dx10. Se così fosse, in effetti qualcosa di dx10.1 in FC2 ci sarebbe
MiKeLezZ
25-10-2008, 00:48
“Sin da quando abbiamo iniziato a lavorare su Far Cry 2 nei primi mesi del 2005, abbiamo usato le GPU GeForce per sviluppare il gioco e abbiamo collaborato attivamente con gli straordinari tecnici di NVIDIA.
Sebbene Far Cry 2 sia senza ombra di dubbio un'esperienza di gioco per PC davvero sensazionale per una gamma molto ampia di sistemi, gli utenti di GeForce possono attendersi di godersi il gioco letteralmente ‘The Way It Was Meant To Be Played’.”
- Louis-Pierre Pharand, Ubisoft, produttore di Far Cry 2
p.s. Usciti driver nvidia v.180.43
Sono forniti in bundle? No...devi invalidare la garanzia...
I programmi?
Allora tu non fai nemmeno OC, visto che in linea estremamente teorica pure quello invalida la garanzia. ;)
vedi sopra...i confronti si fanno alla pari (fuori scatola) e si parla di utente generico, nello specifico sono infinite le possibilita' sia per le schede ati che per quelle nvidia eb infinite le esigenze.
Questo era lo stesso discorso che si faceva all'epoca per le 8800GT. ;)
Kharonte85
25-10-2008, 16:23
I programmi?
Allora tu non fai nemmeno OC, visto che in linea estremamente teorica pure quello invalida la garanzia. ;)
infatti per ora sono a default :p
Anche se in quel caso ti forniscono sovente in bundle un tools per l'overclock (di solito coolbits per nvidia) quindi ti inzigano :mc:
Questo era lo stesso discorso che si faceva all'epoca per le 8800GT. ;)
Quindi? :stordita:
MiKeLezZ
25-10-2008, 18:29
I programmi?
Allora tu non fai nemmeno OC, visto che in linea estremamente teorica pure quello invalida la garanzia. ;) Bhe, le "case" ti permettono di fare overclock direttamente dal pannello di controllo, idem produttori (come Leadtek)... dubito quindi si rischi la garanzia
ThePunisher
25-10-2008, 18:58
Bhe NVIDIA ti permette di fare overclock direttamente dal pannello di controllo (e penso anche ATI), lo stesso lo fanno case come Leadtek... dubito quindi si rischi la garanzia
No, infatti, non si rischia assolutamente nulla, anche perchè con i controlli che ci sono a livello hardware la scheda si blocca prima di qualunque possibile danno. Chiaro che se poi si fanno VMOD, ecc. allora sì.
Kharonte85
26-10-2008, 09:21
Bhe NVIDIA ti permette di fare overclock direttamente dal pannello di controllo (e penso anche ATI), lo stesso lo fanno case come Leadtek... dubito quindi si rischi la garanzia
Nvidia ti avverteva quando usavi i coolbits che l'operazione invalidava la garanzia...ma ovviamente dato che si agisce via software se si hanno problemi basta riportarla a default e loro non se ne accorgerebbero mai...ma se cambi un dissipatore è piu' difficile fargliela bere.
Quindi? :stordita:
Quindi quello che valeva all'epoca (in molti dicevano ma và, si può cambiare il dissi, variare velocità alla ventola, ecc...) per la 8800GT vale pure per la HD4850. Visto che mi pare che si stesse parlando di calore generato, ecc...
Non vedo perchè ad un problema simile si debba rispondere in maniera differente. ;)
Se poi parlavi di consumi, quello è un altro discorso. :)
Sul discorso OC, in realtà a volte l'OC col software in bundle è limitato. Ovvio che comunque uno nella pratica (infatti ho scritto "in teoria") non rischi nulla, occando via sw.
Tornando più IT, alla fine Ubisoft sta facendo la solita supercazzola (un po' come ai tempi di Assassin's Creed).
Io non dico di non fare accordi commerciali e cose simili, che sono perfettamente lecite.
Però negli statements ufficiali farebbero meglio ad essere più precisi, onde evitare confusioni, imprecisioni e falsa pubblicità (tipo far intendere che ottenere la stessa cosa con DX10 NVidia o con le DX10.1 sia la stessa cosa, quando invece con tutta probabilità non è così). ;)
Kharonte85
26-10-2008, 18:35
Quindi quello che valeva all'epoca (in molti dicevano ma và, si può cambiare il dissi, variare velocità alla ventola, ecc...) per la 8800GT vale pure per la HD4850. Visto che mi pare che si stesse parlando di calore generato, ecc...
Non vedo perchè ad un problema simile si debba rispondere in maniera differente. ;)
Se poi parlavi di consumi, quello è un altro discorso. :)
La 8800gt e la hd4850 si trovano in una condizione "simile" in tempi diversi...chi ha detto diversamente?
Infatti si parlava di consumi...il discorso del dissipatore è stato tirato fuori a sproposito come facevo notare.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.