Un po' di codice DirectX 10.1 in Far Cry 2, per le GPU ATI

Un po' di codice DirectX 10.1 in Far Cry 2, per le GPU ATI

Far Cry implementa compatibilità con le API DirectX 10.1, ufficialmente supportate solo da GPU ATI, ma questo non rappresenta un limite per le architetture NVIDIA

di pubblicata il , alle 12:17 nel canale Schede Video
NVIDIAATIFar Cry
 

Far Cry 2 è atteso al debutto in Europa in questo fine settimana; si tratta di uno dei titoli più attesi del 2008, sequel di quel Far Cry che è stato negli scorsi anni un punto di riferimento quanto a potenzialità della grafica 3D oltre che banco di prova delle schede video top di gamma del tempo.

Una delle particolarità di questo gioco, con riferimento all'hardware necessario per utilizzarlo al meglio, è data dal supporto alle API DirectX 10.1, la più recente estensione delle API Microsoft compatibili con sistemi operativi Windows Vista. Queste API sono al momento compatibili con le schede video ATI basate su GPU Radeon HD serie 3000 o superiore.

Le famiglie di GPU NVIDIA dotate di architettura a shader unificati, a partire dalla serie GeForce 8, non supportano le API DirectX 10.1 limitandosi alla sola estensione 10. Ubisoft ha quindi implementato due differenti tecniche di gestione dell'anti aliasing, sfruttando quanto reso disponibile dalle API DirectX 10.1 con le GPU in grado di supportarle. Di seguito è riportata una dichiarazione di Vincent Greco, Worldwide Production Technical Coordinator di Ubisoft:

"The Ubisoft team wanted to enhance the Anti-Aliasing through the reading of the multisampled depth Z-buffers. This feature was enabled by either using DX10.1 or using a DX10.0 extension supported by NVIDIA DirectX 10 GPU's. Since NVIDIA supports this in their hardware, we were pleased to be able to accelerate this feature. In the case of Far Cry 2, either option will work with similar performance.”

L'engine di FarCry 2 esegue letture dal multisampled depth buffer per velocizzare l'applicazione delle tecniche di antialiasing, adottando due strade differenti a seconda del tipo di GPU utilizzata. Per quelle ATI Radeon compatibili la base sono le API DirectX 10.1, mentre per quelle NVIDIA si utilizza  l'implementazione specifica nelle GPU NVIDIA via NVAPI; per queste ultime, quindi, è stato scritto del codice specifico che si interfaccia solo con queste tipologie di GPU.

Vi sono differenze qualitative e prestazionali tra le due implementazioni? Stando a quanto indicato da Ubisoft la risposta è negativa: i due approcci conducono allo stesso risultato qualitativo e soprattutto non sembrano sussistere vantaggi prestazionali in uno o nell'altro.

Aggiornamento: la notizia è stata in parte rivista meglio precisando come Ubisoft abbia implementato differenti tecniche di gestione del multisampled depth buffer nell'engine di Far Cry 2, a seconda del tipo di GPU installato. Un ringraziamento a Stefano per le informazioni a riguardo fornite.

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione.
Leggi la Privacy Policy per maggiori informazioni sulla gestione dei dati personali

96 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
halduemilauno23 Ottobre 2008, 12:21 #1
Bene.
Willy_Pinguino23 Ottobre 2008, 12:28 #2
come dire...

non ho l'acqua che bolle, ma se vieni a 2000 metri di altezza ti posso fare comunque la pasta...

solo a me pare che nvidia stia rimanendo un sacco indietro? magari a potenza bruta ha ancora dei vantaggi, ma come tecnologie sembra indietro, e non sembra sula strada del recupero...
ultimate_sayan23 Ottobre 2008, 12:30 #3
sequel di quel Far Cry che è stato negli scorsi anni un punto di riferimento quanto a potenzialità della grafica 3D oltre che banco di prova delle schede video top di gamma del tempo.


Condivido appieno questo frase... Far Cry è stato un punto di riferimento quanto a potenzialità, peccato che (IMHO) si siano dimenticati del fatto che doveva essere anche un gioco... personalmente l'ho trovato talmente noioso da abbandonarlo dopo un paio di livelli. Spero che questo seguito sia anche divertente oltre che bello.
MiKeLezZ23 Ottobre 2008, 12:32 #4
Originariamente inviato da: Willy_Pinguino
come dire...

non ho l'acqua che bolle, ma se vieni a 2000 metri di altezza ti posso fare comunque la pasta...

solo a me pare che nvidia stia rimanendo un sacco indietro? magari a potenza bruta ha ancora dei vantaggi, ma come tecnologie sembra indietro, e non sembra sula strada del recupero...
Indietro? Ha abilitato nuove feature su di un hardware legacy
Cose fantascientifiche
Originariamente inviato da: ultimate_sayan
Condivido appieno questo frase... Far Cry è stato un punto di riferimento quanto a potenzialità, peccato che (IMHO) si siano dimenticati del fatto che doveva essere anche un gioco... personalmente l'ho trovato talmente noioso da abbandonarlo dopo un paio di livelli. Spero che questo seguito sia anche divertente oltre che bello.
Impossibile se l'hai giocato nel 2004, appena uscito
gianni187923 Ottobre 2008, 12:36 #5
Originariamente inviato da: ultimate_sayan
Condivido appieno questo frase... Far Cry è stato un punto di riferimento quanto a potenzialità, peccato che (IMHO) si siano dimenticati del fatto che doveva essere anche un gioco... personalmente l'ho trovato talmente noioso da abbandonarlo dopo un paio di livelli. Spero che questo seguito sia anche divertente oltre che bello.


oddio noiso non so tanto, io mi sono divertito parecchio all'epoca


Il sacro unto non si dimentica mai
Mparlav23 Ottobre 2008, 12:37 #6
A me non sembra affatto indietro.
Solo il tempo dirà se ha fatto meglio Ati a supportare le Directx 10.1 e tralasciando Havok oppure Nvidia a saltarle puntando direttamente alle Directx11 e spingere da subito su Physics.

Semplicemente con questa generazione di schede, si è drasticamente ridotto il gap presente con R600 vs G80 e R670 vs G92.
E visto quanto si stanno scannando, auspico pure che RV870 e GT3xx, l'estate prossima, siano altrettanto vicini :-)
lucio6823 Ottobre 2008, 12:38 #7
Originariamente inviato da: ultimate_sayan
Condivido appieno questo frase... Far Cry è stato un punto di riferimento quanto a potenzialità, peccato che (IMHO) si siano dimenticati del fatto che doveva essere anche un gioco... personalmente l'ho trovato talmente noioso da abbandonarlo dopo un paio di livelli. Spero che questo seguito sia anche divertente oltre che bello.

Neanche io ne sono rimasto entusiasta, ma è una questione di gusti.
Più che altro fatico a capire il perché sia stato osannato tanto un prodotto che per la maggior parte degli utilizzatori di pc è si riduce a una sorta di slide-show di bellissime immagini che scorrono a velocità di 2 o 3 frames al secondo, a meno di rinunciare alle alte risoluzioni e ai filtri grafici (e quindi alla sua bellezza) o avere a disposizione diverse migliaia di euro per allestire una macchina sufficientemente potente da farlo girare fluido.
demon7723 Ottobre 2008, 12:51 #8
Originariamente inviato da: Willy_Pinguino
come dire...

non ho l'acqua che bolle, ma se vieni a 2000 metri di altezza ti posso fare comunque la pasta...

solo a me pare che nvidia stia rimanendo un sacco indietro? magari a potenza bruta ha ancora dei vantaggi, ma come tecnologie sembra indietro, e non sembra sula strada del recupero...


Ma direi proprio di no.. la battaglia tra nvidia e ati è sempre molto serrata!
Succede magari che nvidia vada a sviluppare di puù una determinata cosa piuttosto che un'altra e viceversa..

Esempio: se parliamo di CUDA nvidia è molto più avanti di ATI..
facip23 Ottobre 2008, 12:57 #9
Perchè si deve vedere del male dove c'è del bene ? Solo faziosità ?
Le GPU Nvidia ufficialmente non supportano DX 10.1 ma tante altre tecnologie compresa la gestione della fisica.
Oggi "scopriamo" che Nvidia pur non potendosi fregiare del supporto DX 10.1 ha implementato in hardware funzioni simili, o almeno quelle funzioni che ha ritenuto maggiormente interessanti. Quindi, per il momento, il primo titolo importante che supporta le DX 10.1 si può giocare con la massima qualità anche con le GPU Nvidia.

SinNiji23 Ottobre 2008, 12:58 #10
Domani lo vado a comprare, tecnologia o meno. Me ne frega davvero poco. Mi interessano i 50km cubici da esplorare, in tutta sincerità
BTW su un normale e6600 e una 8800 gt 2gb e vista home premium x32 andava una bellezza a 1440x900. Non mi pare di aver giocato ad uno SlideShow, ieri.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^