DirectX 10.1 e l'eterna sfida marketing

DirectX 10.1 e l'eterna sfida marketing

Si avvicina il lancio delle prime schede video con supporto alle API DirectX 10.1, non ancora disponibili sul mercato ma già importante veicolo marketing dei produttori di GPU

di pubblicata il , alle 09:54 nel canale Schede Video
 

In queste settimane, e ancor più ci possiamo attendere non appena le schede Radeon HD 3800 verranno ufficialmente presentate sul mercato, AMD ha acceso molte discussioni inerenti le API DirectX 10.1, il cui supporto verrà introdotto per la prima volta proprio dalla nuova generazione di schede video AMD di fascia medio alta.

Le API DirectX 10.1 rappresentano un upgrade delle specifiche DirectX 10, e non un cambiamento rivoluzionario: Microsoft ha da tempo preso l'abitudine di introdurre innovazioni nelle proprie API, come ad esempio quelle DirectX 9.0c, inserendo alcune nuove istruzioni ma non cambiando radicamente il modo con il quale le API interagiscono con il sistema operativo e con l'hardware grafico.

Le API DirectX 10.1 non sono al momento disponibili, e lo saranno solo con il debutto del Service Pack 1 di Windows Vista, atteso nel corso dei primi mesi del 2008: stiamo quindi parlando di una tecnologia che non è accessibile ora da parte di nessun giocatore, a prescindere dal supporto da parte dello specifico gioco. Al lancio sul mercato, quindi, le schede video ATI Radeon HD 3800 non potranno beneficiare del supporto a questo nuovo set di istruzioni esteso, gestendo quindi le API DirectX 10 al pari di qualsiasi altra architettura DX10 sia AMD che NVIDIA.

C'è inoltre da ricordare che il supporto di nuove istruzioni non ha implicazioni dirette nel momento in cui un games developer non ne preveda l'utilizzo all'interno dell'engine grafico del proprio gioco. E' possibile che molti sviluppatori decidano di restare allineati alle specifiche DirectX 10, sviluppando i propri titoli anche per architetture DirectX 9, senza necessariamente spingere verso l'utilizzo di istruzioni DirectX 10.1 che potrebbero almeno inizialmente venir utilizzate solo con un ristretto numero di schede in commercio.

Questa del resto è la posizione scelta da Crytek, che per voce del proprio CEO Cevat Yerli ha dichiarato:

“We pride ourselves on being the first to adopt any important new technology that can improve our games so you would expect us to get with DX10.1 right away but we’ve looked at it and there’s just nothing in it important enough to make it needed. So we have no plans to use it at all, not even in the future.”

La stessa Microsoft, del resto, ha almeno inzialmente aspettative limitate per le nuove API, così come affermato da Kevin Unangst, Sr. Global Director di Microsoft Games for Windows:

“DX10.1 is an incremental update that won’t affect any games or gamers in the near future.”

Le nuove API avranno interessanti ottimizzazioni specifiche per l'anti aliasing e per il supporto alla global illumination, funzionalità molto interessante per fornire una migliore resa dell'illuminazione degli oggetti. In particolare DirectX 10.1 permetterà di gestire modalità anti aliasing custom implementate via pixel shaders, utili in quelle situazioni nelle quali il tradizionale approccio anti aliasing di tipo multisample può avere problemi qualitativi, quando ad esempio viene abbinato a HDR e a tecniche di deferred shading.

NVIDIA ha ovviamente tutto l'interesse a non fornire supporto, quantomeno a livello marketing e PR, a promuovere l'adozione delle API DirectX 10.1 al momento attuale, e questo continuerà almeno sino a quando il produttore americano non presenterà la propria prossima generazione di architetture video, ovviamente dotate di supporto alle nuove API. D'altro canto, andando con la memoria al recente passato delle architetture video 3D quello che sta accadendo in queste settimane non è niente altro che un ricorso storico, a parti invertite.

Nella primavera del 2004, infatti, NVIDIA ha presentato le proprie schede video GeForce 6800, meglio note con il nome in codice di NV40, introducendo con queste per la prima volta il supporto allo Shader Model 3.0. Nello stesso periodo di tempo ATI ha presentato le schede video Radeon X800, architetture dotate di supporto allo Shader Model 2.0: in quella fase a fronte di una spinta marketing di NVIDIA verso lo Shader Model 3.0 ATI ha risposto affermando come quella tecnologia non sarebbe stata adottata dai games developer in modo massiccio prima del debutto della successiva generazione di schede video. La storia ha insegnato che in quella precisa occasione ATI ha avuto di fatto ragione, in quanto il supporto allo Shader Model 3.0 è stato massiccio da parte dei games developer solo a partire dal debutto della successiva generazione di GPU nel corso del 2005, nella forma delle schede GeForce 7 di NVIDIA e Radeon X1800 - X1900 di ATI.

Nelle prossime settimane il bombardamento mediatico tra favorevoli e contrari alle API DirectX 10.1 inizierà e ci attendiamo aspra battaglia PR tra NVIDIA e AMD su questo tema. Dal nostro punto di vista vediamo sempre in modo positivo qualsiasi innovazione tecnologica che possa migliorare il realismo delle scene 3D, ma ci sembra che da un lato il debutto nel 2008 di queste API, dall'altra la necessità per i games developer di adattarle ai propri engine grafici, non ne decreterà un'adozione massiccia e repentina da parte del mercato. O quantomeno quando questo avverrà avremo già a disposizione da tempo nuove generazioni di architetture video, capaci di potenze di elaborazione ben superiori a quelle attualmente in commercio.

80 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
APekos14 Novembre 2007, 10:00 #1
Anche perchè ora vengono implementati sulle schede video, nei primi mesi del 2008 verranno rilasciate su Vista...ma per i giochi? Almeno dopo l'estate 2008 (IMHO).
Sarà uscita una nuova generazione di schede sia da nvidia che da ati...no?
Pr|ckly14 Novembre 2007, 10:07 #2
Ma è vera la storia secondo cui con le Dx10.1 è previsto l'utilizzo obbligatorio dell'AA a 2X?
ecro14 Novembre 2007, 10:08 #3
sbaglio o alcuni giochi senza ps 3.0 manco partono?in quel caso anche se il ragionamento ati era giusto, la scelta di nvidia fu + lungimirante
jp7714 Novembre 2007, 10:08 #4
News molto diretta e chiara le Dx10.1 sono solo marketing quando verranno implementate nei games avremo ben altre schede rispetto a quelle oggi (o domani ) in commercio
MiKeLezZ14 Novembre 2007, 10:14 #5
Non mi aspettavo tale articolo!

Comunque è chiaro che se le prestazioni delle 38x0 saranno deludenti così come sembrano, le DX 10.1 saranno il leit-motiv che le accompagnerà, così come per i Phenom lo è l'architettura quad-core nativa... in entrambi i casi però l'utente accorto dovrebbe sapere che gli scenari reali non premiano tali virtuosismi, e guardare quindi aspetti più "sostanziosi".

Originariamente inviato da: Pr|ckly
Ma è vera la storia secondo cui con le Dx10.1 è previsto l'utilizzo obbligatorio dell'AA a 2X?
No, il gioco per essere DX 10.1 deve semplicemente avere internamente l'opzione per abilitare 4x AA (secondo modalità prestabilite dal white paper delle DX).
Percui la scheda DX 10.1 in questo casa basta che supporti tale 4x AA... e questo lo fanno già tutte :/
Originariamente inviato da: APekos
Anche perchè ora vengono implementati sulle schede video, nei primi mesi del 2008 verranno rilasciate su Vista...ma per i giochi? Almeno dopo l'estate 2008 (IMHO).
Sarà uscita una nuova generazione di schede sia da nvidia che da ati...no?
Sia G100 che R700 sono previsti da qui a 6-8 mesi, o se preferiamo, 2Q 2008... quindi, giusto.
Morlack`X14 Novembre 2007, 10:15 #6
Che bello... serviva proprio un upgrade delle directx 10... gioverà ai quei 4 o 5 giochi che le usano...
Ginger7914 Novembre 2007, 10:17 #7
Spero che questi chiarimenti servano a chiudere la bocca ad un po di gente su questo Forum. Inutile aspettare schede DX10.1 oggi come oggi... meglio puntare sulle prestazioni massime in DX10.

Il paragone con la storia verificatasi precedentemente, sebbene risulti l'unico spunto al quale aggrapparsi per argomentare, non mi trova molto concorde in quanto la differenza tra Shader 2.0 e 3.0 è sicuramente più marcata che non quella tra DX10 e 10.1. Poi la storia ci insegna anche che schede come la 6800Ultra possono ancora oggi essere utilizzate per far girare giochi del calibro di Bioshock risultanto tutt'altro che obsolete (e permettendo l'abilitazione di tutti gli effetti visivi) cosa che invece non accade con le X800 di Ati ... schede tecnologicamente inferiori al debutto che oggi non permettono di godere di effetti essenziali.

Nvidia fece bene a suo tempo con l'introduzione degli shader 3.0 (fattore che contribuì a decretare il successo delle 6800) e fa bene ora a non introdurre per forza le DX10.1 ... due scelte opposte ma azzeccate in entrambi i momenti storici.

Ati dal canto suo non può fare altrimenti... chi comprerebbe oggi una loro scheda se la stessa non avesse almeno qualche feature in più rispetto alla concorrenza?? Nessuno viste le prestazioni dimostrateci nell'ultimo anno e mezzo e quelle che ci dimostrerà con la sua nuova e fiammante gamma di X3850/70 che si preannuncia già sconfitta in partenza... (così come lo saranno i Phenomeni).
gioggio14 Novembre 2007, 10:18 #8
a rigore questo ragionamento sarebbe stato più che valido anche quando sono uscite le prime schede dx10... ma allora c'era da spingere vista...
gianni187914 Novembre 2007, 10:25 #9
Originariamente inviato da: MiKeLezZ

No, il gioco per essere DX 10.1 deve semplicemente avere internamente l'opzione per abilitare 4x AA (secondo modalità prestabilite dal white paper delle DX).
Percui la scheda DX 10.1 in questo casa basta che supporti tale 4x AA... e questo lo fanno già tutte :/

allora secondo il tuo ragionamento tutte le vga attuali sono dx10.1, se il gioco basta che lo abbi all'interno! in realtà non è così la gpu deve essere in grado di effettuare AA via Shaders, per una maggiore qualità visiva, cosa che attualmente Nvidia non ha nella sua archietettura, ecco perchè a breve se non rivoluziona G80/G92 non potrà farlo, al contrario già R600 era capace di farlo e con piccole modifiche è diventato anche DX10.1 compilant
Le nuove API avranno interessanti ottimizzazioni specifiche per l'anti aliasing e per il supporto alla global illumination, funzionalità molto interessante per fornire una migliore resa dell'illuminazione degli oggetti. In particolare DirectX 10.1 permetterà di gestire modalità anti aliasing custom implementate via pixel shaders, utili in quelle situazioni nelle quali il tradizionale approccio anti aliasing di tipo multisample può avere problemi qualitativi, quando ad esempio viene abbinato a HDR e a tecniche di deferred shading.


Ovviamente come sappiamo tutti R600 e derivati non è capace di gestire AA tradizionale in box, non si tratta di bug come si sosteneva ma di una scelta progettuale (sbagliata o giusta che sia). RV670 non si sa ancora nulla se hanno implementato AA tradizionale, ma dubito fortemente.

Anche da dire ovviamente che giochi in dx10.1 li vedremo tra un bel pò di tempo.
Ricky6814 Novembre 2007, 10:32 #10
Originariamente inviato da: Ginger79
Spero che questi chiarimenti servano a chiudere la bocca ad un po di gente su questo Forum. Inutile aspettare schede DX10.1 oggi come oggi... meglio puntare sulle prestazioni massime in DX10.

Il paragone con la storia verificatasi precedentemente, sebbene risulti l'unico spunto al quale aggrapparsi per argomentare, non mi trova molto concorde in quanto la differenza tra Shader 2.0 e 3.0 è sicuramente più marcata che non quella tra DX10 e 10.1. Poi la storia ci insegna anche che schede come la 6800Ultra possono ancora oggi essere utilizzate per far girare giochi del calibro di Bioshock risultanto tutt'altro che obsolete (e permettendo l'abilitazione di tutti gli effetti visivi) cosa che invece non accade con le X1800 di Ati ... schede tecnologicamente inferiori al debutto che oggi non permettono di godere di effetti essenziali.

Ati dal canto suo non può fare altrimenti... chi comprerebbe oggi una loro scheda se la stessa non avesse almeno qualche feature in più rispetto alla concorrenza?? Nessuno viste le prestazioni dimostrateci nell'ultimo anno e mezzo e quelle che ci dimostrerà con la sua nuova e fiammante gamma di X3850/70 che si preannuncia già sconfitta in partenza... (così come lo saranno i Phenomeni).


Mi sembri un FAN sfegatato della Nvidia. Scommetto che ne hai una.
Io con la mia X1800XT con COD4 e Bioshock gioco a 1280x1024 al max dei dettagli con filtri attivati.
Come mai tu dici che non è possibbbbbole?

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^