View Full Version : chi e quando supporteranno le diretx 10.1?
quando e quali saranno le s.v. che supporteranno nativamente le diretx 1.1??
per ora sicuramente le AMD/ATi con RV670 e R700 che usciranno a fine anno e in primavera/estate.
Se saranno confermate le anticipazioni circolate nell'ultimo mese, le nuove ATI HD3850/3870 in uscita il prossimo mese avranno il supporto alle DX10.1, che probabilmente saranno introdotte da m$ con il SP1 di Vista nei primi mesi del 2008
Lights_n_roses
21-10-2007, 11:51
quindi questo scarta di fatto la 8800 gt visto che non supporta 10.1 e cosa molto + importante gli shaler 4.1 cosa che invece fa rv670
Se sarà confermato quanto circolato finora, sì, la prossima 8800GT rimarrà ferma al supporto DX10 delle attuali GTX/GTS
appleroof
21-10-2007, 11:56
quindi questo scarta di fatto la 8800 gt visto che non supporta 10.1 e cosa molto + importante gli shaler 4.1 cosa che invece fa rv670
le dx10.1 apportano miglioramenti relativi (d'altra parte non si chiamano certo dx11 :D ) e nell'immediato (un anno da quello che si legge in giro) non faranno nemmeno la differenza nei giochi
Insomma per ora sembrano il classico specchietto per le allodole ;)
p.s.: fermo restando che possono essere utilizzate dalle schede attuali dx10
Beh, se guardiamo il nome, il cambiamento parrebbe essere maggiore di quello avvenuto tra le dx 9.0b e 9.0c, che sappiamo essere stato molto significativo (perchè i passaggio è stato da 9.0b a 9.0c e non a 9.1 in maniera simile a questa volta).
Sul sito M$, viene detto che le dx10.1 necessitano di hw che le supporti.
L'emulazione in sw in genere si rivela troppo dispendiosa per essere sfruttata realmente (oltretutto si parla di 3 nuove api nelle dx 10.1).
Naturalmente nei giochi attuali non ci sarà differenza, e probabilmente neanche nei giochi che usciranno a breve. Ma è un valore aggiunto che va valutato, vedi quanto successo all'ottima serie 8xx di ati che mancava del supporto dx9.0c.
appleroof
21-10-2007, 12:49
Beh, se guardiamo il nome, il cambiamento parrebbe essere maggiore di quello avvenuto tra le dx 9.0b e 9.0c, che sappiamo essere stato molto significativo (perchè i passaggio è stato da 9.0b a 9.0c e non a 9.1 in maniera simile a questa volta).
Sul sito M$, viene detto che le dx10.1 necessitano di hw che le supporti.
L'emulazione in sw in genere si rivela troppo dispendiosa per essere sfruttata realmente (oltretutto si parla di 3 nuove api nelle dx 10.1).
Naturalmente nei giochi attuali non ci sarà differenza, e probabilmente neanche nei giochi che usciranno a breve. Ma è un valore aggiunto che va valutato, vedi quanto successo all'ottima serie 8xx di ati che mancava del supporto dx9.0c.
allora le dx10.1 impongono il filtraggio bilineare e trilineare a fp32 che può essere fatto sia da G80 che R600, bisogna vedere con che impatto sulle prestazioni.
Il vero problema risiede nell'aa che non può essere fatto nelle rop's a 32fp nè da G80 nè da R600 (non sò in G92/RV6x0), allora deduco che dovrà essere fatto via shader anche qui credo con notevole impatto prestazionale (a meno di disabilitarlo, sempre se si può).
Quindi quello che cambia tra una vga dx10 e una dx10.1 è in definitiva la potenza necessaria (ricordo che G80 ha 128 shader unificati, quando la 7900gtx aveva 24 pipeline e 8 vertex!) a gestire il tutto via shader, ammesso e non concesso ripeto, che l'aa via shader non sia cmq disabilitabile.
Quando esce un gioco "full dx10.1"?
Guardando alla situazione attuale, solo Ati sta preparandosi a questa eventualità (pare, a meno di sorprese) per cui diciamo la metà di vga dx10 in giro sarebbe tagliata fuori, a meno di un massiccio upgrade di massa :p
Questo mi porta a considerare che prima che si diffondano giochi "full dx10.1" passerà almeno un annetto, e probabilmente per quella data le attuali vga (e prossime venture) saranno cmq incapaci di gestire al meglio e al max i giochi di quell'epoca (per analogia diciamo allo stesso modo in cui oggi una 6800ultra non gestisce al max un gioco dx9c).
Per cui per ora reputo il supporto alle dx10.1 più un proclama di marketing che un reale valore aggiunto.
Questo è quello che credo io, poi posso essere smentito ovvio ;)
Sicuramente hai in buona parte ragione.
Tornando al mio esempio, anche le X8xx di ati per un annetto non hanon avuto il problema delle dx9.0c, ma oggi sarebbero comunque schede con un certo mercato se non fosse per quel difetto.
Ci sono sicuramente utenti che terrebbero più a lungo la vga se problemi del genere non si presentassero.
Del resto dubito che vedremo presto giochi che non potranno girare su schede dx10 ma andranno su dx10.1, come è successo per i giochi dx9.0c.
E' però probabile che chi usa dx10 dovrà rinunciare a qualche effetto grafico, o sarà costretto ad emularlo con istruzioni più complesse con relativo calo di prestazioni (che poi, all'atto pratico, magari significherà una rinuncia, dato che per allora queste schede non saranno più al top).
Secondo me ati stavolta fa bene a muoversi in anticipo e a non rischiare di commettere lo stesso errore della serie X8xx, al di la di quelli che potrebbero comunque essere gli impatti a medio e breve termine di questa scelta.
http://www.pcpop.com/doc/App/216398/000555892.html
Ci sono le slides necessarie per capire cosa siano le DX10.1.
halduemilauno
21-10-2007, 19:00
Sicuramente hai in buona parte ragione.
Tornando al mio esempio, anche le X8xx di ati per un annetto non hanon avuto il problema delle dx9.0c, ma oggi sarebbero comunque schede con un certo mercato se non fosse per quel difetto.
Ci sono sicuramente utenti che terrebbero più a lungo la vga se problemi del genere non si presentassero.
Del resto dubito che vedremo presto giochi che non potranno girare su schede dx10 ma andranno su dx10.1, come è successo per i giochi dx9.0c.
E' però probabile che chi usa dx10 dovrà rinunciare a qualche effetto grafico, o sarà costretto ad emularlo con istruzioni più complesse con relativo calo di prestazioni (che poi, all'atto pratico, magari significherà una rinuncia, dato che per allora queste schede non saranno più al top).
Secondo me ati stavolta fa bene a muoversi in anticipo e a non rischiare di commettere lo stesso errore della serie X8xx, al di la di quelli che potrebbero comunque essere gli impatti a medio e breve termine di questa scelta.
quelle schede hanno un limite ben + grosso perchè non supportano gli shader 3. qui si tratta di shader da 4 a 4.1. quindi scenario diverso.
Credo che la diversità dello scenario la vedremo con l'uscita di queste dx10, o più probabilmente con lo sfruttamento delle loro innovazioni da parte dei giochi.
E' comunque possibile che il problema si più ridotto, mapotrebbe anche darsi che sm 4.1 portino innovazioni rilevanti rispetto a 4.0
Gabriyzf
22-10-2007, 10:06
ci sono giochi che partono solo se l'hardware supporta le dx9.0c sm3: i giochi dx 10.1 sm4.1 partiranno con hardware dx10 sm4?
halduemilauno
22-10-2007, 10:20
ci sono giochi che partono solo se l'hardware supporta le dx9.0c sm3: i giochi dx 10.1 sm4.1 partiranno con hardware dx10 sm4?
si certo. e ritorno sull'argomento una cosa è la differenza tra sm2 e sm3 che come si è visto si è rivelata determinante. e ben altra è la differenza tra sm4 e sm4.1.
;)
appleroof
22-10-2007, 10:25
quelle schede hanno un limite ben + grosso perchè non supportano gli shader 3. qui si tratta di shader da 4 a 4.1. quindi scenario diverso.
illuminante, direi....non ci avevo nemmeno pensato
Brightblade
22-10-2007, 10:54
Tanto, il giorno dopo l'uscita delle prime schede DX10.1 verranno annunciate le DX10.2 :read: :p
Edit. Anzi no, verranno annunciate il giorno stesso :D
davide155
22-10-2007, 11:39
http://www.pcpop.com/doc/App/216398/000555892.html
Ci sono le slides necessarie per capire cosa siano le DX10.1.
Ah ma quindi con le dx10.1 l'antialias sarà abilitato obbligatoriamente? :eek: :eek: :eek:
Questo ragazzi è il primo passo verso la grafica CG :O
Una 3870 non me la leva nessuno :O
Ah ma quindi con le dx10.1 l'antialias sarà abilitato obbligatoriamente? :eek: :eek: :eek:
Questo ragazzi è il primo passo verso la grafica CG :O
Una 3870 non me la leva nessuno :O
Sinceramente alcune cose non mi sono chiarissime... :stordita:
Servirebbe yoss o qualcun'altro del suo livello. :fagiano:
Non credo che servano giochi concepiti apposta per godere delle migliorie apportate dalle DX10.1. Penso che in generale una scheda DX10.1 potrebbe aver subito delle modifiche che consentano di godere di una migliore esperienza in DX10 (in termini di qualità dell'immagine e/o performances, questo non è ancora dato saperlo).
Un po' come accadde con le schede DX8.1 vs DX8.0.
Ars Tecnica in proposito dice:
Direct3D 10.1 will improve 3D rendering quality in a number of ways. Support for FP32 texture filtering is now required in hardware (D3D 10 requires only 16-bit), which will improve texture filtering when performing mipmapping or anisotropic filtering. Other image quality improvements in D3D 10.1 include 4x AA and two specific sample patterns. Again, in standard D3D 10, the number of provided anti-aliasing samples is optional. Direct 3D 10.1 compliance also requires that a video card support programmable shader output sample masks and MSAA depth readback. The new standard will support bitwise copying from uncompressed to block compressed texture formats, and is capable of compressing textures to BC/RGBE on the fly.
http://arstechnica.com/journals/microsoft.ars/2007/08/09/microsoft-releases-information-on-upcoming-dx10-1-update
davide155
22-10-2007, 11:57
Sinceramente alcune cose non mi sono chiarissime... :stordita:
Servirebbe yoss o qualcun'altro del suo livello. :fagiano:
Non credo che servano giochi concepiti apposta per godere delle migliorie apportate dalle DX10.1. Penso che in generale una scheda DX10.1 potrebbe aver subito delle modifiche che consentano di godere di una migliore esperienza in DX10 (in termini di qualità dell'immagine e/o performances, questo non è ancora dato saperlo).
Un po' come accadde con le schede DX8.1 vs DX8.0.
Ars Tecnica in proposito dice:
http://arstechnica.com/journals/microsoft.ars/2007/08/09/microsoft-releases-information-on-upcoming-dx10-1-update
Leggi i riquadri di questo link:
http://www.pcpop.com/doc/App/216398/000555892.html
What was once optional, now is required!!:
-Fp32 filtrering
-4x MSAA
Queste sono le due cose più importanti.
Qualità delle textures sempre alla massima qualità in FP32
E antialias sempre attivo al 4x.
Ovvio che saranno attivati obbligatoriamente una volta che attiviamo le dx10.1 nei giochi che le supporteranno.
Nei giochi dx10 non credo proprio che ciò accada.
Leggi i riquadri di questo link:
http://www.pcpop.com/doc/App/216398/000555892.html
What was once optional, now is required!!:
-Fp32 filtrering
-4x MSAA
Queste sono le due cose più importanti.
Qualità delle textures sempre alla massima qualità in FP32
E antialias sempre attivo al 4x.
Ovvio che saranno attivati obbligatoriamente una volta che attiviamo le dx10.1 nei giochi che le supporteranno.
Nei giochi dx10 non credo proprio che ciò accada.
Sinceramente io non interpreterei quello come sempre attivo, ma come richiesta obbligatoria, mentre nelle DX10 era opzionale (sia il FP32 filtering che il 4xMSAA).
Non saprei come interpretare il "4xMSAA required". Potrebbe essere la necessità di fare in un single cycle 4x MSAA. Cosa che già oggi mi pare G80 riesca a fare (almeno in quello ROP based), mentre R600 mi sa di no (servono 2 cicli di clock). In questo caso potrebbe esserci già un bel miglioramento nelle prestazioni con AA di RV670.
Ecco cosa diceva un paio di mesi fa Richard Huddy, head of AMD’s European Developer Relations team:
Microsoft has released a BETA SDK for its forthcoming API revision, DirectX 10.1, which includes Shader Model 4.1, and AMD claims this will help to make fairer benchmark comparisons between Nvidia and ATi cards.
Among Shader Model 4.1’s features is ‘The ability to select the MSAA sample pattern for a resource from a palette of patterns, and retrieve the corresponding sample positions,’ which has made AMD very excited indeed. Richard Huddy, head of AMD’s European Developer Relations team, told Custom PC that ‘the fact that 2x, 4x and 8x multi-sample anti-aliasing (MSAA) all have to be supported (and with exactly the same sampling patterns)’ would be a ‘big gain for consumers.’ Huddy claimed that this would ‘allow “exact” comparisons of images rendered with MSAA enabled, so that direct benchmark comparisons will now always be meaningful.’
Huddy said that the new API ‘eliminates one of the minor but annoying differences between different vendor's hardware,’ but also described the changed in some of Shader Model 4.1’s other graphical features. ‘The two most obvious changes to affect games programmers will be in the enhancement of the Vertex Shader,’ saids Huddy, ‘which is now allowed to export up to 32 elements instead of the previous maximum of just 16.’ Huddy said that this ‘will generally reduce the number of passes that hardware takes to render complex surfaces.’
As well as this, games that used deferred rendering, such as Ghost Recon: Advanced Warfighter, will be helped along by the ability to have individual blend modes per target when using multiple render targets. Huddy said that ‘AMD welcomes all of these changes and will be enthusiastic in its support of DirectX 10.1.’ He then cryptically added: ‘Expect timely announcements from us...’
As well as the addition of Shader Model 4.1, DirectX 10.1 also adds a replacement for DirectSound called XAudio2, which we’re currently investigating.
Fonte: CustomPC.co.uk (ma mi sa che la pagina è stata cancellata, io ho copiato la cache di Google)
Ho evidenziato una cosa che finora non era stata riportata: anche il Vertex Model subirà alcune modifiche.
ragazzi mi infilo in questa discussione. Volevo chiedervi dato che io ho una radeon hd2600 compatibile con dx10 sarà compatibile poi con le 10.1? :confused:
davide155
23-10-2007, 17:57
ragazzi mi infilo in questa discussione. Volevo chiedervi dato che io ho una radeon hd2600 compatibile con dx10 sarà compatibile poi con le 10.1? :confused:
No.....solo le 10
No.....solo le 10
:eek: e che sfiga! :cry:
appleroof
23-10-2007, 18:38
:eek: e che sfiga! :cry:
le dx10.1 girano su vga come la tua, probabilmente però per le loro caratteristiche appensantiscono talmente tanto il tutto da risutare ingestibili, diciamo.
Cmq prima che esca un gioco full dx10.1 ne passa acqua non mi preoccuperei se fossi in te ;)
le dx10.1 girano su vga come la tua, probabilmente però per le loro caratteristiche appensantiscono talmente tanto il tutto da risutare ingestibili, diciamo.
Cmq prima che esca un gioco full dx10.1 ne passa acqua non mi preoccuperei se fossi in te ;)
No, in realtà ho letto da qualche parte (se trovo il link lo posto) che in pratica se non hai hw compatibile le features DX10.1 non le puoi proprio attivare e/o vedere. ;)
P3pPoS83
23-10-2007, 20:57
No, in realtà ho letto da qualche parte (se trovo il link lo posto) che in pratica se non hai hw compatibile le features DX10.1 non le puoi proprio attivare e/o vedere. ;)
Ma non si potevano emulare via software le parti mancanti???
Bye:cool:
appleroof
23-10-2007, 21:27
No, in realtà ho letto da qualche parte (se trovo il link lo posto) che in pratica se non hai hw compatibile le features DX10.1 non le puoi proprio attivare e/o vedere. ;)
un utente di questo forum, che anche tu giustamente stimi molto, non è proprio di questo avviso e se lo dice lui.... ;)
Ma non si potevano emulare via software le parti mancanti???
Bye:cool:
Penso di no.
un utente di questo forum, che anche tu giustamente stimi molto, non è proprio di questo avviso e se lo dice lui.... ;)
yossarian dici? O Vifani? Boh, magari mi sbaglierò. Comunque per evitare quello che hai detto tu (cioè che un gioco con features DX10.1 vada più lento sulle DX10) i developers potrebbero scegliere di usare delle stringhe che escludono le features su hw non DX10.1. Almeno così mi pare di aver capito da quanto avevo letto tempo fa su un blog di un developer. :stordita:
Comunque, per quanti credono che le features DX10.1 siano lontane nel tempo, ascoltate attentamente cosa dice Cevat Yerli tra 1:50 e 2:10 di questa intervista... ;)
http://www.gametrailers.com/player/25036.html
P.S.: sono disponibile per translitterazione per chi non riuscisse a capire cosa dice (in effetti non parla un ottimo inglese :asd: )
davide155
23-10-2007, 22:37
Secondo me è come le precedenti versioni directx.
Se avevi l'hardware 8.0 e giravi un gioco che supportava le 8.1, quel 0.1 non lo ptevi vedere per via dell'accelerazione hardware. Quindi tolto automaticamente dall'applicazione.
davide155
23-10-2007, 22:38
Penso di no.
yossarian dici? O Vifani? Boh, magari mi sbaglierò. Comunque per evitare quello che hai detto tu (cioè che un gioco con features DX10.1 vada più lento sulle DX10) i developers potrebbero scegliere di usare delle stringhe che escludono le features su hw non DX10.1. Almeno così mi pare di aver capito da quanto avevo letto tempo fa su un blog di un developer. :stordita:
Comunque, per quanti credono che le features DX10.1 siano lontane nel tempo, ascoltate attentamente cosa dice Cevat Yerli tra 1:50 e 2:10 di questa intervista... ;)
http://www.gametrailers.com/player/25036.html
Infatti è come dici tu.
Come per l'accelerazione hardware del motore novodex di Ageia.
Se non hai la scheda ti disabilitano la fisica avanzata.
Stessa identica cosa ;)
L'attuale generazione è palesemente di transizione; GPU troppo potenti per le sole DX9 ma al contempo troppo deboli, nonché "sperimentali", per le nuove API. Dunque non c'è da stupirsi se con le DX10 c'è un rapporto tutt'altro che idilliaco, come ad esempio per l'appunto il mancato supporto alla versione 10.1 (uscita prima ancora che si vedesse un gioco che usi lo SM4).
No, in realtà ho letto da qualche parte (se trovo il link lo posto) che in pratica se non hai hw compatibile le features DX10.1 non le puoi proprio attivare e/o vedere. ;)
In che senso scusa? Ovviamente un engine che userà le DX10.1 potrà girare tranquillamente anche con le 10 e, probabilmente per ancora un bel pò di tempo, anche con le 9.
La scalabilità degli engine è un elemento imprescindibile per ogni gioco che voglia vendere più d'una copia.
In che senso scusa? Ovviamente un engine che userà le DX10.1 potrà girare tranquillamente anche con le 10 e, probabilmente per ancora un bel pò di tempo, anche con le 9.
La scalabilità degli engine è un elemento imprescindibile per ogni gioco che voglia vendere più d'una copia.
Nel senso che qualcuno diceva che gli effetti DX10.1 sarebbero stati visibili/attivabili pure su schede DX10 e basta. A quanto ho letto io no. :)
Sulle tempistiche necessarie per vedere i primi effetti DX10.1, risponde Cevat Yerli nel video che ho linkato. Dopo il lancio di Crysis uscirà una patch per attivare alcune features grafiche aggiuntive (tra cui lui cita ombre migliorate) che sono contemplate nelle DX10.1. ;)
Dunque i tempi sono meno di un anno. :)
appleroof
24-10-2007, 19:00
Nel senso che qualcuno diceva che gli effetti DX10.1 sarebbero stati visibili/attivabili pure su schede DX10 e basta. A quanto ho letto io no. :)
Sulle tempistiche necessarie per vedere i primi effetti DX10.1, risponde Cevat Yerli nel video che ho linkato. Dopo il lancio di Crysis uscirà una patch per attivare alcune features grafiche aggiuntive (tra cui lui cita ombre migliorate) che sono contemplate nelle DX10.1. ;)
Dunque i tempi sono meno di un anno. :)
a riguardo alle dx10.1 (proprio da crytek :) )
interview of the crysis (crytek) headhoncho.
GI: You were one of the big cheerleaders for DX10 from the outset, and there are all these discussions on the Internet now saying there’s this new version of DX10 that’s going to make existing DX10 hardware obsolete.
Yerli: It’s bulls***. It’s a misunderstanding and miscommunication. DX10.1 does not make DX10 obsolete, and it doesn’t make the hardware obsolete. 10.1 is the improvement on the API. Because DX10 was a little loose with the guidelines, 10.1 makes absolutely no compromises anymore. Microsoft made the spec to support the hardware manufacturers back then because of development times and SDK, so people could start developing for Vista. If a game absolutely requires 10.1, which no game will do because it would be economically a ridiculous call - if you were to make a DX10 only game, it would be 10 only, not 10.1. Otherwise, you’d rule out a whole generation of DX10 hardware.
:boh:
tra l'altro proprio Crysis è sponsorizzato da nvidia....;)
a riguardo alle dx10.1 (proprio da crytek :) )
interview of the crysis (crytek) headhoncho.
GI: You were one of the big cheerleaders for DX10 from the outset, and there are all these discussions on the Internet now saying there’s this new version of DX10 that’s going to make existing DX10 hardware obsolete.
Yerli: It’s bulls***. It’s a misunderstanding and miscommunication. DX10.1 does not make DX10 obsolete, and it doesn’t make the hardware obsolete. 10.1 is the improvement on the API. Because DX10 was a little loose with the guidelines, 10.1 makes absolutely no compromises anymore. Microsoft made the spec to support the hardware manufacturers back then because of development times and SDK, so people could start developing for Vista. If a game absolutely requires 10.1, which no game will do because it would be economically a ridiculous call - if you were to make a DX10 only game, it would be 10 only, not 10.1. Otherwise, you’d rule out a whole generation of DX10 hardware.
:boh:
Ovviamente nessun gioco sarà DX10.1 only (almeno per il momento), non avrebbe senso: anche perchè le differenze non sono enormi. Ma sicuramente piano piano alcuni giochi supporteranno anche qualche feature/effetto che potrai attivare solo se hai hardware compatibile.
Nel video che ho postato Yerli dice proprio questo: che hanno dovuto disattivare alcune features, tra cui un sistema particolare di ombre, supportate dalle DX10.1, e che rilascieranno una patch che le attiverà qualche mese dopo l'uscita di Crysis. ;)
Visto che è sponsorizzato da NVidia naturalmente la patch di cui sopra uscirà dopo il G100.
Altra conferma al fatto che non basta un semplice driver update per rendere DX10.1 una scheda:
Originally Posted by CJ
That's not possible afaik. nVidia needs to change their TMUs in order to support Gather4 (Fetch 4 in DX10.1) in their hardware. And that's something a driver update won't fix....
Fonte: B3D (http://forum.beyond3d.com/showpost.php?p=1080966&postcount=864)
:)
Nel senso che qualcuno diceva che gli effetti DX10.1 sarebbero stati visibili/attivabili pure su schede DX10 e basta. A quanto ho letto io no. :)
Ma questo è ovvio; ad esempio le GPU DX9.0a/b non possono usare effetti dello SM 3.0, esclusivi delle GPU nativamente 9.0c.
Però il dato importante è che, ovviamente, la scalabilità ci sarà comunque, dunque chi ha una delle attuali GPU non deve preoccuparsi. ;)
Ma questo è ovvio; ad esempio le GPU DX9.0a/b non possono usare effetti dello SM 3.0, esclusivi delle GPU nativamente 9.0c.
Però il dato importante è che, ovviamente, la scalabilità ci sarà comunque, dunque chi ha una delle attuali GPU non deve preoccuparsi. ;)
Ma infatti non ho mai detto che chi ha una DX10 dovrebbe preoccuparsi. :mano:
Ho ribadito solo che mi pareva impossibile che potessero girare effetti DX10.1 su una DX10 o che ancora peggio ci potesse essere un update via driver da DX10 a DX10.1. ;)
appleroof
25-10-2007, 10:37
qui si parla dell'aa introdotto in g80 e indirettamente di dx10.1, e non si menziona hw dedicato, anzi.
Così, NVIDIA introduce il CSAA che si basa su un nuovo algoritmo che utilizza in modo intelligente, le informazioni di copertura, evitando l'ingorgamento del bus di memoria dal moltiplicarsi dei campioni. NVIDIA indica che questa tecnologia permette l'utilizzo dell'AA 16x senza che le prestazioni ne risentano. In pratica, il CSAA agisce come un AA di tipo MSAA (quello cui si riferiscono le slide m$ in riferimento alle dx10.1 n.d.r.) la cui maschera di copertura è programmabile: solo alcune zone dell'immagine sono trattate dall'AA. Con le DirectX 10.1 i programmatori potranno predefinire le zone dell'immagine che dovranno essere più trattate.
Ma Lumenex non si ferma qui, poichè NVIDIA propone per la prima volta l'utilizzo congiunto dell'AA con gli effetti del rendering HDR, quest'ultimo migliorato e conforme alle specifiche OpenEXR con una precisione in virgola mobile a 32 bit per componente, ovvero un rendering HDR a 128 bit, mentre il GeForce 7 offriva una precisione in virgola mobile di 16 bit per componente.
In pratica fà indirettamente riferimento al discorso che faceva yossarian sul filtraggio bi/trilineare obbligatorio (nelle dx10.1) a 32bit e all'aa (in sostanza) via shader. Io sono convinto dunque che le dx10.1 possano essere gestite anche dai chip dx10 (R600 incluso), sicuramente con notevole impatto sulle prestazioni (vengono praticamente inutililizzate le rop's per l'aa). Non sappiamo (meglio: non so) ancora se questo tipo di filtraggio antialias sia escludibile o meno dal gioco (ma per renderlo scalabile credo proprio di si, dal momento in cui anche una scheda di fascia media o medio-bassa dx10.1 sarebbe costretta al filtraggio a 32bit e aa via shader!!!), per cui questo aspetto rimane per me diciamo sospeso, e non è un particolare trascurabile.
Dunque trarrei un paio di conclusioni: applauso a m$ per aver reso la situazione così ingarbugliata e poco chiara, con evidenti implicazioni sul mercato. G80 è sul mercato da un anno e come prima scheda dx10 (di passaggio) ha svolto e svolge alla grande il suo compito. R600 è uscito 6 mesi fà, se il discorso che le dx10.1 non sono assolutamente "retrocompatibili" fosse vero, sarebbe il più brutto affare della storia delle vga, per chi l'ha comprato al lancio (io mi incazzerei non poco, visto anche che adesso -ripeto solo 6 mesi dopo- Ati sbandiera il supporto alle dx10.1 con grande enfasi)
Non sappiamo ancora con certezza se le dx10.1 possono girare su vga dx10, io propendo per l'ultima e ho spiegato perchè (sia g80 che R600 secondo me possono gestire le dx10.1, sicuramente con forte impatto sulle prestazioni, ma possono farlo)
per le caratteristiche intrinseche (almeno quelle che ci è dato sapere) delle dx10.1, tutte le vga di quest'anno (nvidia-ati) secondo me non sono dotate a sufficienza per gestire al max e al meglio un gioco full dx10.1., se ne parla con G100/R700.
Per cui per ora il supporto alle dx10.1 IMHO è puro marketing, dal momento in cui quando uscirà un gioco full dx10.1, le attuali schede (tutte) molto probabilmente lo faranno girare si e no a 1024x768 se non a 800x600 (e non solo per le dx10.1 in sè ma anche per tutto il resto) :rolleyes:
Ho finito, vostro onore :D :D :sofico:
A me pare che sia stato oramai detto da più fonti che occorra HW de10.1 per gestire appieno dx10.1
Nella parte in grassetto c'è solo scritto che il sistema di nvidia è molto simile a quello delle dx10.1 a livello di funzionamento, ma non dice ne che è lo stesso, ne che l'uno possa sostituire l'altro, ne che anche potendo, questo assicuri alcuna compatibilità dx10.1
Per come la vedo io, e ovviamente potrei sbagliarmi, le dx10.1 sono solo un'altra evoluzione delle dx, come tante ce ne sono state in passato, che porteranno come in passato delle novità e, soprattutto in questo caso, vari paletti.
..CUT..
Guarda, tutto può essere, ma non c'è solo l'AA con le maschere programmabili nelle DX10.1. Vari siti (e anche le slide di agosto 2007 ufficiali, con cui si comunicavano le specifiche esatte delle DX10.1) dicono che l'hardware preesistente non le supporta (e lo implica pure Yerli in quella video-intervista), e quindi G92 doveva subire dei cambiamenti, mentre invece sembra solo che sia uno shrink G80 (con un numero diverso di SP attivi)+NVIO chip+VP2.
Inoltre, se G92 supportasse le DX10.1 (anche tramite un aggiornamento futuro), sta' sicuro che sulle scatole/materiale promozionale sarebbe scritto a caratteri cubitali, visto che non credo che alla NVidia si farebbero sfuggire un elemento di marketing di questo genere: c'è persino scritto bello grosso che sono PCI-Express 2, cosa che al 99% della gente non interessa per il momento, visto che credo esistano solo 3-4 modelli di MoBo con gli slot 2.0, non vedo perchè non dovrebbero scrivere DX10.1. ;)
appleroof
25-10-2007, 11:01
A me pare che sia stato oramai detto da più fonti che occorra HW de10.1 per gestire appieno dx10.1
Nella parte in grassetto c'è solo scritto che il sistema di nvidia è molto simile a quello delle dx10.1 a livello di funzionamento, ma non dice ne che è lo stesso, ne che l'uno possa sostituire l'altro, ne che anche potendo, questo assicuri alcuna compatibilità dx10.1
Per come la vedo io, e ovviamente potrei sbagliarmi, le dx10.1 sono solo un'altra evoluzione delle dx, come tante ce ne sono state in passato, che porteranno come in passato delle novità e, soprattutto in questo caso, vari paletti.
:mbe:
ma infatti non ho detto che li si affermava la compatibilità con le dx10.1 di g80, ma non dice nemmeno il contrario.
Per il resto ho scritto abbondantemente su come la penso, è ovvio che le dx10.1 siano solo un'evoluzione delle dx10 :stordita: , il problema è stabilire se possano essere gestite dagli attuali chip dx10 o no. Secondo me si, forse mi sbaglio, staremo a vedere, resta il fatto che secondo me nessuna scheda attuale o prossima ventura (che sbandieri o meno il supporto dx10.1) sarà in grado di gestire un gioco full dx10.1 al meglio e al max, quando uscirà un gioco full dx10.1.
Per me se ne riparla davvero con G100/R700
;)
appleroof
25-10-2007, 11:05
Guarda, tutto può essere, ma non c'è solo l'AA con le maschere programmabili nelle DX10.1. Vari siti (e anche le slide di agosto 2007 ufficiali, con cui si comunicavano le specifiche esatte delle DX10.1) dicono che l'hardware preesistente non le supporta (e lo implica pure Yerli in quella video-intervista), e quindi G92 doveva subire dei cambiamenti, mentre invece sembra solo che sia uno shrink G80 (con un numero diverso di SP attivi)+NVIO chip+VP2.
Inoltre, se G92 supportasse le DX10.1 (anche tramite un aggiornamento futuro), sta' sicuro che sulle scatole/materiale promozionale sarebbe scritto a caratteri cubitali, visto che non credo che alla NVidia si farebbero sfuggire un elemento di marketing di questo genere: c'è persino scritto bello grosso che sono PCI-Express 2, cosa che al 99% della gente non interessa per il momento, visto che credo esistano solo 3-4 modelli di MoBo con gli slot 2.0, non vedo perchè non dovrebbero scrivere DX10.1. ;)
hai centrato perfettamente il punto.
;)
hai centrato perfettamente il punto.
;)
Elemento di marketing o no, sta di fatto che su G80/G92 ed R600 non c'è ora e non ci sarà nemmeno dopo, perchè altrimenti, come ho già detto, lo avrebbero reso noto, soprattutto per quanto riguarda G92. ;)
Questa slide
http://img2.pcpop.com/ArticleImages/0x0/0/555/000555890.jpg
E questa porzione di http://www.next-gen.biz/index.php?option=com_content&task=view&id=6824&Itemid=2:
Even though DX10.1 will support current DX10 graphics hardware, today's DX10 hardware will not be able to support all of the features of DX10.1, which includes incremental improvements to 3D rendering quality.
mi pare chiariscano bene la situazione. Le DX10.1 non saranno nulla di trascendentale e/o che renderà obsolete le schede DX10 esistenti, ma comunque non tutte le features sono supportate dalle schede DX10 esistenti. ;)
Tra l'altro non è la prima volta che dopo solo un anno dalla presentazione di una nuova libreria grafica arriva un aggiornamento. Tra DX8.0 e DX8.1 fu lo stesso (Novembre 2000-Novembre 2001): anzi, a ben vedere, tra DX10 (fine Novembre 2006) e DX10.1 (data uscita SP1, cioè Q1 2008) intercorrerà più tempo. ;)
appleroof
25-10-2007, 12:08
....CUT...
vedremo :)
per il resto sarà molto molto interessante vedere come un rv670 (visto che ati per ora è l'unica che sbandiera il supporto alle dx10.1), per non parlare dei chip inferiori, gestirà un gioco full dx10.1.
Speriamo di non dover aspettare troppo, sennò si corre il rischio che rv670 e gli altri della nuova famiglia ati siano già belli che dimenticati....:(
;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.