View Full Version : NVIDIA risponde ad ATI, nessun ostruzionismo nei videogiochi
MiKeLezZ
02-10-2009, 12:49
Ma perchè i moderatori non mettono a tacere coloro che fanno disinformazione volontaria oppure ignorantistica, primo fra tutti Mikelezz? Voglio dire, non c'è un mod oppure admin che sappia la verissima verità sulla questione del deferred con hardware DX10 su UT3? "Incrediiiiiiiiiiiiiibbbbbbile"Hanno risposto gli sviluppatori del gioco stesso, e la parte chiamata in causa. Non credi queste persone sufficientemente competenti?
Però qua vedo si è instaurata una situazione del tutto particolare di offese, amicizie di potere, cospirazioni, e quant'altro
le risposte ci sono tutte; magari se ti prendi la briga di leggere i link..........
Ti reputi offeso? NOn è colpa mia se non sai come funziona un engine di tipo deferred e non conosci i limiti dell'HW DX9.
Andiamo per ordine:
memoria corta: hai dimostrato di averla; ti ho linkato una discussione in cui hai sollevato le stesse obiezioni alle quali ho esaurientemente risposto (dopo di che ti sei defilato)
ignoranza su alcuni aspetti fondamentali delle architetture: hai dimostrato di averla nel momento in cui affermi che l'UE3 non è compatibile con MSAA senza aggiungere su HW DX9. Poichè non parlaimo della serie 7 e di R5x0, evidentemente l'HW in questione è compatibile con la tecniche STANDARD per implementare il MSAA su engone di tipo deferred. Se tu non le conosci non è colpa mia :p
yossarian è come combattere contro i mulini a vento......vedremo che dice l'antitrust in merito e se dirà qualcosa, la parola di nvida e delle software house vale meno di 0 alla luce di mazzette che han ricevuto.....io spero che in questo senso amd-ati si dia una mossa e che denunci ongi tipo di concorrenza sleale avvenuta in questi anni....
yossarian
02-10-2009, 12:51
Yossarian mi ha offeso e non ha risposto a nessuno dei punti, anche perchè non vi è alcuna risposta da poter dare
Ha parlato per 9 pagine di cose tecniche non inerenti la questione, fra l'altro parzialmente smentite
Mi stupisco quindi alquando del tuo atteggiamento
le "cose" tecniche di sui ho parlato sono perfettamente attinenti all'argomento (stai dimostrando di non conoscere ciò di cui si sta parlando) e non sono state affatto smentite; a meno che, epr smentita, non intendi quella 4 cazzate in croce presenti sul comunicato di nVidia; affermazioni palesemente false in quanto le tecniche di render to texture e color buffer usato come z-buffer sono contenute nelle specifiche dx10 (sai di cosa sto parlando?) e il MRT su z-buffer in quelle delle dx10.1 e dx11 (vale la domanda fatta sopra)
byez :D
Hanno risposto gli sviluppatori del gioco stesso, e la parte chiamata in causa. Non credi queste persone sufficientemente competenti?
:sofico:
"Oste, com'è il vino?!"
yossarian
02-10-2009, 12:54
Hanno risposto gli sviluppatori del gioco stesso, e la parte chiamata in causa. Non credi queste persone sufficientemente competenti?
Però qua vedo si è instaurata una situazione del tutto particolare di offese, amicizie di potere, cospirazioni, e quant'altro
in quelle risposte non c'è una sola motivazione tecnica.
Prova a chiedere a qualcuno quale tecnoca è stata utilizzata per implementare il MSAA su chip nVidia; sentiemo la risposta e facciamoci 4 risate.
In quanto a te, vedi di smetterla di provocare e fare la vittima; non più tardi di una settimana fa, in una altro thread, mi hai dato del troll; ho soprasseduto perchè agli occhi di tutit è evidente la situazione. Però non approfittarne
Hanno risposto gli sviluppatori del gioco stesso, e la parte chiamata in causa. Non credi queste persone sufficientemente competenti?
Però qua vedo si è instaurata una situazione del tutto particolare di offese, amicizie di potere, cospirazioni, e quant'altro
E cosa dovrebbero dire secondo te? Li hanno sputtanati, e loro si arrampicano sugli specchi mentendo e sapendo di mentire. Che tu sia vittima delle loro menzogne? Può darsi... ma se è globalmente riconosciuto, riscontrabile in qualsiasi documentazione SCIENTIFICA, che l'AA è implementabile in maniera STANDARDIZZATA su qualsiasi hardware DX10 e superiore, e non su hardware DX9, tu come fai a continuare a credere a loro? Non è normale e neanche giustificabile la tua testardaggine in questo thread.
Sperando che tu non voglia un disegnino per capire, ti ripeto per l'ultima volta:
L'AA si implementa su QUALSIASI hardware DX10 o superiore, e se questo non avviene sulle schede di un marchio, vuol dire che l'implementazione è stata castrata per le suddette schede.
Entiendes hombre? :)
Ora basta però, la verità SI SA, tutto il resto è fuffa.
MiKeLezZ
02-10-2009, 13:03
le risposte ci sono tutte; magari se ti prendi la briga di leggere i link..........
Ti reputi offeso? NOn è colpa mia se non sai come funziona un engine di tipo deferred e non conosci i limiti dell'HW DX9.
Andiamo per ordine:
memoria corta: hai dimostrato di averla; ti ho linkato una discussione in cui hai sollevato le stesse obiezioni alle quali ho esaurientemente risposto (dopo di che ti sei defilato)
ignoranza su alcuni aspetti fondamentali delle architetture: hai dimostrato di averla nel momento in cui affermi che l'UE3 non è compatibile con MSAA senza aggiungere su HW DX9. Poichè non parlaimo della serie 7 e di R5x0, evidentemente l'HW in questione è compatibile con la tecniche STANDARD per implementare il MSAA su engone di tipo deferred. Se tu non le conosci non è colpa mia :pInfatti non lo è.
I Guerrilla hanno usato per implementare il MSAA su KillZone un workaround che è stato dettagliatamente spiegato nel PDF che ho linkato http://members.gamedev.net/skyork/pdfs/DeferredRenderinginKillzone.pdf e che sbugiarda tranquillamente la tua affermazione, che voglio riportare per i posteri:
l'UE3 è nato dx9 e come tale non supporterebbe il MSAA. Questo significa, udite bene, che, con una path dx9 non lo supporta e che i tecnici di nVidia, il mago otelma (pardon, il "divino otelma"), l'incredibile hulk, sbirulino e luke skywalker si possono sbattere quanto vogliono ma non avranno mai il MSAA su HARDWARE DX9.
La scheda della PS3 è UN HARDWARE DX9 quindi è del tutto falsa la tua affermazione. Il MSAA su HARDWARE DX9 e con Unreal Engine 3 + deferred shading è possibile. I Guerrilla l'hanno fatto. L'ignoranza di cui parli è presente anche in te.
Dopo di che mi defilo dalla discussione in quanto i moderatori raven e leoneazzurro sono tuoi amici personali, tant'è che ti è addirittura permesso offendermi e flammarmi, mentre io vengo da loro deriso, e ritengo di essermi preso già sufficienti sospensioni per non aver fatto nulla di che - e ogni volta discutiamo io sono casualmente la parte lesa.
Il miei reply rimangono a disposizione di chi abbia 2 minuti per leggerli, ti lascio la possibilità di inventarti il mare di giustificazioni che vuoi senza possibilità di replica. Non so però se l'altra volta hai ricevuto mail. Vedi te.
La storia è semplice, Batman stava uscendo senza AA e NVIDIA ce l'ha messo. Il supporto AA non è gratis nell' Unreal Engine 3 e anche una implementazione "standard" come piace definirla va messa come code path. Che poi NVIDIA l'abbia messo effettivamente sfruttando API DX10 e quindi sia sfruttabile anche dalle VGA ATI non conta nulla e non è certo il punto. La pappa pronta piace a tutti.
yossarian
02-10-2009, 13:07
Infatti non lo è.
I Guerrilla hanno usato per implementare il MSAA su KillZone un workaround che è stato dettagliatamente spiegato nel PDF che ho linkato e che sbugiarda tranquillamente la tua affermazione, che voglio riportare per i posteri:
La scheda della PS3 è UN HARDWARE DX9 quindi è del tutto falsa la tua affermazione. Il MSAA su HARDWARE DX9 e con Unreal Engine 3 + deferred shading è possibile. I Guerrilla l'hanno fatto. L'ignoranza di cui parli è presente anche in te.
Dopo di che mi defilo dalla discussione in quanto i moderatori raven e leoneazzurro sono tuoi amici personali e tuoi personali adepti, tant'è che ti è addirittura permesso offendermi e flammarmi, mentre io vengo da loro deriso, e ritengo di essermi preso già sufficienti sospensioni per non aver fatto nulla di che - e ogni volta discutiamo io vengo casualmente sospeso.
Il miei reply rimangono a disposizione di chi abbia 2 minuti per leggerli, ti lascio la possibilità di inventarti il mare di giustificazioni che vuoi, ma stai accorto.
La storia è semplice, Batman stava uscendo senza AA e NVIDIA ce l'ha messo. Il supporto AA non è gratis nell' Unreal Engine 3 e anche una implementazione "standard" come piace definirla va messa come code path. Che poi NVIDIA l'abbia messo effettivamente sfruttando API DX10 e quindi sia sfruttabile anche dalle VGA ATI non conta nulla e non è certo il punto.
l'AA di cui parli su PS non è MSAA box ma semplice blurring.
Il MSAA non è possibile su HW dx9 perchè non è possibile salvare le informazioni sulle geometrie contenute nello z-buffer che vengono "distrutte" dalle operazioni di HSR che in un engine deferred sono fatte prima del rendering. Il blurring non AA di tipo spaziale ma temporale, ovvero si prendono più frame successivi e si fa un'interpolazione; nell'AA spaziale si prendono più copie dello stesso frame e si fa un'interpolazione. Con HW DX9 è possibile la prima operazione ma non la seconda.
In BAA la porcata c'è stata perchè su HW nVidia hanno fatte semplicemnete un'operazione di inizializzazione di un color buffer come z-buffer, cosa possibile su tutti i chip dx10 o superiori. NIente di fantascientifico o di non standardizzato
EDIT letto il tuo link; si parla di quincunx, quindi non di msaa box. Quindi, fermo restando il blurring (che viene sempre applicato) c'è un tipo di aa non stardard, non applicato via rop's che non sposta di una virgola quanto detto sull'impossibilità di applicare msaa box con deferred engine.
c.v.d. non hai fatto che avvalorare quello che ho detto
MiKeLezZ
02-10-2009, 13:11
yossarian è come combattere contro i mulini a vento......vedremo che dice l'antitrust in merito e se dirà qualcosa, la parola di nvida e delle software house vale meno di 0 alla luce di mazzette che han ricevuto.....io spero che in questo senso amd-ati si dia una mossa e che denunci ongi tipo di concorrenza sleale avvenuta in questi anni....NVIDIA ha affermato non ha dato alcun denaro alle software house
Figuriamoci mazzette.
Certi discorsi sono passibili di querela
Così, lo dico tanto per...
Vedo che qua il buon senso è optional
NVIDIA ha affermato non ha dato alcun denaro alle software house
Figuriamoci mazzette.
Certi discorsi sono passibili di querela
Così, lo dico tanto per...
Vedo che qua il buon senso è optional
querelami allora, che ti devo dire.....saranno i tempi duri che passa la tua società che ti fanno dire certe indiscrezioni lol,
poi nvida scrive abbiamo lavorato duro per abilitare l'aa sull'ue3 ma non mi facciano ridere :sbonk:
Futura12
02-10-2009, 13:15
stramegaquoto mikelezz, la gente non capisce che per i programmatori eidos andava bene rilasciarlo senza AA e che la sua implementazione è data dal lavoro di nvidia, che ripeto non è una onlus
ma per favore...sei non sai che scrivere evita,che fai una figura migliore.
Allora GRAZIE NVIDIA. ma il gioco personalmente rimane sullo scaffale,non vedo perchè io che ho un nvidia dovrei essere privilegiato di un qualcosa che di base è in tutti i motori grafici,mentre se avevo una gpu ATI no....visto che cambio spesso fra ATI e NVIDIA non voglio favoritismi di alcun tipo.
Evangelion01
02-10-2009, 13:16
Certo che questa news sembra fatta apposta per generare flames... in compenso è interessante seguire la discussione, si imparano tante belle cosucce. :)
NVIDIA ha affermato non ha dato alcun denaro alle software house
Figuriamoci mazzette.
Certi discorsi sono passibili di querela
Così, lo dico tanto per...
Vedo che qua il buon senso è optional
3 anni fa avresti detto che Intel dava mazzette agli OEM purchè non usassero hardware AMD? No! Infatti, dopo che sono state fatte indagini, è venuta fuori la verità.
Nel caso in questione invece, è molto più facile e immediato capire e sentenziare chi siano i colpevoli... e perchè.
Evangelion01
02-10-2009, 13:19
NVIDIA ha affermato non ha dato alcun denaro alle software house
Figuriamoci mazzette.
Vabbè, e tu ci credi ciecamente? Saresti pronto a mettere la mano sul fuoco? E' vero che solitamente la teoria del complotto è quella che fa presa più facilemente, ma francamente una cosa del genere la trovo MOLTO plausibile, vista la situazione attuale del mercato. :fagiano:
Evangelion01
02-10-2009, 13:20
3 anni fa avresti detto che Intel dava mazzette agli OEM purchè non usassero hardware AMD? No! Infatti, dopo che sono state fatte indagini, è venuta fuori la verità.
Nel caso in questione invece, è molto più facile e immediato capire e sentenziare chi siano i colpevoli... e perchè.
Quoto.. non è la prima che succede, anzi... :rolleyes:
leoneazzurro
02-10-2009, 13:47
Dopo di che mi defilo dalla discussione in quanto i moderatori raven e leoneazzurro sono tuoi amici personali, tant'è che ti è addirittura permesso offendermi e flammarmi, mentre io vengo da loro deriso, e ritengo di essermi preso già sufficienti sospensioni per non aver fatto nulla di che - e ogni volta discutiamo io sono casualmente la parte lesa.
Il miei reply rimangono a disposizione di chi abbia 2 minuti per leggerli, ti lascio la possibilità di inventarti il mare di giustificazioni che vuoi senza possibilità di replica. Non so però se l'altra volta hai ricevuto mail. Vedi te.
Ho notato che che avendo finiti gli argomenti (se mai ne hai avuti) stai facendo anche del vittimismo inutile e fuori da ogni realtà.
Posto che io non ho mai deriso nessuno in questo thread nè in altri, e che i tuoi cosiddetti "argomenti" si smentiscono da soli (basterebbe capire quello che c'è scritto nel link di rage3D che hai messo tu stesso), e che l'unica sospensione di yossarian su questo forum l'ho emessa io, giusto per smentire le accuse di parzialità, passo a dire la mia.
Mikelezz, la tua presenza sul forum è stata costellata di flame vari, provvedimenti disciplinari e richiami in più di una occasione. Questo per la cronaca. Non perdi occasione per lanciarti in lunghe crociate a difesa "a prescindere" della tua marca favorita del momento, spesso irridendo gli altri utenti che non la pensano come te.
Ora, se sei in grado di avere discussioni equilibrate, cerca di farlo, perchè continuare su questa strada certo non ti porterà a rimanere a lungo ospite di questa comunità.
leoneazzurro
02-10-2009, 13:52
quante cazzate in un post solo.
E qui, perchè non cercare di mantenere i toni bassi? Il lavoro di moderatore già non è semplice di suo, perchè complicarlo ulteriormente?
fadeslayer
02-10-2009, 13:53
tutti bravi tutti belli, ma voi windows vista ce l'avete in tanti vero?
e anche lì, per caso non è che microsoft abbia CASTRATO volutamente le dx10 in modo che non funzionino su windows <= xp? come mai però non avete boicottato vista?
un po' di onestà e coerenza andrebbe conservata sempre.
Non difendo nè nvidia nè intel nè amd/ati (infatti ho sia il pc in firma che un nuovo fiammante (ancora da ultimare) e probabilmente all-amd/ati pc (phenom ii 550 be con mb 790gx), aspetto ora i prezzi della radeon 5xxx per scegliere la scheda video). Ho avuto sia ati che nvidia, sia intel che amd e non mi sono mai trovato male con alcuna.
Se la faccenda andrà in tribunale (e se c'è motivo valido, avverrà, come avvenuto x intel, altimenti no) verrà fatta chiarezza, qui possiamo sempre interpretare la cosa a nostro piacimento.
I vari yossarian & mikelezz che parlano di discorsi tecnici, mi piacerebbe che aveste partecipato allo sviluppo di Batman, magari semplicemente i programmatori di EIDOS sono un po' meno capaci della media e hanno chiesto LORO a nvidia di assisterli, in cambio fornendo esclusivo supporto al MSAA. Non mi stupirei della cosa.
In ogni caso il gioco x me resta nello scaffale, perchè non posso permettermi ogni gioco.
NESSUNO HA ASSISTITO NESSUNO...!!!!! NVIDIA HA SEMPLICEMENTO MESSO MANO ALLA TASCA, EIDOS HA ACCETTATO E' ADESSO NON C'E' PIU' AA PER LE VGA ATI!!!
TUTTO IL RESTO SONO CAZZATE DA FANATICI CHE MI AUGURO, NEL DIFENDERE L'INDIFENDIBILE, STIANO ALMENO PERCEPENDO QUALCOSA...
NESSUNO HA ASSISTITO NESSUNO...!!!!! NVIDIA HA SEMPLICEMENTO MESSO MANO ALLA TASCA, EIDOS HA ACCETTATO E' ADESSO NON C'E' PIU' AA PER LE VGA ATI!!!
TUTTO IL RESTO SONO CAZZATE DA FANATICI CHE MI AUGURO, NEL DIFENDERE L'INDIFENDIBILE, STIANO ALMENO PERCEPENDO QUALCOSA...
la prossima volta evita il caps-lock e usa un linguaggio più decente
ghiltanas
02-10-2009, 14:12
lo sbaglio di ati imho, è non alzare un mega polverone sull'argomento.Perchè nn s+++da la nvidia su questo punto? Come avrebbe fatto nvidia ad "implementare" :rolleyes: l'aa in batman?
NVIDIA ha ormai toccato il fondo
Già soltanto per quella robaccia di''meant to be played'' spiacciato all'avvio di ogni videogioco deve aver unto parecchio le tasche alle software house (quella è pubblicità, e la pubblicità si compra, checché ne dica la stessa NVIDIA).
Con Batman poi... spero che nessuno si azzardi a comprare un simile videogioco :D (sicuramente ben pochi che usano ATI lo faranno)
ghiltanas
02-10-2009, 15:39
NVIDIA ha ormai toccato il fondo
Già soltanto per quella robaccia di''meant to be played'' spiacciato all'avvio di ogni videogioco deve aver unto parecchio le tasche alle software house (quella è pubblicità, e la pubblicità si compra, checché ne dica la stessa NVIDIA).
Con Batman poi... spero che nessuno si azzardi a comprare un simile videogioco :D (sicuramente ben pochi che usano ATI lo faranno)
ma infatti sarebbe giusto nn visualizzare nessun logo all'avvio di un gioco,ne nvidia ne ati ne intel ne amd, il gioco è sviluppato per pc, e come tale deve girare su tutte le varie configurazioni hardware.
la prossima volta evita il caps-lock e usa un linguaggio più decente
Mod il caps-lock era voluto....:D
Possibile che su questo forum ci siano utenti pronti ad opinare su tutto..? Possibile che ci sia gente propensa a difendere un brand a prescindere da tutto o tutti ...? L'umanità mi rattrista sempre più... :(
Evangelion01
02-10-2009, 15:55
Mod il caps-lock era voluto....:D
Possibile che su questo forum ci siano utenti pronti ad opinare su tutto..? Possibile che ci sia gente propensa a difendere un brand a prescindere da tutto o tutti ...? L'umanità mi rattrista sempre più... :(
Ci sarebbero altre cose molto peggiori per cui rattristarsi... :rolleyes:
Mod il caps-lock era voluto....:D
Possibile che su questo forum ci siano utenti pronti ad opinare su tutto..? Possibile che ci sia gente propensa a difendere un brand a prescindere da tutto o tutti ...? L'umanità mi rattrista sempre più... :(
appunto
Ale55andr0
02-10-2009, 17:00
Ma se stà storia della concorrenza sleale fosse vera, non ci sarebbero gli estremi per interventi legali? :stordita:
psychok9
02-10-2009, 17:02
A questo punto andrebbe chiesto a nVidia quale tecnica "segreta/aliena/grigia", magari con qualche pre-accordo sul suo Copyright, ha usato per attivare l'impossibile AA :D :D :D
Ci sarebbe da morire dal ridere :D :D :D :ciapet:
@Ale55andr0
Direi di si, ma probabilmente già gli avvocati staranno valutando se il gioco vale la candela... e se c'è un danno "serio" economico (non ne ho idea). Di sicuro iniziative del genere vanno fermate prima possibile.
Talvolta è molto complicato dimostrare la realtà, e di fronte a menti abili nell'inganno la cosa ti si può ritorcere pure contro...
Ale55andr0
02-10-2009, 17:17
Beh, ma allora chi preferisce Ati e' fregato a prescindere :rolleyes:
Lo dico senza alcuna polemica, e assolutamente a mio personalissimo parere, ma a me la resa visiva delle nvidia, non mi esalta. In tutti i confronti che ho fatto, anche con vga Ati non recenti, si vedono meglio queste ultime ed è per questo che ultimamente ho acquistato solo Ati. Però se devo rimetterci a livello di compatibilità e mancanza di feature che potrebbero esser tranquillamente supportate dalla mia vga...
Una cosa però...Stalker clear sky è un gioco "nvidia the way is..." eppure ho l'opzione dx10.1 supportata solo da Ati, come si spiega la cosa?
leoneazzurro
02-10-2009, 17:22
Beh, ma allora chi preferisce Ati e' fregato a prescindere :rolleyes:
Lo dico senza alcuna polemica, e assolutamente a mio personalissimo parere, ma a me la resa visiva delle nvidia, non mi esalta. In tutti i confronti che ho fatto, anche con vga Ati non recenti, si vedono meglio queste ultime ed è per questo che ultimamente ho acquistato solo Ati. Però se devo rimetterci a livello di compatibilità e mancanza di feature che potrebbero esser tranquillamente supportate dalla mia vga...
Una cosa però...Stalker clear sky è un gioco "nvidia the way is..." eppure ho l'opzione dx10.1 supportata solo da Ati, come si spiega la cosa?
Perché a parte una manciata di GPU serie GT216 in giro non ci sono schede Nvidia DX10.1 ? Tutte le schede dalle 8800GTX alle GT295 supportano solo le DX10.
Comunque Stalker CS é un gioco in partnership ATI, giusto per informazione, ma la questione reale é quella descritta nella frase qui sopra.
MadJackal
02-10-2009, 17:22
l'AA di cui parli su PS non è MSAA box ma semplice blurring.
Il MSAA non è possibile su HW dx9 perchè non è possibile salvare le informazioni sulle geometrie contenute nello z-buffer che vengono "distrutte" dalle operazioni di HSR che in un engine deferred sono fatte prima del rendering. Il blurring non AA di tipo spaziale ma temporale, ovvero si prendono più frame successivi e si fa un'interpolazione; nell'AA spaziale si prendono più copie dello stesso frame e si fa un'interpolazione. Con HW DX9 è possibile la prima operazione ma non la seconda.
In BAA la porcata c'è stata perchè su HW nVidia hanno fatte semplicemnete un'operazione di inizializzazione di un color buffer come z-buffer, cosa possibile su tutti i chip dx10 o superiori. NIente di fantascientifico o di non standardizzato
EDIT letto il tuo link; si parla di quincunx, quindi non di msaa box. Quindi, fermo restando il blurring (che viene sempre applicato) c'è un tipo di aa non stardard, non applicato via rop's che non sposta di una virgola quanto detto sull'impossibilità di applicare msaa box con deferred engine.
c.v.d. non hai fatto che avvalorare quello che ho detto
Yossarian, ma in questo caso l'AA su B:AA non funziona nemmeno sulle schede DX9 di NVIDIA, o sbaglio? Solo sulle serie successive alla 8x00.
Ale55andr0
02-10-2009, 17:25
Perché a parte una manciata di GPU serie GT216 in giro non ci sono schede Nvidia DX10.1 ? Tutte le schede dalle 8800GTX alle GT295 supportano solo le DX10.
Comunque Stalker CS é un gioco in partnership ATI, giusto per informazione, ma la questione reale é quella descritta nella frase qui sopra.
:eek:
guarda che prima di scrivere ho avviato apposta clear sky e appare il simpaticissimo e nauseabondo (per quante volte ce lo sorbiamo :D ) logo nvidia the way is. Stavo appunto chiedendo com'è possibile che un gioco che si fregia del bollino verde :D supporta una tecnologia supportata da chi non ha pubblicizzato le proprie vga col proprio logo
MadJackal
02-10-2009, 17:30
:eek:
guarda che prima di scrivere ho avviato apposta clear sky e appare il simpaticissimo e nauseabondo (per quante volte ce lo sorbiamo :D ) logo nvidia the way is. Stavo appunto chiedendo com'è possibile che un gioco che si fregia del bollino verde :D supporta una tecnologia supportata da chi non ha pubblicizzato le proprie vga col proprio logo
Perchè le partnership con ATI sono leggermente diverse da quelle con NVIDIA :Prrr:
leoneazzurro
02-10-2009, 17:31
Perché anche se é poco noto, anche ATI collabora con gli sviluppatori. Non ha un programma capillare com il TWIMTBP, questo si.
http://game.amd.com/us-en/play_info.aspx?p=0&id=19
Il supporto DX10.1 é stato aggiunto con un apatch successiva all´uscita del gioco.
Ale55andr0
02-10-2009, 17:36
Certo che collabora con gli sviluppatori ;) se ben ricordo anche Mass Effect "è un gioco AMD/Ati" :)
ma ora con il link che mi hai mostrato (thanks ;)) hai stuzzicato ancor di più la mia curiosità in quanto all'avvio vedo il logo nVidia e non quello Ati. Anzi, in vita mia in un gioco non ricordo di averlo mai visto :D
leoneazzurro
02-10-2009, 17:43
Certo che collabora con gli sviluppatori ;) se ben ricordo anche Mass Effect "è un gioco AMD/Ati" :)
ma ora con il link che mi hai mostrato (thanks ;)) hai stuzzicato ancor di più la mia curiosità in quanto all'avvio vedo il logo nVidia e non quello Ati. Anzi, in vita mia in un gioco non ricordo di averlo mai visto :D
Demigod, se non erro.
Ale55andr0
02-10-2009, 18:09
Beh, IMHO facevano meglio a piazzarlo in un titolone come Mass Effect :sofico: sai che goduria :D
Ce l'aveva anche The Movies il logo ATI :sofico: .
Mentre, sulla scatola ma senza logo se non erro, ci sono, fra i giochi di successo dal 2005 a oggi (escludo HL2 e famiglia), Mass Effect e Guild Wars, ma sicuramente anche qualcun'altro... solo che spulciarmi tutte le custodie che ho non è attualmente fattibile per motivi di voglia/tempo :cry:
wolverine
02-10-2009, 20:40
NVIDIA ha affermato non ha dato alcun denaro alle software house
Figuriamoci mazzette.
Certi discorsi sono passibili di querela
Così, lo dico tanto per...
Vedo che qua il buon senso è optional
Mee che mazzette e mazzette, secondo ammia nvidia c'ha traggione ahh!
http://www.mymovies.it/cinemanews/2009/4929/brando.jpg
wolverine
02-10-2009, 20:46
Ce l'aveva anche The Movies il logo ATI :sofico: .
Mentre, sulla scatola ma senza logo se non erro, ci sono, fra i giochi di successo dal 2005 a oggi (escludo HL2 e famiglia), Mass Effect e Guild Wars, ma sicuramente anche qualcun'altro... solo che spulciarmi tutte le custodie che ho non è attualmente fattibile per motivi di voglia/tempo :cry:
Serious Sam 2 anche, se non erro. :)
capitan_crasy
02-10-2009, 20:56
Serious Sam 2 anche, se non erro. :)
Erri..
Seriuos Sam2 ha il logo Nvidia sulla confezione, ereditato dal distributore 2K games
yossarian
02-10-2009, 22:52
Yossarian, ma in questo caso l'AA su B:AA non funziona nemmeno sulle schede DX9 di NVIDIA, o sbaglio? Solo sulle serie successive alla 8x00.
sulle dx9 no; ma la serie 8xx0 è dx10 (la serie 7 è dx9 e non ha il MSAA, infatti)
NVIDIA ha affermato non ha dato alcun denaro alle software house
Figuriamoci mazzette.
Certi discorsi sono passibili di querela
Così, lo dico tanto per...
Vedo che qua il buon senso è optional
beh se lo dice nvidia allora !
:asd: :asd: :asd:
C'.a'.z'.aza
Bastoner
02-10-2009, 23:05
beh se lo dice nvidia allora !
:asd: :asd: :asd:
C'.a'.z'.aza
Osi mettere in dubbio i comunicati di Nvidia? Se avesse pagato la software house é ovvio che lo avrebbe dichiarato: "Abbiamo dato soldi in cambio di favori :O ".
Del resto Nvidia é famosa per dire seeeeeeeeeeeeeeeempre la verità.
Ad esempio: "La nostra GTS250 é più veloce della 5870" Ma anche no :asd:
Oppure: "Questo é un prototpo della nuova vga basata sulla nuova GPU Fermi" Ma anche no :asd:
Futura12
02-10-2009, 23:08
Perché anche se é poco noto, anche ATI collabora con gli sviluppatori. Non ha un programma capillare com il TWIMTBP, questo si.
http://game.amd.com/us-en/play_info.aspx?p=0&id=19
Il supporto DX10.1 é stato aggiunto con un apatch successiva all´uscita del gioco.
Al tempo in cui giocai a CS circa un anno fa ormai...avevo proprio una 4850 devo dire che seppur messe cosi su 2 piedi su un motore DX8....le 10.1 funzionavano a dovere e il filtro AA incideva pochissimo.
Spero in questo Call of Pripjat anche se ora ho cambiato scheda..e supporta solo DX10:doh: :D
K Reloaded
02-10-2009, 23:17
ragazzi com'è che nessuno mi ha segnalato questo thread? è semplicemente il migliore di tutta board!!! ROTFL!
Bastoner
02-10-2009, 23:31
ragazzi com'è che nessuno mi ha segnalato questo thread? è semplicemente il migliore di tutta board!!! ROTFL!
Vero eh? Supercomico! :rotfl:
Vero eh? Supercomico! :rotfl:
Vero :asd:
mi rotolavo quando erano 10 pagine che yossaran aveva spiegato che l'aa e' uno standard ( cosa ripetuta svariate volte dopo da vari utenti ) e qualcuno continuava a dire che era proprietario nvidia :asd:e che era giusto che ati non ne beneficiasse :asd: :asd:
C'a'.z.a'.za
Bastoner
02-10-2009, 23:53
Vero :asd:
mi rotolavo quando erano 10 pagine che yossaran aveva spiegato che l'aa e' uno standard ( cosa ripetuta svariate volte dopo da vari utenti ) e qualcuno continuava a dire che era proprietario nvidia :asd:e che era giusto che ati non ne beneficiasse :asd: :asd:
C'a'.z.a'.za
Se la guardi da un altro punto di vista la questione é molto triste. E' cosi potente il marketing? Possibile che riesca a fare un lavaggio del cervello simile? :(
Futura12
02-10-2009, 23:54
Vero :asd:
mi rotolavo quando erano 10 pagine che yossaran aveva spiegato che l'aa e' uno standard ( cosa ripetuta svariate volte dopo da vari utenti ) e qualcuno continuava a dire che era proprietario nvidia :asd:e che era giusto che ati non ne beneficiasse :asd: :asd:
C'a'.z.a'.za
Alcune volte mi viene da ridere con certe persone:asd: come si può definire il filtro AA proprietario di Nvidia??! ma quando mai,è vero hanno pagato Eidos ed è inutile che ci giriamo in torno per far decadere le prestazioni su Ati HD...e limitando anche il filtro AA...scometto che un buon programmatore editando la configurazione del motore grafico sia in grado di permettere tale filtro per TUTTE le schede:rolleyes:
g.luca86x
02-10-2009, 23:54
ragazzi com'è che nessuno mi ha segnalato questo thread? è semplicemente il migliore di tutta board!!! ROTFL!
quante ne fanno i messaggi subliminali, eh? :asd:
http://i35.tinypic.com/x0xshf.jpg
yvan eht nioj!!!!
quante ne fanno i messaggi subliminali, eh? :asd:
http://i35.tinypic.com/x0xshf.jpg
aidiVN eht nioj!!!!Corretto
Se la guardi da un altro punto di vista la questione é molto triste. E' cosi potente il marketing? Possibile che riesca a fare un lavaggio del cervello simile? :(
si hai voglia... ci sono fior fiori di psicologi che lavorano nel marketing...
C;,a;,z;,;,za
g.luca86x
03-10-2009, 00:07
Corretto
vero, più azzeccato! :sbonk: :rotfl:
Judicator
03-10-2009, 00:25
Pratica anticompetitiva non è solo "prendere mazzette", altrimenti Microsoft e Intel non avrebbero preso le multe che hanno preso. Ad esempio una delle ragioni per cui Microsoft ha preso multe è che "non forniva la necessaria documentazione" agli sviluppatori di terze parti per lavorare efficacemente con i sistemi operativi della casa di Redmond.
Ragazzi, questa è una strada pericolosa per il gioco su PC. A quando troveremo un publisher che disabilita il supporto DX11 alle schede Nvidia perchè a detta sua "è buggato" o che abilita la tessellazione su una singola scheda, o che "taglia" features grafiche a seconda dello sviluppatore e della sua partnership con l'una o con l'altra casa?
Poi siamo d'accordo che la responsabilità ce l'ha pure lo svilupppatore, ed infatti sarebbe il caso che queste "iniziative" venissero stigmatizzate proprio dagli sviluppatori stessi (anche se ai publisher fanno comodo).
Condivido lo spirito delle parole, dicevo qualcosa di simile in un altro post, e pensavo, per quanto possa essere mai ultile: perchè non scriviamo a publisher e sviluppatori che accettano questo tipo di "collaborazioni" e gli facciamo conoscere il nostro dissenso?
D'accordo che le mail finiranno nel cestino, ma almeno facciamo qualcosa, ci facciamo sentire.
Evangelion01
03-10-2009, 00:39
Condivido lo spirito delle parole, dicevo qualcosa di simile in un altro post, e pensavo, per quanto possa essere mai ultile: perchè non scriviamo a publisher e sviluppatori che accettano questo tipo di "collaborazioni" e gli facciamo conoscere il nostro dissenso?
D'accordo che le mail finiranno nel cestino, ma almeno facciamo qualcosa, ci facciamo sentire.
Come ben dici finerebbero cestinate... io conosco un metodo migliore per farci sentire : cestinare il loro gioco. :Prrr:
Ovvero, non comprarlo... vedrai come ci ripensano la prossima volta... che se li tocchi nel portafogli se ne accorgono subito. :Perfido:
Ed è quello che intendo fare col loro gioco. :fagiano:
Ricordiamoci che non si parla di beni primari... noi senza Batman sopravviviamo, loro senza i nosti soldi no. :asd:
Judicator
03-10-2009, 01:44
Come ben dici finerebbero cestinate... io conosco un metodo migliore per farci sentire : cestinare il loro gioco. :Prrr:
Ovvero, non comprarlo... vedrai come ci ripensano la prossima volta... che se li tocchi nel portafogli se ne accorgono subito. :Perfido:
Ed è quello che intendo fare col loro gioco. :fagiano:
Ricordiamoci che non si parla di beni primari... noi senza Batman sopravviviamo, loro senza i nosti soldi no. :asd:
E mi trovi d'accordo. Non so quanto sia legale proporre di boicottare un prodotto (ogni parere legale in merito è ben accetto).
Però penso pure che oltre che di portafogli siamo corredati pure di mente e un centianio di mail che ti arrivano ogni "collaborazione" che fai almeno un poco di fastidio te lo daranno, no? :D
Colpiamo pure la mente, mens sana in portafogli sano. :D
Ale55andr0
03-10-2009, 08:15
Ma nVidia non ha un suo forum?
Bastoner
03-10-2009, 08:17
quante ne fanno i messaggi subliminali, eh? :asd:
http://i35.tinypic.com/x0xshf.jpg
yvan eht nioj!!!!
Ma lol!!
MadJackal
03-10-2009, 09:04
sulle dx9 no; ma la serie 8xx0 è dx10 (la serie 7 è dx9 e non ha il MSAA, infatti)
Si scusa, errore mio ;)
sulle dx9 no; ma la serie 8xx0 è dx10 (la serie 7 è dx9 e non ha il MSAA, infatti)
Scusami toglimi una curiosità, mi spieghi con due righe di codice o magari rimandandomi a documentazione/tutorial ecc, come dall'interno di un un gioco DX9, che prevede quindi l'accesso a risorse hardware DX9 attraverso l'interfaccia IDirect3DDevice9, sia possibile accedere a risorse hardware DX10, che mi aspetto ma sicuramente mi sbaglio, siano accessibili esclusivamente attraverso l'interfaccia IDirect3DDevice10 ?
Mi spiego meglio, l'inizializzazione di una qualunque applicazione DX dovrebbe, il condizionale è d'obbligo in quanto non mi sono mai occupato di programmazione DX, consistere nella creazione di un device IDirect3DDevice9 se usero API DX9 e quindi le funzionalità DX9 della scheda grafica, oppure IDirect3DDevice10 se userò API DX10.
Poichè leggendo i tuoi post mi sembra d'aver capito che vista la natura dell'engine deferred, l'unico modo per usare l'MSAA box è fare un backup dei dati dello z-buffer su un altro buffer prima che venga cancellato, e questa è una caratteristica HW DX10, mi sono posto questo quesito.
Poichè dal modello ad oggetti delle DX l'uso di una versione particolare, sembra condizionata dal tipo di IDirect3DDevice inizializzato, quello che tu sostieni, ovvero usare caratteristiche HW DX10 in un contesto DX9, come si fa ? Traducendo in un linguaggio compresibile anche al sottoscritto, se ho un'istanza di IDirect3DDevice9, come posso accedere a risorse esposte attraverso IDirect3DDevice10 se non posso istanziare quest'ultimo ?
Forse durante l'inizializzazione posso crearmi sia una istanza di IDirect3DDevice9 che di IDirect3DDevice10, e quindi il gioco è fatto ?
Scusami toglimi una curiosità, mi spieghi con due righe di codice o magari rimandandomi a documentazione/tutorial ecc, come dall'interno di un un gioco DX9, che prevede quindi l'accesso a risorse hardware DX9 attraverso l'interfaccia IDirect3DDevice9, sia possibile accedere a risorse hardware DX10, che mi aspetto ma sicuramente mi sbaglio, siano accessibili esclusivamente attraverso l'interfaccia IDirect3DDevice10 ?
Mi spiego meglio, l'inizializzazione di una qualunque applicazione DX dovrebbe, il condizionale è d'obbligo in quanto non mi sono mai occupato di programmazione DX, consistere nella creazione di un device IDirect3DDevice9 se usero API DX9 e quindi le funzionalità DX9 della scheda grafica, oppure IDirect3DDevice10 se userò API DX10.
Poichè leggendo i tuoi post mi sembra d'aver capito che vista la natura dell'engine deferred, l'unico modo per usare l'MSAA box è fare un backup dei dati dello z-buffer su un altro buffer prima che venga cancellato, e questa è una caratteristica HW DX10, mi sono posto questo quesito.
Poichè dal modello ad oggetti delle DX l'uso di una versione particolare, sembra condizionata dal tipo di IDirect3DDevice inizializzato, quello che tu sostieni, ovvero usare caratteristiche HW DX10 in un contesto DX9, come si fa ? Traducendo in un linguaggio compresibile anche al sottoscritto, se ho un'istanza di IDirect3DDevice9, come posso accedere a risorse esposte attraverso IDirect3DDevice10 se non posso istanziare quest'ultimo ?
Forse durante l'inizializzazione posso crearmi sia una istanza di IDirect3DDevice9 che di IDirect3DDevice10, e quindi il gioco è fatto ?
Mirror's Edge...basato su Unreal Engine3 consente l'utilizzo dell'AA anche sulle architetture DX9...Yoss come lo implementa l'AA ..?Con il "meccanismo" sopra descritto?
TnX
TnX :)
Credo che sia così:
FSAA =! MSAA
yossarian
03-10-2009, 13:23
Scusami toglimi una curiosità, mi spieghi con due righe di codice o magari rimandandomi a documentazione/tutorial ecc, come dall'interno di un un gioco DX9, che prevede quindi l'accesso a risorse hardware DX9 attraverso l'interfaccia IDirect3DDevice9, sia possibile accedere a risorse hardware DX10, che mi aspetto ma sicuramente mi sbaglio, siano accessibili esclusivamente attraverso l'interfaccia IDirect3DDevice10 ?
Mi spiego meglio, l'inizializzazione di una qualunque applicazione DX dovrebbe, il condizionale è d'obbligo in quanto non mi sono mai occupato di programmazione DX, consistere nella creazione di un device IDirect3DDevice9 se usero API DX9 e quindi le funzionalità DX9 della scheda grafica, oppure IDirect3DDevice10 se userò API DX10.
Poichè leggendo i tuoi post mi sembra d'aver capito che vista la natura dell'engine deferred, l'unico modo per usare l'MSAA box è fare un backup dei dati dello z-buffer su un altro buffer prima che venga cancellato, e questa è una caratteristica HW DX10, mi sono posto questo quesito.
Poichè dal modello ad oggetti delle DX l'uso di una versione particolare, sembra condizionata dal tipo di IDirect3DDevice inizializzato, quello che tu sostieni, ovvero usare caratteristiche HW DX10 in un contesto DX9, come si fa ? Traducendo in un linguaggio compresibile anche al sottoscritto, se ho un'istanza di IDirect3DDevice9, come posso accedere a risorse esposte attraverso IDirect3DDevice10 se non posso istanziare quest'ultimo ?
Forse durante l'inizializzazione posso crearmi sia una istanza di IDirect3DDevice9 che di IDirect3DDevice10, e quindi il gioco è fatto ?
Mirror's Edge...basato su Unreal Engine3 consente l'utilizzo dell'AA anche sulle architetture DX9...Yoss come lo implementa l'AA ..?Con il "meccanismo" sopra descritto?
TnX
TnX :)
NOn sono un espeto di programmazione, per cui non credo di poterti rispondere in maniera sufficientemente esauriente. Quello che descrivi, ossia creare due difefrenti istanze con "chiamate" in dx9 o in dx10 a seconda dell'HW individuato, è un metodo (non so se sia il migliore, magari epr questo se passa di qui qualcuno tipo fek, potrebbe dare una risposta più appropriata).
Forse questa intervista ad uno degli sviluppatori di stalker può chiarirvi alcuni concetti
http://www.pcgameshardware.com/aid,646226/PCGH-Technical-Q-und-A-DirectX-10-in-STALKER-Clear-Sky/News/
in particolare in questo passo
X-Ray Engine supported different renderers, but DX9 abstraction level was integrated into the common part of the engine too deeply. We just had to split the existing code to be able to switch between renderers that rely on DX9 and renderers that use another API, DX10 for instance. This means that existing technology was left pretty the same, with some portions of code moving from one module to another, introducing only a really small interface part. We were lucky enough to have several renderers before!
per la cronaca, anche l'x-ray engine è di tipo deferred e in dx10 è implementabile il MSAA; qui trovate anche alcune spiegazioni e le differenze tra l'implementazione dx10 e la dx10.1, fatta dagli sviluppatori di stalker clear sky
http://66.39.106.217/conference/Tutorial%20Handouts/100_Advanced%20Visual%20Effects%20with%20Direct3D/100_Handout%202.pdf
yossarian
03-10-2009, 13:24
Credo che sia così:
FSAA =! MSAA
no, il FSAA non è applicato dalle rop's ma il resolve è fatto dallo shader core.
Nell'ultimo link che ho postato ci sono descritte le tecniche usate in clear sky per implementare il MSAA in dx10 e in dx10.1
Forse durante l'inizializzazione posso crearmi sia una istanza di IDirect3DDevice9 che di IDirect3DDevice10, e quindi il gioco è fatto ?
Una scheda video con implementazione dx 10, è anche dx 9, tuttavia è ovvio che non è vero il contrario.
Nel primo caso, che tu possa istanziare n oggetti che siano IDirect3DDevice9 o IDirect3DDevice10 credo sia fuori dubbio.... memoria permettendo.
Nei concetti del modello OOP per definire elaborazioni differenti si usa la seconda forma del polimorfismo e in binding dinamico (cioè a runtime), in pratica stabilire in tempo reale tramite un controllo se un metodo deve effettuare un elaborazione piuttosto che un'altra.
Prendiamo ad esempio il caso di Bioshock.
Il gioco di base è scritto per sfruttare le directx9 e di base RESTA dx9, tuttavia nella versione PC esclusivamente gli sviluppatori hanno inserito un'opzione per migliorare alcuni effetti avvantaggiandosi di HW+librerie dx 10 per chi avesse una scheda video abilitata a farlo.
Ora in questo scenario qui non è che il codice del gioco è stato di sana pianta scritto 2 volte una per dx9 e una per dx10!!! Assolutamente no.
Agli oggetti adibiti a creare gli effetti soggetti a miglioramenti dx 10 (luci,ombre,texture acquatiche, etc..). vengono semplicemente passati medesimi metodi ma a seconda dell'esito del controllo, per applicare gli effetti dx10 o no, avranno nel corpo istruzioni differenti, poiché la classe o l'interfaccia di appartenenza del dell'oggetto dell'effetto X (l'ombra ad esempio) è stata decisa in tempo reale, a runtime, cioè quando hai spuntato o meno quella casella che trovi nel menù opzioni di Biochock per gli effetti: se la abiliti l'oggetto per renderizzare l'ombra avrà un reference iniziale che so DirectXShadow10 altrimenti il reference DirectXShadow9. Queste 2 classi avranno metodi di uguale firma ma nel corpo differiranno in quanto è ovvio che mentre uno chiamerà roba avente a che fare le librerie dx10 l'altro roba di dx9.
IDirect3DShadow9 shadow = new IDirect3DShadow9()
IDirect3DShadow10 shadow = new IDirect3DShadow10()
shadow.render(BigDaddy)
Il nome dell'istanza è sempre quello, il nome del metodo render è sempre quello.
Render però se lo chiami con shadow di classe IDirect3DShadow9 solleverà roba specifica ad hw e librerie dx9 nell'altro caso roba di dx10
Il binding dinamico lo realizzi con un Case o un If discriminato dall'input dell'utente.
Eccoti un'ombra costruita sfruttando le dx9 o dx10 a seconda di quello che vuole l'utente.
Questo meccanismo è bello spiegato e chiaro e previsto se sono conosciuti i concetti di ereditarietà dell'OOP, altrimenti col cavolo che si riesce a digerire quello che sto dicendo e scusatemi per questo :(
Poichè dal modello ad oggetti delle DX l'uso di una versione particolare, sembra condizionata dal tipo di IDirect3DDevice inizializzato, quello che tu sostieni, ovvero usare caratteristiche HW DX10 in un contesto DX9, come si fa ? Traducendo in un linguaggio compresibile anche al sottoscritto, se ho un'istanza di IDirect3DDevice9, come posso accedere a risorse esposte attraverso IDirect3DDevice10 se non posso istanziare quest'ultimo ?
Tu ragiona differentemente invece, ci sono le DirectX, classe generica di riferimento, e poi le varie versioni di derivazione, costruisciti a mente l'ereditarietà e il modello gerarchico delle API.
Partendo dall'istanza di un oggetto padre di classe astratta DirectX e poter mischiare nell'ambiente roba che si avvale di dx9 o dx10 insieme.
Ad una scheda video non gliene frega proprio nulla di come è fatta l'insalata, importante che riesca a riprodurne gli ingredienti.
D'altronde le dx10 sono un aggiornamento alle dx9 nel framework, cioè il modello astratto da cui parte è il medesimo, comune anche alle dx8.
Cosa che mi pare non lo siano invece le dx11.
Fare un gioco in dx11 vorrebbe dire abbandonare le dx10 e precedenti.
Non sono un esperto di API dx qualcuno mi smentisca....
Se gli sviluppatori abbiano fatto proprio così non lo sapremo mai, il codice non è pubblico; questo che ho illustrato è un path abbastanza standard.
Poi nei dettagli, per conoscere come e quali devono essere le classi e le interfacce ad essere chiamate in ballo, dovrai leggerti la documentazione delle API directx o farti una ricerca per conto tuo, poiché non conosco il framework directx.
Ciao :)
(scusate... mi sento molto OT)
Per il resto penso che a parte di quante se ne siano dette a favore o contro Nvidia o Ati alla fine è Eidos che distribuisce il gioco, ed è quest'ultima che ne deve rispondere delle conseguenza della faccenda.
Un utente con scheda video Nvidia (che magari non sa neanche cosa diamine sia) e stessa situazione... un utente TIZIO (che ha comprato un PC non curandosi della marca della scheda video ma sapendo di aver dentro il case un prodotto discreto) con un'ATI ..... comprano entrambi lo stesso gioco e ALLO STESSO PREZZO ma vengono trattati in maniera differente come se i 50 euro dell'uno valessero di più dell'altro.
La partnership con Nvidia per Eidos è così importante che se si deve sacrificare la propria buona fede a scapito degli acquirenti che ben venga sìììììììì
BEN VENGA sìììì massììììììììì importante che TIZIO paghi a prezzo pieno il prodotto e che si renda conto che siccome l'anti aliasing con BAA con la propria scheda non va... gli venga la fantastica idea che la sua scheda è una ciofeca e corra a comprarsi quella dell'altra marca foraggiando la nostra partnership :D
Non ci sarebbe nulla di strano in questo, il mercato funziona così, ma c'è un dettaglio....
Il vero motivo per cui Tizio ha cambiato non l'ha ancora capito
Se veramente sta scheda Nvidia fa cose che le altre non fanno VOGLIAMO VEDERLE, no che spudoratamente mi spegnete l'AA come dei dilettanti :doh:
Poi quando tizio scopre che la sua ATI 4890 che ha cambiato era proprio specializzata nell'antialiasing (quello forte a 8x) come minimo si spara.
Forza della Killer Application dico io!!!
Quando Sony ai tempi d'oro stipulava accordi di esclusive con le SH era chiaro A TUTTI che se volevi giocare a final fantasy 2500 o tekken 936 dovevi comprarti la playstation perché mai e poi mai avresti visto quel titolo sulla tua console e non perché c'erano dei limiti tecnici nella tua..., ma perché sony aveva pagato fior fiore di quattrini per non iniziarne nemmeno lo sviluppo sulle altre piattaforme. Ve lo ricordate "solo su playstation"?
Se Eidos vuole che il suo BAA diventi una killer application esclusiva per schede Nvidia abbia perlomeno il coraggio di mettere sulla scatola del gioco "con le ATI il gioco è CASTRATO". Ah già Nvidia non avrebbe potuto colmare con le mazzette una simile perdita..... ma certoooooooo dio mio non ci riesce più neanche la Sony.... figuriamoci. FFXIII l'ultimo baluardo Sony è crollato ancor prima di essere pubblicato... si sa già della conversione xbox360.
Il titolone se andate sul sito del noto produttore di schede video è messo in vetrina come una perla e venduto in bundle a sottolineare l'eloquente il messaggio che Nvidia vuole dare nei confronti di BAA vuole infatti che diventi una KA e l'implementazione di physX non è bastata a far credere i consumatori che per giocarlo a dovere ci vogliono le nvidia.... dovevano fare un'altra porcata. :mc:
Sono arrivati a giocarsi persino la fiducia dei loro clienti, proprio quelli che gli comprano il gioco. Che si arrangino adesso!!! Insulti nei forum e minacce di pirateria sono SEMPRE da squalificare ma mai abbastanza quanto chi li innesca.
Voglio ricordare i problemi di Republic Commando.
Non essendo supportato nativamente il bump mapping dall'Unreal Engine 2 ed essendo il gioco "supportato" da NVidia, solo con quest'ultimo marchio si riesce a giocare con bump mapping attivato. Avendo una Ati non si può oltrepassare il menù del gioco che si viene rispediti al desktop e l'unico modo di giocare è andare a disattivare il bump mapping che di default è attivo.
Grandissimi ;)
Drakogian
03-10-2009, 23:27
Per il resto penso che a parte di quante se ne siano dette a favore o contro Nvidia o Ati alla fine è Eidos che distribuisce il gioco, ed è quest'ultima che ne deve rispondere delle conseguenza della faccenda.
... cut ...
Sono arrivati a giocarsi persino la fiducia dei loro clienti, proprio quelli che gli comprano il gioco. Che si arrangino adesso!!! Insulti nei forum e minacce di pirateria sono SEMPRE da squalificare ma mai abbastanza quanto chi li innesca.
Sono pienamente d'accordo con quanto hai scritto. Ho sottolineato i punti per me fondamentali nel tuo post.
Questo gioco se lo possono tenere.
l'UE3 è nato dx9 e come tale non supporterebbe il MSAA. Questo significa, udite bene, che, con una path dx9 non lo supporta e che i tecnici di nVidia, il mago otelma (pardon, il "divino otelma"), l'incredibile hulk, sbirulino e luke skywalker si possono sbattere quanto vogliono ma non avranno mai il MSAA su HARDWARE DX9.
Con l'HARDWARE DX10 le cose stanno diversamente, perchè ci sono due metodi STANDARD per implementare il MSAA con l'UE3 e con tutti gli altri engine che usano deferred rendering (standard, non nVidia mode).
Con l'HARDWARE DX10.1 E DX11 ce n'è un terzo, migliore degli altri 2 che fa andare le vga un 20-25% in più con MSAA 4x attivo. Questa modalità non è supportata da hardware dx10 o precedente (che non supporta neppure le altre).
Ma su HW Dx10 l'MSAA funziona solo se il gioco supporta tale path o funziona a prescindere dal path utilizzato?
Perchè nel caso di AC e Bioshock l'MSAA con schede Dx10 funzionava ma allo stesso tempo entrambi i giochi supportavano tale path, abilitabile dalle opzioni.
D'accordo che su HW Dx10 ci sono metodi standard per l'implementazione ma se il gioco, come nel caso di B:AA, non supporta tale path che succede?
yossarian
04-10-2009, 00:43
Ma su HW Dx10 l'MSAA funziona solo se il gioco supporta tale path o funziona a prescindere dal path utilizzato?
Perchè nel caso di AC e Bioshock l'MSAA con schede Dx10 funzionava ma allo stesso tempo entrambi i giochi supportavano tale path, abilitabile dalle opzioni.
D'accordo che su HW Dx10 ci sono metodi standard per l'implementazione ma se il gioco, come nel caso di B:AA, non supporta tale path che succede?
Qui si è creata una enorme confusione che il comunicato di nVidia (l'UE3 è dx9 e nativamente non supporta il MSAA) ha contribuito ad alimentare.
Chiariamo un punto: qualunque engine di tipo deferred, anche progettato con in mente le dx11, su hardware dx9 non permetterebbe l'attivazione del MSAA. Questo per limiti dell'HW su cui gira e non del motore grafico o del programma.
Chiarito questo punto, diciamo che il MSAA con deferred rendering funziona solo con path dx10 o superiore e, quindi, su HW DX10 o superiore. In BAA è possibile usare il MSAA su HW nVidia perchè è stata usata una path DX10 standard per HW DX10. In caso contrario, ovvero se, come sostiene o pensa qualcuno, il gioco girasse in DX9, non sarebbe possibile attivare il MSAA neppure sulle geforce
Qui si è creata una enorme confusione che il comunicato di nVidia (l'UE3 è dx9 e nativamente non supporta il MSAA) ha contribuito ad alimentare.
Chiariamo un punto: qualunque engine di tipo deferred, anche progettato con in mente le dx11, su hardware dx9 non permetterebbe l'attivazione del MSAA. Questo per limiti dell'HW su cui gira e non del motore grafico o del programma.
Chiarito questo punto, diciamo che il MSAA con deferred rendering funziona solo con path dx10 o superiore e, quindi, su HW DX10 o superiore. In BAA è possibile usare il MSAA su HW nVidia perchè è stata usata una path DX10 standard per HW DX10. In caso contrario, ovvero se, come sostiene o pensa qualcuno, il gioco girasse in DX9, non sarebbe possibile attivare il MSAA neppure sulle geforce
Quindi se io avessi ancora la 6800gt e giocassi a BAA non potrei attivare l'AA manco se pregassi in aramaico , no ?
:D
Cmlamzmlamlza
Quindi se io avessi ancora la 6800gt e giocassi a BAA non potrei attivare l'AA manco se pregassi in aramaico , no ?
:D
Cmlamzmlamlza
Con una 6800 ti dovresti preoccupare dell'AA? :D
Con quella scheda la mancanza di AA è una feature, mica una mancanza... :asd:
Quindi se io avessi ancora la 6800gt e giocassi a BAA non potrei attivare l'AA manco se pregassi in aramaico , no ?
:D
Cmlamzmlamlza
Esatto! A riprova di ciò se ti scarichi la demo dello stesso BAA sarai abilitato ad attivare l'MSAA solo se hai una nvidia fam. 8800 GT o superiore proprio per questo motivo perché deve essere almeno HW dx10 con supporto dunque a 2 dei 3 metodi per applicare l'MSAA al deferred rendering spiegati 8 mila volte da yossarian e seguaci :D
Altro che kickass feature!!! :Prrr:
----
Ma invece... dite a me dove abilito l'MSAA in Bioshock?? O già è applicato automaticamente?
Ecco appunto... meno male che ora non ho piu' la 6800gt ma la 4870 per cui posso godermi l'AA in BAA.... uhm... anzi no , grazie nvidia!
:asd:
C'.a'.z'.a'.za
Ma invece... dite a me dove abilito l'MSAA in Bioshock?? O già è applicato automaticamente?
Mi pare di ricordare che funzionava ma solo abilitando, nelle opzioni, la voce Dx10.
Poi lo si forzava esternamente tramite ATT o RivaTuner.
...
Ok, chiaro.
Grazie.
Ecco appunto... meno male che ora non ho piu' la 6800gt ma la 4870 per cui posso godermi l'AA in BAA.... uhm... anzi no , grazie nvidia!
:asd:
C'.a'.z'.a'.za
Se hai comprato il gioco, con la tua scheda che credimi non ti deve far rimpiangere nulla nemmeno l'AA di BAA, puoi propendere x adesso ad attivarlo dal Catalyst con un 2x e forse anche a 4x. Nonostante il filtro poi verrà inevitabilmente applicato all'intero scenario potresti ricevere delle gradite sorprese e forse qualche piccola soddisfazione senza drastici cali di prestazioni.
Io con la 4850 lo attivavo da lì a 2x e rimaneva a un fps abbastanza elevato, a 4x poi però precipitava. Se non ti scoccia puoi fare da lì e magari crei un profilo ad hoc.
Ad ogni modo se lo hai acquistato HAI DIRITTO a sollecitare gli sviluppatori a rilasciare la patch.
Mi pare di ricordare che funzionava ma solo abilitando, nelle opzioni, la voce Dx10.
Poi lo si forzava esternamente tramite ATT o RivaTuner.
Hmm quando ho tempo devo provare sono curioso delle prestazioni.
Presumo siano assai migliori della forzatura che si effettuava dal pannello di controllo in modalità dx9
Con quella lì oltre il 2x il gioco incominciava a perdere colpi con dettagli al max, almeno per me con la 4850 + 1280x1024
TenkiuuUUU :)
Se hai comprato il gioco, con la tua scheda che credimi non ti deve far rimpiangere nulla nemmeno l'AA di BAA, puoi propendere x adesso ad attivarlo dal Catalyst con un 2x e forse anche a 4x. Nonostante il filtro poi verrà inevitabilmente applicato all'intero scenario potresti ricevere delle gradite sorprese e forse qualche piccola soddisfazione senza drastici cali di prestazioni.
Io con la 4850 lo attivavo da lì a 2x e rimaneva a un fps abbastanza elevato, a 4x poi però precipitava. Se non ti scoccia puoi fare da lì e magari crei un profilo ad hoc.
Ad ogni modo se lo hai acquistato HAI DIRITTO a sollecitare gli sviluppatori a rilasciare la patch.
non ho ancora comprato il gioco.
raramente compro un gioco al dayone o comunque a prezzo pieno.
deve essere proprio un giocone ( tipo il futuro diablo 3 che ho in preo-order su play. )
credo che comprero' BAA a due condizioni :
1) che sistemino il "problemino" con le Ati
2) che il prezzo scenda a 15 neuri max
non ho fretta io :D
Cmlamlzlamlza
Una scheda video con implementazione dx 10, è anche dx 9, tuttavia è ovvio che non è vero il contrario.
Nel primo caso, che tu possa istanziare n oggetti che siano IDirect3DDevice9 o IDirect3DDevice10 credo sia fuori dubbio.... memoria permettendo.
Nei concetti del modello OOP per definire elaborazioni differenti si usa la seconda forma del polimorfismo e in binding dinamico (cioè a runtime), in pratica stabilire in tempo reale tramite un controllo se un metodo deve effettuare un elaborazione piuttosto che un'altra.
Prendiamo ad esempio il caso di Bioshock.
Il gioco di base è scritto per sfruttare le directx9 e di base RESTA dx9, tuttavia nella versione PC esclusivamente gli sviluppatori hanno inserito un'opzione per migliorare alcuni effetti avvantaggiandosi di HW+librerie dx 10 per chi avesse una scheda video abilitata a farlo.
Ora in questo scenario qui non è che il codice del gioco è stato di sana pianta scritto 2 volte una per dx9 e una per dx10!!! Assolutamente no.
Agli oggetti adibiti a creare gli effetti soggetti a miglioramenti dx 10 (luci,ombre,texture acquatiche, etc..). vengono semplicemente passati medesimi metodi ma a seconda dell'esito del controllo, per applicare gli effetti dx10 o no, avranno nel corpo istruzioni differenti, poiché la classe o l'interfaccia di appartenenza del dell'oggetto dell'effetto X (l'ombra ad esempio) è stata decisa in tempo reale, a runtime, cioè quando hai spuntato o meno quella casella che trovi nel menù opzioni di Biochock per gli effetti: se la abiliti l'oggetto per renderizzare l'ombra avrà un reference iniziale che so DirectXShadow10 altrimenti il reference DirectXShadow9. Queste 2 classi avranno metodi di uguale firma ma nel corpo differiranno in quanto è ovvio che mentre uno chiamerà roba avente a che fare le librerie dx10 l'altro roba di dx9.
IDirect3DShadow9 shadow = new IDirect3DShadow9()
IDirect3DShadow10 shadow = new IDirect3DShadow10()
shadow.render(BigDaddy)
Il nome dell'istanza è sempre quello, il nome del metodo render è sempre quello.
Render però se lo chiami con shadow di classe IDirect3DShadow9 solleverà roba specifica ad hw e librerie dx9 nell'altro caso roba di dx10
Il binding dinamico lo realizzi con un Case o un If discriminato dall'input dell'utente.
Eccoti un'ombra costruita sfruttando le dx9 o dx10 a seconda di quello che vuole l'utente.
Questo meccanismo è bello spiegato e chiaro e previsto se sono conosciuti i concetti di ereditarietà dell'OOP, altrimenti col cavolo che si riesce a digerire quello che sto dicendo e scusatemi per questo :(
E' chiarissimeo quello che stai dicendo, ma la cosa è possibile se IDirect3DShadow9 e IDirect3DShadow10 implementanto/estendono la stessa interfaccia e quell'interfaccia contiene il metodo render, senno col cavolo che il compilatore digerisce quello che dici, a meno di ricorrere alla reflection, tecnica ben più elegante per istanziare a runtime oggetti di cui si conosce l'interfaccia, evitando i più rozzi if case, e quant'altro
Tu ragiona differentemente invece, ci sono le DirectX, classe generica di riferimento, e poi le varie versioni di derivazione, costruisciti a mente l'ereditarietà e il modello gerarchico delle API.
Partendo dall'istanza di un oggetto padre di classe astratta DirectX e poter mischiare nell'ambiente roba che si avvale di dx9 o dx10 insieme.
Ma tu l'hai guardata la documentazione su MSDN ? Io si, e mi sarei aspettato che IDirect3DDevice9 e IDirect3DDevice10 estendessero chessò, una generica IDirect3DDevice, ma non è così.
http://msdn.microsoft.com/en-us/library/ee421650(VS.85).aspx
http://msdn.microsoft.com/en-us/library/ee418718(VS.85).aspx
Qui si è creata una enorme confusione che il comunicato di nVidia (l'UE3 è dx9 e nativamente non supporta il MSAA) ha contribuito ad alimentare.
Chiariamo un punto: qualunque engine di tipo deferred, anche progettato con in mente le dx11, su hardware dx9 non permetterebbe l'attivazione del MSAA. Questo per limiti dell'HW su cui gira e non del motore grafico o del programma.
Chiarito questo punto, diciamo che il MSAA con deferred rendering funziona solo con path dx10 o superiore e, quindi, su HW DX10 o superiore. In BAA è possibile usare il MSAA su HW nVidia perchè è stata usata una path DX10 standard per HW DX10. In caso contrario, ovvero se, come sostiene o pensa qualcuno, il gioco girasse in DX9, non sarebbe possibile attivare il MSAA neppure sulle geforce
Presumo che ti riferisca al sottoscritto, il quale sostiene pensa e afferma, ciò che prima verifica.
E il fatto che la demo del gioco vada in DX9, glielo ha detto niente meno che l'osd di evga precision.
Edit:
Qualche screen shot della demo con l'OSD di evga precision
http://www.pctunerup.com/up/results/_200910/th_20091004113302_ShippingPC-BmGame_2009_10_04_11_29_20.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091004113302_ShippingPC-BmGame_2009_10_04_11_29_20.jpg)
http://www.pctunerup.com/up/results/_200910/th_20091004113439_ShippingPC-BmGame_2009_10_04_11_30_03.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091004113439_ShippingPC-BmGame_2009_10_04_11_30_03.jpg)
Onymusha
04-10-2009, 10:06
non ho ancora capito bene come funziona la vostra mente :D
Magari è vero che Nvidia fa mafia però........una persona normale quando viene a sapere che i prodotti vanno meglio da una parte e non vanno dall'altra, un comportamento razionale tenderebbe a preferire la parte buona, mentre invece quì.......quando TI STAN DICENDO PALESEMENTE CHE I GIOCHI SU NVIDIA FUNZIONANO E SU ATI NO, la risposta è stata questa : " e ma allora passo ad ATi ".
LOL :D
MAFIA o no che importa ? tutti i giochi sono ottimizzati Nvidia, chi ha la posizione dominante comanda con ogni mezzo, sta mafia c'è sempre stata, conta il risultato. Tu puoi dire : " è colpa dei programmatori " ma alla fine non è che se lo dici le cose cambiano, per un motivo o per l'altro una va meglio e l'altra cola a picco, non centra il motivo.
Ci potranno essere giochi pro Nvidia, ma non ci saranno mai giochi pro ATI, al massimo giochi che vanno solo su Nvidia ma giochi che vanno solo su ATI è un po' impossibile visto che non ha manco la grana per collaborare con le sh :D
non ho ancora capito bene come funziona la vostra mente :D
Magari è vero che Nvidia fa mafia però........una persona normale quando viene a sapere che i prodotti vanno meglio da una parte e non vanno dall'altra, un comportamento razionale tenderebbe a preferire la parte buona, mentre invece quì.......quando TI STAN DICENDO PALESEMENTE CHE I GIOCHI SU NVIDIA FUNZIONANO E SU ATI NO, la risposta è stata questa : " e ma allora passo ad ATi ".
LOL :D
MAFIA o no che importa ? tutti i giochi sono ottimizzati Nvidia, chi ha la posizione dominante comanda con ogni mezzo, sta mafia c'è sempre stata, conta il risultato. Tu puoi dire : " è colpa dei programmatori " ma alla fine non è che se lo dici le cose cambiano, per un motivo o per l'altro una va meglio e l'altra cola a picco, non centra il motivo.
Ci potranno essere giochi pro Nvidia, ma non ci saranno mai giochi pro ATI, al massimo giochi che vanno solo su Nvidia ma giochi che vanno solo su ATI è un po' impossibile visto che non ha manco la grana per collaborare con le sh :DIn quanti ragionano così, anche al di fuori dall'ambito gaming e guarda come siamo ridotti :rolleyes:
g.luca86x
04-10-2009, 11:10
non ho ancora capito bene come funziona la vostra mente :D
Magari è vero che Nvidia fa mafia però........una persona normale quando viene a sapere che i prodotti vanno meglio da una parte e non vanno dall'altra, un comportamento razionale tenderebbe a preferire la parte buona, mentre invece quì.......quando TI STAN DICENDO PALESEMENTE CHE I GIOCHI SU NVIDIA FUNZIONANO E SU ATI NO, la risposta è stata questa : " e ma allora passo ad ATi ".
bisogna capire cosa intendi per parte buona! Io ad esempio, dopo che è venuto fuori il casotto combinato da intel che è arrivata a pagare i distributori per non trattare prodotti amd ho scelto la parte buona, cioè amd anche se intel fa prodotti stratosferici non me ne frega nulla perchè so da dove sono arrivati i soldi per fare la ricerca per quei prodotti e non avendo esigenze professionali ma solo da videogiocatore e poca altra roba io sono a posto. Riguardo le schede video da quando ho visto il primo gioco con il logo nvidia (e l'infinita serie che è venuta dopo) ho capito che si doveva stare con ati. Io sono nato e cresciuto in calabria e mi è stato insegnato che piuttosto che acquistare nei negozi della mafia meglio farsi 50km, invece che sovvenzionare il malaffare. Qui non è a questi livelli ma quasi perciò fin quando nella competizione del mercato non ci sarà un pò di lealtà e onore, invece della prostituzione al denaro, evito come la peste quelli che taglieggiano e quelli che gli reggono il gioco!
yossarian
04-10-2009, 11:49
Presumo che ti riferisca al sottoscritto, il quale sostiene pensa e afferma, ciò che prima verifica.
E il fatto che la demo del gioco vada in DX9, glielo ha detto niente meno che l'osd di evga precision.
Edit:
Qualche screen shot della demo con l'OSD di evga precision
http://www.pctunerup.com/up/results/_200910/th_20091004113302_ShippingPC-BmGame_2009_10_04_11_29_20.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091004113302_ShippingPC-BmGame_2009_10_04_11_29_20.jpg)
http://www.pctunerup.com/up/results/_200910/th_20091004113439_ShippingPC-BmGame_2009_10_04_11_30_03.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091004113439_ShippingPC-BmGame_2009_10_04_11_30_03.jpg)
non mi riferivo a te o, almeno, non in particolare e ripeto quanto ho detto in dx9 non c'è alcun modo per implementare il MSAA se non ricorrendo a trick che utilizzino uno dei due metodi presenti nelle specifiche dx10. Quindi nessuna implementazione di tipo custom nVidia only. Insomma, se non fai almeno render to texture il MSAA te lo scordi. :D
E' chiarissimeo quello che stai dicendo, ma la cosa è possibile se IDirect3DShadow9 e IDirect3DShadow10 implementanto/estendono la stessa interfaccia e quell'interfaccia contiene il metodo render, senno col cavolo che il compilatore digerisce quello che dici, a meno di ricorrere alla reflection, tecnica ben più elegante per istanziare a runtime oggetti di cui si conosce l'interfaccia, evitando i più rozzi if case, e quant'altro]
Ok eXeS, io ho soltanto illustrato uno dei modi con il quale puoi applicare un polimorfismo dinamico, poi se vuoi usare il reflection o qualsiasi altra classe per ottimizzare che ben venga. :) Il mio esempio voleva essere abbastanza elementare e dopotutto è ritenuto, anche dal sottoscritto, uno standard behaviour niente di sconvolgente e trascendentale insomma, nulla vieta di ottimizzare poi le cose.
Ad ogni modo un design pattern... un buon design pattern mantiene SEMPRE quando puo' la firma di un metodo quando estende una classe, anche per favorire questi meccanismi che stiamo spiegando. Poi se proprio il nome è diverso, vabbè si scrive una riga codice in più che chiama un metodo con nome differente vedrai.... mica casca il mondo. In tutti i casi e in ambito ludico l'eleganza della scrittura dell'algoritmo io la metterei (a malincuore) da parte per concentrarmi + sulle prestazioni che alla fine i problemi, uno e due, son sempre lì.... poco importa se c'è un if un case o un'altra aborraggine (si puo' dire? bohh) :D
Ma tu l'hai guardata la documentazione su MSDN ? Io si, e mi sarei aspettato che IDirect3DDevice9 e IDirect3DDevice10 estendessero chessò, una generica IDirect3DDevice, ma non è così.
http://msdn.microsoft.com/en-us/library/ee421650(VS.85).aspx
http://msdn.microsoft.com/en-us/library/ee418718(VS.85).aspx
Uhm effettivamente MS ha avuto la felice o infelice idea, forse per evitare troppa confusione, di non imparentare, almeno a prima vista, i Devices ... Uno straccio di interfaccia potevano pure costruirla.... Vabbè qua effettivamente è questione di pareri personali.
Ma io cmq non avevo detto che trovavi tutto già bello e pronto ehhh!!! .... NON LO E' MAI :D
Ho detto TU RAGIONA DIVERSAMENTE e costruisciti il modello.
Se un team di sviluppo di professione si limitasse al solo lavoro di riutilizzo di classi altrui non vedresti MAI giochi eccellere per determinati aspetti.
In un team di sviluppo ci sono i coder gli analisti i rompipalle :D e poi anche dei design pattern.... e allora che questi ultimi si diano da fare... ed estendano la classe directx9 e implementino per quello che ci serve a noi alcuni comportamenti dx10 (sempre in rifer. a bioshock).
Quando sviluppavo io ero sempre coperto da framework(s) che mi permettevano di fare praticamente l'impossibile persino il caffè e la camomilla, a momenti finivo di codare :sofico: ; poi però arrivava il soggetto X (solitamente rompipalle) che voleva il caffè al gusto della camomilla :mbe: ed era un bel problema perché avevo capito che la pacchia era finita.... andava sempre a finire insomma che dovevo andare inervitabilmente a mettere le mani sulla classe caffè e andargli a innestare un comportamento nuovo per dargli il gusto della camomilla.... sono sicuro che hai capito cosa intendo... Se ciò accadeva a me io immagino come e in quale misura potrebbe amplificarsi una cosa simile a questo livello qui.... va a finire insomma che le classi predefinite DX diventano delle semplici linee guida su come procedere nell'inevitabile processo di ereditarietà.... ma così forte che le derivate vedendole a posteriori mai si sarebbe potuto pensare che in fondo fossero parenti dei loro precursori.
NON LO E' MAI :fagiano:
Ciau :)
Ale55andr0
04-10-2009, 15:57
non ho ancora capito bene come funziona la vostra mente :D
Magari è vero che Nvidia fa mafia però........una persona normale quando viene a sapere che i prodotti vanno meglio da una parte e non vanno dall'altra, un comportamento razionale tenderebbe a preferire la parte buona, mentre invece quì.......quando TI STAN DICENDO PALESEMENTE CHE I GIOCHI SU NVIDIA FUNZIONANO E SU ATI NO, la risposta è stata questa : " e ma allora passo ad ATi ".
LOL :D
MAFIA o no che importa ? tutti i giochi sono ottimizzati Nvidia, chi ha la posizione dominante comanda con ogni mezzo, sta mafia c'è sempre stata, conta il risultato. Tu puoi dire : " è colpa dei programmatori " ma alla fine non è che se lo dici le cose cambiano, per un motivo o per l'altro una va meglio e l'altra cola a picco, non centra il motivo.
Ci potranno essere giochi pro Nvidia, ma non ci saranno mai giochi pro ATI, al massimo giochi che vanno solo su Nvidia ma giochi che vanno solo su ATI è un po' impossibile visto che non ha manco la grana per collaborare con le sh :D
:mbe:
:rolleyes:
:nono:
:doh:
mi sa che si è perso il filo generale del discorso..oltre al fatto che è chiaro che sponsorizzare un gioco possa a sua volta coincidere con agevolazioni (che attenzione non significa ostacolazioni ad altri) il punto è che in ogni caso va fatta chiarezza e sopratutto certe cose vanno messe ben in chiaro prima.dalla sponsorizzazzione si è passati alla partnership senza però rendere il consumatore al corrente.
altra cosa che la nota rilasciata da amd non verte solo su questo caso ma anche nella difficoltà avuta piu' volte nell'avere materiale beta per l'ottimizzazzione dei driver prima dell'uscita o comunique in concomitanza. questa si, è una questione sul quale difficilmente si ha la possibilità di smentita.
Scusate l'intrusione, ma FiorDelMale si sta comportando da truffatore, non rispondendomi da mesi ai messaggi privati ed essendo sparito proprio quando avrebbe dovuto rimborsarmi causa disguido in una transazione partita proprio dal mercatino di questo forum.
Mi scuso ancora con gli utenti del thread, ma questa persona non è onesta e non so in che altro modo contattarlo.
Scusate l'intrusione, ma FiorDelMale si sta comportando da truffatore, non rispondendomi da mesi ai messaggi privati ed essendo sparito proprio quando avrebbe dovuto rimborsarmi causa disguido in una transazione partita proprio dal mercatino di questo forum.
Mi scuso ancora con gli utenti del thread, ma questa persona non è onesta e non so in che altro modo contattarlo.
la prossima volta non inquinare il thread e contatta i moderatori del mercatino via pm
ammonizione
konzendoji
06-10-2009, 10:48
Scusate l'intrusione, ma FiorDelMale si sta comportando da truffatore, non rispondendomi da mesi ai messaggi privati ed essendo sparito proprio quando avrebbe dovuto rimborsarmi causa disguido in una transazione partita proprio dal mercatino di questo forum.
Mi scuso ancora con gli utenti del thread, ma questa persona non è onesta e non so in che altro modo contattarlo.
E al popolo?!
Che c'entra questa intrusione?! :mbe: :mbe:
konzendoji
06-10-2009, 10:54
:rotfl::rotfl::rotfl:
:ronf:
HAi poco da ridere...guardati i bench e ne riparliamo!
Guardati soprattutto i bench dei giochi.
Intanto ieri ho cambiato scheda video e le cose sono cambiare radicalmente, ilo resto son chiacchere
Evangelion01
06-10-2009, 12:03
HAi poco da ridere...guardati i bench e ne riparliamo!
:rotfl:
Appunto...
Guardati soprattutto i bench dei giochi.
:rotfl:
Appunto... :D
Intanto ieri ho cambiato scheda video e le cose sono cambiare radicalmente, ilo resto son chiacchere
E che salto enorme avresti fatto?
Perchè se avevi una fx5800 il salto lo avresti fatto con qualunque scheda attuale. ;)
http://i35.tinypic.com/255kys7.jpg
Futura12
06-10-2009, 13:24
non ho ancora capito bene come funziona la vostra mente :D
Magari è vero che Nvidia fa mafia però........una persona normale quando viene a sapere che i prodotti vanno meglio da una parte e non vanno dall'altra, un comportamento razionale tenderebbe a preferire la parte buona, mentre invece quì.......quando TI STAN DICENDO PALESEMENTE CHE I GIOCHI SU NVIDIA FUNZIONANO E SU ATI NO, la risposta è stata questa : " e ma allora passo ad ATi ".
LOL :D
MAFIA o no che importa ? tutti i giochi sono ottimizzati Nvidia, chi ha la posizione dominante comanda con ogni mezzo, sta mafia c'è sempre stata, conta il risultato. Tu puoi dire : " è colpa dei programmatori " ma alla fine non è che se lo dici le cose cambiano, per un motivo o per l'altro una va meglio e l'altra cola a picco, non centra il motivo.
Ci potranno essere giochi pro Nvidia, ma non ci saranno mai giochi pro ATI, al massimo giochi che vanno solo su Nvidia ma giochi che vanno solo su ATI è un po' impossibile visto che non ha manco la grana per collaborare con le sh :D
Bel ragionamento del cazzo non c'è che dire,tutti fanno cosi non c'è piu concorrenza e una GTX 380 viene a costare 3000€ sei contento? beh beato te...io non lo sono.
E se non lo sapessi Ati ha più grana di Nvidia,visto che è della società AMD...ma evita di fare questi giochetti che danno solo contro a noi.
wolverine
06-10-2009, 19:39
non ho ancora capito bene come funziona la vostra mente :D
Magari è vero che Nvidia fa mafia però........una persona normale quando viene a sapere che i prodotti vanno meglio da una parte e non vanno dall'altra, un comportamento razionale tenderebbe a preferire la parte buona, mentre invece quì.......quando TI STAN DICENDO PALESEMENTE CHE I GIOCHI SU NVIDIA FUNZIONANO E SU ATI NO, la risposta è stata questa : " e ma allora passo ad ATi ".
LOL :D
MAFIA o no che importa ? tutti i giochi sono ottimizzati Nvidia, chi ha la posizione dominante comanda con ogni mezzo, sta mafia c'è sempre stata, conta il risultato. Tu puoi dire : " è colpa dei programmatori " ma alla fine non è che se lo dici le cose cambiano, per un motivo o per l'altro una va meglio e l'altra cola a picco, non centra il motivo.
Ci potranno essere giochi pro Nvidia, ma non ci saranno mai giochi pro ATI, al massimo giochi che vanno solo su Nvidia ma giochi che vanno solo su ATI è un po' impossibile visto che non ha manco la grana per collaborare con le sh :D
Quando in futuro, se non ci sarà la concorrenza Ati, per acquistare una vga nvidia dovrai venderti un rene, beh credo che non sghignazzerai molto.. :D :fagiano:
gabi.2437
06-10-2009, 19:46
I bei tempi delle schede nvidia da 600€ :cool: :cool:
Bel ragionamento del cazzo non c'è che dire,tutti fanno cosi non c'è piu concorrenza e una GTX 380 viene a costare 3000€ sei contento? beh beato te...io non lo sono.
E se non lo sapessi Ati ha più grana di Nvidia,visto che è della società AMD...ma evita di fare questi giochetti che danno solo contro a noi.Come conclude poi... Mi pare che qualche gioco che sponsorizza Ati c'è stato (senza che quest'ultima mettesse bastoni tra le ruote della concorrenza) e quando mai è esistito un gioco solo Nvidia? E' un'accozzaglia di sparate senza cognizione che neanche un fanboy...
Futura12
06-10-2009, 20:17
Come conclude poi... Mi pare che qualche gioco che sponsorizza Ati c'è stato (senza che quest'ultima mettesse bastoni tra le ruote della concorrenza) e quando mai è esistito un gioco solo Nvidia? E' un'accozzaglia di sparate senza cognizione che neanche un fanboy...
Qualche gioco con il logo Ati c'è....e ne sarà dotato anche il prossimo Stalker Call Of Pripjat.
Lasciamo perdere le accozzaglie scritte non c'è neanche da perdere tempo..i moderatori gia l'hanno bannato.
I bei tempi delle schede nvidia da 600€ :cool: :cool:
... che dopo 6 mesi già non erano buone piu' e in realtà non si giocava al top nemmeno al lancio... Mica tanto bei tempi...
La mia Geforce 3 Ti 500 la pagai la bellezza di 980.000 lire.
... che dopo 6 mesi già non erano buone piu' e in realtà non si giocava al top nemmeno al lancio... Mica tanto bei tempi...
La mia Geforce 3 Ti 500 la pagai la bellezza di 980.000 lire.
:D
Mi ricordo quando la ID rilasciava le frasi ad effetto per doom3, che in realtà erano puro marketing:
3 anni prima dell'uscita del gioco:
- Si giocherà al top con le Geforce3!!! (e tutti a comprarle)
2.5 anni prima:
- Si giocherà ancora meglio con le Ati 8500!!! (e tutti a comprarle)
2 anni prima
- Con le Geforce 4ti l'esperienza di gioco sarà definitiva!!! (e tutti a comprarle)
1.5 anni prima
- Doom3 darà il massimo con le nuove Ati9700!!! (e tutti a comprarle)
1 anno prima
- La geforce FX è LA scheda per Doom3!!! (e tutti a comprarle)
All'uscita:
- Solo con le geffo 6800 / ati x800 riuscirete a massimizare l'esperienza di gioco! (e tutti a comprarle!)
:asd:
:D
Mi ricordo quando la ID rilasciava le frasi ad effetto per doom3, che in realtà erano puro marketing:
3 anni prima dell'uscita del gioco:
- Si giocherà al top con le Geforce3!!! (e tutti a comprarle)
2.5 anni prima:
- Si giocherà ancora meglio con le Ati 8500!!! (e tutti a comprarle)
2 anni prima
- Con le Geforce 4ti l'esperienza di gioco sarà definitiva!!! (e tutti a comprarle)
1.5 anni prima
- Doom3 darà il massimo con le nuove Ati9700!!! (e tutti a comprarle)
1 anno prima
- La geforce FX è LA scheda per Doom3!!! (e tutti a comprarle)
All'uscita:
- Solo con le geffo 6800 / ati x800 riuscirete a massimizare l'esperienza di gioco! (e tutti a comprarle!)
:asd:
E' proprio l'esempio calzante che avevo in mente... :asd:
Difatti Doom 3 lo comprai al lancio e stavo proprio con la Geforce 3 Ti 500 che pubblicizzarono anche al keynote con Steve Jobs... Inutile dire che quella scheda risultò completamente indecente per giocare a quel gioco... :asd:
Se c'è una cosa buona che hanno portato le console è che almeno i giochi adesso sono MOLTO ma MOLTO piu' ottimizzati di prima e gli acquisti odierni per lo meno sono abbastanza longevi. Che tanto gli FPS avevano un mitragliatore prima quando erano giochi PC e hanno un mitragliatore adesso che sono giochi portati da console... :D
EDIT: Molti considerano le console come il problema principale alla moria del gaming su PC, in realtà secondo me se non era per le console il mercato PC era molto piu' spento di adesso. Da quando non devo comprare piu' mostri sacri, ho molti piu' soldi per i giochi e acquisto molti piu' giochi adesso che non un tempo.
:D
Mi ricordo quando la ID rilasciava le frasi ad effetto per doom3, che in realtà erano puro marketing:
3 anni prima dell'uscita del gioco:
- Si giocherà al top con le Geforce3!!! (e tutti a comprarle)
2.5 anni prima:
- Si giocherà ancora meglio con le Ati 8500!!! (e tutti a comprarle)
2 anni prima
- Con le Geforce 4ti l'esperienza di gioco sarà definitiva!!! (e tutti a comprarle)
1.5 anni prima
- Doom3 darà il massimo con le nuove Ati9700!!! (e tutti a comprarle)
1 anno prima
- La geforce FX è LA scheda per Doom3!!! (e tutti a comprarle)
All'uscita:
- Solo con le geffo 6800 / ati x800 riuscirete a massimizare l'esperienza di gioco! (e tutti a comprarle!)
:asd:Tutte schede valide comunque, a parte la generica serie FX di Geforce. Fortunatamente mi sono giocato Doom3 in tutta tranquillità con una X800.
Giocare è sempre stata una spesa. Comunque un'hobby costoso. E' indubbio tuttavia che oggi è molto piu' accessibile di un tempo e forse questo un po alle console lo dobbiamo, come merito. Tanto alla base di un buon gioco c'è la realizzazione tecnica e l'idea, non di certo una grafica che deve smuovere montagne.
Duke.N.4ever
06-10-2009, 22:55
http://i35.tinypic.com/255kys7.jpg
:rotfl: :rotfl: :asd:
E' proprio l'esempio calzante che avevo in mente... :asd:
Difatti Doom 3 lo comprai al lancio e stavo proprio con la Geforce 3 Ti 500 che pubblicizzarono anche al keynote con Steve Jobs... Inutile dire che quella scheda risultò completamente indecente per giocare a quel gioco... :asd:
E vabbè, d3 fu rilasciato nell'agosto del 2004, e la gf3 3 anni prima nel febbraio del 2001.
Bel ragionamento del cazzo non c'è che dire,tutti fanno cosi non c'è piu concorrenza e una GTX 380 viene a costare 3000€ sei contento? beh beato te...io non lo sono.
E se non lo sapessi Ati ha più grana di Nvidia,visto che è della società AMD...ma evita di fare questi giochetti che danno solo contro a noi.
Hai perfettamente Ragione . Come si puo' dire che una cosa simile alla mafia SIA CORRETTA , ma andiamo .... Cmq ci sono stati tempi dove Ati regnava e tempi dove lo ha fatto nvidia.
Attualmente Ati e' risorta, e spero che risolva presto i bug dell'ultima nata 5870, cosi' da riguadagnarsi unpo' il mercato , e far scendere i prezzi.
Nvidia uscirà con prezzi molto alti se ati non sfornerà in tempo la X2 FUNZIONANTE.
michelgaetano
06-10-2009, 23:52
Hai perfettamente Ragione . Come si puo' dire che una cosa simile alla mafia SIA CORRETTA , ma andiamo .... Cmq ci sono stati tempi dove Ati regnava e tempi dove lo ha fatto nvidia.
Attualmente Ati e' risorta, e spero che risolva presto i bug dell'ultima nata 5870, cosi' da riguadagnarsi unpo' il mercato , e far scendere i prezzi.
Nvidia uscirà con prezzi molto alti se ati non sfornerà in tempo la X2 FUNZIONANTE.
Quali bug :confused:
Quali bug :confused:
Molteplici , artefatti , specialmente in Oc con cpu sopra i 4.3Ghz , si sono riscontrati anomalie... cmq tutto nella norma di una scheda appena uscita .
Aspetto aggiornamenti piu' incisivi, e miglioramenti nella fluidità degli fps.
Sicuramente questa scheda video a livello hardware e' davvero eccellente.
Attualmente Ati e' risorta, e spero che risolva presto i bug dell'ultima nata 5870, cosi' da riguadagnarsi unpo' il mercato , e far scendere i prezzi.
Quali Bug?
Nvidia uscirà con prezzi molto alti se ati non sfornerà in tempo la X2 FUNZIONANTE.
Perchè solitamente le sforna che non funzionano?
E poi se c'è qualcuno che al momento deve cominciare a sfornare qualcosa (funzionante), non è certo ATI...
michelgaetano
07-10-2009, 00:11
Molteplici , artefatti , specialmente in Oc con cpu sopra i 4.3Ghz , si sono riscontrati anomalie... cmq tutto nella norma di una scheda appena uscita .
Aspetto aggiornamenti piu' incisivi, e miglioramenti nella fluidità degli fps.
Sicuramente questa scheda video a livello hardware e' davvero eccellente.
Nel thread ufficiale non c'è nulla a riguardo.
Posta qualche link :D
Quali Bug?
sinceramente da possessore posso dire che non ha bug, è semplicemente perfetta ;)
Bastoner
07-10-2009, 00:48
Molteplici , artefatti , specialmente in Oc con cpu sopra i 4.3Ghz , si sono riscontrati anomalie... cmq tutto nella norma di una scheda appena uscita .
Aspetto aggiornamenti piu' incisivi, e miglioramenti nella fluidità degli fps.
Sicuramente questa scheda video a livello hardware e' davvero eccellente.
:sbonk:
Molteplici , artefatti , specialmente in Oc con cpu sopra i 4.3Ghz , si sono riscontrati anomalie... cmq tutto nella norma di una scheda appena uscita .
Aspetto aggiornamenti piu' incisivi, e miglioramenti nella fluidità degli fps.
Sicuramente questa scheda video a livello hardware e' davvero eccellente.
la cpu non c'entra nulla con la vga ergo la storia dei 4.3ghz la potevi omettere, in oc della scheda ci sono problemi legati al fatto che il power play riporta automaticamente le frequenze in 2d della vga, del tutto normali e risolvibili coi nuovi driver, artefatti con tutti i giochi provati non ne ho mai visti e son 5 giorni che la ho e un po di games li ho giocati ;)
armenico11
07-10-2009, 01:25
Quando in futuro, se non ci sarà la concorrenza Ati, per acquistare una vga nvidia dovrai venderti un rene, beh credo che non sghignazzerai molto.. :D :fagiano:
finchè ci sarà gente che vuol giocare col pc ai videogiochi .............
considerato il livello scalucco generale dei giochi
che sono tutti dei porting dalle varie console
che sulla console con un hardware che un decimo di quello su un pc attuale e nonostante ciò vanno meglio sulla console che sul pc
che gli unici giochi decenti epr pc sono di guerra o tipo guerra cioè si spara combatte od ammazza ,ed io che sono pacifista non ho voglia di sparare a qualcuno seppure solo per finta
che tra il comprare e vendere vga e componenti per avere un pc al top ci rimetti dai 1000 euro ( e sono stato stretto) in su all'anno che sarebbero molto meglio spendibili
che comunque per avere sempre il super pc ed ottimizzarlo al meglio devi perderci oltre al denaro anche tanto tempo ,monta rismonta cambia ottimizza resetta formatta ecc
considerato questo ho venduto (in molti casi regalato quasi) tutto l'armamentario accumulato in tanti anni (ed era tanto)per star dietro a ste caxxate e mi pento di aver perso tanto tempo dietro a tutto questo .........
ok certe cose si realizzano oltre i 30 ......lungi da me il voler fare la morale a qualcuno :D e sicuramente ci sono 100 modi per essere equilibrati e certo io non sono una persona da mezze misure ( per dire quando fumavo ne fumavo più di 40 al giorno )
wolverine
07-10-2009, 06:46
finchè ci sarà gente che vuol giocare col pc ai videogiochi .............
considerato il livello scalucco generale dei giochi
che sono tutti dei porting dalle varie console
che sulla console con un hardware che un decimo di quello su un pc attuale e nonostante ciò vanno meglio sulla console che sul pc
che gli unici giochi decenti epr pc sono di guerra o tipo guerra cioè si spara combatte od ammazza ,ed io che sono pacifista non ho voglia di sparare a qualcuno seppure solo per finta
che tra il comprare e vendere vga e componenti per avere un pc al top ci rimetti dai 1000 euro ( e sono stato stretto) in su all'anno che sarebbero molto meglio spendibili
che comunque per avere sempre il super pc ed ottimizzarlo al meglio devi perderci oltre al denaro anche tanto tempo ,monta rismonta cambia ottimizza resetta formatta ecc
considerato questo ho venduto (in molti casi regalato quasi) tutto l'armamentario accumulato in tanti anni (ed era tanto)per star dietro a ste caxxate e mi pento di aver perso tanto tempo dietro a tutto questo .........
ok certe cose si realizzano oltre i 30 ......lungi da me il voler fare la morale a qualcuno :D e sicuramente ci sono 100 modi per essere equilibrati e certo io non sono una persona da mezze misure ( per dire quando fumavo ne fumavo più di 40 al giorno )
Ma che è un soliloquio sulla tua vita? :mbe:
MiKeLezZ
07-10-2009, 12:21
Presumo che ti riferisca al sottoscritto, il quale sostiene pensa e afferma, ciò che prima verifica.
E il fatto che la demo del gioco vada in DX9, glielo ha detto niente meno che l'osd di evga precision.
Edit:
Qualche screen shot della demo con l'OSD di evga precision
http://www.pctunerup.com/up/results/_200910/th_20091004113302_ShippingPC-BmGame_2009_10_04_11_29_20.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091004113302_ShippingPC-BmGame_2009_10_04_11_29_20.jpg)
http://www.pctunerup.com/up/results/_200910/th_20091004113439_ShippingPC-BmGame_2009_10_04_11_30_03.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091004113439_ShippingPC-BmGame_2009_10_04_11_30_03.jpg)Certo è corretto,
C:\Program Files (x86)\Eidos\Batman Arkham Asylum\Engine\Config\BaseEngine.ini
File di sola lettura che gestisce le impostazioni dell'engine grafico
Contenuto:
[SystemSettings]
; NOTE THAT ANY ITEMS IN THIS SECTION WILL AFFECT ALL PLATFORMS!!!
StaticDecals=True
DynamicDecals=True
UnbatchedDecals=True
DecalCullDistanceScale=1.0
DynamicLights=True
DynamicShadows=True
SmokeShadows=True
bDownsampleParticles=True
ShadowedParticleDownsampleFactor=4
ShadowedParticleDepthThreshold=100.0
UnshadowedParticleDownsampleFactor=2
UnshadowedParticleDepthThreshold=100.0
LightEnvironmentShadows=True
CompositeDynamicLights=False
DirectionalLightmaps=True
MotionBlur=True
DepthOfField=True
AmbientOcclusion=True
Bloom=True
UseHighQualityBloom=True
Distortion=True
DropParticleDistortion=False
SpeedTreeLeaves=True
SpeedTreeFronds=True
OnlyStreamInTextures=False
LensFlares=True
FogVolumes=True
FloatingPointRenderTargets=True
OneFrameThreadLag=True
UseVsync=False
UpscaleScreenPercentage=True
Fullscreen=False
AllowD3D10=False
SkeletalMeshLODBias=0
ParticleLODBias=0
DetailMode=2
ShadowFilterQualityBias=0
MaxAnisotropy=4
MaxMultisamples=1
Stereo=False
MinShadowResolution=32
MaxShadowResolution=512
ShadowFadeResolution=128
ShadowFadeExponent=2.2
ResX=1280
ResY=1024
ScreenPercentage=100.000000
SceneCaptureStreamingMultiplier=1.000000
FoliageDrawRadiusMultiplier=1.000000
ShadowTexelsPerPixel=1.27324
bEnableVSMShadows=False
bEnableBranchingPCFShadows=False
bAllowBetterModulatedShadows=True
bEnableForegroundShadowsOnWorld=True
bEnableForegroundSelfShadowing=False
ShadowFilterRadius=2
ShadowDepthBias=.012
ShadowSlopeScaleDepthBias=10.0
ShadowVolumeLightRadiusThreshold=1000
ShadowVolumePrimitiveScreenSpacePercentageThreshold=0.25
Ridicolo eh?
MiKeLezZ
07-10-2009, 12:29
Mirror's Edge...basato su Unreal Engine3 consente l'utilizzo dell'AA anche sulle architetture DX9...Yoss come lo implementa l'AA ..?Con il "meccanismo" sopra descritto?
TnX
TnX :)Semplicissimo.
L'ho scritto.
Mirror's Edge è un gioco che utilizza l'Unreal Engine 3 per fare buona parte del lavoro, TRANNE la parte che usa il deferred rendering (che è quello problematico).
Al suo posto hanno implementato l'engine "Beast", di Illuminate Labs, che a differenza di quello del Unreal Engine 3, permette il MSAA anche in DX9 (non usando il deferred rendering).
http://www.illuminatelabs.com/products/beast
yossarian
07-10-2009, 12:48
Certo è corretto,
C:\Program Files (x86)\Eidos\Batman Arkham Asylum\Engine\Config\BaseEngine.ini
File di sola lettura che gestisce le impostazioni dell'engine grafico
Contenuto:
[SystemSettings]
; NOTE THAT ANY ITEMS IN THIS SECTION WILL AFFECT ALL PLATFORMS!!!
StaticDecals=True
DynamicDecals=True
UnbatchedDecals=True
DecalCullDistanceScale=1.0
DynamicLights=True
DynamicShadows=True
SmokeShadows=True
bDownsampleParticles=True
ShadowedParticleDownsampleFactor=4
ShadowedParticleDepthThreshold=100.0
UnshadowedParticleDownsampleFactor=2
UnshadowedParticleDepthThreshold=100.0
LightEnvironmentShadows=True
CompositeDynamicLights=False
DirectionalLightmaps=True
MotionBlur=True
DepthOfField=True
AmbientOcclusion=True
Bloom=True
UseHighQualityBloom=True
Distortion=True
DropParticleDistortion=False
SpeedTreeLeaves=True
SpeedTreeFronds=True
OnlyStreamInTextures=False
LensFlares=True
FogVolumes=True
FloatingPointRenderTargets=True
OneFrameThreadLag=True
UseVsync=False
UpscaleScreenPercentage=True
Fullscreen=False
AllowD3D10=False
SkeletalMeshLODBias=0
ParticleLODBias=0
DetailMode=2
ShadowFilterQualityBias=0
MaxAnisotropy=4
MaxMultisamples=1
Stereo=False
MinShadowResolution=32
MaxShadowResolution=512
ShadowFadeResolution=128
ShadowFadeExponent=2.2
ResX=1280
ResY=1024
ScreenPercentage=100.000000
SceneCaptureStreamingMultiplier=1.000000
FoliageDrawRadiusMultiplier=1.000000
ShadowTexelsPerPixel=1.27324
bEnableVSMShadows=False
bEnableBranchingPCFShadows=False
bAllowBetterModulatedShadows=True
bEnableForegroundShadowsOnWorld=True
bEnableForegroundSelfShadowing=False
ShadowFilterRadius=2
ShadowDepthBias=.012
ShadowSlopeScaleDepthBias=10.0
ShadowVolumeLightRadiusThreshold=1000
ShadowVolumePrimitiveScreenSpacePercentageThreshold=0.25
Ridicolo eh?
http://forum.beyond3d.com/showthread.php?t=54361
http://www.anandtech.com/printarticle.aspx?i=2947
http://http.developer.nvidia.com/GPUGems2/gpugems2_chapter09.html
DX9, deferred rendering e MSAA non vano d'accordo: fattene una ragione :D
Semplicissimo.
L'ho scritto.
Mirror's Edge è un gioco che utilizza l'Unreal Engine 3 per fare buona parte del lavoro, TRANNE la parte che usa il deferred rendering (che è quello problematico).
Al suo posto hanno implementato l'engine "Beast", di Illuminate Labs, che a differenza di quello del Unreal Engine 3, permette il MSAA anche in DX9 (non usando il deferred rendering).
http://www.illuminatelabs.com/products/beast
l'UE3 è basato su deferred rendering, non è una feature che si può attivare o disattivare. Inoltre, dalle specifiche di beast che non è un'engine ma un'integrazione dell'UE3, si legge:
Advantages of Beast light maps
* Global Illumination
* All materials interact with the lighting
* Soft Shadows
* Transparency effects in light maps
* Emissive materials act as light sources
* HDR Environments
* Correct shadows and lighting for LOD objects
http://www.illuminatelabs.com/products/beast/unreal-engine-3-integration
dov'è l'applicazione del MSAA (per altro impossibile in dx9)? :rolleyes:
Ma che è un soliloquio sulla tua vita? :mbe:Siamo su di un forum pubblico per confrontare le nostre esperienze o sbaglio?
la cpu non c'entra nulla con la vga ergo la storia dei 4.3ghz la potevi omettere, in oc della scheda ci sono problemi legati al fatto che il power play riporta automaticamente le frequenze in 2d della vga, del tutto normali e risolvibili coi nuovi driver, artefatti con tutti i giochi provati non ne ho mai visti e son 5 giorni che la ho e un po di games li ho giocati ;)
Scusa Okorop , so' che sei una persona competente ma cosi' pecchi di presunzione , allora , provate e testate 75 schede video di 4 marche differenti , se dico che ci sono Bug e' cosi' , L'ampiezza delle cpu i7 forse non lo sai su diff. Alpit. influisce nella gestione della scheda video , le ati avendo un Bus di risposta maggiore con la cpu in Oc, hanno un problema nella gestione del Buffer , finchè la scheda rimane nei parametri standard questo non accade, va' precisato che attualmente il bios più stabile e' stato quello della sapphire , personalmente sono un tecnico e mi occupo di apparati robotici scusa ma la storia che vai raccontando non mi sfiora mninimamente , Nel dire Potevi risparmiartelo , provo centinaia di cpu e schede al giorno e' il mio lavoro , onestamente non capisco con una sola scheda video che parametro di giudizio riesci ad avere.
Ps non ti offendere ho detto inizialmente che ti considero una persona di coscenza appassionata in materia , ma la teoria non basta , io ste cose le vedo costruire ;) sono personalmente Laureato In Robotica , e gradirei che se non hai uno stralcio di prova a favore , non postassi inutili polemiche . PS. Chiedi info a ATI se vuoi ti posso passare alcune Email.
Semplicissimo.
L'ho scritto.
Mirror's Edge è un gioco che utilizza l'Unreal Engine 3 per fare buona parte del lavoro, TRANNE la parte che usa il deferred rendering (che è quello problematico).
Al suo posto hanno implementato l'engine "Beast", di Illuminate Labs, che a differenza di quello del Unreal Engine 3, permette il MSAA anche in DX9 (non usando il deferred rendering).
http://www.illuminatelabs.com/products/beast
Non so perché ma vedo che tu dopo tanti post non continui a comprendere realmente come lavorano le DirectX.
Effettivamente, posso capire che a un certo livello, e in assenza di alcuni concetti di programmazione, l'idea che un gioco DX9 possa beneficiare di caratteristiche esclusive a DX10 è difficile da pensare ma si puo'... fidati.
Se hai letto un po' di post fa ho citato l'esempio BioShock e di come pur essendo, come già saprai, un DX9 alla base potesse essere in condizioni di sfruttare effetti DX10. Presumo tu non lo abbia neanche letto.
Ma non fa niente, tu non hai neanche letto i post che seguivano in realtà e adesso mi hai offerto un'opportunità imperdibile per affondare la tua supposizione o tesi.
HAI affermato che BAA ha l'antialiasing in DX9. Benissimo!!!
Trovami una SOLA scheda video NVIDIA con supporto DX9 (non DX10) con la quale sia possibile abilitare l'MSAA dal gioco con Batman. :D
Chiedi in giro pure a centiania di utenti. Forza fallo
NON LA TROVERAI MAIIIII
Io ti aspetto al varco.... e poi ti spiego la seconda parte quella + tecnica e forse dopo capirai.
Poi ti spiego perché nell'INI appare DX10 a off e come possa essere fuorviante quell'indicazione lì.
Dai mettiti all'opera.
capitan_crasy
07-10-2009, 13:15
Siamo su di un forum pubblico per confrontare le nostre esperienze o sbaglio?
ti sbagli, siamo su un forum Privato la quale possiamo partecipare "liberamente" sottostando alle regole imposte dall'amministratore...
HAI affermato che BAA ha l'antialiasing in DX9. Benissimo!!!
Trovami una SOLA scheda video NVIDIA con supporto DX9 (non DX10) con la quale sia possibile abilitare l'MSAA dal gioco con Batman. :D
Chiedi in giro pure a centiania di utenti. Forza fallo
NON LA TROVERAI MAIIIII
Lui? Ma scherzi? 100% sicuro che la trova! :D :D :D :Prrr:
ti sbagli, siamo su un forum Privato la quale possiamo partecipare "liberamente" sottostando alle regole imposte dall'amministratore...Andiamo, andiamo... Sono tutti sofismi... Si tratta di una board leggibile, a differenza di quelle visibili solamente dagli utenti iscritti, tant'è che la messagistica privata non è leggibile da tutti.
cito
riferito alla board
E' comunque permesso chiedere spiegazioni, non utilizzando però lo spazio pubblico del forum.
riferito ai pm
I messaggi privati (pvt) sono un'utile opzione del forum che dà la possibilità agli utenti di scambiarsi comunicazioni e informazioni di carattere personale. Trattandosi di uno strumento di comunicazione privata e non pubblica, questi messaggi non possono essere in alcun modo resi pubblici a meno che mittente e destinatario del messaggio non autorizzino la sua pubblicazione.
Indipendentemente da tutto, hai capito cosa intendevo dire? Sarebbe dovuto bastare :)
Non so perché ma vedo che tu dopo tanti post non continui a comprendere realmente come lavorano le DirectX.
Effettivamente, posso capire che a un certo livello, e in assenza di alcuni concetti di programmazione, l'idea che un gioco DX9 possa beneficiare di caratteristiche esclusive a DX10 è difficile da pensare ma si puo'... fidati.
Io ignorantemente, visto che il trucco di modificare il deviceid funziona anche su XP http://forums.eidosgames.com/showpost.php?p=1111816&postcount=14 e quindi in assenza di API DirectX10, credo che la strada intrapresa sia stata quella di arrivare all'hardware DX10 attraverso i driver, unico strato software che mi viene in mente oltre ovviamente alle DirectX, che consente di dialogare attraverso un'interfaccia software indifferente all'hardware sottostante.
Potrebbero aver progettato prima l'algoritmo in DX10 di inizializzazione di un buffer sul quale backuppare lo z-buffer prima di ripulirlo, intercettato le chiamate ai driver e scritto un modulino che senza uscire dal contesto DX9, ti consente di fare quello che convenzionalmente si fa in DX10 per supportare l'MSAA con deferred shading.
Una cosa che comunque non avrà richiesto il supporto tecnico di Harry Potter, ma probabilmente più alla portata di chi scrive driver, di chi lavora normalmente in directx.
Poi ti spiego perché nell'INI appare DX10 a off e come possa essere fuorviante quell'indicazione lì.
Interessa anche a me.
yossarian
07-10-2009, 23:13
Io ignorantemente, visto che il trucco di modificare il deviceid funziona anche su XP http://forums.eidosgames.com/showpost.php?p=1111816&postcount=14 e quindi in assenza di API DirectX10, credo che la strada intrapresa sia stata quella di arrivare all'hardware DX10 attraverso i driver, unico strato software che mi viene in mente oltre ovviamente alle DirectX, che consente di dialogare attraverso un'interfaccia software indifferente all'hardware sottostante.
Potrebbero aver progettato prima l'algoritmo in DX10 di inizializzazione di un buffer sul quale backuppare lo z-buffer prima di ripulirlo, intercettato le chiamate ai driver e scritto un modulino che senza uscire dal contesto DX9, ti consente di fare quello che convenzionalmente si fa in DX10 per supportare l'MSAA con deferred shading.
Una cosa che comunque non avrà richiesto il supporto tecnico di Harry Potter, ma probabilmente più alla portata di chi scrive driver, di chi lavora normalmente in directx.
no perchè con path dx9 il resolve avviene automaticamente senza darti la possibilità di interagire in alcun modo. Se fosse stato possibile inizializzare un buffer allora si sarebbe potuto ricorrere al MRT su z-buffer o all'uso di color buffer. Non è neppure possibile fare render to texture.
Insomma, con le dx9 non si può fare MSAA
a MiKeLezZ...
...Trovami una SOLA scheda video NVIDIA con supporto DX9 (non DX10) con la quale sia possibile abilitare l'MSAA dal gioco con Batman.
Allora mikeluzzo!!! niente? Impresa ardua vero!!??
Tuttavia non ti do nessuna scadenza, e la ricerca, per chi volesse intestardirsi nel credere che sia possibile l'MSAA in DX9, resta aperta a chiunque... fino a tempo indeterminato :D
L'unico modo per simulare un MSAA su dx9 sarebbe emularne l'HW dx10. Ma sai quanto converrebbe? Sarebbe da stupidi e gli sviluppatori professionisti che lavorano in questo settore non andrebbero molto lontano se si mettono in testa queste cose qui.
Pensa che già con le attuali tecniche su implementazione HW tutt'oggi le GPU sentono ancora la pesantezza dell'AA; neanche immagino allora ad un'eventuale implementazione via software...
Dopo l'enorme spreco di risorse e tempo si giungerebbe ad un disastroso epilogo di un BAA a 1,5 fps a dx9 sai che bello??? ;D Magari con un ATI 5800 family o la futura architettura HW Fermi arrivi a 5 fps. :asd:
Non sono ferratissimo in librerire DirectX ma missà che un'infarinatura di quello che so basterà e avanzerà per te.
Le DirectX devi sapere che fino alla nona versione erano retrocompatibili, cioè ogni nuova versione oltre alle novità proposte portava con se dietro tutti gli aggiornamenti rilasciati fino a quel momento.
Poi però arrivati alla decima versione purtroppo, o per fortuna (questioni di punti di vista), MS decise di abbandonare la retrocompatibilità poiché gli aggiornamenti apportati al modello e alla concezione di base per effettuare il rendering era ormai divenuto troppo diverso dal predecessore. Da qui la necessità, a partire da Vista, di implementare nel sistema operativo ambo le librerie DX10 e librerie DX9 rigorosamente SEPARATE perché altrimenti i giochi sviluppati in precedenza in DX9 col cavolo che potevi farli funzionare anche su Vista!!!!
Ad ogni modo, questa novità è totalmente trasparente all'utente finale poiché neanche si accorge di questo cambiamento.
La scissione delle 2 piattaforme ludiche potrebbe essere uno dei motivi per cui pochissimi giochi sono per intero sviluppati in dx10. Come aggravante c'è anche il fatto che XP arriva solo fino a dx9. Per cui se una SH deve sviluppare in dx10 deve fare bene i conti, nonostante le migliorie della nuova piattaforma.
Arrivati fin qui gli scenari per lo sviluppo in dx10 che si vanno a delineare sono questi:
Si sviluppa direttamente in DX10 e tanti saluti a buona parte dell'utenza videoludica ancorata ad hardware non recentissimo con chiari ripercussioni sulle vendite.
Si sviluppano due versioni separate, per gran parte del codice, una in dx9 e l'altra dx10. Le versioni vengono comunque vendute assieme e allo stesso prezzo. I costi di produzione in questo caso, manco a dirlo, lievitano.
Si sviluppa il prodotto su un modello DirectX misto, cioè composto da una base della piattaforma dx più diffusa, cioè dx9 nel nostro caso, ampliata da alcune sciccherie, e kickass feature lol, della nuova, vale a dire la dx10.
Alla luce di quanto detto il panorama numero 3 risulta ottimo se le implementazioni addizionali date dalla piattaforma più recente non sono sostanzialmente moltissime; nel caso lo fossero fai prima a scrivere il codice due volte e con due Device differenti con costi più o meno gli stessi.
Il fatto che i modelli DX siano stati scissi per ragioni che ho già spiegato NON VIETA di poter mischiare alcune cose insieme per conto proprio.... come insomma accadeva dalla DX8 in giù.
Basta studiarsi cosa c'è dietro i metodi delle classi e con conoscenze adeguate è possibile.
Certo andare ad implementare un comportamento DX10 in un API che sfoggia il modello precedente contempla un adattamento specifico per quelle cose che servono, effettivamente, portare da una parte all'altra. Ma questo è lavoro degli sviluppatori... sono pagati per questo. Partendo dal presupposto che il template su cui poggiano le API DirectX non è altro che un paradigma OOP, questa roba qua, ti assicuro, è normale amministrazione per chi sviluppa... e non è fantascienza.
Capisco comunque, per i non addetti, come sia difficile accettare che DirectX9 e DirectX10 possano fondersi almeno parzialmente e per certi aspetti.
Alla scheda video non importa come si renderizzano le texture, o se si usa una tecnica rispetto a un'altra... importante che essa sia in grado di farlo. Se poi Ciccio è renderizzato in dx9 e illuminato da dx10 vedrai io non ci trovo niente di strano e neanche la scheda.
B:AA si basa sull'engine UT3 a dx9. Questo cmq non vuol dire che il motore scelto è impiegato così com'è in toto. E' pratica comune, ormai, moddare questi engine per i propri scopi. Se questo non accadesse io dubito potremmo vedere certi capolavori. NON ESISTE un engine perfetto pronto a fare tutto quello che chiedi; all'occorrenza si modda e via. Troverai SEMPRE qualcosa che il framework su cui lavori non ti consente di fare in maniera efficiente e immediata.... In questo caso, uno si rimbocca le maniche, e si lavora dietro le quinte per risolvere la faccenda.... naturalmente nei limiti consentiti.
Ti pare allora così difficile pensare che l'UT3 dx9 sia stato moddato per permettere di renderizzare le texture in dx9 e poi applicargli poi una delle 2 tecniche MSAA RIGOROSAMENTE in DX10???
A riprova di ciò stai scoprendo che non è possibile abilitare l'MSAA in Batman con una scheda Nvidia DX9 only e tantomeno ATI, perché l'MSAA si appoggia su caratteristiche DX10 innestate su chip del tuo hardware, e non ci sono azzi!!! Se non hai hardware dx10 niente MSAA.
Quindi quando vedo su quel file INI dell'engine “AllowD3D10=false”, tu mi stai dicendo che la modalità U3 in DX10 è OFF....ok embè!!!?? Ma invece dimmi un'altra cosa.... dietro le quinte della modalità DX9 cosa si nasconde? Pupazzi con il bollino DX9 in fronte e marionette col marchio DX10 impresso sulle natiche? Sai rispondere? Ops ho già risposto io.
Allora spero tu ne abbia avuto davvero abbastanza di me, perché ulteriori ed ennesime false illazioni al riguardo dell''MSAA e in futuro sarebbero da considerarsi un break-trolling. Te lo abbiamo detto in tutte le salse mi pare.... i limiti hardware sono questi punto. :read:
Il delegato Nvidia lì ha dichiarato: L'UT3 NATIVAMENTE non supporta l'AA (non ha parlato né di dx9 né di dx10 quindi passa) e abbiamo lavorato per implementarla come NOSTRA tecnologia (nostra un cazzo, qui NON passa manco a occhi chiusi)
Con l'antialiasing senza supporto HW ti scordi le prestazioni caro mio...
A riprova di ciò, l'ingegnere della corporazione ATI se ne esce con: <<Nella demo, poiché l'MSAA era spento per le ATI, abbiamo forzato l'identificativo sulla nostra scheda per farsi spacciare come una Nvidia, e incredibilmente abbiamo potuto abilitare l'antialiasing dal gioco ottenendo prestazioni di tutto rispetto>>.
Nostra ehhh essì, la nostra tecnologia che va ALLA GRANDE sull'hw del principale concorrente, anzi meglio :ciapet:
Nvidia avrà pure lavorato per implementare l'antialiasing dx10 su un motore dx9, ma dire o insinuare di aver inventato una nuova tecnologia mi pare abbastanza sbagliato. Gli steps per inizializzare e applicare un filtro MSAA su una texture non sono opinabili. La procedura è rigorosa e dettata dagli standard impressi sui chip. Altro che mia e tua o di mia sorella... :mc:
E a essere onesti Nvidia è l'ULTIMA di una serie di SH che hanno già percorso questa strada in passato, che a differenza di questi individui in giacca verde però sanno perlomeno che il cliente, se non vuoi perderlo, bisogna trattarlo con rispetto soprattutto quando paga e compra il tuo prodotto.
Se poi dici pure che visto che ci hanno lavorato loro non è giusto che gli altri ne traggano beneficio.
Io rispondo: Ok.... però Eidos si impegnasse allora a comunicare che il gioco non è per gli utenti ATI visto che se anche in minoranza rappresenta una fetta di mercato non trascurabile e in crescita.
Non capisco perché Ciccio con una Ati debba essere bistrattato!!!
Invece Ciccio acquista BAA come te, utente Nvidia, ALLO STESSO PREZZO ma con una caratteristica in meno VOLUTAMENTE spenta dagli sviluppatori solo per fargli credere di avere una scheda non all'altezza. Perché altri motivi per spegnerlo io non ne vedo.
Caxxo presumo che i miei 50 euro carissimo amico mio valgano meno che i tuoi. E' così? Perché se è così cara Eidos non chiedermi il prezzo pieno.... proponimelo scontato, il resto poi lo chiederai a Nvidia, visto che a mazzette va alla grande.
Perché Eidos, se non fosse pagata, non ci guadagnerebbe nulla a spegnere una feature ad un utente, quando invece potrebbe solo ingolosirlo e incentivalo di più nell'acquisto. Nel mercato è una contraddizione... un paradosso.
Perciò si lavora alacremente per sto benedetto MSAA incrociato e poi lo si spegne? Ma che sono scemi?
Io ignorantemente, visto che il trucco di modificare il deviceid funziona anche su XP http://forums.eidosgames.com/showpost.php?p=1111816&postcount=14 e quindi in assenza di API DirectX10, credo che la strada intrapresa sia stata quella di arrivare all'hardware DX10 attraverso i driver, unico strato software che mi viene in mente oltre ovviamente alle DirectX, che consente di dialogare attraverso un'interfaccia software indifferente all'hardware sottostante.
Potrebbero aver progettato prima l'algoritmo in DX10 di inizializzazione di un buffer sul quale backuppare lo z-buffer prima di ripulirlo, intercettato le chiamate ai driver e scritto un modulino che senza uscire dal contesto DX9, ti consente di fare quello che convenzionalmente si fa in DX10 per supportare l'MSAA con deferred shading.
Una cosa che comunque non avrà richiesto il supporto tecnico di Harry Potter, ma probabilmente più alla portata di chi scrive driver, di chi lavora normalmente in directx.
Esatto!!! Beh te l'avevo detto!!
E' bastato andare dietro le quinte dei membri delle classi, in pratica lo strato di interconnessione fra chiamate al driver e interfaccia di alto livello esposta allo sviluppatore e vedere come diamine fare a inizializzare uno buffer, cosa chiamare, in che modo e tutte ste cosette qui.
Probabile che il grosso alla fine si riduce nella normalizzazione dei i tipi dei membri di classe che potrebbero differire da un modello DX all'altro.
Cioè chiaramente non si fa in due minuti ma è cmq normale amministrazione per un professionista.
Normalmente si procede direttamente a ricreare un muovo modello che accorpa tutto quello che serve anche per eventuali utilizzi futuri.
Generalmente è la cosa più pulita.
Il punto è che mentre vien difficile pensare come caspio sia possibile la coesistenza dei 2 modelli, in realtà a livello HW questo problema non è mai esistito. ;)
Il modello dx10 ha preso un'altra piega perché si è deciso di cambiare il modo di concepire il rendering x lo sviluppatore, ma alla fine sarà sempre un rendering per l'HW.
Tantissima somiglianza con il caso AA in Bioshock... andava a guardare direttamente le capacità HW della scheda fregandosene delle API :cool:
yossarian
08-10-2009, 00:18
L'unico modo per simulare un MSAA su dx9 sarebbe emularne l'HW dx10. Ma sai quanto converrebbe? Sarebbe da stupidi e gli sviluppatori professionisti che lavorano in questo settore non andrebbero molto lontano se si mettono in testa queste cose qui.
l'unico modo per avere l'antialiasing in dx9 con deferred rendering è utilizarne un'implementazione custom che faccia il resolve via shader, in modo da non agire sui valori contenuti nello z-buffer. Ma proprio perchè non si lavora con lo z-buffer, questo esclude automaticamente il meccanismo di edge detect e l'antialiasing risulta di tipo FSAA (ovvero applicato apieno schermo), con l'impatto prestazionale che si può prevedere. Metodo alternativo è usare il blurring, ovvero l'antialiasing temporale invece di quello spaziale (anche questa soluzione è piuttosto zoppicante).
Pensa che già con le attuali tecniche su implementazione HW tutt'oggi le GPU sentono ancora la pesantezza dell'AA; neanche immagino allora ad un'eventuale implementazione via software...
Dopo l'enorme spreco di risorse e tempo si giungerebbe ad un disastroso epilogo di un BAA a 1,5 fps a dx9 sai che bello??? ;D Magari con un ATI 5800 family o la futura architettura HW Fermi arrivi a 5 fps. :asd:
magari 1,5 fps no, ma immagina un bel FSAA 8x; le prestazioni risulterebbero ridotte a quasi 1/3 :D
l'unico modo per avere l'antialiasing in dx9 con deferred rendering è utilizarne un'implementazione custom che faccia il resolve via shader, in modo da non agire sui valori contenuti nello z-buffer. Ma proprio perchè non si lavora con lo z-buffer, questo esclude automaticamente il meccanismo di edge detect e l'antialiasing risulta di tipo FSAA (ovvero applicato apieno schermo), con l'impatto prestazionale che si può prevedere. Metodo alternativo è usare il blurring, ovvero l'antialiasing temporale invece di quello spaziale (anche questa soluzione è piuttosto zoppicante).
Quindi per Mirror's Edge avranno di sicuro agito in questo modo...del resto l'ho giocata con una 1900XTX, hardware DX9 100% !
Foglia Morta
08-10-2009, 11:09
:yeah:
http://twitter.com/Igor_Stanek
https://twitter.com/IanMcNaughton
http://www.hardocp.com/news/2009/10/07/amd_nvidia_fighting_on_twitter/
AMD and NVIDIA Fighting On Twitter
I had a totally different noon hour news post for you guys today until I stumbled across this epic Twitter battle between NVIDIA's Igor Stanek and AMD’s Ian MCNaughton. I recommend opening both their Twitter pages and scroll down them simultaneously. I’m amazed that neither company has stepped in and stopped the festivities. eek!
@Igor_Stanek Please read my posts more carefully before you blatantly Troll around Twitter - I stated "We provided the Dev with a solution"
@IanMcNaughton Enough. You failed to show any proof and all your arguments are baseless with only one reason to cover lame AMD dev support.
Ale55andr0
08-10-2009, 12:48
:yeah:
http://twitter.com/Igor_Stanek
https://twitter.com/IanMcNaughton
http://www.hardocp.com/news/2009/10/07/amd_nvidia_fighting_on_twitter/
AMD and NVIDIA Fighting On Twitter
I had a totally different noon hour news post for you guys today until I stumbled across this epic Twitter battle between NVIDIA's Igor Stanek and AMD’s Ian MCNaughton. I recommend opening both their Twitter pages and scroll down them simultaneously. I’m amazed that neither company has stepped in and stopped the festivities. eek!
@Igor_Stanek Please read my posts more carefully before you blatantly Troll around Twitter - I stated "We provided the Dev with a solution"
@IanMcNaughton Enough. You failed to show any proof and all your arguments are baseless with only one reason to cover lame AMD dev support.
Io no speak english :stordita:
leoneazzurro
08-10-2009, 13:53
In sostanza l'impiegato AMD dice che anche loro avevano fornito una soluzione per implementare l'Antialiasing in Batman agli sviluppatori, ma che stranamente questa soluzione non è stata implementata nel gioco finale, l'impiegato Nvidia dice che non è vero e che è un modo per coprire lo scarso supporto di AMD agli sviluppatori.
Forte perchè non sono nemmeno i Rocksteady a ribattere :asd:
Che Nvidia si sia sentita presa in causa?
gabi.2437
08-10-2009, 14:25
Ma adesso per le news ufficiali bisogna andare sui siti di social network? Cos'è, ati e nvidia non si possono più permettere un sito loro? :rotfl:
MiKeLezZ
08-10-2009, 15:44
Io no speak english :stordita:No problema.
NVIDIA @ Igor_Stanek
Per favore leggi con maggiore attenzione ciò che scrivo prima di trollare in modo così eclatante su Twitter.
Io scrissi: "Abbiamo fornito agli sviluppatori del gioco una soluzione". *
ATI @ IanMcNaughton
Hai detto abbastanza.
Hai fallito nel mostrare anche solo una prova di ciò che dici, e tutte le tue argomentazioni sono senza fondamento - l'unica motivazione che riesco a trovare è il volere coprire il ridicolo supporto che AMD fornisce agli sviluppatori di giochi.
* notare in particolare l'uso della parola "soluzione" e non "patch" o "codice"
---
A tale proposito ripropongo ciò che lo stesso figuro AMD (vice presidente settore marketing) disse in riguardo del gioco "SHIFT", in modo da farsi una idea sul "modus operandi" di ATI e quindi potersi dare una risposta sulla diatriba anche da soli:
"Abbiamo sottoposto alla loro visione una LISTA di problemi che abbiamo trovato durante lo sviluppo del gioco. Questi problemi includono inefficienze nel modo in cui il motore del gioco lavora con le nostre schede grafiche, oltre ovviamente a bug veri, eccetera.
Abbiamo mandato questa LISTA allo sviluppatore del gioco in modo la verificasse...
Sfortunatamente sarete impossibilitati ad avere una giusta esperienza di gioco fino a quando LO SVILUPPATORE DEL GIOCO NON RILASCI UNA PATCH PER CORREGGERE I PROBLEMI DA NOI RILEVATI."
yossarian
08-10-2009, 15:59
No problema.
NVIDIA @ Igor_Stanek
Per favore leggi con maggiore attenzione ciò che scrivo prima di trollare in modo così eclatante su Twitter.
Io scrissi: "Abbiamo fornito agli sviluppatori del gioco una soluzione". *
ATI @ IanMcNaughton
Hai detto abbastanza.
Hai fallito nel mostrare anche solo una prova di ciò che dici, e tutte le tue argomentazioni sono senza fondamento - l'unica motivazione che riesco a trovare è il volere coprire il ridicolo supporto che AMD fornisce agli sviluppatori di giochi.
* notare in particolare l'uso della parola "soluzione" e non "patch" o "codice"
---
A tale proposito ripropongo ciò che lo stesso figuro AMD (vice presidente settore marketing) disse in riguardo del gioco "SHIFT", in modo da farsi una idea sul "modus operandi" di ATI e quindi potersi dare una risposta sulla diatriba anche da soli:
"Abbiamo sottoposto alla loro visione una LISTA di problemi che abbiamo trovato durante lo sviluppo del gioco. Questi problemi includono inefficienze nel modo in cui il motore del gioco lavora con le nostre schede grafiche, oltre ovviamente a bug veri, eccetera.
Abbiamo mandato questa LISTA allo sviluppatore del gioco in modo la verificasse...
Sfortunatamente sarete impossibilitati ad avere una giusta esperienza di gioco fino a quando LO SVILUPPATORE DEL GIOCO NON RILASCI UNA PATCH PER CORREGGERE I PROBLEMI DA NOI RILEVATI."
così è più corretta :D
leoneazzurro
08-10-2009, 16:00
A tale proposito ripropongo ciò che lo stesso figuro AMD (vice presidente settore marketing) disse in riguardo del gioco "SHIFT", in modo da farsi una idea sul "modus operandi" di ATI e quindi potersi dare una risposta sulla diatriba anche da soli:
"Abbiamo sottoposto alla loro visione una LISTA di problemi che abbiamo trovato durante lo sviluppo del gioco. Questi problemi includono inefficienze nel modo in cui il motore del gioco lavora con le nostre schede grafiche, oltre ovviamente a bug veri, eccetera.
Abbiamo mandato questa LISTA allo sviluppatore del gioco in modo la verificasse...
Sfortunatamente sarete impossibilitati ad avere una giusta esperienza di gioco fino a quando LO SVILUPPATORE DEL GIOCO NON RILASCI UNA PATCH PER CORREGGERE I NOSTRI PROBLEMI RILEVATI."
Non i "nostri problemi rilevati", ma i "problemi da noi rilevati", e dato che i problemi della lista dipendono dall'implementazione dello sviluppatore del gioco, per avere una soluzione lo sviluppatore deve rilasciare una patch. Non tutti i problemi possono essere risolti dai driver...
Ale55andr0
08-10-2009, 16:18
In sostanza l'impiegato AMD dice che anche loro avevano fornito una soluzione per implementare l'Antialiasing in Batman agli sviluppatori, ma che stranamente questa soluzione non è stata implementata nel gioco finale, l'impiegato Nvidia dice che non è vero e che è un modo per coprire lo scarso supporto di AMD agli sviluppatori.
No problema.
NVIDIA @ Igor_Stanek
Per favore leggi con maggiore attenzione ciò che scrivo prima di trollare in modo così eclatante su Twitter.
Io scrissi: "Abbiamo fornito agli sviluppatori del gioco una soluzione". *
ATI @ IanMcNaughton
Hai detto abbastanza.
Hai fallito nel mostrare anche solo una prova di ciò che dici, e tutte le tue argomentazioni sono senza fondamento - l'unica motivazione che riesco a trovare è il volere coprire il ridicolo supporto che AMD fornisce agli sviluppatori di giochi.
* notare in particolare l'uso della parola "soluzione" e non "patch" o "codice"
---
A tale proposito ripropongo ciò che lo stesso figuro AMD (vice presidente settore marketing) disse in riguardo del gioco "SHIFT", in modo da farsi una idea sul "modus operandi" di ATI e quindi potersi dare una risposta sulla diatriba anche da soli:
"Abbiamo sottoposto alla loro visione una LISTA di problemi che abbiamo trovato durante lo sviluppo del gioco. Questi problemi includono inefficienze nel modo in cui il motore del gioco lavora con le nostre schede grafiche, oltre ovviamente a bug veri, eccetera.
Abbiamo mandato questa LISTA allo sviluppatore del gioco in modo la verificasse...
Sfortunatamente sarete impossibilitati ad avere una giusta esperienza di gioco fino a quando LO SVILUPPATORE DEL GIOCO NON RILASCI UNA PATCH PER CORREGGERE I NOSTRI PROBLEMI RILEVATI."
Grazie a entrambi :)
EDIT: ho letto anche la correzione ;)
Posso farvi un domanda a tutti? Voi chi pensate abbia ragione? Sono anni che leggo che i driver Ati fanno schifo, che nVidia paga mazzette, più varie cospirazioni, complotti, omicidi (:D ) ecc... insomma, qual'è la situazione reale, filtrata dai deliri dei fanboy?
In una TRADUZIONE, che dovrebbe essere impossibile da manipolare, il delirio fanboy-istico di Mikelezz, ha prodotto una frase che cambiava radicalmente il vero messaggio contenuto nel paragrafo in inglese.
Detto questo, le verità che si sanno fino ad adesso, sono queste:
1)Nvidia ha pagato Eidos per non far andare l'AA sulle schede Ati. (In BAA)
2)Nvidia ha parlato dell'AA come se l'avesse inventato lei, chiamandolo addirittura KICKASS FEATURE e dicendo ai tecnici AMD/ATI di impegnarsi molto di più, se vogliono ottenere risultati simili.
2.1)Nvidia ha mentito quando è stata letteralmente SPUTTANATA per quanto riguarda l'argomento 1.
3)Nvidia anche quando presenta i propri prodotti della nuova generazione, lo fa con modellini di plastica incollati alla bell'e meglio, prendendo così per i fondelli non solo i propri fedelissimi clienti e i propri fanboy, ma anche un'infinita lista di testate specializzate nel settore.
4) Nvidia è nvidiosa e così lo sono anche i suoi più fedeli, e ciechi aggiungo io, sostenitori. (In questo periodo)
Le mie considerazioni sui punti sopra elencati, sono:
1) :cry:
2) :D
2.1) :mc:
3):doh: :muro:
4) :ciapet:
Saluti!
Grazie a entrambi :)
EDIT: ho letto anche la correzione ;)
Posso farvi un domanda a tutti? Voi chi pensate abbia ragione? Sono anni che leggo che i driver Ati fanno schifo, che nVidia paga mazzette, più varie cospirazioni, complotti, omicidi (:D ) ecc... insomma, qual'è la situazione reale, filtrata dai deliri dei fanboy?
posso dirti la mia, rarissimi problemi con tutte le vga di tutte le marche sia ati/nvidia/intel e anche con la sys, l'unico problema che ho avuto è stato un guasto dell'nvidia della workstation sostituita in garanzia in meno di 24 ore, quindi non farti preconcetti e compra quello che ti piace di più tutte le schede vanno benissimo così come i driver
posso dirti la mia, rarissimi problemi con tutte le vga di tutte le marche sia ati/nvidia/intel e anche con la sys, l'unico problema che ho avuto è stato un guasto dell'nvidia della workstation sostituita in garanzia in meno di 24 ore, quindi non farti preconcetti e compra quello che ti piace di più tutte le schede vanno benissimo così come i driver
Esatto, se sei sfigato sei sfigato con qualunque marca!
no perchè con path dx9 il resolve avviene automaticamente senza darti la possibilità di interagire in alcun modo. Se fosse stato possibile inizializzare un buffer allora si sarebbe potuto ricorrere al MRT su z-buffer o all'uso di color buffer. Non è neppure possibile fare render to texture.
Insomma, con le dx9 non si può fare MSAA
Insomma yossarian, insisti sul fatto che la cosa si possa fare esclusivamente con HW DX10, ok, con API DX9 non si può fare, ok, a più basso livello (via driver) non si può fare, ok, ma allora, ci spieghi come hanno fatto, visto che il gioco è DX9, e addirittura un utente con XP skippando la protezione del deviceid sulla demo, è riuscito a vedere il gioco con l'AA attivo ?
leoneazzurro
08-10-2009, 19:36
In una TRADUZIONE, che dovrebbe essere impossibile da manipolare, il delirio fanboy-istico di Mikelezz, ha prodotto una frase che cambiava radicalmente il vero messaggio contenuto nel paragrafo in inglese.
Detto questo, le verità che si sanno fino ad adesso, sono queste:
1)Nvidia ha pagato Eidos per non far andare l'AA sulle schede Ati. (In BAA)
2)Nvidia ha parlato dell'AA come se l'avesse inventato lei, chiamandolo addirittura KICKASS FEATURE e dicendo ai tecnici AMD/ATI di impegnarsi molto di più, se vogliono ottenere risultati simili.
2.1)Nvidia ha mentito quando è stata letteralmente SPUTTANATA per quanto riguarda l'argomento 1.
3)Nvidia anche quando presenta i propri prodotti della nuova generazione, lo fa con modellini di plastica incollati alla bell'e meglio, prendendo così per i fondelli non solo i propri fedelissimi clienti e i propri fanboy, ma anche un'infinita lista di testate specializzate nel settore.
4) Nvidia è nvidiosa e così lo sono anche i suoi più fedeli, e ciechi aggiungo io, sostenitori. (In questo periodo)
Le mie considerazioni sui punti sopra elencati, sono:
1) :cry:
2) :D
2.1) :mc:
3):doh: :muro:
4) :ciapet:
Saluti!
Evitiamo i flames. Questo post é esemplificativo di come accenderli. Quindi stop qui.
leoneazzurro
08-10-2009, 19:41
Insomma yossarian, insisti sul fatto che la cosa si possa fare esclusivamente con HW DX10, ok, con API DX9 non si può fare, ok, a più basso livello (via driver) non si può fare, ok, ma allora, ci spieghi come hanno fatto, visto che il gioco è DX9, e addirittura un utente con XP skippando la protezione del deviceid sulla demo, è riuscito a vedere il gioco con l'AA attivo ?
A livello driver credo si possa fare, ci sono feature che non sono DirectX9 o DirectX10 e che pure si possono attivare con il "metodo giusto". Ad esempio il tessellatore delle Radeon da R600 in poi (che in questo caso non lo si sia sfruttato é un altra faccenda).
Leone, non per polemizzare, ma dimmi:
Ho scritto qualcosa di non vero? Sicuramente NO!
Sono molto più flameable quei post dove volontariamente si fa disinformazione, mentendo. Cmq chiudo qui, è stato detto tutto.
leoneazzurro
08-10-2009, 19:46
anche quando dai degli "nvidiosi" ad altri utenti? Ripeto, stop qui. Le rivalitá delle case produttrici non dovrebbero trasformarsi in rivalitá tra utenti.
... insomma, qual'è la situazione reale, filtrata dai deliri dei fanboy?Semplicemente i due marchi si corrispondono anche se a periodi c'è un sorpasso dell'uno sull'altro. Dopodichè essendo i principali produttori di chip grafici è ovvio che si tratti di prodotti completi, stabili e performanti (dei Catalyst posso dire che da qualche anno li trovo decisamente migliorati). Personalmente simpatizzo per Ati da diversi anni a questa parte perchè la trovo meno chiassona :)
Tra tante Ati stavo pensando di prendere una bella GTS250 per uno dei pc secondari, magari proprio quello in firma: mi attira molto.
A livello driver credo si possa fare, ci sono feature che non sono DirectX9 o DirectX10 e che pure si possono attivare con il "metodo giusto". Ad esempio il tessellatore delle Radeon da R600 in poi (che in questo caso non lo si sia sfruttato é un altra faccenda).Esatto, in questo caso penso che il prerequisito sia l'hardware compatibile.
wolverine
08-10-2009, 20:07
Forte perchè non sono nemmeno i Rocksteady a ribattere :asd:
Che Nvidia si sia sentita presa in causa?
Mi sa che i Rocksteady hanno le mani legate con del nastro nVerde. :fagiano: :stordita:
Mi sa che i Rocksteady hanno le mani legate con del nastro nVerde. :fagiano: :stordita:Era per sottolineare il fatto che è stata Nvidia a ribattere. I Rocksteady centrano relativamente: fossero stati loro a ribattere, sarebbe risultato tutto meno pietoso.
Ale55andr0
08-10-2009, 20:10
Personalmente simpatizzo per Ati da diversi anni a questa parte perchè la trovo meno chiassona :)
.
Io ultimamente ho avuto solo Ati perchè ai miei occhi appaga di più la loro resa video, ovviamente a personalissimo parere e non per prendere le parti di qualcuno: ho posseduto con gran soddisfazione anche nvidia, anche per i chipset non solo le gpu :)
Io ultimamente ho avuto solo Ati perchè ai miei occhi appaga di più la loro resa video, ovviamente a personalissimo parere e non per prendere le parti di qualcuno: ho posseduto con gran soddisfazione anche nvidia, anche per i chipset non solo le gpu :)Sicuramente la resa video ha contribuito a farmi affezionare al marchio Ati e a fare crescere nei suoi confronti una certa fiducia. Le prime Geforce non brillavano per qualità del segnale e si diceva che la resa cromatica era inferiore rispetto alle Radeon, per me è stato così, ma ora non penso che ci siano più grandi differenze (già dalla serie 3 o 4 IMHO eravamo quasi alla pari, dopodichè c'è stato lo scivolone FX). Come dicevo la mia ormai è fiducia, affezione, abitudine: le serie 6, 7 ed 8 di Nvidia sono state altamente concorrenziali rispetto alle corrispettive di Ati (che nel frattempo è scivolata con la serie HD2 e si è riavvicinata con la HD3).
Ale55andr0
08-10-2009, 20:50
Eh eh, hai ragione, la serie HD2000 di Ati e la FX di nVidia non sono state delle vga particolarmente riuscite :D
Da allora Ati è cresciuta lentamente fino ad arrivare ai livelli di eccellenza con le 4000 e ora le 5000. nVidia ha fatto clamore con le 8800Gtx (quando lessi le specifiche rimasi così: :eek: ), ma da allora si è un pò seduta, mi sembra un pò il mio Milan :D :cry:
Eh eh, hai ragione, la serie HD2000 di Ati e la FX di nVidia non sono state delle vga particolarmente riuscite :D
Da allora Ati è cresciuta lentamente fino ad arrivare ai livelli di eccellenza con le 4000 e ora le 5000. nVidia ha fatto clamore con le 8800Gtx (quando lessi le specifiche rimasi così: :eek: ), ma da allora si è un pò seduta, mi sembra un pò il mio Milan :D :cry:La serie HD2 non era male affatto, solo che la scheda di punta risultava efficace solamente a risoluzioni elevatissime (soprattutto la GDDR4 da 1GB) e poi consumava il finimondo, poi hanno ovviato a questa ultima svista con la serie successiva che risultava prestazionalmente allineata. La serie 8 di Nvidia è stata sbalorditiva, la serie 9 ha apportato piccoli miglioramenti alla formula collaudata (per questo stò valutando la GTS250) ma con le 200 hanno fatto un altro bel colpaccio. Ottime schede, lontane sicuramente dal mezzo flop della serie 5/FX. Devo dire che non mi piacciono le soluzioni dual gpu dal doppio pcb.
yossarian
08-10-2009, 21:14
Insomma yossarian, insisti sul fatto che la cosa si possa fare esclusivamente con HW DX10, ok, con API DX9 non si può fare, ok, a più basso livello (via driver) non si può fare, ok, ma allora, ci spieghi come hanno fatto, visto che il gioco è DX9, e addirittura un utente con XP skippando la protezione del deviceid sulla demo, è riuscito a vedere il gioco con l'AA attivo ?
l'ha fatto con hardware dx9?
Quale tipo di AA ha visto? Era MSAA?
Rispondi a queste due semplici domande.
Se le risposte sono si ad entrambe, allora il MSAA è attivabile con deferred rendering e dx9 altrimenti mettevi l'animo in pace
l'ha fatto con hardware dx9?
E' stato fatto con hardware dx10, era una 4870.
Quale tipo di AA ha visto? Era MSAA?
Se con 3danalyze imposto il deviceid di una 4870x2
http://www.pctunerup.com/up/results/_200910/th_20091008223219_3danalyze.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091008223219_3danalyze.jpg)
ho questo errore, quindi, secondo te il gioco che tipo di AA sta cercando di usare ?
http://www.pctunerup.com/up/results/_200910/th_20091008223301_BAA-Error.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091008223301_BAA-Error.jpg)
Se le risposte sono si ad entrambe, allora il MSAA è attivabile con deferred rendering e dx9 altrimenti mettevi l'animo in pace
Il gioco gira in DX9, e su hardware DX10 sicuramente usa l'MSAA, questa è una certezza.
Come è stato fatto ? E' una cosa banale, ma nessuno sa spiegarcelo, peccato :D
yossarian
08-10-2009, 21:46
E' stato fatto con hardware dx10, era una 4870.
Se con 3danalyze imposto il deviceid di una 4870x2
http://www.pctunerup.com/up/results/_200910/th_20091008223219_3danalyze.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091008223219_3danalyze.jpg)
ho questo errore, quindi, secondo te il gioco che tipo di AA sta cercando di usare ?
http://www.pctunerup.com/up/results/_200910/th_20091008223301_BAA-Error.jpg (http://www.pctunerup.com/up/image.php?src=_200910/20091008223301_BAA-Error.jpg)
Il gioco gira in DX9, e su hardware DX10 sicuramente usa l'MSAA, questa è una certezza.
Come è stato fatto ? E' una cosa banale, ma nessuno sa spiegarcelo, peccato :D
il gioco gira in dx9 ma attiva il render to texture (feature dx10) in presenza di hw nvidia per applicare il msaa. In presenza di hw ati continua ad usare dx9 ed è impossibile attivare il msaa. Mi pare piuttosto semplice :D
D'altro canto, se fosse possibile attivare il msaa in dx9 dovresti essere in grado di farlo anche con hw dx9 (e non mi pare ci sia una sola vga dx9 con cui sia possibile). Se devi usare hw dx10 vuol dire che sei costretto a ricorrere ad una feature dx10. Elementare watson :D
il gioco gira in dx9 ma attiva il render to texture (feature dx10) in presenza di hw nvidia per applicare il msaa. In presenza di hw ati continua ad usare dx9 ed è impossibile attivare il msaa. Mi pare piuttosto semplice :D
D'altro canto, se fosse possibile attivare il msaa in dx9 dovresti essere in grado di farlo anche con hw dx9 (e non mi pare ci sia una sola vga dx9 con cui sia possibile). Se devi usare hw dx10 vuol dire che sei costretto a ricorrere ad una feature dx10. Elementare watson :D
:cincin:
Mandiamo in loop la discussione ? http://www.hwupgrade.it/forum/showpost.php?p=29129653&postcount=311 :read:
Scherzo ovviamente ;)
yossarian
08-10-2009, 22:21
:cincin:
Mandiamo in loop la discussione ? http://www.hwupgrade.it/forum/showpost.php?p=29129653&postcount=311 :read:
Scherzo ovviamente ;)
le righe di codice te le può scrivere un programmatore non io; quello che ti posso dire è ciò che si fa a livello concettuale conoscendo le architetture hardware. Fare una chiamata ad una feature dx10 in un SW dx9 non è per nulla complicato come non è difficile fare un'operazione di ID detect che permetta di attivare questa feature dx10 solo in presenza di hardware di un certo vendor.
Se sei interessato al come ti consiglio di cercare un programmatore (ti ho anche indicato un nome); se vuoi dimostrare che è possibile fare MSAA in dx9 devi trovare hw dx9 che sia in grado di farlo.
La prima cosa è fattibile la seconda impossibile :D
Nella programmazione software tutto è possibile, il limite hardware invece non lo si abbatte se non con l'emulazione e sappiamo tutti cosa significa.
Anche se con qualche piccola difficoltà, alla fine qualcuno vedo se n'è fatta finalmente una ragione :)
Nella programmazione software tutto è possibile, il limite hardware invece non lo si abbatte se non con l'emulazione e sappiamo tutti cosa significa.
Mi pare di capire che il path per attivare l'aa in batman passi direttamente via driver bypassando le directx, e questo permette con hardware dx10 (limitato in questo caso alle sole schede nvidia dx10) di essere utilizzato anche su win xp che è sprovvisto di un'apposiata versione delle librerie dx10. E' corretto?
yossarian
09-10-2009, 12:00
Mi pare di capire che il path per attivare l'aa in batman passi direttamente via driver bypassando le directx, e questo permette con hardware dx10 (limitato in questo caso alle sole schede nvidia dx10) di essere utilizzato anche su win xp che è sprovvisto di un'apposiata versione delle librerie dx10. E' corretto?
si può agire a livello di HAL (hardware abstraction layer), un layer che fa da interfaccia tra le DX e i driver. L'HAL è in grado di emulare via SW alcuna funzioni di cui l'HW è carente. In realtà, in questo caso, non si tratta di emulare un bel niente poichè l'HW dx10 è in grado di fare MSAA con deferred rendering. L'unica cosa che si deve fare è inibire il resolve automatico previsto dalle DX9 e far eseguire un'operazione di render to texture dei valori dello z-buffer prima del resolve stesso (operazione che l'HW dx9 non è in grado di fare ma quello dx10 si). Quindi resta impossibile l'attivazione del MSAA con le dx9 ed è confermato l'uso di una feature dx10. Ovvio che il 3danalyze "veda" api dx9 perchè l'HAL è un layer sottostante alle stesse dx e che fa da interfaccia tra queste e i veri e propri driver.
Mi pare di capire che il path per attivare l'aa in batman passi direttamente via driver bypassando le directx
Propriamente nel driver no. Poiché in quel questo caso Ian di ATI, che in questi giorni si sta confrontando a colpi di cinquettii con la sua nemesi verde, non avrebbe mai potuto abilitare la funzione dell'MSAA semplicemente cambiando l'ID della scheda video. :)
Non è necessario arrivare fino al driver, esiste ancora un livello un po' più su e cioè il codice che sta dietro al modello API directx che praticamente si presenta essere come l'ultimo baluardo prima di accedere alle funzioni/metodi ibridi del driver.
Semplificando ancora diciamo che esistono due modelli API ben distinti, uno DX9 e l'altro DX10. Qualcuno con particolare perizia è riuscito a farli accoppiare.... è nato così un nuovo modello che possiamo chiamare, ad esempio, 10.5; questo nuovo modello ha ereditato alcuni comportamenti dx9, altri dx10 e altri ancora nuovi di zecca che prima non c'erano, a seconda della necessità.
Questa non è per niente pratica nuova in ambito di sviluppo nei videogiochi, ma a dire la verità neanche negli altri settori.
Ed Eidos, o Nvidia, sono solo gli utlimi di una schiera. Tanti giochi sviluppati in precedenza hanno usato questo path per implementare effetti realizzati da hw 10 in un engine propriamente dx9; e non necessariamente antialising. Le dx10 non ha in + solo l'MSAA, ma anche altre caratteristiche e novità.
Semplificando ancora diciamo che esistono due modelli API ben distinti, uno DX9 e l'altro DX10. Qualcuno con particolare perizia è riuscito a farli accoppiare.... è nato così un nuovo modello che possiamo chiamare, ad esempio, 10.5; questo nuovo modello ha ereditato alcuni comportamenti dx9, altri dx10 e altri ancora nuovi di zecca che prima non c'erano, a seconda della necessità.
Se ho capito da quel che ha scritto yoss, in questo caso non sono state usate chiamate alle librerie dx10, anche perché in windows xp non ci sono, ma si è passati direttamente a livello di HAL per sfruttare caratteriste hardware di schede dx10 per poter applicare l'antialiasing.
Per il resto capendo un pò di programmazione ho capito come sia possibile aggiungere chiamate alle dx10 in motori che originariamente non le prevedevano. :)
yossarian
09-10-2009, 15:29
Se ho capito da quel che ha scritto yoss, in questo caso non sono state usate chiamate alle librerie dx10, anche perché in windows xp non ci sono, ma si è passati direttamente a livello di HAL per sfruttare caratteriste hardware di schede dx10 per poter applicare l'antialiasing.
Per il resto capendo un pò di programmazione ho capito come sia possibile aggiungere chiamate alle dx10 in motori che originariamente non le prevedevano. :)
si, praticamente, attraverso l'HAL hanno inibito il MSAA in DX9 che fa resolve in automatico senza dare la possibilità di intervenire e hanno salvato i dati dello z-buffer su una texture; quindi si è fatto il resolve. In questo modo è stato possibile accedere ai dati contenuti nello z-buffer facendo un accesso a texture.
Di fatto è uno dei procedimenti standard delle dx10 forzato, in questo caso, su HW dx10.
Se ho capito da quel che ha scritto yoss, in questo caso non sono state usate chiamate alle librerie dx10
Se ho capito da quel che ha scritto yoss, in questo caso non sono state usate chiamate alle librerie dx10 STANDARD (completo io) :)
anche perché in windows xp non ci sono
Il fatto che non ci siano non è detto che non sia possibile implementarli. XP non è un problema; è Microsoft che non ha voluto rilasciare ufficialmente le librerie DX10 per questo sistema operativo per ragioni di marketing. Una volta messo in piedi il nuovo modello non ha più senso parlare di XP o Vista, funzionerà su ambo gli S.O. driver permettendo.
Si è parlato di emulazione software, io escludo assolutamente questa strada.... tuttavia è un'altra cosa e totalmente differente dal percorso che ho descritto. L'MSAA ha bisogno di ACCELERAZIONE HARDWARE per ottenere prestazioni dignitose. Nel momento in cui riuscissimo a realizzare un pezzo di hardware virtuale per far andare l'MSAA via software, in pratica ci saremmo messi in una situazione paradossale; abbiamo costruito sì un modello che EMULA l'MSAA... ma poi non riusciremmo a trovare in circolazione un Hardware capace di digerire sta roba qui senza singhiozzi!
I benefici di riprodurre, virtualmente, caratteristiche hardware di questa generazione di schede potranno essere degustati in maniera decente a non meno di 2 lustri e sempre ammesso che serva sul serio farlo e che ci sia qualcuno disposto a investirvi in futuro.
Qua il nuovo modello generato dal matrimonio DX9+DX10, per l'MSAA accede all'hardware con la stessa tecnica che usavano le DX10. Stop. :)
Spero di non essere stato troppo complicato a spiegarmi anche rispetto a miei precedenti post che in sintesi replicavano la medesima cosa, ma in altre parole e forse con + tecnicismi.
Ok capito... Grazie ad entrambi. :)
Ok capito... Grazie ad entrambi. :)
Si immagini!!! :)
Foglia Morta
03-11-2009, 23:29
Uppo con questo interessante articolo: http://www.hexus.net/content/item.php?item=20991
Pare proprio un comportamento schifoso quello di nVidia...
E in Eidos mi pare che stiano veramente messi male.
MiKeLezZ
04-11-2009, 00:09
Uppo con questo interessante articolo: http://www.hexus.net/content/item.php?item=20991
Pare proprio un comportamento schifoso quello di nVidia...
E in Eidos mi pare che stiano veramente messi male.Anche questa recensione non è male:
http://www.hardocp.com/article/2009/11/03/resident_evil_5_gameplay_performance_iq/10
AMD GPU Problems and Driver Support
The new AMD Radeon HD 5000 series (and the Radeon HD 4000 series) performance seems to be impaired in this game. For whatever reason, there are several issues with these video cards. There is a definite image quality bug which causes overblown HDR on all Radeon HD 5000 series video cards in DX10. This causes the game to look completely different in lighting from all other video cards, even the Radeon HD 4000 series. This overblown HDR rendering is very annoying in-game, causing game characters to be hard to see, blending in with the background lighting. Then you have the fact that all Radeon HD 4000 and 5000 series video cards are experiencing a very odd performance drop in cinematics (which are rendered via the engine remember in real-time) while in DX10. Not only that, but the CPU performance also drops in these same scenarios. We have no idea what that is all about; we’ve never seen that before. Factor all of this in and it seems the new Radeon HD 5000 series video cards may not be performing at their full performance levels in this game, holding their potential back.
When all is said and done, AMD has some driver problems to work through in this game. Thankfully, we have made AMD aware of the graphics bug and they are duplicated the issue and say that a fix will come in a later Catalyst driver version. However, while AMD is waiting to get that fix out to gamers, those same gamers can already enjoy Resident Evil 5 on current generation NVIDIA GeForce cards with no graphics bugs, no performance dips, and really great performance right now. Once again we see AMD lagging behind when it comes to driver support in new games, and in fact Resident Evil 5 isn’t even that brand new, it has already been out a month and a half on the PC. The fact we have to wait even longer until a new Catalyst release for these fixes is very depressing.
Foglia Morta
04-11-2009, 00:16
Anche questa recensione non è male:
http://www.hardocp.com/article/2009/11/03/resident_evil_5_gameplay_performance_iq/10
Non c'entra nulla con quanto riportato... queste bambocciate lasciale all'altra parte di te: Carla e o il suo lato B ( Carlo ).
MiKeLezZ
04-11-2009, 00:28
:bimbo:
:bimbo:
1. questo tuo è un bel flame... bravo! :)
2. cosa c'entra hd5000 con la news?!... niente!!!
3. a te non sembra "normale" avere un problema di driver dopo 1 (UNA!) sola release definitiva dei catalyst per la 5000, su una nuova scheda grafica (e su un solo gioco specifico)?!... beh ma allora sei il dio della programmazione! :D
4. http://www.hwupgrade.it/forum/showthread.php?p=29119446#post29119446
ma non dovevi defilarti dalla discussione, tu?!...
Uppo con questo interessante articolo: http://www.hexus.net/content/item.php?item=20991
Pare proprio un comportamento schifoso quello di nVidia...
E in Eidos mi pare che stiano veramente messi male.
Ma Eidos quando decise di accordarsi con Nvidia per questa idiozia qui, forse non aveva fatto bene i conti... i potenziali clienti di una softwarehouse NON sono tutti i clienti di un produttore di hardware. Una disapprovazione di questo genere era prevedibile...
Se questi non hanno veramente intascato nessun compenso... allora sono veramente degli idioti...
Insomma se penso che Eidos alla fine è il vero depositario del marchio registrato BAA... beh si è infilata davvero in una bella situazione. :asd:
Nvidia prima rivendica l'MSAA, poi risponde per Eidos facendone le veci e alla fine gli passa la patata bollente dicendo che il gioco è proprietà loro.... Ma cos'è teatro? :asd:
Vorrei proprio vedere in futuro in quale altro titolo, come Batman, Nvidia abbia coraggio di passare all'eventuale softwarehouse sto presunto codice proprietario dell'antialiasing..... voglio proprio vedere.
Quell'altro dipendente e sfortunato responsabile a divulgare la parola Nvidia, nell'articolo, per sostenere la tesi del pessimo supporto ATI nei giochi, mi solleva la questione dell'AA in Bioshock.... quando era caso mai più semplice prendersela direttamente con i Catalyst in generale.
Vuoi vedere che Weinand ha confuso l'FSAA in Bioshock con l'MSAA in Batman? Oppure sperava di fare fesso qualcuno?
Ma in Nvidia, se sono così bravi, possono anche evitare di aggiornare i loro Forceware... se le cose stanno così. :doh:
Bioshock tutt'oggi non ha l'MSAA e il fatto che non si potesse abilitare l'FSAA dal Control Center era effettivamente un problema di ATI che poi ha risolto.
Qua ATI, manco se scende il padre eterno dal cielo, puo' far nulla in Batman se quegli altri lo bloccano dal lato del gioco.
yossarian
04-11-2009, 14:55
Ma Eidos quando decise di accordarsi con Nvidia per questa idiozia qui, forse non aveva fatto bene i conti... i potenziali clienti di una softwarehouse NON sono tutti i clienti di un produttore di hardware. Una disapprovazione di questo genere era prevedibile...
Se questi non hanno veramente intascato nessun compenso... allora sono veramente degli idioti...
Insomma se penso che Eidos alla fine è il vero depositario del marchio registrato BAA... beh si è infilata davvero in una bella situazione. :asd:
Nvidia prima rivendica l'MSAA, poi risponde per Eidos facendone le veci e alla fine gli passa la patata bollente dicendo che il gioco è proprietà loro.... Ma cos'è teatro? :asd:
Vorrei proprio vedere in futuro in quale altro titolo, come Batman, Nvidia abbia coraggio di passare all'eventuale softwarehouse sto presunto codice proprietario dell'antialiasing..... voglio proprio vedere.
Quell'altro dipendente e sfortunato responsabile a divulgare la parola Nvidia, nell'articolo, per sostenere la tesi del pessimo supporto ATI nei giochi, mi solleva la questione dell'AA in Bioshock.... quando era caso mai più semplice prendersela direttamente con i Catalyst in generale.
Vuoi vedere che Weinand ha confuso l'FSAA in Bioshock con l'MSAA in Batman? Oppure sperava di fare fesso qualcuno?
Ma in Nvidia, se sono così bravi, possono anche evitare di aggiornare i loro Forceware... se le cose stanno così. :doh:
Bioshock tutt'oggi non ha l'MSAA e il fatto che non si potesse abilitare l'FSAA dal Control Center era effettivamente un problema di ATI che poi ha risolto.
Qua ATI, manco se scende il padre eterno dal cielo, puo' far nulla in Batman se quegli altri lo bloccano dal lato del gioco.
io invece voglio vedere il presunto codice proprietario per farmi quattro risate :D
In giro per il web circolano voci e articoli che descrivono come poter abilitare l'MSAA in gioco per Batman con il solito cambio dell'identificativo scheda; a quanto pare lo stratagemma funziona anche nella versione full del gioco.
Si tratta ovviamente di un espediente NON ufficiale ma che un utente ATI se vuole puo' applicare visto il notevole impatto sulle prestazioni guadagnate per una scheda già di fascia alta serie 48xx.
In un post (http://forums.eidosgames.com/showthread.php?t=97806) recente del forum ufficiale Edios per B:AA vengono illustrati, da un utente, i semplici passaggi da effettuarsi con ATI Tray Tools; e tra l'altro il post è aperto da un admin del forum che per l'ennesima volta spiega come abilitare l'FSAA dal Catalyst... che forse avrebbe fatto meglio ad evitare di ribadire, vista la pronta risposta di spire nel sottolineare come sia gravoso per la GPU quest'altro tipo di applicazione.....; fra l'altro, scorgo anche un certo ottimismo da parte dell'admin Eidos che posta screenshots con filtri attivi e spinti fino a 8X. :asd:
Chissà se sotto continue pressioni, Eidos alla fine decida davvero di rilaciare una patch al riguardo e seguire così il consiglio spassionato del manager AMD.
Per un confronto potete dare un'occhiata anche qui:
http://www.pcinpact.com/actu/news/53900-geforce-radeon-batman-aa-att.htm
http://translate.google.ca/translate?u=http%3A%2F%2Fwww.pcinpact.com%2Factu%2Fnews%2F53900-geforce-radeon-batman-aa-att.htm&sl=fr&tl=en&hl=en&ie=UTF-8 (per chi non mastica il francese)
Vi accorgerete come praticamente i risultati, alla fine, possono ritenersi praticamente identici tra Nvidia e ATI con un vantaggio, in termini di fotogrammi al secondo, per quest'ultimo.
Con l'occhio clinico potete osservare un migliore, ma decisamente trascurabile, metodo di applicazione del filtro MSAA da parte dell'hw ATI.
Eccovi la vostra kickass feature Nvidia!
MiKeLezZ
04-11-2009, 19:39
1. questo tuo è un bel flame... bravo! :)
2. cosa c'entra hd5000 con la news?!... niente!!!
3. a te non sembra "normale" avere un problema di driver dopo 1 (UNA!) sola release definitiva dei catalyst per la 5000, su una nuova scheda grafica (e su un solo gioco specifico)?!... beh ma allora sei il dio della programmazione! :D
4. http://www.hwupgrade.it/forum/showthread.php?p=29119446#post29119446
ma non dovevi defilarti dalla discussione, tu?!...1) solo per avere postato un link? penso di aver superato il mio record personale; ovviamente sulle accuse personali a me rivolte non hai visto nulla...
2) la news parla di NVIDIA che si difende dalle accuse di ATI adducendo inoltre che il supporto di quest'ultima con le software house sia lacunoso; il link da me postato in mio parere non fa altro che confermare ciò.
capisco anche bene che chi vuole difendere ATI a spada tratta abbia tutto l'interesse che non si sappia nulla di questo in giro, però non è corretto verso chi magari legge il forum con animo onesto e vuole solo farsi una idea di come siano davvero le cose (che magari non sono così gravi come si dipingono, ma neppure paritetiche).
3) io non programmo. il titolo non è certo uscito stamani ed è praticamente la hit del momento: mi sembra lecito aspettarsi di più. lo stesso è stato detto dal recensione di hardopc che non penso sia una persona stupida. anzi se devi arrabbiarti, arrabbiati con lui, no? io sono solo un "ambasciator", e come tale non porto pena :-)
e non lo si chiede per presunzione, ma semplicemente perchè è quello che si ha dalla concorrenza (che ogni 10 gg sforna driver con bugfix, e li corregge non solo dopo l'uscita del titolo... ma collabora con le software house nel mentre sono in fase beta).
4) hai perfettamente ragione, ma che ci vuoi fare. sono come l'erba cattiva, tu la sdradichi, e ti rispunta più in là nel giardino...
Uppo con questo interessante articolo: http://www.hexus.net/content/item.php?item=20991
Pare proprio un comportamento schifoso quello di nVidia...
E in Eidos mi pare che stiano veramente messi male.
ma pensa te... chissa' che tireranno fuori ora i fanboys nvidia :asd:
c;,a;,z;,a
1) solo per avere postato un link? penso di aver superato il mio record personale; ovviamente sulle accuse personali a me rivolte non hai visto nulla...
2) la news parla di NVIDIA che si difende dalle accuse di ATI adducendo inoltre che il supporto di quest'ultima con le software house sia lacunoso; il link da me postato in mio parere non fa altro che confermare ciò.
capisco anche bene che chi vuole difendere ATI a spada tratta abbia tutto l'interesse che non si sappia nulla di questo in giro, però non è corretto verso chi magari legge il forum con animo onesto e vuole solo farsi una idea di come siano davvero le cose (che magari non sono così gravi come si dipingono, ma neppure paritetiche).
3) io non programmo. il titolo non è certo uscito stamani ed è praticamente la hit del momento: mi sembra lecito aspettarsi di più. lo stesso è stato detto dal recensione di hardopc che non penso sia una persona stupida. anzi se devi arrabbiarti, arrabbiati con lui, no? io sono solo un "ambasciator", e come tale non porto pena :-)
e non lo si chiede per presunzione, ma semplicemente perchè è quello che si ha dalla concorrenza (che ogni 10 gg sforna driver con bugfix, e li corregge non solo dopo l'uscita del titolo... ma collabora con le software house nel mentre sono in fase beta).
4) hai perfettamente ragione, ma che ci vuoi fare. sono come l'erba cattiva, tu la sdradichi, e ti rispunta più in là nel giardino...
Mi pare di capire che Raven, ti abbia ripreso perché sei andato offtopic con la storia dei driver poco aggiornati.
Di ambasciatori ATI o Nvidia non ne abbiamo bisogno, proprio perché, in questa circostanza, non potrebbero avere un'opinione obiettiva visto che la parte lesa è la clientela... cioè i PC-gamers.
Il fatto che un utente con un determinato HW non voglia che un altro utente, con hw differente, possa beneficiare di caratteristiche che ha pagato, è un pensiero da bambini dell'asilo nonché non condivisibile manco a trovarne attenuanti (anche perché non ci sono).
Non capisco perché continui a tirare questa corda dal lato sbagliato.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.