View Full Version : EVGA e NVIDIA insieme per una nuova scheda grafica
Redazione di Hardware Upg
22-10-2009, 10:30
Link alla notizia: http://www.hwupgrade.it/news/skvideo/evga-e-nvidia-insieme-per-una-nuova-scheda-grafica_30509.html
Emergono indiscrezioni circa una nuova soluzione grafica prossima alla commercializzazione, sviluppata congiuntamente tra NVIDIA ed EVGA
Click sul link per visualizzare la notizia.
e se il gioco non supporta PhysX? Paghi un buon 40% di potenza in +, utilizzandola solo in alcuni casi...
Mah... alquanto inutile...
ancora ci si arrampica sugli specchi, preferiscono fare un frullato di schede video piuttosto che dire che non hanno la più pallida idea di come far funzionare gt300 in tempi umani...
Boh, a me sembra tanto che questa cosa sia frutto di una frase da parte dei vertici NVIDIA che potrebbe assomigliare a qualcosa del tipo:
"O ca****o, qui ATI ha sfornato qualcosa di veramente buono e noi non abbiamo nulla che possa competere per prezzo/consumi/prestazioni. Siccome non abbiamo nulla di pronto evitiamo di fare vedere che non sappiamo da che parte guardare e facciamo uscire un prodotto che faccia parlare di se, giusto un contentino..."
Boh, io rimango della mia idea, aspetto la vapor-X con frequenze non stock e via di strisciata di carta di credito
che inutilità bestiale... O_o
già che c'erano potevano mettergli anche una 8600gs mobile, così da avere pochi consumi nel 2d
CChe frullato, sono alla frutta, in attesa...
Cmq, date le tempistiche spero che Fermi sia qualcosa di alieno, poichè dovranno convincere mesi e mesi di vendite Ati, a partire da Novembre.....
atinvidia284
22-10-2009, 10:58
Nvidia continua con il mangime per polli,cerca di fare gli ultimi guadagni sfruttando physx,che si avvale della sola gpu su pochissime unità di titoli,prima della sua prematura morte.
Non oso immaginare quanto costerà questa inutility
detesto il fatto che physix non sia uno standard aperto.
già che c'erano potevano mettergli anche una 8600gs mobile, così da avere pochi consumi nel 2d
CChe frullato, sono alla frutta, in attesa...
Cmq, date le tempistiche spero che Fermi sia qualcosa di alieno, poichè dovranno convincere mesi e mesi di vendite Ati, a partire da Novembre.....
gia, quoto in pieno..dopo circa 4 mesi di vendite delle nuove 5800 nvidia deve sfornare qualcosa che sia superiore delle proposte ati con prezzi migliori di ati, altrimenti credo faccia poco..
deve essare una cosa tipo quella che accadde con le 8800gt, prestazioni abbastanza elevate (anche se si parlava di fascia media) con prezzi veramente contenuti!!
in teoria ora come ora dovrebbero fare una vga superiore alla 5870 con prezzi inferiori, il che credo che da nvidia sia parecchio difficile dato che adotta tecnologie che fanno aumetare il prezzo delle proprie gpu (vedi CUDA e phisix).
PhysX gira tramite i driver CUDA e CUDA è open in quanto implementato con Open64.....è la 2000000 volta che lo dico ma a quanto pare non legge nessuno :D
Diobrando_21
22-10-2009, 11:29
PhysX gira tramite i driver CUDA e CUDA è open in quanto implementato con Open64.....è la 2000000 volta che lo dico ma a quanto pare non legge nessuno :D
quindi fammi capire, anche physx si può considerare open?
il fatto di aver basato le proprie gpu di fascia alta (gtx275-gtx285) su pcb molto complessi e quindi piu costosi con bus della memoria superiore ai 256bit di ati al momento credo sia un grosso problema per il produttore californiano in quanto non gli permette di abbassare il costo delle proprie gpu e limitare cosi i danni in attesa dell' uscita di fermi.
ahah voglio vedere quante ne venderanno :D
sopratutto conoscendo lo standard del listino prezzi di EVGA :D
Crimson Skies
22-10-2009, 12:10
Le le schede della famiglia GTX2xx sono ottime schede. Metterle insieme per tirare fuori qualcosa in attesa di Fermi non è una così cattiva idea. Ati è riuscita a tirar fuori qualcosa di nuovo e ottimo. Nvidia piuttosto che stare a guardare in attesa della nuova piattaforma cerca di mescolare quello che ha di buono. Mi sembra una buona idea questa.
Goofy Goober
22-10-2009, 12:18
no beh, oggettivamente, avere una dual gpu dove una delle schede funziona solo in mirror's edge e batman (come nomi di giochi usciti recentemente) è davvero totally useless
Certo che considerare innovative le nuove ATi è proprio una barzelletta. Sono semplicemente delle HD4000 x 2. Niente innovazioni tecnologiche a parte il fatto di poter gestire configurazioni multimonitor e un filtro anisotropico finalmente allineato alla concorrenza.
nVidia invece presenterà una architettura completamente nuova e chi è interessato al GPU computing si troverà per le mani un prodotto eccezionale su cui sviluppare. "Limitarsi" a far fare 200fps in un gioco invece di 120 non la chiamo innovazione. Fermo restando che anche Fermi porterà (almeno sulla carta) un notevole aumento di potenza di calcolo.
BYEZZZZZZZZZZZZ!!!!!!!!!!!!!
@ Zak84
già e nella barzelletta ti sei dimenticato il "consumando meno"...
nvidia presenterà...ati vende
nVidia ancora non ha capito che è inutile spendere energie e denaro per una cosa che non può essere sfruttata da tutti, da tutte le schede video e che non verrà implementata in tutti i giochi?
@huema
Si ho dimenticato i consumi. Un punto (importante) a favore di ATi in questo momento. :)
masty_<3
22-10-2009, 12:57
Zak, nvidia presenterà e ati vende
inoltre mi spiegate l'utilità di questa scheda? conoscendo l'italia e i relativi shop, questa scheda non costerà meno di 350 a cui aggiungere il resto per le ss e magari il sovrapprezzo a cui le vendono alcuni shop
arrotondiamo a 370, a sto punto se proprio vuoi buttare soldi ti fai una GF GTX295 Gainward 1792MB Singolo PCB € 367.00 (se uno è così ottuso da prendere una gtx invece di una 5870 o ha bisogno di physix), disattiva lo sli da drivers e ha una gtx275 per il 3d e una gtx275 per il physix allo stesso prezzo no? :muro:
Gaming_Minded
22-10-2009, 13:05
Beh se Ati sta aspettando di vedere GT300 per lanciare Hemlock vuol dire che teme le nuove GPU di nvidia. Vuole semplicemente riprendersi il trono di scheda piu' veloce del mercato stanando fermi sul nascere, ma è solo questione di tempo. Quando poi Nvidia svilupperà Gt300 a doppia GPU sicuramente verso primavera come fu con la GTX295 quest'anno Hemlock sarà la terza generazione di " X2 "ad essere al secondo posto come soluzione piu' veloce in assoluto. E' inutile anche solo sperarlo i giochi sono ottimizzati Nvidia, i driver Nvidia sono molto piu' maturi di quelli ATi. Vuoi la scheda piu' potente del mondo per l'intrattenimento desktop ? Ok prendi Nvidia. Vuoi avere una scheda potente ma che abbia un prezzo piu' accessibile ok sceglierai ATi.
Perchè tanta esaltazione per le 5800 quando poi arriverà GT300 bruciandole ?
Come già detto nel topic delle gtx, secondo me questa scheda può avere un senso per chi comuque voleva restare con nvidia e prendere una seconda scheda per la fisica, soprattutto se dotato di un solo slot pciE.
Ma se la pongono al quel prezzo mi sembra solo il modo di vendere ancora GTX285 (che già per l'utente accorto aveva poco senso con la gtx 275 in giro) che oramai visti i costi era fuori mercato.
@Zak84
A suo tempo ati aveva dichiarato che RV870 integrava il maggior numero di innovazioni dal tempo di R600. Evidentemente ci sono sotto la scocca migliorie non facili da vedere per un occhio profano.
In ogni caso ritengo queste ati innovative sotto molti aspetti, come del resto le ati sono innovative fin dai tempi di R600 (anche se in quel caso l'innovazione non è stata positiva, e ha portato la scheda a perdere il confronto prestazionale).
In ogni caso è indubbio che al momento siano le schede più avanzate. E il fatto che Nvidia abbia riprogettato il suo chip non sigifica che sarà più avanzato, ma solo che sarà orientato verso un certo tipo di utilizzo piuttosto che un altro. O semplicemente che la vecchia architettura non era sufficientemente avanzata per sopravvivere ancora.
Beh se Ati sta aspettando di vedere GT300 per lanciare Hemlock vuol dire che teme le nuove GPU di nvidia. Vuole semplicemente riprendersi il trono di scheda piu' veloce del mercato stanando fermi sul nascere, ma è solo questione di tempo. Quando poi Nvidia svilupperà Gt300 a doppia GPU sicuramente verso primavera come fu con la GTX295 quest'anno Hemlock sarà la terza generazione di " X2 "ad essere al secondo posto come soluzione piu' veloce in assoluto. E' inutile anche solo sperarlo i giochi sono ottimizzati Nvidia, i driver Nvidia sono molto piu' maturi di quelli ATi. Vuoi la scheda piu' potente del mondo per l'intrattenimento desktop ? Ok prendi Nvidia. Vuoi avere una scheda potente ma che abbia un prezzo piu' accessibile ok sceglierai ATi.
Perchè tanta esaltazione per le 5800 quando poi arriverà GT300 bruciandole ?
Eh ma se io dovessi comprare un pc tipo da qui a 1 mese o due o per Natale e volendolo equipaggiare con un comparto grafico di tutto rispetto, io prenderei la serie 5800 di ATI visto che NON c'è altro sul mercato ATTUALMENTE di più potente.
La GT300 non esiste.... e poi c'è da vedere quando quest'ultima uscirà se ATI dietro l'angolo c'ha un bazooka pronto. Il tempo scorre per tutti mica Nvidia ha il potere di fermarlo a suo piacimento :D
Per ora i fatti questi sono. Poi vedremo
Dany_M82
22-10-2009, 14:27
Cmq per precisare i due chip montati su questa scheda non sono della stessa generazione dal momento che GTX275 è un GT200b e GTS250 è un G92(cioè un G80).
Inoltre la seconda scheda, la GTS250, non è destinata ad alcun calcolo della scena grafica. Si occuperà solo della fisica. Quindi se qualche pollo si prenderà questa scheda si porterà a casa una gtx275 da 200 euro e una GTS250 da 512 mb che dovrebbe essere sotto i 100. Il tutto sarà abbondantemente mascherato con chissà quale nome così i polli di turno che la compreranno si ritroveranno un prodotto vecchio venduto a prezzo esageratamente alto e dalle prestazioni ben lontane dalla proposta più potente di ati!
Dany_M82
22-10-2009, 14:33
@Lowenz
io ti leggo per la prima volta e posso dirti che ciò che dici è inesatto.
Cuda è una tecnologia proprietaria, così come lo è il linguaggio cuda.
E' open per chi vuole sviluppare un software con quel linguaggio per sfruttare hardware nvidia,
Ma non è open per nessun produttore hardware che si vede impossibilitato a implementare tali tecnologie per farle funzionare con i propri chip.
Il vero linguaggio open è OpenCL. Cuda, PhysX e robaccia varia è destinata a far la fine dei dinosauri
Dany_M82
22-10-2009, 14:34
Volevo dire "PhysX è una tecnologia proprietaria, così come lo è il linguaggio cuda."
Nvidia quando farà uscire Fermi Tutti, la ati abbasserà ulteriormente il prezzo delle prime 5800 series, farà uscire le x2 a prezzi inferiori delle concorrenti nvidia e nvidia piangerà lacrime di coccodrillo per essersi seduta sugli allori...anche se la tecnologia fermi porterà innovazioni notevoli, lo farà sicuramente i campi cmq secondari al campo gaming alla quale ati si stà concentrando...il trio: prezzo-consumi-potenza ATI è imbattibile....nvidia dalla sua avrà solo potenza inutile per gaming e consumi sicuro maggiori delle 5800...quindi....
ndrmcchtt491
22-10-2009, 15:15
ma le dx11? xD
Se ti riferisci a titoli non vedo in giro ancora nulla:Perfido:
Se le dx11 faranno :banned: come le dx10 se le possono anche tenere, per non parlare di S.O...:bsod: :bsod: :bsod:
Per adesso io sono ancora ancorato a XP e a una 9600gt:cool: :cool: :cool:
Ragazzi nVidia fa così da anni.. spreme quello che può spremere dalle sue architetture con cambi di nome, di scatola, di etichetta, di bundle, fa tanto marketing ma non rincorre ATI con un prodotto immaturo/non pronto. Aspetta qualche mesetto per uscire con una famiglia di prodotti superiore al concorrente, mentre ATI risponde in genere più velocemente alle mosse avversarie, magari con un riposizionamento o con una versione ad-hoc per battagliare con una scheda in particolare.
A Sunnyvale non hanno fretta perché ritengono che la loro percentuale di sostenitori non cambi scheda al volo guardando la concorrenza ma aspetti un loro nuovo pezzo.
P.S. Analisi del tutto personale del settore enthusiast video 3D.
ndrmcchtt491
22-10-2009, 15:24
Nvidia quando farà uscire Fermi Tutti, la ati abbasserà ulteriormente il prezzo delle prime 5800 series, farà uscire le x2 a prezzi inferiori delle concorrenti nvidia e nvidia piangerà lacrime di coccodrillo per essersi seduta sugli allori...anche se la tecnologia fermi porterà innovazioni notevoli, lo farà sicuramente i campi cmq secondari al campo gaming alla quale ati si stà concentrando...il trio: prezzo-consumi-potenza ATI è imbattibile....nvidia dalla sua avrà solo potenza inutile per gaming e consumi sicuro maggiori delle 5800...quindi....
...A parte che sulla grafica la potenza non è mai inutile:oink: ,seguendo il tuo ragionamento si poteva rimanere ai tempi delle hd2600(che rottame di skeda).
Quanto ai consumi Fermi non è ancora sul mercato:muro: :muro: :muro:
ndrmcchtt491
22-10-2009, 15:29
Ragazzi nVidia fa così da anni.. spreme quello che può spremere dalle sue architetture con cambi di nome, di scatola, di etichetta, di bundle, fa tanto marketing ma non rincorre ATI con un prodotto immaturo/non pronto. Aspetta qualche mesetto per uscire con una famiglia di prodotti superiore al concorrente, mentre ATI risponde in genere più velocemente alle mosse avversarie, magari con un riposizionamento o con una versione ad-hoc per battagliare con una scheda in particolare.
A Sunnyvale non hanno fretta perché ritengono che la loro percentuale di sostenitori non cambi scheda al volo guardando la concorrenza ma aspetti un loro nuovo pezzo.
P.S. Analisi del tutto personale del settore enthusiast video 3D.
Anche amd ha piu volte maneggiaro la sua archittettura(vedi differenza tra 4870 e 4890,x800>x850 e via dicendo...)
Ogniuno tira acqua al suo mulino e più acqua passa meglio è,e questo non vale solo per Nvidia...
...TROPPI FUNBOY DA QUESTE PARTI:muro: :muro:
Se ti riferisci a titoli non vedo in giro ancora nulla:Perfido:
Se le dx11 faranno :banned: come le dx10 se le possono anche tenere, per non parlare di S.O...:bsod: :bsod: :bsod:
Per adesso io sono ancora ancorato a XP e a una 9600gt:cool: :cool: :cool:
Beh le dx11 sono praticamente uscite oggi 22 ottobre con Win7. Pretendere giochi subito dopo 1 giorno mi sembra assurdo. Prima della fine dell'anno un paio di titoli di tutto rispetto in Directx 11 li avrai di sicuro; sono già in lavorazione. Per quanto riguarda la diffusione futura non è certamente scontato che facciano la fine delle dx10. Il punto è che il battistrada console (fermo a dx9) è un freno sotto questo punto di vista. Puo' essere che le dx11 resistano al cambio generazionale console e dunque potrebbe così cambiare la musica...
ndrmcchtt491
22-10-2009, 15:54
Beh le dx11 sono praticamente uscite oggi 22 ottobre con Win7. Pretendere giochi subito dopo 1 giorno mi sembra assurdo. ...
Questo lo so anche io, era solo una riposta generalizzata...
Dove sfrutti la tua nuova superscheda dx11 se non ci sono ancora le Dx11?:confused: :confused: :confused:
Quanto al discorso console sappiamo tutti l' andazzo, e non si vedono all' orizzonte delle nex-gen...:mbe:
bah DIRT 2- AvsP- stalker Call of pripyat- BattleForge- Bad company 2 solo nei prossimi 4 mesi mi bastano e avanzano come titoli dx 11, quello che stupisce poi è sopratutto aliens vs predator per i visibili miglioramenti a livello texture...le dx 10 puntavano solo sull'effettistica scenica nella renderizzazione globale(vedi fumo esplosioni raggi solari e boiate simili...) le dx 11 punteranno ad un dettaglio finalmente maggiore unito alla bontà dell'effettistica conosciuta con le dx 10...
Certo che c'è un odio qui nei confronti di nvidia... Io stesso tengo l'avatar di nvidia perchè mi piace il logo, ma non sono un fanboy nvidia sfegatato come alcuni di voi sono fanboy ati... ORA evitiamo il flame e diciamo che qualsiasi innovazione è utile... anche questa. Poi è ovvio che promuovono una scheda per fare girare meglio phisx, così spingono i produttori a usarlo.
Anche amd ha piu volte maneggiaro la sua archittettura(vedi differenza tra 4870 e 4890,x800>x850 e via dicendo...)
Ogniuno tira acqua al suo mulino e più acqua passa meglio è,e questo non vale solo per Nvidia...
...TROPPI FUNBOY DA QUESTE PARTI:muro: :muro:
Lol e che sarei io?
Mi sa che hai visto un'intonazione sbagliata nel mio post, rileggilo senza pregiudizi va :P
Certo che c'è un odio qui nei confronti di nvidia... Io stesso tengo l'avatar di nvidia perchè mi piace il logo, ma non sono un fanboy nvidia sfegatato come alcuni di voi sono fanboy ati... ORA evitiamo il flame e diciamo che qualsiasi innovazione è utile... anche questa. Poi è ovvio che promuovono una scheda per fare girare meglio phisx, così spingono i produttori a usarlo.
Più che altro hanno speso soldi in sponsorizzazioni e partnership e provano a farli fruttare, anche se sto Fermi alla fine mi sa che lo acquisteranno studi di modellazione, università, laboratori di ricerca ma pochi videogiocatori :P
Gaming_Minded
22-10-2009, 16:30
Come novità c'è anche XFX che ha appena messo sul mercato una GTX 295 singolo PCB occato a 670 mhz invece dei 578 mhz di serie denominandola con XT edition. Ed ora questa scheda che mischia due differenti GPU su un singolo PCB ragazzi questà è una novità assoluta perchè tanto sputacchio sui Nvidia, da quel che so io nessuno ha mai presentato una scheda simile.
Vedremo i bench e altro, personalmente non mi faccio alcun problema a comperare piu' VGA in poco tempo ormai è l'andazzo una scheda grafica non dura piu' di un anno che la devi cambiare per stare a passo coi tempi, dopo dipende dalle esigenze di ognuno ma chi gioca tanto e ama godere di tutte le novità a livello grafico dei giochi tocca cambiare VGA.
Come novità c'è anche XFX che ha appena messo sul mercato una GTX 295 singolo PCB occato a 670 mhz invece dei 578 mhz di serie denominandola con XT edition. Ed ora questa scheda che mischia due differenti GPU su un singolo PCB ragazzi questà è una novità assoluta perchè tanto sputacchio sui Nvidia, da quel che so io nessuno ha mai presentato una scheda simile.
Vedremo i bench e altro, personalmente non mi faccio alcun problema a comperare piu' VGA in poco tempo ormai è l'andazzo una scheda grafica non dura piu' di un anno che la devi cambiare per stare a passo coi tempi, dopo dipende dalle esigenze di ognuno ma chi gioca tanto e ama godere di tutte le novità a livello grafico dei giochi tocca cambiare VGA.
scusa ma non è che sia una gran novità anzi, nvidia è stata parecchio criticata per le prime 295 a doppio pcb chiamate amichevolmente panini
ps riguardo alla concorrenza
4870x2--> singolo pcb
http://www.pugetsystems.com/blog/wp-content/uploads/2009/04/4870x2_internal.jpg
e ce ne sono altre
Gaming_Minded
22-10-2009, 16:45
!fazz la 4870X2 ha due identiche GPU su singolo PCB io ho scritto che due differenti GPU su singolo PCB nessuno l'ha mai prodotto.
Se hai letto la notizia... " l'accoppiamento di un chip GeForce GTS 250 con uno GeForce GTX 275"
E' una GT200 con un G92...
ndrmcchtt491
22-10-2009, 17:55
Lol e che sarei io?
Mi sa che hai visto un'intonazione sbagliata nel mio post, rileggilo senza pregiudizi va :P
Va che io non ho nessun pregiudizio, ho solo risposto al tuo commento, io ho detto SOLO la verità:read:
ndrmcchtt491
22-10-2009, 17:58
bah DIRT 2- AvsP- stalker Call of pripyat- BattleForge- Bad company 2 solo nei prossimi 4 mesi mi bastano e avanzano come titoli dx 11, quello che stupisce poi è sopratutto aliens vs predator per i visibili miglioramenti a livello texture...le dx 10 puntavano solo sull'effettistica scenica nella renderizzazione globale(vedi fumo esplosioni raggi solari e boiate simili...) le dx 11 punteranno ad un dettaglio finalmente maggiore unito alla bontà dell'effettistica conosciuta con le dx 10...
come dici te i titoli sopracitati UCIRANNO(forse) tra 4 mesi,ORA non c'è niente in commercio quanto alla "bontà dell'effettistica conosciuta con le dx 10" non mi esprimo senò mi bannano!
!fazz la 4870X2 ha due identiche GPU su singolo PCB io ho scritto che due differenti GPU su singolo PCB nessuno l'ha mai prodotto.
Se hai letto la notizia... " l'accoppiamento di un chip GeForce GTS 250 con uno GeForce GTX 275"
E' una GT200 con un G92...
scusa ma nel post che ho quotato parlavi della 295 della xfx e ho risposto basandomi su quello, scusa
cmq scheda altamente inutile imho
Va che io non ho nessun pregiudizio, ho solo risposto al tuo commento, io ho detto SOLO la verità:read:
La verità, come l'arte, è negli occhi di chi guarda, o di chi legge in questo caso.
come dici te i titoli sopracitati UCIRANNO(forse) tra 4 mesi,ORA non c'è niente in commercio quanto alla "bontà dell'effettistica conosciuta con le dx 10" non mi esprimo senò mi bannano!
No guarda.. ti sbagli
Dirt 2 ad esempio esce per natale, almeno così hanno dichiarato gli sviluppatori.
Tuttavia, non puoi pretendere ORA giochi DX11 quando windows 7 esce oggi, lo capisci? :muro:
La verità è una e c'è poco da sindacare, ATI è sul mercato con schede di nuova generazione, potentissime e dx11, nVidia non c'è, quando ci sarà vedremo, per ora è inutile parlare di Fermi e compagnia bella ;)
entanglement
22-10-2009, 18:33
che pastrocchio :mc: :mc:
basta dare un'occhiata a red faction guerrilla (che usa havok che è CPU-side) per rendersi conto che il physix è una cavolata galattica :asd: :asd:
simula addirittura la forza di Coriolis sui crolli sulla mia hd4850
http://it.wikipedia.org/wiki/Forza_di_Coriolis
Italia 1
22-10-2009, 18:44
Sta scheda pare l'ultimo canto del cigno...
Per come la penso io, adesso Ati va meglio, quando uscirà GT300 andrà meglio Nvidia, poi Ati risponderà con 5900 o x2 o quella che è, poi di nuovo Nvidia co altra x2 e a maggio/giugno avremo R900 bello che pronto, solita solfa... inutile scannarsi, è sempre stato cosi. A meno che non avete acceso il pc da 10 minuti...
capitan_crasy
22-10-2009, 20:00
ma le dx11? xD
DiRT 2 DirectX 11 tech demonstration video
Clicca qui... (http://www.youtube.com/watch?v=pDFszGI3FwQ&feature=player_embedded)
Questo lo so anche io, era solo una riposta generalizzata...
Dove sfrutti la tua nuova superscheda dx11 se non ci sono ancora le Dx11?:confused: :confused: :confused:
Quanto al discorso console sappiamo tutti l' andazzo, e non si vedono all' orizzonte delle nex-gen...:mbe:
x ora il minimo è il dx10.1 per caricare la gui di win7 sulla gpu...
DiRT 2 DirectX 11 tech demonstration video
Clicca qui... (http://www.youtube.com/watch?v=pDFszGI3FwQ&feature=player_embedded)
si mi riferivo alle dx11 nvidia... xD
entanglement
22-10-2009, 21:12
DiRT 2 DirectX 11 tech demonstration video
Clicca qui... (http://www.youtube.com/watch?v=pDFszGI3FwQ&feature=player_embedded)
:eek: :eek: :eek:
non ci vorrebbe questo gran sforzo a fare un forza motorsport anche su PC. probabilmente verrebbe anche meglio che sulla xscatoletta
:eek: :eek: :eek:
non ci vorrebbe questo gran sforzo a fare un forza motorsport anche su PC. probabilmente verrebbe anche meglio che sulla xscatoletta
qualsiasi cosa viene meglio... ;)
spero che nvidia si riprenda e faccia uscire il gt300 prima possibile così anche le ati 5 costeranno -..meglio avere 2 aziende con concorrenza che 1 sola o no?
ndrmcchtt491
23-10-2009, 08:06
La verità, come l'arte, è negli occhi di chi guarda, o di chi legge in questo caso.
La verità è una sola.
Tu ai scritto:
Ragazzi nVidia fa così da anni.. spreme quello che può spremere dalle sue architetture con cambi di nome, di scatola, di etichetta, di bundle, fa tanto marketing ma non rincorre ATI con un prodotto immaturo/non pronto. Aspetta qualche mesetto per uscire con una famiglia di prodotti superiore al concorrente, mentre ATI risponde in genere più velocemente alle mosse avversarie, magari con un riposizionamento o con una versione ad-hoc per battagliare con una scheda in particolare.
A Sunnyvale non hanno fretta perché ritengono che la loro percentuale di sostenitori non cambi scheda al volo guardando la concorrenza ma aspetti un loro nuovo pezzo..
Io ho risposto:
Anche amd ha piu volte maneggiaro la sua archittettura(vedi differenza tra 4870 e 4890,x800>x850 e via dicendo...)
Ogniuno tira acqua al suo mulino e più acqua passa meglio è,e questo non vale solo per Nvidia...
La verità è questa punto e basta.
ndrmcchtt491
23-10-2009, 08:49
No guarda.. ti sbagli
Dirt 2 ad esempio esce per natale, almeno così hanno dichiarato gli sviluppatori.
Tuttavia, non puoi pretendere ORA giochi DX11 quando windows 7 esce oggi, lo capisci? :muro:
Appunto!:muro: :muro:
Capisco benissimo!:muro: :muro:
Il mio discorso è semplicemente questo:ai una scheda dx11?
Bene, perchè attualmente è come se ai una scheda dx10 o dx10.1, visto che ora non puoi semplicemente sfruttarla al 100%.
Tra un paio di mesi usciranno(forse) i primi titoli dx11.
Quanto alle dx10 il loro vantaggio è (secondo me) stato quello di alzar drasticamente le prestazioni delle vga, con una spesa impensabile fin a qualche anno fa ti compravi una vga in grado di eseguire l' intero parco videoludico decentemente
masty_<3
23-10-2009, 09:18
Perchè tanta esaltazione per le 5800 quando poi arriverà GT300 bruciandole ?
Ok, hai ragione, dimmi usi qualche programma particolare per vedere il futuro oppure hai la classica palla di vetro?
Certo che c'è un odio qui nei confronti di nvidia...
Guarda, l'odio non tanto verso nvidia (che pure c'è, per la sua mafia) ma per tutti quei bimbi fanboy che appassionati al loro marchio vanno a sporcare 3ad altrui dicendo che nvidia è l'unica e la migliore e confrontano schede dual gpu con delle single gpu ad esempio
Come novità c'è anche XFX che ha appena messo sul mercato una GTX 295 singolo PCB occato a 670 mhz invece dei 578 mhz di serie denominandola con XT edition. Ed ora questa scheda che mischia due differenti GPU su un singolo PCB ragazzi questà è una novità assoluta perchè tanto sputacchio sui Nvidia, da quel che so io nessuno ha mai presentato una scheda simile.
Che novità! Dai, allora ati con le sue schede vapor-x e toxic ha rivoluzionato il mondo? No, una 4850 toxic è pur sempre una 4850.
Questa sarebbe stata una buona novità se avessero tenuto prezzi bassi, ma 350 EURO sono 350€, e una qualunque persona sana di mente per quel prezzo va a prendersi una 5870 (se gli serve potenza) o al massimo una GTX295 per 20€ in + che di GTX275 ne ha 2, disabilita lo sli via drivers ed eccoti la scheda per la fisica pronta
Appunto!:muro: :muro:
Capisco benissimo!:muro: :muro:
Il mio discorso è semplicemente questo:ai una scheda dx11?
Bene, perchè attualmente è come se ai una scheda dx10 o dx10.1, visto che ora non puoi semplicemente sfruttarla al 100%.
Tra un paio di mesi usciranno(forse) i primi titoli dx11.
Quanto alle dx10 il loro vantaggio è (secondo me) stato quello di alzar drasticamente le prestazioni delle vga, con una spesa impensabile fin a qualche anno fa ti compravi una vga in grado di eseguire l' intero parco videoludico decentemente
Ma piantala di farne un dramma terrificante!!!
A come ne parli sembra che le schede video dx11 siano uscite ormai da 1 anno a questa parte
Sono in commercio solo da un mese o meno circa.
E il 4 Dicembre Dirt2 è nei negozi (di sicuro, SENZA FORSE) :muro:
Ok le librerie Dx10 , 10.1 non sono state sfruttate a dovere, DX11 ancora NON lo sappiamo.
Fra un paio di anni o meno poi faremo i conti, ma adesso mi sembra inopportuno!
Che stai a fasciare la testa alle dx11 ancora prima di rompersi l'osso del collo!! Farglielo rompere perlomeno. :mbe: E poi eventualmente saremo tutti a condannarlo!!!
E poi Dx11 essendo un superset delle Dx10 è probabile che in parte le "vecchie" schede dx10 qualche benefecio rispetto al DX9 nei titoli dx11 lo otterranno.
ndrmcchtt491
23-10-2009, 11:12
Ma piantala di farne un dramma terrificante!!!
A come ne parli sembra che le schede video dx11 siano uscite ormai da 1 anno a questa parte
Sono in commercio solo da un mese o meno circa.
E il 4 Dicembre Dirt2 è nei negozi (di sicuro, SENZA FORSE) :muro:
Ok le librerie Dx10 , 10.1 non sono state sfruttate a dovere, DX11 ancora NON lo sappiamo.
Fra un paio di anni o meno poi faremo i conti, ma adesso mi sembra inopportuno!
Che stai a fasciare la testa alle dx11 ancora prima di rompersi l'osso del collo!! Farglielo rompere perlomeno. :mbe: E poi eventualmente saremo tutti a condannarlo!!!
E poi Dx11 essendo un superset delle Dx10 è probabile che in parte le "vecchie" schede dx10 qualche benefecio rispetto al DX9 nei titoli dx11 lo otterranno.
1-Nessun dramma credimi, ti dirò: io uso ancora XP e una 9600gt.
2-Per un gioco non cambio vga!
3-le "vecchie" schede dx10 si vocifera che con l'aggiornamento a dx11 caleranno notevolmente le loro performance
4-ce gente che compra una scheda appena uscita e poi si pente che dopo un mese esce la stessa custom(Vapor-X, liquid cooled,O.C)....
DiRT 2 DirectX 11 tech demonstration video
Clicca qui... (http://www.youtube.com/watch?v=pDFszGI3FwQ&feature=player_embedded)
Impressionante :eek:
L'acqua è viva! :D
3-le "vecchie" schede dx10 si vocifera che con l'aggiornamento a dx11 caleranno notevolmente le loro performance
Dipende! Se lo scopo è emularne "il più" delle dx11 nelle dx10 certo che rallenteranno. Mi pare ovvio che a chiedere dalla scheda cose che non sa fare via hardware, farli fare solamente via software e appoggiandosi alle API è da matti; non ce la farà mai.... come, d'altro canto, non ce la farà mai una scheda dx9 che si mette a emulare specifiche dx10!!!
Il mio discorso era differente.
Nelle dx11 essendo un superset dx10 , per alcune cose, si adotterà un medesimo path con il risultato finale relegato esclusivamente alle capacità hardware; che a seconda del tipo di librerie a bordo ti daranno un risultato qualitativo piuttosto che un altro ma senza influire nelle prestazioni.
Per altre invece no. Servirebbe un adattamento specifico e in altri casi non sarebbe possibile neanche quello, poiché magari tal caratteristica nelle librerie di generazione precedente non esisteva proprio.
Tipo l'implementazione del tassellatore che richiede accelerazione hardware... e che nelle dx11 possiede un approccio differente da quello introdotto nelle dx10.1. Per supportarlo anche nelle dx10.1 si dovrebbe adottare così un altro path specifico per queste schede e con probabili risultati finali sempre inferiori al tassellatore proposto nelle dx11.... mentre nelle dx10 neanche a parlarne.... verrà spento sistematicamente... visto che non esisteva neanche...
Tuttavia la strada del doppio path la vedo molto sconveniente per gli sviluppatori e probabile non verrà mai imboccata se i risultati alla fine non intersecano perlomeno approssimativamente.
In Dirt 2, ad esempio, probabile il tassellatore sarà dx11 only, per cui verrà spento per dx10.1 dx10 e dx9; poi magari con inaspettata sorpresa se ne escono con un comunicato e mi smentiscono dicendo "abbiamo supportato anche quello in dx10.1" .... :eek: ma la vedo dura onestamente :asd:
In sostanza le dx10 non verranno rallentate, andranno come prima e più veloci delle dx9.... e se qualche caratteristica dx11, come ovvio, non saranno in grado di supportarla, verrà sistematicamente spenta come del resto si è sempre fatto fino ad oggi con le dx9... quando si parlava di dx10.
Ma non rischieranno di ammazzare le schede dx10 emulandone le features dx11.... non sono mica dei dilettanti!!!
beh, se riuscissero a sviluppare quest'idea in modo da utilizzare la gpu più potente solamente quando serve e spegnerla completamente quando non serve si potrebbe avere anche in calo del consumi spaventoso rispetto alle altre schede di fascia alta...
beh, se riuscissero a sviluppare quest'idea in modo da utilizzare la gpu più potente solamente quando serve e spegnerla completamente quando non serve si potrebbe avere anche in calo del consumi spaventoso rispetto alle altre schede di fascia alta...
Nei MacBook Pro Nvidia l'aveva già proposto. Montava due GPU una discreta e l'altra di fascia alta proprio per preservare il consumo della batteria
che pastrocchio :mc: :mc:
basta dare un'occhiata a red faction guerrilla (che usa havok che è CPU-side) per rendersi conto che il physix è una cavolata galattica :asd: :asd:
simula addirittura la forza di Coriolis sui crolli sulla mia hd4850
http://it.wikipedia.org/wiki/Forza_di_Coriolis
Sarei anche stufo di doverlo ripetere fino alla nausea, PhysX gira anche su CPU, siano esse x86, ARM, PowerPC comprese xbox 360 e ps3.
Le simulazioni fisiche presenti in Red Faction: Guerilla (che non girano sulla tua hd4850) sono relativamente poco complesse e di certo non richiedono l'uso di una GPU.
Metto già le mani avanti, dato che capita ogni volta, PhysX può sfruttare a fondo le CPU x86 multi-core, infatti Intel lo usò per sviluppare il tech demo Ice Storm Fighters (http://www.intelcapabilitiesforum.net/articles/ice_storm_fighters_game_technology_demo-page2/) per mostrare le potenzialità dei propri Core 2 Duo e Quad.
Guarda, l'odio non tanto verso nvidia (che pure c'è, per la sua mafia) ma per tutti quei bimbi fanboy che appassionati al loro marchio vanno a sporcare 3ad altrui dicendo che nvidia è l'unica e la migliore e confrontano schede dual gpu con delle single gpu ad esempio Quale sarebbe il comportamento mafioso di NVIDIA?
Impressionante :eek:
L'acqua è viva! :D
In questo caso l'acqua non viene simulata come un un vero fluido 3D ma, per semplificare molto, viene gestita come una specie di cloth attraverso il displacement mapping.
Niente di straordinario, infatti nel video la scena viene usata per mostrare le potenzialità del tassellation non per mostrare la "simulazione" in se stessa.
D'altronde questa tecnica è possibile fin dalle Geforce 6 attraverso i vertex shared 3.0 e no è certo la prima volta che viene utilizzata in un gioco.
Sarei anche stufo di doverlo ripetere fino alla nausea, PhysX gira anche su CPU, siano esse x86, ARM, PowerPC comprese xbox 360 e ps3.
Le simulazioni fisiche presenti in Red Faction: Guerilla (che non girano sulla tua hd4850) non sono complesse e di certo non richiedono l'uso di una GPU.
Metto già le mani avanti, dato che capita ogni volta, PhysX può sfruttare a fondo le CPU x86 multi-core, infatti Intel lo usò per sviluppare il tech demo Ice Storm Fighters (http://www.intelcapabilitiesforum.net/articles/ice_storm_fighters_game_technology_demo-page2/) per mostrare le potenzialità dei propri Core 2 Duo e Quad.
Secondo me Nvidia chiudendo le porte dello sviluppo delle API ai concorrenti non otterrà mai un plebiscito da parte dei consumatori.
PhysX implementato sulle GPU Nvidia non ha alcuna accelerazione hardware, poiché fisicamente non c'è niente di AGEIA sulle schede Nvidia.
E' banale dire che con le API messe a punto su uno specifico hw, PhysX girerebbe alla stessa maniera che sulle schede Nvidia, e cioè MALE.
Ma Nvidia NON vuole neanche questo.... lo ha dichiarato. Per cui la zappa sui piedi se l'è data da sola.
Ci sono tanti utenti Nvidia che credono di avere Hardware Physx. Non so come reagirebbero se scoprissero che alla fine son solo un adattamento API :D
Da utente non potrei MAI e poi mai sostenere una posizione del genere nei confronti del mercato, perché porta a conseguenze di monopolio che alla fine dovrei pagare io, soprattuto se l'azione è intrapresa da una azienda che recentemente ha letteralmente boicottato le schede video del concorrente in maniera vergognosa, non curandosi affatto che con questa azione invece di colpire il vero e presunto bersaglio.... avrebbe soltanto danneggiato gli utenti. Con questa azienda che si comporta in tal maniera, a maggior ragione, non potrei supportare i loro piani di espansione sul mercato. Ritorni all'ordine prima e poi magari ne riparliamo.
Non si tratta nè di ATi nè di Nvidia. :)
Si tratta solo di stare dalla parte del consumatore, perché io non potrei fare altrimenti che vedere le cose da questo punto di vista... quello che mi compete.
Stare dalla parte di ATi o Nvidia NON mi compete.
Gradirei però che si evitasse di prendere per i fondelli i clienti che pagano.
Se Nvidia vuole dimostrare di avere HARDWARE più potente LO VOGLIO VEDERE. E poi dirò "Caxxo la mia scheda, se è di un'altra marca, fa schifo e non è all'altezza confrontata con quella" e me ne farò una ragione in meno di 1 secondo.
Gradirei inoltre che Nvidia evitasse in futuro di stipulare contratti con lo scopo di DANNEGGIARE il concorrente quando in questo periodo non ne abbiamo assolutamente bisogno.
Nvidia puo' collaborare quanto gli pare. Collaborare però è una cosa e danneggiare un'altra.
Inoltre non vorrei più vedere in futuro situazioni discriminatorie come in Batman Arkham Asylum dove il cliente in verde o in rosso pagando la stessa cifra per il prodotto ricevono un trattamento differente NON giustificato.
Secondo me Nvidia chiudendo le porte dello sviluppo delle API ai concorrenti non otterrà mai un plebiscito da parte dei consumatori.
PhysX implementato sulle GPU Nvidia non ha alcuna accelerazione hardware, poiché fisicamente non c'è niente di AGEIA sulle schede Nvidia.
E' banale dire che con le API messe a punto su uno specifico hw, PhysX girerebbe alla stessa maniera che sulle schede Nvidia, e cioè MALE.]
Ma Nvidia NON vuole neanche questo.... lo ha dichiarato. Per cui la zappa sui piedi se l'è data da sola.
Ci sono tanti utenti Nvidia che credono di avere Hardware Physx. Non so come reagirebbero se scoprissero che alla fine son solo un adattamento API :D
Dovresti spiegarti meglio perché non ho capito cosa intendi dire, parli di adattamenti alle API e di accelerazione mancante su GPU che invece è disponibile su PPU Ageia.
O ho capito male io, o tu hai un po di confusione a riguardo.
Da utente non potrei MAI e poi mai sostenere una posizione del genere nei confronti del mercato, perché porta a conseguenze di monopolio che alla fine dovrei pagare io, soprattuto se l'azione è intrapresa da una azienda che recentemente ha letteralmente boicottato le schede video del concorrente in maniera vergognosa, non curandosi affatto che con questa azione invece di colpire il vero e presunto bersaglio.... avrebbe soltanto danneggiato gli utenti. Con questa azienda che si comporta in tal maniera, a maggior ragione, non potrei supportare i loro piani di espansione sul mercato. Ritorni all'ordine prima e poi magari ne riparliamo.
Puoi specificare a cosa ti riferisci nella frase in grassetto?
Non si tratta nè di ATi nè di Nvidia. :)
Si tratta solo di stare dalla parte del consumatore, perché io non potrei fare altrimenti che vedere le cose da questo punto di vista... quello che mi compete.
Stare dalla parte di ATi o Nvidia NON mi compete.
Gradirei però che si evitasse di prendere per i fondelli i clienti che pagano.
Se Nvidia vuole dimostrare di avere HARDWARE più potente LO VOGLIO VEDERE. E poi dirò "Caxxo la mia scheda, se è di un'altra marca, fa schifo e non è all'altezza confrontata con quella" e me ne farò una ragione in meno di 1 secondo.
Gradirei inoltre che Nvidia evitasse in futuro di stipulare contratti con lo scopo di DANNEGGIARE il concorrente quando in questo periodo non ne abbiamo assolutamente bisogno.
Nvidia puo' collaborare quanto gli pare. Collaborare però è una cosa e danneggiare un'altra.
Non si tratta di un discorso di potenza dell'hardware, ma di come è possibile utilizzarlo da parte sia dell'utente che dello sviluppatore.
NVIDIA offre la possibilità di accelerare la fisica attraverso le sue GPU e sviluppa un motore fisico gratuito che offre la possibilità agli sviluppatori di concentrarsi sui contenuti e di creare cose impossibili da realizzare su CPU senza scendere a compromessi nella simulazione.
E offre uno strumento come CUDA dal 2006, che offre a molte aziende la soluzione ai problemi e alle necessità di crescita della propria infrastruttura di calcolo con risparmio di spazio, costo hardware e mantenimento e incrementi sensazionali nelle performance.
Con AMD per ora non è disponibile il calcolo della fisica su GPU, e strumenti come Stream non sono maturi come quelli della concorrenza.
Ormai è disponibile OpenCL e NVIDIA punta molto su questo, basti pensare che è stata la prima azienda a mostrare un demo OpenCL che girava su GPU, è stata la prima ad offrire un driver OpenCL e un SDK.
Inoltre non vorrei più vedere in futuro situazioni discriminatorie come in Batman Arkham Asylum dove il cliente in verde o in rosso pagando la stessa cifra per il prodotto ricevono un trattamento differente NON giustificato.
Qui dovresti informarti meglio, si è fatta tanta disinformazione su questa vicenda.
Gli sviluppatori volevano distribuire il gioco senza Antialiasing ma NVIDIA chiede di poterlo aggiungere così i tecnici NVIDIA implementano il proprio engine AA in Batman per i propri clienti, che hanno comprato le loro schede.
Che c'è di male? Io lo trovo un "regalo" gradito.
Sopratutto considerando che Eidos ha invitato AMD a fare come NVIDIA, ed inviare dei tecnici nei loro studi per implementale l'AA per le proprie schede, ma AMD ha declinato.
Quando compri Batman non paghi per l'AA, sulla confezione non c'è scritto che offre l'AA, gli sviluppatori non hanno speso soldi per implementarlo, viceversa è chi ha comprato una scheda NVIDIA che in un certo senso ha pagato l'AA.
ndrmcchtt491
23-10-2009, 16:29
PhysX implementato sulle GPU Nvidia non ha alcuna accelerazione hardware, poiché fisicamente non c'è niente di AGEIA sulle schede Nvidia.
E' banale dire che con le API messe a punto su uno specifico hw, PhysX girerebbe alla stessa maniera che sulle schede Nvidia, e cioè MALE.
Gradirei inoltre che Nvidia evitasse in futuro di stipulare contratti con lo scopo di DANNEGGIARE il concorrente quando in questo periodo non ne abbiamo assolutamente bisogno.
Nvidia puo' collaborare quanto gli pare. Collaborare però è una cosa e danneggiare un'altra.
Inoltre non vorrei più vedere in futuro situazioni discriminatorie come in Batman Arkham Asylum dove il cliente in verde o in rosso pagando la stessa cifra per il prodotto ricevono un trattamento differente NON giustificato.
Mi spiace dirtelo ma su Hardware PhysX viene accellerato, prova Batman con PhysyX on (o altro che sfrutta PhysX tipo lo screensever scaricabile dal sito Nvidia)con una AMD o una Nvidia con l' accellerazione PhysX disabilitata dal p.d.c., poi mi dirai!!!!
Batman funzika anche su una scheda AMD fino a prova contraria, figuriamoci se il gioco mi danneggia il pc!
Non posso attivara l' AA ingame con una AMD o Nvidia?? Io lo attivo dal p.d.c.!
ndrmcchtt491
23-10-2009, 16:29
Tipo l'implementazione del tassellatore che richiede accelerazione hardware... e che nelle dx11 possiede un approccio differente da quello introdotto nelle dx10.1. Per supportarlo anche nelle dx10.1 si dovrebbe adottare così un altro path specifico per queste schede e con probabili risultati finali sempre inferiori al tassellatore proposto nelle dx11.... mentre nelle dx10 neanche a parlarne.... verrà spento sistematicamente... visto che non esisteva neanche...
Il "tassellatore"??, se ho capito bene intendi il Tasselletion o come cavolo si scrive è quella tecnica che permette di aumentare i poligoni.
Tale tecnica non è affatto una novità, è dai tempi delle Ati serie 8000 che è presente(si chiamava truform);) ;)
Impressionante :eek:
L'acqua è viva! :D
va bene che questa cosa darà molto all'occhio nei replay, ma mentre uno gioca come fa a vedere che l'acua dietro di se continua a muoversi:confused: :mbe:
-
-
Domanda: PhysX in Nvidia è un'implementazione Hardware?
Risposta: No, non c'è nessun chip DEDICATO che si occupa di accelerare codesti calcoli. Attraverso CUDA si simula una PPU AGEIA tramite la GPU poiché quest'ultima è dotata di moltissimi core si ritiene sia sufficiente. In ogni caso è un'implementazione software che non gode della reale accelerazione hardware poiché deve prima passare attraverso un'inevitabile strato software che riproduce virtualmente AGEIA.
Di fatto quando i calcoli fisici incominciano a intensificarsi mediamente facendoti vedere 2, 3 teloni che svolazzano e un po' di fumo, una scheda video di fascia ALTA come la 9800GT praticamente annaspa già a risoluzione di gioco media (1280X1024)
Conseguenze? Se voglio giocare decentemente devo comprare un'altra scheda video e metterla in SLI. Altrimenti spendo altri 250 euro per la più pompata e ammazzo il 50% degli fps per la fisica. In ogni caso... portafogli in MANO.
Grazie a sto cavolo rispondo io!!! Bella innovazione.
Poi chiudi lo standard agli altri e così l'utente DEVE comprarsi SOLO NVIDIA.
In pratica è la stessa cosa che il concorrente sta cercando di fare su OpenCL. E se non hai a disposizione l'ultima GPU sul mercato i risultati sono da buttare nel cesso.
Come Nvidia anche ATI.... con la differenza che almeno quest'ultimo non mette transenne contro la concorrenza.... pure gli altri potranno attingere alla fisica lato GPU senza speculazione a senso unico a scapito del mio portafogli.
Se veramente è un'implementazione che dipende fortemente dall'hardware.... non dovresti avere timore e problemi a supportare le schede video altrui. Tanto ci sarebbe poco da fare.... vedrai!!! Senza accelerazione hw adeguata avresti poco da girarci intorno.... avresti problemi di prestazioni e basta. :)
Stesso discorso per l'MSAA di BAA... quello puoi sbatterti la testa a muro 1000 e 1000 più volte... è un path standard dx10 che NON PUO' essere modificato... ma solo supportato o no. Inutile che vai sbandierando il fatto che "hanno implementato il proprio engine", perché l'MSAA a questi livelli, carissimo amico mio, non si puo' emulare via software... mettiti l'anima a riposo. O c'hai hw dx10 oppure nisba.
Tu lo trovi un regalo gradito e pinco pallino, che paga come te, una castrazione.
Che trovi piacere per quesa cosa?
Te lo devo fare vedere io che l'MSAA, funziona anche con le ATI nella demo di Batman cambiando l'ID della scheda? Che vai a venderlo a tutti allora? Mettici sulla scatola "Gli utenti ATI non sono supportati appieno" e poi vediamo quanto vendi!!!
Ora io ti chiedo...: A te piacerebbe che io supportassi una carognata del genere?
Credi che mi possa comprare una scheda nvidia per la fisica una nvidia per il tè e l'altra per il caffè? Bella prospettiva di monopolio.... perlomeno permettimi di farmi un mix secondo le mie preferenze no?
Nvidia invece di sviluppare l'hardware mette bloccchi via software, ed io pago. Ora ti emulo la fisica (tienitela fa cagare), poi ti blocco l'MSAA, poi un giorno ti farò vedere il gioco in B/N ???
Ma vai a lavorare sull'hardware, che poi se vale sul serio te lo compro volentieri invece di inventare cavilli per spillare soldi a me e ai consumatori, spacciando di avere una scheda video nettamente superiore quando non è vero.
Che stai a dire noi PhysX qua noi PhysX là quando per farlo andare decentemente devo andare a mettere 2 schede in parallelo.
Non potrò mai sostenere questo standard... perché ha basi di pastafrolla ed è poco serio.... nonché potenzialmente pericoloso per il mercato. Mi toccherà un giorno spendere 500 euro per una scheda video appena discreta.... nel caso physx prendesse piede.... e in quel caso tutti quei soldi li dovrai sborsare pure tu. :asd:
Vuoi essere il numero 1? Fammi una scheda video con architettura hardware piena zeppa di brevetti made Nvidia che fa cose che le altre manco si sognano... e poi vedrai sarai certamente il n°1.. no che mi proponi uno 3SLI che fa il tè, la camomilla, che mi costa un occhio della madonna e che mi consuma da sola 300w.
Quando Ati aveva preso il largo con la mitica R300!!! C'era da mettersi le mani sui capelli per soldi che ci volevano per andarla ad acquistare.... più recente invece il caso di Nvidia che stava prendendo il largo con le sue ultime GeForce.... e menomale che ATI l'ha ripresa per i capelli... menomale!!! Che i prezzi stavano già lievitando.
Se così legato a quel marchio da giocarti la possibilità di avere un'opinione da consumatore?
Guarda che avere un'opinione corretta e libera non deve per forza costringerti a cambiare stalla. Ognuno fa e compra quello che vuole alla fine.
Qua sembra che Nvidia con il PhysX abbia scoperto l'America!!!! Anche a costo di rifilare minestre riscaldate si sventola PhysX come se valesse l'intera architettura hw acquistata dal cliente. Ma come ci si riduce così?
Certe volte rimpiango Matrox... e il fatto che sia uscita dal settore videogames.
Andrà a finire che dovrò acquistare una scheda video solo per giocare a un titolo, quando già quella in mio possesso in realtà ne avrebbe e come di benzina...
Premetto che ho fatto molta fatica a seguire il filo dei tuoi discorsi, quindi spero di non averti frainteso.
Domanda: PhysX in Nvidia è un'implementazione Hardware?
Risposta: No, non c'è nessun chip DEDICATO che si occupa di accelerare codesti calcoli. Attraverso CUDA si simula una PPU AGEIA tramite la GPU poiché quest'ultima è dotata di moltissimi core si ritiene sia sufficiente. In ogni caso è un'implementazione software che non gode della reale accelerazione hardware poiché deve prima passare attraverso un'inevitabile strato software che riproduce virtualmente AGEIA.
Ti consiglio di informarti meglio, perché sembra che tu non abbia veramente capito niente.
L'accelerazione di PhysX non avviene attraverso l'emulazione della PPU di Ageia, la sola idea è alquanto ridicola, sono gli Stream Processor ha svolgere i calcoli al posto della CPU.
PhysX gira su GPU attraverso CUDA, ovviamente richiede un driver, anche le schede Ageia richiedono un driver.
Se non hai idea di cosa sia un API o una libreria e di come funzionino, informati invece di scrivere baggianate.
Di fatto quando i calcoli fisici incominciano a intensificarsi mediamente facendoti vedere 2, 3 teloni che svolazzano e un po' di fumo, una scheda video di fascia ALTA come la 9800GT praticamente annaspa già a risoluzione di gioco media (1280X1024)
Se non hai idea di come avvengano le suddette simulazioni ed il loro costo in termini di tempi di computazione evita di criticarle.
In Batman una GTX 200 è sufficiente far girare il gioco a 1920x1200 con fisica e grafica al massimo.
Conseguenze? Se voglio giocare decentemente devo comprare un'altra scheda video e metterla in SLI. Altrimenti spendo altri 250 euro per la più pompata e ammazzo il 50% degli fps per la fisica. In ogni caso... portafogli in MANO.
Grazie a sto cavolo rispondo io!!! Bella innovazione.
Poi chiudi lo standard agli altri e così l'utente DEVE comprarsi SOLO NVIDIA.
Se non vuoi vedere le simulazioni fisiche basta disattivarle, non graveranno più sulle prestazioni.
Ti serve una scheda dedicata per ottenere prestazioni accettabili? Alcuni giochi senza una CPU dual core nemmeno partono.
E non dire fesserie, non hai bisogno di spendere 250€ per una scheda dedicata a PhysX, per i giochi attuali ti basta una 9600GT da 60€ dato che andare sopra non porta a miglioramenti degni di nota.
In pratica è la stessa cosa che il concorrente sta cercando di fare su OpenCL. E se non hai a disposizione l'ultima GPU sul mercato i risultati sono da buttare nel cesso.
Come Nvidia anche ATI.... con la differenza che almeno quest'ultimo non mette transenne contro la concorrenza.... pure gli altri potranno attingere alla fisica lato GPU senza speculazione a senso unico a scapito del mio portafogli. Se ti riferisci al Bullet Physics Engine anche NVIDIA sta collaborando.
Cito le parole di Erwin Coumans il creatore di Bullet: "ATI’s Bullet GPU acceleration via Open CL will work with any compliant drivers, we use NVIDIA Geforce cards for our development and even use code from their OpenCL SDK, they are a great technology partner."
Se veramente è un'implementazione che dipende fortemente dall'hardware.... non dovresti avere timore e problemi a supportare le schede video altrui.
NVIDIA dovrebbe lavorare per la concorrenza e scrivere driver per le loro schede?
Stesso discorso per l'MSAA di BAA... quello puoi sbatterti la testa a muro 1000 e 1000 più volte... è un path standard dx10 che NON PUO' essere modificato... ma solo supportato o no. Inutile che vai sbandierando il fatto che "hanno implementato il proprio engine", perché l'MSAA a questi livelli, carissimo amico mio, non si puo' emulare via software... mettiti l'anima a riposo. O c'hai hw dx10 oppure nisba.
Ma di cosa stai parlando?
Tu lo trovi un regalo gradito e pinco pallino, che paga come te, una castrazione.
Che trovi piacere per quesa cosa?
Te lo devo fare vedere io che l'MSAA, funziona anche con le ATI nella demo di Batman cambiando l'ID della scheda? Che vai a venderlo a tutti allora? Mettici sulla scatola "Gli utenti ATI non sono supportati appieno" e poi vediamo quanto vendi!!!
Batman è uscito senza AA! Questo è il gioco il team di Eidos ha sviluppato e messo in commercio.
NVIDIA lo ha aggiunto per i propri clienti.
AMD è stata invitata a fare altrettanto ma ha declinato.
NVIDIA doveva lavorare anche per AMD?
Perché mi devo ripetere continuamente?
Nvidia invece di sviluppare l'hardware mette bloccchi via software, ed io pago. Ora ti emulo la fisica (tienitela fa cagare), poi ti blocco l'MSAA, poi un giorno ti farò vedere il gioco in B/N ???
Tu paghi?
Hai comprato Batman? Bene, i tuoi soldi sono andato agli sviluppatori non ad NVIDIA, loro hanno deciso di non implementare l'AA e AMD non ha voluto rimediare.
Gli sviluppatori ti hanno venduto un gioco senza AA.
NVIDIA ha lavorato per fornirlo hai suoi clienti.
Se un giorno gli sviluppatori non avranno voglia, tempo o risorse per creare un gioco a colori ed NVIDIA deciderà di metterceli lei di persona NVIDIA avrà il diritto legale e morale di fornirli solo hai propri clienti.
NVIDIA non è una Onlus e sviluppare ha dei costi...
ndrmcchtt491
24-10-2009, 11:25
Domanda: PhysX in Nvidia è un'implementazione Hardware?
Risposta: No, non c'è nessun chip DEDICATO che si occupa di accelerare codesti calcoli. Attraverso CUDA si simula una PPU AGEIA tramite la GPU poiché quest'ultima è dotata di moltissimi core si ritiene sia sufficiente. In ogni caso è un'implementazione software che non gode della reale accelerazione hardware poiché deve prima passare attraverso un'inevitabile strato software che riproduce virtualmente AGEIA.
Di fatto quando i calcoli fisici incominciano a intensificarsi mediamente facendoti vedere 2, 3 teloni che svolazzano e un po' di fumo, una scheda video di fascia ALTA come la 9800GT praticamente annaspa già a risoluzione di gioco media (1280X1024)
Conseguenze? Se voglio giocare decentemente devo comprare un'altra scheda video e metterla in SLI. Altrimenti spendo altri 250 euro per la più pompata e ammazzo il 50% degli fps per la fisica. In ogni caso... portafogli in MANO.
Grazie a sto cavolo rispondo io!!! Bella innovazione.
Poi chiudi lo standard agli altri e così l'utente DEVE comprarsi SOLO NVIDIA.
In pratica è la stessa cosa che il concorrente sta cercando di fare su OpenCL. E se non hai a disposizione l'ultima GPU sul mercato i risultati sono da buttare nel cesso.
Come Nvidia anche ATI.... con la differenza che almeno quest'ultimo non mette transenne contro la concorrenza.... pure gli altri potranno attingere alla fisica lato GPU senza speculazione a senso unico a scapito del mio portafogli.
Se veramente è un'implementazione che dipende fortemente dall'hardware.... non dovresti avere timore e problemi a supportare le schede video altrui. Tanto ci sarebbe poco da fare.... vedrai!!! Senza accelerazione hw adeguata avresti poco da girarci intorno.... avresti problemi di prestazioni e basta. :)
Stesso discorso per l'MSAA di BAA... quello puoi sbatterti la testa a muro 1000 e 1000 più volte... è un path standard dx10 che NON PUO' essere modificato... ma solo supportato o no. Inutile che vai sbandierando il fatto che "hanno implementato il proprio engine", perché l'MSAA a questi livelli, carissimo amico mio, non si puo' emulare via software... mettiti l'anima a riposo. O c'hai hw dx10 oppure nisba.
Tu lo trovi un regalo gradito e pinco pallino, che paga come te, una castrazione.
Che trovi piacere per quesa cosa?
Te lo devo fare vedere io che l'MSAA, funziona anche con le ATI nella demo di Batman cambiando l'ID della scheda? Che vai a venderlo a tutti allora? Mettici sulla scatola "Gli utenti ATI non sono supportati appieno" e poi vediamo quanto vendi!!!
Ora io ti chiedo...: A te piacerebbe che io supportassi una carognata del genere?
Credi che mi possa comprare una scheda nvidia per la fisica una nvidia per il tè e l'altra per il caffè? Bella prospettiva di monopolio.... perlomeno permettimi di farmi un mix secondo le mie preferenze no?
Nvidia invece di sviluppare l'hardware mette bloccchi via software, ed io pago. Ora ti emulo la fisica (tienitela fa cagare), poi ti blocco l'MSAA, poi un giorno ti farò vedere il gioco in B/N ???
Ma vai a lavorare sull'hardware, che poi se vale sul serio te lo compro volentieri invece di inventare cavilli per spillare soldi a me e ai consumatori, spacciando di avere una scheda video nettamente superiore quando non è vero.
Che stai a dire noi PhysX qua noi PhysX là quando per farlo andare decentemente devo andare a mettere 2 schede in parallelo.
Non potrò mai sostenere questo standard... perché ha basi di pastafrolla ed è poco serio.... nonché potenzialmente pericoloso per il mercato. Mi toccherà un giorno spendere 500 euro per una scheda video appena discreta.... nel caso physx prendesse piede.... e in quel caso tutti quei soldi li dovrai sborsare pure tu. :asd:
Vuoi essere il numero 1? Fammi una scheda video con architettura hardware piena zeppa di brevetti made Nvidia che fa cose che le altre manco si sognano... e poi vedrai sarai certamente il n°1.. no che mi proponi uno 3SLI che fa il tè, la camomilla, che mi costa un occhio della madonna e che mi consuma da sola 300w.
Quando Ati aveva preso il largo con la mitica R300!!! C'era da mettersi le mani sui capelli per soldi che ci volevano per andarla ad acquistare.... più recente invece il caso di Nvidia che stava prendendo il largo con le sue ultime GeForce.... e menomale che ATI l'ha ripresa per i capelli... menomale!!! Che i prezzi stavano già lievitando.
Se così legato a quel marchio da giocarti la possibilità di avere un'opinione da consumatore?
Guarda che avere un'opinione corretta e libera non deve per forza costringerti a cambiare stalla. Ognuno fa e compra quello che vuole alla fine.
Qua sembra che Nvidia con il PhysX abbia scoperto l'America!!!! Anche a costo di rifilare minestre riscaldate si sventola PhysX come se valesse l'intera architettura hw acquistata dal cliente. Ma come ci si riduce così?
Certe volte rimpiango Matrox... e il fatto che sia uscita dal settore videogames.
Andrà a finire che dovrò acquistare una scheda video solo per giocare a un titolo, quando già quella in mio possesso in realtà ne avrebbe e come di benzina...
:muro: :muro: :muro: :muro: :muro:
Non sono un esperto in hardware, ma Nvidia ha comprato Ageia non tanto per le loro ppu(un vero disastro commerciale) quanto per l' SDK e implementar così gli algoritmi PhysX nei Forceware(driver).
è CHIARO CHE NON è UNA SCHEDA AGEIA...:read: :read:
Non ci vogliono 2 schede x far funzionar PhysX(ho provato la demo di Batman con PhysX on sulla mia 9600gt, tutto liscio...)
La 9800gt è uscita nel 2007(8800gt)...non direi che è una scheda di fasca ALTA...(anche se funzika ancora benone):Prrr: :Prrr:
L' AA in Batmen funziona anche in dx9...(ti riferisci a un altro titolo, che solo in dx10 si poteva attivare l' AA e cambiava una mazza negli effetti)...
L' AA lo attivi dal Pannello di Controllo, come il filtraggio anisotropico...
La cosa più importante. Tu non sei costretto a comprar NULLA, infatti la loro scheda "ibrida" se la possono anche tenere...
P.s. post + corti...
P.ss. Nvidia(come AMD, Intel, ecc...) fa i SUOI interessi, NON i TUOI o i MIEI
P.sss. il mio spettro oculare vede tutti i colori(umanamente parlando), quelli che vedono solo rosso o verde consiglio una bella visita...:D :D :D
Italia 1
24-10-2009, 11:51
Quale sarebbe il comportamento mafioso di NVIDIA?
Acquisire 3DFX, Uli e Physix e toglierli dalle scatole tanto per dirne una...
Amd ha acquisito Ati, ma come vedi il supporto e i prodotti Ati continuano ad esserci e piu vivi che mai. E in Ati ci lavorano ex dipendenti 3Dfx...
ndrmcchtt491
24-10-2009, 13:16
Acquisire 3DFX, Uli e Physix e toglierli dalle scatole tanto per dirne una...
Amd ha acquisito Ati, ma come vedi il supporto e i prodotti Ati continuano ad esserci e piu vivi che mai. E in Ati ci lavorano ex dipendenti 3Dfx...
Scusa se te lo dico, ma vai a veder cosa è Cosa Nostra...
Come dici te Nvidia ha acquistato 3dfx, ecc., Acquistar vuol dire "pagare"
guarda che PhysX è ancora presente(su Nvidia), non è scomparsa, come sicuramente del vecchio personale, soprattutto ingegnieri elettronici o informatici.
Come ha detto @Stefem:NVIDIA dovrebbe lavorare per la concorrenza???:confused: :confused: :confused:
Evitiamo paragoni(idioti) con la Mafia,Nvidia non ha sciolto nell' acido nessuno prego:fagiano:
L' AA in Batmen funziona anche in dx9...(ti riferisci a un altro titolo, che solo in dx10 si poteva attivare l' AA e cambiava una mazza negli effetti)...
con path dx10 e schede dx10.
se ne e' discusso fino alla noia :D
C;,a;,z;,aza
Italia 1
24-10-2009, 13:33
Scusa se te lo dico, ma vai a veder cosa è Cosa Nostra...
Come dici te Nvidia ha acquistato 3dfx, ecc., Acquistar vuol dire "pagare"
guarda che PhysX è ancora presente(su Nvidia), non è scomparsa, come sicuramente del vecchio personale, soprattutto ingegnieri elettronici o informatici.
Come ha detto @Stefem:NVIDIA dovrebbe lavorare per la concorrenza???:confused: :confused: :confused:
Evitiamo paragoni(idioti) con la Mafia,Nvidia non ha sciolto nell' acido nessuno prego:fagiano:
-3dfx era piena di debiti, Nvidia ha comprato i progetti e io non ho visto piu niente marchiato cosi, solo li SLI quanto s'è trovata alle strette di prestazioni. Peraltro lasciando senza supporto chiunque avesse ancora avuto schede video Voodoo
-Uli faceva ottimi Southbridge anche per Ati... che produce adesso ? Niente o all'incirca li ?
-Physix ? Voglio comprare una scheda per la fisica recente... che prendo ?
Dove mette le mani chiude mi pare... o perlomeno sparisce il prodotto. Che ne sai che Ati si compra Nvidia piu avanti e le riserva lo stesso trattamento !! :)
Comunque sia chiudo da parte mia l'OT, ribadisco che questa scheda a me non convince
-Physix ? Voglio comprare una scheda per la fisica recente... che prendo ?
Quello e' il meno , il problema e' che con gli ultimi drivers physix ha pure tolto il supporto alle " vecchie" schede ageia , che non funzionano piu' :D
una bella fregaura a chi al tempo se l'e' comprata!
c'.a'.z'.a'.za
-
E di fatica ne farai sempre di più se perdo tempo a spiegarti le cose
E' una causa persa in partenza :asd:
Non ho tempo da perdere... anche perché sono abbastanza sicuro che la cosa si potrebbe protrarre ad oltranza senza giungere a un punto d'incontro.
Per cui tieniti le tue di congetture che io mi tengo le mie così siamo tutti felici e contenti. :D
Goditi il tuo PhysX finchè puoi... dato che essendo uno standard a senso unico non ha futuro.
Una SoftwareHouse non potrebbe MAI prendere in considerazione di adottare PhysX in un suo prodotto e gettarlo nel mercato SE HA INTENZIONE DI VENDERE :D poiché taglierebbe fuori sistematicamente una fetta di mercato per nulla indifferente con ripercussioni sulle vendite..... a meno che.... a meno che Nvidia non offra un ribilanciamento dei conti A MO' DI MAZZETTE :asd:
Tanto veloce a comprare le SH con i soldi, tanto lenta a presentare sul mercato un'architettura nuova e superiore alla concorrenza :doh:
E pensare che era nettamente in vantaggio e con entrate da monopolista
Tutti spesi a comprare le SH . Curiosa come strategia di mercato! :D
Sta di fatto che il sorpasso, perlomeno come potenza di calcolo (lasciando perdere le dx11), c'è stato quindi ciao ciao e tanti saluti a PhysX.
Vedrai, persa la leadership, le SH chiederanno il doppio a Nvidia rispetto a prima per farsi implementare uno standard CHIUSO e PROPRIETARIO. Voglio vedere quanto tira! Chissà quanti soldi avranno a disposizione e se questo non influirà nella ricerca e sviluppo di nuovo hardware made Nvidia :fiufiu:
Ahahahha!!! PhysX Muahahahaha!!! :ronf:
:muro: :muro: :muro: :muro: :muro:
Non sono un esperto in hardware, ma Nvidia ha comprato Ageia non tanto per le loro ppu(un vero disastro commerciale) quanto per l' SDK e implementar così gli algoritmi PhysX nei Forceware(driver).
è CHIARO CHE NON è UNA SCHEDA AGEIA...:read: :read:
Physx è un'implementazione software punto e basta. Pure ATI se potesse avere la possibilità di lavorarci su metterebbe in piedi un driver in grado di far girare PhysX con prestazioni equivalenti alle Nvidia (CIOE' DA SCHIFO).
Non è vero invece se parliamo di DirectX, poiché effettivamente per ottenere prestazioni dignitose alcune routine e algoritmi necessitano essere innestate su dei chip nell'hardware. Per cui una scheda che supporta un path Dx9 si sogna di accedere al path Dx10 tramite accelerazione hardware poiché NON ESISTONO... potrai solo ricostruire virtualmente la situazione... ma questa sarebbe emulazione che inevitabilmente ti porterebbe a alcunché.
Alcune cose non possono essere emulate poiché ci vorrebe una capacità di calcolo di cui oggi non disponiamo.
HAI CAPITO adesso cos'è la REALE accelerazione hardware?
Non ci vogliono 2 schede x far funzionar PhysX(ho provato la demo di Batman con PhysX on sulla mia 9600gt, tutto liscio...)
La 9800gt è uscita nel 2007(8800gt)...non direi che è una scheda di fasca ALTA...(anche se funzika ancora benone)
Tu come ci giochi a 800x600 dettagli al minimo msaa spento e PhysX a minimo?
Fammi capire una GTX285 a stento mantiene tutto al massimo e a 60 fps e a 1280X1024 e tu mi dici che con la tua fila tutto liscio?
Una scheda di fascia ALTA conserva tale titolo se è in grado di dire la sua in fatto di tecnologie attuali anche e anche se la data di uscita risalirebbe al 2000 in teoria. Se poi la stronchi con PhysX ciao :muro:
L' AA in Batmen funziona anche in dx9...(ti riferisci a un altro titolo, che solo in dx10 si poteva attivare l' AA e cambiava una mazza negli effetti)...
L' AA lo attivi dal Pannello di Controllo, come il filtraggio anisotropico...
La cosa più importante. Tu non sei costretto a comprar NULLA, infatti la loro scheda "ibrida" se la possono anche tenere...
Sbaglio o citai un certo MSAA invece di un generico AA!!!?? Perché guarda che non è proprio la stessa cosa!!!
L'AA bruto (FSAA) lo applica pure una GPU R350 figurati!! Ma l'MSAA proprio no.
L'MSAA è una specifica delle Dx10 e richiede come tale accelerazione adeguata. L'MSAA a differenza dell'FSAA ha bisogno perlomeno di essere supportato dall'engine. Batman ha l'MSAA.
Gli algoritmi matematici usati per interpolare possono variare ma non mostreranno mai differenze qualitative a meno che non ci vai con la lente di ingrandimento. Ma il punto non è questo... è un altro!!!
Mentre l'FSAA ti smussa praticamente l'intera scena a video applicando il filtro a tutti gli oggetti, l'MSAA è selettivo.. cioè ti smussa oggetti in 3d dove serve. Il risultato finale in termini di prestazioni sarà differente poiché mentre l'FSAA graverà sulla GPU con calcoli spaventosi con la formula ti spremo a più non posso, l'MSAA andrà invece sulle ROPs della GPU con tecniche differenti di applicazione e l'ausilio di un buffer di multicampionamento apposito.
Quindi mentre le Nvidia saranno agevolate sotto questo punto di vista poiché potranno attivare l'MSAA dal gioco tranquillamente, l'utente che possiede una Ati ad esempio dovrà forzare l'AA dal control center. E' inutile dire che a parità di classe-scheda i risultati in termini di prestazioni saranno differenti. Un utente Nvidia con una 9800 GTX+ potrà mettere l'MSAA a 8X, l'utente con una HD4850 appena mette l'FSAA a 4X è fregato :( . E lo sappiamo tutti e due quale marca di scheda in fatto di antialiasing tira di più. Comunque non è questo che mi preme sottolineare... ma il seguente ragionamento:
Abilitarlo per le ATI non costava niente.... all'utente invece il gioco costa uguale. :) Il cliente che posa e caccia i soldi sul tavolo si infurierebbe se venisse a sapere cosa c'è dietro. Perché non glielo dici? Il prodotto è stato immesso sul mercato accessibile a tutti.
P.s. post + corti...
E pensare che doveva essere più lungo, attuai dei tagli in extremis :Prrr:
Uhmm... Eppure dai l'impressione di ragionare per certe cose, non so perché ma mi ispiri simpatia... :D
va bene che questa cosa darà molto all'occhio nei replay, ma mentre uno gioca come fa a vedere che l'acua dietro di se continua a muoversi:confused: :mbe:
ma avete notato che han messo l'acqua su ogni curva per fare i fighi? per me le macchine saranno dei canotti... :O
-3dfx era piena di debiti, Nvidia ha comprato i progetti e io non ho visto piu niente marchiato cosi, solo li SLI quanto s'è trovata alle strette di prestazioni. Peraltro lasciando senza supporto chiunque avesse ancora avuto schede video Voodoo
E' ridicolo, da quando non utilizzare i marchi registrati di un azienda che si è acquisito è diventato un comportamento mafioso?
3Dfx è fallita dopo aver venduto gran parte delle sue proprietà intellettuali a terzi per sistemare i bilanci, non è stata chiusa da NVIDIA, ciò che ne rimaneva è entrato a far parte di NVIDIA.
L'SLI di NVIDIA ha solo il nome in comune con la soluzione di 3Dfx.
Forse NVIDIA avrebbe dovuto continuare a supportare le schede 3Dfx ma bisogna pur tener conto che ha acquisito un azienda fallita, che quindi non avrebbe comunque potuto supportare i propri prodotti.
-Uli faceva ottimi Southbridge anche per Ati... che produce adesso ? Niente o all'incirca li ?
Uli è stata assorbita, il suo know how e le sue proprietà intellettuali ora sono in NVIDIA e influiscono sui prodotti di questa azienda.
-Physix ? Voglio comprare una scheda per la fisica recente... che prendo ?
Vendere schede o progettare chip da dedicare esclusivamente a PhysX sarebbe stato stupido quando hai a disposizione GPU e schede relativamente economiche che possono fare al meglio lo stesso lavoro.
Perché sviluppare due prodotti distinti quando entrambi hanno bisogno delle stesse caratteristiche?
Il CEO di Ageia è ancora a capo del team che si occupa di PhysX.
Dove mette le mani chiude mi pare... o perlomeno sparisce il prodotto. Che ne sai che Ati si compra Nvidia piu avanti e le riserva lo stesso trattamento !! :)
C'è una bella differenza tra chiudere e mandare tutti a casa o inglobarla nel core asset.
ATI non esiste più come azienda, ma sopravvive come marchio registrato di AMD, quindi non può acquisire proprio nessuno.
Comunque sia chiudo da parte mia l'OT, ribadisco che questa scheda a me non convince
Quello e' il meno , il problema e' che con gli ultimi drivers physix ha pure tolto il supporto alle " vecchie" schede ageia , che non funzionano piu' :D
una bella fregaura a chi al tempo se l'e' comprata!
c'.a'.z'.a'.za
Questo non è vero, sul sito ci sono le istruzioni per installare i driver per le schede Ageia P1.
"Aggiornamento del runtime SOLO per gli utenti processori di AGEIA PhysX. (Le nuove installazioni con processore AGEIA PhysX dovrebbero installare il software di sistema PhysX precedente, ad esempio la versione 8.09.04 – prima di installare questo aggiornamento)."
La scheda Ageia è veramente poco potente e presenta alcune grosse limitazioni, per cui in alcuni giochi non si può utilizzare.
Anche le GPU sono incompatibili con alcune vecchie implementazioni di PhysX, come ad esempio Tom Clancy's Ghost Recon Advanced Warfighter.
Acquisire 3DFX, Uli e Physix e toglierli dalle scatole tanto per dirne una...
Amd ha acquisito Ati, ma come vedi il supporto e i prodotti Ati continuano ad esserci e piu vivi che mai. E in Ati ci lavorano ex dipendenti 3Dfx...
Con la differenza che ATI non era fallita quando è stata assorbita.
Molti ex dipendenti 3Dfx lavorano ancora in NVIDIA, altri se ne sono andati o sono stati licenziati, ma questo non significa proprio niente.
Ex personale di AMD, Intel, ed SGI oggi lavora in NVIDIA, lo stesso CEO di NVIDIA era un progettista di microprocessori per Advanced Micro Devices.
ndrmcchtt491
24-10-2009, 21:07
Physx è un'implementazione software punto e basta. Pure ATI se potesse avere la possibilità di lavorarci su metterebbe in piedi un driver in grado di far girare PhysX con prestazioni equivalenti alle Nvidia (CIOE' DA SCHIFO).
Non è vero invece se parliamo di DirectX, poiché effettivamente per ottenere prestazioni dignitose alcune routine e algoritmi necessitano essere innestate su dei chip nell'hardware. Per cui una scheda che supporta un path Dx9 si sogna di accedere al path Dx10 tramite accelerazione hardware poiché NON ESISTONO... potrai solo ricostruire virtualmente la situazione... ma questa sarebbe emulazione che inevitabilmente ti porterebbe a alcunché.
Alcune cose non possono essere emulate poiché ci vorrebe una capacità di calcolo di cui oggi non disponiamo.
HAI CAPITO adesso cos'è la REALE accelerazione hardware?
Tu come ci giochi a 800x600 dettagli al minimo msaa spento e PhysX a minimo?
Fammi capire una GTX285 a stento mantiene tutto al massimo e a 60 fps e a 1280X1024 e tu mi dici che con la tua fila tutto liscio?
Una scheda di fascia ALTA conserva tale titolo se è in grado di dire la sua in fatto di tecnologie attuali anche e anche se la data di uscita risalirebbe al 2000 in teoria. Se poi la stronchi con PhysX ciao :muro:
Sbaglio o citai un certo MSAA invece di un generico AA!!!?? Perché guarda che non è proprio la stessa cosa!!!
L'AA bruto (FSAA) lo applica pure una GPU R350 figurati!! Ma l'MSAA proprio no.
L'MSAA è una specifica delle Dx10 e richiede come tale accelerazione adeguata. L'MSAA a differenza dell'FSAA ha bisogno perlomeno di essere supportato dall'engine. Batman ha l'MSAA.
Gli algoritmi matematici usati per interpolare possono variare ma non mostreranno mai differenze qualitative a meno che non ci vai con la lente di ingrandimento. Ma il punto non è questo... è un altro!!!
Mentre l'FSAA ti smussa praticamente l'intera scena a video applicando il filtro a tutti gli oggetti, l'MSAA è selettivo.. cioè ti smussa oggetti in 3d dove serve. Il risultato finale in termini di prestazioni sarà differente poiché mentre l'FSAA graverà sulla GPU con calcoli spaventosi con la formula ti spremo a più non posso, l'MSAA andrà invece sulle ROPs della GPU con tecniche differenti di applicazione e l'ausilio di un buffer di multicampionamento apposito.
Quindi mentre le Nvidia saranno agevolate sotto questo punto di vista poiché potranno attivare l'MSAA dal gioco tranquillamente, l'utente che possiede una Ati ad esempio dovrà forzare l'AA dal control center. E' inutile dire che a parità di classe-scheda i risultati in termini di prestazioni saranno differenti. Un utente Nvidia con una 9800 GTX+ potrà mettere l'MSAA a 8X, l'utente con una HD4850 appena mette l'FSAA a 4X è fregato :( . E lo sappiamo tutti e due quale marca di scheda in fatto di antialiasing tira di più. Comunque non è questo che mi preme sottolineare... ma il seguente ragionamento:
Abilitarlo per le ATI non costava niente.... all'utente invece il gioco costa uguale. :) Il cliente che posa e caccia i soldi sul tavolo si infurierebbe se venisse a sapere cosa c'è dietro. Perché non glielo dici? Il prodotto è stato immesso sul mercato accessibile a tutti.
E pensare che doveva essere più lungo, attuai dei tagli in extremis :Prrr:
Uhmm... Eppure dai l'impressione di ragionare per certe cose, non so perché ma mi ispiri simpatia... :D
Come scrivi te PhysX è un'implementazione software che agisce via hardware(la vga in questo caso) quindi...
Come dicevo non sono molto esperto in hardware, ma so cose è l' antialiasing, io ne so 3 tipi:
1- il FSAA=full scene antialiasing(quello grezzo x capirci)
2- il MSAA=come il primo ma implementa la capacità di filtrare texture trasparenti(tipo le reti)
3- il SSAA=come il secondo, ma riduce al minimo l' aliasing sulle trasparenze
(il correzione gamma migliora l'AA,)
tu dici che il MSAA è una specifica dx10?, come mai allora esiste dalla serie 7 di Nvidia o exAti?(da possessore di 7600gt c'era sia il multi che il supercampionamento da abilitar indipendentemente)
Quanto a Batman ho solo la demo, ma io lo gioco con 1280*1024 tutto al max:sbavvv: :sbavvv: tranne le texture(e6600dualcore, 2gigaram, 9600gt512mb), non sono MAI sceso sotto i 20fps...
sto pom. ho testato il suddetto titolo e Crisys(non mi fa i 60fps neanche se:bsod: :bsod:)sia attivando l' AA dal gioco che dal control panel...non ho notato differenze in velocita.:confused: :confused: :confused:
sul tuo ultimo commento "all'utente invece il gioco costa uguale. :) Il cliente che posa e caccia i soldi sul tavolo si infurierebbe se venisse a sapere cosa c'è dietro. Perché non glielo dici? Il prodotto è stato immesso sul mercato accessibile a tutti.
son d' accordo con te.
Buona serata
P.s. è un piacer scambiar opinioni con gente che non ti insulta o critica errori da "dicitura", pultroppo in sto sito ce ne sono tante, TROPPE:cool: :)
ndrmcchtt491
24-10-2009, 21:11
con path dx10 e schede dx10.
se ne e' discusso fino alla noia :D
C;,a;,z;,aza
Come dicevo al tipo sopra ho la demo(non so se il codice completo è differente), la scheda è una 9600gt, il S.O. è XP...
Le Dx10 non le vedo neanche con un binocolo:lamer: :lamer: :lamer: , però l' AA lo posso attivare:Perfido:
E di fatica ne farai sempre di più se perdo tempo a spiegarti le cose
E' una causa persa in partenza :asd:
Ho cercato di essere educato, fatico a seguire i tuoi discorsi perché ti esprimi veramente male e la struttura grammaticale delle tue frasi lascia alquanto a desiderare, non certo perché non riesco a comprendere le tue "argomentazioni tecniche" se cosi le vogliamo chiamarle.
Non ho tempo da perdere... anche perché sono abbastanza sicuro che la cosa si potrebbe protrarre ad oltranza senza giungere a un punto d'incontro.
Per cui tieniti le tue di congetture che io mi tengo le mie così siamo tutti felici e contenti. :D
Forse è questa la differenza, tu ti basi su delle congetture, io per farmi un idea mi baso su fatti e sulle mie conoscenze.
Goditi il tuo PhysX finchè puoi... dato che essendo uno standard a senso unico non ha futuro.
Una SoftwareHouse non potrebbe MAI prendere in considerazione di adottare PhysX in un suo prodotto e gettarlo nel mercato SE HA INTENZIONE DI VENDERE :D poiché taglierebbe fuori sistematicamente una fetta di mercato per nulla indifferente con ripercussioni sulle vendite..... a meno che.... a meno che Nvidia non offra un ribilanciamento dei conti A MO' DI MAZZETTE :asd:
Queste sono cazzate, PhysX gira su CPU x86, siano esse di AMD, Intel, Via o pinco pallino, gira su PowerPC, Wii, X360, PS3, su architetture ARM e gira sotto Windows, Mac OS e Linux.
Tanto veloce a comprare le SH con i soldi, tanto lenta a presentare sul mercato un'architettura nuova e superiore alla concorrenza :doh:
Premettendo che le nuove GPU AMD non sono basate su una nuova architettura, praticamente mai ATI, ora AMD ed NVIDIA hanno messo in commercio nuovi prodotti nello stesso momento, e questo vale un po' per tutto il mondo ICT.
E poi quali sarebbero le sh comprate da NVIDIA?
Physx è un'implementazione software punto e basta. Pure ATI se potesse avere la possibilità di lavorarci su metterebbe in piedi un driver in grado di far girare PhysX con prestazioni equivalenti alle Nvidia (CIOE' DA SCHIFO).
Non è vero invece se parliamo di DirectX, poiché effettivamente per ottenere prestazioni dignitose alcune routine e algoritmi necessitano essere innestate su dei chip nell'hardware. Per cui una scheda che supporta un path Dx9 si sogna di accedere al path Dx10 tramite accelerazione hardware poiché NON ESISTONO... potrai solo ricostruire virtualmente la situazione... ma questa sarebbe emulazione che inevitabilmente ti porterebbe a alcunché.
Alcune cose non possono essere emulate poiché ci vorrebe una capacità di calcolo di cui oggi non disponiamo.
HAI CAPITO adesso cos'è la REALE accelerazione hardware?
Sai cos'è un ISA? un compilatore? cosa sono e ha cosa servono le API e le librerie?
Sembra di no, mi sembra che tu stia confondendo hardware Fixed Function con hardware dedicato ed emulazione.
Tu come ci giochi a 800x600 dettagli al minimo msaa spento e PhysX a minimo?
Fammi capire una GTX285 a stento mantiene tutto al massimo e a 60 fps e a 1280X1024 e tu mi dici che con la tua fila tutto liscio?
Se il gioco lo supporta imposto sempre la risoluzione a 1920x1200 e fino ad ora non ho avuto problemi ad impostare i dettagli al massimo, ad esempio Batman, come ti ho già detto, a 1920x1200 con grafica e fisica impostati al massimo.
In quale gioco con Vsync e limitazione del frame rate disabilitati una GTX 285 a stento mantiene 60 fps a 1280x1024?
Sbaglio o citai un certo MSAA invece di un generico AA!!!?? Perché guarda che non è proprio la stessa cosa!!!
L'AA bruto (FSAA) lo applica pure una GPU R350 figurati!! Ma l'MSAA proprio no.
L'MSAA è una specifica delle Dx10 e richiede come tale accelerazione adeguata. L'MSAA a differenza dell'FSAA ha bisogno perlomeno di essere supportato dall'engine. Batman ha l'MSAA.
Gli algoritmi matematici usati per interpolare possono variare ma non mostreranno mai differenze qualitative a meno che non ci vai con la lente di ingrandimento. Ma il punto non è questo... è un altro!!!
Mentre l'FSAA ti smussa praticamente l'intera scena a video applicando il filtro a tutti gli oggetti, l'MSAA è selettivo.. cioè ti smussa oggetti in 3d dove serve. Il risultato finale in termini di prestazioni sarà differente poiché mentre l'FSAA graverà sulla GPU con calcoli spaventosi con la formula ti spremo a più non posso, l'MSAA andrà invece sulle ROPs della GPU con tecniche differenti di applicazione e l'ausilio di un buffer di multicampionamento apposito.
Quindi mentre le Nvidia saranno agevolate sotto questo punto di vista poiché potranno attivare l'MSAA dal gioco tranquillamente, l'utente che possiede una Ati ad esempio dovrà forzare l'AA dal control center. E' inutile dire che a parità di classe-scheda i risultati in termini di prestazioni saranno differenti. Un utente Nvidia con una 9800 GTX+ potrà mettere l'MSAA a 8X, l'utente con una HD4850 appena mette l'FSAA a 4X è fregato :(
L'MSAA non è una specifica DX10, è disponibile anche su hardware DX9 e 8...
Batman usa un engine di tipo deferred, questo tipo di engine è incompatibile con l'MSAA su hardware DX9, l'engine antialiasing implementato da NVIDIA offre un 2x e 4x di tipo MSAA, compatibile con AMD, mentre le modalità 8x e 16x sono di tipo CSAA o Quincunx in presenza del suffisso Q, queste modalità invece sono incompatibili con AMD.
ma il seguente ragionamento: Abilitarlo per le ATI non costava niente.... all'utente invece il gioco costa uguale. :) Il cliente che posa e caccia i soldi sul tavolo si infurierebbe se venisse a sapere cosa c'è dietro. Perché non glielo dici? Il prodotto è stato immesso sul mercato accessibile a tutti.
All'utente il gioco costa uguale perché non paga l'AA, NVIDIA lo ha implementato è lo offre gratuitamente hai suoi clienti.
Rendere l'AA fino a 4x disponibile su schede AMD DX10 senza testarlo non sarebbe costato niente, ma NVIDIA ha speso dei soldi per implementarlo, perché altri dovrebbero avvantaggiarsi dei soldi che ha speso lei?
Ma forse sei cecho, ti ho già spiegato che gli sviluppatori hanno deciso di rilasciare il gioco senza AA e che NVIDIA ha deciso di aggiungerlo LEI per i propri clienti, gli sviluppatori non ti vendono Batman con l'AA, sulla confezione non c'è scritto che potrai abilitarlo, molti altri giochi basati sull'UE3 non supportano l'AA.
Perché NVIDIA dovrebbe lavorare anche per supportare i clienti della concorrenza?
NVIDIA si è sbattuta per offrire l'AA ai suoi clienti, AMD ha rifiutato di fare lo stesso quindi al massimo te la dovresti prendere con loro.
Italia 1
24-10-2009, 23:04
Scusa eh, ma che ragionamento... allora mi compro una macchina e me ne frego se ci sono o no i cuscinetti sui semiassi.... :)
Ridiamoci su, che nel frattempo chatto co una bionda !!
Dai su, parliamo dell'utilizzo per l'utente "newbie" di questa scheda con due processori diversi, non di utenti piu "tecnici" come noi: Uno non potrebbe itrovarsi un pò incavolato perchè trova due schede video sul pannello di controllo, diverse e senza possibilità di SLI ?
Scusa eh, ma che ragionamento... allora mi compro una macchina e me ne frego se ci sono o no i cuscinetti sui semiassi.... :)
è? :mbe: :confused:
Italia 1
25-10-2009, 00:37
intendo: compro un gioco per pc e non posso usare gli effetti ???
michelgaetano
25-10-2009, 01:44
Ma forse sei cecho, ti ho già spiegato che gli sviluppatori hanno deciso di rilasciare il gioco senza AA e che NVIDIA ha deciso di aggiungerlo LEI per i propri clienti, gli sviluppatori non ti vendono Batman con l'AA, sulla confezione non c'è scritto che potrai abilitarlo, molti altri giochi basati sull'UE3 non supportano l'AA.
Perché NVIDIA dovrebbe lavorare anche per supportare i clienti della concorrenza?
NVIDIA si è sbattuta per offrire l'AA ai suoi clienti, AMD ha rifiutato di fare lo stesso quindi al massimo te la dovresti prendere con loro.
Peccato che nulla del genere fosse stato detto a chi comprava la scatola.
Potete discuterne e difendere chi volete (e le varie kick-ass feature :asd:), ma i consumatori (quelli con ATi) hanno pagato per qualcosa che poi non hanno ottenuto, e della qual cosa non sono stati avvertiti.
intendo: compro un gioco per pc e non posso usare gli effetti ???
Non puoi usare gli effetti perché gli sviluppatori non gli hanno inseriti.
Non tutti i giochi supportano l'AA, in particolare i giochi basati sull'Unreal Engine 3 (come Batman) su hardware DX9 non supportano l'MSAA (ad esclusione di Mirrors Edge e neanche chi qui sul forum è venerato come il rivelatore della verità suprema ha saputo darmi una spiegazione credibile, o magari me la sono persa io :) ).
In DX10 è possibile, ma l'Unreal Engine 3 vine fornito ha terze parti senza AA ed esempi per implementarlo, quindi dovrà essere lo sviluppatore a farlo, non trova il lavoro già fatto.
Batman è un gioco DX9 ma NVIDIA ha implementato un engine AA per i propri clienti disponibile solo su hardware DX10, dato che e gli sviluppatori non potevano o volevano aggiungere l'AA al gioco.
Gli sviluppatori di Batman non hanno potuto/voluto farlo, su questo ci si può lamentare fino alla nausea ma non vedo perché ci si debba lamentare se NVIDIA decide di implementarlo per i propri clienti, Eidos lo ha proposto anche ad AMD, mandare dei tecnici nei loro studi per fare come NVIDIA ed implementare il supporto alle proprie schede, ma AMD ha declinato.
Peccato che nulla del genere fosse stato detto a chi comprava la scatola.
Si ma sulla scatola non c'era scritto neanche che avresti potuto attivare l'AA.
Potete discuterne e difendere chi volete (e le varie kick-ass feature :asd:), ma i consumatori (quelli con ATi) hanno pagato per qualcosa che poi non hanno ottenuto, e della qual cosa non sono stati avvertiti.Perché alcuni continuano ad insistere sul fatto che chi, con scheda AMD, ha comprato il gioco ha pagato per una cosa che non può utilizzare?
Quando acquisti il gioco, "compri" il lavoro svolto dagli sviluppatori, l'AA di Batman non l'hanno fatto loro, non fa parte del loro lavoro.
Come dicevo al tipo sopra ho la demo(non so se il codice completo è differente), la scheda è una 9600gt, il S.O. è XP...
Le Dx10 non le vedo neanche con un binocolo:lamer: :lamer: :lamer: , però l' AA lo posso attivare:Perfido:
la 9600gt e' una scheda che supporta dx10.
quindi l'aa viene attivata con una path dx10 usando comunque le dx9.
per es sulla mia vecchia 6800gt , quindi scheda dx9 , l'aa non sarebbe attivabile in nessun modo, dato che l'hardware non supporta il path dx10.
ne ha discusso ampiamente il buon yossarian che e' ben piu' esperto del sottoscritto :D
C;,a;,z;,aza
capitan_crasy
25-10-2009, 09:36
Si ma sulla scatola non c'era scritto neanche che avresti potuto attivare l'AA.
Perché alcuni continuano ad insistere sul fatto che chi, con scheda AMD, ha comprato il gioco ha pagato per una cosa che non può utilizzare?
Quando acquisti il gioco, "compri" il lavoro svolto dagli sviluppatori, l'AA di Batman non l'hanno fatto loro, non fa parte del loro lavoro.
facciamo un'edizione del TG per i non udenti :D
Ricapitoliamo:
l'UE3 è nato dx9 e come tale non supporterebbe il MSAA. Questo significa, udite bene, che, con una path dx9 non lo supporta e che i tecnici di nVidia, il mago otelma (pardon, il "divino otelma"), l'incredibile hulk, sbirulino e luke skywalker si possono sbattere quanto vogliono ma non avranno mai il MSAA su HARDWARE DX9.
Con l'HARDWARE DX10 le cose stanno diversamente, perchè ci sono due metodi STANDARD per implementare il MSAA con l'UE3 e con tutti gli altri engine che usano deferred rendering (standard, non nVidia mode).
Con l'HARDWARE DX10.1 E DX11 ce n'è un terzo, migliore degli altri 2 che fa andare le vga un 20-25% in più con MSAA 4x attivo. Questa modalità non è supportata da hardware dx10 o precedente (che non supporta neppure le altre).
Ora, mi risulta che la questione nasca intorno all'implementazione del MSAA con HW dx10 (non mi risulta che lo si abbia con la serie 7 ad esempio, ma sono pronto ad essere smentito :D ), quindi la tesi che l'UE3 è DX9 e non supporta MSAA e che questo è possibile grazie a nVidia, equivalente alla tesi: nVidia ha inventato il MSAA con l'UE3 è una cazzata madornale perchè parliamo di utilizzo con HW dx10, ovvero perfettamente in grado di aggirare l'ostacolo posto dall'impossibilità di salvare le geometrie del frame prima della rimozione delle superfici nascoste. Sarebbe invece corretta (l'affermazione che nVidia ha inventato il MSAA con UE3) se riuscissero a farlo andare sulla serie 7 (ma li sfido a far funzionare qualcosa di diverso da semplice blurring).
Ora, capisco che continui lavaggi del cervello su quanto è brava nVidia e quanto segue gli sviluppatori e quante cose inventa, possono produrre risultati disastrosi ma, di fatto, esistono giochi con l'UE3 che fanno tranquillamente uso di MSAA come e meglio di BAA e su tutti i chip dx10 o superiori. Due tra tutti, bioshock e assassin's creed dove, addirittura, con la patch 1.01 si era tentato di implementare il MRT su z-buffer col risultato che le 4850 (proprio 50 e non 70) con MSAA 4x attivo erano più veloci delle 280 GTX fino a risoluzioni con cui non erano frame buffer limited.
La patch è stata inspiegabilmente tolta dopo pochissimo tempo con la motivazione che creava artefatti grafici con vga dx10.
Quindi, non solo è possibile far funzionare il MSAA con l'UE3 su ATi, ma è possibile anche avere miglioramenti prestazionali impossibili con nVidia.
Il tutto usando path STANDARD :read:
Alla luce dei fatti, questa affermazione
Both of these claims are NOT true. Batman is based on Unreal Engine 3, which does not natively support anti-aliasing
è palesemente falsa, in quanto sarebbe dovuta suonare così: l'UE3 nativamente non supporta il MSAA su hardware dx9 o precedente.
Clicca qui... (http://www.hwupgrade.it/forum/showpost.php?p=29114386&postcount=226)
Italia 1
25-10-2009, 09:59
Madò che intreccio....
A confronto una parentela di 7 generazioni mi pare una cavolata districarla...
Vabbè, abbiamo capito che Nvidia su certi motori ha fatto di tutto per implementare l'AA in qualche forma, Ati l'ha fatto in altri motori o no ? (havok ?) Ati ha implementato sto fenomenale AA Supersampling... via driver si può sempre appllicare l'effetto anche su giochi che non lo supporterebbero... o sbaglio ?
Rimane il fatto che l'argomento principale qui dovrebbe essere una scheda video con due GPU diverse fatte da Nvidia in collaborazione con Evga, scheda creata per avere a disposizione una GPU per il comparto video e l'altra per la fisica... ma adesso mi chiedo io: saranno piu usati gli effetti di fisica o le DX 11 ? Un giudizio vostro, mica tecnicismi per sapere se lo spigolo della vite che si intravede a 10 km di distanza è piu definito con una Nvidia o con un'Ati
Ale55andr0
25-10-2009, 10:04
loro hanno deciso di non implementare l'AA e AMD non ha voluto rimediare.
Gli sviluppatori ti hanno venduto un gioco senza AA.
NVIDIA ha lavorato per fornirlo hai suoi clienti.
Mi spieghi come mai con la demo funzionava anche con le Ati?
yossarian
25-10-2009, 10:05
Non puoi usare gli effetti perché gli sviluppatori non gli hanno inseriti.
Non tutti i giochi supportano l'AA, in particolare i giochi basati sull'Unreal Engine 3 (come Batman) su hardware DX9 non supportano l'MSAA (ad esclusione di Mirrors Edge e neanche chi qui sul forum è venerato come il rivelatore della verità suprema ha saputo darmi una spiegazione credibile, o magari me la sono persa io :) ).
In DX10 è possibile, ma l'Unreal Engine 3 vine fornito ha terze parti senza AA ed esempi per implementarlo, quindi dovrà essere lo sviluppatore a farlo, non trova il lavoro già fatto.
Batman è un gioco DX9 ma NVIDIA ha implementato un engine AA per i propri clienti disponibile solo su hardware DX10, dato che e gli sviluppatori non potevano o volevano aggiungere l'AA al gioco.
Gli sviluppatori di Batman non hanno potuto/voluto farlo, su questo ci si può lamentare fino alla nausea ma non vedo perché ci si debba lamentare se NVIDIA decide di implementarlo per i propri clienti, Eidos lo ha proposto anche ad AMD, mandare dei tecnici nei loro studi per fare come NVIDIA ed implementare il supporto alle proprie schede, ma AMD ha declinato.
diciamo che te la sei persa o hai avuto difficoltà a capirla :D
inoltre òa frase evidenziata o è poco chiara o è palesemente sbagliata. Nessun engine di tipo deferred supporta il MSAA su HW dx9 (UE3 è solo un engine deferred come quello di AC o di stalker) e neppure in MIrror's Edge è possibile attivare il MSAA su HW DX9. Questo giusto per precisare. E sempre per precisare, le serie 4xx0, 3xx0 e 2xx0 di ATi sono dx10.1 (le prime due) e dx10 la terza rispettivamente, quindi non vale la limitazione di cui parli.
Ora, risulta che in AC e in stalker sia possibile far uso di MSAA mentre, guarda caso, in BAA no (per favore non tirare di nuovo in ballo la stupidaggine che l'UE3 non supporta il MSAA perchè, ripeto, l'UE3 è solo un engine di tipo deferred ed sottoposto alle limitazioni di questo tipo di motori)
Ale55andr0
25-10-2009, 10:11
Si ma sulla scatola non c'era scritto neanche che avresti potuto attivare l'AA.
suonerà di parte ma...se avessi saputo che Gothic 3 non aveva l'AA non l'ho avrei comprato. Però è vero, non è un'informazione che si trova nella confezione di gioco dove si trovano solo i requisiti
Quando acquisti il gioco, "compri" il lavoro svolto dagli sviluppatori, l'AA di Batman non l'hanno fatto loro, non fa parte del loro lavoro.
Lo hanno fatto loro? (nVidia) Cioè hanno scritto una porzione di codice per ottenere l'AA? Ah...:rolleyes:
perchè mi suona come un gran ka**ata?
yossarian
25-10-2009, 10:22
suonerà di parte ma...se avessi saputo che Gothic 3 non aveva l'AA non l'ho avrei comprato. Però è vero, non è un'informazione che si trova nella confezione di gioco dove si trovano solo i requisiti
Perché alcuni continuano ad insistere sul fatto che chi, con scheda AMD, ha comprato il gioco ha pagato per una cosa che non può utilizzare?
Lo hanno fatto loro? (nVidia) Cioè hanno scritto una porzione di codice per ottenere l'AA? Ah...:rolleyes:
perchè mi suona come un gran ka**ata?
infatti è una grandissima stupidaggine; quelli di nVidia non hanno scritto un bel niente ma si sono limitati a fornire agli sviluppatori di BAA i dettagli dell'HAL dei loro chip (un layer che è posto tra driver e API e serve per emulare funzionalità inesistenti in HW) per forzare l'operazione di render to texture con "finto HW dx9" (in realtà HW dx10 che ha la possibilità di effettuare tale operazione). Questo ha permesso di evitare che le operazioni di HSR avvenissero automaticamente prima del possibile salvataggio dei dati dello z-buffer.
La stessa operazione si sarebbe potuta fare con HW ATi e ottenere lo stesso risultato ma non è stato fatto (anche se AMD aveva chiesto la collaborazione di EIDOS per farlo).
Altra fandonia che si è letta in giro è quella che con chip ATi non è stata attivata questa funzionalità perchè dava luogo ad artefatti. Fa il paio con gli artefatti di Assassin's creed che poi si è scoperto che riguardavano in maggior misura l'HW dx10 (ossia proprio nVidia e la serie 2xx0 di ATi).
Resta il fatto che nVidia non ha inventato alcun algoritmo per l'implementazione del MSAA ma si è fatto ricorso ad una tecnica DX10 standard (il render to texture o, al limite, l'utilizzo di un color buffer come z-buffer)
Poi non ho capito la questione dei tecnici Ati invitati da Eidos a collaborare per l'AA e che hanno rifiutato.
Io avevo letto che era stato l'esatto contrario , ossia che e' stata eidos semmai a non fornire ad ati il gioco in via di sviluppo per eventuali miglioramenti ed ottimizzazioni per le schede ati...
c;a;.,;z;.a;.za
-
Mi sembra di avertelo detto già prima; non credo ci sia modo di convergere per cui sforzati di leggere (se vuoi) le mie presunte cavolate come io mi sforzo di leggere le tue.
A girare le frittate o trovare in quello "che non ho detto" il modo di aprire nuove e "incredibili avventure" con lo scopo di obiettare non porterà a nulla. Non ostinarti!!!
Scusa se non ho sottolineato le altre introduzioni di MSAA nelle directX con evidenti approcci di accesso differenti.
QUESTO MSAA rimane cmq una specifica dx10, come il tassellatore che nei prossimi giorni presumo, potrà essere ritenuta una specifica dx11 poiché differente da quello introdotto nelle dx10.1 e precedenti. Diciamo che Io la penso così, tu sei libero di non condividere!!!
Poi scusami se ho dimenticato la Sincronizzazione Verticale per il discorso di Batman lì....; è che erroneamente avrò pensato... essendo la GTX285 una Nvidia di PRIMA FASCIA non dovesse poi faticare così tanto per tenerlo attivo.... per me era... come dire... Sottinteso e scontato che dovesse essere attivo con tutti i soldi che è costata. Evidentemente non lo era per te. Secondo me PhysX c'ha messo lo zampino!!! :asd:
Probabilmente ho dimenticato anche qualche opzione in più, specifica al gioco Batman che adesso non mi sovviene... ho disinstallato la demo un po' di mesi fa. Mi scuso anche per questo.
Comunque, non ho voglia di installarlo per controllare... e mi scoccio andarne a cercare uno screenshot delle opzioni. Certe cose, ritengo, lasciano il tempo che trovano!!
Mooolto più grave invece.......
All'utente il gioco costa uguale perché non paga l'AA, NVIDIA lo ha implementato è lo offre gratuitamente hai suoi clienti.
..... e qua ti riprendo, o ti sbrano (metaforicamente parlando):
Dai dammelo in Bianco e Nero sto gioco e facciamola finita!!!
10 anni persi a sviluppare GPU capaci di accollarsi i calcoli dell'AA e poi mi vieni a dire "no mi devi pagare per avere l'antialiansing attivo perché abbiamo lavorato e bla bla bla".
Parliamoci chiaro!!!
Ma se per questo tu devi lavorare a prescindere se vuoi i miei soldi!!! Ci mancherebbe.
Quante volte lo devo pagare sto antialiasing? Una volta per Batman un'altra per Robin e un'altra volta per la bagascia di Batgirl? Guarda che quando ho acquistato la scheda video verde o rossa o blu L'HO GIA' PAGATO L'ANTIALIASING.
Ti risulta che altre softwarehouse in passato quando hann moddato un engine grafico dx9 per innestargli caratteristiche dx10 abbiano chiesto un surplus??
Ma cose da pazzi!!! Ma davvero tu ragioni così?
Questo non è un forum Nvidia o ATI in cui pianificare futuri piani di espansione.... Se vuoi confrontarti con me e con gli altri devi calarti perlomeno nei panni del cliente. Perché qua noi le nostre braghe NON abbiamo NESSUNA intenzione di abbassarle per farcela mettere nel di dietro. Io non penso questo sia un forum "abitato" da dirigenti Nvidia ATI Intel; ma qualora lo fosse non credo proprio che esercitare queste prepotenze di carattere prettamente politico-aziendale potrebbe trovare consenso qui. Qua la maggior parte degli utenti sono potenziali clienti. Attenzione a come ti poni!!!!
Prova a dire di presenza una cosa del genere ad un cliente ignaro della faccenda mentre sta pagando per questa carognata e poi vedremo se prima di divorarti con lo sguardo avrebbe voglia di esercitare qualche altro tipo di violenza nei tuoi confronti!!!
Ci vuole davvero coraggio a uscirsene con certe idee!!
Ci sono tanti modi per dire "TI STO FREGANDO" e uno di questi l'hai appena scritto.
Facciamo una cosa GIUSTA invece!!! Chiudiamo direttamente la questione! Togliamo dai requisiti persino le ATI visto che c'è pregiudizio. Vendiamolo solo agli utenti Nvidia!!!
E così si finisce di fare gli spiritosi con i soldi degli altri!!! E vediamo se tra il denaro del cliente, e la mente malata dei dirigenti chi la spunta!!!
Vuoi vedere come tu cliente Nvidia pagherai il tuo bel Antialiasing??? Poi vedrai se è a GRATIS!!! Babbo Natale non ESISTE e nessuno ti regala niente.
NVIDIA si è sbattuta per offrire l'AA ai suoi clienti, AMD ha rifiutato di fare lo stesso quindi al massimo te la dovresti prendere con loro.
Questo è stato UFFICIALMENTE smentito da ATI o da chi ne fa le veci, per cui mi spiace ..... se devo credere a Nvidia non vedo perché non dovrei fare lo stesso con le dichiarazioni ATI.
Lo hai ripetuto 2 volte a me a 10 mila volte a chissà chi!!!
Io ragiono da cliente non mi interessano le diatribe interne, i soldi fuori alla fine li caccio IO.
Io me la prendo con chiunque tenta di mettermela nel di dietro. Tu NON VUOI capire!!! Ragioni in VERDE.
------
E per cortesia evita di provocare... che è una cosa spiacevole e odiosa. Qua non siamo in vena di scatenare liti ma solo di esprimere opinioni.
Se sei contrario, puoi dire il tuo punto di vista quanto ti pare.... nessuno ti caccia ma per favore evita di dire stupidaggini o indurre a provocazioni del tipo "ti esprimi male in grammatica" o uscendotene con "sai cos'è una libreria?? un'API?? un compilatore???" e poi risponderti da solo. Cos'è??? Hai bisogno di sapere se io sono uno sviluppatore professionista o meno per farti andare a studiare informatica avanzata???
Necessiti che qualcuno ti solleciti a studiare la grammatica italiana? Perché te le vai a cercare?
Sei un impudente e irrispettoso!!!
Ti risulta io l'abbia fatto nei tuoi confronti?
Ma tu così ti poni di fronte alla gente? Attaccandola?
Il mio rispetto ce l'avevi già prima, e probabilmente ce l'hai ancora per come sono fatto io.... ma piuttosto io mi chiedo... Io ho il tuo???
Italia 1
25-10-2009, 11:20
Appunto.. i cuscinetti nelle ruote delle macchine DEVONO essere compresi... :)
ma non saremo un pò OT? :rolleyes:
Italia 1
25-10-2009, 11:26
Noooooooo .... appena appena !!! Pensa se apriamo una discussione sui vari AA...
C'ho provato a ripiristinare la carreggiata ma non mi calcola nessuno..
Noooooooo .... appena appena !!! Pensa se apriamo una discussione sui vari AA...
C'ho provato a ripiristinare la carreggiata ma non mi calcola nessuno..
nessuno ha detto qualcosa del tipo: ma ca**o ce ne facciamo di una gts250 accoppiata ad una gtx285? che poi è il fulcro del topic e che nessuno caga... xD
Italia 1
25-10-2009, 11:31
L'ho scritto io la pagina precedente....
L'ho scritto io la pagina precedente....
parlando da persona seria e da fanboy ATi dico: EVGA dovrebbe andare da Nvidia e dire: mica posso coprire la mancanza di una VGA DX11 con un accoppiamento senza senso... Datti da fare, intando vado a vendere le HD58xx.. xDDD
magari evga in cambio ha avuto qualcosa da nvidia... chesso' magari un'esclusiva per il mercato nordamericano in previsione di fermi ... boh...
comunque anche io credo che sta scheda non abbia senso...
C,;la,a;l,a
capitan_crasy
25-10-2009, 12:42
magari evga in cambio ha avuto qualcosa da nvidia... chesso' magari un'esclusiva per il mercato nordamericano in previsione di fermi ... boh...
comunque anche io credo che sta scheda non abbia senso...
C,;la,a;l,a
EVGA sta a Nvidia come Sapphire stava ad ATI; vale a dire pappa e ciccia...
diciamo che te la sei persa o hai avuto difficoltà a capirla :D
Diciamo che me la sono persa
inoltre òa frase evidenziata o è poco chiara o è palesemente sbagliata. Nessun engine di tipo deferred supporta il MSAA su HW dx9 (UE3 è solo un engine deferred come quello di AC o di stalker) e neppure in MIrror's Edge è possibile attivare il MSAA su HW DX9.
E qui mi è quasi tutto chiaro, ma perché su Mirror's Edge con hardware DX9 e disponibile l'AA, è forse di tipo FSAA o magari viene applicato tramite shader?
A me è sembrato molto leggero, è solo questo il mio dubbio.
Questo giusto per precisare. E sempre per precisare, le serie 4xx0, 3xx0 e 2xx0 di ATi sono dx10.1 (le prime due) e dx10 la terza rispettivamente, quindi non vale la limitazione di cui parli.
Ora, risulta che in AC e in stalker sia possibile far uso di MSAA mentre, guarda caso, in BAA no (per favore non tirare di nuovo in ballo la stupidaggine che l'UE3 non supporta il MSAA perchè, ripeto, l'UE3 è solo un engine di tipo deferred ed sottoposto alle limitazioni di questo tipo di motori)
Per quanto riguarda la parte in grassetto, l'ho specificato più volte che l'UE3 in quanto engine di tipo deferred non supporta il MSAA su hardware DX10.
Ovviamente le schede dalla serie HD2000 in su, essendo DX10 o superiori, non hanno questo tipo di limitazioni, ma non vedo perché dovrei specificarlo quando dico che l'hardware DX10 non ha questa limitazione.
parlando da persona seria e da fanboy ATi dico: EVGA dovrebbe andare da Nvidia e dire: mica posso coprire la mancanza di una VGA DX11 con un accoppiamento senza senso... Datti da fare, intando vado a vendere le HD58xx.. xDDD
Tralascio il fatto che tu sia un fanboy... sorvolo... :D
Ad ogni modo la mia opinione al riguardo in un passaggio l'avevo pure scritta.
Effettivamente se alla fine si tratta di andare a fare uno SLI per la fisica, cosa più che ovvia, visto l'ormai potenza di calcolo raggiunta dalle GPU non si vede altro motivo per cui montare due schede in parallelo.... non capisco perché dovrei sacrificare ad esempio una serie 5800 solo perché mi si chiude lo standard della fisica in faccia ed essere costretto a comprare un'altra scheda di altra marca per giunta di prestazioni inferiori!!!
In pratica, non sono libero di acquistare quello che voglio e mixare quello che più mi aggrada, perché qualcuno mette i bastoni fra le ruote.
Se voglio una console me la vado a comperare, ma mai che a Nvidia gli passi per la testa la meravigliosa idea di poter trasformare un giorno il futuro dei Sistemi CLONI in uno come quello delle console.
Ce non sono 10 mila di ragioni per bocciare quest'iniziativa!!
Sarebbe stata la stessa cosa... se invece di perdere tempo con sto PhysX, Nvidia avesse introdotto un'architettura HW nuova visto che ATI ancora non l'ha fatto??? (diciamolo pure alla faccia degli utenti in verde che altrimenti ci marciano sopra e poi mi fanno una testa come un pallone).
Minestra riscaldata!!!
la 9600gt e' una scheda che supporta dx10.
quindi l'aa viene attivata con una path dx10 usando comunque le dx9.
per es sulla mia vecchia 6800gt , quindi scheda dx9 , l'aa non sarebbe attivabile in nessun modo, dato che l'hardware non supporta il path dx10.
ne ha discusso ampiamente il buon yossarian che e' ben piu' esperto del sottoscritto :D
C;,a;,z;,aza
Ammesso che per AA lui intendesse l'MSAA, credo che ndrmcchtt491 ci tenesse a sottolineare WinXP. Almeno credo di interpretarla così. Penso abbia capito la questione dell'hardware idoneo e richiesto.
Probabile è poco convinto dal fatto di come, winXP, essendo sprovvisto di API ufficiali DX10 fornite da Microsoft, possa beneficiare di caratteristiche dx10.
XP è un ostacolo fino a un certo punto. Se Microsoft non ha rilasciato le dx10 è solo una questione di strategia business.
Se serve portare classi specifiche da un'API all'altra... non c'è problema si effettua la trasposizione in XP. Per uno sviluppatore è una cosa più naturale di quello che tu possa immaginare.
E' questo l'unico merito che si puo' attribuire a Nvidia....
Poi vedrai di ostacoli in programmazione ne troverai diecimila, e con le braccia conserte non si risolve niente. :)
Le convenzioni DX9 DX10, l'hardware non sa cosa siano... non le conosce. L'hardware una cosa o la sa fare oppure no. Poi chiamala come ti pare!!!
Nel minestrone DX9 posso mettere carote DX10, ammesso che sia capace di saperlo fare. L'hardware non batte ciglio!
EVGA sta a Nvidia come Sapphire stava ad ATI; vale a dire pappa e ciccia...
ecco appunto :D
Cmkamkzmka
infatti è una grandissima stupidaggine; quelli di nVidia non hanno scritto un bel niente ma si sono limitati a fornire agli sviluppatori di BAA i dettagli dell'HAL dei loro chip (un layer che è posto tra driver e API e serve per emulare funzionalità inesistenti in HW) per forzare l'operazione di render to texture con "finto HW dx9" (in realtà HW dx10 che ha la possibilità di effettuare tale operazione).
E che NVIDIA non si sia inventata niente di nuovo siamo d'accordo, ma a quanto ne so io (ovvero quello che hanno detto Eidos ed NVIDIA dato che non ero sul posto) sono stati i tecnici NVIDIA che erano già presenti negli studi per assistere gli sviluppatori con PhysX ad aggiungere l'AA al gioco, per quanto scarso possa esser stato il lavoro necessario o per quanto standard possa essere la soluzione adottata.
Poi non so quanto sia semplice e immediato dato che molti giochi basati su engine deferred in DX9 non offrono l'AA, neanche su hardware DX10.
Questo ha permesso di evitare che le operazioni di HSR avvenissero automaticamente prima del possibile salvataggio dei dati dello z-buffer.
La stessa operazione si sarebbe potuta fare con HW ATi e ottenere lo stesso risultato ma non è stato fatto (anche se AMD aveva chiesto la collaborazione di EIDOS per farlo).
Alcuni giornalisti hanno chiesto spiegazioni ad Eidos a riguardo, la quale ha mostrato loro una conversazione via e-mail con AMD in cui Eidos proponeva ad AMD di inviare alcuni tecnici nei suoi studi per fare lo stesso lavoro di NVIDIA per le proprie schede ma AMD ha declinato.
Ma poi, essendo le modalità 8x e 16x di tipo CSAA sarebbero state compatibili con AMD?
Altra fandonia che si è letta in giro è quella che con chip ATi non è stata attivata questa funzionalità perchè dava luogo ad artefatti. Fa il paio con gli artefatti di Assassin's creed che poi si è scoperto che riguardavano in maggior misura l'HW dx10 (ossia proprio nVidia e la serie 2xx0 di ATi).
Resta il fatto che nVidia non ha inventato alcun algoritmo per l'implementazione del MSAA ma si è fatto ricorso ad una tecnica DX10 standard (il render to texture o, al limite, l'utilizzo di un color buffer come z-buffer)
suonerà di parte ma...se avessi saputo che Gothic 3 non aveva l'AA non l'ho avrei comprato. Però è vero, non è un'informazione che si trova nella confezione di gioco dove si trovano solo i requisiti
Lo hanno fatto loro? (nVidia) Cioè hanno scritto una porzione di codice per ottenere l'AA? Ah...:rolleyes:
perchè mi suona come un gran ka**ata?
Magari hanno adottato una soluzione standard, almeno per le modalità 2x e 4x, ma da quanto hanno detto Eidos ed NVIDIA, ovvero gli unici informati sui fatti, è stata NVIDIA a fare il lavoro.
Poi scusami se ho dimenticato la Sincronizzazione Verticale per il discorso di Batman lì....; è che erroneamente avrò pensato... essendo la GTX285 una Nvidia di PRIMA FASCIA non dovesse poi faticare così tanto per tenerlo attivo.... per me era... come dire... Sottinteso e scontato che dovesse essere attivo con tutti i soldi che è costata. Evidentemente non lo era per te. Secondo me PhysX c'ha messo lo zampino!!! :asd:
Probabilmente ho dimenticato anche qualche opzione in più, specifica al gioco Batman che adesso non mi sovviene... ho disinstallato la demo un po' di mesi fa. Mi scuso anche per questo.
Comunque, non ho voglia di installarlo per controllare... e mi scoccio andarne a cercare uno screenshot delle opzioni. Certe cose, ritengo, lasciano il tempo che trovano!!
Il Vsync non apporta nessun carico aggiuntivo alla scheda video, semmai è vero il contrario, ma si limita a sincronizzare l'invio del frame con il refresh del monitor limitando in questo modo il frame rate al refresh dello schermo.
Alcuni giochi, per diversi motivi, hanno un "limitatore" del frame rate, di solito a 60 fps.
Quindi che senso ha lamentarsi perché una scheda non fa più di 60 fps quando è il software ad imporre il limite?
Per questo nei benchmark vengono disattivati, altrimenti una 5870 rischia di produrre un frame rate pari a quello di una 9600GT.
Mooolto più grave invece.......
..... e qua ti riprendo, o ti sbrano (metaforicamente parlando):
Dai dammelo in Bianco e Nero sto gioco e facciamola finita!!!
10 anni persi a sviluppare GPU capaci di accollarsi i calcoli dell'AA e poi mi vieni a dire "no mi devi pagare per avere l'antialiansing attivo perché abbiamo lavorato e bla bla bla".
Parliamoci chiaro!!!
Ma se per questo tu devi lavorare a prescindere se vuoi i miei soldi!!! Ci mancherebbe.
Quante volte lo devo pagare sto antialiasing? Una volta per Batman un'altra per Robin e un'altra volta per la bagascia di Batgirl? Guarda che quando ho acquistato la scheda video verde o rossa o blu L'HO GIA' PAGATO L'ANTIALIASING.
Ti risulta che altre softwarehouse in passato quando hann moddato un engine grafico dx9 per innestargli caratteristiche dx10 abbiano chiesto un surplus??
E' vero, tutte le schede video supportano l'AA, ma non tutti i software lo fanno, anche se la tua scheda video lo permetterebbe.
TU NON PAGHI L'AA IN BATMAN!
Semplicemente perché gli sviluppatori no l'hanno messo.
Ed è cosi con qualunque gioco in cui gli sviluppatori non implementano l'AA, anche se lo puoi forzare via driver.
Se tu veramente avessi pagato l'AA i tuoi soldi sarebbero dovuti andare ad NVIDIA, cosa che non è avvenuta.
I tecnici NVIDIA, retribuiti con i soldi di chi ha acquistato prodotti NVIDIA, hanno aggiunto l'AA a Batman, quindi gli unici che in un certo senso hanno pagato l'AA del gioco sono i clienti NVIDIA.
Questo è stato UFFICIALMENTE smentito da ATI o da chi ne fa le veci, per cui mi spiace ..... se devo credere a Nvidia non vedo perché non dovrei fare lo stesso con le dichiarazioni ATI.
Lo hai ripetuto 2 volte a me a 10 mila volte a chissà chi!!!
Io ragiono da cliente non mi interessano le diatribe interne, i soldi fuori alla fine li caccio IO.
Io me la prendo con chiunque tenta di mettermela nel di dietro. Tu NON VUOI capire!!! Ragioni in VERDE.
Sbagliato, il MARKETING manager di AMD sul suo BLOG PERSONALE ha UFFICOSAMENTE scritto che l'AA nella demo di Batman si poteva si poteva attivare cambiando l'ID della scheda e che NVIDIA impedische ad AMD di collaborare con gli sviluppatori.
Questa NON E' LA POSIZIONE UFFICIALE DI AMD, stai sicuro che se AMD lo pensasse davvero sarebbe già passata alle vie legali o almeno nel frattempo avrebbe emesso un comunicato ufficiale.
NVIDIA ha UFFICIALMENTE smentito, con argomentazioni serie, di aver mai impedito ad AMD di collaborare con gli sviluppatori, confermando invece che, tecnicamente, anche le schede AMD sarebbero in grado di applicare l'AA in Batman ma che tale possibilità è stata bloccata.
I motivi di tale limitazione te li ho già spiegati.
Necessiti che qualcuno ti solleciti a studiare la grammatica italiana? Perché te le vai a cercare?
Sei un impudente e irrispettoso!!!
Ti risulta io l'abbia fatto nei tuoi confronti?
Ma tu così ti poni di fronte alla gente? Attaccandola?
Il mio rispetto ce l'avevi già prima, e probabilmente ce l'hai ancora per come sono fatto io.... ma piuttosto io mi chiedo... Io ho il tuo???
Mi hai costretto tu ad esprimere il motivo per il quale fatico a seguire i tuoi discorsi, il rispetto non c'entra nulla.
Ale55andr0
25-10-2009, 15:37
Magari hanno adottato una soluzione standard, almeno per le modalità 2x e 4x,
se la soluzione è standard non vedo perchè dovrei avere problemi con la mia Ati, visto che con la demo non c'erano....
ma soprattutto, non vedo perchè gli sviluppatori non l'abbiano implementato se era cosi' semplice (cioè si sbattono per i quattro effetti della fisica...). E poi...a stò punto perchè non metterlo in Bioshock o in altri titoli TWIMTB che ne sono privi? così all'improvviso hanno deciso di prodigarsi per "aggiungere" l'AA in un gioco...guarda caso nello stesso periodo nel quale escono le top di Ati...
ma da quanto hanno detto Eidos ed NVIDIA, ovvero gli unici informati sui fatti, è stata NVIDIA a fare il lavoro.
io non ci credo, possono dirmi pure che il gioco glielo ha programmato tutto nVidia
Il Vsync non apporta nessun carico aggiuntivo alla scheda video, semmai è vero il contrario, ma si limita a sincronizzare l'invio del frame con il refresh del monitor limitando in questo modo il frame rate al refresh dello schermo.
Alcuni giochi, per diversi motivi, hanno un "limitatore" del frame rate, di solito a 60 fps.
Quindi che senso ha lamentarsi perché una scheda non fa più di 60 fps quando è il software ad imporre il limite?
Per questo nei benchmark vengono disattivati, altrimenti una 5870 rischia di produrre un frame rate pari a quello di una 9600GT.
Il Keeping agli FPS lo hai tirato in ballo tu, non io... non capendo dove volevi arrivare. La tesi iniziale per cui mi pare sottolineavo che la GTX2785 in 1280X1024 in Batman con PhysX non arrivava a 60 fps rimane confermata anzi.... sono stato buono, mi sembra la media sia più bassa ... 55 fps.
Per cui non capisco che c'entra il Vsync!!!
TU NON PAGHI L'AA IN BATMAN!
Semplicemente perché gli sviluppatori no l'hanno messo.
I tecnici NVIDIA, retribuiti con i soldi di chi ha acquistato prodotti NVIDIA, hanno aggiunto l'AA a Batman, quindi gli unici che in un certo senso hanno pagato l'AA del gioco sono i clienti NVIDIA.
Io non devo pagare né l'antialiasing di Batman nè di Robin e nè di Batgirl, poiché l'ho già pagato quando acquistai una scheda video. I calcoli matematici di interpolazione li applica il MIO hardware.
Ed è cosi con qualunque gioco in cui gli sviluppatori non implementano l'AA.
Non è vero.
Se tu veramente avessi pagato l'AA i tuoi soldi sarebbero dovuti andare ad NVIDIA, cosa che non è avvenuta.
I miei soldi andrebbero a Nvidia comunque. Sei un illuso!!
In ogni caso non è un problema. Se mi si tratta con onestà i miei soldi potrebbero andare anche a Nvidia. Questa cosa non è importante se mi corrispondi.
I tecnici NVIDIA, retribuiti con i soldi di chi ha acquistato prodotti NVIDIA, hanno aggiunto l'AA a Batman, quindi gli unici che in un certo senso hanno pagato l'AA del gioco sono i clienti NVIDIA.
Anche io i soldi li guadagno col sudore della mia fronte, cosa credi?
Ti sembro in fronte abbia scritto "Giocondo" ?
:mc:
Sbagliato, il MARKETING manager di AMD sul suo BLOG PERSONALE ha UFFICOSAMENTE scritto che l'AA nella demo di Batman si poteva si poteva attivare cambiando l'ID della scheda e che NVIDIA impedische ad AMD di collaborare con gli sviluppatori.
Questa NON E' LA POSIZIONE UFFICIALE DI AMD, stai sicuro che se AMD lo pensasse davvero sarebbe già passata alle vie legali o almeno nel frattempo avrebbe emesso un comunicato ufficiale.
NVIDIA ha UFFICIALMENTE smentito, con argomentazioni serie, di aver mai impedito ad AMD di collaborare con gli sviluppatori, confermando invece che, tecnicamente, anche le schede AMD sarebbero in grado di applicare l'AA in Batman ma che tale possibilità è stata bloccata.
Sei poco aggiornato! Vai a rileggere il blog dello stesso Ian e della sua nemesi Nvidia. Troverai con tuo piacere la SECCA smentita del fatto che ATI si sia rifiutata di collaboarare con Edios.
Ma io mi chiedo, una volta che la leggerai cosa cambierà? Nulla!
A te fa piacere cosa?? Che una delle 2 parti abbia torto e l'altra ragione? Ti pagheranno per questo supporto? :D
Il succo della questione NON cambia!!! MA hai capito che per questi danni pagano gli utenti onesti o no?
Che mi stai a parlare di ATI vs Nvidia!!!??? :muro:
Lo scontro è Clientela Vs Nvidia. E' differente!
Guarda che Ian di AMD se n'è uscito col comunicato quando i propri clienti avevano incominciato a rompere i maroni sul forum dicendo come mai nelle schede ATI l'MSAA non fosse stato abilitato!!! Incolpando ATI. Sollecitati e tirati in causa hann risposto.
Hai capito? SONO STATI I CLIIIIIEEEEEENNNTTTTIII? Non AMD.
Io dubito fortemente che AMD potrebbe avere interesse a trascinare Nvidia in tribunale per la questione di Batman.
Il danno è stato fatto PRIMA ai consumatori e poi di rimbalzo ad ATI.
Mica in ATI hann dato gli incentivi ai propri utenti per acquistare Batman!!! :asd:
ATI in teoria poteva anche non intromettersi visto che l'AA nelle schede ci sta. Ma probabilmente gli preme tenersi i suoi clienti e non perderli per false dichiarazioni.
Quest'ultima tirata in causa poiché si stava diffondendo la falsa di notizia che le proprie schede non fossero in grado di supportare l'MSAA, quando INVECE era un problema di blocco via software.
Mi hai costretto tu ad esprimere il motivo per il quale fatico a seguire i tuoi discorsi, il rispetto non c'entra nulla.
IO ti avrei costretto? E che t'ho puntato la pistola alla tempia? :D
Dove ti avrei costretto? :mc:
Quando qualcuno ha una diversa opinione dalla tua, ogni volta fai così?
La tua presunzione arriva fino a questo punto?
Cos'è partivi dal presupposto che potessi appoggiare le tue considerazioni a priori senza battere ciglio?? Mica qua siamo al quartier generale di Nvidia!!!
:Prrr:
Da persona intelligente avresti dovuto prevedere disapprovazioni a mai finire nei confronti delle tue meravigliose idee sull'onestà.
Abbi pazienza. :)
P.S.: Il rispetto c'entra SEMPRE quando ti confronti con gli altri.
io non ci credo, possono dirmi pure che il gioco glielo ha programmato tutto nVidia
Beh a sforzarmi io potrei anche crederci. Ma se le conseguenze sono queste mi immaggino cos'altro sarebbe in grado di fare se quest'industria in futuro prendesse il largo con la filosofia "se non stai da questa parte, ti penalizzo".
Temo più questo. Ho paura di non aver più un giorno la possibilità di costruirmi il MIO CLONE.
Qua questi per aver permesso l'MSAA in un engine DX9 vorrebbero il premio Nobel. Vedi te come siamo messi!!!
yossarian
26-10-2009, 00:28
E qui mi è quasi tutto chiaro, ma perché su Mirror's Edge con hardware DX9 e disponibile l'AA, è forse di tipo FSAA o magari viene applicato tramite shader?
A me è sembrato molto leggero, è solo questo il mio dubbio.
non mi risulta che né Mirror's Edge né altri giochi con engine di tipo deferred permettano l'applicazoine del MSAA box con HW DX9. Se, invece, parliamo di antialiasing, allora è un altro discorso: si può applicare, ad esempio, il quincunx, oppure un filtro custom (che fanno resolve via shader), oppure una forma di blurring (ovvero AA di tipo temporale), ma non certo MSAA box applicato via ROP's.
Per quanto riguarda la parte in grassetto, l'ho specificato più volte che l'UE3 in quanto engine di tipo deferred non supporta il MSAA su hardware DX9.
Ovviamente le schede dalla serie HD2000 in su, essendo DX10 o superiori, non hanno questo tipo di limitazioni, ma non vedo perché dovrei specificarlo quando dico che l'hardware DX10 non ha questa limitazione.
Perchè in questa specificazione c'è la soluzione del rebus: la serie 2xx0 fa MSAA box esattamente allo stesso modo dei chip nVidia delle serie G80 e GT200. Quindi non c'è una sola buona ragione per cui il MSAA box debba funzionare su questi ultimi e non sui chip ATi a partire da R600 in poi
E che NVIDIA non si sia inventata niente di nuovo siamo d'accordo, ma a quanto ne so io (ovvero quello che hanno detto Eidos ed NVIDIA dato che non ero sul posto) sono stati i tecnici NVIDIA che erano già presenti negli studi per assistere gli sviluppatori con PhysX ad aggiungere l'AA al gioco, per quanto scarso possa esser stato il lavoro necessario o per quanto standard possa essere la soluzione adottata.
i tecnici nVidia possono solo aver fornito le specifiche dell'HAL dei loro chip e non hanno di certo inventato nulla di ciò che già esiste; in quanto al termine STANDARD, evidentemente non ci capiamo: gli unici dua modi per implementare il MSAA su HW dx10 con engine deferred sono il render to texture e l'utilizzo di un color buffer come z-buffer ed entrambi fanno parte delle specifiche DX10. I tecnici nVidia e i programmatori di EIDOS possono aver utilizzato solo una di queste due tecniche e nient'altro. Questo perchè l'HW DX10 permette solo queste due soluzioni.
Poi non so quanto sia semplice e immediato dato che molti giochi basati su engine deferred in DX9 non offrono l'AA, neanche su hardware DX10.
la soluzione più semplice e immediata è quella di creare una path dx10 (meglio ancora dx10.1) per il MSAA. Se lo vuoi anche con API dx9, allora l asoluzione è quella di forzare il salvataggio dei dati dello z-buffer su una texture o in un color buffer o (per le dx10.1 e le dx11 e solo per loro) su un altro z-buffer) prima delle operazioni di HSR e questo può avvenire emulando tramite HAL la funzionalità che permette tale salvataggio che in DX9 non è prevista. Ovviamente se lo fai con HW dx9 puoi emulare quello che vuoi che tanto il chip non riuscirà a salvare un bel niente; se lo fai con HW dx10, invece, una volta che hai impedito l'operazione di HSR automatica con i motori deferred, puoi salvare i dati dello z-buffer e, solo dopo, procedere alla rimozione delle superfici nascoste. Quest'operazione si può fare con qualunque chip DX10 o superiore.
Alcuni giornalisti hanno chiesto spiegazioni ad Eidos a riguardo, la quale ha mostrato loro una conversazione via e-mail con AMD in cui Eidos proponeva ad AMD di inviare alcuni tecnici nei suoi studi per fare lo stesso lavoro di NVIDIA per le proprie schede ma AMD ha declinato.
io conosco una versione differente secondo cui sarebbe stata EIDOS a rifiutarsi di fornire ad AMD il codice del gioco in via di sviluppo.
Ma poi, essendo le modalità 8x e 16x di tipo CSAA sarebbero state compatibili con AMD?
le modalità CSAA di nVidia e la CFAA di ATi fanno entrambe uso di coverage mask per aumentare il numero di sample e sono del tutto compatibili tra di loro.
Quelli che non sono compatibili sono questi interventi con il tema della discussione; perciò ti invito ad aprire, se ti interessa, un thread sulle modalità di AA in dx9 e in dx10 o, magari, a partecipare alle discussioni sull'AA presenti su appunti digitali.
ndrmcchtt491
26-10-2009, 14:41
la 9600gt e' una scheda che supporta dx10.
quindi l'aa viene attivata con una path dx10 usando comunque le dx9.
per es sulla mia vecchia 6800gt , quindi scheda dx9 , l'aa non sarebbe attivabile in nessun modo, dato che l'hardware non supporta il path dx10.
ne ha discusso ampiamente il buon yossarian che e' ben piu' esperto del sottoscritto :D
C;,a;,z;,aza
Ovvio che non riesci.
Neanche con una 7900gtx ci riusciresti, poiche non supporta contemporaneamente l' AA e l' HDR(forse con una x1900 si puo)
Io non parlavo di schede dx9 o dx10
Il Keeping agli FPS lo hai tirato in ballo tu, non io... non capendo dove volevi arrivare. La tesi iniziale per cui mi pare sottolineavo che la GTX2785 in 1280X1024 in Batman con PhysX non arrivava a 60 fps rimane confermata anzi.... sono stato buono, mi sembra la media sia più bassa ... 55 fps.
Per cui non capisco che c'entra il Vsync!!!Il Vsync agisce sul frame rate al di là delle prestazioni della scheda video e non limita solo il massimo numero di fps al refresh dello schermo.
C'entra qualcosa con le prestazioni?
Io non devo pagare né l'antialiasing di Batman nè di Robin e nè di Batgirl, poiché l'ho già pagato quando acquistai una scheda video. I calcoli matematici di interpolazione li applica il MIO hardware.
Anche la renderizzazione la fa il TUO hardware, ma il software ed i suoi contenuti li devi comunque pagare, se gli sviluppatori implementano l'AA o l'AF questi saranno parte del loro lavoro e pertanto andranno pagati, viceversa se gli sviluppatori non implementano l'AA o l'AF nel gioco, magari avrai comunque la possibilità di forzarne l'applicazione via driver, ma per questo non dovrai pagare un lavoro che non è stato fatto.
Infatti non paghi gli sviluppatori di un software per poter applicare l'AA forzandolo dal pannello di controllo dei driver, per questo hai già pagato AMD o NVIDIA.
Sei poco aggiornato! Vai a rileggere il blog dello stesso Ian e della sua nemesi Nvidia. Troverai con tuo piacere la SECCA smentita del fatto che ATI si sia rifiutata di collaboarare con Edios.
Io non ho mai scritto che AMD si sia rifiutata di collaborare con Eidos, ho scritto che AMD non ha accettato la proposta di Eidos di mandare dei tecnici nei loro studi per aggiungere il supporto all'AA per le loro schede.
AMD si è limitata a fornire agli sviluppatori le istruzioni per farlo.
Guarda che Ian di AMD se n'è uscito col comunicato quando i propri clienti avevano incominciato a rompere i maroni sul forum dicendo come mai nelle schede ATI l'MSAA non fosse stato abilitato!!! Incolpando ATI. Sollecitati e tirati in causa hann risposto.
Hai capito? SONO STATI I CLIIIIIEEEEEENNNTTTTIII? Non AMD.
Innanzi tutto non si trattava di un comunicato ma di un post PERSONALE blog di AMD.
E infatti è specificato, cito testualmente: Ian McNaughton is senior manager of advanced marketing at AMD. His postings are his own opinions and may not represent AMD’s positions, strategies or opinions. Links to third party sites are provided for convenience and unless explicitly stated, AMD is not responsible for the contents of such linked sites and no endorsement is implied.
Io dubito fortemente che AMD potrebbe avere interesse a trascinare Nvidia in tribunale per la questione di Batman.
Il danno è stato fatto PRIMA ai consumatori e poi di rimbalzo ad ATI.
Mica in ATI hann dato gli incentivi ai propri utenti per acquistare Batman!!! :asd:
Se fosse vero quanto sostenuto dal senior manager of advanced marketing di AMD, NVIDIA avrebbe commesso un illecito ed AMD avrebbe tutti gli interessi che la faccenda finisca in tribunale, d'altronde sarebbe un chiaro caso di concorrenza sleale.
IO ti avrei costretto? E che t'ho puntato la pistola alla tempia? :D
Dove ti avrei costretto? :mc:
Quando qualcuno ha una diversa opinione dalla tua, ogni volta fai così?
La tua presunzione arriva fino a questo punto?
Cos'è partivi dal presupposto che potessi appoggiare le tue considerazioni a priori senza battere ciglio?? Mica qua siamo al quartier generale di Nvidia!!!
:Prrr:
Da persona intelligente avresti dovuto prevedere disapprovazioni a mai finire nei confronti delle tue meravigliose idee sull'onestà.
Abbi pazienza. :)
P.S.: Il rispetto c'entra SEMPRE quando ti confronti con gli altri.
Dopo averti detto che faticavo a seguire i tuoi post e che magari potevo fraintenderti, tu mi hai risposto:
"E di fatica ne farai sempre di più se perdo tempo a spiegarti le cose
E' una causa persa in partenza :asd:"
Dopo tira pure in ballo l'educazione e il rispetto...
Io ti ho semplicemente corretto e ti ho spiegato il motivo della mia difficoltà a leggere i tuoi post senza possibili fraintendimenti.
yossarian
26-10-2009, 15:32
Anche la renderizzazione la fa il TUO hardware, ma il software ed i suoi contenuti li devi comunque pagare, se gli sviluppatori implementano l'AA o l'AF questi saranno parte del loro lavoro e pertanto andranno pagati, viceversa se gli sviluppatori non implementano l'AA o l'AF nel gioco, magari avrai comunque la possibilità di forzarne l'applicazione via driver, ma per questo non dovrai pagare un lavoro che non è stato fatto.
Infatti non paghi gli sviluppatori di un software per poter applicare l'AA forzandolo dal pannello di controllo dei driver, per questo hai già pagato AMD o NVIDIA.
quindi i possessori di vga nVidia pagano BAA più di quelli di vga AMD? Perchè, da come parli, sembra che ad implementare il MSAA solo su GPU nVidia siano stati i coder di nVidia. Di ocnseguenza, parole tue, non dovendo pagare ciò che non hai, i possessori di VGA ATi non pagano il MSAA e physx?
Com'è che si può avere lo sconto? Mostrando l'ID del proprio chip grafico? :D
Io non ho mai scritto che AMD si sia rifiutata di collaborare con Eidos, ho scritto che AMD non ha accettato la proposta di Eidos di mandare dei tecnici nei loro studi per aggiungere il supporto all'AA per le loro schede.
AMD si è limitata a fornire agli sviluppatori le istruzioni per farlo.
ovvero AMD ha fornito le specifiche dell'HAL dei propri chip a EIDOS (come ha fatto nVidia) per permettere l'implementazione del MSAA? Oppure ha spiegato a EIDOS come implementare il MSAA con path DX10 standard (il che, cosa piuttosto grave, starebbe a significare che quelli di EIDOS non sanno come si fa)?
La cosa non mi è ben chiara :p
Ovvio che non riesci.
Neanche con una 7900gtx ci riusciresti, poiche non supporta contemporaneamente l' AA e l' HDR(forse con una x1900 si puo)
Io non parlavo di schede dx9 o dx10
e di cosa parlavi scusa ?
si e' detto che con una path dx10 il gioco puo' attivare il msaa anche utilizzando le dx9. basta che sotto il cofano ci sia una gpu dx10... tutto qui.
C;'.a;'.z.a;'za
yossarian
26-10-2009, 16:10
Ovvio che non riesci.
Neanche con una 7900gtx ci riusciresti, poiche non supporta contemporaneamente l' AA e l' HDR(forse con una x1900 si puo)
Io non parlavo di schede dx9 o dx10
cosa c'entra in questa caso l'hdr? :confused:
Il mancato supporto di MSAA e HDR fino a G70 compreso dipende dall'impossibilità di utilizzare render target per il color buffer con differenti modalità di blending.
Il MSAA con engone deferred è un'altra cosa. Un R5x0 può utilizzare HDR+MSAA ma non può fare MSAA con engine deferred
Anche la renderizzazione la fa il TUO hardware, ma il software ed i suoi contenuti li devi comunque pagare, se gli sviluppatori implementano l'AA o l'AF questi saranno parte del loro lavoro e pertanto andranno pagati, viceversa se gli sviluppatori non implementano l'AA o l'AF nel gioco, magari avrai comunque la possibilità di forzarne l'applicazione via driver, ma per questo non dovrai pagare un lavoro che non è stato fatto.
Infatti non paghi gli sviluppatori di un software per poter applicare l'AA forzandolo dal pannello di controllo dei driver, per questo hai già pagato AMD o NVIDIA.
Senti qua di cavilli ne troverai quanto ne vuoi per svincolarti dai canoni dell'onestà, perciò, se vuoi, puoi sbizzarrirti quanto ti pare in ridicoli ragionamenti poco seri che lasciano il tempo che trovano.
Quando ti fai dare un passaggio da un TAXI, paghi la corsa, cioè la forza lavoro impiegata dal conducente, la benzina ma non credo il conducente ti faccia ripagare lo sterzo il cambio le sedie i pneumatici e via dicendo.
L'AA è sul MIO Hardware. Le primitive matematiche RISIEDONO sui CHIP che diventano di mia proprietà. Ti sto dicendo che l'AA è PARTE INTEGRANTE della mia scheda video.
Lo sviluppatore si deve limitare a sfruttarlo (bada NON implementare). Inutile che mi fai i ragionamenti da bambini dell'asilo!
Ragionando come dici te, i prezzi dei giochi a quanto dovrebbero ammontare? 200 euro a pezzo?
Dunque mi spiegheresti come mai in Bioshock, uno dei tanti esempi, i miglioramenti DX10 vengono fatti pagare anche agli utenti in possesso di schede video DX9 only?. Eppure mi sembrava venisse venduto allo stesso prezzo a tutti e indipendentemente dall'hw posseduto.
Ma non avevi detto che queste presunte implementazioni le fanno pagare tutti?
In Bioshock, l'engine di partenza e su cui si basa, come saprai, è un DX9, gli sviluppatori poi lo hann moddato e gli hann innestato dei comportamenti DX10 che si attivano o no, a secondo dell'hardware posseduto.
Quindi almeno la trasposizione del path da una parte a dall'altra s'è dovuta fare... qualcuno ha dovuto necessariamente metterci le mani sopra. E non ci sono ferri che tengano!!!
Il punto è che mentre alla 2K, come altre SH del resto, sono delle persone oneste che NON guardano le briciole, Nvidia invece, quando ci mette lo zampino, si mette a fare i ragionamenti da bambini dell'asilo o di scuola elementare senza senso... il cui comportamento non porterà a nulla, poiché il gioco lo comprerà in ogni caso l'utente finale mica ATI... Con l'obiettivo iniziale di raccattare più clienti, Nvidia si farà odiare sempre di più. Bella strategia!
Secondo te il lavoro di un Team di sviluppo si quantifica nell'abilitare o meno delle caratteristiche residenti e dipendenti dall'hardware? Suvvia non dire sciocchezze!!!
Lasciala stare questa strada, dai retta a me, evita di imboccarla che NON spunta. :D
Sono soltanto dolori... niente gioe.
-
Per il resto....
... tutte frittate rigirate per l'ennesima volta. L'argomento per me è da ritenersi esaurito. Pensala come vuoi. :mc:
Fai fatica!!! Lo ribadisco!! Come io faccio fatica a seguire te.
Se tu non facessi fatica non avresti problemi a seguirmi. Non è più opinabile se tu stesso lo hai accertato.
Vedrai a fatica ti hann seguito altri utenti, come altri hann fatto fatica a seguire me.
Ma certo, ragazzo mio, quando mi dici che ho problemi di espressione grammaticale stai decisamente BESTEMMIANDO. Abbi pazienza!
In Nvidia dovrebbero pensare ad una ristrutturazione interna... troppe teste calde nei corridoi!!! Scansafatiche e mangiapane a ufo.
Quando ti fai dare un passaggio da un TAXI, paghi la corsa, cioè la forza lavoro impiegata dal conducente, la benzina ma non credo il conducente ti faccia ripagare lo sterzo il cambio le sedie i pneumatici e via dicendo.Perché, credi che il tassista non ti faccia pagare anche i costi derivati dal suo lavoro? la manutenzione, assicurazione, usura pneumatici, acquisto della vettura, ecc... sono tutte spese diluite nella tariffa che applica.
L'AA è sul MIO Hardware. Le primitive matematiche RISIEDONO sui CHIP che diventano di mia proprietà. Ti sto dicendo che l'AA è PARTE INTEGRANTE della mia scheda video.
E con questo? Ti è stato forse impedito di forzarlo via driver come con qualsiasi altro software che non offre tale filtro?
Dunque mi spiegheresti come mai in Bioshock, uno dei tanti esempi, i miglioramenti DX10 vengono fatti pagare anche agli utenti in possesso di schede video DX9 only?. Eppure mi sembrava venisse venduto allo stesso prezzo a tutti e indipendentemente dall'hw posseduto.E' molto semplice, in Bioshok, indipendentemente dal tuo hardware, gli sviluppatori hanno dovuto lavorare per aggiungere il supporto alle DX10, in Batman gli sviluppatori non hanno fatto niente per aggiungere il supporto all'AA.
Sotto ti sei anche risposto da solo...
In Bioshock, l'engine di partenza e su cui si basa, come saprai, è un DX9, gli sviluppatori poi lo hann moddato e gli hann innestato dei comportamenti DX10 che si attivano o no, a secondo dell'hardware posseduto.
Quindi almeno la trasposizione del path da una parte a dall'altra s'è dovuta fare... qualcuno ha dovuto necessariamente metterci le mani sopra. E non ci sono ferri che tengano!!!
Anche in Batman qualcuno qualcuno, in questo caso i tecnici NVIDIA, avrà dovuto mettervi mano per aggiungere l'AA.
non mi risulta che né Mirror's Edge né altri giochi con engine di tipo deferred permettano l'applicazoine del MSAA box con HW DX9. Se, invece, parliamo di antialiasing, allora è un altro discorso: si può applicare, ad esempio, il quincunx, oppure un filtro custom (che fanno resolve via shader), oppure una forma di blurring (ovvero AA di tipo temporale), ma non certo MSAA box applicato via ROP's.
Io mi stavo giusto chiedendo quale sistema avessero adottato con hardware DX9, perché con hardware DX10 c'è il MSAA.
Perchè in questa specificazione c'è la soluzione del rebus: la serie 2xx0 fa MSAA box esattamente allo stesso modo dei chip nVidia delle serie G80 e GT200. Quindi non c'è una sola buona ragione per cui il MSAA box debba funzionare su questi ultimi e non sui chip ATi a partire da R600 in poi
Lo so anch'io che non c'è una ragione tecnica, e questo mi sembrava di averlo specificato (a parte con il CSAA).
i tecnici nVidia possono solo aver fornito le specifiche dell'HAL dei loro chip e non hanno di certo inventato nulla di ciò che già esiste; in quanto al termine STANDARD, evidentemente non ci capiamo: gli unici dua modi per implementare il MSAA su HW dx10 con engine deferred sono il render to texture e l'utilizzo di un color buffer come z-buffer ed entrambi fanno parte delle specifiche DX10. I tecnici nVidia e i programmatori di EIDOS possono aver utilizzato solo una di queste due tecniche e nient'altro. Questo perchè l'HW DX10 permette solo queste due soluzioni.
Ok, siamo d'accordo, io non ho messo in discussione questo.
Io volevo specificare che i tecnici NVIDIA, "DI PERSONA" hanno aggiunto l'AA a Batman e dopo lo hanno BLOCCATO per l'hardware che non fosse NVIDIA.
io conosco una versione differente secondo cui sarebbe stata EIDOS a rifiutarsi di fornire ad AMD il codice del gioco in via di sviluppo.
Forse c'è un punto di incontro tra le due versioni, dato che Eidos ha proposto ad AMD di inviare dei tecnici nei loro studi.
Perché, credi che il tassista non ti faccia pagare anche i costi derivati dal suo lavoro? la manutenzione, assicurazione, usura pneumatici, acquisto della vettura, ecc... sono tutte spese diluite nella tariffa che applica.
Spiegami i criteri che si adottano nell'applicare i costi di usura delle candele, dei pistoni del motore, cinghie di trasmissione, usura stoffa delle sedie, usura cambio
Ma soprattutto QUANTIFICAMELI. Vediamo come le diluisci.
E poi mi dici quanto mi verrà a costare la corsa alla fine.
:mc:
Ma dove stai andando a finire? A calcolare quanti centimetri di pneumatico consumi e perdi tra una corsa e l'altra? Perché sei in grado di stabilirlo?
Ah ricordati! Devi calcolare se nel percorso ci sono scaffe perché influiranno moltissimo sull'usura degli ammortizzatori.
Sii serio.
Sotto ti sei anche risposto da solo...
Quindi tu mi stai dicendo, o meglio stai affermando, che anche gli utenti DX9 stanno pagando un qualcosa nonostante non potrebbero abilitare o sfruttare?
E se non ci sarebbero state queste aggiunte, il prezzo del gioco sarebbe stato inferiore? :D
:mc:
Ma non puo' essere invece che la loro possibilità di utilizzo sia stata pensata per incentivare caso mai chi ha una scheda DX10 a comprarsi il gioco e incrementare le vendite? :mc:
E' la mia modestissima opinione.
Giovanotto, ma tu a uno di 30 anni gli faresti sti discorsi? Vuoi che ti prenda in giro?
A barzellette siamo andati a finire :asd:
quindi i possessori di vga nVidia pagano BAA più di quelli di vga AMD? Perchè, da come parli, sembra che ad implementare il MSAA solo su GPU nVidia siano stati i coder di nVidia. Di ocnseguenza, parole tue, non dovendo pagare ciò che non hai, i possessori di VGA ATi non pagano il MSAA e physx?
Com'è che si può avere lo sconto? Mostrando l'ID del proprio chip grafico? :D
No aspèèè... ti pare che è così!!! Mica hai capito qua com'è la faccenda! :D
Stefem dice, o afferma, che il prezzo attuale del gioco è stilato senza MSAA.
Di conseguenza gli utenti Nvidia per l'MSAA dovrebbero pagare di più, ma siccome siamo sotto Natale, Nvidia gli hann fatto il regalo, e quindi non l'hanno incluso nel prezzo.
Anche perché avrei proprio voluto vedere se l'avrebbero preso il gioco se fosse costato di più :asd: (altra strada pericolosa)
In pratica il gioco con l'MSSA doveva essere più caro di quello che è. E' un ragionamento contorto.. ma è così.
Il tempo che perde il negoziante a spiegarmi sta cavolata, io mi stufo e me ne vado e tanti saluti!!! :Prrr:
Ma tu scommetti che si fa prima a permettere l'MSAA in un engine DX9 che a mettere in piedi sti ragionamenti strani?
Insomma yossarian!!! Se vuoi l'MSAA qua 2 sono le cose:
O ti metti in testa di comprarti una Nvidia
Oppure telefoni al supporto tecnico Eidos, e chiedere quanti soldi dovresti versare sul conto di Nvidia per avere questa magnifica kick-ass feature.
:asd:
Ma non è mica finita qui!!!
Nell'ipotesi che Nvidia avesse fatto pagare l'MSAA in Batman, io ti chiedo adesso, e anche a Stefem se legge.., gli utenti con Hardware DX9 only (niente MSAA) avrebbero dovuto pagare questo surplus??? Oppure Nvidia, tramite nominativo poi a casa gli avrebbe fatto pervenire il rimborso? :wtf:
Oppure ancora.... Forse avrebbero messo sul mercato Batman con 2 prezzi differenti?
Oddio mio non ci sto capendo più una mazza :doh: Chissà perchè!!
Spiegami i criteri che si adottano nell'applicare i costi di usura delle candele, dei pistoni del motore, cinghie di trasmissione, usura stoffa delle sedie, usura cambio
Ma soprattutto QUANTIFICAMELI. Vediamo come le diluisci.
E poi mi dici quanto mi verrà a costare la corsa alla fine.
:mc:
Ma dove stai andando a finire? A calcolare quanti centimetri di pneumatico consumi e perdi tra una corsa e l'altra? Perché sei in grado di stabilirlo?
Ah ricordati! Devi calcolare se nel percorso ci sono scaffe perché influiranno moltissimo sull'usura degli ammortizzatori.
Sii serio.
Come saprai i taxi in base al tempo, per cui stabiliranno una tariffazione che, AL NETTO DELLE SPESE permettano di ottenere un certo margine, poi hai scelto l'esempio meno adatto dato che hanno un bel margine sulla tariffa.
Sei veramente convinto che nelle tariffe applicate per l'erogazione di un se un servizio o nel costo di un bene materiale non ci siano le spese che il produttore, l'intera filiera o l'erogatore hanno dovuto sostenere?
Quando hai una tua attività, devi fare in modo che le spese non superino le entrate, e per far ciò dovrai regolare il prezzo a cui vendi il bene o servizio.
Non devi star li a calcolare chissà che, a fine mese o anno avrai il quadro completo.
Quindi tu mi stai dicendo, o meglio stai affermando, che anche gli utenti DX9 stanno pagando un qualcosa nonostante non potrebbero abilitare o sfruttare?
Si, ma hanno la possibilità di usufruirne comprando un hardware adatto.
Come hai detto tu, gli utenti con hardware DX9 pagano quanto quelli con DX10, quindi chi userà la versione DX9 pagherà anche per la versione DX10 e quello che usa la versione DX10 paghera anche per la DX9.
E se non ci sarebbero state queste aggiunte, il prezzo del gioco sarebbe stato inferiore? :D
:mc:
Il prezzo ti so dire, ma le spese per la realizzazione si sarebbero sicuramente ridotte.
Ma non puo' essere invece che la loro possibilità di utilizzo sia stata pensata per incentivare caso mai chi ha una scheda DX10 a comprarsi il gioco e incrementare le vendite? :mc:
E' la mia modestissima opinione.
Giovanotto, ma tu a uno di 30 anni gli faresti sti discorsi? Vuoi che ti prenda in giro?
Fai un po' come ti pare.
No aspèèè... ti pare che è così!!! Mica hai capito qua com'è la faccenda! :D
Stefem dice, o afferma, che il prezzo attuale del gioco è stilato senza MSAA.
Di conseguenza gli utenti Nvidia per l'MSAA dovrebbero pagare di più, ma siccome siamo sotto Natale, Nvidia gli hann fatto il regalo, e quindi non l'hanno incluso nel prezzo.
Anche perché avrei proprio voluto vedere se l'avrebbero preso il gioco se fosse costato di più :asd: (altra strada pericolosa)
In pratica il gioco con l'MSSA doveva essere più caro di quello che è. E' un ragionamento contorto.. ma è così.
Il tempo che perde il negoziante a spiegarmi sta cavolata, io mi stufo e me ne vado e tanti saluti!!! :Prrr:
Ma tu scommetti che si fa prima a permettere l'MSAA in un engine DX9 che a mettere in piedi sti ragionamenti strani?
Insomma yossarian!!! Se vuoi l'MSAA qua 2 sono le cose:
O ti metti in testa di comprarti una Nvidia
Oppure telefoni al supporto tecnico Eidos, e chiedere quanti soldi dovresti versare sul conto di Nvidia per avere questa magnifica kick-ass feature.
:asd:
Quanto si può essere superficiali.
Io invece vorrei sapere come fai ha pagare gli sviluppatori per una cosa che non hanno fatto.
No dico , vi ricordare il tempo delle 3dfx e delle Glide?
vi pare che facevano pagare un gioco di piu' per chi aveva la fortuna di avere la voodoo e poteva farlo girare in glide ?
io ricordo di aver pagato lo stesso prezzo anche se avevo una "sfigata" matrox mystique e le glide me le sognavo :asd:
C;,a;,z;,aza
Italia 1
26-10-2009, 20:09
Io leggo non ci capisco na mazza e mi sfascio dalle risate !!!
yossarian
26-10-2009, 22:58
Io volevo specificare che i tecnici NVIDIA, "DI PERSONA" hanno aggiunto l'AA a Batman e dopo lo hanno BLOCCATO per l'hardware che non fosse NVIDIA.
perdonami ma stento a credere alla versione che i tecnici di nVidia abbiano "aggiunto" il MSAA a BAA. Al massimo hanno potuto fornire le specifiche dei loro chip per permettere agli sviluppatori del gioco di implementare il MSAA.
Affermare che sono stati i tecnici di nVidia a scrivere il codice per il MSAA significa dare degli incompetenti agli sviluppatori di BAA (volevano metterci il MSAA ma non sapevano come). Se così fosse e se veramente avessero difficoltà ad implementare il MSAA su HW dx10 con engine di tipo deferred, sarebbe da consigliar loro di cambiare mestiere :D
Forse c'è un punto di incontro tra le due versioni, dato che Eidos ha proposto ad AMD di inviare dei tecnici nei loro studi.
forse non serviva la presenza fisica dei tecnici di AMD negli studi di EIDOS, visto che non sono stati i tecnici di nVidia ad "aggiungere" l'AA e non l'avrebbero fatto neppure quelli di AMD.
Comunque, ripeto che siamo abbondantemente OT
perdonami ma stento a credere alla versione che i tecnici di nVidia abbiano "aggiunto" il MSAA a BAA. Al massimo hanno potuto fornire le specifiche dei loro chip per permettere agli sviluppatori del gioco di implementare il MSAA.
Affermare che sono stati i tecnici di nVidia a scrivere il codice per il MSAA significa dare degli incompetenti agli sviluppatori di BAA (volevano metterci il MSAA ma non sapevano come). Se così fosse e se veramente avessero difficoltà ad implementare il MSAA su HW dx10 con engine di tipo deferred, sarebbe da consigliar loro di cambiare mestiere :D
Non è una questione di capacità ma di tempo, moltissimi giochi escono con bug noti, caratteristiche previste non implementate o ultimate alla buona.
I publisher fanno una grandissima pressione sugli sviluppatori, e questa è una situazione comune alla quasi totalità degli sviluppatori di videogame, senza contare che moti di essi praticamente non hanno entrate prima della pubblicazione del loro lavoro.
Basti pensare a quanti giochi, magari molto promettenti, sono stati rilasciati troppo presto con tutti i problemi che ne conseguono.
La smettiamo con la solita storia di barman e torniamo a parlare della scheda?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.