View Full Version : Metro Last Light: i dettagli tecnici del motore grafico
Redazione di Hardware Upg
24-05-2013, 16:41
Link all'Articolo: http://www.gamemag.it/articoli/3636/metro-last-light-i-dettagli-tecnici-del-motore-grafico_index.html
In sede di recensione non abbiamo avuto modo di esaminare con calma i dettagli tecnici del motore grafico di Metro Last Light, che però presenta diversi spunti di interesse, collocandosi come una delle migliori soluzioni nel panorama attuale. Vediamo le caratteristiche del 4A Engine in termini di PhysX, tassellatura, anti-aliasing, post-processing e molto altro.
Click sul link per visualizzare l'articolo.
Fantomatico
24-05-2013, 18:31
Ho appena finito di leggere l'articolo. Interessante, analizza in modo esaustivo gli aspetti tecnici del videogioco in questione, però mi permetto di far notare delle imprecisioni: nel senso che su alcune pagine vengono utilizzati dei termini non adatti, fuorvianti e che è meglio far notare nella loro versione corretta.
Alla pag. 2, relativa a Physx, si dice:" Ricordiamo che Metro Last Light è un gioco The Way It's Meant to be Played, quindi risulta ottimizzato per le soluzioni video Nvidia, che gestiscono PhysX in hardware. Nel caso di schede video AMD Radeon, invece, questi calcoli vengono affidati alla CPU, cosa che comporta un lieve calo nelle prestazioni.[...] " In realtà il gioco tramite physx, se fatto girare su una gpu AMD, comporta un CROLLO prestazionale sulla cpu, non un lieve calo come si è appena letto. Ho potuto provare di persona, con un i7 3770 a default, tutto fila liscio nelle situazioni "normali", di passaggio negli accampamenti, ma appena si comincia a combattere, si lanciano granate e via dicendo, si arriva intorno ai 10 fps. Per cui, mi rivolgo in generale: se volete giocare assolutamente a Physx e avete AMD, non potete farlo. A meno che non abbiate una scheda secondaria (nvidia) da dedicare esclusivamente alla fisica di gioco. Physx gira al meglio su nvidia, e questo si sa, ma aggiungo: gira esclusivamente su nvidia perchè su cpu è ingiocabile.
Per il resto, confermo ciò che viene detto su quella pagina, il gioco è programmato bene, e tolte alcune opzioni killer, gira senza problemi.
A pagina 4, al capitolo anti-aliasing, si ricorda questo: "In Metro 2033 i giocatori potevano utilizzare la tecnica di Multisample Anti-Aliasing (MSAA) per avere immagini ancora più nitide rispetto a quelle ottenute tramite AAA. Purtroppo, però, questa tecnica aveva un forte impatto sulle prestazioni per via della presenza della tecnica di illuminazione differita usata dal 4A Engine.
Per Last Light, quindi, 4A Games ha sostituito MSAA con la nuova tecnica Supersampling Anti-Aliasing (SSAA), che offre un notevole miglioramento nella qualità delle immagini come potete vedere anche nei due screenshot che riportiamo in questa pagina."
Non c'è nulla di falso in ciò che è stato scritto, prima 4A Games adottava il MSAA, ora il SSAA, ma... non c'è alcuna razionalità nei passaggi che si succedono, praticamente è come se venisse detto: il msaa aveva un forte impatto sulle prestazioni, quindi ora 4A Games lo ha sostituito con il SSAA. Cio' farebbe pensare che sia più accessibile, ma non è così. Migliora ulteriormente la qualità visiva rispetto al MSAA, MA è ancora più pesante, non c'è nulla di "gratis" su questo campo e chi lo pratica da anni lo sa benissimo.
;)
Physx gira al meglio su nvidia, e questo si sa, ma aggiungo: gira esclusivamente su nvidia perchè su cpu è ingiocabile.
;)
assolutamente :asd: si dovrebbe specificarlo, ma forse lo davano per scontato... o no? Quel software è stato sviluppato prettamente per le gpu Nvidia. In realtà io credo che si possa mettere mano per farlo girare su qualsiasi GPU, ma non mi va neanche di guardarlo perché sono totalmente contrario, penso anche che sia criptato, usano CUDA...quindi andrebbe ricompilato in un altro modo e non è affatto facile.
C'è anche da dire che si ostinano a rilasciare il 2.8 agli utenti finali ed orientare in tal senso gli sviluppatori, proprio perché il 3 viaggia meglio su CPU multicore... "Enhanced multi-threading (PC CPU, Xbox 360)"
rendetevi conto che furbetti :) se guardate in benchmark la differenza tra il 3.3 ed il 2.8.4 è abissale, quasi il doppio più veloce...significa che il 3.3 attualmente anche su CPU abbastanza potente girerebbe in modo dignitoso.
Però non è solo questo che si dovrebbe specificare, ma anche il fatto che in verità sono davvero pochi i titoli che facciano uso di Physx: molti tra i titoli già rilasciati e tra quelli in via di sviluppo usano altri motori per la fisica, chi la fisica inclusa nel suo engine proprietario chi l'Havok...perché forse a volte gli sviluppatori pensano più ad una maggiore fetta di clienti soddisfatti che alle aziende di gpu e le loro strategie di marketing...c'è chi si fa comprare e chi invece fa comprare tutti i clienti col sorriso. Anche se il Physx fosse di Amd io non sarei d'accordo con gli sviluppatori che non garantiscono la stessa esperienza di gioco alla clientela più vasta...
Dubbio da niubbo: visto che PhysX gira "SOLO" su GPU Nvidia e oramai non conviene piu' comprare una tale marca di GPU... visto che i giochi DX11.1 saranno tutti ottimizzati per AMD, la mia domanda e' questa: si puo' mettere una GPU AMD per la grafica e una Nvidia per la fisica? E casa basterebbe per gestire al massimo tutti sti effetti fisici? (oggigiorno, perche' se Nvidia domani ci piazza quella demo dei fluidi, suppongo basera' una 690...)
L'idea e', sempre in ottica console next gen, pesare il meno possibile sul mio quad core, dovendo stare dietro agli otto nelle console.
jotaro75
25-05-2013, 08:29
Dubbio da niubbo: visto che PhysX gira "SOLO" su GPU Nvidia e oramai non conviene piu' comprare una tale marca di GPU... visto che i giochi DX11.1 saranno tutti ottimizzati per AMD, la mia domanda e' questa: si puo' mettere una GPU AMD per la grafica e una Nvidia per la fisica? E casa basterebbe per gestire al massimo tutti sti effetti fisici? (oggigiorno, perche' se Nvidia domani ci piazza quella demo dei fluidi, suppongo basera' una 690...)
L'idea e', sempre in ottica console next gen, pesare il meno possibile sul mio quad core, dovendo stare dietro agli otto nelle console.
attento...non fare ragionamenti strani...non pensare che gli 8 core delle nuove console vadano il doppio dei 4 del tuo quadcore...i loro sono cmq chip castrati rispetto al tuo...solo che dire che hanno 8 core fa figo e "potente"(come hanni fa i GHz facevano figo...vai poi a spiegare che un coreduo a 3 ghz è meno performante di un i5 a 2.5 per dire... :D ). Anche perchè ti sembra che in una scatoletta che costerà poco più che il solo tuo chip ne mettano uno che ha il doppio della tua potenza?
full metal
25-05-2013, 10:14
.:M,A,E,S,T,O,S,O:.. :Q_____ tiene anche spazi aperti? e allora UN IPOTAMOTETICO
Stalker 2 con quel motore grafico :O dovranno pur farlo
apparte se il gioco è moddabile.... un sdk o altro che-.-.-
che è sempre meglio del cryengine 3 che non si chiama dunia 2 O_o XD
attento...non fare ragionamenti strani...non pensare che gli 8 core delle nuove console vadano il doppio dei 4 del tuo quadcore...i loro sono cmq chip castrati rispetto al tuo...solo che dire che hanno 8 core fa figo e "potente"(come hanni fa i GHz facevano figo...vai poi a spiegare che un coreduo a 3 ghz è meno performante di un i5 a 2.5 per dire... :D ). Anche perchè ti sembra che in una scatoletta che costerà poco più che il solo tuo chip ne mettano uno che ha il doppio della tua potenza?:fagiano: e che in due tre anni quella scatoletta verrà ottimizzata a mille tipo, hanno promesso che il cryengine 4 lo baseranno su quelle "scatolette" :O
Come si può vedere nelle immagini appena sopra, quindi, se la funzione PhysX avanzato è disabilitata, ci sono esplosioni di breve intensità e detriti che scompaiono subito dopo, senza interagire con gli altri oggetti del mondo di gioco. Invece con PhysX avanzato abbiamo esplosioni più realistiche e detriti che hanno rapporti con il resto del mondo di gioco.
Le esplosioni senza Physx son ridicole, pure il primo metal gear solid riusciva a fare di meglio. Non si sono inventati niente, le hanno semplicemente castrate e rese ridicole sulle gpu Radeon.
E come detto anche dall' utente sopra, gli sdk usati sono vecchierrimi, l' hanno fatto di proposito per dare meriti alle gpu nvidia dove non ci sono, queste disparità di trattamento sono assurde.
Il brutto è che anche con la prossima generazione, basata totalmente su AMD, dovremmo assistere a questo scempio, solo per far belle le schede nvidia.
Adam Jensen
25-05-2013, 14:00
Nota per chi parla del PhysX: vedo idee un po' confuse.
Non si tratta di favorire Nvidia su AMD per far bella la prima contro la seconda, si tratta che Nvidia dà un supporto ad una cosa (la fisica) per cui AMD non ha uno specifico SDK.
E' una scelta razionale quella di usare un SDK invece di fare tutto da zero, e poi certo, Nvidia ne ottiene pubblicità, ma POI, non prima.
Purtroppo però PhysX e rendering vanno di pari passo, ergo da tempo non è più possibile usare - senza alcuni tweak - una GPU Nvidia per PhysX se il rendering è fatto da una GPU AMD.
Questa è la vera limitazione, non il PhysX in sè come tecnologia.
Per chi parla di "vecchiaia" dell'SDK di PhysX.....ma sapete che ci vogliono anni a fare un videogioco? Mica si usa l'SDK di quando esce sul mercato eh.....
physx o meno è un motore grafico eccezionale in grado di rendere benissimo sia negli interni quanto negli esterni (questi ultimi mi hanno sbalordito particolarmente) e di trasmettere atmosfera a non finire. Inoltre è leggero per quello che offre. Sbavo anch'io all'idea di vedere un ipotetico stalker 2 con questa grafica.
physx o meno è un motore grafico eccezionale in grado di rendere benissimo sia negli interni quanto negli esterni (questi ultimi mi hanno sbalordito particolarmente) e di trasmettere atmosfera a non finire. Inoltre è leggero per quello che offre. Sbavo anch'io all'idea di vedere un ipotetico stalker 2 con questa grafica.
Stalker 2, morirai da sognatore! Se vincessi al superenalotto finanzierei personalmente il gioco... non capisco perchè non fanno un kickstarter!
Tornando a metro: spettacolare, di gran lunga superiore a molti giochi anche i piu blasonati di quest'anno (bioshock infinite in primis). Grafica bellissima, storia emozionante e gameplay molto molto molto migliorato rispetto al 2033! Un altra cosa: giocarlo a 60fps e giocarlo a 30-40 sono due cose diverse, per chi non avesse provato senza stare li a cambiarsi tutti i settings mettete l'ssaa a 0.5 e provate di persona!
Nota per chi parla del PhysX: vedo idee un po' confuse.
Non si tratta di favorire Nvidia su AMD per far bella la prima contro la seconda, si tratta che Nvidia dà un supporto ad una cosa (la fisica) per cui AMD non ha uno specifico SDK.
E' una scelta razionale quella di usare un SDK invece di fare tutto da zero, e poi certo, Nvidia ne ottiene pubblicità, ma POI, non prima.
Purtroppo però PhysX e rendering vanno di pari passo, ergo da tempo non è più possibile usare - senza alcuni tweak - una GPU Nvidia per PhysX se il rendering è fatto da una GPU AMD.
Questa è la vera limitazione, non il PhysX in sè come tecnologia.
Per chi parla di "vecchiaia" dell'SDK di PhysX.....ma sapete che ci vogliono anni a fare un videogioco? Mica si usa l'SDK di quando esce sul mercato eh.....
non c'entra lo specifico sdk, infatti c'è chi se lo fa da solo o usa Havok, l'ho già spiegato...inoltre un buon programmatore riesce tranquillamente ad aggiornare il codice del Physx...volendo... :asd: un po' come il php, certo c'è del lavoro da fare ma non è di sicuro impossibile visto che gli effetti vengono richiamati tramite funzioni e non sono per forza sempre presenti in tutti gli scenari...a volte c'è da cambiare qualche chiamata, magari solo nella sintassi...dipende, tutto qua. Se non vogliono farlo girare in un certo modo su CPU il motivo c'è...e non è la data di rilascio dell'sdk... :asd: potrebbero pure rilasciare una patch che vada ad agire su questo ma non lo fanno perché non è nel loro interesse e neanche Nvidia fornisce il supporto nell'ultimo pacchetto utente... ;)
Abufinzio
25-05-2013, 21:13
se invece mi prendo una nvidia da 50€ solo per il physx?
può alleggerire sia vga che cpu e avere più frame?
se invece mi prendo una nvidia da 50€ solo per il physx?
può alleggerire sia vga che cpu e avere più frame?
La risposta è: ASSOLUTAMENTE NO.
Per il calcolo parallelo della fisica servono belle schede sennò rischi addirittura di diminuire i tuoi fps. Per maggiori info LinusTechTips ha fatto un video a riguardo: http://www.youtube.com/watch?v=cbww3dhzK0M
Eraser|85
26-05-2013, 01:47
La risposta è: ASSOLUTAMENTE NO.
Per il calcolo parallelo della fisica servono belle schede sennò rischi addirittura di diminuire i tuoi fps. Per maggiori info LinusTechTips ha fatto un video a riguardo: http://www.youtube.com/watch?v=cbww3dhzK0M
se, vabbè, quello prende come esempio la 8600GTS, il minimo del minimo su cui la physx gira.. una GTX 285 come la mia dovrebbe andare ottimamente come scheda solo Physx e costa un cavolo, se la trovi...
Il problema è che è dal pdv energetico, è abbastanza uno spreco..
Dubbio da niubbo: visto che PhysX gira "SOLO" su GPU Nvidia e oramai non conviene piu' comprare una tale marca di GPU... visto che i giochi DX11.1 saranno tutti ottimizzati per AMD, la mia domanda e' questa: si puo' mettere una GPU AMD per la grafica e una Nvidia per la fisica? E casa basterebbe per gestire al massimo tutti sti effetti fisici? (oggigiorno, perche' se Nvidia domani ci piazza quella demo dei fluidi, suppongo basera' una 690...)
L'idea e', sempre in ottica console next gen, pesare il meno possibile sul mio quad core, dovendo stare dietro agli otto nelle console.
bhe PhysX è nato è nato per essere gestito da una scheda ausiliaria ppu ...
in teoria non ci dovrebbero assere problemi
gioita90
26-05-2013, 06:05
mamma mia.... la serie di commenti su questo articolo dimostra l'ignoranza del giocatore medio (sopratutto italiano). Gente che se ne viene con sparate del tipo "physx è CRIPTATO per schede nvidia".... o altri che dicono "physx è un BEL MOTORE GRAFICO" o altri che se ne vengono con "nvidia è brutta e cattiva physx non è nulla di così complesso limita le schede AMD volontariamente " per favore è una tecnologia proprietaria e ne ha anche AMD/ATI ma nessuno se ne è mai lamentato evitate la solita solfa.
Dopo questi commenti non c'è da stupirsi se il gaming sta muorendo, se la EA rifila le solite inculate ai consumatori e se in Italia si vedono sempre e solo tornei di cod e fifa su 360...
La crisi del 1983 sta tornando in grande stile. Per il resto bell'analisi però ci sono imprecisioni sulla storia dell'antialiasing, a come scrivete sembra che SSAA sia più leggero di MSAA, in realtà è l'esatto contrario.
mamma mia.... la serie di commenti su questo articolo dimostra l'ignoranza del giocatore medio (sopratutto italiano). Gente che se ne viene con sparate del tipo "physx è CRIPTATO per schede nvidia".... o altri che dicono "physx è un BEL MOTORE GRAFICO" o altri che se ne vengono con "nvidia è brutta e cattiva physx non è nulla di così complesso limita le schede AMD volontariamente " per favore è una tecnologia proprietaria e ne ha anche AMD/ATI ma nessuno se ne è mai lamentato evitate la solita solfa.
Dopo questi commenti non c'è da stupirsi se il gaming sta muorendo, se la EA rifila le solite inculate ai consumatori e se in Italia si vedono sempre e solo tornei di cod e fifa su 360...
La crisi del 1983 sta tornando in grande stile. Per il resto bell'analisi però ci sono imprecisioni sulla storia dell'antialiasing, a come scrivete sembra che SSAA sia più leggero di MSAA, in realtà è l'esatto contrario.
e spiegami perchè non potrebbe essere criptato? :asd: io non ho scritto che lo è ma che penso... e posso pensarlo perché non l'ho visto e non mi interessa neanche, nessuno ci ha lavorato su, se non per la soluzione ibrida. Certo non perché non si possa fare, cioè adattarlo e soprattutto sfruttare appieno il multicore, cosa che non stanno facendo anche se possibile. Non c'entra nulla il proprietario perché il cracker non se ne importa affatto di chi è il proprietario :D non ho mica scritto che dovrebbero farlo quelli di Amd :p E poi non sta "muorendo" niente anche perché in italiano è morendo.
Abufinzio
26-05-2013, 11:37
se, vabbè, quello prende come esempio la 8600GTS, il minimo del minimo su cui la physx gira.. una GTX 285 come la mia dovrebbe andare ottimamente come scheda solo Physx e costa un cavolo, se la trovi...
Il problema è che è dal pdv energetico, è abbastanza uno spreco..
io avevo in mente di usare una 610 :stordita:
attento...non fare ragionamenti strani...non pensare che gli 8 core delle nuove console vadano il doppio dei 4 del tuo quadcore...i loro sono cmq chip castrati rispetto al tuo...solo che dire che hanno 8 core fa figo e "potente"(come hanni fa i GHz facevano figo...vai poi a spiegare che un coreduo a 3 ghz è meno performante di un i5 a 2.5 per dire... :D ). Anche perchè ti sembra che in una scatoletta che costerà poco più che il solo tuo chip ne mettano uno che ha il doppio della tua potenza?
Si', capisco. Il mio discorso pero' implicava l'usa della CPU per la fisica... e in tal modo penso che nemmeno il mio maestoso i5 a 4.3GHz stara' dietro al (meno maestoso) 8 core AMD delle scatolette, perche', come e' stato gia' evidenziato, la fisica gestita dalla CPU non e' esattamente il massimo dell'efficienza.
In ogni caso, risolvo il problema con due schede video, una AMD per la grafica e una Nvidia per la fisica, che mi avete assicurato, funzionano senza alcun minimo problema... giusto?
:)
edit: ho visto il collegamento sopra. Praticamente conviene usare la stessa scheda per PhysX... quindi direi che abbandono, a malincuore PhysX.
Dovrei affiancare a un (quasi) top di gamma AMD un (quasi) top di gamma Nvidia solo per la fisica?!? va bene tutto, pero'...
gioita90
26-05-2013, 19:45
e spiegami perchè non potrebbe essere criptato? :asd: io non ho scritto che lo è ma che penso... e posso pensarlo perché non l'ho visto e non mi interessa neanche, nessuno ci ha lavorato su, se non per la soluzione ibrida. Certo non perché non si possa fare, cioè adattarlo e soprattutto sfruttare appieno il multicore, cosa che non stanno facendo anche se possibile. Non c'entra nulla il proprietario perché il cracker non se ne importa affatto di chi è il proprietario :D non ho mica scritto che dovrebbero farlo quelli di Amd :p E poi non sta "muorendo" niente anche perché in italiano è morendo.
tralasciando il "muorendo" (in un Italia con decine di dialetti è facile sbagliarsi) non fare polemiche sul "criptato", sai bene pure tu che chi lo ha scritto lo ha inteso nel senso di "programmare" e non nel senso di criptare....
mirkonorroz
26-05-2013, 21:00
physx o meno è un motore grafico eccezionale in grado di rendere benissimo sia negli interni quanto negli esterni (questi ultimi mi hanno sbalordito particolarmente) e di trasmettere atmosfera a non finire. Inoltre è leggero per quello che offre. Sbavo anch'io all'idea di vedere un ipotetico stalker 2 con questa grafica.
mamma mia.... la serie di commenti su questo articolo dimostra l'ignoranza del giocatore medio (sopratutto italiano). Gente che se ne viene con sparate del tipo "physx è CRIPTATO per schede nvidia".... o altri che dicono "physx è un BEL MOTORE GRAFICO" o altri che se ne vengono con "nvidia è brutta e cattiva physx non è nulla di così complesso limita le schede AMD volontariamente " per favore è una tecnologia proprietaria e ne ha anche AMD/ATI ma nessuno se ne è mai lamentato evitate la solita solfa.
Dopo questi commenti non c'è da stupirsi se il gaming sta muorendo, se la EA rifila le solite inculate ai consumatori e se in Italia si vedono sempre e solo tornei di cod e fifa su 360...
La crisi del 1983 sta tornando in grande stile. Per il resto bell'analisi però ci sono imprecisioni sulla storia dell'antialiasing, a come scrivete sembra che SSAA sia più leggero di MSAA, in realtà è l'esatto contrario.
Se ti riferisci alla frase in grassetto essa è (quasi) corretta.
"Physx o meno" s'intende "con o senza effetti fisici" è un motore grafico etc. etc., visto che Physx non puoi altro che identificarlo con il motore fisico e se lo togli non c'è e se non c'è non rende niente, quindi il resto della frase era per forza riferito al motore grafico.
Sarebbe stato ancora meglio esplicitare i tre soggetti/oggetti come motore di gioco, motore fisico e grafico, il primo come contenente gli altri due, ma la frase io l'ho capita ugualmente.
se, vabbè, quello prende come esempio la 8600GTS, il minimo del minimo su cui la physx gira.. una GTX 285 come la mia dovrebbe andare ottimamente come scheda solo Physx e costa un cavolo, se la trovi...
Il problema è che è dal pdv energetico, è abbastanza uno spreco..
il problema secondo me è che se si vuole physx si compra una scheda che supporta quella tecnologia, non si diventa matti a posteriori facendo accrocchi hw eterodossi..o comunque non si accusa chi sviluppa di supportare una tecnologia che non si possiede.
il mercato pc non è quello console, mi stupisco che non siano usciti ancora giochi che girino SOLO su una delle 2 marche...secondo me per spingere le schede dovrebbero entrambe creare una divisione interna per sviluppare giochi specificatamente pensati per i propri hardware.
il mercato pc non è quello console, mi stupisco che non siano usciti ancora giochi che girino SOLO su una delle 2 marche...
beh, se vogliono farlo davvero "muorire" questo mercato...:rotfl: è la scelta adatta. Spero che continuerai a stupirti allora, altrimenti vorrà dire che saremo messi davvero male, con una montagna di euro investiti senza ritorno...e così finalmente passeremo a malincuore alle scatolette da salotto per giocare. Non mi dire che tutti si metteranno a comprare schede di qualsiasi azienda solo per giocare all'uno o all'altro titolo...:D Meno male che ci sono ancora sviluppatori sani di mente...ma chissà per quanto tempo resisteranno :confused:
beh, se vogliono farlo davvero "muorire" questo mercato...:rotfl: è la scelta adatta. Spero che continuerai a stupirti allora, altrimenti vorrà dire che saremo messi davvero male, con una montagna di euro investiti senza ritorno...e così finalmente passeremo a malincuore alle scatolette da salotto per giocare. Non mi dire che tutti si metteranno a comprare schede di qualsiasi azienda solo per giocare all'uno o all'altro titolo...:D Meno male che ci sono ancora sviluppatori sani di mente...ma chissà per quanto tempo resisteranno :confused:
no sto solo dicendo che non sarebbe male (dopo anni passati a parlare di porting e sotto sfruttamento) se nvidia e AMD avessero una divisione interna per videogames in grado di sfornare esclusive cucite magari intorno alle proprie top gamma, senza variare tutto il resto del mercato.
poi dopo il discorso phys x per me resta che se lo vuoi compri nvidia, altrimenti vuol dire che non era cosi fondamentale...e comunque avrei preferito tantissimo che i produttori di schede madri avessero integrato processori dedicati per la fisica, cosi il discrimine era sull'acquisto della mobo...per come la vedo io, cioè diversamente, molto diversamente :asd:
se voglio l'hw che va bene per tutto e sempre, prendo la console.
...per come la vedo io, cioè diversamente, molto diversamente :asd:
se voglio l'hw che va bene per tutto e sempre, prendo la console.
per fortuna non la pensano come te, almeno per ora...Physx è un discorso a parte, ed è pure lecito nonostante io non lo veda di buon occhio, ma questo conta relativamente (però dovrebbero tenere più in conto le esigenze dei gamers, anche su PC, non le aziende di hw ma quelle di sw). Sviluppare un videogame per farlo girare, a prescindere da Physx, solo su Nvidia o Amd sarebbe invece una follia :asd:
movengia
28-05-2013, 14:44
su molti forum stranieri ho letto che la Tessellation in DX11 per chi ha schede Nvidia si attiva solo se si installa Geforce Experience. Mi confermate? Notate la differenza nella Tessellation ottenuta senza aver installato Geforce Experience?
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.