PDA

View Full Version : NVIDIA spinge sempre più PhysX e la stereoscopia


Redazione di Hardware Upg
25-09-2009, 09:27
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-spinge-sempre-piu-physx-e-la-stereoscopia_30225.html

La società californiana continua a spingere le funzionalità che contraddistinguono la propria offerta, come la stereoscopia e il supporto alla tecnologia PhysX

Click sul link per visualizzare la notizia.

TheDarkAngel
25-09-2009, 09:35
non avendo nulla su cui spingere è normale darsi a tecnologie morte e sepolte :asd:

fpg_87
25-09-2009, 09:35
Ho visto il video della differenza con la fisica attivata, e senza...
Praticamente un abisso... tra la nebbia ed il fumo che si muovono in modo realistico, ed i fogli di giornale che vengono trascinati dai piedi se ci cammini sopra, mi sn davvero stupito...
Unica pecca... le mattonelle dei pavimenti credo che si rompano con troppa facilità...:P

lucusta
25-09-2009, 09:36
esiste per AMD qualcosa del genere per l'uso digli occhialini?
se non si sbriga ad elaborare una tecnologia valida in questo campo, perdera' il treno (anche se partira' tra' 2-3 anni nel comparto consumer di bassa fascia).

pandyno
25-09-2009, 09:37
Sono passati trentanni e ancora la stereoscopia ci propinano...

Aryan
25-09-2009, 09:39
Nel 2000 comprai una Asus TNT2 con questi occhialini. Funzionavano come se non meglio di questi... :fagiano:

Alekz
25-09-2009, 09:41
Ma con un monitor 60Hz è possibile usare gli occhialini? Voglio dire 30 frame per occhio sono pochi ma sufficienti, forse è il refresh che a 30Hz è troppo faticoso per gli occhi?

Revenge81
25-09-2009, 09:42
Normale ke spinga su queste due cose, son le unike armi con per controbattere ad ATI...pokino oserei dire...

DarKilleR
25-09-2009, 09:43
la tecnologia stereoscopica esiste da una vita...io mi ricordo le ATI Rage 128 Pro con gli occhialini...
Teoricamente parlando qualsiasi scheda video la può supportare se "abilitata" tramite driver.

Praticamente vengono mandate a video 2 immagini diverse con frequenze diverse, una con il punto di fuga dell'occhio sinistra, una con il punto di fuga dell'occhio destro, gli occhialini si preoccupano solo di "oscurare" l'immagine con la frequenza destinata all'altro occhio...ed ottieni la visione 3D...

Questo detto in modo molto semplicistico per rendere l'idea...oltretutto non è la migliore tecnologia per fare il 3d, ma sicuramente la più semplice e realizzabile con i mezzi che abbiamo già a disposizione.
Cmq a me non piace!

costa@73
25-09-2009, 09:45
In pratica: tutto fumo e niente arrosto ..
Ed ecco ritornare all'attacco il marketing Nvidia, la dove non può rispondere con la sostanza..
Verremo bersagliati da news come queste tutti i giorni, fin quando non tireranno fuori le loro nuove proposte.
Mi ricordano qualcosa..

@less@ndro
25-09-2009, 09:45
bene così... l'utilizzo della fisica in Batman è davvero molto appagante.

bah, l'unica cosa carina erano i teloni. i fogli potevano anche evitarli e il fumo potevano farlo non gestito dalla fisica.

Ho visto il video della differenza con la fisica attivata, e senza...
Praticamente un abisso... tra la nebbia ed il fumo che si muovono in modo realistico, ed i fogli di giornale che vengono trascinati dai piedi se ci cammini sopra, mi sn davvero stupito...
Unica pecca... le mattonelle dei pavimenti credo che si rompano con troppa facilità...:P

prova a mettere dei fogli per terra e a passarci sopra. i fogli si alzano come in batman? no! quella è la fisica. :read:

Sammy Jankis
25-09-2009, 09:47
Dai che a furia di spingere magari esce....:D

windowistaxcaso
25-09-2009, 09:48
non avendo nulla su cui spingere è normale darsi a tecnologie morte e sepolte :asd:


Mi sa che tu e pandyno state parlando senza molta cognizione di causa...
la stereoscopia è il fenomeno del momento, cavalcata dai principali tecnologici (leggi un po' di news dei giorni scorsi, tipo alcuni report dall'IFA) e sfrutta tecnologie MOLTO diverse da quelle anaglife di qualche anno fa...
Anche per la fisica dimmi te dove è morta e sepolta, essendo nata da Ageia solo pochi anni fa...
Credo che dovreste rendervi conto di persona di cosa si parli prima di aprire bocca ;)

DjLode
25-09-2009, 09:50
bene così... l'utilizzo della fisica in Batman è davvero molto appagante.

Dai video visti mi sembra bella ma totalmente inutile. Vedere due sassi (per dire) che cascano senza che questi influiscano sul gameplay è tutto fuorchè appagante. Lo sto giocando su Xbox, e faccio le stesse identiche cose che si fanno nei video da te postati, senza cose che svolazzano. Nessun surplus al gioco.

DjLode
25-09-2009, 09:51
Anche per la fisica dimmi te dove è morta e sepolta, essendo nata da Ageia solo pochi anni fa...


Fisica e Physx non sono la stessa cosa ;)

Severnaya
25-09-2009, 09:51
spingere su Physics secondo me è profondamente sbagliato, è una scommessa che nvidia rischia di perdere con all'orizzonte uno standard aperto anche ad ati e anche a larrabee

puntare su degli effetti gestibili da pochi titoli (a scapito di molti fps da quanto ho capito) nn è un parametro fondamentale nella scelta di una scheda video IMHO

Stig89
25-09-2009, 09:56
sono ancora che la menano con sto Physics una tecnologia nata morta e che ora lo e ancora di pi grazie alla fisica libera di ATI, si stanno solo arrampicando sugli specchi perche non hanno nulla per contrastare ATI sul campo dx11

DjLode
25-09-2009, 09:57
spingere su Physics secondo me è profondamente sbagliato, è una scommessa che nvidia rischia di perdere con all'orizzonte uno standard aperto anche ad ati e anche a larrabee
puntare su degli effetti gestibili da pochi titoli (a scapito di molti fps da quanto ho capito) nn è un parametro fondamentale nella scelta di una scheda video IMHO

Nvidia non può fare altro che spingere su Physx prima e su OpenCl poi. Una volta uscito GT300 spingerà anche su GPGPU di Microsoft di cui ora mi sfugge il nome. Da oggi ad allora però non può fare altro che puntare su quelle cose che lei ha e i concorrenti no. Ati punta sulle DX11 e su tutte le caratteristiche nuovo o semi-nuove che introducono. Nvidia butta sul tavolo quello che ha.

MadJackal
25-09-2009, 09:59
Ho visto il video della differenza con la fisica attivata, e senza...
Praticamente un abisso... tra la nebbia ed il fumo che si muovono in modo realistico, ed i fogli di giornale che vengono trascinati dai piedi se ci cammini sopra, mi sn davvero stupito...
Unica pecca... le mattonelle dei pavimenti credo che si rompano con troppa facilità...:P

Cose fattibilissime con CPU sotto Havok, World In Conflict aveva il fumo che si muoveva se ci passava in mezzo un elicottero - e senza physX. Uaoh eh?

PhysX, ad oggi, non offre nulla di nuovo che qualche effetto particellare in più: letteralmente tanto fumo e niente arrosto. Oltretutto è tecnologia nata morta, a meno che non la portino per OpenCL, e su Beyond3D avevano ipotizzato che la versione CPU non fosse per nulla ottimizzata (niente SSE, SSE2, ecc). Marketing ala NVIDIA, as usual - tra l'altro pure previsto.


Aspetto G300, per vedere se NVIDIA la pianterà di rosicare.

MadJackal
25-09-2009, 10:00
Nvidia non può fare altro che spingere su Physx prima e su OpenCl poi. Una volta uscito GT300 spingerà anche su GPGPU di Microsoft di cui ora mi sfugge il nome. Da oggi ad allora però non può fare altro che puntare su quelle cose che lei ha e i concorrenti no. Ati punta sulle DX11 e su tutte le caratteristiche nuovo o semi-nuove che introducono. Nvidia butta sul tavolo quello che ha.

DirectCompute e OpenCL li ha anche ATI.
E non è detto che in quegli ambiti NVIDIA vinca...

luX0r.reload
25-09-2009, 10:01
... essere fan ati o fan nvidia implica chiaramente la perdita di obiettività.
Non mi sembra che nvidia sia tecnologicamente dietro ad ati... l'architettura g92 è stata riveduta e ripropinata fino a qualche tempo fa proprio perchè non c'era bisogno di una nuova architettura inquanto la ATI non ha aveva, fino alla serie 4000, prodotti prestazionalmente in grado di competere:mbe:

Ad oggi... la GTX 275 se la batte con la 4890; una esce vincitrice in un bech, l'altra in un altro...

Oltre a questo la nVidia si è mossa su altri due versanti, appunto Physx e la stereoscopia, dando alle proprie schede un valore aggiunto non indifferente.

Non mi sembra che ATI stia contrapponendo qualcosa di valido a queste tecnologie... o sbaglio?

Da utente non fan spero che si svegli presto altrimenti nVidia riguadagnerà terreno, la concorrenza verrà a mancare ed i prezzi si rialzeranno.

Meditate

@less@ndro
25-09-2009, 10:02
Nvidia non può fare altro che spingere su Physx prima e su OpenCl poi. Una volta uscito GT300 spingerà anche su GPGPU di Microsoft di cui ora mi sfugge il nome. Da oggi ad allora però non può fare altro che puntare su quelle cose che lei ha e i concorrenti no. Ati punta sulle DX11 e su tutte le caratteristiche nuovo o semi-nuove che introducono. Nvidia butta sul tavolo quello che ha.

ma non diciamo cavolate, non è che se nvidia perche non ha fatto uscire ancora le dx11 (inutili per il momento) è perche è stata colta di sorpresa. è il leader delle schede video, vuoi che non abbiano delle loro strategie commerciali? :mbe:

TheDarkAngel
25-09-2009, 10:03
Mi sa che tu e pandyno state parlando senza molta cognizione di causa...
la stereoscopia è il fenomeno del momento, cavalcata dai principali tecnologici (leggi un po' di news dei giorni scorsi, tipo alcuni report dall'IFA) e sfrutta tecnologie MOLTO diverse da quelle anaglife di qualche anno fa...
Anche per la fisica dimmi te dove è morta e sepolta, essendo nata da Ageia solo pochi anni fa...
Credo che dovreste rendervi conto di persona di cosa si parli prima di aprire bocca ;)

marketing nvidia o dici sul serio? :mbe:
No perchè la fisica esiste dall'alba dei tempi e non serviva certo quella patacca di physix e la stereoscopia come concepita da nvidia è la solita con gli occhialini che ci propinano dagli anni 80, figurati che l'avevo già con la geforce1!
Quindi prima di dire "Credo che dovreste rendervi conto di persona di cosa si parli prima di aprire bocca" dovresti accertarti di sapere qualcosa :asd:

Severnaya
25-09-2009, 10:06
indubbiamente hai ragione, ma puntare su un formato chiuso che nn altera profondamente l'esperienza di gioco (appesantendolo ulteriormente) nn farebbe altro che accorciare le "prospettive di vita" della scheda nvidia in questione a meno che di fantasmagorici ottimizzazione dei driver (cosa che nn credo possa accadere)

lo stesso dicasi per le software house, da profano credo che dovranno essere programmati ad hoc i titoli che vorranno avere degli effetti "physics" e nn so quanti saranno disposti a farlo, con i costi e gli allungamenti temporali del caso, rischiando poi di far storcere il naso a tutti quelli che nn avendo nvidia dovrebbero comprare un titolo nn sfruttabile da loro al 100%

abbiamo

nvidia
software house
giocatore

per far si che physics nn sia un buco tutte e 3 le componenti (semplicisticamente parlando :asd:) dovranno andare nella stessa direzione, il che è tutto fuorché scontato

DjLode
25-09-2009, 10:08
DirectCompute e OpenCL li ha anche ATI.
E non è detto che in quegli ambiti NVIDIA vinca...

Lo so, e non confrontavo le prestazioni in quanto sinceramente non mi interessano più :)
Semplicemente stavo dicendo che non avendo altro, punta su quello che ha.
Physx ora, OpenCl di rimando perchè sta crescendo in questo periodo e DirectCompute una volta che uscirà GT300.

MadJackal
25-09-2009, 10:09
... essere fan ati o fan nvidia implica chiaramente la perdita di obiettività.
Non mi sembra che nvidia sia tecnologicamente dietro ad ati... l'architettura g92 è stata riveduta e ripropinata fino a qualche tempo fa proprio perchè non c'era bisogno di una nuova architettura inquanto la ATI non ha aveva, fino alla serie 4000, prodotti prestazionalmente in grado di competere:mbe:

Ad oggi... la GTX 275 se la batte con la 4890; una esce vincitrice in un bech, l'altra in un altro...

Oltre a questo la nVidia si è mossa su altri due versanti, appunto Physx e la stereoscopia, dando alle proprie schede un valore aggiunto non indifferente.

Non mi sembra che ATI stia contrapponendo qualcosa di valido a queste tecnologie... o sbaglio?

Da utente non fan spero che si svegli presto altrimenti nVidia riguadagnerà terreno, la concorrenza verrà a mancare ed i prezzi si rialzeranno.

Meditate

AMD sta sviluppando insieme ad Intel Havok in OpenCL, ed oltretutto in una maniera tale per cui i calcoli fisici siano in maniera trasparente gestiti sia dalla CPU che dalla GPU.
Oltretutto Havok, sulla CPU, fa tutto quello che fanno con PhysX - e da tempo immemore temo. E la stessa PhysX è scritta in maniera schifosa per la CPU solo per dare vantaggi alla GPU.

La stereoscopia a me ha sempre fatto venire mal di testa, quindi non commento sul punto :asd:

!fazz
25-09-2009, 10:10
... essere fan ati o fan nvidia implica chiaramente la perdita di obiettività.
Non mi sembra che nvidia sia tecnologicamente dietro ad ati... l'architettura g92 è stata riveduta e ripropinata fino a qualche tempo fa proprio perchè non c'era bisogno di una nuova architettura inquanto la ATI non ha aveva, fino alla serie 4000, prodotti prestazionalmente in grado di competere:mbe:

Ad oggi... la GTX 275 se la batte con la 4890; una esce vincitrice in un bech, l'altra in un altro...

Oltre a questo la nVidia si è mossa su altri due versanti, appunto Physx e la stereoscopia, dando alle proprie schede un valore aggiunto non indifferente.

Non mi sembra che ATI stia contrapponendo qualcosa di valido a queste tecnologie... o sbaglio?

Da utente non fan spero che si svegli presto altrimenti nVidia riguadagnerà terreno, la concorrenza verrà a mancare ed i prezzi si rialzeranno.

Meditate

ATI 5870? DX11 e potenza paragonabile a una 295 nonostante sia una scheda single gpu

cmq a mio avviso queste tecnologie non hanno futuro in particolare physics in quanto nei giochi il componente maggiormente sotto stress è la gpu quindi tanto vale far gestire la fisica alla cpu che ha potenza inutilizzata in ambito gaming (come si è sempre fatto fino ad oggi)

JohnPetrucci
25-09-2009, 10:10
sono ancora che la menano con sto Physics una tecnologia nata morta e che ora lo e ancora di pi grazie alla fisica libera di ATI, si stanno solo arrampicando sugli specchi perche non hanno nulla per contrastare ATI sul campo dx11
Magari ci fosse qualcosa da contrastare sul piano Dx 11.....;)
Se tutto va bene se ne palerà tra un anno, e le nuove Nvidia dx11 saranno da tempo uscite, senza titoli a supportare le nuove librerie, le stesse non hanno molto senso a meno di non doversi fare un sistema nuovo adesso.....
Siamo seri per favore, e non critichiamo la stereoscopia e physx per partito preso, Ati non ha queste features, punto, che piaccia o no e che le si ritenga utili o no, e comunque l'opzione o meno di tali tecnologie la danno i giochi che le supportano, non altro.;)

DjLode
25-09-2009, 10:10
ma non diciamo cavolate, non è che se nvidia perche non ha fatto uscire ancora le dx11 (inutili per il momento) è perche è stata colta di sorpresa. è il leader delle schede video, vuoi che non abbiano delle loro strategie commerciali? :mbe:

A parte che "leader delle schede video" è un'affermazione assolutamente tendenziosa in quanto non viene specificato il campo. Prestazionale? Sbagliato. Di schede integrate? Sbagliato. Ambito portatile? Schede discrete? Giusto per puntualizzare.
Seconda cosa, GT300 non ha ancora fatto il tape out a quanto ci è dato sapere, avranno le loro strategie ma se la gpu fosse stata pronta, l'avrebbero proposta. Semplicemente come Ati ai tempi del 2900. Punto.
Tutto il resto... tacciale pure come cavolate ma il panorama è questo, che ti piaccia o no ;)

omarlardo
25-09-2009, 10:11
secondo me la nvidia dovrebbe preoccuparsi pricipalmente della gt300 in modo da farla uscire prima della fine di questo anno, la stereoscopia attualmente non e diffusa

Severnaya
25-09-2009, 10:14
la stereoscopia nn ha forse bisogno anche di uno schermo a 120hz???

nn ho mai sentito nessuno dire "prendo quella scheda video così mi da gli occhialini così sfrutto la stereoscopia"...

luX0r.reload
25-09-2009, 10:16
AMD sta sviluppando insieme ad Intel Havok in OpenCL, ed oltretutto in una maniera tale per cui i calcoli fisici siano in maniera trasparente gestiti sia dalla CPU che dalla GPU.
Oltretutto Havok, sulla CPU, fa tutto quello che fanno con PhysX - e da tempo immemore temo. E la stessa PhysX è scritta in maniera schifosa per la CPU solo per dare vantaggi alla GPU.

La stereoscopia a me ha sempre fatto venire mal di testa, quindi non commento sul punto :asd:
Anche nVidia sta portando avanti lo sviluppo in OpenCL... forse vi siete persi una decina di news:D

Certo, certo... Havok con la CPU fa tutto quello che fa PhysX con la gpu... peccato che le gpu per questo tipo di calcoli siano decine di volte più veloci delle cpu:rolleyes:

Avete provato a fare un recoding di un DVD in divx usando physx?
Provate e poi fate la stessa cosa usando solo la cpu... poi mi dite

Foglia Morta
25-09-2009, 10:17
AMD sta sviluppando insieme ad Intel Havok in OpenCL, ed oltretutto in una maniera tale per cui i calcoli fisici siano in maniera trasparente gestiti sia dalla CPU che dalla GPU.
Oltretutto Havok, sulla CPU, fa tutto quello che fanno con PhysX - e da tempo immemore temo.

IMO un interessante discorso fatto da un ex dipendente nVidia passato a AMD che parla di Physx:http://www.rage3d.com/previews/video/ati_hd5870_performance_preview/index.php?p=4

E la stessa PhysX è scritta in maniera schifosa per la CPU solo per dare vantaggi alla GPU.

http://techreport.com/articles.x/17618/13

Con Physx attivato su cpu ( con scheda Radeon ) ci sono una manciata di frames e l'utilizzazione della cpu al 14% :asd:

Severnaya
25-09-2009, 10:17
qui la gente sbava per fare encoding di dvd :asd:

Alekz
25-09-2009, 10:18
Ma con un monitor 60Hz è possibile usare gli occhialini? Voglio dire 30 frame per occhio sono pochi ma sufficienti, forse è il refresh che a 30Hz è troppo faticoso per gli occhi?

Qualcuno sa rispondere?:)

TheDarkAngel
25-09-2009, 10:19
la stereoscopia nn ha forse bisogno anche di uno schermo a 120hz???

nn ho mai sentito nessuno dire "prendo quella scheda video così mi da gli occhialini così sfrutto la stereoscopia"...

si minimo 120hz, così da avere 60hz per occhio, giusto per sottolineare che tecnologia scadente è, si deve cambiare pure monitor o tornare ai cari e imbattuti crt


Avete provato a fare un recoding di un DVD in divx usando physx?
Provate e poi fate la stessa cosa usando solo la cpu... poi mi dite

a pranzo per tutti pasta e marketing :sbonk:

aless0074
25-09-2009, 10:20
devo dire che ATI con la fisica libera semplifica la vita a tutti, questa e una mossa sullo scacchiere che in un fututo molto prossimo portera molti punti a suo favotre, le software house credo che questa volta non possono ignorare ne snobbare l'iniziativa di AMD, mi dispiace per Nvidia ma e troppo poco quello che fanno per contrastare ATI in questo momrnto, se per loro la strada della fisica propia, occhialini 3D, e quantaltro e corretta la intraprendano e poi si vedra al uscita delle propie soluzzioni. Comunque lo ribadisco avere uno standard comune secondo me e un vantaggio per Nvidia per ATI e per chi verra in futuro (isomma per tutti).
ciao a tutti :)

Origami
25-09-2009, 10:21
e anche con i crt mi sembra che sia meglio cmq avere almeno 80hz.
in ogni caso vorrei sottolineare che anche se ati non ha una propria steroscopia ufficiale, sistemi 3rd party che la supportano ce ne sono eccome. Penso alla iz3d, oppure alla edimensional. Del resto la stereoscopia non l'hanno certo inventata l'anno scorso

luX0r.reload
25-09-2009, 10:21
ATI 5870? DX11 e potenza paragonabile a una 295 nonostante sia una scheda single gpu

cmq a mio avviso queste tecnologie non hanno futuro in particolare physics in quanto nei giochi il componente maggiormente sotto stress è la gpu quindi tanto vale far gestire la fisica alla cpu che ha potenza inutilizzata in ambito gaming (come si è sempre fatto fino ad oggi)
Scusa ma cosa c'entra la serie 5000 di ATI?!?!? Mi sembra logico e sottointeso che non si possano paragonare due schede di diversa generazione:mbe:
La serie 5000 dovrebbe essere paragonata con la serie 300 di nVidia che ancora non c'è:confused:

Le DX11... quando ancora non vengono usate le DX10, e quando l'80% dei giochi è multipiattaforma o porting da console odierne?!?!?
Forse con l'avvento delle nuova generazione di console si potrà iniziare a parlare di dx11... ora mi sembra prematuro

goldorak
25-09-2009, 10:22
non avendo nulla su cui spingere è normale darsi a tecnologie morte e sepolte :asd:

Ma quanto e' vero cio' che dici.
E sconcertante vedere Nvidia fare :mc: :mc: :mc:
Dov'e G300 ? Fara' la fine di GT5 ? Rimandano in eterno perche' non in grado di comptere con la concorrenza ? :asd:
Triste, veramente triste.

DjLode
25-09-2009, 10:23
IMO un interessante discorso fatto da un ex dipendente nVidia passato a AMD che parla di Physx:http://www.rage3d.com/previews/video/ati_hd5870_performance_preview/index.php?p=4


Mi fai una sintesi, sembra un canto della Divina Commedia come lunghezza :)

||ElChE||88
25-09-2009, 10:23
No perchè la fisica esiste dall'alba dei tempi e non serviva certo quella patacca di physix
Ma perché sparate queste stronzate?
Se è per questo 10 anni fa esisteva pure la grafica 3D, quindi con la stessa logica non servono certo quelle patacche di HD5870 e GTX295... basta una Voodoo 3. :muro:

MadJackal
25-09-2009, 10:24
Lo so, e non confrontavo le prestazioni in quanto sinceramente non mi interessano più :)
Semplicemente stavo dicendo che non avendo altro, punta su quello che ha.
Physx ora, OpenCl di rimando perchè sta crescendo in questo periodo e DirectCompute una volta che uscirà GT300.

Beh, speriamo che questa volta abbia almeno il Tessellator :asd:

ma non diciamo cavolate, non è che se nvidia perche non ha fatto uscire ancora le dx11 (inutili per il momento) è perche è stata colta di sorpresa. è il leader delle schede video, vuoi che non abbiano delle loro strategie commerciali? :mbe:

Dopo quello che è successo con le HD 4xx0, non sono più tanto sicuro delle strategie commerciali NVIDIA. :Prrr:

Ma perché sparate queste stronzate?
Se è per questo 10 anni fa esisteva pure la grafica 3D, quindi con la stessa logica non servono certo quelle patacche di HD5870 e GTX295... basta una Voodoo 3. :muro:

Havok è in giro da un pò.
E ripeto, può fare TUTTO quello che fa PhysX ora. Sulla CPU.

DjLode
25-09-2009, 10:24
Scusa ma cosa c'entra la serie 5000 di ATI?!?!? Mi sembra logico e sottointeso che non si possano paragonare due schede di diversa generazione:mbe:
La serie 5000 dovrebbe essere paragonata con la serie 300 di nVidia che ancora non c'è:confused:


Sul pianeta terra si è sempre confrontato top di gamma con top di gamma ;)

luX0r.reload
25-09-2009, 10:24
qui la gente sbava per fare encoding di dvd :asd:
Beh magari ti sfugge che ci sono persone che con il PC non ci giocano soltanto, e che il settore del video editing non è proprio l'ultimo arrivato:rolleyes:

TheDarkAngel
25-09-2009, 10:24
Scusa ma cosa c'entra la serie 5000 di ATI?!?!? Mi sembra logico e sottointeso che non si possano paragonare due schede di diversa generazione:mbe:
La serie 5000 dovrebbe essere paragonata con la serie 300 di nVidia che ancora non c'è:confused:

Le DX11... quando ancora non vengono usate le DX10, e quando l'80% dei giochi è multipiattaforma o porting da console odierne?!?!?
Forse con l'avvento delle nuova generazione di console si potrà iniziare a parlare di dx11... ora mi sembra prematuro

la 5800 c'è ora, va meglio ora in dx7/8/9/10/10.1/11 :asd:

atomo37
25-09-2009, 10:25
e se nel frattempo trovassero il tempo per rilasciare anche nuovi driver? :d

DjLode
25-09-2009, 10:25
Beh, speriamo che questa volta abbia almeno il Tessellator :asd:


E' richiesto dalle DX11 non possono non metterlo. O magari fanno una G92 dedicata da attaccare in SLI che lo faccia :D

TheDarkAngel
25-09-2009, 10:25
Ma perché sparate queste stronzate?
Se è per questo 10 anni fa esisteva pure la grafica 3D, quindi con la stessa logica non servono certo quelle patacche di HD5870 e GTX295... basta una Voodoo 3. :muro:

thx 4 the info! prenderò nota del tuo spessore tecnico :asd:

luX0r.reload
25-09-2009, 10:27
Sul pianeta terra si è sempre confrontato top di gamma con top di gamma ;)
... forse allora sul pianeta terra si è sempre sbagliato. Logicamente il confronto andrebbe fatto tra due schede delle stessa generazione.
Ma la logica, come ho detto precedentemente, quando si è fan va a farsi friggere (vale indipendentemente sia per i fan di nvidia che per i fan di ati)

Origami
25-09-2009, 10:28
il confronto non andrebbe fatto fra due schede delle stesso prezzo? nell'ambito cpu, confrontare i phenom 2 x4 con gli i7 sarebbe abbastanza stupido....

Goofy Goober
25-09-2009, 10:29
per me il punto è un altro...

a me Physx va bene e sono contento che ci sia, perchè? perchè i giochi mi piacciono soprattutto per la grafica, sono uno di quelli che si è sempre esaltato per l'alta definizione e cose simili, da quando ho visto il mio primo film in bluray non riesco più a farne a meno, tutti gli "effettini" che per molti sono inutili in quanto non aggiungono niente al "gameplay" per me invece sono goduria infinita.

per me il gameplay è l'insieme di tutto un gioco, grafica compresa al 100%, mirror's edge giocato senza physx dal mio punto di vista, perde metà delle emozioni che trasmette giocato con l'opzione attivata.

sarò emotivo io, cosa volete che vi dica, non mi interessa se è ATI o NVIDIA o INTEL o buonanima di 3dFX ad aver la possibilità di riprodurre un gioco con il numero più elevato di effetti grafici-fisici & affini, l'importante è che ci siano!

mi fa piacere leggere che anche ATI può fare quello che fa NVIDIA ora con physx, anche con havok affidando i calcoli alla CPU...
BENISSIMO dico io, PERFETTO, FANTASTICO, ma PER ADESSO mi pare che per avere i miei amati effettini in più mi tocca sborsare dineri a favore delle verdognole di Santa Clara...

quindi la palla ad ATI & NVIDIA, quella di voi che mi regalerà le emozioni grafiche migliori mi avrà come cliente!

saluto

Severnaya
25-09-2009, 10:29
scusate


ma se nvidia usciva con le directx11 prima di ati avremmo sentito che le directx11 sarebbe state il futuro nonché la nostra esperienza di gioco sarebbe stata stravolta come mai prima d'ora... è tutto marketing eh nn che ati nn lo faccia ma visto che nn hai una scheda che le supporta, dire che nn servono a niente... qui abbiamo tanto fumo e niente arrosto


meglio che nn parlo di mangiare mi sta venendo una fame :asd:

djbill
25-09-2009, 10:30
La stereoscopia è nata come una moda ancora nella prima metà del 1800. Sostanzialmente ci stanno ripropinando la stessa cosa da anni aggiornandola dal punto di vista tecnologico ma il concetto di base è sempre quello...

http://it.wikipedia.org/wiki/Stereoscopia

Resto dell'opinione che anche questa cosa (assieme al Cinema 3D) resterà una moda più che passeggera...

Severnaya
25-09-2009, 10:30
Beh magari ti sfugge che ci sono persone che con il PC non ci giocano soltanto, e che il settore del video editing non è proprio l'ultimo arrivato:rolleyes:


se col pc ci lavori nn credo che ti pigli gt200 per fare encoding video... :rolleyes:

JohnPetrucci
25-09-2009, 10:31
Ma quanto e' vero cio' che dici.
E sconcertante vedere Nvidia fare :mc: :mc: :mc:
Dov'e G300 ? Fara' la fine di GT5 ? Rimandano in eterno perche' non in grado di comptere con la concorrenza ? :asd:
Triste, veramente triste.
Ma da quanto tempo segui il mercato gpu dall'uscita dell'ultima Ati?:asd:
Il bello è che certi commenti quando escono le nuove vga della concorrenza a voi poco gradita fate finta di non averli mai scritti....
Ne riparliamo fra qualche mese all'uscita appunto di G300 e poi magari direte che non è confrontabile alla serie 5000 di Ati perchè è un'altra generazione.....:asd:

MadJackal
25-09-2009, 10:31
E' richiesto dalle DX11 non possono non metterlo. O magari fanno una G92 dedicata da attaccare in SLI che lo faccia :D

Possono sempre emularlo attraverso gli shader :O
(se non ricordo male l'han fatto davvero per qualche feature delle DX10.1 :asd:)

Il problema è che non ho ancora capito se esiste solamente il DX11 compliant (e quindi deve supportare tutte le feature) o anche il DX11 full compliant (e quindi se sei semplicemente "compliant" puoi non supportare certe feature). :boh:

saeba77
25-09-2009, 10:32
io non la trovo morta e sepolta la PhysX...è vero che anche ATI ce l'ha e soprattutto è "libera" pero' mi chiedo se avete notato che logo esce all'inizio di ogni gioco....bravi viene fuori NVIDIA
...ATI puo' avere tutte le tecnologie più fiche di questo mondo ma se le software house sviluppano principalmente per nvidia o cmq con la sua partnership il risultato purtroppo è già scontato
...vi siete mai chiesti perchè le ati con alcuni giochi danno un sacco di grane? e necessitano sempre di driver adhoc...o patch successive al rilascio del gioco? ad esempio GTA4, i filmati di residentevil 5, NFS shift che scatta con pc ultra pompati e la lista potrebbe continuare.

non fraintendetemi non è una critica ad ATI che dobbiamo solo ringraziare per gli ottimi prodotti e per far abbassare il prezzo delle nvidia e rendere il mercato piu competitivo...è solo una questione di soldi e di investimenti a livello commerciale. Purtroppo al momento è NVIDIA che comanda

luX0r.reload
25-09-2009, 10:32
la 5800 c'è ora, va meglio ora in dx7/8/9/10/10.1/11 :asd:
Vedo che non hai capito, anche tu accecato dalla voglia di sottolineare che A è meglio di B probabilmente non hai letto attentamente quello che si stava dicendo.

Non metto in dubbio che la serie 5000 abbia ora migliori performance delle controparti nVidia (siano esse dx7 o dx10/11). Il mio discorso verte sul valore aggiunto che può dare ORA il supporto alle DX11 :rolleyes:

Severnaya
25-09-2009, 10:33
per me il punto è un altro...

a me Physx va bene e sono contento che ci sia, perchè? perchè i giochi mi piacciono soprattutto per la grafica, sono uno di quelli che si è sempre esaltato per l'alta definizione e cose simili, da quando ho visto il mio primo film in bluray non riesco più a farne a meno, tutti gli "effettini" che per molti sono inutili in quanto non aggiungono niente al "gameplay" per me invece sono goduria infinita.

per me il gameplay è l'insieme di tutto un gioco, grafica compresa al 100%, mirror's edge giocato senza physx dal mio punto di vista, perde metà delle emozioni che trasmette giocato con l'opzione attivata.

sarò emotivo io, cosa volete che vi dica, non mi interessa se è ATI o NVIDIA o INTEL o buonanima di 3dFX ad aver la possibilità di riprodurre un gioco con il numero più elevato di effetti grafici-fisici & affini, l'importante è che ci siano!

mi fa piacere leggere che anche ATI può fare quello che fa NVIDIA ora con physx, anche con havok affidando i calcoli alla CPU...
BENISSIMO dico io, PERFETTO, FANTASTICO, ma PER ADESSO mi pare che per avere i miei amati effettini in più mi tocca sborsare dineri a favore delle verdognole di Santa Clara...

quindi la palla ad ATI & NVIDIA, quella di voi che mi regalerà le emozioni grafiche migliori mi avrà come cliente!

saluto


per me i giochi devono essere divertenti, se sono belli da vedere ma mi fanno 2 OO così e rischio che mi scambino con una mongolfiera se li possono pure tenere :asd:


se mi piace la grafica 3d mi sparo in serie tutti i filmati della blizzard da w3 a oggi

Foglia Morta
25-09-2009, 10:33
Mi fai una sintesi, sembra un canto della Divina Commedia come lunghezza :)

Dave Hoff si occupava delle relazioni con gli sviluppatori per quel che riguarda Cuda . Quando è passato in AMD ha proposto un aiuto a nVidia per tradurre Physx in OpenCL per farlo andare anche su schede Radeon... nVidia ha ignorato la proposta. Inoltre non vogliono che sia presente nessuna accelerazione su gpu nemmeno se nel sistema c'è una Radeon che si occupa del rendering ( nemmeno se la fisica andasse su gpu nVidia ). Quindi è evidente che nVidia vede Physx unicamente come un veicolo pubblicitario da usare giusto in qualche titolo... in questo modo non potrà mai essere largamente adottata dagli sviluppatori. Ci vogliono standard che funzionino su cpu AMD e Intel e gpu AMD e nVidia ( e in futuro anche intel ) :)

Sul pianeta terra si è sempre confrontato top di gamma con top di gamma ;)

Io sono un convintissimo sostenitore del rapporto prezzo - prestazioni ( e feature ) :D

goldorak
25-09-2009, 10:34
scusate


ma se nvidia usciva con le directx11 prima di ati avremmo sentito che le directx11 sarebbe state il futuro nonché la nostra esperienza di gioco sarebbe stata stravolta come mai prima d'ora... è tutto marketing eh nn che ati nn lo faccia ma visto che nn hai una scheda che le supporta, dire che nn servono a niente... qui abbiamo tanto fumo e niente arrosto


meglio che nn parlo di mangiare mi sta venendo una fame :asd:


Direi che e' d'obbligo in questa circostanza :

http://www.agrivideo.it/volpe-uva/img-vu/volpe-uva-big.gif

Ad ogni modo Nvidia non ha niente da qui fino all'uscita di G300.
Lo sa lei, lo sapiamo noi, lo sanno anche i sassi.
Quindi piuttosto che rimanere zitti, preferiscono aprire bocca e dire 4 *bip* che non interessa a nessuno. Ma almeno dicono qualcosa e quindi rimangono "visibili". Spingono la baracca con quel poco che hanno.

Origami
25-09-2009, 10:34
Quel logo è la prova che nvidia ha sganciato soldi alle SH, nn che queste lo abbiano messi li per fargli un favore. E del resto ati copre un terzo del mercato, una SH che nn la rendesse compatibile quanto la nvidia andrebbe verso il suicido commerciale

JohnPetrucci
25-09-2009, 10:34
per me il punto è un altro...

a me Physx va bene e sono contento che ci sia, perchè? perchè i giochi mi piacciono soprattutto per la grafica, sono uno di quelli che si è sempre esaltato per l'alta definizione e cose simili, da quando ho visto il mio primo film in bluray non riesco più a farne a meno, tutti gli "effettini" che per molti sono inutili in quanto non aggiungono niente al "gameplay" per me invece sono goduria infinita.

per me il gameplay è l'insieme di tutto un gioco, grafica compresa al 100%, mirror's edge giocato senza physx dal mio punto di vista, perde metà delle emozioni che trasmette giocato con l'opzione attivata.

sarò emotivo io, cosa volete che vi dica, non mi interessa se è ATI o NVIDIA o INTEL o buonanima di 3dFX ad aver la possibilità di riprodurre un gioco con il numero più elevato di effetti grafici-fisici & affini, l'importante è che ci siano!

mi fa piacere leggere che anche ATI può fare quello che fa NVIDIA ora con physx, anche con havok affidando i calcoli alla CPU...
BENISSIMO dico io, PERFETTO, FANTASTICO, ma PER ADESSO mi pare che per avere i miei amati effettini in più mi tocca sborsare dineri a favore delle verdognole di Santa Clara...

quindi la palla ad ATI & NVIDIA, quella di voi che mi regalerà le emozioni grafiche migliori mi avrà come cliente!

saluto
Siamo in due.;)

Raven
25-09-2009, 10:35
Considerando la potenza attuale di marketing di nvidia nel mondo gaming (i titoli "importanti" sono quasi tutti "marchiati" nvidia) può invece riuscire ad imporsi, secondo me, col physix...

Oggi il mondo è marketing, per cui... :O

luX0r.reload
25-09-2009, 10:35
se col pc ci lavori nn credo che ti pigli gt200 per fare encoding video... :rolleyes:
... io non ho parlato di lavorare... magari dovresti considerare anche gli hobby:rolleyes:

||ElChE||88
25-09-2009, 10:36
Havok è in giro da un pò.
E ripeto, può fare TUTTO quello che fa PhysX ora. Sulla CPU.
Appunto... però la CPU non è adatta per alcuni tipi di calcoli , quindi finché quelli di Havok non si decidono di supportare il GPU computing c'è poco da fare.
Ovviamente si potrebbe rinunciare a questi "effetti", ma poi si torna al discorso di prima.
thx 4 the info! prenderò nota del tuo spessore tecnico :asd:
Ottima argomentazione vedo... sai, è piuttosto evidente che sono sparate da fanboy. ;)

TheDarkAngel
25-09-2009, 10:36
Vedo che non hai capito, anche tu accecato dalla voglia di sottolineare che A è meglio di B probabilmente non hai letto attentamente quello che si stava dicendo.

Non metto in dubbio che la serie 5000 abbia ora migliori performance delle controparti nVidia (siano esse dx7 o dx10/11). Il mio discorso verte sul valore aggiunto che può dare ORA il supporto alle DX11 :rolleyes:

Io son un consumatore, guardo quello che mi si offre a parità di prezzo, altro non mi interessa.
Tornando IT, la stereoscopia la conosco dagli anni 80, fa semplicemente RIBREZZO, PhysX è una patacca, primo perchè il componente più sfruttato durante il gioco è la scheda video, secondo è una tecnologia destinata a morire (anzi sarebbe già morta) sull'altare della standarizzazione. Aggiungo anche che abilitanto physix il frame rate precipita fortemente a fronte di effettini stupidi ed inutili, batman ne è l'esempio principe!


Ottima argomentazione vedo... sai, è piuttosto evidente che sono sparate da fanboy. ;)

Thx for the info! 2 la vendetta :asd:

Razer(x)
25-09-2009, 10:37
Devo dire che mi fa ridere un sacco la gente. Siamo a 4 pagine di 3d ed i commenti obiettivi sono stati quanti? 3?

Ognuno ha le proprie sacrosante idee, ma dire che Ati sta avanti e Nvidia non ha risorse quando il G300 deve ancora uscire mi pare decisamente stupido.

Goofy Goober
25-09-2009, 10:38
discorso condivisibile al 101%.

mi fa piacere che qualcuno condivida punti di vista semplici e pratici come il mio :)

per me i giochi devono essere divertenti, se sono belli da vedere ma mi fanno 2 OO così e rischio che mi scambino con una mongolfiera se li possono pure tenere

se mi piace la grafica 3d mi sparo in serie tutti i filmati della blizzard da w3 a oggi

come dicevo sono punti di vista, molti amici giocano ancora con la PSX e si diverton come 10 anni fa con Colin McRae Rally, e per l'oro l'HD non è altro che l'ultimo ritrovato tecnologico che non interessa perchè troppo costoso. condivido il loro punto di vista, anche perchè sono appassionati ad altro magari.

tu giustamente preferisci il divertimento che trasmette un gioco, sono d'accordo per molti giochi, conta più il divertimento.
se possibile io preferisco il divertimento ASSOCIATO alla superba grafica il più dettagliata e curata e "sbarluccicante di effettini" possibile.
se devo scegliere, spesso mi capita la seconda opzione...

non mi nascondo dietro a un muro quando dico che avevo la 4870X2, ma appena ho captato una possibilità di rivendita a buon prezzo senza perderci troppo, mi son preso al volo la 295GTX, per giocare a Mirror's Edge.

se mi definite fanboy allora non ho ben chiaro io cosa significhi... se uno passa dal top di gamma di ATI al top di gamma NVIDIA, cosa è?? BISEXFANBOY?? :D :D :D

JohnPetrucci
25-09-2009, 10:39
io non la trovo morta e sepolta la PhysX...è vero che anche ATI ce l'ha e soprattutto è "libera" pero' mi chiedo se avete notato che logo esce all'inizio di ogni gioco....bravi viene fuori NVIDIA
...ATI puo' avere tutte le tecnologie più fiche di questo mondo ma se le software house sviluppano principalmente per nvidia o cmq con la sua partnership il risultato purtroppo è già scontato
...vi siete mai chiesti perchè le ati con alcuni giochi danno un sacco di grane? e necessitano sempre di driver adhoc...o patch successive al rilascio del gioco? ad esempio GTA4, i filmati di residentevil 5, NFS shift che scatta con pc ultra pompati e la lista potrebbe continuare.

non fraintendetemi non è una critica ad ATI che dobbiamo solo ringraziare per gli ottimi prodotti e per far abbassare il prezzo delle nvidia e rendere il mercato piu competitivo...è solo una questione di soldi e di investimenti a livello commerciale. Purtroppo al momento è NVIDIA che comanda
Purtroppo è vero Nvidia condiziona parecchie software house verso il proprio orticello, ma è anche vero che Ati potrebbe impegnarsi di più a rilasciare driver periodici magari beta in modo da tamponare tempestivamente certe situazioni, anzichè attendere un mese mediamente solo per puntare alla release definitiva.

DjLode
25-09-2009, 10:41
Appunto... però la CPU non è adatta per alcuni tipi di calcoli , quindi finché quelli di Havok non si decidono di supportare il GPU computing c'è poco da fare.
Ovviamente si potrebbe rinunciare a questi "effetti", ma poi si torna al discorso di prima.


Parliamone. Le cpu sono molto più general porpouse delle GPU quindi trovare calcoli non adatti per una cpu è un pò difficile.
Forse volevi dire che le GPU su alcuni tipi di calcoli sono più veloci (con software adatto) delle CPU sullo stesso tipo di calcoli.
Sono due cose ben differenti :)

JohnPetrucci
25-09-2009, 10:42
Considerando la potenza attuale di marketing di nvidia nel mondo gaming (i titoli "importanti" sono quasi tutti "marchiati" nvidia) può invece riuscire ad imporsi, secondo me, col physix...

Oggi il mondo è marketing, per cui... :O
Quoto in pieno, non è una bella situazione ma è la triste realtà.
Ati di fatto viene ancora messa in secondo piano sotto questo punto di vista, proprio perchè non "compra" chi produce software per le sue schede, come fa la furbastra di Nvidia, ovviamente ciò dipende dalla quantità di soldi che si investono in marketing.

luX0r.reload
25-09-2009, 10:44
Io son un consumatore, guardo quello che mi si offre a parità di prezzo, altro non mi interessa.
Tornando IT, la stereoscopia la conosco dagli anni 80, fa semplicemente RIBREZZO, PhysX è una patacca, primo perchè il componente più sfruttato durante il gioco è la scheda video, secondo è una tecnologia destinata a morire sull'altare della standarizzazione. Aggiungo anche che abilitanto physix il frame rate precipita fortemente a fronte di effettini stupidi ed inutili, batman ne è l'esempio principe!



Thx for the info! 2 la vendetta :asd:
I tuoi discorsi non mi sembrano da consumatore, altrimenti dovresti considerare nel rapporto prezzo/prestazioni anche il valore aggiunto che da la scheda ed in particolare in questo caso il supporto software alla scheda, e mi sembra che da questo lato (parlo di drivers) nVidia si anni luce avanti.
Quando con una nuova versione di drivers si introducono miglioramenti prestazionali enormi (vedi la serie big bang) e, pur non cambiando scheda (si parla delle 8800 che hanno tre anni), ti ritrovi un valore aggiunto (gratis) come Physx, penso ci sia poco da pensare.

Per chiudere... a Batman ci gioco a 1680x1050 con tutti i dettagli al max (filtri esclusi) e physx attivato con la mia vetusta 8800GT e seppur si perda in frames, il gioco rimane più che giocabile.

Origami
25-09-2009, 10:44
nn scadiamo nei commenti personali.... nvidia fa il suo lavoro e cerca di restare a capo del mercato. e del resto fa ottime schede, spesso le migliori, anche se negli ultimi anni ati ha guidato il settore prezzo-prestazioni (imho). anche ati potrebbe dedicare piu soldi al marketing se volesse, ma non vuole.... il tempo dirrà quale delle due filosofie è la migliore, ammesso che nn siano semplicemente due modi diversi di operare

||ElChE||88
25-09-2009, 10:46
Tornando IT, la stereoscopia la conosco dagli anni 80, fa semplicemente RIBREZZO
Evidentemente continui a conoscere la stereoscopia degli anni 80, perché quella di ora ha fatto dei grandi passi avanti.
PhysX è una patacca, primo perchè il componente più sfruttato durante il gioco è la scheda video
Si, GTA IV ad esempio... :asd:
secondo è una tecnologia destinata a morire (anzi sarebbe già morta) sull'altare della standarizzazione.
Questo me lo auguro anche io, però mi sembra difficile (finche NVIDIA continua a "sponsorizzare" giochi).
Aggiungo anche che abilitanto physix il frame rate precipita fortemente a fronte di effettini stupidi ed inutili, batman ne è l'esempio principe!
Benissimo... tu non abilitare PhysX e goditi pure gli FPS in più, ma io che ho una scheda video di fascia alta capace di far girare giochi + PhysX a framerate alti perché dovrei rinunciarci?
Gli effetti che tu ritieni "stupidi e inutili" a me interessano... poi nel caso di Batman non hai proprio di che lamentarti, visto che puoi disabilitarli quando ti pare.
Thx for the info! 2 la vendetta :asd:
CVD. ;)

saeba77
25-09-2009, 10:49
il bello è che quando NVIDIA uscirà con directx11 pomperà la cosa come se fosse solo lei ad averla...tutto questo grazie a una rete commerciale e di marketing fantastica...
...è anche vero pero' che se all'inizio la odiavo perchè aveva fatto morire la mitica 3dfx (vabbè l'ha assorbita ma questo è un altro discorso) ora ne apprezzo i prodotti...
quindi tornando alla news...ben vengano PhysX e la stereoscopia (anche se questa è proprio il culmine della pagliacciata commerciare)

||ElChE||88
25-09-2009, 10:50
Parliamone. Le cpu sono molto più general porpouse delle GPU quindi trovare calcoli non adatti per una cpu è un pò difficile.
Forse volevi dire che le GPU su alcuni tipi di calcoli sono più veloci (con software adatto) delle CPU sullo stesso tipo di calcoli.
Sono due cose ben differenti :)
Si, è esattamente quel che volevo dire ("non adatti"non mi sembra tanto sbagliato come termine, mica vuol dire che non possono girare :fagiano:).
Computazione vettoriale, calcolo in virgola mobile... c'è una differenza di prestazioni enormi con le CPU.

MadJackal
25-09-2009, 10:53
Appunto... però la CPU non è adatta per alcuni tipi di calcoli , quindi finché quelli di Havok non si decidono di supportare il GPU computing c'è poco da fare.
Ovviamente si potrebbe rinunciare a questi "effetti", ma poi si torna al discorso di prima.

Ma hai ragione nel dire che per certi calcoli le CPU (x86) non vanno benissimo.
Il problema è che ora PhysX non fa nulla di diverso da quanto "sappiano" e possano fare le CPU. Quindi rimane solo Marketing.

Ci facessero qualcosa di figo come nelle prime tech demo di Ageia, tra fluidi e quant'altro... Finchè rimangono fogli per aria e qualche effetto sul fumo, beh.

La versione OpenCL di Havok dovrebbe arrivare dopo che AMD/ATI avrà finito di sottoporre il suo SDK al Khronos Group (questioni di standard), IIRC.

windowistaxcaso
25-09-2009, 10:53
marketing nvidia o dici sul serio? :mbe:
No perchè la fisica esiste dall'alba dei tempi e non serviva certo quella patacca di physix e la stereoscopia come concepita da nvidia è la solita con gli occhialini che ci propinano dagli anni 80, figurati che l'avevo già con la geforce1!
Quindi prima di dire "Credo che dovreste rendervi conto di persona di cosa si parli prima di aprire bocca" dovresti accertarti di sapere qualcosa :asd:

Ma l'hai provato il 3D Vision? Non penso proprio sennò non scriveresti "la stereoscopia come concepita da nvidia è la solita con gli occhialini che ci propinano dagli anni 80, figurati che l'avevo già con la geforce1"

Non lo dico io,
leggi qua: http://www.everyeye.it/pc/articoli/nvidia-3d-vision_hands-on_10181

"Il materiale protagonista dell’appuntamento si mantiene ovviamente solo come un lontano parente di ciò che era stato in principio il 3D, pur se confrontato con le più recenti produzioni del genere. I nuovi studi operati dalla nota azienda hanno dato frutti concreti tali che, da qualche mese, in tutti i negozi è possibile equipaggiarsi - ma soprattutto godere - di un formato che sicuramente potrebbe fungere da apripista per inedite esperienze da qui in avanti.
In termini di resa visiva, l’opportunità conferitaci è stata senza dubbio utile per spazzare via qualunque sentore negativo dovuto a incertezza o diffidenza. Il 3D Vision è una produzione massiccia. Affinché capissimo l’entità dell’imminente presentazione, Nvidia ha pensato bene dapprima di illustrare il vecchio supporto 3D visionabile con i canonici occhialini a lente bipolare rossa e blu, e solo successivamente, a confronto della medesima grafica, ha svelato il 3D Vision, esibendo finalmente la potenza degli occhiali stereoscopici fonte di grande stupore e curiosità nel pubblico presente. C’è da dire che l’impatto è notevole: dove infatti la vecchia tecnologia falliva, ovvero nei confronti di un deleterio snaturamento dei colori, 3D Vision eccelle, sfoggiando prestazioni di livello in quasi tutti i comparti e senza perdite cromatiche"

Severnaya
25-09-2009, 10:54
... io non ho parlato di lavorare... magari dovresti considerare anche gli hobby:rolleyes:


il mio scetticismo è dato dal fatto che nn ho mai "percepito" questa diffusione dell'encoding dvd, quando si parla di schede video si usano altri parametri di misura e questo, francamente, nn l'ho mai visto usare :mbe:

nn metto indubbio l'utilità ma il fatto che questo ambito sia una nicchia che in quanto tale nn "fa testo" nella misura che si vuol dare all'importanza di una feature

Goofy Goober
25-09-2009, 10:54
quindi tornando alla news...ben vengano PhysX e la stereoscopia (anche se questa è proprio il culmine della pagliacciata commerciare)

un problema della stereoscopia che la fa passare sul serio come pagliacciata è che richiedere davvero troppo impegno economico da parte dell'utente per avere un riscontro positivo... ed inoltre penalizza veramente troppo allo stato attuale le prestazioni del gioco, se ne parla partendo da un QUADSLI di 295 oggi per godersi qualcosa in stereoscopia full hd... quindi mettendoci il monitor da 120hz, il costo è lievitato fortemente...

per me resta cmq poco interessante, in quanto è troppo scomoda da usare se si han già gli occhiali da vista :mc: :mc: :mc: :muro: :muro: :muro:

saeba77
25-09-2009, 10:59
un problema della stereoscopia che la fa passare sul serio come pagliacciata è che richiedere davvero troppo impegno economico da parte dell'utente per avere un riscontro positivo... ed inoltre penalizza veramente troppo allo stato attuale le prestazioni del gioco, se ne parla partendo da un QUADSLI di 295 oggi per godersi qualcosa in stereoscopia full hd... quindi mettendoci il monitor da 120hz, il costo è lievitato fortemente...

per me resta cmq poco interessante, in quanto è troppo scomoda da usare se si han già gli occhiali da vista :mc: :mc: :mc: :muro: :muro: :muro:

d'accordissimo e poi da quello che leggevo non ci si riesce a giocare per molto...causa mal di testa o peggio....pero' non avendola provata di persona non posso parlare più di tanto

TheDarkAngel
25-09-2009, 11:00
Evidentemente continui a conoscere la stereoscopia degli anni 80, perché quella di ora ha fatto dei grandi passi avanti.

talmente tanti che servono ancora gli occhialini e servono ancora 120hz, cosa è cambiato in 25 anni? nulla... e non uscire con: "ora gli occhialini hanno tecnologie diverse" perché il risultato non cambia


Si, GTA IV ad esempio... :asd:

che esempio :sbonk:



Benissimo... tu non abilitare PhysX e goditi pure gli FPS in più, ma io che ho una scheda video di fascia alta capace di far girare giochi + PhysX a framerate alti perché dovrei rinunciarci?
Gli effetti che tu ritieni "stupidi e inutili" a me interessano... poi nel caso di Batman non hai proprio di che lamentarti, visto che puoi disabilitarli quando ti pare.

Non cambia il gameplay, hanno un forte impatto sulle prestazioni(eh e poi vedi l'esempione di gta4 :asd: ), sono fruibili solo su una scheda, gli effetti introdotti sono estremamente marginali esistono tecnologie che fanno lo stesso da una vita e sono molto meno pesanti, e poi non dovrei definire patacca physix? è nata per marketing e morirà di marketing
Almeno in hl2 serviva a qualcosa e non c'era physix :asd:


CVD. ;)
Sisi cvd cvd :asd:

luX0r.reload
25-09-2009, 11:10
il mio scetticismo è dato dal fatto che nn ho mai "percepito" questa diffusione dell'encoding dvd, quando si parla di schede video si usano altri parametri di misura e questo, francamente, nn l'ho mai visto usare :mbe:

nn metto indubbio l'utilità ma il fatto che questo ambito sia una nicchia che in quanto tale nn "fa testo" nella misura che si vuol dare all'importanza di una feature
Ma come non fa testo? Ma scusa secondo te tutti i video che vedi nel web sono stati concepiti già compressi ed ottimizzati per la rete? :mbe:
Ah, ah... si vede che non sei del settore. E per questo ti perdono :sofico:

calabar
25-09-2009, 11:12
@luX0r.reload
A proposito di encoding video ti invito a leggere questo (http://www.tomshw.it/graphic.php?guide=20090616) interessante articolo di Tom's, illuminante, anche se le conclusioni appaiono un po' di parte...

PS: la serie Big Bang non è proprio l'esempio più calzante qundo si citano miglioramenti nei driver. Nvidia ha avuto significativi incrementi prestazionali certo, come ATI del resto, ma in occasioni differenti.
Anche per i driver, la tua idea che quelli nvidia siano più stabili e migliori mi fa pensare che non utilizzi una scheda ati da tempo.
L'unica pecca che si può in effetti rimarcare è, come sottolineava JohnPetrucci, la necessità di attendere un po', in alcune occasioni, l'uscita di una versione di driver che fixi un problema con un nuovo gioco, sempre legata alla questione del "logo nvidia" in gran parte dei titoli in uscita. C'è però da dire che non si attende mai un mese, escono sempre le releare beta nel periodo intermedio e hotfix in altre occasioni.

Per il discorso DX11, sinceramente non condivido l'opinione dei detrattori.
Non tutti cambiano scheda ogni 6 mesi, e dovendo acquistare ora ti assicuri una certa longevità del prodotto per una feature che comunque verrà ampiamente supportata in futuro (e qualcosina nel presente, c'è una lista di giochi inuscita a breve per cui le dx11 costituiranno comunque un valore aggiunto, un po' come phisix ora).

||ElChE||88
25-09-2009, 11:12
talmente tanti che servono ancora gli occhialini e servono ancora 120hz, cosa è cambiato in 25 anni? nulla... e non uscire con: "ora gli occhialini hanno tecnologie diverse" perché il risultato non cambia
Ovviamente parli senza averlo provato... eh, ma a che serve averlo provato. L'ha detto il cuggino del maggiordomo del cognato che fa schifo quindi deve per forza fare schifo. :O
che esempio :sbonk:
Non cambia il gameplay, hanno un forte impatto sulle prestazioni(eh e poi vedi l'esempione di gta4 :asd: ), sono fruibili solo su una scheda, gli effetti introdotti sono estremamente marginali esistono tecnologie che fanno lo stesso da una vita e sono molto meno pesanti
A parte che sei riuscito persino a non capire il mio esempio precedente (che diamine c'entra GTA? Era solo un esempio di gioco che stupra la CPU, mica usa PhysX - che io sappia), le tecnologie che te chiami meno pesanti continuano a non essere in grado di far girare alcuni effetti.
Finché si parla di fogli volanti sono d'accordo, ma se inizi a far calcolare fumo volumetrico, effetti particellari & co. alla CPU... ci sarà un "notevole" (~200 FPS :asd:) calo di framerate.
e poi non dovrei definire patacca physix? è nata per marketing e morirà di marketing
Cosa che, ripeto, mi auguro anche io. Però finche è l'unica alternativa è meglio di niente. Per me.
Sisi cvd cvd :asd:
:D

Severnaya
25-09-2009, 11:24
Ma come non fa testo? Ma scusa secondo te tutti i video che vedi nel web sono stati concepiti già compressi ed ottimizzati per la rete? :mbe:
Ah, ah... si vede che non sei del settore. E per questo ti perdono :sofico:


io li immagino che appena è uscita physics si sono ucciso per andarsi a prendere una scheda nvidia -_-'

ndrmcchtt491
25-09-2009, 11:24
Secondo me PhysX e la tecnologia stereo sarà il futuro, vabbè forse il 3d no, ma giocar a un titolo e distruggere tutto(intendo proprio tutto) mi intrippa e non poco,quelli che dicono che lo stereo 3d è una tecnologia vecchia,rispondo che (esempio) anche la televisione o la auto sono tecnologie risalenti a inizio secolo scorso(le auto) o da 80anni in circolazione(le tv), fate un paragone tra un lcd con tecnologia led e una tv anni 50... un ABISSO

TheDarkAngel
25-09-2009, 11:29
Ovviamente parli senza averlo provato... eh, ma a che serve averlo provato. L'ha detto il cuggino del maggiordomo del cognato che fa schifo quindi deve per forza fare schifo. :O

Quella che mi propinano al cinema è meglio o peggio di quella nvidia :asd:? Credi gli occhialini dolby siano peggiori? Credi ci sia una grande differenza con gli occhialini che avevo con la geffo1? No non spenderò centinaia di euro per provare la soluzione nvidia che è sempre e dico sempre la stessa cosa.
Almeno parliamo di stereoscopia quando NON ci sarà più l'obbligo degli occhialini prima non ha nemmeno senso dire ancora una parola. Mi avessi almeno parlato dei display autostereoscopici -.-"


A parte che sei riuscito persino a non capire il mio esempio precedente (che diamine c'entra GTA? Era solo un esempio di gioco che stupra la CPU, mica usa PhysX - che io sappia), le tecnologie che te chiami meno pesanti continuano a non essere in grado di far girare alcuni effetti.
Finché si parla di fogli volanti sono d'accordo, ma se inizi a far calcolare fumo volumetrico, effetti particellari & co. alla CPU... ci sarà un "notevole" (~200 FPS :asd:) calo di framerate.

Era una battuta su gta4, stupra la cpu, richiede 2gb di memoria video, però cambiando scheda video i frame a parità di sistema aumentano lo stesso. Aggiungo che come gioco è davvero fatto con i piedi questo l'ho provato se ti preme tanto la cosa :asd:
Fumo volumetrico, effetti particellari ecc ecc tutte cose viste solo con physix vero? Anche physix ho provato, avevo una 8800gt e puoi controllare sul mercatino di hwupgrade per trovare la vendita.


Cosa che, ripeto, mi auguro anche io. Però finche è l'unica alternativa è meglio di niente. Per me.

l'alternativa c'è già, nvidia ha sovvenzionato per far usare la sua tecnologia e basta

Pat77
25-09-2009, 11:36
Io dico solo che Physx che tanto si critica ha comunque prodotto maggiori differenze palpabili e reali di un'intera api come dx10 e dx11.
Inoltre progetteranno una Gpu nuova, non adatteranno l'esistente a dx11 magari concentrando un maggior numero di sp e transistor.
Considerando l'ultima nuova architettura, G80, cos'era rispetto alla vecchia, non è che mi preoccupi molto.

Pr|ckly
25-09-2009, 11:58
Ma hai ragione nel dire che per certi calcoli le CPU (x86) non vanno benissimo.
Il problema è che ora PhysX non fa nulla di diverso da quanto "sappiano" e possano fare le CPU. Quindi rimane solo Marketing.

Ci facessero qualcosa di figo come nelle prime tech demo di Ageia, tra fluidi e quant'altro... Finchè rimangono fogli per aria e qualche effetto sul fumo, beh.

Ma che vai dicendo?
Solo perchè non vedi qualcosa di figo stai sostenendo che i calcoli mossi da Physx ad oggi siano gestibili da una CPU?
Ma perfavore, è la dimostrazione che valutate un prodotto per quello che mostra, non per quello che realmente fa dietro le quinte.

Severnaya
25-09-2009, 11:59
ma anche a livello di pfs...

DjLode
25-09-2009, 12:02
Di fatto c'è un solo gioco nuovo con PhysX on GPU, Batman, e la fisica è rigorosamente non interattiva.

Il problema è quello. E ovviamente non è colpa di Nvidia visto che lei il supporto lo da. Il problema nasce secondo me più dal fatto di voler proporre (non so se dai produttori o da Nvidia) giochi con il supporto a Physx a tutti i costi. Così si aggiungono un pò di particelle, un pò di rottami che cascano e un pò di fumo. Tutto rigorosamente non interattivo. Quindi di fatto inutile ai fini di gameplay. Per me inutile quindi in senso generale. A quanto pare a qualcuno invece sta bene così :)

Pr|ckly
25-09-2009, 12:04
Secondo me PhysX e la tecnologia stereo sarà il futuro, vabbè forse il 3d no, ma giocar a un titolo e distruggere tutto(intendo proprio tutto) mi intrippa e non poco

Red Faction.
Lo compri e distruggi di tutto. E non c'è nessun bisogno di Physx.
Non serve certo tale tecnologia per avere la fisica in un vg, forse non avete ancora capito cosa fa realmente Physx ma sopratutto come lo fa in maniera differente rispetto alla gestione classica.

Pr|ckly
25-09-2009, 12:06
Com'è essere vittime del marketing?

Com'è non aver capito nulla dei post altrui?

Pr|ckly
25-09-2009, 12:15
O la frase l'hai scritta male o significa che non si può far girare la fisica efficacemente se non su GPU, cosa evidentemente e dimostratamente falsa.

Il contrario, ma a differenza di quello che vedi dietro non c'è lo stesso calcolo.
Io odio Physx e lo voglio morto ma il GPGPU è il futuro.
Ora c'è gente che vede due teli muoversi in Mirror Edge e si lamenta chiedendosi come mai era possibile fare la stessa cosa 10 anni fa in Hitman senza bisogno di Physx.

Ci facessero qualcosa di figo come nelle prime tech demo di Ageia, tra fluidi e quant'altro... Finchè rimangono fogli per aria e qualche effetto sul fumo, beh

Per rendersi conto che il calcolo che c'è alle spalle (anche se due teli o un rigagnolo di acqua) non è gestibile da una CPU devono per forza vedere gli effetti fighi a schermo?

gabi.2437
25-09-2009, 12:27
Se non sono fighi gli effetti, scusa ma che senso ha buttar su milioni di calcoli quando poi il risultato effettivo non è poi quel granchè? :D

Per il resto, se si fa una fisica gestita sia dalle ATI che dalle NVIDIA ok, ma finchè mamma nvidia continua a spingere sul SUO physx, beh, che se lo tenga :fagiano:

devAngnew
25-09-2009, 12:28
Facciamo un pò di chiarezza (non ho letto tutti i post quindi scusate se ripeto cose già dette)

Allora Physics non è un api come DX10 DX11 o Opengl ma un motore per la gestione della fisica (quindi simile ad Havock di intel) Nvidia avendo acquistato la società Ageia ha convertito tale motore di modo che usi CUDA (simile ad OpenCL) per eseguire eventualmente i calcoli su gpu (ricordo che physics usa anche la cpu per i suoi calcoli).

I produttori di videogiochi quindi sono liberi (finanze permettendo) di creare un motore fisico exnovo tipo la crytek oppure si affidano a motori già pronti come Physics, havock , newton ecc per i loro prodotti.

Ora per coloro a cui fà tanto schifo physics di nvidia ricordo che essendo proprietà di quest'ultima lo sponsorizza come vuole e avendo investito anche tanto cerca di far usare solo le sue gpu per l'accellerazione poi se vedrà che il suo prodotto perderà terreno sono certo che convertirà il tutto in OpenCL e cosi potrà continuare a vendere licenze del suo motore fisico.

;)

luX0r.reload
25-09-2009, 12:31
Di fatto c'è un solo gioco nuovo con PhysX on GPU, Batman, e la fisica è rigorosamente non interattiva.
Non direi proprio... l'ultimo brothers in arms con Physx attivo ti permette di distruggere e penetrare anche i muri se si continua a sparare a lungo.
I proiettili distruggono il legno... quando ci sono dei bombardamenti e si è in un luogo chiuso ci sono i detriti che cadono dal tetto ed alzano pulviscoli, etc, etc.
E' vero che attivando physx si perde una manciata di fps, ma sinceramente, visto anche la leggerezza del titolo in questione, preferisco passare da 80fps a 70fps e godermi il gioco così come è stato concepito e senza "menomazioni".

Pr|ckly
25-09-2009, 12:37
Se non sono fighi gli effetti, scusa ma che senso ha buttar su milioni di calcoli quando poi il risultato effettivo non è poi quel granchè? :D

Arriverà il giorno in cui implementeranno il tutto in relazione al gameplay e ne vedremo delle belle. Per ora sono effetti senza fine ma anche se paiono insignificanti o identici a quelli che vedevamo 10 anni fa non sono assolutamente gli stessi.
Con la GPGPU si fanno calcoli fisici in realtime su fluidi e solidi che non sono assolutamente quelli di 10 anni fa, anche se magari l'effetto finale non dice molto.

Per il resto, se si fa una fisica gestita sia dalle ATI che dalle NVIDIA ok, ma finchè mamma nvidia continua a spingere sul SUO physx, beh, che se lo tenga :fagiano:

Appunto, io non ho nVidia e odio Physx in quanto esclusiva. Speriamo che OpenCL prenda piede e si imponga come standard.
Però attenzione, prendersela con l'esclusiva è una cosa, paragonare ciò che fa tale tecnologia con la gestione della fisica "moderna" è una piccola bestemmia.

poi se vedrà che il suo prodotto perderà terreno sono certo che convertirà il tutto in OpenCL e cosi potrà continuare a vendere licenze del suo motore fisico.

Mah, dubito. A dire il vero nemmeno so se si possa fare.
Comunque sia Ati che nVidia supportano OpenCL tramite driver.
http://www.tomshw.it/news.php?newsid=18531

luX0r.reload
25-09-2009, 12:37
Invece è semplice. nVidia paga. Lo sviluppatore aggiunge. Ora visto che in media lo sviluppatore è abbastanza intelligente da sapere che se fa un gameplay basato sulla fisica taglia fuori tutti i possessori di VGA non nVidia, decide di non farlo, oppure lo fa ma usando il middleware per la fisica così come era nato, cioè su CPU.

Con la traduzione in OpenCL di Havok lo sviluppatore se ne fregherà ancora di più, perché potrà fare entrambe le cose e su qualunque hardware che voglia essere compliant, cioè tutto quello nuovo, visto che nVidia non può farne a meno.

A quel punto lo sviluppatore dovrà scegliere fra un middleware che va per tutti e uno che va solo per nVidia. Ergo: PhysX è morto.
... la tecnologia 3dfx non mi sembra fosse supportata da tutti eppure non mi sembra sia nata morta. Ha contribuito a far crescere il 3d e ad oggi dobbiamo ringraziare la loro tecnologia perchè ha spinto i produttori di altre schede a puntare sugli effetti 3d in hardware.

I soliti discorsi che "nVidia paga per..." non aggiungono niente di nuovo, perchè tutti i settori in questo mondo funzionano così.

Lo sta facendo ora nVidia... ma se la posizione predominante l'avesse avuta ATI avrebbe fatto la stessa cosa. Spingere il proprio prodotto il più possibile... è la legge di mercato, se non ti adegui è giusto che tu sia out:read:

DjLode
25-09-2009, 13:06
Non direi proprio... l'ultimo brothers in arms con Physx attivo ti permette di distruggere e penetrare anche i muri se si continua a sparare a lungo.
I proiettili distruggono il legno... quando ci sono dei bombardamenti e si è in un luogo chiuso ci sono i detriti che cadono dal tetto ed alzano pulviscoli, etc, etc.

Aspetta. Tralasciando i detriti e il pulviscolo alzato che sono un mero effetto estetico. Se io in BIA ho davanti un edificio dove non è stato previsto l'ingresso, attivando Physx e usando un RPG, posso sfondare il muro ed entrare? Perchè così facendo potrei crearmi una copertura non prevista e quindi un modo diverso di concludere un livello.
Altrimenti se la distruzione è fine a se stessa, non sto dicendo che non sia bella e appagante da vedere, ma la reputo assolutamente inutile ai fine del gameplay.
In HL2 per raggiungere alcuni posti bisognava giocare con le leve, con la pistola gravitazionale potevo staccare i termosifoni dai muri o usare una cassa come arma. Ecco cosa intendo (con due esempi molto semplici) con fisica interattiva e non fine al pure "godimento" visivo...

DjLode
25-09-2009, 13:11
... la tecnologia 3dfx non mi sembra fosse supportata da tutti eppure non mi sembra sia nata morta. Ha contribuito a far crescere il 3d e ad oggi dobbiamo ringraziare la loro tecnologia perchè ha spinto i produttori di altre schede a puntare sugli effetti 3d in hardware.


Non era nata morta ma è morta lo stesso. A quei tempi i passi tecnologici nel campo della grafica erano più lenti, ora una gpu dura 6 mesi, una versione di DX un anno a dire tanto.
Le Glide se supportate portavano un reale vantaggio tangibile da subito sul resto della concorrenza. Poi MS è scesa pesantemente in campo e abbiamo tutti davanti agli occhi cosa questo ha portato.
Volenti o nolenti nel campo video ludico gli standard li fa MS, ha tutti i produttori ai suoi piedi (e collabora con questi produttori perchè sono linfa vitale per poter proporre sia gli standard di cui sopra, sia i suoi sistemi). Finchè lavorano bene cosa stanno facendo ora, lunga vita...
Una tecnologia (Physx) che ha contro due avversari, uno open (OpenCL) e uno (credo) closed (Direct Computer), a quanto? Un anno dalla nascita? Bhè è sintomo di questo progresso. Sinceramente non so chi vincerà ma ho dubbi pesanti su Physx :)

Severnaya
25-09-2009, 13:17
Poi MS è scesa pesantemente in campo e abbiamo tutti davanti agli occhi cosa questo ha portato.


Me la ricordo Microsoft nel 94

"Se anche a te un'IT così com'è nn piace vota anche tu Forza Microsoft! ! ! CRIBIO! ! !"


:asd:

Pat77
25-09-2009, 13:24
Bhe calma, una Gpu ti dura anche 3 anni, le 8800 vanno ancora alla grande con tutto, e se dx11 sarà come dx10, come penso, visto che di nuove console per ora non se ne vedono all'orizzonte, resterà un plus che ti dimezza il frame rate per qualche insignificante variazione cromatica.

Io lo dico sempre, magari un Ep3 con engine della portata del Source ai tempi, visto che Carmack con Rage è restato ancorato alle sue tecnologie, ricordo rigorosamente dx9, e considerando che Valve è molto spostata sul supporto di Ati, così come Blizzard, ma che curiosamente non ha ancora annunciato nulla oltre dx9, potrebbe realmente cambiare tutto, anche in ambito fisica opencl, il che crerebbe un precedente, o almeno un divario tecnico, in grado di rendere l'ambito Pc nuovamente interessante oltre The Sims e Wow.

luX0r.reload
25-09-2009, 13:26
Aspetta. Tralasciando i detriti e il pulviscolo alzato che sono un mero effetto estetico. Se io in BIA ho davanti un edificio dove non è stato previsto l'ingresso, attivando Physx e usando un RPG, posso sfondare il muro ed entrare? Perchè così facendo potrei crearmi una copertura non prevista e quindi un modo diverso di concludere un livello.
Altrimenti se la distruzione è fine a se stessa, non sto dicendo che non sia bella e appagante da vedere, ma la reputo assolutamente inutile ai fine del gameplay.
In HL2 per raggiungere alcuni posti bisognava giocare con le leve, con la pistola gravitazionale potevo staccare i termosifoni dai muri o usare una cassa come arma. Ecco cosa intendo (con due esempi molto semplici) con fisica interattiva e non fine al pure "godimento" visivo...
Si ho capito cosa intendi, ma questo dipende da quanto gli sviluppatori integreranno Physx nel gameplay. Siamo agli inizi, e sinceramente quello che ho visto in Brother in arms mi lascia ben sperare per un innalzamento del livello di utilizzo nei giochi. Le potenzialità ci sono, bisognerà vedere quanto i produttori siano disposti ad investire in physx sapendo di poter perdere poi una buona fetta di potenziali acquirenti (utenti ATI) del loro prodotto.
E dipende anche dal supporto e dalla semplicità di programmazione di OpenCL... l'sdk per cuda è ben fatto ed è semplice da usare... chi vivrà vedrà, ma non mi si venga a dire che Physx è una stronzata solo perchè l'ha fatta nVidia e chi lo dice è un possessore di ATI.

DjLode
25-09-2009, 13:30
Schi vivrà vedrà, ma non mi si venga a dire che Physx è una stronzata solo perchè l'ha fatta nVidia e chi lo dice è un possessore di ATI.

Io ti posso dire che non è una stronzata l'idea, ma per ora le implementazioni lasciano un pò a desiderare. Ma come detto, la colpa non è di Nvidia (o almeno non dal punto di vista tecnologico ma forse da quello di spingere i produttori ad implementare la tecnologia anche senza reale beneficio).

psychok9
25-09-2009, 13:40
Per quando uscirà GT300 mi aspetto un raffinamento della 5870...(->5890?) quindi occhio che ad aspettare non si compra mai (anche perché se aspetti poi uscirà magari una 6xxx :D, insomma non ha molto senso), e inoltre se se ne escono con una gpu DX10.1 nel 2010, se la posson tenere...
Le DX11 sono un buon valore aggiunto per chiunque non ha voglia di cambiare scheda video ogni 2 minuti.
Al momento ATi ha ripreso la corona del mercato, poi chi vivrà vedrà.

p.s. La fisica di Physx rimarrà sempre inutile ai fini del gameplay, per un semplice motivo: darebbe svantaggi a chi non supporta physx... e quindi non ha nemmeno senso, è puro marketing.
Se invece nVidia si decidesse a collaborare per dare supporto all'OpenCL, avremmo dopo pochi anni i primi giochi che girano solo su schede OpenCL, ma con una fisica che influenza anche il gameplay.

MadJackal
25-09-2009, 13:45
Io dico solo che Physx che tanto si critica ha comunque prodotto maggiori differenze palpabili e reali di un'intera api come dx10 e dx11.
Inoltre progetteranno una Gpu nuova, non adatteranno l'esistente a dx11 magari concentrando un maggior numero di sp e transistor.
Considerando l'ultima nuova architettura, G80, cos'era rispetto alla vecchia, non è che mi preoccupi molto.

Per nulla. E' solo che te le stanno buttando in faccia: marketing.
Le cose che si fanno ora con PhysX sono in giro da tempo. :doh:

Di fatto c'è un solo gioco nuovo con PhysX on GPU, Batman, e la fisica è rigorosamente non interattiva.

Tra l'altro, non so se qualcuno ha in mente il nuovo Red Faction, in relazione allo spaccare tutto.
Usa PhysX? No. Havok. :asd:

psychok9
25-09-2009, 13:49
Per nulla. E' solo che te le stanno buttando in faccia: marketing.
Le cose che si fanno ora con PhysX sono in giro da tempo. :doh:
Tra l'altro, non so se qualcuno ha in mente il nuovo Red Faction, in relazione allo spaccare tutto.
Usa PhysX? No. Havok. :asd:

Ma è ovvio perché altrimenti venderesti molte meno copie del gioco! O daresti eccessivi vantaggi di gameplay a chi ha una scheda piuttosto che l'altra... :muro:
Tecnologia nata morta...

TheDarkAngel
25-09-2009, 13:50
Per nulla. E' solo che te le stanno buttando in faccia: marketing.
Le cose che si fanno ora con PhysX sono in giro da tempo. :doh:



Tra l'altro, non so se qualcuno ha in mente il nuovo Red Faction, in relazione allo spaccare tutto.
Usa PhysX? No. Havok. :asd:

se per questo c'era già in redfaction 1 ed è uscito quando questi aborti del marketing non erano nemmeno immaginabili :asd:

Pat77
25-09-2009, 14:15
Per nulla. E' solo che te le stanno buttando in faccia: marketing.
Le cose che si fanno ora con PhysX sono in giro da tempo.


Il mio sistema ha 2 anni per la cronaca e non ho assolutamente stimoli a cambiarlo, certo il nuovo alienware 15 mi stuzzica, ma costicchia.
Detto questo a me del marketing in se non interessa, io guardo concretamente, e concretamente le differenze apportate dal supporto della fisica via Gpu sono più importanti di quelle che ho visto dal passaggio da dx9 a dx10, quei pochi titoli che le supportano.
Che poi, si può fare tutto con Havok via Cpu, è possibile, perdendo poco o nulla, ma semplicemente non viene fatto, almeno per ora, restando un po' nel limbo e nell'inutile.
Detto questo io scelgo Nvidia proprio per il supporto che ha nei giochi, che ammetto sia forzato, Amd potrebbe fare le stesse cose, ma questa politica fa avere meno problemi a me negli stessi e a volte rende qualcosa in più.

RageFactory®
25-09-2009, 14:15
Innanzitutto non sono un fanboy di nvidia o ati.
Ho avuto 295gtx, 4870x2, 4850 e gtx 260.
Devo dire che attualmente tutte le schede video pari o superiori a una ati 4850,
permettono di giocare quasi a dettagli massimi, qualisiasi gioco (crysis a parte).
Ora ati e nvidia fanno a gara per sfornare schede video sempre piu potenti, in grado di
fare sempre piu fps. Sinceramente pero' non vedo l'utilita' di cambiare scheda video se un titolo
mi gira a 150+ fps...
Invece e' interessante il discorso di cosa, oltre a fps, una scheda video puo' offrire.
Nvidia ultimamente sta 'perdendo' tempo su tecnologie quali fisica e 3d, secondo me fa bene.
Ho deciso di dare fiducia a nvidia e ho acquistato kit 3d (lcd 120hz + occhialini).
I risultato e' eccellente.
In breve: i giochi sono supportati quasi tutti in modo eccelso, perdita di fotogrammi a 3d attivato minima.
Gli occhialini hanno una frequenza di refresh altissima, quindi non si vedono sfarfallamenti come un tempo
e niente senso di nausea, indossandoli si perde pochissima luminosita nell'immagine.
In pratica, rispetto al 3d di qualche anno fa, ora siamo veramente a livelli ottimi!
Ho provato: batman arkhman, resident evil5, gears of war, prototype, fallout3, timeshift, aion,
e sono PERFETTI!
Giocandoli in 3d e poi rimettendoli in 2d, vi chiederete:
come ho fatto fino ad oggi a giocare in 2d??!
+1 per nvidia che non punta solo a vendere fotogrammi per secondo...

MadJackal
25-09-2009, 14:21
Il mio sistema ha 2 anni per la cronaca e non ho assolutamente stimoli a cambiarlo, certo il nuovo alienware 15 mi stuzzica, ma costicchia.
Detto questo a me del marketing in se non interessa, io guardo concretamente, e concretamente le differenze apportate dal supporto della fisica via Gpu sono più importanti di quelle che ho visto dal passaggio da dx9 a dx10, quei pochi titoli che le supportano.
Che poi, si può fare tutto con Havok via Cpu, è possibile, perdendo poco o nulla, ma semplicemente non viene fatto, almeno per ora, restando un po' nel limbo e nell'inutile.
Detto questo io scelgo Nvidia proprio per il supporto che ha nei giochi, che ammetto sia forzato, Amd potrebbe fare le stesse cose, ma questa politica fa avere meno problemi a me negli stessi e a volte rende qualcosa in più.

Dimmi quali sono le differenze che hai visto ed in quali giochi, così parliamo di fatti concreti.
Io ho visto solo qualche effetto particellare in più, cose fattibilissime e fatte in altri giochi (vedi il fumo che si sposta in WIC).

Mentre con Havok ci fanno i mondi distruttibili o quasi, su CPU. :rolleyes:

Pat77
25-09-2009, 14:24
Innanzitutto non sono un fanboy di nvidia o ati.
Ho avuto 295gtx, 4870x2, 4850 e gtx 260.
Devo dire che attualmente tutte le schede video pari o superiori a una ati 4850,
permettono di giocare quasi a dettagli massimi, qualisiasi gioco (crysis a parte).
Ora ati e nvidia fanno a gara per sfornare schede video sempre piu potenti, in grado di
fare sempre piu fps. Sinceramente pero' non vedo l'utilita' di cambiare scheda video se un titolo
mi gira a 150+ fps...
Invece e' interessante il discorso di cosa, oltre a fps, una scheda video puo' offrire.
Nvidia ultimamente sta 'perdendo' tempo su tecnologie quali fisica e 3d, secondo me fa bene.
Ho deciso di dare fiducia a nvidia e ho acquistato kit 3d (lcd 120hz + occhialini).
I risultato e' eccellente.
In breve: i giochi sono supportati quasi tutti in modo eccelso, perdita di fotogrammi a 3d attivato minima.
Gli occhialini hanno una frequenza di refresh altissima, quindi non si vedono sfarfallamenti come un tempo
e niente senso di nausea, indossandoli si perde pochissima luminosita nell'immagine.
In pratica, rispetto al 3d di qualche anno fa, ora siamo veramente a livelli ottimi!
Ho provato: batman arkhman, resident evil5, gears of war, prototype, fallout3, timeshift, aion,
e sono PERFETTI!
Giocandoli in 3d e poi rimettendoli in 2d, vi chiederete:
come ho fatto fino ad oggi a giocare in 2d??!
+1 per nvidia che non punta solo a vendere fotogrammi per secondo...

Io ho provato in un media world fallout 3 con il 3d abilitato e mi sono sorpreso della qualità, non credevo, o quel gioco rende alla grandissima, o nei campi aperti funziona egregiamente.

Goofy Goober
25-09-2009, 14:35
Innanzitutto non sono un fanboy di nvidia o ati.
Ho avuto 295gtx, 4870x2, 4850 e gtx 260.
Devo dire che attualmente tutte le schede video pari o superiori a una ati 4850,
permettono di giocare quasi a dettagli massimi, qualisiasi gioco (crysis a parte).
Ora ati e nvidia fanno a gara per sfornare schede video sempre piu potenti, in grado di
fare sempre piu fps. Sinceramente pero' non vedo l'utilita' di cambiare scheda video se un titolo
mi gira a 150+ fps...
Invece e' interessante il discorso di cosa, oltre a fps, una scheda video puo' offrire.
Nvidia ultimamente sta 'perdendo' tempo su tecnologie quali fisica e 3d, secondo me fa bene.
Ho deciso di dare fiducia a nvidia e ho acquistato kit 3d (lcd 120hz + occhialini).
I risultato e' eccellente.
In breve: i giochi sono supportati quasi tutti in modo eccelso, perdita di fotogrammi a 3d attivato minima.
Gli occhialini hanno una frequenza di refresh altissima, quindi non si vedono sfarfallamenti come un tempo
e niente senso di nausea, indossandoli si perde pochissima luminosita nell'immagine.
In pratica, rispetto al 3d di qualche anno fa, ora siamo veramente a livelli ottimi!
Ho provato: batman arkhman, resident evil5, gears of war, prototype, fallout3, timeshift, aion,
e sono PERFETTI!
Giocandoli in 3d e poi rimettendoli in 2d, vi chiederete:
come ho fatto fino ad oggi a giocare in 2d??!
+1 per nvidia che non punta solo a vendere fotogrammi per secondo...

dai test che avevo visto in una recensione del 3D Stereoscopico sembrava invece che l'impatto sulle prestazioni fosse rilevante anche con schede potenti...

tu ne hai 2 in quadsli di 295? il monitor quale è?

Pr|ckly
25-09-2009, 14:37
Le cose che si fanno ora con PhysX sono in giro da tempo. :doh:

Beata ignoranza.
Ma è sempre perchè guardi all'effetto finale e non ti sforzi a capire cosa c'è dietro.

Tra l'altro, non so se qualcuno ha in mente il nuovo Red Faction, in relazione allo spaccare tutto.
Usa PhysX? No. Havok. :asd:

Non è GPGPU, è una gestione della fisica diversa, sono calcoli diversi.
I calcoli previsti dal GPGPU sono altamente paralleli, impossibili da gestire per una CPU.

http://it.wikipedia.org/wiki/GPGPU

ndrmcchtt491
25-09-2009, 14:47
Red Faction.
Lo compri e distruggi di tutto. E non c'è nessun bisogno di Physx.
Non serve certo tale tecnologia per avere la fisica in un vg, forse non avete ancora capito cosa fa realmente Physx ma sopratutto come lo fa in maniera differente rispetto alla gestione classica.


Ciao, red factor sinceramente non so che titolo sia, comunque ho appena provato la demo di batman.Il gioco non mi interessa e l' ho provato solo per prevare l' impatto prestazionale sulla mia 9600gt, risultato?le prestazioni sono decadute attivando PhysX, ma neanche piu di tanto(1280*1024 TUTTO:eek: al max tranne l' AA al 2x(stavo costantemente tra i 50fps di max e i 25fps di min),è vero non è tanto, ma chi avrà una configura più pompata della mia non avrà problemi(almeno con 1 vga nvidia)
Tornando sui giochi in generale l' unico che ho provato in cui si puo realmente sfasciar tutto è Faces of War(trapassi le costruzioni con i carri da parte a parte sia con i proiettili perforanti, sia con il carro stesso e con i proiettili esplosivi "smonti" le costruzioni pezzo dopo pezzo(in Company of Heroes non puoi passare con i carri dove c' erano le costruzioni e con Crysis alcune cose non le tiri giù neanche con una atomica)
Quanto a Brothers in Arms HH e Airborn(usano come in batman l' Unreal Engin 3)non ho notato NESSUNA differenza con PhysX su on nel pannello di controllo(in Airborn tutto è indistruttibile, in Brothers in Arm HH solo ALCUNE cose, non tutto si puo distruggere indipendentemente da PhysX abilitata o no)

:sofico: :sofico: :sofico:

gabi.2437
25-09-2009, 14:47
Facciamo un pò di chiarezza (non ho letto tutti i post quindi scusate se ripeto cose già dette)

Allora Physics non è un api come DX10 DX11 o Opengl ma un motore per la gestione della fisica (quindi simile ad Havock di intel) Nvidia avendo acquistato la società Ageia ha convertito tale motore di modo che usi CUDA (simile ad OpenCL) per eseguire eventualmente i calcoli su gpu (ricordo che physics usa anche la cpu per i suoi calcoli).

I produttori di videogiochi quindi sono liberi (finanze permettendo) di creare un motore fisico exnovo tipo la crytek oppure si affidano a motori già pronti come Physics, havock , newton ecc per i loro prodotti.

Ora per coloro a cui fà tanto schifo physics di nvidia ricordo che essendo proprietà di quest'ultima lo sponsorizza come vuole e avendo investito anche tanto cerca di far usare solo le sue gpu per l'accellerazione poi se vedrà che il suo prodotto perderà terreno sono certo che convertirà il tutto in OpenCL e cosi potrà continuare a vendere licenze del suo motore fisico.

;)

E io che compro i giochi avrò pure il diritto di volere motori fisici accelerati da TUTTE le schede video no?

luX0r.reload
25-09-2009, 14:49
Dimmi quali sono le differenze che hai visto ed in quali giochi, così parliamo di fatti concreti.
Io ho visto solo qualche effetto particellare in più, cose fattibilissime e fatte in altri giochi (vedi il fumo che si sposta in WIC).

Mentre con Havok ci fanno i mondi distruttibili o quasi, su CPU. :rolleyes:
Ma pensi che havok sia più potente di Physx?!?!?:rolleyes:
La verità è che le case produttrici hanno limitato l'uso di Physx sui loro prodotti per non far incaxxare i possessori di schede ATI.

Se Havok continua a lavorare solo su CPU, tra qualche anno sarà morto.
I calcoli particellari dei giochi moderni e futuri richiederanno sempre più risorse... è logico quindi pensare ad uno spostamento di tali calcoli sulla gpu che è decine di volte superiore alla cpu (già una scheda 8500 supera di gran lunga in questo tipo di calcoli la più veloce cpu odierna).

Io spero vivamente in un ottimo supporto OpenCL, di modo che possa scegliere di comprare indifferentemente ATI o nVidia, ma indubbiamente nVidia si sta muovendo meglio, sia commercialmente sia tecnologicamente;)

luX0r.reload
25-09-2009, 14:51
Ciao, red factor sinceramente non so che titolo sia, comunque ho appena provato la demo di batman.Il gioco non mi interessa e l' ho provato solo per prevare l' impatto prestazionale sulla mia 9600gt, risultato?le prestazioni sono decadute attivando PhysX, ma neanche piu di tanto(1280*1024 TUTTO:eek: al max tranne l' AA al 2x(stavo costantemente tra i 50fps di max e i 25fps di min),è vero non è tanto, ma chi avrà una configura più pompata della mia non avrà problemi(almeno con 1 vga nvidia)
Tornando sui giochi in generale l' unico che ho provato in cui si puo realmente sfasciar tutto è Faces of War(trapassi le costruzioni con i carri da parte a parte sia con i proiettili perforanti, sia con il carro stesso e con i proiettili esplosivi "smonti" le costruzioni pezzo dopo pezzo(in Company of Heroes non puoi passare con i carri dove c' erano le costruzioni e con Crysis alcune cose non le tiri giù neanche con una atomica)
Quanto a Brothers in Arms HH e Airborn(usano come in batman l' Unreal Engin 3)non ho notato NESSUNA differenza con PhysX su on nel pannello di controllo(in Airborn tutto è indistruttibile, in Brothers in Arm HH solo ALCUNE cose, non tutto si puo distruggere indipendentemente da PhysX abilitata o no)

:sofico: :sofico: :sofico:
... perchè Physx la devi abilitare anche ingame agendo sui file ini e non solo da pannello di controllo:D

n.b. La fisica non è solo il "tutto è distruttibile"... quello dipende dalle scelte degli sviluppatori ;)

MadJackal
25-09-2009, 14:58
Beata ignoranza.
Ma è sempre perchè guardi all'effetto finale e non ti sforzi a capire cosa c'è dietro.

Non è GPGPU, è una gestione della fisica diversa, sono calcoli diversi.
I calcoli previsti dal GPGPU sono altamente paralleli, impossibili da gestire per una CPU.

http://it.wikipedia.org/wiki/GPGPU

Indubbiamente non è la stessa cosa.
L'ho anche scritto, lo so.

Il problema è che PhysX non può essere usato per dare qualcosa in più ai giochi di quanto non ne dia già Havok. Per problemi di vendite.

Ma pensi che havok sia più potente di Physx?!?!?:rolleyes:
La verità è che le case produttrici hanno limitato l'uso di Physx sui loro prodotti per non far incaxxare i possessori di schede ATI.

Se Havok continua a lavorare solo su CPU, tra qualche anno sarà morto.
I calcoli particellari dei giochi moderni e futuri richiederanno sempre più risorse... è logico quindi pensare ad uno spostamento di tali calcoli sulla gpu che è decine di volte superiore alla cpu (già una scheda 8500 supera di gran lunga in questo tipo di calcoli la più veloce cpu odierna).

Io spero vivamente in un ottimo supporto OpenCL, di modo che possa scegliere di comprare indifferentemente ATI o nVidia, ma indubbiamente nVidia si sta muovendo meglio, sia commercialmente sia tecnologicamente;)

Non penso che Havok sia più potente di PhysX.
Penso che PhysX sia una tecnologia nata morta, e lo dici anche tu quando affermi "le case produttrici hanno limitato l'uso di Physx sui loro prodotti per non far incaxxare i possessori di schede ATI".
Produrre un gioco che va solo su NVIDIA è infatti un suicidio commerciale.

Le prime dimostrazioni di Havok su OpenCL risalgono a marzo 2009, quindi direi che ci stanno lavorando - e come ho già detto la cosa più bella è che ha quanto pare la cosa è trasparente, quindi i calcoli leggeri verranno assegnati alla CPU (gli "effettini") e quelli più pesanti alla GPU. ;)
AMD/ATI non è indietro. Fa meno marketing... Qui scommetto c'è ancora chi crede che il GPGPU l'ha inventato NVIDIA :rolleyes:

luX0r.reload
25-09-2009, 15:02
Indubbiamente non è la stessa cosa.
L'ho anche scritto, lo so.

Il problema è che PhysX non può essere usato per dare qualcosa in più ai giochi di quanto non ne dia già Havok. Per problemi di vendite.



Non penso che Havok sia più potente di PhysX.
Penso che PhysX sia una tecnologia nata morta, e lo dici anche tu quando affermi "le case produttrici hanno limitato l'uso di Physx sui loro prodotti per non far incaxxare i possessori di schede ATI".
Produrre un gioco che va solo su NVIDIA è infatti un suicidio commerciale.

Le prime dimostrazioni di Havok su OpenCL risalgono a marzo 2009, quindi direi che ci stanno lavorando - e come ho già detto la cosa più bella è che ha quanto pare la cosa è trasparente, quindi i calcoli leggeri verranno assegnati alla CPU (gli "effettini") e quelli più pesanti alla GPU. ;)
AMD/ATI non è indietro. Fa meno marketing... Qui scommetto c'è ancora chi crede che il GPGPU l'ha inventato NVIDIA :rolleyes:
Nessuno ha detto che il gpgpu l'ha inventato nvidia... ma sicuramente il suo sdk è il migliore di quelli che ci sono in giro.

Se physx è nata morta si vedrà più avanti... tutto dipende dalle vendite di schede nVidia rispetto a quelle ATI.
L'aspetto commerciale potrebbe essere l'unico neo della tecnologia physx, anche perchè tutti sanno che una gestione gpgpu dedicata ed ottimizzata per un determinato hardware è più performante di uno standar open come può essere OpenCL

MadJackal
25-09-2009, 15:21
Nessuno ha detto che il gpgpu l'ha inventato nvidia... ma sicuramente il suo sdk è il migliore di quelli che ci sono in giro.

Se physx è nata morta si vedrà più avanti... tutto dipende dalle vendite di schede nVidia rispetto a quelle ATI.
L'aspetto commerciale potrebbe essere l'unico neo della tecnologia physx, anche perchè tutti sanno che una gestione gpgpu dedicata ed ottimizzata per un determinato hardware è più performante di uno standar open come può essere OpenCL

Indubbiamente, lo stream SDK manca di documentazione a livello di quella di CUDA tra le altre cose.

Per non essere un suicidio l'utilizzo di PhysX, NVIDIA dovrebbe avere almeno l'80% del mercato video discreto. Io la vedo dura, non ha superato il 60% nemmeno ai tempi delle 8800 se non sbaglio.

Certamente un approccio Close To Metal (vediamo chi coglie il riferimento :asd:) è più ottimizzato di quanto ne sia uno generico... Ma il problema è tutto nel supporto e nella convenienza delle case produttrici di videogiochi.
Il neo principale di PhysX, comunque, è che per scelta di NVIDIA non è portabile... A causa di (o grazie a) CUDA.
E IMHO, se non lo portano su OpenCL morirà molto presto proprio per questo motivo.

ndrmcchtt491
25-09-2009, 15:35
... perchè Physx la devi abilitare anche ingame agendo sui file ini e non solo da pannello di controllo:D

n.b. La fisica non è solo il "tutto è distruttibile"... quello dipende dalle scelte degli sviluppatori ;)


NOOOOOOOOO!!!!
Questa (veramente, sono serio) non la sapevo...
Grazie per la dritta, stase se non ho niente da fare provo a smanettare con i file ini(o a smadonnare...), tanto prendo come es. Batman che ha lo stesso motore grafico di Airborn e HH,quanto sul tutto è distruttibile ai ragione, io intendevo anche effetti aggiuntivi:doh: :doh: :doh:

RageFactory®
25-09-2009, 15:37
Io con una gtx 275, uso il 3d vision attivo e gioco a circa 80+fps a tutti i giochi
che ho elencato sopra. Facendo benchmark con 3d mark 2006, con stereoscopico disattivato
faccio circa 22.000 punti, con stereoscopico attivo faccio 18.000 punti.
Non e' una grossa perdita di fps.
Le recensioni dicono perdita del 50% dei fotogrammi, ma non e' vero.

Goofy Goober
25-09-2009, 15:44
Io con una gtx 275, uso il 3d vision attivo e gioco a circa 80+fps a tutti i giochi
che ho elencato sopra. Facendo benchmark con 3d mark 2006, con stereoscopico disattivato
faccio circa 22.000 punti, con stereoscopico attivo faccio 18.000 punti.
Non e' una grossa perdita di fps.
Le recensioni dicono perdita del 50% dei fotogrammi, ma non e' vero.

il monitor che usi qual'è?

luX0r.reload
25-09-2009, 15:53
Altra vittima del marketing.

In Brother in Arms PhysX gira su CPU, non su GPU.
Beh certo... ecco perchè nel DVD ci sono i drivers Physx e durante l'installazione te li fa installare :D

RageFactory®
25-09-2009, 15:58
il samsung del kit

Pat77
25-09-2009, 16:12
il samsung del kit

Ma Fallout 3 come ti va? L'effetto rende così anche negli altri titoli da te elencati?

luX0r.reload
25-09-2009, 16:12
Certo, perché secondo te quindi se installi PhysX significa che va su GPU, mentre se non lo installi se lo inventa direttamente la CPU? :asd:

Che poi non si voglia cedere nemmeno di fronte all'evidenza è abbastanza ridicolo, è nVidia che lo scrive espressamente sul suo sito ai link che ho postato poco sopra. Poi se preferisci non crederci per motivi tuoi fai pure, non mi pagano per raccontare boiate, cosa che forse tu non puoi dire :asd:
http://www.tomshardware.com/reviews/hollywood-gaming-effects,2068-10.html

Poi basta che vai sul sito nVidia...
http://www.nzone.com/object/nzone_physxgames_all.html

Quelli con il loghetto sulla destra supportano l'accellerazione Physx via hardware.

Non ti pagano per dire boiate ma fin'ora non hai postato nessun link dove si legge che il gioco in questione supporta la physx tramite cpu... a differenza mia che ti ho fornito due link dove c'è scritto che è supportato in hardware, tanto che nel primo link si parla espressamente della tecnologia CUDA.

Non sarebbero necessari neanche i link, perchè non ho mai visto un gioco che ti installa i drivers Physx (quelli di nVidia) se poi non li usa. Mah...

Ah... ancora

"Già nella conferenza nVision08 nVidia aveva annunciato Physx in BIAHH:

...anche Gearbox Software incorporerà il supporto per la tecnologia NVIDIA PhysX nei suoi imminenti titoli Borderlands, Aliens: Colonial Marines e Brothers in Arms: Hell's Highway.

"Stiamo sostenendo unilateralmente l'accelerazione attraverso la tecnologia PhysX NVIDIA per i nostri giochi 3D: Brothers in Arms, Aliens: Colonial Marines e Borderlands," afferma Corrinne Yu, Director of Platform Technology at Gearbox Software. "Andando in avanti, acquista significato rafforzare l'architettura parallela inerente di NVIDIA GPU per la fisica. Questo abilita l'accelerazione di GPU per tutto dalla collisione del corpo rigido, la fisica di veicolo, collisione con pezzi distruttibili e numerosi effetti di simulazione. I giocatori saranno capaci di sperimentare caratteri, oggetti ed effetti che dinamicamente si muovono ed interagiscono nei loro ambienti così come fanno nella vita reale."

Ciao, ciao

leoneazzurro
25-09-2009, 16:30
Siete pregati cortesemente di smetterla con i flame fini a sè stessi.

Comunque, luxor, nei ufficiali Nvidia che hai messo, Brothers in Arms non appare, e in questo link:

http://www.nzone.com/object/nzone_physxgames_home.html

che rappresenta la lista dei titoli specificatamente accelerati da GPU, nemmeno c'è. Physx non è solo accelerazione via GPU, è un middleware che può girare anche su CPU (e basta dare un'occhiata alla presenza di Xbox360 nelle liste per capirlo).

luX0r.reload
25-09-2009, 16:38
Siete pregati cortesemente di smetterla con i flame fini a sè stessi.

Comunque, luxor, nei ufficiali Nvidia che hai messo, Brothers in Arms non appare, e in questo link:

http://www.nzone.com/object/nzone_physxgames_home.html

che rappresenta la lista dei titoli specificatamente accelerati da GPU, nemmeno c'è. Physx non è solo accelerazione via GPU, è un middleware che può girare anche su CPU (e basta dare un'occhiata alla presenza di Xbox360 nelle liste per capirlo).
... beh i flames non si sarebbero scatenati se fosse stato più educato e non avesse detto che dico "boiate".

Comunque la lista completa non è quella che hai postato tu... è quella che ho postato io. I link precedenti avvalorano la mia tesi.

Physx per Ageia era un middleware, e poteva girare in emulazione software tramite il solito wrapper.
ll Physx di nVidia è solo per schede nVidia, infatti i drivers Physx non si installano su vga ATI, ergo se durante l'installazione viene installato significa che verrà usato.
Comunque chiudo qua... a riprova di quel che affermo riguardatevi il mio post precedente con tanto di fonti veritiere.

Ciao

Dylan BJ
25-09-2009, 16:43
A me sembra che Ati solo dopo un anno sia riuscita ad avere prestazioni al pari di Nvidia, gloria che rimarra' tale pro-forma (2titoli dx11 in uscita?) e un G300 che fa paura all'orizzonte.... :)

devAngnew
25-09-2009, 16:54
cut
........
Mah, dubito. A dire il vero nemmeno so se si possa fare.
Comunque sia Ati che nVidia supportano OpenCL tramite driver.
http://www.tomshw.it/news.php?newsid=18531


Non c'è niente da dubitare CUDA non è altro che un "dialetto di OpenCL".


E io che compro i giochi avrò pure il diritto di volere motori fisici accelerati da TUTTE le schede video no?

Certamente che ne hai diritto però Physics è di nvidia e ne fà ciò che vuole...
;)

Foglia Morta
25-09-2009, 16:55
... beh i flames non si sarebbero scatenati se fosse stato più educato e non avesse detto che dico "boiate".

Comunque la lista completa non è quella che hai postato tu... è quella che ho postato io. I link precedenti avvalorano la mia tesi.

Physx per Ageia era un middleware, e poteva girare in emulazione software tramite il solito wrapper.
ll Physx di nVidia è solo per schede nVidia, infatti i drivers Physx non si installano su vga ATI, ergo se durante l'installazione viene installato significa che verrà usato.
Comunque chiudo qua... a riprova di quel che affermo riguardatevi il mio post precedente con tanto di fonti veritiere.

Ciao

nella lista che hai linkato non vedo il titolo di cui parli :confused:

luX0r.reload
25-09-2009, 17:05
nella lista che hai linkato non vedo il titolo di cui parli :confused:
Ah, ah... avevo postato il link sbagliato, hanno ragione se vengo picchiato:D
Ho corretto il post... il link con la lista completa è questo

http://www.nzone.com/object/nzone_physxgames_all.html

;)

devAngnew
25-09-2009, 17:08
Siete pregati cortesemente di smetterla con i flame fini a sè stessi.

Comunque, luxor, nei ufficiali Nvidia che hai messo, Brothers in Arms non appare, e in questo link:

http://www.nzone.com/object/nzone_physxgames_home.html

che rappresenta la lista dei titoli specificatamente accelerati da GPU, nemmeno c'è. Physx non è solo accelerazione via GPU, è un middleware che può girare anche su CPU (e basta dare un'occhiata alla presenza di Xbox360 nelle liste per capirlo).

Scusami leoneazzurro conviene usare la lista completa ........ :asd:

http://www.nzone.com/object/nzone_physxgames_all.html

TheDarkAngel
25-09-2009, 17:10
Ah, ah... avevo postato il link sbagliato, hanno ragione se vengo picchiato:D
Ho corretto il post... il link con la lista completa è questo

http://www.nzone.com/object/nzone_physxgames_all.html

;)

For a list of PC PhysX titles that exclusively take advantage of hardware GPU-accelerated PhysX CLICK HERE. (http://www.nzone.com/object/nzone_physxgames_home.html)

devAngnew
25-09-2009, 17:15
Comunque come già ribadito da Ratatosk ed altri Physics non può essere usato in maniera massiccia nei titoli per ovvi motivi (specialmente se deve influire sul game play) e cioè si dovrebbe tagliare la fetta di mercato che ha acquistato schede video ATI, le console Xbox 360, e PS3.

MadJackal
25-09-2009, 17:33
Ah, ah... avevo postato il link sbagliato, hanno ragione se vengo picchiato:D
Ho corretto il post... il link con la lista completa è questo

http://www.nzone.com/object/nzone_physxgames_all.html

;)

For a list of PC PhysX titles that exclusively take advantage of hardware GPU-accelerated PhysX CLICK HERE. (http://www.nzone.com/object/nzone_physxgames_home.html)

Già il problema è questo. :asd:
L'altro è che come già detto il codice del driver x86 di PhysX non usa nulla di più se non il normale assembly x86. Niente MMX, SSE o quant'altro. Altrimenti certi effettucci andrebbero full-speed anche senza una scheda video NVIDIA.

E poi non si poteva sparare attraverso i muri già in CoD4?
Forse anche prima.

mirkonorroz
25-09-2009, 17:33
Buona cosa la fisica, tranne i muri distruttibili che si distruggono in "mattoni" perfetti o, a volte, la presenza di oggetti fuori luogo che sembrano essere li', ripetitivamente, solo per test.
Che gli artisti non pensino di dormire sugli allori, mi raccomando :)

luX0r.reload
25-09-2009, 17:40
Già il problema è questo. :asd:
L'altro è che come già detto il codice del driver x86 di PhysX non usa nulla di più se non il normale assembly x86. Niente MMX, SSE o quant'altro. Altrimenti certi effettucci andrebbero full-speed anche senza una scheda video NVIDIA.

E poi non si poteva sparare attraverso i muri già in CoD4?
Forse anche prima.
Si è vero... ma bisogna vedere poi come sono implementate le conseguenze che si hanno sparando ad un muro piuttosto che ad un pezzo di legno...il numero di particelle utilizzate per rendere questi effetti.
Da questo penso dipenda la scelta di usare la gpu invece che la cpu.
Mi ricordo qualche tempo fa una tech demo... mi sembra Cryostasis. Ora lasciando perdere la qualità del gioco, ma la tech demo mostrava proprio la differenza di velocità usando la gpu invece che la cpu per calcolare in realtime il movimento dei fluidi, etc

leoneazzurro
25-09-2009, 18:09
Scusami leoneazzurro conviene usare la lista completa ........ :asd:

http://www.nzone.com/object/nzone_physxgames_all.html

For a list of PC PhysX titles that exclusively take advantage of hardware GPU-accelerated PhysX CLICK HERE. (http://www.nzone.com/object/nzone_physxgames_home.html)

La lista che ho linkato io, come dice correttamente TheDarkAngel, é quella interessante per l´accelerazione via GPU: l´altra lista, infatti, é quella dei giochi che utilizzano in generale il middleware Physx, che peró nella maggior parte dei casi gira sulla CPU.

TheDarkAngel
25-09-2009, 18:12
La lista che ho linkato io, come dice correttamente TheDarkAngel, é quella interessante per l´accelerazione via GPU: l´altra lista, infatti, é quella dei giochi che utilizzano in generale il middleware Physx, che peró nella maggior parte dei casi gira sulla CPU.

e possiamo pure dopo tutta questa discussione metterci una pietra sopra a physix, aborto del marketing

MadJackal
25-09-2009, 18:15
Si è vero... ma bisogna vedere poi come sono implementate le conseguenze che si hanno sparando ad un muro piuttosto che ad un pezzo di legno...il numero di particelle utilizzate per rendere questi effetti.
Da questo penso dipenda la scelta di usare la gpu invece che la cpu.
Mi ricordo qualche tempo fa una tech demo... mi sembra Cryostasis. Ora lasciando perdere la qualità del gioco, ma la tech demo mostrava proprio la differenza di velocità usando la gpu invece che la cpu per calcolare in realtime il movimento dei fluidi, etc

Infatti ad esempio per i fluidi il calcolo tramite GPU è molto più utile di quanto sia quello convenzionale tramite CPU, sono d'accordo. La stessa Ageia tempo fa aveva sparato un demo con liquido che usciva da dei barili a cui sparavano... ;)

Il problema è che allo stato attuale non lo useranno mai, perchè l'ambito in cui PhysX può essere usato è oltremodo limitato, ed il suo uso attuale (attuale, non possibile) è identico a quello del già troppe volte citato Havok on CPU.
Esclusi i giochi tech demo tipo appunto Cryostasis.

devAngnew
25-09-2009, 18:24
Comunque come già ribadito da Ratatosk ed altri Physics non può essere usato in maniera massiccia nei titoli per ovvi motivi (specialmente se deve influire sul game play) e cioè si dovrebbe tagliare la fetta di mercato che ha acquistato schede video ATI, le console Xbox 360, e PS3.

Infatti ad esempio per i fluidi il calcolo tramite GPU è molto più utile di quanto sia quello convenzionale tramite CPU, sono d'accordo. La stessa Ageia tempo fa aveva sparato un demo con liquido che usciva da dei barili a cui sparavano... ;)

Il problema è che allo stato attuale non lo useranno mai, perchè l'ambito in cui PhysX può essere usato è oltremodo limitato, ed il suo uso attuale (attuale, non possibile) è identico a quello del già troppe volte citato Havok on CPU.
Esclusi i giochi tech demo tipo appunto Cryostasis.

Il problema non è che Physics sia limitato è una questione solo commerciale,
come da me e da altri ribadito.
;)

gabi.2437
25-09-2009, 19:08
Se Physx sarà accelerato da TUTTE le GPU allora avrà finalmente la sua piena realizzazione.

Ma adesso o fai un gioco NVIDIA Only, e allora lo usi per gameplay etc etc... ma oltre ad attirarti le ire di mezzo mondo, è un suicidio, oppure rimane per forza confinato all'ambito estetico

MadJackal
25-09-2009, 22:35
Il problema non è che Physics sia limitato è una questione solo commerciale,
come da me e da altri ribadito.
;)

E' limitato, da un punto di vista tecnico: non gira su tutti gli hardware.
E non è una limitazione da poco, eh. :rolleyes:

BaZ....!!!!
25-09-2009, 22:47
io mi ricordo PainKiller con Havock 2.0 su CPU che sbudellamenti :asd:
le esplosioni poi, non scappava niente, tutto quello che era nel "campo di esplosione" o comunque sollecitato, si spostava.... ai tempi non ci si faceva caso ci si divertiva ma ora che c'è la fissa della "fisica" quando ci rigioco ci do parecchia attenzione ;)

devAngnew
25-09-2009, 23:41
E' limitato, da un punto di vista tecnico: non gira su tutti gli hardware.
E non è una limitazione da poco, eh. :rolleyes:

Come già ribadito da altri e da me Physics è di nvidia e ne fà ciò che vuole .

;)

ndrmcchtt491
26-09-2009, 07:49
E come ribadito da tutti gli altri il mercato non si adeguerà a quello che nVidia vuole e PhysX morirà ;)


...Secondo me il mercato si adeguerà eccome, figuriamoci se le case di videogiochhi non implementa PhysX nei loro prodotti,arriva Nvidia e gli offre una certa somma per il logo sulla scatola, ma se c'è il logo nvidia sulla scatola ci sarà anche PhysX(non solo sulla scatola visto che PhysX è di Nvidia), quindi...

é solo logica di mercato, non scelte (ti pago, ti sponsorizzo, ma in cambio usi QUELLO che dico io...)

E non c'è niente che impedisca Nvidia di far così(come fa AMD d' altronde, come fanno tutti):read: :read: :read:

TheDarkAngel
26-09-2009, 08:52
...Secondo me il mercato si adeguerà eccome, figuriamoci se le case di videogiochhi non implementa PhysX nei loro prodotti,arriva Nvidia e gli offre una certa somma per il logo sulla scatola, ma se c'è il logo nvidia sulla scatola ci sarà anche PhysX(non solo sulla scatola visto che PhysX è di Nvidia), quindi...

é solo logica di mercato, non scelte (ti pago, ti sponsorizzo, ma in cambio usi QUELLO che dico io...)

E non c'è niente che impedisca Nvidia di far così(come fa AMD d' altronde, come fanno tutti):read: :read: :read:

Non è fuori da ieri physix quindi nessuno per ora (figurati in futuro) si è adattato a un bel niente, mettono 4 effettini talmente tanto insulsi da far ridere :asd: la pagina dei giochi con physix accelerato via gpu ne è il monumento

MadJackal
26-09-2009, 08:56
Come già ribadito da altri e da me Physics è di nvidia e ne fà ciò che vuole .

;)

Come già ribadito da me e da altri, finchè ne fa cosa ne sta facendo ora, è un suicidio commerciale. Poi può darsi che in futuro NVIDIA arrivi al 90% del mercato video discreto, ed allora forse non lo sarà più.
Ma fino a quel momento l'unica cosa che NVIDIA farà con PhysX saranno effettini scrausi che non giustificano affatto l'uso di tale tecnologia :asd:

eXeS
26-09-2009, 09:54
http://www.tomshardware.com/reviews/hollywood-gaming-effects,2068-10.html

Poi basta che vai sul sito nVidia...
http://www.nzone.com/object/nzone_physxgames_all.html

Quelli con il loghetto sulla destra supportano l'accellerazione Physx via hardware.


No, quelli con il loghetto sono semplicemente sponsorizzati dal programma The Way It's Meant bla bla bla...

Se leggi bene in quella pagina c'è un paragrafo che dice:

For a list of PC PhysX titles that exclusively take advantage of hardware GPU-accelerated PhysX CLICK HERE.


E se clicchi su CLICK HERE vai qui http://www.nzone.com/object/nzone_physxgames_home.html e fra quei giochi non c'è quello da te citato :)

ndrmcchtt491
26-09-2009, 10:03
Non puoi porre come certezza agli altri, quella che x te è una speranza + che altro.

anche xkè ora i fatti dicono il contrario. :read:


A parte che IO non ho nessuna speranza,comunque IO non pongo nessuna certezza,come ho detto sono leggi di mercato, che poi i fatti dicano il contrario non lo so e penso che neanche voi lo sapete, a meno che non fate parte di quelle aziende,il mio era solo un ragionamento(giusto o sbagliato che sia).
Che poi PhysX non prenda piede sappiate che non mi dispiacerò più di tanto,quanto agli effetti scrausi e insulsi potrei dire la stessa cosa dellHDR, delle ombre dinamiche e così via...
Contando poi che nel giro di pochi mesi sono usciti Batman, Mirror's Edge, crasy Mascine, Cryostasis non mi pare che PhysX sia morta o sul viale del tramonto quando sono annunciati altri titoli che utilizzeranno tale techica,senò l' unico titolo che utilizza in maniera SERIA PhysX è ancora GRAW1 e 2.
Quanto a Havok attualmente(se non dico una boiata):confused: :confused: mi pare sia in mano ad Intel.
AMD, che piaccia o meno è tagliata fuori(per ora)a meno che non faccia un accordo(deve sganciare una bella somma) con una delle due aziende.
In sostanza: avete una scheda AMD?--Allora non potete attivare PhysX(anche se non è giusto)---(tanto sono effetti scrausi)---(sarà):rolleyes: :rolleyes: :rolleyes:

ndrmcchtt491
26-09-2009, 10:10
p.s. io(a differenza di altri) non sono legato a niente e nessuno, un giorno prendo una cosa,quello dopo un' altra che sia verde rossa blu viola ecc...

In fondo si parla di pezzi di silicio e plastica, neanche fossero tope...:oink:

ndrmcchtt491
26-09-2009, 10:30
E' un middleware come PhysX, quindi qualunque sviluppatore che lo voglia paga e ottiene il middleware da utilizzare nel proprio gioco.

La differenza fra Havok e PhysX è che il primo gira su qualunque CPU, non solo su quelle Intel, esattamente come nella maggior aprte dei casi fa PhysX.

Il problema è che il cosiddetto "GPU accelerated PhysX" funziona solo su hardware nVidia e quindi non potrà mai avere una diffusione sul mercato (i 16 giochi totali che lo supportano, di cui uno di primo piano stanno lì a dimostrarlo urlando).

L'unico modo che ha nVidia per far si che PhysX possa sopravvivere è tradurlo in OpenCL, cosa che però lo aprirà ad ogni GPU compliant, quindi anche quelle della concorrenza.


Sono d' accordissimo con te, tornando ad Havok so che gira su cpu, spero che non facciano come Nvidia, ovvero:lo "appesantiranno"(non so trovar altri termini) per farlo girare solo su Larrabee, a meno che non si disponga una cpu a 20core:mc: :mc: :mc:


ciao

p.s. scusate il mio linguaggio primitivo:D :D :D

ndrmcchtt491
26-09-2009, 10:40
E' un middleware come PhysX, quindi qualunque sviluppatore che lo voglia paga e ottiene il middleware da utilizzare nel proprio gioco.

La differenza fra Havok e PhysX è che il primo gira su qualunque CPU, non solo su quelle Intel, esattamente come nella maggior aprte dei casi fa PhysX.
.

Havok , secondo me non gira su qualunque cpu(giocavo a CoH con un p4 a 3gz fisica al max e non ti dico...

Frase giusta:--- non solo su quelle Intel, CONTRARIAMENTE a PhysX.

Pat77
26-09-2009, 10:48
E quindi? Lo vendono come una caratteristica esclusiva, non vedo nessuno scandalo, anzi...

Pat77
26-09-2009, 12:47
Se c'è una cosa che Nvidia sa fare è ottenere supporto da chi sviluppa, tanto meglio se nativo per le sue schede, è questo, insieme ai driver, il valore in più.
Sul chi avrà successo, dirlo ora, è solo un azzardo.

Elrim
26-09-2009, 14:20
Che noia tutta la gente che si bagna tanto per le Dx11, come se le Dx10 avessero cambiato qualcosa. Physix, Havoc, chi se ne frega, l'importante è che la fisica funzioni, perchè ridurre sempre ogni discorso in un flame tra fanboy?
Non vi piace la stereoscopia anche se non l'avete mai provata (nolto coerente)? Bene, risparmierete sull'acquisto di un nuovo monitor.
Io aspetto ancora che le mie vga Dx10 rendano quello che le ho pagate, dato che siamo ancora in era Dx9 e sommersi da porting da console, e questo fino alla prossima generazione di macchine, che, indovinate un po', non sarà il 2010.

ndrmcchtt491
26-09-2009, 14:53
Che noia tutta la gente che si bagna tanto per le Dx11, come se le Dx10 avessero cambiato qualcosa. Physix, Havoc, chi se ne frega, l'importante è che la fisica funzioni, perchè ridurre sempre ogni discorso in un flame tra fanboy?
Non vi piace la stereoscopia anche se non l'avete mai provata (nolto coerente)? Bene, risparmierete sull'acquisto di un nuovo monitor.
Io aspetto ancora che le mie vga Dx10 rendano quello che le ho pagate, dato che siamo ancora in era Dx9 e sommersi da porting da console, e questo fino alla prossima generazione di macchine, che, indovinate un po', non sarà il 2010.


Sono d' accordo con te,se c'è una cosa che non mi piace non la prendo ed è finita lì. Io sono ancora "ancorato" a xp e a una "misera" 9600gt dopo che la mia amd 2600 mi ha lasciato(il più brutto acquisto che potessi fare, venivo da una 7600gt!!!), e se c'è un gioco che mi va a scatti abbasso i dettagli!!!

devAngnew
27-09-2009, 00:15
Non è ancora uscito Windows 7 e già c'è un gioco DX11 in giro...

Nome e fonte please........ :angel:

MadJackal
27-09-2009, 08:43
Nome: BattleForge
Fonte: Me stesso (vedi screen)

http://img338.imageshack.us/img338/2415/dx11.jpg (http://img338.imageshack.us/i/dx11.jpg/)

E' un peccato che non abbiano implementato la tessellation, su Beyond3d il capo degli sviluppatori che si occupano dell'engine grafico ha detto che con la visuale da strategico non si notava molto la differenza :(

gabi.2437
27-09-2009, 09:19
Balle, si nota eccome :asd: Non avevano voglia di implementarla, costa troppo :O

MadJackal
27-09-2009, 10:46
Balle, si nota eccome :asd: Non avevano voglia di implementarla, costa troppo :O

Può anche essere, io riferisco quello che ha scritto lui :asd:
E comunque la differenza di prestazioni si vede.

devAngnew
27-09-2009, 12:45
Ma in particolare cosa hanno usato delle DX11 i compute shader o cosa ?

devilred
27-09-2009, 12:54
dite che ha senso questo genere di tecnologia su monitor tipo 20" 22"????

Pat77
27-09-2009, 15:08
I CS 5.0 per l'HDAO.

Sulla tassellation stanno ancora facendo delle prove ma visto che il gioco è a camera fissa di differenze estetiche non se ne vedono.

Come volevasi dimostrare...

PaoloM72
28-09-2009, 07:33
Come è stato detto, Fisica e PhysX non sono la stessa cosa. La prima è informatica, la seconda è marketing. Moltissimi giochi hanno una perfetta implementazione della Fisica senza scomodare PhysX. Se poi NVidia "suggerisce" ai suoi partner di implementare la fisica solo attraverso il suo hardware, queste sono scelte di mercato, che però rischiano di essere molto pericolose.