PDA

View Full Version : [Thread Ufficiale] nVidia PhysX


Pagine : [1] 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19

Defragg
26-06-2008, 23:58
http://techgage.com/articles/nvidia/physx/nvidia_physx_official_logo.png

26/08/2008

Nella giornata odierna nVidia ha reso disponibile un nuovo set di driver Forceware beta, versione 177.39, che introducono per la prima volta il supporto pubblico alla tecnologia PhysX con le schede video NVIDIA basate su GPU GeForce 9800 GTX, GeForce GTX 280 e GeForce GTX 260.

Attraverso l'implementazione delle API PhysX di Ageia, grazie alla versione 8.06.12 del PhysX System Software, nVidia può delegare le elaborazioni della fisica alla GPU all'interno del benchmark 3DMark Vantage e in tutti i giochi che precedentemente richiedevano una PPU Ageia, in quanto la GPU viene vista dal benchmark come se fosse una unità di elaborazione PPU, Physics Processing Unit, completamente dedicata.

GPU supportate:
La compatibilità a nVidia PhysX è estesa a tutte le schede compatibili con CUDA 2.0, ossia TUTTE le GPU della serie 8, 9, 100, 200, 300, 400 e 500 che possiedono memoria video pari o superiore a 256Mb e un minimo di almeno 32 CUDA cores.

http://pics.computerbase.de/2/2/1/9/4/13_m.jpg
Nella modalità Standard la singola scheda si occuperà del rendering e delle operazioni fisiche, nella modalità SLi le due schede collegate in parallelo si occupano del rendering e dei calcoli relativi alla fisica, nella modalità Multi-GPU una scheda si occuperà del puro rendering, mentre l'altra si dedicherà interamente ai calcoli fisici.
Esiste infine un'ultima possibilità, applicabile nel primo e nel secondo caso (ma anche nel terzo, ma così si avrebbe una scheda di troppo nel case) e in un quarto caso, ossia con delle schede Radeon; la presenza di una PPU AGEIA PhysX, che si accollerebbe tutti i calcoli fisici e lascierebbe alla scheda grafica il puro rendering.

Le PPU Ageia PhysX vengono supportate.

NVIDIA PhysX System Software (driver PhysX singolo, per utenti con PPU e scheda ATi, ad esempio)

9.09.0428 WHQL (http://www.nvidia.it/object/physx_9.09.0428_whql_it.html) - 3/6/2009

Aggiunto il supporto per l’accelerazione a tutte le GPU GeForce Serie 8, 9 e 200 con una memoria grafica dedicata di 256 MB (minimi).
Netta accelerazione di PhysX per GPU con numerosi giochi e demo,alcuni dei quali sono evidenziati nei download di PowerPack su geforce.it (http://www.nvidia.it/content/graphicsplus/it/download.asp)
Aggiorna il runtime SOLO per gli utenti di processori AGEIA PhysX. (Le nuove installazioni dovrebbero installare il software di sistema PhysX precedente, ad esempio la versione 8.09.04 (http://www.nvidia.it/object/physx_8.09.04_whql_it.html) – prima di installare questo aggiornamento)
Include i più recenti runtime PhysX utilizzati nei giochi più nuovi.
Supporta il controllo della configurazione di PhysX per GPU dal pannello di controllo del driver di visualizzazione di NVIDIA. (richiede il driver grafico v180.00 o successivo)


NV PhysX Tweaker
Questo programmino consente, a chi possiede una VGA PhysX, di abilitare/disabilitare l'accelerazione via GPU. Utile soprattutto in momenti in cui è richiesto la massima potenza grafica.
1.0 (http://downloads.guru3d.com/NV-PhysX-Tweaker-1.0-download-1984.html) - 04/07/2008
N.B. Dalla versione 8.07.18 del PhysX System Software questo programmino perde utilità, perchè è possibile disabilitare l'accelerazione hardware direttamente dal pannello di controllo del PhysX System Software, oltre che a scegliere la modalità di accelerazione hardware (PPU PhysX o GPU PhysX).

http://www.techreport.com/r.x/gpuphysx/physxdiagram.jpg
http://www.hothardware.com/articleimages/Item1191/nvidiaPhysX_ArchSDK.png

PhysX Runs On RV670, Scores 22,000 CPU Marks in 3DMark Vantage (http://www.techpowerup.com/64042/PhysX_Runs_On_RV670_Scores_22_000_CPU_Marks_in_3DMark_Vantage.html)
Eran Badit of NGOHQ.com successfully modified NVIDIA CUDA (Compute Unified Device Architecture) to operate on an ATI GPU and has been able to run the NVIDIA PhysX layer on an RV670, the Radeon HD 3850.

He tells that enabling PhysX support on Radeon cards is not particularly difficult, leading us to believe that physics on graphics cards may not so much be a technology problem but an issue of corporate dynamics.

On his first run, Eran got a 22,606 CPU score in 3D Mark Vantage, enhancing the overall score to P4262. A comparable system without PhysX-support will cross the finish line at about P3800.

Fake? Verità? O un po' di tutti e due?
Dal thread ATI Radeon HD 4850, test e analisi architettura (http://www.hwupgrade.it/forum/showthread.php?t=1770935&page=33):

Yoss... secondo te è possibile una cosa del genere?

Questo tizio pare esser riuscito a portare il physX su una 3870... (tramite CUDA :mbe: ).

yes, we can :D

:eek:

adesso ci devi dire anche come si fa :O

edit:
visto che siamo in argomento "fisica" & radeon, si sa per caso di una qualche sorta di roadmap in seguito all'accordo, riportato da una recente news, tra havok(intel :D ) ed amd per far usare all'omonimo middleware le gpu radeon per i calcoli di simulazione fisica ?

CUDA è stato sviluppato adattando Open64 all'architettura di una gpu. Open64 è un compilatore open source, progettato per le architetture IA64, Opteron e IA32 e quindi in grado di lavorare in maniera eccellente, con le dovute ottimizzazioni, su architeture piuttosto differenti tra loro (vliw la prima, superscalare la seconda, superpipelined la terza). Ovviamente la versione che è in grado di funzionare su ATi è un po' differente da quella progettata per le gpu nVidia. Quindi, non entrando nel merito della veridicità di quel punteggio, la cosa è, comunque, fattibile.

ammesso e non concesso che la seguente "ricostruzione" sia un'approssimazione vagamente decente, ovvero che sotto il nome di cuda vadano, tra l'altro, delle librerie che sono usate dalla nuova versione di physix per fare calcoli con le gpu nv,

quindi un possessore di radeon per far girare physix sulla sua gpu dovrebbe reimplementare le lib cuda (nonché adattare open64 alle gpu ati per crearsi queste sue lib) ovviamente lascindo invariate le api usate da physix e poi sostiture le sue lib a quelle by nv ?

ci sono per caso prospettive anche per vie "traverse" e "facili" ?

:D

hai idea di che sviluppi ed eventualmente tempi dobbiamo attenderci relativamente a vedere havok usare le gpu ati ?

è ovvio che cuda si può considerare un riadattamento proprietario di Open64 e, pertanto, è pensato per sfruttare al meglio le peculiarità dell'architettura dei chip NV (che è abbastanza differente da quella dei chip ATi); pertanto, chi vorrà fare uso di physx tramite cuda dovrà sbattersi un po' :D

E poi,secondo te:
quale delle due architetture (tra R600/G80 e Rv770/GT200)) è più adatta a macinare calcoli fisici?
Dovrebbe essere abbastanza avvantaggiata ATI, giusto? Dato che i calcoli sui vertici sfruttano nativamente tutte e 5 le unità disponibili negli SP a disposizione delle architetture ATI...


dipende dal tipo di codice che si usa. Con istruzioni, tipo quelle geometriche, che tendono a privilegiare il calcolo parallelo, sicuramente l'architettura dei chip ATi è più performante, in alcuni casi anche di molto.

Recensioni:
NVIDIA's PhysX: Performance and Status Report (http://techgage.com/article/nvidias_physx_performance_and_status_report/1) - inglese: Test CPU vs PPU vs GPU PhysX su 3D Mark Vantage e Unreal Tournament 3
nVidia PhysX Starring the Zotac 9800 GTX+ (http://www.driverheaven.net/articles.php?articleid=122) - inglese
PhysX Performance with GeForce (http://www.firingsquad.com/hardware/nvidia_geforce_physx_performance/) - inglese
NVIDIA GPU PhysX Pack Preview (http://www.hothardware.com/Articles/NVIDIA_GPU_PhysX_Pack_Preview/) - inglese
A first look at Nvidia's GPU physics (http://www.techreport.com/articles.x/15261) - inglese
Mirror's Edge: Physx effects benchmark review (http://www.pcgameshardware.com/aid,673911/Reviews/Mirrors_Edge_Physx_effects_benchmark_review/?page=1) - inglese
Mirror's Edge benchmarks with Radeon HD 4870 plus Ageia card - Alternative to Nvidia Physx (http://www.pcgameshardware.com/aid,674175/Reviews/Mirrors_Edge_benchmarks_with_Radeon_HD_4870_plus_Ageia_card_-_Alternative_to_Nvidia_Physx/) - inglese
Bericht: Nvidia CUDA und PhysX im Überblick (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_nvidia_cuda_physx_ueberblick/#abschnitt_einleitung) - tedesco
Batman, Cryostasis, Mirror's Edge, Darkest of Days: PhysX roundup! (http://endeavorquest.net:8888/index.htm)

Links utili:
http://physxinfo.com/
The Unofficial PhysX Links & Info Page (http://personal.inet.fi/atk/kjh2348fs/physx.html) - inglese
PhysX games, list, links, comments. (http://hardforum.com/showthread.php?t=1141844) - inglese
PhysX Demo Competition from The Game Creators and nVidia (http://physxcomp.thegamecreators.com/index.html) - inglese

slivio...
27-06-2008, 08:03
ciao
mi iscrivo

il chip G92 pare venga supportato nativamente;
quando ho installato i driver per la fisica, andando nel relativo pannello di controllo avevo già abilitata la funzione per la fisica poi non so...

ciao

ps: il penultimo link postato da te è errato nella sintassi non porta da nessuna parte... ;) se lo puoi vorregere ti ringrazio

ariciao

lowenz
27-06-2008, 09:16
Bisognerebbe trovare qualche bel bench fisico :D

Defragg
27-06-2008, 12:27
Bisognerebbe trovare qualche bel bench fisico :D

Più che altro vedere i risultati di chi ha sia una PPU che una VGA nVidia adatta.
Io purtroppo ho solo la prima, sono rimasto ancora alla mia X1950GT@Pro causa mancanza di dindini. :p Altrimenti li avrei fatti personalmente dei test, con fisicia via PPU, via GPU e infine via CPU.

ps: il penultimo link postato da te è errato nella sintassi non porta da nessuna parte... ;) se lo puoi vorregere ti ringrazio

ariciao

Thank you :p

KNX
27-06-2008, 14:03
...ma se già con una scheda video nvidia g92 aggiornata con gli ultmi forceware si ha la possibilità di far "fisicizzare" alla gpu e non alla cpu... avere una ppu comporterebbe semplicemente far fare il tutto a lei e non alle altre due... cioè non capisco che vantaggi apporterebbe... o forse sì :confused:

Forse avendo una ppu non si avrebbe nemmeno il bisogno di installare i forceware con physix nativo, i calcoli li farebbe tutti la ppu, e sicuramente se un lavoro viene fatto da tre persone invece che da due o addirittura una :) ...

Però allora a questo punto mi viene da pensare che in realtà non è nient'altro che un dividersi il compito cioè voglio dire non si avrebbero incrementi delle prestazioni ma solo un carico in meno da parte della cpu e gpu... non capisco

appleroof
27-06-2008, 14:21
Ti rispondo qui perchè l'altro tread è stato chiuso (ma perchè poi?)

http://www.hwupgrade.it/forum/showpo...postcount=9941

ma secondo te, se l'sdk è stato reso libero prima dell'acquisizione di Ageia, come facevano le vga Nvidia e/o Ati a usarlo?

http://www.hwupgrade.it/news/skvideo/19322.html

Nvidia tramite Cuda e Ati tramite (?)

Cuda è il mezzo per usare uno strumento (phisix) su gpu Nvidia, (?) è un mezzo per usare lo stesso strumento su gpu Ati. Ammesso che Ati voglia

per esempio, anche Havock potrebbe essere usato da Nvidia, volendo.

...............E se non chiediamo troppo, suggeriamo a nVidia di accordarsi con Havok, così da avere schede ATI e nVidia con compatibilità fisica totale.

http://www.tomshw.it/news.php?newsid=14538

Tidus.hw
27-06-2008, 14:28
io ho provato cell factor ma non mi sembra che la fisica fosse accelerata.. boh

Kharonte85
27-06-2008, 14:57
http://www.hwupgrade.it/forum/showpost.php?p=23066339&postcount=9940

Nelle specifiche del 3DMark è specificato che i calcoli della fisica devono essere fatti da una CPU o PPU perché la validità del test sia certificata.

In pratica inserire questa funzionalità nella GPU gonfia il risultato del 3DMark utilizzando però quello che è a tutti gli effetti un cheat.

Il motivo è che se ipoteticamente avessi un gioco che sfrutta queste librerie e facessi girare la fisica sulla stessa GPU che calcola la grafica ti ritroveresti con un calo di performance (il motivo è ovvio: la GPU è impegnata in parte a fare altro che non il suo lavoro, quindi i risultati sono peggiori), mentre dal 3DMark risulta il contrario.

:>
mi manderesti un link di questa cosa?

Ma le prestazioni aumentano nel test cpu con physix? se si vede ad occhio nudo il miglioramento è chiaro che non è solo un cheat...

KNX
27-06-2008, 15:05
...ok... allora se non ho capito male, ormai nVidia ha scelto Ageia PhysiX mentre ATi ha scelto Havok... mmm... e allora però come funzionerà con i vari giochi sviluppati con l'uno o con l'altro?

lexing
27-06-2008, 15:13
Qui c'è un test con il 3DMark Vantage e una GTX280, e i risultati si vedono... :eek:

http://www.pcprofessionale.it/2008/06/26/nvidia-physx-la-fisica-gestita-dalla-gpu/

http://www.pcprofessionale.it/stappro61/uploads/2008/06/physx.png

scorpion73
27-06-2008, 15:19
posto anche qui...
ma io non ho capito una cosa: nel caso si abbia pure la scheda di ageia, chi è che decide se usare la PPU o la GPU?
Si può scegliere su base utente cosa usare?

Mercuri0
27-06-2008, 16:14
Ti rispondo qui perchè l'altro tread è stato chiuso (ma perchè poi?)

ed è stato chiuso proprio mentre stavo per risponderti. Per fortuna avevo il blocco note a portata di click :D

c'è un doppio errore, mio e tuo: phisix (da quando Nvidia ha comprato Ageia) non ha necessità di usare cuda, mi spiego: cuda è il modo con cui phisix funzia su schede Nvidia, ma phisix (il suo sdk) è libero e ciascuno può utilizzarlo (non so come Ati chiami il suo programma per gpu) senza dare una lira ad Nvidia

Il fatto che l'SDK sia libero di essere usato, vuol dire che i programmatori di videogiochi possono aggiungere Physx ai loro giochi liberamente. Stessa cosa per Havoc.

Per fare un porting su CAL delle librerie di PhysiX, non basta poter usare l'SDK, ma poterlo ]modificare[/U]. La differenza è davvero bella grossa: AMD non ha scelto di fare l'accordo con Havoc, per fare uno screzio a nVidia. E' stata nVidia a non voler rendere disponibile PhysiX anche per AMD e non c'è niente di male in questo! (deh, nVidia c'ha messo soldi per Ageia, eh)


E AMD ha detto di no a CUDA per ovvi motivi, licenze e soprattutto motivi d'immagine. Sai che bella figura nell'adottare la tecnologia del principale concorrente. :asd:
CUDA di persé non è una "tecnologia" ma il linguaggio per programmare le GPU di nVidia. AMD "ha detto no a CUDA" perché usarlo per le sue GPU è tecnicamente molto difficile e strategicamente un suicidio: leghi il tuo hardware a una tecnica di programmazione controllata dal tuo diretto concorrente!

Se CUDA fosse uno standard sarebbe un altro paio di maniche. Infatti per fortuna sta nascendo OpenCL e ci sarà qualcosa anche nelle DirectX11.

Poi è stata Ati ad dire "sti cazzi" per dare una mano ad Intel che ne ha tanto bisogno, in effetti (non in termini monetari diretti, visto che anche Havock è stato reso open da Intel)

Stesso discorso: Havoc è "open" come il PhysiX. Puoi usarlo ma non puoi modificarlo, e AMD probabilmente ha dovuto sborsare qualcosa anche solo per fare l'annuncio di collaborazione. C'è da dire che la patnership con lntel fa comodo anche ad lntel, perché serve a rafforzare Havoc. Anzi, potrebbero scegliere di implementare una parte GPGPU di Havoc (HavocFX) per girare su DirectX 9/10!. In questo modo potrebbe girare anche su hardware nVidia, e sarebbe preferito dagli sviluppatori.

ma ati mica ha comprato havok? qualcosa dovrebbe fare pure lei x la fisica,no?
Ma il punto è che non possiamo avere giochi che girano solo su Ati o solo su nVidia! :cry: E anche i programmatori lo sanno.

Tutta questa storia di motori fisici finirà in un nulla di fatto, in demo tecnologici e in prese in giro finché i motori fisici accelerati dalle GPU verranno scritti per girare sulle DirectX (anziché su CUDA o CAL)

p.s. I test del Vantage delle bandiere e delle particelle sono già "fisica sulle GPU" e vengono accelerati da tutte le GPU! Se davvero vogliono, i programmatori possono fare la fisica sulle GPU anche con le Directx9! In tutta questa storia c'è fumo, il vero arrosto non si vedrà per almeno un paio d'anni.

Mercuri0
27-06-2008, 16:24
Nvidia tramite Cuda e Ati tramite (?)

Cuda è il mezzo per usare uno strumento (phisix) su gpu Nvidia, (?) è un mezzo per usare lo stesso strumento su gpu Ati. Ammesso che Ati voglia

Spero di aver chiarito qualcosa a proposito nel mio post precedente. Faccio uno schemino di riepilogo.

Gioco->PhysiX->Cuda->Driver(cuda)->Scheda Video.

Per AMD e il Physix dovrebbe essere
Gioco->Physix->Cal->Driver(Cal)->Scheda Video.
Per far questo però dovrebbe poter modificare il PhysiX, cosa che nVidia non ci pensa minimamente di lasciagli fare.

Un'altra soluzione sarebbe:
Gioco->PhysiX->Cuda o interfaccia CUDA-Cal ->driver CUDA o Cal->scheda video.
Tecnicamente difficile da realizzare e metterebbe i driver (e l'hardware) di AMD alla mercé di nVidia.

La soluzione "buona" per sviluppatori e noialtri utenti è:
Gioco->Motore fisico(Havoc, PhysiX, etc)->DirectX->Driver(DirectX)->scheda video. Stessa cosa con OpenCL (o persino OpenGL) al posto del DirectX.

L'accelerazione fisica sulle GPU si può fare anche sulle DirectX 9/10 senza usare CUDA o CAL, vedi il test delle bandiere del Vantage.

Comunque devo ancora capire meglio la storia dell'hack fatto da quel tipo di cui si parlava.

KNX
27-06-2008, 16:27
Ma il punto è che non possiamo avere giochi che girano solo su Ati o solo su nVidia! :cry: E anche i programmatori lo sanno.


Ecco è questo quello che non capisco... ma praticamente parlando... se io faccio partire Assassin's Creed, a parità di configurazione del PC (scheda video esclusa ovviamente), su una gtx260 o su una HD4870 il fatto che sia stato sviluppato con Havock cosa implica?

Mercuri0
27-06-2008, 16:58
Ecco è questo quello che non capisco... ma praticamente parlando... se io faccio partire Assassin's Creed, a parità di configurazione del PC (scheda video esclusa ovviamente), su una gtx260 o su una HD4870 il fatto che sia stato sviluppato con Havock cosa implica?
Non è un problema: Havoc gira sulla CPU, come del resto anche PhysiX. PhysiX è usato da un gran numero di giochi, e nessuno di questi richiede un acceleratore dedicato. Con questi giochi usare la GPU per accelerare PhysiX non aumenta ma al massimo può diminuire gli FPS.
(perché la GPU viene aggravata di lavoro che la CPU faceva con facilità).

Usare la GPU per accelerare la fisica serve solo per effetti particolari che la CPU non digerisce. Questi effetti o girano sulla GPU, o non girano: non c'è via di mezzo.

Quello che può succedere, è che ci siano giochi che potranno abilitare alcuni particolari effetti su particolare hardware.

Per PhysiX nel breve termine questi effetti saranno disponibili solo per hardware nVidia, per Havoc ancora non si sa nulla: potrebbe essere solo CPU, solo AMD, o anche AMD+nVidia.

Ovviamente potrebbero fare giochi per cui questi effetti siano "fondamentali", ma ovviamente sarebbero solo tech-demo. :) A meno che davvero i programmatori non si mettano a fare giochi solo per Ati o nVidia, la qual cosa ucciderebbe il già moribondo mondo dei videogiochi su PC.

p.s. Chissà se all'estremo uno non si possa comprare una ATI o nVidia "piccola" da usare come acceleratore fisico dedicato in parallelo a una scheda video di un'altra marca...

Mercuri0
27-06-2008, 17:06
Commento a quanto ho detto sopra:

In realtà mi aspetto che di questa storia della fisica già a metà agosto non se ne parlerà più, fino a che non cominceranno a fare sul serio.

E per fare sul serio ci vuole uno standard.
(Che possibilmente vada bene anche per le console.)

edit: Inoltre mi pare che sia chiarissimo che non c'è nessun problema tecnico in questa storia ma solo discorsi di marketing.

MIRAGGIO
27-06-2008, 17:23
wow
Con i driver 177.40
http://www.nvnews.net/vbulletin/showthread.php?t=115375
funziona tutto almeno dal pannello con la mia scheda in firma senza nessuna modifica dell'inf.
http://bilderbunker2.bplaced.net/bild.php/228,1EGD85.jpg
http://bilderbunker2.bplaced.net/bild.php/229,2VW7HN.jpg

KNX
27-06-2008, 17:45
Usare la GPU per accelerare la fisica serve solo per effetti particolari che la CPU non digerisce. Questi effetti o girano sulla GPU, o non girano: non c'è via di mezzo.

Quello che può succedere, è che ci siano giochi che potranno abilitare alcuni particolari effetti su particolare hardware.


Allora, però credo di andare un pò OT adesso, vabbè lo dico lo stesso...

E' addirittura possibile che un gioco sviluppato con PhysX e giocato con una scheda video diciamo così "non PhysX" con i driver PhysX installati nel sistema (i soliti non i Forceware 177... che abilitano l'acc della fisica sulla GPU (vd. sotto)), abbia alcuni effetti cmq non riproducibili perchè non digeriti dalla CPU?

Lo chiedo perchè l'altro giorno da un mio amico abbiamo provato Hellgate London su una 9800GX2 con non ricordo quali Forceware (ma tanto mi pare di aver capito che per questa scheda il supporto PhisX nativo non ci sia con alcuna revision) e Vista Ultimate... nel menù delle impostazioni video del gioco c'era la possibilità di abilitare un effetto "fumo" mi pare, ovviamente lo abbiamo abilitato, ma durante il gioco in alcune zone dove ci sarebbe dovuto essere appunto del fumo, si vedeva diciamo tutto nero...

blade9722
27-06-2008, 18:44
Non è un problema: Havoc gira sulla CPU, come del resto anche PhysiX. PhysiX è usato da un gran numero di giochi, e nessuno di questi richiede un acceleratore dedicato. Con questi giochi usare la GPU per accelerare PhysiX non aumenta ma al massimo può diminuire gli FPS.
(perché la GPU viene aggravata di lavoro che la CPU faceva con facilità).

Usare la GPU per accelerare la fisica serve solo per effetti particolari che la CPU non digerisce. Questi effetti o girano sulla GPU, o non girano: non c'è via di mezzo.

Quello che può succedere, è che ci siano giochi che potranno abilitare alcuni particolari effetti su particolare hardware.

Per PhysiX nel breve termine questi effetti saranno disponibili solo per hardware nVidia, per Havoc ancora non si sa nulla: potrebbe essere solo CPU, solo AMD, o anche AMD+nVidia.

Ovviamente potrebbero fare giochi per cui questi effetti siano "fondamentali", ma ovviamente sarebbero solo tech-demo. :) A meno che davvero i programmatori non si mettano a fare giochi solo per Ati o nVidia, la qual cosa ucciderebbe il già moribondo mondo dei videogiochi su PC.

p.s. Chissà se all'estremo uno non si possa comprare una ATI o nVidia "piccola" da usare come acceleratore fisico dedicato in parallelo a una scheda video di un'altra marca...

Su questa analisi ci sarebbe un altro scenario plausibile. I calcoli della fisica sono lasciati alla CPU e normalmente non la impegnano più di tanto. In questa situazione sgravare la CPU dei calcoli della fisica apporterebbe un carico irrilevante alla GPU.

Poi, in certe sistuazioni particolari, per esempio una esplosione di vaste proporzioni, si ha un picco nei calcoli fisici, la CPU fatica a reggere il carico, e come conseguenza si ha un drastico calo di frame rate, con la GPU che "si gira i pollici" in attesa dei dati dalla CPU. In questo caso, lo spostamento del carico da CPU a GPU potrebbe portare ad un incremento dei frames. In altre parole, con la fisica sulla CPU potrei avere un limite di teorico di 50FPS (per esempio) della GPU, però un frame rate di 20FPS dato dalla lentezza della CPU. Spostando il carico sulla VGA, potrei abbassare il limite teorico della GPU a 40 FPS, ed avere un frame rate complessivo di 35FPS.

Defragg
28-06-2008, 00:29
Su questa analisi ci sarebbe un altro scenario plausibile. I calcoli della fisica sono lasciati alla CPU e normalmente non la impegnano più di tanto. In questa situazione sgravare la CPU dei calcoli della fisica apporterebbe un carico irrilevante alla GPU.

Poi, in certe sistuazioni particolari, per esempio una esplosione di vaste proporzioni, si ha un picco nei calcoli fisici, la CPU fatica a reggere il carico, e come conseguenza si ha un drastico calo di frame rate, con la GPU che "si gira i pollici" in attesa dei dati dalla CPU. In questo caso, lo spostamento del carico da CPU a GPU potrebbe portare ad un incremento dei frames. In altre parole, con la fisica sulla CPU potrei avere un limite di teorico di 50FPS (per esempio) della GPU, però un frame rate di 20FPS dato dalla lentezza della CPU. Spostando il carico sulla VGA, potrei abbassare il limite teorico della GPU a 40 FPS, ed avere un frame rate complessivo di 35FPS.

No blade, non ci siamo.
In un esplosione di vaste proporzioni mi pare logico ipotizzare che ci sia un gran numero di oggetti che subiscono delle conseguenze dovute all'esplosione.
Spostando il carico da CPU a GPU si possono si velocizzare i calcoli fisici, ma dopo chi renderizza tutto il popò di roba che si muove su schermo? Chi applica i vari tipi di effetti, texture, ecc...?
La GPU, ma se questa perde risorse nel calcolo fisico dopo non sarà più in grado di renderizzare fluidamente una determinata scena, perchè come detto non può sfruttare tutte le sue risorse. ;)

Mercuri0
28-06-2008, 07:50
Lo chiedo perchè l'altro giorno da un mio amico abbiamo provato Hellgate London su una 9800GX2 con non ricordo quali Forceware (ma tanto mi pare di aver capito che per questa scheda il supporto PhisX nativo non ci sia con alcuna revision)
Beh ma in futuro nVidia lo abilita anche sulla 9800GX2, no? Sarebbe una bastardata non farlo.
nel menù delle impostazioni video del gioco c'era la possibilità di abilitare un effetto "fumo" mi pare, ovviamente lo abbiamo abilitato, ma durante il gioco in alcune zone dove ci sarebbe dovuto essere appunto del fumo, si vedeva diciamo tutto nero...
L'effetto fumo di HGL non c'entra con l'accelerazione hardware del PhysiX, da quel che so era una mirabolante feature DX10 di quel [disastro di] gioco. :)

Mercuri0
28-06-2008, 08:04
Su questa analisi ci sarebbe un altro scenario plausibile. I calcoli della fisica sono lasciati alla CPU e normalmente non la impegnano più di tanto.
Quello che non è ben chiaro a molti è che la GPU non è "più potente" della CPU, ma è più potente solo per alcuni tipi di conti, mentre dove la CPU mostra i muscoli la GPU fa veramente schifo.

Poi metti anche che ci sia un conto che la GPU farebbe bene, ma attualmente gira su CPU: se la CPU è sufficientemente veloce (e lo è, se il gioco è stato fatto per girare su CPU) spostare il carico sulla GPU comporta:

- la GPU non sarebbe impegnata più di tanto, ma comunque più di prima. (calo di FPS se il gioco non era CPU limited)
- la CPU sarebbe comunque impegnata a preparare i dati per la GPU, che magari a momenti gli conveniva meglio farli lei :D

Se nVidia ha fatto un buon lavoro con il PhysiX, in questo tipo di scenari i conti rimangono sulla CPU. Oppure, semplicemente, l'accelerazione hw del Physix sarà abilitatà solo sui giochi futuri che prevedono effetti specifici, e non su quelli attuali che girano sulla CPU. (Alcune mappe di UT3 erano demo per le schede Ageia)

Su questo sto aspettando test e recensioni :)


Poi, in certe sistuazioni particolari, per esempio una esplosione di vaste proporzioni, si ha un picco nei calcoli fisici, la CPU fatica a reggere il carico, e come conseguenza si ha un drastico calo di frame rate, con la GPU che "si gira i pollici" in attesa dei dati dalla CPU. In questo caso, lo spostamento del carico da CPU a GPU potrebbe portare ad un incremento dei frames.
Qui sono d'accordo, però io sono scettico sul fatto che si possa "spostare". L'effetto deve essere concepito fin dall'inizio per girare sulla GPU.

Questo perché la differenza di prestazioni tra la GPU e la CPU è così enorme nei conti che le GPU fanno bene (vedi che succede al Vantage) che se penso di usare quella potenza che la GPU mi mette a disposizione, quell'effetto non è che sulla CPU va "più lento"... non va proprio! :)

Riassumendo io penso che "l'accelerazione fisica" non serva per "accelerare" la fisica che la CPU potrebbe fare, ma per dare l'opportunità agli sviluppatori di fare cose nuove, pensate dall'inizio per girare sulla GPU.

anti
28-06-2008, 09:59
[QUOTE=Mercuri0;23082056]Beh ma in futuro nVidia lo abilita anche sulla 9800GX2, no? Sarebbe una bastardata non farlo.

a me funge già.......:)

f_tallillo
28-06-2008, 14:16
Con i 177.41 che sono usciti oggi, la 8800GTS viene vista tranquillamente o devo mettere l'inf che avevo scaricato per i .39?

E come faccio a sapere se mi ha installato i driver per la fisica?

Punitore
28-06-2008, 15:19
Con i 177.41 che sono usciti oggi, la 8800GTS viene vista tranquillamente o devo mettere l'inf che avevo scaricato per i .39?

E come faccio a sapere se mi ha installato i driver per la fisica?

* interessa anche a me

f_tallillo
28-06-2008, 16:08
li ho appena installati.

Vanno normalmente.
Sembra veda la VGA come accelleratore fisico.
http://img247.imageshack.us/img247/3639/nvidiaoj7.jpg

Ho modificato un pelo l'altro inf ma non so se correttamente.
Comunque si sono installati e per ora il PC funge ed è stabile.

Punitore
28-06-2008, 16:36
li ho appena installati.

Vanno normalmente.
Sembra veda la VGA come accelleratore fisico.
http://img247.imageshack.us/img247/3639/nvidiaoj7.jpg

Ho modificato un pelo l'altro inf ma non so se correttamente.
Comunque si sono installati e per ora il PC funge ed è stabile.

sa l'ignoranza ma dove hai trovato quella finestra? :)

andavo a cercare sotto la voce "AGEIA" :muro:

sorry :D

cmq sapete se funge anche con mass effect? e che benefici reali ci sono nei giochi?

Defragg
29-06-2008, 00:56
cmq sapete se funge anche con mass effect? e che benefici reali ci sono nei giochi?

edit

Defragg
29-06-2008, 12:51
Aggiornata la prima pagina. :)

Mi correggo, Mass Effect usa PhysX. ;)

KNX
29-06-2008, 16:39
[QUOTE=Mercuri0;23082056]Beh ma in futuro nVidia lo abilita anche sulla 9800GX2, no? Sarebbe una bastardata non farlo.

a me funge già.......:)

Mi potresti dire come hai fatto? Così prendo due piccioni con una fava :)

grazie mille

AnToMe
29-06-2008, 17:02
Con i 177.41 che sono usciti oggi, la 8800GTS viene vista tranquillamente o devo mettere l'inf che avevo scaricato per i .39?

E come faccio a sapere se mi ha installato i driver per la fisica?serve l'inf modificato almeno su vista x32, a me è servito altrimenti non vedeva la scheda video

appleroof
29-06-2008, 19:00
ed è stato chiuso proprio mentre stavo per risponderti. Per fortuna avevo il blocco note a portata di click :D


Il fatto che l'SDK sia libero di essere usato, vuol dire che i programmatori di videogiochi possono aggiungere Physx ai loro giochi liberamente. Stessa cosa per Havoc.

Per fare un porting su CAL delle librerie di PhysiX, non basta poter usare l'SDK, ma poterlo ]modificare[/U]. La differenza è davvero bella grossa: AMD non ha scelto di fare l'accordo con Havoc, per fare uno screzio a nVidia. E' stata nVidia a non voler rendere disponibile PhysiX anche per AMD e non c'è niente di male in questo! (deh, nVidia c'ha messo soldi per Ageia, eh)


CUDA di persé non è una "tecnologia" ma il linguaggio per programmare le GPU di nVidia. AMD "ha detto no a CUDA" perché usarlo per le sue GPU è tecnicamente molto difficile e strategicamente un suicidio: leghi il tuo hardware a una tecnica di programmazione controllata dal tuo diretto concorrente!

Se CUDA fosse uno standard sarebbe un altro paio di maniche. Infatti per fortuna sta nascendo OpenCL e ci sarà qualcosa anche nelle DirectX11.

Stesso discorso: Havoc è "open" come il PhysiX. Puoi usarlo ma non puoi modificarlo, e AMD probabilmente ha dovuto sborsare qualcosa anche solo per fare l'annuncio di collaborazione. C'è da dire che la patnership con lntel fa comodo anche ad lntel, perché serve a rafforzare Havoc. Anzi, potrebbero scegliere di implementare una parte GPGPU di Havoc (HavocFX) per girare su DirectX 9/10!. In questo modo potrebbe girare anche su hardware nVidia, e sarebbe preferito dagli sviluppatori.


Ma il punto è che non possiamo avere giochi che girano solo su Ati o solo su nVidia! :cry: E anche i programmatori lo sanno.

Tutta questa storia di motori fisici finirà in un nulla di fatto, in demo tecnologici e in prese in giro finché i motori fisici accelerati dalle GPU verranno scritti per girare sulle DirectX (anziché su CUDA o CAL)

p.s. I test del Vantage delle bandiere e delle particelle sono già "fisica sulle GPU" e vengono accelerati da tutte le GPU! Se davvero vogliono, i programmatori possono fare la fisica sulle GPU anche con le Directx9! In tutta questa storia c'è fumo, il vero arrosto non si vedrà per almeno un paio d'anni.

leggi l'intervento di yossarian in prima, forse detta da lui ti convincerà di più ;)

Defragg
30-06-2008, 00:13
leggi l'intervento di yossarian in prima, forse detta da lui ti convincerà di più ;)

Yoss è Yoss :asd: :O

Free Gordon
30-06-2008, 00:50
Riassumendo io penso che "l'accelerazione fisica" non serva per "accelerare" la fisica che la CPU potrebbe fare, ma per dare l'opportunità agli sviluppatori di fare cose nuove, pensate dall'inizio per girare sulla GPU.

Questo penso sia ovvio per tutti.
Le altre fatte in precedenza, sono ipotesi abbastanza assurde per conto mio... (non vedremo mai un vecchio gioco con accelerazione fisica "aggiornata" via GPU... a meno che non sia uno di quei giochi che sfruttavano la PPU, già prima. E chissà poi con quali risultati..).

@ndrey
30-06-2008, 03:16
Mi iscrivo :)
Prima prova su vantage..
8800GTS Driver 177.41 whql x64 & Physx 8.06.12

http://www.pctunerup.com/up/results/_200806/th_20080629070420_oc.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080629070420_oc.jpg)

Ora vedo se realmente sopportata nelle mappe physx della UT3 :O

A.L.M.
30-06-2008, 07:03
Primo test un minimo approfondito su PhysX via gpu.
http://techgage.com/article/nvidias_physx_performance_and_status_report/1

http://techgage.com/articles/nvidia/physx/utiii_results.png

http://techgage.com/articles/nvidia/physx/utiii_results_2.png

Come pensavo, sicuramente PhysX aiuta il framerate, ma la potenza disponibile è ancora pochina: è vero che è il 65% in più rispetto alla versione in cui la fisica è gestita via cpu, ma è un framerate meno che dimezzato rispetto alla versione senza fisica, comunque.
E i test sono senza AA. Il range di giochi usabili normalmente (cioè anche 1280x1024, con tutto al max, AA4x) con la fisica attivata si riduce drasticamente (solo quelli che fanno senza fisica un centinaio di fps con la stessa risoluzione riescono a mantenere un framerate alto).
Sarà interessante vedere cosa fanno le GTX260 e 280. :)

Defragg
30-06-2008, 13:27
Primo test un minimo approfondito su PhysX via gpu.
http://techgage.com/article/nvidias_physx_performance_and_status_report/1

http://techgage.com/articles/nvidia/physx/utiii_results.png

http://techgage.com/articles/nvidia/physx/utiii_results_2.png

Come pensavo, sicuramente PhysX aiuta il framerate, ma la potenza disponibile è ancora pochina: è vero che è il 65% in più rispetto alla versione in cui la fisica è gestita via cpu, ma è un framerate meno che dimezzato rispetto alla versione senza fisica, comunque.
E i test sono senza AA. Il range di giochi usabili normalmente (cioè anche 1280x1024, con tutto al max, AA4x) con la fisica attivata si riduce drasticamente (solo quelli che fanno senza fisica un centinaio di fps con la stessa risoluzione riescono a mantenere un framerate alto).
Sarà interessante vedere cosa fanno le GTX260 e 280. :)

Ottimi test, finalmente qualcosa di interessante. :)
Comunque vedendo i risultati nei giochi si ha una conferma alla mia tesi. ;)

Samoht
30-06-2008, 13:34
No blade, non ci siamo.
In un esplosione di vaste proporzioni mi pare logico ipotizzare che ci sia un gran numero di oggetti che subiscono delle conseguenze dovute all'esplosione.
Spostando il carico da CPU a GPU si possono si velocizzare i calcoli fisici, ma dopo chi renderizza tutto il popò di roba che si muove su schermo? Chi applica i vari tipi di effetti, texture, ecc...?
La GPU, ma se questa perde risorse nel calcolo fisico dopo non sarà più in grado di renderizzare fluidamente una determinata scena, perchè come detto non può sfruttare tutte le sue risorse. ;)Che è la stessa cosa che accadeva già quando si montava un'ageia su un pc con una vga non troppo potente: data l'elevata mole di oggetti in più da renderizzare, il gioco perdeva performance.

Ops scusate... mi iscrivo anch'io qui, forse essendo l'unico ad avere due 8800GT in SLi e una BFG Ageia (serie100 credo).

@ndrey
30-06-2008, 16:47
GODO :D

http://www.pctunerup.com/up/results/_200806/th_20080630174057_1.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630174057_1.jpg) http://www.pctunerup.com/up/results/_200806/th_20080630174102_2.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630174102_2.jpg)

http://www.pctunerup.com/up/results/_200806/th_20080630174109_3.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630174109_3.jpg) http://www.pctunerup.com/up/results/_200806/th_20080630174118_4.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630174118_4.jpg)

http://www.pctunerup.com/up/results/_200806/th_20080630174126_5.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630174126_5.jpg) http://www.pctunerup.com/up/results/_200806/th_20080630174134_6.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630174134_6.jpg)

Il framerate non è il massimo.., ma visto ke impostazioni sono tutti al max + vista ultimate ke capace a rallentare tutto, mi ritengo molto soddisfatto.., considerando anche cpu a def. Come andrà su XP :p

appleroof
30-06-2008, 16:55
GODO :D

http://www.pctunerup.com/up/results/_200806/th_20080630174057_1.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630174057_1.jpg) http://www.pctunerup.com/up/results/_200806/th_20080630174102_2.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630174102_2.jpg)

http://www.pctunerup.com/up/results/_200806/th_20080630174109_3.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630174109_3.jpg) http://www.pctunerup.com/up/results/_200806/th_20080630174118_4.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630174118_4.jpg)

http://www.pctunerup.com/up/results/_200806/th_20080630174126_5.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630174126_5.jpg) http://www.pctunerup.com/up/results/_200806/th_20080630174134_6.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630174134_6.jpg)

Il framerate non è il massimo.., ma visto ke impostazioni sono tutti al max + vista ultimate ke capace a rallentare tutto, mi ritengo molto soddisfatto.., considerando anche cpu a def. Come andrà su XP :p

che driver?

@ndrey
30-06-2008, 17:08
che driver?

177.41 whql per vista 64bit e PhysX 8.06.12 :)

@ndrey
30-06-2008, 17:15
che driver?

doppio

appleroof
30-06-2008, 17:20
177.41 whql per vista 64bit e PhysX 8.06.12 :)

ottimo, quindi li hai moddati?

cmq sarei curioso di vedere le stesse prove con driver che supportano "nativamente" phisix anche per g80 e le altre g92 (mi pare tu abbia una 88gts512 no?)

io non ho il gioco, se hai voglia quando usciranno magari potresti fare un piccolo test di confronto ;)

@ndrey
30-06-2008, 17:28
ottimo, quindi li hai moddati?

cmq sarei curioso di vedere le stesse prove con driver che supportano "nativamente" phisix anche per g80 e le altre g92 (mi pare tu abbia una 88gts512 no?)

io non ho il gioco, se hai voglia quando usciranno magari potresti fare un piccolo test di confronto ;)

Si ho la gts.. Ho aggiunto solo la stringa nel file ini x riconoscere la vga..
Spero che ci saranno miglioramenti con le prossime release..
PS. Non hai UT3 :banned: scherzo :D .., appena escono i driver nuovi faccio il confronto.. Cmq su XP con stessi impostazioni deve guadagnare un botto di frame..

appleroof
30-06-2008, 17:34
Si ho la gts.. Ho aggiunto solo la stringa nel file ini x riconoscere la vga..
Spero che ci saranno miglioramenti con le prossime release..
PS. Non hai UT3 :banned: scherzo :D .., appena escono i driver nuovi faccio il confronto.. Cmq su XP con stessi impostazioni deve guadagnare un botto di frame..

:asd: :asd:

@ndrey
30-06-2008, 17:45
Con demo non puoi ammirare le mappe con supporto physx ,fatti prestare il gioco da qualcuno :D

Le stringe x driver con supporto physx.. http://www.hwupgrade.it/forum/showpost.php?p=23089988&postcount=9200

appleroof
30-06-2008, 17:50
Con demo non puoi ammirare le mappe con supporto physx ,fatti prestare il gioco da qualcuno :D

Le stringe x driver con supporto physx.. http://www.hwupgrade.it/forum/showpost.php?p=23089988&postcount=9200

ottimo, grazie mille, vedrò se aspettare i prox driver con supporto alla 88gtx oppure fare la modifica all'ini....tanto finchè mi procuro il gioco....:D :D

@ndrey
30-06-2008, 17:55
ottimo, grazie mille, vedrò se aspettare i prox driver con supporto alla 88gtx oppure fare la modifica all'ini....tanto finchè mi procuro il gioco....:D :D

Prova magari 177.41 whql aggiungendo le stringhe postati prima .., g80 è inclusa, resta da provare :O

lee_oscar
30-06-2008, 18:18
Una cosa non mi torna, ho installato gli ultimi ufficiali (174.19) e il software ageia, se vado nel pannello posso scegliere sia hardware ageia (avendo la scheda) che via gpu, ma non dovrebbe vedermi solo ageia visto che mancano i 177.41 ?

Defragg
30-06-2008, 18:39
Che è la stessa cosa che accadeva già quando si montava un'ageia su un pc con una vga non troppo potente: data l'elevata mole di oggetti in più da renderizzare, il gioco perdeva performance.

Ops scusate... mi iscrivo anch'io qui, forse essendo l'unico ad avere due 8800GT in SLi e una BFG Ageia (serie100 credo).

Benvenuto Sam. :) Comunque no, non sei l'unico, anche Post_2 ha una configurazione molto simile alla tua :)
Esatto, ora le cose sono ancora più gravi visto che se prima la VGA poteva dare il 100%, ora invece può dare di meno (ma non ancora quantificato).
Si la serie è la 100, non ce ne sono state altre a parte la 100M che è quella usata sui portatili (anzi, su un portatile solo).

appleroof
30-06-2008, 18:57
Benvenuto Sam. :) Comunque no, non sei l'unico, anche Post_2 ha una configurazione molto simile alla tua :)
Esatto, ora le cose sono ancora più gravi visto che se prima la VGA poteva dare il 100%, ora invece può dare di meno (ma non ancora quantificato).
Si la serie è la 100, non ce ne sono state altre a parte la 100M che è quella usata sui portatili (anzi, su un portatile solo).

da questa rece http://techgage.com/article/nvidias_physx_performance_and_status_report/3, direi assolutamente nulla di drammatico (anzi molto meglio di quanto mi aspettassi :) ) considerato che i driver possono offrire notevoli margini di miglioramento da questo punto di vista, e sopratutto che praticamente una 9800gtx si candida ormai ad essere la media in casa Nvidia (sarebbe molto più interessante vedere come si comportano le gtx260/280) ;)

Mister Tarpone
30-06-2008, 18:59
da questa rece http://techgage.com/article/nvidias_physx_performance_and_status_report/3, direi assolutamente nulla di drammatico (anzi molto meglio di quanto mi aspettassi :) ) considerato che i driver possono offrire notevoli margini di miglioramento da questo punto di vista, e sopratutto che praticamente una 9800gtx si candida ormai ad essere la media in casa Nvidia (sarebbe molto più interessante vedere come si comportano le gtx260/280) ;)

quoto tutto ;)

Defragg
30-06-2008, 19:30
da questa rece http://techgage.com/article/nvidias_physx_performance_and_status_report/3, direi assolutamente nulla di drammatico (anzi molto meglio di quanto mi aspettassi :) ) considerato che i driver possono offrire notevoli margini di miglioramento da questo punto di vista, e sopratutto che praticamente una 9800gtx si candida ormai ad essere la media in casa Nvidia (sarebbe molto più interessante vedere come si comportano le gtx260/280) ;)

Forse ho usato toni un po' drammatici con "gravi". :D Ma c'è da dire che l'impatto prestazionale c'è, e si sente. :)
Vediamo, spero facciano presto una comparativa delle varie nVidia in ambito rendering+PhysX.

appleroof
30-06-2008, 19:34
Forse ho usato toni un po' drammatici con "gravi". :D Ma c'è da dire che l'impatto prestazionale c'è, e si sente. :)
Vediamo, spero facciano presto una comparativa delle varie nVidia in ambito rendering+PhysX.

credo che sia quantomeno ovvio....per il resto vediamo, credo (e spero :D ) ne vedremo delle belle

by_xfile™
30-06-2008, 20:52
Non è un problema: Havoc gira sulla CPU, come del resto anche PhysiX. PhysiX è usato da un gran numero di giochi, e nessuno di questi richiede un acceleratore dedicato. Con questi giochi usare la GPU per accelerare PhysiX non aumenta ma al massimo può diminuire gli FPS.
(perché la GPU viene aggravata di lavoro che la CPU faceva con facilità).

Usare la GPU per accelerare la fisica serve solo per effetti particolari che la CPU non digerisce. Questi effetti o girano sulla GPU, o non girano: non c'è via di mezzo.

Quello che può succedere, è che ci siano giochi che potranno abilitare alcuni particolari effetti su particolare hardware.

Per PhysiX nel breve termine questi effetti saranno disponibili solo per hardware nVidia, per Havoc ancora non si sa nulla: potrebbe essere solo CPU, solo AMD, o anche AMD+nVidia.

Ovviamente potrebbero fare giochi per cui questi effetti siano "fondamentali", ma ovviamente sarebbero solo tech-demo. :) A meno che davvero i programmatori non si mettano a fare giochi solo per Ati o nVidia, la qual cosa ucciderebbe il già moribondo mondo dei videogiochi su PC.

p.s. Chissà se all'estremo uno non si possa comprare una ATI o nVidia "piccola" da usare come acceleratore fisico dedicato in parallelo a una scheda video di un'altra marca...

ma sarebbe come su consolle che i programmatori di giochi hanno un compilatore per le varie piattaforme , vorrà dire che li implementeranno per ATI e per Nvida , così nel momento che uno scieglie una piattaforma anzichè l' altra restera + fedele ad essa :read: sembra propio :mc:

by_xfile™
30-06-2008, 21:02
io ho la scheda AGEIA PHYSX BFG 128 MB e scheda video ATI X3870x2;)

@ndrey
30-06-2008, 21:04
prova con Infernal :O

http://www.pctunerup.com/up/results/_200806/th_20080630220428_game2008-06-3021-28-52-13.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630220428_game2008-06-3021-28-52-13.jpg) http://www.pctunerup.com/up/results/_200806/th_20080630220431_game2008-06-3021-30-05-44.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630220431_game2008-06-3021-30-05-44.jpg)

Mercuri0
30-06-2008, 21:07
ma sarebbe come su consolle che i programmatori di giochi hanno un compilatere per le varie piattaforme , vorrà dire che li implementeranno per ATI e per Nvida , così nel momento che uno scieglie una piattaforma anzichè l' altra restera + fedele ad essa :read: sembra propio :mc:

All'inizio c'erano le API proprietarie. Chi si ricorda Unreal che girava su glide per le Voodoo?

Poi ci furono gli standard (DirectX, OpenGL) e ora un motore grafico basta che sia scritto per DirectX che gira su tutte le schede video che supportano il DirectX.

Perché per i motori fisici dovrebbe essere diverso? Si può già scrivere un motore fisico che giri sulle DirectX o OpenGL, (2 test del vantage ne sono un esempio) e le Directx11 includeranno "facilitazioni" per farlo.

Perché i programmatori dovrebbero rimettersi a scrivere usando API per ciascuna marca di schede grafiche? Già il mondo dei giochi su PC è moribondo, sarebbe staccare la spina.

appleroof
30-06-2008, 21:29
All'inizio c'erano le API proprietarie. Chi si ricorda Unreal che girava su glide per le Voodoo?

Poi ci furono gli standard (DirectX, OpenGL) e ora un motore grafico basta che sia scritto per DirectX che gira su tutte le schede video che supportano il DirectX.

Perché per i motori fisici dovrebbe essere diverso? Si può già scrivere un motore fisico che giri sulle DirectX o OpenGL, (2 test del vantage ne sono un esempio) e le Directx11 includeranno "facilitazioni" per farlo.

Perché i programmatori dovrebbero rimettersi a scrivere usando API per ciascuna marca di schede grafiche? Già il mondo dei giochi su PC è moribondo, sarebbe staccare la spina.

quello che continui ad ignorare è che sia phisix che havock, volendo, possono girare su schede Nvidia, Ati e quelle che saranno Intel

che poi dx11 porranno uno standard che in quanto tale và bene più facilmente per tutti ci può stare, ma fino alla loro uscita si può dire tutto ed il contrario di tutto su questo aspetto (ovviamente è più probabile che integreranno qualcosa, al riguardo), bisogna poi vedere, se quella sarà la strada, quanto sarà veramente efficace rispetto a soluzioni che di per sè (phisix e ancor più havock, anche se questo è meno avanzato di phisix) girano da anni e aspettano solo di essere spremuti a dovere

la vera domanda mi pare essere: perchè Nvidia, Ati ed Intel si affanno dietro phisix ed havock? Se loro (ovviamente) hanno accesso ad informazioni che noi ci sogniamo (almeno io :D ) -perchè ovviamente conviene a tutti, sapevano delle caratterisitche base delle dx10 anni prima che ci fossero g80 e r600, verosimilmente- e dx11 dovrebbero imporre il loro standard anche nella fisica, perchè tutto questo movimento? Solo per l'immediato e per sperimentare queste possibilità? Mi sembra poca roba (anche se per qualcuno è proprio così) a fronte di milioni di dollari spesi

non so, intanto le primissime cose con phisix le cominciamo a vedere, e già questo dimostra che (almeno per Nvidia, finora) non sono solo chiacchere, le dx11 ancora invece....

appleroof
30-06-2008, 21:33
prova con Infernal :O

http://www.pctunerup.com/up/results/_200806/th_20080630220428_game2008-06-3021-28-52-13.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630220428_game2008-06-3021-28-52-13.jpg) http://www.pctunerup.com/up/results/_200806/th_20080630220431_game2008-06-3021-30-05-44.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630220431_game2008-06-3021-30-05-44.jpg)

bè, qui mi sembra che gli fps volino :D

@ndrey
30-06-2008, 21:38
bè, qui mi sembra che gli fps volino :D

In Infernal si
Cmq anche in UT3 senza physx ho framerate spaventoso :O

Mercuri0
30-06-2008, 21:46
e dx11 dovrebbero imporre il loro standard anche nella fisica, perchè tutto questo movimento?
:cry: :cry:
Evidentemente non riesco a spiegare la differenza tra un "motore fisico" e un API come il directX.

le directX11 non includeranno motori fisici, come le DirectX8,9,10 non includono motori grafici!
Unreal Engine -> DirectX
PhysiX -> Cuda.

Mica l'Unreal Engine, o i Tech di ID, o il CryEngine sono inclusi nel DirectX?

Il vantaggio dell'Unreal Engine (che è un motore grafico) è che, sfruttando un API standard per tutte le GPU, gira su tutte le GPU. Perché non è Physix -> DirectX? Perché nVidia preferisce cosi.

Avevo scritto qualcosa in più in dettaglio rispondendoti nel thread sulla 4870 (http://www.hwupgrade.it/forum/showpost.php?p=23117032&postcount=2691), accennando anche ad HavocFX, che era un motore fisico scritto per girare sulle GPU mediante DirectX9/OpenGL e che è stato prontamente ucciso da lntel appena acquistato.

Comunque, tutto sarà più chiaro a tutti tra 2 mesi circa :)
Un giorno anche i vostri occhi si apriranno alla Verità e alla Conoscenza, e magari quel giorno vi ricorderete di me :ubriachi:

A.L.M.
30-06-2008, 23:20
prova con Infernal :O

http://www.pctunerup.com/up/results/_200806/th_20080630220428_game2008-06-3021-28-52-13.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630220428_game2008-06-3021-28-52-13.jpg) http://www.pctunerup.com/up/results/_200806/th_20080630220431_game2008-06-3021-30-05-44.jpg (http://www.pctunerup.com/up/image.php?src=_200806/20080630220431_game2008-06-3021-30-05-44.jpg)

Uhm, a parte perdere una 30ina abbondante di fps quali sono gli effetti PhysX che si notano? :stordita:

@ndrey
30-06-2008, 23:24
Uhm, a parte perdere una 30ina abbondante di fps quali sono gli effetti PhysX che si notano? :stordita:

non ho capito a cosa ti riferisce.., 30fps? I bidoni che si spaccano.., sono due screen con physx :stordita:

Defragg
30-06-2008, 23:59
Semi-OT: Ma perchè mi storpiate tutti i nomi? :cry: Sono PhysX e Havok :cry: :cry: :cry:

A.L.M.
01-07-2008, 06:19
non ho capito a cosa ti riferisce.., 30fps? I bidoni che si spaccano.., sono due screen con physx :stordita:

Ah, ma sono tutti e 2 con PhysX? Io pensavo che fossero uno senza ed uno con. Quanti fps faresti senza? :)

Mercuri0
01-07-2008, 08:51
non ho capito a cosa ti riferisce.., 30fps? I bidoni che si spaccano.., sono due screen con physx :stordita:
Sensa fisicx non si spaccano? :confused: Dalla review su Hwupgrade mi pareva di si.

Ah, ma sono tutti e 2 con PhysX? Io pensavo che fossero uno senza ed uno con. Quanti fps faresti senza? :)
Mi fa piacere vedere che ti stai informando su Beyond3d prima o poi dovrò iscrivermi anche io, ma vorrei esordire con qualcosa di intelligente da dire :D

...no perché che la fisica sulle GPU serve sopratutto per le simulazioni di fluidodinamica e particellari l'avevo scritto anch'io qui millemila volte ma non mi aveva considerato nessuno :cry:

Per quanto riguarda Inferno credo che l'accelerazione con GPU aumenti il framerate, a me a guardarlo sembra un gioco molto CPU-limited (nel senso che ormai con le GPU attuali fa un botto di fps...)

Testate, testate che qui servono dati, ragazzi.

Ovviamente lo scopo dell'accelerazione fisica sulle GPU non è passare da 80 a 100 FPS (che non serve a nulla), ma realizzare nuovi effetti fisici a costo di effetti grafici.

Free Gordon
01-07-2008, 13:50
Infernal è un giochino con un motore grafico decisamente leggero....

Ci si può fare qualsiasi diavoleria fisica con una 8800 sotto, tanto la GPU non è granchè impegnata. :p
Io lo giocai con una 1800XT 512MB e andava già ad un frame rate folle... :)

@ndrey
01-07-2008, 15:31
Ah, ma sono tutti e 2 con PhysX? Io pensavo che fossero uno senza ed uno con. Quanti fps faresti senza? :)

senza non ho idea :stordita:

@ndrey
01-07-2008, 15:36
Ati a riguardo della fisica cosa farà? Faranno un standard con nvidia o no?!

HackaB321
01-07-2008, 16:45
All'inizio c'erano le API proprietarie. Chi si ricorda Unreal che girava su glide per le Voodoo?

Poi ci furono gli standard (DirectX, OpenGL) e ora un motore grafico basta che sia scritto per DirectX che gira su tutte le schede video che supportano il DirectX.

Perché per i motori fisici dovrebbe essere diverso? Si può già scrivere un motore fisico che giri sulle DirectX o OpenGL, (2 test del vantage ne sono un esempio) e le Directx11 includeranno "facilitazioni" per farlo.

Perché i programmatori dovrebbero rimettersi a scrivere usando API per ciascuna marca di schede grafiche? Già il mondo dei giochi su PC è moribondo, sarebbe staccare la spina.

:cry: :cry:
Evidentemente non riesco a spiegare la differenza tra un "motore fisico" e un API come il directX.

le directX11 non includeranno motori fisici, come le DirectX8,9,10 non includono motori grafici!
Unreal Engine -> DirectX
PhysiX -> Cuda.

Mica l'Unreal Engine, o i Tech di ID, o il CryEngine sono inclusi nel DirectX?

Il vantaggio dell'Unreal Engine (che è un motore grafico) è che, sfruttando un API standard per tutte le GPU, gira su tutte le GPU. Perché non è Physix -> DirectX? Perché nVidia preferisce cosi.

Avevo scritto qualcosa in più in dettaglio rispondendoti nel thread sulla 4870 (http://www.hwupgrade.it/forum/showpost.php?p=23117032&postcount=2691), accennando anche ad HavocFX, che era un motore fisico scritto per girare sulle GPU mediante DirectX9/OpenGL e che è stato prontamente ucciso da lntel appena acquistato.

Comunque, tutto sarà più chiaro a tutti tra 2 mesi circa :)
Un giorno anche i vostri occhi si apriranno alla Verità e alla Conoscenza, e magari quel giorno vi ricorderete di me :ubriachi:

Sensa fisicx non si spaccano? :confused: Dalla review su Hwupgrade mi pareva di si.


Mi fa piacere vedere che ti stai informando su Beyond3d prima o poi dovrò iscrivermi anche io, ma vorrei esordire con qualcosa di intelligente da dire :D

...no perché che la fisica sulle GPU serve sopratutto per le simulazioni di fluidodinamica e particellari l'avevo scritto anch'io qui millemila volte ma non mi aveva considerato nessuno :cry:

Per quanto riguarda Inferno credo che l'accelerazione con GPU aumenti il framerate, a me a guardarlo sembra un gioco molto CPU-limited (nel senso che ormai con le GPU attuali fa un botto di fps...)

Testate, testate che qui servono dati, ragazzi.

Ovviamente lo scopo dell'accelerazione fisica sulle GPU non è passare da 80 a 100 FPS (che non serve a nulla), ma realizzare nuovi effetti fisici a costo di effetti grafici.

Firmo, timbro e sottoscrivo. Sono d'accordo su tutto, specie la parte in grassetto. Ho aperto gli occhi alla Verità e Conoscenza o sono :ubriachi: anch'io?:D

A.L.M.
01-07-2008, 16:52
Infernal è un giochino con un motore grafico decisamente leggero....

Ci si può fare qualsiasi diavoleria fisica con una 8800 sotto, tanto la GPU non è granchè impegnata. :p
Io lo giocai con una 1800XT 512MB e andava già ad un frame rate folle... :)

Molto carino, tra l'altro, io ce l'ho. E mi girava da dio (con AA2x e tutto a palla) già con la Mobility Radeon X1600 (che è una X1600Pro da desktop leggermente occata, in pratica). ;)
Ecco perchè chiedevo quanti fps fa con la GTS512 (anche se volendo potrei fare una prova non appena passo una volta dai miei e uso il fisso... :p ).
Comunque alcuni effetti di pseudo fisica si vedevano già senza l'accelerazione via gpu. :)

appleroof
01-07-2008, 16:54
:cry: :cry:
Evidentemente non riesco a spiegare la differenza tra un "motore fisico" e un API come il directX.

cut

da quello che capisco nei tuoi interventi, le dx11 (dal punto di vista della fisica) dovrebbero soppiantare Cuda o la corrispondente Ati come mezzo per implementare la fisica nei giochi...sbaglio?

blade9722
01-07-2008, 17:04
No blade, non ci siamo.
In un esplosione di vaste proporzioni mi pare logico ipotizzare che ci sia un gran numero di oggetti che subiscono delle conseguenze dovute all'esplosione.
Spostando il carico da CPU a GPU si possono si velocizzare i calcoli fisici, ma dopo chi renderizza tutto il popò di roba che si muove su schermo? Chi applica i vari tipi di effetti, texture, ecc...?
La GPU, ma se questa perde risorse nel calcolo fisico dopo non sarà più in grado di renderizzare fluidamente una determinata scena, perchè come detto non può sfruttare tutte le sue risorse. ;)

La complessita' dell'engine fisico non influenza la quantita' degli oggetti, ma la precisione con cui ne viene calcolata la traiettoria. Se fai un test con il benchmark_CPU2 di Crysis, noterai che ci sono, in corrispondenza di alcune esplosioni, dei cali improvvisi di frame rate. Prendendo in considerazione le scene piu' lente, perlomeno sul mio sistema ho notato che abbassando il dettaglio della fisica ho incremento di frame piu' sostanziale di quello che ottengo abbassando il dettaglio grafico. Questa e' una chiara indicazione del fatto che in queste situazioni sia il calcolo delle traiettorie ad impattare sulle performance, piu' che il rendering degli oggetti.

Per contro, nella stragrande maggioranza dei casi cambiando il dettaglio della fisica non si ha nessuna variazione di performance. Percio' la mia sensazione (e tale rimane, una sensazione) e che nel gameplay tipicamente ci sia una successione di due scenari completamente sbilanciati:

- scenari in cui il frame rate e' interamente dominato dal rendering. In questo caso il carico della fisica, sia che sia gestito dalla GPU che dalla CPU, e' irrilevante.
- scenari in cui il frame rate e' dominato dai calcoli fisici. In questo caso, se la GPU e' piu' veloce della CPU si avra' comunque un incremento di performance.

La situazione che descrivi e' invece tipica di uno scenario in cui il peso della fisica e del rendering sono comparabili, ed in cui la soluzione piu' efficiente potrebbe consistere nella ripartizione del carico.

Come puoi vedere, le ipotesi possono essere le piu' svariate, non condivido tutta questa sicurezza ostentata con quel "non ci siamo".

Defragg
01-07-2008, 17:17
La complessita' dell'engine fisico non influenza la quantita' degli oggetti, ma la precisione con cui ne viene calcolata la traiettoria. Se fai un test con il benchmark_CPU2 di Crysis, noterai che ci sono, in corrispondenza di alcune esplosioni, dei cali improvvisi di frame rate. Prendendo in considerazione le scene piu' lente, perlomeno sul mio sistema ho notato che abbassando il dettaglio della fisica ho incremento di frame piu' sostanziale di quello che ottengo abbassando il dettaglio grafico. Questa e' una chiara indicazione del fatto che in queste situazioni sia il calcolo delle traiettorie ad impattare sulle performance, piu' che il rendering degli oggetti.

Per contro, nella stragrande maggioranza dei casi cambiando il dettaglio della fisica non si ha nessuna variazione di performance. Percio' la mia sensazione (e tale rimane, una sensazione) e che nel gameplay tipicamente ci sia una successione di due scenari completamente sbilanciati:

- scenari in cui il frame rate e' interamente dominato dal rendering. In questo caso il carico della fisica, sia che sia gestito dalla GPU che dalla CPU, e' irrilevante.
- scenari in cui il frame rate e' dominato dai calcoli fisici. In questo caso, se la GPU e' piu' veloce della CPU si avra' comunque un incremento di performance.

La situazione che descrivi e' invece tipica di uno scenario in cui il peso della fisica e del rendering sono comparabili, ed in cui la soluzione piu' efficiente potrebbe consistere nella ripartizione del carico.

Come puoi vedere, le ipotesi possono essere le piu' svariate, non condivido tutta questa sicurezza ostentata con quel "non ci siamo".

C'è un piccolo problema di fondo, intendavamo due cose differenti. :p
Usando la fisica di PhysX oltre a migliorare e rendere più realistici gli effetti fisici, questi vengono inoltre estesi su una scala maggiore.
Ad esempio, una cassa di legno.
Senza PhysX: le sparo da una qualsiasi direzione e la cassa si rompe in un solo modo (o magari in pochi modi diversi, ma sempre quelli) in 5 pezzi.
Con PhysX: le sparo da una qualsiasi direzione e la cassa si rompe sempre diversazmente, i pezzi che la compongono sono 15 (maggiore carico per il rendering), ma non sempre la cassa viene rotta totalmente, dipende da dove viene colpita, e questi pezzi hanno una maggiore "fisicità" ossia un pezzo più grande si comporterà diversamente da uno più piccolo, essendo più pesante.

Quello che forse intendevi tu era a parità di effetti. Ossia sia CPU, PPU che GPU calcolano sempre la stessa cosa.
Ma la filosofia di PhysX è quella di introdurre nuovi effetti fin'ora improponibili per le CPU, non quella di organizzare meglio i carichi di lavoro.

blade9722
01-07-2008, 18:23
C'è un piccolo problema di fondo, intendavamo due cose differenti. :p
Usando la fisica di PhysX oltre a migliorare e rendere più realistici gli effetti fisici, questi vengono inoltre estesi su una scala maggiore.
Ad esempio, una cassa di legno.
Senza PhysX: le sparo da una qualsiasi direzione e la cassa si rompe in un solo modo (o magari in pochi modi diversi, ma sempre quelli) in 5 pezzi.
Con PhysX: le sparo da una qualsiasi direzione e la cassa si rompe sempre diversazmente, i pezzi che la compongono sono 15 (maggiore carico per il rendering), ma non sempre la cassa viene rotta totalmente, dipende da dove viene colpita, e questi pezzi hanno una maggiore "fisicità" ossia un pezzo più grande si comporterà diversamente da uno più piccolo, essendo più pesante.

Quello che forse intendevi tu era a parità di effetti. Ossia sia CPU, PPU che GPU calcolano sempre la stessa cosa.
Ma la filosofia di PhysX è quella di introdurre nuovi effetti fin'ora improponibili per le CPU, non quella di organizzare meglio i carichi di lavoro.

Questo, da quanto ho capito, e' a discrezione degli sviluppatori dei giochi. Alcuni titoli, se rilevano la presenza di hardware dedicato, permettono l'attivazione di ulteriori effetti, ed ovviamente piu' effetti costituiscono un carico maggiore. Non e' sempre cosi', se non erro Crysis non aggiunge nulla. Da questo punto di vista, basta lasciare nelle opzioni la possibilita' di disattivarli, in modo che l'utente possa valutare la soluzione piu' opportuna per la sua configurazione.

appleroof
01-07-2008, 18:33
Segnalo questa http://www.digit-life.com/articles3/video/gt200-part1-p4.html

@Defragg: io la metterei in prima :)

Samoht
02-07-2008, 08:10
prova con Infernal :Obè, qui mi sembra che gli fps volino :DGrazie! ai giorni nostri, Infernal è sì un "giochino", come diceva qualcuno...Uhm, a parte perdere una 30ina abbondante di fps quali sono gli effetti PhysX che si notano? :stordita:non ho capito a cosa ti riferisce.., 30fps? I bidoni che si spaccano..Sensa fisicx non si spaccano? :confused: Dalla review su Hwupgrade mi pareva di si...I bidoni si spaccano cmq, ma con PhysX hardware abilitato, dai bidoni esce del fluido (fateci caso, ma fatecelo velocemente, perchè si nota pochissino :rolleyes: ) e ci sono molti più frammenti nelle esplosioni degli oggetti....Per quanto riguarda Inferno credo che l'accelerazione con GPU aumenti il framerate, a me a guardarlo sembra un gioco molto CPU-limited (nel senso che ormai con le GPU attuali fa un botto di fps...) Ovviamente lo scopo dell'accelerazione fisica sulle GPU non è passare da 80 a 100 FPS (che non serve a nulla), ma realizzare nuovi effetti fisici a costo di effetti grafici.E' "Infernal", non "Inferno" - giusto per la precisione, "Inferno" era un bellissimo (per la sua epoca) simulatore spaziale della Ocean, uscito nel Dicembre del 1994 (che tempi ragazzi...). Cmq vedo che hai centrato in pieno il problema: con il mio Q6600 ad esempio, il framerate non cambia con physx hardware abilitato o meno, mentre si vedono gli effetti dei liquidi e la maggior quantità di frammenti.Semi-OT: Ma perchè mi storpiate tutti i nomi? :cry: Sono PhysX e Havok :cry: :cry: :cry::asd:
Infernal è un giochino con un motore grafico decisamente leggero...Ci si può fare qualsiasi diavoleria fisica con una 8800 sotto, tanto la GPU non è granchè impegnata.Bravo, hai centrato anche tu.

Ma ragazzi, sono l'unico ad essere rimasto profondamente deluso da CellFactor?

Mercuri0
02-07-2008, 08:35
da quello che capisco nei tuoi interventi, le dx11 (dal punto di vista della fisica) dovrebbero soppiantare Cuda o la corrispondente Ati come mezzo per implementare la fisica nei giochi...sbaglio?
:winner:

In realtà c'è di più: non servono neanche le DirectX11 perché i calcoli GPGPU si possono già fare sulle DirectX9 e OpenGL, e in teoria si potrebbe scrivere un motore fisico sopra! (come HavokFX, ucciso da lntel)

I primi esperimenti di GPGPU risalgono a circa il 2002 e venivano fatti su OpenGL.

Le DirectX11 avranno componenti apposta per facilitare la programmazione GPGPU, utili per realizzare robe come motori fisici. Cuda e Cal/brook e OpenCL portano quest'ultimo aspetto all'estremo: sono linguaggi specifici per il GPGPU.

Tutto questo per dire che in questo periodo sia da parte di AMD che nVidia ci sono troppi magheggi di marketing, che hanno poco a che fare con la tecnologia, e che secondo me prima che i motori fisici vengono implementati su un API standard (DirectX) anziché CUDA o CAL, vedremo solo tech-demo.

Se invece il mercato dei videogiochi per PC si divide per giochi per ATI e giochi per nVidia, cancello del tutto la mia partizione Windows :) .
p.s. se Physix o Havok non verranno implementati su una piattaforma standard per fare al meglio i loro effetti, nel mercato c'è spazio per un terzo incomodo ;)
...CryPhysics, il motore fisico di Crysis, potrebbe essere un buon candidato. Ovviamente mi aspetto che il motore privilegiato dagli sviluppatori sarà quello più compatibile.

Firmo, timbro e sottoscrivo. Sono d'accordo su tutto, specie la parte in grassetto. Ho aperto gli occhi alla Verità e Conoscenza o sono :ubriachi: anch'io?:D
Ubriaco era riferito a me, che parlavo di Verità e Conoscenza per queste cose :D

Mercuri0
02-07-2008, 08:44
Ma la filosofia di PhysX è quella di introdurre nuovi effetti fin'ora improponibili per le CPU, non quella di organizzare meglio i carichi di lavoro.
:winner:

E' ovvio però che lntel non sia troppo contenta di questo: preferirebbe che per fare gli effetti "improponibili sulle CPU"... comprassimo CPU più veloci. :D
(e comunque solo per gli effetti meno improponibili)

Se la dipendenza dei giochi dalla CPU si "blocca", come già sta accadendo, avrà sempre meno senso fare l'upgrade della CPU per i gamers, o comprare CPU veloci.

Ecco perché lntel ha compranto e prontamente ucciso HavokFX. Ma ci pensate? Avremmo avuto già da 2 anni fa un motore fisico, già riconosciuto dall'industria dei videogiochi, in grado di essere accelerato da qualunque GPU.

Invece, 2 anni dopo, siamo a qui a farci prendere in giro.

Defragg
02-07-2008, 09:34
PhysX su G84 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6615202&postcount=389) (8600GTS), da prendere con cautela, anche perchè non so il tedesco e non ci ho capito una bega di quello che c'è scritto la. :stordita: :asd:

Defragg
02-07-2008, 09:36
Segnalo questa http://www.digit-life.com/articles3/video/gt200-part1-p4.html

@Defragg: io la metterei in prima :)

Dopo la traduco e la metto in prima, anche se però quel grafico mi pare "commerciale" e non frutto di test del sito.

EDIT: ecco infatti avevo ragione "NVIDIA publishes the following diagram with relative performance results of the most popular physics algorithms in PhysX."
Dai magari questa sera sistemo bene la prima pagina. :)

appleroof
02-07-2008, 15:45
:winner:

In realtà c'è di più: non servono neanche le DirectX11 perché i calcoli GPGPU si possono già fare sulle DirectX9 e OpenGL, e in teoria si potrebbe scrivere un motore fisico sopra! (come HavokFX, ucciso da lntel)

cut

allora avevo capito bene, e allora rimango in disaccordo con te per quello che ho detto e nella misura in cui l'ho detto :asd:

Mister Tarpone
02-07-2008, 18:04
PhysX su G84 (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6615202&postcount=389) (8600GTS), da prendere con cautela, anche perchè non so il tedesco e non ci ho capito una bega di quello che c'è scritto la. :stordita: :asd:

quasi quasi la rimonto... :cool:

@ndrey
02-07-2008, 20:25
Diciamo l’unica cosa che frena per comprare una vga ATI è il discorso ''fisica nei game''
Sicuramente Nvidia non ha comprato Ageia per fare numeri in 3Dmark Vantage, x ciò prevedo una quantità notevole di giochi con supporto physx.
Ora vorrei capire se sarà un standard e sarà compatibile con le vga ATI o rimane esclusiva Nvidia?!
Qst cosa secondo me è molto piu importante di dx10.1..

Tidus.hw
02-07-2008, 21:01
Diciamo l’unica cosa che frena per comprare una vga ATI è il discorso ''fisica nei game''
Sicuramente Nvidia non ha comprato Ageia per fare numeri in 3Dmark Vantage, x ciò prevedo una quantità notevole di giochi con supporto physx.
Ora vorrei capire se sarà un standard e sarà compatibile con le vga ATI o rimane esclusiva Nvidia?!
Qst cosa secondo me è molto piu importante di dx10.1..

tieni comunque conto che finchè serivrà un determinato hardware per far girare il novodex molto velocemente (Geforce8/9 o Ageia PhysX) gli sviluppatori potranno tuttilizzare la fisica solo per abbellimenti vari, niente che coinvolga il gameplay... In modo da lasciare la possibilità a coloro che hanno a disopsizione solo la cpu di fare girare il gioco.

Un pò come è successo fin'ora in tutti i giochi che utilizzano Physx :fagiano:

by_xfile™
02-07-2008, 21:09
...CryPhysics, il motore fisico di Crysis, potrebbe essere un buon candidato. Ovviamente mi aspetto che il motore privilegiato dagli sviluppatori sarà quello più compatibile.


se fanno loro e lo fanno come crysis allora è meglio che passiamo a consolle e abbandoniamo i PC.

Defragg
03-07-2008, 12:19
http://www.hwupgrade.it/news/skvideo/il-punto-di-vista-intel-su-cuda_25845.html

Ragione o meno, su una cosa siamo certi, Intel sta rosicando. :asd:

HackaB321
03-07-2008, 13:02
http://www.hwupgrade.it/news/skvideo/il-punto-di-vista-intel-su-cuda_25845.html

Ragione o meno, su una cosa siamo certi, Intel sta rosicando. :asd:

Dichiarazioni in puro politchese:

1)Lo standard X86 esiste solo per le CPU (anzi solo per una parte di CPU) e non può essere adattato al GPGPU senza stravolgerlo. Larrabbee sarà pure X86 compatibile ma dubito che un compilatore per questa architettura avrà molto in comune con uno per Pentium

2)Cuda è una tecnologia proprietaria che si basa su uno standard che più standard non si può: il linguaggio C. Il problema dell'architettura sarà tale per chi, come Nvidia, dovrà scrivere dei compilatori o dei tool di sviluppo che traducono le istruzioni C del programma nel linguaggio macchina della GPU. Per un programmatore che scrive programmi GPGPU in C cosa può interessare se poi l'hw che eseguirà quel codice non è X86 compatibile? Il C è uno standard nato su server Unix che funzionano da millenni informatici prima che Intel creasse l'X86.

3)Il GPGPU è una nuova forma di programmazione che sfrutterà un hw molto diverso dalle cpu esattamente come la nascente programmazione 3D in DirectX o OpenGL quindici anni fa. Allora per far nascere la miliardiaria industria dei vg su pc bastò creare uno standard. Non ebbe nessuna importanza il fatto che questo standard non avesse niente in comune con le CPU e l'X86. La stessa cosa vale oggi. Si può creare uno standard anche senza l'X86, forse alla Intel sopravvalutano un pò troppo le loro tecnologie.

appleroof
03-07-2008, 14:32
http://www.hwupgrade.it/news/skvideo/il-punto-di-vista-intel-su-cuda_25845.html

Ragione o meno, su una cosa siamo certi, Intel sta rosicando. :asd:

Dichiarazioni in puro politchese:

1)Lo standard X86 esiste solo per le CPU (anzi solo per una parte di CPU) e non può essere adattato al GPGPU senza stravolgerlo. Larrabbee sarà pure X86 compatibile ma dubito che un compilatore per questa architettura avrà molto in comune con uno per Pentium

2)Cuda è una tecnologia proprietaria che si basa su uno standard che più standard non si può: il linguaggio C. Il problema dell'architettura sarà tale per chi, come Nvidia, dovrà scrivere dei compilatori o dei tool di sviluppo che traducono le istruzioni C del programma nel linguaggio macchina della GPU. Per un programmatore che scrive programmi GPGPU in C cosa può interessare se poi l'hw che eseguirà quel codice non è X86 compatibile? Il C è uno standard nato su server Unix che funzionano da millenni informatici prima che Intel creasse l'X86.

3)Il GPGPU è una nuova forma di programmazione che sfrutterà un hw molto diverso dalle cpu esattamente come la nascente programmazione 3D in DirectX o OpenGL quindici anni fa. Allora per far nascere la miliardiaria industria dei vg su pc bastò creare uno standard. Non ebbe nessuna importanza il fatto che questo standard non avesse niente in comune con le CPU e l'X86. La stessa cosa vale oggi. Si può creare uno standard anche senza l'X86, forse alla Intel sopravvalutano un pò troppo le loro tecnologie.

quoto.

rust5
03-07-2008, 19:30
ciao ragazzi, mi iscrivo perchè interessato.

ho installato i drivers 177.35 scaricati da qui:

http://www.nvidia.com/object/cuda_get.html

validi per tutte le serie 8 e superiori (da quanto c'è scritto) senza bisogno di modificare gli inf.

slivio...
04-07-2008, 00:02
un programmatore di guru 3D ha rilasciato un tool...

per attivare disattivare il physics da qui il nome

nv physics tweaker..

link -> http://downloads.guru3d.com/NV-PhysX-Tweaker-1.0-download-1984.html

Defragg
04-07-2008, 00:10
un programmatore di guru 3D ha rilasciato un tool...

per attivare disattivare il physics da qui il nome

nv physics tweaker..

link -> http://downloads.guru3d.com/NV-PhysX-Tweaker-1.0-download-1984.html

Interessante, nel caso la GPU non ce la faccia a garantire frames adeguati si scarica tutto sulla CPU.
Vogliamo bench da voi che potete. :O

@ndrey
04-07-2008, 00:15
Una notizia che non riguarda physx , ma dx10.1 e gddr5 per le prossime vga nvidia.
Interessante..
http://www.tgdaily.com/content/view/38247/135/

Defragg
04-07-2008, 00:21
Una notizia che non riguarda physx , ma dx10.1 e gddr5 per le prossime vga nvidia.
Interessante..
http://www.tgdaily.com/content/view/38247/135/

Allora AMD aveva ragione eh? :asd:
Quindi avremo un GT300 molto interessante, per la top azzardo un 384bit, 1536Mb di VRAM GDDR5.
Ho aggiunto il link all'utility in prima pagina, notte gente. :)

Mister Tarpone
04-07-2008, 00:26
Una notizia che non riguarda physx , ma dx10.1 e gddr5 per le prossime vga nvidia.
Interessante..
http://www.tgdaily.com/content/view/38247/135/

@ndrey "ti rubo" la notizia per postarla nel thread della gtx +

;)

albortola
04-07-2008, 02:06
Ho un dubbio..io sapevo che ageia vendeva delle schede da affiancare alla vga, alle quali era dato il compito di fare i calcoli per la fisica, nei pochi giochi supportati.
Ora che physx è nelle nvidia, la fisica dovrebbe essere più curata. Ora mi chiedo: i calcoli che prima facevano le schede esterne, ora, li fa la vga? credo proprio di si da quanto leggo.
ma se la vga deve fare i suoi calcoli + la fisica, non si avrà un'abbassamento di frames medi??

Fire Hurricane
04-07-2008, 10:06
Interessante, nel caso la GPU non ce la faccia a garantire frames adeguati si scarica tutto sulla CPU.
Vogliamo bench da voi che potete. :O

la capacità di calcolo di una GPU è enormemente superiore ad una cpu.
il compito della fisica non lo sente neanche. La cpu invece lo sente un po' quello della fisica, quindi mai scaricare alla cpu, soprattutto per i cpu limited.

se hai una VGA che ne risente allora è troppo vecchia, è da buttare.

Fire Hurricane
04-07-2008, 10:10
Ho un dubbio..io sapevo che ageia vendeva delle schede da affiancare alla vga, alle quali era dato il compito di fare i calcoli per la fisica, nei pochi giochi supportati.
Ora che physx è nelle nvidia, la fisica dovrebbe essere più curata. Ora mi chiedo: i calcoli che prima facevano le schede esterne, ora, li fa la vga? credo proprio di si da quanto leggo.
ma se la vga deve fare i suoi calcoli + la fisica, non si avrà un'abbassamento di frames medi??

si i calcoli ora òi fa la gpu, ma le schede ageiA mi sa che lo facevano un po' meglio, comunque calo di frame no o comunque insignificane, la fisica è un lavoro di cui una gpu risente per niente. Però può avere grandi vantaggi con la fisica del game che rispetto ad havok fa paura.

co sti ultimi driver poi il calo è un po' difficile visto che con gli 177.41 hanno ingranato ancora di più le prestazioni.

a favore di chi è cpu limited, per i giochi supportati ovvio,

Defragg
04-07-2008, 11:45
la capacità di calcolo di una GPU è enormemente superiore ad una cpu.
il compito della fisica non lo sente neanche. La cpu invece lo sente un po' quello della fisica, quindi mai scaricare alla cpu, soprattutto per i cpu limited.

se hai una VGA che ne risente allora è troppo vecchia, è da buttare.

Ancora con questa storia? :rolleyes:
Le GPU non sono più potenti delle CPU, lo sono solo in alcuni ambiti, ossia il calcolo in virgola mobile e il calcolo parallelo.

si i calcoli ora òi fa la gpu, ma le schede ageiA mi sa che lo facevano un po' meglio, comunque calo di frame no o comunque insignificane, la fisica è un lavoro di cui una gpu risente per niente. Però può avere grandi vantaggi con la fisica del game che rispetto ad havok fa paura.

co sti ultimi driver poi il calo è un po' difficile visto che con gli 177.41 hanno ingranato ancora di più le prestazioni.

a favore di chi è cpu limited, per i giochi supportati ovvio,

http://techgage.com/articles/nvidia/physx/utiii_results_2.png

La risoluzione è di 2560x1600, situazione assolutamente non-CPU limited (tranne magari con i 3-Way SLi di GTX 200).

Inoltre: Unreal Tournament III is one of the few games out there that has the ability to utilize all four cores in your Quad-Core, and I have in the past seen it hit 100% on multiple cores during specific tests. What we should take from this is that even though the physics can be off-loaded to the GPU, the CPU still plays an important role.

Possiamo vedere come il framerate sia sostanzialmente uguale sia con CPU che GPU PhysX, questo mostra che la CPU lavora sempre al suo massimo, infatti nel caso del GPU PhysX, il framerate è comunque inferiore anche se la CPU è sgravata, per via della mancanza di potenza da parte della GPU.
Possiamo inoltre notare come nel caso del PPU PhysX i frame siano superiori, visto che sia CPU che GPU possono dare il loro massimo.

albortola
04-07-2008, 11:52
Ancora con questa storia? :rolleyes:
Le GPU non sono più potenti delle CPU, lo sono solo in alcuni ambiti, ossia il calcolo in virgola mobile e il calcolo parallelo.



http://techgage.com/articles/nvidia/physx/utiii_results_2.png

La risoluzione è di 2560x1600, situazione assolutamente non-CPU limited (tranne magari con i 3-Way SLi di GTX 200).

Inoltre: Unreal Tournament III is one of the few games out there that has the ability to utilize all four cores in your Quad-Core, and I have in the past seen it hit 100% on multiple cores during specific tests. What we should take from this is that even though the physics can be off-loaded to the GPU, the CPU still plays an important role.

Possiamo vedere come il framerate sia sostanzialmente uguale sia con CPU che GPU PhysX, questo mostra che la CPU lavora sempre al suo massimo, infatti nel caso del GPU PhysX, il framerate è comunque inferiore anche se la CPU è sgravata, per via della mancanza di potenza da parte della GPU.
Possiamo inoltre notare come nel caso del PPU PhysX i frame siano superiori, visto che sia CPU che GPU possono dare il loro massimo.
non mi sono fatto strani viaggi allora, ciò che pensavo è la realtà:D

Pc-abart
04-07-2008, 16:21
Iscritto ;)
Ho scaricato i driva 177.41 e poi messo i PhysX...spero di aver fatto bene anche perche il vantage è passato da 8600 a 8600 non credo che siano risultati in linea!

Fire Hurricane
04-07-2008, 17:36
no infatti.

ImperatoreDiaz
04-07-2008, 18:19
a sembra che con i driver PhysX mi sia salita la temperatura della gpu (77° in full su GRID , 75° su Mass Effect ) mentre prima il picco massimo era stato su Crysis ( 72° )

by_xfile™
04-07-2008, 19:57
Interessante, nel caso la GPU non ce la faccia a garantire frames adeguati si scarica tutto sulla CPU.
Vogliamo bench da voi che potete. :O

appena finisco di montare la mia nuova bestiola sarò uno dei primi test che farò

però dovete elencare i programmi che servono , perchè non sono un fanatico di benc.

Rafiluccio
04-07-2008, 22:32
scusate l'avrete ripetuto 1000 volte .... ma potete ripeterlo e aiutarmi ... devo installare su windows vista 64 i driver della scheda video .. vorrei installare questi con la nuova opzione i 177.41 ???:rolleyes: .... per adesso ho i 175.19 ??? c'è con questi driver si perde o si migliore come fluidità ??? e per farli funzionare sulla mia 8800 gts 512mb , come in prima pagina ..... attraverso una modifica del file .inf dei driver ..... :confused: ????

grazie mille

A.L.M.
04-07-2008, 22:54
Una notizia che non riguarda physx , ma dx10.1 e gddr5 per le prossime vga nvidia.
Interessante..
http://www.tgdaily.com/content/view/38247/135/

Allora AMD aveva ragione eh? :asd:
Quindi avremo un GT300 molto interessante, per la top azzardo un 384bit, 1536Mb di VRAM GDDR5.
Ho aggiunto il link all'utility in prima pagina, notte gente. :)

Fine 2008 mi pare presto per le GDDR5, in pratica rivoluzioneranno G200 dopo meno di 6 mesi (più di una voce autorevole ha confermato che passare alle GDDR5 per NVidia è abbastanza complesso, senza cambiare G200 in modo piuttosto pesante).
Se la notizia fosse vera, però, le DX10.1 sarebbero qualcosa in più del mero marketing, evidentemente. ;)

Mercuri0
05-07-2008, 10:12
CPU vs GPU

GPU: tante unità aritmetiche semplici, bandwidth esagerato
CPU: branch prediction, superscalare, unità aritmetica complessa, ottima gestione della cache.

Round 1:
GPU
Test:"Cambia la luminosità di una immagine da 10 Mps"

"Fatto!"

CPU:
Test:"Cambia la luminosità di una immagine da 10 Mps"

"Cambio al pixel 1
Cambio al pixel 2
Cambio al pixel 3
....
Cambio al pixel 1.032.312
...
uff uff
...
Cambio al pixel ...."
etc

Nonostante i clock molto più alti della CPU, la GPU può processare tutto in parallelo.


Round 2:

GPU:
Test:"Se a è diverso da b, vai a c altrimenti prosegui"

"Emm.. scusa dov'è esattamente che devo andare?"
"A c, se a è diverso da b"
"Sicuro, si?"
"Si, altrimenti prosegui"
"Altrimenti che?... dai non farla difficile!"
...
...
"Senti, se ti ricambiassi la luminosità all'immagine di prima?"

CPU:
Test:"Se a..."

"Fatto!"
"Ehi!, ma devo ancora finire la domanda!"
"Potenza del branch prediction, cocco!"

Sulle "decisioni" la GPU entra in crisi e possono rallentare completamente le sue operazioni. Le CPU sono anni che vengono ottimizzate per far quello.

Verdetto:
calcoli e algoritmi complessi su un "ristretto" insieme di dati->CPU
calcoli e algoritmi "semplici" su un grande insieme di dati->GPU.

Nota di colore:
Processore ARM
Test:"Se a..."

"Vado a c."
"Ehi!, ma devo ancora finire la domanda!"
"Zi, ma il compilatore mi ha fatto la soffiata di andare a c" :D

Defragg
05-07-2008, 12:48
Non ho capito bene una cosa riguardo il branch prediction, sulle CPU è molto evoluto, ma sulle GPU? Cosa comporterebbe importare un branch prediction da CPU su una GPU?
Sono domande ignoranti, visto che il mio livello tecnico si ferma molto prima. :stordita:

Tidus.hw
05-07-2008, 13:02
Non ho capito bene una cosa riguardo il branch prediction, sulle CPU è molto evoluto, ma sulle GPU? Cosa comporterebbe importare un branch prediction da CPU su una GPU?
Sono domande ignoranti, visto che il mio livello tecnico si ferma molto prima. :stordita:

penso che sarebbe completamente inutile dato che se c'è bisogno dell'unita di predizione si presuppone che si usano moltitudini di istruzioni diverse senza linearità, cosa che sulla vga non accade minimamente.

Tanto è vero che normalmente nella memoria video della scheda video vengono contenuti i dati da processare, mentre nei registri contenuti nei vari gruppi di alu ci sono le varie costanti, o pochi byte di dati che vengono passati spessissimo alle funzioni contenute nei vari threads..

Almeno questo è quello che mi sembra di aver capito leggicchiando la documentazione di cuda, magari qualcuno che ha effettivamente programmato con cuda potrà dare conferma o meno..

Mercuri0
05-07-2008, 15:01
Non ho capito bene una cosa riguardo il branch prediction, sulle CPU è molto evoluto, ma sulle GPU? Cosa comporterebbe importare un branch prediction da CPU su una GPU?
Sono domande ignoranti, visto che il mio livello tecnico si ferma molto prima. :stordita:
A dire il vero, ho solo una vaga idea di queste cose.

Ma senza andar troppo nei dettagli, suppongo però che il fatto che un "core" CPU sia 100 volte più grande di un "core" GPU conti qualcosa. ;)

Inoltre la maggior parte dello spazio del core CPU (mi sembra 70-80% o giù di li) è occupato da logica decisionale, predittiva, di controllo, e sopratutto dalla memoria cache. Mentre quando si parla di "core" GPU in effetti si parla di unità aritmetiche dure e pure.

Pc-abart
05-07-2008, 15:58
I PhysX Driver 8.06.12 vanno sia su OS 32 che 64 bit?

Rafiluccio
05-07-2008, 17:01
scusate l'avrete ripetuto 1000 volte .... ma potete ripeterlo e aiutarmi ... devo installare su windows vista 64 i driver della scheda video .. vorrei installare questi con la nuova opzione i 177.41 ???:rolleyes: .... per adesso ho i 175.19 ??? c'è con questi driver si perde o si migliore come fluidità ??? e per farli funzionare sulla mia 8800 gts 512mb , come in prima pagina ..... attraverso una modifica del file .inf dei driver ..... :confused: ????

grazie mille

nessuno mi aiuta a capire ??? :help: grazie mille

Blustorm74
05-07-2008, 17:42
nessuno mi aiuta a capire ??? :help: grazie mille

Di sicuro c'è che ti conviene cambiare i 175.19 con i 177.40 o 177.41 perchè ho letto che qualcuno che li ha installati dopo i 175.16 ha visto calare notevolmente le prestazioni con questi drivers.:)

Rafiluccio
05-07-2008, 19:21
Di sicuro c'è che ti conviene cambiare i 175.19 con i 177.40 o 177.41 perchè ho letto che qualcuno che li ha installati dopo i 175.16 ha visto calare notevolmente le prestazioni con questi drivers.:)

installo quindi i 177.41........ e i driver PhysX ? ma questi diver contengono all'interno i driver physk ???? o devo cmq installarli e modarli peer farli funzionare con la 8800 gts 512mb .

perdonatemi ma i driver 177.41 che ho scaricato in italiano sul sito dellla nvidia sono per la serie 9 e GT200 .... come faccio a farli funzionare anche co la mia 8800 gts ???
grazie mille

Defragg
05-07-2008, 23:42
A dire il vero, ho solo una vaga idea di queste cose.

Ma senza andar troppo nei dettagli, suppongo però che il fatto che un "core" CPU sia 100 volte più grande di un "core" GPU conti qualcosa. ;)

Inoltre la maggior parte dello spazio del core CPU (mi sembra 70-80% o giù di li) è occupato da logica decisionale, predittiva, di controllo, e sopratutto dalla memoria cache. Mentre quando si parla di "core" GPU in effetti si parla di unità aritmetiche dure e pure.

Hai riassiunto perfettamente, grazie mille. :)

slivio...
06-07-2008, 08:08
installo quindi i 177.41........ e i driver PhysX ? ma questi diver contengono all'interno i driver physk ???? o devo cmq installarli e modarli peer farli funzionare con la 8800 gts 512mb .

perdonatemi ma i driver 177.41 che ho scaricato in italiano sul sito dellla nvidia sono per la serie 9 e GT200 .... come faccio a farli funzionare anche co la mia 8800 gts ???
grazie mille

estraili in una nuova cartella e sostituisci il file nv4_disp.inf con il moddato per i 177.41 (x XP)

te lo metto in allegato qui..

ciao

slivio...
06-07-2008, 08:10
defragg perchè non agg. il 1° post con i 177.41 e metti pure l'inf allegato... per questi drivers?

Rafiluccio
06-07-2008, 08:34
estraili in una nuova cartella e sostituisci il file nv4_disp.inf con il moddato per i 177.41 (x XP)

te lo metto in allegato qui..

ciao

perdonami .... io li devo usare con vista 64 ! vanno bene cmq ???

slivio...
06-07-2008, 08:39
perdonami .... io li devo usare con vista 64 ! vanno bene cmq ???


no no.. quelli sono per xp32bit.. non mi avevi accennato all'so


per il 64bit sempre in allegato



ciao

Rafiluccio
06-07-2008, 09:56
no no.. quelli sono per xp32bit.. non mi avevi accennato all'so


per il 64bit sempre in allegato



ciao

grazie mille ... questi non hanno bisogno di installare i driver physix 08.06.12 ... sono già compresi all'interno .... e con la tua modifica verranno direttamente riconosciuta dalla mia 8800 gts 512... giusto ? :rolleyes:
perdona la mia ignoranza ma oltre ad essere ignorante in materie , mi hanno solo confuso le idee... :cry:

grazie mille :ave: :ave:

slivio...
06-07-2008, 09:58
grazie mille ... questi non hanno bisogno di installare i driver physix 08.06.12 ... sono già compresi all'interno .... e con la tua modifica verranno direttamente riconosciuta dalla mia 8800 gts 512... giusto ? :rolleyes:
perdona la mia ignoranza ma oltre ad essere ignorante in materie , mi hanno solo confuso le idee... :cry:

grazie mille :ave: :ave:


dipende da dove hai preso i 177.41.. fmmi vedere che te lo dico..

slivio...
06-07-2008, 10:09
vabè ho visto i 177.41 non contengono iol pacco physics.. che dovrai scaricare a parte da qui:

http://www.nvidia.com/object/physx_8.06.12_whql.html


infatti i 177.39 sono bem 114mb e le info sui driver lo dicono:

Il pacchetto di driver GeForce v177.39 include il software di sistema NVIDIA PhysX v8.06.12

mentre i 177.41 sono circa 72mb quindi senza pacco physics che come ho prima detto puoi prelevare da qui:

http://www.nvidia.com/object/physx_8.06.12_whql.html

se serve altro dimmelo

Defragg
06-07-2008, 10:13
Ho aggiornato la prima pagina nella sezione driver ;)

Rafiluccio
06-07-2008, 10:17
vabè ho visto i 177.41 non contengono iol pacco physics.. che dovrai scaricare a parte da qui:

http://www.nvidia.com/object/physx_8.06.12_whql.html


infatti i 177.39 sono bem 114mb e le info sui driver lo dicono:

Il pacchetto di driver GeForce v177.39 include il software di sistema NVIDIA PhysX v8.06.12

mentre i 177.41 sono circa 72mb quindi senza pacco physics che come ho prima detto puoi prelevare da qui:

http://www.nvidia.com/object/physx_8.06.12_whql.html

se serve altro dimmelo


ho scaricato il pacchetto 177.41 dal sito nvidia in italiano per la serie gt200 .... che poi dopo installato andrò a modare ... e poi installo i driver physx ... grazie mille sei stato gentilissimo ... :)

slivio...
06-07-2008, 10:24
metti la pagina dove si trovano gli inf moddati...

cosi la gente non ammattisce a trovare l'inf.. per tutte le vga.. ;9


i link di partenza sono questi:

per gli inf moddati dalla vers. drivers dallla vers 17x.xx in su è questo:

http://www.laptopvideo2go.com/forum/index.php?showforum=88

per i precendenti rifarsi a questo link generale e guardare bnelle relative sezioni e subsezioni:

http://www.laptopvideo2go.com/forum/

per i physX nuovi e passati e loro stato d'arte questo:

http://www.laptopvideo2go.com/forum/index.php?showforum=95

ciao

slivio...
06-07-2008, 10:27
ho scaricato il pacchetto 177.41 dal sito nvidia in italiano per la serie gt200 .... che poi dopo installato andrò a modare ... e poi installo i driver physx ... grazie mille sei stato gentilissimo ... :)

se prima non lo moddi il pacchetto 177.41 non si installera mai perche manca il supporto.. registro per la tua vga.. quindi prima metti... l'inf moddato ai 177.41 previa estrazione del pacchetto sostituendo l'inf con quello messo da me in allegato... quindi li installi...

se si installano evidentemente... hai scaricato il pacchetto gia moddato.. ma che sicuramente non hai preso da nvidia...

ciao

Rafiluccio
06-07-2008, 10:58
se prima non lo moddi il pacchetto 177.41 non si installera mai perche manca il supporto.. registro per la tua vga.. quindi prima metti... l'inf moddato ai 177.41 previa estrazione del pacchetto sostituendo l'inf con quello messo da me in allegato... quindi li installi...

se si installano evidentemente... hai scaricato il pacchetto gia moddato.. ma che sicuramente non hai preso da nvidia...

ciao

scaricato i driver dal sito della nvidia in iitaliano .... adesso li ho modati per installarli ... e una volta installati installo i driver physx 08.06.12 ..... giusto ?
scusami ....

slivio...
06-07-2008, 17:42
scaricato i driver dal sito della nvidia in iitaliano .... adesso li ho modati per installarli ... e una volta installati installo i driver physx 08.06.12 ..... giusto ?
scusami ....

si

fdadakjli
06-07-2008, 17:46
si sa se usciranno driver con supporto alle G80??

martinez1983
06-07-2008, 18:06
si sa se usciranno driver con supporto alle G80??


Ciao Delly,
dovrebbero uscire nelle prossime realese il supporto per tutta la serie 8!!!

Io gli aspetto per provarli con le mie 2 8800GTX!!!

fdadakjli
06-07-2008, 18:10
Ciao Delly,
dovrebbero uscire nelle prossime realese il supporto per tutta la serie 8!!!

Io gli aspetto per provarli con le mie 2 8800GTX!!!

bene...ho una 8800Ultra sul muletto...:p

appleroof
06-07-2008, 19:40
bene...ho una 8800Ultra sul muletto...:p

:eek: :asd:

@ndrey
08-07-2008, 02:45
Nvidia V(amd/ati)S Intel :D
http://www.tomshw.it/news.php?newsid=14643

HackaB321
08-07-2008, 07:36
Nvidia dà sostegno allo smanettone:D

http://www.tomshw.it/news.php?newsid=14657

praticamente Nvidia dà una mano ad uno sviluppatore a scrivere driver per ATi. Questa cosa che sembra assurda, in realtà assurda non è: nvidia stia cercando di trasformare Physx in uno standard.

@ndrey
08-07-2008, 08:37
Nvidia dà sostegno allo smanettone:D

http://www.tomshw.it/news.php?newsid=14657

praticamente Nvidia dà una mano ad uno sviluppatore a scrivere driver per ATi. Questa cosa che sembra assurda, in realtà assurda non è: nvidia stia cercando di trasformare Physx in uno standard.

Colpo di scena :asd:

@ndrey
08-07-2008, 08:51
Nvidia cerca in tutti modi togliere dalle @@ Intel..,ma lol

Mercuri0
08-07-2008, 09:57
Nvidia dà sostegno allo smanettone:D

http://www.tomshw.it/news.php?newsid=14657

praticamente Nvidia dà una mano ad uno sviluppatore a scrivere driver per ATi. Questa cosa che sembra assurda, in realtà assurda non è: nvidia stia cercando di trasformare Physx in uno standard.
Imo il tipo nVidia lo metterebbe volentieri in carcere.
Adesso ci si affida a uno che modda i driver per fare una cosa del genere? :confused:

Imo la storia ha contorni veramente poco chiari.

Comunque, nel gioco delle "tre tigri", se PhysiX diventa vantaggioso perché accelerato dalla GPU, anche Havok sarà costretto ad esserlo.

La cosa che mi fa paura nella storia è che i produttori di hardware comincino a diventare fornitori di "middleware" di cui mantengono il controllo. Sarebbe veramente deleterio per il mondo gaming su PC, se si creasse frammentazione nella compatibilità dell'hardware.

Microsoft, dove sei? Due anni fa avevi assunto gente per implementare le "DirectPhysics". Che fine ha fatto quel progetto? Non avrei mai pensato di doverlo dire... ma abbiamo bisogno di te!

Oddio, anche Epic, Id e Crytek potrebbero far uscire qualcosa di interessante. Certo che il fatto che Physix e Havok siano gratuiti per l'uso non aiuta gli sviluppatori terzi a produrre un concorrente.

La situazione è agghiacciante.

Mercuri0
08-07-2008, 10:10
Nvidia cerca in tutti modi togliere dalle @@ Intel..,ma lol
nVidia è in una posizione delicata. Abbiamo visto quanto poco ci voglia a perdere l'alone di "imbattibilità" che aveva.

E nVidia per essere competitiva è costretta ad essere Uber, perché a parità di caratteristiche, gli OEM e gli utenti preferiranno un sistema completo AMD o lntel.
(Vedrete la mazzata che prenderà quest'anno sui portatili.)

Mi rendo conto del perché stiano cercando di crearsi qualche vantaggio competitivo spingendo in maniera aggressiva la diffusione delle loro tecnologie proprietarie

Visto "da fuori" la soluzione ideale è uno standard... ma forse uno standard non consente a nVidia di sopravvivere.

Imo la condizione ideale per noi utenti è che, almeno per i videogiochi, Larrabee risulti una ciofeca indicibile. Faccio convintamente il tifo per il fallimento di Larrabee.
(in realtà faccio anche il tifo per un asteroide su una fonderia lntel di domenica, ma questo è un altro discorso... :asd:)

@ndrey
08-07-2008, 10:14
chiuderanno le bancarelle se il mondo gaming su PC andrà a calare..
Troveranno sicuramente un accordo..
PS. Zio Bill se ne andato in pensione e guarda ke succede :asd:

HackaB321
08-07-2008, 10:23
Ecco che dice lo smanettone

would like to update you about what’s going on. First, we were very pleased to see so many users and readers have applied to our Beta Test Program! To be specific: 191 users, 5 spies and 2 double agents have submitted applications during the last week. Those that will be chosen will be informed early before the beta is available – we can’t still point to “when” at this stage.

The bad news is we still don’t have access to any HD 4800 hardware yet. It is very important for this project to receive AMD’s support on both developer and PR levels. It seems that AMD still is not being cooperative, we get the feeling that they want this project to fail. Perhaps their plans are to strangle PhysX since AMD and Intel have Havok. We truly hope this is not the case since “format wars” are really bad for the consumers (For example: Blu-ray vs. HD-DVD).

Before we get to the good news, I’m going to ask you to hold on to something steady as some of you are going to feel a bit dizzy after you hear this. The truth is… Nvidia is now helping us with the project and it seems they are giving us their blessings. It’s very impressive, inspiring and motivating to see Nvidia's view on this. Why they help us? My best guess would be: They probably want to take on Intel with CUDA and to deal with the latest Havok threat from both AMD and Intel.

Some other good news, we are getting a lot of help from cool journalists like Theo Valich to address the HD 4800 access issue. I can confirm that our CUDA Radeon library is almost done and everything is going as planned on this side. There are some issues that need to be addressed, since adding Radeon support in CUDA isn’t a big deal - but it’s not enough! We also need to add CUDA support on AMD’s driver level and its being addressed as we speak.

http://www.ngohq.com/news/14254-physx-gpu-acceleration-radeon-update.html

Mercuri0
08-07-2008, 10:23
chiuderanno le bancarelle se il mondo gaming su PC andrà a calare..
Troveranno sicuramente un accordo..
PS. Zio Bill se ne andato in pensione e guarda ke succede :asd:
Già. Zio Bill, torna da noiiiii! :cry:

E' pure vero che MS ormai s'è impelagata con la Xbox e col pc gaming mantiene un atteggiamento ambiguo.

Da un lato sembra che ci tenga, da un lato fa in modo che i suoi giochi escano prima per Xbox che per PC per venderli per la console.

è 'nu casin. Senza MS a guidare, mi spiace dirlo, AMD, nVidia, lntel e parenti non riescono a mettersi d'accordo per le OpenGL 3.0 - la cui storia sta diventando una farsa.

Bah, forse ci salva la Apple, roba da non credere. :( L'OpenCL è farina del loro sacco, e anche se è stato proposto come standard alla stessa organizzazione dell'OpenGL, almeno Apple ha premura che lo standard arrivi in porto.

Mercuri0
08-07-2008, 10:29
Ecco che dice lo smanettone

L'avevo letto già prima di rispondere al tuo post precedente, e riconfermo in toto quello che ho scritto.

It seems that AMD still is not being cooperative, we get the feeling that they want this project to fail. Perhaps their plans are to strangle PhysX since AMD and Intel have Havok. We truly hope this is not the case since “format wars” are really bad for the consumers

Che tutta la storia intorno ai motori fisici sia solo un problema "politico", penso sia ormai chiaro a tutti.

Ma ditemi voi come AMD possa supportare ufficialmente qualcosa del genere (sempre che la storia sia vera) se prima non raggiunge un accordo con nVidia. E per nVidia vale più o meno lo stesso.

I driver modder sono passabili di denuncia perché violano non so quante clause nell'eula.

edit: vado a vedere che dicono su beyond

lowenz
08-07-2008, 10:51
Anche qui: http://www.tgdaily.com/html_tmp/content-view-38283-135.html

by_xfile™
08-07-2008, 11:40
Nvidia V(amd/ati)S Intel :D
http://www.tomshw.it/news.php?newsid=14643

ottimo speriamo a breve DX

Mercuri0
08-07-2008, 19:27
Sob... altre schifezze da aggiungere alla discussione.

Ho trovato un post su beyond3d (tal "nick" - che dovrebbe essere una delle capocce del Vantage). Il tipo ha analizzato come si comporta PhysiX quando gira sulle CPU.

Ecco le sue meste conclusioni:

For optimized code you'd expect to see SSE code, not ancient x87 FPU code. You also wouldn't see a division, but rather a reciprocal approximation with a Newton-Raphson iteration. You also wouldn't see a compare followed by storing the flags in an integer register followed by a test followed by a jump, but rather a branchless approach with logical operations. And don't even get me started on multi-core support.

Hardware accelerate physics will remain a joke as long as they need to cheat to beat the CPU.
http://forum.beyond3d.com/showthread.php?t=48717&page=2

In sostanza: il motore per CPU di PhisX non usa minimamente le SSE e neanche il multicore! (per dirne due)
Nick conclude dicendo: "La fisica accelerata sull'hardware rimarrà sempre uno scherzo se devono imbrogliare per battere la CPU:"

Marò, che brutta storia :(

slivio...
08-07-2008, 22:20
non so io ho visto degli shot a suo tempo.. di adavnced warfigher 1 senza e con accelleraz.. della fisica.. con ageia le differenze c'erano e si notavano... davvero... nelle esplosioni nelle schegge... e quant'altro di simile..

M4R1|<
08-07-2008, 22:28
interessantissimo thread e ottima home, c'è un solo errore le tmu della 8800 gts 512 sono 64 e nn 56 :p

slivio...
08-07-2008, 22:49
su questo sito che molti conoscono...

TweakForce (http://www.tweakforce.com/)

ci sono i driver moddati.. sia nvidia che ati

da quello che si legge proprio sulla home in questo momento:

"Today Tweakforce releases the Xtreme-G 177.41 Display Drivers for Windows Vista and XP Operating Systems. This driver is recommended to all 9 series and GTX2xx series users. The XG177.41 driver has included support for all desktop cards, however due to the premature release of the CUDA PhysX Support, 8 series users are recommended to stay with the XG175.63 Driver until PhysX is officially supported for your GPU. Thank You for your continued support and as always your constructive feedback is appreciated"

sembra che i moddati XG175.63 sono supportati.. da physics per tutte le schede.. ovvero dalla serie 8.xxx in poi... sconsigliano per l'appunto i driver 177.41... per la serie 8.xxx che viceversa sono consigliati per la serie... GT2xx e la serie 9.xxx.. quindi mettete gli XG175.63 tra l'altro adesso mettono anche il ultilingua nei moddati prima li facevano solo inglese...

download XG175.63 (http://tweakforce.com/goz5000/XTreme-G%20175.63%20XP%2032%20bit.exe)

ciao

slivio...
09-07-2008, 10:25
ciao...

qualcuno sa darmi una risposta a questo quesito?
sembra tutto ok ma io le mappe physX non le vedo...

link -> MOD pach physX UT3 (http://www.hwupgrade.it/forum/showpost.php?p=23237297&postcount=99)

ImperatoreDiaz
09-07-2008, 11:56
su questo sito che molti conoscono...

TweakForce (http://www.tweakforce.com/)

ci sono i driver moddati.. sia nvidia che ati

da quello che si legge proprio sulla home in questo momento:

"Today Tweakforce releases the Xtreme-G 177.41 Display Drivers for Windows Vista and XP Operating Systems. This driver is recommended to all 9 series and GTX2xx series users. The XG177.41 driver has included support for all desktop cards, however due to the premature release of the CUDA PhysX Support, 8 series users are recommended to stay with the XG175.63 Driver until PhysX is officially supported for your GPU. Thank You for your continued support and as always your constructive feedback is appreciated"

sembra che i moddati XG175.63 sono supportati.. da physics per tutte le schede.. ovvero dalla serie 8.xxx in poi... sconsigliano per l'appunto i driver 177.41... per la serie 8.xxx che viceversa sono consigliati per la serie... GT2xx e la serie 9.xxx.. quindi mettete gli XG175.63 tra l'altro adesso mettono anche il ultilingua nei moddati prima li facevano solo inglese...

download XG175.63 (http://tweakforce.com/goz5000/XTreme-G%20175.63%20XP%2032%20bit.exe)

ciao

Che cosa cambia con questi driver?

Free Gordon
09-07-2008, 12:12
Dichiarazioni in puro politchese:

1)Lo standard X86 esiste solo per le CPU (anzi solo per una parte di CPU) e non può essere adattato al GPGPU senza stravolgerlo. Larrabbee sarà pure X86 compatibile ma dubito che un compilatore per questa architettura avrà molto in comune con uno per Pentium

2)Cuda è una tecnologia proprietaria che si basa su uno standard che più standard non si può: il linguaggio C. Il problema dell'architettura sarà tale per chi, come Nvidia, dovrà scrivere dei compilatori o dei tool di sviluppo che traducono le istruzioni C del programma nel linguaggio macchina della GPU. Per un programmatore che scrive programmi GPGPU in C cosa può interessare se poi l'hw che eseguirà quel codice non è X86 compatibile? Il C è uno standard nato su server Unix che funzionano da millenni informatici prima che Intel creasse l'X86.

3)Il GPGPU è una nuova forma di programmazione che sfrutterà un hw molto diverso dalle cpu esattamente come la nascente programmazione 3D in DirectX o OpenGL quindici anni fa. Allora per far nascere la miliardiaria industria dei vg su pc bastò creare uno standard. Non ebbe nessuna importanza il fatto che questo standard non avesse niente in comune con le CPU e l'X86. La stessa cosa vale oggi. Si può creare uno standard anche senza l'X86, forse alla Intel sopravvalutano un pò troppo le loro tecnologie.


Quotone.

Ma attenderei prima di tirar conclusioni, ora non si è ancora ben capito che cosa sarà, effettivamente, Larrabee...

Free Gordon
09-07-2008, 12:14
Allora AMD aveva ragione eh? :asd:
Quindi avremo un GT300 molto interessante, per la top azzardo un 384bit, 1536Mb di VRAM GDDR5.
Ho aggiunto il link all'utility in prima pagina, notte gente. :)


Il memory controller cambierà radicalmente, per cui non credo che ci saranno di nuovo i tagli strani (probabile restino sul 256bit che con DDR5 a 5ghz, basta e avanza... :D ).

@ndrey
09-07-2008, 16:02
ciao...

qualcuno sa darmi una risposta a questo quesito?
sembra tutto ok ma io le mappe physX non le vedo...

link -> MOD pach physX UT3 (http://www.hwupgrade.it/forum/showpost.php?p=23237297&postcount=99)

Le mappe ci sono.., sono infondo, ma senza nome x qst sembra che non ci sono..
Cmq 2 mappe trovi nelle conquiste delle bandiere e una in deadmatch.. sono 3 in tutto.

appleroof
10-07-2008, 19:00
EDIT: già postata

wizard83
12-07-2008, 06:46
è possibile usare la fisica con questi driver su una gpu g80 tipo 8800gts? grazie ciao!

Defragg
12-07-2008, 08:06
è possibile usare la fisica con questi driver su una gpu g80 tipo 8800gts? grazie ciao!

Guarda la prima pagina... :rolleyes:

Zak84
12-07-2008, 13:01
Scusate la domanda trita e ritrita... ma come lo abilito il physx sulla 9500m gs?
Ho installato sul portatile i 177.41, i physx 8.06.12 e il .NET 3.5.
Mi è comparso il pannello dei physx nel menu avvio ma dice che non trova hardware compatibile.
Sul sito nVidia però dice che la mia scheda è supportata....
Per installare i driver ho usato il file inf consigliato nella thread ufficile dell'Acer 5920g.

Il file si trova qui: Link (http://www.laptopvideo2go.com/forum/index.php?showtopic=19270)

Ho sbagliato qualcosa io?


BYEZZZZZZZZZ!!!!!!!!!!!!! :)

Zak84
12-07-2008, 17:38
Qualche dritta? E' normale che per il momento non funzioni? Bisogna aspettare qualche nuova versione di driver?

BYEZZZZZZZZZZZ!!!!!!!!!!!!!!:)

Flyflot
13-07-2008, 19:13
Ciao a tutti
Marted' mi arriva la Gtx 260.
Ho scaricato i driver 177.41 e quelli PhysX_8.06.12.
Ora se non sbaglio prima installo i forceware poi gli altri.
Come faccio a capire se ho abilitato la gestione Physx?
Conviene sempre tenerla attiva?
Ho anche scaricato il programma NV PhysX Tweaker
Questo se non sbaglio attiva/disabilita il supporti Physx?
Grazie.
Andrea.

Zak84
14-07-2008, 19:37
Scusate la domanda trita e ritrita... ma come lo abilito il physx sulla 9500m gs?
Ho installato sul portatile i 177.41, i physx 8.06.12 e il .NET 3.5.
Mi è comparso il pannello dei physx nel menu avvio ma dice che non trova hardware compatibile.
Sul sito nVidia però dice che la mia scheda è supportata....
Per installare i driver ho usato il file inf consigliato nella thread ufficile dell'Acer 5920g.

Il file si trova qui: Link (http://www.laptopvideo2go.com/forum/index.php?showtopic=19270)

Ho sbagliato qualcosa io?


BYEZZZZZZZZZ!!!!!!!!!!!!! :)


UP! :mc:

appleroof
14-07-2008, 19:54
UP! :mc:

se c'è un tread ufficiale che riguarda proprio la tua gpu, ti consiglierei di chiedere di là...

Zak84
14-07-2008, 20:14
Non c'è... e comunque è qui che si parla di nVidia PhysX no? :D

by_xfile™
14-07-2008, 20:16
Non c'è... e comunque è qui che si parla di nVidia PhysX no? :D

A me sembrerebbe di si, poi non so

Zak84
14-07-2008, 20:47
Scusa ma se c'è io non la trovo... ti dispiacerebbe linkarmela?

appleroof
14-07-2008, 21:41
Non c'è... e comunque è qui che si parla di nVidia PhysX no? :D

hai ragione...bè io non ti so aiutare, l'unico consiglio che ti potrei dare è avere pazienza ed aspettare i dirver ufficiali per la tua gpu che supportino phisx....:boh:

Defragg
15-07-2008, 12:06
http://www.tomshw.it/news.php?newsid=14747

In sostanza AMD si porta al centro, cercando di massimizzare l'ottimizzazione dei carichi dei calcoli, delegando alla CPU determinati calcoli fisici, e alla GPU altri tipi di calcoli fisici.
Ad esempio la simulazione dei fluidi può essere spostata sulla GPU, mentre la simulazione del peso (e quindi il comportamento) di un oggetto che si trova nel fluido può essere calcolata dalla CPU.
Interessante.
Mi piace anche il fatto degli standard aperti, che ci si possa aspettare un OpenPL? :D

Mercuri0
15-07-2008, 12:32
http://www.tomshw.it/news.php?newsid=14747

In sostanza AMD si porta al centro,
C'è poco di interessante in tutta questa storia finché non vengono fuori dalle magagne politiche.

Per esempio il tipo di Futuremark ha verificato che quando il PhysiX gira su CPU praticamente rallenta di proposito. (cioé non sfrutta le più banali ottimizzazioni dei processori di oggi, multi core, sse...)

Come si fa a discorrere di "ripartire il carico" se ancora bisogna discutere di queste magagne?

Mi piace anche il fatto degli standard aperti, che ci si possa aspettare un OpenPL? :D
Basterebbe che i motori ficisi fossero scritti da terzi (come oggi succede con quelli grafici) e che girassero su un api standard come OpenCL o DirectX11, come oggi succede per quelli grafici.

La storia dei motori fisici legati all'hardware ci ha riportato indietro di 10 anni almeno... ai tempi delle librerie proprietarie per ciascuna GPU. Chi si ricorda le "glide"?

Defragg
15-07-2008, 12:42
C'è poco di interessante in tutta questa storia finché non vengono fuori dalle magagne politiche.

Per esempio il tipo di Futuremark ha verificato che quando il PhysiX gira su CPU praticamente rallenta di proposito. (cioé non sfrutta le più banali ottimizzazioni dei processori di oggi, multi core, sse...)

Come si fa a discorrere di "ripartire il carico" se ancora bisogna discutere di queste magagne?

Il punto è che si è arrivati al punto di dire: "basta con tutto sto casino e dateci la fisica come cavolo volete che ce la vogliamo godere" :D
E comunque il mio discorso era più improntato sul lato tecnico. E' ovvio che prima di tutto bisogna sfruttare a fondo quello che si ha già (CPU) e poi nel caso ci fossero problemi di ripiegare su altro hardware (GPU).
Boh sto andando un po' in confusione :stordita:
Basterebbe che i motori ficisi fossero scritti da terzi (come oggi succede con quelli grafici) e che girassero su un api standard come OpenCL o DirectX11, come oggi succede per quelli grafici.

Havok ad esempio inizialmente è stato scritto da terzi, visto che al tempo Havok non aveva niente a che fare con Intel o altri ed era una società a se stante.
La storia dei motori fisici legati all'hardware ci ha riportato indietro di 10 anni almeno... ai tempi delle librerie proprietarie per ciascuna GPU. Chi si ricorda le "glide"?

Ricordo benissimo le Glide della 3dfx, ai tempi ero piccino :D, e si notava la differenza nel confronto con e senza. :)

@ndrey
15-07-2008, 18:39
Amd rifiuta PhysX e blocca il sviluppo x le Radeon?! >>LINK (http://www.tgdaily.com/html_tmp/content-view-38392-118.html)

:O

Flyflot
15-07-2008, 19:49
Ciao a tutti
oggi mi è arrivata la Gtx 260, ho installato tutti i driver compresi quelli Nvidia Ageia, ho scaricato il programma NV PhysX Tweaker, fatto partire, ma non parte.
Mi da come un suono il windows di errore e non succede niente
Come mai?
Andrea

appleroof
15-07-2008, 21:03
Ciao a tutti
oggi mi è arrivata la Gtx 260, ho installato tutti i driver compresi quelli Nvidia Ageia, ho scaricato il programma NV PhysX Tweaker, fatto partire, ma non parte.
Mi da come un suono il windows di errore e non succede niente
Come mai?
Andrea

provato con questi? http://www.hwupgrade.it/news/skvideo/i-primi-driver-nvidia-con-supporto-physx-integrato_25769.html

by_xfile™
15-07-2008, 21:13
http://www.tomshw.it/news.php?newsid=14747

In sostanza AMD si porta al centro, cercando di massimizzare l'ottimizzazione dei carichi dei calcoli, delegando alla CPU determinati calcoli fisici, e alla GPU altri tipi di calcoli fisici.
Ad esempio la simulazione dei fluidi può essere spostata sulla GPU, mentre la simulazione del peso (e quindi il comportamento) di un oggetto che si trova nel fluido può essere calcolata dalla CPU.
Interessante.
Mi piace anche il fatto degli standard aperti, che ci si possa aspettare un OpenPL? :D

Sarebbe interessante se non fosse che già adesso siamo in CPU limited con molti programmi, e le GPU per questo motivo non si riescono a sfruttare al massimo.
ci vorrebbe come molti se non tutti dicono uno standard otimizzato al massimo, realizzato a DOC di terze parti e disponibili a tutti.

Defragg
15-07-2008, 23:50
Sarebbe interessante se non fosse che già adesso siamo in CPU limited con molti programmi, e le GPU per questo motivo non si riescono a sfruttare al massimo.
ci vorrebbe come molti se non tutti dicono uno standard otimizzato al massimo, realizzato a DOC di terze parti e disponibili a tutti.

A parte che si dice ad HOC :D
Il punto è che siamo CPU limited soprattutto perchè alla base le CPU odierne non vengono sfruttate, sia per difficoltà di programmazione (ottimizzare un engine fisico per 4 o 5 architetture di CPU è un lavoraccio non da poco) sia per pigrizia dei developer.

by_xfile™
15-07-2008, 23:58
A parte che si dice ad HOC :D
Il punto è che siamo CPU limited soprattutto perchè alla base le CPU odierne non vengono sfruttate, sia per difficoltà di programmazione (ottimizzare un engine fisico per 4 o 5 architetture di CPU è un lavoraccio non da poco) sia per pigrizia dei developer.

si ma di fatti il problema maggiore è l' ottimizzazione
comunque basterebbero dei compilatori con le p.....e considerando che ci sono sistemi con na botta di CPU e lavorano ottimizzati al 1000%
diciamo che è solo per pigrizia anzi a dirla tutta è " perchè ottimizzare al TOP se frà 6 mesi escono CPU più performanti" altrimenti chi le compra :read:

io ho ancore un vecchio C64 datato 1985 che lavora da dio senza nessun problema, SW realizzato a HOC e via.

Mercuri0
16-07-2008, 12:09
Il punto è che si è arrivati al punto di dire: "basta con tutto sto casino e dateci la fisica come cavolo volete che ce la vogliamo godere" :D

L'unico modo per cui noi potremmo goderci la fisica è quando queste magagne politiche e di marketing finiscono e cominciano a tirar fuori la tecnologia e gli standard.

Sarebbe interessante se non fosse che già adesso siamo in CPU limited con molti programmi
Ma dove? Sopratutto coi giochi!

Il 3dmark2006 ha davvero confuso le idee su cosa vuol dire essere "CPU - limited".

Mi dispace che la campagna di nVidia "Ma guardate che la storia del CPU-limited è una balla" non sia stata rumorosa come avrebbe dovuto.
Li aiuto un pò io, va.
http://blogs.nvidia.com/sli/2008/06/day-in-the-life.html
http://www.tomshardware.com/reviews/cpu-gpu-upgrade,1928.html

Performance increase of GPU by overclocking the Q6600@2.4 to3.2 GHz Percent
Geforce 9800 GTX (512 MB) Q6600@3.2 107.6
Geforce 9600 GT OC (1024 MB) Q6600@3.2 105.8
Geforce 8800 GTS OC (512 MB) Q6600@3.2 107.5
Geforce 8800 GT OC (512 MB) Q6600@3.2 106.3
Geforce 7950 GT (512 MB) Q6600@3.2 100.7
Geforce 6800 GT (256 MB) Q6600@3.2 101.4

Mercuri0
16-07-2008, 12:13
Il punto è che siamo CPU limited soprattutto perchè alla base le CPU odierne non vengono sfruttate
Siamo CPU limited un ciufulo! La gente usa Quad Core overcloccati a 4GigaHertz pensando che così chattano o navigano più veloci, ( :muro: ) e il fatto che i giochi non sfruttino la CPU è proprio perché sono GPU limited!

Bellissimi i test con la risoluzione a 800x600 che mostrano differenze di 20FPS tra i processori (200FPS piuttosto che 180FPS) come se queste fossero indicativi di qualcosa: visto che alle risoluzioni a cui si giochi o nei giochi futuri, sarà la GPU ad essere sotto stress e la CPU starà ad aspettarla.

La storia che PhysiX è scarsamente ottimizzato per la CPU non è per "pigrizia" ma "di proposito" perché qualsiasi programma che fa conti, da Photoshop a Videolan, passando per il Lame e quel che vi pare, è ben ottimizzato per la CPU.

Zak84
16-07-2008, 12:22
http://blogs.nvidia.com/sli/2008/06/day-in-the-life.html


Ho trovato la mia ragazza ideale! :flower:


BYEZZZZZZZZZZZZZ!!!!!!!!!!!! :oink:

Mercuri0
16-07-2008, 12:39
Ho trovato la mia ragazza ideale! :flower:

Par lavori veramente in nVidia. Magari ti passa le schede nuove prima che escano sul mercato. ;)

Comunque io non sopporto gli overclockers, figurati una ragazza (che già si sopporta male di suo :D )

Fire Hurricane
16-07-2008, 13:07
allora qualcuno ha trovatovantaggi tangibili o no ? :O

appleroof
16-07-2008, 14:03
posto anche di qua: phisx su 9800gtx+

http://forums.slizone.com/index.php?showtopic=24853&st=0&p=193453&#entry193453

R0570
18-07-2008, 10:50
ciao a tutti, qualche giorno fa ho provato ad installare i driver con supporto physx x la mia 9800gtx ma graw2 non mi lascia vedere le mappe x ageia nemmeno lo stesso.

è un problema del driver oppure esistono giochi che supportano solo l'ageia physx e non l'nvidia physx???

ByE

Defragg
24-07-2008, 11:29
http://www.hwupgrade.it/news/software/driver-nvidia-whql-con-supporto-alla-fisica-ad-agosto_26086.html

Sono previsti per i primi giorni del mese di Agosto i primi driver NVIDIA per schede video GeForce serie 8, 9 e GTX dotati di certificazione WHQL di Microsoft e di supporto alla fisica nei giochi attraverso API PhysX.

I nuovi driver Forceware, stando alle informazioni riportate dal sito TGdaily con questa notizia, sono attesi al riascio il prossimo 5 Agosto. La loro compatibilità è con tutte le schede video NVIDIA GeForce dotate di architettura programmabile a shader unificati: parliamo quindi delle schede dalla famiglia GeForce 8 in poi, e non solo delle più recenti schede GeForce GTX 260 e GeForce GTX 280 presentate lo scorso mese di Giugno.

Ricordiamo come negli scorsi mesi NVIDIA abbia acquisito Ageia, azienda che ha sviluppato negli ultimi anni delle proprie API, PhysX, rivolte specificamente all'utilizzo di effetti di fisica con i più recenti videogiochi. Ageia ha parallelamente sviluppato una propria architettura hardware, indicata come PPU (Physics Processing Unit), desinata ad accelerare la gestione degli effetti di fisica.

Al momento attuale il numero di titoli dotati di supporti diretto alle API PhysX è particolarmente ridotto: si tratta infatti di Ghost Recon 2: Advanced Warfighter, Warmonger e Cell Factor: Revolution. E' ovviamente prevista una maggiore diffusione di queste API in titoli di prossima presentazione ora che il loro supporto verrà assicurato per tutte le schede video NVIDIA dotate di architettura a shader unificati.

Per poter ottenere i migliori risultati prestazionali con queste API è preferibile utilizzare schede video NVIDIA GeForce di elevata potenza elaborativa: l'elaborazione degli effetti legati alla fisica, infatti, porta a ridurre in parte le risorse a disposizione della GPU per la tradizionale parte di generazione della scena 3D.

Jacksoft
29-07-2008, 21:46
Salve a tutti!
Ho provato ad installare i 177.41 con inf modificato e successivamente il software Physx di Nvidia, ma Physx non mi riconosce la VGA :(
Premetto che è una 8800GS TOP, però ha chip G92 (Everest mi dice G92GS, sarà per questo? °_°)
Il bello è che con i vecchi driver (175.16) Physx mi riconosceva la VGA, solo che le prestazioni erano le stesse XD

Secondo voi con i driver che dovranno uscire i primi di Agosto si risolverà tutto? (Anche se sarei quasi tentato di mettere la versione Beta °-°)

Tidus.hw
29-07-2008, 23:20
Salve a tutti!
Ho provato ad installare i 177.41 con inf modificato e successivamente il software Physx di Nvidia, ma Physx non mi riconosce la VGA :(
Premetto che è una 8800GS TOP, però ha chip G92 (Everest mi dice G92GS, sarà per questo? °_°)
Il bello è che con i vecchi driver (175.16) Physx mi riconosceva la VGA, solo che le prestazioni erano le stesse XD

Secondo voi con i driver che dovranno uscire i primi di Agosto si risolverà tutto? (Anche se sarei quasi tentato di mettere la versione Beta °-°)

i driver che ci sono ora dovrebbero supportare solo il 3dmark vantage e alcune mappe di ut3... i prossimi tutti i giochi che usano la scheda di ageia :)

MaxRob
30-07-2008, 11:32
ho i 177.79 con gli ultimi driver physics ma in Warmonger non vedo differenze.

Defragg
30-07-2008, 13:01
"Abbiamo evidenziato nei giorni scorsi, con questa notizia, l'intenzione di NVIDIA di rendere disponibile una nuova revision di driver Forceware, per le proprie schede video della serie GeForce 8, GeForce 9 e GeForce GTX 200, dotata di supporto WHQL certificato alle funzionalità di gestione della fisica implementate nelle API PhysX di Ageia. I driver dovrebbero venir rilasciati nel corso della prima settimana del mese di Agosto; la loro compatibilità è con tutte le schede video NVIDIA GeForce dotate di architettura programmabile a shader unificati.

Ricordiamo come negli scorsi mesi NVIDIA abbia acquisito Ageia, azienda che ha sviluppato negli ultimi anni delle proprie API, PhysX, rivolte specificamente all'utilizzo di effetti di fisica con i più recenti videogiochi. Ageia ha parallelamente sviluppato una propria architettura hardware, indicata come PPU (Physics Processing Unit), desinata ad accelerare la gestione degli effetti di fisica. Al momento attuale il numero di titoli dotati di supporti diretto alle API PhysX è particolarmente ridotto: si tratta infatti di Ghost Recon 2: Advanced Warfighter, Warmonger e Cell Factor: Revolution. E' ovviamente prevista una maggiore diffusione di queste API in titoli di prossima presentazione ora che il loro supporto verrà assicurato per tutte le schede video NVIDIA dotate di architettura a shader unificati.

Segnaliamo una notizia riportata dal sito Bit-Tech a questo indirizzo (http://www.bit-tech.net/news/2008/07/29/nvidia-physx-pack-due-shortly/1): i nuovi driver con supporto PhysX permetteranno di gestire solo una GPU per volta per calcoli legati alla fisica. Questa peculiarità non dovrebbe tuttavia rappresentare una limitazione con configurazioni SLI, in quanto i driver riconoscono le due GPU collegate via SLI come un'unica unità di elaborazione. I driver, di conseguenza, provvederanno ad inviare alle GPU disponibili nel sistema le varie elaborazioni a seconda che si tratti di calocli legati alla fisica o altro.

In successive versioni di driver sarà possibile assegnare ad una specifica GPU le elaborazioni legate alla fisica: questo permetterà di configurare sistemi con schede video NVIDIA di tipo differente, ad esempio una GeForce 8800 GTS e una Geforce GTX 280, dedicando una delle due alla fisica e la seconda a tutte le altre tradizionali operazioni 3D. E' da evidenziare come questo non richieda di avere un sistema SLI o una scheda madre con chipset compatibile con questa tecnologia: qualsiasi sistema con due Slot PCI Express 16x e due schede video NVIDIA dotate di architettura a shader unificati potrà operare in questo modo."

http://www.hwupgrade.it/news/software/driver-nvidia-e-fisica-le-future-evoluzioni_26151.html

Rodig
30-07-2008, 14:09
[I]......Al momento attuale il numero di titoli dotati di supporti diretto alle API PhysX è particolarmente ridotto: si tratta infatti di Ghost Recon 2: Advanced Warfighter, Warmonger e Cell Factor: Revolution.


Ho provato Warmonger (fra l'altro é free, come pure Cell Factor) con una 9600GT e driver 175.16 + Ageia......
E' una cosa pazzesca, 5-6 fps nelle scene un po' concitate
Penso che senza hardware dedicato i giochi scritti appositamente per le PhysX siano ingiocabili

appleroof
30-07-2008, 16:53
cut
In successive versioni di driver sarà possibile assegnare ad una specifica GPU le elaborazioni legate alla fisica: questo permetterà di configurare sistemi con schede video NVIDIA di tipo differente, ad esempio una GeForce 8800 GTS e una Geforce GTX 280, dedicando una delle due alla fisica e la seconda a tutte le altre tradizionali operazioni 3D. E' da evidenziare come questo non richieda di avere un sistema SLI o una scheda madre con chipset compatibile con questa tecnologia: qualsiasi sistema con due Slot PCI Express 16x e due schede video NVIDIA dotate di architettura a shader unificati potrà operare in questo modo."[/I]

http://www.hwupgrade.it/news/software/driver-nvidia-e-fisica-le-future-evoluzioni_26151.html

senza dubbio molto, molto, molto interessante :D (e pronosticato da me un paio d'anni fà su questo stesso forum :cool: :D )

peccato non avere una mobo con più slot pci-ex :stordita:

Tidus.hw
30-07-2008, 17:01
qualsiasi sistema con due Slot PCI Express 16x e due schede video NVIDIA dotate di architettura a shader unificati potrà operare in questo modo.[/B]"[/I]

http://www.hwupgrade.it/news/software/driver-nvidia-e-fisica-le-future-evoluzioni_26151.html

doh, e io che volevo fare HD4870 + 8600gt XD

appleroof
30-07-2008, 17:04
doh, e io che volevo fare HD4870 + 8600gt XD

se Amd avesse accettato le lusinghe Nvidia riguardo a phisyx, più probabilmente avresti potuto fare 4870+3850, che non sarebbe stato male, e ovviamente per i giochi che supporteranno (?) physx (perchè credo che quasi sicuramente Amd proporrà qualcosa di simile in funzione havock....)

Tidus.hw
30-07-2008, 17:18
se Amd avesse accettato le lusinghe Nvidia riguardo a phisyx, più probabilmente avresti potuto fare 4870+3850, che non sarebbe stato male, e ovviamente per i giochi che supporteranno (?) physx (perchè credo che quasi sicuramente Amd proporrà qualcosa di simile in funzione havock....)

sinceramente preferisco stare senza l'accelerazione hw della fisica che avere nvidia col monopolio degli engine fisici XD

a questo punto aspetterò che ms o qualche altra compagnia faccia un interfaccia standard per permettere agli engine fisici di comunicare con qualsiasi gpu (dx11? opencl? :D )
ciau

Defragg
30-07-2008, 17:47
senza dubbio molto, molto, molto interessante :D (e pronosticato da me un paio d'anni fà su questo stesso forum :cool: :D )

peccato non avere una mobo con più slot pci-ex :stordita:

Che è la stessa soluzione che prometteva ATi con le X1xxx, ossia X1900 per la grafica e scheda da X1600 o superiore per la fisica.
Solo che finalmente qualcuno ora ha deciso di immetterla nel mercato.

Defragg
30-07-2008, 17:50
sinceramente preferisco stare senza l'accelerazione hw della fisica che avere nvidia col monopolio degli engine fisici XD
Di sicuro non succederà una cosa del genere, il Novodex della ormai ex-AGEIA, ora nVidia, non rappresenta l'engine fisico di riferimento, anche se occupa una bella parte del mercato, visto che è quello fornito di default con l'Unreal Engine 3.
Piccola precisazione, con UE3 gli sviluppatori sono liberi di implementare l'engire fisico che preferiscono, vedi Bioshock che usa appunto, l'Havok.
a questo punto aspetterò che ms o qualche altra compagnia faccia un interfaccia standard per permettere agli engine fisici di comunicare con qualsiasi gpu (dx11? opencl? :D )
ciau

Di sicuro MS farà qualcosa del genere.
Resta da capire quando.

appleroof
30-07-2008, 17:54
sinceramente preferisco stare senza l'accelerazione hw della fisica che avere nvidia col monopolio degli engine fisici XD

a questo punto aspetterò che ms o qualche altra compagnia faccia un interfaccia standard per permettere agli engine fisici di comunicare con qualsiasi gpu (dx11? opencl? :D )
ciau

mah, per me quello che conta è il risultato: il monopolio delle dx in fondo ci piace no? E non è che avere un monopolio su un engine grafico condizioni il progresso tecnologico (diverse intepretazioni delle medesime linee guida) di questa o quella compagnia di vga come non l'ha condizionato il monopolio di fatto delle directx :)

Tidus.hw
30-07-2008, 17:59
mah, per me quello che conta è il risultato: il monopolio delle dx in fondo ci piace no? E non è che avere un monopolio su un engine grafico condizioni il progresso tecnologico (diverse intepretazioni delle medesime linee guida) di questa o quella compagnia di vga come non l'ha condizionato il monopolio di fatto delle directx :)

beh le dx sono delle librerie non sono un engine, e ms non produce mica schede video.. è un altra cosa :D

@defragg:

sono stato un pò vago, intendevo: monopolio degli engine fisici accelerabili via hw :fagiano:

Defragg
30-07-2008, 18:01
mah, per me quello che conta è il risultato: il monopolio delle dx in fondo ci piace no? E non è che avere un monopolio su un engine grafico condizioni il progresso tecnologico (diverse intepretazioni delle medesime linee guida) di questa o quella compagnia di vga come non l'ha condizionato il monopolio di fatto delle directx :)

Il monopolio delle DX è dato da una casa di software, che produce anche il sistema operativo che tutti usiamo per giocare.
Se il monopolio fosse di una casa hardware tutti i concorrenti ne rimarrebbero tagliati fuori. ;)

appleroof
30-07-2008, 18:05
beh le dx sono delle librerie non sono un engine, e ms non produce mica schede video.. è un altra cosa :D


Il monopolio delle DX è dato da una casa di software, che produce anche il sistema operativo che tutti usiamo per giocare.
Se il monopolio fosse di una casa hardware tutti i concorrenti ne rimarrebbero tagliati fuori. ;)

a parte che come giustamente detto, non credo proprio che avremo un monopolio della fisica da parte di Nvidia, occorre cmq ricordare che questa aveva offerto il supporto libero (senza pagamento di royalties ecc) ad Amd: sarebbe stato quindi, se fossimo arrivati ad un monopolio, tutt'altro che controproducente da un punto di vista economico per i concorrenti

parliamo di una liberia grafica, o di un engine fisico, sempre di sw stiamo parlando

Tidus.hw
30-07-2008, 18:15
a parte che come giustamente detto, non credo proprio che avremo un monopolio della fisica da parte di Nvidia, occorre cmq ricordare che questa aveva offerto il supporto libero (senza pagamento di royalties ecc) ad Amd: sarebbe stato quindi, se fossimo arrivati ad un monopolio, tutt'altro che controproducente da un punto di vista economico per i concorrenti

parliamo di una liberia grafica, o di un engine fisico, sempre di sw stiamo parlando

mah, secondo me a nvidia interessava solo e unicamente imporlo come standard anticipando ogni mossa di intel, in questo caso a pagare sarebbe stata proprio intel che tra l'altro aveva stretto un accordo con amd per havok, chi lo sa :D

fatto sta che a quanto pare sia amd che intel preferiscono la fisica via cpu...

fatto che da un punto di vista condivido io, visto che comunque in ogni caso i programmatori non possono fare giochi con una fisica pesante per quelli che possono contare solo sulla cpu, ma al massimo possono fare qualche cavolata tipo il livello aggiuntivo o la vetrina che si spacca...

ciau

appleroof
30-07-2008, 18:21
mah, secondo me a nvidia interessava solo e unicamente imporlo come standard anticipando ogni mossa di intel

bè si mi pare ovvio ma non vedo come cambi i termini del discorso

, in questo caso a pagare sarebbe stata proprio intel che tra l'altro aveva stretto un accordo con amd per havok, chi lo sa :D

fatto sta che a quanto pare sia amd che intel preferiscono la fisica via cpu...

l'accordo tra Intel e Amd è successivo alle proposte Nvidia ad Amd, e cmq si, credo che abbia pesato il progetto fusion sulla scelta di Amd, alla fine la verità la sanno solo loro....:D

fatto che da un punto di vista condivido io, visto che comunque in ogni caso i programmatori non possono fare giochi con una fisica pesante per quelli che possono contare solo sulla cpu, ma al massimo possono fare qualche cavolata tipo il livello aggiuntivo o la vetrina che si spacca...ciau

semplicemente adottare un settaggio che esclude la fisica per i pc meno potenti, esattamente come fai oggi per qualsiasi altra feature che il tuo pc non ce la fà a gestire al meglio....:boh:

a me interessa che si imponga uno standard, tant'è che se si accordassero anche havock potrebbe essere accellerato su schede Nvidia, a quel punto avremmo una convergenza che non potrebbe fare che bene a noi tutti appassionati, ma i bambini pensano solo a litigare alla faccia nostra :read:

robertogl
30-07-2008, 18:24
domanda:sono necessari per forza due slot pci ex 16x?cioè,visto che le ageia erano usate su slot pci semplice,se mettessi la scheda per la fisica nello slot 4x e quella per il 3d in quello 16x?come sarebbero le prestazioni?

Defragg
30-07-2008, 18:28
domanda:sono necessari per forza due slot pci ex 16x?cioè,visto che le ageia erano usate su slot pci semplice,se mettessi la scheda per la fisica nello slot 4x e quella per il 3d in quello 16x?come sarebbero le prestazioni?

Sono soluzioni ancora non presenti sul mercato. Ce le sognamo le prestazioni su 4x o 16x? ;)

Tidus.hw
30-07-2008, 18:39
semplicemente adottare un settaggio che esclude la fisica per i pc meno potenti, esattamente come fai oggi per qualsiasi altra feature che il tuo pc non ce la fà a gestire al meglio....:boh:


si, ma il punto è che in questo modo i programmatori sono costretti a usare la "super fisica" solo per abbellimenti vari e niente che intacchi il gameplay...

metti che esca un gioco che sfrutti la fisica accelerata di ageia come hl2 ha fruttato l'havok 2 in passato... Sarebbe impossibile farne una versione che giri in software sulla cpu :D

appleroof
30-07-2008, 18:47
si, ma il punto è che in questo modo i programmatori sono costretti a usare la "super fisica" solo per abbellimenti vari e niente che intacchi il gameplay...

metti che esca un gioco che sfrutti la fisica accelerata di ageia come hl2 ha fruttato l'havok 2 in passato... Sarebbe impossibile farne una versione che giri in software sulla cpu :D

e vabbè ma di questo passo non vedremmo mai alcuna fisica nei vg :D

magari potrebbero abilitare "vari livelli" di effetti fisici, come ci sono settaggi vari per una stessa feature, non lo so vedremo, credo che come te lo sei posto tu senz'altro se lo pongono i capoccioni questo problema

Tidus.hw
30-07-2008, 18:55
e vabbè ma di questo passo non vedremmo mai alcuna fisica nei vg :D

magari potrebbero abilitare "vari livelli" di effetti fisici, come ci sono settaggi vari per una stessa feature, non lo so vedremo, credo che come te lo sei posto tu senz'altro se lo pongono i capoccioni questo problema

è lo stesso problema ogni volta che si passa a uno standard superiore non retrocompatibile.

Hai mai visto un gioco only dx10? :D

appleroof
30-07-2008, 19:13
è lo stesso problema ogni volta che si passa a uno standard superiore non retrocompatibile.

Hai mai visto un gioco only dx10? :D

su questo potremmo aprire un altro intero tread :asd:

Suhadi_Sadono
30-07-2008, 19:28
ciao a tutti, qualche giorno fa ho provato ad installare i driver con supporto physx x la mia 9800gtx ma graw2 non mi lascia vedere le mappe x ageia nemmeno lo stesso.

è un problema del driver oppure esistono giochi che supportano solo l'ageia physx e non l'nvidia physx???

ByE
Anche io ho lo stesso problema. In GRAW 2 non mi fa settare la fisica estrema. È sempre settata su normale. (come quando avevo la 8600GT)

lucacali87
03-08-2008, 08:52
ho leto tutto il thread sui physx ma ho le idee molto confuse:D
In pratica se installo i driver 177.41,metto l'inf modificato e installo physx ho dei miglioramenti di fps o di qualke altra cosa nei giochi?i benchmark nn mi interessano:D

Defragg
05-08-2008, 17:55
Disponibile (in via non molto ufficiale mi sà :stordita: ) il PhysX System Software 8.07.18 (http://forums.guru3d.com/showthread.php?t=269514)
Combatibilità completa per tutte le schede della serie 8, 9 e 200 con memoria pari a 256Mb o superiore.
E' un bel giorno oggi. :D

matthi87
05-08-2008, 17:57
Disponibile (in via non molto ufficiale mi sà :stordita: ) il PhysX System Software 8.07.18 (http://forums.guru3d.com/showthread.php?t=269514)
Combatibilità completa per tutte le schede della serie 8, 9 e 200.
E' un bel giorno oggi. :D

Mi funziona tutto a parte Cellfactor.

Errore di scripting.dll :mad: :mad: :mad:

Se si cerca su google è pieno di poveretti come me che hanno sto errore, qualcuno sa trovare la soluzione? :) :) :)

Suhadi_Sadono
05-08-2008, 18:05
Disponibile (in via non molto ufficiale mi sà :stordita: ) il PhysX System Software 8.07.18 (http://forums.guru3d.com/showthread.php?t=269514)
Combatibilità completa per tutte le schede della serie 8, 9 e 200 con memoria pari a 256Mb o superiore.
E' un bel giorno oggi. :D
Spero sia supportato GRAW2 :rolleyes:

Kupò
05-08-2008, 18:12
ma questo cellfactor è un gioco free?

avete links oltre al sito ufficiale?

Defragg
05-08-2008, 18:18
ma questo cellfactor è un gioco free?

avete links oltre al sito ufficiale?

E' free.

OT: Ma tu sei lo stesso Kupò del forum stardo? :stordita:

Kupò
05-08-2008, 19:56
E' free.

OT: Ma tu sei lo stesso Kupò del forum stardo? :stordita:

no, mai sentito.. :)

avete un link per scaricarlo a velocità decenti?

Suhadi_Sadono
05-08-2008, 20:03
L'ho scaricato ma in GRAW2 non vedo nessuna differenza. Prova con softpedia.
http://drivers.softpedia.com/get/GRAPHICS-BOARD/NVIDIA/Nvidia-PhysX-Driver-80718.shtml

lowenz
05-08-2008, 20:43
Cellfactor cerca l'Ageia "madre" a quello che vedo, ergo con l'implementazione di nvidia per le sue geforce non andrà.....salvo patch :O

appleroof
05-08-2008, 20:53
posto anche di qua:

http://www.hwupgrade.it/forum/showpost.php?p=23596474&postcount=4159

by_xfile™
05-08-2008, 20:56
Mi funziona tutto a parte Cellfactor.

Errore di scripting.dll :mad: :mad: :mad:

Se si cerca su google è pieno di poveretti come me che hanno sto errore, qualcuno sa trovare la soluzione? :) :) :)

scheda Physx

a parte gli scherzi non ne ho idea

Defragg
05-08-2008, 21:21
posto anche di qua:

http://www.hwupgrade.it/forum/showpost.php?p=23596474&postcount=4159

Non saprei, ma ti consiglio di provare con una versione pari o successiva ai 177.39 (ossia i primi driver che includevano il supporto PhysX).
Ma non credo dipendano dai driver video, il PhysX System Software - in brevi parole, il driver PhysX - dovrebbe fare da caso a parte e non interferire con la versione di driver grafico installato.
In pratica per il PhysX non dovrebbe contare il driver video (anche se credo che sia meglio installare una versione successiva alla 177.39) :)

appleroof
05-08-2008, 21:23
Non saprei, ma ti consiglio di provare con una versione pari o successiva ai 177.39 (ossia i primi driver che includevano il supporto PhysX).
Ma non credo dipendano dai driver video, il PhysX System Software - in brevi parole, il driver PhysX - dovrebbe fare da caso a parte e non interferire con la versione di driver grafico installato.
In pratica per il PhysX non dovrebbe contare il driver video (anche se credo che sia meglio installare una versione successiva alla 177.39) :)

mmmmm....non mi risulta proprio così, ma non mi resta che provare, grazie lo stesso del suggerimento ;)

Defragg
05-08-2008, 21:23
no, mai sentito.. :)
Ok scusami per il refuso, ma c'è anche la un utente con il tuo stesso nickname. :D

Defragg
05-08-2008, 21:42
mmmmm....non mi risulta proprio così, ma non mi resta che provare, grazie lo stesso del suggerimento ;)

Non saprei sennò, non ho ancora una GPU nVidia. :stordita: A te cosa risultava?

appleroof
05-08-2008, 21:46
Non saprei sennò, non ho ancora una GPU nVidia. :stordita: A te cosa risultava?

che oltre ai driver adatti (dai 171.41 whql in poi) ci volesse il sw physx la cui versione aggiornata avete indicato oggi, in attesa dei prossimi whql che avrebbe unificato la cosa e resa disponibile per tutte le vga dalla serie 8 ad oggi

cmq ho finito di scaricare, provo con i 175.16....


edit: non funge, proverò con i 177.79 o meglio aspetto i prossimi whql tanto per ora è solo curiosità :)

Suhadi_Sadono
06-08-2008, 09:24
Axel;23599568']@appleroof
A me la 8800GTX (G80) funziona con tutto tranne che con Cellfactor (GRAW2 non l'ho provato) con i driver 177.79 e il Physx 8.07.18.

Non ti resta che scaricare quei driver e provare ;)
Adesso con GRAW2 si può settare la fisica estrema... ma non cambia nulla da quella normale. :rolleyes:

Zak84
06-08-2008, 10:43
Ho provato adesso con i 177.41 e i PhysX 8.07.18 e con 3DMark Vantage funziona alla grande! :D

Come scheda video ho una 9500M GS.

BYEZZZZZZZZZZ!!!!!!!!!!!!! :)

Defragg
06-08-2008, 14:22
@ Tutti: Aggiornerò la prima pagina quando saranno rilasciati i driver in versione WHQL. ;)

appleroof
06-08-2008, 14:25
Axel;23599568']@appleroof
A me la 8800GTX (G80) funziona con tutto tranne che con Cellfactor (GRAW2 non l'ho provato) con i driver 177.79 e il Physx 8.07.18.

Non ti resta che scaricare quei driver e provare ;)

grazie mille :)

Defragg
06-08-2008, 14:30
http://www.ozone3d.net/smf/index.php/topic,1508.msg3877/topicseen.html#new

appleroof
06-08-2008, 15:16
http://www.ozone3d.net/smf/index.php/topic,1508.msg3877/topicseen.html#new

ottimo, cominciamo a vedere qualche test...:)

Defragg
06-08-2008, 15:42
Ho aggiornato (e semplificato, vista la quantità di modelli :D) la prima pagina lo stesso, specificando che è possibile avere supporto alle schede elencate solo con la versione 8.07.18 del PSS :)
Il link al download lo inserirò però solo quando ci saranno i driver WHQL

appleroof
06-08-2008, 15:46
Ho aggiornato (e semplificato, vista la quantità di modelli :D) la prima pagina lo stesso, specificando che è possibile avere supporto alle schede elencate solo con la versione 8.07.18 del PSS :)
Il link al download lo inserirò però solo quando ci saranno i driver WHQL

;)

halduemilauno
06-08-2008, 16:47
per saperne di più.

http://www.driverheaven.net/articles.php?articleid=122

http://www.firingsquad.com/hardware/nvidia_geforce_physx_performance/

http://www.hothardware.com/Articles/NVIDIA_GPU_PhysX_Pack_Preview/

http://www.techreport.com/articles.x/15261

;)

Defragg
06-08-2008, 17:04
per saperne di più.

http://www.driverheaven.net/articles.php?articleid=122

http://www.firingsquad.com/hardware/nvidia_geforce_physx_performance/

http://www.hothardware.com/Articles/NVIDIA_GPU_PhysX_Pack_Preview/

http://www.techreport.com/articles.x/15261

;)

Bene in prima pagina, sempre in prima linea Hal. ;)

Mister Tarpone
06-08-2008, 17:06
aggiungo una lista dei prossimi giochi che supporteranno lo physX

Aliens: Colonial Marines :eek:

Backbreaker

Bionic Commando

Borderlands

Cryostasis

Empire: Total War

Mirror’s Edge :eek:

MKZ

Nurien

Defragg
06-08-2008, 17:13
aggiungo una lista dei prossimi giochi che supporteranno lo physX

Aliens: Colonial Marines :eek:

Backbreaker

Bionic Commando

Borderlands

Cryostasis

Empire: Total War

Mirror’s Edge :eek:

MKZ

Nurien

Immagino già gli schizzi del sangue acido dei droni partire realisticamente dai loro corpi crivellati di colpi :O

Mister Tarpone
06-08-2008, 17:16
Immagino già gli schizzi del sangue acido dei droni partire realisticamente dai loro corpi crivellati di colpi :O

addirittura :eek: :asd:

appleroof
06-08-2008, 17:45
aggiungo una lista dei prossimi giochi che supporteranno lo physX

Aliens: Colonial Marines :eek:

Backbreaker

Bionic Commando

Borderlands

Cryostasis

Empire: Total War

Mirror’s Edge :eek:

MKZ

Nurien

ottimo, sopratutto il secondo :D

qualche piccolo test con i 177.79 :D (vga default 1920x1200 settaggio massimo):

http://img379.imageshack.us/img379/5964/wmgame1kk6.th.png (http://img379.imageshack.us/my.php?image=wmgame1kk6.png) http://img142.imageshack.us/img142/6369/wmgame2cg7.th.png (http://img142.imageshack.us/my.php?image=wmgame2cg7.png)

http://img164.imageshack.us/img164/3781/wmgame3db9.th.png (http://img164.imageshack.us/my.php?image=wmgame3db9.png) http://img164.imageshack.us/img164/2517/wmgame4kl5.th.png (http://img164.imageshack.us/my.php?image=wmgame4kl5.png)

http://img142.imageshack.us/img142/1097/wmgame5ar9.th.png (http://img142.imageshack.us/my.php?image=wmgame5ar9.png) http://img142.imageshack.us/img142/1394/wmgame6ab4.th.png (http://img142.imageshack.us/my.php?image=wmgame6ab4.png)

carino, si può distruggere quasi tutto ciò che ci circonda ed il tutto avviene con grande realismo, certamente più di qualsiasi altro gioco visto in azione da me, siamo agli inizi sia come implementazioni che come driver...ma promette molto molto bene :D

Mister Tarpone
06-08-2008, 19:13
ganzo ;)



mi stavo domandando una cosa..... ma se io accanto alla 9600GT ci metto la mia 8600GTS per usare la fisica?? funzionerebbe?? :confused:

appleroof
06-08-2008, 19:23
ganzo ;)



mi stavo domandando una cosa..... ma se io accanto alla 9600GT ci metto la mia 8600GTS per usare la fisica?? funzionerebbe?? :confused:

non ancora, forse con i prox driver 180.xx che dovrebbero uscire per settembre...:)

Kharonte85
07-08-2008, 11:14
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_nvidia_cuda_physx_ueberblick/12/#abschnitt_performancerating

Defragg
07-08-2008, 12:06
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/bericht_nvidia_cuda_physx_ueberblick/12/#abschnitt_performancerating

Io non capisco proprio perchè le perfermance della GTX 280 + PPU siano decisamente inferiori a quelle della singola GTX 280 che si occupa sia del rendering che della fisica.
Non ha molto senso a mio avviso.
Mi era sfuggito questo thread!! :)

Molto male :O

appleroof
07-08-2008, 12:15
Io non capisco proprio perchè le perfermance della GTX 280 + PPU siano decisamente inferiori a quelle della singola GTX 280 che si occupa sia del rendering che della fisica.
Non ha molto senso a mio avviso.


ottimizzazioni sw? mancanza di colli di bottiglia?


p.s.: butta la ppu e fatti una vga nVidia :D :D

Mister Tarpone
07-08-2008, 12:16
p.s.: butta la ppu e fatti una vga nVidia :D :D

:sborone:

appleroof
07-08-2008, 12:18
:sborone:

:asd:

Mister Tarpone
07-08-2008, 12:18
non ancora, forse con i prox driver 180.xx che dovrebbero uscire per settembre...:)

speriamo, se fosse possibile sarebbe una figata... credo che per gestire la fisica già una 8600GTS sarebbe discreta....


cmq in uno degli articoli postati da Hal si vede che è già possibile far lavorare insieme 2 modelli di schede differenti tipo 8800GT + 9600GT ecc.. ;)

appleroof
07-08-2008, 12:21
speriamo, se fosse possibile sarebbe una figata... credo che per gestire la fisica già una 8600GTS sarebbe discreta....


cmq in uno degli articoli postati da Hal si vede che è già possibile far lavorare insieme 2 modelli di schede differenti tipo 8800GT + 9600GT ecc.. ;)

azz...mi era sfuggito :) .....comi9ncio a pentirmi di non aver preso una mobo con più slot pci-express....:stordita:

Defragg
07-08-2008, 12:22
ottimizzazioni sw? mancanza di colli di bottiglia?

L'ho pensato pure io, ma non capisco dove possa trovarsi il collo di bottiglia.
Per le ottimizzazioni sw non è che ci conterei molto, la quasi totalità dei titoli PhysX capable attualmente in commercio è stata sviluppata per la PPU e non per la GPU.
E infine un piccolo appunto: ieri ho installato l'NVIDIA PhysX UT3 Mod Pack, e durante l'installazione mi ha espressamente detto che era necessaria una scheda grafica dalla serie GeForce 8 in su. Ho installato lo stesso il mod pack e ho provato a far partire DM-HeatRay_PhysX.
Il caricamento è stato abbastanza lungo ma il gioco è stato perfettamente giocabile con una ormai misera X1950GT.
;)
p.s.: butta la ppu e fatti una vga nVidia :D :D

No e molto probabile. ;)

Defragg
07-08-2008, 12:25
speriamo, se fosse possibile sarebbe una figata... credo che per gestire la fisica già una 8600GTS sarebbe discreta....

La 8600GTS si dovrebbe comportare come la 9500GT
azz...mi era sfuggito :) .....comi9ncio a pentirmi di non aver preso una mobo con più slot pci-express....:stordita:

C'è anche di buono che non richiede chipset nVidia. :cool:
Mi piacerebbe sapere se si possano fare configurazioni miste, tipo HD4850 per il rendering e 9600GT per PhysX.

appleroof
07-08-2008, 12:30
L'ho pensato pure io, ma non capisco dove possa trovarsi il collo di bottiglia.
Per le ottimizzazioni sw non è che ci conterei molto, la quasi totalità dei titoli PhysX capable attualmente in commercio è stata sviluppata per la PPU e non per la GPU.
E infine un piccolo appunto: ieri ho installato l'NVIDIA PhysX UT3 Mod Pack, e durante l'installazione mi ha espressamente detto che era necessaria una scheda grafica dalla serie GeForce 8 in su. Ho installato lo stesso il mod pack e ho provato a far partire DM-HeatRay_PhysX.
Il caricamento è stato abbastanza lungo ma il gioco è stato perfettamente giocabile con una ormai misera X1950GT.
;)


No e molto probabile. ;)

mmmm...piccoli segnali che vogliono "obbligare" ad usare solo vga Nvidia? Spero di no per i possessori di ppu come te, ma d'altra parte gli affari sono affari...


C'è anche di buono che non richiede chipset nVidia. :cool:
Mi piacerebbe sapere se si possano fare configurazioni miste, tipo HD4850 per il rendering e 9600GT per PhysX.

già, cmq per ora di sicuro non cambio mobo solo per physx ma chi ha già una mobo predisposta ci gode :D

per il "mischiare" vga Ati e Nvidia non credo proprio, o cmq la vedo mooooolto difficile allo stato attuale

Mister Tarpone
07-08-2008, 12:31
La 8600GTS si dovrebbe comportare come la 9500GT

direi che si comporta bene vedendo computerbase..

C'è anche di buono che non richiede chipset nVidia. :cool:
Mi piacerebbe sapere se si possano fare configurazioni miste, tipo HD4850 per il rendering e 9600GT per PhysX.

mahh... mi sembra strano che possa funzionare...

poi sinceramente sarebbe ganzo che la fisica desse grandi risultati già con schedine piccole, che non richiedono alimentazioni aggiuntive e che consumano e costano un cazzo tipo 8600gt , 9500GT
ecc..

ma se bisogna iniziare a mettere una 9600Gt o 8800GT per riuscire a gestire la fisica decentemente allora non mi gusta tanto... per un discorso di consumi, costi e altro..