PDA

View Full Version : I primi driver NVIDIA con supporto PhysX integrato


Redazione di Hardware Upg
26-06-2008, 08:06
Link alla notizia: http://www.hwupgrade.it/news/skvideo/i-primi-driver-nvidia-con-supporto-physx-integrato_25769.html

NVIDIA ha rilasciato una prima serie di driver beta dotati di supporto per la GPU alle API PhysX di Ageia. pe rora supporto solo a 3DMark Vantage e UT3

Click sul link per visualizzare la notizia.

BrightSoul
26-06-2008, 08:11
Non mi è chiaro se un'unica GPU può fare contemporaneamente il rendering grafico E i calcoli per la fisica. Oppure bisogna avere due schede in SLi e decidere a priori a quale delle due delegare i calcoli per la fisica?

Kuarl
26-06-2008, 08:23
un unica gpu può fare entrambe le cose. Sempre ammesso che sia abbastanza potente per fare decentemente sia il rendering che i calcoli fisici.

xxfamousxx
26-06-2008, 08:24
in teoria basta una sola vga, ma la mia domanda è: in questo modo non si sottrae della potenza di calcono alla gpu facendo degradare le prestazioni?

killer978
26-06-2008, 08:30
Questa è una bella notizia speriamo che ATI si muova nella collaborazione con Havock, adesso bisogna vedere quanto si perde in termini di FPS delegando anche il calcolo della fisica alla GPU

fr4nc3sco
26-06-2008, 08:30
se i driver lavorano bene no perche dovrebbero andar ad usare solo la parte libera della gpu

Tidus.hw
26-06-2008, 08:32
ecco perchè in cell factor non mi andavano, hanno ottimizzato la fisica solo del 3dmark -.-"

comunque, secondo me non estendono il supporto anche alla serie 8 perchè il G80 supporta solo Cuda 1.0, mentre G92 1.1, e per ragioni di marketing non danno il supporto a nessuna 8800...

Bisognerebbe provare a mettere i driver con l'inf modificato su una vga G80 e lanciare il 3dmark vantage per vedere se le mie supposizioni sono esatte..

Stefem
26-06-2008, 08:39
ecco perchè in cell factor non mi andavano, hanno ottimizzato la fisica solo del 3dmark -.-"

comunque, secondo me non estendono il supporto anche alla serie 8 perchè il G80 supporta solo Cuda 1.0, mentre G92 1.1, e per ragioni di marketing non danno il supporto a nessuna 8800...

Bisognerebbe provare a mettere i driver con l'inf modificato su una vga G80 e lanciare il 3dmark vantage per vedere se le mie supposizioni sono esatte..

No, il supporto verrà esteso alle schede dalla 8800 in poi

Dev42
26-06-2008, 08:40
ecco perchè in cell factor non mi andavano, hanno ottimizzato la fisica solo del 3dmark -.-"

comunque, secondo me non estendono il supporto anche alla serie 8 perchè il G80 supporta solo Cuda 1.0, mentre G92 1.1, e per ragioni di marketing non danno il supporto a nessuna 8800...

Bisognerebbe provare a mettere i driver con l'inf modificato su una vga G80 e lanciare il 3dmark vantage per vedere se le mie supposizioni sono esatte..


Anche perchè quando Nvidia dopo aver comprato Ageia aveva parlato di driver anche per 8800....:muro:
Ma come sempre il mercato viene prima, speriamo che li faccia anche per le 8800 visto che ci sono tantissime persone che ne possiedono una...:help: :help:

ThePunisher
26-06-2008, 08:40
ecco perchè in cell factor non mi andavano, hanno ottimizzato la fisica solo del 3dmark -.-"

comunque, secondo me non estendono il supporto anche alla serie 8 perchè il G80 supporta solo Cuda 1.0, mentre G92 1.1, e per ragioni di marketing non danno il supporto a nessuna 8800...

Bisognerebbe provare a mettere i driver con l'inf modificato su una vga G80 e lanciare il 3dmark vantage per vedere se le mie supposizioni sono esatte..


Spero vivamente non sia vero. Comunque per ora ti confermo che le G80 non sono supportate mentre 8800GT e GTS 512 sì (modificando l'.inf).

M4R1|<
26-06-2008, 08:46
Spero vivamente non sia vero. Comunque per ora ti confermo che le G80 non sono supportate mentre 8800GT e GTS 512 sì (modificando l'.inf).

anche se nn ci fosse il supporto per le 8800 con g92 si modifica sempre l'inf (come ho fatto io)

cmq guardate qua (http://www.hwupgrade.it/forum/showthread.php?t=1733413) e vedrete che increnti porta questo supporto nel vantage.
però detto da chi ha fatto altri test nei giochi nn c'è differenza.....

ThePunisher
26-06-2008, 08:46
Anche perchè quando Nvidia dopo aver comprato Ageia aveva parlato di driver anche per 8800....:muro:
Ma come sempre il mercato viene prima, speriamo che li faccia anche per le 8800 visto che ci sono tantissime persone che ne possiedono una...:help: :help:

Beh la tua è supportata... installa i driver PhysX e i 177.39 con questi inf e potrai già beneficiare della PhysX. Noi con 8800GTX/Ultra e GTS 320/640 siamo invece rimasti fuori per ora!


http://digilander.libero.it/m4puni/177.3X_moddedinfs.rar

(ISTRUZIONI INCLUSE)

ThePunisher
26-06-2008, 08:48
anche se nn ci fosse il supporto per le 8800 con g92 si modifica sempre l'inf (come ho fatto io)

cmq guardate qua (http://www.hwupgrade.it/forum/showthread.php?t=1733413) e vedrete che increnti porta questo supporto nel vantage.
però detto da chi ha fatto altri test nei giochi nn c'è differenza.....

Forse non hai letto. Io ho detto che C'E' il supporto per G92, mentre per G80 no, anche modificando l'inf (segno che non c'è nei driver PhysX!)!

Mparlav
26-06-2008, 08:49
Ci sono anche i 177.40 beta.
Provate quelli, che non hanno bisogno della modifica dell'inf.

Stefem
26-06-2008, 09:03
anche se nn ci fosse il supporto per le 8800 con g92 si modifica sempre l'inf (come ho fatto io)

cmq guardate qua (http://www.hwupgrade.it/forum/showthread.php?t=1733413) e vedrete che increnti porta questo supporto nel vantage.
però detto da chi ha fatto altri test nei giochi nn c'è differenza.....

L'inf serve solo ad evitare l'installazione di driver incompatibili con l'hardware, quindi se nei driver è presente il supporto alla GPU G92 ma non a tutte le schede che la montano c'è la possibilità che forzando la compatibilità tu ottenga il supporto, altrimenti rischi di compromettere il sistema.

Jammed_Death
26-06-2008, 09:04
questi sono i driver di cui parlavo l'altro giorno...con l'inf attivate il supporto per tutte le schede, ma il physx ancora no per le g80 perchè non è proprio programmato per questi driver...forse con i prossimi, in ogni caso la serie 8xxx verra tutta supportata

questo è un link con i giochi che beneficiano del physx
http://www.nzone.com/object/nzone_physxgames_home.html

questo è il pannello di controllo per i physx
http://rapidshare.com/files/124043456/NVIDIA_physX_8_06_12_driver.rar

atomo37
26-06-2008, 09:16
ma questo nuovo supporto alla fisica in soldoni che vantaggi da?

Jammed_Death
26-06-2008, 09:36
toglie carico alla cpu

ghiltanas
26-06-2008, 09:38
ma xkè per la 8800gt no? :mad:

mattewRE
26-06-2008, 09:42
http://rapidshare.com/files/124043456/NVIDIA_physX_8_06_12_driver.rar

avete capito che dovete installare questa nuova versione di physX?
solo i driver non fanno nulla

ma xkè per la 8800gt no? :mad:

si si... 8800gt funziona... attualmente io sto girando con i 177.26 (sempre in beta) e supporto fisica avendo una normalissima 8800gt

Jammed_Death
26-06-2008, 09:43
ma xkè per la 8800gt no? :mad:

come no, certo che si...ti serve l'inf moddato però...sennò cerca i 177.40, quelli supportano un numero più alto di schede

blade9722
26-06-2008, 09:45
Mah, se non erro nel forum nzone dicono che il supporto sará per tutte le schede da G80 in poi. Inoltre, da quanto ho capito, il supporto alle schede é nel driver physX, c'e chi riesce ad attivarlo anche con i 175.16.

Per quanto riguarda il supporto delle applicazioni, ho un dubbio: alcuni programmi come il 3dmarkVantage o PTboats installano l'engine Ageia a parte, ed hanno bisogno di tale software per funzionare. Altri invece, pur basandosi sullo stesso engine, non lo installano o lo richiedono in maniera esplicita. Non vorrei che questi ultimi utilizzassero una versione embedded dell'engine, ed occorra quindi sovrascrivere qualche dll nella directory di installazione per abilitare il supporto delle GPU.

ghiltanas
26-06-2008, 09:49
capito, allora poi li provo ;)

berry83
26-06-2008, 09:51
ma supporta la 9800gx2?

halduemilauno
26-06-2008, 09:54
è tutto scritto qui...
http://www.nvidia.com/object/physx_8.06.12_whql.html
;)

blade9722
26-06-2008, 09:55
capito, allora poi li provo ;)

Se vuoi attivare in PhysX devi anche scaricarti l'engine:

http://downloads.guru3d.com/Ageia-%7C-NVIDIA-PhysX-System-driver-8.06.12-download-1964.html

blade9722
26-06-2008, 09:56
è tutto scritto qui...
http://www.nvidia.com/object/physx_8.06.12_whql.html
;)

OK, Ghiltanas, ignora pure il mio precedente post, ora e'n linea ufficialmente anche nel sito Nvidia.

berry83
26-06-2008, 09:57
è tutto scritto qui...
http://www.nvidia.com/object/physx_8.06.12_whql.html
;)

niente gx2 :muro: :muro:

Critterix
26-06-2008, 09:57
Ma visto che quello della fisica è un bechmark per il processore, se fare eseguire i calcoli alla scheda grafica non è previsto, non si ha un risulato finale che non corrisponde a realtà?? Si avrebbe un punteggio che si avrebbe tipo con un intel core 3 octa 50.000 !!!! Risultato che non corrisponderebbe ad un reale incremento di prestazioni nei giochi, visto che (come ha già fatto notare qualcuno) la scheda non può fare grafica e fisica senza calo di prestazioni nella grafica... allora il punteggio del benchmark nella grafica bisognerebbe farlo con la fisica che gira!! Altrimenti è una presa per i fondelli!!!!

man2tek
26-06-2008, 09:59
Ho la 8800 gts 512 mb. Come si deve modificare questo file inf ?

ghiltanas
26-06-2008, 09:59
Se vuoi attivare in PhysX devi anche scaricarti l'engine:

http://downloads.guru3d.com/Ageia-%7C-NVIDIA-PhysX-System-driver-8.06.12-download-1964.html

ok installo quelli postati da hal poi i driver video giusto?

ps cmq sia boh, perchè aumentare il carico sulla gpu? imho la fisica è indicata lasciarla alla cpu vista la loro potenza attuale, dovrebbero occuparsi maggiormente dei filtri a mio avviso, e dedicargli un'unità di calcolo indipendente

fr4nc3sco
26-06-2008, 10:00
Ma visto che quello della fisica è un bechmark per il processore, se fare eseguire i calcoli alla scheda grafica non è previsto, non si ha un risulato finale che non corrisponde a realtà?? Si avrebbe un punteggio che si avrebbe tipo con un intel core 3 octa 50.000 !!!! Risultato che non corrisponderebbe ad un reale incremento di prestazioni nei giochi, visto che (come ha già fatto notare qualcuno) la scheda non può fare grafica e fisica senza calo di prestazioni nella grafica... allora il punteggio del benchmark nella grafica bisognerebbe farlo con la fisica che gira!! Altrimenti è una presa per i fondelli!!!!

no si kiama marketing cosi il primo nubbio che vede i test dice ahhh la 4870x2 va meno di una gtx280:D ecco come si acquista 1 po di tempo per inventare nuove architetture :D

berry83
26-06-2008, 10:06
no si kiama marketing cosi il primo nubbio che vede i test dice ahhh la 4870x2 va meno di una gtx280:D ecco come si acquista 1 po di tempo per inventare nuove architetture :D

mancava un commento di un fanboy ati :D :D

blade9722
26-06-2008, 10:08
ok installo quelli postati da hal poi i driver video giusto?

ps cmq sia boh, perchè aumentare il carico sulla gpu? imho la fisica è indicata lasciarla alla cpu vista la loro potenza attuale, dovrebbero occuparsi maggiormente dei filtri a mio avviso, e dedicargli un'unità di calcolo indipendente

Il supporto non e' altro che un wrapper fra l'engine Ageia e il CUDA, non mi e' chiaro se le risorse di calcolo hardware siano in comune con quelle di rendering o siano separate. Nel secondo caso, non si avrebbe nessun impatto sulle performance.

Kupò
26-06-2008, 10:08
ho provato heatray in UT3 con la fisica abilitata, driver 177.40 e 8800GT:

scatta da matti, intorno ai 14 fps.

è normale?

Critterix
26-06-2008, 10:09
mancava un commento di un fanboy ati :D :D

A me invece sembra abbastanza oggettivo che sia una scelta di marketing, così come lo erano i driver che a volte Ati rilasciava per fare andare meglio il 3dmark ma senza considerare i giochi. Nvidia poteva anche rilasciare i driver con supporto alla fisica senza curarsi di interfacciarli con il vantage.

blade9722
26-06-2008, 10:10
mancava un commento di un fanboy ati :D :D

nonche' estimatore della K al posto della CH.....

fr4nc3sco
26-06-2008, 10:11
ho provato heatray in UT3 con la fisica abilitata, driver 177.40 e 8800GT:

scatta da matti, intorno ai 14 fps.

è normale?

be non so è ovvio che se la vga oltre alla grafica deve calcolare pure la fisica miracoli nn puo farli dopo provo io con lo sli di 280 e vediamo se gira :D

blade9722
26-06-2008, 10:12
A me invece sembra abbastanza oggettivo che sia una scelta di marketing, così come lo erano i driver che a volte Ati rilasciava per fare andare meglio il 3dmark ma senza considerare i giochi. Nvidia poteva anche rilasciare i driver con supporto alla fisica senza curarsi di interfacciarli con il vantage.

Forse la spiegazione e' un'altra, controlla la mia ipotesi precedente:


Per quanto riguarda il supporto delle applicazioni, ho un dubbio: alcuni programmi come il 3dmarkVantage o PTboats installano l'engine Ageia a parte, ed hanno bisogno di tale software per funzionare. Altri invece, pur basandosi sullo stesso engine, non lo installano o lo richiedono in maniera esplicita. Non vorrei che questi ultimi utilizzassero una versione embedded dell'engine, ed occorra quindi sovrascrivere qualche dll nella directory di installazione per abilitare il supporto delle GPU.

Critterix
26-06-2008, 10:13
Il supporto non e' altro che un wrapper fra l'engine Ageia e il CUDA, non mi e' chiaro se le risorse di calcolo hardware siano in comune con quelle di rendering o siano separate. Nel secondo caso, non si avrebbe nessun impatto sulle performance.

Quindi secondo te la 8800gtx l'hanno fatta tenedo da parte un po' di hardware inutilizzato in vista di questi driver? capisco che l'efficienza non è mai il 100%, ma è comunque qualcosa di dinamico, che cambia di continuo nel corso di un gioco, frame dopo frame

Eddie666
26-06-2008, 10:17
premesso che per ora non mi interessa, data la limitazione al solo 3dmark e UT3, ma la mia 9600 sarebbe supportata?

Critterix
26-06-2008, 10:18
Forse la spiegazione e' un'altra, controlla la mia ipotesi precedente:

Quindi secondo te nel caso di un gioco compatibile si avrebbe l'attivazione del supporto alla fisica da parte della Gpu in maniera forzata, senza possibilità di scegliere? In questo caso credo che un po' di giochi cominceranno a scattare... (ma nel vantage si avrebbe comunque un punteggio più alto!!)

halduemilauno
26-06-2008, 10:18
premesso che per ora non mi interessa, data la limitazione al solo 3dmark e UT3, ma la mia 9600 sarebbe supportata?

non ufficialmente con questi driver.

ThePunisher
26-06-2008, 10:20
ma xkè per la 8800gt no? :mad:

POST PRECEDENTI:

Spero vivamente non sia vero. Comunque per ora ti confermo che le G80 non sono supportate mentre 8800GT e GTS 512 sì (modificando l'.inf).


Forse non hai letto. Io ho detto che C'E' il supporto per G92, mentre per G80 no, anche modificando l'inf (segno che non c'è nei driver PhysX!)!


:rolleyes:

blade9722
26-06-2008, 10:20
Quindi secondo te la 8800gtx l'hanno fatta tenedo da parte un po' di hardware inutilizzato in vista di questi driver? capisco che l'efficienza non è mai il 100%, ma è comunque qualcosa di dinamico, che cambia di continuo nel corso di un gioco, frame dopo frame

Mmm, forse mi sono spiegato male.

Il CUDA e' una API che permette di utilizzare le risorse di calcolo della GPU per effettuare operazioni matematiche generiche. E' stata introdotta dalle G80 in poi, e viene sfruttata nelle schede Tesla, come del resto il supporto alle applicazioni professionali viene sfruttato nelle Quadro.

Non e' stata pensata per la fisica. Quando Nvidia ha acquistato Ageia, ha pensato di utilizzare il CUDA per il processing dell'engine fisico.

Non so se tali risorse di calcolo siano in comune con quelle usuali di rendering, o siano separate, se tu conosci l'architettura G8x/G9x puoi metterci al corrente della cosa e toglierci il dubbio.

ThePunisher
26-06-2008, 10:21
non ufficialmente con questi driver.

Neanche NON UFFICIALMENTE per ora. G92 sì, G80, G94 no! (questo via driver PhysX, quindi non si può neanche forzare il supporto).

blade9722
26-06-2008, 10:24
Quindi secondo te nel caso di un gioco compatibile si avrebbe l'attivazione del supporto alla fisica da parte della Gpu in maniera forzata, senza possibilità di scegliere? In questo caso credo che un po' di giochi cominceranno a scattare... (ma nel vantage si avrebbe comunque un punteggio più alto!!)

Guarda che dal pannello del Physx puoi abilitare o disattivare il supporto hardware....

Critterix
26-06-2008, 10:25
Mmm, forse mi sono spiegato male.

Il CUDA e' una API che permette di utilizzare le risorse di calcolo della GPU per effettuare operazioni matematiche generiche. E' stata introdotta dalle G80 in poi, e viene sfruttata nelle schede Tesla, come del resto il supporto alle applicazioni professionali viene sfruttato nelle Quadro.

Non e' stata pensata per la fisica. Quando Nvidia ha acquistato Ageia, ha pensato di utilizzare il CUDA per il processing dell'engine fisico.

Non so se tali risorse di calcolo siano in comune con quelle usuali di rendering, o siano separate, se tu conosci l'architettura G8x/G9x puoi metterci al corrente della cosa e toglierci il dubbio.

Ammetto di essere molto ignorante a riguardo dell'architettura, ma mi sembrava che i calcoli fisici, cosi come gli altri GPGPU fossero sempre dati in pasto agli SP... gli stessi che fanno calcoli per gli effetti grafici...

Critterix
26-06-2008, 10:27
Guarda che dal pannello del Physx puoi abilitare o disattivare il supporto hardware....

Quindi non va a sovrascrivere le dll? Scusa ma mi sembrava che nel post precedente tu mi dicessi che i driver sovrascrivevano le dll e quindi nel vantage il supporto alla fisica dalla GPU si attivava in automatico per questo. Almeno io avevo capito così, magari sono stato malizioso

blade9722
26-06-2008, 10:32
Quindi non va a sovrascrivere le dll? Scusa ma mi sembrava che nel post precedente tu mi dicessi che i driver sovrascrivevano le dll e quindi nel vantage il supporto alla fisica dalla GPU si attivava in automatico per questo. Almeno io avevo capito così, magari sono stato malizioso

Quello che intendevo dire era: per quelle applicazioni che sembrano avere l'engine embedded, forse occorre sovrascrivere alcuni dll (l'associazione mi viene dal modo in cui e' possibile far girare GLquake su qualsiasi S.O. Microsoft: basta sopvrascrivere opengl32.dll all'interno della directory del gioco con quello di windows/system32) o attendere una patch. Se non erro, per queste applicazioni il supporto hardware e' attivabile/disattivabile nelle opzioni all'interno del gioco. Per quelle applicazioni che hanno bisogno dell'installazione a parte dell'engine Physx, dovrebbe invece fare fede il pannello dell'engine stesso.

ghiltanas
26-06-2008, 10:37
POST PRECEDENTI:



:rolleyes:

potevi evitare tranquillamente quella faccina, e anche la scritta in maiuscolo, visto che già da un pezzo utenti + cortesi mi avevano gentilmente risposto senza :rolleyes:

Critterix
26-06-2008, 10:40
Quello che intendevo dire era: per quelle applicazioni che sembrano avere l'engine embedded, forse occorre sovrascrivere alcuni dll (l'associazione mi viene dal modo in cui e' possibile far girare GLquake su qualsiasi S.O. Microsoft: basta sopvrascrivere opengl32.dll all'interno della directory del gioco con quello di windows/system32) o attendere una patch. Se non erro, per queste applicazioni il supporto hardware e' attivabile/disattivabile nelle opzioni all'interno del gioco. Per quelle applicazioni che hanno bisogno dell'installazione a parte dell'engine Physx, dovrebbe invece fare fede il pannello dell'engine stesso.

Non voglio sembrare o essere petulante o di parte, ma allora non ho capito la tua risposta di qualche post fa al mio...

"E' una scelta di marketing l'interfacciare la fisica con il vantage".

Non capisco la tua risposta dove voglia andare a parare. Forse semplicemente non ci siamo capiti.

niky89
26-06-2008, 10:40
ma ad esempio le mappe ageia di ut adesso funzionano fluide anche senza la scheda fisica?

blade9722
26-06-2008, 10:45
Non voglio sembrare o essere petulante o di parte, ma allora non ho capito la tua risposta di qualche post fa al mio...

"E' una scelta di marketing l'interfacciare la fisica con il vantage".

Non capisco la tua risposta dove voglia andare a parare. Forse semplicemente non ci siamo capiti.

La tua posizione, se non ho frainteso, dovrebbe essere:

il supporto alla fisica sembra limitato ad alcune applicazioni, fra cui il 3dmark Vantage, per una scelta di marketing.

La mia ipotesi e':

senza ulteriori patch, il supporto potrebbe essere tecnicamente limitato a quelle applicazioni che si appoggiano all'engine Ageia globale, e non ad una versione embedded. 3dmark Vantage e' una di quelle applicazioni, e quindi, per puro caso e non per una scelta commerciale, e' supportato.

E' un po' come il 3dmark2006 e l'OpenAL: il bench installa i driver globale openAL. SE lo disinstalli il bench non parte, ma altri giochi (UT2004) hanno una versione embedded di OpenAL (puoi comunque selezionare quello globale) e funzionano lo stesso.

Critterix
26-06-2008, 10:56
La tua posizione, se non ho frainteso, dovrebbe essere:

il supporto alla fisica sembra limitato ad alcune applicazioni, fra cui il 3dmark Vantage, per una scelta di marketing.

La mia ipotesi e':

senza ulteriori patch, il supporto potrebbe essere tecnicamente limitato a quelle applicazioni che si appoggiano all'engine Ageia globale, e non ad una versione embedded. 3dmark Vantage e' una di quelle applicazioni, e quindi, per puro caso e non per una scelta commerciale, e' supportato.

E' un po' come il 3dmark2006 e l'OpenAL: il bench installa i driver globale openAL. SE lo disinstalli il bench non parte, ma altri giochi (UT2004) hanno una versione embedded di OpenAL (puoi comunque selezionare quello globale) e funzionano lo stesso.

Ecco, infatti, non ci siamo capiti! Io intendevo che interfacciare la fisica GPGPU al Vantage è una scelta di marketing, perché alla fine il punteggio sarà falsato... Ho scritto qui come la penso

Ma visto che quello della fisica è un bechmark per il processore, se fare eseguire i calcoli alla scheda grafica non è previsto, non si ha un risulato finale che non corrisponde a realtà?? Si avrebbe un punteggio che si avrebbe tipo con un intel core 3 octa 50.000 !!!! Risultato che non corrisponderebbe ad un reale incremento di prestazioni nei giochi, visto che (come ha già fatto notare qualcuno) la scheda non può fare grafica e fisica senza calo di prestazioni nella grafica... allora il punteggio del benchmark nella grafica bisognerebbe farlo con la fisica che gira!! Altrimenti è una presa per i fondelli!!!!

MiKeLezZ
26-06-2008, 11:00
Il supporto non e' altro che un wrapper fra l'engine Ageia e il CUDA, non mi e' chiaro se le risorse di calcolo hardware siano in comune con quelle di rendering o siano separate. Nel secondo caso, non si avrebbe nessun impatto sulle performance.le risorse sono in comune in quanto dal nulla non esce nulla
il vantaggio è comunque tangibile dal momento in cui processare la fisica sulla cpu ti toglie 60fps, mentre la vga te ne toglie solo (esempio) 10...
in pratica il tutto si risolve come un effetto aggiuntivo che puoi abilitare se hai abbastanza potenza a disposizione, come potrebbe esserlo il filtro aa oppure i dettagli "high" piuttosto che "medium"
ottimo

p.s. sembra che pure ati supporterà cuda e quindi physix... a dimostrazione della lungimiranza di questa scelta

MiKeLezZ
26-06-2008, 11:01
ma ad esempio le mappe ageia di ut adesso funzionano fluide anche senza la scheda fisica?esatto. capito il vantaggio?

Critterix
26-06-2008, 11:03
p.s. sembra che pure ati supporterà cuda e quindi physix... a dimostrazione della lungimiranza di questa scelta

Ne sei sicuro? Non aveva scelto di sviluppare il supporto per Havock?

MiKeLezZ
26-06-2008, 11:07
Ne sei sicuro? Non aveva scelto di sviluppare il supporto per Havock?havok è un motore che si poggia più sulla cpu (è stato acquisito da intel), e l'affermazione di ati era molto circostanziale ("stiamo vagliando l'ipotesi di supportare havok"). questa sul cuda l'ho letta ieri su ocqualcosa, se è vera oggi farà il giro su altri siti di news

blade9722
26-06-2008, 11:09
le risorse sono in comune in quanto dal nulla non esce nulla
il vantaggio è comunque tangibile dal momento in cui processare la fisica sulla cpu ti toglie 60fps, mentre la vga te ne toglie solo (esempio) 10...
in pratica il tutto si risolve come un effetto aggiuntivo che puoi abilitare se hai abbastanza potenza a disposizione, come potrebbe esserlo il filtro aa oppure i dettagli "high" piuttosto che "medium"
ottimo

p.s. sembra che pure ati supporterà cuda e quindi physix... a dimostrazione della lungimiranza di questa scelta

Scusa, ma "le risorse sono in comune in quanto dal nulla non esce nulla" e' una frase ad effetto che tecnicamente non da' nessuna informazione. Sei a conoscenza in dettaglio dell'architettura? Nel qual caso ti chiedo cortesemente di erudirci con una descrizione comprensibile e dettagliata.

AceGranger
26-06-2008, 11:14
Scusa, ma "le risorse sono in comune in quanto dal nulla non esce nulla" e' una frase ad effetto che tecnicamente non da' nessuna informazione. Sei a conoscenza in dettaglio dell'architettura? Nel qual caso ti chiedo cortesemente di erudirci con una descrizione comprensibile e dettagliata.

credo, magari sbagliero, di aver capito che se ti trovi nella situazione in cui un gioco è CPU limited hai potenza GPU sprecata, in quel caso parte dei calcoli vengono svolti dalla GPU dandoti un incremento sulle prestazioni

Critterix
26-06-2008, 11:15
havok è un motore che si poggia più sulla cpu (è stato acquisito da intel), e l'affermazione di ati era molto circostanziale ("stiamo vagliando l'ipotesi di supportare havok"). questa sul cuda l'ho letta ieri su ocqualcosa, se è vera oggi farà il giro su altri siti di news

Stavo pensando che per l'architettura ATi, per cui è possibile processare 5 istruzioni per ogni Stream Processor nel caso queste siano diverse tra loro, non è più fattibile e meno degradante l'introduzione di un simile supporto?

MiKeLezZ
26-06-2008, 11:26
Scusa, ma "le risorse sono in comune in quanto dal nulla non esce nulla" e' una frase ad effetto che tecnicamente non da' nessuna informazione. Sei a conoscenza in dettaglio dell'architettura? Nel qual caso ti chiedo cortesemente di erudirci con una descrizione comprensibile e dettagliata.mi sembra ovvio e banale che cuda utilizzi le unità di calcolo programmabile della gpu, i cosiddetti stream processors, e mi sembra altrettanto ovvio e banale che dal momento in cui questi stream processors vengano impiegati per calcoli riguardanti l'engine fisico, non sia possibile utilizzarli per i calcoli riguardanti triangoli o texture

volendo c'è anche tutta la documentazione cuda che puoi scaricare e leggere
http://developer.download.nvidia.com/compute/cuda/1_1/NVIDIA_CUDA_Programming_Guide_1.1.pdf

ti diròdi più: viene occupata anche la ram

la frase sarà anche ad effetto, ma francamente pare che sia ovvio anche per te:
Il CUDA e' una API che permette di utilizzare le risorse di calcolo della GPU per effettuare operazioni matematiche generiche.

Quando Nvidia ha acquistato Ageia, ha pensato di utilizzare il CUDA per il processing dell'engine fisico.
non capisco quindi questo tuo cadere dal pero

MiKeLezZ
26-06-2008, 11:30
Stavo pensando che per l'architettura ATi, per cui è possibile processare 5 istruzioni per ogni Stream Processor nel caso queste siano diverse tra loro, non è più fattibile e meno degradante l'introduzione di un simile supporto?nell'architettura ati è possibile usare 5 istruzioni solo nel caso 4 siano uguali, altrimenti si scende al minimo di stream processors, che sono 160
percui dovrebbe esser meno degradante nelle ultime gpu nvidia, visto che hanno 240 stream processors
comunque sarà tutto da vedere, anche per quanto riguarda nvidia, questo supporto è ancora tutto da testare
fai conto che da quando hanno implementato purevideo, fino a quando è stato decente, ci son voluti 2 anni

Critterix
26-06-2008, 11:41
nell'architettura ati è possibile usare 5 istruzioni solo nel caso 4 siano uguali, altrimenti si scende al minimo di stream processors, che sono 160
percui dovrebbe esser meno degradante nelle ultime gpu nvidia, visto che hanno 240 stream processors
comunque sarà tutto da vedere, anche per quanto riguarda nvidia, questo supporto è ancora tutto da testare
fai conto che da quando hanno implementato purevideo, fino a quando è stato decente, ci son voluti 2 anni

Azz... vado a studiare và... :fagiano:

Tidus.hw
26-06-2008, 11:45
io credo che ogni applicazione che usi PhysX tramite scheda video debba essere ottimizzata dal lato driver.

Il motivo è semplice, allo stato attuale se per qualche ragione deve essere allocata altra memoria dedicata alla grafica, ma la memoria della scheda video è satura, la memoria allocata tramite Cuda viene letteralmente "cannibalizzata" per far spazio a quella grafica, quindi ritengo che debba esserci una componente software a livello di driver che gestisce i threads e la memoria video... questo spiegherebbe anche perchè per ora l'accelerazione per la fisica è supportata solo nel 3dmark e in qualche mappa di ut3

vedremo..

niky89
26-06-2008, 12:26
qualcuno può darmi in pm un indirizzo di dove trovare gli inf moddati per vistax64?

blade9722
26-06-2008, 12:38
mi sembra ovvio e banale che cuda utilizzi le unità di calcolo programmabile della gpu, i cosiddetti stream processors, e mi sembra altrettanto ovvio e banale che dal momento in cui questi stream processors vengano impiegati per calcoli riguardanti l'engine fisico, non sia possibile utilizzarli per i calcoli riguardanti triangoli o texture

volendo c'è anche tutta la documentazione cuda che puoi scaricare e leggere
http://developer.download.nvidia.com/compute/cuda/1_1/NVIDIA_CUDA_Programming_Guide_1.1.pdf

ti diròdi più: viene occupata anche la ram

la frase sarà anche ad effetto, ma francamente pare che sia ovvio anche per te:

non capisco quindi questo tuo cadere dal pero

Cerco di spiegarlo: l'espressione "sfruttare le risorse" e' alquanto generica, in quanto non riporta una informazione importante: quali risosrse vengo sfruttate a seconda delle operazioni da eseguire. Per esempio, fra le risorse di calcolo ci sono le TMU, e queste, a meno che non vengano effettuate operazioni di mappatura e filtraggio delle textures, sono inutilizzate. Io non sono in possesso delle conoscenze per stabilire se il CUDA utilizzi unita' di calcolo dedicate, separate dalle altre (che rimarrebbero inutilizzate comunque in assenza dei calcoli fisici), oppure comuni.

Tu invece sostieni, con una certa sicurezza, che le risorse siano in comune, e a supporto hai portato inizialmente una frase di impatto puramente emotivo come "dal nulla non si crea il nulla"
Ora invece ti stai appoggiando ad espressioni del tipo "mi sembra ovvio e banale", senza fornire alcuna spiegazione tecnica. Da cui l'ovvia obiezione: se e' cosi' ovvio e banale, cosa ti costa spendere un paio di minuti a spiegarlo?
Infine, il link alla documentazione sul web. Nel caso specifico, si tratta del manuale di programmazione del CUDA, del tutto inutile a fugare i dubbi che ci siamo posti in quanto dal capitolo 1.2, in cui c'e' una sommaria descrizione dell'architettura hardware, non si ricava nessuna informazione sul fatto che le ALU siano comuni o condivise.

Ora, lo ripeto, io non ho le competenze per rispondere all'interrogazione lo ammetto candidamente, e mi sembra di poter dire che le tue argomentazioni non sciolgano il dubbio.

Darkgift
26-06-2008, 12:55
ATI RULLA TROPPO QUEST'ANNO....non basteranno queste trovate per contrastare il rapporto prezzo prestazioni della serie 4800.
Cmq annata spettacolare per noi utenti...con schede potenti a prezzi sempre piu bassi . Ottimo

ThePunisher
26-06-2008, 13:02
potevi evitare tranquillamente quella faccina, e anche la scritta in maiuscolo, visto che già da un pezzo utenti + cortesi mi avevano gentilmente risposto senza :rolleyes:

Se leggessi potresti non disturbare tali utenti cortesi che potrebbero così aiutare chi veramente ne ha bisogno.

blade9722
26-06-2008, 13:06
Se leggessi potresti non disturbare tali utenti cortesi che potrebbero così aiutare chi veramente ne ha bisogno.

Non mi sorprende che Ghiltanas abbia espresso le sue perplessita': il tuo intervento e' stato esageratamente aggressivo, ed e' risultato offensivo.

In tutta sincerita', sei veramente sicuro in vita tua di non aver mai fatto una richiesta a cui era gia' stata data una risposta?

O forse, avendo come nick "ThePunisher" ritieni di avere il diritto di "punire" chiunque commetta un errore?

ThePunisher
26-06-2008, 13:08
Non mi sorprende che Ghiltanas abbia espresso le sue perplessita': il tuo intervento e' stato esageratamente aggressivo, ed e' risultato offensivo.

In tutta sincerita', sei veramente sicuro in vita tua di non aver mai fatto una richiesta a cui era gia' stata data una risposta?

O forse, avendo come nick "ThePunisher" ritieni di avere il diritto di "punire" chiunque commetta un errore?

Offensivo? Ma se ho postato una faccina? Ho fatto solo notare che poteva benissimo trovare la disposta leggendo non PAGINE, ma pochi post sopra. E no, in thread che ho letto non mi è mai capitato.

blade9722
26-06-2008, 13:26
Offensivo? Ma se ho postato una faccina? Ho fatto solo notare che poteva benissimo trovare la disposta leggendo non PAGINE, ma pochi post sopra. E no, in thread che ho letto non mi è mai capitato.

Si, offensivo:

il fatto di usare il neretto e di allargare le font nel riportare i post che erano sfuggiti a Ghiltanas trasmette il messaggio: "te lo evidenzio bene perche' sei fesso e non riesci a leggere".

Poi, come faccina hai utilizzato il roll eyes, che inizialmente veniva accompagnato ad una affermazione per evidenziarne il sarcasmo. Col tempo pero' c'e' stato un abuso dell'emoticon, ed ora ha ormai assunto pi' o meno il significato di "ma guarda che stupidaggini mi tocca ascoltare". Se cerchi sul web, noterai che in piu' di un forum ne e' stata proposta l'abolizione, perche' ormai viene utilizzata per i flame.

blade9722
26-06-2008, 13:28
ATI RULLA TROPPO QUEST'ANNO....non basteranno queste trovate per contrastare il rapporto prezzo prestazioni della serie 4800.
Cmq annata spettacolare per noi utenti...con schede potenti a prezzi sempre piu bassi . Ottimo

In realta' mi stupisce che si sia mossa Nvidia prima di Ati: allo stato attuale CPU AMD soffrono di una certa debolezza nel gaming, e l'implementazione del supporto dell'engine fisico nelle GPU potrebbe favorire AMD piu' che Intel.

Mister Tarpone
26-06-2008, 13:30
Poi, come faccina hai utilizzato il roll eyes, che inizialmente veniva accompagnato ad una affermazione per evidenziarne il sarcasmo. Col tempo pero' c'e' stato un abuso dell'emoticon, ed ora ha ormai assunto pi' o meno il significato di "ma guarda che stupidaggini mi tocca ascoltare". Se cerchi sul web, noterai che in piu' di un forum ne e' stata proposta l'abolizione, perche' ormai viene utilizzata per i flame.

Noooo.....peccato... :rolleyes:

mi piaceva tanto sto smile :rolleyes:


ciao...

blade9722
26-06-2008, 13:34
Noooo.....peccato... :rolleyes:

mi piaceva tanto sto smile :rolleyes:


ciao...

Dipende come la utilizzi.

Se scrivi:

La Microsoft e' famosa per promuovere la libera competizione nei mercati e scoraggiare la formazioni dei monopoli:rolleyes:

Allora stai solo rimarcando che la tua frase va interpretata in chiave sarcastica.

Se pero' ti limiti a fare il quote di un post con la faccina, il significato e' quello che ho descritto.....

ThePunisher
26-06-2008, 13:41
Si, offensivo:

il fatto di usare il neretto e di allargare le font nel riportare i post che erano sfuggiti a Ghiltanas trasmette il messaggio: "te lo evidenzio bene perche' sei fesso e non riesci a leggere".

Poi, come faccina hai utilizzato il roll eyes, che inizialmente veniva accompagnato ad una affermazione per evidenziarne il sarcasmo. Col tempo pero' c'e' stato un abuso dell'emoticon, ed ora ha ormai assunto pi' o meno il significato di "ma guarda che stupidaggini mi tocca ascoltare". Se cerchi sul web, noterai che in piu' di un forum ne e' stata proposta l'abolizione, perche' ormai viene utilizzata per i flame.

Beh se avesse il significato che hai detto sarebbe scomparsa da questo forum da un bel pò. Comunque non ho usato il neretto ma solo il size.

blade9722
26-06-2008, 13:49
Beh se avesse il significato che hai detto sarebbe scomparsa da questo forum da un bel pò. Comunque non ho usato il neretto ma solo il size.

Da:

http://www.flyertalk.com/forum/showthread.php?t=488235

Anyone else with me on this one? Does this emoticon add anything positive to FT? It seems to me it's an over-used annoying feature that's only used to irritate the poster one is responding to.

The only good use I see with it is when the eye-roll is not directed as another poster or his/her argument, but to something external. Perhaps the eye-roll should be available as a Post Icon, just not as a smilie.

Any thoughts on this one?

Da:

http://msgboard.snopes.com/message/ultimatebb.php?/ubb/get_topic/f/2/t/006334/p/1.html

So you may or may not know that a thread about waxing has been hijacked by my dislike of the use of the eye rolling graemlin.

What's your take on the use of the eye roll? I think more often than not it's disrespectful, dismissive and simply not needed. I don't believe it's very productive in the course of any discussion whether it's in real life or on this board.

So again I ask what is your take?


Qui:

http://forum.rpg.net/showthread.php?t=297597

E' stato addirittura rimosso.

The rolleyes icon has been removed from the board's list of smilies, mostly because it was one of the most aggravating, insincere, obnoxious smilies that you could use without making a direct personal attack.

We should have nailed it to the wall a long time ago, but it's gone now. We're discussing potential replacements.


Il punto e' che se e' utilizzato per quotare cio' che qualcuno ha scritto (o non ha letto) viene percepito in maniera negativa.

LukeHack
26-06-2008, 14:58
state tutti in OT. e se vi scandalizzate tanto per l'uso di una faccina :rolleyes: pensate piuttosto a non insozzare il thread, che è interessante grazie

berry83
26-06-2008, 15:19
ATI RULLA TROPPO QUEST'ANNO....non basteranno queste trovate per contrastare il rapporto prezzo prestazioni della serie 4800.
Cmq annata spettacolare per noi utenti...con schede potenti a prezzi sempre piu bassi . Ottimo

è un fanboy ati sfegatato, l'ho già visto nel thread della 280gtx, vuole solo scatenare flame, non capisco perchè non venga bannato

atomo37
26-06-2008, 16:16
secondo me è solo una mossa per dire: risparmia sulla cpu e prenditi una bella scheda video che tanto fa tutto lei.
non a caso sul sito nvidia si accede ad un tool che ti fa vedere proprio come un pc "BILANCIATO" debba avere una cpu normale e una bella scheda video, e cliccando sulle configurazioni il sistema ti AIUTA sempre a scegliere una cpu economica a favore di una bella schedona nvidia!!!

dragonheart81
26-06-2008, 16:49
in teoria basta una sola vga, ma la mia domanda è: in questo modo non si sottrae della potenza di calcono alla gpu facendo degradare le prestazioni?

Penso che questo sia inevitabile con vga singola!

blade9722
26-06-2008, 16:50
secondo me è solo una mossa per dire: risparmia sulla cpu e prenditi una bella scheda video che tanto fa tutto lei.
non a caso sul sito nvidia si accede ad un tool che ti fa vedere proprio come un pc "BILANCIATO" debba avere una cpu normale e una bella scheda video, e cliccando sulle configurazioni il sistema ti AIUTA sempre a scegliere una cpu economica a favore di una bella schedona nvidia!!!

Mah, quello di spostare sempre di piu' il carico dalla CPU alla GPU e' stato una costante sin dall'introduzione delle prime schede acceleratrici. Le prime generazioni avevano solo cio' che adesso vengono chiamate TMU e ROPs (ai tempi si chiamavano textures e pixel pipelines). Poi e' stato introdotto il T&L, che spostava la generazione delle coordinate dei vertici dalla CPU alla GPU. Il T&L e' diventato programmabile, e ha assunto il nome di vertex shader, in contemporanea sono stati introdotti i pixel shader, unita' programmabili versatili per implementare effetti di riflessione, rifrazione, bump mapping, etc. Ora si sta cercando di spostare anche la gestione della fisica.

Nonostante questo continuo spostamento del carico, non e' mai successo che un sistema risultasse completamente indipendente dalle performance della CPU, e non mi aspetto che questa novita' cambi il thread. Se guardate il secondo link in firma troverete una conferma.

Critterix
26-06-2008, 19:14
http://www.tgdaily.com/content/view/38137/135/

MiKeLezZ
26-06-2008, 21:12
Cerco di spiegarlo: l'espressione "sfruttare le risorse" e' alquanto generica, in quanto non riporta una informazione importante: quali risosrse vengo sfruttate a seconda delle operazioni da eseguire. Per esempio, fra le risorse di calcolo ci sono le TMU, e queste, a meno che non vengano effettuate operazioni di mappatura e filtraggio delle textures, sono inutilizzate. Io non sono in possesso delle conoscenze per stabilire se il CUDA utilizzi unita' di calcolo dedicate, separate dalle altre (che rimarrebbero inutilizzate comunque in assenza dei calcoli fisici), oppure comuni.

Tu invece sostieni, con una certa sicurezza, che le risorse siano in comune, e a supporto hai portato inizialmente una frase di impatto puramente emotivo come "dal nulla non si crea il nulla"
Ora invece ti stai appoggiando ad espressioni del tipo "mi sembra ovvio e banale", senza fornire alcuna spiegazione tecnica. Da cui l'ovvia obiezione: se e' cosi' ovvio e banale, cosa ti costa spendere un paio di minuti a spiegarlo?
Infine, il link alla documentazione sul web. Nel caso specifico, si tratta del manuale di programmazione del CUDA, del tutto inutile a fugare i dubbi che ci siamo posti in quanto dal capitolo 1.2, in cui c'e' una sommaria descrizione dell'architettura hardware, non si ricava nessuna informazione sul fatto che le ALU siano comuni o condivise.

Ora, lo ripeto, io non ho le competenze per rispondere all'interrogazione lo ammetto candidamente, e mi sembra di poter dire che le tue argomentazioni non sciolgano il dubbio.che palle.

vai qua:
http://www.anandtech.com/video/showdoc.aspx?i=3334&p=2

li vedi i quadratini verdi con scritto sfu? gt200 ha 60 di questi. in single precision (32-bit) fanno 4 operazioni a testa, per un totale di 240 unità di calcolo MUL.

li vedi i quadratini blu con scritto sp? gt200 ha 240 di questi. possono andare solo in single precision e fanno una operazione a testa, per un totale di 240 unità di calcolo MAD.

se ne hai ancora voglia, vai qui
http://forums.nvidia.com/index.php?showforum=64
e divertiti con qualche tuo nuovo amico

p.s. sta roba sono gli stream processor. ed è ovvio e banale che se sono usati per cuda non saranno usati per la grafica, e viceversa.

ghiltanas
26-06-2008, 22:01
Offensivo? Ma se ho postato una faccina? Ho fatto solo notare che poteva benissimo trovare la disposta leggendo non PAGINE, ma pochi post sopra. E no, in thread che ho letto non mi è mai capitato.

penso nel tuo caso sia molto indicata una dieta a base di pesce, che aiuta la memoria:cmq intanto te la rinfresco io, oltre a mettere la faccina hai scritto "POST PRECEDENTI" e anceh precendentemente hai scritto in maiuscolo. Se nn lo sai è come se urlassi in questo modo e nn c'era nessun motivo, questo unito alla faccina da te postata ha reso il tuo commento palesemente irritante e inopportuno.
ps ti sei accorto che io posso parlare educatamente con te senza bisogno di urlare?

leoneazzurro
26-06-2008, 23:17
Si prega cortesemente di terminare i flame e gli OT. Grazie.

Tidus.hw
26-06-2008, 23:35
che palle.

vai qua:
http://www.anandtech.com/video/showdoc.aspx?i=3334&p=2

li vedi i quadratini verdi con scritto sfu? gt200 ha 60 di questi. in single precision (32-bit) fanno 4 operazioni a testa, per un totale di 240 unità di calcolo MUL.

li vedi i quadratini blu con scritto sp? gt200 ha 240 di questi. possono andare solo in single precision e fanno una operazione a testa, per un totale di 240 unità di calcolo MAD.

se ne hai ancora voglia, vai qui
http://forums.nvidia.com/index.php?showforum=64
e divertiti con qualche tuo nuovo amico

p.s. sta roba sono gli stream processor. ed è ovvio e banale che se sono usati per cuda non saranno usati per la grafica, e viceversa.

gli stream processor di gt200 possono eseguire anche calcoli in doppia precisione ;)

mjordan
27-06-2008, 00:24
Anche perchè quando Nvidia dopo aver comprato Ageia aveva parlato di driver anche per 8800....:muro:
Ma come sempre il mercato viene prima, speriamo che li faccia anche per le 8800 visto che ci sono tantissime persone che ne possiedono una...:help: :help:

No, il supporto verrà esteso alle schede dalla 8800 in poi

Ma quali 8800 in poi...
Ma perchè parlate solo di 8800? :mad:
Si era detto che il supporto sarebbe stato esteso a tutta la serie 8, non soltanto alle 8800 :mad:

Star trek
27-06-2008, 00:25
Mi piace questa concorrenza aguerrita tra ATI e NVIDIA....Peccato che non abbassino i prezzi e piano piano andranno a picco tutti e due...:D :D :D

mjordan
27-06-2008, 01:10
Mi piace questa concorrenza aguerrita tra ATI e NVIDIA....Peccato che non abbassino i prezzi e piano piano andranno a picco tutti e due...:D :D :D

Io sinceramente tutta questa concorrenza di ATI ancora la vedo. Come al solito solo chiacchiere, quando ci sarà qualcosa di concreto allora si parlerà di concorrenza.

BlueKnight
27-06-2008, 02:25
Non so se sia già stato postato.. comunque notizia interessante per tutti i possessori delle concorrenza..


PhysX Runs On RV670, Scores 22,000 CPU Marks in 3DMark Vantage

http://www.techpowerup.com/64042/PhysX_Runs_On_RV670_Scores_22_000_CPU_Marks_in_3DMark_Vantage.html

ministro
27-06-2008, 05:44
la mia domanda è.. che me ne faccio della mia Ageia ora?
non capisco se i giochi che useranno la physx di nvidia saranno compatibili con schede Ageia visto che il tutto nasce da là..

ThePunisher
27-06-2008, 06:35
Ma quali 8800 in poi...
Ma perchè parlate solo di 8800? :mad:
Si era detto che il supporto sarebbe stato esteso a tutta la serie 8, non soltanto alle 8800 :mad:

http://www.nvidia.com/object/cuda_learn_products.html

ThePunisher
27-06-2008, 06:37
la mia domanda è.. che me ne faccio della mia Ageia ora?
non capisco se i giochi che useranno la physx di nvidia saranno compatibili con schede Ageia visto che il tutto nasce da là..

Sì, sarà del tutto indifferenze... dai driver PhysX (che si occupano di instradare le istruzioni fisiche) puoi scegliere AGEIA PhysX o NVIDIA GPU PhysX!

MiKeLezZ
27-06-2008, 07:32
gli stream processor di gt200 possono eseguire anche calcoli in doppia precisione ;)in rapporto 8:1, ovvero 2 sfu si combinano per fare un calcolo in doppia precisione, e quindi un totale di sole 30 unità di calcolo in double precision. fortunatamente la double precision è poco utile per l'utente desktop.

blade9722
27-06-2008, 09:49
che palle.

vai qua:
http://www.anandtech.com/video/showdoc.aspx?i=3334&p=2

li vedi i quadratini verdi con scritto sfu? gt200 ha 60 di questi. in single precision (32-bit) fanno 4 operazioni a testa, per un totale di 240 unità di calcolo MUL.

li vedi i quadratini blu con scritto sp? gt200 ha 240 di questi. possono andare solo in single precision e fanno una operazione a testa, per un totale di 240 unità di calcolo MAD.

se ne hai ancora voglia, vai qui
http://forums.nvidia.com/index.php?showforum=64
e divertiti con qualche tuo nuovo amico

p.s. sta roba sono gli stream processor. ed è ovvio e banale che se sono usati per cuda non saranno usati per la grafica, e viceversa.

Ascoltami, Mikelezz, non e' il modo di rivolgersi ad un utente che sta sollevando legittimi dubbi, il moderatore e' intervenuto, e possiamo chiuderla qui.

MiKeLezZ
27-06-2008, 10:07
Ascoltami, Mikelezz, non e' il modo di rivolgersi ad un utente che sta sollevando legittimi dubbi, il moderatore e' intervenuto, e possiamo chiuderla qui.In mio parere i tuoi dubbi non erano legittimi, e neanche la tua ostinazione. Comunque.
Ciao

blade9722
27-06-2008, 11:24
Allora, ieri sera ho fatto qualche test.

Consiglio a chi ha una G80 di tenersi stretto la versione precedente di Physx (8.04.xx) in quanto:

- non e' possibile attivare la modalita' hardware. Nonostante sia attiva la modalita' software a meno che non si installino i 177.40 (e probabilmente i 41) all'avvio dell'engine fisico su Vista x64 vi troverete un messaggio di errore "manca CUDA.dll". Per inciso, con tutta probabilita' si tratta di un baco, l'engine software deve funzionare anche in assenza di GPU Nvidia.

- con i 177.40 Physx 8.06.12 funziona in modalitá software, ma le performance sono decisamente inferiori a Physx 8.04.xx

LukeHack
27-06-2008, 17:32
Io sinceramente tutta questa concorrenza di ATI ancora la vedo. Come al solito solo chiacchiere, quando ci sarà qualcosa di concreto allora si parlerà di concorrenza.

molto d'accordo :O

berry83
27-06-2008, 18:37
Allora, ieri sera ho fatto qualche test.

Consiglio a chi ha una G80 di tenersi stretto la versione precedente di Physx (8.04.xx) in quanto:

- non e' possibile attivare la modalita' hardware. Nonostante sia attiva la modalita' software a meno che non si installino i 177.40 (e probabilmente i 41) all'avvio dell'engine fisico su Vista x64 vi troverete un messaggio di errore "manca CUDA.dll". Per inciso, con tutta probabilita' si tratta di un baco, l'engine software deve funzionare anche in assenza di GPU Nvidia.

- con i 177.40 Physx 8.06.12 funziona in modalitá software, ma le performance sono decisamente inferiori a Physx 8.04.xx

ma funziona anche con la 9800 gx2?

blade9722
27-06-2008, 19:11
ma funziona anche con la 9800 gx2?

dovrebbe... prova ad installare i 177.40

MIRAGGIO
28-06-2008, 12:44
Allora, ieri sera ho fatto qualche test.

Consiglio a chi ha una G80 di tenersi stretto la versione precedente di Physx (8.04.xx) in quanto:

- non e' possibile attivare la modalita' hardware. Nonostante sia attiva la modalita' software a meno che non si installino i 177.40 (e probabilmente i 41) all'avvio dell'engine fisico su Vista x64 vi troverete un messaggio di errore "manca CUDA.dll". Per inciso, con tutta probabilita' si tratta di un baco, l'engine software deve funzionare anche in assenza di GPU Nvidia.

- con i 177.40 Physx 8.06.12 funziona in modalitá software, ma le performance sono decisamente inferiori a Physx 8.04.xx
Perdonami ..ma nn ho capito niente di quello che hai detto..
Quale sarebbe la versione (8.04.xx) ???
CCosa è che consigli??
:read:

blade9722
29-06-2008, 09:53
Perdonami ..ma nn ho capito niente di quello che hai detto..
Quale sarebbe la versione (8.04.xx) ???
CCosa è che consigli??
:read:

Semplicemente, se si ha la G80, che comunque non permette di attivare il supporto della GPU all'engine fisico, il mio consiglio è di tenere la vecchia versione del driver physX e di non aggiornarla alla 8.06

pacaldi
05-08-2008, 10:26
Oggi dovrebbero uscire quelli ufficiali o sbaglio?

mjordan
05-08-2008, 12:44
Usciti. E ancora niente supporto per la serie 8 ... :mad:
Non capisco se ci stanno prendendo per il culo o cosa... :mad:

http://www.toomanydownloads.com/index.php?option=com_mtree&task=viewlink&link_id=163&Itemid=54

EDIT: Falso allarme, la serie 8 è supportata eccome!! Hanno cambiato il changelog :D

Bescio
05-08-2008, 16:45
EDIT: Falso allarme, la serie 8 è supportata eccome!! Hanno cambiato il changelog :D


Confermo.

Con 8800GTS 320mb, Forceware 177.79 e PhysX 8.07.18 posso selezionare la Geforce nel pannelo dei PhysX. Le demo fisiche incluse sembrano funzionare.

pacaldi
05-08-2008, 16:47
Non và il link... Sono quelli definitivi, non beta?

mjordan
05-08-2008, 17:01
Non và il link... Sono quelli definitivi, non beta?

Hanno rimosso la pagina. Ecco un altro link:
http://files.laptopvideo2go.com/files/physx/physx_8.07.18.exe

Si, sono quelli definitivi.

mjordan
05-08-2008, 17:04
Confermo.

Con 8800GTS 320mb, Forceware 177.79 e PhysX 8.07.18 posso selezionare la Geforce nel pannelo dei PhysX. Le demo fisiche incluse sembrano funzionare.

Ma con i 177.79 non si perde il pannello di controllo nVidia? Cosi si dice in giro...

Bescio
05-08-2008, 17:22
Ma con i 177.79 non si perde il pannello di controllo nVidia? Cosi si dice in giro...

Non con l'inf di laptopvideo2go. :)

http://www.laptopvideo2go.com/forum/index.php?showtopic=19899

pacaldi
05-08-2008, 17:39
Scusate, ma ho bisogno comunque dei 177.79 beta e poi dei physX 8.07.18 definitivi?

mjordan
05-08-2008, 18:25
Scusate, ma ho bisogno comunque dei 177.79 beta e poi dei physX 8.07.18 definitivi?

Si però considerando che a breve dovrebbe essere rilasciato il driver certificato WHQL che include automaticamente anche il supporto PhysX, io se fossi in te aspetterei.

mjordan
05-08-2008, 18:27
Non con l'inf di laptopvideo2go. :)

http://www.laptopvideo2go.com/forum/index.php?showtopic=19899

Che scheda grafica usi sul note?

pacaldi
06-08-2008, 07:21
Testati!
In GRAW 2 devo dire che si vede la differenza, in termini di esperienza di gioco, la fisica è molto realistica. Io ho un E6600 con una GeForce 8800 GT a 1680*1050 senza ANISOTROPICO E AA, su GRAW 2 siamo nell'ordine dei 50/60 FPS, mediamente, ma quando interviene la fisica scendiamo anche a 30 e scatticchia pure, invece UT3 con il PhysX Mod Pack, UN PIANTO AMARO, con le stesse impostazioni video, in questa mappa "Lighthouse PhysX" dai 3 ai 10 FPS... Adesso è il momento di chiamare in causa SLI, aspettiamo il prossimo upgrade hardware...

Chi li ha testati può fare una piccola recensione tipo questa?

Bescio
06-08-2008, 11:52
Che scheda grafica usi sul note?

Ho un Vaio del 2000 con un ATI Rage Mobility M1 8Mb... :stordita:

La GeForce ce l'ho sul fisso. :D

aaasssdddfffggg
08-08-2008, 10:11
Considerando che sto usando il pc di mio cugino che ha un e8200 e una 8800gt

Confermo.

Con 8800GTS 320mb, Forceware 177.79 e PhysX 8.07.18 posso selezionare la Geforce nel pannelo dei PhysX. Le demo fisiche incluse sembrano funzionare.
Gli ho installati i xx.79 e PhysX 8.07.18 e posso selezionare dal pannello solo fisica via hardware e come capisco come mai


Ma con i 177.79 non si perde il pannello di controllo nVidia? Cosi si dice in giro...
no il pannello di controllo non lo perdi con i 177.79 il pannello di controllo c'è e funziona correttamente

Bescio
08-08-2008, 12:44
Considerando che sto usando il pc di mio cugino che ha un e8200 e una 8800gt


Gli ho installati i xx.79 e PhysX 8.07.18 e posso selezionare dal pannello solo fisica via hardware e come capisco come mai


Eh eh non saprei come aiutarti... :D



http://img141.imageshack.us/img141/686/physxhc6.th.png (http://img141.imageshack.us/my.php?image=physxhc6.png)