View Full Version : E' basata su Havok la fisica nei giochi con GPU ATI
Redazione di Hardware Upg
23-03-2009, 15:14
Link alla notizia: http://www.hwupgrade.it/news/skvideo/e-basata-su-havok-la-fisica-nei-giochi-con-gpu-ati_28438.html
Al Game Developers Conference AMD anticiperà la propria strategia legata al supporto via GPU della fisica nei videogiochi
Click sul link per visualizzare la notizia.
andando quindi a contrapporti
sarebbe "contrapporsi" no?
Beh finalmente, se accadrà per davvero..anche se ci sarebbe la necessità di uno standard libero o utilizzabile da tutti
Dalla notizia non si capisce molto...ma può farlo veramente amd dato che havok è di intel?
XAleX IT
23-03-2009, 15:25
Non vedo proprio come possa contrapporsi direttamente, non essendo ATI in possesso della tecnologia come invece nVidia con PhysX. A meno di pagare royalties prevedibilmente salate ad Intel, ma insomma...
Dalla notizia non si capisce molto...ma può farlo veramente amd dato che havok è di intel?
credo che a Intel non paia il vero! nel senso... è tutto a suo pro! tanto Intel non possiede schede Video High-end... così a ricevuto un supporto Ufficiale ad un suo prodotto...
Vi ricordate quando INTEL certificavai suoi chipset per CrossFireX? è la stessa cosa... sembrava impossibile e invece anche Nvidia si è dovuta "abbassare" a tanto...
Per me Intel ha fatto bene...
capitan_crasy
23-03-2009, 15:33
Dalla notizia non si capisce molto...ma può farlo veramente amd dato che havok è di intel?
AMD ha firmato un accordo con Havok già da parecchio tempo...
Clicca qui... (http://www.hwupgrade.it/news/skvideo/amd-e-havok-accordo-di-collaborazione_25620.html)
Intel non ha schede video high-end ORA, ma le avrà nel Q1 2010 (Larrabee).
Per il resto: vediamo cosa presentano al GDC come demo, ma soprattutto quali saranno le prestazioni in possibili giochi con Havok.
gabi.2437
23-03-2009, 16:06
Intel non ha schede video high-end ORA, ma le avrà nel Q1 2010 (Larrabee).
Per il resto: vediamo cosa presentano al GDC come demo, ma soprattutto quali saranno le prestazioni in possibili giochi con Havok.
Eh si, Larrabee una scheda video high end?
Sgt.Pepper89
23-03-2009, 17:08
Interessante anche perchè giochi che supportano physix si contano sulle dita di una mano, più o meno pari di numero ai pochi che NON si basano su Havok :D
Peccato che non ci sia dato a sapere come e quando questo supporto verrà implementato...se solo nei prossimi modelli di gpu, se solo con motore havok appositamente studiato...
Larrrabee sarà già tanto se fara girare prato fiorito
masty_<3
23-03-2009, 17:12
eccerto, intel adesso ti fa pure case ram alimentatori monitor casse mouse e tastiera.... maddai
piuttosto farebbe bene sia per noi sia x se stessa, noi ci guadagnamo la concorrenza tra ati e nvidia e intel la pubblicità =)
Wolfhask
23-03-2009, 17:15
Beh ecco trovato l'accordo tra le licenze x86 e x64 dei procio, lo faranno grazie alle gpu e havok!
Però rimango dell'idea che se AMD prendesse davvero una posizione potrebbe regalarci quel bel periodo che fù un paio d'anni fà.
Kharonte85
23-03-2009, 17:24
MAh, vedremo come si evolverà questa collaborazione...
Larrrabee sarà già tanto se fara girare prato fiorito
:sbonk:
mircocatta
23-03-2009, 17:33
rimane il fatto che un pc con cpu intel e gpu nvidia è in grado di far girare bene sia la fisica havok che physx, un pc con gpu ati no :(
x gabi.2437 ed sslazio: auguratevi che Larrabee faccia veramente schifo come pensate :D
MiKeLezZ
23-03-2009, 17:46
Non vedo proprio come possa contrapporsi direttamente, non essendo ATI in possesso della tecnologia come invece nVidia con PhysX. A meno di pagare royalties prevedibilmente salate ad Intel, ma insomma...Queste notizie sono solo marketing, dato che recentemente NVIDIA ha confermato di supportare Nintendo, Sony, e Microsoft con la sua Physx.
Quindi AMD ha dovuto fare questa news che sì, c'è anche lei... Pur usando un software addirittura di Intel.
Inoltre se mostrerà (come è probabile che sia) un wrapper OpenCL di Havok, tempo 2 giorni avremo lo stesso con NVIDIA (visto che anche lei supporta OpenCL).
p.s. Il motore UT3 usa Physx, non Havok, per dire (il suo engine è poi usato in numerosi FPS).
ghiltanas
23-03-2009, 17:52
ma havock nn è un pò troppo datato come engine fisico? :mbe:
II ARROWS
23-03-2009, 18:01
La fisica va fatta sulle CPU, se anche ATi si sposta in questo modo giocherò ai giochi con la fisica di 10 anni fa.
capitan_crasy
23-03-2009, 18:13
rimane il fatto che un pc con cpu intel e gpu nvidia è in grado di far girare bene sia la fisica havok che physx, un pc con gpu ati no :(
Aspetta...
Una CPU AMD può far girare senza nessun problema Havok
Queste notizie sono solo marketing, dato che recentemente NVIDIA ha confermato di supportare Nintendo, Sony, e Microsoft con la sua Physx.
Quindi AMD ha dovuto fare questa news che sì, c'è anche lei... Pur usando un software addirittura di Intel.
Inoltre se mostrerà (come è probabile che sia) un wrapper OpenCL di Havok, tempo 2 giorni avremo lo stesso con NVIDIA (visto che anche lei supporta OpenCL).
Ok ma sarebbe la fine di Physx, in quanto chi userebbe una tecnologia "proprietaria" quando si può avere la stessa cosa attraverso uno standard aperto?...
p.s. Il motore UT3 usa Physx, non Havok, per dire (il suo engine è poi usato in numerosi FPS).
Manca però il grande titolo ( UT3 a parte):muro: ...
Se pero Havok fa figure di caccola stile "Fallout 3" è meglio che si ritirino...
SwatMaster
23-03-2009, 19:27
C'abbiamo i quad, fateceli sfruttare quantomeno per la fisica... :rolleyes:
gabi.2437
23-03-2009, 19:52
Eh peccato che una scheda video per la fisica sia decine di volte più potente anche di tutti i quadcore messi insieme
HavoK, anche se un po datato, ha grande esperienza per quanto riguarda il calcolo della fisica tramite CPU, PhisX più giovane è meno "perfetto" ma molto più potente in quanto sfrutta la potenza di calcolo delle GPU; allora basta unire le due cose e il gioco è fatto!
Ah già, i brevetti, i copyright...
Una CPU AMD può far girare senza nessun problema Havok
Una CPU non è una GPU, c'è una bella differenza...
C'abbiamo i quad, fateceli sfruttare quantomeno per la fisica... :rolleyes:
Quoto...
Eh peccato che una scheda video per la fisica sia decine di volte più potente anche di tutti i quadcore messi insieme
...e STRAQUOTO!
MiKeLezZ
23-03-2009, 22:33
Eh peccato che una scheda video per la fisica sia decine di volte più potente anche di tutti i quadcore messi insiemeUn Quad Core arriva a malapena a 50 GFlops, mentre le ultime HD4800 superano i 200 GFlops
Incaponirsi ad usare le CPU non è il massimo
Diventerà plausibile solo dopo l'introduzione delle AVX nel 2010, e la loro adozione verso il 2011
HavoK, anche se un po datato, ha grande esperienza per quanto riguarda il calcolo della fisica tramite CPU, PhisX più giovane è meno "perfetto" ma molto più potente in quanto sfrutta la potenza di calcolo delle GPU; allora basta unire le due cose e il gioco è fatto!
Ah già, i brevetti, i copyright...C'era un progetto di Havok su GPU, chiamato HAvok FX, e fra l'altro in collaborazione con NVIDIA, peccato poi Havok sia stata acquistata da Intel ed ovviamente il primo progetto che è stato bloccato fu quello
capitan_crasy
23-03-2009, 22:52
Una CPU non è una GPU, c'è una bella differenza...
Questo lo so anch'io...
La mia era solo un osservazione fatta per rispondere all'utente mircocatta....
Supersubway
24-03-2009, 01:57
Pensate che un quad core extreme come il qx9770 ha 100GIGAFLOPS...la geforce gtx 295 raggiunge i 1,7 TERAFLOP!!!!
Pensate che un quad core extreme come il qx9770 ha 100GIGAFLOPS...la geforce gtx 295 raggiunge i 1,7 TERAFLOP!!!!
e pensa che quella è la classica configurazione del gamer diciassettenne brufoloso mentre per mandare l'uomo sulla luna è bastato un 486!
Rode però dover rivolgersi a NVidia per quei pochi giochi che utilizzano Physx... Almeno avessero concesso l'uso di una Geforce per il calcolo della fisica in accoppiata con una Radeon...
Per quanto sia perfettamente giocabile nella modalità normale, vedere Mirror's Edge scattare come Trespasser con la fisica attivata con una 4870 X2...
Alla faccia della standardizzazione :D
Sgt.Pepper89
24-03-2009, 11:49
Queste notizie sono solo marketing, dato che recentemente NVIDIA ha confermato di supportare Nintendo, Sony, e Microsoft con la sua Physx.
Quindi AMD ha dovuto fare questa news che sì, c'è anche lei... Pur usando un software addirittura di Intel.
Stai dicendo che la mossa di nvidia invece non è solo marketing? Perchè entrambi hanno annunciato il supporto a qualcosa di cui in realtà non si sa nulla. Come attualmente non c'è supporto a havok via scheda Ati non c'è alcun gioco che gira con physx su piattaforme console
Inoltre se mostrerà (come è probabile che sia) un wrapper OpenCL di Havok, tempo 2 giorni avremo lo stesso con NVIDIA (visto che anche lei supporta OpenCL).
Esattamente come con i primi driver Nvidia si poteva usare physix su schede ati. I problemi sono di marketing, a livello pratico sarebbe anche possibile ma le aziende non lo permettono. Non è che lòe gpu nvidia hanno qualche caratteristica hardware extra per gestire la fisica.
http://www.tomshw.it/news.php?newsid=14538
p.s. Il motore UT3 usa Physx, non Havok, per dire (il suo engine è poi usato in numerosi FPS).
Si e nessuno di questi giochi supporta l'accelerazione via harware della fisica (c'era una mod per l'originale ut3 ma non ha mai funzionato a dovere) quindi la cosa è assolutamente irrilievante finchè questa caratteristica non viene implementata.
Mercuri0
24-03-2009, 11:57
credo che a Intel non paia il vero! nel senso... è tutto a suo pro! tanto Intel non possiede schede Video High-end... così a ricevuto un supporto Ufficiale ad un suo prodotto...
lntel ha comprato Havok per uccidere HavokFX, proprio perché non ha una GPU e preferisce che i conti rimangano il più a lungo possibile sulla CPU. Per fortuna nVidia ha smosso le acque e anche HavoK deve seguire :D
Queste notizie sono solo marketing,
Veramente la fonte originale della notizia è il programma della Game Developer Conference. La sezione marketing di AMD ancora non s'è mossa.
Inoltre se mostrerà (come è probabile che sia) un wrapper OpenCL di Havok, tempo 2 giorni avremo lo stesso con NVIDIA (visto che anche lei supporta OpenCL).
Speriamo! Così magari anche nVidia sarà costretta a far lo stesso. Immagino che gli sviluppatori sia facile la scelta tra usare un motore fisico che gira su ogni GPU e ultra ottimizzato per la CPU e usarne uno che non gira su ogni GPU e in modalità CPU va esplicitamente più lento.
Un Quad Core arriva a malapena a 50 GFlops, mentre le ultime HD4800 superano i 200 GFlops
Pensate che un quad core extreme come il qx9770 ha 100GIGAFLOPS...la geforce gtx 295 raggiunge i 1,7 TERAFLOP!!!!
Già, e ce li possiamo giocare al lotto questi numeri. :rolleyes: (tra l'altro mikelezz, stai forse citando la capacità di calcolo in virgola mobile a precisione doppia? mò per un videogioco bisogna fare simulazioni nucleari precise a 2^-64?)
La verità è che sebbene i vantaggi delle GPU in campo scientifico siano innegabili, non possiamo ancora sapere cosa si potrà fare realmente in campo videoludico, e non potremmo saperlo finché rimarrà alto il fumo intorno fatto di motori fisici pubblicitari che esplicitamente rallentano quando girano su CPU (Physix) o annunci "in divenire" come questo.
Quando gli sviluppatori avranno i tool per creare sistemi fisici compatibili su tutte le piattaforme, che sfruttano al meglio le componenti del sistema, allora vedremo se ci può essere l'arrosto.
Per la storia CPU vs GPU e accelerazione fisica, invito a vedere il video demo "ping pong" di AMD. La fisica delle palline è calcolata sulla CPU, un Phenom I, tra l'altro.
http://www.youtube.com/watch?v=omq3O22EUx4
Non lo so, chiedo a voi: in MirrorEdge c'è davvero una mole superiore di oggetti da dover animare con un acceleratore? dai video non m'era tanto parso.
In sostanza le domande che dovranno farsi i programmatori sono:
- Quali sono gli effetti fisici utili ad un videogioco?
- Per quali di questi è più indicato usare la GPU che la CPU?
- E varranno la pena il calo di FPS nel caso sia necessario l'utilizzo della GPU?
Ecco, la cosa che mi incuriosisce di questa news, è se AMD risponderà davvero a queste domande alla Game Developers Conference. :)
Mercuri0
24-03-2009, 12:19
Diventerà plausibile solo dopo l'introduzione delle AVX nel 2010, e la loro adozione verso il 2011
Beh, certo che se PhysX si degnasse di usare le SSE come fanno financo i programmi di chat...
Mettere su un bel confronto Havok vs PhysX nelle varie condizioni (CPU, GPU, etc) sarebbe decisamente stimolante. Peccato che non è roba da recensori ma da sviluppatori, e in questa fase gli sviluppatori questo tipo di test, se anche li fanno, sono certamente "incoraggiati" a non divulgarli :(
Sgt.Pepper89
24-03-2009, 12:37
Ti ringrazio per l'intervento davvero interessante e aggiungo:
In sostanza le domande che dovranno farsi i programmatori sono:
- Quali sono gli effetti fisici utili ad un videogioco?
- Per quali di questi è più indicato usare la GPU che la CPU?
- E varranno la pena il calo di FPS nel caso sia necessario l'utilizzo della GPU?
la mia domanda è
- è necessaria davvero una gpu per eseguire quei calcoli o semplicemente non si vuole ottimizzare il codice per girare su cpu?
Mercuri0
24-03-2009, 12:43
- è necessaria davvero una gpu per eseguire quei calcoli o semplicemente non si vuole ottimizzare il codice per girare su cpu?
Nel caso di PhysX si sa, :) Comunque bisogna dare merito a nVidia di stare facendo tanto "movimento" in questo campo, investendoci pure tanti soldi.
La speranza è che essendo Havok già ottimizzato per le CPU, AMD faccia vedere a cosa davvero potrebbe servire fare GPU. Sperando che sia convincente.
Sicuramente ci saranno cose per cui converrà la CPU, altre per cui converrà la GPU.
Bisogna, appunto, vedere quali, e se, valgono la pena il costo di "FPS" che potrebbero essere invece impegnati per migliorare la grafica.
Sembra proprio che AMD stia perdendo terreno in questo primo quadrimestre rispetto intel e nvidia
MiKeLezZ
24-03-2009, 13:07
tra l'altro mikelezz, stai forse citando la capacità di calcolo in virgola mobile a precisione doppia? mò per un videogioco bisogna fare simulazioni nucleari precise a 2^-64?Sono semplicemente dei confronti mele con mele, poi la DP è probabile per i primi tempi non sia utilizzata
è necessaria davvero una gpu per eseguire quei calcoli o semplicemente non si vuole ottimizzare il codice per girare su cpu?La fisica sono calcoli particolarmente parallelizzati e in floating point, che è esattamente dove le GPU eccellono (e le CPU no)
Esempio, i calcoli di Physx possono esser tranquillamente effettuati sulla CPU, ma il risultato è vedere un frame rate 4 volte inferiore (o più)
Mercuri0
24-03-2009, 13:29
La fisica sono calcoli particolarmente parallelizzati e in floating point, che è esattamente dove le GPU eccellono (e le CPU no)
Esempio, i calcoli di Physx possono esser tranquillamente effettuati sulla CPU, ma il risultato è vedere un frame rate 4 volte inferiore (o più)
Per saperlo bisognerebbe confrontare pere con pere, cioè vedere il meglio che si può fare con la CPU vs il meglio che si può fare con la GPU.
PhysX non è troppo adatto all'uopo, storicamente è nato per vendere le schede Ageia, non per consentire agli sviluppatori nuove opportunità. E ancora segue quella scia.
Ho googlato a caso per cercare uno dei demo-flop di Ageia (in cui disattivando l'accelerazione fisica il demo andava uguale).
Ho trovato questa pagina, riguardo Cell Factor.
http://www.hardforum.com/showthread.php?t=1056037
La cosa più interessante sono i grafici di utilizzo del processore in modalità CPU. :asd:
Wow! se vedo i video di Cell Factor gli effetti fisici non mancano!
http://www.youtube.com/watch?v=gSeW9NejxLo
Pensate che un quad core extreme come il qx9770 ha 100GIGAFLOPS...la geforce gtx 295 raggiunge i 1,7 TERAFLOP!!!!
Mi chiedo perchè vengano ancora prodotte delle CPU (e relativo software) quando le GPU sono così enormemente più potenti...
e pensa che quella è la classica configurazione del gamer diciassettenne brufoloso mentre per mandare l'uomo sulla luna è bastato un 486!
Incredibile che 40 anni fa bastasse un 486 per arrivare sulla luna e oggiorno con sti megaprocessori non ci riusciamo più...
ghiltanas
24-03-2009, 13:41
Per saperlo bisognerebbe confrontare pere con pere, cioè vedere il meglio che si può fare con la CPU vs il meglio che si può fare con la GPU.
PhysX non è troppo adatto all'uopo, storicamente è nato per vendere le schede Ageia, non per consentire agli sviluppatori nuove opportunità. E ancora segue quella scia.
Ho googlato a caso per cercare uno dei demo-flop di Ageia (in cui disattivando l'accelerazione fisica il demo andava uguale).
Ho trovato questa pagina, riguardo Cell Factor.
http://www.hardforum.com/showthread.php?t=1056037
La cosa più interessante sono i grafici di utilizzo del processore in modalità CPU. :asd:
Wow! se vedo i video di Cell Factor gli effetti fisici non mancano!
http://www.youtube.com/watch?v=gSeW9NejxLo
Qualcuno mi spiega come si conciliano i due link?
(fenomenali effetti fisici, poca differenza tra CPU o acceleratore, e comunque la CPU non è sfruttata).
physx attuale nn è paragonabile imho all'implementazione utilizzata in passato con ageia..
MiKeLezZ
24-03-2009, 15:15
Per saperlo bisognerebbe confrontare pere con pere, cioè vedere il meglio che si può fare con la CPU vs il meglio che si può fare con la GPU.Il meglio con la CPU devo ancora vederlo...
PhysX non è troppo adatto all'uopo, storicamente è nato per vendere le schede Ageia, non per consentire agli sviluppatori nuove opportunità. E ancora segue quella scia.Le scheda Ageia in realtà non erano altro che VGA a 32 Shader Unificati, fra l'altro con memorie a relativamente bassa velocità (1430MHz)
Ho googlato a caso per cercare uno dei demo-flop di Ageia (in cui disattivando l'accelerazione fisica il demo andava uguale).
Ho trovato questa pagina, riguardo Cell Factor.
http://www.hardforum.com/showthread.php?t=1056037
La cosa più interessante sono i grafici di utilizzo del processore in modalità CPU. :asd:Non sono demo-flop.
Hai solo trovato il topic di un utente fake di 3 anni fa, che ha preso gli istanti in cui non veniva calcolata la fisica, e quindi il frame rate era necessariamente simile.
Solo guardando i video si capisce che non è così la verità:
http://www.youtube.com/watch?v=-k3vhSfbCfo
Stai dicendo che la mossa di nvidia invece non è solo marketing? Perchè entrambi hanno annunciato il supporto a qualcosa di cui in realtà non si sa nulla. Come attualmente non c'è supporto a havok via scheda Ati non c'è alcun gioco che gira con physx su piattaforme console
Errato, ci sono sono già da tempo giochi per console Wii, PS3, x360 che usano PhysX, ovviamente gestito via CPU.
Esattamente come con i primi driver Nvidia si poteva usare physix su schede ati. I problemi sono di marketing, a livello pratico sarebbe anche possibile ma le aziende non lo permettono. Non è che lòe gpu nvidia hanno qualche caratteristica hardware extra per gestire la fisica.
http://www.tomshw.it/news.php?newsid=14538
Questo lo si può fare grazie al lavoro di Eran Badit, a cui NVIDIA a voluto fornire supporto mentre AMD no, purtroppo.
Si e nessuno di questi giochi supporta l'accelerazione via harware della fisica (c'era una mod per l'originale ut3 ma non ha mai funzionato a dovere) quindi la cosa è assolutamente irrilievante finchè questa caratteristica non viene implementata.
La mod PhysX per UT3 c'è ancora ed è perfettamente funzionante...
Ti ringrazio per l'intervento davvero interessante e aggiungo:
la mia domanda è
- è necessaria davvero una gpu per eseguire quei calcoli o semplicemente non si vuole ottimizzare il codice per girare su cpu?
Nel caso di PhysX si sa, :) Comunque bisogna dare merito a nVidia di stare facendo tanto "movimento" in questo campo, investendoci pure tanti soldi.
La speranza è che essendo Havok già ottimizzato per le CPU, AMD faccia vedere a cosa davvero potrebbe servire fare GPU. Sperando che sia convincente.
Sicuramente ci saranno cose per cui converrà la CPU, altre per cui converrà la GPU.
Bisogna, appunto, vedere quali, e se, valgono la pena il costo di "FPS" che potrebbero essere invece impegnati per migliorare la grafica.
Per saperlo bisognerebbe confrontare pere con pere, cioè vedere il meglio che si può fare con la CPU vs il meglio che si può fare con la GPU.
PhysX non è troppo adatto all'uopo, storicamente è nato per vendere le schede Ageia, non per consentire agli sviluppatori nuove opportunità. E ancora segue quella scia.
Al dì là di PhysX, che non è il miglior esempio per mostrare le capacità di una GPU dato che rispetto alla CPU si ottiene un "misero" 10x di aumento della velocità, la differenza tra il meglio che si può ottenere da una CPU e quello che si può ottenere da una GPU nel calcolo della fisica lo si può vedere in quelle applicazioni scritte attorno alla CPU in cui il fattore tempo era vitale importanza per l'azienda e che ora utilizzano la GPU proprio per ridurre il di elaborazione.
In questi casi con una GPU si sono ottenute riduzioni del tempo necessario alla computazione della simulazione pari a 40/50 volte, quindi aumenti prestazionali del 4000% - 5000% rispetto all'uso di una CPU quad core.
Sgt.Pepper89
24-03-2009, 19:28
Errato, ci sono sono già da tempo giochi per console Wii, PS3, x360 che usano PhysX, ovviamente gestito via CPU.
Quindi gli annunci di nvidia a cosa servono? Se poi si parla dei giochi basati sul motore di ut3 nono vedo dove stia l'importanza dell'intervento di nvidia visto che giochi con quell'engine vanno indistintamente con ps3 (vga Nvidia) e xbox360 (vga ati)
Questo lo si può fare grazie al lavoro di Eran Badit, a cui NVIDIA a voluto fornire supporto mentre AMD no, purtroppo.
Il discorso non è che gli si dia il supporto o meno ma se poi il proprietario effettivo della tecnologia lascia fare o no. Chi ti dice che amd non abbia voluto supportare la cosa? Semplicemente non è che puoi prendere e supportare un'applicazione che è un hack dei driver del tuo diretto avversario.
La mod PhysX per UT3 c'è ancora ed è perfettamente funzionante...
La mod PhysX per Ut3 è stata un fallimento totale ed infatti i server con le mappe apposite non sono frequentati.
Al dì là di PhysX, che non è il miglior esempio per mostrare le capacità di una GPU dato che rispetto alla CPU si ottiene un "misero" 10x di aumento della velocità, la differenza tra il meglio che si può ottenere da una CPU e quello che si può ottenere da una GPU nel calcolo della fisica lo si può vedere in quelle applicazioni scritte attorno alla CPU in cui il fattore tempo era vitale importanza per l'azienda e che ora utilizzano la GPU proprio per ridurre il di elaborazione.
In questi casi con una GPU si sono ottenute riduzioni del tempo necessario alla computazione della simulazione pari a 40/50 volte, quindi aumenti prestazionali del 4000% - 5000% rispetto all'uso di una CPU quad core.
Ok ma il problema è che physx non è nato per sfruttare le cpu ma per vendere PPU quindi non è mai stato creato per sfruttare la CPU.
Quindi gli annunci di nvidia a cosa servono? Se poi si parla dei giochi basati sul motore di ut3 nono vedo dove stia l'importanza dell'intervento di nvidia visto che giochi con quell'engine vanno indistintamente con ps3 (vga Nvidia) e xbox360 (vga ati)Da quello che ho capito l'annuncio riguarda solamente la disponibilità dell'SDK direttamente da NVIDIA.
Il discorso non è che gli si dia il supporto o meno ma se poi il proprietario effettivo della tecnologia lascia fare o no. Chi ti dice che amd non abbia voluto supportare la cosa? Semplicemente non è che puoi prendere e supportare un'applicazione che è un hack dei driver del tuo diretto avversario.
Chi mi dice che amd non abbia voluto supportare la cosa?
AMD :) , chi vuoi che sia stato, Intel?
La mod PhysX per Ut3 è stata un fallimento totale ed infatti i server con le mappe apposite non sono frequentati.
Tu prima hai detto che la mod non funzionava a dovere non che i server non sono frequentati , tra l'altro io ci gioco spesso e non siamo in pochi.
Ok ma il problema è che physx non è nato per sfruttare le cpu ma per vendere PPU quindi non è mai stato creato per sfruttare la CPU.
Non è esatto, PhysX nasce come motore fisico multi piattaforma, slegato da CPU, GPU, PPU e chi ne ha più ne metta.
Sgt.Pepper89
24-03-2009, 22:31
Da quello che ho capito l'annuncio riguarda solamente la disponibilità dell'SDK direttamente da NVIDIA.
Esattamente, quindi se mi dici che ci sono già giochi che ne fano uso a che pro dare l'annuncio ora? Cosa è cambiato realmente?
Ma poi quali giochi su console sfruttano physix?
Chi mi dice che amd non abbia voluto supportare la cosa?
AMD :) , chi vuoi che sia stato, Intel?
Non lo hai detto mica tu :mbe: ?
Tu prima hai detto che la mod non funzionava a dovere non che i server non sono frequentati , tra l'altro io ci gioco spesso e non siamo in pochi.
A suo tempo si parlava di problemi di gioco per cui i dati relativi alla fisica soffrivano di lag o non erano proprio trasferiti e quindi tutto quello che accadeva nel tuo schermo legato a pysix non si manifestava agli altri giocatori. Inoltre i livelli erano composti solo i nparte da elementi sfruttati da physix, per evitare carichi eccessivi, con il risultato che ad esempio se colpivi due muri uguali potevi averne uno che si distruggeva e un altro che rimaneva perfettamente integro perchè non gestito. Per questo motivo i server con le mappe per physix sono vuoti.
Per caso è cambiato qualcosa? Quante mappe giocate ci sono giocabili con physix senza problemi?
Non è esatto, PhysX nasce come motore fisico multi piattaforma, slegato da CPU, GPU, PPU e chi ne ha più ne metta.
Nasce da ageia per vendere ppu. Quindi non è stato scritto per sfruttare al meglio le cpu ma per avvantaggiare i sistemi con PPU. Sicuramente le PPU sono processori specifici eccetera eccetera ma da questo a dire che le 2 cosine inutili che si fanno ora con physix su gpu non si possano fare su un moderno quad core per mancanza di capacità elaborativa ne passa. Semplicemente non c'è interesse nell'ottimizzarlo per lavorare con normali CPU perchè Nvidia non ne produce.
Mercuri0
25-03-2009, 10:17
Vabbé bimbi basta cazzate e parliamo di cose serie. :D
Quoto il tipo "GPGPU" di AMD che ha postato su questo thread in beyond3d
http://forum.beyond3d.com/showthread.php?t=53336
Yes, we were running Havok cloth demos on multi-core CPU as well as GPU via OpenCL, all with the same OpenCL code underneath the Havok API. As was said above, there is no visible difference between the OpenCL code on either the CPU or the GPU and Havok's native code.
In sostanza dicono che stanno basando Havok su OpenCL e che non c'è differenza tra il codice GPU e CPU (cioè che OpenCL traduce automaticamente Havok per CPU multicore o per GPU).
E' una figata pazzesca!!
(in effetti era quello che speravo ma non osavo chiedere :D )
I really hope Andrew's talk (EA) gets posted soon (the slides should all go up in not too long) as I think it's pretty cool that he was able to extract the Ropa cloth code used in Skate, port to OpenCL, and throw his code at AMD and Nvidia after developing on a different platform, and have AMD showing multi-core CPU and GPU and Nvidia showing GPU, side by side on alpha implementations. OpenCL is a real thing and the implementations are getting there. This year is going to be interesting and some of us are going to be very busy.
Parlano anche di come OpenCL possa adattarsi alle GPU di vari produttori o anche alle CPU.
Va da sé che una volta uscito Larrabee, basta che abbia il suo driver OpenCL e zac, Havok già accelerato su Larrabee.
In un certo senso la squadra GPGPU di AMD traducendo Havok per OpenCL sta facendo anche lavoro per lntel... :asd:
Comunque questa è la strada giusta, altro che PhysX :D
A questo punto immagino che anche nVidia segua e faccia qualcosa di simile anche per PhysX. Altrimenti semplicemente non ci sarebbe paragone. Del resto il porting CUDA->OpenCL dovrebbe essere triviale, e penso lo faranno appena finiscono di sbolognare qualche scheda rinominata.
(visto che PhysX è pubblicizzato coma la caratteristica "nuova" delle GTS2xx)
I link ai demo di Havok presentati agli sviluppatori li trovate a partire dal link di beyond3d che ho postato.
:winner:
Ci vorrà ancora un pò perché queste cose arrivino a noi, ma stanno andando più velocemente di quanto mi aspettavo.
Mercuri0
25-03-2009, 10:36
Non è esatto, PhysX nasce come motore fisico multi piattaforma, slegato da CPU, GPU, PPU e chi ne ha più ne metta.
Sì, sì, ma (almeno su PC) usa le CPU in maniera meno ottimizzata di un programma di chat.
http://forum.beyond3d.com/showpost.php?p=1186960&postcount=35
E basta con questa storia della difesa di PhysX nello stato in cui è ora, ne va tutto a nostro svantaggio perché se vogliamo vedere qualcosa di serio la condizione n.1 è che smettano di prenderci in giro.
Fortunatamente una volta fatto il porting per OpenCL sarà pressocché automaticamente ottimizzato anche per CPU, e nVidia non può esimersi dal farlo a causa della concorrenza.
mircocatta
25-03-2009, 11:02
Aspetta...
Una CPU AMD può far girare senza nessun problema Havok
si ok il punto non era quello.
intendo che se si ha gpu ati, entrambi gli engine fisici non gireranno a dovere. se si ha una gpu nvidia invece si
Mercuri0
25-03-2009, 11:11
si ok il punto non era quello.
intendo che se si ha gpu ati, entrambi gli engine fisici non gireranno a dovere. se si ha una gpu nvidia invece si
Yup, quindi dipende dal motore fisico che sceglieranno i programmatori, quello che gira ovunque e quello che no. (almeno finché nVidia non finirà le GTS2xx :rolleyes:, dopo ci sarà il porting di PhysX per OpenCL o DirectX11 )
Nel frattempo la cosa quindi si riduce a quanto pagherà nVidia per far fare ai giochi effetti che girano solo sulle sue schede.
ATI potrebbe fare lo stesso per le directx 10.1, ma è questo il mondo del pc-gaming che vogliamo?
Mercuri0
25-03-2009, 11:16
edit: cancellato, doppio post
mircocatta
25-03-2009, 11:57
I link ai demo di Havok presentati agli sviluppatori li trovate a partire dal link di beyond3d che ho postato.
:winner:
spettacolo il vestito rosso e il ponte distrutto :eek: :eek:
Esattamente, quindi se mi dici che ci sono già giochi che ne fano uso a che pro dare l'annuncio ora? Cosa è cambiato realmente?
Ma poi quali giochi su console sfruttano physix?
Beh, l'annuncio riguarda accordi tra Sony, Nintendo e NVIDIA, per la fornitura dell'SDK dopo l'aquisizione di AGEIA.
Questi sono alcuni dei giochi che utilizzano PhysX su console e che non sono disponibili per PC:
Beowulf solo PS3 e x360
Bladestorm: The Hundred Years' War solo PS3 e x360
Hour of Victory solo x360
Mobile Suit Gundam: Crossfire solo PS3
Red Steel solo Wii
Sonic and the Secret Rings solo Wii
A suo tempo si parlava di problemi di gioco per cui i dati relativi alla fisica soffrivano di lag o non erano proprio trasferiti e quindi tutto quello che accadeva nel tuo schermo legato a pysix non si manifestava agli altri giocatori. Inoltre i livelli erano composti solo i nparte da elementi sfruttati da physix, per evitare carichi eccessivi, con il risultato che ad esempio se colpivi due muri uguali potevi averne uno che si distruggeva e un altro che rimaneva perfettamente integro perchè non gestito. Per questo motivo i server con le mappe per physix sono vuoti.
Per caso è cambiato qualcosa? Quante mappe giocate ci sono giocabili con physix senza problemi?
I problemi di lag non sono legati a PhysX ma a tutte quelle applicazioni che richiedono lo scambio di una grande quantità di dati per mantenere la sincronia tra server e client, e più roba si muove nella mappa più banda sarà necessaria, anche Half-Life 2 deathmatch lagga con connessioni che per giochi più "semplici" è più che sufficiente.
Ovviamente non tutto nella mappa è distruttibile, non tanto per problemi di carico su server e client quanto piuttosto per mantenere una buona sincronia tra di essi.
A me non ha mai dato problemi, forse perché ho una buona connessione.
Nasce da ageia per vendere ppu. Quindi non è stato scritto per sfruttare al meglio le cpu ma per avvantaggiare i sistemi con PPU. Sicuramente le PPU sono processori specifici eccetera eccetera ma da questo a dire che le 2 cosine inutili che si fanno ora con physix su gpu non si possano fare su un moderno quad core per mancanza di capacità elaborativa ne passa. Semplicemente non c'è interesse nell'ottimizzarlo per lavorare con normali CPU perchè Nvidia non ne produce.
Non è del tutto esatto, PhysX nasce muti piattaforma per diffondere questo motore e quindi permettere la commercializzazione di PPU.
Tanto per dire PhysX viene usato in ambiti dove non c'è la possibilità di avvalersi dell'accelerazione hardware come su iphone, Wii ecc.
Certo che le cose che fai con PhysX su GPU (come la simulazione dei fluidi) si possono fare su un moderno quad core, ma ad un decimo della velocità.
Quello che non può fare un quad core è avere le prestazioni della GPU anche quelle di una semplice 9600 GT, e questo al dì là di PhysX.
Forse in futuro la gente invece di spendere 100 € per due core in più si prenderanno una GPU dello stesso valore con il vantaggio di guadagnare 10 volte tanto le prestazioni aggiunte dai due core aggiuntivi della CPU.
E' innegabile che in ambiti altamente parallelizzati come la simulazione fisica le GPU siano praticamente una scelta obbligata oltre che molto vantaggiosa anche se Intel continua a sostenere il contrario, e chissà perché però sta lavorando su labarree...
Sì, sì, ma (almeno su PC) usa le CPU in maniera meno ottimizzata di un programma di chat.
http://forum.beyond3d.com/showpost.php?p=1186960&postcount=35
E basta con questa storia della difesa di PhysX nello stato in cui è ora, ne va tutto a nostro svantaggio perché se vogliamo vedere qualcosa di serio la condizione n.1 è che smettano di prenderci in giro.
Fortunatamente una volta fatto il porting per OpenCL sarà pressocché automaticamente ottimizzato anche per CPU, e nVidia non può esimersi dal farlo a causa della concorrenza.
Dipende sempre da come viene usato, altrimenti non si spiegherebbe il motivo per il quale viene utilizzato in software che possono avvantaggiarsi solo della CPU, e magari nemmeno molto potente come su iphone o su wii.
Mercuri0
25-03-2009, 12:27
Dipende sempre da come viene usato, altrimenti non si spiegherebbe il motivo per il quale viene utilizzato in software che possono avvantaggiarsi solo della CPU, e magari nemmeno molto potente come su iphone o su wii.
A me la spiegazione viene semplice: PhysX è meglio ottimizzato per Cell, ARM o PowerPC di quanto non lo sia per x86.
MiKeLezZ
25-03-2009, 13:46
Comunque questa è la strada giusta, altro che PhysX :D Questa è l'unica strada percorribile da tale azienda, così come Physx non è certo un qualcosa da poter dare per spacciato (anzi)
Non penso sia l'unico caso per cui degli standard aperti (OpenGL) sono morti a seguito dei concorrenti commerciali, con però maggior supporto (DirectX)
Inoltre ci può eventualmente stare il passaggio di Physx su linguaggio OpenCL, con poi una gestione dell'implementazione del motore grafico tramite licenze (ovvero, OK ATI può usare Physx tramite OpenCL e non CUDA, ma deve pagare 0,1$ per ogni GPU con tale tecnologia venduta)
A questo punto immagino che anche nVidia segua e faccia qualcosa di simile anche per PhysX. Altrimenti semplicemente non ci sarebbe paragone.Non necessariamente.
Sicuramente NVIDIA in tempo zero farà uscire dei driver aggiornati con supporto a Havok tramite OpenCL (visto che comunque rimane una delle maggiori sostenitrici di OpenCL e ci sta duramente lavorando anche lato driver).
Diventerà molto interessante vedere l'hit prestazionale relativo alle due diverse architetture (NVIDIA e ATI), per capire anche quale sia più adatta per il calcolo GPGPU (teoricamente sembra ATI, gli esempi pratici danno però anzi ragione a NVIDIA).
Del resto il porting CUDA->OpenCL dovrebbe essere trivialeCUDA non è un linguaggio di programmazione (non più), ma un nome di marketing per definire tutto ciò che ruota attorno al GPGPU (parliamo quindi del linguaggio macchina NVIDIA, così come lo standard aperto OpenCL, o anche il prossimo Computer Shader delle DX11)
Quindi CUDA è già OpenCL
In effetti NVIDIA ha già dei driver OpenCL quindi non dovrà fare alcun porting per l'implementazione di Havok (tutt'alpiù delle ottimizzazioni per sfruttare la diversa architettura GPU)
Ci vorrà ancora un pò perché queste cose arrivino a noi, ma stanno andando più velocemente di quanto mi aspettavo.Il problema rimane il supporto da parte dei sviluppatori, il che è anche determinato da quanto velocemente queste nuove schede capaci di GPGPU popoleranno il mercato (e dalla capacità dei produttori di fornire un minimo di supporto ai motori fisici anche su schede di fascia bassa come RV740 e G94 - per quanto inadeguate, sono poi quelle installate nel maggior numero di PC)
A me piacerebbe vedere qualche gioco che ne facesse degno uso, e non mi lamento necessariamente di Physx (che anzi forse ha mostrato un po' di più), ma anche di Havok, visto che l'ultimo gioco che la utilizzava (Fallout 3) ha un motore fisico abbastanza penoso (e certamente non accelerato)
Sono in progetto Sistemi Operativi basati su GPU anzichè su CPU?
(o che sfruttino entrambi dando però il giusto rilievo alle GPU visto che sono prestazionalmente migliori delle CPU?)
La domanda mi è venuta in quanto OpenCL è un linguaggio di programmazione aperto.
Mercuri0
25-03-2009, 21:59
Questa è l'unica strada percorribile da tale azienda,
Ormai è l'unica strada percorribile anche da nVidia. Forse ha avuto la presunzione di pensare di poter imporre CUDA al posto di OpenGL...o più probabilmente sapeva che sarebbe finita così ma ci ha venduto qualche GTS2xx nel frattempo.
così come Physx non è certo un qualcosa da poter dare per spacciato (anzi)
D'accordo con "anzi", vedo molto prossimo un porting per OpenCL di Physx ;)
Non penso sia l'unico caso per cui degli standard aperti (OpenGL) sono morti a seguito dei concorrenti commerciali, con però maggior supporto (DirectX)
OpenGL è tutt'altro che morto, anche se non è tanto usato nei videogiochi.
DirectX è uno standard proprietario, ma viene concordato da nVidia, AMD, e Microsoft, ed è fatto per essere il più possibile agnostico dall'hardware. E' questa l'importante differenza. Più che a DirectX vs OpenGL io direi Directx vs Glide ;)
E si sa com'è finita.
Inoltre ci può eventualmente stare il passaggio di Physx su linguaggio OpenCL, con poi una gestione dell'implementazione del motore grafico tramite licenze
(ovvero, OK ATI può usare Physx tramite OpenCL e non CUDA, ma deve pagare 0,1$ per ogni GPU con tale tecnologia venduta)
PhysX o Havok non sono cose che destinate ai produttori di GPU, o "feature" delle GPU, ma sono middleware destinati ai programmatori dei videogiochi.
I programmatori usano middleware per risparmiarsi la fatica di programmarseli da sé, come i motori grafici. Dici che Crytek quando dà in licenza il suo motore grafico potrebbe mettere la clausola "si ma se vendi il videogioco a uno che ha una tale scheda devi pagare delle roialities in più" :mbe: ?
Come no. Ma i programmatori magari sceglierebbero il motore di Id :D
Io comunque sono dell'opinione che sarebbe meglio che questi middleware non siano forniti dai produttori di hardware, c'è troppo il rischio di fregature. Sperabilmente, col diffondersi di OpenCL e Directx11 i produttori di motori grafici cominceranno a fornire altri concorrenti ;)
Sicuramente NVIDIA in tempo zero farà uscire dei driver aggiornati con supporto a Havok tramite OpenCL (visto che comunque rimane una delle maggiori sostenitrici di OpenCL e ci sta duramente lavorando anche lato driver).
Guarda non c'è ne neanche bisogno. Se AMD non "gioca sporco", a nVidia basterà il normale driver OpenCL perché l'Havok modificato di AMD ci giri sopra.
E' questa la meraviglia di OpenCL :D
E adesso che finalmente le profezie di noialtri openciellaristi si stanno avverando, non capisco perché voialtri CUDIsti e affini continuate ostinati a difendere la soluzione sub-ottima :P
Ma tanto credo che sotto-sotto anche voi abbiate (finalmente) capito dove si sta andando a parare. :)
Quindi CUDA è già OpenCL
Vabbé, sul nome è appurato che c'è un casino ed è meglio non perderci tempo.
Intendevo che nVidia dovrà fare il porting di physix per OpenCL, perché giri anche sulle altre piattaforme GPGPU e CPU, e sono certo che sanno bene come fare, visto che OpenCL l'hanno fatto loro, come ben dici ;)
Non sono gli utenti che scelgono "physix o havok", sono i programmatori dei videogiochi. E mi sembra che tra un motore che giri dappertutto e uno che no, la scelta non sia difficile.
PhysX su OpenCL (o DirectX11) è la mia "ultima profezia" da openciellarista. Non è un discorso di se, ma di quando.
Mercuri0
25-03-2009, 22:14
Sono in progetto Sistemi Operativi basati su GPU anzichè su CPU?
(o che sfruttino entrambi dando però il giusto rilievo alle GPU visto che sono prestazionalmente migliori delle CPU?)
Non è vero che le GPU sono prestazionalmente migliori delle CPU! Non andare appresso ai FLOPS che postano da queste parti, quelli sono buoni solo per giocarseli al lotto.
Le GPU sono specializzate in certi tipi di conti e quei tipi di conti li fanno bene.
Ma solo quelli ;)
Un sistema operativo basato su GPU, con l'attuale architettura delle GPU, dei computer, e dei sistemi operativi, per ora non è neanche lontanamente ipotizzabile.
O meglio, per farlo bisognerebbe metterci le funzioni della CPU dentro la GPU... ma poi si potrebbe ancora chiamare "GPU"? :D
Non è vero che le GPU sono prestazionalmente migliori delle CPU! Non andare appresso ai FLOPS che postano da queste parti, quelli sono buoni solo per giocarseli al lotto.
Le GPU sono specializzate in certi tipi di conti e quei tipi di conti li fanno bene.
Ma solo quelli ;)
Un sistema operativo basato su GPU, con l'attuale architettura delle GPU, dei computer, e dei sistemi operativi, per ora non è neanche lontanamente ipotizzabile.
O meglio, per farlo bisognerebbe metterci le funzioni della CPU dentro la GPU... ma poi si potrebbe ancora chiamare "GPU"? :D
Credevo che le GPU potessero fare calcoli molto più complessi in tempi 10 volte inferiori, se è solo una questione di "insegnargli" a fare da CPU perchè non farlo?
Se invece il problema è che hanno certi limiti, cioè sanno fare solo certi tipi di calcoli, le si potrebbe cmq integrare nella gestione dei processi del Sistema Operativo creando una sorta di multicore e quindi un multithreading che sfrutta i differenti processori destinando i vari calcoli a quello più adatto; questo significherebbe un notevole incremento di prestazioni, no?
Si potrebbero così alleggerire le CPU da alcuni processi grafici che ancora devono gestire, e creare SO con molti più effetti grafici e/o "completamente 3D" (roba da veri sboroni :sofico: )
MiKeLezZ
26-03-2009, 13:38
Credevo che le GPU potessero fare calcoli molto più complessi in tempi 10 volte inferiori, se è solo una questione di "insegnargli" a fare da CPU perchè non farlo?
Se invece il problema è che hanno certi limiti, cioè sanno fare solo certi tipi di calcoli, le si potrebbe cmq integrare nella gestione dei processi del Sistema Operativo creando una sorta di multicore e quindi un multithreading che sfrutta i differenti processori destinando i vari calcoli a quello più adatto; questo significherebbe un notevole incremento di prestazioni, no?
Si potrebbero così alleggerire le CPU da alcuni processi grafici che ancora devono gestire, e creare SO con molti più effetti grafici e/o "completamente 3D" (roba da veri sboroni :sofico: )Avevo scritto un reply e mi si è cancellato... Vabbè, in soldoni le GPU non possono fare le CPU poichè altrimenti si chiamerebbero CPU e non GPU (dato che questo presuppone l'assenza di alcuni elementi architetturali e la presenza invece di altri...).
In ogni caso la loro architettura è ripresa da molte CPU, mi viene ad esempio in mente il UltraSPARC (con 64 thread e core dalle istruzioni semplificate), e le potenzialità espresse dai FLOPs non sono certo finte.
C'è però da ricordare che i FLOPs sono una unità di misura usata per indicare un ipotetico massimo, e quindi un 200GFLOPs delle GPU (in ambiti altamente parallelizzabili e usando istruzioni semplici) è tranquillamente possibile diventi solo 10GFLOPs nella trattazione di altri problemi, dando quindi una ben motivata ragione di esistere alle CPU altrimenti soprannominate "general purpose" (non eccellono in nulla, ma sono buone per tutto).
Un esempio che dovrebbe dar da pensare potrebbe esser il fatto Larabee di Intel (è uscito da poco un articolo carino su Tom's) è fortemente basato su CPU della serie Pentium (pre-MMX, e adeguatamente modificati per sostenere maggiore bandwidth) a cui sono stati aggiunti elementi tipici della GPU (per la trattazione del segnale video in uscita e una più efficace manipolazione di texture), ovvero la differenza fra CPU e GPU si sta sempre più assotigliando.
Mercuri0
27-03-2009, 10:45
Credevo che le GPU potessero fare calcoli molto più complessi in tempi 10 volte inferiori, se è solo una questione di "insegnargli" a fare da CPU perchè non farlo?
Nah, certi tipi di calcoli. Se devi insegnare a una GPU a fare una CPU hai fatto una CPU, o hai messo una GPU nella CPU, o una CPU nella GPU.... insomma, ecchecazz, la GPU si chiama GPU proprio perché non è una CPU!! :sofico:
Puoi provare a fare un chip ibrido, e in effetti alla convergenza tra CPU e GPU ci stanno lavorando, anche se per strade diverse. Ma sarà l'ibrido buono quanto una CPU nel calcolo seriale, e quando una GPU nel calcolo parallelo?
C'è anche da dire che "ci stanno provando" perché si hanno serie difficoltà a fare CPU più veloci nel calcolo seriale. Infatti da qualche anno invece di fare CPU più veloci mettono più CPU nella stessa scatola ;)
Se invece il problema è che hanno certi limiti, cioè sanno fare solo certi tipi di calcoli, le si potrebbe cmq integrare nella gestione dei processi del Sistema Operativo creando una sorta di multicore e quindi un multithreading che sfrutta i differenti processori destinando i vari calcoli a quello più adatto; questo significherebbe un notevole incremento di prestazioni, no?
Già si fa, i sistemi operativi usano la GPU per le applicazioni grafiche.
E solitamente non è che un sistema operativo debba fare simulazioni scientifiche o editing di immagini... sono le applicazioni che le fanno.
Le funzionalità della CPU che servono a un sistema operativo sono più funzioni di "servizio" (gestione del multithreading, della memoria, delle periferiche, di sicurezza) che non conti puri. Le gpu fanno bene conti puri, e solo una particolare categoria di questi.
Forse dici che sarebbe bello un sistema che possa usare la GPU o CPU o altri core specializzati a seconda di quello che si deve fare. Questo più che dal sistema operativo deve passare da API specifiche: come OpenGL, DirectX per l'accelerazione grafica , o appunto OpenCL per i conti. (e prossimamente le DX11 per i conti nei giochi)
Si potrebbero così alleggerire le CPU da alcuni processi grafici che ancora devono gestire, e creare SO con molti più effetti grafici e/o "completamente 3D" (roba da veri sboroni :sofico: )
Già si fa, anche se non so a che livello nei vari OS :D
I vari OS più che altro stanno cercando di risolvere problemi di retrocompatibilità, è un problema solo lato software.
Mi sembra che MacOs funzioni già in questo modo, Linux parzilamente ma è sulla strada per diventare "totalmente 3d", Windows XP no, Vista non so.
edit: tornando it, rimando alla discussione su Havok + OpenCL su beyond3d. Dove tra l'altro c'è stata una riedizione pari pari del dialogo che c'è stato qui tra me e Mikelezz, solo che lì ci sono più "Mercuri0" :D
http://forum.beyond3d.com/showthread.php?t=53336&page=2
Forse dici che sarebbe bello un sistema che possa usare la GPU o CPU o altri core specializzati a seconda di quello che si deve fare.
Sì, l'idea era quella, non sarebbe male no?
Già si fa, anche se non so a che livello nei vari OS :D
Gli OS per ora la GPU la usano solo per qualche effetto grafico...
MiKeLezZ
27-03-2009, 14:09
edit: tornando it, rimando alla discussione su Havok + OpenCL su beyond3d. Dove tra l'altro c'è stata una riedizione pari pari del dialogo che c'è stato qui tra me e Mikelezz, solo che lì ci sono più "Mercuri0" :D
http://forum.beyond3d.com/showthread.php?t=53336&page=2Avevo risposto anche a questo, ma è andato perso... Io non sono pro-CUDA, anzi personalmente (da utilizzatore) mi fanno comodo applicazioni in OpenCL e OpenGL piuttosto che formati proprietari (generalmente significa sono multipiattaforma)
Però è anche giusto fornire il giusto rispetto verso Physx, quindi Ageia prima e NVIDIA dopo, perchè ritengo che senza il loro apporto (e il vario marketing che NVIDIA da ormai anni ci sta propinando, pur magari non con il successo sperato) prima di vedere applicazioni GPGPU e motori fisici per GPU sarebbero potuti passare anni e anni (sicuramente non prima delle DX11 del 2010), magari rimanendo con le varie promessine del Cinema e niente più dei filmatini di Ruby che combatte contro i ragni meccanici...
Che poi al momento i risultati non siano rifinitissimi è anche normale... basta guardare il passato per leggere il presente, per tutte le tecnologie è sempre stato così, per questo le critiche a riguardo dovrebbe esser costruttive
Per la trasposizione di Physx su OpenCL, è una ipotesi che io stesso ho formulato, ma ritengo non sia una delle più probabili o realizzabili nell'immediato.
Perchè è sì vero che sono gli sviluppatori che decidono, ma al momento è Havok in lieve svantaggio (non solo come adozione, ma anche perchè il market share delle VGA discrete ATI è inferiore a quello NVIDIA, e quindi Physx), e anche se ci fosse un ribaltamento di ruoli, Physx avrebbe un suo perchè (magari come valore aggiunto nel caso esca una nuova console con GPU NVIDIA, o per sfruttare meglio la potenza delle GPU NVIDIA).
Dopo averlo comprato per svariati milioni di dollari non è il caso di donarlo in OpenCL, questo eventualmente sarà un passo futuro.
Fallita poi lo spingere AMD nel supportare CUDA, per poi "regalargli" Physx (che avrebbe comunque portato ovvi vantaggi), non sarebbe così improbabile una vendita (o scambio) di tale licenza intellettuale, anche perchè è quello che comunemente succede nello stesso ambito CPU: AMD e Intel si scambiano i brevetti, e VIA paga royalties a AMD per l'utilizzo delle istruzioni AMD64 (64-bit su ISA x86).
In conclusione? Chi vivrà vedrà. Il fatto NVIDIA abbia cambiato il significato di CUDA da "linguaggio specifico basato su C+ per la programmazione delle GPU NVIDIA" a "tutto ciò che ruota attorno al GPGPU computing, quindi compreso OpenCL" lascia presagire voglia mantenere una libertà di azione per poi attuare diverse strategie in futuro a seconda di ciò che le sarà più conveniente.
La mia speranza resta il vedere dei giochi (e non mi importa se OpenCL o Physx) che finalmente sfruttino degnamente questa fisica.
p.s. Il clothing demo è davvero molto bello :)
http://gamevideos.1up.com/video/id/24095
MadJackal
27-03-2009, 14:20
Fallita poi lo spingere AMD nel supportare CUDA, per poi "regalargli" Physx (che avrebbe comunque portato ovvi vantaggi), non sarebbe così improbabile una vendita (o scambio) di tale licenza intellettuale, anche perchè è quello che comunemente succede nello stesso ambito CPU: AMD e Intel si scambiano i brevetti, e VIA paga royalties a AMD per l'utilizzo delle istruzioni AMD64 (64-bit su ISA x86).
Il motivo per cui AMD/ATI non può supportare CUDA è il fatto che CUDA stesso è basato strettamente su schede video NVIDIA, sull'architettura di quelle schede video. E NVIDIA potrebbe cambiare CUDA dall'uscita di una scheda all'altra, costringendo AMD/ATI a rincorrere.
La cosa è diversa se lo standard è OpenCL.
Temo che gli sviluppatori correranno ad Havok, a meno che NVIDIA spenda milioni per il suo programma TWIMTBP. Anche perchè Havok è ottimizzato anche per le CPU, PhysX assolutamente no (non supporta nemmeno le SSE, solo codice x87 nativo... ed è una cosa bruttina).
Intanto si è saputo niente di nuovo su havok? quando sarà possibile accelerare la fisica fruttando una scheda ATI?
MiKeLezZ
31-05-2009, 18:36
Intanto si è saputo niente di nuovo su havok? quando sarà possibile accelerare la fisica fruttando una scheda ATI?Campa cavallo...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.