PDA

View Full Version : Geometric engine: Ageia guadagna nuovi partner


Redazione di Hardware Upg
02-09-2005, 12:46
Link alla notizia: http://www.hwupgrade.it/news/skvideo/15288.html

Il debutto delle prime schede add on per l'accelerazione della geometria delle scene 3D si avvicina; Ageia raccoglie nuovi consensi per il canale Retail

Click sul link per visualizzare la notizia.

abracadabra84
02-09-2005, 12:55
Ma fatemi capire una cosa...sarà una scheda a sè o verrà implementato come chip sulle schede video NVidia???? :confused: :confused:

luckye
02-09-2005, 13:03
Se non ho capito male sarà sulla scheda mamma...kmq il problema è che si sta paralelizzando un pò troppo secondo me.Cpu,gpu,ageia,audio...boh si sta riempiendo il pc di processori specifici.
E chi non avrà il giusto mix di tali chip ?

Fx
02-09-2005, 13:16
oh, un po' per volta si integrerà tutto nella cpu (o per lo meno, nel suo package), il problema è che per prima cosa si capisca che se fai fare tutto alla cpu ottieni performance così così (proprio perchè deve fare di tutto), se invece metti coprocessori specifici (gpu, ppu, anche per l'audio l'ultima scheda di creative è una cosa a sè stante) ottieni performance stratosferiche... la gpu è solo il primo passaggio, questo è un altro... tra l'altro veramente molto interessante

peccato che nel complesso tutto quel che ho visto che sfrutta il novodex engine (a parte il "rocket", che contiene una serie di demo "veri" dove puoi manipolare gli oggetti e ovviamente muoverti nella scena, tramite il quale vedi effettivamente che sballo non è il motore fisico) sono delle mezze schifezze, ma non perchè non abbia le potenzialità il motore fisico ma perchè probabilmente non hanno ancora l'idea di come sfruttarlo decentemente...

Octane
02-09-2005, 13:26
..mi pare di tornare indietro ai tempi dell' Amiga :D :D :D






speriamo in un buon supporto software ;)

demon77
02-09-2005, 13:27
Scheda acceleratrice...
cavolo mi ricorda i tempi della Vodoo2 :D

jappilas
02-09-2005, 13:41
Cpu,gpu,ageia,audio...boh si sta riempiendo il pc di processori specifici.
ma sempre per funzioni che possono essere emulate tramite routine SW (se c'è un lato positivo nel sw, è la versatilità)
E chi non avrà il giusto mix di tali chip ?
semplicemente otterrà prestazioni (in termini di fps ad esempio) subottime
cioè inferiori al livello massimo (teorico o magari esplicitamente previsto da chi per un' applicazione prevederà lo sfruttamento delle versioni accelerate tramite HW, di tutte le funzioni di calcolo ;)

stefy87
02-09-2005, 13:41
bè inizialmente sarà una scheda a parte magari da mettere su un pci-express 1x poi come è avvenuto per gli acceleratori 3d verrà integrata nella gpu almeno credo,cmq sarebbe la soluzione più logica.

Octane
02-09-2005, 13:44
Ma fatemi capire una cosa...sarà una scheda a sè o verrà implementato come chip sulle schede video NVidia???? :confused: :confused:

parlano di add-in card, quindi scheda esterna; sara' poi da vedere se PCI standard o express.
Se dovesse prendere piede questo tipo di tecnologia, poi succedera' come per le schede audio che sono state "impiantate" nelle schede madri ed ora ne fanno parte come requisito pressoche' irrinunciabile..

Ciao

Octane
02-09-2005, 13:48
bè inizialmente sarà una scheda a parte magari da mettere su un pci-express 1x poi come è avvenuto per gli acceleratori 3d verrà integrata nella gpu almeno credo,cmq sarebbe la soluzione più logica.

e' vero, se non sono troppo complesse potrebbero essere integrate direttamente in una GPU, visto che quest'ultima gia' dispone anche di controller di memoria, interfaccia con il bus ecc..

Fx
02-09-2005, 13:56
tra l'altro mi sono scordato di porre la domanda scema:

ageia ha annunciato la tecnologia ormai da molto
da un po' meno l'accordo con asus
ora questo

ma morale:
a) quando arriverà sul mercato? quando avremo delle recensioni?
b) quanto costerà? si parlava di un range tra i 200 e 300 euri... ma non si sa di più?

Gello
02-09-2005, 14:08
Appunto si sa se sara' PCI o PCI-X ?

Io sono favorevole cmq anche se stanno diventando sempre piu' simili a console sono favorevole a questo tipo di architetture se veramente serviranno a qualcosa, ovviamente se vogliono farcene cambiare 1 ogni 3 mesi per me se la tengono, altrimenti con un buon supporto sw imho puo' diventare una gran cosa.

Octane
02-09-2005, 14:12
Appunto si sa se sara' PCI o PCI-X ?

Io sono favorevole cmq anche se stanno diventando sempre piu' simili a console sono favorevole a questo tipo di architetture se veramente serviranno a qualcosa, ovviamente se vogliono farcene cambiare 1 ogni 3 mesi per me se la tengono, altrimenti con un buon supporto sw imho puo' diventare una gran cosa.


dal sito ageia: ;)

Pricing and Availability
BFG Technologies plans to offer stand-alone PCI cards with the AGEIA PhysX processor and 128MB of local memory, which is used for storing and processing physics data during game play. Products will be available at the end of this year. Pricing and other product details will be announced at that time.

altre info si possono trovare sul sito di xbilabs.

ForeverBlue
02-09-2005, 14:12
Al diavolo........ vai con 200€ in più per il gaming PC
spero solo che l'integrazione nella video avvenga in tempi brevi e che non apprti modifiche troppo elevate a prezzo

Korn
02-09-2005, 14:13
finche non si vede software ottimizzato se la possono tenere ;)

bjt2
02-09-2005, 14:17
Mi sono letto tutto l'SDK delle DirectX 9 dal sito di MSDN. Ma l'accelerazione fisica non si può implementare con i vertex shader??? E se non si può farlo efficientemente, che modifiche dovrebbero essere fatte alle pipeline (e quindi anche all'HLSL/GLSL)? Fek... ti prego... Illimunaci :D

Octane
02-09-2005, 14:24
Nel caso fosse possibile implementare il motore fisico su una struttura gia' esistente di una GPU e' facile che prima o poi qualcuno dei contendenti nella scena delle schede video si accaparri l'intera ageia, alla quale resterebbero forse solo i brevetti software :rolleyes:

ForeverBlue
02-09-2005, 14:28
Nel caso fosse possibile implementare il motore fisico su una struttura gia' esistente di una GPU e' facile che prima o poi qualcuno dei contendenti nella scena delle schede video si accaparri l'intera ageia, alla quale resterebbero forse solo i brevetti software :rolleyes:


a quel punto la concorrenza ATI nVidia sarebbe finita o quasi, perlomeno per la fascia alta........meglio non pensarci va.. :D

beh senza considerare le scopiazzate tipiche del far soldi :mc: :D

GiovanniGTS
02-09-2005, 15:33
Ma fatemi capire una cosa...sarà una scheda a sè o verrà implementato come chip sulle schede video NVidia???? :confused: :confused:

e' vero, se non sono troppo complesse potrebbero essere integrate direttamente in una GPU, visto che quest'ultima gia' dispone anche di controller di memoria, interfaccia con il bus ecc..

Da quello che ho potuto capire le moderne GPU sono tutte anche PPU, infatti

Le schede di accelerazione geometrica PPU.........sgravando la scheda video da questa elaborazione e ottenendo prestazioni nettamente superiori

vuol dire che le schede video gia' fanno da Phisic Processing Unit, la questione e' vedere se una scheda esterna possa dare prestazioni migliori

cmq azzardo una cosa,
non e' che il supporto SW non sia necessario? mi spiego, non e' che da benefeci anche con i giochi che attualemente fanno uso di Phisic Processing?

se le GPU sono anche PPU il fatto di avere una PPU dedicata non penso abbia riflessi sul SW
e' come avere audio dedicato o integrato, winamp funziona uguale

tutto IMHO ovviamente

DevilsAdvocate
02-09-2005, 15:33
A me pare che il termine "geometric engine" ed "accelerazione geometrica" siano
fuorvianti, questa scheda/questo chip aggiunge velocita' a:
# Rigid body dynamics
# Universal collision detection
# Finite element analysis
# Soft body dynamics
# Fluid dynamics
# Hair simulation
# Clothing simulation
Nessuna accelerazione della semplice geometria.
(E coi giochi attuali 0 guadagno in velocita')

fek
02-09-2005, 15:41
Mi sono letto tutto l'SDK delle DirectX 9 dal sito di MSDN. Ma l'accelerazione fisica non si può implementare con i vertex shader??? E se non si può farlo efficientemente, che modifiche dovrebbero essere fatte alle pipeline (e quindi anche all'HLSL/GLSL)? Fek... ti prego... Illimunaci :D

Dipende molto da quello che devi fare, ma in generale, con le GPU che supportano SM3.0 si puo' fare abbastanza agilmente con molti algoritmi. Simulazioni di fluidodinamica non troppo complicate si mappano quasi perfettamente al modello di programmazione di una GPU, meglio ancora se fosse a pipeline unificate.

Il grosso vantaggio di quest'approccio rispetto all'usare un chip esterno come l'Ageia e' il fatto di avere i dati calcolati gia' a disposizione per il rendering all'interno della GPU. Il grosso svantaggio e' di non avere i dati gia' a disposizione della CPU per farci altro :) (tipo collision detection).

La soluzione migliore dipende come sempre da quello che devi fare e non sempre e' una soluzione ovvia.

Fx
02-09-2005, 15:49
A me pare che il termine "geometric engine" ed "accelerazione geometrica" siano fuorvianti

assolutamente d'accordo

(E coi giochi attuali 0 guadagno in velocita')

potrebbe essere al massimo che quelli che già usano il loro motore fisico possano sfruttare l'accelerazione hardware con una patch, però non ne varrebbe la pena perchè la fisica di gioco sarebbe comunque pensata per lavorare senza accelerazione: in pratica il grosso vantaggio, ovvero avere mille mila oggetti interattivi, non si potrebbe comunque avere... solo qualche fps in più derivante dallo sgravio dei calcoli fisici dalla cpu

Fx
02-09-2005, 15:50
(tipo collision detection).

vuoi dire che non lo fa già la ppu?

Aristocrat74
02-09-2005, 17:19
alè..altro pezzo hardware da aggiungere al pc per poter giocare..............
non bastavano schede video da 500-600 euro.............fra un po per poter giocare decentemente ad un gioco dobbiamo comprare un ulteriore scheda........ :doh: che costerà ............. :confused: (non credo 20 euro)

..... e io pago.... :muro:

freeeak
02-09-2005, 17:58
bello ma io non ho ancora trovato uno straccio di screenshot ,preview o benchmark.... qualcuno ha quelche link?

Lud von Pipper
02-09-2005, 18:50
Ma ragazzi, non vi rendete conto di quanto facciano pena i giochi di oggi?
tutto quello che si vede è la grafica ad alta risoluzione ma quali sono gli effetti veri, come per esempio entrare nell'acqua e muoverla, le correnti (anche d'aria), la fisica di qualcosa che cade...

Pensate al fatto che "Ragdoll" di 3DMark è un semplicissimo effetto che pesa da paura sul sistema...
Nei simulatori di Volo il limite si è raggiunto anni fa e poco si è fatto oltre ad aggiungere texture e paliativi al modello di volo.
Un chip dedicato permetterebbe di "leggere" i vuoti d'aria, creare rese interessanti e variabili per virate ed esplosioni, in un FPS potrebbe creare effetti per rroiettili deviati o vaganti, ottima resa per oggeti che cadono e vanno in mille pezzi...
E' comprensibile che per un giocatore di Doom non cambi la vita ma che dire di uno di Rainbow six?

Fate un pò voi se vi sembra un Miglioramento da poco :eek:

bjt2
02-09-2005, 18:53
Beh... locki il vertex buffer e ti leggi i dati...

Con una PPU devi: spedire i dati appa PPU, attendere che li processi, leggerli in memoria e fare i calcoli di collision detection, spedirli alla GPU (supponendo che i driver della PPU non cooperino con quelli della GPU e si risparmia una chiamata: ti ricordi le considerazioni sui context switch e il batching delle primitive?) e attendere i calcoli.

Qui invece scrivi in un vertex buffer, chiami il vertex shader, leggi i dati bloccando il buffer (e causando il trasferimento da VRAM a system RAM) e ti fai i calcoli di collision detection e così via...

Octane
02-09-2005, 18:53
potrebbe essere al massimo che quelli che già usano il loro motore fisico possano sfruttare l'accelerazione hardware con una patch, però non ne varrebbe la pena perchè la fisica di gioco sarebbe comunque pensata per lavorare senza accelerazione: in pratica il grosso vantaggio, ovvero avere mille mila oggetti interattivi, non si potrebbe comunque avere... solo qualche fps in più derivante dallo sgravio dei calcoli fisici dalla cpu

all'inizio e' andata cosi' anche per i giochi 3D..
InQuake II per esempio erano infatti disponibili, se non ricordo male, almeno 3 modalita': render software, 3D per 3Dfx Voodoo 1 e 2, 3D Open GL

:cool:

Forse assisteremo ad una cosa simile per motore "fisico"

Octane
02-09-2005, 18:54
bello ma io non ho ancora trovato uno straccio di screenshot ,preview o benchmark.... qualcuno ha quelche link?

forse non e' molto..
http://www.ageia.com/press/press4.html

Bye ;)

Lud von Pipper
02-09-2005, 18:56
Per non parlare del fatto che, finchè non ti serve, non devi pagare per forza, cioè puoi lasciare il pezzo sugli scaffali... :D

IL PAPA
02-09-2005, 19:29
alè..altro pezzo hardware da aggiungere al pc per poter giocare..............
non bastavano schede video da 500-600 euro.............fra un po per poter giocare decentemente ad un gioco dobbiamo comprare un ulteriore scheda........ :doh: che costerà ............. :confused: (non credo 20 euro)

..... e io pago.... :muro:

Se vuoi ti vendo Pac-man a 12.99€, non serve PPU, garantito! ;) :)

fek
02-09-2005, 19:47
Beh... locki il vertex buffer e ti leggi i dati...

In D3D non si puo' renderizzare su un vertex buffer ma solo verso texture :)

E' un problema delle API, non delle GPU, e' la famosa necessita' di "chiudere il loop" che le D3D non forniscono.

Ma ammettiamo che con qualche gabola e qualche magheggio sia possibile renderizzare in un vertex buffer (leggi: si puo' ma non e' supportato ufficialmente).

Farlo sarebbe piuttosto lento.

Oltre al rischio di inchiodare la GPU se per caso ha deciso proprio in quel momento di leggere o scrivere da quel vb (CPU e GPU sono asincrone).
In genere e' molto meglio evitare lock in lettura per trasferire dati dalla GPU alla CPU, perche' fra le altre cose disabilita' diverse ottimizzazioni del driver (tipo il buffer renaming). Ma questo e' il meno e si risolve (double buffering)


Con una PPU devi: spedire i dati appa PPU, attendere che li processi, leggerli in memoria e fare i calcoli di collision detection, spedirli alla GPU (supponendo che i driver della PPU non cooperino con quelli della GPU e si risparmia una chiamata: ti ricordi le considerazioni sui context switch e il batching delle primitive?) e attendere i calcoli.

Il risparmiare una chiamata in se' non e' un problema, il problema e' nel far viaggiare questi dati prima da PPU a memoria centrale e poi da memoria centrale a GPU, visto che i due chip non sono in diretta comunicazione fra di loro.

Qui invece scrivi in un vertex buffer, chiami il vertex shader, leggi i dati bloccando il buffer (e causando il trasferimento da VRAM a system RAM) e ti fai i calcoli di collision detection e così via...

Si', teoricamente sarebbe abbastanza possibile, anzi, stiamo urlando agli IHV e MS da due anni che abbiamo bisogno di chiudere questo loop per fare esattamente quello che dici tu. WGF 2.0 risolvera' il problema una volta per tutte, sara' possibile implementare forme sofisticate di collision detection direttamente nella GPU senza mettere in mezzo la CPU :)

fek
02-09-2005, 19:49
vuoi dire che non lo fa già la ppu?

La PPU si'. Se i calcoli sono nella GPU bisogna trovare un modo per farlo.

mjordan
02-09-2005, 22:08
Se non ho capito male sarà sulla scheda mamma...kmq il problema è che si sta paralelizzando un pò troppo secondo me.Cpu,gpu,ageia,audio...boh si sta riempiendo il pc di processori specifici.
E chi non avrà il giusto mix di tali chip ?

Mrglio no? Avere delle componenti separate e meno generiche è sempre un vantaggio. Avere tutto il know how di un'azienda in un singolo processore dedicato ad un solo compito per me è un vantaggio enorme.

DjLode
02-09-2005, 22:12
Simulazioni di fluidodinamica non troppo complicate si mappano quasi perfettamente al modello di programmazione di una GPU, meglio ancora se fosse a pipeline unificate.


Etciù
Provato qualcosa? :D

mjordan
02-09-2005, 22:15
Ma quali API dovrebbe supportare questo Ageia? Havok? ODE?

biffuz
02-09-2005, 22:36
Per la grafica c'è la scheda grafica, per l'audio c'è la scheda audio, adesso per la fisica c'è la "scheda fisica", ci manca solo la scheda IA per l'IA e la CPU la possiamo anche buttare, con buona pace di Intel e AMD :D

Aristocrat74
02-09-2005, 23:15
Se vuoi ti vendo Pac-man a 12.99€, non serve PPU, garantito! ;) :)

il problema è che ...conoscendomi....sarò uno dei primi ad averla :mc:

IL PAPA
02-09-2005, 23:29
il problema è che ...conoscendomi....sarò uno dei primi ad averla :mc:
;)

mjordan
02-09-2005, 23:31
il problema è che ...conoscendomi....sarò uno dei primi ad averla :mc:

Chiaro, altrimenti nel tuo nick non faresti riferimento all'aristocrazia...

Aristocrat74
03-09-2005, 00:32
Chiaro, altrimenti nel tuo nick non faresti riferimento all'aristocrazia...

il mio nick ha altre origini :sofico:

Fx
03-09-2005, 02:55
fek (e anche gli altri eh :D ), dai un occhio qui:

http://www.ageia.com/pdf/PC_Game_Processing.pdf

da quel che si vede non c'è nessuna comunicazione diretta tra PPU e GPU

mjordan
03-09-2005, 03:04
da quel che si vede non c'è nessuna comunicazione diretta tra PPU e GPU

Difatti anche lo stesso Fek non ha mai asserito il contrario... Anzi:


Il risparmiare una chiamata in se' non e' un problema, il problema e' nel far viaggiare questi dati prima da PPU a memoria centrale e poi da memoria centrale a GPU, visto che i due chip non sono in diretta comunicazione fra di loro.

bjt2
03-09-2005, 12:15
Appunto: facendo fare tutto alla GPU si risparmiano i trsferimenti di memoria.

@Fek:

Sono andato a leggere meglio la documentazione dell'SDK (sono fresco di lettura :D ). Si può creare un vertex shader che fa anche il calcolo fisico, oltre alla trasformazione e illuminazione, si richiama ProcessVertices e si legge il vertex buffer. Credo che per fare il collision detection comunque devi chiamare ProcessVertices e leggere il vertex buffer bloccandolo. L'unica cosa è che il vertex shader deve essere più complesso e giustamente si può raggiungere il limite delle istruzioni dei vertex shader 2.0 (non mi ricordo quant'è :D ) e quindi si necessiterebbe dei vertex shader 3.0.

fek
03-09-2005, 12:53
@Fek:

Sono andato a leggere meglio la documentazione dell'SDK (sono fresco di lettura :D ). Si può creare un vertex shader che fa anche il calcolo fisico, oltre alla trasformazione e illuminazione, si richiama ProcessVertices e si legge il vertex buffer.

Viene eseguito dalla CPU via emulazione software. E' una delle chiamate piu' inutili delle D3D :D

bjt2
03-09-2005, 18:10
Process vertices??? Mi vuoi diire che l'unico modo di fare un vertex o pixel shader è usare un effetto e quindi non poter prelevare i dati intermedi?

Non posso programmare un vertex shader e farlo eseguire tramite ProcessVertices? Se lo faccio va in emulazione software?