View Full Version : NVIDIA e Havok: fisica accelerata via GPU
Redazione di Hardware Upg
21-03-2006, 16:13
Link alla notizia: http://www.hwupgrade.it/news/skvideo/nvidia-e-havok-fisica-accelerata-via-gpu_16791.html
In concomitanza del GDC, NVIDIA e Havok annunciano una partnership che permetterà di avere l'elaborazione geometrica dei giochi gestita anche via GPU, in un setup SLI
Click sul link per visualizzare la notizia.
Chiediamo a gran voce un benchmark fisico ora! :O :D
zanardi84
21-03-2006, 16:23
Finalmente si inizia a dare un senso allo SLI! Visto e considerato che ogni scheda di fascia alta di generazione successiva a quella considerata è più veloce di due schede messe in SLI, si può trovare un modo per giustificare l'acquisto di due schede.
Una scheda fa il rendering video, l'altra viene sfruttata come se fosse una cpu dedicata ai calcoli della fisica e, considerato che la potenza delle gpu è esagerata, ecco che si inizia a sfruttare questi chip come macchine general purpose. Se non sbaglio già con le geforce serie 6 si era parlato di applicare la loro potenza in ambiti musicali. La conversione dei formati video e i complessi calcoli fisici saranno veramente interessanti
Max Power
21-03-2006, 16:28
In realtà si utilizzano gli shaders 3.0 per accelerare la fisica.
Quindi anche le ATI dovrebbero avvantaggiarsene.
Italian Soldier
21-03-2006, 16:28
Vogliamo presto questo SW!!! Vogliamo vedere queste potenzialità!!!
Vogliamooooooooooooooooo...
magilvia
21-03-2006, 16:29
I requisiti minimi indicano una GPU della serie GeForce 7600, pertanto per la famiglia GeForce 6 si avrà supporto consigliato solo dalle soluzioni GeForce 6800 in poi.
What ???
ronthalas
21-03-2006, 16:38
e io che ero convinto si parlasse di elicotteri russi...
[Havoc vs Apache]
Leggendo bene il comunicato stampa, si evince che NON è necessario un setup SLI. E' solo CONSIGLIATO, perchè il calcolo fisico assorbe preziose risorse di calcolo... Il "sottotitolo" dell'articolo potrebbe ingannare... Correggere please... ;)
"permette la simulazione estremamente dettagliata di fenomeni fisici nei giochi per PC grazie all’impiego di GPU come le NVIDIA GeForce® Serie 7 o NVIDIA GeForce® Serie 6, ulteriormente potenziata se si utilizza la tecnologia NVIDIA SLI multi-GPU."
desmacker
21-03-2006, 17:10
A quando le differenze prestazionali di Ati e Nvidia con havok fx ? :D
Ginger79
21-03-2006, 17:12
Queste sono le soddisfazioni che derivano dall'aver scelto Hardware Nvidia ... sempre un passo avanti alla concorrenza in quanto a idee ed implementazioni ... poi gli altri copiano!
PS 3.0 dalla serie GeForce 6 ---> Concorrenza= PS 2.0
SLI dalla serie GeForce 6 ---> Concorrenza= Scheda singola
FISICA nella GPU ---> Concorrenza= Non sa neanche di cosa stiamo parlando.
Quando dicono "Leader mondiale" nelle tecnologie grafiche chi li può contraddire. BELLA MOSSA.
Queste sono le soddisfazioni che derivano dall'aver scelto Hardware Nvidia ... sempre un passo avanti alla concorrenza in quanto a idee ed implementazioni ... poi gli altri copiano!
PS 3.0 dalla serie GeForce 6 ---> Concorrenza= PS 2.0
SLI dalla serie GeForce 6 ---> Concorrenza= Scheda singola
FISICA nella GPU ---> Concorrenza= Non sa neanche di cosa stiamo parlando.
Quando dicono "Leader mondiale" nelle tecnologie grafiche chi li può contraddire. BELLA MOSSA.
ah, se non ci fossero i fanboy che mondo sarebbe? :sofico:
SilverLian
21-03-2006, 17:21
Queste sono le soddisfazioni che derivano dall'aver scelto Hardware Nvidia ... sempre un passo avanti alla concorrenza in quanto a idee ed implementazioni ... poi gli altri copiano!
PS 3.0 dalla serie GeForce 6 ---> Concorrenza= PS 2.0
SLI dalla serie GeForce 6 ---> Concorrenza= Scheda singola
FISICA nella GPU ---> Concorrenza= Non sa neanche di cosa stiamo parlando.
Quando dicono "Leader mondiale" nelle tecnologie grafiche chi li può contraddire. BELLA MOSSA.
ps 3.0 = inutilizzabili per la pesantezza immane del tutto
Fisica = inutilizzabili per la pesantezza immane del tutto (non per niente è consigliato uno sli)
Bluknigth
21-03-2006, 17:29
La cosa che mi fa sorridere è che Intel e Amd stanno a Sbattersi per inserire nuove istruzioni per migliorare la multimedialità, quando poi se guardi come vanno le cose dalla prima 3dfx in poi il multimediale viene sempre più delegato a schede dedicate...
A questo punto, a che pro SSE3, SSE4, 3dnow19, ecc...
Tra un po' sarà la GPU a delegare qualche compitino alla CPU....
ErminioF
21-03-2006, 17:29
Sarà bello vedere cosa si inventerà ati per fronteggiare questo accordo.
Comunque sono curioso di vedere i primi bench
LCol84 mi sa tanto che ha ragione Ginger79.
yossarian
21-03-2006, 17:38
Sarà bello vedere cosa si inventerà ati per fronteggiare questo accordo.
Comunque sono curioso di vedere i primi bench
sta già lavorando in quella direzione
http://techreport.com/onearticle.x/8887
qui c'è anche un link ad un pdf con alcuni bench fatti, alla stanford university, utilizzando programmi che simulano il moto delle particelle, basati sulle equazioni di Newton
zanardi84
21-03-2006, 17:57
La cosa che mi fa sorridere è che Intel e Amd stanno a Sbattersi per inserire nuove istruzioni per migliorare la multimedialità, quando poi se guardi come vanno le cose dalla prima 3dfx in poi il multimediale viene sempre più delegato a schede dedicate...
A questo punto, a che pro SSE3, SSE4, 3dnow19, ecc...
Tra un po' sarà la GPU a delegare qualche compitino alla CPU....
Già vedo la geffo 9600GT in grado di avviare Windows (S)Vista!
Sfatiamo il mito dell'elaborazione della fisica tramite la GPU
Nvidia SLI physics is a fat pipe dream (http://theinquirer.net/?article=30434)
OverClocK79®
21-03-2006, 18:05
Queste sono le soddisfazioni che derivano dall'aver scelto Hardware Nvidia ... sempre un passo avanti alla concorrenza in quanto a idee ed implementazioni ... poi gli altri copiano!
si certo....
con un binocolo unidirezionale che guarda solo quello che si vuole probabilmente si....è come dici tu
per quanto rigurda la fisica sarebbe ora integrassero qualcosa nelle schede video
ma piu che dalla GPU vera e propria io integrerei qualcosa tipo AGEIA o come si chiama.... ;)
e lo renderei STANDARD non qualcosa che solo se hai X allora vedi Y
BYEZZZZZZZZZZ
Ginger79
21-03-2006, 18:20
@ LCOL84 (in primis) e altri suoi colleghi in via sussidiaria.
Non farmi ridere.... io e un fanboy siamo 2 cose diametralmente opposte ... non sono un newbuy del sito... se mi conoscessi non diresti simili fregnacce.
Ho solo dato a Cesare ciò che è di Cesare riconoscendo ad un azienda come Nvidia i meriti che si è guadagnata nel tempo.
Ho scritto solo ed esclusivamente quello che i fatti ci hanno dimostrato... vorresti dire che c'è qualcosa di sbagliato nelle 3 considerazioni da me fatte poco sopra?
Non ho offeso nessuno ne fatto paragoni campati per aria ma solo citato la STORIA e la storia (cioè i fatti) non si discutono.
Quindi prima di infangare chi NON CONOSCI (non capisco poi chi ti abbia dato la confidenza di farlo) conta fino a 10. Grazie.
magilvia
21-03-2006, 18:27
ps 3.0 = inutilizzabili per la pesantezza immane del tutto
Per quel che ricordavo io i PS3 differivano dai 2 solo per la migliorata velocità di esecuzione, altro che pesantezza...
Ginger79
21-03-2006, 18:37
si certo....
con un binocolo unidirezionale che guarda solo quello che si vuole probabilmente si....è come dici tu
per quanto rigurda la fisica sarebbe ora integrassero qualcosa nelle schede video
ma piu che dalla GPU vera e propria io integrerei qualcosa tipo AGEIA o come si chiama.... ;)
e lo renderei STANDARD non qualcosa che solo se hai X allora vedi Y
BYEZZZZZZZZZZ
Scusa se ti riprendo ma ti sei contraddetto da solo.
Hai detto "io renderei standard non qualcosa che solo se hai X allora vedi Y" (testuali parole) e poi citi AGEIA, una scheda aggiuntiva dal costo annunciato non indifferente, che secondo le prime previsioni faticherà ad espandersi nel mercato dato proprio l'ulteriore esborso economico richiesto agli utenti per poter usufruire di features di calcolo della fisica aggiuntive ?!!?!?
Di contro abbiamo un motore fisico come Havok che supporta il 90% dei videogiochi in commercio e che, grazie alla partnership con Nvidia, permetterà ad un vastissimo numero di utenti (visto che si parla di GeForce 6 e 7) di poter usufruire GRATIS di nuove ed innovative features riguardanti la fisica... e poi mi parli di AGEIA come STANDARD?!?! Ma stiamo scherzando!! ... mi auguro di si!
nudo_conlemani_inTasca
21-03-2006, 18:42
@ LCOL84 (in primis) e altri suoi colleghi in via sussidiaria.
Non farmi ridere.... io e un fanboy siamo 2 cose diametralmente opposte ... non sono un newbuy del sito... se mi conoscessi non diresti simili fregnacce.
Ho solo dato a Cesare ciò che è di Cesare riconoscendo ad un azienda come Nvidia i meriti che si è guadagnata nel tempo.
Ho scritto solo ed esclusivamente quello che i fatti ci hanno dimostrato... vorresti dire che c'è qualcosa di sbagliato nelle 3 considerazioni da me fatte poco sopra?
Non ho offeso nessuno ne fatto paragoni campati per aria ma solo citato la STORIA e la storia (cioè i fatti) non si discutono.
Quindi prima di infangare chi NON CONOSCI (non capisco poi chi ti abbia dato la confidenza di farlo) conta fino a 10. Grazie. :rolleyes:
Potresti esporre le tue idee facendo meno in saccente, ogniuno è libero di pensarla come crede, anch'io destesto chi parla di fanboy e cose del genere.
Ma se devi azzittire le persone devi fare esempi concreti e non parlare in senso assoluto, non convinci nessuno e ti danno solo addosso..
Lo dico per te..
jpjcssource
21-03-2006, 18:58
Sfatiamo il mito dell'elaborazione della fisica tramite la GPU
Nvidia SLI physics is a fat pipe dream (http://theinquirer.net/?article=30434)
Se nvidia fa un comunicato ufficiale dicendo che le sue schede possono fare una certa cosa allora vuol dire che è vero, altrimenti non avrebbero fatto un comunicato per l'aria che tira, magari una gpu non gestisce la fisica bene come una scheda dedicata comme quella proposta da AGEIA, ma qualcosa riesce a farlo ;) .
Più che altro se io dovessi fare una cosa del genere mi prenderei uno SLI perchè un motore fisico complesso mi andrebbe ad appesantire la singola scheda anche se fosse top di gamma e castrerebbe le sue prestazioni nell'eseguire le sue funzioni tradizionali.
Penso che si caldamente consigliato uno SLI, a meno che nelle prossime gpu non mettano tonnellate di pixel shader, ora come ora una cosa del genere potrebbe farla una x1900xtx perchè ha abbondanza di pixel pipeline, le schede nvidia le vedrei un pò appesantite :) .
Rigurdo alla rincorsa tecnologica fra ati e nvidia ho notato che se una casa offre determinate features nelle proprie gpu e l'altra no (all'interno della stessa generazione) i programmatori prendono come hardware di riferimento quello della seconda casa.
Se nvidia ha i ps 3.0 con la serie 6 e ati i 2.0 i giochi si vedono benissimo anche con i 2.0, se nvidia non ha AA+HDR ed ati si, i programmatori mettono sempre un tipo di hdr che permetta anche a nvidia di avere una qualità pari alla concorrenza (es. Oblivion).
Fino a che una caratteristica non lè presente in entrambe le soluzioni i programmatori tendono a non sfruttarla :)
Dj Antonino
21-03-2006, 19:00
Di contro abbiamo un motore fisico come Havok che supporta il 90% dei videogiochi in commercio e che, grazie alla partnership con Nvidia, permetterà ad un vastissimo numero di utenti (visto che si parla di GeForce 6 e 7) di poter usufruire GRATIS di nuove ed innovative features riguardanti la fisica...
sarà pure gratis per noi, ma l'havok agli sviluppatori costa.. e non poco..
preso dall'articolo de "the inquirer"..
Since the installed base of Ageia cards is about zero and the NVidia base is probably in the millions, why would any sane developer pick PhysX?
The answer is money. Havok costs more than a good Ferrari for every game, Ageia gives away PhysX for free now.
desmacker
21-03-2006, 19:31
LCol84 mi sa tanto che ha ragione Ginger79.
Stai scherzando? Tutte le schede grafiche con SM3 di ultima generazione possono utilizzarlo.
@ LCOL84 (in primis) e altri suoi colleghi in via sussidiaria.
Non farmi ridere.... io e un fanboy siamo 2 cose diametralmente opposte ... non sono un newbuy del sito... se mi conoscessi non diresti simili fregnacce.
Ho solo dato a Cesare ciò che è di Cesare riconoscendo ad un azienda come Nvidia i meriti che si è guadagnata nel tempo.
Ho scritto solo ed esclusivamente quello che i fatti ci hanno dimostrato... vorresti dire che c'è qualcosa di sbagliato nelle 3 considerazioni da me fatte poco sopra?
Non ho offeso nessuno ne fatto paragoni campati per aria ma solo citato la STORIA e la storia (cioè i fatti) non si discutono.
Quindi prima di infangare chi NON CONOSCI (non capisco poi chi ti abbia dato la confidenza di farlo) conta fino a 10. Grazie.
Ah se non ci fossero i fanboy che mondo sarebbe :sofico:
bella roba, mi sa ke è solo per giustificare il quad sli.
ditemi se sbaglio: ma invece di usare la gpu xkè non utilizzano il secondo core di una cpu?
daltronde i gioki di adesso ne usano solo uno (a parte alcuni)
yossarian
21-03-2006, 20:09
Queste sono le soddisfazioni che derivano dall'aver scelto Hardware Nvidia ... sempre un passo avanti alla concorrenza in quanto a idee ed implementazioni ... poi gli altri copiano!
PS 3.0 dalla serie GeForce 6 ---> Concorrenza= PS 2.0
SLI dalla serie GeForce 6 ---> Concorrenza= Scheda singola
FISICA nella GPU ---> Concorrenza= Non sa neanche di cosa stiamo parlando.
Quando dicono "Leader mondiale" nelle tecnologie grafiche chi li può contraddire. BELLA MOSSA.
troppo facili da contraddire, invece:
1) concorrenza ps2.0, nVIDIA per oltre 18 mesi con una serie di chip che poco c'entrano con lo sm2.0 (serie FX)
2) SLI o scheda multichip non è certo un'invenzione di nVIDIA (Fury Maxx e Voodoo5 ti dicono niente?)
3) ti invito nuovamente a leggere quanto scritto in quest'articolo e, in particolare, a prestare attenzione al confronto (fatto dall'università di Stanford) tra R520 e G70 (e alcune cpu) con SW di tipo GP alcuni dei quali simulano la fisica newtoniana
http://techreport.com/onearticle.x/8887
:read:
insomma, se volevi esaltare nVIDIA potevi scegliere altre argomentazioni sicuramente più condivisibili e difficili da confutare
DevilsAdvocate
21-03-2006, 20:24
ps 3.0 = inutilizzabili per la pesantezza immane del tutto
Questo e' errato. Domani esce Oblivion, sui forums e' gia' stato dichiarato dagli sviluppatori
che avere schede con shaders 3.0 velocizzera' gli effetti di shading e consentira' di poterli
abilitare tutti (pare che il problema con gli shader 2.0 sia in un differente approccio che
li rende parecchio piu' lenti di quelli 3.0).
http://www.elderscrolls.com/forums/index.php?showtopic=270923 :
"Support for shader model 3.0 is helpful"
"Shadows: As stated in the Beyond3D Interview Oblivion uses a shadow-mapping method instead of stencil shadows like Doom3 and F.E.A.R.; this performs far better, allows for easy, true soft shadowing, and if you have a SM 2.0 extended or SM 3.0 card, can be handled very, very fast."
"$126US: GeForce 6600GT, AGP with 128MB video RAM - A bit more powerful than the 9800pro, it also supports shader model 3.0; this will help ease some "laggy" shader- and lighting-intensive scenes in games."
PS 3.0 dalla serie GeForce 6 ---> Concorrenza= PS 2.0
Corretto.
SLI dalla serie GeForce 6 ---> Concorrenza= Scheda singola
Corretto. Ma è arrivata seconda. 3dfx prima di lei lo avevano inventato. E il dual gpu prima con 3dfx e poi con Ati.
FISICA nella GPU ---> Concorrenza= Non sa neanche di cosa stiamo parlando.
Esatto. Tanto da aver realizzato una demo (Toy shop) dove per la PRIMA volta venivano indirizzati alcuni calcoli della fisica alla gpu.
Quando dicono "Leader mondiale" nelle tecnologie grafiche chi li può contraddire. BELLA MOSSA.
Ho contraddetto i 2/3 della robbaccia che hai detto ;)
DevilsAdvocate
21-03-2006, 20:36
3) ti invito nuovamente a leggere quanto scritto in quest'articolo e, in particolare, a prestare attenzione al confronto (fatto dall'università di Stanford) tra R520 e G70 (e alcune cpu) con SW di tipo GP alcuni dei quali simulano la fisica newtoniana
http://techreport.com/onearticle.x/8887
:read:
insomma, se volevi esaltare nVIDIA potevi scegliere altre argomentazioni sicuramente più condivisibili e difficili da confutare
Ehm..... cioe' il fatto che coi drivers Ati sia possibile eseguire un software di simulazione
mentre con quelli nvidia si accelera una libreria (anche piuttosto famosa) per i giochi ci
dovrebbe convincere a prendere Ati? Scusa ma non ti seguo.....
Software di tipo GP con simulazione di fisica newtoniana: Ati 3 Nvidia 0.5 .
Software per la simulazione fisica nei giochi(ed Havok e' una libreria gia' conosciuta,
sta dentro a molti giochi gia' usciti): Nvidia 100% Ati 0%.
A me questo riassunto non lascia molti dubbi..... :D
(ed anche la produzione di demo lascia il tempo che trova, quello che conta sono i risultati
finiti, i giochi completi.)
Se nvidia fa un comunicato ufficiale dicendo che le sue schede possono fare una certa cosa allora vuol dire che è vero, altrimenti non avrebbero fatto un comunicato per l'aria che tira
D'altronde nel campo delle schede video gli annunci sulla carta non si sono mai visti :sofico: :sofico: :sofico:
Rigurdo alla rincorsa tecnologica fra ati e nvidia ho notato che se una casa offre determinate features nelle proprie gpu e l'altra no (all'interno della stessa generazione) i programmatori prendono come hardware di riferimento quello della seconda casa.
Se nvidia ha i ps 3.0 con la serie 6 e ati i 2.0 i giochi si vedono benissimo anche con i 2.0, se nvidia non ha AA+HDR ed ati si, i programmatori mettono sempre un tipo di hdr che permetta anche a nvidia di avere una qualità pari alla concorrenza (es. Oblivion).
E' anche un discorso di supporto. Se una cosa la possono fare entrambe e una solamente una delle due, perchè trasformare una features in un "peso"? Perchè dire Oblivion (esempio) fa HDR e AA solo su Ati, quando puoi scegliere benissimo di fare parte del progetto TWIMTBP e supportare HDR in modo che NESSUNO possa applicare anche AA? Ok, questa era una perfidia (ma direi di esserci arrivato se non vicino praticamente dentro :)).
Fino a che una caratteristica non lè presente in entrambe le soluzioni i programmatori tendono a non sfruttarla :)
E' sostanzialmente falso. C'è ancora gente che crede che per fare HDR con blending in floating point sia necessario avere una scheda SM3, quando le due cose non sono per nulla legate. Pensa a cosa è dovuto questo... Splinter Cell Chaos Theory ad esempio dove abilitando lo Shader Model 3 (nelle prime patch) ti dava disponibile l'HDR e il parallax mapping (che At fa da R300, pur essendo questa "solo" SM2). Diciamo che gli sviluppatori (o forse più chi la cosa sviluppata la deve vendere) tirano acqua sempre al loro mulino :)
Software di tipo GP con simulazione di fisica newtoniana: Ati 3 Nvidia 0.5 .
Software per la simulazione fisica nei giochi(ed Havok e' una libreria gia' conosciuta,
sta dentro a molti giochi gia' usciti): Nvidia 100% Ati 0%.
A parte che Havok non è una libreria. A parte che Havok FX non è supportato da niente in quanto è un motore nuovo. Ma soprattutto....
A me questo riassunto non lascia molti dubbi..... :D
(ed anche la produzione di demo lascia il tempo che trova, quello che conta sono i risultati
finiti, i giochi completi.)
.... mi citi i giochi completi? Perchè se in Half Life 2 (che usa Havok) come dici tu Nvidia accelera la fisica con le sue gpu e i risultati non si vedono... direi che o le gpu Nvidia sono lente o sto Havok FX fa pietà ;)
desmacker
21-03-2006, 20:50
Ehm..... cioe' il fatto che coi drivers Ati sia possibile eseguire un software di simulazione
mentre con quelli nvidia si accelera una libreria (anche piuttosto famosa) per i giochi ci
dovrebbe convincere a prendere Ati? Scusa ma non ti seguo.....
Software di tipo GP con simulazione di fisica newtoniana: Ati 3 Nvidia 0.5 .
Software per la simulazione fisica nei giochi(ed Havok e' una libreria gia' conosciuta,
sta dentro a molti giochi gia' usciti): Nvidia 100% Ati 0%.
A me questo riassunto non lascia molti dubbi..... :D
(ed anche la produzione di demo lascia il tempo che trova, quello che conta sono i risultati
finiti, i giochi completi.)
Havok Fx puo essere usato anche dalle Ati Radeon X1xxx,non solo dalle schede NVidia. :muro:
jpjcssource
21-03-2006, 20:51
D'altronde nel campo delle schede video gli annunci sulla carta non si sono mai visti :sofico: :sofico: :sofico:
E' anche un discorso di supporto. Se una cosa la possono fare entrambe e una solamente una delle due, perchè trasformare una features in un "peso"? Perchè dire Oblivion (esempio) fa HDR e AA solo su Ati, quando puoi scegliere benissimo di fare parte del progetto TWIMTBP e supportare HDR in modo che NESSUNO possa applicare anche AA? Ok, questa era una perfidia (ma direi di esserci arrivato se non vicino praticamente dentro :)).
E' sostanzialmente falso. C'è ancora gente che crede che per fare HDR con blending in floating point sia necessario avere una scheda SM3, quando le due cose non sono per nulla legate. Pensa a cosa è dovuto questo... Splinter Cell Chaos Theory ad esempio dove abilitando lo Shader Model 3 (nelle prime patch) ti dava disponibile l'HDR e il parallax mapping (che At fa da R300, pur essendo questa "solo" SM2). Diciamo che gli sviluppatori (o forse più chi la cosa sviluppata la deve vendere) tirano acqua sempre al loro mulino :)
Infatti volevo proprio dire che tirano l'acqua al loro mulino, non ha senso sfruttare cose che hanno solamente il 50% delle schede in commercio, decidono quindi di non fare differenze per vendere i loro giochi a tutta la clientela non scontentando ne i possessori nvidia ne ati.
Io comunque devo ancora avere problemi di HDR + AA nonostante R520 sia uscito l'autunno scorso e supportava già questa caratteristica e penso che sarà così fino a che non verrà lanciato g80 :)
yossarian
21-03-2006, 20:53
Ehm..... cioe' il fatto che coi drivers Ati sia possibile eseguire un software di simulazione
mentre con quelli nvidia si accelera una libreria (anche piuttosto famosa) per i giochi ci
dovrebbe convincere a prendere Ati? Scusa ma non ti seguo.....
tutto sbagliato: complimenti :D
quelle che tu chiami simulazioni servono a testare quanto unì'architettura sia adatta ad esegire calcoli di tipo GP in generale e, in alcuni casi, di tipo fisico, in particolare. E il risultato è che l'architettura (non i driver) di R520 è molto più veloce di quella di G70, perchè molto più adatta ad eseguire un certo tipo di calcoli. D'altro canto, per gli addetti ai lavori questo non è affatto un mistero :D
Software di tipo GP con simulazione di fisica newtoniana: Ati 3 Nvidia 0.5 .
Software per la simulazione fisica nei giochi(ed Havok e' una libreria gia' conosciuta,
sta dentro a molti giochi gia' usciti): Nvidia 100% Ati 0%.
sbagliato anche qui; havok fx funziona con lo sm3.0 (non è un'aesclusiva di NV); vale quanto detto sopra a proposito delle architetture (n.b.: Gromacs non è ottimizzato per ATi ma per istruzioni di tipo SSE)
A me questo riassunto non lascia molti dubbi..... :D
(ed anche la produzione di demo lascia il tempo che trova, quello che conta sono i risultati
finiti, i giochi completi.)
intanto per ora i risultati ancora non si vedono; il fatto che il tuo riassunto dei fatti non lasci a te alcun dubbio, per usare un gioco di parole, non lo metto affatto in dubbio :D
jpjcssource
21-03-2006, 20:54
Havok Fx puo essere usato anche dalle Ati Radeon X1xxx,non solo dalle schede NVidia. :muro:
Infatti sarà così a meno che nvidia non sborsi tanti soldi da avere l'esclusiva di havok anche se quest'ultima farà 2 + 2 e capirà che facendo una licenza a tutti e due guadagnerà di più che darne una ad una sola casa ;)
^TiGeRShArK^
21-03-2006, 20:57
Queste sono le soddisfazioni che derivano dall'aver scelto Hardware Nvidia ... sempre un passo avanti alla concorrenza in quanto a idee ed implementazioni ... poi gli altri copiano!
PS 3.0 dalla serie GeForce 6 ---> Concorrenza= PS 2.0
SLI dalla serie GeForce 6 ---> Concorrenza= Scheda singola
FISICA nella GPU ---> Concorrenza= Non sa neanche di cosa stiamo parlando.
Quando dicono "Leader mondiale" nelle tecnologie grafiche chi li può contraddire. BELLA MOSSA.
allora diciamola tutta:
9700 pro --> geforce fx 5800 ultra (phon)
9800 pro --> 5900 ultra (pessima in applicazioni ke sfruttano pesantemente dx 9)
x1800XT --> HDR fp blending + AA di ATI --> HDR BLOOM + AA di nvidia
dicevamo riguardo al leader mondiale?? :asd:
desmacker
21-03-2006, 20:59
Infatti sarà così a meno che nvidia non sborsi tanti soldi da avere l'esclusiva di havok anche se quest'ultima farà 2 + 2 e capirà che facendo una licenza a tutti e due guadagnerà di più che darne una ad una sola casa ;)
Vuoi saperne un'altra ?
Potrebbero essere supportate anche le schede AGEIA(almeno questo hanno lasciato intendere). :D
DevilsAdvocate
21-03-2006, 21:03
allora diciamola tutta:
9700 pro --> geforce fx 5800 ultra (phon)
9800 pro --> 5900 ultra (pessima in applicazioni ke sfruttano pesantemente dx 9)
x1800XT --> HDR fp blending + AA di ATI --> HDR BLOOM + AA di nvidia
dicevamo riguardo al leader mondiale?? :asd:
Si, diciamola tutta:
x600 < 9600 XT < x700 < 9500 PRO < 6600GT (e la fascia midstream e' quella realmente
acquistata dalla maggior parte dei giocatori, gli entusiasts sono meno del 5%....)
Supporto OpenGL sotto ATI: praticamente 0, in blender gli utenti ATI devono usare librerie nvidia.
Supporto Linux sotto ATI: ma per favore..... smettiamo di dire che sono accelerate sotto
linux, ci girano senza crashare quattro cose in croce.
HDR fp blending (+AA) di ATI e' un HDR "falso" (simulato, precalcolato se volete)eseguito
con gli shader 2.0, come si puo' vedere anche da quello che dicono gli sviluppatori di
Oblivion nel post da me riportato qua sopra:
"What they’ve taken to calling “true” HDR apparently requires a SM 3.0 card to use, and though it’s unknown exactly what further effects it brings over the SM 2.0 variant, it also, according to recent comments by Orin Tresnjak, (Lancekt) it’s mutually exclusive to AA on all chipsets; this would apparently even include ATi’s X1k video cards as well as the Xbox 360. Further explanations have yet to be given, even though the Beyond3D Interview provides some puzzling information that apparently has far from cleared up the issue, given the more recent quote."
e tanti saluti....
Supporto OpenGL sotto ATI: praticamente 0, in blender gli utenti ATI devono usare librerie nvidia.
Per quello ci sono le Fire Gl...
Supporto Linux sotto ATI: ma per favore..... smettiamo di dire che sono accelerate sotto
linux, ci girano senza crashare quattro cose in croce.
Se usi linux per fare grafica rivolgiti ad Nvidia. Chi ha mai sostenuto il contrario?
HDR fp blending (+AA) di ATI e' un HDR "falso" (simulato, precalcolato se volete)eseguito
con gli shader 2.0, come si puo' vedere anche da quello che dicono gli sviluppatori di
Oblivion nel post da me riportato qua sopra:
:sofico:
"What they’ve taken to calling “true” HDR apparently requires a SM 3.0 card to use, and though it’s unknown exactly what further effects it brings over the SM 2.0 variant, it also, according to recent comments by Orin Tresnjak, (Lancekt) it’s mutually exclusive to AA on all chipsets; this would apparently even include ATi’s X1k video cards as well as the Xbox 360. Further explanations have yet to be given, even though the Beyond3D Interview provides some puzzling information that apparently has far from cleared up the issue, given the more recent quote."
e tanti saluti....
In inglese che avevi per curiosità? :D
C'è scritto che l'HDR in Oblivion non vedrà la possibilità di usare l'AA (E il motivo l'ho spiegato pochi post fa). Non che su X1x00 è falso HDR o HDR precalcolato ( :rotfl: che vuol dire?)...
Certo che stavo pensando... quanto sarebbe noioso il mondo senza fanboy? :D
yossarian
21-03-2006, 21:25
Si, diciamola tutta:
x600 < 9600 XT < x700 < 9500 PRO < 6600GT (e la fascia midstream e' quella realmente
acquistata dalla maggior parte dei giocatori, gli entusiasts sono meno del 5%....)
Supporto OpenGL sotto ATI: praticamente 0, in blender gli utenti ATI devono usare librerie nvidia.
Supporto Linux sotto ATI: ma per favore..... smettiamo di dire che sono accelerate sotto
linux, ci girano senza crashare quattro cose in croce.
HDR fp blending (+AA) di ATI e' un HDR "falso" (simulato, precalcolato se volete)eseguito
con gli shader 2.0, come si puo' vedere anche da quello che dicono gli sviluppatori di
Oblivion nel post da me riportato qua sopra:
"What they’ve taken to calling “true” HDR apparently requires a SM 3.0 card to use, and though it’s unknown exactly what further effects it brings over the SM 2.0 variant, it also, according to recent comments by Orin Tresnjak, (Lancekt) it’s mutually exclusive to AA on all chipsets; this would apparently even include ATi’s X1k video cards as well as the Xbox 360. Further explanations have yet to be given, even though the Beyond3D Interview provides some puzzling information that apparently has far from cleared up the issue, given the more recent quote."
e tanti saluti....
vuoi continuare a fare fantahardware oppure iniziare a parlare di cose concrete? Parliamo di tecnologie, oppure continuiamo a misurare l'efficienza calcolando i fps per transistor o per millimetro quadrato? :D
What ???
Iscritto dal: Nov 2003
Messaggi: 639 Quote:
I requisiti minimi indicano una GPU della serie GeForce 7600, pertanto per la famiglia GeForce 6 si avrà supporto consigliato solo dalle soluzioni GeForce 6800 in poi.
Vuol dire che sfrutta gli shader3 per cui abbiamo pieno supporto a partire dalle Geforce6 ma vista la grande mole di lavoro da aggiungere a quello di cui la GPU già "normalmente" è gravata se ne sconsiglia l'uso con le GPU non top di gamma.
Si tratta di un software, lato hardware non usa nulla di nuovo.
Ovviamente essendo stata un'idea di nvida hanno messo un blocco per cui funziona solo con quelle schede, in teoria avrebbe potrebbe funzionare con tutte le schede che supportano gli shader3.
DevilsAdvocate
21-03-2006, 21:41
Per quello ci sono le Fire Gl...
ok, doppio valore per le nvidia allora, visto che si riescono ad usare anche le applicazioni
Opengl sotto windows, non solo un paio di giochi.
Se usi linux per fare grafica rivolgiti ad Nvidia. Chi ha mai sostenuto il contrario?
Mica solo per fare grafica! Crasha nei giochi nativi, crasha sotto wine, crasha con gli effetti
di composite e con XGL (le versioni linux degli effetti grafici su desktop che MS
mette in Vista, composite c'e' da tempo, Xgl e' relativamente nuovo, Ati ha implementato
questi effetti sotto Vista un anno prima che uscisse, ma per risparmiare fa finta di non
accorgersi che ci son anche sotto Linux, e da prima....)
In inglese che avevi per curiosità? :D
C'è scritto che l'HDR in Oblivion non vedrà la possibilità di usare l'AA (E il motivo l'ho spiegato pochi post fa). Non che su X1x00 è falso HDR o HDR precalcolato ( :rotfl: che vuol dire?)...
Ehm, non e' che hai spiegato molto, dici solo che e' cosi' perche' hanno aderito al TWIMTBP.
Forse dovresti chiederti PERCHE', e la spiegazione e' quella contenuta nel brano da me riportato....
Cioe' esattamente come per le FT, la FFT e' una simpatica approssimazione, ma NON e'
l'effetto reale, solo un surrogato (hum, questo mi ricorda il famoso dibattito sull'AVIVO
Transcoder.... sara' la nuova politica di ATI vendere surrogati? Anche in questo caso,
Ati non ha mai specificato che si tratti di HDR "reale" supportato in hardware.... :rolleyes: ).
Ah, giusto per informazione, il mio inglese mi consente di chattare tutti i giorni con
altri sviluppatori tramite iRC, ma non si ferma ai termini informatici dato l'esame di lingua
universitario passato con voto massimo e qualche tempo passato a Wimbledon (e giusto
una settimana a Dublino proprio all'inizio di questo mese).... dici che basta?
(ah, per la cronaca, FT= Fourier Transform,trasformata di Fourier in italiano,
FFT= Fast Fourier Transform cioe' trasformata veloce, che e' un algoritmo di
APPROSSIMAZIONE piu' veloce che fornisce risultati APPROSSIMATIVAMENTE uguali
a quelli della trasformata "reale",se vuoi vado piu' nei dettagli ma credevo che usare
termini come falso o precalcolato rendesse meglio l'idea ai profani, non tutti hanno voglia
di studiarsi argomenti avanzati di informatica/matematica per capire le dichiarazioni di
uno sviluppatore riguardo le schede grafiche....).
Italian Soldier
21-03-2006, 21:54
Ora mi toglo da questa discussione concludendo con.
CHE COJONI!!!
Ogni volta sempre stà minestra, ATI fà questo ed è più figa... NVIDIA fà quello ed è molto più figa!
Ma imparate ad ad essere meno "bambini" e a fare discussioni in toni più costruttivi.
Io ho avuto tutte e due le marche e sapete che vi dico? Sono ottime schede tutte e due. C'è chi eccelle in un ambito e c'è chi più in un altro, c'è chi và meglio con un gioco e c'è chi và meglio in un altro, punto!!!
Se c'è qualche novità in vista, tanto meglio, speriamo riescano veramente a sfruttare questa novità, tanto prima o poi verrà utilizzata anche dalla "rivale".
Impariamo ad essere più utenti finali che apprezzano le novità come questa (se si realizzerà e manterrà le aspettative) e meno fun di una o dell'altra fazione!
P.S. questo vale per tutto l'HW...
DevilsAdvocate
21-03-2006, 22:00
vuoi continuare a fare fantahardware oppure iniziare a parlare di cose concrete? Parliamo di tecnologie, oppure continuiamo a misurare l'efficienza calcolando i fps per transistor o per millimetro quadrato? :D
Veramente io parlo di tecnologie..... ma qui c'e' gente che si e' comprata la x850 uno o due
mesi fa (quando guarda caso la gente che diceva che presto avrebbero iniziato ad usarli
veniva tacciata di essere nvidia fanboy) ed adesso gli rode di non avere gli shader 3.0,
decidendo cosi' di dichiarare che sono inutili..... ecco il fantahardware.
C'e' gente che dice che e' politica di Nvidia mettere i blocchi software alle funzionalita' offerte
(mentre guarda caso questo succede agli utenti ATI con l'AVIVO converter, se hanno x600/700/800),
ecco il fantahardware.
desmacker
21-03-2006, 22:00
Vuol dire che sfrutta gli shader3 per cui abbiamo pieno supporto a partire dalle Geforce6 ma vista la grande mole di lavoro da aggiungere a quello di cui la GPU già "normalmente" è gravata se ne sconsiglia l'uso con le GPU non top di gamma.
Si tratta di un software, lato hardware non usa nulla di nuovo.
Ovviamente essendo stata un'idea di nvida hanno messo un blocco per cui funziona solo con quelle schede, in teoria avrebbe potrebbe funzionare con tutte le schede che supportano gli shader3.
Non c'è nessun blocco verso le Ati anzi allargheranno il supporto.
leoneazzurro
21-03-2006, 22:03
State buoni.. non costringetemi a prendere il martello, su.
X1X00 di ATI può fare lo stesso HDR delle schede nvidia (Blending FP 16) con in più (se gliene viene data la possibilità sia dal punto di vista prestazionale che dai programmatori) l'antialiasing.
Oltretutto ATI è da tempo che parla di calcoli fisici sulla GPU, probabilmente a breve presenterà anch'essa qualcosa di simile.
Le due case tanto ormai si rincorrono a vicenda su ogni singola cosa.
PS: traduco
"What they’ve taken to calling “true” HDR apparently requires a SM 3.0 card to use, and though it’s unknown exactly what further effects it brings over the SM 2.0 variant, it also, according to recent comments by Orin Tresnjak, (Lancekt) it’s mutually exclusive to AA on all chipsets; this would apparently even include ATi’s X1k video cards as well as the Xbox 360. Further explanations have yet to be given, even though the Beyond3D Interview provides some puzzling information that apparently has far from cleared up the issue, given the more recent quote."
"Quello che lori chiamano 'vero' HDR apparentemente richiede l'utilizzo di una scheda SM 3.0, e nonostante sia ancora ignoto esattamente di quali effetti in più godrà rispetto alla variante SM 2.0, è anche , secondo quanto dichiarato da Orin tresnjak (Lancekt), mutuamente esclusivo con l'AA su tutti i chipset; questo apparentemente include anche le schede ATI X1k e l'XBOX 360.
Ulteriori spiegazioni non sono state ancora date, anche se l'intervista su Beyond3D fornisce qualche sconcertante informazione che apparentemente non chiarisce nulla sull'argomento, date le più recenti notizie"
Dunque: il "vero" HDR è tra virgolette perchè si tratta di un metodo di fare HDR tramite Floating point Blending in FP 16 (che poi viene ridotta comunque a i8 date le ridotte capacità dei monitor attuali), ma ne esistono altri, sia meno precisi che decisamente più corretti. Sottolineo che questo metodo è il medesimo sia sulel schede ATI X1k che sulle Nvidia serie 6 e 7. Si è scelto di non attivare l'AA insieme all'HDR fatto in questo modo. Le scelte possono essere molteplici: può essere che le prestazioni siano pessime con HDR+AA attivato su tutte le schede attuali (ma è un pò debole, anche se fosse, le schede future sarebbero in grado di gestirlo), oppure si è usato il medesimo path per le schede nvidia e quelle ATI (e quindi non si è prevista l'attivazione dell'AA cn HDR, impossibile sulle schede Nvidia), e non è certo da escludere che ci possano essere motivi commerciali alla basa di questa scelta.
^TiGeRShArK^
21-03-2006, 22:07
Questo e' errato. Domani esce Oblivion, sui forums e' gia' stato dichiarato dagli sviluppatori
che avere schede con shaders 3.0 velocizzera' gli effetti di shading e consentira' di poterli
abilitare tutti (pare che il problema con gli shader 2.0 sia in un differente approccio che
li rende parecchio piu' lenti di quelli 3.0).
http://www.elderscrolls.com/forums/index.php?showtopic=270923 :
"Support for shader model 3.0 is helpful"
"Shadows: As stated in the Beyond3D Interview Oblivion uses a shadow-mapping method instead of stencil shadows like Doom3 and F.E.A.R.; this performs far better, allows for easy, true soft shadowing, and if you have a SM 2.0 extended or SM 3.0 card, can be handled very, very fast."
"$126US: GeForce 6600GT, AGP with 128MB video RAM - A bit more powerful than the 9800pro, it also supports shader model 3.0; this will help ease some "laggy" shader- and lighting-intensive scenes in games."
E ovviamente poichè è sponsorizzato da nvidia "casualmente" non viene permesso l'HDR FP blending + AA ma solo l'HDR Bloom + AA...
kissà km mai... :fiufiu:
:asd:
ok, doppio valore per le nvidia allora, visto che si riescono ad usare anche le applicazioni
Opengl sotto windows, non solo un paio di giochi.
Che sotto OGL Nvidia sia superiore non l'ha mai messo in dubbio... Che OGL sotto windows a parte per chi fa grafica sia praticamente cosa morta neppure :)
Tu spenderesti forza per una cosa inutile?
Mica solo per fare grafica! Crasha nei giochi nativi, crasha sotto wine, crasha con gli effetti
di composite e con XGL (le versioni linux degli effetti grafici su desktop che MS
mette in Vista, composite c'e' da tempo, Xgl e' relativamente nuovo, Ati ha implementato
questi effetti sotto Vista un anno prima che uscisse, ma per risparmiare fa finta di non
accorgersi che ci son anche sotto Linux, e da prima....)
Vedi sopra. Tu perderesti tempo con una cosa usata dall'1% della gente che usa linux? Io ci lavoro tutto il santo giorno e di quella roba non ne ho mai avuto bisogno. Perchè mai dovrei criticare qualcosa che non mi serve?
Ehm, non e' che hai spiegato molto, dici solo che e' cosi' perche' hanno aderito al TWIMTBP.
E 2+2 a casa mia ha sempre fatto 4 ;)
Forse dovresti chiederti PERCHE', e la spiegazione e' quella contenuta nel brano da me riportato....
Perchè Oblivion usa un metodo per fare HDR che non è quello per cui Ati supporta l'AA. Non è scritto che le Ati in Oblivion usano HDR precalcolato (cosa che ancora devi spiegare... attendo).
Cioe' esattamente come per le FT, la FFT e' una simpatica approssimazione, ma NON e'
l'effetto reale, solo un surrogato
Deduco tu stia studiano qualche analisi o qualche calcolo numerico, visto che sta roba non c'entra una mazza....
(hum, questo mi ricorda il famoso dibattito sull'AVIVO
Transcoder.... sara' la nuova politica di ATI vendere surrogati? Anche in questo caso,
Ati non ha mai specificato che si tratti di HDR "reale" supportato in hardware.... :rolleyes: ).
Stai scadendo nel tifo, ragazzo... Ti farcisci la bocca con cose che non c'entrano, parli di HDR "reale" e HDR "precalcolato", il tutto senza spiegare che cavolo vuoi dire. Vuoi dire che Ati non fa HDR con alpha blending in floating point, dillo senza girarci intorno. Poi per favore, spiega cosa stai dicendo perchè p falso :)
E' stato detto dagli stessi sviluppatori che in Oblivion è usato un modo di fare HDR che con nessuna Gpu può essere applicato contemporaneamente all'antialiasing. Non che le Ati fanno finto HDR. Per questo continuo a sostenere che tu di inglese capisca ben poco... oppure che tu lo capisca ma che tu faccia copia/incolla di frasi estrapolate dal contesto (come quella che tu hai riportato, giungendo ad una conclusione errata, portando fatti che in quella frase non sono scritti) senza capire perchè :)
Ah, giusto per informazione, il mio inglese mi consente di chattare tutti i giorni con
altri sviluppatori tramite iRC, ma non si ferma ai termini informatici dato l'esame di lingua
universitario passato con voto massimo e qualche tempo passato a Wimbledon (e giusto
una settimana a Dublino proprio all'inizio di questo mese).... dici che basta?
Fossi in te farei un ripasso, visto che come detto hai incollato una frase, e riportato cose che in quella frase non sono riportate. E cioè che le X1x00 fanno HDR precalcolato, falso e in shader model 2 (spiega ti prego, non si capisce una mazza di quanto sostieni).
(ah, per la cronaca, FT= Fourier Transform,trasformata di Fourier in italiano,
FFT= Fast Fourier Transform cioe' trasformata veloce, che e' un algoritmo di
APPROSSIMAZIONE piu' veloce che fornisce risultati APPROSSIMATIVAMENTE uguali
a quelli della trasformata "reale",se vuoi vado piu' nei dettagli ma credevo che usare
termini come falso o precalcolato rendesse meglio l'idea ai profani, non tutti hanno voglia
di studiarsi argomenti avanzati di informatica/matematica per capire le dichiarazioni di
uno sviluppatore riguardo le schede grafiche....).
Ok, ora che hai fatto il figo dovrei essere impressionato? :rolleyes:
JohnPetrucci
21-03-2006, 22:09
Francamente, non credo che sarà questo un punto determinante a favore di Nvidia, Ati non starà certo a guardare, e poi dato l'impatto probabilmente pesante sulle prestazioni(che induce a giudicare opportuno lo sli) non credo sarà sempre consigliabile sopratutto per chi usa la serie 6xxx di Nvidia adottare ad occhi chiusi questa opzione, seppur valida.
^TiGeRShArK^
21-03-2006, 22:10
Infatti sarà così a meno che nvidia non sborsi tanti soldi da avere l'esclusiva di havok anche se quest'ultima farà 2 + 2 e capirà che facendo una licenza a tutti e due guadagnerà di più che darne una ad una sola casa ;)
infatti nvidia è specialista nello sborsare pur di castrare la concorrenza... (ki ha detto HDR in oblivion :fiufiu: ):sofico:
Ginger79
21-03-2006, 22:12
Corretto.
Corretto. Ma è arrivata seconda. 3dfx prima di lei lo avevano inventato. E il dual gpu prima con 3dfx e poi con Ati.
Esatto. Tanto da aver realizzato una demo (Toy shop) dove per la PRIMA volta venivano indirizzati alcuni calcoli della fisica alla gpu.
Ho contraddetto i 2/3 della robbaccia che hai detto ;)
Bravo.
^TiGeRShArK^
21-03-2006, 22:13
Si, diciamola tutta:
x600 < 9600 XT < x700 < 9500 PRO < 6600GT (e la fascia midstream e' quella realmente
acquistata dalla maggior parte dei giocatori, gli entusiasts sono meno del 5%....)
embè??
sbaglio o qualcuno parlava di LEADER TECNOLOGICO??? :asd:
Supporto OpenGL sotto ATI: praticamente 0, in blender gli utenti ATI devono usare librerie nvidia.
Supporto Linux sotto ATI: ma per favore..... smettiamo di dire che sono accelerate sotto
linux, ci girano senza crashare quattro cose in croce.
certo.. .caratteristike a dir poco ESSENZIALI x una skeda GAMING :fiufiu:
HDR fp blending (+AA) di ATI e' un HDR "falso" (simulato, precalcolato se volete)eseguito
con gli shader 2.0, come si puo' vedere anche da quello che dicono gli sviluppatori di
Oblivion nel post da me riportato qua sopra:
"What they’ve taken to calling “true” HDR apparently requires a SM 3.0 card to use, and though it’s unknown exactly what further effects it brings over the SM 2.0 variant, it also, according to recent comments by Orin Tresnjak, (Lancekt) it’s mutually exclusive to AA on all chipsets; this would apparently even include ATi’s X1k video cards as well as the Xbox 360. Further explanations have yet to be given, even though the Beyond3D Interview provides some puzzling information that apparently has far from cleared up the issue, given the more recent quote."
e tanti saluti....
Si infatti....
HDR Bloom è meglio del FALSO HDR fp...
mi kiedo se li hai mai visti e confrontati :asd:
tanti saluti! :D
Personalmente non ho capito la storia dell'HDR precalcolato. Cioè l'HDR delle schede ATI è precalcolato e quello NVIDIA è reale? Guarda che forse ti confondi con l'HDR usato in Half-Life 2 Lost Coast che è calcolato diversamente (non in floating point) e che consente a qualunque prodotto shader model 2.0 di abilitare HDR + AA con una resa che non è neanche male. E' semplicemente un modo diverso di fare HDR.
Per quanto concerne l'HDR in floating point, quello di Splinter Cell Chaos Theory, Far Cry, Serious Sam 2, per capirci, le schede ATI X1000 possono realizzarlo esattamente come le schede NVIDIA con la differenza che possono applicargli anche l'antialiasing (se il software lo permette), mentre le schede NVIDIA non possono fare HDR in floating point + antialiasing.
desmacker
21-03-2006, 22:19
Ma siamo quì a parlare di HDR+AA oppure di Havok fx ? :mbe:
Ma siamo quì a parlare di HDR+AA oppure di Havok fx ? :mbe:
Tu non conosci i fanboy, parlano di quello che capita basta screditare la marca che odiano. Tu parli di Havok? Loro ci piantano dentro lo Sli. Tu parli di HDR + AA? Loro ci piantano dentro linux. E poi non è ancora saltata fuori la storia di quack e del fatto che le Nvidia sono più compatibili, mi sto anche chiedendo quanto ci mettano a tirarlo fuori :D
come non darti ragione.....i fanboy sono il profumo della vita ( quelli nvidia sembrano un pochino piú aggressivi peró :D )
desmacker
21-03-2006, 22:27
Tu non conosci i fanboy, parlano di quello che capita basta screditare la marca che odiano. Tu parli di Havok? Loro ci piantano dentro lo Sli. Tu parli di HDR + AA? Loro ci piantano dentro linux. E poi non è ancora saltata fuori la storia di quack e del fatto che le Nvidia sono più compatibili, mi sto anche chiedendo quanto ci mettano a tirarlo fuori :D
Ati e Nvidia per me sono facce della stessa medaglia che supporteranno l'Havok fx.
Perche quelli dell'Havok lo hanno ideato per questo.
^TiGeRShArK^
21-03-2006, 22:29
ok, doppio valore per le nvidia allora, visto che si riescono ad usare anche le applicazioni
Opengl sotto windows, non solo un paio di giochi.
Mica solo per fare grafica! Crasha nei giochi nativi, crasha sotto wine, crasha con gli effetti
di composite e con XGL (le versioni linux degli effetti grafici su desktop che MS
mette in Vista, composite c'e' da tempo, Xgl e' relativamente nuovo, Ati ha implementato
questi effetti sotto Vista un anno prima che uscisse, ma per risparmiare fa finta di non
accorgersi che ci son anche sotto Linux, e da prima....)
come dicevo prima ... caratteristiche ESSENZIALI x una skeda gaming :sofico:
Ehm, non e' che hai spiegato molto, dici solo che e' cosi' perche' hanno aderito al TWIMTBP.
Forse dovresti chiederti PERCHE', e la spiegazione e' quella contenuta nel brano da me riportato....
Cioe' esattamente come per le FT, la FFT e' una simpatica approssimazione, ma NON e'
l'effetto reale, solo un surrogato (hum, questo mi ricorda il famoso dibattito sull'AVIVO
Transcoder.... sara' la nuova politica di ATI vendere surrogati? Anche in questo caso,
Ati non ha mai specificato che si tratti di HDR "reale" supportato in hardware.... :rolleyes: ).
Ah, giusto per informazione, il mio inglese mi consente di chattare tutti i giorni con
altri sviluppatori tramite iRC, ma non si ferma ai termini informatici dato l'esame di lingua
universitario passato con voto massimo e qualche tempo passato a Wimbledon (e giusto
una settimana a Dublino proprio all'inizio di questo mese).... dici che basta?
(ah, per la cronaca, FT= Fourier Transform,trasformata di Fourier in italiano,
FFT= Fast Fourier Transform cioe' trasformata veloce, che e' un algoritmo di
APPROSSIMAZIONE piu' veloce che fornisce risultati APPROSSIMATIVAMENTE uguali
a quelli della trasformata "reale",se vuoi vado piu' nei dettagli ma credevo che usare
termini come falso o precalcolato rendesse meglio l'idea ai profani, non tutti hanno voglia
di studiarsi argomenti avanzati di informatica/matematica per capire le dichiarazioni di
uno sviluppatore riguardo le schede grafiche....).
mamma ke 6 fiko tu! :D
e spiegami come fai a fare una Fourier Transform (continua) in DIGITALE....
FORSE ti sfugge ke gli algoritmi utilizzati da TUTTI i componenti digitali si basano sulle trasformate di fourier DISCRETE.
E sai qual'è la differenza tra gli algoritmi DFT (Discrete Fourier Transform) e FFT(Fast Fourier Transform)???
ti consiglio quest'articolo vista la tua conoscenza dell'inglese:
http://en.wikipedia.org/wiki/Fast_Fourier_transform
e tanto per riportare l'estratto riguardante la precisione abbiamo:
Even the "exact" FFT algorithms have errors when finite-precision floating-point arithmetic is used, but these errors are typically quite small; most FFT algorithms, e.g. Cooley-Tukey, have excellent numerical properties. The upper bound on the relative error for the Cooley-Tukey algorithm is O(ε log N), compared to O(ε N3/2) for the naïve DFT formula (Gentleman and Sande, 1966), where ε is the machine floating-point relative precision. In fact, the root mean square (rms) errors are much better than these upper bounds, being only O(ε √log N) for Cooley-Tukey and O(ε √N) for the naïve DFT (Schatzman, 1996). These results, however, are very sensitive to the accuracy of the twiddle factors used in the FFT (i.e. the trigonometric function values), and it is not unusual for incautious FFT implementations to have much worse accuracy, e.g. if they use inaccurate trigonometric recurrence formulas. Some FFTs other than Cooley-Tukey, such as the Rader-Brenner algorithm, are intrinsically less stable.
da cui si deduce ke la FFT ha addirittura precisioni maggiori della DFT poickè l'errore MASSIMO e MEDIO è minore.
diciamo ke ti è andata piuttosto male su quest'argomento dato ke giusto un mesetto fa le stavo studiando durante il tempo libero per scrivere un accordatore per chitarra per cellulari mediante l'uso delle FFT.....
Per quanto riguarda la ocmplessità computazionale invece abbiamo O(N^2) per le DFT e O(N log N) per le FFT...
a te le conclusioni su quale sia il metodo migliore da utilizzare nella maggior parte dei casi......
^TiGeRShArK^
21-03-2006, 22:40
"What they’ve taken to calling “true” HDR apparently requires a SM 3.0 card to use, and though it’s unknown exactly what further effects it brings over the SM 2.0 variant, it also, according to recent comments by Orin Tresnjak, (Lancekt) it’s mutually exclusive to AA on all chipsets;
Quello che si è iniziato a chiamare "vero" HDR (FP Blending HDR NdT) apparentemente richiede una scheda che supporti lo Shader Model 3.0 per essere utilizzato, e nonostante ancora non si sappiano bene i vantaggi (gli ulteriori effetti tradotto letteralmente NdT) che porta rispetto alla variante che usa gli Shader Model 2.0 (HDR Bloom NdT), esso, secondo dei recenti commenti di Orin Tresnjak, (Lancekt) è mutuamente esclusivo rispetto all'AA su tutti i chipset.
this would apparently even include ATi’s X1k video cards as well as the Xbox 360. Further explanations have yet to be given, even though the Beyond3D Interview provides some puzzling information that apparently has far from cleared up the issue, given the more recent quote."
Questo apparentemente sembra includere anche le schede ATI della famiglia X1k e perfino l'Xbox 360. Delle spiegazioni soddisfacenti tuttavia devono ancora essere fornite, nonostante l'intervista a Beyond 3D abbia fornito delle informazioni alquanto confuse che apparentemente non hanno ancora spiegato a fondo il problema, visto il loro ultimo articolo.
E detto ciò pregherei il buon yoss di spiegare x l'ennesima volta il funzionamento dell'HDR FP blending e perkè sulle ROP nvidia non può essere implementato mentre sulle ROP(?) ATI si, e pregherei devils di postare la fonte di quello stralcio riportato perchè pare quantomeno "sospetto" dato ke diversi sviluppatori hanno implementato con successo l'HDR di tipo fp blending e la differenza qualitativa con HDR di tipo Bloom è ben visibile (almeno ai miei okki).
Ginger79
21-03-2006, 22:46
troppo facili da contraddire, invece:
1) concorrenza ps2.0, nVIDIA per oltre 18 mesi con una serie di chip che poco c'entrano con lo sm2.0 (serie FX)
2) SLI o scheda multichip non è certo un'invenzione di nVIDIA (Fury Maxx e Voodoo5 ti dicono niente?)
3) ti invito nuovamente a leggere quanto scritto in quest'articolo e, in particolare, a prestare attenzione al confronto (fatto dall'università di Stanford) tra R520 e G70 (e alcune cpu) con SW di tipo GP alcuni dei quali simulano la fisica newtoniana
http://techreport.com/onearticle.x/8887
:read:
insomma, se volevi esaltare nVIDIA potevi scegliere altre argomentazioni sicuramente più condivisibili e difficili da confutare
Mi spiace deluderti ma non ho voluto esaltare nessuno dato che nessuno mi paga per fare pubblicità nè possiedo titoli di credito di una o dell'altra società. Il mio era solo un compiacimento, in primis, per l'acquisto che ho da poco fatto e in secundis per la grande mossa economico/tecnologica operata da una grande azienda come Nvidia.
Ad ogni modo ho potuto constatare che il mio "pensiero" ha scatenato una vera e propria battaglia tra 2 opposte fazioni ed ha messo in evidenza il quoziente intellettivo di alcuni personaggi (presenti esclusi) che, oltre a non smentirsi mai, peggiorano di volta in volta la loro situazione... ma il mondo è bello xchè è vario.
Riguardo quelle che tu chiami "confutazioni" mi spiace ma ti devo correggere anche qui:
Punto 1) PS 3.0 (a partire dalle GeForce 6) ---> Concorrenza PS 2.0
Confutare significa dimostrare che questa affermazione non è vera (ma tu ovviamente non lo hai fatto per il semplice fatto che non è possibile confutare un dato oggettivo se non arrampicandosi sugli specchi, ma in questo caso non si farebbe una bella figura) mentre tu hai semplicemente citato un'altrettanto fatto VERO che tuttavia non contraddice quello che ho affermato pocanzi.
Punto 2) SLI (a partire dalle GeForce 6) ---> Concorrenza scheda singola
Nessuno (nè tantomeno io) ha affermato che la soluzione multiGPU sia un'invenzione di Nvidia mentre tu hai addotto questa giustificazione per "confutare" la mia affermazione ma anche qui hai aggirato il discorso. Per Confutare la mia affermazione avresti dovuto dimostrare che mentre Nvidia sventolava la bandiera dell'SLI (che oggi ha conosciuto una diffusione capillare) la concorrenza disponeva di una tecnologia altrettanto valida e comparabile tale da contrastare l'SLI medesimo ma anche qui avrestri dovuto inventare un argomentazione in quanto nella realtà dei fatti questo non è avvenuto se non in un momendo successivo (uso questo termine "soft" per non infierire ulteriormente).
Punto 3) Fisica via GPU ---> Concorrenza non sa neanche di cosa si stà parlando
Beh, su questo punto purtroppo la mia disinformazione ha giocato un brutto scherzo e devo ammettere di aver espresso un giudizio (relativo alla concorrenza) non corrispondente alla realtà e qui recito un MEA CULPA.
D'altronde la fisica non mi è mai andata a genio quando frequentavo lo scientifico ed è per questo che ho scelto la strada dell'avvocatura dove sicuramente ne capisco di più.
Comunque VIVA la concorrenza e l'innovazione tecnologica... che poi venga da Tizio, Caio o Sempronio a me poco importa. Ciò che conta è che l'utente finale ne tragga giovamento. Oggi se si vuole il TOP c'è ATI che offre X1900XTX mentre se si bada al portafoglio c'è Nvidia che offre 7900GT e la nuova politica dei prezzi non può che farmi un enorme piacere così come mi fa altrettanto piacere questa nuova partnership tra Nvidia e Havok che di sicuro porterà un valore aggiundo all'hardware che già possediamo senza ulteriori esborsi economici.
Credo di essere stato chiaro ed esaustivo e mi vorrei scusare con tutti se il mio intervento precedente ha scaldato così tanto gli animi dei paladini della Grafica 3D in quanto non era mia intenzione farlo ;)
Arrivederci e Buonanotte.
kakahack
21-03-2006, 23:05
ciao ragazzi!!
certo che per spuntarla ve ne dite di tutti i colori....
io personalmente apprezzo entrambi le marke..ma se dovrei scegliere un nome direi ATI perchè? la qualità di rendering delle ATI non la cambierei con nessuna...questa nuova tecnologia buon venga ma non pensate che ci sia una vincente perchè nessuno delle due resta a guardare,e poi ognuna ha i suoi punti di forza come si fa a dire chi ha la meglio...ne avete dette tante contro ATI,a quanto pare anke ATI ha una tecnologia che nvidia non vede ancora,cioè l'AVIVO...
la nvidia ha qualità nelle applicazioni opengl superiore
l'ATI ha una redering e uscita video superiore
e cerchiamo di apprezzare entrambi queste fantastiche aziende!!
ciao a tutti ragazzi alla proxima! :)
leoneazzurro
21-03-2006, 23:16
Ragazzi, finitela o debbo cominciare a sospendere qualcuno. :mad:
PS: Tigershark, ti sei accorto che avevo già tradotto il trafiletto?
Patrik 3B
21-03-2006, 23:18
Ciao a tutti Boys
Io sono sicuramente uno che di quello che è stato detto di tecnico fino ad ora nn ci ho praticamente capito un tubo!
Però sono uno che sta al commercio di queste cose e vi posso assicurare che quando si decide di comprare una scheda video di quella o dell'altra marca le persone in genere nn si fanno problemi su algoritmi dei transistor e ipersupermega concetti scentifici (sicuramente interessanti! Ma che gente "normale" come me nn capisce! :muro: ) quello che vogliono è un prodotto che soddisfi in media le loro essigenza da professionisti o da giocatori incalliti!
Infine sono 2 ottimi prodotti sia l'una che l'altra!
yossarian
21-03-2006, 23:24
Veramente io parlo di tecnologie..... ma qui c'e' gente che si e' comprata la x850 uno o due
mesi fa (quando guarda caso la gente che diceva che presto avrebbero iniziato ad usarli
veniva tacciata di essere nvidia fanboy) ed adesso gli rode di non avere gli shader 3.0,
decidendo cosi' di dichiarare che sono inutili..... ecco il fantahardware.
C'e' gente che dice che e' politica di Nvidia mettere i blocchi software alle funzionalita' offerte
(mentre guarda caso questo succede agli utenti ATI con l'AVIVO converter, se hanno x600/700/800),
ecco il fantahardware.
mi spieghi, in dettaglio, le feature dello sm3.0 che si stanno adoperando negli attuali motori grafici (e per la cui mancanza gli utenti con X850 dovrebbero stracciarsi le vesti)?
^TiGeRShArK^
21-03-2006, 23:30
Ragazzi, finitela o debbo cominciare a sospendere qualcuno. :mad:
PS: Tigershark, ti sei accorto che avevo già tradotto il trafiletto?
ovviamente no...:fagiano:
non so come ma mi era sfuggito il tuo post, altrimenti mi sarei risparmiato la fatica :fagiano:
però la mia traduzione è + figa! :sofico:
cmq a parte gli skerzi se vuoi edito tanto non è un problema... :D
leoneazzurro
21-03-2006, 23:36
No, lascia stare. solo che qualche volta dovresti leggere tutto :p
Magari ti risparmi la fatica!
(spammone :D)
bartolino3200
21-03-2006, 23:46
Il solito teatrino con i soliti burattini.
Free Gordon
21-03-2006, 23:52
Finalmente si inizia a dare un senso allo SLI! Visto e considerato che ogni scheda di fascia alta di generazione successiva a quella considerata è più veloce di due schede messe in SLI, si può trovare un modo per giustificare l'acquisto di due schede.
A questo punto conviene prendersi a 150 euro una scheda dedicata Ageia..
Costa meno ed essendo dedicata, ha performance decisamente migliori.. ;)
yossarian
21-03-2006, 23:52
Mi spiace deluderti ma non ho voluto esaltare nessuno dato che nessuno mi paga per fare pubblicità nè possiedo titoli di credito di una o dell'altra società. Il mio era solo un compiacimento, in primis, per l'acquisto che ho da poco fatto e in secundis per la grande mossa economico/tecnologica operata da una grande azienda come Nvidia.
Ad ogni modo ho potuto constatare che il mio "pensiero" ha scatenato una vera e propria battaglia tra 2 opposte fazioni ed ha messo in evidenza il quoziente intellettivo di alcuni personaggi (presenti esclusi) che, oltre a non smentirsi mai, peggiorano di volta in volta la loro situazione... ma il mondo è bello xchè è vario.
Riguardo quelle che tu chiami "confutazioni" mi spiace ma ti devo correggere anche qui:
Punto 1) PS 3.0 (a partire dalle GeForce 6) ---> Concorrenza PS 2.0
Confutare significa dimostrare che questa affermazione non è vera (ma tu ovviamente non lo hai fatto per il semplice fatto che non è possibile confutare un dato oggettivo se non arrampicandosi sugli specchi, ma in questo caso non si farebbe una bella figura) mentre tu hai semplicemente citato un'altrettanto fatto VERO che tuttavia non contraddice quello che ho affermato pocanzi.
ok; limitiamoci al passaggio da sm2.0 a sm3.0.
nVIDIA veniva da NV3x, ossia una famiglia di chip che non è possibile, con quanta buona volontà si voglia, definire sm2.0; questo non perchè non ne avessero alcune caratteristiche, ma perchè avevano troppi limiti architetturali per poter permetter l'utilizzo delle dx9. Premetto che le specifiche sm3.0 erano note sin da prima dell'uscita di R300, però né ATi, né nVIDIA avevano pensato di elaborare direttamente un'architettura dx9c, ma si erano limitate al supporto allo sm2.0 (per nVIDIA addirittura insufficiente). Conclusione, dopo NV3x nVIDIA aveva da progettare una nuova architettura, mentre ATi ne aveva una ancora valida per tirare avanti fino all'introduzione reale dello sm3.0; nel frattempo poteva concentrarsi su una nuova architettura che andasse bene anche per lo sm3.0 (quella di R300 non si adatta alla gestione dinamica del flusso di dati). Tra l'altro, sarei curioso di sapere quante feature sm3.0 sono, allo stato attuale, realmente utilizzate (hdr non c'entra nulla, il db non è usato e con i chip NV porterebbe vantaggi reali solo a livello di vs a causa della granularità non troppo fine delle batch utilizzate, il geometry instancing è attivabile anche con R3x0 e R4x0, il vertex texturing mi risulta sia stato utilizzato solo in un titolo e, comunque, si può fare in più modi).
Detto questo, è normale che, nel momento in cui NV ha dovuto progettare un nuovo chip, lo ha fatto direttamente sm3.0 (non avrebbe avuto senso farne un altro sm2.0 per poi doverne progettare un terzo per lo sm3.0). Al contrario, ATi ha utilizzato l'architettura di R3x0, restando ancorata allo sm2.0 e, nel frattempo ha lavorato su R5x0 e R6x0.
Quindi, il passaggio ritardato allo sm2.0 non è stato dettato dall'incapacità di introdurre le relative feature, ma da un semplice discorso di opportunità (lo stesso che ha fatto si che G71 fosse solo uno shrìnk di G70, poichè non aveva alcun senso un nuovo progetto ancora sm3.0).
Ovvio che nel passaggio da sm2.0 a 3.0, per le scelte fatte, ATi si è ritrovata indietro dal punto di vista tecnologico, come, per le stesse scelte operate, adesso è nVIDIA ad essere indietro, perchè ha un'architettura vecchia di 2 anni.
Punto 2) SLI (a partire dalle GeForce 6) ---> Concorrenza scheda singola
Nessuno (nè tantomeno io) ha affermato che la soluzione multiGPU sia un'invenzione di Nvidia mentre tu hai addotto questa giustificazione per "confutare" la mia affermazione ma anche qui hai aggirato il discorso. Per Confutare la mia affermazione avresti dovuto dimostrare che mentre Nvidia sventolava la bandiera dell'SLI (che oggi ha conosciuto una diffusione capillare) la concorrenza disponeva di una tecnologia altrettanto valida e comparabile tale da contrastare l'SLI medesimo ma anche qui avrestri dovuto inventare un argomentazione in quanto nella realtà dei fatti questo non è avvenuto se non in un momendo successivo (uso questo termine "soft" per non infierire ulteriormente).
le cose vanno introdotte quando servono, ovvero quando se ne sente la necessità. La diffusione dello SLI è tutt'altro che capillare, anche perchè i costi sono piuttosto alti e solo in alcuni casi può esserne giustificata l'adozione. La rage fury maxx serviva a contrastare un chip (NV10) che era più veloce di qualunque altro singolo chip grafico presente sul mercato. Quindi era un'ammissione implicita di inferiorità tecnologica. Oggi, in alcuni casi, lo sli o il cf possono anche avere una loro giustificazione (e in tempi non sospetti, ero stato proprio io a dire che l'evoluzione avrebbe inevitabilmente portato verso soluzioni multi gpu se non si cambiavano le arhchitetture dei chip), però, nella stragrande maggioranza dei casi, una vga a singola gpu, soprattutto se di fascia alta, è ancora la soluzione migliore come compromesso prezzo prestazioni (anche tenendo conto del fatto che uno sli o un cf, dal punto di vista tecnologico non agigungono alcuna novità ma solo un 55-60% circa di potenza di calcolo in più che può aumentare nelle situazioni bandwidth limited, sempre a patto di adoperare la ripartizione dei carichi più idonea per quel tipo di applicazione).
Detto questo, puntare sullo sli, per avere le prestazioni, esattamente come 7 anni fa, è un'ammissione di inferiorità tecnologica. Senza tener conto che, ad esempio, uno sli di 7600 non ha molto senso visto che una 7900 da sola va meglio e costa meno.
^TiGeRShArK^
21-03-2006, 23:52
Il solito teatrino con i soliti burattini.
è arrivato il genio della lampada! :D
Free Gordon
21-03-2006, 23:53
Queste sono le soddisfazioni che derivano dall'aver scelto Hardware Nvidia ... sempre un passo avanti alla concorrenza in quanto a idee ed implementazioni ... poi gli altri copiano!
PS 3.0 dalla serie GeForce 6 ---> Concorrenza= PS 2.0
SLI dalla serie GeForce 6 ---> Concorrenza= Scheda singola
FISICA nella GPU ---> Concorrenza= Non sa neanche di cosa stiamo parlando.
Quando dicono "Leader mondiale" nelle tecnologie grafiche chi li può contraddire. BELLA MOSSA.
SUPER-LOL! :rotfl:
leoneazzurro
21-03-2006, 23:54
Il solito teatrino con i soliti burattini.
E questo commento servirebbe a qualcosa?
Ultimo avvertimento (a tutti): basta flame, commenti personali e post OT o inutili.
maxgenio
21-03-2006, 23:54
La nVidia sta cavalcando con sapienza questo momento di miglior visibilità sui consumatori scegliendosi con una certa sapienza dichiarazioni e partner concreti. L'utilità di questo nuovo middleware si vedrà solo tra minimo un anno, forse due nei giochi, ma l'immagine è ORA che prende credito.Ati non starà certo a guardare.
Aggiungo infine che da nostalgico mi immagino sempre qualche geniaccio della 3Dfx dietro alle scelte più brillanti di nVidia...
Ah, se non ci fossero i fanboy...
Free Gordon
21-03-2006, 23:57
Fino a che una caratteristica non lè presente in entrambe le soluzioni i programmatori tendono a non sfruttarla :)
Hai detto una cosa interessante, in effetti succede spesso ciò che dici. :D
Free Gordon
22-03-2006, 00:33
"What they’ve taken to calling “true” HDR apparently requires a SM 3.0 card to use, and though it’s unknown exactly what further effects it brings over the SM 2.0 variant, it also, according to recent comments by Orin Tresnjak, (Lancekt) it’s mutually exclusive to AA on all chipsets; this would apparently even include ATi’s X1k video cards as well as the Xbox 360. Further explanations have yet to be given, even though the Beyond3D Interview provides some puzzling information that apparently has far from cleared up the issue, given the more recent quote."
e tanti saluti....
Strano allora che su 360 siano presenti entrambi (AA + HDR).. :asd:
e tanti saluti.....
A questo punto conviene prendersi a 150 euro una scheda dedicata Ageia..
Costa meno ed essendo dedicata, ha performance decisamente migliori.. ;)
ed oltretutto, se cambi scheda video quella rimane (o se cambi scheda fisica, puoi tenere quella video)
DevilsAdvocate
22-03-2006, 01:09
da cui si deduce ke la FFT ha addirittura precisioni maggiori della DFT poickè l'errore MASSIMO e MEDIO è minore.
diciamo ke ti è andata piuttosto male su quest'argomento dato ke giusto un mesetto fa le stavo studiando durante il tempo libero per scrivere un accordatore per chitarra per cellulari mediante l'uso delle FFT.....
Per quanto riguarda la ocmplessità computazionale invece abbiamo O(N^2) per le DFT e O(N log N) per le FFT...
a te le conclusioni su quale sia il metodo migliore da utilizzare nella maggior parte dei casi......
Dalla tua stessa paginetta terra-terra, giusto quello che c'e' subito dopo:
"These results, however, are very sensitive to the accuracy of the twiddle factors used in the FFT (i.e. the trigonometric function values), and it is not unusual for incautious FFT implementations to have much worse accuracy, e.g. if they use inaccurate trigonometric recurrence formulas. Some FFTs other than Cooley-Tukey, such as the Rader-Brenner algorithm, are intrinsically less stable.
In fixed-point arithmetic, the finite-precision errors accumulated by FFT algorithms are worse, with rms errors growing as O(√N) for the Cooley-Tukey algorithm (Welch, 1969). Moreover, even achieving this accuracy requires careful attention to scaling in order to minimize the loss of precision, and fixed-point FFT algorithms involve rescaling at each intermediate stage of decompositions like Cooley-Tukey"
Da questo non deduci nulla? Ti e' solo sfuggito oppure e' un omissione volontaria? Stavo
facendo un analogia, ci vuole molto a capire che mi riferivo a questo?
Io penso che potrebbe essere una cosa interessante. Una configurazione sli potrebbe diventare molto più appetibile.
In un gioco dove c'è havok fx uso la seconda scheda come PPU mentre nei giochi dove non c'è oppure non serve utilizzo la configurazione sli standard.
Sicuramente ATI starà progettando delle cose simili, ma ora come ora l'idea di dedicare una vga al calcolo fisico non mi pare sia venuta ad ATI.
Tra l'altro il crossfire non sembra aver attecchito tanto nella comunity dei gamers. E' di pochi giorni fa una statistica di steam (il programma di gestione dei giochi valve) dove si riferiva un rapporto di 2500/30 utenti con configurazione dual gpu, rispettivamente sli/cf.
Saranno le solite menate ma si sente in giro che il cf non sia stabile come sli (oltre ad essere meno performante)...
DevilsAdvocate
22-03-2006, 01:14
mi spieghi, in dettaglio, le feature dello sm3.0 che si stanno adoperando negli attuali motori grafici (e per la cui mancanza gli utenti con X850 dovrebbero stracciarsi le vesti)?
Ma se ho appena scritto che il primo gioco ad usarlo esce domani, e che gli sviluppatori
han gia' dichiarato che con sm3.0 gli utenti potranno fare a meno dei "laggy" shader 2.0,
per avere gli stessi effetti ma ad una velocita' parecchio maggiore....
Tra parentesi non capisco come si fa a dire che alla Bethesda hanno accordi sottobanco con
Nvidia, visto che sviluppano per xbox360 con grande ansia di MS (che voleva Oblivion tra i
titoli di lancio....), e quindi sviluppano il gioco per 2 piattaforme con Ati dentro...
yossarian
22-03-2006, 01:24
Ma se ho appena scritto che il primo gioco ad usarlo esce domani, e che gli sviluppatori
han gia' dichiarato che con sm3.0 gli utenti potranno fare a meno dei "laggy" shader 2.0,
per avere gli stessi effetti ma ad una velocita' parecchio maggiore....
Tra parentesi non capisco come si fa a dire che alla Bethesda hanno accordi sottobanco con
Nvidia, visto che sviluppano per xbox360 con grande ansia di MS (che voleva Oblivion tra i
titoli di lancio....), e quindi sviluppano il gioco per 2 piattaforme con Ati dentro...
ripeto la domanda: quali sarebbero queste feature?
Cerchiamo di essere un po' meno generici ed entriamo un po' più nello specifico
DevilsAdvocate
22-03-2006, 01:29
ripeto la domanda: quali sarebbero queste feature?
Cerchiamo di essere un po' meno generici ed entriamo un po' più nello specifico
Tanto per dirne una ombre dinamiche "true soft shadow" calcolate sopra fogliaggio (che
contiene altri pixel shader sopra). E comunque non si tratta di "features", si tratta di
un'implementazione diversa con un numero maggiore di istruzioni, lo puoi vedere un po'
come la differenza tra un linguaggio ad alto livello ed uno a basso livello: col linguaggio ad
alto livello ottieni le stesse cose in poche istruzioni, ma in genere sprecando piu' tempo
macchina (e nel gaming la velocita' e' tutto).
yossarian
22-03-2006, 01:35
Tanto per dirne una ombre dinamiche "true soft shadow" calcolate sopra fogliaggio (che
contiene altri pixel shader sopra). E comunque non si tratta di "features", si tratta di
un'implementazione diversa con un numero maggiore di istruzioni, lo puoi vedere un po'
come la differenza tra un linguaggio ad alto livello ed uno a basso livello: col linguaggio ad
alto livello ottieni le stesse cose in poche istruzioni, ma in genere sprecando piu' tempo
macchina (e nel gaming la velocita' e' tutto).
le soft shadow non sono tipiche dello sm3.0; che poi lo sm3.0 prevede istruzioni più lunghe è un altro paio di maniche (basta guardare anche al numero di registri costanti previsti per ps2.0 e ps3.0). Ma comunque non si tratta di una feature caratteristica (come ad esempio il db o il vertex texturing, tanto per dirne un paio). E tieni conto anche del fatto che i chip NV traggono poco beneficio dall'utilizzo del db (che è una delle feature che più di tutte dovrebbero permettere la velocizzazione nelle elaborazioni) nei ps, poichè l'utilizzo di batch di ampie dimensioni lo rende molto poco efficiente
yossarian
22-03-2006, 01:40
Dalla tua stessa paginetta terra-terra, giusto quello che c'e' subito dopo:
"These results, however, are very sensitive to the accuracy of the twiddle factors used in the FFT (i.e. the trigonometric function values), and it is not unusual for incautious FFT implementations to have much worse accuracy, e.g. if they use inaccurate trigonometric recurrence formulas. Some FFTs other than Cooley-Tukey, such as the Rader-Brenner algorithm, are intrinsically less stable.
In fixed-point arithmetic, the finite-precision errors accumulated by FFT algorithms are worse, with rms errors growing as O(√N) for the Cooley-Tukey algorithm (Welch, 1969). Moreover, even achieving this accuracy requires careful attention to scaling in order to minimize the loss of precision, and fixed-point FFT algorithms involve rescaling at each intermediate stage of decompositions like Cooley-Tukey"
Da questo non deduci nulla? Ti e' solo sfuggito oppure e' un omissione volontaria? Stavo
facendo un analogia, ci vuole molto a capire che mi riferivo a questo?
la frase in neretto è fondamentale; significa che si possono avere risultati meno accurati in caso di scelta inopportuna dell'algoritmo di riduzione della DFT, non che la FFT sia meno accurata o più instabile in assoluto (oddio, mi sembra di essere tornato all'università :D )
DevilsAdvocate
22-03-2006, 01:47
Che due scatole......
"In fixed point arithmetic, the finite precision errors accumulated by FFT algorthms
are worse"
Se ancora non va bene, cambiamo analogia:
La differenza che c'e' tra una reale conversione MPEG-4 via hardware e quella
offerta dall' AVIVO Converter.
Questa me la lasciate passare? E' sicuramente corretta in ogni accezione e non
ci sono casi nei quali il tipo di conversione effettuata dal Tool ATI possa essere
migliore della reale conversione eseguita in hardware che alcuni si aspettavano.
E se vi incavolate ancora di piu' son problemi vostri, io questa ve la volevo risparmiare,
ed ecco perche' ho tirato in ballo FFT, non "tanto per fare il fiko".
DevilsAdvocate
22-03-2006, 01:56
Ah, giusto per aggiungere qualche tipo di FFT approssimata che tutti usano
comunemente e che comporta l'errore di cui parlavo in senso piu' ampio:
"All of the FFT algorithms discussed so far compute the DFT exactly (in exact arithmetic, i.e. neglecting floating-point errors). A few "FFT" algorithms have been proposed, however, that compute the DFT approximately, with an error that can be made arbitrarily small at the expense of increased computations. Such algorithms trade the approximation error for increased speed or other properties. For example, an approximate FFT algorithm by Edelman et al. (1999) achieves lower communication requirements for parallel computing with the help of a fast-multipole method. A wavelet-based approximate FFT by Guo and Burrus (1996) takes sparse inputs/outputs (time/frequency localization) into account more efficiently than is possible with an exact FFT. Another algorithm for approximate computation of a subset of the DFT outputs is due to Shentov et al. (1995). Only the Edelman algorithm works equally well for sparse and non-sparse data, however, since it is based on the compressibility (rank deficiency) of the Fourier matrix itself rather than the compressibility (sparsity) of the data."
Il termine in neretto vi dice niente? no? beh lo state usando tutti, questo algoritmo.
(e la prossima volta prima di attaccare qualcuno su quello che dice, controllate come lo
dice ed assicuratevi di esservela studiata tutta la lezioncina, fino alla fine della pagina,
o viene fuori che l'algoritmo di cui parla e' cosi' comune che e' alla base di divx, mpeg4 e wma.....).
Chi e' che "voleva fare il fiko" adesso?
HDR fp blending (+AA) di ATI e' un HDR "falso" (simulato, precalcolato se volete)eseguito
con gli shader 2.0, come si puo' vedere anche da quello che dicono gli sviluppatori di
Oblivion nel post da me riportato qua sopra:
"What they’ve taken to calling “true” HDR apparently requires a SM 3.0 card to use, and though it’s unknown exactly what further effects it brings over the SM 2.0 variant, it also, according to recent comments by Orin Tresnjak, (Lancekt) it’s mutually exclusive to AA on all chipsets; this would apparently even include ATi’s X1k video cards as well as the Xbox 360. Further explanations have yet to be given, even though the Beyond3D Interview provides some puzzling information that apparently has far from cleared up the issue, given the more recent quote."
Ho presentato poche ore fa al GDC una patch per BW2 sulla quale ho lavorato di recente che aggiunge un code path di rendering che supporta HDR + MSAA. Il rendering avviene verso un render target in floating point a 16bit (quello che viene chiama "true" HDR) sul quale e' applicato multisampling antialiasing nelle GPU che lo supportano (tutta la serie X1X00). La patch gira con HDR ma MSAA disabiliato dove questo non fosse supportato. Le slide della presentazione dovrebbero essere disponibili sul sito del GDC alla sua conclusione. La patch verra' rilasciata ad Aprile.
In sintesi: HDR (vero) fp blending + MSAA e' supportato dalle GPU della famiglia R520 e R580 e dalla GPU dell'XBOX 360 ed e' a tutti gli effetti HDR rendering come da definizione.
leoneazzurro
22-03-2006, 08:00
Ragazzi... la FFT è più che ampiamente OT. Se volete continuare a beccarvi fatelo via PM, il prossimo che fa un post in questo senso viene sospeso.
Sono chiaro?
A questo punto conviene prendersi a 150 euro una scheda dedicata Ageia..
Costa meno ed essendo dedicata, ha performance decisamente migliori.. ;)
Cioé , c' é qualcuno che spenderebbe altri 500 euro per una scheda video da mettere in SLI per poi usarla per fare calcoli fisici ?
Una cosa é usare la potenza della scheda video nei momenti in cui non verrebbe utilizzata , un altra è sovraccaricarla durante i giochi , nel momento in cui sta già lavorando al massimo , ben vengano applicazioni che sfruttano la GPU per fare encoding video ( speriamo presto :sperem: ) , ma durante i giochi mi sa che la GPU ha ben altro da fare che occuparsi di cose che una schedina che costa un quarto del suo prezzo può fare meglio .
Ho presentato poche ore fa al GDC una patch per BW2 sulla quale ho lavorato di recente che aggiunge un code path di rendering che supporta HDR + MSAA. Il rendering avviene verso un render target in floating point a 16bit (quello che viene chiama "true" HDR) sul quale e' applicato multisampling antialiasing nelle GPU che lo supportano (tutta la serie X1X00). La patch gira con HDR ma MSAA disabiliato dove questo non fosse supportato. Le slide della presentazione dovrebbero essere disponibili sul sito del GDC alla sua conclusione. La patch verra' rilasciata ad Aprile.
In sintesi: HDR (vero) fp blending + MSAA e' supportato dalle GPU della famiglia R520 e R580 e dalla GPU dell'XBOX 360 ed e' a tutti gli effetti HDR rendering come da definizione.
Ok, tu hai fatto una patch che sfrutta la capacità di ATI di fare hdr+aa in fp16, e hai deciso di non sviluppare un path alternativo per nvidia.
In un'ottica puramente commerciale, non è che un' operazione di questo tipo "danneggia" troppo tutti i clienti con scheda video nvidia?
Non sarebbe nell'interesse della software house per cui lavori, dare la possibilità a tutti di poter usare hdr+aa (anche se con rese diverse) ?
senza polemica :)
Cioé , c' é qualcuno che spenderebbe altri 500 euro per una scheda video da mettere in SLI per poi usarla per fare calcoli fisici ?
Una cosa é usare la potenza della scheda video nei momenti in cui non verrebbe utilizzata , un altra è sovraccaricarla durante i giochi , nel momento in cui sta già lavorando al massimo , ben vengano applicazioni che sfruttano la GPU per fare encoding video ( speriamo presto :sperem: ) , ma durante i giochi mi sa che la GPU ha ben altro da fare che occuparsi di cose che una schedina che costa un quarto del suo prezzo può fare meglio .
C'è qualcosa che non torna nei tuoi numeri :D
Gli ultimi rumors su ageia parlano di un prezzo di vendita al pubblico di circa 250€. Anche se prendessimo come riferimento la 7900gtx che costa 500€ come dici giustamente, si parlerebbe della metà del prezzo non di un quarto.
Ma poi la gtx è il caso limite. Nessuno ti impedisce di farti uno sli di 7800gt o 7900gt, schede ultra convenienti, che si aggirano attorno ai 300€ di prezzo.
Topol4ccio
22-03-2006, 10:07
Scusate, ho visto che è già stato chiesto da qualcuno ma continuo a non capire perché venga snobbato dal mercato.
Perché non sfruttare il secondo core delle CPU dual core? Tanto i vg
sono tutti single tread, quindi immagino che lo sviluppo di una sw che
occupi il secondo core per l'elaborazione della fisica non vada a
impattare negativamente sulle prestazioni.
Diversamente, andare a occupare parte della GPU per il calcolo della
fisica temo che vada a incidere sul framerate. Perché francamente non
penso che con giochi come Oblivion, Crysis e compagnia bella le GPU abbiano tutto questo "tempo libero" a disposizione per mettersi a fare i "compiti di fisica"... :)
Scusate, ho visto che è già stato chiesto da qualcuno ma continuo a non capire perché venga snobbato dal mercato.
Perché non sfruttare il secondo core delle CPU dual core? Tanto i vg
sono tutti single tread, quindi immagino che lo sviluppo di una sw che
occupi il secondo core per l'elaborazione della fisica non vada a
impattare negativamente sulle prestazioni.
Diversamente, andare a occupare parte della GPU per il calcolo della
fisica temo che vada a incidere sul framerate. Perché francamente non
penso che con giochi come Oblivion, Crysis e compagnia bella le GPU abbiano tutto questo "tempo libero" a disposizione per mettersi a fare i "compiti di fisica"... :)
Infatti è per questo che si parla di configurazione sli, ed è per questo che nvidia in questo senso è molto più avanti.
Probabilmente il core in più nelle cpu dual core non è sufficentemente potente per gestire una fisica così complessa. In fondo se pensiamo a cosa (pochissimo) si riesce a fare con un core singolo, prevedo poco vantaggio da un'operazione del genere.
Non vorrei dire fregnate, ma quando si parlava di ageia avevo letto la differenza tra le console di ultima generazione e i pc di adesso in ambito "fisica". Se non sbaglio, leggevo che i pc di adesso riescono a muovere al massimo 600 corpi ( o poligoni? scusate non ricordo benissimo) contemporaneamente mentre le console di ultima generazione ne muovono attorno ai 20.000.
Se queste voci fossero confermate, non sarebbe difficile capire che c'è qualcosa nella gestione della fisica via cpu che non va. Forse le vga sono più adatte a fare questo lavoro, boh
C'è qualcosa che non torna nei tuoi numeri :D
Gli ultimi rumors su ageia parlano di un prezzo di vendita al pubblico di circa 250€.
Vedremo , di sicuro costa meno di una 7900GTX e farà meglio il lavoro :O
Anche se prendessimo come riferimento la 7900gtx che costa 500€ come dici giustamente, si parlerebbe della metà del prezzo non di un quarto.
Ma poi la gtx è il caso limite. Nessuno ti impedisce di farti uno sli di 7800gt o 7900gt, schede ultra convenienti, che si aggirano attorno ai 300€ di prezzo.
E con questo tipo di scheda che prestazioni hai ?
Ovviamente saranno ridotte , è una coperta corta o usi la potenza per visualizzare qualcosa sullo schermo o la usi per fare calcoli fisici , con la differenza che per fare questi ultimi usi una scheda costosa e non progettata per farlo .
L' unico uso sensato é quello di usare la potenza elaborativa in eccesso per fare calcoli fisici , ma quando hai potenza in eccesso ?
Non certo quando stai facendo girare un gioco pesante con una scheda di fascia media , ma neanche una configurazione SLI con due schede da 300 euro , a meno di voler giocare a 1024x768 senza AA , l' unica situazione CPU-limited é quando cominci ad avere configurazioni con schede da 500 euro .
Vedremo , di sicuro costa meno di una 7900GTX e farà meglio il lavoro :O
E con questo tipo di scheda che prestazioni hai ?
Ovviamente saranno ridotte , è una coperta corta o usi la potenza per visualizzare qualcosa sullo schermo o la usi per fare calcoli fisici , con la differenza che per fare questi ultimi usi una scheda costosa e non progettata per farlo .
L' unico uso sensato é quello di usare la potenza elaborativa in eccesso per fare calcoli fisici , ma quando hai potenza in eccesso ?
Non certo quando stai facendo girare un gioco pesante con una scheda di fascia media , ma neanche una configurazione SLI con due schede da 300 euro , a meno di voler giocare a 1024x768 senza AA , l' unica situazione CPU-limited é quando cominci ad avere configurazioni con schede da 500 euro .
Scusa ma dove sta scritto che bisogna giocare a 1600x1200 aa/af/hdr/ ?
Io faccio un discorso molto logico. Se prima lo sli era una cosa per chi non aveva problemi di soldi e di bolletta, ora c'è un motivo in più per comprarlo. Certo si tratta sempre di un sistema di nicchia, ma forse è proprio questa la strada giusta per renderlo più appettibile a tutti.
Ok, tu hai fatto una patch che sfrutta la capacità di ATI di fare hdr+aa in fp16, e hai deciso di non sviluppare un path alternativo per nvidia.
In un'ottica puramente commerciale, non è che un' operazione di questo tipo "danneggia" troppo tutti i clienti con scheda video nvidia?
Non sarebbe nell'interesse della software house per cui lavori, dare la possibilità a tutti di poter usare hdr+aa (anche se con rese diverse) ?
senza polemica :)
Credo la questione sia da rigirare a nvidia: perché non ha dato la possibilità tecnica di fare hdr+aa nelle sue schede?
da quanto ho capito, é proprio impossibile da fare. non é questione di path e di migliore/peggiore
leoneazzurro
22-03-2006, 11:20
Ok, tu hai fatto una patch che sfrutta la capacità di ATI di fare hdr+aa in fp16, e hai deciso di non sviluppare un path alternativo per nvidia.
In un'ottica puramente commerciale, non è che un' operazione di questo tipo "danneggia" troppo tutti i clienti con scheda video nvidia?
Non sarebbe nell'interesse della software house per cui lavori, dare la possibilità a tutti di poter usare hdr+aa (anche se con rese diverse) ?
senza polemica :)
Se uno sceglie di fare HDR FP 16, perchè lo ritiene migliore/più semplice da programmare non è che può anche inventarsi un modo per attivare l'AA su schede nvidia, dato che queste non supportano le due modalità in congiunzione.
yossarian
22-03-2006, 13:09
Ok, tu hai fatto una patch che sfrutta la capacità di ATI di fare hdr+aa in fp16, e hai deciso di non sviluppare un path alternativo per nvidia.
In un'ottica puramente commerciale, non è che un' operazione di questo tipo "danneggia" troppo tutti i clienti con scheda video nvidia?
Non sarebbe nell'interesse della software house per cui lavori, dare la possibilità a tutti di poter usare hdr+aa (anche se con rese diverse) ?
senza polemica :)
perchè per farla avrebbe dovuto modificare tutti gli shader facendo fare tone mapping subito dopo le operazioni di pixel shading e facendo fare blending a i8 all'interno delle rop's.
La scelta di implementare l'OpenEXR come tipo di hdr è stata dettata dal fatto che è semplice da realizzare in HW e dà buoni risultati; il fatto che sui chip NV no si riesca ad utilizzare insieme al MSAA è dovuto ad un limite architetturale di tali chip che obbligherebbe ogni volta i programmatori a fare gli straordinari per rendere HDR e MSAA fruibili contemporaneamente anche sui chip NV (cosa non logica, perchè OpenEXR è il tipo di algoritmo adoperato anche da NV)
per quanto riguarda la trasformata di fourier, la trasformata discreta e gli algoritmi di trasformazione "veloce", consiglio un buon libro di elaborazione numerica dei segnali (piuttosto che le stringate definizioni di wikipedia) e faccio presente che l'utilizzo di approssimazioni, con algoritmi di minimizzazione dell'errore, è tutt'altro che una novità per quanto riguarda le elaborazioni reali svolte all'interno di un chip o anche di un'apparecchiatura diagnostica (vedi TAC che fa uso di FFT): la teoria è tutt'altra cosa :D. E con questo chiudo l'OT
Scusa ma dove sta scritto che bisogna giocare a 1600x1200 aa/af/hdr/ ?
Scusa , ma tu compri due schede grafiche per giocare a 1024x768 ? :stordita:
Io faccio un discorso molto logico. Se prima lo sli era una cosa per chi non aveva problemi di soldi e di bolletta, ora c'è un motivo in più per comprarlo. Certo si tratta sempre di un sistema di nicchia, ma forse è proprio questa la strada giusta per renderlo più appettibile a tutti.
Scusami , ma il confronto non regge , se anche costasse 250 euro la scheda AGEIA , sarebbe comunque sempre meno di una scheda video , mettiamoci anche altri 50 euro per una mobo compatibile e aggiungiamoci le problematiche di una configurazione SLI , che senso ha ?
Se fai uno SLI con due 6600GT probabilmente non hai neppure la potenza sufficente per gestire la fisica .
E pensare che io gioco a BF2 con una 9600 pro e un xp 2600 con soli 512 mb di ram... :asd: certo a 800x600 e dettagli al minimo, però ci gioco...
Dove andremo a finire??
Ok, tu hai fatto una patch che sfrutta la capacità di ATI di fare hdr+aa in fp16, e hai deciso di non sviluppare un path alternativo per nvidia.
In un'ottica puramente commerciale, non è che un' operazione di questo tipo "danneggia" troppo tutti i clienti con scheda video nvidia?
Non sarebbe nell'interesse della software house per cui lavori, dare la possibilità a tutti di poter usare hdr+aa (anche se con rese diverse) ?
senza polemica :)
La patch HDR funziona sia sotto ATI sia sotto NVIDIA. Sotto NVIDIA l'MSAA e' disabilitato perche' non supportato. Ho implementato anche un'altra versione di HDR "alla" HL2, ma la resa visiva non era quella che desideravo, l'effetto finale differiva decisamente da cio' di cui avevo bisogno, quindi non la rilascio.
perchè per farla avrebbe dovuto modificare tutti gli shader facendo fare tone mapping subito dopo le operazioni di pixel shading e facendo fare blending a i8 all'interno delle rop's.
Esatto. Questo e' l'altro motivo. L'impatto di tali modifiche sul code base e' stato troppo ampio e avevo le risorse per poter testare propriamente questa versione. Unito al fatto che l'effetto non era cio' che volevo mi ha portato alla decisione di non rilasciare questa implementazione.
x yossarian...
La TAC, al pari della PET e della SPECT, usano la trasformata di Radon (inversa). La FFT la usa la risonanza magnetica (che nelle prime implementazioni era fatta anch'essa con la backprojection, ma poi hanno inventato la codifica in frequenza e fase...)...
x fek...
Ben tornato! Spero che non sia solo una toccata e fuga! :)
yossarian
22-03-2006, 15:36
x yossarian...
La TAC, al pari della PET e della SPECT, usano la trasformata di Radon (inversa). La FFT la usa la risonanza magnetica (che nelle prime implementazioni era fatta anch'essa con la backprojection, ma poi hanno inventato la codifica in frequenza e fase...)...
x fek...
Ben tornato! Spero che non sia solo una toccata e fuga! :)
hai ragione
La patch HDR funziona sia sotto ATI sia sotto NVIDIA. Sotto NVIDIA l'MSAA e' disabilitato perche' non supportato. Ho implementato anche un'altra versione di HDR "alla" HL2, ma la resa visiva non era quella che desideravo, l'effetto finale differiva decisamente da cio' di cui avevo bisogno, quindi non la rilascio.
Ragazzi ma è vero che nvidia non supporta MSAA quando si abilita l'HDR :sofico: ?
Scherzo, però questo concetto mi è chiarissimo da mo :)
In base a quanto detto sia da te che da yoss, ti faccio una domanda indiscreta, sei libero di rnon rispondermi :fagiano:
Se nvidia avesse contattato la tua software house (magari già l'ha fatto boh) e avesse finanziato l'implementazione dell'hdr alla hl2, si sarebbe riusciti a renderlo "meglio" di come sei riuscito a fare con il poco tempo (=denaro) che hai avuto a disposizione?
Oppure il carico di lavoro per implementare hdr alla hl2 non da nessuna possibilità di miglioramento tecnico, perchè è limitato dal processo usato per renderlo a video?
Secondo te è plausibile un intervento di nvidia in tutti i progetti twimtbp in maniera da spingere in quella direzione?
^TiGeRShArK^
22-03-2006, 17:44
EDIT
leoneazzurro
22-03-2006, 17:50
EDIT 2
yossarian
22-03-2006, 18:23
Ragazzi ma è vero che nvidia non supporta MSAA quando si abilita l'HDR :sofico: ?
no :sofico:
In base a quanto detto sia da te che da yoss, ti faccio una domanda indiscreta, sei libero di rnon rispondermi :fagiano:
Se nvidia avesse contattato la tua software house (magari già l'ha fatto boh) e avesse finanziato l'implementazione dell'hdr alla hl2, si sarebbe riusciti a renderlo "meglio" di come sei riuscito a fare con il poco tempo (=denaro) che hai avuto a disposizione?
Oppure il carico di lavoro per implementare hdr alla hl2 non da nessuna possibilità di miglioramento tecnico, perchè è limitato dal processo usato per renderlo a video?
Secondo te è plausibile un intervento di nvidia in tutti i progetti twimtbp in maniera da spingere in quella direzione?
al di là della qualità che, con un'implementazione tipo quella di lost coast, è per forza di cose inferiore, tempo fa, durante uno scambio di pvt, fek mi parlò del tentativo che stava facendo di implementare un hdr sul tipo di quello di lost coast, su B&W2, in modo che fosse fruibile anche con chip NV; in quell'occasione, mi ricordo che mi disse che i risultati erano tutt'altro che soddisfacenti e decisamente al di sotto delle attese. In quell'occasione mi chiese anche cosa ne pensavo, ma né allora né adesso, mi viene in mente una spiegazione al perchè di risultati qualitativamente non buoni, che sia diversa dalla qualità intrinsecamente inferiore del tipo di algoritmo utilizzato (la procedura di fare tone mapping dopo le operazioni di shading è corretta e permette di fare hdr+msaa insieme però non sfrutta la capacità delle rop's di fare blending a fp16)
Ginger79
22-03-2006, 18:30
ok; limitiamoci al passaggio da sm2.0 a sm3.0.
nVIDIA veniva da NV3x, ossia una famiglia di chip che non è possibile, con quanta buona volontà si voglia, definire sm2.0; questo non perchè non ne avessero alcune caratteristiche, ma perchè avevano troppi limiti architetturali per poter permetter l'utilizzo delle dx9. Premetto che le specifiche sm3.0 erano note sin da prima dell'uscita di R300, però né ATi, né nVIDIA avevano pensato di elaborare direttamente un'architettura dx9c, ma si erano limitate al supporto allo sm2.0 (per nVIDIA addirittura insufficiente). Conclusione, dopo NV3x nVIDIA aveva da progettare una nuova architettura, mentre ATi ne aveva una ancora valida per tirare avanti fino all'introduzione reale dello sm3.0; nel frattempo poteva concentrarsi su una nuova architettura che andasse bene anche per lo sm3.0 (quella di R300 non si adatta alla gestione dinamica del flusso di dati). Tra l'altro, sarei curioso di sapere quante feature sm3.0 sono, allo stato attuale, realmente utilizzate (hdr non c'entra nulla, il db non è usato e con i chip NV porterebbe vantaggi reali solo a livello di vs a causa della granularità non troppo fine delle batch utilizzate, il geometry instancing è attivabile anche con R3x0 e R4x0, il vertex texturing mi risulta sia stato utilizzato solo in un titolo e, comunque, si può fare in più modi).
Detto questo, è normale che, nel momento in cui NV ha dovuto progettare un nuovo chip, lo ha fatto direttamente sm3.0 (non avrebbe avuto senso farne un altro sm2.0 per poi doverne progettare un terzo per lo sm3.0). Al contrario, ATi ha utilizzato l'architettura di R3x0, restando ancorata allo sm2.0 e, nel frattempo ha lavorato su R5x0 e R6x0.
Quindi, il passaggio ritardato allo sm2.0 non è stato dettato dall'incapacità di introdurre le relative feature, ma da un semplice discorso di opportunità (lo stesso che ha fatto si che G71 fosse solo uno shrìnk di G70, poichè non aveva alcun senso un nuovo progetto ancora sm3.0).
Ovvio che nel passaggio da sm2.0 a 3.0, per le scelte fatte, ATi si è ritrovata indietro dal punto di vista tecnologico, come, per le stesse scelte operate, adesso è nVIDIA ad essere indietro, perchè ha un'architettura vecchia di 2 anni.
le cose vanno introdotte quando servono, ovvero quando se ne sente la necessità. La diffusione dello SLI è tutt'altro che capillare, anche perchè i costi sono piuttosto alti e solo in alcuni casi può esserne giustificata l'adozione. La rage fury maxx serviva a contrastare un chip (NV10) che era più veloce di qualunque altro singolo chip grafico presente sul mercato. Quindi era un'ammissione implicita di inferiorità tecnologica. Oggi, in alcuni casi, lo sli o il cf possono anche avere una loro giustificazione (e in tempi non sospetti, ero stato proprio io a dire che l'evoluzione avrebbe inevitabilmente portato verso soluzioni multi gpu se non si cambiavano le arhchitetture dei chip), però, nella stragrande maggioranza dei casi, una vga a singola gpu, soprattutto se di fascia alta, è ancora la soluzione migliore come compromesso prezzo prestazioni (anche tenendo conto del fatto che uno sli o un cf, dal punto di vista tecnologico non agigungono alcuna novità ma solo un 55-60% circa di potenza di calcolo in più che può aumentare nelle situazioni bandwidth limited, sempre a patto di adoperare la ripartizione dei carichi più idonea per quel tipo di applicazione).
Detto questo, puntare sullo sli, per avere le prestazioni, esattamente come 7 anni fa, è un'ammissione di inferiorità tecnologica. Senza tener conto che, ad esempio, uno sli di 7600 non ha molto senso visto che una 7900 da sola va meglio e costa meno.
Rieccomi. Sono d'accordo su tutto quello che hai detto e non vedo come io possa affermare il contrario.. il discorso precedente comunque era un'altro e queste sono delle aggiunte chiarificatorie, lecite e ben accette, ma sempre e solo delle aggiunte a quello che ho affermato prima.
Forse non mi trovi molto d'accordo sulla diffusione dell'SLI ma non avendo dati alla mano non me la sento di inoltrarmi ulteriormente nel merito xchè finirei per affermare cose campate per aria.
Tuttavia una precisazione su una tua affermazione è d'obbligo: Quando dici di preferire la soluzione a singola scheda, in quanto da te considerata la migliore per rapporto prezzo/prestazioni, non mi trovi pienamente d'accordo visto che, a mio avviso, la soluzione migliore in questo momento sarebbe una scheda DUAL GPU (in SLI) composta da due 7900GT la quale sarebbe prestazionalmente mostruosa e avrebbe un prezzo allineato alle soluzioni High end attuali. Se consideri il prezzo di una 7900GT (300€ circa), la soluzione, da me ipotizzata, verrebbe a costare non + di 550€ (come 2 schede meno 50€ dato che i PCB utilizzati non sono 2 ma solo 1).
Questa sarebbe la migliore soluzione in quanto a rapporto prezzo/prestazioni.
Che ne pensi?
(poi chiudiamo xchè stiamo andando eccessivamente OT)
Punto 1) PS 3.0 (a partire dalle GeForce 6) ---> Concorrenza PS 2.0
Ma visto che le schede Nvidia sono SM3, come si comportano in presenza di Dynamic Branching (che è ciò che veramente fa la differenza tra SM3 e SM2)?
yossarian
22-03-2006, 19:01
Rieccomi. Sono d'accordo su tutto quello che hai detto e non vedo come io possa affermare il contrario.. il discorso precedente comunque era un'altro e queste sono delle aggiunte chiarificatorie, lecite e ben accette, ma sempre e solo delle aggiunte a quello che ho affermato prima.
Forse non mi trovi molto d'accordo sulla diffusione dell'SLI ma non avendo dati alla mano non me la sento di inoltrarmi ulteriormente nel merito xchè finirei per affermare cose campate per aria.
Tuttavia una precisazione su una tua affermazione è d'obbligo: Quando dici di preferire la soluzione a singola scheda, in quanto da te considerata la migliore per rapporto prezzo/prestazioni, non mi trovi pienamente d'accordo visto che, a mio avviso, la soluzione migliore in questo momento sarebbe una scheda DUAL GPU (in SLI) composta da due 7900GT la quale sarebbe prestazionalmente mostruosa e avrebbe un prezzo allineato alle soluzioni High end attuali. Se consideri il prezzo di una 7900GT (300€ circa), la soluzione, da me ipotizzata, verrebbe a costare non + di 550€ (come 2 schede meno 50€ dato che i PCB utilizzati non sono 2 ma solo 1).
Questa sarebbe la migliore soluzione in quanto a rapporto prezzo/prestazioni.
Che ne pensi?
(poi chiudiamo xchè stiamo andando eccessivamente OT)
quello che ho scritto serve solo a chiarire il motivo per cui ATi ha aspettato a introdurre lo sm3.0 e perchè NV non ha introdotto modifiche all'architettura del G70 nel passaggio a 0,09; ciò e avvenuto non certo per incapacità o impossiiblità da parte delle due aziende, ma per un mero calcolo economico: ogni chip prodotto deve essre il più possibile longevo e upgradabile, poichè non ha senso progettare due o più architetture rispondenti alle stesse caratteristiche definite da un determinato shader model. Quindi si tira avanti con un'architettura, se questa si rivela vincente, fino a che non c'è la necessità di cambiare architettura per evidenti limiti fisici (R3x0 non si adattava allo sm3.0) o finchè la stessa non è arrivata al termine del suo ciclo vitale (NV4x/G7x su cui ogni tentativo di effettuare ulteriori upgrade avrebbe squilibrato il chip, creando più svantaggi che vantaggi).
Per la 7900 GT dual, vedremo quanto effettivamente costerà e come si comporterà una volta uscita. Tenendo conto del fatto che il rendimento di due vga è ben lontano dal raddoppio delle prestazioni di una vga singola però e del fatto che si assisterà, a breve, ad un riassestamento verso il basso dei prezzi delle attuali vga
Sfatiamo il mito dell'elaborazione della fisica tramite la GPU
Nvidia SLI physics is a fat pipe dream (http://theinquirer.net/?article=30434)
Certo che The Inquirer io non lo considererei proprio uno sfatatore... :rotfl: Parole, parole, parole. Mai un test con dei fatti che siano fatti.
La patch HDR funziona sia sotto ATI sia sotto NVIDIA. Sotto NVIDIA l'MSAA e' disabilitato perche' non supportato. Ho implementato anche un'altra versione di HDR "alla" HL2, ma la resa visiva non era quella che desideravo, l'effetto finale differiva decisamente da cio' di cui avevo bisogno, quindi non la rilascio.
Scusami Fran ma non ho capito se questa patch sarà ufficiale Lionhead o è un tuo lavoro "non ufficiale" che verrà rilasciato a titolo di "supporto esterno". :confused:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.