View Full Version : Shader unificati per la prossima GPU ATI
Redazione di Hardware Upg
24-02-2006, 16:18
Link alla notizia: http://www.hwupgrade.it/news/skvideo/16531.html
Alcune anticipazioni sulla prossima generazione di chip video ATI, per API DirectX 10 di Microsoft
Click sul link per visualizzare la notizia.
gianni1879
24-02-2006, 16:36
quindi come era prevedibile Ati si sta muovendo in questa direzione! Vedremo se sarà una mossa vincente!
Certo che Ati dalla collaborazione con Microsoft sta traendo notevoli vantaggi...chissa se riuscirà anche a tradurli in ottime schede....
halfluke
24-02-2006, 16:46
VAI ATI, spacca Nvidia, affondala per sempre!!
Con gli shader unificati sarai avanti anni luce e potrai + facilmente raggiungere il gigahertz di frequenza sul core!!
E il tuo CROSSFIRE fara' cosi' mangiare la polvere a quela ciofeca dello SLI.
Le DX10 non dovrebbero nemmeno istallarsi se una gpu non ha gli shader unificati!
Nvidia devi bruciare all'inferno del fallimentooooooooo!
Athlon 64 3000+
24-02-2006, 16:49
VAI ATI, spacca Nvidia, affondala per sempre!!
Con gli shader unificati sarai avanti anni luce e potrai + facilmente raggiungere il gigahertz di frequenza sul core!!
E il tuo CROSSFIRE fara' cosi' mangiare la polvere a quela ciofeca dello SLI.
Le DX10 non dovrebbero nemmeno istallarsi se una gpu non ha gli shader unificati!
Nvidia devi bruciare all'inferno del fallimentooooooooo!
Bel commento da perfetto Idiota FanBoy :rolleyes: .
Alla prossima ti segnalo ad un moderatore.
Ma adesso ai ragazzini danno anche le tastiere oltre ai pantentini e le macchine 50cc?
TheDarkAngel
24-02-2006, 16:49
dio mio ma accendere il cervello di tanto in tanto fa schifo?
halfluke
24-02-2006, 16:52
In realta' volevo provare come ci si sente quando si scrivono certe minchiate... :D
Ammazza che rabbia repressa, ci siete cascati subito :sofico:
Non era veramente TROPPO esagerata per essere vera? ;)
VAI ATI, spacca Nvidia, affondala per sempre!!
Con gli shader unificati sarai avanti anni luce e potrai + facilmente raggiungere il gigahertz di frequenza sul core!!
E il tuo CROSSFIRE fara' cosi' mangiare la polvere a quela ciofeca dello SLI.
Le DX10 non dovrebbero nemmeno istallarsi se una gpu non ha gli shader unificati!
Nvidia devi bruciare all'inferno del fallimentooooooooo!
:rotfl: :rotfl: :rotfl:
Ecco quali sono le persone che fanno crescere questo forum :doh:
ripper71
24-02-2006, 16:55
halfluke, metti qualche faccina che ride, quando fai questi commenti ironici....
Mammamia come siamo messi...... io ho una forte simpatia per ATI ma non so come ho una scheda nvidia.....
Io apprezzo sempre vedere nuove soluzioni introdotto cher siano di Ati o Nvidia, mi fa sempre piacere leggere articoli sul argomento....indistintamente....mhà che sarò strani io?
PESCEDIMARZO
24-02-2006, 16:59
Aspetto un commento tecnico da uno dei DUE (F oY).
Sono argomenti interessanti ma fuori dalla mia portata.
Per halfluke.
Commento altamente utile e intelligente il tuo.
Complimenti.
Ciao
VAI ATI, spacca Nvidia, affondala per sempre!!
Con gli shader unificati sarai avanti anni luce e potrai + facilmente raggiungere il gigahertz di frequenza sul core!!
E il tuo CROSSFIRE fara' cosi' mangiare la polvere a quela ciofeca dello SLI.
Le DX10 non dovrebbero nemmeno istallarsi se una gpu non ha gli shader unificati!
Nvidia devi bruciare all'inferno del fallimentooooooooo!
ma complimenti !!!! che bel segno di maturità che ci hai offerto.
In realta' volevo provare come ci si sente quando si scrivono certe minchiate... :D
E ci sei riuscito bene ad interpretare la parte, comunque prima di postare /etc/init.d/brain start fa bene :Prrr:
OT a parte, io pur essendo un NVidia user, nonché leggero simpatizzante, condivido la strada intrapresa da ATi, non solo nell'unificazione degli shader, ma anche per quanto riguarda l'architettura che sembra permettere un utilizzo dei filtri superiore, nel senso che le VGA di casa ATi (dell'ultima serie) patiscono meno l'uso dei filtri.
Che ridere il commento di halfluke :D :D :D
Io l'ho capito subito che era ironico!
E ci sei riuscito bene ad interpretare la parte, comunque prima di postare /etc/init.d/brain start fa bene :Prrr:
OT a parte, io pur essendo un NVidia user, nonché leggero simpatizzante, condivido la strada intrapresa da ATi, non solo nell'unificazione degli shader, ma anche per quanto riguarda l'architettura che sembra permettere un utilizzo dei filtri superiore, nel senso che le VGA di casa ATi (dell'ultima serie) patiscono meno l'uso dei filtri.
il fatto è che se Ati collaborando con Microsoft segue quella strada è possibile che sia quella giusta e non vorrei che Nvidia ne segua un'altra solo perchè è differente da quella imboccata da Ati.
Che ridere il commento di halfluke :D :D :D
Io l'ho capito subito che era ironico!
io no... infatti gli ho postato di conseguenza, ma se il suo era un finto intervento mi ravvedo.
Athlon 64 3000+
24-02-2006, 17:21
In realta' volevo provare come ci si sente quando si scrivono certe minchiate... :D
Ammazza che rabbia repressa, ci siete cascati subito :sofico:
Non era veramente TROPPO esagerata per essere vera? ;)
non posso negarlo,ci sono cascato in pieno,era troppo convincente. :D
Che ridere il commento di halfluke :D :D :D
quoto, dai, il vero fanboy pseudo-argomenta ed è più "subdolo", non così esplicito... ad averli fanboy così =)
avvelenato
24-02-2006, 17:27
vantaggi e svantaggi delle architetture unificate rispetto a quelle distinte.
Chi le sa sintetizzare in maniera comprensibile avrà la mia gratitudine (ma non altro! :P )
AndreaG.
24-02-2006, 17:36
Mammamia ragazzi siete incazzerecci :D
cmq, era da un pò che si sapeva sta notizia, giusto? va beh che ora c'è una ufficializzazione della cosa... ma certo non stupisce chi segue il settore. La cosa che mi lasia dubbioso è che nvidia non ha seguito questra strada.... se fosse tanto importante quanto si legge in giro per la rete... non dovrebbe anche nvidia seguire le orme di ati?
Ho letto da qualke parte che avere shader unificati significa avere picchi di prestazioni quando i frame sono MOLTI e cali quando sono pochi... nn so quanto convenga avere shader unificati...
Cmq se nn l'avete capito io sono un simpatizzante nVidia, MOOOOLTO simpatizzante, ma nn per questo dico cose assurde sul conto di ATi o peggio la scherno, come ha fatto halfluke... a me nn sembrava uno scherzo. Sembrava anzi che dopo aver detto quella caxxata si sia reso conto della gravità della cosa e si è parato le kiappe dicendo ke era uno skerzo...
Mammamia ragazzi siete incazzerecci :D
cmq, era da un pò che si sapeva sta notizia, giusto? va beh che ora c'è una ufficializzazione della cosa... ma certo non stupisce chi segue il settore. La cosa che mi lasia dubbioso è che nvidia non ha seguito questra strada.... se fosse tanto importante quanto si legge in giro per la rete... non dovrebbe anche nvidia seguire le orme di ati?
appunto, non vorrei che non la seguisse per "partito preso", ovvero far diverso da Ati.
JohnPetrucci
24-02-2006, 17:53
Certo che Ati dalla collaborazione con Microsoft sta traendo notevoli vantaggi...chissa se riuscirà anche a tradurli in ottime schede....
Credo che Ati produca già oggi ottime schede, come anche Nvidia, penso che la direzione scelta da Ati sia quella giusta, ma non credo che Nvidia ne sarà penalizzata in modo evidente.
Cmq anche Nvidia dopo il G80 dovrebbe intraprendere una scelta simile.
L'unico vantaggio delle architetture a shader separati è che puoi riciclare un vecchio progetto e non stravolgerlo troppo.
Poi quella a shader unificati (sopratutto considerando come saranno le DX 10) ha solo vantaggi: a parità di numero di unità, per la teoria delle code, vai più veloce con coda unica, che separata.
Ginger79
24-02-2006, 17:58
Ma vi rendete conto delle considerazioni che state facendo!?!?
Pensate davvero che un'azienda leader mondiale della grafica 3D con un volume d'affari enorme quale è Nvidia ragioni come state ragionando voi?!?!
Io credo che Nvidia abbia sempre dimostrato di essere coerente nel tempo riguardo lo sviluppo delle proprie architetture video e di non stare a guardare quello che fanno gli altri per poi dirottarsi nella direzione opposta (sarebbe un ragionamento troppo puerile). Quello che sta facendo oggi è semplicemente una continuazione di un sistema di progettazione delle GPU affermato e solido che non dimostra per nulla segni di cedimento nè, a mio avviso, necessita di essere rivoluzionato.
Microsoft è stata chiara... le strade che si possono intraprendere per il supporto delle DX10 sono molteplici e ognuno può scegliere quella che + si adatta alle proprie esigenze.
Consiglio: Prima di dire che Nvidia sarà + scarsa di Ati nel supporto dei filtri aspetterei almeno fino all'uscita di G71 (2 settimane) ... da li in poi potremo avere un quadro + chiaro e trarre le dovute conclusioni.
halfluke
24-02-2006, 17:58
Il fatto è che seguo sempre il sito e amo leggere il forum, lo seguo un pò dall'esterno e mi diverto a leggere le battute argute così come mi interessano i commenti seri di chi ne sa veramente parecchio.
Non avendo conoscenze al livello di Vifani, di solito sto zitto.
Da più di un anno mi sono "ritirato" dal modo dell'overclock per problemi... economici, ma resto un appassionato teorico.
Ora viaggio con un portatile usato comprato su e-bay e con grafica integrata.
I miei smanettamenti risalgono alla fase in cui Nvidia aveva floppato con la 5800, per cui smanettavo su ati 9800 ;)
Però oggi avevo proprio voglia di scrivere qualcosa, e ho detto: facciamo parlare per mezz'ora di me. :p
Per quanto riguarda l'aspetto tecnico, sfido chiunque a prevedere quale architettura avrà più successo... per questo in fondo penso che in genere ci siano davvero TROPPI commenti. Perché un forum è fatto per commentare, ma il silenzio spesso è d'oro..
diabolik1981
24-02-2006, 18:00
Certo che Ati dalla collaborazione con Microsoft sta traendo notevoli vantaggi...chissa se riuscirà anche a tradurli in ottime schede....
Si, aggiungi anche che le DX10 rendono più semplice la programmazione e il porting dei giochi tra PC e x360, quindi vedo una bella mossa strategica da parte di ATI. Complimenti.
Dumah Brazorf
24-02-2006, 18:01
Per la prossima lamerata consiglio anche l'uso delle k al posto delle ch, mi fanno veramente andare in bestia quelle. ;)
Per il resto è una news vecchia di secoli.
Ciao.
diabolik1981
24-02-2006, 18:01
Aspetto un commento tecnico da uno dei DUE (F oY).
Sono argomenti interessanti ma fuori dalla mia portata.
F mi sa che non lo vedremo qui sul forum, e me ne dispiace, Y invece ultimamente è meno presente ma c'è.
ThePunisher
24-02-2006, 18:05
Ma Xeons o Xenon?
Dark Schneider
24-02-2006, 18:07
Osservo il futuro R620 con molta curiosità ed attenzione. Diciamo anche che mi ispira più la soluzione Ati. Ma non tanto per una questione di approccio per il supporto DX10. Tra l'altro tutto sarà da dimostrare quando questi due chip saranno realtà. Dire quale sarà la migliore soluzione lo sapremo solo più avanti.
Il fatto è che Ati proprio per via del chip R500 già ha progettato una vga simile a quella che immetterà nell'autunno prossimo su PC. Ha quindi già una certa esperienza e non è cosa da poco. Io dico che sta un po' avanti a nVidia in questo ambito.
andreamarra
24-02-2006, 18:55
Osservo il futuro R620 con molta curiosità ed attenzione. Diciamo anche che mi ispira più la soluzione Ati. Ma non tanto per una questione di approccio per il supporto DX10. Tra l'altro tutto sarà da dimostrare quando questi due chip saranno realtà. Dire quale sarà la migliore soluzione lo sapremo solo più avanti.
Il fatto è che Ati proprio per via del chip R500 già ha progettato una vga simile a quella che immetterà nell'autunno prossimo su PC. Ha quindi già una certa esperienza e non è cosa da poco. Io dico che sta un po' avanti a nVidia in questo ambito.
.
kosimiro
24-02-2006, 19:03
Ma vi rendete conto delle considerazioni che state facendo!?!?
Pensate davvero che un'azienda leader mondiale della grafica 3D con un volume d'affari enorme quale è Nvidia ragioni come state ragionando voi?!?!
Io credo che Nvidia abbia sempre dimostrato di essere coerente nel tempo riguardo lo sviluppo delle proprie architetture video e di non stare a guardare quello che fanno gli altri per poi dirottarsi nella direzione opposta (sarebbe un ragionamento troppo puerile). Quello che sta facendo oggi è semplicemente una continuazione di un sistema di progettazione delle GPU affermato e solido che non dimostra per nulla segni di cedimento nè, a mio avviso, necessita di essere rivoluzionato.
Microsoft è stata chiara... le strade che si possono intraprendere per il supporto delle DX10 sono molteplici e ognuno può scegliere quella che + si adatta alle proprie esigenze.
Consiglio: Prima di dire che Nvidia sarà + scarsa di Ati nel supporto dei filtri aspetterei almeno fino all'uscita di G71 (2 settimane) ... da li in poi potremo avere un quadro + chiaro e trarre le dovute conclusioni.
il G71 non c'entra assolutamente nulla con l'oggetto della news....
probabilmente sarà alla pari del top di Ati di adesso...
qui si fa riferimento al fatto che Ati avrà anzi..ha più esperienza nel
progettare schede video con shader unficati e che la sua "alleanza"
con microsoft possa portare ulteriori benifici.. ;)
nonikname
24-02-2006, 19:06
Il problema degli shader unificati è che , con tale architettura , bisogna calibrare attentamente il carico di lavoro delle pipeline via Hw e soprattutto via software...
Quindi è una cosa che deve essere studiata attentamente dai programmatori e messa a punto da Microsoft e relativo SDK .. (per non parlare dei driver)
Tanto per fare un esempio , tutti i giochi usciti per X360 hanno un comune denominatore : calcoli sui pixel fatti da XENOS , mentre quelli sui vertici vengono eseguiti da un core del PowerPC via VMX...Notare bene che per adesso gli sviluppatori non hanno la possibilità di far eseguire i calcoli geometrici da Xenos , perchè è il compilatore Microsoft dell'sdk che stabilisce i "compiti" da eseguire...
Questo avverrà fino a quando Microsoft non avrà calibrato il software di sviluppo!!.. conseguentemente la castagna passa ai coder che devono mettersi d'impegno per capire come bilanciare il carico ... per non avere framerate ballerini ..
Tutto ciò ha un prezzo : il passare del tempo , che secondo nvidia è approssimativamente un anno , cioè il periodo di transizione DX9c - DX10 (G80) ... poi ci sarà anche per nvidia il progetto a shader unificati....
P.S. imho, naturalmente è d'obbligo ;)
MenageZero
24-02-2006, 19:07
F mi sa che non lo vedremo qui sul forum, e me ne dispiace, ...
perché ? sicuro?
(peccato :( )
coschizza
24-02-2006, 19:58
Tanto per fare un esempio , tutti i giochi usciti per X360 hanno un comune denominatore : calcoli sui pixel fatti da XENOS , mentre quelli sui vertici vengono eseguiti da un core del PowerPC via VMX
guarda che stai sbagliando, tutte le ALU della gpu possono fare calcoli sui vertex o pixel . La CPU puo essere usata per elabora dei flussi di dati in stream per ottimizzare la memoria e creare quelle che la MS chiama le "procedural synthesis"
anzi direi che si "tutti i giochi usciti per X360 hanno un comune denominatore " cioè quello di non usare ancora addeguatamente il PowerPC via VMX per elaborare i vertici, per ora il primo gioco che ufficialmente ne farà largo uso sarà Oblivious per generare foreste sempre diverse tra loro partendo da una manciata di alberi che poi verranno passati sempre diversi dalla CPU alla cache L2 e da qui presi direttamente dalla gpu.
Se quello che scrivi fosse vero allora giochi come PGR3 e i miglioni di poligoni su schermo non sarebbero mai stati possibili, la potenza delle VMX non è sufficiente (sarebbe come tornare nel passato quando si utilizzavano gpu senza T&L dove la cpu del sistema faceva i calcoli "molto piu lentamente" al suo posto).
Il problema degli shader unificati è che , con tale architettura , bisogna calibrare attentamente il carico di lavoro delle pipeline via Hw e soprattutto via software...
io direi che è proprio l'opposto, il carico automatico è proprio un vantaggio intrinseco degli shader unificati (per raggiungtere sempre il massimo dell'efficienza e sfruttare sempre la potenza disponibile).
Prendi una gpu moderna da 24PS e 8VS, il programmatore deve gestire sempre questo numero fisso di unità e non puo sforare mai la potenza massima disponibile per i pixel o i vertex.
Nel caso degli shader unificati se per caso hai necessità di elaborare un frame che non ha quela rapporto 24/8 ma per esempio molte piu elaborazioni sui vertex , allora il sistema lo compensa diminuendo il primo per aumentare il secondo 22/10 oppure 20/12 ecc ecc, in un implementazione comune invece la potenza massima è ben definita, anche se non usi nemmeno la meta dei 24 PS (cosa che puo capitare anche molto spesso) non puoi usare quelle unità per fare altro e quindi ti trovi una gioco che va a scatti quando in realta la gpu non è utilizzata nemmeno al 50% delle possibilità.
posso condividere che poi "calibrare attentamente il carico" sia un lavoro comunque delicato ma la gpu questo lavoro lo puo gestire in maniera automatica o in maniera controllata dal software quindi rispetto un implementazione classica hai sempre un vantaggio (vedrai che tra 1 o 2 anni anche il mondo dei pc avrà solo schede con shader unificati e che a quel punto diremo "come mai non ci hanno pensato prima".
Se ci pensi bene l'approccio odienrno (tante unità specializzate al 100%) è un po obsoleto perche invece di migliorare realmente l'efficienza delel gpu si va sempre ad avere grande potenza di punta ma poi mediamente molte unità che sono in attesa di un vertice una texture ecc sono praticamente ferme.
L'approccio di ATI con i molti thread eseguiti in parallelo sulla gpu con quindi un maggiore efficienza dell hardware (implementato anche nella serie x1800 e x1900) è sicuramente un paso nella direzione giusta.
Dark Schneider
24-02-2006, 20:14
Tutto ciò ha un prezzo : il passare del tempo , che secondo nvidia è approssimativamente un anno , cioè il periodo di transizione DX9c - DX10 (G80) ... poi ci sarà anche per nvidia il progetto a shader unificati....
P.S. imho, naturalmente è d'obbligo ;)
E' esattamente questo che a me non piace. Perchè un conto è se nVidia punta su un tipo di architettura e prosegue con quella. Tutt'altro se abbandonerà quella intrapresa per G80 per andare su un architettura tipo R620.
Non mi piacciono soluzioni ibride: le GeForce FX erano più vicine ad essere un architettura DX8. Al contrario di R300 che era un architettura perfettamente pensata per le DX9.
Certo bisogna dire che alla fine le criticate FX a quel tempo erano velocissime, perchè di software DX9 non ce n'era traccia. E' anche vero che quando son cominciati ad uscire giochi che facevano abbastanza uso di DX9, non erano le 9700 le schede ideali, ma chip video più potenti ed immessi successivamente. Sta di fatto che 9700-9800 hanno fatto giocare in maniera egregia ai titoli DX9. Magari non al top ma cmq con una buona esperienza visiva...HL2 non l'ho conto perchè si sapeva che sarebbero andate fortissimo..però se guardiamo altri titoli, R300/R350 si sono ben comportate. In ogni caso alla lunga hanno fatto meglio delle NV3x.
Ora non voglio dire NV30 = G80. E' tutto da dimostrare.
Però se nVidia ha in mente di proporre una soluzione di transizione per poi prendere la stessa strada di Ati...personalmente non la considererò(son interessato..perchè saranno le vga dx10 quelle che sostituiranno la mia 6800GT...anche se non prima di metà 2007). Perchè starebbe a significare che nemmeno nVidia "crede" nell'architettura del G80.
Anche se le prime vga DX10 non saranno le vga ideali per far girare applicazioni DX10, in ogni caso preferisco puntare su una soluzione che ha una architettura di base solida. E la scelta di Ati di basare la sua prossima GPU per PC sulla medesima architettura scelta con R500, mi fa ben pensare che credono ad un simile progetto. Dà sicurezza.
Ovviamente tutto da dimostrare e non abbiam nessun dato reale, ma in mano solo speculazioni. Staremo a vedere come si evolverà il tutto in futuro(nemmeno tanto lontano). Sono molto curioso.
*Pegasus-DVD*
24-02-2006, 21:03
si scrive installare non istallare
xbrian88
24-02-2006, 21:07
Vai ati...
E' esattamente questo che a me non piace. Perchè un conto è se nVidia punta su un tipo di architettura e prosegue con quella. Tutt'altro se abbandonerà quella intrapresa per G80 per andare su un architettura tipo R620.
Non mi piacciono soluzioni ibride: le GeForce FX erano più vicine ad essere un architettura DX8. Al contrario di R300 che era un architettura perfettamente pensata per le DX9.
Certo bisogna dire che alla fine le criticate FX a quel tempo erano velocissime, perchè di software DX9 non ce n'era traccia. E' anche vero che quando son cominciati ad uscire giochi che facevano abbastanza uso di DX9, non erano le 9700 le schede ideali, ma chip video più potenti ed immessi successivamente. Sta di fatto che 9700-9800 hanno fatto giocare in maniera egregia ai titoli DX9. Magari non al top ma cmq con una buona esperienza visiva...HL2 non l'ho conto perchè si sapeva che sarebbero andate fortissimo..però se guardiamo altri titoli, R300/R350 si sono ben comportate. In ogni caso alla lunga hanno fatto meglio delle NV3x.
Ora non voglio dire NV30 = G80. E' tutto da dimostrare.
Però se nVidia ha in mente di proporre una soluzione di transizione per poi prendere la stessa strada di Ati...personalmente non la considererò(son interessato..perchè saranno le vga dx10 quelle che sostituiranno la mia 6800GT...anche se non prima di metà 2007). Perchè starebbe a significare che nemmeno nVidia "crede" nell'architettura del G80.
Anche se le prime vga DX10 non saranno le vga ideali per far girare applicazioni DX10, in ogni caso preferisco puntare su una soluzione che ha una architettura di base solida. E la scelta di Ati di basare la sua prossima GPU per PC sulla medesima architettura scelta con R500, mi fa ben pensare che credono ad un simile progetto. Dà sicurezza.
Ovviamente tutto da dimostrare e non abbiam nessun dato reale, ma in mano solo speculazioni. Staremo a vedere come si evolverà il tutto in futuro(nemmeno tanto lontano). Sono molto curioso.
Hai espresso perfettamente il mio pensiero. :mano:
Free Gordon
24-02-2006, 22:59
Ho letto da qualke parte che avere shader unificati significa avere picchi di prestazioni quando i frame sono MOLTI e cali quando sono pochi... nn so quanto convenga avere shader unificati...
E' esattamente l'opposto. :D
Free Gordon
24-02-2006, 23:04
Ma Xeons o Xenon?
XENOS.
Xenon è il nome della CPU del 360. (O XeCPU. ;) )
Free Gordon
24-02-2006, 23:05
Il problema degli shader unificati è che , con tale architettura , bisogna calibrare attentamente il carico di lavoro delle pipeline via Hw e soprattutto via software...
E' l'esatto opposto: con gli shader unificati non hai la necessità materiale di calibrare il carico di lavoro (perlomeno tra vertex e pixel), dato che hai un arbiter che lo fa per te. ;)
Free Gordon
24-02-2006, 23:07
Consiglio: Prima di dire che Nvidia sarà + scarsa di Ati nel supporto dei filtri aspetterei almeno fino all'uscita di G71 (2 settimane) ... da li in poi potremo avere un quadro + chiaro e trarre le dovute conclusioni.
G71 non sarà molto più efficiente di G70 nell'uso dei filtri se l'architettura di G71 è davvero quella di cui si parla in questi giorni.
Ho letto da qualke parte che avere shader unificati significa avere picchi di prestazioni quando i frame sono MOLTI e cali quando sono pochi... nn so quanto convenga avere shader unificati...
Che vuol dire questa frase? Le prestazioni sono i frame... o intendi qualcos'altro?
nonikname
25-02-2006, 01:33
guarda che stai sbagliando, tutte le ALU della gpu possono fare calcoli sui vertex o pixel . La CPU puo essere usata per elabora dei flussi di dati in stream per ottimizzare la memoria e creare quelle che la MS chiama le "procedural synthesis"
anzi direi che si "tutti i giochi usciti per X360 hanno un comune denominatore " cioè quello di non usare ancora addeguatamente il PowerPC via VMX per elaborare i vertici, per ora il primo gioco che ufficialmente ne farà largo uso sarà Oblivious per generare foreste sempre diverse tra loro partendo da una manciata di alberi che poi verranno passati sempre diversi dalla CPU alla cache L2 e da qui presi direttamente dalla gpu.
Se quello che scrivi fosse vero allora giochi come PGR3 e i miglioni di poligoni su schermo non sarebbero mai stati possibili, la potenza delle VMX non è sufficiente (sarebbe come tornare nel passato quando si utilizzavano gpu senza T&L dove la cpu del sistema faceva i calcoli "molto piu lentamente" al suo posto).
"It's far harder to design a unified processor - it has to do, by design, twice as much. Another word for 'unified' is 'shared', and another word for 'shared' is 'competing'. It's a challenge to create a chip that does load balancing and performance prediction. It's extremely important, especially in a console architecture, for the performance to be predicable. With all that balancing, it's difficult to make the performance predictable. I've even heard that some developers dislike the unified pipe, and will be handling vertex pipeline calculations on the Xbox 360's triple-core CPU." : Bit-tech.net (http://www.bit-tech.net/bits/2005/07/11/nvidia_rsx_interview/4.html)
io direi che è proprio l'opposto, il carico automatico è proprio un vantaggio intrinseco degli shader unificati (per raggiungtere sempre il massimo dell'efficienza e sfruttare sempre la potenza disponibile).
Prendi una gpu moderna da 24PS e 8VS, il programmatore deve gestire sempre questo numero fisso di unità e non puo sforare mai la potenza massima disponibile per i pixel o i vertex.
Nel caso degli shader unificati se per caso hai necessità di elaborare un frame che non ha quela rapporto 24/8 ma per esempio molte piu elaborazioni sui vertex , allora il sistema lo compensa diminuendo il primo per aumentare il secondo 22/10 oppure 20/12 ecc ecc, in un implementazione comune invece la potenza massima è ben definita, anche se non usi nemmeno la meta dei 24 PS (cosa che puo capitare anche molto spesso) non puoi usare quelle unità per fare altro e quindi ti trovi una gioco che va a scatti quando in realta la gpu non è utilizzata nemmeno al 50% delle possibilità.
posso condividere che poi "calibrare attentamente il carico" sia un lavoro comunque delicato ma la gpu questo lavoro lo puo gestire in maniera automatica o in maniera controllata dal software quindi rispetto un implementazione classica hai sempre un vantaggio (vedrai che tra 1 o 2 anni anche il mondo dei pc avrà solo schede con shader unificati e che a quel punto diremo "come mai non ci hanno pensato prima".
Se ci pensi bene l'approccio odienrno (tante unità specializzate al 100%) è un po obsoleto perche invece di migliorare realmente l'efficienza delel gpu si va sempre ad avere grande potenza di punta ma poi mediamente molte unità che sono in attesa di un vertice una texture ecc sono praticamente ferme.
L'approccio di ATI con i molti thread eseguiti in parallelo sulla gpu con quindi un maggiore efficienza dell hardware (implementato anche nella serie x1800 e x1900) è sicuramente un paso nella direzione giusta.
Allora , mi spiego meglio : in un' architettura "chiusa" come quella di una console X360 , il codice è sviluppato solo per quell'architettura ... quando ci sono evidenti cali di prestazione , si analizza il punto dove ciò accade e si procede a riscrivere la porzione di codice "colpevole" ... e questo si continua a rifare fino al punto da rendere perfettamente fruibile l'esperienza di gioco...
Ora passiamo al mondo PC : fino all'anno in cui ci sarà solo windows Vista installato , ci sarà un parco macchine che oltre ad avere GPU e CPU diverse , avrà anche sistemi operativi diversi (e relativi engine che gireranno ancora in DX9c : Unreal2k7 , Oblivion , Condamned/fear2 , Project Offset e via discorrendo)...
Tenendo conto che i giochi attuali hanno un periodo di gestazione che va dai 3 ai 5 anni , si può intuire che il codice sarà scritto ancora per molto tempo , utilizzando come tetto massimo lo SM3.0..
L'architettura a shader unificati invece è molto dipendente dall'efficienza dello "shader interpreter" e del "sequencer" e che queste due unità sono molto costose nel computo dei transistor utilizzati in una gpu : nello Xenos si parla dell 33% del die , contando le Texture e Vertex cache usate dalle shader pipeline...
Questo spazio potrebbe essere utilizzato per ulteriori pixel o vertex pipeline di un'architettura classica che è perfettamente bilanciata per digerire sia codice DX9c che DX8 e Opengl (non utilizzabile nativamente con Architettura a shader unificati)...
Sono perfettamente consapevole che quando ci saranno solo engine DX10 (vista) e i programmatori saranno in grado di padroneggiare tale codice , allora si che gli shader unificati saranno utili , ma in questo periodo di transizione , usare un core con 48 shader unit e logica di gestione invece che l'equivalente in transistor di 48 Pixel pipeline e 12 Vertex pipeline , non ha senso ...
Tenendo presente che il codice deve essere ottimizzato per girare anche sulle schede di fascia bassa e che la logica di gestione per un architettura a shader unificati ha sempre la medesima quantità di transistor utilizzati anche al variare delle shader unit , si può intuire che anche avendo 8 shader unit che gestiscono sia pixel che vertex (e il resto del die occupato dalla logica di gestione che non sarà più il 33% del totale , ma arriverà anche ad occupare mezzo die) queste non saranno mai paragonabili a es. 8 Ps e 4 Vs ...
Secondo me , l'architettura ideale per questo peiodo di transizione è l'attuale R580 , anche se ha il difetto di dover lavorare a frequenze troppo elevate per essere efficiente ... mentre una GPU tipo Xenos su pc la vedo bene quando il processo produttivo sarà oltre i 65nm e windows Vista sarà il SO più usato .... condizione che prevedo poco attuabile al lancio della prossima architettura video ...
darkshneider....
il chip non si chiamerà r620 ;-) o forse non vi ricordate perchè da r300 si è passati a r420 e r520?
il chip sarà R600....
vantaggi ulteriori dell'unificazione degli shaders? il blocco unico che ne verrà fuori a livello prettamente hardware, darà la possibilità in fase di produzione di una maggiore resa e quindi la possibilità di usare frequenze sempre più elevate...
La unica mia P.A.U.R.A? :D
Che lo zampino di MS faccia in modo che R600 non superi in prestazioni R500....
Ginger79
25-02-2006, 11:21
il G71 non c'entra assolutamente nulla con l'oggetto della news....
probabilmente sarà alla pari del top di Ati di adesso...
qui si fa riferimento al fatto che Ati avrà anzi..ha più esperienza nel
progettare schede video con shader unficati e che la sua "alleanza"
con microsoft possa portare ulteriori benifici.. ;)
Se tu avesi letto + attentamente tutta la discussione che precede il mio post non avresti scritto un commento così superficiale. Lo dico sempre PRIMA LEGGERE... poi RAGIONARE e infine SCRIVERE. Impegnati che vedrai che la fai! :D
Cmq ti suggerisco la chiave di lettura così non sudi troppo: La prima parte del post si riferisce a G80 (che è perfettamente in tema con la news!) mentre il trafiletto in basso voleva solo essere una considerazione sull'efficienza di G71 nella gestione dei filtri in risposta a chi aveva sollevato il dubbio.
P.s. Nei Forum generalmente i commenti OT vengono segnalati dai Moderatori e non penso che abbiano bisogno di un avvocato che li aiuti in tale compito quindi limitati ad esprimere le tue considerazioni sulla news che al resto ci pensa chi di dovere.
g71 non avrà niente di differente nei filtri ...del resto hanno solo aggiunto delle pipe e corretto un po di bug... poichè i filtri di g70/g71 sono strettamente legati all'hardware (al contrario dei filtri ati che a partire da r3x0 sono sempre stati "programmabili") per avere miglioramente dovrebbero avere fatto una pesante riprogettazione dell'elettronica...
Ginger79
25-02-2006, 11:44
per avere miglioramente dovrebbero avere fatto una pesante riprogettazione dell'elettronica...
Forse volevi dire: "Per ottenere un miglioramento dell'efficienza avrebbero dovuto riprogettare l'intera architettura della GPU" ... è solo una piccola correzione di italiano xchè la frase che hai scritto non vuol dire niente.
Che lo zampino di MS faccia in modo che R600 non superi in prestazioni R500....
Cosa si significa? Continuo a non capire quello che scrivi. :mbe:
Ginger79
25-02-2006, 11:47
G71 non sarà molto più efficiente di G70 nell'uso dei filtri se l'architettura di G71 è davvero quella di cui si parla in questi giorni.
Esattamente .. "SE" ... quindi vale quello che ho detto xchè con i "se" e i "ma" non si va da nessuna parte. Conclusione: Aspettiamo e vediamo.
Dark Schneider
25-02-2006, 12:29
darkshneider....
il chip non si chiamerà r620 ;-) o forse non vi ricordate perchè da r300 si è passati a r420 e r520?
il chip sarà R600....
il chip si può chiamare anche paperino, non è importante. Vedi G70...che poi è NV47 o NV50 che ora è chiamato G80.
coschizza
25-02-2006, 13:04
La unica mia P.A.U.R.A? :D
Che lo zampino di MS faccia in modo che R600 non superi in prestazioni R500....
non preoccuparti questo non puo accadere
gia una 1900xtx o una futura 7900Gtx sono e saranno piu performati , la R500 come tutte le gpu esistenti hanno una vita molto corta grazie (o per colpa) della velocità di avanzamento della tecnologia.
yossarian
25-02-2006, 14:16
"It's far harder to design a unified processor - it has to do, by design, twice as much. Another word for 'unified' is 'shared', and another word for 'shared' is 'competing'. It's a challenge to create a chip that does load balancing and performance prediction. It's extremely important, especially in a console architecture, for the performance to be predicable. With all that balancing, it's difficult to make the performance predictable. I've even heard that some developers dislike the unified pipe, and will be handling vertex pipeline calculations on the Xbox 360's triple-core CPU." : Bit-tech.net (http://www.bit-tech.net/bits/2005/07/11/nvidia_rsx_interview/4.html)
a parte il fatto che R500 è in grado di autobilanciare i carichi di lavoro oppure di lasciare al programmatore la libertà di farlo, mi pare che Kirk si sia allegramente dimenticato di aggiungere che con gli shader separati non è molto difficile, ma impossibile riuscire a bilanciare i carichi di lavoro.
Gli shader unificati non sono un vezzo o una "sparata" di MS, ma una necessità dovuta proprio all'impossibilità di raggiungere elevati livelli di efficienza con gli shader separati (il che significa un gran numero di transistor inutilizzati per ciclo)
Allora , mi spiego meglio : in un' architettura "chiusa" come quella di una console X360 , il codice è sviluppato solo per quell'architettura ... quando ci sono evidenti cali di prestazione , si analizza il punto dove ciò accade e si procede a riscrivere la porzione di codice "colpevole" ... e questo si continua a rifare fino al punto da rendere perfettamente fruibile l'esperienza di gioco...
Ora passiamo al mondo PC : fino all'anno in cui ci sarà solo windows Vista installato , ci sarà un parco macchine che oltre ad avere GPU e CPU diverse , avrà anche sistemi operativi diversi (e relativi engine che gireranno ancora in DX9c : Unreal2k7 , Oblivion , Condamned/fear2 , Project Offset e via discorrendo)...
Tenendo conto che i giochi attuali hanno un periodo di gestazione che va dai 3 ai 5 anni , si può intuire che il codice sarà scritto ancora per molto tempo , utilizzando come tetto massimo lo SM3.0..
L'architettura a shader unificati invece è molto dipendente dall'efficienza dello "shader interpreter" e del "sequencer" e che queste due unità sono molto costose nel computo dei transistor utilizzati in una gpu : nello Xenos si parla dell 33% del die , contando le Texture e Vertex cache usate dalle shader pipeline...
anche un chip a shader separati ha vertex e e texture cache. Inoltre, non ha senso aggiungere unità di calcolo che rischiano di restare in idle per buona parte dell'elaborazione.
Tenendo presente che il codice deve essere ottimizzato per girare anche sulle schede di fascia bassa e che la logica di gestione per un architettura a shader unificati ha sempre la medesima quantità di transistor utilizzati anche al variare delle shader unit , si può intuire che anche avendo 8 shader unit che gestiscono sia pixel che vertex (e il resto del die occupato dalla logica di gestione che non sarà più il 33% del totale , ma arriverà anche ad occupare mezzo die) queste non saranno mai paragonabili a es. 8 Ps e 4 Vs ...
perchè secondo te gli 8 ps e i 4 vs lavorano sempre tutti contemporaneamente? E' evidente che non ti è chiaro il concetto che il limite di un'architettura a shader separati è proprio questo (e guarda un po', dai brevetti depositati da NV risulterebbe che sia in fase di realizzazione un chip con shader parzialmente unificati)
Secondo me , l'architettura ideale per questo peiodo di transizione è l'attuale R580 , anche se ha il difetto di dover lavorare a frequenze troppo elevate per essere efficiente ... mentre una GPU tipo Xenos su pc la vedo bene quando il processo produttivo sarà oltre i 65nm e windows Vista sarà il SO più usato .... condizione che prevedo poco attuabile al lancio della prossima architettura video ...
a livello di logica di controllo, R5x0 condivide molti elementi comuni con R500
Athlon 64 3000+
25-02-2006, 14:23
a parte il fatto che R500 è in grado di autobilanciare i carichi di lavoro oppure di lasciare al programmatore la libertà di farlo, mi pare che Kirk si sia allegramente dimenticato di aggiungere che con gli shader separati non è molto difficile, ma impossibile riuscire a bilanciare i carichi di lavoro.
anche un chip a shader separati ha vertex e e texture cache. Inoltre, non ha senso aggiungere unità di calcolo che rischiano di restare in idle per buona parte dell'elaborazione.
perchè secondo te gli 8 ps e i 4 vs lavorano sempre tutti contemporaneamente? E' evidente che non ti è chiaro il concetto che il limite di un'architettura a shader separati è proprio questo (e guarda un po', dai brevetti depositati da NV risulterebbe che sia in fase di realizzazione un chip con shader parzialmente unificati)
a livello di logica di controllo, R5x0 condivide molti elementi comuni con R500
Non posso che Quotare!
coschizza
25-02-2006, 14:33
Non posso che Quotare!
e io mi metto in coda....... ;)
è saltata fuori la faccina al posto di una parentesi e del punto e virgola. scrivo veloce scusa...
cmq hai capito quello che intendevo :D anche se non era riferito all'efficenza dei filtri, ma proprio nel modo in cui vengo applicati...
Probabilmente l'applicazione di AA insieme all'HDR sarà ancora difficoltosa per nvidia...
volevo aggiungermi alle quotate su yossarian :D eehhehe
ati ha delle buone possibilità di privaleggiare o almeno di far durare un'archittetura più tempo, ma nvidia la raggiungerà puntando sulla "solita" forza bruta delle sue schede...
nonikname
25-02-2006, 17:55
a parte il fatto che R500 è in grado di autobilanciare i carichi di lavoro oppure di lasciare al programmatore la libertà di farlo, mi pare che Kirk si sia allegramente dimenticato di aggiungere che con gli shader separati non è molto difficile, ma impossibile riuscire a bilanciare i carichi di lavoro.
Per quale motivo bisogna bilanciare il carico di lavoro su un architettura a shader separati ??
Si sa a priori che il vertex throughput è il 33% del Pixel throughput..
Gli shader unificati non sono un vezzo o una "sparata" di MS, ma una necessità dovuta proprio all'impossibilità di raggiungere elevati livelli di efficienza con gli shader separati (il che significa un gran numero di transistor inutilizzati per ciclo)
Sappaimo benissimo entrambi che ormai è il software a dettare le specifiche dell'hardware: come la id ha condizionato lo sviluppo dell'NV40 , la microsoft ha dettato le linee guida dello xenos e dell'R5X0 e figli...
Partendo poi dall'assunto generale che l'efficienza può anche essere definita come Istruzioni/operazioni x ciclo di clock , come mai un'architettura convenzionale e inefficiente come il G70 che lavora a 550Mhz se la "batte" con un'altra , l'R5X0 meno convenzionale ma più efficiente che però deve funzionare a 650Mhz ???
anche un chip a shader separati ha vertex e e texture cache. Inoltre, non ha senso aggiungere unità di calcolo che rischiano di restare in idle per buona parte dell'elaborazione.
Anche il G70 ha un General pourpose register array che occupa il 15% del Die ??
Fino ad ora mi pare che ad un aumento delle pipeline corrisponda un sostanziale aumento delle prestazioni ... il tutto piuttosto ben documentato...
Naturalmente mi rendo conto che la situazione potrebbe radicalmente cambiare quando saranno usati i controlli di flusso dinamici , branch e via discorrendo , ma resta ancora da vedere quanto queste feature saranno usate nei prossimi titoli che non sono nemmeno ancora in cantiere... ovviamente da qui ad allora ci sarà tutto il tempo per sfornare un altra architettura..
perchè secondo te gli 8 ps e i 4 vs lavorano sempre tutti contemporaneamente? E' evidente che non ti è chiaro il concetto che il limite di un'architettura a shader separati è proprio questo (e guarda un po', dai brevetti depositati da NV risulterebbe che sia in fase di realizzazione un chip con shader parzialmente unificati)
Forse ti è sfuggito il succo di quello che volevo dire :
In un periodo di transizione come questo è più logico avere una GPU che risponde ancora ai normali canoni di programmazione e che ha anni di affinamento alle spalle ... poi si vedrà ..
a livello di logica di controllo, R5x0 condivide molti elementi comuni con R500
Infatti è una chimera che ben si adatta al periodo di transizione che per ora non è ancora alle porte.... (oltre ad essere un ibrido come architettura , non è nemmeno VS3.0 compliant)
A parte questo è di sicuro un architettura innovativa e molto efficiente .. il fatto che è stata costruita con l'occhio vigile della microsoft ha fatto si che il suo maggior punto di forza sia anche il più grosso difetto : anche sapendo di essere in netto svantaggio sulle istruzioni proprietarie Opengl (cap) non ha fatto alcun passo verso questo linguaggio ... anzi , si può dire che si è decisamente allontanata , quasi sapesse che quando ci sarà vista , Opengl non esisterà più...
Cmq puoi benissimo renderti conto dalle mie risposte che il mio livello di consapevolezza di un architettura 3d è , in una scala da 1 a 100 , molto vicino allo zero... quindi , se dovessi prenderti la briga di rispondermi , trattami pure come un bambino piccolo : una lezione su questa materia la ascolto volentieri ... :D
P.S. La frase precedente non è ironica : rileggendola è venuto qualche dubbio di interpretazione anche a me , quindi mi sono precipitato a precisarlo per non essere frainteso...
P.S. 2 : a tutti gli altri che hanno quotato yossarian come pecorelle , un minimo di motivazione l'avrei molto apprezzato ...
coschizza
25-02-2006, 19:19
Per quale motivo bisogna bilanciare il carico di lavoro su un architettura a shader separati ??
Si sa a priori che il vertex throughput è il 33% del Pixel throughput..
come facciamo a definire che il vertex throughput a priori sara del 33%, quello dipende frame per frame dalla quantità di oggetti sullo schermo
se intendi dire che per esempio abbiamo un scheda con 24Ps e 8VS e che quindi sappiamo già la potenza massima da attribuire ai vertex (in questo caso 8) allora ok ma non trovi che sia limitativo avere un limite cosi basso da subito quando potresti (unificando sli shader appunto) avere virtualmente tutti vertex shader per il tempo che ti serve.
quasi sapesse che quando ci sarà vista , Opengl non esisterà più...
non preoccuparti in vista l'Opengl esistera a prescindere dalle decisioni della microsoft, se i produttori di schede video faranno i driver come fanno ora per xp o 2000 allora la compatibilità sarà assicurata, le voci che girano si riferiscono all'implementazione di MS all'interno di vista ma non centrano niente con il resto (se vuoi ti posso dare documentazioni ufficiali MS che descrivono in dettaglio peorprio questo)
MenageZero
25-02-2006, 19:30
...
perchè secondo te gli 8 ps e i 4 vs lavorano sempre tutti contemporaneamente? E' evidente che non ti è chiaro il concetto che il limite di un'architettura a shader separati è proprio questo (e guarda un po', dai brevetti depositati da NV risulterebbe che sia in fase di realizzazione un chip con shader parzialmente unificati)
...
quindi ciò che ad ora è noto come g80 sarà una architettura a shader "parzialmente unificati" ? :confused:
Non è che potresti dare una piccola spiegazione per profani su ciò che significa "parzialmente unificati" ? ;)
grazie cmq per la "dritta" :)
yossarian
25-02-2006, 20:09
Per quale motivo bisogna bilanciare il carico di lavoro su un architettura a shader separati ??
Si sa a priori che il vertex throughput è il 33% del Pixel throughput..
e quindi? Sappiamo anche benissimo che molto raramemte vs e ps lavorano contamporaneamente; il che significa che il carico di lavoro è tutt'altro che bilanciato e l'efficienza complessiva è bassa.
Sappaimo benissimo entrambi che ormai è il software a dettare le specifiche dell'hardware: come la id ha condizionato lo sviluppo dell'NV40 , la microsoft ha dettato le linee guida dello xenos e dell'R5X0 e figli...
Partendo poi dall'assunto generale che l'efficienza può anche essere definita come Istruzioni/operazioni x ciclo di clock , come mai un'architettura convenzionale e inefficiente come il G70 che lavora a 550Mhz se la "batte" con un'altra , l'R5X0 meno convenzionale ma più efficiente che però deve funzionare a 650Mhz ???
è il contrario;ID ha disegnato il suo engine sulle specifiche dei chip NV.
Inoltre, anche R5x0 è un'architettura convenzionale (non mi risulta che abbia shader unificati). Se la batte, poi, lavorando a fp16 e con applicazioni "leggere". possibilmente senza filtri (situazione in cui spesso anche una 9700, che ti ricordo, fa comunque uso di fp24, fa ancora il suo lavoro) e senza utilizzo delle tanto sbandierate feature sm3.0 (sarebbe interessante vedere le prestazioni con db di R520 e G70, ad esempio); inmoltre la qualità dei filtri è decisamente inferiore (AA 8x inapplicabile e 4x di livello inferiore al 6x di ATi e anisotropico non di tipo full).
Per quanto riguarda il discorso sulle diverse architetture, c'è un thread di un'ottantina di pagine e non ho tempo di iniziare di nuovo a illustrareb le differenze e i motivi per cui R5x0 lavora a frequenze elevate
Anche il G70 ha un General pourpose register array che occupa il 15% del Die ??
cosa c'entrano i registri con le cache?
Fino ad ora mi pare che ad un aumento delle pipeline corrisponda un sostanziale aumento delle prestazioni ... il tutto piuttosto ben documentato...
e quindi? aumentano le prestazioni ma non l'efficienza. il 50% di 15 è superiore al 50% di 12; non hai dimostrato un granchè
Naturalmente mi rendo conto che la situazione potrebbe radicalmente cambiare quando saranno usati i controlli di flusso dinamici , branch e via discorrendo , ma resta ancora da vedere quanto queste feature saranno usate nei prossimi titoli che non sono nemmeno ancora in cantiere... ovviamente da qui ad allora ci sarà tutto il tempo per sfornare un altra architettura..
stai sostanzialemnte dicendo che G70 va bene con lo sm2.0
Forse ti è sfuggito il succo di quello che volevo dire :
In un periodo di transizione come questo è più logico avere una GPU che risponde ancora ai normali canoni di programmazione e che ha anni di affinamento alle spalle ... poi si vedrà ..
discorso analogo a quello fatto nella transizione da dx8 a dx9 e altrettanto pericoloso. Con gli shader unificati, ATi è partita prima ed è naturale che arrivi prima
Infatti è una chimera che ben si adatta al periodo di transizione che per ora non è ancora alle porte.... (oltre ad essere un ibrido come architettura , non è nemmeno VS3.0 compliant)
chi lo dice? perchè manca il vertex texturing? Allora neppure G70 lo è, visto che non ha passato il test sullo sm3.0.
Se vogliamo parlare di carenze "serie" è un conto; se ci si viole attaccare a queste cazzate, del tutto ininfluenti (ci sono molti modi per fare vertex texturing, oltre quello stabilito ufficialmente dalle dx9), è un altro discorso. Altrimenti si potrebbero tirare in ballo, molto demagogicamente, le carenze di G70 con MSAA+HDR (ma pure li sappiamo che non c'è un solo modo di fare HDR)
Cmq puoi benissimo renderti conto dalle mie risposte che il mio livello di consapevolezza di un architettura 3d è , in una scala da 1 a 100 , molto vicino allo zero... quindi , se dovessi prenderti la briga di rispondermi , trattami pure come un bambino piccolo : una lezione su questa materia la ascolto volentieri ... :D
ok; scusami se può sembrare che ho assunto a volte un tono duro; non è mia intenzione offenere, né, tanto meno, dare lezioni. Spesso si scopre il livello di conoscenza dei proprio interlocutori solo discutendo con loro.
Comunque, se hai bisogno di qualche chiarimento chiedi pure e se fosse OT, puoi anche ricorrere ai pvt. :)
ciao
yossarian
25-02-2006, 20:11
quindi ciò che ad ora è noto come g80 sarà una architettura a shader "parzialmente unificati" ? :confused:
Non è che potresti dare una piccola spiegazione per profani su ciò che significa "parzialmente unificati" ? ;)
grazie cmq per la "dritta" :)
potrebbe; brevemente, almeno stando ad alcuni brevetti depositati, potrebbe trattarsi di un'architettura con 4 gruppi di alu, di cui 3 dedicati ai pixel e uno in grado di operarre su pixel e vertici; le tmu sono esterne alle pipeline (come R5x0, tanotr per intenderci) e il bus di connessione somiglia tanto ad un ring bus :D
potrebbe; brevemente, almeno stando ad alcuni brevetti depositati, potrebbe trattarsi di un'architettura con 4 gruppi di alu, di cui 3 dedicati ai pixel e uno in grado di operarre su pixel e vertici; le tmu sono esterne alle pipeline (come R5x0, tanotr per intenderci) e il bus di connessione somiglia tanto ad un ring bus :D
ma secondo te, onestamente, è possibile a questo punto indicare quale tra i due colossi stia facendo la scelta giusta, oppure fino a quando certe soluzioni non saranno realtà non è possibile?
nonikname
25-02-2006, 23:26
ok; scusami se può sembrare che ho assunto a volte un tono duro; non è mia intenzione offenere, né, tanto meno, dare lezioni. Spesso si scopre il livello di conoscenza dei proprio interlocutori solo discutendo con loro.
Comunque, se hai bisogno di qualche chiarimento chiedi pure e se fosse OT, puoi anche ricorrere ai pvt.
ciao
Non ti preoccupare per il tono dei tuoi post: non sei quasi mai offensivo :D
Ho comunque scoperto che , se voglio rubare informazioni di "prima mano" sul come e sul perchè di un architettura hw , devo essere un pò "pungente" , altrimenti le persone non si scomodano a rispondere se non hanno qualcosa da difendere ... ;)
è il contrario;ID ha disegnato il suo engine sulle specifiche dei chip NV.
Ti sbagli , l'ultra shadows (doppia passata sulla z per ciclo di clock) è stato chiesto espressamente da John Carmack ... che qui abbiamo in foto :D
http://dooi.nexenservices.com/ssh/ark/john_carmack.jpg
Se la batte, poi, lavorando a fp16 e con applicazioni "leggere". possibilmente senza filtri (situazione in cui spesso anche una 9700, che ti ricordo, fa comunque uso di fp24, fa ancora il suo lavoro) e senza utilizzo delle tanto sbandierate feature sm3.0 (sarebbe interessante vedere le prestazioni con db di R520 e G70, ad esempio); inmoltre la qualità dei filtri è decisamente inferiore (AA 8x inapplicabile e 4x di livello inferiore al 6x di ATi e anisotropico non di tipo full).
Per quanto riguarda il discorso sulle diverse architetture, c'è un thread di un'ottantina di pagine e non ho tempo di iniziare di nuovo a illustrareb le differenze e i motivi per cui R5x0 lavora a frequenze elevate
Sul valore dei Filtri ATI non mi arrogo certo il diritto di aver ragione , ma paragonare prestazionalmente la 1900XTX alla 7800GTX512 è un grave errore : il paragone andrà fatto con la 7900GTX...
In ambito prestazionale posso parlarti con qualche cognizione di causa , dato che ho una buona disponibilità di schede video : ho fatto tutti i test del caso anche forzando la precisione a fp32 con tutti i giochi immaginabili ....
La 6800GT che avevo prima , forzando l'FP32 aveva un calo massimo del 10% solo in 2 giochi (far cry e Half life) , nel resto dei giochi era poca cosa(peggiorava di più togliendo le ottimizzazioni sui filtri trilineari e anisotropici) ... ma la 7800GTX non ha quasi nessun calo , tranne qualche punto in 3dMark2006...
Per quanto riguarda i test fra la 1800XT e la 7800GTX512 , sia con che senza filtri é sempre davanti : precisione parziale o no , ottimizzazione filtro trilineare o no AA e AF attivati o no (l'unico bench dove sta dietro è quando si attiva l'AA8x di nv contro l'AA6x di ATI, ma non mi pare un buon metro di paragone) .. per quanto riguarda la 1900XT , ti ripeto , io aspetterei la 7900GTX ;)
e quindi? aumentano le prestazioni ma non l'efficienza. il 50% di 15 è superiore al 50% di 12; non hai dimostrato un granchè
Ti giuro che questa non l'ho davvero capita!!
Parlando di efficienza io mi soffermerei anche su questa tabella sottostante:
http://www.xbitlabs.com/images/video/radeon-x1900xtx-graphs/x1900_power.gif
Anche se per correttezza dovremmo aspettare la 7900GTX anche qui...
chi lo dice? perchè manca il vertex texturing? Allora neppure G70 lo è, visto che non ha passato il test sullo sm3.0.
Se vogliamo parlare di carenze "serie" è un conto; se ci si viole attaccare a queste cazzate, del tutto ininfluenti (ci sono molti modi per fare vertex texturing, oltre quello stabilito ufficialmente dalle dx9), è un altro discorso. Altrimenti si potrebbero tirare in ballo, molto demagogicamente, le carenze di G70 con MSAA+HDR (ma pure li sappiamo che non c'è un solo modo di fare HDR)
Si , così come l'NV70 (in ambito HDR) non gestisce l'FP16Antialiasing , l'R5X0 non può eseguire l'HDR FP16 filtering...
___The Bottom line___
Vorrei cmq strapparti almeno la promessa di commentare l'articolo di Hwupgrade della 7900GTX , la seconda settimana di marzo , giusto per analizzare qualche bench fra due schede che almeno sulla carta hanno qualche analogia in più , vedi 90nm , 650Mhz di core e forse anche la stessa banda verso il frame buffer ....
Ciao :)
yossarian
26-02-2006, 01:44
Ti sbagli , l'ultra shadows (doppia passata sulla z per ciclo di clock) è stato chiesto espressamente da John Carmack ... che qui abbiamo in foto :D
http://dooi.nexenservices.com/ssh/ark/john_carmack.jpg
l'ultrashadow era una tecnologia già presente sul progetto NV20 (anche se, se non ricordo male, mai esposta prima di NV30). La possibilità di avere in output un valore doppio di pixel in presenza di sole z-ops è un'altra cosa (e dipende dal fatto che nelle rop's di NV3x e dei chip successivi, anche la branca che svolge color ops all'interno delle rop's, può svolgere z-ops.
Sul valore dei Filtri ATI non mi arrogo certo il diritto di aver ragione , ma paragonare prestazionalmente la 1900XTX alla 7800GTX512 è un grave errore : il paragone andrà fatto con la 7900GTX...
In ambito prestazionale posso parlarti con qualche cognizione di causa , dato che ho una buona disponibilità di schede video : ho fatto tutti i test del caso anche forzando la precisione a fp32 con tutti i giochi immaginabili ....
La 6800GT che avevo prima , forzando l'FP32 aveva un calo massimo del 10% solo in 2 giochi (far cry e Half life) , nel resto dei giochi era poca cosa(peggiorava di più togliendo le ottimizzazioni sui filtri trilineari e anisotropici) ... ma la 7800GTX non ha quasi nessun calo , tranne qualche punto in 3dMark2006...
Per quanto riguarda i test fra la 1800XT e la 7800GTX512 , sia con che senza filtri é sempre davanti : precisione parziale o no , ottimizzazione filtro trilineare o no AA e AF attivati o no (l'unico bench dove sta dietro è quando si attiva l'AA8x di nv contro l'AA6x di ATI, ma non mi pare un buon metro di paragone) .. per quanto riguarda la 1900XT , ti ripeto , io aspetterei la 7900GTX ;)
hai provato a fare i test forzandola via driver (ossia disabilitando la funzionalità di application detect?
Te lo dico pechè il computo è molto semplice: G70, in media, in fp16 esegue 5 istruzioni e 27 flops pee pixel pipeline, mentre in fp32 si scende a 4 istruzioni e 20 flops (ovviamente valori teorici e riferiti alle sole operazioni matematiche).
Ti giuro che questa non l'ho davvero capita!!
Parlando di efficienza io mi soffermerei anche su questa tabella sottostante:
http://www.xbitlabs.com/images/video/radeon-x1900xtx-graphs/x1900_power.gif
Anche se per correttezza dovremmo aspettare la 7900GTX anche qui...
quella tabella è discordante rispetto ad altre fornite da diversi altri siti; imho, una misurazione della potenza assorbita che sia veramente attendibile è molto difficile da eseguire.
Io mi riferivo al fatto che aumentare il numero di unità di calcolo, senza fare ottimizzazioni sull'architettura, porta a incrementi prestazionali solo perchè si esguono più operazioni per ciclo, ma l'efficienza resta immutata (non migliora); anzi, al limite, potrebbe peggiorare, nel momento in cui questo aumento introduce dei colli di bottiglia.
Si , così come l'NV70 (in ambito HDR) non gestisce l'FP16Antialiasing , l'R5X0 non può eseguire l'HDR FP16 filtering...
il texture filtering in fp16 può essere eseguito dai ps oltre che dalle tmu
Vorrei cmq strapparti almeno la promessa di commentare l'articolo di Hwupgrade della 7900GTX , la seconda settimana di marzo , giusto per analizzare qualche bench fra due schede che almeno sulla carta hanno qualche analogia in più , vedi 90nm , 650Mhz di core e forse anche la stessa banda verso il frame buffer ....
Ciao :)
tempo permettendo, lo farò volentieri, nella speranza che non si tratti di un semplice die shrink di G70 (nel qual caso, ci sarebbe poco da commentare, almeno dal punto di vista tecnico, dato che dell'architettura di G70 si sa già molto).
yossarian
26-02-2006, 01:46
ma secondo te, onestamente, è possibile a questo punto indicare quale tra i due colossi stia facendo la scelta giusta, oppure fino a quando certe soluzioni non saranno realtà non è possibile?
questa è una domanda da 100 milioni di €; non è sufficiente sapere che uno dei due avrà shader unificati e l'altro, magari li avrà solo parzialmente unificati, per fare classifiche. Ci sono troppi altri fattori che possono influenzare il rendimento di un chip
nonikname
26-02-2006, 10:15
hai provato a fare i test forzandola via driver (ossia disabilitando la funzionalità di application detect?
Te lo dico pechè il computo è molto semplice: G70, in media, in fp16 esegue 5 istruzioni e 27 flops pee pixel pipeline, mentre in fp32 si scende a 4 istruzioni e 20 flops (ovviamente valori teorici e riferiti alle sole operazioni matematiche).
Ho usato 3dAnalize : http://www.tommti-systems.de/go.html?http://www.tommti-systems.com/main-Dateien/files.html
tempo permettendo, lo farò volentieri, nella speranza che non si tratti di un semplice die shrink di G70 (nel qual caso, ci sarebbe poco da commentare, almeno dal punto di vista tecnico, dato che dell'architettura di G70 si sa già molto).
Non dovrebbe essere un dieshrink nel vero senso della parola , perchè pare debba integrare diverse ottimizzazioni a livello costruttivo : ridisposizione degli hot-spot per una dispersione ottimale del calore sul die..
Grazie al mio lavoro ho amici che conoscono alcune persone che lavorano con i partner costruttivi nvidia/ati... Il bello è che questa gente sa tutto di termo dinamica e lavorazione PCB , ma purtroppo non sa cosa sia una pipeline o una Alu )
Quindi non so se hanno aggiunto i 2 Quad e le 2 vertex unit....; ma questo mi sembra altamente improbabile dato che sarebbe una VGA prestazionalmente sproporzionata rispetto al prezzo di lancio..
499$ x 380-390 milioni di transistor a 90nm è un vero e proprio atto di generosità ... :D (termine sconosciuto a Silicon Valley)
Lunedi pomeriggio se so qualcosa ti mando un PM .. ;)
Nice to meet you...
andreamarra
26-02-2006, 12:41
ci sono in giro voci ( o supposizioni) sulle dimensioni della prossima scheda ati?
yossarian
26-02-2006, 13:52
Ho usato 3dAnalize : http://www.tommti-systems.de/go.html?http://www.tommti-systems.com/main-Dateien/files.html
lo conosco ma non l'ho mai provato, quindi non saprei dirti se sia veramente efficace per questo tipo di test
Non dovrebbe essere un dieshrink nel vero senso della parola , perchè pare debba integrare diverse ottimizzazioni a livello costruttivo : ridisposizione degli hot-spot per una dispersione ottimale del calore sul die..
questo sarebbe il minimo (è un'operazione che si fa solitamente anche passando da una rev all'altra dello stesso chip.
Non escluderei anche ottimizzazioni a livello di architettura interna però (anche se non nel senso di aggiunta di unità di calcolo)
Grazie al mio lavoro ho amici che conoscono alcune persone che lavorano con i partner costruttivi nvidia/ati... Il bello è che questa gente sa tutto di termo dinamica e lavorazione PCB , ma purtroppo non sa cosa sia una pipeline o una Alu )
Quindi non so se hanno aggiunto i 2 Quad e le 2 vertex unit....; ma questo mi sembra altamente improbabile dato che sarebbe una VGA prestazionalmente sproporzionata rispetto al prezzo di lancio..
499$ x 380-390 milioni di transistor a 90nm è un vero e proprio atto di generosità ... :D (termine sconosciuto a Silicon Valley)
la penso anch'io così; è molto probabile che si punti ad un prezzo di lancio aggressivo con un'architettura non troppo diversa da quella di G70 (potrebbero aver ottimizzato qualcosa per ridurre l'impatto di alcuni colli di bottiglia).
Lunedi pomeriggio se so qualcosa ti mando un PM .. ;)
Nice to meet you...
ok, grazie
ciao :)
nonikname
26-02-2006, 15:03
ci sono in giro voci ( o supposizioni) sulle dimensioni della prossima scheda ati?
Non credo ci sia già in giro qualche sample funzionante di R6X0 al di fuori dei laboratori ATI .. per non parlare del PCB (e delle sue dimensioni) che si suppone sia ancora a livello di prototipo..
Potrebbe essere anche di mezzo metro , ma fino a quando non entra in produzione non si può avere un'idea effettiva delle dimensioni finali...
Io so solo che i prossimi chip ATI (23 Marzo) di fascia Enthusiast saranno l'R580 (90nm X1900 XL) e l'R520 (90nm X1800 GTO) , entrambi pin to pin compatibile con la precedente soluzione (X1800 XL) .. cioè leggermente inferiore ai 9 pollici ... (il calcolo in cm fallo tu ;) ) per intenderci la lunghezza della 1900/ 7800 (la 7900 sarà più corta :) )
Mentre nella fascia Performance (sempre Q2 2006) vedremo l'RV560(X1700 pro) / RV570 (X1700 XT) - 80nm che dovranno raccogliere l'eredità delle gloriose X800 GTO / X800 GT (R423/R480 130nm)
Nella fascia Mainstream dovrebbe debuttare fra poco (Q2 2006) l' RV535 - 80nm che dovrebbe prendere il posto dell'RV530 - 90m (X1600 XT / X1600 Pro)
Cosi avremo VGA SM3.0 iper tutte le tasche e per entrambi i fornitori , anche se fra poco meno di 6 mesi tutti i coder dovranno riadattare il proprio modo di scrivere codice per iniziare a fare pratica con le WGF : poveracci .. (i code path per un singolo gioco saliranno a più di 6 :doh: )
Cmq , l'unica data sicura è il 23 marzo per la X1800 GTO e X1900 XL , tutte le altre sono indicate come Q2 2006 , ma non credo che ATI faccia uscire 6 schede contemporaneamente.. :O ... o si ??? :stordita:
Vabbè .. è meglio che riprenda a "giocare" a Condemned ... con tutte ste vga mi sta fumando il cervello.... (meglio spegnerlo e accendere l'X360 :D )
nonikname
26-02-2006, 15:21
ok, grazie
ciao
Il 3d analize è molto semplice da usare : è quel famoso software che così come ha messo in evidenza i limiti architetturali della 5800-5900 , ha "smascherato" valve quando cercava di boicottare la serie NV30-35 , facendo in modo che ci fosse un solo modo di far funzionare quella VGA ..(FP24 o FP32) , mentre girando a FP16 non si notava alcun artefatto sugli shader 2.0 ...
Spero cmq di sapere qualcosa in più lunedi questo , ma a grandi linee non ci saranno novità di rilievo ...
Il fatto è che riescono a nascondere bene le caratteristiche delle High end fino all'ultimo giorno ... Fino ad una settimana fa ero convinto avesse 8 quad , invece ... non sono sicuro nemmeno delle 6 .... :muro:
Ciao ...
andreamarra
27-02-2006, 13:57
novità.... :D?
Free Gordon
27-02-2006, 14:31
Comprati una 360 che venerdì esce FN3. :D
Comunque questo non lo vedo un periodo ottimale per fare un investimento importante su una scheda video...
Con Vista, DX10, nuove architetture che arrivano, il tutto è ancora molto incerto sulle direzioni che si intraprenderanno...
DX 10 favorirà lo shading unificato, questo mi sembra di averlo capito. Ma il futuro di OpenGL mi preme abbastanza. Che evoluzioni subirà? E' in programma qualcosa? Nasceranno nuovi linguaggi di unified shading? E' una questione su cui secondo me è ora di cominciare a spulciare, farci luce sopra. Mi sembra quasi incredibile come mai nessuno si preoccupi di questo...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.