|
|
|
![]() |
|
Strumenti |
![]() |
#61 |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
poichè ho fatto un post doppio, lo utilizzo per chiarire, a beneficio di chi leggesse queste pagine, qualcosa riguardo l'architetutra di RV770 e G80/GT200. Lo faccio in un post separato eprchè non si perda nel lungo replay ad un altro post altrettanto lungo quanto inutile perchè non dimostraniente ma, al contrario, genera solo confusione.
G80 non ha un'architettura MIMD e R600 non ha un'architettura SIMD VLIW VECT5. Partiamo dalla prima L'architettura di G80/GT200, semplificando al massimo, ha uno schema logico a due livelli: è una MIMD di cluster di alu SIMD. In G80, ogni cluster è formato da due semicluster di 8 alu MADD fp32 ciascuna; su ogni gruppo di 8 alu gira la stessa istruzione ad ogni ciclo. Questo fa si che ogni gruppo di 8 alu abbia un'architettura di tipo SIMD. Le 16 alu di ogni cluster condividono un pool di registri, una global constant cache ed una texture cache. L'accoppiata dispatch processor-scheduler si occupa del bilanciamento dei carichi di lavoro e della parallelizzazione delle operazioni. R600/RV670/RV770 hanno un'architettura a 3 livelli: è una MIMD con cluster di tipo SIMD e con alu VLIW (il vect5 non esiste, se non nella fantasia di qualcuno). Il principio di funzionamento non è dissimile da quello di G80, con la differenza che non c'è lo scheduler (le operazioni di scheduling e, quindi, la parallelizzazione, sono affidate al compilatore), ma c'è il thread dispatch processor, che si occupa di bilanciare i carichi di lavoro tra le alu. quindi, il bilanciamento dei carichi di lavoro è fatto in automatico dal chip tra le 160 alu vliw (per comodità mi riferisco a RV770). Il compilatore deve cercare, all'interno dello shader, il maggior numero possibile di istruzioni indipendenti facenti parte dello stesso thread, da inviare ad una singola alu. Le alu sono vliw sono, nel caso dei chip ATi, da 5 minialu (che di fatto sono alu e chiamo mini solo per dofferenziarle) capaci ciascuna di una MADD fp32 (esattamente come ogni singola alu dei chip nVIDIA; quindi gli sproloqui su pizze e pizzette sono del tutto fuori luogo) ![]() Ultima modifica di yossarian : 30-10-2008 alle 00:13. |
![]() |
![]() |
![]() |
#62 | ||||||||||||||||||||||||
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
ci hai messo tutta una giornata per trovare su wikipedia queste 4 nozioni, per altro neppure corrette?
![]() Quote:
![]() http://forums.amd.com/devforum/messa...&enterthread=y http://forums.amd.com/forum/messagev...threadid=93635 http://ati.amd.com/technology/stream.../sdkdwnld.html http://forum.beyond3d.com/archive/in...p/t-41294.html http://www.gpgpu.org/forums/viewtopic.php?p=21059 questi sono i primi link che si trovano facendo una ricerca con criteri corretti. ![]() Quote:
![]() Quote:
Quote:
Quote:
![]() Quali sarebbero le alu vect5 di ATi? E le unità vliw? E la componente simd? R600 e derivati, secondo te, sono in grado di autobilanciare i carichi di lavoro? E i chip nVIDIA sono dei semplici mimd? Prova a spiegarcene il funzionamento, partendo dal thread dispatch processor fino ad arrivare alle alu (magari ti rendi conto, parlandone, che hai detto stupidaggini). Quote:
le operazioni di scheduling avvengono in compile time invece che in runtime. E allora? Dov'è il problema? Forse ce lo spieghi dopo................ Quote:
Quote:
adesso che hai ordinato la cena e non sei a stomaco vuoto, cerca di fare un esempio reale e possibilmente che abbia un minimo di attinenza a cose concrete (hai presente thread, istruzioni, operazioni, alu, registri temporanei e costanti, texture, rop's, MSAA, branching, tutte quelle cose noiose ed inutili quando si va dal pizzicagnolo ma che possono servire quando si progettano o programmano chip) e che non seguano le tue fantasie Quote:
http://news.cnet.com/8301-10784_3-9947093-7.html 2) larrabee avrà 16 o più core, ciascuno con 16 alu scalari e ciascuno in grado di operare su 4 thread per ciclo. Ti dice niente ciò? Da come parli di mimd, simd e vliw non credo. Facciamo un'ulteriore passo: 3) in larrabee il compilatore avrà un'importanza almeno pari di quella che ha in RV770, anzi, con molta probabilità, dovrà sobbarcarsi un carico di lavoro ancora superiore Continua a non dirti niente? A detta di Intel: TASK SCHEDULING IS PERFORMED ENTIRELY WITH SOFTWARE IN LARRABEE (ops, lo scheduling interamente via SW: dov'è finito lo scheduler?). Inoltre scopriamo che larrabee non farà neppure uso di fixed function, tranne che per le operazioni di texturing (immagino saprai cosa comporta per le operazioni di scheduling, vero?). Alla intel sostengono che uno scheduler HW sia poco flessibile (e quindi non puoi cambiare menu, ovvero DX); è evidente che alla intel si sono bevuti il cervello. Ma cosa è larrabee? Niente scheduler, quindi secondo MiKeLeZz, larrabee ha un'architettura vliw. Interssante conclusione: però è anche MIMD, come GT200 e G80 (ti cito testualmente); ed ha una 16-way vector alu secondo Intel. Ora che ne sappiamo meno di prima, concludiamo dicendo che............ 4)................. larrabee avrà persino un ring bus che connetterà i singoli core (quelli che si possono definire, a tutti gli effetti, stream processor). Alla Intel sono veramente fuori di testa. ![]() http://www.multicoreinfo.com/researc...e_manycore.pdf Quote:
![]() Quote:
![]() A proposito, da chi viene questa informazione? Da Kirk o da Harris? ![]() p.s. cosa vuol dire TRADIZIONALE? MIMD? sei fuori strada per due motivi: tradizionale non è gergo tecnico; mimd viene prima di simd solo in ordine alfabetico (non certo temporale) Quote:
![]() Quote:
![]() Quote:
![]() Quote:
![]() Quote:
peccato che quello che hai npostato non è un confronto diretto tra le prestazioni delle singole gpu ma un confronto sul totale delle gpu nVIDIA E ATi usate per folding@home (quindi neppure circolanti). L'unico confronto diretto risale alla generazione precedente, quella a shader dedicati, tra un G70 e un R520. http://www-graphics.stanford.edu/~mh...0-mhouston.pdf Vedere i risultati verso la fine. Non sto a sindacare l'utilità di programmi di calcolo distribuito, poichè non è la sede opportuna, ma segnalo che tra i programmatori le opinioni sono alquanto divergenti. Quote:
Quote:
Quote:
![]() Quote:
![]() ![]() Quote:
![]() Quote:
Quote:
Quote:
Ultima modifica di yossarian : 31-10-2008 alle 00:15. |
||||||||||||||||||||||||
![]() |
![]() |
![]() |
#63 |
Senior Member
Iscritto dal: Jun 2005
Città: in lombardia
Messaggi: 8414
|
Chi volesse davvero un buon software di transcoding con supporto CUDA prenda in considerazione questo:
http://tmpgenc.pegasys-inc.com/en/product/te4xp.html che importa ed esporta in molteplici formati ![]()
__________________
Asrock z170m, i7 6700k, 8GB Kingston ddr4 2666, sandisk ssd120GB, Segate 4TB, XFX Radeon RX 480 RS 8GB |
![]() |
![]() |
![]() |
#64 |
Senior Member
Iscritto dal: Sep 2004
Città: Ovunque
Messaggi: 5804
|
L'ho sempre pensato che Google ha rovinato i forum
![]() Ritorno IT. Ho provato il software, effettivamente risulta molto semplicistico ma è un programma dalle buone potenzialità.
__________________
:: Le mie trattative :: LOL >> http://www.hwupgrade.it/forum/showth...9#post31430289 Ultima modifica di ABCcletta : 31-10-2008 alle 00:07. |
![]() |
![]() |
![]() |
#65 |
Senior Member
Iscritto dal: Apr 2007
Messaggi: 917
|
quoto matteo1
Ultima modifica di EMAXTREME : 07-09-2012 alle 09:38. |
![]() |
![]() |
![]() |
#66 |
Senior Member
Iscritto dal: Mar 2005
Messaggi: 4959
|
Dopo aver parlato di tutte queste pizze e focaccine, mi è venuta una fame!!
Comunque, secondo me è tutto un FLOP. ![]() L'architettura teoricamente migliore non è quella che vince, così come la console migliore non è quella più potente. Sono tantissimi i fattori che entrano in gioco. Ad esempio, chi si ricorda della serie GeForce FX5xxx ? Erano delle schede video velocissime in ambito PS1.1, ma facevano pena con shader 2.0. Tuttavia vendettero tantissimo, perché le applicazioni che sfruttavano decentemente shader 2.0 uscirono molto più tardi, e su quelle tradizionali (vecchi engine 3D) le FX si comportavano meglio delle ATi dell'epoca. Fatto sta che, tutte queste tecnologie proprietarie non facilitano di certo l'utilizzo di calcolo parallelo mediante GPU in ambito accademico... Sarebbe stato molto più giusto organizzare un comitato, fra i principali produttori di GPU, per definire uno standard aperto che poi ognuno sarebbe stato libero di implementare. Così, invece, mi sembra tutta una barzelletta. Speriamo almeno che le prossime DirectX (e magari anche OpenGL) includano al loro interno dei meccanismi di programmazione GPGPU, così che spariscano tutti i linguaggi proprietari, con buona pace degli utenti e delle università.
__________________
Cerchi software open source? Vieni su OpenWanted e aiutami a creare la Lista Open!! -> Elenco BUG di Windows 7 <- |
![]() |
![]() |
![]() |
#67 | |
Senior Member
Iscritto dal: Jul 2003
Messaggi: 26788
|
Quote:
- bontà dell'architettura (potenza bruta, capacità specifiche) - bontà del supporto implicito (ottimizzazioni lato driver) - bontà del supporto esplicito (compilatore, tool, esempi) Un esempio (che può esser fatto anche lato 3D), il C*DA. Potenza bruta solo discreta (se lo confrontiamo con i GFLOPS teorici del concorrente), ma ottime capacità specifiche, ottimizzazioni, compilatore, supporto ed esempi, che poi è il motivo per cui va prendendo così tanto piede (vedi questo Badaboom). Mi da altresì grande dispiacere vedere postati da taluni confronti di folding@home fra G70 e R520 (due architetture lato desktop oramai obsolete), quando ho fornito i nuovi di G80/G92/GT200 (ben 3 serie di chip) e concorrenti ATI, che non lasciano minimamente adito a dubbi. Significa proprio cercare una ragione prettamente faziosa attraverso fumo negli occhi e comparative pasticciate. Concludo, poichè immagino pochi avran avuto la forza di regger fin qua (e siamo anche mezzi OT), con la distruzione di alcuni sogni AT*/HAV*K. FallOut 3 utilizza proprio il motore HAVOK, vogliamo quindi vedere le prestazioni, chiudendo il cerchio con la linea di pensiero espressa a inizio reply? (sentendo alcuni soliti noti, con piattaforma AT* dovremmo aspettarci millemila FPS!) http://www.firingsquad.com/hardware/...ance/page3.asp Totale ownage da parte di NV*DIA (con la HD4850 superata già dalla 9800GTX, e non dalla 9800GTX+, la vera diretta concorrente). Saluti. Ultima modifica di MiKeLezZ : 16-12-2008 alle 16:53. |
|
![]() |
![]() |
![]() |
#68 | |||
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
Quote:
Quote:
Ultima modifica di yossarian : 08-11-2008 alle 00:28. |
|||
![]() |
![]() |
![]() |
#69 |
Senior Member
Iscritto dal: Jun 2007
Messaggi: 9933
|
Quand'anche ci fosse il supporto GPGPU all'Havok, dubito che un titolo come Fallout3 potrebbe essere un benchmark indicativo, in quanto la fisica non e' certo il collo di bottiglia.
__________________
Case:Chieftec BA-01B-B-B MB: E-VGA 122-M2-NF59-TR CPU:Athlon64 X2 (Windsor) 6400+ PSU1:Corsair HX 520WPSU2:Thermaltake PurePower Express W0099R VGA: 9800GX2@680/1700/1040 MHz Audio: SB X-fi Gamer HDD 2x320GB RAID-Link alla guida SLI - CPU gaming test |
![]() |
![]() |
![]() |
#70 | |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
![]() Ultima modifica di yossarian : 07-11-2008 alle 18:57. |
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 13:29.