|
|
|
![]() |
|
Strumenti |
![]() |
#61 | |
Senior Member
Iscritto dal: Oct 2005
Messaggi: 38297
|
non me l'aspettavo
![]() Quote:
Non ho poi messo a caso la circostanza che hai bellamente ignorato, ossia la necessità di nVidia di progettare le proprie gpu anche per l'uso gpgpu, necessità che alla fine ha avvertito anche Amd, se è vero che ha abbandonato la vliw, buona per il gaming, scarsa per la programmabilità in ottica gpgpu; nonostante questa necessità le gpu nVidia hanno continuato ad offrire appunto eccellenti prestazioni anche nel gaming. Ad ogni modo è un dato di fatto che le vliw Amd in ambito gaming sono state più efficenti performance/watt* (sopratutto da rv770 in poi) e quelle nVidia più efficenti in termini di performance (ripeto, se poi spostiamo il discorso sul gpgpu che non può essere ignorato alla bisogna, visto che esiste ed incide sulle scelte di nVidia, ed adesso pure di Amd, fermi e company diventano efficenti anche lato performance/watt) adesso forse (in attesa di sapere i dettagli di kepler) stanno convergendo per motivi diversi (l'una perchè la vliw è complicata e rende poco in termini assoluti, oltre che più difficilmente programmabile in ambito hpc; l'altra perchè dà vita a scarsi risultati p/w in ambito gaming; entrambe credo avrebbero peggiorato questi lati negativi con il prgredire del tempo, per cui per motivi diversi si sono -sarebbero, perchè su kepler non ci sono ancora dati certi sull'architettura- imposte svolte) non credo ci sia un "vincitore" perchè come sempre entrambe le scelte hanno avuto punti di forza e debolezza (la perfezione non è di questo mondo ![]() ![]() * non dimentichiamo poi che le potenzialità sono state spesso frustrate dalla difficoltà di programmare i driver, in multigpu è stato quasi un disastro poi, che te ne fai poi di potenza senza controllo? http://hardocp.com/article/2012/01/1...ortunity_lost/
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48 le vga che ho avuto Ultima modifica di appleroof : 12-02-2012 alle 10:07. |
|
![]() |
![]() |
![]() |
#62 | |||
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14734
|
Eheh, sono prevedibile!
![]() Per non divagare troppo, quoto solo alcuni punti: Quote:
Se Nvidia con la sua mania del chippone ha dovuto fare padelle grandi il doppio (si fa per dire) per avere prestazioni superiori, quella è una scelta di nvidia (scelta che ha dovuto fare i conti con le difficoltà produttive che conosciamo, da g200 in poi). AMD ha scelto una politica di produzione differente, con chip non troppo grandi per massimizzare le rese. E se vogliamo infierire, AMD ha anche inserito molte ridondanze nei chip per questo motivo, che ne aumentano il die size. Non confondiamo le scelte commerciali con l'architettura, perchè a questo punto uno potrebbe dire: e se amd avesse fatto un chip grosso come quello nvidia, chi sarebbe andato di più? Se si valuta un'architettura, va fatto a parità di die size e consumi. Quote:
Certo, può contemplare un aumento di die size per le cache e il supporto ai diversi linguaggi di programmazione, ma a questo punto ho preferito spannometricamente fare pari e patta con le ridondanze dei chip amd, dato che non sono in grado di valutare precisamente l'impatto di nessuno dei due. Al di la dei discorsi sull'onestà intellettuale (perdonami, ma anche io ho la stessa impressione sulle tue risposte, ma preferisco evitare allusioni), credo che al momento l'approccio AMD si sia rivelato vincente. Ovviamente ogni scelta va rapportata al momento in cui questa viene fatta: ad oggi potrebbe non essere più la scelta giusta, e infatti sia AMD che Nvidia (pare) stanno convergendo su posizioni meno estreme. Quote:
Non direi quindi che l'approccio VLIW abbia minato questa caratteristica... al più è una pecca di AMD, se i problemi citati nell'articolo sono reali (non ho esperienza diretta e non mi pronuncio a riguardo). Ultima modifica di calabar : 12-02-2012 alle 10:46. |
|||
![]() |
![]() |
![]() |
#63 | |||
Senior Member
Iscritto dal: Oct 2005
Messaggi: 38297
|
Quote:
![]() Quote:
But why does AMD want to chase compute in the first place when they already have a successful graphics GPU business? In the long term GCN plays a big part in AMD’s Fusion plans, but in the short term there’s a much simpler answer: because they have to. In Q3’2011 NVIDIA’s Professional Solutions Business (Quadro + Tesla) had an operating income of 95M on 230M in revenue. Their (consumer) GPU business had an operating income of 146M, but on a much larger 644M in revenue. Professional products have much higher profit margins and it’s a growing business, particularly the GPU computing side. As it stands NVIDIA and AMD may have relatively equal shares of the discrete GPU market, but it’s NVIDIA that makes all the money. For AMD’s GPU business it’s no longer enough to focus only on graphics, they need a larger piece of the professional product market to survive and thrive in the future. And thus we have GCN. http://www.anandtech.com/show/5261/a...-7970-review/2 a fronte di un mercato, quello delle gpu discrete che sul lungo periodo è dato come al capolinea, qual'è la scelta vincente o meno (anche se in qualche modo obbligata? ![]() da non dimenticare che contemporaneamente, se Amd grazie ai suoi ottimi prodotti ha conquistato fette di marketshare in mabito vga discrete per il gaming, nVidia ha resistito benissimo, questo dato da solo vale a dire che nonostante le sue gpu siano state pensate con più di un occhio di riguardo al gpgpu, hanno comunque reso bene sul fronte gaming....tutto sommato direi che secondo me è stata leggermente più premiante la scelta nVidia, quindi. p.s.: chiariamo in maniera esplicita: nessuna allusione con le parolee "onestà intellettuale", non volevo offenderti nè chiamarti fanboy, solo dire quello che ho detto... Quote:
![]()
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48 le vga che ho avuto |
|||
![]() |
![]() |
![]() |
#64 | |
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14734
|
Secondo me nel valutare vincente la strategia nvidia non tieni conto di alcune cose:
- davo sott'inteso che si parlasse dell'ambito consumer, e li Nvidia ha sofferto. - nvidia vende bene anche per il brand. A parti invertite dubito che AMD avrebbe retto. - nvidia era ed è avanti sulle piattaforme professionali, ad AMD non sarebbe bastato fare una piattaforma adatta al GpGPU, aveva bisogno di sviluppare anche la parte software e il supporto. E difatti ci sta arrivando piano piano col tempo, farlo prima sarebbe stato prematuro. Io speravo avremo visto qualcosa di adeguato in minor tempo, ma a quanto pare il progetto che porterà poi a fusion richiede più tempo. Quote:
In questo senso non colgo il nesso. |
|
![]() |
![]() |
![]() |
#65 | ||
Senior Member
Iscritto dal: Oct 2005
Messaggi: 38297
|
Quote:
2) vende bene per il brand dove, in ambito gaming? Non credo che Ati fosse meno conosciuto e stimato come marchio in quell'ambito...cmq se uno si è fatto un marchio se l'è fatto con i fatti, non credi? 3) ma anche qui siamo sul discorso che i risultati vengono a seguito di una scelta strategica e del cercare di lavorare bene nella direzione intrapresa: una volta erano le Quadro con i relativi driver, oggi il gpgpu con CUDA, se nVidia negli anni si è fatta un nome in realtà dove i fanboy stanno a zero, ci sarà un perchè forse Amd pensava di poter supplire grazie alle cpu, nel frattempo, ad ogni modo sono contento che pure Amd ci sia buttata infine, un pò di concorrenza non può che far bene, in ogni ambito (direbbe Monti ![]() ![]() Quote:
chiudo per dire: che te ne fai di una potenza superstellare se poi non puoi usarla? E' come avere una Ferrari con le gomme e le sospensioni di una Panda ![]()
__________________
Corsair 5000D - Ryzen 7 7700 - Asrock B650E PG - 2x16gb G.Skill Trident Z5 ddr5 6000 mhz - GeForce Rtx 4070Ti S. - Samsung 980 pro 1tb + Crucial mx500 1tb + WD 1tb - Corsair rm850w - LG oled C4 48 le vga che ho avuto |
||
![]() |
![]() |
![]() |
#66 |
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14734
|
Cerco di rispondere in breve
![]() 1) Certamente, ma devi guardare come il discorso è iniziato. Un utente diceva che le schede nvidia andavano meglio (si parlava di ambito gaming consumer), io gli ho detto che invece in quell'ambito la VLIW di amd aveva dato risultati migliori. Che poi la scelta nvidia abbia pagato altrove è un discorso differente. 2) Intendevo in ambito gaming, ma direi che vale anche in generale. Per quanto Ati sia un brand conosciuto, storielle come quella che nvidia fa driver migliori fanno ancora presa su molti. 3) Se devo essere sincero, data l'anzianità del progetto fusion, pensavo che AMD si sarebbe buttata sul GpGPU prima di Nvidia. Direi che mi sbagliavo! ![]() 4) Per il crossfire, io non do affatto per scontato che l'approccio VLIW complichi la sua gestione lato driver. La difficoltà sta nell'ottimizzare l'architettura, ma una volta fatto, siamo sicuri che passare al crossfire richieda ulteriori difficoltà? O si tratta semplicemente di un "fattore esterno"? PS: dato che AMD con la serie HD79xx è passato al vettoriale, le tue preoccupazioni sui driver dovrebbero ridimensionarsi notevolmente! ![]() |
![]() |
![]() |
![]() |
#67 | |
Senior Member
Iscritto dal: Apr 2003
Città: Roma
Messaggi: 3237
|
Quote:
Mi era già chiaro che non c'è un raddoppio della pipeline, ma solo una doppia frequenza come nel pentium4 per il solo stage di esecuzione. Gestire le dipendenze di 32 thread avrà qualche peso o no in termini di logica ? Se non sbaglio ci sono 2x16 scheduler che gestiscono 1024 thread al reference clock per ciclo... Ultima modifica di Ren : 12-02-2012 alle 15:29. |
|
![]() |
![]() |
![]() |
#68 | |
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
Quello a cui voglio arrivare è che mantenendo un'architettura come quella di fermi superscalare non puoi triplicare le fpu passando da 40 a 28 nm e, addirittura, riducendo il die size e, a maggior ragione non puoi farlo eliminando quei circuiti che o in fermi non esistono (alu fp64) o gli permettono di mantenere un'efficienza architetturale elevata (i 2 warp scheduler per SIMD). |
|
![]() |
![]() |
![]() |
#69 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3569
|
@Yossarian e pleg
immensi grazie ad entrambi per le info date. Pleg, mi piace essere sorpreso.. quando la sorpresa è positiva però! Ovvero, dacci indicazione anonima e casuale del fatto che il GK100/GK110 uscirà prima di quest'estate ![]() Se per sorpresa intendi che dovremo aspettare l'anno prossimo per il nuovo chippone.. eh, sì rimarrei sorpreso ma anche un po' deluso. Il tuo amico Charlie sostiene che il tape-out del GK110 sia stato fatto solo recentemente e che quindi ci vorranno 6 mesi per vederlo sugli scaffali... @calabar e appleroof In verità l'architettura scalare di nvidia si è mostrata molto più potente (e flessibile) di quella VLIW di AMD. Infatti il G80 e la revisione G92 hanno fatto sfaceli al punto di convincere nvidia che l'architettura fosse pronta per essere usata anche in ambito GPGPU. Al tempo del G92 le architetture VLIW di AMD in confronto facevano pena. Tutti hanno parlato (qualcuno lamentandosi) per un sacco di tempo del fatto che nvidia sia riuscita a riciclare il G92 per tre serie consecutive (via via in fasce sempre più basse) semplicemente perché AMD non è riuscita a fare nulla di equivalente in perf/watt (in perf assolute ovviamente sì, ma come detto, quando si scendeva alla fascia con le perf del G92 nessuna nuova architettura AMD è stata concorrenziale per diverso tempo). Poi nvidia ha decido di fare "le mattonelle" con molta più logica per la gestione del codice GPGPU (con uso di transistor e watt) invece che metterci molte più unità di elaborazione o risparmiare sui watt e quindi è ovvio che l'efficienza di nvidia nel gaming sia scesa. Rimane comunque il fatto che l'architettura scalare di nvidia abbia mostrato di essere superiore perché adatta a gaming + GPGPU mentre quella di AMD solo al gaming. Per questo le scelte strategiche delle due aziende sono state diverse negli ultimi anni. @calabar La questione dell'inserimento di risorse per il supporto a linguaggi alto livello + migliori cache per il GPGPU non si può certo paragonare alla ridondanza delle risorse di AMD. Nel primo caso è una scelta strategica di funzionamento del chip e del mercato in cui lo si vuole porre, nel secondo caso è solo una scelta di miglioramento delle rese. La fusione delle parti ridondanti in eccesso, buone o rotte che siano, porta questi ad avere impatto zero sui consumi. Le parti funzionali di nvidia no, per cui la diversità perf/watt si vede anche in queste cose. |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 22:01.