View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
Penso che Navi sarà "Vega done right" senza particolari stravolgimenti dell'architettura. Dividere compute e gaming è l'unica via realistica per poter essere competitivi.
Vega doveva essere "Fiji done right"....:muro:
Navi + zen 2 su ps5 fine 2019?
Mi sembra alquanto improbabile.
Vedrei meglio Vega + zen + con quella finestra di lancio
Inviato dal mio XT1068 utilizzando Tapatalk
Navi + zen 2 su ps5 fine 2019?
Mi sembra alquanto improbabile.
Vedrei meglio Vega + zen + con quella finestra di lancio
Inviato dal mio XT1068 utilizzando Tapatalk
considerando che in genere i custom chip di amd sono sempre ibridi customizzati a seconda delle richieste del cliente, non mi stupirei se la parte cpu fosse uno metà strada tra zen+ e zen2. Dipende sempre da cosa vorranno fare con zen2 ( se è un mero aumento da 8+8 a 12+12 possono metterci quello che vogliono).
Sul lato gpu, anche qui a seconda delle ottimizzazioni che il cliente vuole, essendo però già navi una ottimizzazione di vega, non mi stupirei se il soc per le console made in amd avesse una gpu ibdrida tra le due, o con caratteristiche che poi si troveranno su navi gpu desktop
Gyammy85
05-04-2018, 13:08
Pensa un po' che la Golf la fanno dal 1974 e sono alla settima serie.
È osoleta?
44 anni della stessa minestra?
O forse si è evoluta con il passare delle generazioni?
Penso fosse ironico
Lo è. Nel compute. Cosa di cui personalmente mi sciacquo le OO.
Non mi dire che anche tu pensi sia una fury occata...
Intanto fa il 70% in più a parità di unità di calcolo, proprio un fail lato gaming.
Navi + zen 2 su ps5 fine 2019?
Mi sembra alquanto improbabile.
Vedrei meglio Vega + zen + con quella finestra di lancio
Inviato dal mio XT1068 utilizzando Tapatalk
In realtà navi è data per il 2019, nessuno impedisce che per la fine del 2018 possano esserci versioni customizzate in anteprima per la ps5.
Anche l'xbox 360 aveva una gpu che stava a metà fra le x1000 e la hd2900xt, perché aveva le unità per la tessellation...eppure è uscita molto prima della 2900xt.
Gyammy85
05-04-2018, 13:19
Boh non sono sicuro.
Comunque il fatto che sia un'altra evoluzione di gcn non vuole dire nulla.
"evoluzione" può nascondere un banale shrink o modifiche all'architettura che ne cambiano fortemente il rendimento.
Così come al Golf del 1974 non ha quasi nulla a che fare con quella di oggi.
In realtà avrebbero bisogno di un qualche tipo di scheduling via hardware, e di aumentare drasticamente gli sp, ma penso sia insito nei 7 nm.
GCN per amd è un pò come maxwell per nvidia, va bene e deve soltanto essere aggiornata.
Gyammy85
05-04-2018, 13:26
Ma lo scheduling non doveva essere compensato dalle dx12/vulkan?
Si, ma le dx12 sono contro la filosofia aziendale del principale competitor, vulkan ci sono solo 2 giochi. Oppure si va di dx11 e si mettono pezze come gli shader instrincts e fp16 come per far cry 5.
Ricorda che il primitive discard richiederebbe pure un aggiornamento delle api, ed è quello che dovrebbe colmare il gap geometrico con nvidia.
mikael84
05-04-2018, 14:40
Penso fosse ironico
Non mi dire che anche tu pensi sia una fury occata...
Intanto fa il 70% in più a parità di unità di calcolo, proprio un fail lato gaming.
Il 70% in base a cosa? Spero di aver letto male il tuo post
https://tpucdn.com/reviews/MSI/GTX_1070_Ti_Gaming/images/perfrel_2560_1440.png
https://www.hardware.fr/articles/968-17/recapitulatif-performances.html
Tra la fury e la vega 64 c'è un 30% scarso.
A pari clock la fury è più potente perchè ha attiva la compressione, e gli shader array sono allocati in 4 CU verso la la l2, con Vega sono 3 i CU verso la l2, con il conseguente aumento di latenze via l2 ed l1;)
mikael84
05-04-2018, 15:14
penso intendesse dire dove Fiji va male, tipo in quei casi dove Fury va come la 580/1060, li altro che se fa soltanto il +30% anche senza la compressione siamo intorno al +50~60% di Vega dalla Fury.
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-2560-1440
Prendi la Media di Cbase, in QHD sta a +50%
(Assassin's Creed Origins – 2.560 × 1.440: FPS, Durchschnitt
Battlefield 1 – 2.560 × 1.440: FPS, Durchschnitt
Call of Duty: WWII – 2.560 × 1.440: FPS, Durchschnitt
Dawn of War 3 – 2.560 × 1.440: FPS, Durchschnitt
Destiny 2 – 2.560 × 1.440: FPS, Durchschnitt
Deus Ex: Mankind Divided – 2.560 × 1.440: FPS, Durchschnitt
Doom – 2.560 × 1.440: FPS, Durchschnitt
Elex – 2.560 × 1.440: FPS, Durchschnitt
F1 2017 – 2.560 × 1.440: FPS, Durchschnitt
Gears of War 4 – 2.560 × 1.440: FPS, Durchschnitt
Ghost Recon Wildlands – 2.560 × 1.440: FPS, Durchschnitt
Mass Effect Andromeda – 2.560 × 1.440: FPS, Durchschnitt
Mittelerde: Schatten des Krieges – 2.560 × 1.440: FPS, Durchschnitt
Overwatch – 2.560 × 1.440: FPS, Durchschnitt
Prey – 2.560 × 1.440: FPS, Durchschnitt
Shadow Warrior 2 – 2.560 × 1.440: FPS, Durchschnitt
Star Wars Battlefront 2 – 2.560 × 1.440: FPS, Durchschnitt
The Evil Within 2 – 2.560 × 1.440: FPS, Durchschnitt
The Witcher 3 – 2.560 × 1.440: FPS, Durchschnitt
Titanfall 2 – 2.560 × 1.440: FPS, Durchschnitt
Wolfenstein 2 – 2.560 × 1.440: FPS, Durchschnitt)
se prendiamo già come esempio i primi 2 giochi, in ACO Vega fa +60% sulla Fury mentre in BF1 fa +40%, ma questo perché e Fiji che scala in modo diverso, in ACO va come 580/1060, in BF1 va -10% dalla 1070...
in COD fa +80%, in Dawn of War 3 la fury va come la 1070 e quindi Vega fa solo +30%...
Si siamo daccordo che la Fury ormai non regge via ram, sopratutto con i giochi attuali, e non ha pipeline HWS, ma se portiamo le schede di base la fury è leggermente più potente.
https://www.gamersnexus.net/images/media/2017/GPUs/vega/fe/ipc/vega-vs-furyx-aots-4k.png
https://www.gamersnexus.net/images/media/2017/GPUs/vega/fe/ipc/vega-v-furyx-gtav.png
Ricordo che la Fury non ha il primitive discard, e di conseguenza via geometrica perde troppo, saturando velocemente i buffer l1/l2. Attivandogli certi filtri la ammazzi.;)
Dovresti utilizzare parte dei CU per il culling.
Gyammy85
05-04-2018, 18:27
http://www.guru3d.com/news-story/samsung-2018-qled-tvs-will-support-120hz-freesync-and-vrr.html
Wow :cool: :cool:
Un tv freesynch lo prenderei volentieri :oink: :oink:
antonioalex
05-04-2018, 19:08
http://www.guru3d.com/news-story/samsung-2018-qled-tvs-will-support-120hz-freesync-and-vrr.html
chiaro segno che anche le console utilizzeranno il freesync, ottimo direi, sperando che tolgano anche quel fastidioso blur dai game :O
giovanbattista
05-04-2018, 19:33
ve lo avevo detto che arrivavano e prima di quanto pensassi spero facciano qualche pollicciaggio:D umano tipo 43/48 di + x me è troppo
Gyammy85
05-04-2018, 20:13
chiaro segno che anche le console utilizzeranno il freesync, ottimo direi, sperando che tolgano anche quel fastidioso blur dai game :O
Ma cos'avete tutti contro il blur? E' un effetto fighissimo
Non siamo più nel 2002...
sgrinfia
05-04-2018, 20:20
Ma cos'avete tutti contro il blur? E' un effetto fighissimo
Non siamo più nel 2002...
Sarà ...ma io non lo sopporto....
sniperspa
05-04-2018, 20:44
Ma cos'avete tutti contro il blur? E' un effetto fighissimo
Non siamo più nel 2002...
Siamo nel 2018 e io ci vedo in real ancora senza blur a meno di non aver dimenticato gli occhiali a casa :fagiano:
Gyammy85
05-04-2018, 20:50
Siamo nel 2018 e io ci vedo in real ancora senza blur a meno di non aver dimenticato gli occhiali a casa :fagiano:
Ma il blur nei giochi non lo vedi quando stai fermo ma in movimento, o quando vedi muoversi i personaggi, esattamente come nella realtà. Se fissi qualcosa in movimento vedi tutto il resto sfocato, se fissi le cose ferme vedi sfocata la cosa che si muove.
fraussantin
05-04-2018, 20:50
Ma cos'avete tutti contro il blur? E' un effetto fighissimo
Non siamo più nel 2002...:eek:
Scherzi vero?
fraussantin
05-04-2018, 20:55
Ma il blur nei giochi non lo vedi quando stai fermo ma in movimento, o quando vedi muoversi i personaggi, esattamente come nella realtà. Se fissi qualcosa in movimento vedi tutto il resto sfocato, se fissi le cose ferme vedi sfocata la cosa che si muove.Non c'entra il movimento ma la distanza. L'occhio funziona esattamente come un obiettivo fotografico.
Ma eccetto che in alcune cut per dare profondità alla scena non ha senso.
Toglie nitidezza e basta.
antonioalex
05-04-2018, 21:15
Ma il blur nei giochi non lo vedi quando stai fermo ma in movimento, o quando vedi muoversi i personaggi, esattamente come nella realtà. Se fissi qualcosa in movimento vedi tutto il resto sfocato, se fissi le cose ferme vedi sfocata la cosa che si muove.
si, se vivi in un mondo alla fast and furious, nnostante ho un bel po di problemi con gli occhi le scie non le noto nella realtà, no ed ancora no, il blur è solo una schifezza, attualmente utilizzata solo per mascherare in parte i frame bassi, col freesync la storia dovrebbe cambiare in meglio
Non c'entra il movimento ma la distanza. L'occhio funziona esattamente come un obiettivo fotografico
si, funzionano alla stessa maniera, ma l'occhio umano è decisamente + efficiente anche paragonato al miglior obbiettivo esistente a questo mondo, a patto che tutto funzioni bene :D
fraussantin
05-04-2018, 21:20
si, se vivi in un mondo alla fast and furious, nnostante ho un bel po di problemi con gli occhi le scie non le noto nella realtà, no ed ancora no, il blur è solo una schifezza, attualmente utilizzata solo per mascherare in parte i frame bassi, col freesync la storia dovrebbe cambiare in meglio
si, funzionano alla stessa maniera, ma l'occhio umano è decisamente + efficiente anche paragonato al miglior obbiettivo esistente a questo mondo, a patto che tutto funzioni bene :D
Spe.. mettono il freesync sulle console?
Gyammy85
05-04-2018, 21:36
Spe.. mettono il freesync sulle console?
Si il supporto c'è lo hanno attivato qualche tempo fa
Free Gordon
05-04-2018, 21:50
Pensa un po' che la Golf la fanno dal 1974 e sono alla settima serie.
È osoleta?
44 anni della stessa minestra?
O forse si è evoluta con il passare delle generazioni?
Il problema è che GCN non si è evoluta... :asd:
https://preview.ibb.co/hrbLWc/Immagine.jpg (https://ibb.co/j9VfWc)
Il 18% con la quarta generazione... :fagiano:
Se Navi non è una sterzata forte, direi che saremo ben più che nella sfera dell'obsolescenza....Saranno 8 anni nel 2019!! :D
Gyammy85
05-04-2018, 22:00
Il problema è che GCN non si è evoluta... :asd:
https://preview.ibb.co/hrbLWc/Immagine.jpg (https://ibb.co/j9VfWc)
Il 18% con la quarta generazione... :fagiano:
Se Navi non è una sterzata forte, direi che saremo ben più che nella sfera dell'obsolescenza....Saranno 8 anni nel 2019!! :D
Ma quindi polaris da 32 rops che va quanto fury e 390x da 64 rops non si è evoluta? :fagiano:
Quando arrivate a "era meglio continuare con vliw4" fatemi un fischio
Free Gordon
05-04-2018, 22:01
Navi + zen 2 su ps5 fine 2019?
Mi sembra alquanto improbabile.
Vedrei meglio Vega + zen + con quella finestra di lancio
Inviato dal mio XT1068 utilizzando Tapatalk
Sarà certamente un Raven Ridge+ (nel senso che avrà delle customizzazioni) e quindi un core sulla base di Pinnacle Ridge... e non di Summit Ridge ;) mentre per quel che riguarda la GPU se esce a fine 2019 sarà certamente sulla base di Navi e non di Vega (che è uscita addirittura ad Agosto 2017.... :fagiano: )
Gyammy85
05-04-2018, 22:02
https://s9.postimg.org/pq6okmk7z/2018-04-05.png (https://postimg.org/image/wgn5u27dn/)
Free Gordon
05-04-2018, 22:09
GCN per amd è un pò come maxwell per nvidia, va bene e deve soltanto essere aggiornata.
.......va' bene?? :D :D :D
Dal 2014 sta solamente prendendo sonore scoppole nel perf/watt...e nel perf/dimensioni e dici che va' bene???
Sono 4 anni di mazzate... e il market share non è mai stato così basso come nel 2015, ripresosi un pochino con Polaris10 (forse il chip migliore, dopo Hawaii, fatto con GCN).
Secondo me non va' affatto bene... ma proprio per niente.. :)
Gyammy85
05-04-2018, 22:17
.......va' bene?? :D :D :D
Dal 2014 sta solamente prendendo sonore scoppole nel perf/watt...e nel perf/dimensioni e dici che va' bene???
Sono 4 anni di mazzate... e il market share non è mai stato così basso come nel 2015, ripresosi un pochino con Polaris10 (forse il chip migliore, dopo Hawaii, fatto con GCN).
Secondo me non va' affatto bene... ma proprio per niente.. :)
Si proprio mazzate...specie con gittiàgingue
Non capisco se stai trollando o ti hanno hackerato l'account
Gyammy85
05-04-2018, 22:21
Quindi vega era tutto tranne che da gaming prominer... forse sto coniando un nuovo termine che finirà sul vocabolario tra prosumer e petaloso.
Adesso ci sarà la vega che investirà autonomamente i pedoni... AMD sei indietro Nvidia lo ha già fatto!
A quando qualcosa per giocare?
Sulle prossime vga Nvidia al posto di draghi, leoni e altre bestie pericolose metteranno un SUV :asd:
Se fanno il refresh col processo ottimizzato come per ryzen potrebbero non farla la rx a 7 nm, si buttano direttamente su navi
Free Gordon
05-04-2018, 22:21
Ma quindi polaris da 32 rops che va quanto fury e 390x da 64 rops non si è evoluta? :fagiano:
Quando arrivate a "era meglio continuare con vliw4" fatemi un fischio
ma cosa c'entra.. quello dipende essenzialmente dal clock.
hawaii girava a 1ghz, Polaris a 1.4 grazie a 14nm.
Parlavo chiaramente di architettura di base, GCN si è evoluta ben poco... ;) quel test che ho postato è abbastanza chiaro direi.
Basta vedere che tra Fury 4096SP e Vega 4096SP a parità di clock c'è praticamente la stessa performance.
L'evoluzione di GCN in 7 anni, fatti salvi i salti di PP...è stata davvero minima.. per non dire PENOSA. :fagiano:
Purtroppo.
Free Gordon
05-04-2018, 22:28
Si proprio mazzate...specie con gittiàgingue
Non capisco se stai trollando o ti hanno hackerato l'account
La 470/480 è stata una scheda "buonina", l'avrei anche acquistata.. ma dopo Pitcairn e Hawaii (tralasciamo Tahiti che fu l'esperimento originario), AMD ha fatto un buco nell'acqua dietro l'altro. ;)
E' abbastanza chiaro.
Performance medie pari o inferiori e consumi maggiori... e die più grandi.
La fascia PIU' alta ormai da 3 anni a solo appannaggio di Nvidia.
Se questo è andare bene... allora... :sofico:
Gyammy85
05-04-2018, 22:28
ma cosa c'entra.. quello dipende essenzialmente dal clock.
hawaii girava a 1ghz, Polaris a 1.4 grazie a 14nm.
Parlavo chiaramente di architettura di base, GCN si è evoluta ben poco... ;) quel test che ho postato è abbastanza chiaro direi.
Basta vedere che tra Fury 4096CU e Vega 4096CU a parità di clock c'è praticamente la stessa performance.
L'evoluzione di GCN, fatti salvi i salti di PP...è stata davvero minima.. per non dire PENOSA. :fagiano:
In pratica ste amd sono dei Pentium 4 ee, salgono solo di frequenza...
A sto punto pigliamo una 6970, la shrinkiamo e la fiondiamo a 28 GHz, così facciamo il punteggione al 3dmark 13.
Secondo te bastano 400 mhz scarsi in più per pareggiare 32 rops vs 64 e 2880 sp vs 2304, wow. Ah già, 256 tmu vs 144. E andare comunque di più rispetto a una 390x da 8 gigga in giochi come wolf 2 e far cry 5, che sfoggiano le migliori tecnologie oggi disponibili...
Proprio uguale uguale
Gyammy85
05-04-2018, 22:31
La 470/480 è stata una scheda "buonina", l'avrei anche acquistata.. ma dopo Pitcairn e Hawaii (tralasciamo Tahiti che fu l'esperimento originario), AMD ha fatto un buco nell'acqua dietro l'altro. ;)
E' abbastanza chiaro.
Performance medie pari o inferiori e consumi maggiori... e die più grandi.
La fascia PIU' alta ormai da 3 anni a solo appannaggio di Nvidia.
Se questo è andare bene... allora... :sofico:
Eh, ti saresti trovato fra le mani un ottimo fermacarte (cit.)
mikael84
05-04-2018, 23:23
I testi ipc lasciano un po' il tempo che trovano però, underclock del 50% e come se portassi bulldozer a 2.5ghz e sta di fatto che nonostante il collo dei 4 geo, del FE e della compressione assente è un chip equilibrato e non come Fiji, che è a mio parere il peggior chip di AMD sotto GCN.
partire da Fiji e fare Vega con i fondi di amd non era facile.
Beh non è proprio così, i test fanno notare alcune carenze, quando teoricamente a pari clock dovresti andare di più, poi chiaro che una lavora 1 050 un'altra a clock più elevato.
Fury è sballata per via della nullità lato geometrico, e delle pipeline HWS.
Se prendiamo un AC, gioco che esalta nVidia vedremmo che sia la Fury che la 290/390 crollano, ma non la 580 che mantiene tranquillamente il passo della rivale.
Dove si sfruttano le ALU in maniera efficace la fury è tutt'ora un'ottima scheda.
La Fury può elaborare in sequenza sino a 4 CU 256st, e condividerne la l1 ed l/2, unificata a questo giro alle rop's.
Vega no, può eseguire solo 192st in sequenza e condividere la l1 dei 3 CU. Il 4° CU deve accedere alle latenze l1/l2 differentemente.
Ma tu che sai, perché non è attiva la compressione? :stordita:
Questo devi chiederlo agli ingegneri Amd. Probabilmente hanno tralasciato il gaming per il compute, dove Vega va piuttosto bene.
Per essere più competitivi in campo gaming, bisogna utilizzare 6 geo engine, sfruttare la compressione, ridurre la l2, utilizzare memorie a larga banda come le ddr6 e sfruttare le rop's (che diventerebbero 96).
Ricordo che solo 8 rop's sono in grado di fornire 20 gb/s di bw effettivi e non teorici.
Abilitando la compressione, in stile Pascal, dove anche i colori vicini possono essere compressi, e 6 geo engine, "rischi" di avere una BW quasi doppia a vega,
Certo rimangono le pecche sul backfaceculling, dove non avendo unità dedicate devi emularle via CU, sacrificando unità di calcolo, mentre nVidia ha il 1° stadio, sul raster che se ne occupa sgravano l'SM.
Il primo stadio via raster, sarebbe il 6° per unità di calcolo, e l'8° si occupa di eliminare i dati inutili. :)
mikael84
06-04-2018, 01:59
In pratica ste amd sono dei Pentium 4 ee, salgono solo di frequenza...
A sto punto pigliamo una 6970, la shrinkiamo e la fiondiamo a 28 GHz, così facciamo il punteggione al 3dmark 13.
Secondo te bastano 400 mhz scarsi in più per pareggiare 32 rops vs 64 e 2880 sp vs 2304, wow. Ah già, 256 tmu vs 144. E andare comunque di più rispetto a una 390x da 8 gigga in giochi come wolf 2 e far cry 5, che sfoggiano le migliori tecnologie oggi disponibili...
Proprio uguale uguale
Le rop's AMD sono da MSAA e blending fp32 (per rendere l'idea in questo tipo di calcolo, nVidia perde 1/4 di prestazioni)non da z-buffer(dove si richiede doppio ciclo per color-ops/z-ops e backfaceculling), puoi averne anche 1024, ma il più delle volte sono in idle.
Quelle di polaris sono nettamente più efficienti, in quanto lavorano di compressione, cosa che non fa la 390, ha appena 253 gb/s effettivi su 384gb/s teorici.
Una differenza sostanziale è che polaris ha il primitive discard, la 390 no, ed una l2 doppia.
Polaris è come se calcolasse 5 triangoli su 4 rispetto (a 1250) alla 390 ed è in grado di utilizzare una compressione stile Pascal, neppure Maxwell, facendo uso della compressione perfetta, 2:1 difficile con Maxwell, che spesso non comprimeva a tali dati.
Quando aggiungi la tassellazione Polaris è ben superiore, la 290/390 va in bambola totale. Non solo non riesce ad espellere la geometrica calcolata, ma intasa le cache di dati, e questa è esattamente la metà rispetto Polaris.
La 390 può battere di poco Polaris, solo in applicazioni che fanno uso massiccio di blending e dove non sia richiesto un grosso accesso alla l2;)
Gyammy85
06-04-2018, 07:50
Le rop's AMD sono da MSAA e blending fp32 (per rendere l'idea in questo tipo di calcolo, nVidia perde 1/4 di prestazioni)non da z-buffer(dove si richiede doppio ciclo per color-ops/z-ops e backfaceculling), puoi averne anche 1024, ma il più delle volte sono in idle.
Quelle di polaris sono nettamente più efficienti, in quanto lavorano di compressione, cosa che non fa la 390, ha appena 253 gb/s effettivi su 384gb/s teorici.
Una differenza sostanziale è che polaris ha il primitive discard, la 390 no, ed una l2 doppia.
Polaris è come se calcolasse 5 triangoli su 4 rispetto (a 1250) alla 390 ed è in grado di utilizzare una compressione stile Pascal, neppure Maxwell, facendo uso della compressione perfetta, 2:1 difficile con Maxwell, che spesso non comprimeva a tali dati.
Quando aggiungi la tassellazione Polaris è ben superiore, la 290/390 va in bambola totale. Non solo non riesce ad espellere la geometrica calcolata, ma intasa le cache di dati, e questa è esattamente la metà rispetto Polaris.
La 390 può battere di poco Polaris, solo in applicazioni che fanno uso massiccio di blending e dove non sia richiesto un grosso accesso alla l2;)
Appunto dico, poi sono tutte cose scritte anche nelle varie slide di presentazione, geometria e l2 e rops migliori.
Andresti segnalato per aver dato una risposta cosi tecnica al limite della supercaxxxola all'ennesimo post troll/piagnina di giammy :asd:
Mica sono io che ho sparato "gcn da 8 anni uguale", non mettermi sempre in mezzo
Gyammy85
06-04-2018, 08:04
Ha spiegato tecnicamente al limite della supercazzola quello che diceva Gyammy rispondendo all'ennesimo post troll/piangina di qualcun'altro.
:smack: :smack: :mano: :mano:
Ton90maz
06-04-2018, 09:22
ma cosa c'entra.. quello dipende essenzialmente dal clock.
hawaii girava a 1ghz, Polaris a 1.4 grazie a 14nm.
Parlavo chiaramente di architettura di base, GCN si è evoluta ben poco... ;) quel test che ho postato è abbastanza chiaro direi.
Basta vedere che tra Fury 4096SP e Vega 4096SP a parità di clock c'è praticamente la stessa performance.
L'evoluzione di GCN in 7 anni, fatti salvi i salti di PP...è stata davvero minima.. per non dire PENOSA. :fagiano:
Purtroppo.A difesa di GCN è giusto ricordare che Vega sia un aborto in gaming
Ops l'ho ridetto, e non è il primo di aprile :sofico:
Chi è giusto difendere? GCN O Vega?
A sto punto pigliamo una 6970, la shrinkiamo e la fiondiamo a 28 GHz, così facciamo il punteggione al 3dmark 13.
questa ha un fondo di verità, se amd non avesse avuto necessità di un'archidettura che si integrasse a livello cpu, con il vliw4 avrebbero campato altri 2 o 3 anni, con chip performances/watt/dimensioni molto valido.
comunque il "problema" evidenziato da Free Gordon di gcn semplicemente che è una archidettura molto buona già all'uscita, con tahiti, ha avuto il suo naturale corso e "pinnacolo" con hawaii e poi da li si è arrivato al problema di una maggiore integrazione di cluster e si è lavorato sulle ottimizzazioni arrivando a quel piccolo gioiello di polaris. Però di base sempre rimanendo confinato in un numero di sp sotto i 3000.
E' evidente che gcn è stata sulla cresta dell'onda come top gamma fino a 2 anni fà, per diventare un'ottima fascia media da 2 anni a questa parte.
Oggettivamente amd ha necessità di una archiedettura di fascia alta, da cui derivare una fascia media che gli permetta di fare i prossimi 3anni in tranquillità. Presumo che Navi e derivate svolgeranno questo lavoro egregiamente.
Free Gordon
06-04-2018, 10:28
La 390 può battere di poco Polaris, solo in applicazioni che fanno uso massiccio di blending e dove non sia richiesto un grosso accesso alla l2;)
Polaris gira 350mhz buoni sopra ad Hawaii/Grenada.. :D
Mettiamole alla stessa frequenza e poi vediamo chi va' più forte in media!! :D
Chiaro che è un discorso assurdo, non si può fare... :)
Ma è anche chiaro che GCN è cambiato ben poco nella "sostanza" in 7 anni, si è rifatto diverse volte il trucco...ma nella sostanza BEN poco è cambiato.
Questo era il senso del mio discorso..
Free Gordon
06-04-2018, 10:37
se questo è un post troll/piagnina... siete messi bene... a volte non capisco cosa vi lega così tanto ad un hw... gcn si è difesa "bene" fino ad haway (nella fascia alta) dove almeno aveva prestazioni comparabili ad nvidia
certo, concordo appieno.
seppur unite ad un consumo elevato e laddove veniva spremuta andava anche meglio.
Hmm mica vero..la 780 consuma più o meno uguale... e prende sonore mazzate dalla 290.. ;)
Anzi oggi una 290x/390x quando vengono sfruttate bene con engine nuovi (e dx12/vulkan) si mettono sempre dietro la 970 e spesso anche la 980.
Concordo.
Oggi abbiamo uberfeatures (e uberhw accabiemme) a grappoli e nonostante tutto consumi uber e prestazioni che restano sempre li-li. L'unica che si salva è la fascia media con polaris che almeno offre performance costanti, sostenute ed un consumo di corrente che non è così più elevato della 1060, peccato che non ha venduto AI GAMER quanto meritava a causa del mining...
Ed è quello che confermavo anche io. Polaris10 è un buon chip...ma da Hawaii in poi c'è stato solo questo di "sensato" nell'arsenale di AMD..
se amd avesse sviluppato la haway fottendosene del compute e con gddr invece che le hbm che oggi possiamo dirlo, in game non servono ad un razzo belle per quanto sono, avremmo ben altre schede.
Su questa cosa ho grossi dubbi, GCN per come è stato concepito (general purpose, adatto all'inserimento nelle APU e nel progetto fusion...ricordiamocelo...) non è più competitivo da anni nei confronti della concorrenza che ha avuto un'evoluzione perf/watt decisamente migliore da GM204 in poi. ;)
Certo...AMD non può investire quanto Nvidia nella R&D...questo è il problema più grosso. Ma non volevo andare tanto indietro. Solo dire che con Navi... ci va' una gran bella sterzata, sennò i conti (lato GPU) andranno sempre peggio.
Free Gordon
06-04-2018, 10:40
poi se pensate che con la stessa architettura tra l'altro dichiaratamente general purpose e senza necessità di programmazione specifica e non come vliw si possa fare 2x di IPC nel gaming, mi sa che credete pure che gli elefanti possano volare :sofico:
Ma infatti va' abbandonata in ambito gaming.. :)
Mi pare decisamente evidente ormai..
O vogliono continuare a perdere quote di mercato? :)
P10 li ha tenuti a galla...
Ma...
Non oso pensare ai risultati commerciali che ha ottenuto Vega (fuori dalla corsa al mining...)..
Saranno più che ridicoli, purtroppo per AMD. :fagiano:
Free Gordon
06-04-2018, 10:51
Presumo che Navi e derivate svolgeranno questo lavoro egregiamente.
Vediamo cosa ha combinato Raja. :)
Di certo, per restare "perlomeno vicina" ad Nvidia Perf/watt, avrà dovuto mettere mano PESANTEMENTE su GCN...
Sennò la situazione attuale di Vega si ripeterà...
Un chip della dimensione della 1080Ti...ma che consuma 50W in più...e che va' IN AMBITO GAMING, mediamente come una 1080 (scheda della fascia inferiore).
https://tpucdn.com/reviews/EVGA/GTX_1070_Ti_FTW2/images/perfrel_2560_1440.png
Vediamo Navi....ma con GCN appresso... così com'è stato dalla sua nascita ad oggi, avranno al massimo la possibilità di avvicinarsi nelle performance alla fascia alta dei concorrenti. Nel perf/watt sarà impossibile.
Spero che Raja abbia apportato degli stravolgimenti forti in tutta la baracca...sennò..
una vga venduta è una vga venduta....o ti fa dispiacere vedere le statistiche di steam?
Tanto le sh nove su dieci programmano con il framework nvidia in testa..... a amd interessa fatturare come tutte le aziende, stop il resto è fuffa....
Gyammy85
06-04-2018, 13:13
questa ha un fondo di verità, se amd non avesse avuto necessità di un'archidettura che si integrasse a livello cpu, con il vliw4 avrebbero campato altri 2 o 3 anni, con chip performances/watt/dimensioni molto valido.
Mah, non credo...prendi la 7850. Come perfromance stava intorno ai livelli della 6970, ma se ci fai girare un doom con la 7850 riesci a giocarci, con la 6970 neanche parte. Lato computing/shader vliw4 stava molto molto indoetro rispetto a gcn.
Ma infatti va' abbandonata in ambito gaming.. :)
Mi pare decisamente evidente ormai..
O vogliono continuare a perdere quote di mercato? :)
P10 li ha tenuti a galla...
Ma...
Non oso pensare ai risultati commerciali che ha ottenuto Vega (fuori dalla corsa al mining...)..
Saranno più che ridicoli, purtroppo per AMD. :fagiano:
Si ma senza dati queste affermazioni lasciano il tempo che trovano, a me sembra che ora stiano al 34%, le quote di mercato non hanno fatto che salire negli ultimi 3 anni.
Sempre la solita storia, e la fury non vende, e vega non vende, ecc...un disco rotto, quanto ha venduto la 1070ti? eh tantissimo, è supermodulare :asd:
Ritornando al discorso della ps5, il mio dubbio sulla combo zen 2 + navi riguarda le rese e i prezzi con un lancio nel q3 2019..
La Xbox One x è uscita fine 2017 ma già avevano i kit risalenti a metà 2016 ( un anno e mezzo prima), con una CPU dell'anteguerra e una scheda video uscita desktop uno o due mesi prima (non ricordo di preciso il lancio della 480, ma siamo lì più o meno).
Il tutto ad un prezzo di 500€, non proprio pochi ma neanche tanti (considerando il periodo in cui viviamo causa mining).
Una ps5 con queste caratteristiche e con i problemi evidenziati sopra ( hardware uscito relativamente da poco e probabili scarse rese) quanto costerà?
Contentissimo comunque di vedere zen in qualunque forma sulla ps5, un bel passo in avanti rispetto alla CPU attuale.
Su navi non mi esprimo
Inviato dal mio XT1068 utilizzando Tapatalk
Angeland
06-04-2018, 14:09
A difesa di GCN è giusto ricordare che Vega sia un aborto in gaming
Ops l'ho ridetto, e non è il primo di aprile :sofico:
Chi è giusto difendere? GCN O Vega?
Hai già una 4080ti nel case? :sofico:
No perché seguendo lo stesso principio, anche le controparti sono un aborto, visto che vanno uguali o un 15% in più solo nel caso della top gamma in determinate condizioni.
mikael84
06-04-2018, 14:39
Polaris gira 350mhz buoni sopra ad Hawaii/Grenada.. :D
Mettiamole alla stessa frequenza e poi vediamo chi va' più forte in media!! :D
Chiaro che è un discorso assurdo, non si può fare... :)
Ma è anche chiaro che GCN è cambiato ben poco nella "sostanza" in 7 anni, si è rifatto diverse volte il trucco...ma nella sostanza BEN poco è cambiato.
Questo era il senso del mio discorso..
Che GCN non si sia evoluto nel tempo è per colpa dei back end, e di non avere unità dedicate, come LDS e backfaceculling. Se fate dei test con Heaven, i risultati saranno sempre gli stessi, pur avendo 3 volte la potenza di calcolo.
Con Polaris, AMD ha lavorato molto bene, introducendo le HWS, fattore che permette alla GPU di girare bene anche a risoluzioni basse con CPU scarse, cosa che non riesce alle GPU precedenti.
I miglioramenti ci sono stati, certo senza cambio di architettura non vai lontano, e lo scaling ti rimane sempre un collo di bottiglia.
Riguardo la differenza tra 390 e Polaris, però non basta solo il clock, le 390/x hanno più ST, il doppio delle rop's ed un'ampiezza BW decisamente superiore.
Questo è AC origins, titolo non propriamente AMD, ma le schede che vengono ammazzate sono le vecchie.
https://abload.de/thumb/mjlzeoy1.png (http://abload.de/image.php?img=mjlzeoy1.png)
Polaris 470 ha un vantaggio pur avendo specifiche, tipo rop's e bus quasi dimezzati.
Essendo obbiettivi non è poco.
Nvidia è forte per i clock e per gli stadi scalabili.;)
Non sono nemmeno sicuro che non si possa evolvere ulteriormente per migliorare gli aspetti in cui è più carente:
https://s6.postimg.org/rysjr2an1/navi.jpg (https://postimg.org/image/rysjr2an1/)
credo che il problema sia quando si sale ad alta integrazione di sp, e non è una cosa dovuta al processo produttivo (perchè con fury e vega hanno dimostrato che si può fare).
Il discorso è capire se a loro interessa o se stanno cercando il "ryzen" delle gpu provando a cambiare e non a migliorare quello che hanno in casa. ( Probabilmente o reputano il progetto arrivato a fine vita o non più competitivo, hanno abbandonato vliw quando era ancora estremamente competitivo per spostarsi un un qualcosa di diverso, non mi stupirebbe se abbandonassero una cosa che ormai è arrivata alla sua quarta o quinta iterazione)
Mah, non credo...prendi la 7850. Come perfromance stava intorno ai livelli della 6970, ma se ci fai girare un doom con la 7850 riesci a giocarci, con la 6970 neanche parte. Lato computing/shader vliw4 stava molto molto indoetro rispetto a gcn.
Con la 7850-70 hai avuto il passaggio di pp e sopratutto partivi con un numero di sp (se pur diversi) maggiori, con bus maggiore del 50%. Ed il chip aveva un'area più grande. (Le sp gcn occupano più spazio delle vliw)
Semplicemente da fare solo archidetture gaming, hanno cercato qualcosa di più general, che potesse adattarsi al gaming, gpgpu (con la manna dal cielo mining) e altro con un solo chip da ritagliare a seconda delle necessità.
Da questo punto di vista, gcn è stato un successo, perdere competitività in un singolo ambito (nemmeno tanto) e guadagnarne (molto) in 2 o 3 ambiti diversi.
Angeland
06-04-2018, 14:53
Non ê OT parlare di gcn e delle sue evoluzioni in un thread aspettando, ma se vi irrita così tanto che dirvi, speriamo che navi sia ... buona... come vega
A me sembra che gli unici che si lamentano sempre e comunque di Vega sono quelli che non l'hanno comprata :sofico: , chissà perché tutti i possessori che conosco ne sono soddisfatti e non l'hanno venduta a prezzi stellari causa mining per passare alla concorrenza.
Ma si sa, noi siamo tutti fanboy azionisti AMD campioni di pacche sulle spalle :cool:
Ton90maz
06-04-2018, 15:02
Hai già una 4080ti nel case? :sofico:
No perché seguendo lo stesso principio, anche le controparti sono un aborto, visto che vanno uguali o un 15% in più solo nel caso della top gamma in determinate condizioni.No, ho due schede (una GTX 970 e una RX 580, in due pc diversi) che nemmeno insieme raggiungono una Vega 64 ma non è questo il punto. E' ovvio che si gioca comunque bene ma se Vega fosse stato quello che doveva essere (ed è inutile ripetere le stesse cose) al posto di quella 970 avrei ben altro. Poi il mining ha dato il colpo di grazia, adesso son tutti cessi sovrapprezzati.
Ritornando al discorso della ps5, il mio dubbio sulla combo zen 2 + navi riguarda le rese e i prezzi con un lancio nel q3 2019..
Una ps5 con queste caratteristiche e con i problemi evidenziati sopra ( hardware uscito relativamente da poco e probabili scarse rese) quanto costerà?La ps4 Pro era uscita vicinissima al lancio di polaris e dell'introduzione dei 16 nm FF sulle GPU, non è questo che mi preoccupa.
a parte che mi aspetto un Q4 2019 e non Q3, quindi ottobre novembre dicembre e per ovvi motivi commerciali (holiday) ma anche la X ha features di Vega nonostante siano concettualmente dello stesso periodo, per quello Navi è possibile che sia presente nella PS5, e me lo auguro.Quali feature? Che io sappia è la ps4 pro ad avere feature di vega come (l'inutilissimo?) rapid packed math, ha infatti le compute units più grosse.
mikael84
06-04-2018, 15:27
Con la 7850-70 hai avuto il passaggio di pp e sopratutto partivi con un numero di sp (se pur diversi) maggiori, con bus maggiore del 50%. Ed il chip aveva un'area più grande. (Le sp gcn occupano più spazio delle vliw)
Semplicemente da fare solo archidetture gaming, hanno cercato qualcosa di più general, che potesse adattarsi al gaming, gpgpu (con la manna dal cielo mining) e altro con un solo chip da ritagliare a seconda delle necessità.
Da questo punto di vista, gcn è stato un successo, perdere competitività in un singolo ambito (nemmeno tanto) e guadagnarne (molto) in 2 o 3 ambiti diversi.
Vliw come Kepler lavorava con le dipendenze, che nel caso di vliw perdevi sempre un 20% almeno di calcolo.
Solitamente ti ritrovavi i wavefront in coda, e dovevi aspettare l'esecuzione di un wave, per poi far partire l'altro.
Se il compilatore non era ben programmato, ti ritrovavi ad utilizzare 1/4 di SIMD.
Ottimo per l'utilizzo del lavoro parallelo, spesso si potevano eseguire istruzioni su 256st con soli 16 cicli.
Era tarpato però dal bus, troppo piccolo per quelle rop's, tanto che è come se ne lavorassero 16 in calcoli MSAA o blending fp32 generale(fattore rimediato solo con la 7970).:)
Lo scheduler GCN permette ai 4 vettori di lavorare sempre costantemente.
Penso che una svolta ci voleva.
Vliw come Kepler lavorava con le dipendenze, che nel caso di vliw perdevi sempre un 20% almeno di calcolo.
Solitamente ti ritrovavi i wavefront in coda, e dovevi aspettare l'esecuzione di un wave, per poi far partire l'altro.
Se il compilatore non era ben programmato, ti ritrovavi ad utilizzare 1/4 di SIMD.
Ottimo per l'utilizzo del lavoro parallelo, spesso si potevano eseguire istruzioni su 256st con soli 16 cicli.
Era tarpato però dal bus, troppo piccolo per quelle rop's, tanto che è come se ne lavorassero 16 in calcoli MSAA o blending fp32 generale(fattore rimediato solo con la 7970).:)
Lo scheduler GCN permette ai 4 vettori di lavorare sempre costantemente.
Penso che una svolta ci voleva.
credo che il piano fosse "la strategia zerg" ovvero aumentare il numero di simd per avere le prestazioni "al minimo" superiori o accettabili. Poi tutto quello che veniva verso l'alto era tutto di guadagnato.
Oppure passare al TRIPS ( ma lo ho studiato troppo poco per capire se era veramente una soluzione efficiente per aggirare i limiti del vliw)
majinbu7
06-04-2018, 16:23
ti rispondo solo per questa volta e basta perchè io leggo e capisco benissimo ma soprattutto non sono pazzo e la cosa sta diventando piuttosto seccante, non posso scrivere NULLA che esprima il mio parere senza dovermi sorbire risposte ridicole, sbeffeggianti e trollate. Ed io come altri, anche a risposte tecniche partono le gag.
di "green army" e tutto il resto non siamo "noi" a parlarne, di hashtag e frignate varie non siamo "noi" a parlarne, di lamentele su vega non siamo "noi" a parlarne.
"noi" non possiamo scrivere vega in nessun contesto che partono piagnistei, hashtag, gag inutili, crociate al verde e quant'altro, basta semplicemente non essere d'accordo con i reggenti.
Se non accettate un parere diverso o semplicemente (perchè di questo ormai si tratta) un parere di una persona che ha una scheda video diversa da quella che avete voi (anzi a giudicare dai numeri, in linea di massima " che non avete" voi), non dovreste scrivere su un forum pubblico, aprite un gruppo privato facebook ad iscrizione moderata e accettate soltanto le persone che sono d'accordo con voi.
Ultimate non te la devi prendere , specialmente quando a quotarti per criticare è certa gente, che ormai sappiamo benissimo essere dei fan sfegatati che danno via del loro...io al 90% acquisterò una vega con monitor freesync, e tu fino a poco tempo fa avevi una fury, ma siamo ormai schedati come generali della GreenArmy, che ci vuoi fare :asd:
sgrinfia
06-04-2018, 16:38
No, ho due schede (una GTX 970 e una RX 580, in due pc diversi) che nemmeno insieme raggiungono una Vega 64 ma non è questo il punto. E' ovvio che si gioca comunque bene ma se Vega fosse stato quello che doveva essere (ed è inutile ripetere le stesse cose) al posto di quella 970 avrei ben altro. Poi il mining ha dato il colpo di grazia, adesso son tutti cessi sovrapprezzati.
La ps4 Pro era uscita vicinissima al lancio di polaris e dell'introduzione dei 16 nm FF sulle GPU, non è questo che mi preoccupa.
Quali feature? Che io sappia è la ps4 pro ad avere feature di vega come (l'inutilissimo?) rapid packed math, ha infatti le compute units più grosse.
In verità, neanche una 1080 ti raggiunge vega 64 , almeno guardando le specifiche tecniche , poi in gioco la" Ti" va di più , il mio dubbio che è quello che AMD sapeva a chi erano indirizzate :D (mining).
Certo la scheda va forte anche in game , ma il suo potenziale sarà su codici più parallelizzati , tipo dx 12.
ti rispondo solo per questa volta e basta perchè io leggo e capisco benissimo ma soprattutto non sono pazzo e la cosa sta diventando piuttosto seccante, non posso scrivere NULLA che esprima il mio parere senza dovermi sorbire risposte ridicole, sbeffeggianti e trollate. Ed io come altri, anche a risposte tecniche partono le gag.
di "green army" e tutto il resto non siamo "noi" a parlarne, di hashtag e frignate varie non siamo "noi" a parlarne, di lamentele su vega non siamo "noi" a parlarne.
"noi" non possiamo scrivere vega in nessun contesto che partono piagnistei, hashtag, gag inutili, crociate al verde e quant'altro, basta semplicemente non essere d'accordo con i reggenti.
Se non accettate un parere diverso o semplicemente (perchè di questo ormai si tratta) un parere di una persona che ha una scheda video diversa da quella che avete voi (anzi a giudicare dai numeri, in linea di massima " che non avete" voi), non dovreste scrivere su un forum pubblico, aprite un gruppo privato facebook ad iscrizione moderata e accettate soltanto le persone che sono d'accordo con voi.
"noi".. "voi".. assurdo.. alleggerite la tensione di questo e altri thread, non è normale una situazione del genere, ma dovete TUTTI impegnarvi in questo.
ora stop OT
>bYeZ<
Gyammy85
06-04-2018, 19:45
Riportando l'attenzione su Navi ricordo che si vocifera di una probabile uscita nella seconda metà di quest'anno.
Però come ho detto ancora non si sa nulla mentre per Vega al CES 2017 era già stato anticipato qualcosa.
Quindi la situazione quale potrebbe essere?
Rumors sbugiardati o lancio con meno hype?
Io penso che aspettino la disponibilità in volumi dei 7 nm. Per ora li testeranno con la Vega instinct, poi navi era data per il 2019 da ultima roadmap.
Per la ps5 ci sarà qualche ibrido
Angeland
06-04-2018, 20:24
Io penso che aspettino la disponibilità in volumi dei 7 nm. Per ora li testeranno con la Vega instinct, poi navi era data per il 2019 da ultima roadmap.
Per la ps5 ci sarà qualche ibrido
Stesso mio pensiero.
Secondo me prima del 2019 inoltrato non ci saranno nuove schede "top" dedicate al gaming.
Gyammy85
07-04-2018, 10:10
Speriamo la seconda. :D
La cura Su ha fatto un gran bene al mercato delle cpu, non solo ad AMD.
Io non la vedo così complicata...
Faccio un esempio storico
Quando uscì r600, era progettato per la massima compatibilità con le dx10, mantenendo solo una piccola retrocompatibilità col passato. La parte texuring e rops era sostanzialmente la stessa di una x1950 xtx, perché tanto col resolve via shader dell'aa permesso dalle dx10 non era un problema. Call of juarez in dx10 funzionava così, ed infatti le prestazioni erano pari con quel gioco alle top nvidia.
Ma come al solito, tutto il resto dei giochi non era così, e quelle 16 tmu e 16 rops erano un collo di bottiglia insormontabile.
Avevano scommesso ed è andata male, ma la serie 4000 è stato un successo. Era economica per loro, non ha richiesto chissà quali rimaneggiamenti (40 tmu e 800 sp, e l'abbandono del ring bus, stop), e tutti si sono resi conto di quanto avanti fosse quell'architettura.
Tornando a vega, penso abbiano fatto lo stesso ragionamento.
Una scheda come polaris è a tutti gli effetti rivolta al gaming, perché tutte le ottimizzazioni rispetto a hawaii sono per quello, e mantiene comunque un grosso vantaggio sul computing rispetto a nvidia.
Per vega invece hanno osato come per r600, e come allora, i vantaggi di vega non si vedono tanto nell'immediato, ma nel futuro.
techfede
07-04-2018, 14:24
Ma può essere che veramente dividano la linea compute da quella gaming?
Per quel poco che mi pare di capire, fare una scheda multi chip sarebbe meglio per il compute, mentre sul gaming si potrebbero avere problemi di latenza o sincronia del lavoro, ma l'unico annuncio che mi pare sia ufficiale è quello di vega sui 7nm entro la fine dell'anno, ma che sarà quasi sicuramente per il mercato compute.
Mi viene quindi da chiedere se navi sia una gpu gaming, che però cozza con le notizie iniziali di una scheda multi chip stile ryzen.
Gyammy85
07-04-2018, 14:48
Ma può essere che veramente dividano la linea compute da quella gaming?
Per quel poco che mi pare di capire, fare una scheda multi chip sarebbe meglio per il compute, mentre sul gaming si potrebbero avere problemi di latenza o sincronia del lavoro, ma l'unico annuncio che mi pare sia ufficiale è quello di vega sui 7nm entro la fine dell'anno, ma che sarà quasi sicuramente per il mercato compute.
Mi viene quindi da chiedere se navi sia una gpu gaming, che però cozza con le notizie iniziali di una scheda multi chip stile ryzen.
Ci credo poco.
La potenza nel computing è un vantaggio, lo è sempre stato per loro.
Ton90maz
07-04-2018, 16:49
Io non la vedo così complicata...
Faccio un esempio storico
Quando uscì r600, era progettato per la massima compatibilità con le dx10, mantenendo solo una piccola retrocompatibilità col passato. La parte texuring e rops era sostanzialmente la stessa di una x1950 xtx, perché tanto col resolve via shader dell'aa permesso dalle dx10 non era un problema. Call of juarez in dx10 funzionava così, ed infatti le prestazioni erano pari con quel gioco alle top nvidia.
Ma come al solito, tutto il resto dei giochi non era così, e quelle 16 tmu e 16 rops erano un collo di bottiglia insormontabile.
Avevano scommesso ed è andata male, ma la serie 4000 è stato un successo. Era economica per loro, non ha richiesto chissà quali rimaneggiamenti (40 tmu e 800 sp, e l'abbandono del ring bus, stop), e tutti si sono resi conto di quanto avanti fosse quell'architettura.
Tornando a vega, penso abbiano fatto lo stesso ragionamento.
Una scheda come polaris è a tutti gli effetti rivolta al gaming, perché tutte le ottimizzazioni rispetto a hawaii sono per quello, e mantiene comunque un grosso vantaggio sul computing rispetto a nvidia.
Per vega invece hanno osato come per r600, e come allora, i vantaggi di vega non si vedono tanto nell'immediato, ma nel futuro.Come si fa a dire che con Vega abbiano osato? A me sembra che abbiano raffazzonato alla bene e meglio qualcosa di totalmente inefficiente che poi hanno spremuto, e senza successo.
Gyammy85
07-04-2018, 18:30
Come si fa a dire che con Vega abbiano osato? A me sembra che abbiano raffazzonato alla bene e meglio qualcosa di totalmente inefficiente che poi hanno spremuto, e senza successo.
È una nuova architettura e coi 7 nm si esprimerà al meglio.
Non hanno raffazzonato proprio niente, dato che Vega ha un supporto completo alle dx12, il più completo attualmente. Ha solo bisogno di un aumento di unità di calcolo.
Free Gordon
08-04-2018, 12:39
una vga venduta è una vga venduta....o ti fa dispiacere vedere le statistiche di steam?
Tanto le sh nove su dieci programmano con il framework nvidia in testa..... a amd interessa fatturare come tutte le aziende, stop il resto è fuffa....
Non uso steam e non guardo le sue statistiche sinceramente.. :D
AMD non può sperare nelle "botte di fortuna" legate al mining... Vega è una GPU da gioco...o ce lo siamo dimenticati? :)
Spero proprio che la notizia che vogliono dividere le linee (compute/gaming) sia vera e che la cosa avvenga già con Navi..
AMD non può continuare con quote così basse di mercato, rischia troppo grosso...rischia di non avere più la capacità economica progettuale nei prossimi anni.. :fagiano:
Come farà a rispondere ad Nvidia nei prossimi anni se va' avanti così?
Free Gordon
08-04-2018, 12:56
E' chiaro che gp102 con 6 Geo, relativi cc e clock in più assieme alle rops fanno quel +30%, quello che invece non è chiarissimo e come sia possibile che Vega occupi ben 490mmq, quando me ne sarei aspettati intorno i 400 nonostante il nuovo collegamento L2 alle rops e la pipeline più lunghe per aumentare il clock rate (gira +200mhz su P20 con un Die Size doppio!), e si sa che questo lo paghi in termini di spazio, ma non così tanto.
Ma dai? :D
E invece..guarda un po'...è un mappazzone da 490mmq che viaggia come una 1080... :D e che consuma 50W più della Ti...
Questi sono i dati che contano. ;)
Qualcosa (ben più che qualcosa eh :D ) che non va' c'è... altroché se c'è!! :sofico:
E sai cos'è? E' che GCN nella struttura di base è un'architettura molto meno specifica e ottimizzata per il gioco di quanto non siano le architetture Nvidia degli ultimi (almeno) 4 anni. ;)
Nvidia dopo Fermi ha cambiato strategia, AMD con GCN tira a campare da una vita ormai..
I motivi sono molti, investimenti in primis. Ma per favore smettiamo di difenderla a priori...non porta da nessuna parte.
Avrebbero bisogno di fare un bel "rebuilding from the scratch" il prima possibile... tanto il progetto Fusion è andato completamente app@tt@ne e non ha portato 1 solo dollaro in più nella casse di AMD...
Intel con le GPU integrate è arrivata prima e con risultati (per quel segmento, dove non contano una mazza le performance gaming...diciamocelo ormai :D ) migliori. :)
Le APU continuino pure a produrle, con GPU SEMPRE PIù PICCOLE però (e parche nei consumi ;) ) ma tornino a fare delle GPU come si deve, con un perf/watt alla pari (o migliore come spesso accadeva anni fa') della concorrenza. ;)
Forza AMD, sono convinto che ce la puoi fare..... :)
Non ê OT parlare di gcn e delle sue evoluzioni in un thread aspettando, ma se vi irrita così tanto che dirvi, speriamo che navi sia ... buona... come vega
Infatti non capisco proprio in che modo si possa essere OT, discutendo di questo..qui..
Free Gordon
08-04-2018, 13:05
A me sembra che gli unici che si lamentano sempre e comunque di Vega sono quelli che non l'hanno comprata :sofico: , chissà perché tutti i possessori che conosco ne sono soddisfatti e non l'hanno venduta a prezzi stellari causa mining per passare alla concorrenza.
Ma si sa, noi siamo tutti fanboy azionisti AMD campioni di pacche sulle spalle :cool:
Vega, acquistata al prezzo di una 1080, è una buona scheda. :) Sarà anche più esosa in termini di watt consumati...ma in questo segmento di prestazioni, ci si potrebbe anche passare sopra.
Mai detto il contrario.
Ma questo non è il 3d di Vega, è il 3d sulle future schede AMD, quindi si parla di architetture (ovviamente passate-presenti-future), di prospettive e di conseguenza... di risultati finanziari e di investimenti. :)
Se continuano così, senza metter mano pesantemente all'architettura, perderanno sempre più quote di mercato e di conseguenza denaro.
Qualcosa "lato software professionale e non" ultimamente l'hanno messo su... da quel lato stanno andando nella direzione giusta (seguono Nvidia) ma senza un'archi valida dietro, sono f@ttuti.
E GCN non lo è più da anni, devono dare una sterzata forte a tutta la baracca..
Gyammy85
08-04-2018, 16:52
Ma siamo tornati indietro di un anno? e basta, mi pare che di placement delle nvidia se ne sono fatti abbastanza, fra qui e il thread vega...
Gyammy85
08-04-2018, 18:22
Fermi tutti tutti fermi
https://www.reddit.com/r/Amd/comments/8aolbc/radeon_rx_500x_series_appear_on_amds_website/
Fermi tutti tutti fermi
https://www.reddit.com/r/Amd/comments/8aolbc/radeon_rx_500x_series_appear_on_amds_website/Tranquillo, hanno già sentenziato che sarà la RX 580 con un 5/6 % di prestazioni in più... Nonostante si parla di Q3 2018
Angeland
08-04-2018, 18:37
Vega, acquistata al prezzo di una 1080, è una buona scheda. :) Sarà anche più esosa in termini di watt consumati...ma in questo segmento di prestazioni, ci si potrebbe anche passare sopra.
Mai detto il contrario.
Ma questo non è il 3d di Vega, è il 3d sulle future schede AMD, quindi si parla di architetture (ovviamente passate-presenti-future), di prospettive e di conseguenza... di risultati finanziari e di investimenti. :)
Se continuano così, senza metter mano pesantemente all'architettura, perderanno sempre più quote di mercato e di conseguenza denaro.
Qualcosa "lato software professionale e non" ultimamente l'hanno messo su... da quel lato stanno andando nella direzione giusta (seguono Nvidia) ma senza un'archi valida dietro, sono f@ttuti.
E GCN non lo è più da anni, devono dare una sterzata forte a tutta la baracca..
Una Vega in 10 minuti con profilo custom consuma uguale/meno di una 1080
Fermi tutti tutti fermi
https://www.reddit.com/r/Amd/comments/8aolbc/radeon_rx_500x_series_appear_on_amds_website/
Resta da capire se sia un refresh del refresh (ricordiamoci che la rx 580 è una scheda di quasi due anni fa) oppure qualche succulente novità con magari le GDDR6.
Angeland
08-04-2018, 19:28
mentre una 1080 con profilo custom va meno di una 1060...
boh va beh, comunque curioso il nome 500x, sarebbe un affinamento di polaris? (magari il chip full CU..) ma non dovrebbe vedersela con la 2060 (che dovrebbe essere un cambio architettura)?
Oltre 30 minuti di ritardo ahi ahi ahi :sofico: :asd:
Oltre 30 minuti di ritardo ahi ahi ahi :sofico: :asd:
basta con sti giochetti
sospeso 5gg
>bYeZ<
mikael84
08-04-2018, 22:10
Ma dai? :D
E invece..guarda un po'...è un mappazzone da 490mmq che viaggia come una 1080... :D e che consuma 50W più della Ti...
Questi sono i dati che contano. ;)
Qualcosa (ben più che qualcosa eh :D ) che non va' c'è... altroché se c'è!! :sofico:
E sai cos'è? E' che GCN nella struttura di base è un'architettura molto meno specifica e ottimizzata per il gioco di quanto non siano le architetture Nvidia degli ultimi (almeno) 4 anni. ;)
Nvidia dopo Fermi ha cambiato strategia, AMD con GCN tira a campare da una vita ormai..
I motivi sono molti, investimenti in primis. Ma per favore smettiamo di difenderla a priori...non porta da nessuna parte.
Avrebbero bisogno di fare un bel "rebuilding from the scratch" il prima possibile... tanto il progetto Fusion è andato completamente app@tt@ne e non ha portato 1 solo dollaro in più nella casse di AMD...
Intel con le GPU integrate è arrivata prima e con risultati (per quel segmento, dove non contano una mazza le performance gaming...diciamocelo ormai :D ) migliori. :)
Purtroppo così rattoppato ti pesano troppo il rapporto tra rop's ed l2 maestosa, con probabili CU leggermente più complessi.
Un raster Polaris ti pesa circa 55 mmq2 con 9 CU/512kbl2 e 8 rop's.
Un raster Vega ti pesa circa 115mmq2 con 16 NCU, però devi levare considerare tutta l'immensa l2.
Se levassimo la l2 e le rop's, rimarrebbero circa 70mm2, però va considerato che le rop's AMD da MSAA, sono molto complesse. 1 rop's (4 z/stencil).
Nvidia sostanzialmente se la gioca via clock, se non avesse quelli, dovrebbe caricare di ALU per compensare.
AMD, ha il problema dello scaling, ripartendolo con 6 engine (almeno) recupererebbe molto (già 2 geo engine in via geometrica sono 6 TPC nvidia).
Ti faccio un esempio banale, tramite fury/vega in salsa nVidia
Prendi una 980ti (simil fury), diminuisci le memorie, leva la compressione della 980ti, ed aumenta solo il clock, da 1200 a 1600/1700.
Immagina come sarebbe una 1080ti così, questo ha fatto AMD
Ora ti diranno: Vega non è una Fiji overclockata!1!1
La cosa che davvero non capisco è, va bene non essere riusciti a fare di meglio lato geometrico, probabilmente erano già al limite dello spazio. Ma perchè togliere la compressione?!
Ma è proprio impossibile via hw su Vega la color compression o semplicemente è misteriosamente disabilitata via driver?
Inviato dal mio HTC U11 utilizzando Tapatalk
techfede
09-04-2018, 08:05
edit: potrebbe tranquillamente essere una pagina placeholder come se ne sono viste a bizzeffe e non rappresentare alcun prodotto futuro
Questa mi pare la soluzione più plausibile, anche perché stavo pensando a questo: se ci fosse un nuovo prodotto lanciato in un periodo sensibilmente vicino, pensate che non avrebbero comunicato qualcosa alla povera Asrock che nel frattempo ha studiato e presentato la sua linea RX 5xx?
Se ci fosse un prodotto che va a sostituire quelle, si sarebbero praticamente giocati un sacco di risorse, quindi le uniche alternative sensate sono che si tratti di un prodotto diverso, o che non voglia dire nulla.
techfede
09-04-2018, 08:56
Non collegherei comunque le due cose, ASRock al momento non credo abbia questa grande allocazione di chip e non credo la vedremo mai in occidente per questa generazione, ma solo in asia, quindi non credo abbia problemi di questo tipo.
Non saprei, da un lato è vero che non è obbligatorio che ci sia un collegamento, ma dall'altro mi sembrerebbe un po' un lancio "fantasma"; cioè, che senso avrebbe annunciare una serie di gpu, senza avere una scorta, per poi annunciarne una nuova poco tempo dopo?
ma alla fine allora il chip 40cu era solo mitologia? avevo capito che c'era la possibilità di vederlo prima o poi.
Comunque un polaris ben carrozzato rischia seriamente di mettersi dietro di tanto in tanto vega in quelle applicazioni bandwith/geometry dipendenti... mah vedremo.
è una leggenda metropolitana che si "continua" ad alimentare da quando è uscita la gpu della xbox one x, che di fatto da 40 cu ( quindi 2560sp) e 12gb di ram connessi con un bus a 384bit.
Certo è anche vero che se hanno le rese e volessero lasciare un'ultimo refresh di polaris per la fascia "media" con 40 cu (quindi un 10% di più di potenza computazione) ed un bus a 384bit (pure con ddr5 "economiche" vorrebbe dire aumentare la banda del 33% quindi passare a 384gb/s).
Insomma potrebbe essere una bella fascia media. Con magari una cut con 32 o 36 e bus a 256bit. (quindi refresh 570-580)
Sarebbe una bella vga per il 1080p, forse anche per il 2k, ihmo non la faranno mai, se davvero sono intenzionati a passare a vega per tutto.
techfede
09-04-2018, 10:40
sarebbe una bomba :cool:
alla fine tuttavia credo che i rumors sul "mini" refresh dal 5% in più saranno più veritieri...
Ma di quanto aumenterebbe il tdp? E la memoria diventerebbe 12 GB? :sofico:
sarebbe una bomba :cool:
alla fine tuttavia credo che i rumors sul "mini" refresh dal 5% in più saranno più veritieri...
tradotto il solito polaris con quei 50mhz in più sul core e sulle ram.
mikael84
09-04-2018, 10:43
perdonami ma ciò che dici lascia un po' il tempo che trova, un post di frasi fatte :stordita:
non si difende nulla, si cerca di capire il perché sia così... se sai farla meglio una gpu, mandagli un curriculum :sofico:
ma poi, ancora con sti 50 watt in più della Ti, oh ma lo fate apposta? :stordita:
ma chi tiene una 1080ti a stock castrata nel clock e tdp? :doh:
oltretutto sono tutte schede bloccate nel OV...
Non si può fare un paragone 1=1 tra polaris e vega, vi dimenticato il perché sia così più grande il raster: c'è il collegamento alle rops/l2 che prima non c'era e pareggia così maxwell/pascal, in più le NCU sono più lunghe e quindi più grosse delle CU tradizionali per salire meglio con il clock, guarda polaris dove si ferma in clock nonostante il DIE grosso la metà :fagiano:
Ora capire il perché sia grande più del doppio, beh non è facile :sofico:
Sicuramente devono ottimizzare gli spazi e non sprecarli, perché così si occupa troppo e si perdono perf/watt.
La prossima fascia media avrà 4 geo, ma la fascia alta dovrà averne 6 di geo anche se mi aspetto che nvidia con i 7nm vada sugli 8geo e quindi rimanere sempre un po' avanti con un chip più equilibrato, però voglio proprio vedere cosa si inventano per contenere il DIE Size per i 6Geo.
Si ma il peso è sempre quello, gran porzione del die è occupato dalla l2 e dalle rop's.
Un polaris con 4mb l2 e 64 rop's arriverebbe ad un'area di 450 circa, figuriamoci Vega, con le NCU, DSBR.:)
Ci sta sia così grande.
Con 6 geo engine richiederebbe 709mmq2, quindi bisognerebbe aspettare i 7nm e smontare 3 mb l2.:fagiano:
mikael84
09-04-2018, 10:56
infatti non l'hanno fatta da 6Geo già adesso proprio per quello sarebbe stata enorme, ma bisogna valutare se il FE regge i 6Geo, ma anche con i 7nm dovranno rivedere qualcosa per non bruciarsi il salto nodo così come con i 14nm...
cosa intendi per smontare la l2?
Dimezzarla, troppo spazio occupato per un chip gaming, e spingere più verso una BW più spinta.
tra relative compressioni faresti meno accesso alla l2 ed avresti anche minimi migliori.
Il problema di Vega è che è troppo orientato al compute.
Ton90maz
09-04-2018, 11:07
perdonami ma ciò che dici lascia un po' il tempo che trova, un post di frasi fatte :stordita:
non si difende nulla, si cerca di capire il perché sia così... se sai farla meglio una gpu, mandagli un curriculum :sofico:
ma poi, ancora con sti 50 watt in più della Ti, oh ma lo fate apposta? :stordita:
ma chi tiene una 1080ti a stock castrata nel clock e tdp? :doh:
oltretutto sono tutte schede bloccate nel OV...
Non si può fare un paragone 1=1 tra polaris e vega, vi dimenticato il perché sia così più grande il raster: c'è il collegamento alle rops/l2 che prima non c'era e pareggia così maxwell/pascal, in più le NCU sono più lunghe e quindi più grosse delle CU tradizionali per salire meglio con il clock, guarda polaris dove si ferma in clock nonostante il DIE grosso la metà :fagiano:
Ora capire il perché sia grande più del doppio, beh non è facile :sofico:
Sicuramente devono ottimizzare gli spazi e non sprecarli, perché così si occupa troppo e si perdono perf/watt.
La prossima fascia media avrà 4 geo, ma la fascia alta dovrà averne 6 di geo anche se mi aspetto che nvidia con i 7nm vada sugli 8geo e quindi rimanere sempre un po' avanti con un chip più equilibrato, però voglio proprio vedere cosa si inventano per contenere il DIE Size per i 6Geo.
il 40CU è il chip custom della XBOne X, non è mitologia e magari col refresh potremmo pure vederlo, ma non so quanto porterebbe in più in termini di prestazioni...
44 CU. Quella con 40 è la ps4 pro (di cui 4 disattivati)
mikael84
09-04-2018, 11:14
C'è chi ancora non l'ha capito che è orientata più al compute e che sia un "Jack of all trades, master of none", e che nonostante tutto sta al pari della 1080.
ah allora avevo capito, del tipo fare come nvidia ovvero per 256kb ogni collegamento (8rops/32bit), ma comunque 1 mb di L2 sui 14nm non occupa appena 3mmq? quindi 4mb di Vega sono 12mmq e non mi pare affatto questa enormità, il problema quindi sono i collegamenti che occupano molto spazio?
Non ti so dire di preciso, ma occupa di più la l2. Solo 43mm2, 16 rop's e 512kb (32 rop's 1mb fanno circa 86mm2) e buona porzione e presa dalla l2.
Ton90maz
09-04-2018, 14:19
infatti sarebbe una porcheria, alto che una bomba...
Per dire la concorrenza in fascia media e medio alta utilizza i 192 e 256 bit come per , a addirittura i 128 come per gm206... usare i 384bit per una fascia media è ridicolo, microsoft onestamente non so perché l'abbia fatto su una console, forse per lesinare i GB perché se avesse mantenuto i 256bit avrebbe dovuto mettere 16GB di memoria e probabilmente le costava di più che metterne 12 di GB ma con un bus più grande...
infatti non l'hanno fatta da 6Geo già adesso proprio per quello sarebbe stata enorme, ma bisogna valutare se il FE regge i 6Geo, ma anche con i 7nm dovranno rivedere qualcosa per non bruciarsi il salto nodo così come con i 14nm...
cosa intendi per smontare la l2?Probabilmente perchè è una memoria unificata e la cpu si fotterebbe troppa banda su un 256 bit. E anche se non è efficiente come un vero 384 bit è sicuramente un di più che non fa male a polaris. Forse è per quello che alcuni giochi vanno in 4K a 30 fps? Ad esempio FC5 non va a 30 fps neanche a low su un pc con una rx 580.
antonioalex
09-04-2018, 15:19
44 CU. Quella con 40 è la ps4 pro (di cui 4 disattivati)
nope, la gpu ps4 pro ha 36 CU, la one x ne ha 40
https://mk0valuewalkgcar7lmc.kinstacdn.com/wp-content/uploads/2017/06/xbox-one-x-scorpio-specs-comparison.jpg
antonioalex
09-04-2018, 18:45
il confronto con nvidia lascia il tempo che trova, nvidia ha un chip ben più gaming oriented e non si porta dietro fardelli architetturali che incidono su consumi, calore e complessità oltre ad avere compressioni e latenze inferiori che le permettono di avere bus "piccoli"...
ecco perchè spero vivamente che amd cominci a dividere le linee di produzione, personalmente frega poco della potenza brutta in computing, gli unici programmi pro che uso sono lightroom e photoshop, tristemente noti per utilizzare tutt'oggi la cpu
Gyammy85
09-04-2018, 18:59
Non vedo perché dovrebbero complicarsi la vita, all'atto pratico cosa comporterebbe?
Non hanno la forza economica per convincere tutti che le loro scelte sono le uniche possibili come nvidia, e il computing servirà ancora di più in futuro se prende piede il ray tracing. Nvidia lo farà con le super unità dedicate, amd con lo shader core, a sto punto torniamo ai pixel e vertex separati come 15 anni fa...
Roland74Fun
09-04-2018, 20:42
Forse è per quello che alcuni giochi vanno in 4K a 30 fps? Ad esempio FC5 non va a 30 fps neanche a low su un pc con una rx 580.
Bisognerebbe fare un prova. Chi si offre volontario? Gyammy?
Gyammy85
09-04-2018, 21:22
Bisognerebbe fare un prova. Chi si offre volontario? Gyammy?
Pronti :O
Allora ho benchato in un pezzo dell'area di faith seed...4k ultra 31,5 fps, high 31,6 :asd:
Che polaris sia strozzata dalla banda a 4k si sa, potrebbe rendere di più, ma fc5 è un caso particolare dato che c'è comunque poca differenza di prestazioni fra i vari settings.
Ton90maz
10-04-2018, 10:49
nope, la gpu ps4 pro ha 36 CU, la one x ne ha 40
https://mk0valuewalkgcar7lmc.kinstacdn.com/wp-content/uploads/2017/06/xbox-one-x-scorpio-specs-comparison.jpgdammi retta, sono 44 e 40. 4 di ognuna sono marci.
A proposito del bus a 384 bit, la gpu della one x occupa solo 40 mm quadrati in più circa della ps4 pro, nonostante il bus ampliato, 4 CU in più e la maggior quantità di cache. C'è da dire che la ps4 pro ha le cu più grosse, forse con le utilissime e fondamentali feature di vega. E infatti si vede quanto serva su console e quanto si faccia stuprare dallo scorpio engine.
Ps: quanto occuperebbero 16 rops in più e i relativi collegamenti?
Ton90maz
10-04-2018, 10:55
Pronti :O
Allora ho benchato in un pezzo dell'area di faith seed...4k ultra 31,5 fps, high 31,6 :asd:
Che polaris sia strozzata dalla banda a 4k si sa, potrebbe rendere di più, ma fc5 è un caso particolare dato che c'è comunque poca differenza di prestazioni fra i vari settings.Ma i minimi invece? E a che clock? Purtroppo ho la 580 ma non il gioco. Su una one x gira quasi costantemente a 30, i settaggi sarebbero un mix tra alto e medio con qualcosa su basso e se non sbaglio col TAA inserito.
Ton90maz
10-04-2018, 12:43
la onex è una bomba, altrochè in quanto a resa, sarà per le cu, sarà per il bus... sarà quel che sarà... ma rende veramente bene con tutto che è azzoppata da una cpu chiavica... queste console se avessero anche solo un ryzen 6 core chiaramente costerebbero di più, ma secondo me tirerebbero fuori 15/20fps in più se montassero la medesima gpu (che è adesso integrata nell'apu)Ma anche un quadcore basterebbe a doppiare le console, basta vedere i test di DF :D
Gyammy85
10-04-2018, 13:04
Ma i minimi invece? E a che clock? Purtroppo ho la 580 ma non il gioco. Su una one x gira quasi costantemente a 30, i settaggi sarebbero un mix tra alto e medio con qualcosa su basso e se non sbaglio col TAA inserito.
Sui 26-27 mi pare, preset ultra...intorno ai 1400 perché penso raggiunga il power limit e non tenga i 1411 fissi
la one x ha più sp ma clock molto più bassi
antonioalex
10-04-2018, 13:13
dammi retta, sono 44 e 40. 4 di ognuna sono marci
appunto, son 36 e 40 cu, da che mondo e mondo la conta si fa sulle unità funzionanti e non su quelle disabilitate per svariati motivi
Ton90maz
10-04-2018, 13:20
appunto, son 36 e 40 cu, da che mondo e mondo la conta si fa sulle unità funzionanti e non su quelle disabilitate per svariati motiviNon si parlava di die? E' quello a cui mi riferivo, non a come funzionano sulle console. Tra l'altro i dev kit della one x hanno tutte le 44 CU attive, è in pratica un polaris "44" funzionante.
antonioalex
10-04-2018, 14:20
Non si parlava di die? E' quello a cui mi riferivo, non a come funzionano sulle console. Tra l'altro i dev kit della one x hanno tutte le 44 CU attive, è in pratica un polaris "44" funzionante.
ah ok, si tecnicamente parlando, la gpu one x è una polaris a 44CU, poi su console, vuoi per la questione consumo/calore (su console siamo ancora a 16nm FF), vuoi per garantirne la resa, alcuni cluster vengono disabilitatati
Ma anche un quadcore basterebbe a doppiare le console, basta vedere i test di DF
ma neanche, già con un dual core si hanno prestazioni decisamente migliori dei core jaguar, son quasi sicuro che se al posto del jaguar ci fosse un power PC ad oltre i 3GHz, la maggior parte dei giochi girerebbe a 1080p 50/60fps, spero vivamente che al prox giro i rumor siano veritieri, una custom apu basata su ryzen + navi + gddr6
Gyammy85
10-04-2018, 14:37
Potrei scommettere lo scroto sulle HBM
Quoto...chissene delle oldgen gddr :O
bagnino89
10-04-2018, 17:38
Posto qui visto che c'è di mezzo Raja:
https://hardware.hdblog.it/2018/04/10/intel-arctic-sound-gaming-dgpu/
Foglia Morta
10-04-2018, 17:47
ah ok, si tecnicamente parlando, la gpu one x è una polaris a 44CU, poi su console, vuoi per la questione consumo/calore (su console siamo ancora a 16nm FF), vuoi per garantirne la resa, alcuni cluster vengono disabilitatati
ma neanche, già con un dual core si hanno prestazioni decisamente migliori dei core jaguar, son quasi sicuro che se al posto del jaguar ci fosse un power PC ad oltre i 3GHz, la maggior parte dei giochi girerebbe a 1080p 50/60fps, spero vivamente che al prox giro i rumor siano veritieri, una custom apu basata su ryzen + navi + gddr6
Stando a Micron o gddr5x o gddr6:
http://hexus.net/media/uploaded/2017/2/69f91593-df39-46f5-b989-10cdb5f7caac.png
e potrebbe non essere una apu ( o non come la conosciamo oggi ):
After I had found out what this person did, I had a few questions to ask about the PS5 and what it will arrive as - especially when we look at Microsoft's upcoming Project Scorpio console. The first question I had was "will it feature a discrete GPU" to which I received a smile and a "I can't say exactly", and then I said would it feature an APU like Project Scorpio, and then there was a "no".
Read more: https://www.tweaktown.com/news/57845/playstation-5-feature-full-discrete-gpu-apu/index.html
Magari tipo kaby lake g , cpu + navi nello stesso package
antonioalex
10-04-2018, 19:58
Quoto...chissene delle oldgen gddr :O
non direi viste le caratteristiche delle 6
e potrebbe non essere una apu ( o non come la conosciamo oggi )
in fin dei conti, neanche le attuali console hanno una apu convenzionale, però hanno lesionato parecchio sulla cpu, molto probabilmente causa consumi/calore da smaltire/big money, con l'avvento di ryzen, come minimo mi aspetto una ps5/xbox two con apu derivata dal connubio di un 2200G ed una navi (forse da 56CU?) a 7nm, coadiuvati da almeno 12GB gddr6, hanno tutto il tempo di affinare le tecnologie e son sicuro che una apu del genere è fattibile entro fine 2019 con consumi non superiori ai 250w, o sogno ad occhi aperti? :asd:
non direi viste le caratteristiche delle 6
in fin dei conti, neanche le attuali console hanno una apu convenzionale, però hanno lesionato parecchio sulla cpu, molto probabilmente causa consumi/calore da smaltire/big money, con l'avvento di ryzen, come minimo mi aspetto una ps5/xbox two con apu derivata dal connubio di un 2200G ed una navi (forse da 56CU?) a 7nm, coadiuvati da almeno 12GB gddr6, hanno tutto il tempo di affinare le tecnologie e son sicuro che una apu del genere è fattibile entro fine 2019 con consumi non superiori ai 250w, o sogno ad occhi aperti? :asd:Sui 12GB mi sa che sogni 😂
Vedo più fattibili gli 8.
Il resto... mah... chissà...
Inviato dal mio SM-G935F utilizzando Tapatalk
Gyammy85
10-04-2018, 20:32
non direi viste le caratteristiche delle 6
Navi sarà un'evoluzione di vega...vega è progettata intorno alle hbm2, che permettono di usare la vram come una grossa cache e la memoria di sistema come frame buffer nel caso si saturi la vram. Questa cosa servirà anche per le ipotetiche fasce medie, dato che l'anno scorso avevano mostrato come l'hbcc funzionasse bene soprattutto con poca vram...senza contare il ridotto spazio occupato che evita il ricorso a pcb lunghi.
Se hanno qualcos'altro in mente non so, ma secondo me per i motivi sopra non rinunceranno alle hbm2
Ale55andr0
10-04-2018, 21:51
Sui 12GB mi sa che sogni ��
Vedo più fattibili gli 8.
Il resto... mah... chissà...
Inviato dal mio SM-G935F utilizzando Tapatalk
la one x ha già oggi 12Gb unificati +altri 2 Gb per far fare caching al SO...
al prossimo giro le console avranno minimo 16gb, ma proprio a volerle centellinare perchè da una console all'altra il balzo della ram è sempre la cosa più notevole (32mb PS2 - 512mb PS3 - 8GB PS4) e per i giochi in 4k nativo serve parecchia ram anche nella prospettiva di nuovi open world più grandi e dettagliati della next gen, devono essere lungimiranti. Il range probabile sarà fra i 16 (+ eventuale nand per il so) o direttamente 24gb di GDDR6 e molto probabilmente cpu e gpu saranno separate con almeno 10Tflop lato Gpu (e non sarebbe nemmeno il doppio di quanto fa la x...cioè è il minimo sindacale..). Specialmente per la xbox "2" poi passare da 14 a 16gb nel 2020 (o giu di li') sarebbe una barzelletta...
Navi sarà un'evoluzione di vega...vega è progettata intorno alle hbm2, che permettono di usare la vram come una grossa cache e la memoria di sistema come frame buffer nel caso si saturi la vram. Questa cosa servirà anche per le ipotetiche fasce medie, dato che l'anno scorso avevano mostrato come l'hbcc funzionasse bene soprattutto con poca vram...senza contare il ridotto spazio occupato che evita il ricorso a pcb lunghi.
Se hanno qualcos'altro in mente non so, ma secondo me per i motivi sopra non rinunceranno alle hbm2
imho anche per me, stanno aspettando solo che gli stack da 8gb arrivino in volumi per lanciare le fasce alte con due stack da 8 per un totale di 16gb e le fasce medie a singolo stack da 8gb.
Farlo ora con la sola possibilità di metterci 1 stack da 4gb sarebbe stata una follia a livello commerciale.
Non vedo perché dovrebbero complicarsi la vita, all'atto pratico cosa comporterebbe?
Non hanno la forza economica per convincere tutti che le loro scelte sono le uniche possibili come nvidia, e il computing servirà ancora di più in futuro se prende piede il ray tracing. Nvidia lo farà con le super unità dedicate, amd con lo shader core, a sto punto torniamo ai pixel e vertex separati come 15 anni fa...
se siamo tornato a FP16 "perche vogliamo gli occhialetti per il VR subito e non quando ci sarà potenza computazionale sufficiente" e osanniamo la scelta di FP16 "perchè tanto FP32 non serve". Non mi stupirebbe che ritornassero a unità separate ed altamente specializzate.
In fondo questa è la soluzione "migliore" per usare subito una tecnologia poi quando ci sarà potenza computazionale sufficiente, torneranno a fare tutto con hw generico.
Il passaggio a RT potrebbe essere un passaggio epocale (sono 10 anni che se ne parla) di fatto segnando un nuovo anno 0 per il gaming, come all'epoca fu il passaggio al 3d, il T&L in hw, e le archidetture unificate con le dx10.
Ton90maz
11-04-2018, 09:59
La realtà è più complessa. Il passaggio a FP32 è stato fatto senza cervello, facendolo per tutto, anche cose in cui quella precisione è del tutto inutile, perché passare tutto in FP32 non richiede alcuna progettualità, mentre decidere quello su cui serve sì. Avere unità che possono fare due ops in FP16 o una in FP32 permette ottimizzazioni del codice con solo vantaggi per il risultato finale e senza alcun compromesso qualitativo. Ovviamente bisogna aver voglia di fare queste ottimizzazioni.
Voglio anche ricordare che la miniaturizzazione non è un percorso infinito, l'ottimizzazione delle risorse e del codice per usarle al meglio non è una chiacchiera da bar ma l'unica via per permettere l desktop computing di continuare ad evolversi.Ma in pratica quando e se si cominceranno a vedere risultati? Mai? Gli ultimi Far Cry 5 e Wolfenstein sarebbero dovuti essere dei banchi di prova ma non ho visto particolari boost che già una banalissima gpu gcn generica non abbia su pascal.
Free Gordon
11-04-2018, 10:11
la XBOX fa 6TF proprio come la 480 Turbo e la 580 base, ma con banda più elevata delle dedicate... il problema è la CPU che fa da collo, avesse anche solo un R3 1200 da 4c/4t andrebbe di più consumando uguale, ma cambiare la CPU anche se è sempre X86 voleva dire riprogettare da 0 i giochi...
Anche se ha uno shader array più grosso, gli altri settori però sono clockati cmq a 1170mhz (rops e texture unit...)
La ONEX ha meno pixel/texel fillrate della 480 e paradossalmente ha più banda a disposizione (320GB/s in teoria) e anche più "sfruttabile" considerando i due canali a 64bit in più rispetto a Polaris. Bisognerebbe vedere però come sono collegati...
L'octacore Jaguar sinceramente non credo porti via molta banda passante alla GPU. Con 30-40GB/s a disposizione sarà certamente sazio..
Free Gordon
11-04-2018, 10:14
Ma in pratica quando e se si cominceranno a vedere risultati? Mai? Gli ultimi Far Cry 5 e Wolfenstein sarebbero dovuti essere dei banchi di prova ma non ho visto particolari boost che già una banalissima gpu gcn generica non abbia su pascal.
Solo Vega supporta il Rapid Packet Math.. ;)
La realtà è più complessa. Il passaggio a FP32 è stato fatto senza cervello, facendolo per tutto, anche cose in cui quella precisione è del tutto inutile, perché passare tutto in FP32 non richiede alcuna progettualità, mentre decidere quello su cui serve sì. Avere unità che possono fare due ops in FP16 o una in FP32 permette ottimizzazioni del codice con solo vantaggi per il risultato finale e senza alcun compromesso qualitativo. Ovviamente bisogna aver voglia di fare queste ottimizzazioni.
Voglio anche ricordare che la miniaturizzazione non è un percorso infinito, l'ottimizzazione delle risorse e del codice per usarle al meglio non è una chiacchiera da bar ma l'unica via per permettere l desktop computing di continuare ad evolversi.
sono 20 anni che si dice questa questa, e da sempre si è preferita la strada della forza bruta a quella delle ottimizzazioni software, ottimizzazioni che spesso richiedono più tempo per essere implementata della vita dell'hw o del software che si vuole fare.
non è che è stato fatto senza cervello, è stato fatto applicando il ragionamento sopra. A volte ottimizzare un codice di porta via più tempo "uomo/macchina" che non aspettare macchine più potenti che lo sappiano eseguire in maniera più veloce senza che uno debba perdere tempo sul software ( se ci metti 3 mesi fare un software di ordine 0 che funziona al 90% bene e altri 6 mesi per ottenere quel 10% in più è oggettivamente del tempo perso a livello "costo/beneficio").
Il passaggio a FP32 quando fu fatto, permetteva oggettivamente una gran qualità visiva (vero che ati all'epoca provo ad imporre lo standard ibrido di fp24).
Adesso c'è l'esigenza di pompare una nuova tecnologia come il VR e quindi sono scesi a patti con la qualità per poterla pompare subito e non tenerla nel cassetto altri 2 anni.
Sarà cosi anche per il RT, dove li, probabilmente all'inizio andranno di unità dedicate (che in genere è un'approccio che preferisco, però capisco anche l'esigenza di chi programma di poter scrivere qualcosa di generico che funziona su tutto e non solo su quello, o l'esigenza di un programmatore di driver che non vuole morire su warper o cose specifiche solo per quel singolo chip).
Free Gordon
11-04-2018, 12:16
E' trascurabile la minor potenza in GP/s perché ha circa lo stesso clock, non fa di certo la differenza 100mhz in meno, oltretutto solo nel turbo rispetto alla 480 (1266), e cambia proprio poco rispetto alla 580 (1260 base) che tanto è cappata nella banda.
stiamo parlando di differenze tra 38 e 42 GP/s, non del +50%.
Per quanto rigurda i GT/s scalano assieme agli SP (160 vs 144) per cui sono 187GT/s , quindi ne ha a metà strada tra la 480 (182GT/s nel turbo) e la 580(193GT/s), ma poi da quando le gpu di oggi hanno problemi nelle texture? :stordita:
Per cui mi pare palese che il collo di bottiglia siano i core jaguar clockati a 2.1ghz e un po' il tdp d'insieme, ripeto ormai anche un r3 1200 non farebbe da collo.
Mica parlavo dei colli di bottiglia :)
Sicuramente il Jaguar è una CPU leggerina per quell'APU lì.. del resto non potevano fare diversamente (volendo mantenere la retrocomp.assoluta).
Ma occhio che la CPU è fortemente customizzata, ha una integrazione con le DX12 molto più approfondita dei core Jaguar "standard" originari, ovvio che la potenza "assoluta" è quella che è...
Del resto è da Jaguar che son partiti per fare Zen, era una gran bella cpu low power! :)
Cmq la ONEX ha 37Gpx/s, Polaris10 (che è in turbo...) arriva anche a 43...
Non so quanto "complessivamente" una ONEX sia più veloce di una buona 480 clockata "giusta" (anche se la X ha 40CU); credo poco o nulla...
Ton90maz
11-04-2018, 12:43
Solo Vega supporta il Rapid Packet Math.. ;)Appunto. Quello che ho detto è che se Vega avesse grossi vantaggi con l'fp16 dovrebbe staccare una gpu pascal come la 1080 molto più di quanto una misera RX 580 non faccia con una 1060.
L'altro esempio è la PS4 Pro, bloccata a 1620p contro il 2160p nativo della console più potente ma senza cagat packet math.
Rileggi il post che hai quotato e avrai la risposta.
Se dobbiamo aspettare così tanto faccio vecchio
TheDarkAngel
11-04-2018, 12:46
Appunto. Quello che ho detto è che se Vega avesse grossi vantaggi con l'fp16 dovrebbe staccare una gpu pascal come la 1080 molto più di quanto una misera RX 580 non faccia con una 1060.
L'altro esempio è la PS4 Pro, bloccata a 1620p contro il 2160p nativo della console più potente ma senza cagat packet math.
I grossi vantaggi ci sono, basta controllare i bench sintetici, ma gli FP16 sono applicati ad una percentuale modesta di quello che vedi a schermo (acqua nel caso di FC5), se fosse tutto in FP16 certo che vedresti distacchi abissali ma la resa visiva non sarebbe la medesima.
Free Gordon
11-04-2018, 12:49
Appunto. Quello che ho detto è che se Vega avesse grossi vantaggi con l'fp16 dovrebbe staccare una gpu pascal come la 1080 molto più di quanto una misera RX 580 non faccia con una 1060.
L'altro esempio è la PS4 Pro, bloccata a 1620p contro il 2160p nativo della console più potente ma senza cagat packet math.
FC5 è stato programmato con un occhio verso AMD, hanno fatto una buona partnership..per questo gira bene sulle rosse. ;)
E' quello che fa costantemente Nvidia, solo che nel caso di AMD sembra quasi una cosa strana :D
Gyammy85
11-04-2018, 14:18
32rops x 1.17ghz = 37.44 Gp/s, scusa se ho scritto 38 :rolleyes:
rx480 arriva in turbo a 1.266 quindi 40.5 Gp/s, mentre la 580 arriva a 1.350 e quindi a 43, ma sono clock massimi e non medi delle stock...
Se non stavi parlando del collo di bottiglia non capisco dove vuoi arrivare... io rispondevo a gyammy e a ultimate che parlavano di clock inferiori e quindi potenza inferiore e che nonostante tutto tenesse botta, quando in realtà cambia poco o niente dalle discrete se consideriamo +sp, +tmu, stesse rops e maggiore banda.
Diciamo che sono li li, dato che una 580 tipo la mia ha grossomodo 6 tf come la xbox one x.
Roland74Fun
11-04-2018, 15:50
Diciamo che sono li li, dato che una 580 tipo la mia ha grossomodo 6 tf come la xbox one x.
La mia RX480 nitro ha un bios a 1266 e l'altro 1342. Ma regge bene anche i 1410 come la 580. Tu la puoi portare anche anche a 1450 come la limited. Al limite la dipingi di azzurrino. :cool: :cool:
Poi finisce la manna della miniaturizzazione e hai formato dei gran bei coder che non sanno ottimizzare e stai fermo dieci anni.
naaaaa, ci penseranno gli hardwaristi, inizieranno a pensare come aggirare gli ostacoli con un differente approccio hw o di strumento. Da li si formerà la nuova generazione che lavorerà sopra la roba nuova, facendo "estinguere" i vecchi programmatori che non sapranno adattarsi/imparare.
Certo ci sarà sicuramente chi, non volendo imparare nuove cose, affinerà cosi tanto la sua bravura a programma che tirerà fuori cose bellissime e ottimizzatissime...purtroppo lo farà quando ormai il ciclo vita di quell'hw sarà bello che finito.
E' sempre stato cosi, più si va avanti e più bisogna essere veloci a "sparare" roba nuova fuori, poi se con il software "ordine 0" funziona già all'85% delle sue possibilità va bene.
Senza andare troppo ot, è stata cosi anche per le console, prima chi le programmava davvero sapeva vita, morte e miracolo dell'hw, poi per evitare di "imparare" sono nate le console PC, cosi il programmatore programmava una volta e faceva fare al compilatore. Quando il programmatore esauriva la potenza bruta della console, oplà, refresh console con maggiore potenza computazionale. tutto per non ottimizzare.
Il discorso che fai tu è bello e giusto e sensato, ma se devi vendere e uscire di fretta, non si può fare. L'ottimizzazione resta ormai in soli ambiti scientifici, dove sei pagato esclusivamente per tirare fuori quel 10% di prestazioni in più con l'ottimizzazione del codice.
Mica parlavo dei colli di bottiglia :)
Sicuramente il Jaguar è una CPU leggerina per quell'APU lì.. del resto non potevano fare diversamente (volendo mantenere la retrocomp.assoluta).
Ma occhio che la CPU è fortemente customizzata, ha una integrazione con le DX12 molto più approfondita dei core Jaguar "standard" originari, ovvio che la potenza "assoluta" è quella che è...
Del resto è da Jaguar che son partiti per fare Zen, era una gran bella cpu low power! :)
Cmq la ONEX ha 37Gpx/s, Polaris10 (che è in turbo...) arriva anche a 43...
Non so quanto "complessivamente" una ONEX sia più veloce di una buona 480 clockata "giusta" (anche se la X ha 40CU); credo poco o nulla...
a livello di gpu non più di un 10% se vai a parità di clock (per il 10% di cpu).
Realmente uno dovrebbe provare a realizzare una macchina simil onex che cosi su due piedi sarebbe una cpu jaguar (purtroppo per il desktop c'è solo 4 core e non 8), 8gb di ram e una 480 con 4gb.
Se proprio vogliamo esagerare, come cpu basterebbe un ryzen 4+4 e bon, siamo più o meno ad una macchina onex equivalente.
Roland74Fun
11-04-2018, 18:08
eh ma di certo non hai lo stesso TDP e consumo, rimane pur sempre una scatoletta :ciapet:
Un discreto fermacarte dire. :) :)
Roland74Fun
11-04-2018, 18:10
Vorrei sottolineare che quella azzurrina è la Special Edition, la Limited è grigia :>
Un'altra delle mie imperdonabili gaffe. :(
Vabbeh volevo dire quella pompata all'inverosimile.
Gyammy85
11-04-2018, 18:32
Un discreto fermacarte dire. :) :)
Ma neanche, non ha manco la lucetta verde a intermittenza che illumina i keis dei più famosi youtuber...
Gyammy85
12-04-2018, 06:35
http://www.guru3d.com/news-story/amd-makes-radeon-rx-500x-series-offical-oem-rebrands.html
Niente, abbiamo fantasticato sul nulla....
Ps.
Un altro pezzo del tecnology group, Chris hook, ha lasciato AMD...
Ah ok
Boh, staranno riorganizzando...effetto lisa su, saranno in trattativa con qualcuno...il 40% è vicino :O
Gyammy85
12-04-2018, 07:36
Sembra che sarà sostituito da Sasa Marinkovic, un altro veterano di ati/amd
https://www.fudzilla.com/news/46035-amd-hands-product-marketing-reins-to-sasa-marinkovic
Gyammy85
12-04-2018, 07:54
Un altro ingegnere, la scelta rispetta il nuovo corso AMD in cui on top hanno solo ingegneri (tutto il C-level management ha background ingegneristico)
Infatti, i pacchisti lasciamoli agli altri che ne hanno bisogno.
Mi autobanno :doh: :nonsifa: :ahahah: :ops:
Gyammy85
12-04-2018, 08:18
eh lo zio sasà hihihi
Sasà Salvaggio?
techfede
12-04-2018, 08:57
Non ho ben capito il rebranding della serie 500, considerando che non pare essere cambiato nulla (come specifiche), ma solo il nome. Mah.
Tra l'altro, se finiscono in preassemblati e notebook, il nome praticamente nemmeno si vede, quindi doppiamente non ne capisco il motivo.
Speriamo che veramente la cura Su arrivi anche nelle GPU.
Io ho una rx480 e me la tengo ancora per un bel po' salvo grossi stravolgimenti imprevisti nel mercato gaming, ma sarei felice di poter ancora scegliere quando sarà ora di mandare in pensione la rx480.
E poi voglio vedere roba nuova, non sempre la stessa roba con più core e più frequenza.
Pure Nvidia alla fine non ha fatto molto per gaming da maxwell in poi, c'è giusto la possibilità che i tensor core vengano usati per il ray-tracing ma dal duemilaecredici in poi :asd:
La prossima sfida forse sarà nelle gpu mcm, sperem.
condivido
mircocatta
12-04-2018, 10:04
le azioni crollano e io sudo freddo
le azioni crollano e io sudo freddo
le azioni crollano e io me ne frego :p
Capitalismo? No, grazie.
TheDarkAngel
12-04-2018, 10:07
le azioni crollano e io sudo freddo
Buy the dip:O
ninja750
12-04-2018, 10:12
se ne va anche chris hook
AkiraFudo
12-04-2018, 14:02
se ne va anche chris hook
o è stato lasciato andare.. chissà :rolleyes:
AkiraFudo
12-04-2018, 14:59
@vera
Buon per intel.. ma la figura però è diversa da Raja.. questo chi era tipo il general manager del marketing? cavolo ci deve fare Intel?? non ha i suoi? Se li deve fregare ad AMD, è messa male...
In ogni caso anche fosse andato via di sua sponte per anadre in intel.. non mi sembra una grave perdita.. il marketing di AMD non mi è mai sembrato molto efficace 💩 Hanno fatto un affarone xD
HadesSaint
12-04-2018, 18:11
mmm io ho ancora un 290 4GB OC...che quest'anno compiera 4 anni..Navi uscira nel 2019..consigli? Aspettare ancora :)
Non ho ben capito il rebranding della serie 500, considerando che non pare essere cambiato nulla (come specifiche), ma solo il nome. Mah.
Tra l'altro, se finiscono in preassemblati e notebook, il nome praticamente nemmeno si vede, quindi doppiamente non ne capisco il motivo.
Il riannuncio degli stessi prodotti sotto l'etichetta X mi fa pensare che per il periodo autunnale non ci saranno novità e bisognerà aspettare ancora a lungo per avere una architettura a 7nm di fascia media. Questa è solo la mia opinione.
HadesSaint
12-04-2018, 22:33
Con una 290 giochi dignitosamente a tutto, quindi non c'è reale motivo di cambiarla.
Poi ovvio che se uno vuole il 4k o i 144hz è un altro discorso, ma devi spendere 600-700€ minimo perchè la cosa abbia un senso.
Imho se proprio vuoi prendere qualcosa prendi un monitor freesync se non lo hai già che sono soldi spesi meglio, cambiare una 290 per altra vga oggi non è una mossa intelligente.
No infatti non mi lamento riesco a giocare benissimo a tutto, non vorrei che appunto sfruttandola parecchio mi lasci a breve..4 anni penso che siano tanti per una GPU sfruttata lato gaming!!! stavo gia pensando infatti ad un monitor e mi sa che inefetti e' arrivato il momento giusto
SwatMaster
12-04-2018, 23:15
L'avete letta sta sparata?
https://wccftech.com/rumor-amd-navi-mainstream-gpu-to-have-gtx-1080-class-performance/amp/
Sent from my Moto G (5) Plus using Tapatalk
La 290 non supporta il freesync, che io sappiaSì che lo supporta 😉
Inviato dal mio SM-G935F utilizzando Tapatalk
methis89
13-04-2018, 00:40
Lo supporta eccome, io ho una 290 con monitor freesync 144hz 2k da 32 pollici... Ora sto giocando a gta 5 e con qualche piccola rinuncia regge da dio senza battere ciglio.... Magari appena escono le nuove radeon la cambio più per lo sfizio di mettere tutto al massimo se avranno un prezzo simile a vega al lancio
Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk
techfede
13-04-2018, 08:28
Se scegliessero davvero la strada mcm spero solo abbiano imparato non molto, ma moltissimo da ryzen, e che applichino tutta la loro conoscenza per ridurre al minimo le latenze e i problemi lì.
Magari la prima generazione avrà qualche classico "singhiozzo" (ovvero ci sarà qualche titolo digerito magari peggio del solito, per la solita programmazione), ma dovrebbe offrire un gran risparmio almeno per loro.
TheDarkAngel
13-04-2018, 09:47
Con i 7nm punto alle prestazioni della 580 alla metà del consumo. Lo stesso vorrei fare lato CPU e poi prendermi un Seasonic fanless.
Puoi prendere un corsair semifanless e risolvi il problema :p Le ventole partono solo oltre il 40% del carico alla velocità minima (300rpm) fino ad una temperatura prefissata (40° mi pare) prima di aumentare.
Da questi 7nm iniziamo ad aspettarci troppi miracoli, non vorrei che la prima iterazione sia troppo modesta per questi "miracoli".
Gyammy85
13-04-2018, 09:57
Da questi 7nm iniziamo ad aspettarci troppi miracoli, non vorrei che la prima iterazione sia troppo modesta per questi "miracoli".
L'importante è poterci cacciare dentro tanti tanti sp senza far esplodere i consumi come per il 14, nessuno si aspetta niente di più, e i 5 ghz per le cpu che sono molto realistici imho.
TheDarkAngel
13-04-2018, 11:10
Ho un Seasonic (cioè il meglio) che funziona proprio così da 7 anni :>
Ma ne voglio uno che lavora fanless anche sotto carico peso, di ventole per movimentare ne ho abbastanza senza aver bisogno di quella dell'ali :D
Prendi un AX1600i (flextronics), ha una soglia di carico ben oltre il consumo di un pc singola scheda :p estremo ma efficace :fagiano:
Sicuramente i 7nm iniziali non saranno quelli finali (almeno su GF l'iter dei 7nm prevede molti step migliorativi nell'arco di vita), però dimezzare la nanometria qualcosa dovrà portare, non mi sembra folle pensare che un chip identico a Polaris 10 ma su 7nm possa andare uguale e consumare la metà :>
Io ci andrei cauto :stordita: In genere con la densità hanno sempre fatto bene scalandola quasi linearmente ma i consumi di rado.
Vedremo tra 6/9 mesi che succederà :eek:
ninety-five
14-04-2018, 14:12
Ciao a tutti,
ho questo piccolo problema...appena accendo il PC la GPU è sui 20°C ma inizia subito a salire di temperatura.
Il voltaggio resta fisso a 1006mv e in 5 minuti supera i 60°C in idle...cosa può essere?
Utilizzo della GPU 0%.
Ho già disinstallato i driver con DDU e fatto installazione pulita :cry:
Foto:
https://s14.postimg.cc/hn7icvutd/image.png
Lunar Wolf
14-04-2018, 14:25
Ciao a tutti,
ho questo piccolo problema...appena accendo il PC la GPU è sui 20°C ma inizia subito a salire di temperatura.
Il voltaggio resta fisso a 1006mv e in 5 minuti supera i 60°C in idle...cosa può essere?
Utilizzo della GPU 0%.
Ho già disinstallato i driver con DDU e fatto installazione pulita :cry:
Foto:
https://s14.postimg.cc/hn7icvutd/image.pngHai una amd che non è stata ancora annunciata?
Altrimenti non vedo il collegamento della tua domanda col topic in oggetto.
ninety-five
14-04-2018, 14:29
Hai una amd che non è stata ancora annunciata?
Altrimenti non vedo il collegamento della tua domanda col topic in oggetto.
Perdonami, non volevo aprire un 3d e ho postato convinto fosse il 3d della Rx580 :muro:
Lunar Wolf
14-04-2018, 15:49
Perdonami, non volevo aprire un 3d e ho postato convinto fosse il 3d della Rx580 :muro:;)
ninety-five
14-04-2018, 16:10
;)
Ho aperto una discussione avendo scoperto altre cose sul problema.
Se puoi/vuoi...cancella pure. :)
Free Gordon
14-04-2018, 20:10
http://www.guru3d.com/news-story/amd-makes-radeon-rx-500x-series-offical-oem-rebrands.html
Niente, abbiamo fantasticato sul nulla....
Ma il motivo di sta cosa..? :mbe:
Ps.
Un altro pezzo del tecnology group, Chris hook, ha lasciato AMD...
Forse forse...potrebbe essere anche una cosa positiva.
Devono cambiare rotta e ridisegnare da capo le future GPU..
C'è bisogno di forze nuove/giovani.
Free Gordon
14-04-2018, 20:14
L'avete letta sta sparata?
https://wccftech.com/rumor-amd-navi-mainstream-gpu-to-have-gtx-1080-class-performance/amp/
Sent from my Moto G (5) Plus using Tapatalk
eh beh... vorrei ben vedere...
che una fascia media a 7nm...riesca a prendere una 1080 liscia, lo vedo come il minimo per non affondare definitivamente. ;-)
Non saranno 250, saranno 300... ma il concetto è lo stesso.
Gyammy85
14-04-2018, 20:52
Ma il motivo di sta cosa..? :mbe:
Forse forse...potrebbe essere anche una cosa positiva.
Devono cambiare rotta e ridisegnare da capo le future GPU..
C'è bisogno di forze nuove/giovani.
Il sostituto è un'altra vecchia conoscenza
eh beh... vorrei ben vedere...
che una fascia media a 7nm...riesca a prendere una 1080 liscia, lo vedo come il minimo per non affondare definitivamente. ;-)
Non saranno 250, saranno 300... ma il concetto è lo stesso.
La media/medio alta andrà come vega quindi dovrebbe insidiare 1080/ti/2070
Gyammy85
14-04-2018, 20:54
Era del marketing... Quello delle slide :asd:
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Chissà cos'ha la gente contro le slide di amd, me lo sono sempre chiesto...
HadesSaint
15-04-2018, 07:00
piccolo OT sua maesta Lisa sulla griglia di partenza della F1!! vorra pubblicizzare navi ai piloti :mc: :mc: :mc:
AkiraFudo
15-04-2018, 09:31
Lisa Su stamane al GP
https://streamable.com/idfcc
Radeon Zen Project
https://wccftech.com/amds-secret-radeon-project-zen-to-boost-gpu-clocks-efficiency-in-2018-navi-in-2019-beyond/
antonioalex
15-04-2018, 10:17
e cosa c'è di strano? AMD è stata per parecchi anni sponsor ferrari f1 :D
Gyammy85
15-04-2018, 10:25
Lisa Su stamane al GP
https://streamable.com/idfcc
Radeon Zen Project
https://wccftech.com/amds-secret-radeon-project-zen-to-boost-gpu-clocks-efficiency-in-2018-navi-in-2019-beyond/
:eek: :eek:
Quindi fascia media con vega+hbm2 (radeon 600) nel corso di quest'anno e radeon 700 l'anno prossimo?
:oink: :oink:
e cosa c'è di strano? AMD è stata per parecchi anni sponsor ferrari f1 :D
Si però:
1) E' stato parecchi anni fa e lisa su non c'era;
2) Lisa su si trovava in cina per parlare coi ministri di sviluppo e avrà pensato di fare una capatina in quanto sponsor;
3) La ferrari quest'anno va bene, dato che c'è stato un radicale cambio di filosofia aziendale da "che ci frega di arrivare primi l'importante è il brand Italia" a "meglio arrivare primi per portare avanti il brand Italia", quindi presenziare è utile.
Windtears
15-04-2018, 10:56
Menagramo d'un menagramo :asd:
se per menagramo intendi Verstappen ci hai preso, non è possibile statisticamente che faccia incidenti solo con le macchine rosse e mai con le argentate. :asd: io lo prenderei in ferrari per fargli fare i crash test della panda. :asd:
(e non seguo più la f1 perché la trovo ormai ridicola da quando hanno tolto i test liberi)
Ton90maz
15-04-2018, 14:01
eh beh... vorrei ben vedere...
che una fascia media a 7nm...riesca a prendere una 1080 liscia, lo vedo come il minimo per non affondare definitivamente. ;-)
Non saranno 250, saranno 300... ma il concetto è lo stesso.Tra l'altro se non dovesse uscire subito nel 2018 ma nel corso del 2019 sarebbe vicina a uscire 3 anni dopo la 1080. Praticamente è come se la RX 480 fosse stata vicina alla 780 e non alla 980.
29Leonardo
15-04-2018, 15:03
Tra l'altro se non dovesse uscire subito nel 2018 ma nel corso del 2019 sarebbe vicina a uscire 3 anni dopo la 1080. Praticamente è come se la RX 480 fosse stata vicina alla 780 e non alla 980.
http://lh3.ggpht.com/ta5_PZ7Dc2Vawvy_ZPZxzMbaagbjpmJJFFJrzV04qW3fI_0ckj848bI7Q9WaE4hQgWoK-hDHDUpwBLkAYB_MUYqu=s240
Free Gordon
15-04-2018, 15:49
La media/medio alta andrà come vega quindi dovrebbe insidiare 1080/ti/2070
Lo spero proprio...sinceramente.
Che a nuova AMD a 7nm, al costo di 300$, mi dia delle prestazioni da 1080 è ciò che mi aspetto. Niente di meno sarà accettabile, considerando cosa probabilmente farà Nvidia coi 7nm...
Free Gordon
15-04-2018, 15:52
Lisa Su stamane al GP
https://streamable.com/idfcc
Che gran figurone il giornalista....!! :rotfl:
E le chiede pure se sa parlare inglese...... :rotfl:
Gyammy85
15-04-2018, 16:01
Che gran figurone il giornalista....!! :rotfl:
E le chiede pure se sa parlare inglese...... :rotfl:
Non credo sia famosissima lisa su...
Pensa venisse in italia, "sono di amd" "aemmechiiiii?" "steve jobbs ha inventato il mouse, e tu?" e via di seguito, con confronto impietoso con eppol e feisbuk che macinano tanti $$$$.
E soprattutto con un bel "ma per giocare ci sono le consollleeeeee"
Gyammy85
15-04-2018, 16:36
E le console non sono amd? :stordita:
Ma in quanti secondo te sanno che ci sono dentro delle parti costruite da delle marche? :O
Roland74Fun
15-04-2018, 16:47
Perché il Jaguar che c'è dentro lo fa la casa automobilistica.
VanCleef
15-04-2018, 18:58
Perché il Jaguar che c'è dentro lo fa la casa automobilistica.
:D questo è quanto mi ha chiesto mio cognato una volta...
Gyammy85
15-04-2018, 20:02
Visto? Avevo ragione io, come al solito :O
(scherzo)
Gyammy85
16-04-2018, 08:15
dai, ormai è palese che lo faccia apposta! magari vorrà andare in Mercedes un domani :sofico:
...e sono ormai 2 anni che mi chiedo come la Ferrari non abbia ancora ingaggiato Ricciardo e si tenga il vecchietto, che anche se è soprannominato "iceman" ormai ha fatto la storia, che poi manco fosse il Valentino Rossi delle F1...
La ferrari fa tradizionalmente contratti luuuunghi
Poi raikkonen non era un granché neanche all'inizio, "ma si farà"...son passati 10 anni :asd:
Ale55andr0
16-04-2018, 08:58
dai, ormai è palese che lo faccia apposta! magari vorrà andare in Mercedes un domani :sofico:
...e sono ormai 2 anni che mi chiedo come la Ferrari non abbia ancora ingaggiato Ricciardo e si tenga il vecchietto, che anche se è soprannominato "iceman" ormai ha fatto la storia, che poi manco fosse il Valentino Rossi delle F1...
OT: da inizio stagione sta facendo bene però, e ieri gli hanno sputtanato la gara pur di provare a far vincere seb perdendo moltissimi punti nel costruttori che a detta di marchionne è più importante per la ferrari...se così è, in quel di maranello a quest'ora sta frustando un paio di idioti... Ricciardo? ottimo pilota ma non lo prendono, che senso ha prendere un'ottimo pilota per sputtanare le gare pure a lui? /OT
Gyammy85
16-04-2018, 09:46
Quindi un po' come pensavamo mesi fa, cioè "shrink" di Vega con i 12nm a fine anno e poi Navi a 7nm nel 2019? in pratica come fa pure nVidia con Pascal→Volta.
ma amd ultimamente non ha dichiarato di voler fare uno shrink di Vega a 7nm entro l'anno? dove salta fuori mo sta notizia dei 12nm?
Vega 7 nm solo in versione instinct
Bello Polaris e Vega fino al 2020 insomma.
Nvidia ci degnerà di un architettura nuova entro fine 2018?
Se solo potessi tagliare le mani a chiunque sta per acquistare una Pascal/Polaris/Vega in questo momento...
techfede
16-04-2018, 14:45
Io però sono fermo ad una hd 7950, quando dovrò cambiare (spero verso fine anno) che faccio? :asd:
Angeland
16-04-2018, 15:01
Io più che nuove schede, mi auspicherei che i nuovi giochi venissero finalmente tutti sviluppati come si deve in dx12, non dico Vulkan perché sarebbe il top e probabilmente non sarà possibile per "cause di forza maggiore" :sofico:
Non servono a molto nuove GPU se poi si continua a sfruttarle male con api del dopoguerra.
Io però sono fermo ad una hd 7950, quando dovrò cambiare (spero verso fine anno) che faccio? :asd:
Ti prendi una 980/980ti usata e via.
Gyammy85
16-04-2018, 20:33
Bello Polaris e Vega fino al 2020 insomma.
E chi l'ha detto?
Si parla di vega a 12 nm come i ryzen+ nel corso del 2018 e navi nel 2019
E chi l'ha detto?
Si parla di vega a 12 nm come i ryzen+ nel corso del 2018 e navi nel 2019Quindi polaris e Vega fino al 2019?
Inviato dal mio SM-N7505 utilizzando Tapatalk
E l'infinity fabric cosa unirebbe? :confused:
techfede
17-04-2018, 13:03
Quello sarebbe un "mattoncino" di Navi?
Non mi torna molto il conto a multipli di 16 NCU però, in generale.
techfede
17-04-2018, 13:18
Sul come verrebbero usati per comporre le fasce, ma probabilmente non so di cosa sto parlando :asd:
Pensavo che con 16 NCU per blocco, con 4 blocchi si hanno 64 NCU totali come vega (e ok), segandone 2 per blocco se ne avrebbero 56 come l'altra vega.
Però poi avremmo la versione da 32 con 2 blocchi interi, e da 28 con le parti segate?
Non so, come ho detto probabilmente sto dicendo cose a caso :asd:
Ton90maz
17-04-2018, 13:27
Ma quindi come sarebbe? Il coso a 32 CU avrebbe appena 2 Geo? Non verrebbe un aborto?
Gyammy85
17-04-2018, 14:03
Possibile?
https://s6.postimg.cc/dbpc82btt/libra_module.png
Fonte? :D
Gyammy85
17-04-2018, 14:04
Quello sarebbe un "mattoncino" di Navi?
Non mi torna molto il conto a multipli di 16 NCU però, in generale.
Fai confusione fra unità per ncu che se non cambiano niente restano 64 con il numero di cu, che invece è libero...
Ton90maz
17-04-2018, 14:09
In effetti sì, l'alternativa è avere un chip "master" con tutta la logica di comando e chip satelliti con la parte strettamente computazionale (i geo)Ma arrivare a 6-8 shader engine sarebbe così assurdo? Non vorrei rivedere un'altra AMD SV (= baracca)
Gyammy85
17-04-2018, 14:11
Ma quindi come sarebbe? Il coso a 32 CU avrebbe appena 2 Geo? Non verrebbe un aborto?
Si deve vedere quante cu ci saranno, e quanti poligoni processeranno per clock.
Ma poi ci sono 4 pixel engine
A bocce ferme, una navi con 90 cu (5760, paragonabile alla titan v e quel tanto che basta per avere la supremazia come potenza bruta) andrebbe poco dietro una titan v, ma a 7 nm si può spingere con le frequenze, insomma basterebbe shrinkare vega...ma eliminando le inefficienze il salto è maggiore
Considerato che stanno mettendo su un team tipo quello per zen con i nuovi capi, quindi...
ninja750
17-04-2018, 14:23
Quindi polaris e Vega fino al 2019?
di per se non sarebbero nemmeno male in un ipotetico refresh come speculato da fudzilla, una RX600 con +20% di performance (tra aumento di frequenze ecc) e una vega con prestazioni attuali ma con meno consumi per nuovo processo produttivo andrebbero benissimo SE VENDUTE AL PREZZO GIUSTO
tenere a listino ancora un anno e mezzo le 580 a 350€ e le vega56 a 550€ è LOL visto che si parla già delle nuove nvidia e PS5
ninja750
17-04-2018, 14:27
Vega32 andrebbe di più o come Polaris 10/20 nonostante meno CU e la metà dei Geo e pari rops:
una vega32 andrebbe sicuramente meno di una 580 e costerebbe perfino di più causa HBM, non siamo tutti tecnici ma probabilmente raddoppiando x2 una 580 sarebbe uscita una vga migliore
Ton90maz
17-04-2018, 14:29
Nel frattempo ho editato il post che hai quotato :>Visto
Non mi torna il fatto dell'eventuale area occupata troppo elevata. Sarebbe più elevata di buttarci dentro tonnellate di CU mal sfruttate? Un doppio polaris, per quanto probabilmente non fattibile (altrimenti ci avrebbero pensato, credo), com'è noto avrebbe proprio 8 cosi.
Per me se ne sono semplicemente sbattuti, quella era la scheda che volevano creare per il calcolo e gheimers sucka o pregavano (e basta) che le uber features funzionassero.
Gyammy85
17-04-2018, 14:31
una vega32 andrebbe sicuramente meno di una 580 e costerebbe perfino di più causa HBM, non siamo tutti tecnici ma probabilmente raddoppiando x2 una 580 sarebbe uscita una vga migliore
Una vega con 2048 sp come minimo andrebbe quanto un polaris da 2304, ma proprio minimo.
TheDarkAngel
17-04-2018, 14:39
Una vega con 2048 sp come minimo andrebbe quanto un polaris da 2304, ma proprio minimo.
Dipende dallo stack delle hbm, se fossero a pieno bus come adesso, mettendo anche le hynix da 800mhz, andrebbe un bel pezzo in più di polaris consumando sui 100w
Ton90maz
17-04-2018, 14:47
una vega32 andrebbe sicuramente meno di una 580 e costerebbe perfino di più causa HBM, non siamo tutti tecnici ma probabilmente raddoppiando x2 una 580 sarebbe uscita una vga miglioreIn teoria dovrebbe andare di più, ma chissà perchè non esiste ancora un Vega 32. Occuperebbe più spazio quindi aumento dei costi? E chissà se passare a RAM "normali" possa essere economicamente vantaggioso (sia per costi di sviluppo che altro)
Vega è principalmente stoppata nella compressione oltre che nei Geo, metterne 6, o addirittura 8 (inutili) avrebbe compensato ma aumentato troppo l'area...
il Problema sono i clock, ancora.Sì, quello della banda è un problema ben noto. Basta vedere come spingono le Vega piccole con 200 GB/s, però parlando di nuova generazione, sarebbe ancora conveniente la Fury Subaru Vega 3.0 SV? Mi chiedo... basterebbe un aumento del clock?
Ton90maz
17-04-2018, 15:18
L'idea mi piace di più :sofico:
sono più che sicuro che appena ci saranno i singoli stack da 8gb, le vega mid range tra i 2048 e i 3096 sp inizieranno a farsi vedere.
techfede
17-04-2018, 16:06
Oh, ma che Veradun hai mandato il CV alla Lisona? :sofico:
Free Gordon
17-04-2018, 16:29
In effetti sì..
Al massimo massimo direi 12:1... (più una CU ridondante magari)
Con 4 moduli vai a 48CU, con 5 a 60CU...e hai 5 geo-engine.
Sarebbe un chip più veloce di Vega che ha 64CU.
Non so se si possa fare però... :fagiano:
il Problema sono i clock, ancora.
Finché non cambiano l'architettura...non saliranno mai di clock.
Coi 14nm faticano a tenere i 1600mhz con consumi potenzialmente esplosivi.... Nvidia va' a 2ghz easy.
Il problema ormai nel 2018..2019.. è GCN. Spero cambino presto e sfornino qualcosa di sensato in ambito gaming (finalmente).
Free Gordon
17-04-2018, 16:40
Guarda, quelli sono i numeri Teorici, spiegami quindi perché andrebbe meno e no di più dato lo scaling clock superiore del 15%.
per le memorie non ci sarebbe problema, uno stack hbm2 basta oppure usare le gddr5 o x per avere maggiore banda
Sarei proprio curioso di vedere cosa potrebbe fare un eventuale vega32 così composto...
Ma credo starebbe vicino alla 580...consumando più o meno la stessa enormità (dovendo viaggiare costante a 1600mhz..)
Quindi perché farlo? :D
Free Gordon
17-04-2018, 16:51
240mmq Vega a 1600 consumerebbero il giusto ma quale enormità,
Un'enormità perché già le 580 consumano assai.. ;)
Siamo d'accordo infatti :D
non hanno senso le Vega32 perché andrebbero come le 580 senza essere molto più parche nei consumi.
Perché farle quindi?
Gyammy85
18-04-2018, 11:14
https://youtu.be/OAclArZrU1E
Fantastico video, in un minuto sintetizza la situazione odierna...bello
Ho lollato pesantemente alla tastiera con le N :rotfl:
Gyammy85
18-04-2018, 11:26
La parte che mi è piaciuta di più è la tastiera con solo N :asd:
:asd: :asd:
In che senso simmetriche? :mbe:
Usano stacks da 8 canali (1024bit) sia su Fiji che su Vega, però Vega ha un bus da 2048, Fiji da 4096, ergo ROPs e bus sono disaccoppiati, o Vega avrebbe ROPs dimezzate rispetto a Fiji.
O quantomeno è una scelta di design e quindi non un'invariante architetturale che si devono portar dietro obbligatoriamente.
è la larghezza del canale in bit associata ad ogni rops che varia.
Potrei avere un bus da 128bit e 128rops associando 1 bit ad ogni rops (non avrebbe molto senso^^).
Però si vega rispetto a fiji ha un numero di bit minore associato ad ogni rops.
Probabilmente il bilanciamento di un'archidettura passa anche sul bilanciamento di quanti bit ogni rops deve macinare, se ti serve altamente sincrona o asincrona in elaborazione.
Gyammy85
18-04-2018, 13:47
Ma nel momento in cui fanno la scheda modulare (qualunque cosa voglia dire), chi impedirà a nvidia di cambiare radicalmente i paradigmi dell'eccellenza, virando sul computing e quindi tutta l'industria videoludica per prendere in contropiede amd?
Certi discorsi non li capisco...
Io penso che una gpu potente con tante unità che possono fare tutto sia concettualmente più avanti di una che ha bisogno di 100 unità dedicate che se non hai il gioco programmato a manina che le usa stanno lì senza far niente, ripeto puoi farlo se hai la forza economica per imporre i tuoi voleri, punto.
Ma nel momento in cui fanno la scheda modulare (qualunque cosa voglia dire), chi impedirà a nvidia di cambiare radicalmente i paradigmi dell'eccellenza, virando sul computing e quindi tutta l'industria videoludica per prendere in contropiede amd?
Certi discorsi non li capisco...
Io penso che una gpu potente con tante unità che possono fare tutto sia concettualmente più avanti di una che ha bisogno di 100 unità dedicate che se non hai il gioco programmato a manina che le usa stanno lì senza far niente, ripeto puoi farlo se hai la forza economica per imporre i tuoi voleri, punto.
le archidetture sono anche questioni di sapere cosa serve quando serve. Se hai bisogno subito di pompare una tecnologia e supportarla ti servono unità dedicate, quando arrivi ad avere una potenza di calcolo sufficiente puoi andare in hw generico.
Tanto comunque il poveraccio che programma dovrà far sempre i conti con l'hw con cui programma, o si impara a usare a bestia le unità dedicate o muore per ottimizzare il design parallelizzato delle generiche.
Non è uno che è più avanti o indietro come design, è se il design che hai rispecchia le esigenze del momento.
Sono quasi sicuro che quando passeremo a ray tracing, probabilmente il miglior approccio sarà fare un'unità dedicata, per poi con il tempo andare avanti con una unità generica. Se ci pensi il successo di nvidia fu proprio il T&L in hardware all'alba delle dx7. Per arrivare ad una archidettura unificata abbiamo dovuto aspettare le dx10.
Yep, per l'appunto una scelta di design, non un'invariante, quindi se serve cambiare il rapporto per rendere l'architettura fisicamente modulare (non solo logicamente) possono farlo :>
si ovviamente la modularità sarà "bloccata" al modulo minore che scelgono di fare.
Guardando vega di base fare unità piccolo da 1024 o 2048sp ogni una collegata in diretta con 1 stack di hbm.
Se già facessero cosi, potrebbero fare gpu con stack da 4gb cosi da fare schede fascia bassa 4gb, schede mid con 2 moduli e 2 stack dire) da 8gb e schede top con 4 moduli (16gb). Raddoppiando il bus ogni volta. Con tutta la fase di studio nel capire quale è il miglior bilanciamento per il "mini die" tra sp, rops e tutto quello che sta li dentro.
Gyammy85
18-04-2018, 19:24
le archidetture sono anche questioni di sapere cosa serve quando serve. Se hai bisogno subito di pompare una tecnologia e supportarla ti servono unità dedicate, quando arrivi ad avere una potenza di calcolo sufficiente puoi andare in hw generico.
Tanto comunque il poveraccio che programma dovrà far sempre i conti con l'hw con cui programma, o si impara a usare a bestia le unità dedicate o muore per ottimizzare il design parallelizzato delle generiche.
Non è uno che è più avanti o indietro come design, è se il design che hai rispecchia le esigenze del momento.
Sono quasi sicuro che quando passeremo a ray tracing, probabilmente il miglior approccio sarà fare un'unità dedicata, per poi con il tempo andare avanti con una unità generica. Se ci pensi il successo di nvidia fu proprio il T&L in hardware all'alba delle dx7. Per arrivare ad una archidettura unificata abbiamo dovuto aspettare le dx10.
Vabbè ma il t&l in harware era un'altra cosa, le gpu erano molto diverse da oggi. O lo facevi con la cpu o niente, era un passo necessario.
Ma se il progresso va avanti, basta avere cose tipo l'async computing e elimini o quasi l'assenza di unità dedicate, dato che hai migliaia di unità che lavorano su tante cose contemporaneamente.
Sono scelte, amd aveva emulazioni via shader core del 2d ai tempi delle hd4000, quando nvidia aveva ancora chip separati onboard per il 2d.
L'idea di quel "modulo" che ho disegnato qualche pagina fa era quella, avere fasce diverse diversificate solo dalla dimensione dell'interposer (e quindi quanti moduli mettere sopra)
Ci sarebbe anche la possibilità di fare una fascia intermedia sopra la performance ma sotto l'high end (3 moduli, 3 stacks)
La problematica, probabilmente è inutile sottolinearlo, è avere il "Command & Conquer" (la logica di controllo e distribuzione) distribuito sui moduli, quindi da risolvere il problema dell'intercomunicazione (da implementare su IF, questo pare ovvio) e il come splittarne la capacità operativa su più "moduli". A meno di non averne uno completo per modulo ed avere poi un modulo master che gestisce tutto e gli altri spenti (rimarrebbe solo il problema dell'intercomunicazione).
quello di cui parli è fare una gpu alla "epyc" maniera, quindi 4 piccoli die (o 2 o 1) infilati sull'interposer. (Da verificare la fattibilità del 3, ma non vedo impedimenti). Quindi vorrebbe dire inserire la logica di controllo replicata su ogni die che quindi aumenta l'area. Appunto è da studiare se è più conveniente per loro fare il chip monolitico con tutte le sp dentro e una sola porzione dedicata alla logica di controllo o sporzionare il tutto.
Per l'interposer, sicuramente sarà uno unico, alla fine costa molto di meno produrre 40000 interposer grandi "da 4 die" che non 4 interposer diversi per ospitare 1, 2 o 4 muduli. Il problema grosso non è la dimensione del die, quanto quello del modulo hbm associato.
Lo studio di fattibilità ispirandosi a epyc lo staranno facendo.
Vabbè ma il t&l in harware era un'altra cosa, le gpu erano molto diverse da oggi. O lo facevi con la cpu o niente, era un passo necessario.
Ma se il progresso va avanti, basta avere cose tipo l'async computing e elimini o quasi l'assenza di unità dedicate, dato che hai migliaia di unità che lavorano su tante cose contemporaneamente.
Sono scelte, amd aveva emulazioni via shader core del 2d ai tempi delle hd4000, quando nvidia aveva ancora chip separati onboard per il 2d.
si appunto, non è che ce ne è una avanti o una indietro, ci sta quella che funziona meglio al momento che ti serve.
Se passano al ray tracing è la stessa "rivoluzione" con le DX7 del T&L, quindi non mi stupirei che all'inizio una porzione dedicata sia più efficiente.
Quando hanno fatto le prime gpu multi core, superando i 2 core, ha vinto intel mettendoci due die separati e amd si è impicciata nel die monolitico.
Dopo X anni di entrambi con i die monolitici, amd di fatto sta vincendo sulla scelta server utilizzando più die nello stesso package.
Sono solutizioni cicliche che si usano quando serve.
Gyammy85
25-04-2018, 21:48
https://www.anandtech.com/show/12677/tsmc-kicks-off-volume-production-of-7nm-chips
Avviata la produzione dei 7 nm, tutto pronto per il 2019
Gyammy85
26-04-2018, 10:40
https://twitter.com/AMDNews/status/989258151345229825
Vega instinct 7 nm in testing :cool: :cool:
ninja750
26-04-2018, 11:23
sarebbe l'equivalente della vega frontier?
Gyammy85
26-04-2018, 11:29
sarebbe l'equivalente della vega frontier?
Si e no, è la vega instinct che è quella specifica per il deep learning
Gyammy85
26-04-2018, 11:37
Non credo, dovrebbe essere un prodotto praticamente solo pro, secondo me come prezzo siamo ai livelli della TitanV, circa 3000$.
Esistono 3 versioni: rx gaming, frontier applicazioni pro e rendering, instinct deep learning e data center.
Free Gordon
26-04-2018, 12:19
sarebbe l'equivalente della vega frontier?
Ci sono già le Instinct a 14nm ;)
https://instinct.radeon.com/en/product/mi/radeon-instinct-mi25/
(Questa è una VEGA con 16GB, come le Frontier..)
Non si sa quante ne abbiano vendute...ma ci sono.
Ci sono dei dati di quel settore?
Gyammy85
26-04-2018, 14:34
La Frontier è un caso a parte, pro e rendering sono le WX (SSG e non)
Ah già scordavo quelle...
Gyammy85
30-04-2018, 07:57
https://videocardz.com/76076/early-amd-vega-20-3dmark11-benchmark-result-emerges
Qui indica 1000 vs 1600 della frontier come clock, e 32 gb di hbm2 a 1250 mhz. Sembra un grande incremento, siamo come minimo a +20% dalla fe, dando per buoni i 1000 base e 1250 di boost, ma dato che per la fe danno 1600 io credo che giri proprio a 1000 o giù di lì.
Forse è la instinct a 7 nm, dato che stanno testando quella per ora...
Radeon80
30-04-2018, 10:10
Non vorrei dire della fesseria, ma magari nel passaggio di Vega da 14 nm a 7 hanno magari messo mano alla architettura andando a toccare dei colli di bottiglia e migliorando le prestazione a parità di SP.
Gyammy85
30-04-2018, 10:49
Non vorrei dire della fesseria, ma magari nel passaggio di Vega da 14 nm a 7 hanno magari messo mano alla architettura andando a toccare dei colli di bottiglia e migliorando le prestazione a parità di SP.
Secondo me fra la banda maggiore e il pp affinato si vede il reale potenziale di vega. Purtroppo coi 14 nm di più non si poteva fare...
Magari questa ha più cu e con gli affinamenti e tutto scala linearmente quindi a soli 1 ghz quasi pareggia la fe.
Gyammy85
30-04-2018, 10:52
cioè correggetemi se sbaglio, ma quel sample quindi gira appena a 1000mhz e nonostante questo sta di poco sotto di un 10% scarso a vega FE che viaggia a 1600? a parità di SP??? :mbe: sti cazzi, mi sembra follia... a 2ghz cosa farebbe? :sofico:
comunque sbaglio o le memorie sono più veloci dei 2.4g? li indica 1250mhz, quindi 2.5g, per 32gb (4096bit) fanno 1280GB/s :sofico: o esistono banchi da 16GB? nel caso sarebbero 2048bit e 32GB@640GB/s.
Non credo, saranno 4 da 8...non hanno mai parlato di stack da 16 giga. Comunque sembra la stessa scheda del leak di un anno e passa fa, quello che era sicuramente fake :O lì c'era vega 20 da 32 giga
Gyammy85
30-04-2018, 11:15
Potrebbero banalmente essere letture sballate di 3dmark su una scheda non rilasciata e si suppone nemmeno dedicata al gaming, visto che dovrebbe essere dedicata solo alle instinct e quindi senza nemmeno uscite video
Mah, non credo...quella della fe viene letta correttamente, ed è quella boost della air perché la liquid arriva a 1700. Se non è 1000 sarà 1200 max, l'incremento comunque c'è, se è vero che coi 14 nm scala bene con poche cu tipo quella di raven ridge o quella del nuc intel, ma sempre meno aumentando le unità, coi 7 nm abbiamo uno scaling lineare.
Gyammy85
30-04-2018, 11:16
32GB e 1.28TB/s sono davvero tanti e di certo non è una scheda gaming, ma non so a che clock girerà la versione finale però dovrebbe essere intorno i 2ghz in boost (1800mhz base)... quindi andare circa il doppio dato che con tutta quella banda di certo non avrà problemi di memorie...
Non credo di sbagliare se dico che pare livellata a Titan V, se non oltre.
Già ora non c'è molta differenza in applicazioni non cuda dato che siamo 12-13 tf contro 15 della titan v, quindi la passerebbe senza problemi.
giovanbattista
30-04-2018, 13:43
https://www.techpowerup.com/243758/amd-vega-20-with-32-gb-hbm2-3dmark-11-score-surfaces
Free Gordon
30-04-2018, 15:38
cioè correggetemi se sbaglio, ma quel sample quindi gira appena a 1000mhz e nonostante questo sta di poco sotto di un 10% scarso a vega FE che viaggia a 1600? a parità di SP??? :mbe: sti cazzi, mi sembra follia... a 2ghz cosa farebbe? :sofico:
comunque sbaglio o le memorie sono più veloci dei 2.4g? li indica 1250mhz, quindi 2.5g, per 32gb (4096bit) fanno 1280GB/s :sofico: o esistono banchi da 16GB? nel caso sarebbero 2048bit e 32GB@640GB/s.
SE girasse davvero a 1Ghz, facendo quei risultati, sarebbe davvero un ottimo risultato...e significherebbe uno stravolgimento architetturale degno di nota.
Non credo sinceramente... :)
Per quanto riguarda i 1280GB/s ci può stare...perché no?
Con 32GB sarebbe un bus da 512bit con 4* 8GB.. ci può stare.
Sarebbe una scheda non gaming sicuramente..
Gyammy85
30-04-2018, 18:36
il bus è hbm2, quindi 1024bit x stack di memoria.
c'è da vedere come si comporta la fp64 1:2, dico una stronzata se magari possa essere gestita come fosse una doppia fp32 in certi casi? oppure è sempre emulata? nel primo caso vorrebbe dire che gli sp fp32 sarebbero 8192 in totale :sofico:
4096sp fp32 + 2048 fp64 (2048+2048 fp32)
Comunque tanta roba, un aumento di ipc considerevole.
Potrebbero anche aver attivato di default senza supporto via api qualcosa tipo il primitive discard, chissà. Se arriva a processare 11 pol per clock e arriva a 1800 con più sp, altro che 1180ti...cioè sarà la base per navi questa qui...
Interessante, l'errore più grosso di Vega 56 e 64 è proprio legato alla banda che strozza, se raddoppiano il bus usando più stack di HBM2 già cosi si avrebbe un notevole boost e probabilmente per questo l'ipc ne ha giovato sopratutto se anche le latenze sono minori :)
Gyammy85
01-05-2018, 07:55
https://www.phoronix.com/scan.php?page=news_item&px=Vega-12-20-AMDGPU-LLVM
:eek:
Quindi vega 12 sarà la nuova fascia al posto della 580? o sempre un prodotto deep learning?
Interessante, l'errore più grosso di Vega 56 e 64 è proprio legato alla banda che strozza, se raddoppiano il bus usando più stack di HBM2 già cosi si avrebbe un notevole boost e probabilmente per questo l'ipc ne ha giovato sopratutto se anche le latenze sono minori :)
Mi fa piacere notare che, oltre che sulla discussione ufficiale di Vega, anche qui si continui a sottolineare questa asserita scrausità di Vega parlando di errori normali ed anche di errori grossi come il precitato.
Quindi son rincoglionito io che invece riesco a giocare tutto maxato (come direbbe un noto utente della discussione ufficiale Vega) a 3440x1440 senza mai scendere sotto i 60 fps nella stragrande maggioranza se non totalità dei giochi. Infatti ho già visto giungere precisazioni polemiche oltre che su Vega anche sulla non ancor pervenuta Navi.
E' davvero spassoso:muro:
Gyammy85
01-05-2018, 08:20
Hmhm i sogni delle uberfeat si spostano da Vega (1 anno dopo un accenno di fp16 solo su farcry5, niente primitive discard e async col contagocce) a Navi....
Ma tanto neanche su navi le vedremo giusto? :D
E dopo mesi passati a spiegare il perché e il percome, dobbiamo sempre tornare sulle stesse cose...è stato chiarito che ci vuole un aggiornamento delle api per il supporto su larga scala, altrimenti programmazione specifica, che non potrà mai avvenire per tutte quelle ragioni che vi piacciono tanto :asd:
Qui sembra che ci sia un aumento considerevole, quindi o merito della banda, o del pp, ma qualcosa c'è.
Il fatto che la banda la strozza non vuol dire che non va un cavolo, vuol dire che potrebbe andare di più di quello che fa.
L'utente ha precisato che quello è l'errore più grosso. Quindi ci sono miriadi di altri errori di cui è esente la controparte ovviamente.
Gyammy85
01-05-2018, 08:32
Mi fa piacere notare che, oltre che sulla discussione ufficiale di Vega, anche qui si continui a sottolineare questa asserita scrausità di Vega parlando di errori normali ed anche di errori grossi come il precitato.
Quindi son rincoglionito io che invece riesco a giocare tutto maxato (come direbbe un noto utente della discussione ufficiale Vega) a 3440x1440 senza mai scendere sotto i 60 fps nella stragrande maggioranza se non totalità dei giochi. Infatti ho già visto giungere precisazioni polemiche oltre che su Vega anche sulla non ancor pervenuta Navi.
E' davvero spassoso:muro:
Vega ha molte potenzialità inespresse, pp e hbm2 non ancora all'apice hanno tarpato le ali. Diciamo che è tipico di amd, arriva per prima con nuove tecnologie che all'inizio sono un pò acerbe...se avesse scalato bene come sulle piccoline delle apu, avresti -20% di consumi e +20% di performances imho. Solito pp sfortunato...
Al di la dei perche e dei per come giusto sta mattina mi sono andato a riguardare velocemente le prime 200 pagine del thread Vega dove si fantasticavano driver miracle, features e prestazioni dayone nei pressi della 1080ti e full unlocked 1180....
Non è trolling ma col senno di poi sta volta forse sarebbe auspicabile andare con i piedi di piombo e sperare intanto che l'hw abbia una forza bruta adeguata senza strozzature (geometria, banda).. e poi le uberfeat come un plus (come fino alle hawai) che schifo non fa.
Come sopra, non si poteva aumentare senza arrivare a consumi enormi e scaling scarso.
Si vega non è una gpu particolarmente ben riuscita e anche questo non vuole dire che faccia schifo e non vada niente ma che poteva andare molto di più.
Oh e parliamo in gaming sempre perchè in altri settori va molto bene invece.
Bisogna guardare la cosa dal giusto punto di vista, ne sputarci sopra ne metterla su un piedistallo.
Continuo ad affermare che anche in game non trovo questa "non riuscita" del progetto. Per lo meno per la versione liquid che io posseggo. Peraltro pagata 699 euro al day one su Amazon (a momenti paghi di più una 1080 usata sul mercatino). Io volevo una gpu AMD nettamente più performante della mia pur valida ex Fury X e l'ho trovata. Delle prestazioni in assoluto non mi interessa.
Non voglio glorificarla, ma spesso viene ingiustamente infangata.
Quindi se anche per questa ipotetica nuova gpu si inizia la solita tiritera mi intristisce.
Gyammy85
01-05-2018, 08:42
Continuo ad affermare che anche in game non trovo questa "non riuscita" del progetto. Per lo meno per la versione liquid che io posseggo. Peraltro pagata 699 euro al day one su Amazon (a momenti paghi di più una 1080 usata sul mercatino). Io volevo una gpu AMD nettamente più performante della mia pur valida ex Fury X e l'ho trovata. Delle prestazioni in assoluto non mi interessa.
Non voglio glorificarla, ma spesso viene ingiustamente infangata.
Quindi se anche per questa ipotetica nuova gpu si inizia la solita tiritera mi intristisce.
Infatti io avrei fatto solo la 56 ad aria...la 64 ad aria è stata un errore imho
Gyammy85
01-05-2018, 08:50
Ho preso una onex e vedere quel polaris a 40cu quello che fa è incredibile...
:D :D quale gioco?
Gyammy85
01-05-2018, 09:04
Titanfall 2, gear of wars 4 (finito su PC), halo5 enhanced, forza motorsport 7 spacca di brutto, forza horizon 3 seppur cappato a 30fps granitici è praticamente a dettagli ultra (e credo pure in 4k)... Se la x avesse una CPU poco migliore farebbe 20fps in più, con i prezzi delle VGA alle stelle i 500€ per comprarla sono un
Vabbè magari con le api a basso livello quella cpu non tappa più di tanto...
techfede
01-05-2018, 09:12
https://www.phoronix.com/scan.php?page=news_item&px=Vega-12-20-AMDGPU-LLVM
:eek:
Quindi vega 12 sarà la nuova fascia al posto della 580? o sempre un prodotto deep learning?
Magari hanno trovato il modo per rendere più economica una vega "piccola" mentre spostano il grosso della produzione per la top sui 7nm.
Mi interessa molto la prossima fascia media, se darà un boost tangibile rispetto alle 580/1060 ci farò più che un pensierino.
Edit: ovviamente accoppiata al monitor 144hz VA freesync a 200€ che mi ha promesso Bivvoz :asd:
ninja750
01-05-2018, 13:57
io mi aspetto una RX580 che costi come una RX580 non come una vega56 :stordita:
Angeland
01-05-2018, 14:16
Per quanto riguarda la banda delle HBM2 che farebbe da collo di bottiglia alle Vega é un falso mito, o meglio ancora, diciamo che dipende dalle situazioni.
Se si considera la Vega 56 con le memorie a 800mhz allora sono pienamente d'accordo, la 64 con le HBM2 a 945mhz é ancora limitata ma di poco.
Avendo un buon sistema di dissipazione (liquido) si portano facilmente (quelle Samsung, le Hynix non salgono nemmeno se ti metti a piangere) a 1050mhz ed azzeri il bottleneck, ho provato anche a portarle a 1100mhz ed oltre ma non si ottengono benefici (nei giochi, non ho provato altri benchmark tipo firestrike ecc) quantomeno alla risoluzione 3440x1440.
mikael84
01-05-2018, 14:48
il bus è hbm2, quindi 1024bit x stack di memoria.
c'è da vedere come si comporta la fp64 1:2, dico una stronzata se magari possa essere gestita come fosse una doppia fp32 in certi casi? oppure è sempre emulata? nel primo caso vorrebbe dire che gli sp fp32 sarebbero 8192 in totale :sofico:
4096sp fp32 + 2048 fp64 (2048+2048 fp32)
Con la FP64 succede questo.
Nei chip gaming, un SIMD, deve effettuare 16 cicli di clock per emularne una.
1 SIMD, 16 ALU FP32/ 1 FP64 lineare. Questa FP64 esprime il massimo in casi cui le LDS/SFU non siano coinvolte.
Nel chip compute AMD, si riesce ad ottenere una FP64 in 2 cicli, ovvero un SIMD, può emulare 8 FP64.
Nessuno lo mette in dubbio, le critiche su Vega nascono esclusivamente dal confronto con quello che i competitor hanno tirato fuori magari un anno prima, tutto qua. Nessuno dice che faccia schifo, ma se la metti a confronto considerate tempistiche di rilascio, prestazioni e consumi indubbiamente lascia l'amaro in bocca. Il prezzo non lo considero. Troppo avvelenato dal fenomeno mining.
Di navi si sa troppo poco, non so se sia auspicabile che migliorino Vega o che facciano un progetto tutto nuovo (il multichip) che poi al solito ci vogliono driver, tempo ed ottimizzazioni ad hoc.
P.s.
Ho preso una onex e vedere quel polaris a 40cu quello che fa è incredibile...
Vega, è una GPU potente, ma il teorico viene sprecato dalla emulazione delle unità funzionali, nei gaming, e la banda senza compressione non aiuta.
Per quanto riguarda la banda delle HBM2 che farebbe da collo di bottiglia alle Vega é un falso mito, o meglio ancora, diciamo che dipende dalle situazioni.
Se si considera la Vega 56 con le memorie a 800mhz allora sono pienamente d'accordo, la 64 con le HBM2 a 945mhz é ancora limitata ma di poco.
Avendo un buon sistema di dissipazione (liquido) si portano facilmente (quelle Samsung, le Hynix non salgono nemmeno se ti metti a piangere) a 1050mhz ed azzeri il bottleneck, ho provato anche a portarle a 1100mhz ed oltre ma non si ottengono benefici (nei giochi, non ho provato altri benchmark tipo firestrike ecc) quantomeno alla risoluzione 3440x1440.
Ti sbagli, la banda non è che strozza la GPU nel vero senso.
Pensa una 1080ti, lanciata con la banda della 980ti, in cui gli levi pure la compressione (1080ti con il bus della 1070).
Seppur i giochi si assestino su 100/200gb/s, medi, Vega con una BW così bassa non può esprimere del tutto il potenziale.;)
Già ora non c'è molta differenza in applicazioni non cuda dato che siamo 12-13 tf contro 15 della titan v, quindi la passerebbe senza problemi.
I TF non centrano nulla, sono due architetture diverse, salvo alcuni calcoli, AMD perde sempre da 1/4 a 2/4 del teorico in emulazione.
Angeland
01-05-2018, 18:55
Con la FP64 succede questo.
Ti sbagli, la banda non è che strozza la GPU nel vero senso.
Pensa una 1080ti, lanciata con la banda della 980ti, in cui gli levi pure la compressione (1080ti con il bus della 1070).
Seppur i giochi si assestino su 100/200gb/s, medi, Vega con una BW così bassa non può esprimere del tutto il potenziale.;)
Ciao mikael :)
Ne approfitto per chiederti: secondo te quale può essere il motivo del mancato inserimento di questa funzionalità? (se non sbaglio su Fiji era presente).
A grandi linee, nel caso in cui fosse stata introdotta, è possibile quantificare l'aumento delle performance in gaming (5-10%) ?
Grazie
La compressione texture è attiva.
Su Vega da un boost della bw del 40%.
https://s9.postimg.cc/8nfmlb04v/vga.jpg
mikael84
01-05-2018, 19:30
La compressione texture è attiva.
Su Vega da un boost della bw del 40%.
Si, effettivamente, ricordavo questo grafico
https://abload.de/img/axgcvo72.png
Free Gordon
02-05-2018, 00:59
il bus è hbm2,
Sì, scusa volevo scrivere 4096bit ;-)
Ton90maz
02-05-2018, 04:15
Vabbè magari con le api a basso livello quella cpu non tappa più di tanto...
Va poco più della metà di un Ryzen 1700 downclockato a 3 GHz e con metà dei core disattivati :sofico:
Ton90maz
02-05-2018, 04:24
Continuo ad affermare che anche in game non trovo questa "non riuscita" del progetto. Per lo meno per la versione liquid che io posseggo. Peraltro pagata 699 euro al day one su Amazon (a momenti paghi di più una 1080 usata sul mercatino). Io volevo una gpu AMD nettamente più performante della mia pur valida ex Fury X e l'ho trovata. Delle prestazioni in assoluto non mi interessa.
Non voglio glorificarla, ma spesso viene ingiustamente infangata.
Quindi se anche per questa ipotetica nuova gpu si inizia la solita tiritera mi intristisce.Praticamente il prezzo e la data di lancio non ti interessano (compravi 6-8 mesi prima le 1080 sotto i 500 e le 1080 ti sotto i 650), le prestazioni assolute nemmeno, immagino neanche i consumi. Quindi graziearcà che è tutto buono. Io innanzitutto separerei l'esperienza personale con l'obiettività, giochi bene? E' una scheda ben riuscita in gaming e al giusto prezzo? Ma assolutamente no, ed è un fatto oggettivo. Ps: voglio stringere la mano a chi compra una 1080 usata a 6-700 euro
Gyammy85
02-05-2018, 07:28
Va poco più della metà di un Ryzen 1700 downclockato a 3 GHz e con metà dei core disattivati :sofico:
:asd: :asd:
Praticamente il prezzo e la data di lancio non ti interessano (compravi 6-8 mesi prima le 1080 sotto i 500 e le 1080 ti sotto i 650), le prestazioni assolute nemmeno, immagino neanche i consumi. Quindi graziearcà che è tutto buono. Io innanzitutto separerei l'esperienza personale con l'obiettività, giochi bene? E' una scheda ben riuscita in gaming e al giusto prezzo? Ma assolutamente no, ed è un fatto oggettivo. Ps: voglio stringere la mano a chi compra una 1080 usata a 6-700 euro
Inutile girare attorno al discoso del prezzo, c'è stato il fenomeno mining, poi tutto dipende dal software ormai, e siccome su 10 giochi 8 sono con l'ue4 dx11 con grafica stile team fortress 2, 1 gamemworks e 1 techdemoammeddi sol perché non è nè ue4 nè gameworks, i risultati sono questi.
Io ricordo di tempi in cui la clientela affezionata nvidia, diciamo così, benchava con 1 massimo 2 giochi, tipo la intro di bf3, quella gtx670 vs 7970, dicendo "sono gli unici bei giochi non bminkiate", ora abbiamo fc5 wolf 2 ecc..., tutti tripla a davvero, ma no, bisogna benchare con gli indie fatti da mio cuggino con la 970 reference. Tipo fortnite, con la grafica di serious sam 2 e gli alberi e le case che spariscono a picconate, messo a benchare con ryzen e radeon a tutto spiano. Ovvio vendono tanto, poi se li facciamo scaricare pure sull 'iphone abbiamo 100 milioni di dispositivi che lo scaricheranno perché fa figo e non ci giocheranno mai...e vendono ancora di più.
Gyammy85
02-05-2018, 08:08
ma quindi c'è o non c'è la compressione? si è sempre detto di no, forse perchè la si paragonava a Fury?
ma anche se c'è, come fa a perdere 100GB/s rispetto a Fiji sul teorico e la FE addirittura 200GB/s? :mbe:
non mi sembra normale, o quantomeno logico.
Sono bench vecchi dato che da alcuni anni nessuno ha più fatto dei bench sintetici seri su fillrate texturing shading ecc...
Lasciano un po' il tempo che trovano a mio avviso...
Free Gordon
02-05-2018, 17:09
La compressione texture è attiva.
Su Vega da un boost della bw del 40%.
Anche con la compressione attiva...ha praticamente la banda della FuryX...
E' troppo poco per Vega64 a quelle frequenze, immagino..
Free Gordon
02-05-2018, 17:10
Sono bench vecchi dato che da alcuni anni nessuno ha più fatto dei bench sintetici seri su fillrate texturing shading ecc...
Lasciano un po' il tempo che trovano a mio avviso...
Hmm.. la compressione cmq da quel test la vedi.
Se una 1070 con black texture ha più banda delle Vega64, qualcosa non và...
Impronta
02-05-2018, 18:04
Personalmente, forse l'ho già scritto, dai 7nm mi aspetto una RX580 che consuma la metà. Se me la fanno cambio la 580 subito.
E che vada almeno come una 1070 ma che non sia castrata a livello computazionale come una 1070
mikael84
02-05-2018, 23:28
ma quindi c'è o non c'è la compressione? si è sempre detto di no, forse perchè la si paragonava a Fury?
ma anche se c'è, come fa a perdere 100GB/s rispetto a Fiji sul teorico e la FE addirittura 200GB/s? :mbe:
non mi sembra normale, o quantomeno logico.
Rispetto a Fury naturalmente, è chiaro che una compressione base ci sia sempre.
Anche per Kepler un minimo c'era
https://techreport.com/r.x/geforce-gtx-980ti/b3d-bandwidth.gif
Il test mio è con compressione 8x, dove si vede veramente il crollo.
La FE perde molto, probabilmente per via dei timing molto aggressivi (2x8gb), mentre è praticamente inspiegabile il comportamento di Vega gaming a 1600, considerando il maggior ratio via rop's.
La fury, ha una compressione 8:1/4:1, la 2:1 non viene sempre compressa.
Polaris ha introdotto la 2:1 e certe tecniche di Pascal, in più il netto maggior ratio rop's.
Diciamo che analizzando i risultati in compressione, in un modo o nell'altro sono molto deludenti.
.
Nvidia guadagna circa 15gb/s per 8 rop's, con la base 8:1/4:1
Free Gordon
03-05-2018, 13:35
ma no, con la compressione attiva perde comunque ben 100GB/s rispetto a Fury, guarda il grafico... assurdo.
come dice anche mikael è davvero inspiegabile come faccia a perdere così tanto in compressione.
Guardavo il grafico di Ren.. ;)
mikael84
03-05-2018, 14:32
anche perchè è l'unico grafico presente con fury e vega, ma da quel grafico dove vedi che hanno la stessa banda effettiva? :stordita:
comunque spezzo una lancia a tuo favore, io ricordavo che Fury avesse una banda effettiva decisamente inferiore a quella mostrata li...
io ricordavo questa
quindi Vega ha la stessa banda affettiva di Fury, ed è poco.
Quei grafici sono con compressione 1x, il mio è ad elevata compressione 8x.
Cmq, i grafici sia dell'una che dell'altra sono essenzialmente indicativi, non arriverai mai a quei livelli di compressione.
Ad esempio una Nvidia, tipo una 1070, ha un ratio teorico effettivo, a cui vanno aggiunte 2/3 compressioni.
8:1/4:1/2:1 e l'ultima Pascal con colori adiacenti.
Nei giochi, dipende proprio da loro.
Un tale gioco, ha un certo livello di compressione, chi il 10%, chi il 20%, chi il 30% (il ratio teorico dettato dalle aziende è fino a 40%).
Se prendi una 980ti, rispetto ad una 1070, quest'ultima ha in'uscita una BW più bassa, ma può avvalersi della nuova compressione (ad esempio AC, o crysis arrivano sino al 25/30%).
Stessa cosa con Kepler vs Maxwell, in cui maxwell ha sempre un ratio effettivo sempre molto basso.
Polaris introduce la compressione 2:1, rispetto a fiji e alcune caratteristiche Pascal, quindi può comprimere di più in base al gioco.
Vega ha pure un ratio rop's molto più elevato.
Questo significa che Vega potrebbe comprimere anche il 30% in più rispetto a Fiji.
Nel test da me indicato ad 8x di compressione, mostra stranamente le vega crollare a picco, non nvidia e neppure fiji, che anzi, sembrano andare meglio, rispetto ad 1x.
Gyammy85
03-05-2018, 16:59
Chissà se al computex mostreranno qualcosa...
Chissà se al computex mostreranno qualcosa...
Ci sono rumors di un secondo polarish refresh (ergo terzo refresh tonga :asd: ).
Gyammy85
04-05-2018, 07:24
Ci sono rumors di un secondo polarish refresh (ergo terzo refresh tonga :asd: ).
I rumour dicono serie 600 con vega
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.