View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
Ale55andr0
19-07-2019, 00:01
è per il solo compute, roba da datacenter...
non vedrete nulla del genere su navi, hanno definitivamente staccato le architetture.....la gaming (Navi) dalle compute (Vega, Arcturus e future declinazioni). Fa il paio con la VII tolta dal mercato consumer.
E infatti già alla prima iterazione si è pareggiato turing in ipc, Raja ha fatto un ottimo lavoro...fa ben sparare per l'entrata di intel nel mercato gpu....
se ci hanno infognato la VII che è una pro de scarto rattopata e spacciata per gaming possono infognarci pure quella, almeno una santa volta avrebbe senso, con quei numeri
Infatti mi riferisco alla possibilità di un Arcturus da 64CU x2 in stile dual VII.
Una padella da 8192 la vedo dura pure a 7nm+
se nvidia ha fatto un padellone da record a 14nm (750mm2!!!) non vedo perchè amd non possa fare altrettanto sui 7+, ed anzi a spanne sarebbe più piccolo comunque....almeno una volta amd una gpu "gaming" da 1200 euro potrebbe proporla, per alzare il capo una volta tanto in una fascia in cui solo nvidia sboroneggia. Ovviamente SE scalasse le performance in proporzione rispetto la 5700xt... se poi la metà degli sp dormisse allora il discorso cambierebbe un filino :asd:
Ton90maz
19-07-2019, 00:38
Perf/transistor anche quello ce l'ha già. :)
Sono 10,8mld per TU106 e 10,3mld per Navi full ...che però ha più SP/TU/Raster di TU106 (2304:144:64 TU106 - 2560:160:64 Navi)
Se si considerano il 10% di transistor (circa 1mld e mezzo) occupati da RT e Tensor, siamo lì... ;-)
Quello che non riesce a fare (per ora) e far salire di frequenza questi chip, consumando come Nvidia.
Ora come consumi è a livello di Nvidia, ma con un nodo di vantaggio...Sottolineo nuovamente a parità di nodo. AMD ha recuperato molto, ma invidia è ancora superiore da quel punto di vista. Per essere competitivi con i chipponi superbia o sistemano quel rapporto o puntano sui MCM.
Gyammy85
19-07-2019, 07:47
Sottolineo nuovamente a parità di nodo. AMD ha recuperato molto, ma invidia è ancora superiore da quel punto di vista. Per essere competitivi con i chipponi superbia o sistemano quel rapporto o puntano sui MCM.
Basterebbe fare un chippone a sua volta, mica è proibito, tanto hanno centrato gli obiettivi di frequenza e ipc, possono spingersi a 80 cu senza problemi, ma anch'io penso che arriveranno al mcm pure su gpu
Free Gordon
19-07-2019, 11:52
Sottolineo nuovamente a parità di nodo. AMD ha recuperato molto, ma invidia è ancora superiore da quel punto di vista. Per essere competitivi con i chipponi superbia o sistemano quel rapporto o puntano sui MCM.
A parità di nodo con Nvidia, oggi il chip sarebbe semplicemente più grosso da stampare.
Ma il rapporto perf/transistor sarebbe lo stesso.
Ciò che cambierebbe sarebbe il rapporto perf/watt, dato che il nodo di nanometria inferiore ad AMD da il vantaggio di poter elevare la Fmax rispetto ai 14nm...mantenendo i consumi simili o addirittura inferiori.
Ton90maz
19-07-2019, 15:46
Come fa ad avere lo stesso rapporto perf/transistor se le frequenze sono inevitabilmente diverse?
infatti hanno testato a parita' di frequenza.
Free Gordon
19-07-2019, 16:11
Come fa ad avere lo stesso rapporto perf/transistor se le frequenze sono inevitabilmente diverse?
Il test IPC è stato fatto a 1500/14000 per tutte e due le GPU.
Ale55andr0
19-07-2019, 18:01
piccolo OT:
ma..ma, è chi penso io? :eek:
su wccftech
https://wccftech.com/amd-zen-5-cpu-core-next-gen-ryzen-threadripper-epyc-cpus/
https://i.imgur.com/FQchuo2.jpg
ma quindi si sa quando usciranno le 5800/5800 xt?
Roland74Fun
19-07-2019, 19:10
ma quindi si sa quando usciranno le 5800/5800 xt?No prima fanno comprare queste a tutti, intanto smaltiscono Polaris, Vega e quei 2 bancali prodotti di radeon VII.
Poi immetteranno sul mercato il resto.
majinbu7
19-07-2019, 19:13
No prima fanno comprare queste a tutti, intanto smaltiscono Polaris, Vega e quei 2 bancali prodotti di radeon VII.
Poi immetteranno sul mercato il resto.
:asd:
Gyammy85
19-07-2019, 19:59
piccolo OT:
ma..ma, è chi penso io? :eek:
su wccftech
https://wccftech.com/amd-zen-5-cpu-core-next-gen-ryzen-threadripper-epyc-cpus/
https://i.imgur.com/FQchuo2.jpg
:eek: :eek: :eek: :eek:
#yossariantornatiaspettiamo
Ton90maz
19-07-2019, 20:59
infatti hanno testato a parita' di frequenza.
Il test IPC è stato fatto a 1500/14000 per tutte e due le GPU.
Ragazzi, vi state perdendo dei pezzi per strada. Si sta parlando di un'ipotetica accidia a 7 nm.
Faccio una considerazione sulla GPU che monterà la PlayStation 5, essendo capace di fare ray tracing, non sarà una declinazione delle attuali Navi ma della futura big, giusto?
Roland74Fun
19-07-2019, 21:52
E quanto verrebbe a costare poi?
Se leggi il documento di brevetto per l'implementazione del raytracing di AMD non fa riferimento a degli standard qualitativi ma solo a come avviene il procedimento di calcolo.
Può essere che alla fine venga una cosa leggera e che non abbia bisogno di chissà quale potenza.
domenico88
19-07-2019, 22:31
Faccio una considerazione sulla GPU che monterà la PlayStation 5, essendo capace di fare ray tracing, non sarà una declinazione delle attuali Navi ma della futura big, giusto?
Credo che sarà un gpu custum partendo dalla base della 5700
E quanto verrebbe a costare poi?
Se leggi il documento di brevetto per l'implementazione del raytracing di AMD non fa riferimento a degli standard qualitativi ma solo a come avviene il procedimento di calcolo.
Può essere che alla fine venga una cosa leggera e che non abbia bisogno di chissà quale potenza.Credo che sarà un gpu custum partendo dalla base della 5700Non si parlava di ray tracing misto anche per le console?
mikael84
19-07-2019, 23:24
piccolo OT:
ma..ma, è chi penso io? :eek:
su wccftech
https://wccftech.com/amd-zen-5-cpu-core-next-gen-ryzen-threadripper-epyc-cpus/
Non è lui;)
Free Gordon
20-07-2019, 01:20
piccolo OT:
ma..ma, è chi penso io? :eek:
su wccftech
https://wccftech.com/amd-zen-5-cpu-core-next-gen-ryzen-threadripper-epyc-cpus/
E' da una vita che non vedo Yoss in giro... e oltretutto non lavorava più da anni nel settore CMOS..
Mi pare si fosse dato all'ottica.
Tra l'altro Zen5 perché?
Quello che è appena uscito è Zen2, la nuova uarch dopo quella del 2017.
Il prossimo anno... 2020... (se continuano con la stessa tabella di marcia) ci saranno i Ryzen 4xxx sul 7nm+ di TSMC, ma sempre di Zen2 si tratterà.
Per Zen3 bisognerà attendere minimo il 2021... probabilmente su un nodo ottimizzato ma non sui 5nm (troppo presto). E questa sarà la serie Ryzen 5xxx...
La serie 6xxx nel 2022 potrebbe essere sui 5nm ma appartenere sempre alla uarch Zen3.
Zen5 è fantascienza...è molto in là nel futuro. Farà in tempo a ritornare Keller e fare un'altra uarch quasi da zero prima dell'uscita di un'ipotetica uarch Zen5... :asd:
Free Gordon
20-07-2019, 02:26
Faccio una considerazione sulla GPU che monterà la PlayStation 5, essendo capace di fare ray tracing, non sarà una declinazione delle attuali Navi ma della futura big, giusto?
Si vocifera di 14tflops
Considerando le frequenze possibili in una APU per console (imho non più di 1400-1500mhz...anche coi 7nm) saranno 72CU su per giù...
Tipo un Polaris *2 (P10 = 36CU)
L'attuale PS4 PRO ha 36CU, la XboneX ne ha 40 a 1200mhz.
Credo che 72CU a 1500mhz ci stiano... siamo a 13,8tflops.
Sarà una bella bestiolina... è da vedere la CPU e la banda a disposizione.
Se usano le GDDR6 da 16gbps possono fare un chip da 384bit e 768GB/s di banda teorica.
Ragazzi, vi state perdendo dei pezzi per strada. Si sta parlando di un'ipotetica accidia a 7 nm.
mi pare che solo tu stia parlando di questo.
tmsc e' comunque avanti di un nodo, quindi simili raffronti sono solo pura filosofia, quando nvidia rilasciera' le schede a 7nm, le prossime amd saranno a 5nm, e cosi' via, quindi raffronti 7nm samsung vs 7nm tsmc lasciano il tempo che trovano
bhe sicuramente le prossime schede nvidia saranno top in prezzo e prestazioni, e sicuramente c'e' un certo margine dovuto al salto di nodo, pero' rimangono comparazioni tra appassionati, alla fine quello che importa e' il mercato, ed e' evidente la presenza di amd, le schede 5700 rappresentano una valida alternativa sia come prestazione, sia in assoluto come prezzo, in questo momento sul mercato.
Anzi spero non migliori troppo l'architettura amd, che in aggiunta al nodo di vantaggio potrebbe capovolgere la situazione con magari un peggioramento lato prezzi per noi clienti
fraussantin
20-07-2019, 10:16
bhe sicuramente le prossime schede nvidia saranno top in prezzo e prestazioni, e sicuramente c'e' un certo margine dovuto al salto di nodo, pero' rimangono comparazioni tra appassionati, alla fine quello che importa e' il mercato, ed e' evidente la presenza di amd, le schede 5700 rappresentano una valida alternativa sia come prestazione, sia in assoluto come prezzo, in questo momento sul mercato.
Anzi spero non migliori troppo l'architettura amd, che in aggiunta al nodo di vantaggio potrebbe capovolgere la situazione con magari un peggioramento lato prezzi per noi clienti
non mi sembra che le regalino anzi curioso di vedere quanto costeranno le custom con un dissipatore decente. certo queste blower dovranno calare di prezzo perchè a 400 euro non hanno nessun senso
per il resto concordo sono una alternativa che è sempre un bene per il mercato
Non tutti sono smanettoni, e c'e' sempre un bel divario di prezzo che non si vede nelle prestazioni, che comunque pesa abbastanza nella scelta anche se sono blower, sia per chi ha un case scrauso, sia per chi vuole metterla a liquido non deve fare tanta fatica a scegliere tra una xt o una 2070s.
Con le custom considera che facilmente le prestazioni saranno anche piu' alte
AceGranger
20-07-2019, 12:01
mi pare che solo tu stia parlando di questo.
tmsc e' comunque avanti di un nodo, quindi simili raffronti sono solo pura filosofia, quando nvidia rilasciera' le schede a 7nm, le prossime amd saranno a 5nm, e cosi' via, quindi raffronti 7nm samsung vs 7nm tsmc lasciano il tempo che trovano
ma anche no.
TSMC è avanti di un nodo ma non completo; Samsung non ha i 7nm, ha solo i 7nm+
nVidia arrivera con i 7nm+ di Samsung l'anno prossimo e AMD arrivera con i 7nm+ di TSMC, entrambe confermato in via ufficale, nVidia con comunicato stampa e AMD con slide.
per i 5nm se ne riparlera nel 2021 per entrambi.
Gyammy85
20-07-2019, 12:10
ma anche no.
nVidia arrivera con i 7nm+ di Samsung l'anno prossimo e AMD arrivera con i 7nm+ di TSMC, entrambe confermato in via ufficale, nVidia con comunicato stampa e AMD con slide.
Samsung non ha i 7nm, ha solo i 7nm+
per i 5nm se ne riparlera nel 2021 per entrambi.
Insomma finora sono stati col nodo di ritardo perché va bene così, da ora in poi avranno lo stesso nodo insieme?
A parte il fatto che ancora non si sa proprio niente, aspettiamo ancora l'annuncio di ampere al gdc
tsmc ha gia' confermati i 5nm per inizio 2020, per la produzione apple, per non parlare dei 6 e 7+ ma ovviamente poi il tutto si deve incastrare nel lancio delle schede amd, comunque come potenzialita' e avanzamento tecnologico tsmc e' avanti
Ci si trovera' comunque sempre in situazioni in cui amd avra' un nodo di vantaggio, ma ripeto sono elucubrazioni che non servono a decidere quali schede comprare adesso.
AceGranger
20-07-2019, 12:15
Insomma finora sono stati col nodo di ritardo perché va bene così, da ora in poi avranno lo stesso nodo insieme?
A parte il fatto che ancora non si sa proprio niente, aspettiamo ancora l'annuncio di ampere al gdc
l'annuncio ufficiale sul pp 7nm+ di nVidia per la prossima gene c'è gia stato; come ci sono gia le slide ufficiali di AMD sulla prossima gen sia GPU che CPU a 7nm+.
l'anno prossimo staranno entrambe sui 7nm+.
si ma probabilmente si tratta di un refresh e gia' dal 2021 saranno a 5nm
quindi se nvidia rilascia ad ottobre le 7euv, fai tu i conti
https://nvworld.ru/files/news/tsmc-announced-2nm-plan/tsmc-chip-roadmap.png
AceGranger
20-07-2019, 12:21
si ma probabilmente si tratta di un refresh e gia' dal 2021 saranno a 5nm
quindi se nvidia rilascia ad ottobre le 7euv, fai tu i conti
i refresh durano comunque 1 anno; con i 5nm ci arriveranno nel 2021.
anche perchè lo ha detto ufficialmete AMD che il 2020 sara l'anno dei 7nm+, il resto lo stai inventando tu.
tsmc ha gia' confermati i 5nm per inizio 2020, per la produzione apple, per non parlare dei 6 e 7+ ma ovviamente poi il tutto si deve incastrare nel lancio delle schede amd, comunque come potenzialita' e avanzamento tecnologico tsmc e' avanti
Ci si trovera' comunque sempre in situazioni in cui amd avra' un nodo di vantaggio, ma ripeto sono elucubrazioni che non servono a decidere quali schede comprare adesso.
come Samsung...
https://www.anandtech.com/show/14620/samsungs-5nm-euv-technology-gets-closer-tools-by-cadence-synopsys-certified
sempre che NVidia rimanga con Samsung anche per i 5nm.
TSMC è arrivata prima con i 7nm lisci perchè sapeva che Samsung sarebbe arrivata uguale con i suoi 7nm+, ne piu ne meno.
i refresh durano comunque 1 anno; con i 5nm ci arriveranno nel 2021.
come Samsung...
https://www.anandtech.com/show/14620/samsungs-5nm-euv-technology-gets-closer-tools-by-cadence-synopsys-certified
sempre che NVidia rimanga con Samsung anche per i 5nm.
TSMC è arrivata prima con i 7nm lisci perchè sapeva che Samsung sarebbe arrivata uguale con i suoi 7nm+, ne piu ne meno.
di samsung si dice entro il 2020, tsmc dall'inizio del 2020:
TSMC, produzione di massa dei chip a 5nm ad inizio 2020 con Apple A14:
https://www.hdblog.it/2019/07/19/tsmc-produzione-massa-chip-5nm/
e per il 2020 e' gia' confermato il passaggio per i clienti tsmc al 6nm
Durante la riunione trimestrale sui risultati del trimestre, il direttore esecutivo di TSMC, il signor Wei, ha affermato che la maggior parte degli attuali clienti che ricevono prodotti che utilizzano la tecnologia N7 migrano verso N6.
Questa tecnologia migliorerà gli attuali 7 nm e, con lo stesso design, fornirà una densità logica maggiore del 18%. Per gli utenti, la transizione sarà facile e poco costosa. Questo è il motivo per cui l'N6 è chiamato il prossimo processo di produzione di microchip popolare.
non sara' un nodo intero di vantaggio ma comunque ci saranno sempre sovrapposizioni di prodotti amd con tecnologia piu' avanzata, almeno secondo le previsioni, sempre tenendo conto del fatto che non e' che se domani e' disponibile un nodo migliore allora amd o nvidia buttano fuori schede video nuove, quindi i discorsi sulle fonderie magari alla fine non si rifletteranno sui prodotti.
AceGranger
20-07-2019, 13:04
di samsung si dice entro il 2020, tsmc dall'inizio del 2020:
TSMC, produzione di massa dei chip a 5nm ad inizio 2020 con Apple A14:
https://www.hdblog.it/2019/07/19/tsmc-produzione-massa-chip-5nm/
e per il 2020 e' gia' confermato il passaggio per i clienti tsmc al 6nm
non sara' un nodo intero di vantaggio ma comunque ci saranno sempre sovrapposizioni di prodotti amd con tecnologia piu' avanzata, almeno secondo le previsioni, sempre tenendo conto del fatto che non e' che se domani e' disponibile un nodo migliore allora amd o nvidia buttano fuori schede video nuove, quindi i discorsi sulle fonderie magari alla fine non si rifletteranno sui prodotti.
ed è per quello che si tengono conto solo degli annunci ufficiali, e UFFICIALMENTE nel 2020 AMD passera ai 7nm+ sia per GPU che per CPU, esattamente come nVidia.
dei 5/6nm c'è qualche leak per Zen 4 nel 2021.
ad oggi questa è la verita, se poi cambiera qualche cosa si vedra.
Considerando il leak sulla presunta registrazione delle nomenclature della gamma di Navi da parte di Sapphire, cosa si può presupporre per il futuro prossimo?
Sono parecchi modelli e non credo che possano uscirne così tanti.
Che ne pensate?
Gyammy85
23-07-2019, 07:43
Considerando il leak sulla presunta registrazione delle nomenclature della gamma di Navi da parte di Sapphire, cosa si può presupporre per il futuro prossimo?
Sono parecchi modelli e non credo che possano uscirne così tanti.
Che ne pensate?
Registrano le combinazioni possibili per usarli dopo, per ora di quasi certo c'è navi 14 per sostituire polaris
Gyammy85
26-07-2019, 15:43
Nuovo codice gfx1030
https://twitter.com/KOMACHI_ENSAKA/status/1154735574869110784
Dovrebbe essere navi 20-21(?)
Nuovo codice gfx1030
https://twitter.com/KOMACHI_ENSAKA/status/1154735574869110784
Dovrebbe essere navi 20-21(?)
Speriamo!!
Scusate, perché si da tanta importanza a sto tizio giapponese che dice con un tweet che navi 12 = big navi?
https://www.google.com/amp/s/amp.reddit.com/r/Amd/comments/ciwcxe/navi_12_big_gpu/
Scusate, perché si da tanta importanza a sto tizio giapponese che dice con un tweet che navi 12 = big navi?
https://www.google.com/amp/s/amp.reddit.com/r/Amd/comments/ciwcxe/navi_12_big_gpu/
Si sa pure quando?
Gyammy85
29-07-2019, 07:49
Scusate, perché si da tanta importanza a sto tizio giapponese che dice con un tweet che navi 12 = big navi?
https://www.google.com/amp/s/amp.reddit.com/r/Amd/comments/ciwcxe/navi_12_big_gpu/
E' uno che interpreta i codici nei driver/stringhe, gfx1010 è navi 10, poi ci sono gfx1012 navi 12, anche navi 14 che dovrebbe essere la piccola, e gfx1030 che sembra una grossa tipo navi 20, 21 o 30
E' un tizio attendibile, ma anche altri son 6 mesi che ripetono navi 10>2070 e hanno avuto ragione
Ormai i leak sono perfettamente pilotati
Io non mollo le interiora di gallina, se non ci becchi nella divinazione quanto meno ci mangi fuori qualcosa....
https://i.ibb.co/8P3hkL0/Voodoo-MI1.jpg (https://imgbb.com/)
E' uno che interpreta i codici nei driver/stringhe, gfx1010 è navi 10, poi ci sono gfx1012 navi 12, anche navi 14 che dovrebbe essere la piccola, e gfx1030 che sembra una grossa tipo navi 20, 21 o 30
E' un tizio attendibile, ma anche altri son 6 mesi che ripetono navi 10>2070 e hanno avuto ragione
Ormai i leak sono perfettamente pilotatiOk, grazie.
Da come le voci girano in rete, pare che ci sarà la 5800 entro il 2019 che sarà ancora la stessa arch delle 5700 e poi nel 2020 la 5900 big navi ray tracing.
Gyammy85
29-07-2019, 11:32
Ok, grazie.
Da come le voci girano in rete, pare che ci sarà la 5800 entro il 2019 che sarà ancora la stessa arch delle 5700 e poi nel 2020 la 5900 big navi ray tracing.
Ma si dai perché non farla, non puoi chiudere una linea con 5700 senza una 5800, magari da 56 cu per pigliare 2080ti, alla fine non c'è molta differenza fra le 5700xt e le 2080
mikael84
29-07-2019, 14:46
Ma si dai perché non farla, non puoi chiudere una linea con 5700 senza una 5800, magari da 56 cu per pigliare 2080ti, alla fine non c'è molta differenza fra le 5700xt e le 2080
:confused:
Come fanno 3584st ad andare come 4352cc, rop's superiori e BW, quando a parità di specifiche sta pure sotto la 2070s mediamente.
Attualmente il chip di navi è ottimo sino al 1440p, oltre ha pesanti limiti, in primis le rop's, viste come 48, ancora peggio, il rapporto tra rop's e BW, pessimo. In geometria crolla in quanto rispetto a vega non ha neppure il dsbr.
Il vero vantaggio di navi sta nel poter eseguire un dual CU in 5 cicli vs 11, 2x sulle istruzioni e un notevole incremento operativo via cache.;)
Gigibian
29-07-2019, 14:54
Io non mollo le interiora di gallina, se non ci becchi nella divinazione quanto meno ci mangi fuori qualcosa....
https://i.ibb.co/8P3hkL0/Voodoo-MI1.jpg (https://imgbb.com/)
:cincin: :cincin:
Per concludere, un bel bicchiere di Grog e via con la gara d'insulti!
Touchè!
Ale55andr0
29-07-2019, 15:01
https://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/News/Radeon-RX-5800-XT-Kommt-Navi-12-und-peilt-TU104-an-1295737/
Ale55andr0
29-07-2019, 15:04
:confused:
Come fanno 3584st ad andare come 4352cc, rop's superiori e BW, quando a parità di specifiche sta pure sotto la 2070s mediamente.
quanto al discorso 2080ti credo lo dica i base a quei (pochissimi) titoli in cui la 5700xt si porta in zona 2080 o avvicina addirittura la ti (forza). Se conosci gyammi su cosa tira le sue medie prestazionali :D teoricamente però, se il resto del chip verrebbe bilanciato laddove una 5700xt fa particolarmente bene una ipotetica 5800 farebbe di conseguenza prendendo/superando la 2080ti in quei specifici contesti, no?
in primis le rop's, viste come 48, ancora peggio, il rapporto tra rop's e BW, pessimo
me la spieghi questa? :mbe:
mikael84
29-07-2019, 15:31
quanto al discorso 2080ti credo lo dica i base a quei (pochissimi) titoli in cui la 5700xt si porta in zona 2080 o avvicina addirittura la ti (forza). Se conosci gyammi su cosa tira le sue medie prestazionali :D teoricamente però, se il resto del chip verrebbe bilanciato laddove una 5700xt fa particolarmente bene una ipotetica 5800 farebbe di conseguenza prendendo/superando la 2080ti in quei specifici contesti, no?
Si ma non ha alcun senso, detta così a parer mio equivale a trollare.
Con 3584st, riesci a malapena a superare una 2080 full (super). Lo scaling ad alti st crolla.
E' come confrontare la controparte, prendendo Ace combat.:p
me la spieghi questa? :mbe:
Vengono continuamente rilevate 48 rop's (48 x 1700), su tutte le GPU è preciso (anche per questo tende nei sintetici ad equivalersi alla liscia che ne ha 48)
https://images.anandtech.com/graphs/graph14618/111338.png
https://images.anandtech.com/graphs/graph14618/111336.png
rugowawaro
29-07-2019, 16:06
Si ma non ha alcun senso, detta così a parer mio equivale a trollare.
...
Ma va?
ah ok
ma a conti fatti ne ha 64 (che funzionino intendo, non alla nvidia "ci sono nel chip ma scollegate"), le 48 sono le 5700 avendo moduli cuttati alla nvidia (pre-pascal, se non erro) .... quindi se ho capito bene, da che può dipendere sta cosa? :mbe:
Che gioco è Beyond3D in cui le 5700 vanno così male? :eek:
ah ok
ma a conti fatti ne ha 64 (che funzionino intendo, non alla nvidia "ci sono nel chip ma scollegate"), le 48 sono le 5700 avendo moduli cuttati alla nvidia (pre-pascal, se non erro) .... quindi se ho capito bene, da che può dipendere sta cosa? :mbe:Ma anche sticazzi. i benchmark sintetici non rappresentano le performance reali, non lo hanno mai fatto, servono solo a confondere gli utenti, come è appena accaduto
Ah che babbeo che sono, non avevo letto synthetic :doh:
rugowawaro
29-07-2019, 16:56
Ma anche sticazzi. i benchmark sintetici non rappresentano le performance reali, non lo hanno mai fatto, servono solo a confondere gli utenti, come è appena accaduto
Ero sicuro fosse un complotto!
mikael84
29-07-2019, 17:24
ah ok
ma a conti fatti ne ha 64 (che funzionino intendo, non alla nvidia "ci sono nel chip ma scollegate"), le 48 sono le 5700 avendo moduli cuttati alla nvidia (pre-pascal, se non erro) .... quindi se ho capito bene, da che può dipendere sta cosa? :mbe:
Si sono 64, 16 per raster fisiche.
Anche per nvidia le rop's sono fisiche, solo come nel caso della 2070 liscia, 16 sono per il collegamento ai 256bit, essendo 3 raster (3x16 effettive/48).
Sono 4 pixel ogni 128cc, 2 SFU un pixel per ciclo.
AMD come nvidia hanno un blocco a 16
AMD anche nel caso della 5700 liscia dovrebbe sempre andare a 64 pixel, cambia solo un dual CU in meno, ed il fatto che clocka più basso.
Ho guardato pure altri sintetici ma il risultato non cambia.
2 sono le cose, o floppano i test sintetici, oppure c'è qualche problema d'accesso ad un raster.
Anche i vari sintetici sulla tessellation sono più bassi di vega, pur avendo molto più clock e 4 primitive.
cronos1990
29-07-2019, 17:28
:cincin: :cincin:
Per concludere, un bel bicchiere di Grog e via con la gara d'insulti!
Touchè!E la gara di sputi dove la metti? :D
edit: non avevo notato la malafede
:confused:
Come fanno 3584st ad andare come 4352cc, rop's superiori e BW, quando a parità di specifiche sta pure sotto la 2070s mediamente.
Attualmente il chip di navi è ottimo sino al 1440p, oltre ha pesanti limiti, in primis le rop's, viste come 48, ancora peggio, il rapporto tra rop's e BW, pessimo. In geometria crolla in quanto rispetto a vega non ha neppure il dsbr.
Il vero vantaggio di navi sta nel poter eseguire un dual CU in 5 cicli vs 11, 2x sulle istruzioni e un notevole incremento operativo via cache.;)Più probabile che ci saranno declinazioni Navi con prestazioni simili a 2080 e poco sotto la 2080ti con le probabili 5800/xt e sicuramente senza il supporto al ray tracing.
La probabile 5900 (tu conosci le disposizioni delle ncu, i bus, le allocazioni, etc e quindi due calcoletti te li sarai fatti :) ) avrà sicuramente ben più di 4096ncu e avrà il supporto al ray tracing. Segna 😅😂
Sembra che arcturus sia l'evoluzione di Vega e non game.
https://amp.tomshardware.com/news/amd-arcturus-vega-gpu-support,39935.html
mircocatta
29-07-2019, 20:33
da quel che ho letto qui si sapeva già :stordita: ma non vorrei aver interpretato male io
da quel che ho letto qui si sapeva già :stordita: ma non vorrei aver interpretato male ioAvevo saltato il leak, onestamente non so se è stato già detto.
Ton90maz
29-07-2019, 22:04
Si sono 64, 16 per raster fisiche.
Anche per nvidia le rop's sono fisiche, solo come nel caso della 2070 liscia, 16 sono per il collegamento ai 256bit, essendo 3 raster (3x16 effettive/48).
Sono 4 pixel ogni 128cc, 2 SFU un pixel per ciclo.
AMD come nvidia hanno un blocco a 16
AMD anche nel caso della 5700 liscia dovrebbe sempre andare a 64 pixel, cambia solo un dual CU in meno, ed il fatto che clocka più basso.
Ho guardato pure altri sintetici ma il risultato non cambia.
2 sono le cose, o floppano i test sintetici, oppure c'è qualche problema d'accesso ad un raster.
Anche i vari sintetici sulla tessellation sono più bassi di vega, pur avendo molto più clock e 4 primitive.
Sembra che Navi troppo ignorante per i test sintetici. Non ha la laurea ma sa fare il suo lavoro sul campo :asd:
mikael84
29-07-2019, 23:17
Più probabile che ci saranno declinazioni Navi con prestazioni simili a 2080 e poco sotto la 2080ti con le probabili 5800/xt e sicuramente senza il supporto al ray tracing.
La probabile 5900 (tu conosci le disposizioni delle ncu, i bus, le allocazioni, etc e quindi due calcoletti te li sarai fatti :) ) avrà sicuramente ben più di 4096ncu e avrà il supporto al ray tracing. Segna 😅😂
Io ho calcolato tutto, però bisogna vedere che strada seguirà AMD.:)
Attualmente, pur innovando l'architettura, non c'è la certezza di nuovi motori raster. Se non verranno aggiunti nel big chip, ci saranno 4096st e memorie HBM2.
8 rasterizzatori (5120st), sarebbero l'ideale per una big navi, ma ne dubito, chip che potrebbe essere (con l'RT) più complesso di una futura 3080ti.
Riguardo la 5800xt, amd ha la base, deve solo aumentare i dual cu, e preferibilmente il bus, altrimenti in 4k sei frenato.:)
Sembra che Navi troppo ignorante per i test sintetici. Non ha la laurea ma sa fare il suo lavoro sul campo :asd:
A livello architetturale bisogna fare i complimenti, è molto gcn dipendente, rimangono per ora grossi colli di bottiglia, che potrebbero compromettere le prestazioni del big chip in certi casi, però è un gran passo in avanti.
Il problema di GCN sta sopratutto a livello di cicli istruzioni, accesso alle istruzioni, ed una scarsa massimizzazione thread.
Ovviamente uno dei problemi di GCN, sta anche nel riuscire a sfruttare tutte quelle ALU, vediamo la 2080ti, quanto spesso sia inutilizzata.
GCN dipendente non vuol dire nulla, anche Maxwell è una sorta di Kepler senza dipendenze e doppia istruzione (512), o Turing con i warp dimezzati a doppia istruzione (1024).
Le architetture sempre quelle sono ma riviste in entrambi i brand.:)
Gyammy85
30-07-2019, 08:00
Navi 14
https://gfxbench.com/device.jsp?benchmark=gfx50&os=Windows&api=gl&D=AMD+7340%3AC7&testgroup=info
Sembra avere 1536 sp e 4 giga di ram, ma dicono che il C7 sia per la pro e il C1 per la xt
Ale55andr0
30-07-2019, 08:03
8 rasterizzatori (5120st), sarebbero l'ideale per una big navi, ma ne dubito, chip che potrebbe essere (con l'RT) più complesso di una futura 3080ti.
non vedo perchè no, è dall'età del bronzo che stanno fermi a 64cu, se manco coi sette nanometri aumentano le unità, per due generazioni successive (radeon VII) sarebbe roba da mandarli a farsi impiccare, senza contare che le nuove console avranno minimo 12tflop, non posso immaginare dentro una scatoletta un chip relativamente piccolo a clock molto elevati, ma un chip "mediogrosso" a clock (e calore) più gestibili, peraltro un die più grandicello lo dissipi pure meglio...e credo che già quello sarebbe una sorta di cut della big navi su desktop. Per me le 80cu sono praticamente un obbligo, una logica, un dovere moLare (per mordere il mercato degli entusiasti :O)
Gyammy85
30-07-2019, 08:07
non vedo perchè no, è dall'età del bronzo che stanno fermi a 64cu, se manco coi sette nanometri aumentano le unità, per due generazioni successive (radeon VII) sarebbe roba da mandarli a farsi impiccare, senza contare che le nuove console avranno minimo 12tflop, non posso immaginare dentro una scatoletta un chip relativamente piccolo a clock molto elevati, ma un chip "mediogrosso" a clock (e calore) più gestibili, peraltro un die più grandicello lo dissipi pure meglio...e credo che già quello sarebbe una sorta di cut della big navi su desktop. Per me le 80cu sono praticamente un obbligo, una logica, un dovere moLare (per mordere il mercato degli entusiasti :O)
Se va il 50% in più a parità di core non vedo il problema, aumenteranno quando sarà necessario, certo è che sta struttura dual cu è una brutta gatta da pelare di nvidia, se se ne escono con uno shader core che lavora a riempimento raster+ray tracing altro che tensor ai deep scava espandi e distruggi cores…
Ale55andr0
30-07-2019, 09:19
Se va il 50% in più a parità di core non vedo il problema, aumenteranno quando sarà necessario, certo è che sta struttura dual cu è una brutta gatta da pelare di nvidia, se se ne escono con uno shader core che lavora a riempimento raster+ray tracing altro che tensor ai deep scava espandi e distruggi cores…
mi interessa eccome, perchè se può andare l'80% in più con 80cu è meglio che il 50% in più con 64
Gyammy85
30-07-2019, 09:23
mi interessa eccome, perchè se può andare l'80% in più con 80cu in più è meglio che il 50% con 64
Potrebbero pure andare a 80 cu in 500 mm2 facendo un conto alla buona, magari 72, io credo che rilascino una 5800 e poi la top a 7 nm+ con rdna2
Dipende essenzialmente da come si muoverà nvidia
Se vanno di pari passo con le cpu, dovranno darti una 5800 assieme al 3950x
Ale55andr0
30-07-2019, 13:00
Dipende essenzialmente da come si muoverà nvidia
no, dipende da cosa hanno ficcato nelle console...cosa uscirà di nvidia e come andrà amd non lo sa, e viceversa, ognuno ha già tutto definito da ora
Free Gordon
30-07-2019, 13:18
AMD anche nel caso della 5700 liscia dovrebbe sempre andare a 64 pixel, cambia solo un dual CU in meno, ed il fatto che clocka più basso.
Ho guardato pure altri sintetici ma il risultato non cambia.
2 sono le cose, o floppano i test sintetici, oppure c'è qualche problema d'accesso ad un raster.
Anche i vari sintetici sulla tessellation sono più bassi di vega, pur avendo molto più clock e 4 primitive.
Oltre ai bench di Anandtech ne hai trovati altri sull'argomento?
Io non ho trovato nulla.. tutto tace sull'argomento.. :confused:
Roland74Fun
30-07-2019, 13:26
no, dipende da cosa hanno ficcato nelle console...cosa uscirà di nvidia e come andrà amd non lo sa, e viceversa, ognuno ha già tutto definito da oraLe nuove console sono già disponibili....
https://uploads.tapatalk-cdn.com/20190730/730ab382959fa83066c5d6fb4f023c45.jpg
mikael84
30-07-2019, 14:44
non vedo perchè no, è dall'età del bronzo che stanno fermi a 64cu, se manco coi sette nanometri aumentano le unità, per due generazioni successive (radeon VII) sarebbe roba da mandarli a farsi impiccare, senza contare che le nuove console avranno minimo 12tflop, non posso immaginare dentro una scatoletta un chip relativamente piccolo a clock molto elevati, ma un chip "mediogrosso" a clock (e calore) più gestibili, peraltro un die più grandicello lo dissipi pure meglio...e credo che già quello sarebbe una sorta di cut della big navi su desktop. Per me le 80cu sono praticamente un obbligo, una logica, un dovere moLare (per mordere il mercato degli entusiasti :O)
Non è semplicissimo pe il command processor pilotare 8 engine. Bisogna pure calcolare la flessibilità degli shader, basta vedere lo scaling della 2080ti in certi giochi.
L'aumento degli shader engine ovviamente prima o poi andrà risolto, in quanto ancora ci sono tutti i limiti geometrici e di rop's delle passate GCN.
Cmq un chip da 4096st non sarà propriamente piccolo.
Con 3840st e 1550 di clock sei a 12tf.
Con i 7nm i chip gaming potrebbero partire anche sopra i 2ghz.:)
Oltre ai bench di Anandtech ne hai trovati altri sull'argomento?
Io non ho trovato nulla.. tutto tace sull'argomento.. :confused:
https://i.postimg.cc/59LS10gz/lopes.png
Blending fp32;)
Free Gordon
30-07-2019, 14:57
https://i.postimg.cc/59LS10gz/lopes.png[/IMG]
Blending fp32;)
E' poco sotto la 56... effettivamente c'è qualcosa che nn funziona come dovrebbe (oppure qualche limite del driver.. boh..).
Questa però è la condizione con carico alto per le rops, dove AMD è da sempre forte.
Vediamo Navi20, ma sarà un dual40 CU ihmo. E la scelta più logica se non c'è più il vecchio limite degli engine.
Comunque meglio fare un chip dove la bandwith non è mai un problema piuttosto che farne uno dove l'MC è sempre al limite... è solo silicio sprecato..
Ale55andr0
31-07-2019, 20:34
E' poco sotto la 56... effettivamente c'è qualcosa che nn funziona come dovrebbe (oppure qualche limite del driver.. boh..).
Questa però è la condizione con carico alto per le rops, dove AMD è da sempre forte.
Vediamo Navi20, ma sarà un dual40 CU ihmo. E la scelta più logica se non c'è più il vecchio limite degli engine.
Comunque meglio fare un chip dove la bandwith non è mai un problema piuttosto che farne uno dove l'MC è sempre al limite... è solo silicio sprecato..
massì, per me 72cu con gddr6 a 384 bit (24gb) su ps5 e 80 su navi desktop con le hbm2
mikael84
31-07-2019, 23:14
E' poco sotto la 56... effettivamente c'è qualcosa che nn funziona come dovrebbe (oppure qualche limite del driver.. boh..).
Questa però è la condizione con carico alto per le rops, dove AMD è da sempre forte.
Difficile sia un limite driver;)
Sul blending è vero, ma riguardava le vecchie serie pre maxwell, ora con le compressioni la situazione si è praticamente stravolta.:)
Vediamo Navi20, ma sarà un dual40 CU ihmo. E la scelta più logica se non c'è più il vecchio limite degli engine.
Comunque meglio fare un chip dove la bandwith non è mai un problema piuttosto che farne uno dove l'MC è sempre al limite... è solo silicio sprecato..
Attualmente si è sempre limitati a 4. E' vero che 8 engine su una mid non avevano senso, ma non c'è sicurezza di un raddoppio dei raster.
massì, per me 72cu con gddr6 a 384 bit (24gb) su ps5 e 80 su navi desktop con le hbm2
Attualmente solo samsung ha le ram a doppia densità. Ram per ora usate solo nei modeli pro e Titan.
Con Hynix fuori dai giochi, si spera che micron si allinei velocemente.
Ale55andr0
31-07-2019, 23:15
Attualmente solo samsung ha le ram a doppia densità. Ram per ora usate solo nei modeli pro e Titan.
Con Hynix fuori dai giochi, si spera che micron si allinei velocemente.
beh, per le nuove console parliamo di fine 2020
mikael84
31-07-2019, 23:33
beh, per le nuove console parliamo di fine 2020
Si male andando possono optare per una soluzione a conchiglia 8 bit;)
Ton90maz
01-08-2019, 00:05
massì, per me 72cu con gddr6 a 384 bit (24gb) su ps5 e 80 su navi desktop con le hbm2
Ma perché ti sei fissato con la storia dei 12 tflops? Io invece lo trovo alquanto inverosimile.
Se con 40 CU e 256 bit gli servono 10.3 miliardi di transistors e 251 mm quadrati, figuriamoci cosa ci vorrebbe per 72 CU (+ CU marce di ridondanza), ray tracing e cpu integrata (che sarà il meno).
Poi sarebbe da ridere vedere tutta quella roba in una console e la versione desktop con le ram della disperazione a prezzi allucinanti.
Gyammy85
01-08-2019, 08:06
Ma perché ti sei fissato con la storia dei 12 tflops? Io invece lo trovo alquanto inverosimile.
Se con 40 CU e 256 bit gli servono 10.3 miliardi di transistors e 251 mm quadrati, figuriamoci cosa ci vorrebbe per 72 CU (+ CU marce di ridondanza), ray tracing e cpu integrata (che sarà il meno).
Poi sarebbe da ridere vedere tutta quella roba in una console e la versione desktop con le ram della disperazione a prezzi allucinanti.
Quando si tratta di amd tutto è impossibile
Si vociferano 72 cu, le clockeranno basse come sempre sulle console, e hai i 12 tf con ray tracing, semplice
Comunque io non darei molta importanza all'hardware console per quanto riguarda il pc, sarà sempre una cosa diversa, la 360 aveva gpu ibrida r500-r600
Gyammy85
01-08-2019, 09:18
https://videocardz.com/newz/amds-lisa-su-high-end-navi-is-coming
Insieme ai prodotti mobile
Dice genericamente prossimi trimestri, chissà se nel q3 o q4
A questo punto potrebbero fare navi big prima di fine anno e poi la nuova nel 2020 coi 7 nm+
mircocatta
01-08-2019, 09:26
https://videocardz.com/newz/amds-lisa-su-high-end-navi-is-coming
Insieme ai prodotti mobile
Dice genericamente prossimi trimestri, chissà se nel q3 o q4
A questo punto potrebbero fare navi big prima di fine anno e poi la nuova nel 2020 coi 7 nm+
me lo hai fatto diventare barzotto
ma sarebbero comunque ancora delle RDNA senza RT giusto? visto che l'RT doveva arrivare con RDNA2 e 7+, in teoria... a questo punto mi viene da pensare che le RDNA2 cambieranno nuovamente nomenclatura (un po come fu tra polaris/vega), lasciando la serie 5XXX a RDNA senza RT
Gyammy85
01-08-2019, 09:57
me lo hai fatto diventare barzotto
ma sarebbero comunque ancora delle RDNA senza RT giusto? visto che l'RT doveva arrivare con RDNA2 e 7+, in teoria... a questo punto mi viene da pensare che le RDNA2 cambieranno nuovamente nomenclatura (un po come fu tra polaris/vega), lasciando la serie 5XXX a RDNA senza RT
Rdna2 è quella col ray tracing, ora non so cosa intendano per big navi, perché rdna2 dovrebbe essere ancora più affinata e sui 7 nm+
Faranno una 5800 sicuramente, si deve vedere quanto grossa, ma conoscendo amd, starà minimo minimo fra 2080s e 2080ti
fraussantin
01-08-2019, 10:57
Rdna2 è quella col ray tracing, ora non so cosa intendano per big navi, perché rdna2 dovrebbe essere ancora più affinata e sui 7 nm+
Faranno una 5800 sicuramente, si deve vedere quanto grossa, ma conoscendo amd, starà minimo minimo fra 2080s e 2080tiMa allora metteranno rtcore anche loro?
Gyammy85
01-08-2019, 11:00
Ma allora metteranno rtcore anche loro?
Non credo proprio, però boh...io dico cu con estensioni, sempre che già non ci siano ma siano solo dormienti
me lo hai fatto diventare barzotto
ma sarebbero comunque ancora delle RDNA senza RT giusto? visto che l'RT doveva arrivare con RDNA2 e 7+, in teoria... a questo punto mi viene da pensare che le RDNA2 cambieranno nuovamente nomenclatura (un po come fu tra polaris/vega), lasciando la serie 5XXX a RDNA senza RTProbabilmente si passa alle 6000
Inviato dal mio Pixel 2 XL utilizzando Tapatalk
Ma no, l'hanno chiamata 5700 apposta, per far capire che è il chip medio.
Nel dubbio ho cancellato l'ordine della 5700xt che tanto avrebbero evaso fra settimane, voglio vedere se i prezzi si abbassano e le 5800.
5850
bei ricordi :sofico:
Ale55andr0
01-08-2019, 12:59
Ma perché ti sei fissato con la storia dei 12 tflops? Io invece lo trovo alquanto inverosimile.
Se con 40 CU e 256 bit gli servono 10.3 miliardi di transistors e 251 mm quadrati, figuriamoci cosa ci vorrebbe per 72 CU (+ CU marce di ridondanza), ray tracing e cpu integrata (che sarà il meno).
Poi sarebbe da ridere vedere tutta quella roba in una console e la versione desktop con le ram della disperazione a prezzi allucinanti.
a me fa ridere che si continui a paragonare i prezzi dell'hardware che compriamo io o tu coi prezzi di una fornitura industrale per milioni di unità, e ancor più in prospettiva, cioè fra un anno e mezzo, quando ste specifiche sarano da vga di fascia media. Quanto alla conta dei transistor, la attuale apu della scarlett sta già sui 7mld di transitor, no, ora spiegami perchè a 7nm non posssono TRANQUILLAMENTE raddoppiarli o giu di li (restando per altro su un die size simile), visto che poi hanno già fatto uno step simile con la gpu di ps 4 pro passando dai 28 ai 14 nani (da 18 a 36cu, rops raddoppiate incluse) e ancora di più (!) con quella di onex x rispetto la one liscia :mbe:
Fra parentesi, che razza di next gen sarebbe se manco triplicassero la potenza? :mbe: e, apriamo un'altra parentesi 1) quel numero NON è una mia fissa, è cio che riportano i rumor :read: e 2) già la google comesichiama farà quasi 11tflop (10.7) e non si pone neanche come competitor lato potenza di sony e microsoft che secondo la la logica di chiunque non possono che partire da quel valore a salire, non il contrario :read: :mbe:
...Segnati sto post per quando escono che poi mi faccio du risate va' (anzi, l'ho già fatto, assieme ad altri due...)
PS: La versione desktop lato uso della memoria non ci azzecca una mazza, si sa che le console di ultima generazione usano una ram unificata, posto che parte (oltre 3gb) è automaticamente allocata per il SO e il resto va per i giochi ma cio' include il codice di esecuzione generico (fisica, audio, ia, i/o ecc.) mica solo il frame buffer per le texture! Con una vga da 16gb (e sulle top amd ormai è dato di fatto) in tale contesto sei già sullo stesso piano di una console con 24gb, senza contare che il codice dei multipiatta lato pc verrà ottimizzato per sistemi con ram separata sistema/gpu come già avviene adesso
xavarojj
01-08-2019, 13:29
Ma allora metteranno rtcore anche loro?
E' cosa certa e francamente è inevitabile
Ma non direi proprio implementeranno altro, non possono certo implementare una tecnologia esclusiva nvidia.
Ma non direi proprio implementeranno altro, non possono certo implementare una tecnologia esclusiva nvidia.
le API RT sono parte delle DX12, è l'implementazione in hw che è per ora stata fatta da nVidia...non a caso hanno fatto demo di cryengine con effeti rt in software su una Vega56.....
xavarojj
01-08-2019, 14:08
Ma non direi proprio implementeranno altro, non possono certo implementare una tecnologia esclusiva nvidia.
Come lo fa Nvidia non c'entra nulla con il RT.
Lo vuoi fare? Serve potenza e quindi hw dedicato.
FINE
fraussantin
01-08-2019, 14:24
Ma non direi proprio implementeranno altro, non possono certo implementare una tecnologia esclusiva nvidia.Mica lo devono fare uguale
Come le loro GPU fanno rendering 3d , capelli , fisica e le solite cose che fa Nvidia con architettura diversa non vedo come non possano fare RT. ( Ovviamente va sviluppata )
Poi se Nvidia lascerà rtx in uso a tutti come ha fatto con il resto delle feature ( ovviamente saranno ottimizzate peggio) oppure se amd di inventerà degli algoritmi propietari questo non si sa
Può anche darsi che avremo giochi verdi e giochi rossi dove con una GPU di controparte non avremo RT come potrebbe funzionare su entrambe ma meglio o peggio a seconda del sistema usato.
mikael84
01-08-2019, 14:57
Non credo proprio, però boh...io dico cu con estensioni, sempre che già non ci siano ma siano solo dormienti
Non c'è nulla che dorme;)
http://www.comptoir-hardware.com/images/stories/articles/gpu/navi/rx_5700/comparaison_cu_t.jpg
a me fa ridere che si continui a paragonare i prezzi dell'hardware che compriamo io o tu coi prezzi di una fornitura industrale per milioni di unità, e ancor più in prospettiva, cioè fra un anno e mezzo, quando ste specifiche sarano da vga di fascia media. Quanto alla conta dei transistor, la attuale apu della scarlett sta già sui 7mld di transitor, no, ora spiegami perchè a 7nm non posssono TRANQUILLAMENTE raddoppiarli o giu di li (restando per altro su un die size simile), visto che poi hanno già fatto uno step simile con la gpu di ps 4 pro passando dai 28 ai 14 nani (da 18 a 36cu, rops raddoppiate incluse) e ancora di più (!) con quella di onex x rispetto la one liscia :mbe:
Fra parentesi, che razza di next gen sarebbe se manco triplicassero la potenza? :mbe: e, apriamo un'altra parentesi 1) quel numero NON è una mia fissa, è cio che riportano i rumor :read: e 2) già la google comesichiama farà quasi 11tflop (10.7) e non si pone neanche come competitor lato potenza di sony e microsft che secondo la laogica di chiunque non possono che partire da quel valore a salire, non il ocntrario :read: :mbe:
I die costano pochissimo, la questione dei die vale sino ad un certo punto. Ora non ho tempo di farmi calcoli, ma forse un die da 350mm2 7nm, costrebbe 120-130 euro, considerando un raddoppio per wafer. Per di più parliamo di chip di scarto.
Cmq come ti dico sempre, non fissarti con i puri numeri di shader, ma sull'efficienza degli stessi. RDNA arriva, dove non ci sono colli di bottiglia, ad un picco di 1,55/1,65x.
A 3584/3840st i 12 tf sono semplici da prendere, bastano anche soli 0,95v.;)
Ale55andr0
01-08-2019, 15:06
quel che ti pare, ma sentirsi dire che non possono fare più di 10 mld di transistor in una apu a 7nm o che 12 tflop sono troppi per le next gen console fa lollare :D. I "miei" numeri sono tutt'altro che utopistici, piuttosto "statisticamente" possibilissimi guardando al passato, quello intendevo, ovvio poi che da soli dicono poco sull'efficienza del chip e l'equilibrio dell'architettura. Still... vedo più probabili 72cu a 1300mhz che 60 a 1600
Ale55andr0
01-08-2019, 15:09
Poi se Nvidia lascerà rtx in uso a tutti come ha fatto con il resto delle feature ( ovviamente saranno ottimizzate peggio) oppure se amd di inventerà degli algoritmi propietari questo non si sa
o.
nvidia non deve lasciare una mazza, l'rtx non è sua proprietà intellettuale, è un effetto delle dx12 liberamente implementabile da chiunque, a meno che intendi le implementazioni attuali a "suo marchio", ma oggi sono i primi esperimenti di una tecnologia non matura, chissenefrega di usare l'rtx "di nvdia" in metro exodus fra 5 anni, per dire
xavarojj
01-08-2019, 15:13
quel che ti pare, ma sentirsi dire che non possono fare più di 10 mld di transistor in una apu a 7nm o che 12 tflop sono troppi per le next gen console fa lollare :D. I "miei" numeri sono tutt'altro che utopistici, piuttosto "statisticamente" possibilissimi guardando al passato, quello intendevo, ovvio poi che da soli dicono poco sull'efficienza del chip e l'equilibrio dell'architettura
Scusa ma perché devi incazzarti?
Il suo discorso è inattaccabile e matematico.
Il tuo campato in aria.
Relax
Ale55andr0
01-08-2019, 15:19
Scusa ma perché devi incazzarti?
Il suo discorso è inattaccabile e matematico.
Il tuo campato in aria.
Relax
non mi incazzo "ex utente tornato dalla finestra per la settordicesima volta" :Prrr:, ed è molto più "matematico" il mio discorso, guardando proprio alle specifiche di ps 4 e ps 4pro e di one s e one x e ai loro salti di pp, piuttosto che tirando in ballo i prezzi come se stesse facendo la spesa nel negozio di pc sotto casa :asd:
xavarojj
01-08-2019, 15:29
non mi incazzo "ex utente tornato dalla finestra per la settordicesima volta" :Prrr:, ed è molto più "matematico" il mio discorso, guardando proprio alle specifiche di ps 4 e ps 4pro e di one s e one x e ai loro salti di pp, piuttosto che tirando in ballo i prezzi come se stesse facendo la spesa nel negozio di pc sotto casa :asd:
Ma anche no, tu fai supposizioni basate sul nulla.
E comunque sono solo alla quarta volta, mettiti a contare i clone che iniziano con b e c apparsi a luglio e impazzisci. :D :D :D
fraussantin
01-08-2019, 15:31
nvidia non deve lasciare una mazza, l'rtx non è sua proprietà intellettuale, è un effetto delle dx12 liberamente implementabile da chiunque, a meno che intendi le implementazioni attuali a "suo marchio", ma oggi sono i primi esperimenti di una tecnologia non matura, chissenefrega di usare l'rtx "di nvdia" in metro exodus fra 5 anni, per direRT credo sia tecnologia dx12 o cmq roba libera , gli algoritmi rtx non credo.
Se poi lo fossero meglio per tutti.
Ton90maz
01-08-2019, 20:49
Quando si tratta di amd tutto è impossibile
Si vociferano 72 cu, le clockeranno basse come sempre sulle console, e hai i 12 tf con ray tracing, semplice
Comunque io non darei molta importanza all'hardware console per quanto riguarda il pc, sarà sempre una cosa diversa, la 360 aveva gpu ibrida r500-r600Quando si tratta di console che devono essere comprate da gente vera, non tutto è possibile.
a me fa ridere che si continui a paragonare i prezzi dell'hardware che compriamo io o tu coi prezzi di una fornitura industrale per milioni di unità, e ancor più in prospettiva, cioè fra un anno e mezzo, quando ste specifiche sarano da vga di fascia media. Quanto alla conta dei transistor, la attuale apu della scarlett sta già sui 7mld di transitor, no, ora spiegami perchè a 7nm non posssono TRANQUILLAMENTE raddoppiarli o giu di li (restando per altro su un die size simile), visto che poi hanno già fatto uno step simile con la gpu di ps 4 pro passando dai 28 ai 14 nani (da 18 a 36cu, rops raddoppiate incluse) e ancora di più (!) con quella di onex x rispetto la one liscia :mbe:
Fra parentesi, che razza di next gen sarebbe se manco triplicassero la potenza? :mbe: e, apriamo un'altra parentesi 1) quel numero NON è una mia fissa, è cio che riportano i rumor :read: e 2) già la google comesichiama farà quasi 11tflop (10.7) e non si pone neanche come competitor lato potenza di sony e microsoft che secondo la la logica di chiunque non possono che partire da quel valore a salire, non il contrario :read: :mbe:
...Segnati sto post per quando escono che poi mi faccio du risate va' (anzi, l'ho già fatto, assieme ad altri due...)
PS: La versione desktop lato uso della memoria non ci azzecca una mazza, si sa che le console di ultima generazione usano una ram unificata, posto che parte (oltre 3gb) è automaticamente allocata per il SO e il resto va per i giochi ma cio' include il codice di esecuzione generico (fisica, audio, ia, i/o ecc.) mica solo il frame buffer per le texture! Con una vga da 16gb (e sulle top amd ormai è dato di fatto) in tale contesto sei già sullo stesso piano di una console con 24gb, senza contare che il codice dei multipiatta lato pc verrà ottimizzato per sistemi con ram separata sistema/gpu come già avviene adesso
Ma pensa, sono le stesse cose che ripeto a laggente quando parlano di console da 2000 euro :asd:
Solo che io ho il senso della misura, e so benissimo i componenti non li regalano.
Ma tranquillamente cosa? Intanto la densità effettiva non raddoppierà neanche coi 7nm+++++++, 14 miliardi di transistors implicherebbero un chip più grosso di quella della one x (e probabilmente lo è, sono già state fatte delle stime dalle foto dei dev kit). Inoltre 14 miliardi non basteranno manco pregando.
Ricapitoliamo, solo per 40 CU ci vogliono 10.3 miliardi di transistors, a questi dobbiamo aggiungere:
- 128 bit e 20 CU, facciamo che richiedono 4-5 miliardi;
- altre 12 CU;
- forse l'hardware per il ray tracing;
- 3 e passa miliardi solo per due core cluster zen 2, senza considerare il resto (non serviranno tutte le linee pciexpress, l'infinity fabric ecc... ma dubito che si possano ficcare due blocchi di quel tipo senza nient'altro).
Visto che ti piace fare dei parallelismi...
I 212 mm quadrati della 7870 + i core jaguar + due modifiche al front end --> 348 mm quadrati di APU.
La one lasciamola stare che c'aveva un tumore in mezzo al die.
I 232 mm quadrati di polaris + 4 CU + core jaguar rimpiccioliti + le minchiatine (RPM, chicken in hardware, 64 rops, ecc...) --> oltre 320 mm quadrati
Nella One X con i 128 bit, le 8 CU ecc... si è arrivati a 360 mm quadrati.
Praticamente è come se, al posto di partire dalla 7870, avessero usato la 7970 da 352 mm quadrati. Aggiungi lo spazio restante e la tua bella ps4 a 384 bit e chip superiore usciva con circa 470-480 mm quadrati di apu.
Il rapporto bit/CU ecc... è quasi identico a quello tra "navi 40" e la tua ipotetica "navi 72", solo che i chip sono addirittura più grossi. Anche nel caso in cui Zen 2 occupi pochissimi salterebbero fuori chipponi da circa 500 millimetri quadrati.
Puoi benissimo venire a dire che per te le console dovrebbero avere 9000 CU e costare 1 milione di euro, finché si parla di fantasia rispetto tutto. Ma non venire a tirare fuori parallelismi con il passato, come se fosse naturale il raddoppio di CU.
Speculazione personale mode on
La 2080ti founders sta a 14.2 tflops
Questo giro i tflops sono quasi sovrapponibili tra AMD e Nvidia
Nvidia sembra avere ancora un pochino di vantaggio a parità ma poco.
Quindi, per avere una potenza analoga ad una 2080ti, considerando che il bus deve per forza aumentare, una eventuale 5800xt dovrebbe avere qualcosa di più lato puro calcolo flops, penso intorno ai 14.4 ma c'è il nodo consumo, quindi è lecito aspettarsi prestazioni da 2080ti o è troppo?
Esempi moooolto fai da te
Ipotetiche 5800xt 4096ncu
1.500mhz = 12.288 tflops
1.600mhz = 13.107
1.700mhz = 13.926
1.800mhz = 14.745
Qualcuno più esperto, può dedurre da pochi dati se a livello di consumo può essere fattibile e quanto?
Ovviamente a 7nm come la 5700xt
Speculazione personale mode off
😅
Ale55andr0
01-08-2019, 20:52
@tony90maz
ripeto, vedremo chi si farà due risate, che fino a poco tempo fa ventilare un ryzen 3000 8 core su una console portava agli stessi, insensati, discorsi (1000 euro di console ecc. :rotfl:)
Gyammy85
01-08-2019, 20:55
Speculazione personale mode on
La 2080ti founders sta a 14.2 tflops
Questo giro i tflops sono quasi sovrapponibili tra AMD e Nvidia
Nvidia sembra avere ancora un pochino di vantaggio a parità ma poco.
Quindi, per avere una potenza analoga ad una 2080ti, considerando che il bus deve per forza aumentare, una eventuale 5800xt dovrebbe avere qualcosa di più lato puro calcolo flops, penso intorno ai 14.4 ma c'è il modo consumo, quindi è lecito aspettarsi prestazioni da 2080ti o è troppo?
Esempi moooolto fai da te
Ipotetiche 5800xt 4096ncu
1.500mhz = 12.288 tflops
1.600mhz = 13.107
1.700mhz = 13.926
1.800mhz = 14.745
Qualcuno più esperto, può dedurre da pochi dati se a livello di consumo può essere fattibile e quanto?
Speculazione personale mode off
A livello di potenza pura, pure una radeon 7 rivaleggia tranquillamente con tu102, il vero vantaggio della 2080ti sono le 96 rops, che non fanno da collo di bottiglia a differenza delle 64 della radeon 7
Le tmu di navi sono molto potenti, quindi con rops e banda adeguate, fare una anti 2080ti è possibilissimo
Per il consumo, non credo ci siano problemi a tenersi sui classici 250-300 watt di board power
Gyammy85
01-08-2019, 21:01
Bisognerebbe appiccicare un adesivo sulla scatola delle prossime AMD "8 geo" per farlo felice allo stesso modo dell'adesivo "4gb" sulle scatole delle 970 :asd:
Navi in realtà processa 8 primitive in entrata, e 4 in uscita, in un certo senso lo è
Roland74Fun
01-08-2019, 21:04
la ps4/Xbox1 ha come cpu un [(athlon x4)x2]= attaccati in qualche modo.
Gyammy85
01-08-2019, 21:05
la ps4/Xbox1 ha come cpu un [(athlon x4)x2]= attaccati in qualche modo.
Non hanno jaguar? è lo stesso dell'athlon x4?
Ale55andr0
01-08-2019, 21:09
Bisognerebbe appiccicare un adesivo sulla scatola delle prossime AMD "8 geo" per farlo felice allo stesso modo dell'adesivo "4gb" sulle scatole delle 970 :asd:
se ti riferisci a me, scordi le 80cu e 128 rops :O :read: :Prrr:
mircocatta
01-08-2019, 21:13
Speculazione personale mode on
La 2080ti founders sta a 14.2 tflops
Questo giro i tflops sono quasi sovrapponibili tra AMD e Nvidia
Nvidia sembra avere ancora un pochino di vantaggio a parità ma poco.
Quindi, per avere una potenza analoga ad una 2080ti, considerando che il bus deve per forza aumentare, una eventuale 5800xt dovrebbe avere qualcosa di più lato puro calcolo flops, penso intorno ai 14.4 ma c'è il nodo consumo, quindi è lecito aspettarsi prestazioni da 2080ti o è troppo?
Esempi moooolto fai da te
Ipotetiche 5800xt 4096ncu
1.500mhz = 12.288 tflops
1.600mhz = 13.107
1.700mhz = 13.926
1.800mhz = 14.745
Qualcuno più esperto, può dedurre da pochi dati se a livello di consumo può essere fattibile e quanto?
Ovviamente a 7nm come la 5700xt
Speculazione personale mode off
��
amd non si è mai fatta troppi problemi a fare schede esose di corrente
quindi non ci vedo nulla di male anche una versione clockata a 1800mhz, un bel doppio 8pin e passa la paura
a prescindere, senza eventuali blocchi, potrebbe diventare il non plus ultra per chi ama overcloccare e liquiderebbe anche la tastiera (presente!)..pensa a oltre 2ghz quanto potrebbe andare :sbav:
Roland74Fun
01-08-2019, 21:15
Non hanno jaguar? è lo stesso dell'athlon x4?
atlhon 5350
AceGranger
01-08-2019, 21:23
Speculazione personale mode on
La 2080ti founders sta a 14.2 tflops
Questo giro i tflops sono quasi sovrapponibili tra AMD e Nvidia
non sono per nulla sovrapponibili.
dall'architettura VOLTA non puoi piu fare questo tipo di parallelismi, perchè la 2080Ti nel mentre ti tira fuori i 14,2 TFlops con le FP32, ti puo calcolare in contemporanea le INT, le FP16 via Tensor e i gli RT Core, ovviamente non tutti al massimo per via del TDP.
basta guardare la 2070 liscia, 7.5 TFlops e va il 9% in piu della 1080 da 8,9 TFLops e questo perchè, mentre le unita FP32 della 1080 si devono fare anche i calcoli INT ( che nei giochi mediamente mi pare vadano dal 10 al 30% ), nella 2070 le FP32 fanno solo calcoli float e i calcoli INT se li smazzano le unita dedicate.
o se vuoi, puoi anche guardare la 5700XT che ha 9,75 TFlops e va il 10% in meno della 2070 Super che di TFlops ne ha 9,1 e va il 7% in piu ella 2070 che ne ha 7.5.
( prendendo computerbase, che almeno con ci sono i piangina per techpowerup, )
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/2/
se vuoi "normalizzare" le prestazioni guardando solo i TFlops, per come sono strutturare attualmente le 2 architetture, alla 5700XT servirebbero 10,7 TFlops per pareggiare la 2070 Super, o servirebbero 8 TFlops alla 2070 Liscia quindi a spanne
1 TFlops nVidia = 1,18 TFlops AMD se normalizzi sulla 2070 Super o 1,21 se normalizzii sulla 2070 Liscia
per pareggiare la 2080Ti ad AMD servirebbe una GPU fra i 16,5 e i 17 TFlops.
prova poi a rifare i calcoli che sono stanco e magari ho segato qualche cosa; tutto ovviamente inteso molto a spanne.
mircocatta
01-08-2019, 21:51
non sono per nulla sovrapponibili.
o se vuoi, puoi anche guardare la 5700XT che ha 9,75 TFlops e va il 10% in meno della 2070 Super che di TFlops ne ha 9,1 e va il 7% in piu ella 2070 che ne ha 7.5.
( prendendo computerbase, che almeno con ci sono i piangina per techpowerup, )
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/2/
se vuoi "normalizzare" le prestazioni guardando solo i TFlops, per come sono strutturare attualmente le 2 architetture, alla 5700XT servirebbero 10,7 TFlops per pareggiare la 2070 Super, o servirebbero 8 TFlops alla 2070 Liscia quindi a spanne
1 TFlops nVidia = 1,18 TFlops AMD se normalizzi sulla 2070 Super o 1,21 se normalizzii sulla 2070 Liscia
per pareggiare la 2080Ti ad AMD servirebbe una GPU fra i 16,5 e i 17 TFlops.
posso aprire una parentesi a riguardo?
ma la 5800xt non ha 9,75 se boostasse sempre a 1905mhz?
mentre sono 9.1tflops se la 2070s boostasse sempre a 1770mhz
sono dati completamente sballati se poi in game la 5700xt sta sempre più o meno a 1850mhz
https://www.hwupgrade.it/articoli/5479/clock_gpu.png
(e quindi non sono più 9.75tflops, ma 9.47tflops) e la 2070super mediamente quasi a 1900mhz (quindi 9,75tflops)
https://www.hwupgrade.it/articoli/5475/clock_gpu_2070.png
all'atto pratico rdna2 va un 10% in meno (anche se anno1800 boh, non l'avrei messo in review) con 9.47tflops rispetto alla 2070super con 9.75tflops
direi che quindi la differenza tra rdna e volta, in termini di tflops sfruttati o meno, è leggermente inferiore di quel 1.18x, a naso direi 1.07x
e questo si estende anche alla 2080ti, sono 14.2tflops a 1635mhz, ma sappiamo tutti che boosta di più in game, tenendo anche più di 1900mhz medi in game
https://www.hwupgrade.it/articoli/skvideo/5259/clock_gpu.png
o sto farneticando? :asd:
Ton90maz
01-08-2019, 22:03
@tony90maz
ripeto, vedremo chi si farà due risate, che fino a poco tempo fa ventilare un ryzen 3000 8 core su una console portava agli stessi, insensati, discorsi (1000 euro di console ecc. :rotfl:)
Ma sono obiettivamente due cose diverse. Chiunque ne sapesse un minimo di hardware sapeva che una cpu 8 core di quel tipo sarebbe costata uno sputo rispetto a una gpu di fascia alta.
AceGranger
01-08-2019, 22:13
posso aprire una parentesi a riguardo?
ma la 5800xt non ha 9,75 se boostasse sempre a 1905mhz?
mentre sono 9.1tflops se la 2070s boostasse sempre a 1770mhz
sono dati completamente sballati se poi in game la 5700xt sta sempre più o meno a 1850mhz
(e quindi non sono più 9.75tflops, ma 9.47tflops) e la 2070super mediamente quasi a 1900mhz (quindi 9,75tflops)
all'atto pratico rdna2 va un 10% in meno (anche se anno1800 boh, non l'avrei messo in review) con 9.47tflops rispetto alla 2070super con 9.75tflops
direi che quindi la differenza tra rdna e volta, in termini di tflops sfruttati o meno, è leggermente inferiore di quel 1.18x, a naso direi 1.07x
o sto farneticando? :asd:
quindi un ipotetica
il boost dipende da gioco a gioco e da software a software( ed è differente da nViida a AMD perchè dipende come quel software va ad utilizzare il chip e di conseguenza come e quanto puo boostare ) , dalla t ambientale e in aggiunta a queste variabili, con le nVidia devi guardare quanto vengono usate le INT nel caso dei giochi o le altre unita dedicate nel caso dei software.
i dati di targa sono quelli "assicurati".
riassumendo:
- non prenderei un solo gioco per estrapolare i dati
- e non prenderei un gioco "nVidia"....
p.s. non ho mai fatto test in merito, ma non sono pochi 220 secondi per far entrare "a regime" il dissipatore ?
mircocatta
01-08-2019, 22:21
il boost dipende da gioco a gioco e da software a software( ed è differente da nViida a AMD perchè dipende come quel software va ad utilizzare il chip e di conseguenza come e quanto puo boostare ) , dalla t ambientale e in aggiunta a queste variabili, con le nVidia devi guardare quanto vengono usate le INT nel caso dei giochi o le altre unita dedicate nel caso dei software.
i dati di targa sono quelli "assicurati".
p.s. non ho mai fatto test in merito, ma non sono pochi 220 secondi per far entrare "a regime" il dissipatore ?
ok, però sarai d'accordo con me che i darti di targa (che in caso amd non sono assicurati, visto che mediamente clocca meno del clock che serve per avere 9.75tflops) sono decisamente falsati visto che mediamente queste schede generano potenze diverse (da quelle dichiarate) una volta installate in un case
AceGranger
01-08-2019, 22:36
ok, però sarai d'accordo con me che i darti di targa (che in caso amd non sono assicurati, visto che mediamente clocca meno del clock che serve per avere 9.75tflops) sono decisamente falsati visto che mediamente queste schede generano potenze diverse (da quelle dichiarate) una volta installate in un case
ho editato mentre rispondevi.
non prenderei un gioco "nVidia" come riferimento; nel caso di Metro il suo game engine "4A Engine" credo sia molto ottimizzato con architettura nVidia; il boost è molto dipendente dai driver e dall'ottimizzazione.
prendi anche un valore piu conservativo, ma credo che in linea generale, in gaming si arrivi comunque a un 1.15, dipendente dalle INT.
in software Pro, quando vai a usare veramente le unita dedicate, si arriva tranquillamente a 1.7-2.5
non sono per nulla sovrapponibili.
dall'architettura VOLTA non puoi piu fare questo tipo di parallelismi, perchè la 2080Ti nel mentre ti tira fuori i 14,2 TFlops con le FP32, ti puo calcolare in contemporanea le INT, le FP16 via Tensor e i gli RT Core, ovviamente non tutti al massimo per via del TDP.
basta guardare la 2070 liscia, 7.5 TFlops e va il 9% in piu della 1080 da 8,9 TFLops e questo perchè, mentre le unita FP32 della 1080 si devono fare anche i calcoli INT ( che nei giochi mediamente mi pare vadano dal 10 al 30% ), nella 2070 le FP32 fanno solo calcoli float e i calcoli INT se li smazzano le unita dedicate.
o se vuoi, puoi anche guardare la 5700XT che ha 9,75 TFlops e va il 10% in meno della 2070 Super che di TFlops ne ha 9,1 e va il 7% in piu ella 2070 che ne ha 7.5.
( prendendo computerbase, che almeno con ci sono i piangina per techpowerup, )
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/2/
se vuoi "normalizzare" le prestazioni guardando solo i TFlops, per come sono strutturare attualmente le 2 architetture, alla 5700XT servirebbero 10,7 TFlops per pareggiare la 2070 Super, o servirebbero 8 TFlops alla 2070 Liscia quindi a spanne
1 TFlops nVidia = 1,18 TFlops AMD se normalizzi sulla 2070 Super o 1,21 se normalizzii sulla 2070 Liscia
per pareggiare la 2080Ti ad AMD servirebbe una GPU fra i 16,5 e i 17 TFlops.
prova poi a rifare i calcoli che sono stanco e magari ho segato qualche cosa; tutto ovviamente inteso molto a spanne.Da come dici tu, nelle Nvidia 20x0 i tflops non sono lineari in aumento di prestazioni ma esponenziali grazie ai tensor core? Ovvero, se nelle prestazioni di una super, seghi per fare un esempio le unità dedicate, si avrebbe un aumento delle prestazioni rispetto alla liscia in maniera minore?
Scusa le domande ma è per capire,
Comunque il calcolo teorico andrebbe fatto sulla 2080ti dalla 5700xt per avere un rapporto, solo che sarebbe molto teorico.
Edit:
La 5700xt 9.75 ce li ha nominali, in gioco la frequenza è sui 1.750/1.780 di media, quindi si sta sui 9 tf, il rapporto probabilmente cala, non so a quale frequenza media lavorano le 2070 e le 2070s.
È inutile discutere sui nominali ma quelli generati dalla frequenza media di funzionamento, solo così si riesce a capire meglio che differenza ci sia.
Edit all'ennesima 😂
Ho letto dopo quello che vi siete risposto 😅
mircocatta
01-08-2019, 22:59
ho editato mentre rispondevi.
non prenderei un gioco "nVidia" come riferimento; nel caso di Metro il suo game engine "4A Engine" credo sia molto ottimizzato con architettura nVidia; il boost è molto dipendente dai driver e dall'ottimizzazione.
prendi anche un valore piu conservativo, ma credo che in linea generale, in gaming si arrivi comunque a un 1.15, dipendente dalle INT.
in software Pro, quando vai a usare veramente le unita dedicate, si arriva tranquillamente a 1.7-2.5
in realtà ho preso i primi grafici che avevo sotto il naso :asd: non sapevo che le nvidia boostassero in base all'ottimizzazione gioco per gioco, pensavo solo in base alla temperatura
detto questo, mi sembra che un po tutte le review riportino frequenze maggiori rispetto alle dichiarate sulla 2070s e minori di quelle dichiarate sulla 5700xt
quindi per valutare la bontà di un architettura bisognerebbe tenere conto anche di questo imho
AceGranger
01-08-2019, 23:02
Da come dici tu, nelle Nvidia 20x0 i tflops non sono lineari in aumento di prestazioni ma esponenziali grazie ai tensor core? Ovvero, se nelle prestazioni di una super, seghi per fare un esempio le unità dedicate, si avrebbe un aumento delle prestazioni rispetto alla liscia in maniera minore?
Scusa le domande ma è per capire,
Comunque il calcolo teorico andrebbe fatto sulla 2080ti dalla 5700xt per avere un rapporto, solo che sarebbe molto teorico.
Edit:
La 5700xt 9.75 ce li ha nominali, in gioco la frequenza è sui 1.750/1.780 di media, quindi si sta sui 9 tf, il rapporto probabilmente cala, non so a quale frequenza media lavorano le 2070 e le 2070s
no no, la "Liscia" e la Super hanno entrambe i Tensor, ma nel caso dei giochi in modalita "normale" i Tensor non fanno nulla, io parlavo delle unita INT.
Nella "Liscia" e Super le unita dedicate sono le stesse, i chip hanno solo colli di bottiglia differenti per come sono organizzati, la Super ne ha un po di meno, per quello riportavo i 2 valori.
in realtà ho preso i primi grafici che avevo sotto il naso :asd: non sapevo che le nvidia boostassero in base all'ottimizzazione gioco per gioco, pensavo solo in base alla temperatura
in realta è la "stessa cosa" perchè la temperatura dipende da come e quali aree del chip vengono usate e se un gioco è ottimizzato fara lavorare meglio il chip e di conseguenza potra boostare di piu.
in realtà ho preso i primi grafici che avevo sotto il naso :asd: non sapevo che le nvidia boostassero in base all'ottimizzazione gioco per gioco, pensavo solo in base alla temperatura
detto questo, mi sembra che un po tutte le review riportino frequenze maggiori rispetto alle dichiarate sulla 2070s e minori di quelle dichiarate sulla 5700xt
quindi per valutare la bontà di un architettura bisognerebbe tenere conto anche di questo imhoNemmeno io sapevo che le Nvidia boostassero in base alle ottimizzazioni, quindi, almeno in teoria, si dichiara una certa potenza nominale per poi averne di più?
Per questo bisognerebbe fare dei calcoli in base al funzionamento reale.
no no, la "Liscia" e la Super hanno entrambe i Tensor, ma nel caso dei giochi in modalita "normale" i Tensor non fanno nulla, io parlavo delle unita INT.
Nella "Liscia" e Super le unita dedicate sono le stesse, i chip hanno solo colli di bottiglia differenti per come sono organizzati, la Super ne ha un po di meno, per quello riportavo i 2 valori.
in realta è la "stessa cosa" perchè la temperatura dipende da come e quali aree del chip vengono usate e se un gioco è ottimizzato fara lavorare meglio il chip e di conseguenza potra boostare di piu.
Si, lo so che hanno entrambe i tensor, ma non hanno in numero diverso?
Per questo ho pensato ad un aumento esponenziale, perché oltre ai cuda, aumentano i tensor.
AceGranger
01-08-2019, 23:17
Si, lo so che hanno entrambe i tensor, ma non hanno in numero diverso?
Per questo ho pensato ad un aumento esponenziale, perché oltre ai cuda, aumentano i tensor.
si ma il numero di Tensor sale linearmente al numero dei CUDA; quello che cambia fra 2070 e 2070 Super è l'organizzazione dei GPC.
il chip della 2070 Super è piu bilanciato e ha meno colli di bottiglia rispetto a quello della 2070, pur avendo lo stesso rapporto di CUDA/INT/Tensor e RT Core.
mircocatta
01-08-2019, 23:21
ho controllato qualche review e tutte riportano più o meno frequenze maggiori rispetto alle dichiarate
ecco con vari titoli:
https://www.anandtech.com/show/14586/geforce-rtx-2070-super-rtx-2060-super-review/15
mi chiedo per quanto testino le schede prima di sentenziare quanti fps facciano
qua non ci vedo ne il 10% ne le frequenze che mettono in review
https://www.youtube.com/watch?v=3OgDib66DCk&t=358s
gomblotto?
AceGranger
01-08-2019, 23:47
ho controllato qualche review e tutte riportano più o meno frequenze maggiori rispetto alle dichiarate
ecco con vari titoli:
https://www.anandtech.com/show/14586/geforce-rtx-2070-super-rtx-2060-super-review/15
mi chiedo per quanto testino le schede prima di sentenziare quanti fps facciano
qua non ci vedo ne il 10% ne le frequenze che mettono in review
https://www.youtube.com/watch?v=3OgDib66DCk&t=358s
gomblotto?
nulla di diverso dalle 5700.
https://www.anandtech.com/show/14618/the-amd-radeon-rx-5700-xt-rx-5700-review/15
entrambe hanno boost e max boost.
Free Gordon
02-08-2019, 03:09
Credo anche io che se guardiamo bene le frequenze medie e le performance (computerbase), i tflops RDNA e tflops Turing stanno all'incirca sul 1.08 a favore di Nvidia.
A una 2080Ti da 14tfl, AMD dovrebbe rispondere con una RDNA1 da 15 circa.. e il pareggio sarebbe possibile.
Tutto in teoria....
Cmq è ancora da vedere come andranno queste schede (gcn, rdna, turing, pascal) coi futuri titoli full-dx12...
mircocatta
02-08-2019, 07:47
nulla di diverso dalle 5700.
https://www.anandtech.com/show/14618/the-amd-radeon-rx-5700-xt-rx-5700-review/15
entrambe hanno boost e max boost.
no, la 5700 è raro che boosti sopra al max boost, non raggiungendo mai quindi i tflops di targa, mentre la 2070s o comunque in generale le nvidia vanno oltre, quindi la reale differenza di "sfruttamento tflops" è minore di quella che sembra su carta
all'atto pratico son discorsi futili sia chiaro
Gyammy85
02-08-2019, 08:01
non sono per nulla sovrapponibili.
dall'architettura VOLTA non puoi piu fare questo tipo di parallelismi, perchè la 2080Ti nel mentre ti tira fuori i 14,2 TFlops con le FP32, ti puo calcolare in contemporanea le INT, le FP16 via Tensor e i gli RT Core, ovviamente non tutti al massimo per via del TDP.
basta guardare la 2070 liscia, 7.5 TFlops e va il 9% in piu della 1080 da 8,9 TFLops e questo perchè, mentre le unita FP32 della 1080 si devono fare anche i calcoli INT ( che nei giochi mediamente mi pare vadano dal 10 al 30% ), nella 2070 le FP32 fanno solo calcoli float e i calcoli INT se li smazzano le unita dedicate.
o se vuoi, puoi anche guardare la 5700XT che ha 9,75 TFlops e va il 10% in meno della 2070 Super che di TFlops ne ha 9,1 e va il 7% in piu ella 2070 che ne ha 7.5.
( prendendo computerbase, che almeno con ci sono i piangina per techpowerup, )
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/2/
se vuoi "normalizzare" le prestazioni guardando solo i TFlops, per come sono strutturare attualmente le 2 architetture, alla 5700XT servirebbero 10,7 TFlops per pareggiare la 2070 Super, o servirebbero 8 TFlops alla 2070 Liscia quindi a spanne
1 TFlops nVidia = 1,18 TFlops AMD se normalizzi sulla 2070 Super o 1,21 se normalizzii sulla 2070 Liscia
per pareggiare la 2080Ti ad AMD servirebbe una GPU fra i 16,5 e i 17 TFlops.
prova poi a rifare i calcoli che sono stanco e magari ho segato qualche cosa; tutto ovviamente inteso molto a spanne.
In realtà rdna ha lo stesso ipc di turing
https://www.reddit.com/r/hardware/comments/caz9td/navi_vs_vega_vs_turing_vs_pascal_computerbasede/
Normalizzati a 1500 mhz, 5700 +1% sulla 2070
AceGranger
02-08-2019, 08:12
In realtà rdna ha lo stesso ipc di turing
https://www.reddit.com/r/hardware/comments/caz9td/navi_vs_vega_vs_turing_vs_pascal_computerbasede/
Normalizzati a 1500 mhz, 5700 +1% sulla 2070
se normalizzi non ha senso guardare i TFlops, visto che sono identici.
l'IPC dipende da quali unita dedicate vai a usare e come; non è piu univoco come prima.
da quella review si evince che:
- la 5700 normalizzata va l'1% in piu della 2070
- la 2070 è piu efficiente del'11% rispetto alla 5700 consumando il 6% in meno e andando il 5% in piu
mettila come vuoi, che il boost fa sballare i TFlops di nVIida, ma alla fine il vantaggio a parita di unita e stesso range di consumi/TDP è sempre bene o male quello, 1.11 per la 2070 ( che è il chip meno bilanciato della serie ) rispetto alla 5700.
AceGranger
02-08-2019, 08:18
no, la 5700 è raro che boosti sopra al max boost, non raggiungendo mai quindi i tflops di targa, mentre la 2070s o comunque in generale le nvidia vanno oltre, quindi la reale differenza di "sfruttamento tflops" è minore di quella che sembra su carta
all'atto pratico son discorsi futili sia chiaro
riguarda le tabelle perchè sopra al max boost non busta nessuna GPU, ne nVidia ne AMD.
mircocatta
02-08-2019, 09:10
riguarda le tabelle perchè sopra al max boost non busta nessuna GPU, ne nVidia ne AMD.
ma lo fai apposta? :stordita: a me non interessa un fico secco del max boost :fagiano:
quello che volevo far notare è che i TFlops indicati da nvidia con la 2070S (9.1) sono riferiti ai 1770mhz (boost clock) mentre quelli di amd sono riferiti ai 1905mhz di max boost clock (9.75)
in realtà in game una sta sopra a questo valore (2070S che boosta mediamente a 1876mhz nelle review, 9.6tflops) mentre la 5700xt mediamente a 1823mhz (sempre nelle review) che sono 9.3tflops.... in queste condizioni la 2070S va il 10% in più
facendo una sintesi: dire che "i tflops di nvidia sono usati molto meglio di quelli di amd" basandosi sul fatto che la 2070S con 9.1tflops di targa va il 10% in più della 5700xt da 9.75tflops è una cazzata
AceGranger
02-08-2019, 09:20
ma lo fai apposta? :stordita: a me non interessa un fico secco del max boost :fagiano:
quello che volevo far notare è che i TFlops indicati da nvidia con la 2070S (9.1) sono riferiti ai 1770mhz (boost clock) mentre quelli di amd sono riferiti ai 1905mhz di max boost clock (9.75)
in realtà in game una sta sopra a questo valore (2070S che boosta mediamente sopra i 1876mhz nelle review (9.6tflops) mentre la 5700xt boosta sotto i 1905mhz, mediamente a 1823mhz (sempre nelle review) che sono 9.3tflops.... in queste condizioni la 2070S va il 10% in più
facendo una sintesi: dire che "i tflops di nvidia sono usati molto meglio di quelli di amd" basandosi sul fatto che la 2070S con 9.1tflops di targa va il 10% in più della 5700xt da 9.75tflops è una cazzata
va bene, correggi quella frase con quella che ho scritto sopra a Gnammy, la sostanza del risultato finale non cambia.
Gyammy85
02-08-2019, 09:20
se normalizzi non ha senso guardare i TFlops, visto che sono identici.
l'IPC dipende da quali unita dedicate vai a usare e come; non è piu univoco come prima.
da quella review si evince che:
- la 5700 normalizzata va l'1% in piu della 2070
- la 2070 è piu efficiente del'11% rispetto alla 5700 consumando il 6% in meno e andando il 5% in piu
mettila come vuoi, che il boost fa sballare i TFlops di nVIida, ma alla fine il vantaggio a parita di unita e stesso range di consumi/TDP è sempre bene o male quello, 1.11 per la 2070 ( che è il chip meno bilanciato della serie ) rispetto alla 5700.
Dimostra che a parità di tf di banda e tutto la 5700 va mediamente l'1% in più, per quello che possono valere le medie ovviamente, in base ai giochi
Che la 5700 consumi più della 2070 è molto opinabile, perché nelle review consuma quanto o meno della 2060
AceGranger
02-08-2019, 09:24
Dimostra che a parità di tf di banda e tutto la 5700 va mediamente l'1% in più, per quello che possono valere le medie ovviamente, in base ai giochi
Che la 5700 consumi più della 2070 è molto opinabile, perché nelle review consuma quanto o meno della 2060
consuma di piu nella tua review dove hanno fatto i test a pari frequenza.
non è che prendi un valore di qua e uno di la a seconda di come ti fa piu comodo; e anzi, avrebbero fatto cosa buona a misurare i consumi delle 2 GPU durante i test a pari frequenza.
Gyammy85
02-08-2019, 09:28
consuma di piu nella tua review dove hanno fatto i test a pari frequenza.
non è che prendi un valore di qua e uno di la a seconda di come ti fa piu comodo; e anzi, avrebbero fatto cosa buona a misurare i consumi delle 2 GPU durante i test a pari frequenza.
Su techspot la 5700 in game consuma meno della 2060, non vedo come possa consumare più della 2070 a soli 1500 mhz...ma ripeto, ci sono troppe variabili
con navi amd ha recuperato tutto o quasi il divario che aveva con nvidia,piccole differenze sono facilmente gestibili ottimizzando il gioco e/o cloccando un po' la gpu,ma niente da portare ai disastrosi consumi/tdp di gcn
le premesse per ottime gpu sia le piccole per il mercato mobile,sia le high e oltre per competere nella fascia estrema e rivitalizzare il marchio ci sono tutte
e con l'arrivo del terzo incomodo intel,i prezzi questa volta devono scendere un bel po'
TFlops a volonta' e prezzi stracciati:D
Gigibian
02-08-2019, 10:55
In realtà rdna ha lo stesso ipc di turing
https://www.reddit.com/r/hardware/comments/caz9td/navi_vs_vega_vs_turing_vs_pascal_computerbasede/
Normalizzati a 1500 mhz, 5700 +1% sulla 2070
Il problema, inteso come limitazione architetturale, è che ha anche gli stessi consumi con 1 nodo di vantaggio...
Se AMD riesce a mantenere il nodo di vantaggio, durante l'evoluzione, alla puo' seriamente tornare a competere per lo scettro di top performance
Ale55andr0
02-08-2019, 10:56
e con l'arrivo del terzo incomodo intel,i prezzi questa volta devono scendere un bel po'
TFlops a volonta' e prezzi stracciati:D
si, intel è nota per essere molto aggressiva coi prezzi...cioè, aggressiva sul nostro portafoglio, precisiamo :asd:
Gigibian
02-08-2019, 11:05
consuma di piu nella tua review dove hanno fatto i test a pari frequenza.
non è che prendi un valore di qua e uno di la a seconda di come ti fa piu comodo; e anzi, avrebbero fatto cosa buona a misurare i consumi delle 2 GPU durante i test a pari frequenza.
Dimostra che a parità di tf di banda e tutto la 5700 va mediamente l'1% in più, per quello che possono valere le medie ovviamente, in base ai giochi
Che la 5700 consumi più della 2070 è molto opinabile, perché nelle review consuma quanto o meno della 2060
Consuma di più nella stessa review di computer base dove hanno evidenziato che a parità di clock vanno uguale:
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/4/
https://i.imgur.com/nGHRE5b.png
https://i.imgur.com/bqErRWR.png
Ed hanno un nodo di vantaggio...
L'architettura di Nvidia è terribilmente efficente e scalabile.
AMD adesso dopo aver recuperato le performance assolutare, devi iniziare a recuperare sull'efficenzia...sennò quando nvidia passera al 7nm+ EUV ritorneremo con le AMD che consumano il doppio :/
Gyammy85
02-08-2019, 11:12
con navi amd ha recuperato tutto o quasi il divario che aveva con nvidia,piccole differenze sono facilmente gestibili ottimizzando il gioco e/o cloccando un po' la gpu,ma niente da portare ai disastrosi consumi/tdp di gcn
le premesse per ottime gpu sia le piccole per il mercato mobile,sia le high e oltre per competere nella fascia estrema e rivitalizzare il marchio ci sono tutte
e con l'arrivo del terzo incomodo intel,i prezzi questa volta devono scendere un bel po'
TFlops a volonta' e prezzi stracciati:D
In realtà il confronto nvida/amd non ha senso come ipc dato che le gpu lavorano in maniera diversa, le nvidia hanno stadi in hardware che fanno diverse cose mentre amd parallelizza tutto e quindi necessita di shader core più grossi, ora con rdna ha aumentato a dismisura il rendimento
Non capisco bene come intel possa fare una gpu dal nulla che competa ad armi pari con amd e nvidia
Il problema, inteso come limitazione architetturale, è che ha anche gli stessi consumi con 1 nodo di vantaggio...
Se AMD riesce a mantenere il nodo di vantaggio, durante l'evoluzione, alla puo' seriamente tornare a competere per lo scettro di top performance
Il consumo legato al nodo è un non problema, da dieci anni le gpu consumano le top 300 watt e le medie 180, e si sono passati minimo 5 nodi...paradossalmente, una gpu tipo r300 consuma molto meno di una top odierna pur avendo transistor grandi come cocomeri rispetto a oggi
in realtà ho preso i primi grafici che avevo sotto il naso :asd: non sapevo che le nvidia boostassero in base all'ottimizzazione gioco per gioco, pensavo solo in base alla temperatura
detto questo, mi sembra che un po tutte le review riportino frequenze maggiori rispetto alle dichiarate sulla 2070s e minori di quelle dichiarate sulla 5700xt
quindi per valutare la bontà di un architettura bisognerebbe tenere conto anche di questo imho
il boost 4.0 non cambia in base al "gioco" ma in base a tdp/temp che l'engine riflette sulla gpu, ma non ci metto la mano sul fuoco (es. timespy ammazza le frequenze rispetto a un che ne so farcry 5 a pari impostazioni etc etc)
su vega/vii invece leggevo di gente lamentarsi che il boost scalasse verso il basso nonostante tdp e temp tjunction fossero in check.....quindi c'è una qualche variabile in più.....
AMD adesso dopo aver recuperato le performance assolutare, devi iniziare a recuperare sull'efficenzia...sennò quando nvidia passera al 7nm+ EUV ritorneremo con le AMD che consumano il doppio :/
E perchè AMD dovrebbe stare ferma? Il nodo di vantaggio rimarrà.......il vero vantaggio di nvidia è nel professionale/HPC per n motivi
Non ha senso paragonare la potenza delle schede video per scoprirne l'efficienza in base ai tflops nei giochi. Non sono quasi mai gli shader a fare da collo di bottiglia. I giochi non sono programmi di computing. Le istruzioni sono tante e diverse ed entrambe le architetture le sfruttano in modo diverso tra loro. Provate ad usare Nvidia PerfKit e ve ne renderete conto.
Gyammy85
02-08-2019, 11:21
Consuma di più nella stessa review di computer base dove hanno evidenziato che a parità di clock vanno uguale:
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/4/
https://i.imgur.com/nGHRE5b.png
https://i.imgur.com/bqErRWR.png
Ed hanno un nodo di vantaggio...
L'architettura di Nvidia è terribilmente efficente e scalabile.
AMD adesso dopo aver recuperato le performance assolutare, devi iniziare a recuperare sull'efficenzia...sennò quando nvidia passera al 7nm+ EUV ritorneremo con le AMD che consumano il doppio :/
Medie di medie di medie mediate ecc...
I 7 nm+ ce li avrà prima amd al 99%, tranquillo che la 3080ti avrà sempre 250 watt di tdp e la 3070 sempre 180
Gigibian
02-08-2019, 11:23
Il consumo legato al nodo è un non problema, da dieci anni le gpu consumano le top 300 watt e le medie 180, e si sono passati minimo 5 nodi...paradossalmente, una gpu tipo r300 consuma molto meno di una top odierna pur avendo transistor grandi come cocomeri rispetto a oggi
Quali top scusa?
Sono 5 anni almeno che AMD non è in grado di sfornare una GPU top che vada a pareggiare le performance delle "TI" nvidia.
Tutto a discapito di noi gamer, e rendendo le schede top dal costo proibitivo!
Alla faccia del non problema...AMD con vega-64 aveva già raggiunto il massimo dei consumi consentiti in quella fascia di mercato...per questo motivo non ha potuto spingere di più su SP e Performance...
Gigibian
02-08-2019, 11:25
Medie di medie di medie mediate ecc...
I 7 nm+ ce li avrà prima amd al 99%, tranquillo che la 3080ti avrà sempre 250 watt di tdp e la 3070 sempre 180
Mbè? le medie non funzionano più improvvisamente?
Guarda che veramente, solo da 3 mesi AMD ha 1 nodo di vantaggio versus nvidia...io spero vivamente che questa cosa rimanga così, ma a breve nvidia ed amd si ritroveranno con lo stesso processo produttivo.
E quando entrambi saranno su 7nm+...speriamo non finisca come Pascal vs Vega... o vega vs turing... :/
Gyammy85
02-08-2019, 11:30
Quali top scusa?
Sono 5 anni almeno che AMD non è in grado di sfornare una GPU top che vada a pareggiare le performance delle "TI" nvidia.
Tutto a discapito di noi gamer, e rendendo le schede top dal costo proibitivo!
Alla faccia del non problema...AMD con vega-64 aveva già raggiunto il massimo dei consumi consentiti in quella fascia di mercato...per questo motivo non ha potuto spingere di più su SP e Performance...
La furyx malgrado i problemi rivaleggiava bene con la 980ti, vega 64 è stata sfortunata, ad uscire in un periodo storico sbagliato, guarda ora come va pascal con codice un attimino più parallelizzato...nvidia ha un silicio praticamente cucito addosso come intel, la paragoni col 14 nm gf che era un fail per le gpu
Ma nvidia cambia ogni anno arch unità dedicate e tutto, non le serve avere una gpu future proof, infatti una 5700 va come la 1080ti in youngblood
Roland74Fun
02-08-2019, 11:33
@Gigibian.
Ma alla fine la scheda è arrivata?
Gyammy85
02-08-2019, 11:33
Mbè? le medie non funzionano più improvvisamente?
Guarda che veramente, solo da 3 mesi AMD ha 1 nodo di vantaggio versus nvidia...io spero vivamente che questa cosa rimanga così, ma a breve nvidia ed amd si ritroveranno con lo stesso processo produttivo.
E quando entrambi saranno su 7nm+...speriamo non finisca come Pascal vs Vega... o vega vs turing... :/
La nanometria serve a permettere cambi di architettura per salire di clock senza far esplodere i consumi, è stato così per maxwell/pascal e fiji/vega
Una navi a 14 nm non avrebbe consumato moltissimo più di adesso, sempre meno di vega, andando come gp102, quindi superando in perf/watt il chip più efficiente nvidia di sempre.
Gigibian
02-08-2019, 11:36
La furyx malgrado i problemi rivaleggiava bene con la 980ti, vega 64 è stata sfortunata, ad uscire in un periodo storico sbagliato, guarda ora come va pascal con codice un attimino più parallelizzato...nvidia ha un silicio praticamente cucito addosso come intel, la paragoni col 14 nm gf che era un fail per le gpu
Ma nvidia cambia ogni anno arch unità dedicate e tutto, non le serve avere una gpu future proof, infatti una 5700 va come la 1080ti in youngblood
Sfortuna, processi produttivi cuciti addoso, processi parallelizzati, ....guarda come vuoi, non voglio fare polemica.
Anche io tifo per AMD che vada sempre meglio, dico solo che:
https://i.imgur.com/bqErRWR.png
E' evidente come RDNA a 7NM ha un rapporto performance x watt uguale a PASCAL di 3 anni fa a 16NM
E questo ovviamente non è una cosa positiva per l'evoluzione dell'architettura.
Gigibian
02-08-2019, 11:37
@Gigibian.
Ma alla fine la scheda è arrivata?
Yes, domani la testo. L'ho solo montata, e sembra abbia memoria samsung :)
Gyammy85
02-08-2019, 11:51
Sfortuna, processi produttivi cuciti addoso, processi parallelizzati, ....guarda come vuoi, non voglio fare polemica.
Anche io tifo per AMD che vada sempre meglio, dico solo che:
https://i.imgur.com/bqErRWR.png
E' evidente come RDNA a 7NM ha un rapporto performance x watt uguale a PASCAL di 3 anni fa a 16NM
E questo ovviamente non è una cosa positiva per l'evoluzione dell'architettura.
Se è per questo ha anche un perf watt migliore della 2060 di 8 mesi fa, quindi?
Io ste tabelle non le capisco, la verità è che la xt si mangia una 1080 e passa la 2070, non facciamo come quelli che "si la 1060 fa 20 fps meno della 580 però scalda meno!!11!!11!!!"
mikael84
02-08-2019, 11:59
In realtà rdna ha lo stesso ipc di turing
https://www.reddit.com/r/hardware/comments/caz9td/navi_vs_vega_vs_turing_vs_pascal_computerbasede/
Normalizzati a 1500 mhz, 5700 +1% sulla 2070
La 2700 liscia, è un chip colabrodo, fatto di collegamenti per la memoria, con partizioni che non usa. A livello ingegneristico la odio. Senza considerare i GPC bloccati da sole 16 rop's su 24 memorizzabili che strozzano (48 su 72 utilizzate, e pure male).
2 primitive, 16pixel è un rapporto osceno. Senza considerare il lavoro extra del raster a livello di z-cull.
La 2070s, è sempre derivazione di un chip monco, a cui mancano 2 canali di collegamento e 32 rop's per natura fisica (costerebbero 112mm2), però come vedi è decisamente più equilibrata.
Non sono solo i TF, ma tutta una serie di altri fattori, comprese le latenze,accessi alla l2 etc, compressioni nettamente superiori su nvidia.
https://i.postimg.cc/q70D34NP/lopez.png
La 2080 come dicevo su, è monca a sua volta.;)
La nanometria serve a permettere cambi di architettura per salire di clock senza far esplodere i consumi, è stato così per maxwell/pascal e fiji/vega
Una navi a 14 nm non avrebbe consumato moltissimo più di adesso, sempre meno di vega, andando come gp102, quindi superando in perf/watt il chip più efficiente nvidia di sempre.
Navi a 14nm lavorerebbe a 1400-1500, non a 1800-1900 più OC.
mikael84
02-08-2019, 12:08
se ti riferisci a me, scordi le 80cu e 128 rops :O :read: :Prrr:
Riuscissero a passare a 6 raster sarebbe già un bel passo avanti.
A livello di potenza pura, pure una radeon 7 rivaleggia tranquillamente con tu102, il vero vantaggio della 2080ti sono le 96 rops, che non fanno da collo di bottiglia a differenza delle 64 della radeon 7
Le tmu di navi sono molto potenti, quindi con rops e banda adeguate, fare una anti 2080ti è possibilissimo
Per il consumo, non credo ci siano problemi a tenersi sui classici 250-300 watt di board power
Sono 88 le rop's della 2080ti, 96 sono del chip full.
La 2080ti è un chip devastato con partzione cache laserata per rese, di conseguenza perde 8 rop's e 512 kb l2, nonchè 256cc.
Anche quella è un chip colabrodo, come la 2070 liscia, frenata dalle rop's.
Su 136 rop's ne elabora 88 a basso clock.
ma a 12nm navi quanto poteva dare?
ho il dubbio che i 7nm 1°gen danno poco piu' dei 12nm usati da nvidia
notevole il balzo invece da vega7 a navi a parita' di processo produttivo,e con meta' BW:eek:
navi è a 7nm
il resto son pippe
Sfortuna, processi produttivi cuciti addoso, processi parallelizzati, ....guarda come vuoi, non voglio fare polemica.
Anche io tifo per AMD che vada sempre meglio, dico solo che:
https://i.imgur.com/bqErRWR.png
E' evidente come RDNA a 7NM ha un rapporto performance x watt uguale a PASCAL di 3 anni fa a 16NM
E questo ovviamente non è una cosa positiva per l'evoluzione dell'architettura.
Le 5700 sono schede con un rapporto prezzo/prestazioni ottimo, ma bisogna essere obbiettivi, sono una generazione dietro. Sono riusciti a pareggiare/superare tu106,
molto probabilmente supererà tu104 con la 5800. Tu102 se ne riparlerà con big navi, ma a quel punto ci sarà ampere che per come la vedo io sara un mostro, nuova arch, nuovo nodo, migliore efficienza tensor core, che se non ricordo male su turing sono al 40% delle potenzialità per via dei consumi.
Senza considerare il fattore rt, che molti ancora non hanno digerito ma che ormai è stato adottato. Io lo considero un avanzamento tecnologico importante. Queste schede ormai servivano solo ad avere più frame, il che non è male ma non mi rende l'esperienza migliore. Preferisco avere una grafica migliore a discapito delle prestazioni. Certo se uno vuole 4k 120fps aa8x RT e un caffè a 300€ si deve svegliare e smettere di sognare.
IMHO
I miracoli non esistono
Se pensate che in un anno trovino la architettura/nodo per saltare due generazioni rispetto alla controparte significa che la controparte ha lavorato per te :asd:
Nessuno dice che nvidia non sia avanti tecnologicamente parlando, ma nemmeno che amd sia così indietro ..... alla fine RT a parte se vi mettessero un pc a un lan party non sapreste dire se abbia sotto una gpu rossa o verde.....l'RT è stato buttato fuori proprio perchè il vantaggio era talmente clamoroso come mercato che hanno valutato come accettabile questa scommessa, che è autoavverante visto il peso di nvidia nell'industria (leggi = cacciare milioni di $ di mazzette ai devs per l'effettino ibrido per il marketing) e creare un ecosistema futuro per differenziare ulteriormente il mercato gpu.
La forza di AMD sta nelle console: finchè l'RT non sarà lì' dentro , non sarà veramente "mainstream".
Ale55andr0
02-08-2019, 14:09
si ma cacciate fuori sta 5800 che la voglio vedere..una 60cu 96 rop 384/12gb a 599 la metterebbe nel culetto ("con la sabbia e senza sputo" cit. :O) alla 2080s
#fatelafatelafatelafatelafatela
Free Gordon
02-08-2019, 14:31
Su techspot la 5700 in game consuma meno della 2060, non vedo come possa consumare più della 2070 a soli 1500 mhz...ma ripeto, ci sono troppe variabili
Si riferisce a questo: (dalla stessa rece che ha fatto il confronto a parità di frequenza)
https://i.ibb.co/NNmJbLR/Navi-10-vs-TU104-perfwatt.jpg (https://imgbb.com/)
https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/3/#diagramm-performance-pro-watt-2560-1440
E' evidente che AMD ha ancora un certo gap con Nvidia lato consumi, gap che Nvidia ha acquisito con Maxwell e profondamente scavato con Pascal.. (ha speso un mucchio di soldi su quell'ottimizzazione).
Ora sono alla pari efficienza/sp...ma lato consumi c'è ancora un buon gap (considerando i 7nm di Navi..)
AceGranger
02-08-2019, 14:49
.
AceGranger
02-08-2019, 14:50
.
Free Gordon
02-08-2019, 14:52
Nessuno dice che nvidia non sia avanti tecnologicamente parlando, ma nemmeno che amd sia così indietro .....
quoto..
per come la vedo io AMD ha solo necessità di concentrarsi sempre di più nella direzione gaming, specializzando la sua architettura (come ha fatto Nvidia dopo Fermi) in ottica perf/watt e scaling delle frequenze.
GCN è stata il grande sogno di riuscire a creare il chip tuttofare "fusion", i guai economici dell'era Bulldozer hanno fatto il resto...
E' giunto da tempo il momento di pensionarla o relegarla a fare ciò che fa' bene (calcolo scientifico ad es.) :) attendiamo quindi le iterazioni future di RDNA, mi pare che la strada intrapresa sia quella giusta. :)
Free Gordon
02-08-2019, 15:15
Aggiungo anche che nulla di ciò che ho scritto sopra, soprattutto oggi alla luce del fatto "Navi10 performace", era sconosciuto prima e cioè negli ultimi 3-4 anni.. :) al netto di fanboysmi vari da salame sugli occhi (GCN is the best ecc ecc..).
GCN sarebbe stata da pensionare appena è uscito Maxwell...nel senso che AMD avrebbe dovuto avere in casa già pronta (e per pronto intendo dire in uscita nel giro di 6-12mesi) un'architettura nuova gaming-oriented che potesse combattere alla pari con Nvidia.
Purtroppo ciò non era possibile, essenzialmente per questioni finanziarie.
Tutto il grande casino è scaturito dal fatto che AMD con Vliw aveva un grande vantaggio perf/watt e soprattutto perf/area su Nvidia :) e AMD, vista la direzione intrapresa da Nvidia con Fermi (anno zero per Nvidia), ha pensato bene (intendo male in realtà :asd: ) di imbarcarsi in una nuova architettura compute-oriented da abbinare a quel fallimento di Bulldozer. :) Un progetto che affonda le proprie radici moooolto nel passato, ai tempi dell'acquisizione ATI (una dozzina buona di anni fa'...) e che ha condizionato negativamente per un luuuungo periodo questa "nuova" AMD..
Volevano la Volpe e l'uva...hanno finito per rischiare di perdere tutto...
Ora finalmente coi pochi soldi a disposizione e l'aiuto della divisione CPU sono riusciti ad intraprendere l'uscita da GCN...
Attendiamo buone nuove da Navi20.. :)
E infatti oggi abbiamo Arcturus e Navi.....
Ton90maz
02-08-2019, 18:30
La nanometria serve a permettere cambi di architettura per salire di clock senza far esplodere i consumi, è stato così per maxwell/pascal e fiji/vega
Una navi a 14 nm non avrebbe consumato moltissimo più di adesso, sempre meno di vega, andando come gp102, quindi superando in perf/watt il chip più efficiente nvidia di sempre.
See ciao :asd:
Le 5700 sono schede con un rapporto prezzo/prestazioni ottimo, ma bisogna essere obbiettivi, sono una generazione dietro. Sono riusciti a pareggiare/superare tu106,
molto probabilmente supererà tu104 con la 5800. Tu102 se ne riparlerà con big navi, ma a quel punto ci sarà ampere che per come la vedo io sara un mostro, nuova arch, nuovo nodo, migliore efficienza tensor core, che se non ricordo male su turing sono al 40% delle potenzialità per via dei consumi.
Senza considerare il fattore rt, che molti ancora non hanno digerito ma che ormai è stato adottato. Io lo considero un avanzamento tecnologico importante. Queste schede ormai servivano solo ad avere più frame, il che non è male ma non mi rende l'esperienza migliore. Preferisco avere una grafica migliore a discapito delle prestazioni. Certo se uno vuole 4k 120fps aa8x RT e un caffè a 300 si deve svegliare e smettere di sognare.
IMHOUna ipotetica Big Navi con 80cu se la mangia a colazione la 2080ti
Una ipotetica Big Navi con 80cu se la mangia a colazione la 2080ti
Beato te che hai tutte queste certezze, al momento attuale la 2080ti è dal 30 al 50% di prestazioni superiori al miglior prodotto amd, e non è neppure il chip full.
Se big navi, di cui non sappiamo una cippa, andra più della 2080ti ne sarò piu che felice. Gli avanzamenti tecnologici si fanno in tempo di guerra o di competizione ed io preferisco la seconda, quindi ben venga concorrenza nel settore alto visto che manca da troppo tempo.
IMHO
Gyammy85
02-08-2019, 20:03
Beato te che hai tutte queste certezze, al momento attuale la 2080ti è dal 30 al 50% di prestazioni superiori al miglior prodotto amd, e non è neppure il chip full.
Se big navi, di cui non sappiamo una cippa, andra più della 2080 ne sarò piu che felice. Gli avanzamenti tecnologici si fanno in tempo di guerra o di competizione ed io preferisco la seconda, quindi ben venga concorrenza nel settore alto visto che manca da troppo tempo.
IMHO
Se navi 10 arriva a volte alla 2080 navi big minimo arriva alla 2080ti, non cominciamo con l'irraggiungibilità o coi prodotti nuovi di AMD che vanno al massimo come i vecchi
Se navi 10 arriva a volte alla 2080 navi big minimo arriva alla 2080ti, non cominciamo con l'irraggiungibilità o coi prodotti nuovi di AMD che vanno al massimo come i vecchi
Non mi sembra di aver detto che big navi non raggiungerà tu102, ma da li a mangiarselo a colazione come dice Duttz mi sembra utopistico.
IMHO
Ale55andr0
02-08-2019, 20:52
se raddoppiano le cu a pari clock o giù di più hbm 2 da 1tera di banda di certo non si limiterebbe a un +50% di performance sulla 5700xt...di conseguenza la 2080ti la farebbe a polpette, o perlomeno nei giochi in cui già oggi la 5700xt rulla. Ovvio che poi nvidia non starà a guardare e farà meglio con la 3080/ti
se raddoppiano le cu a pari clock o giù di più hbm 2 da 1tera di banda di certo non si limiterebbe a un +50% di performance sulla 5700xt...di conseguenza la 2080ti la farebbe a polpette, o perlomeno nei giochi in cui già oggi la 5700xt rulla. Ovvio che poi nvidia non starà a guardare e farà meglio con la 3080/ti
Infatti volevo dire questo, già si prospetta una 5800 com probabilmente 64cu e già la massima espressione potrebbe stare nel range 2080ti, magari poco sotto ( visto come si comporta la 5700 XT reference), quindi con 80cu dovrebbe passarla e non di poco, verrà fatta anche a 7nm+ e con il supporto/unità ray tracing.
What else.
Fateci galvanizzare che la strada sembra quella giusta. :)
Infatti volevo dire questo, già si prospetta una 5800 com probabilmente 64cu e già la massima espressione potrebbe stare nel range 2080ti, magari poco sotto ( visto come si comporta la 5700 XT reference), quindi con 80cu dovrebbe passarla e non di poco, verrà fatta anche a 7nm+ e con il supporto/unità ray tracing.
What else.
Fateci galvanizzare che la strada sembra quella giusta. :)
Tutto giusto, ma non tenete in considerazione i consumi. Con l'aumento delle risorse aumentano anche le richieste energetiche di pari passo e al momento non sembra che l'efficienza sia un punto di forza di navi. Secondo voi quanto consumerebbe con 80cu a 1900mhz?
IMHO
Gyammy85
02-08-2019, 21:13
Tutto giusto, ma non tenete in considerazione i consumi. Con l'aumento delle risorse aumentano anche le richieste energetiche di pari passo e al momento non sembra che l'efficienza sia un punto di forza di navi. Secondo voi quanto consumerebbe con 80cu a 1900mhz?
IMHO
potrebbero pure essere 72, o 64, tanto sempre 250-300 watt è il tdp
fraussantin
02-08-2019, 21:15
Una ipotetica Big Navi con 80cu se la mangia a colazione la 2080tiIl problema principale di 80 cu è raffreddarli . anche calando i clock ho paura che sarebbero wattaggi assurdi
AceGranger
02-08-2019, 21:22
se raddoppiano le cu a pari clock o giù di più hbm 2 da 1tera di banda di certo non si limiterebbe a un +50% di performance sulla 5700xt...di conseguenza la 2080ti la farebbe a polpette, o perlomeno nei giochi in cui già oggi la 5700xt rulla. Ovvio che poi nvidia non starà a guardare e farà meglio con la 3080/ti
l'anno prossimo con i 7nm+ si ma quest'anno mi sembra improbabile.
- la 2070 è una 5700 liscia ( 36CU ) ma con un'efficienza migliore del 10%.
- la Titan RTX è il doppio di una 2070 ma con frequenze inferiori e 280W di TDP.
ergo, con 72 CU a frequenze inferiori fai l'equivalente di una Titan RTX, mantieni un'efficienza peggiore del 10% ma rimani intorno a fattibili 300W di TDP.
Se la fanno, nVidia fara uscira la presunta 2080Ti Super a chip Full e 12 GB di Vram e se la giocheranno alla pari.
80 CU a pari frequenza, attualmente, le puoi fare solo se fai una GPU da 400W a liquido.
Ale55andr0
02-08-2019, 21:38
Infatti volevo dire questo, già si prospetta una 5800 com probabilmente 64cu e già la massima espressione potrebbe stare nel range 2080ti, magari poco sotto ( visto come si comporta la 5700 XT reference), quindi con 80cu dovrebbe passarla e non di poco, verrà fatta anche a 7nm+ e con il supporto/unità ray tracing.
What else.
Fateci galvanizzare che la strada sembra quella giusta. :)
guarda, se devono riproporre papale papale le solite 64cu/4geo/64rops preferisco piuttosto una 60cu 6geo 96rops
l'anno prossimo con i 7nm+ si ma quest'anno mi sembra improbabile.
- la 2070 è una 5700 liscia ( 36CU ) ma con un'efficienza migliore del 10%.
- la Titan RTX è il doppio di una 2070 ma con frequenze inferiori e 280W di TDP.
ergo, con 72 CU a frequenze inferiori fai l'equivalente di una Titan RTX, mantieni un'efficienza peggiore del 10% ma rimani intorno a fattibili 300W di TDP.
Se la fanno, nVidia fara uscira la presunta 2080Ti Super a chip Full e 12 GB di Vram e se la giocheranno alla pari.
80 CU a pari frequenza, attualmente, le puoi fare solo se fai una GPU da 400W a liquido.Le 80 saranno a 7nm+, adesso non so quale sarà il risparmio energetico rispetto al 7nm ma sicuramente ci sarà.
Edit:
L'avevi detto già tu, pardon.
AceGranger
02-08-2019, 21:42
Le 80 saranno a 7nm+, adesso non so quale sarà il risparmio energetico rispetto al 7nm ma sicuramente ci sarà.
Edit:
L'avevi detto già tu, pardon.
si, sui 7nm+ credo sia fattibile, magari non proprio a pari frequenza, ma è presumibile che sara questa la TOP AMD dell'anno prossimo.
Ale55andr0
02-08-2019, 21:43
Tutto giusto, ma non tenete in considerazione i consumi. Con l'aumento delle risorse aumentano anche le richieste energetiche di pari passo e al momento non sembra che l'efficienza sia un punto di forza di navi. Secondo voi quanto consumerebbe con 80cu a 1900mhz?
IMHO
tanto quanto siamo ormai abituati :asd:, ergo il problema non me lo pongo, se le prestazioni verranno fuori almeno sarà giustificato, una volta tanto :asd: e poi coi 7nm+ dovrebbe essere fattibile.... Cmq gia sui 1700 un simile chip rullerebbe abbestia, e poi il boost di picco è un valore etereo anche per la 5700xt e i suoi 1905 che di fatto in media sta sotto ma spinge bene uguale. Considerando quindi i numeri del "chippetto", mi aspetto grossomodo lo stessa proporzione da una ipotetica 80cu.
Cmq parliamo di aria fritta, tanto non ce la danno quest'anno :stordita:
si, sui 7nm+ credo sia fattibile, magari non proprio a pari frequenza, ma è presumibile che sara questa la TOP AMD dell'anno prossimo.Che poi mi ricordo bene un tizio di AMD che disse che avrebbero introdotto il ray tracing solo nel momento che tutte le fasce potevano avere prestazioni sufficienti...
Le solite supercazzole dei manager.
AMD partirà dalla top su rdna2, che poi già non ci capisco più una minchi@, perché poi dove si vuole finire?
Rdna2 darà la possibilità di salire ancora come prestazioni?
Quanto si potrà salire come prestazioni?
Perché se presenti una super ultracazz ray tracing, allora devi rimpiazzare tutte le fasce sotto che verranno occupate dalla attuale serie...
Del tipo anche le 5700 e le probabili 5800 avranno una vita di un anno come tecnologia, perché per il ray tracing bisognerà rimpiazzare tutte quelle che avranno prestazioni sufficienti. rdna2 quanto durerà?
Mi sa che AMD si sta Nvidiazzizando.
Ancora nessuna info certa per quanto riguarda la famiglia rx 5600?
Free Gordon
06-08-2019, 12:58
Che poi mi ricordo bene...CUT
Le features, anche le più rivoluzionarie, nella storia delle GPU sono sempre state introdotte a step.. e questa volta non farà eccezione.
Tutto quì... :)
Le dx10 cambiarono l'approccio alle primitive e quindi dovevano essere una rivoluzione e portandosi dietro lo unified shader dovevano essere una rivoluzione doppia. :rotfl:
Persino le 10.1 di AMD col tessellatore dovevano essere una rivoluzione. :sofico:
Le dx11 NON dovevano essere una rivoluzione.... :asd:
Le dx12 dovevano essere una rivoluzione che è da 3 anni che è partita (tranki che prima o poi arriva :sofico: ) ma ancora nessuno se n'è accorto :asd: e nessuna testa è saltata dalla ghigliottina. :D
And so on.....
Se guardiamo oggi un gioco dx9 di 12 anni fa' come crisi1...potremmo quasi scambiarlo per un gioco "moderno".. :)
Sapphire pulse 5700XT
https://i.ibb.co/Bj3Xdg8/SAPPHIRE-RX-5700-XT-PULSE-2.jpg (https://imgbb.com/)
https://i.ibb.co/THtmFnN/SAPPHIRE-RX-5700-XT-PULSE-1.jpg (https://imgbb.com/)
disponibile dal 30 agosto per 2999$
Lo ha detto la stessa nvidia, prima del 2023 nessuno richiederà una vga RT (ergo, il gioco NON parte), in questi cinque anni significa che amd ha tutto il tempo di decidere la migliore strategia per implementare RT nelle proprie schede mentre nvidia lo deve portare avanti a forza...... vedremo......
Thricome82
07-08-2019, 08:41
Sapphire pulse 5700XT
https://i.ibb.co/Bj3Xdg8/SAPPHIRE-RX-5700-XT-PULSE-2.jpg (https://imgbb.com/)
https://i.ibb.co/THtmFnN/SAPPHIRE-RX-5700-XT-PULSE-1.jpg (https://imgbb.com/)
disponibile dal 30 agosto per 2999$
A me risulta £428.99 su Overclockers uk
mirkonorroz
07-08-2019, 08:44
Ma infatti è questo il punto, le innovazioni per essere adottate devono:
a) farti risparmiare tempo/soldi (ed è qui che nvidia lavora bene, manda i suoi ingegneri a fare l'ottimizzazione al posto della SH nei progetti più importanti e quindi si garantisce ampia adesione alle proprie tecnologie... quando Huang diceva che la sua azienda fa sw più che hw secondo me si riferiva a questo)
b) essere talmente spettacolari da rendere "brutto" ciò che non usa l'innovazione - ergo vendibile a prezzo inferiore sul mercato.
Se nessuna di queste due cose è vera io posso poi anche fare un gioco con una grafica "standard" usando l'UE4 come fan tutti, minimizzo l'investimento tecnologico (e i rischi di progetto) e so che non otterrò mai niente di troppo lontano da quello che fa il resto del mercato, quindi ok: avrò una grafica nella media e punterò su altro per vendere il mio gioco.
Cmq credo che il raytracing la spunterà, perchè per gli sviluppatori è un modo più semplice ed elegante di lavorare... ma ci vorrà del tempo e non è detto che i risultati siano sempre migliori.
Per intenderci: se oggi il riflesso "fake" viene "dipinto a mano" col pennello, la resa artistica del riflesso fake è sempre quella desiderata da chi sta facendo il gioco. Ma se da domani il riflesso è calcolato (perchè si fa prima e quindi si risparmiano soldi) la resa artistica non la decide il "pittore", si prende quello che la fisica simulata fornisce e fine, non c'è un artista che si prende la libertà di far brillare più forte la spada del protagonista, c'è un algoritmo che fa dei calcoli in base alle fonti di luce.
Se da una parte e' vero che sia lato tecnico (assicurarsi che non vi siano artefatti dovuti a certi parametri) che artistico (il risultato che ottengo e' "piatto"/matematico) ci sara' da vedere cosa succedera', c'e' da dire anche che dipende sempre da quello che voglio ottenere: poi che gli sviluppatori diventino ancora piu' pigri di quello che gia' tendono ad essere, non possiamo farci nulla.
Esistera' sempre la possibilita' del post processing o dell'applicazione di effetti che non seguono la fisica in modo rigoroso, selezionando o deselezionando i vari target/oggetti nelle varie applicazioni. Se voglio la spada piu' sbrilluccicante gli attacco un glow o un bloom etc.
Si possono creare shaders che non rispettino la conservazione dell'energia.
In ogni caso a me piacerebbe che ad un certo punto si riuscisse ad avere anche un solo gioco calcolato il piu' rigorosamente possibile.
La realta' fisica della natura ci da essa stessa dei risultati spettacolari: a volte il post processing risulta inutile e deleterio e rovina la fonte originaria. Inoltre il post processing "per migliorare" diventa una cosa soggettiva: per questo sarebbe sempre auspicabile avere molte opzioni grafiche da gestire direttamente dal gioco.
Mi piacerebbe che pari passo con lo sviluppo grafico si sviluppasse anche la fisica meccanica, ma non voglio andare troppo OlT
EDIT:
Molto interessante la Pulse. Ci sto pensando (nonostante la mia CPU: non uso molti giochi cpu limited, almeno credo) visto che la 5700xt sembra andare spesso quasi il doppio della mia...
A me risulta £428.99 su Overclockers uk
prezzo del loro preorder si
il 2999$ era ironico :stordita:
mirkonorroz
07-08-2019, 08:53
prezzo del loro preorder si
il 2999$ era ironico :stordita:
O 3000 o niente! :O :D
Thricome82
07-08-2019, 08:58
prezzo del loro preorder si
il 2999$ era ironico :stordita:
Pensavo fosse un errore e che tu volessi scrivere 299..
majinbu7
07-08-2019, 09:35
Qualche news leak sulla 5800 ?
Qualche news leak sulla 5800 ?
niente di niente
Ale55andr0
07-08-2019, 17:31
Lo ha detto la stessa nvidia, prima del 2023 nessuno richiederà una vga RT (ergo, il gioco NON parte), in questi cinque anni significa che amd ha tutto il tempo di decidere la migliore strategia per implementare RT nelle proprie schede mentre nvidia lo deve portare avanti a forza...... vedremo......
ehm, le console escno prima del 2023 e la loro tecnologia sarà in parte dentro le gpu pc....
Ale55andr0
07-08-2019, 17:33
Qualche news leak sulla 5800 ?
se ti accontenti di elucubrazioni magari staranno sui 60cu come la VII, ma con finalmente 6 raster e 96rop. Cio' che esce prima del lancio ufficiale non è quasi mai un leak, ma speculazioni come le nostre, che il più delle volte sono stronzate.
Ale55andr0
07-08-2019, 19:30
soltanto? scaffaleeeh :O
in attesa della 80cu 8 raster 128 rop :O
insomma la 60 sarebbe la midrange per barboni :O
in attesa della 80cu 8 raster 128 rop :O
insomma la 60 sarebbe la midrange per barboni :O
Tvoppo povevy :O
Free Gordon
08-08-2019, 03:34
Qualche news leak sulla 5800 ?
La 5800 al 90% sarà basata su RDNA1...e quindi sarà un'ennesima RI-edizione di Fiji in salsa moderna.
64CU (32+32), 256TU e 64RBE @1800mhz
a corredo 8/16GB GDDR6.
C'è da capire come faranno col bus, non hanno abbastanza banda con i 256bit... imho. Potrebbero usare un bus a 384bit come in Tahiti.. c'è da capire come collegheranno le RBE però.
Se un chip così arrivasse entro fine anno in volumi buoni, SKU custom da subito, non sarebbe mica male...
I consumi sarebbero altini ma potrebbe rubare lo scettro della fascia alta alla 2080Super.
La 2080Ti non è raggiungibile con questo chip.
majinbu7
08-08-2019, 07:33
La 5800 al 90% sarà basata su RDNA1...e quindi sarà un'ennesima RI-edizione di Fiji in salsa moderna.
64CU (32+32), 256TU e 64RBE @1800mhz
a corredo 8/16GB GDDR6.
C'è da capire come faranno col bus, non hanno abbastanza banda con i 256bit... imho. Potrebbero usare un bus a 384bit come in Tahiti.. c'è da capire come collegheranno le RBE però.
Se un chip così arrivasse entro fine anno in volumi buoni, SKU custom da subito, non sarebbe mica male...
I consumi sarebbero altini ma potrebbe rubare lo scettro della fascia alta alla 2080Super.
La 2080Ti non è raggiungibile con questo chip.
Direi che sarebbe già un'ottimo risultato, per le prestazioni enthusiast si può aspettare tranquillamente il 2020 inoltrato :)
mircocatta
08-08-2019, 07:52
La 5800 al 90% sarà basata su RDNA1...e quindi sarà un'ennesima RI-edizione di Fiji in salsa moderna.
64CU (32+32), 256TU e 64RBE @1800mhz
a corredo 8/16GB GDDR6.
C'è da capire come faranno col bus, non hanno abbastanza banda con i 256bit... imho. Potrebbero usare un bus a 384bit come in Tahiti.. c'è da capire come collegheranno le RBE però.
Se un chip così arrivasse entro fine anno in volumi buoni, SKU custom da subito, non sarebbe mica male...
I consumi sarebbero altini ma potrebbe rubare lo scettro della fascia alta alla 2080Super.
La 2080Ti non è raggiungibile con questo chip.
sicuro? un chip del genere imho sarebbe più vicino alla 2080ti che alla 2080S
se venduto a prezzi umani (600/700€) andrà via come il pane
Che sia o meno con RT poco importa, finchè non ci sono giochi con RT non RTX è anche inutile avere l'RT su una rossa. sta alle sh svegliarsi, non ad amd.
Detto questo imho lisa su ci fa la sorpresina di presentare il 3950x assieme alla serie 5800 :O
fraussantin
08-08-2019, 08:01
sicuro? un chip del genere imho sarebbe più vicino alla 2080ti che alla 2080S
se venduto a prezzi umani (600/700€) andrà via come il pane
Che sia o meno con RT poco importa, finchè non ci sono giochi con RT non RTX è anche inutile avere l'RT su una rossa. sta alle sh svegliarsi, non ad amd.
Detto questo imho lisa su ci fa la sorpresina di presentare il 3950x assieme alla serie 5800 :O
Guarda che se i giochi verdi hanno RT è perchè Nvidia ha sganciato Big Money non perchè i loro creatori si sono svegliati bene una mattina.
E se amd non completa lo sviluppo di un suo metodo per le sue GPU come puoi pretendere che se lo inventino i dev.
In ogni caso è sicuro che il metodo verde non venga prima o poi sbloccato anche sulle GPU rosse? ( Emulato ovvio)
Gyammy85
08-08-2019, 08:09
La 5800 al 90% sarà basata su RDNA1...e quindi sarà un'ennesima RI-edizione di Fiji in salsa moderna.
64CU (32+32), 256TU e 64RBE @1800mhz
a corredo 8/16GB GDDR6.
C'è da capire come faranno col bus, non hanno abbastanza banda con i 256bit... imho. Potrebbero usare un bus a 384bit come in Tahiti.. c'è da capire come collegheranno le RBE però.
Se un chip così arrivasse entro fine anno in volumi buoni, SKU custom da subito, non sarebbe mica male...
I consumi sarebbero altini ma potrebbe rubare lo scettro della fascia alta alla 2080Super.
La 2080Ti non è raggiungibile con questo chip.
Mah, la 2080ti sta nel range dal 30 al 40% sopra, una big navi la piglia senza troppi problemi. Ricordo a tutti che ha prestazioni praticamente da 2080, dato che la 2070s è tu104
mircocatta
08-08-2019, 08:16
Guarda che se i giochi verdi hanno RT è perchè Nvidia ha sganciato Big Money non perchè i loro creatori si sono svegliati bene una mattina.
E se amd non completa lo sviluppo di un suo metodo per le sue GPU come puoi pretendere che se lo inventino i dev.
In ogni caso è sicuro che il metodo verde non venga prima o poi sbloccato anche sulle GPU rosse? ( Emulato ovvio)
capisci a me che non si può andare avanti di mazzette per implementare tecnologie, concetto imho sbagliatissimo
nulla da dire sulla mossa nvidia, è stato un "ottimo" input nel mercato videoludico, ma personalmente spero che in futuro vedremo più RT per tutti piuttosto che solo rtx
fraussantin
08-08-2019, 08:30
capisci a me che non si può andare avanti di mazzette per implementare tecnologie, concetto imho sbagliatissimo
nulla da dire sulla mossa nvidia, è stato un "ottimo" input nel mercato videoludico, ma personalmente spero che in futuro vedremo più RT per tutti piuttosto che solo rtxNon si tratta solo di mazzette ,che ovviamente ci saranno state, è proprio Nvidia che ha sviluppato la tecnologia( o almeno quella versione di tecnologia) e con i suoi ingegneri ha dato una mano ad implementarla nei giochi . Bene o male con tutti i meriti e le colpe del caso.
Se aspetti i dev campa cavallo... Poi su PC.
In ogni caso tutto quello che abbiamo visto in rtx oggi poteva benissimo essere fatto senza anche se non allo stesso livello cmq in modo apprezzabile.
Nvidia sta adottando la politica :tolgo i vecchi metodi e ti faccio vedere cosa fa rtx..
Non si tratta solo di mazzette ,che ovviamente ci saranno state, è proprio Nvidia che ha sviluppato la tecnologia( o almeno quella versione di tecnologia) e con i suoi ingegneri ha dato una mano ad implementarla nei giochi . Bene o male con tutti i meriti e le colpe del caso.
Se aspetti i dev campa cavallo... Poi su PC.
In ogni caso tutto quello che abbiamo visto in rtx oggi poteva benissimo essere fatto senza anche se non allo stesso livello cmq in modo apprezzabile.
Nvidia sta adottando la politica :tolgo i vecchi metodi e ti faccio vedere cosa fa rtx..
Sicuramente ai Remedy staranno fischiando le orecchie :asd:.
Free Gordon
08-08-2019, 13:59
Mah, la 2080ti sta nel range dal 30 al 40% sopra, una big navi la piglia senza troppi problemi. Ricordo a tutti che ha prestazioni praticamente da 2080, dato che la 2070s è tu104
la 2080Ti fa il 45% in più della 5700XT (senza Anno 1800).
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-2560-1440
E' una mostruosità..
Con quel chip che ho descritto sopra non la prendi. :)
Come lo tiri fuori un 45% medio con quei valori teorici (massimi) di fillrate e banda che potrebbe avere un chip del genere..?
Ok la potenza matematica è lì lì.., ok le texture unit velocissime ma il resto come lo pareggi?
La vedo dura..
Free Gordon
08-08-2019, 13:59
Sicuramente ai Remedy staranno fischiando le orecchie :asd:.
vero... :sofico: :sofico: :sofico:
fraussantin
08-08-2019, 14:06
Sicuramente ai Remedy staranno fischiando le orecchie :asd:.Ma dai è vergognoso spero che escano delle mod che ci mettano tutto quel che ci doveva essere senza rtx
mikael84
08-08-2019, 14:14
Mah, la 2080ti sta nel range dal 30 al 40% sopra, una big navi la piglia senza troppi problemi. Ricordo a tutti che ha prestazioni praticamente da 2080, dato che la 2070s è tu104
Ma dove le vedi le prestazioni da 2080 (forza horizon non è la media, come non lo è ace combat).
E' come dire che la 2060 è la stessa cosa della 5700xt, considerando i titoli pro.
Attualmente non è allineata neppure alla pari 2070 super
https://www.hwupgrade.it/articoli/skvideo/5491/andamento_comparato.png
la 2080Ti fa il 45% in più della 5700XT (senza Anno 1800).
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-2560-1440
E' una mostruosità..
Con quel chip che ho descritto sopra non la prendi. :)
Come lo tiri fuori un 45% medio con quei valori teorici (massimi) di fillrate e banda che potrebbe avere un chip del genere..?
Ok la potenza matematica è lì lì.., ok le texture unit velocissime ma il resto come lo pareggi?
La vedo dura..
Qua il problema si complica, sia per nvidia che per AMD, in quanto comincia il problema dello scaling degli shader.
Senza andare di HBM, la soluzione per levare il limite alle 64 rop's, è adottare un bus asincrono a 384bit, in modo da fornire una sufficiente banda, considerando che il target si sposta verso il 4k, o il chip scala male, vedi la VII;)
Un chip da 3200/3584st e 384bit potrebbe essere tranquillamente l'anti 2080 full (super).
Con 4096 potrebbe pendere tra la 2080ti e la 2080 in base ai giochi ed al clock.:)
Gyammy85
08-08-2019, 14:22
Facendo un calcolo alla buona, vega 64 fa+70% su una 580, avendo il 70% di cu in più (ok la radeon 7 ne ha 60 e va il doppio, ma vega 64 ha praticamente gli stessi clock di una 580, giusto 100 mhz in più)
Ora qui ci troviamo di fronte a una gpu con 40 cu che doppia praticamente una 580 da 36 trovandosi spesso in zona radeon 7, mi sembra il minimo che una gpu da 60 cu navi vada minimo il 40% in più di una radeon 7 superando quindi una 2080ti
mikael84
08-08-2019, 14:42
Facendo un calcolo alla buona, vega 64 fa+70% su una 580, avendo il 70% di cu in più (ok la radeon 7 ne ha 60 e va il doppio, ma vega 64 ha praticamente gli stessi clock di una 580, giusto 100 mhz in più)
Ora qui ci troviamo di fronte a una gpu con 40 cu che doppia praticamente una 580 da 36 trovandosi spesso in zona radeon 7, mi sembra il minimo che una gpu da 60 cu navi vada minimo il 40% in più di una radeon 7 superando quindi una 2080ti
Vega64 è essenzialmente il doppio esatto della 580, in shader (tf 6/12), TMU (x clock), rop's, geometria uguale, ma con aggiunta di DSBR e clock, BW doppia, FP16 doppio ratio, shader intrics.
Una ipotetica 5800, essendo davvero realisti potrà avere 4096st, stesse rop's, e BW probabilmente scalata sui 384bit.
Se con 2560st non pareggi mediamente la rivale con 2560cc, dubito che con 3840st, superi una da 4352cc, consderando pure l'ambiente 4k, e le rop's.
Di certo lato shader se la potrà giocare con la 2080ti in alcuni scenari, ma di certo non in tutti.
Potrebbe essere una bella sorpresa lo scaling a 6 engine, ma ci credo poco ormai, sopratutto in questa gen.
fraussantin
08-08-2019, 15:25
Vega64 è essenzialmente il doppio esatto della 580, in shader (tf 6/12), TMU (x clock), rop's, geometria uguale, ma con aggiunta di DSBR e clock, BW doppia, FP16 doppio ratio, shader intrics.
Una ipotetica 5800, essendo davvero realisti potrà avere 4096st, stesse rop's, e BW probabilmente scalata sui 384bit.
Se con 2560st non pareggi mediamente la rivale con 2560cc, dubito che con 3840st, superi una da 4352cc, consderando pure l'ambiente 4k, e le rop's.
Di certo lato shader se la potrà giocare con la 2080ti in alcuni scenari, ma di certo non in tutti.
Potrebbe essere una bella sorpresa lo scaling a 6 engine, ma ci credo poco ormai, sopratutto in questa gen.Se costerà un prezzo onesto andrà bene ai più.
Tipo prezzo da 2080 con prestazioni tra 2080 e 2080ti.
Sempre se non arriverà ampere subito dopo .
mikael84
08-08-2019, 15:35
Se costerà un prezzo onesto andrà bene ai più.
Tipo prezzo da 2080 con prestazioni tra 2080 e 2080ti.
Sempre se non arriverà ampere subito dopo .
Un chip del genere sarebbe relativamente molto valido, tralasciando la mancanza di RT che su una certa fascia non è trascurabile. Tuttavia quello ad oggi è il male minore, ma se i costi saranno altini, non lo vedo molto conveniente considerando la troppa vicinanza tra Ampere e Navi7nm+ con RT.
fraussantin
08-08-2019, 17:07
Un chip del genere sarebbe relativamente molto valido, tralasciando la mancanza di RT che su una certa fascia non è trascurabile. Tuttavia quello ad oggi è il male minore, ma se i costi saranno altini, non lo vedo molto conveniente considerando la troppa vicinanza tra Ampere e Navi7nm+ con RT.Si ma tanto andranno ad utenza consapevole e non interessata ad RT.
Sotto i 700 con prestazioni "quasi" da TI dirà il fatto suo.
Sempre se esce a gennaio.
Se arriva a estate è tempo perso
PS ho scritto sotto i 700 perchè secondo me il prezzo sarà quello. Visto che vendevano la vii a 700 750 euro con le hbm2 costose e chip diciamo simile come tecnologia e dimensioni.
Dopo 1 anno dovrebbe essere meno costosi farla e immagino che non si sforerànno i 700 euro ( non dollari) anche se avrà le solite 16 hbm2
mikael84
08-08-2019, 18:44
Si ma tanto andranno ad utenza consapevole e non interessata ad RT.
Sotto i 700 con prestazioni "quasi" da TI dirà il fatto suo.
Sempre se esce a gennaio.
Se arriva a estate è tempo perso
PS ho scritto sotto i 700 perchè secondo me il prezzo sarà quello. Visto che vendevano la vii a 700 750 euro con le hbm2 costose e chip diciamo simile come tecnologia e dimensioni.
Dopo 1 anno dovrebbe essere meno costosi farla e immagino che non si sforerànno i 700 euro ( non dollari) anche se avrà le solite 16 hbm2
Per i costi, molto dipenderà dall'utilizzo di bus e ram. Considerando che il chip con 4096st non sarà molto distante da quello della VII.
Con le ddr6, rimanendo con 64 rop's, un bus a 384bit non sarebbe male.
Per le HBM 3 troppo presto?
Per le HBM3 si parla di produzione a 2020 inoltrato. Tuttavia è presto per quelle ram, la samsung non ha a listino neppure le flashbolt (le più veloci hbm2).
Attualmente anche qua, come succede nelle ddr6 si sta incappando nella lentezza di innovazione delle varie Hynix (hbm2)/micron (ddr6).
la hynix è ferma agli stack da 256 gb/s, mentre la Samsung ha le Aquabolt capaci di 307 gb/s per stack, ma non vengono utilizzate, altrimenti perderesti la concorrenza.
Così come le ddr6 16gb/s, attualmente installate solo nella 2080 super.:)
Ale55andr0
08-08-2019, 19:08
Sempre se esce a gennaio.
Se arriva a estate è tempo perso
sticazzi, la 5800, se esce, deve uscire quest'anno, il prossimo mi aspetto il cippone full :O
mircocatta
08-08-2019, 21:56
Un chip del genere sarebbe relativamente molto valido, tralasciando la mancanza di RT che su una certa fascia non è trascurabile. Tuttavia quello ad oggi è il male minore, ma se i costi saranno altini, non lo vedo molto conveniente considerando la troppa vicinanza tra Ampere e Navi7nm+ con RT.
discorso che facevo pochi post fa, amd può anche inserire unità dedicate per il RT e avere la potenza ideale per fare ray tracing puro a 144fps 4k, ma oggigiorno ti ci spazzeresti il :ciapet: mancano i giochi con RT che non sia RTX
Gigibian
08-08-2019, 22:02
discorso che facevo pochi post fa, amd può anche inserire unità dedicate per il RT e avere la potenza ideale per fare ray tracing puro a 144fps 4k, ma oggigiorno ti ci spazzeresti il :ciapet: mancano i giochi con RT che non sia RTX
Veramente Mikael ha detto che non é trascurabile la mancanza dell'RT in una certa fascia :fagiano:
mircocatta
08-08-2019, 22:04
Veramente Mikael ha detto che non é trascurabile la mancanza dell'RT in una certa fascia :fagiano:
e io sto dicendo che invece lo è, perchè anche ci fossero unità dedicate su una amd, non le useresti oggi e neanche nel prossimo futuro (2020)
o mi son perso titoli che annunciano di usare RT "per tutti" ?
fraussantin
08-08-2019, 22:32
e io sto dicendo che invece lo è, perchè anche ci fossero unità dedicate su una amd, non le useresti oggi e neanche nel prossimo futuro (2020)
o mi son perso titoli che annunciano di usare RT "per tutti" ?
ovviamente quando amd caccerà fuori HW RT in accordo con SH ci saranno giochi che la sfrutteranno.
se non ne sentite parlare di questi game , è perchè appunto non ci sarà rt nelle gpu imminenti.
mikael84
08-08-2019, 23:01
discorso che facevo pochi post fa, amd può anche inserire unità dedicate per il RT e avere la potenza ideale per fare ray tracing puro a 144fps 4k, ma oggigiorno ti ci spazzeresti il :ciapet: mancano i giochi con RT che non sia RTX
Si è vero che per ora l'RT non è tutto visto i giochi attuali, però su un chip supponiamo a cavallo tra 2080s e 2080ti è di certo una mancanza. Tuttavia il punto non è propriamente questo, se si tira per le lunghe, potrebbe essere troppo ravvicinato ad rdna2 o ampere (2080/s sarà una 3060 per dire).:)
Se tale chip dovesse arrivare nel q4 o q1 2020, tu che fai, aspetti la navi RT, o prendi questa? Nella stessa ipotesi ci metto chi magari, sapendo date su ampere e prende una 2080s sovraprezzata, che diventerà 3060:)
Gigibian
09-08-2019, 06:33
e io sto dicendo che invece lo è, perchè anche ci fossero unità dedicate su una amd, non le useresti oggi e neanche nel prossimo futuro (2020)
o mi son perso titoli che annunciano di usare RT "per tutti" ?
Non sono d'accordo...in rise, Shadow, metro, e tanti altri giochi io lo userei eccome l'RT :)
AMD se deve fare uscire un'architettura RT per forza di cose SARÀ LA STESSA compatibile con Nvidia. Ormai ha perso il carro per inventarsi delle API sue proprietarie.
Cyberpunk ha adottato quelle di Nvidia e AMD si deve adeguare purtroppo.
fraussantin
09-08-2019, 06:46
Non sono d'accordo...in rise, Shadow, metro, e tanti altri giochi io lo userei eccome l'RT :)
AMD se deve fare uscire un'architettura RT per forza di cose SARÀ LA STESSA compatibile con Nvidia. Ormai ha perso il carro per inventarsi delle API sue proprietarie.
Cyberpunk ha adottato quelle di Nvidia e AMD si deve adeguare purtroppo.Quello che non ho capito è se Nvidia ha bloccato il "suo" rtx alle GPU verdi come il gsync , ansel ecc o se permette di usarlo ( SW) anche su altre come altri effetti grafici gworks.
Perchè se sono liberi di usarlo ad amd gli basta" solo" creare una GPU con più unità dedicate , o cmq più potenza di calcolo RT rispetto ad Nvidia e pareggiare i conti.
Nel frattempo portare avanti l'altra tecnologia rossa e usarla nei loro giochi.
Diversamente ( e spero di no perchè sarebbe da antitrust) possono farsi tutte le GPU che vogliono se i giochi principali sono verdi chi vuole RT non avrà da scegliere.
mircocatta
09-08-2019, 08:00
allora mi sa che qualcuno, o io o voi, non ha capito bene la questione.
se fosse come dite avremmo già l'rtx attivabile su radeon VII - vega56/64 - rx5700 come lo è sulle pascal, ma così non è e non credo che lo sarà in futuro
il discorso imho è abbastanza semplice:
nvidia ha introdotto per la prima volta il RT attivabile solo sulle sue schede, ha pagato mazzette (o meglio, ha sviluppato un software proprietario (che sfrutta le dxr) da vendere agli sviluppatori di videogame) per poter introdurre tale tecnica in alcuni giochi.
amd sa che non può attivare questo RTX (che sono blindate come fu physx, gsync e compagnia bella) e sa che questo RTX probabilmente morirà non appena avremo le nuove console, con videogiochi sviluppati con RT che girerà sia su console che su pc (che sia fatto in casa dalle sh o fornito da amd non posso sapero, vedremo), percui, perchè mettersi fretta nel far uscire schede con unità dedicate al real tracing quando poi non verrebbero (letteralmente) usate? tanto vale aspettare le console nuove, non potendo fare diversamente
l'esempio più lampante è la tech demo di crytek: ha inserito nel suo motore grafico una sua tecnologia RT funzionante su tutte le schede ed è quello che imho tra un paio d'anni vedremo un po da tutti: software sviluppato in casa che si appoggia alle dxr e funzionante sia per console e pc
altro esempio sono gli anti aliasing o ambient occlusion: tante tecniche "standard" e qualche gioco che supporta anche le tecniche sviluppate e attivabili solo da amd o nvidia
se le cose non stanno così allora non capisco perchè già oggi non possiamo vedere una radeon VII con RTX attivo, girerebbe da schifo ok, ma almeno girerebbe
Gyammy85
09-08-2019, 08:52
Io avevo capito che le API sono fatte da Microsoft.
Mi aspetterei quindi che AMD debba "solo" fare in modo che il proprio hw sia in grado di supportare le chiamate fatte alle API garantendo prestazioni decenti.
Che lo faccia con unità generiche che consumano 500W, con unità dedicate di propria concezione completamente diverse da quelle Nvidia, o con una chiamata del driver a un supercomputer in Cloud... poco dovrebbe importare, i giochi dovrebbero cmq permetterti di usare il RT(con prestazioni diverse probabilmente).
Sbaglio qualche cosa???
Inviato dal mio SM-N960F utilizzando Tapatalk
Infatti le api le fa microsoft, sono i produttori poi a decidere quali istruzioni supportare
Vega supporta il set più completo, più di pascal e qualcosina più di turing che però ha il dxr (anche se non è chiaro dato che amd dovrebbe far andare il direct ml)
Il fatto è che rtx si appoggia si a dxr, ma funziona via unità dedicate, quindi con tutta una serie di istruzioni ad hoc...questo spiega il perché dxr possa funzionare pure su pascal ma non su amd, è nvidia che con un workaround lo fa funzionare sui cuda core
Insomma c'è molta confusione
Roland74Fun
09-08-2019, 09:02
.....
amd sa che .......... questo RTX probabilmente morirà non appena avremo le nuove console, con videogiochi sviluppati con RT che girerà sia su console che su pc ....., per cui, perchè mettersi fretta nel far uscire schede con unità dedicate al real tracing quando poi non verrebbero (letteralmente) usate?
Mmmh.... interessante....
mircocatta
09-08-2019, 09:10
Mmmh.... interessante....
mi stai trollando, lo so :asd: abbiate pietà, vengo da una lunga settimana di lavoro sotto il sole :asd:
la faccio in breve: quando avremo rdna2 con unità dedicate su bfV, metro, quake, control ecc ecc continueremo a non vedere attivabile la "barretta" per attivare le rtx :oink:
Andy1111
09-08-2019, 09:31
Non sono d'accordo...in rise, Shadow, metro, e tanti altri giochi io lo userei eccome l'RT :)
AMD se deve fare uscire un'architettura RT per forza di cose SARÀ LA STESSA compatibile con Nvidia. Ormai ha perso il carro per inventarsi delle API sue proprietarie.
Cyberpunk ha adottato quelle di Nvidia e AMD si deve adeguare purtroppo.
Guarda che le API DX12 e vulkan per RT non sono di nvidia .
esempio :
https://vulkan-tutorial.com/
https://www.khronos.org/members/list
aggiungo come hanno scritto qua https://www.reddit.com/r/linux_gaming/comments/c6q54t/amd_patents_hybrid_ray_tracing_solution/ :
Vulkan has had ray tracing support since before the Windows 10 update that added DXR. There's already shipping projects using it (Quake 2 RTX, some test utilities mostly, but also Doom Eternal coming).
As someone else said, RTX is just Nvidia's branding, it doesn't have or use a proprietary API in games. They do have some CUDA bindings for professional use but for gaming both major APIs have solutions available to all vendors.
AceGranger
09-08-2019, 09:58
allora mi sa che qualcuno, o io o voi, non ha capito bene la questione.
se fosse come dite avremmo già l'rtx attivabile su radeon VII - vega56/64 - rx5700 come lo è sulle pascal, ma così non è e non credo che lo sarà in futuro
il discorso imho è abbastanza semplice:
nvidia ha introdotto per la prima volta il RT attivabile solo sulle sue schede, ha pagato mazzette (o meglio, ha sviluppato un software proprietario (che sfrutta le dxr) da vendere agli sviluppatori di videogame) per poter introdurre tale tecnica in alcuni giochi.
amd sa che non può attivare questo RTX (che sono blindate come fu physx, gsync e compagnia bella) e sa che questo RTX probabilmente morirà non appena avremo le nuove console, con videogiochi sviluppati con RT che girerà sia su console che su pc (che sia fatto in casa dalle sh o fornito da amd non posso sapero, vedremo), percui, perchè mettersi fretta nel far uscire schede con unità dedicate al real tracing quando poi non verrebbero (letteralmente) usate? tanto vale aspettare le console nuove, non potendo fare diversamente
l'esempio più lampante è la tech demo di crytek: ha inserito nel suo motore grafico una sua tecnologia RT funzionante su tutte le schede ed è quello che imho tra un paio d'anni vedremo un po da tutti: software sviluppato in casa che si appoggia alle dxr e funzionante sia per console e pc
altro esempio sono gli anti aliasing o ambient occlusion: tante tecniche "standard" e qualche gioco che supporta anche le tecniche sviluppate e attivabili solo da amd o nvidia
se le cose non stanno così allora non capisco perchè già oggi non possiamo vedere una radeon VII con RTX attivo, girerebbe da schifo ok, ma almeno girerebbe
ti sei fatto un'idea totalmente sbagliata di come funzioni l'RT.
guarda che l'attuale RT dei giochi è tutto DXR di microsoft o Vulkan, la parte di nVidia sono solo driver e poco codice per far funzionare gli RT core, in mancanza di queste unita intervengono i driver per fare lo stesso calcolo sui CUDA core, vedasi Pascal.
AMD potrebbe fare tranquillamente i suoi driver/codice e far andare i giochi attuali RT sulle sue GPU, non lo fa soltanto perche sarebbe solo publicita negativa e nVidia lo ha fatto proprio per far vedere che sono necessarie unita pensate appositamente per quello.
non ho capito cosa credi che facciano gli RT core... guarda che fanno SOLO e SOLTANTO il calcolo delle traiettorie; quello che hanno fatto in questi mesi gli sviluppatori di Game Engine è stato quello di integrare le DXR di Microsoft e dire ai rispettivi motori come fare i nuovi calcoli e come gestire le nuove operazioni, non è che hanno integrato chissa quanto fantomatico codice di nVidia...
lo ha spiegato anche nVidia con le slide durante la presentazione, il suo RTX si basa su: Optix/DXR/Vulkan.
l'unico proprietario è Optix ma è una piattaforma che riguarda solo i motori di render professionali.
la parte sugli sviluppatori poi è senza senso; io mi occupo di altro ma se domani mi mettessi a vendere un videogioco non dovrei pagare un cazz a nVidia, l'RT è libero, lo attivo con 2 click nell'Unreal Engine e dopo i 3000 dollari pagherei le stesse identiche royalty; e vale per tutti i game engine; ed EPYC GAMES è anzi piu probabile che li abbia ricevuti i soldi per integrarlo in tempo zero, visto che è stata una delle implementazioni piu veloci mai viste...
Il ray tracing non è di nvidia, lo è la sua implementazione (RTX) usando le DX12 di microsoft
AMD non è interessata (mettiamola così) e nel frattempo aumenta le prestazioni della propria uarch su scenari classici per poi declinarla anche per l'aspetto RT in un secondo tempo
se nvidia avesse pushato sulla solita roadmap amd sarebbe stata indietro di due generazioni, grazie nvidia!
Free Gordon
09-08-2019, 10:39
Qua il problema si complica, sia per nvidia che per AMD, in quanto comincia il problema dello scaling degli shader.
Senza andare di HBM, la soluzione per levare il limite alle 64 rop's, è adottare un bus asincrono a 384bit, in modo da fornire una sufficiente banda, considerando che il target si sposta verso il 4k, o il chip scala male, vedi la VII;)
Un chip da 3200/3584st e 384bit potrebbe essere tranquillamente l'anti 2080 full (super).
Con 4096 potrebbe pendere tra la 2080ti e la 2080 in base ai giochi ed al clock.:)
Il problema è proprio quello.. che efficienza può avere un bus asincrono del genere, rispetto al 256bit di Navi?
Il chip da 64CU avrebbe richieste ben diverse che difficilmente con un bus del genere riusciresti a soddisfare, infatti con la VII hanno fatto un bump enorme rispetto a Vega64 solo grazie al bus con HBM...senza fare nient'altro; e oltretutto Vega64 è un chip molto inefficiente rispetto a Navi lato shader.
Un chip con 64CU e tecnologia RDNA avrà ancora più richieste di banda...
Come dici tu potrebbe stare tra 2080 e Ti..ma non penso sarebbe una rivale vera della Ti una scheda del genere.
Vega64 è essenzialmente il doppio esatto della 580, in shader (tf 6/12), TMU (x clock), rop's, geometria uguale, ma con aggiunta di DSBR e clock, BW doppia, FP16 doppio ratio, shader intrics.
Una ipotetica 5800, essendo davvero realisti potrà avere 4096st, stesse rop's, e BW probabilmente scalata sui 384bit.
Se con 2560st non pareggi mediamente la rivale con 2560cc, dubito che con 3840st, superi una da 4352cc, consderando pure l'ambiente 4k, e le rop's.
Di certo lato shader se la potrà giocare con la 2080ti in alcuni scenari, ma di certo non in tutti.
Potrebbe essere una bella sorpresa lo scaling a 6 engine, ma ci credo poco ormai, sopratutto in questa gen.
Imho sulla 5800 sta roba non avverrà mai..
E' ancora strutturata su RDNA1 e riprenderà i numeri di Fiji/Vega come tetto massimo.
Ai 6 shader engine non credo finché non vedo ..
Immagino che le schede RDNA2 sui 7nm+ faranno ciò che dici, almeno LO SPERO. :)
Roland74Fun
09-08-2019, 10:41
mi stai trollando, lo so :asd:
No dai assolutamente.
E che mi è venuto in mente quando c'erano le schede dedicate per la decodifica mpeg2 per vedere i DVD sul pc. Oppure quando su certe schede video c'erano le unità dedicate per attivare certe feature che poi con il crescere della potenza dell'hardware sono state implementate in tutte.
No mi piacerebbe capire cosa succederà con le console, come sarà implementato ecc e come sarà di riflesso sul mercato VGA.
Gyammy85
09-08-2019, 10:47
mi stai trollando, lo so :asd: abbiate pietà, vengo da una lunga settimana di lavoro sotto il sole :asd:
la faccio in breve: quando avremo rdna2 con unità dedicate su bfV, metro, quake, control ecc ecc continueremo a non vedere attivabile la "barretta" per attivare le rtx :oink:
La pensiamo uguale, ma immagino che patcheranno i giochi
Free Gordon
09-08-2019, 11:06
Se tale chip dovesse arrivare nel q4 o q1 2020, tu che fai, aspetti la navi RT, o prendi questa? Nella stessa ipotesi ci metto chi magari, sapendo date su ampere e prende una 2080s sovraprezzata, che diventerà 3060:)
Ecco questo è un altro problema. La 3060 quando potrebbe uscire? Se è 2H 2020 allora AMD ha respiro...
Se è 1H 2020 è già più tesa la situazione.
Con la 5800 deve uscire PRIMA di Natale, sennò si frega un mucchio di vendite. Anche quelli vagamente interessati sarebbero tentati dall'arrivo imminente di Ampère.
Come per Navi, devono uscire col timing giusto, per me non dopo i primi di Dicembre..
Ale55andr0
09-08-2019, 13:06
Imho sulla 5800 sta roba non avverrà mai..
E' ancora strutturata su RDNA1 e riprenderà i numeri di Fiji/Vega come tetto massimo.
Ai 6 shader engine non credo finché non vedo ..
Immagino che le schede RDNA2 sui 7nm+ faranno ciò che dici, almeno LO SPERO. :)
https://youtu.be/ycTexEJ_pMg?t=9
Free Gordon
09-08-2019, 13:57
https://youtu.be/ycTexEJ_pMg?t=9
:rotfl:
mikael84
09-08-2019, 14:34
mi stai trollando, lo so :asd: abbiate pietà, vengo da una lunga settimana di lavoro sotto il sole :asd:
la faccio in breve: quando avremo rdna2 con unità dedicate su bfV, metro, quake, control ecc ecc continueremo a non vedere attivabile la "barretta" per attivare le rtx :oink:
Con RDNA2 e unità preposte sarà diverso. ora non ha senso attivare l'RT, farebbe la fine di Pascal.
Con Pascal l'hanno fatto giusto per far vedere la differenza tra le turing e Pascal.
Senza unità preposte, i calcoli devono essere distribuiti, questo lo deve fare AMD, ma attualmente è un no sense.;)
Il problema è proprio quello.. che efficienza può avere un bus asincrono del genere, rispetto al 256bit di Navi?
Il chip da 64CU avrebbe richieste ben diverse che difficilmente con un bus del genere riusciresti a soddisfare, infatti con la VII hanno fatto un bump enorme rispetto a Vega64 solo grazie al bus con HBM...senza fare nient'altro; e oltretutto Vega64 è un chip molto inefficiente rispetto a Navi lato shader.
Un chip con 64CU e tecnologia RDNA avrà ancora più richieste di banda...
Come dici tu potrebbe stare tra 2080 e Ti..ma non penso sarebbe una rivale vera della Ti una scheda del genere.
Il peso delle ALU incide minimamente sulla BW, non raddoppia:)
Il problema sta solo nel levare il collo di bottiglia alle rop's in generale.
Utilizzare le firebolt potrebbe migliorare le prestazioni, più BW effettiva riesci ad ottenere, meglio è, ma a che compromessi.
Ricordo che su Vega VII la BW effettiva è circa 600gb/s più 30% compressione, a stento pareggia la comprimibile della 2080 448gb/s (in base ai titoli va poco più o poco meno).
E' qua che AMD non capisce che deve intervenire, inutile memorie costosissime e bus enormi.
Su alta compressione
https://www.gamersnexus.net/images/media/2019/GPUs/radeon-vii/anti-aliasing/radeon-vii-anti-aliasing-firestrike-gt1.png
Minima compressione ( qua la potenza bruta della BW incide)
https://www.gamersnexus.net/images/media/2019/GPUs/radeon-vii/anti-aliasing/radeon-vii-anti-aliasing-test-gta-v.png:)
Imho sulla 5800 sta roba non avverrà mai..
E' ancora strutturata su RDNA1 e riprenderà i numeri di Fiji/Vega come tetto massimo.
Ai 6 shader engine non credo finché non vedo ..
Immagino che le schede RDNA2 sui 7nm+ faranno ciò che dici, almeno LO SPERO. :)
Attualmente non c'è alcuna certezza sullo scaling degli engine.
Anche nvidia sta incapando in queste problematiche, la 2080ti e la 2080 sono monche.:)
Fiji e Vega sono state impossibbilitate ad utilizzare i sei raster. Con Navi per die si potrebbe pure fare.
Ecco questo è un altro problema. La 3060 quando potrebbe uscire? Se è 2H 2020 allora AMD ha respiro...
Se è 1H 2020 è già più tesa la situazione.
Con la 5800 deve uscire PRIMA di Natale, sennò si frega un mucchio di vendite. Anche quelli vagamente interessati sarebbero tentati dall'arrivo imminente di Ampère.
Come per Navi, devono uscire col timing giusto, per me non dopo i primi di Dicembre..
Di ampere si aspetta prima l'HPC con le possibili aquabolt, ma ancora non c'è nessuna data possibile, se non speculazione su probabile q2.
Anche se c'è un problema con le memorie, con micron senza doppia densità e clock.
L'obbiettivo penso sia 2080/rdna2 2020, però se la rx 5800 tarda ad arrivare potrebbe essere non troppo vicina rdna2.:)
Gyammy85
09-08-2019, 15:38
https://wccftech.com/amd-radeon-rx-navi-23-21-high-end-gpus-2020-rumor/
majinbu7
09-08-2019, 15:48
https://wccftech.com/amd-radeon-rx-navi-23-21-high-end-gpus-2020-rumor/
Primavera 2020 .....si scontreranno direttamente con la serie 3000 di Nvidia, io speravo uscisse qualcosa prima...
Gyammy85
09-08-2019, 15:52
Primavera 2020 .....si scontreranno direttamente con la serie 3000 di Nvidia, io speravo uscisse qualcosa prima...
Prima dovrebbero uscire le navi 12 big e le 14 piccole, ed ha senso perché il numero 2 iniziale identifica la next gen
mircocatta
09-08-2019, 16:04
Primavera 2020 .....si scontreranno direttamente con la serie 3000 di Nvidia, io speravo uscisse qualcosa prima...
beh a dire la verità si pensava estate 2020 per rdna2, quindi primavera 2020 è già grasso che cola
nel mezzo avremo anche forse le 5800 che a conti fatti andranno parecchio forte, sarà dura resistere aspettando rdna2
majinbu7
09-08-2019, 16:17
Prima dovrebbero uscire le navi 12 big e le 14 piccole, ed ha senso perché il numero 2 iniziale identifica la next gen
beh a dire la verità si pensava estate 2020 per rdna2, quindi primavera 2020 è già grasso che cola
nel mezzo avremo anche forse le 5800 che a conti fatti andranno parecchio forte, sarà dura resistere aspettando rdna2
Beh se ci infilano una 5800XT o ancor meglio l'accoppiata 5800xt/5900XT , andrebbe benone .
Roland74Fun
09-08-2019, 16:27
Beh se ci infilano una 5800XT o ancor meglio l'accoppiata 5800xt/5900XT , andrebbe benone .Il problema, specialmente per chi ha già vga AMD, e che funzionano sempre bene ed anzi migliorano col tempo, quindi viene difficile sentire il bisogno o trovare una ragione plausibile per cambiarle....
Ale55andr0
09-08-2019, 18:36
Fiji e Vega sono state impossibbilitate ad utilizzare i sei raster. Con Navi per die PER DIO!!!! si potrebbe pure fare.
fixed :O
Sarebbe ottimo se desse un super scossone nella fascia bassa con navi 14 dando una ripulita a rx560/570/580 e concorrenza. Una svecchiata non farebbe male che dopo tre o quattro anni di polaris il ghiacciolo si sta sciogliendo.
majinbu7
10-08-2019, 07:17
Il problema, specialmente per chi ha già vga AMD, e che funzionano sempre bene ed anzi migliorano col tempo, quindi viene difficile sentire il bisogno o trovare una ragione plausibile per cambiarle....
Solitamente io cambio VGA , per avere più potenza (fare più fps) , difficile al giorno d'oggi trovare vga che siano AMD o Nvidia che vadano male
fraussantin
10-08-2019, 07:33
Solitamente io cambio VGA , per avere più potenza (fare più fps) , difficile al giorno d'oggi trovare vga che siano AMD o Nvidia che vadano maleDipende a che risoluzione giochi anche e a che refrash..
Se giochi in 4k è difficile trovarne una che vada bene xD..
Ma anche in qhduw (o come si scrive)che secondo me è la risoluzione del momento non è che ci sia troppo da abbondare.
Se poi ci metti RT allora nessuna GPU è buona.
majinbu7
10-08-2019, 08:48
Dipende a che risoluzione giochi anche e a che refrash..
Se giochi in 4k è difficile trovarne una che vada bene xD..
Ma anche in qhduw (o come si scrive)che secondo me è la risoluzione del momento non è che ci sia troppo da abbondare.
Se poi ci metti RT allora nessuna GPU è buona.
Per vadano male, intendevo instabilità/crush vari/artefatti/no signal video ecc...
Le vga al giorno d'oggi a meno che non ci sia hardware difettoso, vanno tutte bene, è chiaro che bisogna saper scegliere in base al monitor e alle proprie esigenze tra quello che offre il mercato.
Allora, speculando
Navi 2X è il nome dei chip rdna2, ad oggi i leak ci dicono che per il presente, dove l'indicatore di Navi è 1X verranno presentati i chip 12 e 14, mentre per l'anno prossimo i leak ci dicono che sono presenti almeno 21 e 23, non credo che ci sia un nesso di sequenzialità sulla nomenclatura rispetto alle prestazioni.
A questo punto bisogna vedere se accavalleranno le big navi RT all'attuale generazione, per poi portare anche in basso RT successivamente, oppure uscire direttamente nel 2021 con un'ulteriore affinamento. Bho.
A voi studio. Cit. 😅
mircocatta
10-08-2019, 19:28
tra refrash e crush vari non ci sto capendo più nulla :asd: maledetto caldo!:O
Free Gordon
10-08-2019, 20:32
https://wccftech.com/amd-radeon-rx-navi-23-21-high-end-gpus-2020-rumor/
The HBM2E DRAM comes in 8-Hi stack configuration and utilizes 16 Gb memory dies, stacked together and clocked at 3.2 Gbps. This would result in a total bandwidth of 410 GB/s on a single and 920 GB/s with two HBM2E stacks which is just insane. To top it all, the DRAM has a 1024-bit wide bus interface which is the same as current HBM2 DRAM. Samsung says that their HBM2E solution, when stacked in 4-way configuration, can offer up to 64 GB memory at 1.64 TB/s of bandwidth.
Questa è la cosa interessante di questo rumor.
Con un bus a 2048 bit avrebbero 900GB/s di banda (che basterebbero ampiamente a una navi RDNA1 "fijivega" da 64CU --> la 5800);
con un bus a 4096 invece...potrebbero dar da mangiare anche a 8shader engine e 128rops... :oink: :oink: :oink:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.