View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
Allora dite che devo aspettare che mia figlia abbia 3 anni per ricominciare a dedicare un po' di tempo al gioco? Manca un anno e mezzo :(
Inviato dal mio ASUS_X00ID utilizzando Tapatalk
sgrinfia
30-08-2018, 17:08
Cacchio ragazzi, cerchiamo di vedere il lato positivo ..l'RTX ti permette di fare le lampade abbrozzzanti in casa con tutti quei raggi solari riflettenti , ricordo che una seduta in un centro estetica costa 12,50 euro per 8 minuti ,quindi uno che vuole farla fare anche agli altri componenti della famiglia con 1200euro compra una 2080ti e ha risolto game e abbronzature .....il classico 2 piccioni con una fava;)
ninja750
30-08-2018, 17:09
GF si è tirata fuori, quei quaquaraqua... rimane solo TSMC e chissà magari Samsung ma non mi fiderei a far produrre chipponi da pc a chi produce chippini per mobile.
eh quindi uscirà sicuramente a 14nm no?
eh quindi uscirà sicuramente a 14nm no?
No, c'è TSMC che ha sia le commesse cpu che gpu di amd a 7nm.....GF solo 12/14 per tutto il resto....
JurassicBocelli
30-08-2018, 17:58
Capite che sicuramente si tratta di ray tracing perchè sono riflessi di oggetti che sono al di fuori della scena, mi hanno spiegato che si può fare solo con il ray tracing :O
Esatto!
Gyammy85
30-08-2018, 19:15
Ho fatto praticamente la stessa cosa trovandomi nel 2016 con un E8400 e una HD6850 :fagiano:
L'8400 mi bottlenecckava la 6870 :O
Gyammy85
30-08-2018, 19:31
Avevo investito 30€ per upgradarlo con uno xeon X5460 moddato per lga775 :O
Certo che ste schedine tutto pepe erano ottime e non costavano niente, presi la mia tipo 160€
sgrinfia
30-08-2018, 20:06
Certo che ste schedine tutto pepe erano ottime e non costavano niente, presi la mia tipo 160€
Io volevo comprare 2 6870 per fare il crossfire, poi però presi una 6950 ref..., grande scheda.
Angeland
30-08-2018, 20:24
Io volevo comprare 2 6870 per fare il crossfire, poi però presi una 6950 ref..., grande scheda.
Ho ancora una 6950 Asus DirectCuII funzionante, peccato che sia il modello con solo 1 GB di vram .
Io su muletto uso una 7950.
Grande scheda
Inviato dal mio SM-G935F utilizzando Tapatalk
Gyammy85
30-08-2018, 21:13
Io su muletto uso una 7950.
Grande scheda
Inviato dal mio SM-G935F utilizzando Tapatalk
Vabbè la 7950 è già molto più moderna delle cayman...molto molto più potente in computing e shading
nickname88
30-08-2018, 21:16
news su Navi ?
Angeland
30-08-2018, 21:26
Io su muletto uso una 7950.
Grande scheda
Inviato dal mio SM-G935F utilizzando Tapatalk
Vabbè la 7950 è già molto più moderna delle cayman...molto molto più potente in computing e shading
Avevo pure questa :D 7950 Vapor-X, mi sono quasi pentito di averla venduta.
news su Navi ?
Non si sa praticamente nulla :sofico:
Non si sa praticamente nulla :sofico:
No, dai, visto il ritiro di GF sappiamo che al 99% sarà fatta su TSMC 7nm, all'1% su Samsung se apre per queste produzioni. Poi sta a vedere che ti fanno la sorpresa e piazzano il 10nm Intel :eek:
Gyammy85
30-08-2018, 21:54
No, dai, visto il ritiro di GF sappiamo che al 99% sarà fatta su TSMC 7nm, all'1% su Samsung se apre per queste produzioni. Poi sta a vedere che ti fanno la sorpresa e piazzano il 10nm Intel :eek:
2x density 2x perf/watt 1.35x performance :O
Navi 100 2 GHz-2080ti owned-600 euro
Segnatevatelissimo.
Jeetkundo
31-08-2018, 10:16
2x density 2x perf/watt 1.35x performance :O
Navi 100 2 GHz-2080ti owned-600 euro
Segnatevatelissimo. Basta che AMD non rinvii troppo o dovrà scontrarsi con la 3080ti :D
Sent from my MI 6 using Tapatalk
Gyammy85
31-08-2018, 10:44
Basta che AMD non rinvii troppo o dovrà scontrarsi con la 3080ti :D
Sent from my MI 6 using Tapatalk
E che problema c'è? NCU ready :cool:
nickname88
31-08-2018, 11:23
Non si sa praticamente nulla :sofico:Si sà almeno se usciranno prima le fascie medie o i modelli high end ?
2x density 2x perf/watt 1.35x performance :O
Navi 100 2 GHz-2080ti owned-600 euro
Segnatevatelissimo.
Verranno serivete anche fette di culo vicino all'osso alla release ?
:sofico:
Si sà almeno se usciranno prima le fascie medie o i modelli high end ?
Non si sa niente, neanche se Navi coprirà tutte le fasce stile Pascal o se AMD continuerà a tenere due architetture (vedi GCN 1.2/Fury, Polaris/Vega). Da un certo punto meglio così, ATI ai tempi lavorava meglio quando non c'erano notizie che quando sbandierava cose.
Roland74Fun
31-08-2018, 20:21
Ma avete visto sul tubo quel workaround che fa funzionare le schede delle altre marche col monito freesync?
Gyammy85
31-08-2018, 20:24
Ma avete visto sul tubo quel workaround che fa funzionare le schede delle altre marche col monito freesync?
Ne ho sentito parlare...
Si sta riunendo il board di nvidia, vediamo che dicono...certo che in caso positivo...beh...cioè no, però...voglio dire...chissà...
bagnino89
31-08-2018, 20:25
Ma avete visto sul tubo quel workaround che fa funzionare le schede delle altre marche col monito freesync?È un giro assurdo, fai prima a comprare un monitor G-Sync :asd:
Gyammy85
31-08-2018, 20:26
È un giro assurdo, fai prima a comprare un monitor G-Sync :asd:
Meno male! Fallimento di amd scongiurato. :)
bagnino89
31-08-2018, 20:31
Meno male! Fallimento di amd scongiurato. :)Direi di Nvidia :-)
Gyammy85
31-08-2018, 21:10
Direi di Nvidia :-)
O.O
Roland74Fun
31-08-2018, 21:15
È un giro assurdo, fai prima a comprare un monitor G-Sync :asd:Dipende dalla configurazione.
Se hai un RyZen 2200/2400G con schede tipo 1050/1060od al limite1070 può avere un senso e viene facile. Attacchi il cavo all'uscita video della scheda madre e poi scegli dalle opzioni di Windows o del gioco quale scheda vuoi che faccia il lavoro ossia la Nvidia..
Il secondo metodo invece, quello con una scheda AMD che supporti il freesync non ha molto senso. Anche mettendone una di fascia bassa per avere l'uscita, come una RX550 od anche una vecchia R7360, non funziona sempre ed hai anche una spesa extra seppur contenuta. A quel punto si, tanto vale prendere un g-sync.
È un giro assurdo, fai prima a comprare un monitor G-Sync :asd:Ma anche no.
Compro un Freesync e posso farlo funzionare sia con AMD che con nvidia.
E risparmio un bei 200/300 euro pure.
Ora va appurato se è vero e come andrebbero le.nvidia col freesync.
Inviato dal mio SM-G935F utilizzando Tapatalk
Gyammy85
31-08-2018, 21:28
Dipende dalla configurazione.
Se hai un RyZen 2200/2400G con schede tipo 1050/1060od al limite1070 può avere un senso e viene facile. Attacchi il cavo all'uscita video della scheda madre e poi scegli dalle opzioni di Windows o del gioco quale scheda vuoi che faccia il lavoro ossia la Nvidia..
Il secondo metodo invece, quello con una scheda AMD che supporti il freesync non ha molto senso. Anche mettendone una di fascia bassa per avere l'uscita, come una RX550 od anche una vecchia R7360, non funziona sempre ed hai anche una spesa extra seppur contenuta. A quel punto si, tanto vale prendere un g-sync.
Bah, tutto sto sbattimento inutile...amd, what else?
bagnino89
01-09-2018, 10:32
Dipende dalla configurazione.
Se hai un RyZen 2200/2400G con schede tipo 1050/1060od al limite1070 può avere un senso e viene facile. Attacchi il cavo all'uscita video della scheda madre e poi scegli dalle opzioni di Windows o del gioco quale scheda vuoi che faccia il lavoro ossia la Nvidia..
Il secondo metodo invece, quello con una scheda AMD che supporti il freesync non ha molto senso. Anche mettendone una di fascia bassa per avere l'uscita, come una RX550 od anche una vecchia R7360, non funziona sempre ed hai anche una spesa extra seppur contenuta. A quel punto si, tanto vale prendere un g-sync.
Tanto coi prossimi driver Nvidia bloccherà tutto, quindi secondo me non ha proprio senso sbattercisi.
Ma anche no.
Compro un Freesync e posso farlo funzionare sia con AMD che con nvidia.
E risparmio un bei 200/300 euro pure.
Ora va appurato se è vero e come andrebbero le.nvidia col freesync.
Inviato dal mio SM-G935F utilizzando Tapatalk
Vedi sopra.
Le pacche sulle spalle sono copyright by FroZen... credo si sia persino beccato un ban per quella battuta. Che però era bella! :D
:asd:
ninja750
01-09-2018, 17:15
figuratevi se "gli altri produttori" non bloccheranno immediatamente il glitch che le fanno funzionare con freesync.. non immagino nemmeno i casini di loyalty o contrattuali con gli altri produttori di monitor gsync
figuratevi se "gli altri produttori" non bloccheranno immediatamente il glitch che le fanno funzionare con freesync.. non immagino nemmeno i casini di loyalty o contrattuali con gli altri produttori di monitor gsyncNon solo i produttori dei monitor gsync.
Anche la stessa nvidia che ci ricava di certo qualcosa visto che a parità di monitor freesync/gsync ci ballano 200/300 euro
Inviato dal mio SM-G935F utilizzando Tapatalk
Ehm
Scusate
Magari scopro l’acqua calda
Ma
Ma
Ma
Solo io non sapevo
Che Lisa Su è la nipote del master of leather jackets tier 10 JHH?!
:mbe:
bagnino89
02-09-2018, 13:14
Ahah, anche io lo ho scoperto di recente, ma pare sia proprio così :asd:
Gyammy85
02-09-2018, 14:51
Come può Lisa essere nipote di Huang? Boh, mi sa di palla.
Gyammy85
02-09-2018, 14:53
https://wccftech.com/amd-confirms-new-7nm-radeon-graphics-cards-launching-in-2018/
AMD’s 7nm Vega is a Monster – 1.25x Turing’s Compute at Half The Size
:sofico: :sofico:
E Navi? :eek: :eek:
HYPE
Siamo sempre lì....anche Vega 64 ASFALTA la 1080 in termini di TF. Ma non sono confrontabili. Può anche avere 20TF ma se ha sempre nei 4geo il collo di bottiglia cosa te ne fai?
Per quello si spera in Navi e in una modifica sostanziale a GCN per competere anche nella fascia entusiast.
Questi numeri però fanno davvero ben sperare per i 7nm
Inviato dal mio iPad utilizzando Tapatalk
Gyammy85
02-09-2018, 16:12
Vega 7nm è pro/instinct non gli frega un cappero a nessuno dei collo dei 4 geo.
Inoltre non si hanno certezze sull'architettura di vega 20, magari hanno rivisto un po' tutto.
Inoltre non si hanno certezze sull'architettura di vega 20, magari hanno rivisto un po' tutto.Su questo lo spero. Ma finché non ci sono info non c'è molto su cui ragionare.
Ma le modifiche più importanti mi sa che le vedremo su navi.
Inviato dal mio ZTE A2017G utilizzando Tapatalk
Free Gordon
03-09-2018, 03:01
Le pacche sulle spalle sono copyright by FroZen... credo si sia persino beccato un ban per quella battuta. Che però era bella! :D
:rotfl:
Ehm
Scusate
Magari scopro l’acqua calda
Ma
Ma
Ma
Solo io non sapevo
Che Lisa Su è la nipote del master of leather jackets tier 10 JHH?!
:mbe:
:eek:
Come può Lisa essere nipote di Huang? Boh, mi sa di palla.
Il fratello del nonno è il padre di Jensen mi pare.
Sono zii/cugini di secondo grado.
Gyammy85
03-09-2018, 10:45
Ok, ma anche le nVidia sono andate a riempimento con Volta/Turing, tralasciando il discorso RT e TC, la 2080 è sempre 4Geo, si pensava arrivassero a 7TPC come Volta ma per motivi di spazio non ci sono stati.
6 TPC sono comunque 768cc, a 7nm nVidia chiuderà il GPC con 8TPC(1024cc) e 32rops, la 3080 sarà sempre quindi 4GPC/4096cc/128rops, quindi 3080ti sempre da 6 GPC nel fine 2019/2020 e con la possibilità che al secondo giro sui 7nm passino ai 6GPC sulla 4080 e 8GPC sulla 4080ti, questo nel 2021 facendo chip più grossi che al primo giro.
Già adesso con Turing siamo allo stesso livello di riempimento che ha AMD con Vega10, perchè se consideri che 1/4 delle funzioni AMD le emula con le alu, 768cc nVidia equivalgono proprio a 1024sp AMD, la 2080(~1080ti) sarà superiore a Vega10 soprattutto per il clock che riesce ad ottenere nVidia con la sua architettura specifica, infatti Vega10 a pari clock andrebbe mediamente uguale sia a 1080ti che ha 6 GPC che circa a 2080 che ne ha 4, dove però guadagna un tot di ipc DX12 (si stima 10~15%).
1024cc corrisponderanno a 1408sp(22nCU) quindi non mi stupirebbe vedere già ora una Vega20 che è chip compute riempita di SP sempre a 4 Geo, circa 88nCU, se ce ne sono stati nei 330mmq di cui si vocifera anche 96(1536sp x Geo).
Nel compute per fare 20TF con 96 nCU devi clockare base 1'630mhz, a 7nm è garantito che lo faccia Vega20, se davvero Vega20 ha 20TF sarà scontato che avrà ~96nCU(1'650mhz), che poi siano suddivisi in 4 o 6 geo non lo so, ma non credo abbiano aumentato i Geo con un chip indirizzato al compute, non servirebbe.
Ovvio che nel gaming con i clock attuali 14nm non sarebbe granche, ma a 7nm... senza considerare che Navi porterà novità, io fossi AMD lancerei sul mercato una versione Gaming castrata di Vega20, considerando le dimensioni riuscirebbe a fare ottima concorrenza di prezzo/prestazioni.
Se a quanto pare il silicio scelto per vega 20 è l'hpc, potrebbe pure clockare più di 1600 e avere quindi meno di 96 cu per 20 tf...vedremo
Basta che ce fanno vedere qualcosa... troppe speculazioni e pochissime info! :mc: :mc:
Gyammy85
03-09-2018, 10:55
Basta che ce fanno vedere qualcosa... troppe speculazioni e pochissime info! :mc: :mc:
Ancora qualche mese di pazienza per vega 20 e poi i fuochi artificiali al ces 2019 con navi hype e rt via ncu :O
nickname88
03-09-2018, 11:09
https://wccftech.com/amd-confirms-new-7nm-radeon-graphics-cards-launching-in-2018/
AMD’s 7nm Vega is a Monster – 1.25x Turing’s Compute at Half The Size
:sofico: :sofico:
E Navi? :eek: :eek:
HYPE
Notizia vecchia, è Vega su Radeon Instinct
https://www.techpowerup.com/247006/amd-7nm-vega-by-december-not-a-die-shrink-of-vega-10
Attendo fremente il momento in cui Lisa farà vedere la farfallina amd tatuata proprio lì durante la presentazione di Vega 7nm :sofico: :sofico: :sofico:
Dai che ho soldi da spendere amd, daiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiii :ncomment: voglio la Navi 128 rops con chiller integrato e il goniometro per calcolarmi da solo i rimbalzi della luce visto che non ci ha l'hw dedicato per l'RT.....
Gyammy85
03-09-2018, 11:24
Notizia vecchia, è Vega su Radeon Instinct
https://www.techpowerup.com/247006/amd-7nm-vega-by-december-not-a-die-shrink-of-vega-10
Si ma qui parlano pure dei 20 tf, che è una indiscrezione proveniente da più fonti ormai...
La cosa da far notare era essenzialmente at half size, visto che l'anno scorso eran tutti li col calibro a misurare quanti picomillimetri fosse diversa da gp102 101 100 liscia 100 gasata...
Attendo fremente il momento in cui Lisa farà vedere la farfallina amd tatuata proprio lì durante la presentazione di Vega 7nm :sofico: :sofico: :sofico:
Dai che ho soldi da spendere amd, daiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiiii :ncomment: voglio la Navi 128 rops con chiller integrato e il goniometro per calcolarmi da solo i rimbalzi della luce visto che non ci ha l'hw dedicato per l'RT.....
:D :D :D :D
Sai le risate se bf5 con rt va 15 fps meno su vega rispetto alla 2080ti? :asd:
AceGranger
03-09-2018, 11:57
Quello che cozza coi i 20TF sono l'aver dichiarato ~1.35x in performance, a meno che sia solamente una considerazione sul clock e non sulle performance finali.
quello che cozza è che paragonano solo i TFlops quando ormai i chip nVidia hanno tutti calcoli separati e contemporanei, va da se che saranno per forza di cose piu piccole.
Quei 20 TFlops diventeranno 40TFlops in FP16 e, o faranno calcoli Float o faranno calcoli INT, mentre Turing ha i 16 TFlops + 16 TIPS per le INT + 125 TFlops in FP16 dai Tensor.
confrontare le GPU ora sara piu diffcile
Gyammy85
03-09-2018, 11:59
Il problema comunque rimarrebbe nel fatto che anche se ti facessero vedere qualcosa non sarebbe gaming, fino a che non cambiano idea.
Non ti eccitare troppo :p
Quello che cozza coi i 20TF sono l'aver dichiarato ~1.35x in performance, a meno che sia solamente una considerazione sul clock e non sulle performance finali.
Senza considerare che a meno di smentita non dovrebbe avere declinazione gaming, e non sappiamo per quando sarà pronta Navi, può essere tra 6 mesi come 12 e 18.
PS. Certo che dati alla mano già solo una Vega10 da 64nCU shrinkata a 7nm andrebbe quanto 1080ti~2080, figuriamoci Vega20, se suddivisa in 6 cluster insidierebbe la 2080ti, suddivisa in 4 perderebbe qualcosina ma non così tanto e soprattutto a metà del prezzo...
Vabbè 1.35x sarà aparità del resto boh...se mettono più cu l'incremento c'è a prescindere.
Poi se presentano vega 20 a dicembre al ces diranno sicuramente qualcosa di navi, ricordo che al ces 2017 mostrarono tutte le slide sull'architettura di vega...
Gyammy85
03-09-2018, 12:28
MIPS? ma non è pochissimo? ma le Int in gaming tra l'altro si usano?
Un buon vantaggio lo si può avere con i TC, ma integrare dei TC per fare solo FP16 non penso sia tutto sto capolavoro e soprattutto sfruttabile a pieno(non mi direte mica che adesso i giochi sono tutti fp16 :rolleyes:) considerando anche se per lo più sono stati messi per ripulire il lavoro dei core RT, oltre al fatto che rimane una cosa banale inserire dei TC, sono invece curioso di sapere cosa sono i core RT e se sono invece ad un livello oltre i semplici TC.
Poi tutto sto giro di parole, sto hardware mirabolante, ste padelle immense, costose e poi han dichiarato mediamente +40% di performance... meh...
Oltretutto non possiamo sapere come sarà Navi se più orientata allo specifico o sempre gpgpu, certo vedo difficile che in Vega20 ci sia hardware specifico, ma non è un chip gaming, era solo per dire che se però ne facessero una derivazione gaming sarebbe competitiva dato che si avvantaggia del silicio nuovo, quindi dimensioni dimezzate e clock superiori.
Sarebbe bello ma penso vogliano sfruttare direttamente navi.
Se una divisione di architetture ci sarà imho non sarà nettissima, quindi possibile che vega 20 sia un anticipo di navi.
AceGranger
03-09-2018, 12:58
MIPS? ma non è pochissimo? ma le Int in gaming tra l'altro si usano?
ho sbagliato lettera, era TIPS
i TIPS sono l'equivalente dei TFlops, TFlops solo che uno sono i Tera di operazioni in virgola mobile e l'altoro di Interi.
si, ci sono operazioni INT in ogni software.
Un buon vantaggio lo si può avere con i TC, ma integrare dei TC per fare solo FP16 non penso sia tutto sto capolavoro e soprattutto sfruttabile a pieno(non mi direte mica che adesso i giochi sono tutti fp16 :rolleyes:)
:mbe: tralasciando che si stava parlando di chip Computing... i giochi non sono FP16, e lo potranno essere in minimissima parte ( nella parte di calcolo di shading, ombre etc. etc.), e infatti l'FP16 verra usato per la parte successiva di AA, scaling, Upscaling, De-Noise etc. etc.
considerando anche se per lo più sono stati messi per ripulire il lavoro dei core RT, oltre al fatto che rimane una cosa banale inserire dei TC, sono invece curioso di sapere cosa sono i core RT e se sono invece ad un livello oltre i semplici TC.
i Core RT sono unita hardware costruite attorno all'algoritmo di Ray-Tracing di nVidia, in sostanza sono unita hardware che calcolano la traiettoria, angoli, rimbalzi etc. etc.
concettualmente è la stessa cosa di avere l'h.265 fatto girare su CPU e l'h.265 fatto andare sull'unita hardware specifica dentro le GPU;sull'unita dedicata andra molto meglio, piu veloce, molta meno energia etc. etc.
Poi tutto sto giro di parole, sto hardware mirabolante e poi han dichiarato mediamente +40% di performance... meh...
+40% perchè sui giochi che sfruttano solo i CUDA; ora che arriveranno anche quelli con il DLSS avrai un boost maggiore, mentre quelli con RT avranno qualita superiore perchè il nuovo metodo sara piu oneroso da sostenere.
ma il futuro è quello; che sia con unita dedicate o nuove unita unificate, quella sara la strada dei prossimi anni.
Oltretutto non possiamo sapere come sarà Navi se più orientata allo specifico o sempre gpgpu, certo vedo difficile che in Vega20 ci sia hardware specifico, ma non è un chip gaming,
quando uscira vedremo un po come sara il chip
era solo per dire che se però ne facessero una derivazione gaming sarebbe competitiva dato che si avvantaggia del silicio nuovo, quindi dimensioni dimezzate e clock superiori.
spero proprio di no e che si siano finalmente decisi a dividere il mercato.
chip separati = chip piu efficienti.
Ton90maz
03-09-2018, 13:02
quello che cozza è che paragonano solo i TFlops quando ormai i chip nVidia hanno tutti calcoli separati e contemporanei, va da se che saranno per forza di cose piu piccole.
Quei 20 TFlops diventeranno 40TFlops in FP16 e, o faranno calcoli Float o faranno calcoli INT, mentre Turing ha i 16 TFlops + 16 TIPS per le INT + 125 TFlops in FP16 dai Tensor.
confrontare le GPU ora sara piu diffcileChissà tutta quella roba in funzione quanto consumerà e se la scheda girerà allo stesso clock con o sensa i sudoku cores
In realtà Lisa Su è Jensen vestito da donna come in Psyco :DNorman Lisa Su 😂😂😂😂😂
Inviato dal mio LG-H870 utilizzando Tapatalk
Ale55andr0
03-09-2018, 14:17
Il problema comunque rimarrebbe nel fatto che anche se ti facessero vedere qualcosa non sarebbe gaming, fino a che non cambiano idea.
.
domanda. Non sono addentro ai particolari del mondo pro, ma, "mi si dice" che amd in quell'ambito sia molto meno diffusa, ma allora perchè INSISTERE co ste gpu multipourpose se peraltro anche nvidia stessa, che nel pro vende di più, fa cmq più soldi con le vga gaming!
Free Gordon
03-09-2018, 14:20
Ovvio che nel gaming con i clock attuali 14nm non sarebbe granche, ma a 7nm... senza considerare che Navi porterà novità, io fossi AMD lancerei sul mercato una versione Gaming castrata di Vega20, considerando le dimensioni riuscirebbe a fare ottima concorrenza di prezzo/prestazioni.
prezzo/prestazioni vs che cosa?
Perché Vega20 ha il BUS "mostruoso" (come Fiji) a 4096bit...per supportare i 32GB..
Ton90maz
03-09-2018, 14:32
Però c’è una cosa che non mi torna. Nvidia quanti chip progetta appositamente per ambiti non gaming? E quali sono? A parte i ben noti gp100, gv100 ecc...
Free Gordon
03-09-2018, 14:37
come se fossimo tornati indietro di 10 anni alla hd5870.
Peccato che il 7nm costi il 30% buono in più del 16/12nm.... ;)
Oltre al fatto che quel chip è comunque di fascia altissima (HBM2, interposer, BUS ecc) e gli eventuali "scarti" se li faranno pagare ben cari, facendo probabilmente uscire altre schede "pro" ma di fascia inferiore... (gli conviene. Piuttosto che sputtanarsi i chip ancora buoni in un mercato gaming che ha margini piuttosto bassi).
Purtroppo AMD contro Turing non ha una beneamata mazza....... :( e chissà quando arriverà Navi..
AceGranger
03-09-2018, 14:56
domanda. Non sono addentro ai particolari del mondo pro, ma, "mi si dice" che amd in quell'ambito sia molto meno diffusa, ma allora perchè INSISTERE co ste gpu multipourpose se peraltro anche nvidia stessa, che nel pro vende di più, fa cmq più soldi con le vga gaming!
dipende se con "fa piu soldi" intendi il fatturato o gli utili ;).
negli anni scorsi lo stesso CEO di nVidia aveva detto che i 2/3 del fatturato venivano dal gaming, ma che i 2/3 degli utili li facevano con il Pro; ora con le Tesla faranno ancora piu utili.
AMD deve continuare a puntare sul mercato del Computing per 3 motivi:
1 - il mercato computing sono tanti utili
2 - il mercato computing si sta spostando sempre di piu sulle GPU, per questo Intel si sta buttando nel mercato ( le GPU gaming saranno un derivato per ammortizzare ulteriormente i costi ), perchè se prima le farm erano solo CPU, ora ogni 2 CPU ci finiscono 2, 4 o 8 GPU; Le farm diventano sempre piu potenti ma vendono numericamente sempre meno CPU.
3 - AMD riuscirebbe a vendere sistemi completi EPYC + GPU; ed è il motivo per il quale dovrebbero svegliarsi a fare chip separati e usare l'infinity Fabric come l'nVlink, visto che potrebbero avere una connessione diretta CPU-GPU e GPu-GPU migliore del PCI-EX.
4 - l'architettura di base è sempre quella, anche se poi fanno chip differenti, e vendere 2 GPU è meglio che non venderle affatto; un'azienda po iche non presenta prodotti è un'azienda non buona agli occhi degli azionisti.
Einhander
03-09-2018, 15:11
domanda. Non sono addentro ai particolari del mondo pro, ma, "mi si dice" che amd in quell'ambito sia molto meno diffusa, ma allora perchè INSISTERE co ste gpu multipourpose se peraltro anche nvidia stessa, che nel pro vende di più, fa cmq più soldi con le vga gaming!
Beh come ti hanno gia' detto ovviamente diversificare i chip costa e pure molto in fase di progettazione e non solo.
Dall'altra parte pero' e' anche impossibile lasciare quel mercato completamente in mano ad nVidia.
Poi sarebbe da fare una distinzione tra il "pro" del tipo rendering engine e in generale creazione di contenuti e il "pro" per il calcolo puro, tipo deep learning data center e calcolo scientifico.
In questi ultimi casi in realta in quanto a potenza amd non sarebbe indietro, anzi, ma e' sul supporto e sulla capacita' di stringere accordi (marketing, comunicazione ecc ecc) che amd e' anni luce indietro.
Tuttavia e' prioritario non abbandonare il settore per lasciarlo agli altri, nvidia o intel che sia. Per motivi strategici sia a livello economico che puramente di "immagine".
Gyammy85
03-09-2018, 15:13
Vedo che già siamo in pieno HYPE :asd:
Pure la storia dei 7 nm che costano di più...vabbbè...
Einhander
03-09-2018, 15:22
Peccato che il 7nm costi il 30% buono in più del 16/12nm.... ;)
Oltre al fatto che quel chip è comunque di fascia altissima (HBM2, interposer, BUS ecc) e gli eventuali "scarti" se li faranno pagare ben cari, facendo probabilmente uscire altre schede "pro" ma di fascia inferiore... (gli conviene. Piuttosto che sputtanarsi i chip ancora buoni in un mercato gaming che ha margini piuttosto bassi).
Purtroppo AMD contro Turing non ha una beneamata mazza....... :( e chissà quando arriverà Navi..
Perdonami, ma non capisco il senso del tuo ragionamento, se ragioniamo cosi' non capisco come amd possa anche solo pensare di competere con intel, visto che la differenza che intercorre tra i due e' assai maggiore rispetto alla differenza che intercorre tra amd e nvidia.
Nel bene o nel male, e negli ultimi anni nel male -per lo piu'-, amd rimane comunque piu' competitiva in termini di numeri con nvidia che con intel.
Eppure -nonostante intel l'abbia devastata dieci anni fa con pratiche illegali- oggi ci ritroviamo con la famiglia ryzen e le sue varie declinazioni che hanno ridimensionato e di molto l'appetibilita' delle mirabolanti cpu intel core.
Questo nonostante si stia parlando di davide contro golia in termini di diffusione sul mercato e di mera capacita' economica.
Quindi perche' si piange per amd che non e' concorrenziale o che pare fallire ogni volta e non ci si rende conto invece della sproporzione che e' attualmente presente, come nelle decadi passate, tra i vari produttori di hardware in concorrenza diretta -intel e nvidia- ed amd?
Perche' non si contestualizza?
Per amd anche solo essere al pari, o in competizione con nvidia ed intel -contemporaneamente- e giocarsela e' una roba incredibile se ci pensi bene.
Eppure ci si aspettano sempre risultati incredibili a prescindere dalla realta' dei fatti: amd e' con le pezze ar culo in confronto ai suoi due principali competitor, anche ora che guadagna di piu', eppure SI PERMETTE di rifilare anche qualche sonora bastonata e di togliersi diverse soddisfazioni nel corso degli anni.
Per quanto mi riguarda lo trovo incredibile e l'unica cosa che percepisco e' che considerando la differenza di scala e di soldi a disposizione, non dovrebbe essere amd a vergognarsi, ma gli altri due.
Nessuno mi toglie dalla testa che a parita di soldi a disposizione amd farebbe cose che nvidia e intel si sognano nelle notti bagnate :asd:
La verita' e' che amd compete con due avversari ENORMI contemporaneamente.
Sarebbe il caso di iniziare a pensare che, di base, gia' questa e' un'impresa macroscopica e non lo dico per giustificare amd, ma per contestualizzare l'attuale -e passata- situazione. :rolleyes:
fanboyismi a parte e' anche per questo motivo che pur avendo senza problemi nei miei pc amd come nvidia simpatizzo per amd e quando amd riesce a pareggiare o addirittura a primeggiare -quelle rare volte- godo come un riccio. Perche' contrariamente alla statistica riesce nel difficilissimo compito di battere golia.
Intel o nvidia non mi daranno mai lo stesso tipo di soddisfazione. Se golia batte davide, beh, che ce voi fa? e' la vita..
nickname88
03-09-2018, 15:50
Si ma qui parlano pure dei 20 tf, che è una indiscrezione proveniente da più fonti ormai...
La cosa da far notare era essenzialmente at half size, visto che l'anno scorso eran tutti li col calibro a misurare quanti picomillimetri fosse diversa da gp102 101 100 liscia 100 gasata...
half size ? perchè col 7nm cosa ti aspettavi ?
Turing è uno dei chip più grandi mai costruiti e forse il più grande fra quelli portati su GeForce, l'altro appunto è un 7nm senza RT e Tensor core.
AceGranger
03-09-2018, 15:58
Appunto, il fatto che ci siano 125TFlops coi TC non significa che sia nettamente superiore nei giochi, anche perchè non sappiamo quanto realmente impatta come carico.
con i vecchi no, con i nuovi si;
quindi si, se guardi solo i giochi attuali avrai il vantaggio del 40% ( che fra l'altro è quello che ci si aspettava senza tutto l'hardware nuovo ) ma credo sia abbastanza chiaro che nel prossimo futuro i giochi verranno fatti in modo differente rispetto ad ora;
e secondo me la devi guardare in un'altro modo; se guardi il chip attuale di turing e rimpiazzi i Tensor e gli RT con i soli CUDA credo che tireresti fuori +- 6000 CUDA core e, ammesso che ci sarebbero stati dentro con il TDP ( cosa di cui dubito ), avresti avuto un vantaggio con i giochi attuali ma non avresti cambiato nulla del futuro.
è un'architettura di passaggio e come tale si portera dietro la "sfiga" di non avere subito la possibila di essere sfruttta appieno dal day one.
bagnino89
03-09-2018, 16:00
fanboyismi a parte e' anche per questo motivo che pur avendo senza problemi nei miei pc amd come nvidia simpatizzo per amd e quando amd riesce a pareggiare o addirittura a primeggiare -quelle rare volte- godo come un riccio. Perche' contrariamente alla statistica riesce nel difficilissimo compito di battere golia.
Intel o nvidia non mi daranno mai lo stesso tipo di soddisfazione. Se golia batte davide, beh, che ce voi fa? e' la vita..
Il simpatizzare ci può anche stare, il problema è che AMD - soprattutto nei confronti di Nvidia - sembra non riuscire a tenere il passo, e Intel ed Nvidia ne approfittano trasformandosi sempre di più in monopoli de facto. A me sta anche bene che AMD continui a fare quel che può, ma a volte credo che la presenza di un altro player nel settore CPU/GPU non sarebbe male. Samsung, magari?
bagnino89
03-09-2018, 16:09
In sti giorni ho letto molto di 2 pesi e 2 misure, a parte dei fanboy travestita da gentaglia da forum che da del bimbo ad altri, io sarei proprio curioso di leggere, a parti inverse, cosa si sarebbe detto di AMD se avesse realizzato un chip da 750mmq con hardware che al 99% rimarrà inespresso al costo modico di 1300$. ;)
SCAFFALEEEEEEEE :asd:
Einhander
03-09-2018, 16:10
Il simpatizzare ci può anche stare, il problema è che AMD - soprattutto nei confronti di Nvidia - sembra non riuscire a tenere il passo, e Intel ed Nvidia ne approfittano trasformandosi sempre di più in monopoli de facto. A me sta anche bene che AMD continui a fare quel che può, ma a volte credo che la presenza di un altro player nel settore CPU/GPU non sarebbe male. Samsung, magari?
Sono d'accordo con te, ma anche se samsung entrasse in questo campo, pagherebbe per anni, se non decadi, pegno per esserci entrata solo ora...a questo punto meglio acquisire RTG e via.
Ma se poi samsung decide di fare qualcosa di impopolare causa interessi diversi e ti ritrovi da un rischio monopolio ad un monopolio de facto che si fa?
Ho la sensazione che amd stia superando solo ora -lato cpu- il danno che intel illegalmente le assesto' dieci anni fa...ma e' una salita molto ripida onestamente.
Pero' e' anche vero che adesso e almeno fino al 2020 amd dovrebbe essere nella condizione di acquisire market share -lato server sicuro- e magari con i nuovi "dindi" riesca a fare una concorrenza piu' agguerrita e non solo lato cpu.
Vedo molto piu' rosea la situazione, persino ora, lato gpu che lato cpu onestamente..
Einhander
03-09-2018, 16:12
Ed ecco che siamo arrivati al punto, si è sempre detto l'hardware si valuta quando esce e non "un giorno", perchè un giorno verrà soppiantato dal nuovo, non vedo perchè non dovremmo fare lo stesso adesso come ragionamento.
Perche' quando si parla di intel o nvidia i metri di giudizio cambiano in base a cio' che fa piu' comodo IN OGNI situazione decontestualizzando il presente, il passato e il futuro..
Gyammy85
03-09-2018, 16:21
Il simpatizzare ci può anche stare, il problema è che AMD - soprattutto nei confronti di Nvidia - sembra non riuscire a tenere il passo, e Intel ed Nvidia ne approfittano trasformandosi sempre di più in monopoli de facto. A me sta anche bene che AMD continui a fare quel che può, ma a volte credo che la presenza di un altro player nel settore CPU/GPU non sarebbe male. Samsung, magari?
E perché non apple o amazon?
Solo che a quel punto sarebbe un bello scontro fra nvidia master the race over the world e apple it's graphics think different e amazon now only now to play prime, con amd costretta ad innovare per tutte e tre per far comprare le altre schede a meno.
AceGranger
03-09-2018, 16:26
Ho la sensazione che amd stia superando solo ora -lato cpu- il danno che intel illegalmente le assesto' dieci anni fa...ma e' una salita molto ripida onestamente.
per favore... non incominciamo con questa scusa bella e buona...
AMD il danno se lo è fatta da sola con quel cesso di BD e con architetture GPU mediocri, e non venirmi a dire che è stata colpa dei soldi, perchè Zen è stato sviluppato durante un periodo economico ben peggiore di quello dello sviluppo di del Faildozer, eppure hanno tirato fuori un'architettura ottima...
la colpa è stata solo di quello che ha deciso di puntare sul CMT dopo che il sostenitore dell'SMT se ne era andato da AMD; persona sbagliata a decidere = pessimi prodotti.
Ed ecco che siamo arrivati al punto, si è sempre detto l'hardware si valuta quando esce e non "un giorno", perchè un giorno verrà soppiantato dal nuovo, non vedo perchè non dovremmo fare lo stesso adesso come ragionamento.
Sono contento che ci siano novità, ma farle pagare uno sproposito per poi rimane utlizzate, è assurdo, ma attendiamo le prove sul campo.
no mi pare di aver mai detto il contrario è.... nemmeno con queste Turing....
il guadagno sara intorno al 40% sui giochi attuali, superiore nei giochi in arrivo con il DLSS e poi quando arriveranno quelli RT avrai migliorie grafiche.
poi se a uno sta bene se la prende, seno no ;)
In sti giorni ho letto molto di 2 pesi e 2 misure, a parte dei fanboy travestita da gentaglia da forum che da del bimbo ad altri, io sarei proprio curioso di leggere, a parti inverse, cosa si sarebbe detto di AMD se avesse realizzato un chip da 750mmq con hardware che al 99% rimarrà inespresso al costo modico di 1300$. ;)
ah non guardare me, che io ad AMD ho dato la stessa cifra per avere meno roba... :stordita:
Gyammy85
03-09-2018, 16:35
half size ? perchè col 7nm cosa ti aspettavi ?
Turing è uno dei chip più grandi mai costruiti e forse il più grande fra quelli portati su GeForce, l'altro appunto è un 7nm senza RT e Tensor core.
Abbi pazienza, fino ad un mese fa il chip gaming doveva essere in grado di far girare a palla fortnite zero in matematica e privo di tutta la roba inutile, son cambiati i paradigmi dell'eccellenza?
In pratica fanno un chip computing che fa girare anche i giochi come amd da anni, ma loro sono furbi e ti fanno i tension e gli rt cores "per questo il core è grande se no sarebbe piccolo".
AceGranger
03-09-2018, 16:42
eh va beh, tra un anno avrai di più di turing allo stesso prezzo o meno, che significa, è sempre così :sofico:
no avevo gia "normalizzato" :sofico:
nel senso che, Turing a 1200 euro da roba piu sostanziosa rispetto alle Pascal, rispetto a quello che ha dato la Titan Pascal / Vega FE rispetto a Maxwell.
dove tu vedi un aumento vertiginoso dei costi, io vedo costi uguali ma molta piu roba rispetto al passato; poi sicuramente guardiamo cose diverse.
Abbi pazienza, fino ad un mese fa il chip gaming doveva essere in grado di far girare a palla fortnite zero in matematica e privo di tutta la roba inutile, son cambiati i paradigmi dell'eccellenza?
In pratica fanno un chip computing che fa girare anche i giochi come amd da anni, ma loro sono furbi e ti fanno i tension e gli rt cores "per questo il core è grande se no sarebbe piccolo".
ma anche no, il loro chip computing è Volta, e il successore che arrivera integrera la parte FP64 e NON credo che integrera l'RT Core; Turing è per il mondo visual gaming/pro, Volta/Ampere? per il mercato Computing
il punto è che un chip con solo CUDA non avrebbe raggiunto quelle prestazioni nei vari ambiti.
Ton90maz
03-09-2018, 17:26
nVidia ha innanzitutto una archtiettura modulare e parte dal chip Pro e poi taglia, una volta che tagli tutto quello che non serve diventano tutti chip gaming.
Turing è un po come fosse Maxwell ma contrario, adesso non c'è un vero e proprio chip Gaming, in quanto nei Turing vero che non c'è la parte dp64, ma c'è comunque una buona fetta di hardware che serve al pro come i core RT, i TC e nvlink.
Maxwell era il contrario, era tutto Gaming.Però è da notare che i chip "pro" esclusivi sono solo quelli grossi (escludendo tegra e affini), senza la necessità di trasferire i "difetti" alla roba di fascia medio-alta, media e bassa. D'altra parte, lavorando in questo modo, si portano dietro l'architettura gaming sui chip pro (con della roba in più). Sulla base delle assunzioni fatte non è così diversa da AMD, visto che entrambe dovrebbero avere in comune buona parte del chip.
E' per questo che non mi tornano le "scuse" per giustificare l'architettura fortemente computing di AMD, a parte il fattore costi.
bagnino89
03-09-2018, 17:38
E perché non apple o amazon?
Solo che a quel punto sarebbe un bello scontro fra nvidia master the race over the world e apple it's graphics think different e amazon now only now to play prime, con amd costretta ad innovare per tutte e tre per far comprare le altre schede a meno.Amazon pure pure, Apple non mi sembra in posizione di monopolio. Lato computer ha uno share ridotto (tra i primi quattro produttori), lato smartphone vende come il pane ma i competitor sono tanti e si trovano smartphone in ogni fascia di prezzo. Anzi, negli ultimi anni la fascia media è diventata sempre più interessante e meno lontana dalla alta/enthusiast.
Lato CPU con AMD alla riscossa abbiamo visto riduzioni abissali del costo per core, lato GPU invece a me la situazione sembra sempre peggio... Del resto, "the more GPUs you buy, the more you save! It just works!" :asd:
AceGranger
03-09-2018, 17:49
Però è da notare che i chip "pro" esclusivi sono solo quelli grossi (escludendo tegra e affini), senza la necessità di trasferire i "difetti" alla roba di fascia medio-alta, media e bassa. D'altra parte, lavorando in questo modo, si portano dietro l'architettura gaming sui chip pro (con della roba in più). Sulla base delle assunzioni fatte non è così diversa da AMD, visto che entrambe dovrebbero avere in comune buona parte del chip.
E' per questo che non mi tornano le "scuse" per giustificare l'architettura fortemente computing di AMD, a parte il fattore costi.
no, i chip sono profondamente differenti.
se tu prendi una VEGA Instinc e una VEGA 64 hanno esattamente lo stesso chip e AMD pratica le differenziazioni solo attraverso i driver.
se tu prendi una Tesla e una 2080Ti hanno chip profondamente differenti; cambia l'organizzazione dei CUDA, cambia il controller, cambiano le unita dedicate.
nelle Tesla i CUDA sono organizzati in un modo, hanno le HBM che danno molta banda per quei dati che non possono essere compressi, hanno unita FP64 e molti piu collegamenti nVlink; nelle Gaming/Quadro hanno adottato un'organizzazione differente dei CUDA, hanno gli RT, hanno una compressione ottima che lavora bene con i dati visual, il che gli permette di non avere il collo con le GDDR6
nVidia ha innanzitutto una archtiettura modulare e parte dal chip Pro e poi taglia, una volta che tagli tutto quello che non serve diventano tutti chip gaming.
Turing è un po come fosse Maxwell ma contrario, adesso non c'è un vero e proprio chip Gaming, in quanto nei Turing vero che non c'è la parte dp64, ma c'è comunque una buona fetta di hardware che serve al pro come i core RT, i TC e nvlink.
Maxwell era il contrario, era tutto Gaming.
imho, la stai guardando in un modo profondamente sbagliato.
le Quadro e le Gaming sono sempre andate a braccetto, l'RT Core è arrivato nelle Quadro perchè era il momento di portarlo nel mondo Gaming, visto che se porti in ambito Gaming dell'harware nuovo hai necessita dello stesso hardware anche in campo Pro per poter produrre i contenuti che poi guarderai sulle gaming...
e anche l'nVlink, sara propedeutico per il Ray-Tracing gaming, perchè quando metterai le GPU in SLI, ho proprio idea che entrambe dovranno concorrere a calcolare il pass RT e quindi dovranno scambiarsi una quantita rilevante di dati, rendendo necessario l'nVlink.
Da quando nVidia ha scisso la parte computing, le Quadro sono sempre state "gemelle" delle gaming come tipologia di lavoro svolto.
AceGranger
03-09-2018, 19:26
Se fosse stato AMD ne avrebbero riso per anno, sopratutto se il tutto fosse dovuto ad una funziona marginale come luci e riflessi in ray tracing e upscaler tramite tensor core.
Ma Nvidia se lo può permettere e AMD no.
Nvidia se lo può permettere perchè ora che ha presentato RT ci saranno giochi in RT, se AMD avesse presentato la stessa cosa più di metà del die sarebbe rimasta a prendere polvere se non in due gochi di numero.
Nvidia se lo può permettere perchè tanto le gpu vengono comprata a prescindere, in preorder, senza recensioni e a 1300€... cosa può volere di più un'azienda? :asd:
Il problema degli utenti è se prendere ora una 2080 tiai a 1300€ o aspettare ancora un po' per vedere se esce la super titan ultra graphics mega power tiai a più di 2000€ :rotfl:
eh certo, con il supporto ridicolo che da AMD agli sviluppatori :asd:
non è riuscita nemmeno ad abilitare nei driver tutte le feature sbandierate con VEGA... ha presentato HSA e lo ha lasciato li a morire, ha sbandierato OpenCL e poi ci ha messo CINQUE anni a investirci in prima persona... Quando nVidia era partita al Day One della presentazione di CUDA..
con questo modo di fare cosa vuoi che adottino gli sviluppatori :asd:
nVidia se lo puo permettere perchè nel momento della presentazione dell'hardware se ne esce con la collaborazione con 3 giochi AAA con l'RT e con altri 15 con il DLSS.
Gyammy85
03-09-2018, 19:29
E come la giriamo giriamo la colpa è sempre di amd :asd:
Ton90maz
03-09-2018, 19:42
no, i chip sono profondamente differenti.
se tu prendi una VEGA Instinc e una VEGA 64 hanno esattamente lo stesso chip e AMD pratica le differenziazioni solo attraverso i driver.
se tu prendi una Tesla e una 2080Ti hanno chip profondamente differenti; cambia l'organizzazione dei CUDA, cambia il controller, cambiano le unita dedicate.
nelle Tesla i CUDA sono organizzati in un modo, hanno le HBM che danno molta banda per quei dati che non possono essere compressi, hanno unita FP64 e molti piu collegamenti nVlink; nelle Gaming/Quadro hanno adottato un'organizzazione differente dei CUDA, hanno gli RT, hanno una compressione ottima che lavora bene con i dati visual, il che gli permette di non avere il collo con le GDDR6
Come sono fatti e che differenze hanno lo so bene, non è in quegli aspetti che si somigliano.
Vediamo se riesco a spiegarmi, al di là delle ben note differenze, che comunque interessano anche le schede AMD (tipo il diverso tipo di collegamento che hanno in fascia media e sui chipponi) o il maggiore rapporto DP della futura Vega 20, la parte, diciamo, più geometrica o lo stesso singolo Cuda Core non è molto simile se non identico? E' una cosa che non ho mai capito.
Gyammy85
03-09-2018, 19:54
Beh le sue colpe le ha.
Si possono capire per gli anni scorsi quando AMD era in difficoltà e non poteva certo permettersi di spingere tutto e supportare tutto, però adesso che si sono ripresi nelle cpu e hanno un po' di soldini se vogliono lanciare bene anche le gpu devono investire in supporto e collaborazioni.
Alla fine sono sempre gli stessi discorsi che facciamo, le collaborazioni fanno bene e non ci sono dubbi, ma per arrivare allo stesso livello di nvidia come penetrazione ce ne vuole.
Io preferisco continuare ad avere gpu potenti e di qualità che vanno bene in generale e benissimo in particolare che avere la gpu che va bene nei titoli collaboranti e avere il terrore e fare terrorismo "mi raccomando usate le api nuove solo al nostro segnale o sono guai".
AceGranger
03-09-2018, 20:08
Come sono fatti e che differenze hanno lo so bene, non è in quegli aspetti che si somigliano.
Vediamo se riesco a spiegarmi, al di là delle ben note differenze, che comunque interessano anche le schede AMD (tipo il diverso tipo di collegamento che hanno in fascia media e sui chipponi) o il maggiore rapporto DP della futura Vega 20, la parte, diciamo, più geometrica o lo stesso singolo Cuda Core non è molto simile se non identico? E' una cosa che non ho mai capito.
il CUDA core di base è lo stesso, seno spenderebbero una fucilata a fare 2 architetture completamente differenti, pero poi il resto che ci gira intorno non lo è; anche il solo fatto di organizzarli in modo differente per meglio adattarli al calcolo Gaming o a quello Computing non è cosa di poco conto.
AMD questo non lo ha mai fatto, ha sempre avuto un solo chip uguale in tutto e per tutto; ora sembrerebbe aver imbroccato anche lei questa via; d'altra parte non si puo piu fare come negli anni passati dove si saliva con il TDP, ormai, il "limite" dei 300W è stato raggiunto e l'efficienza riveste un ruolo troppo importante se non vogliono perdere del tutto il treno del mercato computing.
The Pein
03-09-2018, 20:49
nvidia ha 10 mila dipendenti..Amd 8900 dipendenti per cpu e gpu, risulta che abbiano bisogno di altri 10 mila dipendenti oltre a pacchi di soldi!!...ecco perchè fa le stesse o quasi cose ma non porta mai a termine Niente!
AceGranger
03-09-2018, 21:03
nvidia ha 10 mila dipendenti..Amd 8900 dipendenti per cpu e gpu, risulta che abbiano bisogno di altri 10 mila dipendenti oltre a pacchi di soldi!!...ecco perchè fa le stesse o quasi ma non porta mai a termine Niente!
nVidia è cresciuta tantissimo negli ultimi 4-5 anni.
prima del 2015 AMD fatturava sensibilmetne piu di nVidia, ora invece nVidia quasi la doppia.....
la differenza è che dal 2015 nVidia ha investito tantissimo e sviluppato architetture efficienti, AMD ha puntato su Fury :stordita:
The Pein
03-09-2018, 21:18
nVidia è cresciuta tantissimo negli ultimi 4-5 anni.
prima del 2015 AMD fatturava sensibilmetne piu di nVidia, ora invece nVidia quasi la doppia.....
la differenza è che dal 2015 nVidia ha investito tantissimo e sviluppato architetture efficienti, AMD ha puntato su Fury :stordita:
una mondezza...devono iniziare a capire che devono fare un architettura nuova ogni volta...chissa come mai Nvidia ha questi risultati....
Einhander
03-09-2018, 21:35
per favore... non incominciamo con questa scusa bella e buona...
AMD il danno se lo è fatta da sola con quel cesso di BD e con architetture GPU mediocri, e non venirmi a dire che è stata colpa dei soldi, perchè Zen è stato sviluppato durante un periodo economico ben peggiore di quello dello sviluppo di del Faildozer, eppure hanno tirato fuori un'architettura ottima...
la colpa è stata solo di quello che ha deciso di puntare sul CMT dopo che il sostenitore dell'SMT se ne era andato da AMD; persona sbagliata a decidere = pessimi prodotti.
Prima di tutto non e' una scusa, e' un dato di fatto.
C'e' una sanzione espressa dalla corte europea quindi per favore evita tu di sminuire le pratiche illecite attuate da intel per ostacolare illegalmente il proprio competitor sul territorio europeo (in realta' anche in america, ma non ci fu mai una condanna per questo). Se tu pensi che per un'azienda come AMD una cosa del genere sia una scusa dietro cui nascondersi e' un'idea tua e per tanto tua e solo tua rimane.
Quella situazione ha immobilizzato, dal punto di vista finanziario l'azienda per molto piu' tempo di quanto tu possa immaginare o voglia immaginare.
Tutte le aziende sbagliano prima o poi o cmq trovano una concorrenza agguerrita, ma non ESISTE al mondo che una pratica illecita possa essere considerata una scusa.
Fosse solo per i soldi che in una decade amd ha perso senza contare il market share e tutte i c@zzi correlati, non ti viene da pensare che sarebbero tornati utili o per rimediare piu' in fretta ai propri errori o magari per non commetterli proprio o per essere piu' competitiva data la dimensione del suo avversario?
Oppure per te e' normale e' lecito un comportamento del genere?
O pensi che dieci anni di pressioni/ricatti sui vendor di tutta europa -e in realta' anche dell'america, ma li la commissione europea non aveva potere ovviamente- abbia conseguenze minime o al limite risolvibili in un paio d'anni?
Non e' una scusa, ne tanto meno una giustificazione agli errori commessi dalla dirigenza in amd, ma so per certo che il danno e' stato enorme se rapportato al fatturato e al bisogno che amd aveva in quegli anni di vendere i proprio prodotti data la dimensione complessiva dell'azienda.
In tutto cio' i primi a subirne le conseguenze siamo stati noi eppure sembri minimizzare, evidentemente per te non e' una cosa grave o dal grande impatto.
I soldi persi sono stati soldi NON INVESTITI in r&d, marketing, dirigenza e in generale personale competente.
In tutto cio', date le condizioni in cui versava l'azienda A SEGUITO DI TALI PRATICHE amd fu costretta ad accettare una somma molto piu' bassa rispetto a quella inizialmente prevista proprio perche' era con l'acqua alla gola.
Intel con quella mossa ci ha fregati tutti, ma sentire un consumatore dire che e' una scusa e' proprio la beffa dopo il danno subito.
Un po' come quando si difendeva nvidia per i 3.5+0.5 gb di vram della 970 :rolleyes:
Angeland
03-09-2018, 21:40
una mondezza...devono iniziare a capire che devono fare un architettura nuova ogni volta...chissa come mai Nvidia ha questi risultati....
Si perchè nvidia cambia architettura ad ogni nuova uscita di gpu :sofico:
Va bene trollare, perchè alla fine è "sempre colpa di amd" cit, ma almeno informiamoci prima di scrivere :asd:
Gyammy85
03-09-2018, 21:47
https://www.techpowerup.com/247305/amd-fast-tracks-7nm-navi-gpu-to-late-2018-alongside-zen-2-cpu
ArticolONE interessantissimissimissimo :eek: :cool: :D :) :oink:
Gyammy85
03-09-2018, 21:57
https://www.techpowerup.com/247305/amd-fast-tracks-7nm-navi-gpu-to-late-2018-alongside-zen-2-cpu
ArticolONE interessantissimissimissimo :eek: :cool: :D :) :oink:
Scusate mi quoto perché leggendo la news sembra presa dal comunicato di amd presente sul suo sito, non ne sono sicuro ma sembra quello. Però non ricordo si parlasse di Navi in quello, quindi potrebbe essere una sorta di aggiornamento.
Free Gordon
04-09-2018, 02:17
Vedo che già siamo in pieno HYPE :asd:
Pure la storia dei 7 nm che costano di più...vabbbè...
:asd:
E rispondendo anche a Grid... :doh:
BY AMD:
https://diit.cz/sites/default/files/styles/custom/public/amd_7nm_costs.png?itok=w-xthm44
Quindi un die di 300mmq sul 7nm, costa come un die di 600 sul 16/14...
Gyammy85
04-09-2018, 08:51
:asd:
E rispondendo anche a Grid... :doh:
BY AMD:
https://diit.cz/sites/default/files/styles/custom/public/amd_7nm_costs.png?itok=w-xthm44
Quindi un die di 300mmq sul 7nm, costa come un die di 600 sul 16/14...
Insomma la scheda perfetta è a 16-14-12 nm per costare poco, e con le gddr6 che costano gratis, per poi venderla a 1300 euro "azz costa pochissimo è merito delle tecnologie gaming impiegate" :asd: :asd:
Quindi niente schede da 160 euro che vanno come quelle da 1000 della concorrenza per farle scendere di prezzo? Pazienza ne spenderemo 250...
Il titolo dice il contrario del testo :asd:
Si si sono confusi fra vega e navi, però ciene citata espressamente nel comunicato, Navi gpu architecture...
Ora che ci penso, inizialmente era prevista nel 2018, dato che esce nel 2019 probabilmente avranno introdotto molte altri cambiamenti tanto da farne un'architettura radicalmente diversa da vega...
Gyammy85
04-09-2018, 09:02
Hanno solo fatto del casino nel leggere il comunicato :>
Parlano dei 7nm e di come avranno già la prima GPU nel 2018 (Vega20) e le prime CPU nel 2019 (Zen2) e di come siano intenzionati a non perdere tempo per tutta la lineup a 7nm, con nessun ritardo sulla roadmap a causa dell'abbandono dei nodi edge da parte di GF (è cosa nota che dai 14nm stanno facendo doppi tapeout GF+TSMC per non rischiare nulla, e infatti :D). Poi come valutare il ritardo su roadmap che non son pubbliche è un altro paio di maniche. Ormai si son rotti tutti (nvidia e amd) le palle di pubblicare roadmap e di farsi dire che sono in ritardo perché è in ritardo una tecnologia di cui non hanno il controllo (nodo, memorie, substrato, etc).
Se notate Pascal è apparso sulle roadmap nVidia il giorno del lancio, Volta è in ritardo di due anni rispetto alle roadmap pubbliche precedenti, Touring non si è mai visto su una roadmap prima del lancio, etc...
Quel navi gpu architecture mi intriga :oink: :oink:
Gyammy85
04-09-2018, 10:14
Che il 7nm costerà circa il doppio dei 14 all'inizio, si sapeva (solo gyammy non lo sapeva :D )
Chiedo scusa per le mie lacune :D :D
Gyammy85
04-09-2018, 11:03
Quindi mi sembra che a spanne ci si aspetti un raddoppio di vega 20 su vega 10 giusto? Circa 20 tf, se poi riusciranno a far funzionare a dovere il primitive anche dal punto di vista poligonale dovrebbe distruggerla...ci starebbe dato che ad ogni salto di architettura il througput aumenta (basta guardare l'evoluzione attraverso le varie iterazioni di gcn)
Gyammy85
04-09-2018, 11:24
Raddoppio no, Vega10 ad esempio la FE era considerata 13TF, Vega64 aria 12.5TF, cioè considerando clock boost stock e non in OC come la liquid.
Sono circa +60% in TF, a numeri sembra poco con salto nodo, ma bisogna valutare innanzitutto se non ne ha di più, ma inoltre come appunto vengono sfruttati e i consumi se inferiori dato che è più piccola di Vega10.
Comunque non ti aspettare chissà cosa, soprattutto alla luce che è una gpu computing fp64 quindi a detto loro non gaming.
Alla fine sta sempre sopra turing quindi come incremento ci sta. Lo so che non è da gaming, ma ricordo che certi applicativi utilizzassero anche capacità poligonali, infatti vega riusciva ad andare anche 5/6 volte tanto la furyx...
Dici che dovevano arrivare a 24 tf?
Gyammy85
04-09-2018, 11:54
https://s22.postimg.cc/4kyv2om35/screenshot_174.png
Quindi la mi6 e la mi8 erano sostanzialmente una 480/580 e una furyx, interessante...
Gyammy85
04-09-2018, 11:57
Adesso lo sai? :asd:
Non ci avevo fatto caso :eek: :eek:
Oggi ce l'avete tutti con me :( :(
AceGranger
04-09-2018, 12:26
Alla fine sta sempre sopra turing quindi come incremento ci sta. Lo so che non è da gaming, ma ricordo che certi applicativi utilizzassero anche capacità poligonali, infatti vega riusciva ad andare anche 5/6 volte tanto la furyx...
Dici che dovevano arrivare a 24 tf?
si ma sta un nodo di pp sopra Turing.... e questa non andra in competizione con Turing, ma con il successore di Volta, che non credo tardera molto ad arrivare, visto che GP100 è durato 12 mesi e che ora Volta ha gia 16 mesi.
per fine 2018 / inizio 2019 è plausibile aspettarsi la nuova Tesla a 7nm da nVidia
Free Gordon
04-09-2018, 12:26
Poi dite che Gyammy trolla ma ve le cercate. :asd:
Un die da 300mmq su 7nm costa come uno da 600 su 16/14 anche perchè è equivalente con vantaggi in frequenze e consumi.
Quindi tra un die 300mmq 7nm e un die 600 mmq 16/14nm allo stesso prezzo è decisamente meglio il primo.
Non si stava parlando di meglio/peggio, si stava parlando di costi di un'eventuale versione "cuttata" di Vega20 per il mercato gaming... :)
E la verità è quella...non che AMD possa fare una concorrenza spietata ad Touring con i cut delle 7nm "pro"...perché gli costa una balla di fumo (quello che diceva Grid nel post che ha originato questa discussione, poi trollato da Gyammy senza nemmeno andare a verificare cosa avevo scritto).
Ma è evidente anche da questa slide che non è così conveniente per AMD.
Potrebbe essere fattibile...ma credo sarebbe molto meglio vendere Vega20 (sempre coi 4geo presumo) in un mercato dove rende di più come architettura...e non nel gaming.
Poi se non si vuole accettare che i 7nm siano molto più costosi dei 14/16 allora alzo le mani.. :D
Free Gordon
04-09-2018, 12:32
E' inutile che trolli, metti faccine facepalm, non stai parlando con un cretino ;)
Poi se vuoi scherziamo e va bene, abitassimo vicino ci andremmo pure a bere una birra (anzi se ti capita di passare da Vercelli scrivimi), ma se stai parlando seriamente ti rispondo seriamente ;)
:doh:
In questo forum, se non si è allineati si è messi al rogo... è l'ennesima volta che parli di me senza parlare dell'argomento.. (e cmq, ho parlato realisticamente di un 30% di costi maggiori, non del doppio, perché è chiaro che allo scendere della miniaturizzazione ci sono i vantaggi che derivano dall'area minore).
Ma quella slide di AMD non se la ricordava nessuno eh..? :)
Trovami un solo post dove ho attaccato te personalmente (come invece fai tu costantemente con me.. :) ) e poi ne riparliamo. ;)
Gyammy85
04-09-2018, 12:32
si ma sta un nodo di pp sopra Turing.... e questa non andra in competizione con Turing, ma con il successore di Volta, che non credo tardera molto ad arrivare, visto che GP100 è durato 12 mesi e che ora Volta ha gia 16 mesi.
per fine 2018 / inizio 2019 è plausibile aspettarsi la nuova Tesla a 7nm da nVidia
Fine 2018 mi sembra troppo presto...ma la cosa importante è che non freghi troppi wafer ad amd :O almeno le hbm2 a sto giro se le pappa tutte lei :D
Non si stava parlando di meglio/peggio, si stava parlando di costi di un'eventuale versione "cuttata" di Vega20 per il mercato gaming... :)
E la verità è quella...non che AMD possa fare una concorrenza spietata ad Touring con i cut delle 7nm "pro"...perché gli costa una balla di fumo (quello che diceva Grid nel post che ha originato questa discussione, poi trollato da Gyammy :asd: senza nemmeno andare a verificare cosa avevo scritto).
Ma è evidente anche da questa slide che non è così conveniente per AMD.
Potrebbe essere fattibile...ma credo sarebbe molto meglio vendere Vega20 (sempre coi 4geo presumo) in un mercato dove rende di più come architettura...e non nel gaming.
Poi se non si vuole accettare che i 7nm siano molto più costosi dei 14/16 allora alzo le mani.. :D
Ma al 99% questa versione non ci sarà, quindi sono discorsi inutili...
Per il costo dei 7 nm, mi sembra anche questa una disputa inutile, visto che il passaggio è inevitabile. Se poi ti piace dire che qualsiasi scelta di amd è sbagliata è un altro discorso.
Free Gordon
04-09-2018, 12:37
Ma al 99% questa versione non ci sarà, quindi sono discorsi inutili...
Per il costo dei 7 nm, mi sembra anche questa una disputa inutile, visto che il passaggio è inevitabile. Se poi ti piace dire che qualsiasi scelta di amd è sbagliata è un altro discorso.
Eccolo quì... un altro post in cui si parla dell'utente e non dell'argomento... :)
Che cosa ti fa presumere che io stia attaccando deliberatamente la tua amata?
Guarda Gyammy... ho 41 anni e ho AMD nel case dal 1999.... :doh:
Gyammy85
04-09-2018, 12:42
Comunque è Turing, Touring sono le BMW :asd: :Prrr:
AceGranger
04-09-2018, 13:06
Fine 2018 mi sembra troppo presto...ma la cosa importante è che non freghi troppi wafer ad amd :O almeno le hbm2 a sto giro se le pappa tutte lei :D
e perchè mai troppo presto ? la Instinct a dicembre compira 18 Mesi, Volta 19 mesi, quindi non credo manchera molto nemmeno a nVidia.
Ma al 99% questa versione non ci sarà, quindi sono discorsi inutili...
Per il costo dei 7 nm, mi sembra anche questa una disputa inutile, visto che il passaggio è inevitabile. Se poi ti piace dire che qualsiasi scelta di amd è sbagliata è un altro discorso.
il problema dei 7nm è solo per la gaming; con le Instinct / Tesla è un non problema, ti puoi permettere di arrivare con un pp nuovo e costoso perchè tanto i costi superiori sono "ininfluenti", visto che poi le GPU le vendono comunque 7000-8000 dollari
https://www.cdw.com/product/AMD-Radeon-Instinct-MI25-GPU-computing-processor-Radeon-Instinct-MI25/4903242?pfm=srh
https://www.cdw.com/product/NVIDIA-Tesla-V100-GPU-computing-processor-Tesla-V100-16-GB/4880082?pfm=srh
VEGA 20 non avra problemi con i 7nm, ma imho, credo che tu ti possa scordare di avere le gaming nel Q1.
per me, se va bene, le presentano nel Q2 e arrivano nel Q3, almeno 6 mesi per sperare di avere una revision migliore del silicio e soprattutto i volumi necessari per le gaming.
bagnino89
04-09-2018, 16:11
Comunque è ancora da capire bene quanto diavolo vanno 'ste nuove Nvidia, finora tante chiacchiere e teoria ma senza benchmark seri sono solo supposizioni.
Comunque è ancora da capire bene quanto diavolo vanno 'ste nuove Nvidia, finora tante chiacchiere e teoria ma senza benchmark seri sono solo supposizioni.Andranno un 35% in piu rispetto alla serie precedente. Che è anche buono.
Cosa che non mi piace è che le facciano.pagare cosi tanto per il RT, che poi é utilizzabile solo a 1080P... al pelo tra l'altro... Ma è nvidia si sa...
Io continuo a sperare che AMD se ne esca con qualcosa di valido, senza fretta che per ora Verga64 a 3440x1440P va più che bene.
Anzi sinceramente non avrei alcun motivo per cambiare al momento.
Inviato dal mio SM-G935F utilizzando Tapatalk
bagnino89
04-09-2018, 16:24
beh ma se loro stessi hanno dichiarato +35%, non è che potrà +10 o +70... sarà circa quel valore li.Dove hanno detto +35%? Mi è sfuggito. Avevo visto qualche slide Nvidia ma col mischiare DLSS e ray tracing non è facile capire quanto vadano davvero in più rispetto alle Pascal.
Comunque se è davvero così, è poco... Per lo meno per i prezzi proposti, spregiudicati.
AceGranger
04-09-2018, 16:35
Dove hanno detto +35%? Mi è sfuggito. Avevo visto qualche slide Nvidia ma col mischiare DLSS e ray tracing non è facile capire quanto vadano davvero in più rispetto alle Pascal.
Comunque se è davvero così, è poco... Per lo meno per i prezzi proposti, spregiudicati.
Tom Petersen, tech PR, in un'internista ha detto che le prestazioni della nuova generazione andranno dal 35% al 45%, riferito in particolare ai giochi senza nuove feature; quelli nuovi invece di piu "and it’s going to rock it when you adopt new technology"
bagnino89
04-09-2018, 16:39
Diciamo che io sono un po' come Tommaso d'Aquino allora :asd:
Aspettiamo 'sti benchmark con le barrette degli FPS.
bagnino89
04-09-2018, 16:56
It just works! :asd:
Diciamo che io sono un po' come Tommaso d'Aquino allora :asd:
Aspettiamo 'sti benchmark con le barrette degli FPS.
upscalate in 4K :O
Guarda hai sbagliato thread, non è un thread nVidia dove si viene etichettato costantemente come fanboy, come barboni, come bambini o dove viene richiesto di essere ignorato se non la pensi come loro, sbagli proprio approccio.
Per esempio guarda Bivvoz e la storia del DLSS, uno stupido upcscaler che manco fosse il santo graal, è stato etichettato come fanboy per averlo solo pensato, poi alla fine è così, ma siccome lo fa nVidia allora adesso gli upscaler sono la manna dal cielo e il fatto che il gioco debba essere studiato dall'IA per upscalarlo è un passaggio da poco conto.
Poi dicono di non essere dei Fanboy nVidia, ma per favore.
Adesso non capisco per cosa stai facendo la vittima guarda, e bypassi il discorso sui costi dove ti ho spiattellato davanti i calcoli realistici al salire delle dimensioni, e che no 300mmq sul 7nm non costano come 600mmq sul 14nm nonostante il costo superiore dl silicio nuovo per il rapporto quadratico dello yeld, ma non li hai manco quotati...
Ho solo detto che il tuo modo da piangina degli ultimi periodi ha francamente stufato, ogni post c'è la manfrina e la lamentela contornata da faccine che piangono, santo cielo dici di avere 41 anni ma scrivi come se ne avessi 18, francamente se domani AMD non fa più GPU me ne sbatto le balle sai, alle porte dei 30 anni di sti discorsi di guerra fra bande me ne frega proprio 0, faccio sarcasmo e battute quanto mi pare poi se gli utenti si offendono fatti loro...
STOP!
>bYeZ<
ninja750
04-09-2018, 18:43
beh ma se loro stessi hanno dichiarato +35%, non è che potrà +10 o +70... sarà circa quel valore li.
magari sono dichiarazioni stile release notes dei driver AMD
+40% FASTER
(@4K, from 10 to 14fps) (@1080P + 2% from 100 so 102 fps)
ninja750
04-09-2018, 18:44
VEGA 20 non avra problemi con i 7nm, ma imho, credo che tu ti possa scordare di avere le gaming nel Q1.
ma se danno navi per il 2019 :mbe:
ma se danno navi per il 2019 :mbe:
anfatti
Q1 2019
più facile Q2
nel frattempo il mio accantonamento ingrassa :stordita:
ninja750
04-09-2018, 18:52
nel frattempo il mio accantonamento ingrassa :stordita:
con AMD se accantoni 1€ al giorno ti fai ogni volta la fascia enthusiast :fagiano:
Roland74Fun
04-09-2018, 18:59
Diciamo che io sono un po' come Tommaso d'Aquino allora :asd:
Aspettiamo 'sti benchmark con le barrette degli FPS.Su techpowerup hanno messo dei bench leakati da qualche tester in Asia. La 2080ti sta sopra la 1080ti dal 22% al 55% a seconda del gioco.
Poi non so quanto siano attendibili.
Gyammy85
04-09-2018, 19:39
https://www.overclock3d.net/news/software/strange_brigade_is_the_first_game_to_support_the_vulkan_api_with_multi-gpu_systems/1
Strange Brigade mGPU on Vulkan
Wow :eek:
Praticamente il doppio
Anche doom eternal supporterà la cosa essendo vulkan :cool:
sgrinfia
04-09-2018, 21:58
Domanda : ma per vulkan ci vuole W10 ?.:confused:
Gyammy85
04-09-2018, 22:02
Domanda : ma per vulkan ci vuole W10 ?.:confused:
No
sgrinfia
04-09-2018, 22:40
Altra domanda: ma la hd 7950 e r9 290 supportano Vulkan?.
Gyammy85
04-09-2018, 22:48
Altra domanda: ma la hd 7950 e r9 290 supportano Vulkan?.
Si
Angeland
04-09-2018, 23:00
Altra domanda: ma la hd 7950 e r9 290 supportano Vulkan?.
:ave: :ave: :ave:
Roland74Fun
04-09-2018, 23:12
Altra domanda, ma l'altra mia scheda video supporta vulkan e dx12?
https://uploads.tapatalk-cdn.com/20180904/a4c7d3218bdb035ed234466fcf34af3a.jpg
AceGranger
04-09-2018, 23:41
ma se danno navi per il 2019 :mbe:
scusa ma per te il Q2 e Q3 non fanno parte del 2019 ?
ho scritto che per me non arriveranno nel Q1, non che non arriveranno nel 2019...
sgrinfia
04-09-2018, 23:41
Altra domanda, ma l'altra mia scheda video supporta vulkan e dx12?
https://uploads.tapatalk-cdn.com/20180904/a4c7d3218bdb035ed234466fcf34af3a.jpg
Sicuramente :asd: :asd:
sgrinfia
04-09-2018, 23:45
Si
devo impostare qualcosa nella suite ho basta le impostazioni del gioco?(naturalmente se il gioco supporta Vulcan).
Roland74Fun
05-09-2018, 02:43
Altro che giochi nuovi, qui e tutto un casino con questi drivers di agosto. Prestazioni diminuite, stuttering a palla ed altri casini vari nonostante le varie pulizie e reinstallazioni.
Rimesso quelli di luglio e tutto è tornato perfetto.
A voi tutto normale?
Gyammy85
05-09-2018, 08:24
devo impostare qualcosa nella suite ho basta le impostazioni del gioco?(naturalmente se il gioco supporta Vulcan).
Solo dal gioco. Per strange brigade all'avvio compare la finestra dove si sceglie se avviare il gioco in vulkan o in dx12, wolf 2 è solo vulkan, doom si imposta dalle impostazioni grafiche.
Gyammy85
05-09-2018, 08:25
Altro che giochi nuovi, qui e tutto un casino con questi drivers di agosto. Prestazioni diminuite, stuttering a palla ed altri casini vari nonostante le varie pulizie e reinstallazioni.
Rimesso quelli di luglio e tutto è tornato perfetto.
A voi tutto normale?
A me vanno bene, in quali giochi hai problemi?
Gioco a war Thunder e Dragon Age inquisition al momento e niente da segnalare. Non ho notato peggioramenti o problemi. DA:I mi scende felicemente anche a 45/50fps in alcune zone ma lo faceva anche prima.
Inviato dal mio ZTE A2017G utilizzando Tapatalk
Gyammy85
05-09-2018, 09:18
Allora non è solo a me che partono le H a caso :stordita:
:asd:
Certo io mica metto i driver appena escono :sofico:
Io si li metto subito quasi sempre :O :O
Roland74Fun
05-09-2018, 10:05
Scusatemi, non volevo fare il disfattista.
Solo che ultimamente avevo dei problemi col mio programma di overlay.
Contattato il supporto mi hanno mandato una beta del prossimo aggiornamento ma anche quella riportava gli stessi problemi.
Inoltre il freesync funzionava random e dove dove funzionava incespicava. Problemi inoltre di crash del driver messaggi minacciosi con X rossa all'uscita di qualche gioco ed evidenti ed inspiegabili drop in molti giuochi.
Alla fine rimesso i drivers di luglio tutto sparito ed anche il programma di monitoraggio andava alla grande.
Ho contattato gli sviluppatori dicendo che avevo risolto e che il problema era dovuto ai nuovi drivers AMD con i quali avevo riscontrato anche: "other bugs, issues, stuttering and low performance.
La loro risposta è stata lapidaria:
As alwais whit AMD :))) LoL :D
Gyammy85
05-09-2018, 11:06
Strano che riscontri quei problemi...alla fine ogni pc fa storia a se, per esempio a lui coi driver di luglio andava relive con vulkan e a me no con quelli di agosto invece a me funziona tutto...
Ma contattato il supporto di chi?
geforce experience
Gyammy85
05-09-2018, 11:16
geforce experience
Quello funziona bene sicuro
AceGranger
05-09-2018, 11:49
Ma contattato il supporto di chi?
del software con cui aveva il problema
del software con cui aveva il problema
Eh, la domanda è: che software? Se si chiede se altri hanno problemi, di solito si riporta, no? :D
Gyammy85
05-09-2018, 12:16
Voi che dite?
navi 80 e 88
navi 88 e 96
Facciamo un poll interno :O
Roland74Fun
05-09-2018, 12:54
Ma contattato il supporto di chi?
Del software con cui avevo il problema.
Free Gordon
05-09-2018, 13:12
Enthusiast: 96, 84
Performance: 64, 56
Mainstream: 40, 32
Entry: 16
Se sono 20Tf per Vega20
significa che ponendo un clock sui 2ghz per questo chip a 7nm vorrebbe dire: 80CU * 64sp (*2flops) * 2000mhz = 20.5Tf..
Non credo che Navi andrà oltre se la base di GCN è sempre quella..
Meglio salire ancora di clock che crescere con le dimensioni dello shader core.
Sarebbe meglio 2200mhz e stessa archi, piuttosto che passare a 96CU che non verrebbero ben sfruttate (avendo poi sempre sulla groppa i 4 motori geometrici).
Sinceramente spero che Navi sia una forte sterzata in una direzione diversa...che ancora non conosciamo.
Gyammy85
05-09-2018, 13:26
Enthusiast: 96, 84
Performance: 64, 56
Mainstream: 40, 32
Entry: 16
Ha senso, la fascia performance corrisponderebbe alle attuali 570 e 580, in effetti anche solo shrinkare vega 56 e 64 sarebbe un bel colpo
Gyammy85
05-09-2018, 15:19
Imho state sognando di brutto.
Le Navi saranno 2 al massimo, una in fascia mainstream (l'attuale ellesmere) e una in fascia performance (attuale vega) per un totale di 4 gpu (ogni gpu in versione full e versione cut).
E su quella grossa in fascia performance non sono manco tanto convinto.
C'è anche la probabilità che scalino di uno, cioè invece di fare la piccola per x80/x70 potrebbero fare la piccola per x70/x60 e la grande per x90/x80.
In questo modo vanno a sostituire vega56, rx580, rx570 e rx560 sotto resta polaris rebrand x3 a frequenze più efficienti.
4 o 5 die diversi scordateveli, credo non li abbia mai fatti nessuno 4 o 5 die nuovi in un colpo solo.
Solitamente 2 alla volta, massimo 3 dove il terzo è quasi finto (come la titan per nvidia che tanto costa un botto e ne vendono poche)
Perché pensi che non possa competere con 2080ti? siamo a +35% sulla 1080ti alla fine eh...
Gyammy85
05-09-2018, 16:01
Perchè pensi che vogliano farlo?
Lo ritengo a portata di mano. Già vega ha uno scaling lineare fra frequenze e ipc rispetto a fiji, a parità di unita, con archi nuova e 7 nm e molte più cu il guadagno sarà considerevole...
Free Gordon
05-09-2018, 16:18
Imho state sognando di brutto.
Credo anche io che se non cambiano architettura, avremo la Navi più grossa a 80CU e poi il cut.. (quindi "roba" che andrà vs 1180 e 1170).
Poi ci sarà la Navi che andrà nella fascia della 1160.
Se non cambiano architettura, è ancora da vedere se uscirà una scheda con 6 motori geometrici..
Io spero di sì ma se non vedo non credo.
EDIT: volevo dire ovviamente 2080-2070 ecc ecc
Gyammy85
05-09-2018, 16:55
Vega 20 potrebbe essere un chippone da computing, Navi sarà un chip (ino o one chi lo sa) da gaming, potrebbe passarci la stessa differenza che passa tra un GV100 e un TU102 di Nvidia.
È un po' come paragonare un SUV con una supercar, sono due cose diverse pensate per fare cose diverse.
Ovviamente oggi non abbiamo informazioni certe ma che vega 20 è solo compute si, questo lo hanno detto chiaramente.
Non ricordo se hanno detto che Navi sarà gaming ma è lecito pensarlo.
Si si navi gaming
Insomma vega 20 chippone non direi, è tipo 320 mm2...
ninja750
05-09-2018, 17:32
+ le office reciclate dai 28nm come 530-520
quelle ormai sono fasce morte con le integrate nelle CPU es 2200G/2400G a meno che non vogliano creare schede giusto per replacement di VGA fritte in vecchi PC
Gyammy85
05-09-2018, 20:06
GPU che vanno come una 2070 a 350€ le troverai tra un mesetto... le 1080 :stordita:
Quindi è del tutto superfluo che le faccia amd!! Chiamate ale55andro :asd:
ninja750
05-09-2018, 20:13
la fascia media o cala di prezzo o il gaming su pc è morto
Gyammy85
05-09-2018, 20:25
la fascia media o cala di prezzo o il gaming su pc è morto
Non può calare perché non ci sono più le condizioni.
È strutturalmente passata da 180-200 a 300, bisognerà farsene una ragione.
Roland74Fun
05-09-2018, 20:30
la fascia media o cala di prezzo o il gaming su pc è mortoBasta convertirsi ai 30 fps medio-alti. Non muoiono i consolorari e non moriemo nemmeno noi.
È comunque la 480 nitro fa 8 GB. la pagai 250 euro a fine Novembre 2016.
Windtears
05-09-2018, 21:00
Non può calare perché non ci sono più le condizioni.
È strutturalmente passata da 180-200 a 300, bisognerà farsene una ragione.
più che altro non so quanto influiranno (intesa come scusa) i dazi usa su tutto l'hardware da ora in avanti.. :(
Gyammy85
05-09-2018, 21:03
Quanto pessimismo...pensate alla bella navetta 2080ti like 600€ spedita :O
Windtears
05-09-2018, 22:22
Cosa centrano gli usa con l'hw? :stordita:
costi di import hardware prodotto in cina... :) ne parlava steve di gn che perfino amazon sta facendo pressioni sui fornitori per non aumentare msrp, ma al 99.9% discontinueranno e crearanno gli stessi prodotti con un altro id per aggirare la cosa...
magari da noi in eu non colpirà, ma non ci credo. :P
Roland74Fun
05-09-2018, 23:01
Magari se il marchio è USA il prodotto pur fabbricato in delocalizzazione non pagherà dazi se per il mercato interno.
A quel punto i grandi marchi delle multinazionali (penso anche alle scarpe od al tessile) faranno affari d'oro senza la concorrenza dei prodotti clonazzi.
Windtears
05-09-2018, 23:14
Scusa ma se l'hw lo producono in Cina o comunque in Asia non credo che lo portino in Usa prima di portarlo in Europa :fagiano:
Se lo producono in Cina e lo vendono in Europa perchè dovrebbero pagare i dazi Usa?
Magari sono ignorante io eh, se così fosse spiegamela meglio :)
se asus usa perde il 20% di guadagno per dazi di importazione in america li ricaricherà completamente sul mercato americano o li spalmerà su tutti per evitare l'esborso maggiore da parte di uno dei suoi mercati principali?
questa è la mia "paura".
sono divisioni di una stessa azienda, ma aumentare di 20$ solo in usa dove hai potenzialmente x milioni di acquirenti non è la stessa cosa che 10$ in usa e 10$ in europa (la sparo lì)... e già i margini sulle schede video, diceva sempre steve, erano sul 3%... -.-
se ho scritto fregnacce ignorate il mio post, sorry. :(
Ton90maz
05-09-2018, 23:46
Basta convertirsi ai 30 fps medio-alti. Non muoiono i consolorari e non moriemo nemmeno noi.
È comunque la 480 nitro fa 8 GB. la pagai 250 euro a fine Novembre 2016.
Tra un po' manco su console rimangono a 30 fps :doh:
Free Gordon
06-09-2018, 05:22
Basta non mettere tutto su Ultra "perché sì"
che poi non serve a nulla..
la differenza fra ultra e (addirittura) medium... in molti casi nei giochi PC è risibile... Mentre il decadimento prestazionale è devastante..
Gyammy85
06-09-2018, 08:46
https://phoronix.com/scan.php?page=news_item&px=AMDGPU-XGMI-Vega20-Patches
"XGMI is basically AMD's alternative to NVIDIA's NVLink for inter-connecting GPUs. Previously leaked slides indicated that XGMI would be supported on Vega 20 along with PCI Express 4.0. That appears accurate as becoming public today were a set of patches wiring in XGMI support to the AMDGPU Direct Rendering Manager driver and explicitly enabling the functionality for Vega 20. It's also expected AMD's upcoming Naples server CPU architecture will also support XGMI".
Gyammy85
06-09-2018, 09:46
Più di 3000 pagine, quale altro forum al mondo può vantare così tanti contenuti in un solo thread? quasi 7 anni di storia delle radeon...orgoglioso di farne parte :cool:
Roland74Fun
06-09-2018, 10:14
che poi non serve a nulla..
la differenza fra ultra e (addirittura) medium... in molti casi nei giochi PC è risibile... Mentre il decadimento prestazionale è devastante..Verissimo. Qunafi avovo la R7 370 4GG il vero divertimento era smanettare con ogni gioco per trovare la quadra.
Ma generalmente bastava spegnere antialiasing o comunque non andare oltre l'FXAA e tenere le ombre ed il post-processing su alto ed andava tutto alla perfezione.
AceGranger
06-09-2018, 10:53
https://phoronix.com/scan.php?page=news_item&px=AMDGPU-XGMI-Vega20-Patches
"XGMI is basically AMD's alternative to NVIDIA's NVLink for inter-connecting GPUs. Previously leaked slides indicated that XGMI would be supported on Vega 20 along with PCI Express 4.0. That appears accurate as becoming public today were a set of patches wiring in XGMI support to the AMDGPU Direct Rendering Manager driver and explicitly enabling the functionality for Vega 20. It's also expected AMD's upcoming Naples server CPU architecture will also support XGMI".
toh, guarda un po...
Gyammy85
06-09-2018, 10:57
toh, guarda un po...
Che intendi dire? Era un rumour che è stato essenzialmente confermato
A sto punto manca solo la scheda sempre più curioso :oink:
Che anche navi abbia qualcosa di simile o richiederà pcie 4?
AceGranger
06-09-2018, 11:39
Che intendi dire? Era un rumour che è stato essenzialmente confermato
che è esattamente avvenuto quello che ti dissi all'uscita di GP100, quando non volevi capire ( ammesso che ora tu l'abbia capito ) che le GPU AMD con il solo PCI-EX non potevano ( e non possono nemmeno le attuali ) minimamente competere con le Tesla, motivo per il quale stanno spingendo Vega 20 e stanno riempiendo di annunci in tal senso.
Il prossimo passo saranno le unita dedicate, magari non monolitiche come nVidia ma fare un mesh chip con IF, per poi collegare piu GPU con XGMI; sperando che arrivino gia con Vega 20 e non con altri anni di ritardo, visto che gia ci hanno messo 2 anni a mettere una pezza all'nVlink.
fra l'altro, l'nVlink, memoria unificata e unita dedicate, sono il motivo che hanno fatto perdere a Intel 2 Miliardi in campo Server/HPC e che la stanno costringendo a fare GPU, perchè le CPU stanno diventando solo elementi "di contorno" nel calcolo intensivo.
A sto punto manca solo la scheda sempre più curioso :oink:
Che anche navi abbia qualcosa di simile o richiederà pcie 4?
dipende come se la vogliono giocare con le Radeon Pro e con l'RTX.
la cosa sicura è che alle Radeon Pro DEVONO dare l'XGMI, seno si potranno anche scordare il mercato Visual, e se vogliono puntare all'RTX devono metterlo anche alle gaming.
la cosa ideale sarebbe avere Vega 20 solo per il computing con fp64, mentre Navi per Gaming e Radeon Pro Visual, entrambe con XGMI.
il PCI-EX rimane e rimarra sempre un collo di bottiglia rispetto a all'XGMI o all'nVlink, perchè per far comunicare 2 GPU devi sempre passare dalla CPU e non permette l'accesso diretto alla Vram fra le GPU.
Gyammy85
06-09-2018, 11:43
che è esattamente avvenuto quello che ti dissi all'uscita di GP100, quando non volevi capire ( ammesso che ora tu l'abbia capito ) che le GPU AMD con il solo PCI-EX non potevano ( e non possono nemmeno le attuali ) minimamente competere con le Tesla;
Non ricordo questa cosa:confused:
Comunque Wang affermò tempo addietro che attualmente l'if per il gaming non fosse la cosa migliore, quindi boh, alla fine per lo scaling nei giochi è più un problema software che hardware (basti guardare lo scaling praticamente perfetto su strange brigade vulkan)
AceGranger
06-09-2018, 12:26
Non ricordo questa cosa:confused:
Comunque Wang affermò tempo addietro che attualmente l'if per il gaming non fosse la cosa migliore, quindi boh, alla fine per lo scaling nei giochi è più un problema software che hardware (basti guardare lo scaling praticamente perfetto su strange brigade vulkan)
come non ricorderai delle unita dedicate quando anche AMD le presentera :asd:
per il raytracing sara diverso; con il metodo attuale raster, le 2 GPU in sostanza si scambiano il frame gia fatto e pochi altri dati; con il Ray-Tracing, anche in campo gaming, hai uno scambio di dati molto maggiore, contando sempre che avresti anche l'accesso diretto alla vram.
sulle Radeon Pro lo devono mettere per forza, e se non lo mettono anche sulle gaming perderanno una bella fetta di fascia prosumer e pure di professionisti, perchè è pratica comune usare Radeon e GeForce per renderizzare.
e non mi sembra una grande genialata proporre una nuova architettura senza RTX...
TheDarkAngel
06-09-2018, 12:27
il PCI-EX rimane e rimarra sempre un collo di bottiglia rispetto a all'XGMI o all'nVlink, perchè per far comunicare 2 GPU devi sempre passare dalla CPU e non permette l'accesso diretto alla Vram fra le GPU.
sei sicuro su questo punto?
https://developer.nvidia.com/gpudirect
AceGranger
06-09-2018, 12:35
sei sicuro su questo punto?
i PCI-EX NON sono collegati fra di loro, sono bi-direzionali solo con la CPU
https://rog.asus.com/media/14878984098.gif
( vale anche per Intel ovviamente )
o vanno alla CPU o vanno al chipset, quindi quando 2 periferiche PCI-EX devono comunicare fra di loro devono fare il giro.
con nVlink e il futuro XGMI avrai comunicazione diretta perchè esiste una connesisone bi-direzionale fra ogni GPU ( nel caso delle CPU IBM hai anche un NVlink nella CPU, saltando in toto il PCI-EX )
https://csdl-images.computer.org/mags/mi/2017/02/figures/mmi201702000711.gif
Gyammy85
06-09-2018, 12:35
come non ricorderai delle unita dedicate quando anche AMD le presentera :asd:
Per me possono mettere unità dedicate pure per le lucette sul pcb, il fatto è che al 99% non lo faranno, non sperateci troppo su.
Io sono dell'idea che è sempre meglio la versatilità delle unità generiche dall'alto della mia ignoranza.
TheDarkAngel
06-09-2018, 12:39
i PCI-EX NON sono collegati fra di loro, sono bi-direzionali solo con la CPU
Controlla il link che ho messo, il pciex da quello che ricordo può lavorare in modalità switch, anche se non mesh, permettendo l'accesso in vram (e saltando la cpu con relativa latenza) :(
Per me possono mettere unità dedicate pure per le lucette sul pcb, il fatto è che al 99% non lo faranno, non sperateci troppo su.
Io sono dell'idea che è sempre meglio la versatilità delle unità generiche dall'alto della mia ignoranza.
Serve Hubble per salutarti
Free Gordon
06-09-2018, 13:08
Comunque devono cerca di uscire con Navi almeno fascia media entro il Q1 Navi, ma ne dubito, uscisse a Giugno 2019 sarebbe già troppo tardi.
Il problema è proprio quello...
Immagino non vedremo Navi fino a quel periodo.
Se Navi fosse Q1 2019 l'avrebbero già annunciato, imho sarà Q2...quindi Giugno 2019 sugli scaffali.
D'altro canto, questo "ritardo" potrebbe essere legato ad un cambio "netto" di archi (spero) e quindi positivo in ottica futura.
AceGranger
06-09-2018, 13:09
Controlla il link che ho messo, il pciex da quello che ricordo può lavorare in modalità switch, anche se non mesh, permettendo l'accesso in vram (e saltando la cpu con relativa latenza) :(
quel sistema salta la duplicazione del dato nella ram di sistema fra l'area dedicata alla periferica 1 e l'area dedicata alla periferica 2, ma devi sempre passare dalla CPU e dalla ram.; diciamo che è una "finta ram unificata";
è possibile attraverso uno strato software "aggiuntivo" che pero introduce latenze; mai visto applicato a un software commerciale per far comunicare 2 GPU, quindi credo che porti via parecchie risorse e che serva in determinati ambiti
terza slide
http://developer.download.nvidia.com/devzone/devcenter/cuda/docs/GPUDirect_Technology_Overview.pdf
Free Gordon
06-09-2018, 13:13
fra l'altro, l'nVlink, memoria unificata e unita dedicate, sono il motivo che hanno fatto perdere a Intel 2 Miliardi in campo Server/HPC e che la stanno costringendo a fare GPU, perchè le CPU stanno diventando solo elementi "di contorno" nel calcolo intensivo.
Che poi il vero paradosso è che in questo campo AMD sarebbe potuta essere davanti a tutte le altre case perché sviluppa APU da 10 anni...
e il fatto che abbiano introdotto IF solo con Zen e non un nuovo BUS adatto alla grafica anche per le GPU, è un errore di programmazione aziendale allucinante... :stordita: demenziale...
Free Gordon
06-09-2018, 13:21
e non mi sembra una grande genialata proporre una nuova architettura senza RTX...
Se vogliamo dirla tutta... con la "rivoluzione" DX10 e shader unificati, si voleva andare proprio nella direzione opposta.
Auto-balancing via hw delle funzioni da svolgere, risparmio di spazio e W per via della maggiore versatilità di unità "tuttofare". :)
Le dx11 invece hanno segnato un leggero "passo indietro" rispetto a questa tendenza di de-specializzazione, ora con l'introduzione dei Tensor core e dei core per il ray tracing, Nvidia sta apparecchiando a sua discrezione una rivoluzione paragonabile a quella dell'introduzione delle unità T&L 20 anni fa'... e col suo potere commerciale potrà far sì che vengano sfruttate nei giochi.
Le DX12 sono un miraggio, le DX11 si evolveranno sempre di più nella direzione di Nvidia e la frittata sarà completa.
Se AMD con Navi non torna sui suoi passi (obbligata) sarà ancora più dura di prima..
Gyammy85
06-09-2018, 13:57
Le DX12 sono un miraggio, le DX11 si evolveranno sempre di più nella direzione di Nvidia e la frittata sarà completa.
Eh no, non ci siamo, ma non si diceva "rt gira su codice standard quindi finalmente le dx12 hanno senso"?
Insomma un mese di fuffa fritta con fiocchetti e rose verdi, per poi scoprire che saranno i soliti 4 effettini via gameworks dx11.
Aspettate freschi che amd vi fa le unità dedicate per lasciarle sempre spente.
Ton90maz
06-09-2018, 14:17
Anche su console ormai ci sono le fasce e con le console premium fidati che ci si gioca benone
Benone è una parolona, e non devo fidarmi perchè ho una ps4 pro :asd:
A me non frega un cazz0 se il gioco va con chicken rendering o in 4kakka nativo o se hanno messo le ombre su medio ma mi da fastidio il frame rate a 30 fps (o se va bene, a 40-45 sbloccati). Loro lo sanno che oggi molta più gente punta ai 60 fps o più, ma conosciuamo tutti i limiti di cpu che hanno. Però con la nuova generazione mi aspetto ryzen su tutte le console, non possono nuovamente ignorare il frame rate.
Benone è una parolona, e non devo fidarmi perchè ho una ps4 pro :asd:
A me non frega un cazz0 se il gioco va con chicken rendering o in 4kakka nativo o se hanno messo le ombre su medio ma mi da fastidio il frame rate a 30 fps (o se va bene, a 40-45 sbloccati). Loro lo sanno che oggi molta più gente punta ai 60 fps o più, ma conosciuamo tutti i limiti di cpu che hanno. Però con la nuova generazione mi aspetto ryzen su tutte le console, non possono nuovamente ignorare il frame rate.
La cpu diventa un collo di bottiglia solo a framerate alti, non a framerate bassi ;)
La cpu ha poco e nulla a che fare con la grafica in ambito console dove le api sono ottimizzate differentemente e il numero di draw call è bassissimo.
Ton90maz
06-09-2018, 15:59
La cpu diventa un collo di bottiglia solo a framerate alti, non a framerate bassi ;)
La cpu ha poco e nulla a che fare con la grafica in ambito console dove le api sono ottimizzate differentemente e il numero di draw call è bassissimo.
Appunto, già i 60 fps sono un miraggio nei titoli più grossi.
Nonostante tutti i miracoli di ottimizzazione draw call e palle varie perfino la one x non supera i 40 fps in titoli come tw3, e se uno fa qualche stima è un risultato in linea si massima proporzionale all’ipc e alla frequenza delle cpu jaguar, tanti miracoli non ne ho ancora visti.
Gyammy85
06-09-2018, 16:14
Tw3 :asd:
AceGranger
06-09-2018, 16:32
Se vogliamo dirla tutta... con la "rivoluzione" DX10 e shader unificati, si voleva andare proprio nella direzione opposta.
Auto-balancing via hw delle funzioni da svolgere, risparmio di spazio e W per via della maggiore versatilità di unità "tuttofare". :)
Le dx11 invece hanno segnato un leggero "passo indietro" rispetto a questa tendenza di de-specializzazione, ora con l'introduzione dei Tensor core e dei core per il ray tracing, Nvidia sta apparecchiando a sua discrezione una rivoluzione paragonabile a quella dell'introduzione delle unità T&L 20 anni fa'... e col suo potere commerciale potrà far sì che vengano sfruttate nei giochi.
Le DX12 sono un miraggio, le DX11 si evolveranno sempre di più nella direzione di Nvidia e la frittata sarà completa.
Se AMD con Navi non torna sui suoi passi (obbligata) sarà ancora più dura di prima..
si ma le unita "tuttofare" sono state fatte perchè ogni ambientazione di gioco è una storia a se e non era possibile avere unita dedicate perchè sarebbe stato impossibile bilanciarle; con l'RT le cose sono un po diverse.
AceGranger
06-09-2018, 17:07
No. Perché il numero di raggi è una decisione di design, non un'invariante. Esattamente come la tessellatura e qualunque altra cosa.
si ma poi i raggi rimangono quelli in ogni schermata e non sei influenzato dal numero dei poligoni; sono 2 comportamenti differenti; con tassellatura, shading etc. etc. hai problemi nella stessa schermata anche solo spostando la vista.
ma soprattutto, il problema è anche che con gli attuali core non saresti in grado di generare abbastanza raggi, nemmeno mettendone in numero elevato.
Ton90maz
06-09-2018, 17:24
Tw3 :asd:
Ah già, un titolo da lista nera qua dentro, anche se non c'è alcun motivo visto il contesto ma è partita la scintilla anti tw3egittià
Ton90maz
06-09-2018, 17:37
Perchè dovrebbe essere da lista nera? Tra l'altro adesso gira meglio su amd che nvidia :asd:
Però forse comincia ad essere un po' datato.Shhhh non ricordarlo che anche con nvidia peli pubici va meglio sulla 580 :asd:
Sarà datato ma è un ottimo esempio perchè
1) sfrutta abbastanza bene 6 thread (e su console tipicamente se ne usano 6, a volte 7)
2) ha il frame rate sbloccato su one x e anche su one prima delle patch
3) in alcune parti è pesantemente cpu limited (rispetto a 60 fps su x intendo, sulle console base è anche la gpu al limite) e gira a 28 fps su ps4 (cpu a 1.6 GHz), a 30 su one (1,75 GHz) e 40 su one x (2.3 GHz), questa sembra una cazzata ma prima del lancio della one x c'era chi sparava mirabolanti funzioni magiche che avrebbero eliminato il bottleneck o aumenti di ipc assurdi (che in realtà è di pochissimi ounti percentuali)
Sarà anche un caso ma gira circa al doppio (80 fps) su un ccx del 1700 downclockato a 3 GHz, se uno fa due conti sull'ipc e frequenze vede una corrispondenza quasi perfetta, logicamente sono numeri da prendere con le pinze per il differente numero di cores e settaggi.
TheDarkAngel
06-09-2018, 17:41
quel sistema salta la duplicazione del dato nella ram di sistema fra l'area dedicata alla periferica 1 e l'area dedicata alla periferica 2, ma devi sempre passare dalla CPU e dalla ram.; diciamo che è una "finta ram unificata";
è possibile attraverso uno strato software "aggiuntivo" che pero introduce latenze; mai visto applicato a un software commerciale per far comunicare 2 GPU, quindi credo che porti via parecchie risorse e che serva in determinati ambiti
terza slide
http://developer.download.nvidia.com/devzone/devcenter/cuda/docs/GPUDirect_Technology_Overview.pdf
Però dalla settima slide in poi si sostiene la possibilità di usare il bus in modalità p2p, se il sistema è full compilant con le specifiche 2.0 quindi immagino sia stata una funzione introdotta e supportato da tutti i dispositivi almeno da quelli 3.0 in poi.
C'è una bella differenza tra poter usare il controller pci ex in modalità switch oppure no, questo non cambia che un bus dedicato e che preveda una gestione a mesh sia più efficiente in termini di banda e latenza ma da quello che vedo il pciex non è da buttare, non tocca passare per la cpu.
AceGranger
06-09-2018, 17:45
Però dalla settima slide in poi si sostiene la possibilità di usare il bus in modalità p2p, se il sistema è full compilant con le specifiche 2.0 quindi immagino sia stata una funzione introdotta e supportato da tutti i dispositivi almeno da quelli 3.0 in poi.
C'è una bella differenza tra poter usare il controller pci ex in modalità switch oppure no, questo non cambia che un bus dedicato e che preveda una gestione a mesh sia più efficiente in termini di banda di banda e latenza ma da quello che vedo il pciex non è da buttare, non tocca passare per la cpu.
si, io ero rimasto al Direct GPU, poi hanno implementato il p2p che vale solo per le GPU, mentre gli altri dispositivi Direct GPU passano sempre dalla ram di sistema.
pero comunque i dati dovranno arrivare alla CPU, nel senso che internamente avra lo switch, perchè i PCI-EX vanno tutti al CPU o al chipset che a sua volta comunica con la CPU con un bus PCI-EX diretto.
TheDarkAngel
06-09-2018, 17:50
si, io ero rimasto al Direct GPU, poi hanno implementato il p2p che vale solo per le GPU, mentre gli altri dispositivi Direct GPU passano sempre dalla ram di sistema.
pero comunque i dati dovranno arrivare alla CPU, nel senso che internamente avra lo switch, perchè i PCI-EX vanno tutti al CPU o al chipset che a sua volta comunica con la CPU con un bus PCI-EX diretto.
Quello che cambia è che devono percorrere il doppio di strada su rame ma non è proprio questo gran problema, il controller è a parte (anche se fisicamente posto nel soc che chiamiano ancora erroneamente cpu) ed in modalità switch dovrebbe essere trasparente alla cpu che continuerebbe a farsi gli affari propri. Diciamo che il nvlink serve perchè le necessità di banda sono esplose ed il link condiviso del pciexpress non bastava però il consorzio ha inserito la funzione p2p.
Ton90maz
06-09-2018, 18:38
Sono battute, rilassati :asd:
Comunque stai sempre parlando di un gioco che ha 3 anni, del fatto che adesso giri meglio su AMD frega 0, come quando prima girava meglio su nVidia, ma ogni 2x3 si tirava in ballo TW3 e GTA5 non ce lo stiamo mica inventando.
Comunque la penso anch'io come te sul fronte cpu di jaguar, vero che a bassi fps impatta poco le draw calls, ma 8 core jaguar a 2ghz sarebbe come dire 4/8 core/th zen a 2ghz :asd: , jaguar non nasce certamente come cpu puramente gaming, ma andava bene perchè consumava nulla 5 anni fa sui 28nm.
con la next gen non ci saranno di questi problemi sulle console lato cpu.Io comunque credo lo stia tirando in ballo per altri motivi da quelli soliti qua dentro. Sono pochi i titoli con quelle caratteristiche.
Per me va anche meno, sulla carta dovrebbe esserci un 15% a favore dei 4 core zen, se non ho sbagliato i conti.
Gyammy85
06-09-2018, 19:17
Se Vega 20 avesse sempre 64 cu potrebbero averle rese più potenti o grosse?
Nella slide vecchia c'erano tutte cose rivelatesi vere (32 giga 1 tera di banda e pcie4 potrebbe benissimo avere 64 cu) ma ciò cozzerebbe coi quasi 20 tf stimati...
Gyammy85
06-09-2018, 21:57
Le hanno sicuramente rese più grosse visto che faranno FP64 a 2:1.
Per fare più TF basta che abbia frequenze sensibilmente più alte.
Ipotizzando l'1.35x delle slide avremmo a spanne 16 tf, poi con le frequenze maggiori si potrebbe arrivare ai quasi 20...
Magari queste ncu grosse si potrebbero utilizzare in navi per il ray tracing, potrebbero calcolare raggi invece degli fp64 ed avere quindi una perfetta scheda gaming :cool:
AceGranger
07-09-2018, 00:43
non sono un esperto di silicio a 7nm, ma a meno che l'architettura e nello specifico le nCU non siano diventata di botto leggerissime ma credo impossibile che Vega20 giri a 2.45ghz per 64nCU...
per cui, o non arriva a 20tf o a più nCU o sono completamente diverse.
chiamandosi sempre "Vega", ipotizzo che le nCU siano le medesime, ma con le fp64 2:1, come dice free gordon se consideriamo la possibilità di arrivare circa 2ghz grazie al silicio nuovo (+35% da 1.55ghz) servono 80nCU per avere 20tf
quindi o ha 80nCU minimo per arrivare a 20tf,o ne ha 64 e non arriva a 20tf.
Inviato dal mio MIX utilizzando Tapatalk
conosco poco l'architettura AMD, ma se attualmente ne ha 64, non potrebbe averne 96 e frequenze piu basse ? essendo una Pro è piu probabile che abbia piu CU e frequenze inferiori, in modo tale da lavorare nel range ottimale di massima efficienza.
Gyammy85
07-09-2018, 08:30
Se ne ha più di 64 anche secondo me ne ha 96, banalmente perché sono già a riempimento e non credo spingano ulteriormente il design. A meno che non sia effettivamente il primo segnale di un fork fra architettura per il calcolo e architettura per la grafica per cui sbilanciare a 20NCU per geo non è un problema.
Ma non bisogna sempre rispettare dei rapporti fra il numero e tipo di unità (sp geo tmu e rops)? Mi sembra improbabile che possano passare a 6144 sp senza toccare minimamente il resto...
Gyammy85
07-09-2018, 09:47
Certo che con l'aggiunta di 2 mcu e l'aggiunta presunta di XGMI avranno consumato un po' dello spazio guadagnato dal salto di processo.
O sbaglio?
XGMI non credo occupi spazio dato che è per i collegamenti fra gpu e cpu.
Io penso che alla fine avrà 16-17 tf, che comunque è sopra le nuove quadro rtx
Una cosa che è stata poco considerata è il presunto score del 3dmark riferito a vega 20. Con 500 mhz buoni in meno andava il 10% meno della vega fe, da questo si intuiva che magari hanno aumentato le cu o semplicemente le hanno rese più efficienti, poi qualcuno ha stimato i 20 tf non so bene in base a cosa, stima che comunque non è stata smentita.
Gyammy85
07-09-2018, 09:54
si che occupa spazio se c'è, perchè non dovrebbe? gli I/O costano sul Die, non sono gratis :D
i 20tf era un calcolo derivato da quanto avrebbe occupato sul 14nm
hanno preso 360mmq(calcolo di partenza sbagliato) moltiplicato x2(scaling) e sono 720mmq teorici sul 14nm, da li si sono chiesti quante unità ci starebbero in 720mmq rispetto a 490mmq di vega10, considerando quindi che tutto lo spazio in più fosse occupato da sole alu in più.
Ah vabbè...però non c'è stata nessuna altra ipotesi...
Strano che nei driver linux ci sia tutto tranne una qualche indicazione sulla gpu...
Non voglio dire stupidaggini, ma gli i/o non sono "esterni" alla gpu? voglio dire, distribuiti nelle zone periferiche? :fagiano:
AceGranger
07-09-2018, 10:00
Ah vabbè...però non c'è stata nessuna altra ipotesi...
Strano che nei driver linux ci sia tutto tranne una qualche indicazione sulla gpu...
Non voglio dire stupidaggini, ma gli i/o non sono "esterni" alla gpu? voglio dire, distribuiti nelle zone periferiche? :fagiano:
sono sul bordo del die, ma sempre mm2 vanno a togliere.
Gyammy85
07-09-2018, 10:11
Fanno parte comunque del Die, sono integrati, non sono mica come i vecchi northbridge o southbridge delle schede madri :D
una vecchia slide AMD comunque riportava Vega20 in 64CU fp64 2:1 e 1TB/s di banda con target 150~300watt, magari davvero Vega20 è così e lo spazio occupato in più che non risulta convincere dallo scaling 2x serve a l'I/O per computing.
Anche soltanto così ne facessero una derivato Gaming tagliato in soli 2stack hbm2 8-16GB@630gb/s ed fp64 16/32:1, andrebbe contro a 2080 a metà del prezzo o quasi.
Ma io penso che navi da 500 mm2 o quasi in fascia enthusiast la cacciano, con 5000+ sp...serebbe grande come vega 10 alla fine...
Gyammy85
07-09-2018, 10:19
500 mm2 non sono poi molti quindi potrebbe anche essere, dipende dalla resa dei 7nm.
Se le rese sono basse e faticano a fare gpu da 500 mm2 daranno la precedenza a die più piccoli secondo me, magari rimandando i die più grossi a quando migliora il processo.
La faranno sicuro, l'hanno sempre fatta, fiji era pure più grossa se non sbaglio...Cioè potrebbero fare delle schede di fascia medio alta nel range di 2070-1080ti-2080 con 64 cu e poi la maxi con 80 o quello che è...
Gyammy85
07-09-2018, 10:26
La faranno certamente, è solo il quando il punto di domanda: Vega è uscita un anno dopo Polaris per esempio.
Si l'interrogativo è quello, ma era un periodo diverso, di molta crisi se vogliamo (valore in borsa 3 contro i 25 di oggi)...
XGMI non credo occupi spazio dato che è per i collegamenti fra gpu e cpu.
Io penso che alla fine avrà 16-17 tf, che comunque è sopra le nuove quadro rtx
Una cosa che è stata poco considerata è il presunto score del 3dmark riferito a vega 20. Con 500 mhz buoni in meno andava il 10% meno della vega fe, da questo si intuiva che magari hanno aumentato le cu o semplicemente le hanno rese più efficienti, poi qualcuno ha stimato i 20 tf non so bene in base a cosa, stima che comunque non è stata smentita.
Speriamo, l'importante però è che vadano forte.
Se ne ha 17 e va meno di una rtx che ne ha 12-13-14 o quello che sarà ci ritroveremo di nuovo con una bufala tipo le attuali Vega.
Incrociamo le dita!
Ma son due cose diverse, Vega 20 anche avesse 50TF non è in competizione con le RTX, ma con Volta V100.
Quel che interessa nel gaming è Navi, e più estremizzano il design di Vega20 e meno possiamo trarne informazioni su come sarà Navi.
A me interessa Navi perché per il mercato prosumer/pro devo comunque e obbligatoriamente prendere nvidia quindi purtroppo il problema non me lo posso porre. :cry:
Gyammy85
07-09-2018, 10:36
A me interessa Navi perché per il mercato prosumer/pro devo comunque e obbligatoriamente prendere nvidia quindi purtroppo il problema non me lo posso porre. :cry:
Eh bè, so mmeglio...
Chissà che ne penserebbe l'antitrust di questa cosa, poi la gente cade dalle nuvole "oh ma quindi google ostacola la fruizione delle app sugli altri os?? come dicevano i fanboy microsoft?? oooohhhhhhh..."
Eh bè, so mmeglio...
Chissà che ne penserebbe l'antitrust di questa cosa, poi la gente cade dalle nuvole "oh ma quindi google ostacola la fruizione delle app sugli altri os?? come dicevano i fanboy microsoft?? oooohhhhhhh..."
No aspetta, è un discorso semplice non ingastrirti.
I software che noi utilizziamo hanno particolari ottimizzazioni che fanno andare molto meglio le nvidia ma credo sia solo per una questione di market share non per altro.
Da questo, con l'acquisto delle WS ci viene fornita una garanzia ulteriore che con le AMD non si può avere.
Essendo WS per rendering continuativo 24/7 per decine di giorni nessuno dell'IT si prenderà mai il rischio di non avere queste garanzie.
Tutto qui.
Gyammy85
07-09-2018, 10:46
No aspetta, è un discorso semplice non ingastrirti.
I software che noi utilizziamo hanno particolari ottimizzazioni che fanno andare molto meglio le nvidia ma credo sia solo per una questione di market share non per altro.
Da questo, con l'acquisto delle WS ci viene fornita una garanzia ulteriore che con le AMD non si può avere.
Essendo WS per rendering continuativo 24/7 per decine di giorni nessuno dell'IT si prenderà mai il rischio di non avere queste garanzie.
Tutto qui.
Saranno software che utilizzano CUDA che essendo proprietaria di nvidia le fa funzionare per forza di cosa meglio.
Un pò come intel l'anno scorso, si ok epyc va di più e costa meno ma xeon è meglio perché è una garanzia...parlo in generale non mi riferisco a te sia chiaro ;)
Saranno software che utilizzano CUDA che essendo proprietaria di nvidia le fa funzionare per forza di cosa meglio.
Un pò come intel l'anno scorso, si ok epyc va di più e costa meno ma xeon è meglio perché è una garanzia...parlo in generale non mi riferisco a te sia chiaro ;)
Si ma infatti il problema per AMD non è la CPU o la GPU dal punto di vista architetturale o di performance o meglio ancora di costo.
Il problema vero è il software che oramai ha standard difficilmente eradicabili.
:muro: :muro: :muro:
Gyammy85
07-09-2018, 11:10
https://s15.postimg.cc/6htgs2557/AMD-_EPYC-_Rome.jpg (https://postimages.org/)
ma sto Q3-Q4 come si quantifica?
Cioè potremmo aspettare fino al 31 dicembre? :mc: :mc: :mc:
AceGranger
07-09-2018, 12:07
Si ma infatti il problema per AMD non è la CPU o la GPU dal punto di vista architetturale o di performance o meglio ancora di costo.
Il problema vero è il software che oramai ha standard difficilmente eradicabili.
:muro: :muro: :muro:
se non faranno unita dedicate all'RT e memoria unificata con Navi, in campo render avranno anche seri problemi architetturali e di performance; verranno definitivamente tagliati fuori dal mercato.
se non faranno unita dedicate all'RT e memoria unificata con Navi, in campo render avranno anche seri problemi architetturali e di performance; verranno definitivamente tagliati fuori dal mercato.
Quello lo faranno sicuramente.
E' ora che passino ad un architettura modulare.
Sogno la mia prossima AMD come una 2080TI ma a 900€ invece che 1200€ :D
Gyammy85
07-09-2018, 12:20
Quello lo faranno sicuramente.
E' ora che passino ad un architettura modulare.
Sogno la mia prossima AMD come una 2080TI ma a 900€ invece che 1200€ :D
900 euro?? E chi li spenderebbe mai per una amd...
No no, max 500, se no poi nvidia non passa da 1200 a 1150 best buy ever
900 euro?? E chi li spenderebbe mai per una amd...
No no, max 500, se no poi nvidia non passa da 1200 a 1150 best buy ever
Io li spenderei.
Del prezzo me ne frego.
Se una cosa è valida la pago quello che chiedono.
Gyammy85
07-09-2018, 12:47
alle 23:59 per l'esattezza, ma puoi calcolare l'allineamento della figura per cercare di capire in che settimana dell'anno verrà presentata :asd:
Vega10 docet
Io direi il 31 novembre al crepuscolo
Roland74Fun
07-09-2018, 14:36
In primavera erano usciti addirittura dei bench con 19000 e rotti sul 3D Mark...
non capisco bene però a che pro far uscire vega 20 a ott/nov se poi a giugno esce navi.
Potrebbe essere più realistico vega20 ott/nov e lo stesso per navi se non addirittura Q1 2020 :mc: :mc:
Gyammy85
07-09-2018, 16:13
Qualcosa su Navi?
https://forum.beyond3d.com/threads/amd-navi-speculation-rumours-and-discussion.57684/page-28#post-2039357
Potrebbe essere Vega20?
Ribadisco, è una slide ad uso interno di chi sa quando.
Nelle dichiarazioni pubbliche hanno sempre detto "entro la fine dell'anno", "quest'anno" o "2018".
Vega 10 era H1, poi Q2.
Quello è preso dai driver per linux riguardanti vega 20 e tutte le nuove cose mi pare
Per il resto, vega in realtà venne presentata a maggio 2017 al capsaicin, con commercializzazione a partire dal 14 agosto per la 64 e 28 agosto la 56
non capisco bene però a che pro far uscire vega 20 a ott/nov se poi a giugno esce navi.
Potrebbe essere più realistico vega20 ott/nov e lo stesso per navi se non addirittura Q1 2020 :mc: :mc:
Sono schede destinate a scopi diversi, vega 20 serve a sfruttare il vantaggio coi 7 nm e proporre la scheda più potente ad uso pro, poi navi per quella più potente consumer. :O
Gyammy85
07-09-2018, 16:14
Perchè sono 2 mercati differenti, Vega20 a detta di AMD non sarà utilizzata nel Gaming.
Navi Gaming deve uscire entro il Q2 2019, uscisse entro il Q1 farebbero tombola.
Io dico aprile con zen 2
Gyammy85
07-09-2018, 16:28
Ripetono sempre di essere in anticipo coi tempi e che tutto va alla grande, sarà così
Vega 20 è per il mercato HPC.
:( :( :(
Gyammy85
07-09-2018, 17:47
Secondo me navi la vedremo a settembre/ottobre 2019, felice di sbagliarmi
Aprile/maggio
Einhander
07-09-2018, 17:55
Io dico aprile con zen 2
A mio modestissimo parere a livello marketing non paga sovrapporre due robe cosi...si tolgono lo spazio e visibilita' da soli...se invece escono successivamente ecco che per magia AMD rimane sulla cresta dell'onda per il doppio del tempo -almeno a livello di visibilita'-.
Gyammy85
07-09-2018, 19:29
A mio modestissimo parere a livello marketing non paga sovrapporre due robe cosi...si tolgono lo spazio e visibilita' da soli...se invece escono successivamente ecco che per magia AMD rimane sulla cresta dell'onda per il doppio del tempo -almeno a livello di visibilita'-.
Più realistico marzo-aprile per zen 2 e maggio-giugno navi, fortunatamente nvidia ha già sparato tutte le cartucce e possono vedere meglio il da farsi.
Al CES avremo tutte le risposte
Roland74Fun
07-09-2018, 23:13
Anche io come Huang faccio le techdemo..... :D :D
https://www.youtube.com/watch?v=xuiOk-yps8A
Gyammy85
08-09-2018, 09:22
Come se fosse la prima volta che AMD si brucia il vantaggio tecnologico...
E quando è avvenuto? Ragguagliami :fagiano:
Gyammy85
08-09-2018, 10:46
Non si parlava di adozione di tecnologie ma di silicio ed eventuali ritardi che a sto giro comunque non dovrebbero esserci.
Gyammy85
08-09-2018, 10:51
https://www.ultragamerz.com/amd-radeon-vega-20-to-have-xgmi-nvlink-alternative/
"die size is going to decrease by 70%"
:confused:
Vabbè sarà una sparata del sito che non sembra propriamente ferrato :asd:
Einhander
08-09-2018, 13:10
- Crea mantle dal quale derivano dx12 e vulkan --> sono anni che ne parliamo e poco che ci giochiamo
- monopolio su milioni e milioni di console --> i giochi PC, porting con i piedi di quelli console, sono quasi sempre ottimizzati nVidia e gyammy non appena sente ue4 ha le crisi isteriche
- hsa, opencl --> non pervenuti
- vantaggio hbm e hbm2 per avere schede parche, piccole e con un botto di banda --> le abbina a GPU che richiedono dissipatori monstre se non radiatori, "limita" la fury a "soli" 4gb di RAM e le Vega in termini di banda, costano un botto
Aveva per fare in cada sistemi apu/ibridi pazzeschi --> li vende ad Intel che li realizza al posto suo
"Mai" :rolleyes:
Aggiungerei che intel aveva i suoi super quad core da sette anni e passa e nonostante sia INTEL diverse volte in termini di grandezza e fatturato AMD riesce a giocarsi milioni e milioni di euro di market share in ambito server e annuncia/prevede per il futuro cali anche relativamente consistenti in ambito server e per colpa di EPYC che appunto, seguendo quanto detto da te, e' fatto da quella amd di cui sopra :rolleyes:
Roland74Fun
08-09-2018, 14:18
Sappi però che i riflessi sono falzi!
Una vergogna. Ci hanno mentito per anni. :mad: :mad:
Ton90maz
08-09-2018, 14:52
- Crea mantle dal quale derivano dx12 e vulkan --> sono anni che ne parliamo e poco che ci giochiamo
- monopolio hardware su milioni e milioni di console --> i giochi PC, porting con i piedi di quelli console, sono quasi sempre ottimizzati nVidia e gyammy non appena sente ue4 ha le crisi isteriche
- hsa, opencl --> non pervenuti
- vantaggio hbm e hbm2 per avere schede parche, piccole e con un botto di banda --> le abbina a GPU che richiedono dissipatori monstre se non radiatori, "limita" la fury a "soli" 4gb di RAM e le Vega in termini di banda, costano un botto
Aveva tecnologia per fare in cada sistemi apu/ibridi pazzeschi --> li vende ad Intel che li realizza al posto suo
"Mai" :rolleyes:Questo la dice lunga su come lavorano su console e quanto ottimizzino realmente alcune software house :asd:
Mi sembra altamente improbabile che un titolo che gira di merda su computer con gpu amd sfrutti come si deve le console con amd.
Ton90maz
08-09-2018, 15:18
Certo che sfrutta come si deve la console, sulla console puoi usare solo le API di microsoft e sony non puoi inventare.
Quando porti tutto su pc puoi scegliere se usare dx11 o dx12, puoi implementare gameworks che è fatto in solo Nvidia sa cosa o altro fatto da non si sa chi e come.A me non sembra, vedendo come girano alcuni titoli. Le api e i driver possono fare la differenza ma se un software è studiato per sfruttare o non sfruttare determinate caratteristiche, perchè su console dovrebbero funzionare, come per magia?
Una mexxa nel senso che si passa da quasi come una 1080ti a volte tipo una 1070. È un bel salto prestazionale, polaris è molto più sostenuto come performance
Avendola non posso che quotare. In alcuni giochi tipo War thunder o gta V va poco più della mia ex 980ti occata a 1450 in altri si comporta tranquillamente meglio di una 1080.
Inviato dal mio iPad utilizzando Tapatalk
Gyammy85
08-09-2018, 19:32
@Veradun
https://www.reddit.com/r/Amd/comments/9du2w4/navi_update_gfx10_in_gpu_open/
Era questo che avevi postato l'altra volta? Scusa pensavo fosse preso dai driver per linux di vega 20, invece sembrerebbe proprio navi!
Asphalting turing, hihi
Ale55andr0
08-09-2018, 20:09
- Crea mantle dal quale derivano dx12 e vulkan --> sono anni che ne parliamo e poco che ci giochiamo
- monopolio hardware su milioni e milioni di console --> i giochi PC, porting con i piedi di quelli console, sono quasi sempre ottimizzati nVidia e gyammy non appena sente ue4 ha le crisi isteriche
- hsa, opencl --> non pervenuti
- vantaggio hbm e hbm2 per avere schede parche, piccole e con un botto di banda --> le abbina a GPU che richiedono dissipatori monstre se non radiatori, "limita" la fury a "soli" 4gb di RAM e le Vega in termini di banda, costano un botto
Aveva tecnologia per fare in cada sistemi apu/ibridi pazzeschi --> li vende ad Intel che li realizza al posto suo
"Mai" :rolleyes:
:asd:
:doh:
dovreste venire sospesi 1 settimana alla volta quando scrivete stupidaggini o se ci credete come nel tuo caso, tipo come gli analfabeti funzionali che li leggono su feisbuk
:rotfl:
Direi che tu debba preoccuparti più delle tue numerose sospensioni invece di quelle altrui
sospeso 10gg
>bYeZ<
Roland74Fun
08-09-2018, 23:09
Ho scoperto che ci sono anche in just cuse 3.
......................
Ci stavo giocando e ad un certo punto è cominciato a piovere e ho esclamato "non è possibile!!! sono falzi!!!!"
Se ti piacciono i giochi pozzangherosi allora accattati questo.
Reflections everywhere..... :D :D
https://www.youtube.com/watch?v=DcD49u7PyzM
Gyammy85
09-09-2018, 09:46
Tieni presente che le auto non si riflettono nelle pozzanghere però :D
È questa la forza del ray tracing si riflette sempre tutto, invece alla "vecchia maniera" deve essere lo sviluppatore a manina a far riflettere le cose.
Io non ho ma voluto dire che che il ray tracing non fosse un passo avanti importante, semplicemente che i riflessi si possono fare in modo accettabile anche senza.
Il ray tracing diventerà più incisivo con il tempo e con gpu più prestanti, per ora posso tranquillamente farne a meno.
Ma anche no, mica siamo all'epoca delle dx7 che c'erano le luci fisse e ombre fisse disegnate a mano dagli sviluppatori :asd:
Sono dinamiche pure quelle fatte senza rt, pure in wolf 2 quando si spara c'è tutta una serie di riflessi su tante superfici in maniera totalmente dinamica (i laser dei supersoldati, poi alcune riflessioni sui marmi dell'arma che spara, l'ambiente illuminato dinamicamente e altre cose che mentre si gioca non si notano, il tutto condito dal motion blur).
Paradossalmente anche in hl2 sull'acqua si riflette tutto (infatti nelle opzioni grafiche si sceglie fra "rifletti mondo" e "rifletti tutto")
Per come la vedo io, l'rt dovrebbe darti riflessi e luci come nella realtà, esattamente come succede nei rendering. Nei giochi poi si dovrebbe sistemare anche tutta la parte dell'ambient occlusion, perché ok super riflessini spalmati ovunque, ma se poi nelle zone in ombra la luce non viene calcolata in maniera precisa...ma forse sarà una feature delle OTX 4000 da 5000$, chissà...
Roland74Fun
09-09-2018, 10:00
Tieni presente che le auto non si riflettono nelle pozzanghere però :D
Non solo... vogliamo parlare di questo?
https://uploads.tapatalk-cdn.com/20180909/40085712303fc1200ec1d1c337405f8f.jpg
Sia chiaro che non voglio dare la colpa alla Rockstar, peche il lavoro che hanno fatto è stato meraviglioso. Con tutto quello che c'è a schermo....
AceGranger
09-09-2018, 13:10
Ma anche no,
ma anche si.
per te è no, perchè come al solito, non sai nulla di quello di cui parli.
Free Gordon
09-09-2018, 14:09
E infatti secondo me Vega20 è sempre 64NCU con un boost in frequenza a massimo 2GHz e uno sul calcolo DP per cui non farà quei 20TF ma meno, mentre l'aumento delle ALU me lo immagino per la successiva top di gamma.
Possibile...
(e quindi possibile anche che la storia dei 20tf sia falsa..)
Gyammy85
09-09-2018, 14:13
ma anche si.
per te è no, perchè come al solito, non sai nulla di quello di cui parli.
Quindi non esistono luci e ombre dinamiche? Si si certo.
Quindi nvidia ci ha sempre preso in giro, dalle stencil shadows di doom 3 alla super illuminazione sm 5 direct compute di metro 2033 (cosa di cui si sono subito pentiti dato che una 7970 andava come la gtx780).
Free Gordon
09-09-2018, 14:17
Secondo me navi la vedremo a settembre/ottobre 2019, felice di sbagliarmi
Così sono f@tutti.....
Devono uscire al massimo entro Giugno 2019.
Ma spero escano in prima... Aprile/Maggio sarebbe ottimale.
Entro il 31 Marzo farebbero il botto ma è fantascienza purtroppo (secondo me).
AceGranger
09-09-2018, 14:20
Quindi non esistono luci e ombre dinamiche? Si si certo.
Quindi nvidia ci ha sempre preso in giro, dalle stencil shadows di doom 3 alla super illuminazione sm 5 direct compute di metro 2033 (cosa di cui si sono subito pentiti dato che una 7970 andava come la gtx780).
tu hai evidenziato questa parte
"È questa la forza del ray tracing si riflette sempre tutto, invece alla "vecchia maniera" deve essere lo sviluppatore a manina a far riflettere le cose."
e commentato a vanvera.
attualmente è cosi, le riflessioni sono puntuali e le vedi solo dove lo sviluppatore le mette a manina.
le luci e ombre dinamiche attualmente sistono MA:
- devono essere limitate in numero
- hanno ombre fisse che non degradano correttamente all'aumentare delladistanza
- hanno una portata limitata.
Free Gordon
09-09-2018, 14:22
Non si parlava di adozione di tecnologie ma di silicio ed eventuali ritardi che a sto giro comunque non dovrebbero esserci.
ATI è sempre stata in vantaggio dell'half node su Nvidia.
AMD nel primo periodo è riuscita a mantenere un leggero vantaggio, poi sono spariti gli half node ma cmq s'era già mangiata quel piccolo vantaggio che aveva su Nvidia.
Sul 28nm (il nodo epocale di questa era informatica) ad esempio AMD è arrivata prima. ;)
Ma da lì in poi si è mangiata il leggero vantaggio che aveva ancora.
Dal 2012 in poi sostanzialmente.
Free Gordon
09-09-2018, 14:27
Una mexxa nel senso che si passa da quasi come una 1080ti a volte tipo una 1070. È un bel salto prestazionale, polaris è molto più sostenuto come performance
Certo...perché GCN non scala verso l'alto come l'archi Nvidia. Perché Vega10 è forte come GP102 solo sul calcolo... (considerando l'emulazione delle unità funzionali di Nvidia, Vega10 arriva attorno agli 11TFlops effettivi, come la 1080ti).
Considera poi che AMD ci mette del suo anche dove potrebbe mettere delle toppe "abbastanza" facili, tipo sulle ROPs...e trasformarle leggermente invece di mantenere dei punti di forza che non vengono più sfruttati ormai da anni.
Speriamo che questo avvenga da Navi in poi, anche se lato geometrico temo che comunque non avremo grosse sorprese.
Free Gordon
09-09-2018, 14:37
Roland mi fa morire. :rotfl: :cincin:
Cmq ragazzi quello che conta è l'effetto visivo finale, se Nvdia con gli RT core riuscirà a fornire un risultato estetico irraggiungibile su GPU AMD, avrà vinto...morta lì.
Sennò sarà la solita fanfara Nvidia che di sostanziale porta poco o nulla (gameworks ad esempio è solo un ambiente software, stavolta con gli RT cores la cosa è un "tantino" differente).
Vedremo... :)
Einhander
09-09-2018, 16:14
tu hai evidenziato questa parte
"È questa la forza del ray tracing si riflette sempre tutto, invece alla "vecchia maniera" deve essere lo sviluppatore a manina a far riflettere le cose."
e commentato a vanvera.
attualmente è cosi, le riflessioni sono puntuali e le vedi solo dove lo sviluppatore le mette a manina.
le luci e ombre dinamiche attualmente sistono MA:
- devono essere limitate in numero
- hanno ombre fisse che non degradano correttamente all'aumentare delladistanza
- hanno una portata limitata.
vabbeh dai anche con il RayT devi cmq settare a manina oppure creare un ambiente dinamico in grado di regolarsi con un gestalt cmq scritta a manina in termini di ray deph sulle riflessioni, rifrazioni e su quali oggetti devono farlo e come e quando altrimenti manco con 20 sli di 2080ti tieni 30 fps su una scena di cyberpunk, metro o chicchessia...quello che cambia e' la qualita' generale, ma l'ottimizzazione umana e' sempre necessaria, cambia il come.
Altrimenti inquadriamo due bicchieri di vetro uno dietro l'altro e scoppia la gpu :asd:
Sospetto anzi che ce ne sara' ancora piu' bisogno di ottimizzazione invece sai? perche' cmq c'e' anche la variabile dell'architettura usata "a valle" e considerando lo stato a dir poco embrionale in cui siamo credo che di strada da fare dai prossimi 10/12 anni ce ne sia parecchia e non necessariamente in discesa, anzi..
P.s.: sara' lo stesso per le ombre, le caustiche -se ci sono- i volumetrici/particellari e quant'altro.
Gyammy85
10-09-2018, 08:36
A proposito dell'aumento degli investimenti in r&d, vorrei far notare come amd sia passata dalla sua capitalizzazione strutturale intorno ai 10 miliardi ai 26 miliardi odierni...scusate se è poco
Free Gordon
10-09-2018, 12:08
A proposito dell'aumento degli investimenti in r&d, vorrei far notare come amd sia passata dalla sua capitalizzazione strutturale intorno ai 10 miliardi ai 26 miliardi odierni...scusate se è poco
Ma che Ryzen stia andando bene...e che sia un'ottima cpu non ci piove. :)
Da quando è uscito, ho praticamente solo montato Ryzen ai clienti.. (quasi sempre).
Ma lato GPU devono cambiare archi...è giunto il momento.
Se GCN la tenessero nel pro/compute per me andrebbe benissimo. Salgono con le CU, frequenze e la banda, restano con i limiti che hanno oggi da altri pdv e morta lì.
ma nel gaming devono sterzare, sennò non riusciranno più ad essere competitivi nemmeno nella fascia media (dove oggi ancora compete: 480 vs 1060)
Einhander
10-09-2018, 13:23
Ma che Ryzen stia andando bene...e che sia un'ottima cpu non ci piove. :)
Da quando è uscito, ho praticamente solo montato Ryzen ai clienti.. (quasi sempre).
Ma lato GPU devono cambiare archi...è giunto il momento.
Se GCN la tenessero nel pro/compute per me andrebbe benissimo. Salgono con le CU, frequenze e la banda, restano con i limiti che hanno oggi da altri pdv e morta lì.
ma nel gaming devono sterzare, sennò non riusciranno più ad essere competitivi nemmeno nella fascia media (dove oggi ancora compete: 480 vs 1060)
Sarebbe proprio ora si...e pensare che se riuscissero nell'impresa ne avrebbero da guadagnare in entrambi i fronti...il problema e' la base installata e quanti dindi hai da dedicare a tutto questo, fermo restando che e' evidente come nel campo delle gpu gaming il fatturato di amd, al netto delle console, e' ridicolo rispetto a quanto realizzato in cosi' poco tempo dalla famiglia ryzen e a rigor di logica amd potrebbe in effetti dedicare sempre piu' energie alle cpu il che non e' assolutamente una mossa sbagliata, ma neanche totalmente corretta.
ci vorrebbe una gpu stile ryzen cosi' da riprorre amd come una valida alternativa a nvidia e non solo a livello di prestazioni ma anche come convenienza di costo che tanto inutile stare a discutere ryzen ha avuto il successo che ha avuto proprio perche' proponeva MOLTO DI PIU' in termini di threads rispetto ad intel costando MOLTO DI MENO.
Thread ripper ne e' la prova inconfutabile -tranne il 1900x che proprio non riesco a collocarlo da nessuna parte e la cui convenienza mi sfugge proprio-.
Roland74Fun
10-09-2018, 16:03
Mai che si riesca a giocare una partita con AMD. Lo sanno tutti cosa nota. Meglio le altre schede se si vuole diventare campioni ed essere proof....
https://uploads.tapatalk-cdn.com/20180910/86e8ab710276281fe350a0a1f52f7d91.jpg
Lunar Wolf
10-09-2018, 16:09
Mai che si riesca a giocare una partita con AMD. Lo sanno tutti cosa nota. Meglio le altre schede se si vuole diventare campioni ed essere proof....
https://uploads.tapatalk-cdn.com/20180910/86e8ab710276281fe350a0a1f52f7d91.jpgChi ti segnala quel avviso?
Che software ci sono installati sul pc?
Ma che Ryzen stia andando bene...e che sia un'ottima cpu non ci piove. :)
Da quando è uscito, ho praticamente solo montato Ryzen ai clienti.. (quasi sempre).
Ma lato GPU devono cambiare archi...è giunto il momento.
Se GCN la tenessero nel pro/compute per me andrebbe benissimo. Salgono con le CU, frequenze e la banda, restano con i limiti che hanno oggi da altri pdv e morta lì.
ma nel gaming devono sterzare, sennò non riusciranno più ad essere competitivi nemmeno nella fascia media (dove oggi ancora compete: 480 vs 1060)
beh è evidente che raja non sia stato il keller delle gpu, vuoi per incapacità ma più probabilmente mancanza di soldi per la ricerca e sviluppo per entrambi i settori, speriamo che con le entrate di ryzen e della bolla del crypto riescano a recuperare
Roland74Fun
10-09-2018, 16:13
Chi ti segnala quel avviso?
Che software ci sono installati sul pc?Dice che i drivers di luglio hanno problemi noti.
Lunar Wolf
10-09-2018, 19:35
Dice che i drivers di luglio hanno proemi noti.Si ma quale software te lo segnala? Mai visto
Roland74Fun
10-09-2018, 21:42
Hemmm... fortnite....
No, ma posso spiegare... lo uso solo per farci dei bench... :eek: :eek:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.