PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 [196] 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348

Gyammy85
13-01-2018, 18:36
Non è un segreto che abbiano progettato vega per tenere alte frequenze, lo dicono nei vari video promozionali.
Per le performances siamo sempre li dipende dal software, chiaro che se tutti programmano come dice nvidia allora è tutto più difficile e l'architettura non esprime mai il suo potenziale, a meno che non ci mettano dentro 7000 sp che pure se ne funzionano 5000 vai comunque forte.

Vul
13-01-2018, 18:36
Quando sentivo parlare di aumento di transistor che implicherebbe un aumento di frequenza andavo in tilt, perche' per me era controintuitivo, cosi' ho trovato questo.

Sul fatto che il numero di transistor (pipeline più lunghe) aumenti anche la frequenza è una cosa su cui mi ha anche quotato un ingegnere amd su reddit eh :asd:

Il discorso base è che hai minore dispersione di corrente e una minore resistenza e puoi alzare i clock.

Altrimenti non necesiteremmo di miliardi e miliardi di transistor per cpu/gpu che avranno qualche migliaio di componenti a dirla lunga :asd:

Ecco un semplice esempio antiquato in casa Intel: come vedi all'epoca la frequenza seguiva quasi linearmente il numero di transistors:

https://m.eet.com/media/1177330/embedded%20cpu%20figure%201%20500.jpg

mirkonorroz
13-01-2018, 19:02
Sul fatto che il numero di transistor (pipeline più lunghe) aumenti anche la frequenza è una cosa su cui mi ha anche quotato un ingegnere amd su reddit eh :asd:

Il discorso base è che hai minore dispersione di corrente e una minore resistenza e puoi alzare i clock.

Altrimenti non necesiteremmo di miliardi e miliardi di transistor per cpu/gpu che avranno qualche migliaio di componenti a dirla lunga :asd:

Ecco un semplice esempio antiquato in casa Intel: come vedi all'epoca la frequenza seguiva quasi linearmente il numero di transistors:

https://m.eet.com/media/1177330/embedded%20cpu%20figure%201%20500.jpg

Che aumentando la densita' (che non vuol dire aumentare il numero di transistor) si possa avere maggiore frequenza reale non ci piove.
Se con l'occasione aumenti anche il numero di transitor per le pipeline e aumenti il parallelismo aumenti la frequenza equivalente.
Penso che sia questo che volesse dire l'ingegnere che ho quotato.
Per me non e' precisa la frase +transistor --> +frequenza ed in generale e' sbagliata.

DuttZ
13-01-2018, 19:06
In effetti non hai tutti i torti.
Probabilmente è colpa di tutte quelle cose che hanno aggiunto in vega e mai attivato/sfruttato.
Andrà a finire che tra un anno scopriremo che vega va forte sfruttata bene... ovviamente troppo tardi perchè serva a qualcosa.Non so chi l'abbia scritto qua o su un altro forum, ma c'è qualcuno che è straconvinto che le feature Vega verranno attivate solo sul prossimo refresh Vega...

OvErClOck82
13-01-2018, 20:31
Non so chi l'abbia scritto qua o su un altro forum, ma c'è qualcuno che è straconvinto che le feature Vega verranno attivate solo sul prossimo refresh Vega...



E sarebbe una grande inculat@ per chi ha comprato una 56 o 64 in questi mesi


Sent from my iPhone using Tapatalk

Gyammy85
13-01-2018, 20:36
E sarebbe una grande inculat@ per chi ha comprato una 56 o 64 in questi mesi


Sent from my iPhone using Tapatalk

Ormai qualsiasi speculazione di utenti random è #amdloavevadetto o #amdloavevapromesso

Gyammy85
14-01-2018, 08:30
Quindi rinneghi le uberfeatures tanto sbandierate a suon di slide ufficiali (e interviste al traditore) relegandole a speculazioni di utenti random :asd:

No mi riferivo al fatto che siccome qualcuno ha scritto che le attiveranno col refresh allora è ufficiale che le attiveranno col prossimo refresh

Sta cosa l'avrò scritta 30 volte, la scrivo di nuovo

La cosa non attiva sembra essere il primitive discard che porterebbe a 11 poligoni per clock massimi la potenza poligonale, nel paper di vega c'era un grafico con l'incremento potenziale e nelle ndnotes c'era scritto che era riferito ad una versione di driver, che finiva con .32.
Ora siamo arrivati a 50 e per qualche motivo non li hanno messi, avranno le loro ragioni.
Il vantaggio con discard attivo sarebbe quello di avere una potenza poligonale uguale alla 1080ti, poi non so se questo si rifletterebbe sugli uber giochi che vendono tanto tipo gta5 o gli altri test master bench games del 2013-2014

ninja750
14-01-2018, 08:37
Non so chi l'abbia scritto qua o su un altro forum, ma c'è qualcuno che è straconvinto che le feature Vega verranno attivate solo sul prossimo refresh Vega...

io l'ho scritto dal primo giorno

ste cose o funzionano subito o non è che magicamente te le attivano dopo x mesi soprattutto in un mondo in cui la lunghezza della barretta nel benchmark al day1 decreterà una win o un fail immediato

eppure leggo ancora qualcuno che "chissà se con la prossima release di driver abiliteranno x y e z"

Gyammy85
14-01-2018, 08:46
Ah avevo capito male.

È già stato spiegato che l'attivazione di queste features (che da quanto ho capito sono piú software che hardware) sottrae GigaFLOPS. In pratica è una coperta corta, presumibilmente ci sono più svantaggi che vantaggi a meno di codice ultra ottimizzato a livelli che manco se fai un gioco o sponsor te lo fanno...

Anche se sottrare tflops non sarebbe un problema dato che il freno principale nei giochi dove vega non brilla è di natura geometrica, lo shader core grosso è li per questo nella filosofia amd, puoi aggiungere roba a piacimento che tanto le performance non variano dato che gli sp sono in grado di assorbire tutto.

Roland74Fun
14-01-2018, 10:48
Quindi rinneghi le uberfeatures tanto sbandierate a suon di slide ufficiali (e interviste al traditore) relegandole a speculazioni di utenti random :asd: #deliriumtremens
L'hanno cacciato via proprio perché ha detto le bugie. :read:
Sono cose che non si fanno. Non si mente all'avventore. :eek:
Quindi essendo una azienda seria gli hanno detto:
-"Ehi tu cosa hai fatto! Hai tortooo! Fuori di qui!". :mad: :mad:

sniperspa
14-01-2018, 12:29
L'hanno cacciato via proprio perché ha detto le bugie. :read:
Sono cose che non si fanno. Non si mente all'avventore. :eek:
Quindi essendo una azienda seria gli hanno detto:
-"Ehi tu cosa hai fatto! Hai tortooo! Fuori di qui!". :mad: :mad:

Semplicemente si sono resi conto che la tanto sbandierata gpu era in realtà una cacchina fumante da raffreddare a liquido e hanno pensato:
"hey ma perchè non rifiliamo tutto ad Intel compreso il suo creatore bugiardone e ci facciamo pagare qualche big verdone?!?"

Nel frattempo potranno correggere il tiro e far uscire qualcosa di competitivo, magari per fine anno o 2019 :O

Ok sto vaneggiando ma spero veramente sia andata così :asd:
Anche perchè se Vega fosse stato veramente competitiva mi auguro non si sarebbero sognati di vendere il loro principale vantaggio al loro principale competitor :fagiano:

AceGranger
14-01-2018, 13:06
True but sad story! :asd:

Capace che è stato lo stesso Raja in odor di Intel a "consigliare" ad Intel il suo prodotto "Intel compra Vega che appena mi assumete vi abilito le uberfeats, promesso!!!" :O


Intel ha seri problemi con nVidia, ha scelto il minore dei mali ed è andata da AMD.

TheDarkAngel
14-01-2018, 13:09
Intel ha seri problemi con nVidia, ha scelto il minore dei mali ed è andata da AMD.Perché nvidia li tratta per quello che sono, vero che pecunia non olet ma mettersi a dare le proprie tecnologie migliori all'Impero del male non so quanto sia conveniente. Nel breve di sicuro, nel lungo dubito.

TheDarkAngel
14-01-2018, 13:22
Non e' che gli ha regalato la tecnologia, gli vende chip che Intel assembla nel package insieme alla propria CPU. La connessione fra le due e' PCIe (x8), una tecnologia a cui hanno entrambe accesso.

Avranno un contratto, di un paio di anni, quando non vogliono piu' dargliele smettono, nel frattempo big money senza cedere mezza licenza/brevetto.Intanto hanno presentato sul mercato un prodotto unico che manco in 15 anni Intel sarebbe mai stata in grado di fare, certo che amd guadagna nel breve periodo ma perde nel presentare un prodotto e lasciar alla concorrenza presidiare un settore. Nvidia si fa ammazzare piuttosto.

AceGranger
14-01-2018, 13:24
Perché nvidia li tratta per quello che sono, vero che pecunia non olet ma mettersi a dare le proprie tecnologie migliori all'Impero del male non so quanto sia conveniente. Nel breve di sicuro, nel lungo dubito.

non è nVidia che li ha "trattati male", è Intel che è, come al solito negli ultimi anni, arrivata tardi nel mercato AI e Deep Learning e si è fatta sfilare da nVidia mi pare circa 1,5 Miliardi di dollari rispetto a un anno fa ( il fatturato di nVidia in campo datacenter mi pare sia cresciuto una cosa come il 190% ); in piu, la partnership di nVidia con IBM creera ulteriori problemi nel 2018 visto che a dicembre 2017 sono arrivati i nuovi sistemi Power 9 con collegamento diretto alle Tesla; le mosse di Intel sono state quella di presentare il chip Nervana, che credo morira malissimo, e di "dirottare" gli Xeon PHI nel mercato AI e Deep Learning....

ora Intel sta tentando in tutti i modi di contrastare nVidia, e la loro mossa "geniale" è stata quella di pagare AMD per avere una GPU decente per "battere" il sistema di nVidia Max-Q, per il quale non ne aveva assolutamente necessita, visto che Intel vendeva gia i sui chip mobile in totale monopolio, ma devono in tutti i modi contrastare nVidia....

non mi sembra una mossa normale dire, guardate come è bello il nostro sistema Intel + AMD rispetto al nostro sistema Intel + nVidia :asd:

AceGranger
14-01-2018, 13:34
In quel settore vendevano Core + GeForce, ora vendono Core + Radeon.

Nvidia non ha un design pronto per HBM in quel segmento. AMD si'.

A meno che MX150 nVidia l'abbia creata per sport, nVidia si sarebbe volentieri tenuta quel mercato che ha appena perso a causa del Vega mobile che Intel monta on package.

ma infatti è un accordo vantaggioso per AMD, e un accordo "vantaggioso" per Intel per tentare di togliere soldi ad nVidia.
Intel direttamente non ha guadagnato nulla in questa operazione; i chip mobile e ultramobile gia li vendeva in monopolio.

questa è la mossa di Intel contro quella di nVidia fatta qualche mese fa con le CPU Threadripper "ottime con le loro GeForce" :asd: dove credo che Intel abbia perso un bel po :asd:

Intel è molto alterata. :asd: :asd:

Angeland
14-01-2018, 13:54
Premetto che non ho seguito moltissimo la faccenda ubersuperfeatures di Vega, stavo dando in questo momento un'occhiata al forum di overclockers.uk e cito testualmente il post di una persona che mi sembra informata sulla faccenda (poi per carità possono essere benissimo tutte vaccate)

"Prim shaders are active, as the way Vega works now in hardware requires it. But the thing that is not active is NGG fast path. This is still being worked on as the driver is being rebuilt from the ground up. Part of the work on this is shown by the hiring of a new lead shader compiler programmer.

Once the above is done, the DSBR will also be able to operate with the new Work distributor, allowing the ROPs to remain constantly filled with tiles from any screen space coordinates instead of the native quadrants they cover.

Both should provide a reasonable if not considerable performance bump when fully active. At the moment the DSBR and Prim shaders are only working in native mode, which is why Vega is no better than Fiji with higher clocks. The DSBR when active is reducing required bandwidth and power, but working sub optimally as it cannot make use of the new work distribution engine without NGG also being active.

There is no problem with the hardware itself, the driver side of things is just taking considerably more work.



Detto questo a me le attuali prestazioni vanno benissimo, non ho riscontrato problemi con nessun gioco a 3440x1440 maxato.

Certo, un possibile +15/20% non mi farebbe schifo :D ma di sicuro non mi aspetto, eventualmente, un +40%.

Gyammy85
14-01-2018, 15:23
Premetto che non ho seguito moltissimo la faccenda ubersuperfeatures di Vega, stavo dando in questo momento un'occhiata al forum di overclockers.uk e cito testualmente il post di una persona che mi sembra informata sulla faccenda (poi per carità possono essere benissimo tutte vaccate)

"Prim shaders are active, as the way Vega works now in hardware requires it. But the thing that is not active is NGG fast path. This is still being worked on as the driver is being rebuilt from the ground up. Part of the work on this is shown by the hiring of a new lead shader compiler programmer.

Once the above is done, the DSBR will also be able to operate with the new Work distributor, allowing the ROPs to remain constantly filled with tiles from any screen space coordinates instead of the native quadrants they cover.

Both should provide a reasonable if not considerable performance bump when fully active. At the moment the DSBR and Prim shaders are only working in native mode, which is why Vega is no better than Fiji with higher clocks. The DSBR when active is reducing required bandwidth and power, but working sub optimally as it cannot make use of the new work distribution engine without NGG also being active.

There is no problem with the hardware itself, the driver side of things is just taking considerably more work.



Detto questo a me le attuali prestazioni vanno benissimo, non ho riscontrato problemi con nessun gioco a 3440x1440 maxato.

Certo, un possibile +15/20% non mi farebbe schifo :D ma di sicuro non mi aspetto, eventualmente, un +40%.

E' simile al problema che ci fu con r600, era la prima iterazione dell'architettura vliw e ed essendoci 5 alu per strem processor il problema dei driver era farle funzionare a pieno regime.

Catan
15-01-2018, 09:42
E' simile al problema che ci fu con r600, era la prima iterazione dell'architettura vliw e ed essendoci 5 alu per strem processor il problema dei driver era farle funzionare a pieno regime.

realmente riuscivano senza problemi, di fatti sono andati avanti fino all'ultima iterazione (5870) che prevedeva 1600sp.
Nel periodo che è passato tra r600 da 320 sp alle 5870 da 1600, si resero conto che mediamente l'occupazione media non era mai tale da occupare tutte le 5 alu, quindi o continuavano ad aumentare le sp per supplire alla cosa, o semplicemente facevano una unità più piccola ma che veniva sfruttata di più come il vliw4 delle 69x0 (ed è per questo che 1536 sp di vliw4 pompavano più di 1600 di vliw5, 1600 vliw5 aveva una resa media equivalente di una vliw4 da 1200).

Gyammy85
15-01-2018, 09:48
realmente riuscivano senza problemi, di fatti sono andati avanti fino all'ultima iterazione (5870) che prevedeva 1600sp.
Nel periodo che è passato tra r600 da 320 sp alle 5870 da 1600, si resero conto che mediamente l'occupazione media non era mai tale da occupare tutte le 5 alu, quindi o continuavano ad aumentare le sp per supplire alla cosa, o semplicemente facevano una unità più piccola ma che veniva sfruttata di più come il vliw4 delle 69x0 (ed è per questo che 1536 sp di vliw4 pompavano più di 1600 di vliw5, 1600 vliw5 aveva una resa media equivalente di una vliw4 da 1200).

Si ricordo la cosa, d'altra parte la 6870 andava più o meno come una 5870 pur avendo solo 1024 sp, diciamo che loro ad ogni refresh migliorano anche la parte rbe e poligonale per cui alla fine polaris a livello geometrico va più di una fury che è molto più grossa col doppio delle rops.
Intendevo che la situazione come allora sia che il lavoro a livello driver si protrarrà per molto tempo, per cui adesso è così, fra un annetto riusciranno ad implementare bene tutto, uscirà navi con tutto maggiorato e andranno avanti solo con affinamenti minori, è la loro procedura abituale.

Vul
15-01-2018, 09:50
Non e' che gli ha regalato la tecnologia, gli vende chip che Intel assembla nel package insieme alla propria CPU. La connessione fra le due e' PCIe (x8), una tecnologia a cui hanno entrambe accesso.

Avranno un contratto, di un paio di anni, quando non vogliono piu' dargliele smettono, nel frattempo big money senza cedere mezza licenza/brevetto.

Il chip è fabbricato da intel, il disegno è di amd.

Gyammy85
15-01-2018, 09:53
nel frattempo big money.

No no tutto gratis, se avessero voluto pagare si sarebbero rivolti altrove, la roba buona si paga (cit.)

Catan
15-01-2018, 10:04
Intel ha seri problemi con nVidia, ha scelto il minore dei mali ed è andata da AMD.

è un problema che si portano avanti da 12 anni, dalla prima xbox360, e probabilmente con lo zampino (non voluto) di microsoft.
Nvidia ha sempre accusato intel di "svendere" la cpu (che era un celeron praticamente) a microfost con un contratto molto vantaggioso che includeva le royalties a seconda delle console vedute, mentre nvidia voleva le royalties a chip venduto (tradotto intel non batteva cassa sugli invenduti), ovviamente a microsoft faceva comodo questa cosa ed impose in corsa a nvidia il cambio di contratto.
Da sempre nvidia ha rinfacciato questa cosa a intel ( secondo cui dovevano fare cartello e vendere con lo stesso contratto).

Da questo tira e molla che microsoft lascio "l'asilo" per andare sulla combo ibm+ati per xbox360 e poi sul soc completamente amd.
(anche perchè nella prima xbox microsoft era la vera fregata da entrambi, perchè lei "comprava" il chip da intel e nvidia, quindi non aveva nessuna voce in capitolo su quanti produrne, se shrinkarli e a che costo, mentre sia con ibm+ati sia con amd, innaugurando la politica del "progetto" o soc, cioè te mi vendi il progetto , e io lo produco, cosi decido io quanti, dove e come).

La storia dell'accordo amd + intel è molto simile a quella che microsoft fece all'epoca con nvidia + intel, cioè tu mi vendi la gpu e io la monto.

Se intel utilizzerà questo per il mondo mobile la posso tradurre solo in una cosa, che attualmente amd non ha voglia di aggredire il mercato dei pc portatli "high end" con una apu dedicata di fascia alta (forse per la difficoltà di fare un die da 8 core zen + core da 24 cu vega), ma preferisce aggredire la fascia bassa con una apu da 4 core zen + 11-8 core vega e banda condivisa. almeno in questo momento.

la possibilità di mettere su unico interposer una cpu performante di fascia alta ed una gpu con memoria dedicata di fascia "medio-alta" per lo standard dei portatili, decreterà sicuramente la morte dello standard mxm, quindi portatili gaming molto più sottili.

La tecnologia hbm sicuramente in questo aiuta, nelle vga discrete si può ancora questionare se c'era tutta sta fretta di usarle, ma nel mondo mobile sono davvero la svolta per il salto di qualità.

Catan
15-01-2018, 10:14
Si ricordo la cosa, d'altra parte la 6870 andava più o meno come una 5870 pur avendo solo 1024 sp, diciamo che loro ad ogni refresh migliorano anche la parte rbe e poligonale per cui alla fine polaris a livello geometrico va più di una fury che è molto più grossa col doppio delle rops.
Intendevo che la situazione come allora sia che il lavoro a livello driver si protrarrà per molto tempo, per cui adesso è così, fra un annetto riusciranno ad implementare bene tutto, uscirà navi con tutto maggiorato e andranno avanti solo con affinamenti minori, è la loro procedura abituale.

il problema di fondo è che a volte il team hw non parla con quello software, o che idee "paracule" in fase di progetto poi diventao dei "mostri" in fase di programmazione.
Es fu il ringbus, figo e gestibile fino a quando era a 256bit ( radeon 1800-1850) e divenne un'incubo quando passarono al 512bit, eppure per loro sulla "carta" era un mero raddoppio ( e sono sicuro che anche all'inizio il softwarista disse "ma se è uguale non avrà problemi").

vliw5 pure, probabilmente a 320sp era tutto occupato, a 800 anche, quando passarono a 1600 si resero conto che era più difficile, per questo "migliorarono" passando a vliw4.

Probabilmente alcune feature che hanno messo sotto vega, sia agli hw che ai softwaristi in sede di progetto fecero schizzare il sangue dal naso ad entrambi, poi dopo quanto iniziarono ad implementarle "realmente" e non a livello di prototipo, si sono resi conto che alla fine era più la spesa che la resa, se non in particolari situazioni.

Sta cosa successe pure con la tasselazione, in teoria l'hw della tasselazione era presente già all epoca da r600 (mutuato dal cugino che andrò a fare la gpu alla xbox360) solo che fu "attivato" solo da terascale3 cioè dalle 5000, quando fu definito in modo chiaro dalle api (in questo caso le dx11, come doveva funzionare).

Probabilmente ci sono delle feature che vega può fare, ma non le implementano perchè ancora non è ben chiaro , non tanto a loro, quando agli altri, cosa ci si può fare realmente.

Poi in genere è molto più facile adattare il tuo lavoro driver al software che lo richiede (in questo caso i giochi) che non fare un driver che sfrutti specificatamente il tuo hw per far andare meglio un software (gioco) che non ne richiede la funzione.

Gyammy85
15-01-2018, 10:23
il problema di fondo è che a volte il team hw non parla con quello software, o che idee "paracule" in fase di progetto poi diventao dei "mostri" in fase di programmazione.
Es fu il ringbus, figo e gestibile fino a quando era a 256bit ( radeon 1800-1850) e divenne un'incubo quando passarono al 512bit, eppure per loro sulla "carta" era un mero raddoppio ( e sono sicuro che anche all'inizio il softwarista disse "ma se è uguale non avrà problemi").

vliw5 pure, probabilmente a 320sp era tutto occupato, a 800 anche, quando passarono a 1600 si resero conto che era più difficile, per questo "migliorarono" passando a vliw4.

Probabilmente alcune feature che hanno messo sotto vega, sia agli hw che ai softwaristi in sede di progetto fecero schizzare il sangue dal naso ad entrambi, poi dopo quanto iniziarono ad implementarle "realmente" e non a livello di prototipo, si sono resi conto che alla fine era più la spesa che la resa, se non in particolari situazioni.

Sta cosa successe pure con la tasselazione, in teoria l'hw della tasselazione era presente già all epoca da r600 (mutuato dal cugino che andrò a fare la gpu alla xbox360) solo che fu "attivato" solo da terascale3 cioè dalle 5000, quando fu definito in modo chiaro dalle api (in questo caso le dx11, come doveva funzionare).

Probabilmente ci sono delle feature che vega può fare, ma non le implementano perchè ancora non è ben chiaro , non tanto a loro, quando agli altri, cosa ci si può fare realmente.

Poi in genere è molto più facile adattare il tuo lavoro driver al software che lo richiede (in questo caso i giochi) che non fare un driver che sfrutti specificatamente il tuo hw per far andare meglio un software (gioco) che non ne richiede la funzione.

Diciamo che il gioco più cose nuove implementa meglio va su amd in parole povere, ma è sempre stato così dai tempi di r300.
Far cry 5 sarà ancora più ottimizzato a quanto pare rispetto allo stesso wolf 2, che gira comunque a bestia su tutte le amd in genere. FC5 essendo un openworld magari dovrà per forza utilizzare il discard, è molto dettagliato e gli ambienti sono molto grandi, con cicli giorno-notte molto complessi...

Catan
15-01-2018, 10:36
Il chip è fabbricato da intel, il disegno è di amd.

dopo il fail di gf per le gpu, visto i costi di tsmc, magari stanno testando intel come fabbrica di back-up.
Voglio il mio navi a 7nm design da amd made in cupertino:D :D :D

Catan
15-01-2018, 10:40
Diciamo che il gioco più cose nuove implementa meglio va su amd in parole povere, ma è sempre stato così dai tempi di r300.
Far cry 5 sarà ancora più ottimizzato a quanto pare rispetto allo stesso wolf 2, che gira comunque a bestia su tutte le amd in genere. FC5 essendo un openworld magari dovrà per forza utilizzare il discard, è molto dettagliato e gli ambienti sono molto grandi, con cicli giorno-notte molto complessi...

sta cosa è anche dovuta la fatto che le dx non sono più "il riferimento".
Prima uno faceva un motore grafico dx compliant e i produttori si scervellavano per ottimizare il driver della loro archidettura per andare meglio con il set dx, più che col motore del gioco.
Adesso che tra mantle, motori proprietari, feature speciali, ogni tripla A ha il suo motore, è veramente difficile. Capacissimo che su un motore vega con feature abilitate fa il doppio e nel resto dele applicazioni dimezza le prestazioni.
Quindi di base si arriverà ai "profili" specifici per i giochi (xd sempre essere ritornati indietro all'epoca delle 3dfx).

Secondo me è l'unica soluzione che ha amd per sopravvivere da lato software, un buon driver solido "stabile" per i "motori" più usati e poi fare quei profili "ad hoc" per i giochi tripla A o i giochi online più giocati dove attivi / disattivi le feature che fanno andare meglio il gioco.

Però diventa poi una spesa in più.

Gyammy85
15-01-2018, 10:48
sta cosa è anche dovuta la fatto che le dx non sono più "il riferimento".
Prima uno faceva un motore grafico dx compliant e i produttori si scervellavano per ottimizare il driver della loro archidettura per andare meglio con il set dx, più che col motore del gioco.
Adesso che tra mantle, motori proprietari, feature speciali, ogni tripla A ha il suo motore, è veramente difficile. Capacissimo che su un motore vega con feature abilitate fa il doppio e nel resto dele applicazioni dimezza le prestazioni.
Quindi di base si arriverà ai "profili" specifici per i giochi (xd sempre essere ritornati indietro all'epoca delle 3dfx).

Secondo me è l'unica soluzione che ha amd per sopravvivere da lato software, un buon driver solido "stabile" per i "motori" più usati e poi fare quei profili "ad hoc" per i giochi tripla A o i giochi online più giocati dove attivi / disattivi le feature che fanno andare meglio il gioco.

Però diventa poi una spesa in più.

Non credo che amd abbia questa forza per imporre roba innovativa a tutti, guardati i giochi multiplay supertrendy che escono come funghi, tutti rigorosamente in dx11 perché se no poi su steam si beccano fiumi di melma del tipo "ci so crash ho speso 800 euro per l'uberscheda e gira di mexxda" e cose così.

Gyammy85
15-01-2018, 11:00
Immaginiamo al posto delle 480/580 una 390X su 14nm con le frequenze della 480, probabilmente avrebbe avuto dimensioni pari a polaris ma l'avrebbe demolita sotto tutti i punti di vista (avrebbe più sp, rop, banda di memoria) e probabilmente avrebbe consumato pure meno.

Mah, senza un'ottimizzazione delle risorse il problema è sempre quello di far lavorare più unità possibile.
Polaris rinnova tutta la parte geometrica, non so una 390x shrinkata con più frequenza quanto possa fare più di una 580 all'atto pratico, sarebbe un mostro nel computing sicuramente, ma si è visto come pure una furyx abbia problemi anche al di fuori dei giochi a tirar fuori la potenza totale teorica.

Gyammy85
15-01-2018, 11:35
aridaglie... il problema infatti non sono le rops, ma i geo e il fron-end.

Polaris vs Hawaii è mediamente uguale, se guardiamo in punti % a singola cifra si può dire che perde solo in UHD, ma in FHD è avanti e in QHD è pari.

quindi il rapporto di Polaris con l'aiuto della frequenza è ottimale:
Polaris 1geo/8rops/36tmu/9cu(576sp) 1.5TF
Vega 1geo/16rops/64tmu/16cu(1024sp) 3TF

raddoppio di TF a parità di geo e front-end, ma +50~60% invece che 90~100%...

io con Polaris avrei osato leggermente di più, bastava 1cu in più avrebbe occupato pochissimo spazio in più, ma con un incremento del 10%.

Ma a parità di frequenza dici?

Catan
15-01-2018, 12:10
Tradotto in parole povere AMD è da anni che cerca ogni volta di anticipare i tempi implementando per prima nuove tecnologie e funzionalità (anche HBM per esempio).
Questa non sembra una buona strategia perchè nel freattempo Nvidia mette sul mercato un'architettura più snella senza queste cose "da venire", che consuma meno e ha un die più piccolo.
Tanto le tecnologie "precoci" implementate da AMD non verranno mai sfruttate fino a quando Nvidia non le implementa in una sua architettura (perchè ha più mercato e più partnership).

Insomma AMD potrebbe spostare le architetture avanti di una generazione e farebbe meglio.
Immaginiamo al posto delle 480/580 una 390X su 14nm con le frequenze della 480, probabilmente avrebbe avuto dimensioni pari a polaris ma l'avrebbe demolita sotto tutti i punti di vista (avrebbe più sp, rop, banda di memoria) e probabilmente avrebbe consumato pure meno.

E' una strategia purtroppo mutuata dal settore cpu.
Li per tenere testa ad intel, ogni volta deve tirare fuori l'archidettura "miracolosa" quindi ogni volta è un one shot one kill. Se azzecchi l'archidettura vai anche meglio (vedi athlon, phenom II, zen) se la sbagli rischi tutto ( vedi bulldozer).
Prima quando c'era ati e nvidia, i due competitors si equivalevano quasi, quindi potevano entrambi usare i muscoli (pur con qualche errore da ambo i lati) mettendo da parte dei progetti per rimanere su cose più concrete.

Ati è stata comprata da amd e quindi ha acquisito la filosofia del "one shot one kill" o faccio una archidettura top che mi campa per 4-5 anni con 2 o 3 iterazioni o niente, perso il giro e non si riesce a cambiare in corsa.

E' anche vero che c'è da dire che nvidia le cose le sa fare, non sono sprovveduti, dal nulla si sono mangiati 3dfx (che fu veramente un davide vs golia), sarà anche che nvidia è di huang e huang lavora nella sua "azienda" quindi giocattolo suo, decide lui.

Amd è ormai una corporazione, ne il fondatore di amd, ne quello di ati ci stanno più dentro, quindi "si sviluppa il giocattolo a seconda di quanti soldi più portare".

Free Gordon
15-01-2018, 16:58
Ragazzi, mi sono un pò perso gli ultimi 20gg :D

Cosa è successo di importante..? :sofico:

Chi mi fa un riassuntino? :Prrr:

Lunar Wolf
15-01-2018, 17:06
Ragazzi, mi sono un pò perso gli ultimi 20gg :D

Cosa è successo di importante..? :sofico:

Chi mi fa un riassuntino? :Prrr:Colpa di Amd che non ci sono vege in giro e quelle che ci sono costano troppo per una vga di serie B...

The end

Angeland
15-01-2018, 17:43
Colpa di Amd che non ci sono vege in giro e quelle che ci sono costano troppo per una vga di serie B...

The end

Possiedi un'ottima capacità di sintesi :D

Sil3nt
15-01-2018, 18:10
Posso dire che io questi miners li sto veramente odiando?

Era da tempo che desideravo farmi un nuovo pc, invece non si può perchè la metà dei componenti è introvabile oppure costa uno sproposito :cry:

Gyammy85
15-01-2018, 18:29
#MAIning

TheDarkAngel
15-01-2018, 18:31
Posso dire che io questi miners li sto veramente odiando?

Era da tempo che desideravo farmi un nuovo pc, invece non si può perchè la metà dei componenti è introvabile oppure costa uno sproposito :cry:

Il famoso mining da ssd o ram? :Asd:

Sil3nt
15-01-2018, 18:41
Il famoso mining da ssd o ram? :Asd:

La componente diventata più costosa è ovviamente la vga, però leggevo in rete che molti miners consigliano anche di utilizzare gli ssd al posto degli hd in quanto - se ho capito bene - velocizzerebbe qualche processo che ha a che fare con la blockchain...

Sulle ram invece se ne è già discusso parecchio

edit magari qualcuno ha voglia di spiegarlo bene :p

Foglia Morta
15-01-2018, 18:44
Posso dire che io questi miners li sto veramente odiando?

Era da tempo che desideravo farmi un nuovo pc, invece non si può perchè la metà dei componenti è introvabile oppure costa uno sproposito :cry:

'sto qua ha postato la foto delle ultime 155 schede acquistate ( prima che arrivassero quelle ne aveva solo 300 ) e altre 600 schede in pronta consegna :asd:

https://www.reddit.com/r/gpumining/comments/7ozas8/they_cant_wait/

bagnino89
15-01-2018, 18:49
'sto qua ha postato la foto delle ultime 155 schede acquistate ( prima che arrivassero quelle ne aveva solo 300 ) e altre 600 schede in pronta consegna :asd:

https://www.reddit.com/r/gpumining/comments/7ozas8/they_cant_wait/

Gli auguro tanta salute e felicità...

Gyammy85
15-01-2018, 18:50
'sto qua ha postato la foto delle ultime 155 schede acquistate ( prima che arrivassero quelle ne aveva solo 300 ) e altre 600 schede in pronta consegna :asd:

https://www.reddit.com/r/gpumining/comments/7ozas8/they_cant_wait/

Che schede sono?

fraussantin
15-01-2018, 18:51
Gli auguro tanta salute e felicità...Io solo un bel fulmine !

Sil3nt
15-01-2018, 18:52
'sto qua ha postato la foto delle ultime 155 schede acquistate ( prima che arrivassero quelle ne aveva solo 300 ) e altre 600 schede in pronta consegna :asd:

https://www.reddit.com/r/gpumining/comments/7ozas8/they_cant_wait/

:doh:

Lunar Wolf
15-01-2018, 19:03
'sto qua ha postato la foto delle ultime 155 schede acquistate ( prima che arrivassero quelle ne aveva solo 300 ) e altre 600 schede in pronta consegna :asd:

https://www.reddit.com/r/gpumining/comments/7ozas8/they_cant_wait/

Cito uno dei commenti:

From everybody on a budget trying to build a decent PC, FUCK YOU

:asd:

Foglia Morta
15-01-2018, 19:31
Che schede sono?

Sicuramente MSI Armor , penso RX570

Giffo74
15-01-2018, 19:53
Carini i commenti...

Catan
15-01-2018, 20:20
Il più grosso problema di AMD è che viene da anni di management del tutto inadeguato.

Ora il management (parlo di C-level) è fatto di ingegneri (ovviamente non più operativi, ma comunque con un bacground adeguato), non di gente che decide su cose "indistinguibili dalla magia" (cit.) basandosi su criteri completamente alieni al fatto tecnico.

Ma il tempo di propagazione in questo campo è piuttosto lungo e ogni giorno è più difficile rientrare in corsa.

guarda il problema di fondo è che può anche essere di gente che ci capisce (seriamente, ma magari è più portata a fare il topino da laboratorio che non il manager, capita anche questo) , ma che sei sempre stipendiato.
Quando arrivi ai livelli di essere "manager" hai già maturato un credito molto elevato nella comunità (es vedi raja), puoi anche tirare fuori una vega non al top, se te ne vai ci sarà sempre qualcun'altro nel mondo dei semiconduttori che ti prenderà e ti pagherà bene nonostante il fallimento.

Huang se cappella una archidettura, ci perde lui in prima persona, oltre nvidia.

Poi ovviamente ci stanno anche altri ingegneri che ti dicono "io nella vita per pigrizia o non genialità non potrò mai fondare l'nvidia, ati, intel o amd equivalente, vado a lavorare per loro e mi faccio il nome famoso dentro di loro". Quindi vivono il fallimento di una scelta loro in maniera molto personale.

Gyammy85
15-01-2018, 21:23
Uno che posta ste cose però vuole farsi insultare dai. :asd:

Intanto guadagna più di zio paperone. :(

Gyammy85
15-01-2018, 21:25
Il giorno che scoppia la bolla lo trovo in piazza del duomo con una bancarella a vendere le vga :asd:

Avrà sempre il suo bitcoin numero uno che gli porterà fortuna :O

Lunar Wolf
16-01-2018, 08:30
Comunque ok i miners, ma il problema di fondo è che la produzione a livello mondiale non è sufficiente a soddisfare questa nuova domanda, e non parlo solo di amd quindi...
E' un caso che le amd vadano meglio rispetto le nvidia, fosse capitato il contrario sarebbe stata la stessa cosa, anche perché non sono direttamente amd e nvidia a produrre le gpu e tutto ciò che ci vuole per farlo, come le fab per arrivare fino alle materie prime...

Sarà anche vero che a livello energetico non distruggeranno il pianeta e che ci sono altri settori peggiori, ma questo è un grosso problema, se davvero si mettessero tutti a minare il PC come lo conosciamo oggi scomparirebbe, ma non solo il PC...

This

Comunque il problema rimane finche monero e eth sono minabili con la gpu....quelli di eth hanno gia dichiarato quando la loro moneta andrà in pos e dopo non sarà piu minabile come bitcoin, almeno che non si va di asic e tra costi, elettricità e affidabilità meglio non giocarci un cent...immaginate un fiume di vga sparse nei mercatini di qualsiasi forum/sito date via per 50euro poichè potrebbe funzionare 5min come 5ore :asd:

AceGranger
16-01-2018, 08:40
Comunque ok i miners, ma il problema di fondo è che la produzione a livello mondiale non è sufficiente a soddisfare questa nuova domanda, e non parlo solo di amd quindi...
E' un caso che le amd vadano meglio rispetto le nvidia, fosse capitato il contrario sarebbe stata la stessa cosa, anche perché non sono direttamente amd e nvidia a produrre le gpu e tutto ciò che ci vuole per farlo, come le fab per arrivare fino alle materie prime...

Sarà anche vero che a livello energetico non distruggeranno il pianeta e che ci sono altri settori peggiori, ma questo è un grosso problema, se davvero si mettessero tutti a minare il PC come lo conosciamo oggi scomparirebbe, ma non solo il PC...

La produzione non la alzano perchè sanno che prima o poi scoppiera; sarebbe un azzardo aumentare la produzione senza le assicurazioni di un mantenimento della domanda futura.

Ale55andr0
16-01-2018, 09:17
le apu con igpu cazzuta saranno le prossime console, su pc uscirà roba sempre ben inferiore come integrata, a parliamo sempre dal 2020 in poi. Arduo tirare con la 480 così tanto a meno che non vuoi andare sempre a calare con risoluzione e impostazioni

sniperspa
16-01-2018, 09:40
le apu con igpu cazzuta saranno le prossime console, su pc uscirà roba sempre ben inferiore come integrata, a parliamo sempre dal 2020 in poi. Arduo tirare con la 480 così tanto a meno che non vuoi andare sempre a calare con risoluzione e impostazioni

Madò la 7850 l'ho presa a settembre 2012 (a 170€) e ci sto giocando ancora adesso :cry:

580 pagata 300€ e dovrei pensionarla dopo 2 anni? :mbe:

Vabbe finirà in ogni caso nel secondo PC, ma spero proprio tiri avanti un pò di più....dove sono finite le botti di rovere altrimenti? :fagiano:

Nelson Muntz
16-01-2018, 09:44
....dove sono finite le botti di rovere altrimenti? :fagiano:

Le hanno sostituite col piu' pratico cartone ! :O

Gyammy85
16-01-2018, 10:52
Madò la 7850 l'ho presa a settembre 2012 (a 170€) e ci sto giocando ancora adesso :cry:

580 pagata 300€ e dovrei pensionarla dopo 2 anni? :mbe:

Vabbe finirà in ogni caso nel secondo PC, ma spero proprio tiri avanti un pò di più....dove sono finite le botti di rovere altrimenti? :fagiano:

Bisogna maxare tutto e siccome poi c'è il rischio di non tenere i 60 fissi diamond rock solid a 8k devi cambiare ogni 6 mesi

Le hanno sostituite col piu' pratico cartone ! :O

Ma almeno è riciclato?

Ubro92
16-01-2018, 11:09
Ho tenuto la 6950 fino alla 580. E' vero che ho avuto un ciclo lungo in modo anomalo, a questo giro, però a meno di guasti finita la garanzia dubito che la cambierò tanto presto :D

E certo se al prossimo giro potessi prendere una APU con prestazioni un po' migliori della configurazione attuale, quindi l'equivalente di un Ryzen 7 e una Vega64 in un thermal envelope da max 140W (quindi quello di un dual tower ad aria) probabilmente lo farei, nel 2020, ma non credo accadrà.



:read:

Vega 64 in 140w con tanto di 8c/16t? :sofico:

Oggi a distanza di 8 anni si è forse riusciti a far entrare le prestazioni di una 5870 in un unico package con il 2400G e Vega 11 e limitandosi a 4c/8t senza contare che la 5870 è una scheda data per 188w di tdp contrariamente a Vega64 (quasi 300w di tdp), per infilare una vega 64 (prestazioni) passeranno minimo 10-12 anni...

Gyammy85
16-01-2018, 11:09
Si si, avevo capito il tuo post, è che siamo partiti dalle APU e ribadivo il concetto :D

Io mi chiedo sempre che fine abbia fatto la vega mobile/apu o quello che è da 28 cu

Gyammy85
16-01-2018, 11:10
Vega 64 in 140w con tanto di 8c/16t? :sofico:

Oggi a distanza di 8 anni si è forse riusciti a far entrare le prestazioni di una 5870 in un unico package con il 2400G e Vega 11 e con 4c/8t e la 5870 è una scheda che anche al tempo era data per 188w di tdp...

Se il pp non lo consente si può aspettare anche 80 anni che non possono farla...

Ubro92
16-01-2018, 11:17
Se il pp non lo consente si può aspettare anche 80 anni che non possono farla...

Infatti era un assurdo, poi nel futuro sicuramente si inventeranno nuovi approcci per incrementare le prestazioni... Anche perchè con gli attuali già si è molto al limite e forse ancora ancora si riesce a tirare qualcosa per altre 2-3 generazioni (quindi più o meno 5-6 anni)...

Gyammy85
16-01-2018, 11:20
Presumo sia Vega Mobile, e che per Intel (Kaby-G) sia stata cuttata a 24CU.

Di Vega Mobile sappiamo solo il nome anche se l'hanno presentata, ma non risolve il "problema dell'APU" perché richiede un design custom del sistema, che va benissimo se ti compri un preassemblato che la include, ma se vuoi farti il PC in casa come faresti con una APU non va (come non va Kaby-G, visto che ha anche lui un pinout custom anche se sta su un singolo package).


Si ritornerà ai pc tutti in uno scatolati stile commodore...:eek:

Gyammy85
16-01-2018, 11:20
Potrebbe essere qualcosa da datacenter.

Non credo, per quelli ci sono le instinct

Ubro92
16-01-2018, 11:27
Potrebbe anche essere una variante custom per le console...

Poi 28CU sono ben 1792sp, non so voi ma escluderei a priori che si parli di APU, perchè questo vorrebbe dire niente VRAM dedicata e vedo arduo gestirle con DDR4 in dual channel...

Ubro92
16-01-2018, 11:31
Ripensavo a questa cosa, quella della frequenza sembra la soluzione più semplice, invece di "allargare" il design ne aumenti le frequenze ottenendo un throughput maggiore senza toccarne la struttura ed i suoi bilanciamenti. Ma ovviamente è una coperta corta, GCN non è più adeguato, almeno per il gaming.

Dipende dall'architettura come è strutturata, da qui gli ingegneri valutano quanto sia redditizio pompare l'HW o le frequenze tenendo in considerazione anche lo scaling dei consumi e le relative temperature...
Se parliamo di APU ad esempio date le limitazioni date dalla banda, avrebbe poco senso pompare l'HW oltre un certo livello e sarebbe più redditizio aumentare le frequenze fin dove l'architettura permette...

Ubro92
16-01-2018, 11:49
E perchè mai non potrebbe avere la VRAM dedicata?

Perchè il quel caso non parliamo più di APU ma di soluzioni simili a i7-8809G che uniscono tutto in un unico package... Quest'ultimo oltre a Vega M ha pure una Intel 630 dentro... Parliamo di SoC in questi casi...

Ubro92
16-01-2018, 12:00
La distinzione tra APU e SOC non è data dal numero di pezzi che si mettono sul package ma dall'utilizzo a cui è vetata.
Mi rendo conto che praticamente nessuno ha mai usato una APU veramente come APU, ma magari è ora di farlo :D

A sto punto tanto vale che ci infilano pure delle DDR4 dentro, si trovano :sofico:

Free Gordon
16-01-2018, 12:07
Grazie mille per le risposte.. :)


PS
Speravo in qualche news sulle nuove GPU e invece nada... :(

Ale55andr0
16-01-2018, 12:10
Madò la 7850 l'ho presa a settembre 2012 (a 170€) e ci sto giocando ancora adesso :cry:

580 pagata 300€ e dovrei pensionarla dopo 2 anni? :mbe:

Vabbe finirà in ogni caso nel secondo PC, ma spero proprio tiri avanti un pò di più....dove sono finite le botti di rovere altrimenti? :fagiano:

infatti non ho detto che non si gioca, ma come si gioca, io ad esempio non potrei nemmeno definirlo giocare, già la 1080 mi sta cominciando a sembrare un fermacarte 2.0 dopo la fu r9 290 :asd:

sniperspa
16-01-2018, 13:12
infatti non ho detto che non si gioca, ma come si gioca, io ad esempio non potrei nemmeno definirlo giocare, già la 1080 mi sta cominciando a sembrare un fermacarte 2.0 dopo la fu r9 290 :asd:

Vabbè però non puoi negare di non essere un maniaco :ciapet:

Scherzi a parte è palese fin da ora che la RX 580 non sarà mai nemmeno lontanamente longeva come la 7850...e non è una questione di pretese.

Senza considerare poi il sovrapprezzo che si pagano per queste schede

Gyammy85
16-01-2018, 13:13
infatti non ho detto che non si gioca, ma come si gioca, io ad esempio non potrei nemmeno definirlo giocare, già la 1080 mi sta cominciando a sembrare un fermacarte 2.0 dopo la fu r9 290 :asd:

Sei in waiting for navi?
No stavolta fai la scelta giusta, una bella titan v e non ci pensi più. :) :O

Roland74Fun
16-01-2018, 15:59
Eccola in tutto il suo splendore
Ottimi i commenti con tanto di foto di grigliata...... :) :)

https://s17.postimg.org/4b3xbueof/Ferry_Vega.jpg (https://postimg.org/image/uw6g7eh1n/)

fraussantin
16-01-2018, 16:10
Eccola in tutto il suo splendore
Ottimi i commenti con tanto di foto di grigliata...... :) :)

https://s17.postimg.org/4b3xbueof/Ferry_Vega.jpg (https://postimg.org/image/uw6g7eh1n/)Fra lui e il ragazzotto nuovo di toms sono fan verdi , ma sotto la scocca hanno ryzen e polaris.

Ale55andr0
16-01-2018, 18:25
Sei in waiting for navi?
No stavolta fai la scelta giusta, una bella titan v e non ci pensi più. :) :O

sono waiting for occupazione...la 1080 marcirà nel mio case minimo altri due anni

Ale55andr0
16-01-2018, 18:31
Vabbè però non puoi negare di non essere un maniaco :ciapet:

Scherzi a parte è palese fin da ora che la RX 580 non sarà mai nemmeno lontanamente longeva come la 7850...e non è una questione di pretese.

Senza considerare poi il sovrapprezzo che si pagano per queste schede

la colpa è TUTTA degli sviluppatori e di quella MERDA di antialiasing via shader che praticamente OGNI software house propina e che fa semplicemente SCHIFO, al punto che l'unico modo di vedere un quadro veramente pulito da scalettature della ceppa e flickering vari è il downsapling 3840*2160 aka 4k...che notoriamente a stento lo si spinge con una 1080ti nei titoli più esigenti. Basterebbe "semplicemente" un aa fatto come CRISTO COMANDA come quello della serie metro e starei a posto, per dire metro redux rulla alla grande e si vede da DIO nel mio ips 1080p 24". Ma applicazioni così esemplari dell'aa le si vede una ogni 100 giochi :rolleyes:
Ovvio poi che se parliamo di giochi tipo skyrim allora posso forzare risoluzioni assurde che fila liscio uguale, ma io la tara la faccio nel caso peggiore, non in quello migliore.
Questo cmq dedicato a tutti quelli che "eh ma la 1080 è sprecata per questo e per quello prendi la 1060". La stramaledettissima "potenza" non basta MAI, e soprattutto non è MAI in eccesso o sprecata (:doh:), end of story.
Al giorno d'oggi nemmeno un i7 octa occato ben sopra i 4ghz con una 1080ti è una configurazione veramente no compromise. Coi 7nm, forse, finalmente si vedrà.... se gli sviluppatori ci faranno la grazia di non programmare col culo si intende

Le manie andrebbero risolte con uno bravo :asd:

Ho una 580, non una Titan V, eppure a 1440p gioco senza soffrire di alcuna rinuncia.

perchè hai un decuplicatore di frame rate impiantato nelle sinapsi evidentemente :asd:

1440 senza rinunce è terreno della 1080, ma in modo stentato, in verità direi più da full hd maxato e con frame rate rock solid

Gyammy85
16-01-2018, 18:45
la colpa è TUTTA degli sviluppatori e di quella MERDA di antialiasing via shader che praticamente OGNI software house propina e che fa semplicemente SCHIFO, al punto che l'unico modo di vedere un quadro veramente pulito da scalettature della ceppa e flickering vari è il downsapling 3840*2160 aka 4k...che notoriamente a stento lo si spinge con una 1080ti nei titoli più esigenti. Basterebbe "semplicemente" un aa fatto come CRISTO COMANDA come quello della serie metro e starei a posto, per dire metro redux rulla alla grande e si vede da DIO nel mio ips 1080p 24". Ma applicazioni così esemplari dell'aa le si vede una ogni 100 giochi :rolleyes:
Ovvio poi che se parliamo di giochi tipo skyrim allora posso forzare risoluzioni assurde che fila liscio uguale, ma io la tara la faccio nel caso peggiore, non in quello migliore.
Questo cmq dedicato a tutti quelli che "eh ma la 1080 è sprecata per questo e per quello prendi la 1060". La stramaledettissima "potenza" non basta MAI, e soprattutto non è MAI in eccesso o sprecata (:doh:), end of story.
Al giorno d'oggi nemmeno un i7 octa occato ben sopra i 4ghz con una 1080ti è una configurazione veramente no compromise. Coi 7nm, forse, finalmente si vedrà.... se gli sviluppatori ci faranno la grazia di non programmare col culo si intende

Guarda nvidia ci prova con tutte le forze a far andare indietro l'industria e usare meno sp possibili e fare acceleratori texturing credimi :asd:
Ma l'aa via shader non è un male. Altrimenti staremmo coi quad sli di 7950gx2, gta5 girerebbe come su un quad sli di titan v ma a 100 euro e non 12.000. :)

Gyammy85
16-01-2018, 18:47
perchè hai un decuplicatore di frame rate impiantato nelle sinapsi evidentemente :asd:

1440 senza rinunce è terreno della 1080, ma in modo stentato, in verità direi più da full hd maxato e con frame rate rock solid

Tu hai detto che ti va stretta la 1080, lui ha espresso il suo parere sulla 580, allora si tira fuori la solita battutina sul fatto che con amd non si gioca bene.

Quindi 1080ti per il 1440p decente, titan v per il 1440p semicompetitivo e per il 4k peasant stutter :asd:

Ale55andr0
16-01-2018, 18:53
Tu hai detto che ti va stretta la 1080, lui ha espresso il suo parere sulla 580, allora si tira fuori la solita battutina sul fatto che con amd non si gioca bene.

Quindi 1080ti per il 1440p decente, titan v per il 1440p semicompetitivo e per il 4k peasant stutter :asd:

e tu come al solito devi fare l'avvocato delle cause perse, peraltro capendo tanto per cambiare (volontariamente?) fischi per fiaschi visto che poco sopra ho definito la mia verde un fermacarte 2.0 e ho bidonato pure la 1080ti dicendo che basta a stento al 4k e che non esiste a oggi un PC davvero no-compromise (frase che ergo comprende QUALSIASI BRAND facendo lavorare più di due neuroni alla volta invece di farsi guidare dal perizoma brandizzato amd, della quale possiedo peraltro pure in firma il cuore del mio PC. Fanboy, se li conosci, li eviti :rolleyes:)

Gyammy85
16-01-2018, 18:55
e tu come al solito devi fare l'avvocato delle cause perse, peraltro capendo tanto per cambiare (volontariamente?) fischi per fiaschi visto che poco sopra ho definito la mia verde un fermacarte 2.0 e ho bidonato pure la 1080ti dicendo che basta a stento al 4k e che non esiste a oggi un PC davvero no-co compromise (frase che ergo ergo comprende QUALSIASI BRAND facendo lavorare più di due neuroni alla volta invece di farsi guidare dal perizoma brandizzato amd, della quale possiedo pure in firma il cuore del mio PC. Fanboy, se li conosci, li eviti :rolleyes:)

Ma non esisterà mai, perché tanto dopo il 4k c'è il 5k e dopo l'8k, allora convieni con me che ste pascal a parte il marketing ed il fumo non sono sto granché?

Ale55andr0
16-01-2018, 19:02
Ma non esisterà mai, perché tanto dopo il 4k c'è il 5k e dopo l'8k, allora convieni con me che ste pascal a parte il marketing ed il fumo non sono sto granché?


niente, allora lo fai apposta a capire cio che vuoi :asd:

bagnino89
16-01-2018, 19:08
la colpa è TUTTA degli sviluppatori e di quella MERDA di antialiasing via shader che praticamente OGNI software house propina e che fa semplicemente SCHIFO, al punto che l'unico modo di vedere un quadro veramente pulito da scalettature della ceppa e flickering vari è il downsapling 3840*2160 aka 4k...che notoriamente a stento lo si spinge con una 1080ti nei titoli più esigenti. Basterebbe "semplicemente" un aa fatto come CRISTO COMANDA come quello della serie metro e starei a posto, per dire metro redux rulla alla grande e si vede da DIO nel mio ips 1080p 24". Ma applicazioni così esemplari dell'aa le si vede una ogni 100 giochi :rolleyes:
Ovvio poi che se parliamo di giochi tipo skyrim allora posso forzare risoluzioni assurde che fila liscio uguale, ma io la tara la faccio nel caso peggiore, non in quello migliore.
Questo cmq dedicato a tutti quelli che "eh ma la 1080 è sprecata per questo e per quello prendi la 1060". La stramaledettissima "potenza" non basta MAI, e soprattutto non è MAI in eccesso o sprecata (:doh:), end of story.
Al giorno d'oggi nemmeno un i7 octa occato ben sopra i 4ghz con una 1080ti è una configurazione veramente no compromise. Coi 7nm, forse, finalmente si vedrà.... se gli sviluppatori ci faranno la grazia di non programmare col culo si intende



perchè hai un decuplicatore di frame rate impiantato nelle sinapsi evidentemente :asd:

1440 senza rinunce è terreno della 1080, ma in modo stentato, in verità direi più da full hd maxato e con frame rate rock solidCi credo che ti piace l'AA di Metro, è un supersampling...

Ale55andr0
16-01-2018, 19:13
Ci credo che ti piace l'AA di Metro, è un supersampling...

anche altri giochi hanno il supersampling ma restano seghettati, quindi il nocciolo è il come viene implemententato - fra parentesi, non vedo l'ora che esca exodus :asd: -

Ale55andr0
16-01-2018, 19:44
Ma sei sicuro che basta una 1080 per il fullhd?
Io andrei più sul sicuro con una 1080ti :rolleyes:

beh, se sei uno che vuole i 144hz mantnendo gli slide al max direi che si, ci vuole la ti anche per il 1080p, io non sono quello li' però :O

Gyammy85
16-01-2018, 20:42
beh, se sei uno che vuole i 144hz mantnendo gli slide al max direi che si, ci vuole la ti anche per il 1080p, io non sono quello li' però :O

Eh bè...molla tutto e ci vediamo fra 10 anni, potrai platinarti tw3 a 8k a 144 fissi

Ubro92
16-01-2018, 22:00
beh, se sei uno che vuole i 144hz mantnendo gli slide al max direi che si, ci vuole la ti anche per il 1080p, io non sono quello li' però :O

Se rimani a 1080p 60fps con ryzen e 1080 sei apposto per diversi anni, se invece vuoi andare oltre e maciullare fps a paletta effettivamente servirebbe più che gpu una cpu con clock decisamente alti a questa risoluzione.

Io per ora non mi lamento con 980ti 1500/8000 tiro tutto al max a 2560x1080@75hz, solo in rari contesti sono però strozzato dalla cpu, ma con i prossimi ryzen risolvo e dato che uso diversi SW la potenza bruta di ryzen in MT mi fa decisamente comodo e non nego che sto pensando a un sistemino micro-atx, non mi dispiacerebbe ridurre lo stryker a un case decisamente più compatto.

Gyammy85
17-01-2018, 07:56
Un fullhd la mia 1080 occata di solito ce la faceva a fare 144hz (o giù di lì) con MSAA4x o anche 8x e dettagli very high. Ne parlavo anche nel thread delle 1060. Io avevo una risoluzione strana che non mi permetteva di usare il DSR, ma suppongo che lo si potrebbe usare al posto del 4x con buoni risultati.

Poi ovviamente mi stanno insultando :D però non rende meno vero il fatto che la 1080 in fullhd non è per niente overkill.

Specie se uno mette ssaa, che poi si è rop limited e pure se hai meucci 10x volta il gioco ti va lo stesso a 20 fps.
Tanti anni fa, ati/amd ti permetteva di imposare degli aa particolari con configurazioni crossfire, si poteva usare una scheda per gli aa e l'altra per tutto il resto (mi pare fosse così). Lo potrebbero fare anche adesso ma...
#ilmutigpunongepiù
#ilpostofissonongepiù

Roland74Fun
17-01-2018, 08:50
https://international.download.nvidia.com/geforce-com/international/images/the-witcher-3-wild-hunt/the-witcher-3-wild-hunt-foliage-visibility-performance-640px.png

#machenesoioconunarx480

Proprio ieri ci ho fatto una prova.
Abbassando di una tacca la distanza vegetazione si guadagnano quasi 10 fps. Senza apparente degrado.

Gyammy85
17-01-2018, 09:09
https://scontent-mxp1-1.xx.fbcdn.net/v/t1.0-9/26239669_1963073660399902_2631648981374465421_n.png?oh=67df68f50c06663a67e8cede15c4c93d&oe=5AE48B5B

fresca fresca :sofico:

ragazzi dai, Ale parla di MAXARE, della PCMASTERRACE... ma proprio tutto, mica star li a rinunciare all'ULTRA e usare il PEASANT ALTO/HIGH
#anchesenoncambianulla...

https://i.ytimg.com/vi/zPq00dd4Ygg/maxresdefault.jpg
https://i.ytimg.com/vi/VbN-is8cxOs/maxresdefault.jpg
https://www.gamersnexus.net/images/media/2015/game-bench/witcher-textures/witcher-3-textures-s-4.jpg

mi chiedo come ancora c'è chi non ha capito che l'ULTRA è una scusa per vendere e cambiare nuove schede video prematuramente... e non nascondiamoci dietro la scusa dell'hobby.

https://international.download.nvidia.com/geforce-com/international/images/the-witcher-3-wild-hunt/the-witcher-3-wild-hunt-foliage-visibility-performance-640px.png

#machenesoioconunarx480

Solo 40 effepieffe con lo SLI di titan x occate a bbestia??

#ètuttacolpadiAMD

#fastgsynch300erzFTW

Ale55andr0
17-01-2018, 09:20
https://scontent-mxp1-1.xx.fbcdn.net/v/t1.0-9/26239669_1963073660399902_2631648981374465421_n.png?oh=67df68f50c06663a67e8cede15c4c93d&oe=5AE48B5B

fresca fresca :sofico:

ragazzi dai, Ale parla di MAXARE, della PCMASTERRACE... ma proprio tutto, mica star li a rinunciare all'ULTRA e usare il PEASANT ALTO/HIGH
#anchesenoncambianulla...

https://i.ytimg.com/vi/zPq00dd4Ygg/maxresdefault.jpg
https://i.ytimg.com/vi/VbN-is8cxOs/maxresdefault.jpg
https://www.gamersnexus.net/images/media/2015/game-bench/witcher-textures/witcher-3-textures-s-4.jpg

mi chiedo come ancora c'è chi non ha capito che l'ULTRA è una scusa per vendere e cambiare nuove schede video prematuramente... e non nascondiamoci dietro la scusa dell'hobby.

https://international.download.nvidia.com/geforce-com/international/images/the-witcher-3-wild-hunt/the-witcher-3-wild-hunt-foliage-visibility-performance-640px.png

#machenesoioconunarx480


non vedo che ci azzeccano le immagini di un gioco a caso che NON parla per l'intero parco videoludico e che ci azzecchi the witcher 3 che fra setting minimo e massimo cambia il mondo a livello visivo e NON solo le texture. (con quelle immagini prese a caso mi ci pulisco il culo, in game c'è ben altra la differenza, Sai me ne fotto alquanto delel riviste e delle review, io vedo di PERSONA).
Così per dire eh :rolleyes:

Ale55andr0
17-01-2018, 09:25
Proprio ieri ci ho fatto una prova.
Abbassando di una tacca la distanza vegetazione si guadagnano quasi 10 fps. Senza apparente degrado.

io la distanza della vegetazione l'ho aumentata dall'ini, altro che tolgo una tacca :asd:

Ale55andr0
17-01-2018, 09:30
Certo che da low a ultra cambia il mondo ma da high a ultra?

Comunque le ombre solitamente sono più realistiche in low.
Guardate tw3 per esempio, nella realtà avete mai visto ombre così nette come su ultra e high?
Forse in una stanza con una sola fonte luminosa, ma all'aperto no di certo.

da high a ultra cambia che io anche ad ultra vado ulteriormente a smanacciare, come sopra :asd:. E oltre all'ini ho una mod per incrementare la distanza del rendering...

Gyammy85
17-01-2018, 09:41
da high a ultra cambia che io anche ad ultra vado ulteriormente a smanacciare, come sopra :asd:. E oltre all'ini ho una mod per incrementare la distanza del rendering...

Si ma se spari roba al massimo in maniera artificiosa è normale che ti giri male...poi c'è la classica ubertexture mod per la grafica che ti satura giusto gli 8 giga o gli 11 o i 12 a seconda della scheda nvidia che hai, per fartela cambiare con la titan v che ne ha 14.
Io credo che uno essenzialmente si deve divertire, lo so è molto difficile con sti polpettoni, crysis per fare un esempio poteva essere un walking simulator con alieni che spawnano random e sarebbe stata la stessa cosa :asd:

bagnino89
17-01-2018, 09:57
io la distanza della vegetazione l'ho aumentata dall'ini, altro che tolgo una tacca :asd:

da high a ultra cambia che io anche ad ultra vado ulteriormente a smanacciare, come sopra :asd:. E oltre all'ini ho una mod per incrementare la distanza del rendering...

Vabbè, tu sei un caso incurabile :asd:

Per te manco un Quad SLI di Titan X sarebbe sufficiente :D

29Leonardo
17-01-2018, 09:57
Certo che da low a ultra cambia il mondo ma da high a ultra?

Comunque le ombre solitamente sono più realistiche in low.
Guardate tw3 per esempio, nella realtà avete mai visto ombre così nette come su ultra e high?
Forse in una stanza con una sola fonte luminosa, ma all'aperto no di certo.

Ma nelle immagini la comparison è delle texture non delle ombre, sembrano diverse perchè è lo sfondo ad essere meno definito :D

Gyammy85
17-01-2018, 10:00
Spesso non cambia una mazza nemmeno da medium a ultra. Ovviamente solo se con i giochi ci giochi, se invece di giocare ammiri il panorama alcune differenze vagamente percettibili potresti pure notarle (non fra high e ultra, quella è una convinzione astratta, se fai un blind test non se ne accorge nessuno).

In alcuni giochi è così. C'è sempre un settaggio uber che necessita per forza della scheda della gen successiva, altrimenti dopo due ore li butteresti nel cesso.
Poi arriva cuphead e diventa il best game ever, e ci vuole poco aggiungerei

AceGranger
17-01-2018, 10:12
Certo che da low a ultra cambia il mondo ma da high a ultra?

Comunque le ombre solitamente sono più realistiche in low.
Guardate tw3 per esempio, nella realtà avete mai visto ombre così nette come su ultra e high?
Forse in una stanza con una sola fonte luminosa, ma all'aperto no di certo.

si, dipende dalla posizione del sole, dalla pullizia dell'atmosfera e dall'altezza del soggetto

http://i.telegraph.co.uk/multimedia/archive/03274/CE8G8H_3274094k.jpg

Gyammy85
17-01-2018, 10:16
Direi basta OT.

AceGranger
17-01-2018, 10:18
praticamente il 99% dell'ombra netta o sfumata lo fa l'altezza del soggetto rispetto al piano in qui si crea l'ombra, in una persona sarà netta alle caviglie per sfumare man mano verso la testa.

ho relinkato la foto che non si vedeva

dipende sempre dall'angolo di incidenza con relativa lunghezza dell'ombra generata; varia al variare delle ore e dei mesi dell'anno.

quell'ombra è "tecnicamente" corretta.

AceGranger
17-01-2018, 11:10
una foglia ad una altezza di 1000m rispetto al suolo non creerebbe nessuna ombra o penombra/antombra

esatto, infatti se guardi sempre nell'immagine che ho linkato la persona ha un'ombra bella netta mentre la pianta molto sfumata.
l'ombra della persona della modalita Hight/Ultra è corretta; volendo è sbagliata quella sopra dell'albero.

il problema è che questo calcolo accurato dell'ombra lo puoi avere con una Dome HDR e con un esborso non indifferente di risorse hardware; non so se le DX 12 introducono qualche algoritmo inerente all'illuminazione o se dipende tutto solo dal motore grafico del gioco.


sei sei in prossimità del terminatore è un caso limite.

è ?

deadbeef
17-01-2018, 11:12
state delirando

Gyammy85
17-01-2018, 11:13
state delirando

:asd: :asd:

29Leonardo
17-01-2018, 11:17
Hai ragione.
Però in alcuni giochi è vero che su high sono troppo nette e su medium/low sono più realistice :D

A volte anche ssao/hbao etc sono troppo marcate/irrealistiche...comunque mai spinte oltre a medium/high dato che sono settings mangia fps.

antonioalex
17-01-2018, 12:04
quante paranoie, voglio sfidare se realmente ve ne accorgete della differenza tra high e uber (detto mangia risorse), sopratutto se il gioco vi prende come si deve, proprio ieri sera, verso le nove e mezza, m'è venuto lo stimolo e mi son seduto sul trono con la switch in mano a giocare a mario odyssey, graficamente non è il massimo in modalità tablet e lo schermo non è proprio il massimo della qualità, saltando all'occhio subito un'immagine blurata con seghettature a go go, ma chi se ne, è talmente tanto divertente che ho finito di giocarci che erano quasi le 2 del mattino (ovviamente tutte queste ore non passate sul trono :asd: )

29Leonardo
17-01-2018, 13:41
Si vabbè non esageriamo che lo switch per l'appunto fà proprio cagher..:asd:

alethebest90
17-01-2018, 14:40
quante paranoie, voglio sfidare se realmente ve ne accorgete della differenza tra high e uber (detto mangia risorse), sopratutto se il gioco vi prende come si deve, proprio ieri sera, verso le nove e mezza, m'è venuto lo stimolo e mi son seduto sul trono con la switch in mano a giocare a mario odyssey, graficamente non è il massimo in modalità tablet e lo schermo non è proprio il massimo della qualità, saltando all'occhio subito un'immagine blurata con seghettature a go go, ma chi se ne, è talmente tanto divertente che ho finito di giocarci che erano quasi le 2 del mattino (ovviamente tutte queste ore non passate sul trono :asd: )

secondo me è piu un modo per giustificare la spesa di vga di quel tipo

l'altro giorno giocavo a the witcher 2 impostato tutto al massimo, certo l'effetto dell'erba che viene caricata quando ci sei a 2 metri è orribile a vedersi (non si nota nemmeno in giochi vecchi) ma a volte stica...

The_SaN
17-01-2018, 14:44
PS4 e XB1 puntano sulla grafica da urlo

La master race ti ripudia :O

fraussantin
17-01-2018, 14:48
praticamente il 99% dell'ombra netta o sfumata lo fa l'altezza del soggetto rispetto al piano in qui si crea l'ombra, in una persona sarà netta alle caviglie per sfumare man mano verso la testa, questo dipende principalmente perché il sole non è un punto, ma ha una superficie...

per fare un esempio è come l'eclissi, se la luna fosse più lontana sulla terra ci sarebbe solo penombra o antombra
https://upload.wikimedia.org/wikipedia/commons/4/48/Solar_eclipse_types.svg

una foglia ad una altezza di 1000m rispetto al suolo non creerebbe nessuna ombra o penombra/antombra

esatto , come un aereo che passa sopra di noi

antonioalex
17-01-2018, 15:09
Si vabbè non esageriamo che lo switch per l'appunto fà proprio cagher..:asd:

e chi se ne :D , la cosa più importante in un videogioco è il divertimento e non la renderizzazione dei peli del culo del PG, è inutile il fotorealismo da effetto wow se dopo di questo c'è il nulla cosmico

Gyammy85
17-01-2018, 16:11
e chi se ne :D , la cosa più importante in un videogioco è il divertimento e non la renderizzazione dei peli del culo del PG, è inutile il fotorealismo da effetto wow se dopo di questo c'è il nulla cosmico

Il 90% dei giochi odierni è il nulla cosmico, rivestito di texturepack e erba gameworksizzata.

ilcose
17-01-2018, 18:14
esatto , come un aereo che passa sopra di noiAh esattamente come in GTA V quindi :asd:

Inviato dal mio HTC U11 utilizzando Tapatalk

29Leonardo
17-01-2018, 19:53
e chi se ne :D , la cosa più importante in un videogioco è il divertimento e non la renderizzazione dei peli del culo del PG, è inutile il fotorealismo da effetto wow se dopo di questo c'è il nulla cosmico

Non hai capito era per sottolineare che sei passato da un eccesso all'altro tirando la switch come esempio. Che poi onestamente non so cosa alcuni ci trovano di innovativo o diverso nel panorama vg della nintendo da quel che succede sulle altre console o pc nella fascia mainstream. Ip e soliti personaggi riciclati da 30 anni.

Gyammy85
17-01-2018, 20:09
Non hai capito era per sottolineare che sei passato da un eccesso all'altro tirando la switch come esempio. Che poi onestamente non so cosa alcuni ci trovano di innovativo o diverso nel panorama vg della nintendo da quel che succede sulle altre console o pc nella fascia mainstream. Ip e soliti personaggi riciclati da 30 anni.

:eek: :eek: :banned: :banned:
Hanno messo dentro gta, the witcher e forse forse pure un pò di crysis in quel mario. :sofico:

antonioalex
18-01-2018, 09:12
Non hai capito era per sottolineare che sei passato da un eccesso all'altro tirando la switch come esempio. Che poi onestamente non so cosa alcuni ci trovano di innovativo o diverso nel panorama vg della nintendo da quel che succede sulle altre console o pc nella fascia mainstream. Ip e soliti personaggi riciclati da 30 anni.

ho estremizzato solo per dire che "a voglia a renderizzare anche ciò che a schermo è impossibile notare se poi il gioco rimane na schifezza", credimi, se sei un vero giocatore, se il gioco ti prende, tutte le imperfezioni grafiche passano letteralmente in secondo piano, ed anche su pc, se sei costretto a qualche rinuncia grafica, ci rinunci a cuor leggero senza farti svarioni mentali

P.S.
mai detto che switch è innovativa, anzi, si aggiunge alla già miriade di tablet simil switch, tipo questa :read: (http://cdn1.expertreviews.co.uk/sites/expertreviews/files/images/dir_378/er_photo_189283.jpg?itok=ZhN3Wpi_) che ha già 3 anni sul groppone, l'unica cosa che distingue switch (in meglio) dagli altri tablet, è sicuramente il supporto che c'è dietro, che non è da sottovalutare, per le IP, come per la grafica è lo stesso discorso fatto sopra, se ti prende che te importa se il PG è sempre quello da 30 anni, certo è un paradosso vedere nintendo che ad ogni nuova console propone sempre qualcosa di esotico e poi vedere l'ennesimo mario girarci sopra :asd:

Il 90% dei giochi odierni è il nulla cosmico, rivestito di texturepack e erba gameworksizzata.

quoto, ahimè la parola chiave in campo gaming sta diventando profitto, sbattendosene di tutto il resto

P.S.
cmq che si dice di navi? :D

techfede
18-01-2018, 12:35
...
P.S.
cmq che si dice di navi? :D
Mi sa che la mia HD 7950 dovrà durarmi ancora parecchio :asd:

Gyammy85
18-01-2018, 13:12
cmq che si dice di navi? :D

Dovrebbe uscire nel 2019, ma secondo me qualcosina nel 2018 esce.

sieg87
18-01-2018, 16:35
Dovrebbe uscire nel 2019, ma secondo me qualcosina nel 2018 esce.

Qualche slide :p

Vul
18-01-2018, 17:41
Dovrebbe uscire nel 2019, ma secondo me qualcosina nel 2018 esce.

Nella migliore delle ipotesi il terzo refresh di Polaris, forse a 12nm, identico sia di architettura che di organizzazione.

Nella migliorissima delle ipotesi con gddr6.

Nella migliorissima delle ipotesi anche un altro cut di vega.

Vul
18-01-2018, 17:42
Samsung ha appena iniziato la mass production di chip da 2GB di GDDR6 a 18Gbps.

Quindi si può fare un Polaris con meno limiti di banda con un bus a 128bit :>

Eh dipende. Che latenze hanno? Che frequenze hanno?

Gyammy85
18-01-2018, 17:50
Nella migliore delle ipotesi il terzo refresh di Polaris, forse a 12nm, identico sia di architettura che di organizzazione.

Nella migliorissima delle ipotesi con gddr6.

Nella migliorissima delle ipotesi anche un altro cut di vega.

Secondo me si buttano su vega, polaris è stata di passaggio e non vedo perché dovrebbero disperdere risorse...guarda quanto va bene quella da 24 cu con le cpu intel contro la variante della 1060...

Vul
18-01-2018, 18:11
Il data rate l'ho scritto, 18gbps, contro gli 8 standard e 9 extra standard delle gddr5.

Le latenze non hanno mai impedito a nessuno di fernarsi e con data rate doppio dubito davvero tanto possano essere un problema.

Evidentemente non hai mai toccato le latenze via bios per dire cose simili.

Anche solo modificare di poco i timings può portare a notevole differenza prestazionale.

C'è molto di più della banda dietro le prestazioni delle memorie.

Piedone1113
18-01-2018, 19:28
Evidentemente non hai mai toccato le latenze via bios per dire cose simili.

Anche solo modificare di poco i timings può portare a notevole differenza prestazionale.

C'è molto di più della banda dietro le prestazioni delle memorie.

Nelle vga i timing sono davvero poco influenti.
Innalzare il clock ram del 10% può portare prestazioni superiori anche superiori al 10% ( in genere tra il 4 ed il 7% dipende dalla situazione, ma ti poi fermare anche allo 0%), abbassare i timing del 10% porta al max guadagni del 2%.
Le vga hanno bisogno molto più di banda che di basse latenze dato che si muovono sempre grossi dati ( se il tempo di accesso è 10 ed il tempo di lettura di un dato è 100 il totale è 110, se abbassi i timing del 10% ti ritrovi un totale di 109 contro i 100 alzando le frequenze del 10%). discorso diverso lato cpu dove ci sono moltissimi dati che il tempo di trasferimento è minimo ( dati da pochi byte) e le latenze sono tutt'altro che trascurabili.

Vul
18-01-2018, 20:19
Secondo me si buttano su vega, polaris è stata di passaggio e non vedo perché dovrebbero disperdere risorse...guarda quanto va bene quella da 24 cu con le cpu intel contro la variante della 1060...

In che senso Polaris è di passaggio?

E' la loro architettura (Tonga fondamentalmente) mainstream da tanti anni ormai.

Vega, clock to clock versus Fiji ha le stesse prestazioni, se non peggiori.

Un ingegnere AMD mi ha risposto su reddit dicendomi che vega fosse stata concepita per scalare.

Ma io sinceramente, ci credo fino ad un certo punto. Vega è un chip moooolto poco efficiente in rapporto performance/dimensioni.

Quanto è grande la 1060 mq rispetto a vega-intel?

Vul
18-01-2018, 20:20
Quindi? Il fatto che si può smanettare sulle latenze ha mai impedito che si passasse alla tecnologia successiva?

No, ho semplicemente detto che alzare la banda passante non significa automaticamente alzare le prestazioni se i clock e le latenze non ne giovano.

Ubro92
18-01-2018, 20:40
In che senso Polaris è di passaggio?

E' la loro architettura (Tonga fondamentalmente) mainstream da tanti anni ormai.

Vega, clock to clock versus Fiji ha le stesse prestazioni, se non peggiori.

Un ingegnere AMD mi ha risposto su reddit dicendomi che vega fosse stata concepita per scalare.

Ma io sinceramente, ci credo fino ad un certo punto. Vega è un chip moooolto poco efficiente in rapporto performance/dimensioni.

Quanto è grande la 1060 mq rispetto a vega-intel?

Vega è senza dubbio una delle migliori architetture di AMD in termini di scalabilità, Vega 64 e 56 pagano per la banda delle HBM che strozza, stessa cosa per la Titan V, si ha un boost maggiore dall'incremento del clock delle memorie piuttosto che del core...

Ma nvidia in termini di performance/dimensioni ha fatto di meglio... La 1060 è un chip "allargato" per aumentare il bus fino a 192bit invece di 128bit....

In termini di paragone se proprio lo si vuol fare se una 1070 fosse stampata a parte invece di disabilitare delle unità da 1080 fallate, avrebbe dimensioni pressochè simili a una RX 580/480 ma spingendo molto di più...

Quindi capisco il ragionamento di chi considera Polaris come una architettura di passaggio...

Lunar Wolf
23-01-2018, 22:33
https://www.amd.com/en-us/press-releases/Pages/graphics-industry-leaders-2018jan23.aspx

Free Gordon
24-01-2018, 08:51
Secondo me si buttano su vega, polaris è stata di passaggio e non vedo perché dovrebbero disperdere risorse...guarda quanto va bene quella da 24 cu con le cpu intel contro la variante della 1060...

Hai un link?
Ho trovato test solo vs la MX 150..

Free Gordon
24-01-2018, 08:51
https://www.amd.com/en-us/press-releases/Pages/graphics-industry-leaders-2018jan23.aspx

Speriamo che Wang faccia il miracolo......

Gyammy85
24-01-2018, 09:15
Hai un link?
Ho trovato test solo vs la MX 150..

Avevo visto la slide di intel contro la cpu 7700k+1060, c'erano 4 giochi e andava dal 5 al 10% in più. Parlo di vega a 24 cu

Vul
24-01-2018, 15:45
Avevo visto la slide di intel contro la cpu 7700k+1060, c'erano 4 giochi e andava dal 5 al 10% in più. Parlo di vega a 24 cu

Erano 7700HQ e 1060MX se non sbaglio, quindi le versioni mobile.

55AMG
24-01-2018, 15:54
edit scusate

bagnino89
25-01-2018, 08:01
https://www.tomshw.it/gpu-gaming-computing-amd-seguira-orme-nvidia-91055

Gyammy85
25-01-2018, 09:08
Bene, sarebbe anche ora.

Avevo postato l'intervista integrale con l'estratto delle parti sulle gpu ieri nel thread vega e nessuno l'ha cagata :D :D

Gyammy85
25-01-2018, 09:15
Non lo leggo il thread vega :D

Non era riferito a te in particolare ;)

Gyammy85
25-01-2018, 09:34
Alla domanda sui 7 nm si è mantenuta vaga, non si è ancora capito se vega rx verrà prodotta o solo la instinct. Mi verrebbe da pensare che useranno le vega in fascia computing e direttamente navi in fascia gaming, tra l'altro lei dice che col nuovo pp spingeranno sulle prestazioni, almeno così ho inteso io.

bagnino89
25-01-2018, 09:35
Io spero solo che rivedano completamente l'architettura, puntando molto sull'efficienza.

Gyammy85
25-01-2018, 11:23
ma si con calma che fretta c'è :D

Dicono che stanno aumentando gli investimenti in r&d, ma l'architettura di base sarà vega, magari rimaneggiata, potrebbero benissimo far leva sull'aggiornamento delle api per implementare i vari primitive in hardware e in emulazione per tutto il resto, o semplicemente aumentare tutta la parte texturing e rbe.

Ale55andr0
25-01-2018, 14:35
Io spero solo che rivedano completamente l'architettura, puntando molto sull'efficienza.

perchè finora hanno puntato tutto sulle prestazioni :asd:

fraussantin
25-01-2018, 14:43
Io spero solo che rivedano completamente l'architettura, puntando molto sull'efficienza.Chissà se punteranno tutto sul mining invece?

Yota79
25-01-2018, 14:43
Cmq niente... sotto gli 800€ non si trovano...

prima o poi dovranno tornare a prezzi più umani :mc: :mc:

fraussantin
25-01-2018, 14:47
Cmq niente... sotto gli 800€ non si trovano...

prima o poi dovranno tornare a prezzi più umani :mc: :mc:Al momento non ce ne sono proprio.

Quelle che trovi in vendita sono pochi pezzi che qualcuno ha ben pensato di sovrapprezzare per venderle ai bisognosi.

Ora come ora per il gaming il best buy è la ps4 pro.

fraussantin
25-01-2018, 14:53
Potrebbero certo tenerne conto ma non basare un'architettura sul mining.

Certo, era sottointeso.

bagnino89
25-01-2018, 16:17
perchè finora hanno puntato tutto sulle prestazioni :asd::asd:

Non saprei dire su cosa hanno puntato finora, forse una sorta di poco riuscito jack of all trades...Chissà se punteranno tutto sul mining invece?Non credo.

Vul
25-01-2018, 16:26
Cmq niente... sotto gli 800€ non si trovano...

prima o poi dovranno tornare a prezzi più umani :mc: :mc:

A questo punto non credo.

Ci stiamo avvicinando al prossimo refresh di Polaris e forse ad altri release di Vega. Non ha senso che AMD ordini alle fonderie chissà che quantità di gpu al momento.

antonioalex
25-01-2018, 17:49
Io spero solo che rivedano completamente l'architettura, puntando molto sull'efficienza.

se imboccheranno la stessa strada di nvidia, eliminando tutto l'ambaradam per il computing diminuendo drasticamente consumi e mmq del die ed utilizzeranno le classiche gddr relegando le hbm per computing/learning

Ren
25-01-2018, 19:54
Delling, ma hai preso una titan V ? :D

DuttZ
25-01-2018, 20:46
se imboccheranno la stessa strada di nvidia, eliminando tutto l'ambaradam per il computing diminuendo drasticamente consumi e mmq del die ed utilizzeranno le classiche gddr relegando le hbm per computing/learningPenso che sia l'unica via da percorrere per avere qualche chance per il futuro.
Gcn è al capolinea.

55AMG
25-01-2018, 20:58
Sì, anche se c'è una vocina che mi dice "guarda che 'sto giro non la ammortizzi in tre mesi e probabilmente neanche in sei".Eh no moh te la prendi 😂😂😂

Inviato dal mio SM-G935F utilizzando Tapatalk

deadbeef
25-01-2018, 21:45
le gioie che regala il mining

thunderforce83
27-01-2018, 13:56
novita' sulle nuove schede nvidia?
oltre a questa pseudocavolata del gaming via streaming che ultimamente nvidia sta proponendo da un po':O

bagnino89
27-01-2018, 14:26
Lo hai chiesto nel thread giusto :asd:

Gyammy85
31-01-2018, 16:26
https://www.techpowerup.com/241106/highlights-from-amd-earnings-call-hardened-zen2-and-7-nm-vega-by-2019

"The other big reveal is the taping out of an optically-shrunk "Vega" architecture implementation on the 7 nm process, taping out within 2018. This isn't "Navi," but possibly a bigger "Vega" chip that leverages 7 nm to have acceptable power/thermals. AMD could tap into the machine-learning market with this silicon first".

Catan
31-01-2018, 16:53
Certo che se fosse confermato che la GPU Vega con 24CU e 4 gb HBM2 nei giochi ottimizzati AMD riuscisse ad essere più veloce di una GTX 1060 Max-Q Per me tale risultati sarebbero risultati incoraggianti.

purtroppo a livello di marketing 4 gb sono troppo pochi in quella fascia. Stanno aspettando gli stack da 8gb, per presentare vega 32/24 con bus dimezzato per la fascia media.
Forse vega 24 come low budget con gli stack da 4gb.

mikael84
31-01-2018, 23:47
se imboccheranno la stessa strada di nvidia, eliminando tutto l'ambaradam per il computing diminuendo drasticamente consumi e mmq del die ed utilizzeranno le classiche gddr relegando le hbm per computing/learning

No, non è così, AMD non ha unità dedicate FP64, ma le emula, e queste unità le vedrai su Vega 20, ovvero un CU è capace di emulare 8 ALU per CU in rapporto 2:1. Nvidia le ha dedicate, ovvero un SM Tesla elabora warp con 32 FP64 (4x8). Lo scheduler Nvidia non può emulare, ma le unità FP64, vengono elaborate tramite le unità funzionali, LDS/SFU, unità che se emulate entrambe dimezzano il ratio di AMD, in quanto un SIMD, 16 ALU, viene dedicato a questo.

Tesla GP100 è come se integrasse 7680 ALU fisiche, ecco, perchè è grosso, ed inoltre, per mantenere un BW elevato, usa un collegamento HBM, che è simile ad un collegamento a 512bit, praticamente 2 canali, oltre 70/80mmq2, sono collegati solo per ottenere cache e BW massima.

Tutto questo è inutile al chip Nvidia, è molto diverso.;)

Gyammy85
01-02-2018, 07:45
https://videocardz.com/newz/hwinfo-gets-support-for-amd-starship-and-mattise-cpus

Added recognition of some future AMD Vega and Navi GPUs.

techfede
02-02-2018, 16:39
Parlando realisticamente, che eventi ci saranno prossimamente durante i quali potremmo vedere qualche dichiarazione di AMD sulle prossime uscite?
Giusto per farmi un'idea di quando potremmo aspettarci nuove notizie :asd:

Vul
02-02-2018, 20:14
Penso che ci possiamo risentire tranquillamente nel 2019.

Poco ma sicuro direi.

techfede
02-02-2018, 21:03
Bon, mi metto il cuore in pace :)

ninja750
03-02-2018, 12:26
ci sarebbe ancora l'ammanco della nano

techfede
03-02-2018, 14:04
ci sarebbe ancora l'ammanco della nano

Che, se non sbaglio, non è mai stata confermata in via ufficiale... a sto punto temo si aspetterà navi, per AMD.

ninja750
03-02-2018, 14:19
nsomma

https://techreport.com/r.x/2017_07_31_AMD_teases_pint_sized_Radeon_RX_Vega_Nano/rx-vega-nano.jpg

:asd:

Gyammy85
03-02-2018, 14:41
Magari esce come prima incarnazione dei 7 nm, un po' come la radeon 5770 che aveva il pp nuovo rispetto alle altre se non sbaglio...

Radeon80
04-02-2018, 11:06
Nelle Slide riguardanti i risultanti finanziari di AMD del Q4 2017 si parla di ampliamento di offerta si prodotti basati su architettura Vega.
Chissa se oltre ai prodotti già lanciati nel mercato mobile lancieranno anche qualche cosa nel mercato desktop.
Poi sono curioso di vedere le prestazioni della RX Vega M GH che la danno nei benchmark favorevoli ad AMD leggermente superiori alla GTX 1060 Max Q e alla pari di una Radeon R9 290 e GTX 970.
Poi spero che vengano fuori le caratteristiche della RX Vega Mobile che dalle immagine dovrebbe essere una giù leggermente più grossa, infatti si parla di 28 CU e se sarà vero mi piacerebbe vedere come si confronta con una RX 480 a livello prestazionale.

Gyammy85
04-02-2018, 13:12
Nelle Slide riguardanti i risultanti finanziari di AMD del Q4 2017 si parla di ampliamento di offerta si prodotti basati su architettura Vega.
Chissa se oltre ai prodotti già lanciati nel mercato mobile lancieranno anche qualche cosa nel mercato desktop.
Poi sono curioso di vedere le prestazioni della RX Vega M GH che la danno nei benchmark favorevoli ad AMD leggermente superiori alla GTX 1060 Max Q e alla pari di una Radeon R9 290 e GTX 970.
Poi spero che vengano fuori le caratteristiche della RX Vega Mobile che dalle immagine dovrebbe essere una giù leggermente più grossa, infatti si parla di 28 CU e se sarà vero mi piacerebbe vedere come si confronta con una RX 480 a livello prestazionale.

Considera che quella vega m gh ha 24 cu, ai clock giusti quella da 28 potrebbe essere allineata o superiore alla 480.
Chissà quando uscirà...

techfede
05-02-2018, 08:27
Io vorrei vedere se quella combo vega + intel la faranno uscire a breve anche su qualche portatile, l'idea del NUC è carina, ma non sarebbe il mio tipo di prodotto al momento.

Free Gordon
05-02-2018, 16:23
Considera che quella vega m gh ha 24 cu, ai clock giusti quella da 28 potrebbe essere allineata o superiore alla 480.
Chissà quando uscirà...

La 480 ha 36CU e un TDP più ampio..
Credo che a volte potrà avvicinarsi alla 470...ma la 480 la vedo troppo lontana.

Gyammy85
05-02-2018, 18:18
La 480 ha 36CU e un TDP più ampio..
Credo che a volte potrà avvicinarsi alla 470...ma la 480 la vedo troppo lontana.

Considera che le cu di vega rendono più di quelle di polaris

Catan
06-02-2018, 15:09
secondo sarà una 32 con unico stack hbm2...il problema è che non la vedremo fino a quando non ci saranno stack singoli da 8gb.

Gyammy85
06-02-2018, 15:16
secondo sarà una 32 con unico stack hbm2...il problema è che non la vedremo fino a quando non ci saranno stack singoli da 8gb.

Ci sono, Vega fe ne ha due da otto

bagnino89
07-02-2018, 16:58
https://www.tomshw.it/amd-graphics-core-next-pensione-dopo-gpu-navi-91342

sieg87
07-02-2018, 17:11
https://www.tomshw.it/amd-graphics-core-next-pensione-dopo-gpu-navi-91342

Quindi navi sarà una Fury3 ? (semicit.) :sofico:

bagnino89
07-02-2018, 17:19
Quindi navi sarà una Fury3 ? (semicit.) :sofico:Eh mi sa di sì :asd:

Angeland
07-02-2018, 17:21
Quindi navi sarà una Fury3 ? (semicit.) :sofico:

Eh mi sa di sì :asd:

I commenti sotto l'articolo sono fantastici :sofico:

Gyammy85
07-02-2018, 17:39
Un altro fail annunciato insomma, fortuna che lo hanno detto per primi e per mesi avremo citazioni "eh ma guarda che mio cuggino ha detto che amd farà rebrandeon rx vega navi" e simili :fagiano:

Angeland
07-02-2018, 18:06
commenti fantastici e dove trovarli :sofico:

:D :D :D

Un altro fail annunciato insomma, fortuna che lo hanno detto per primi e per mesi avremo citazioni "eh ma guarda che mio cuggino ha detto che amd farà rebrandeon rx vega navi" e simili :fagiano:

è già un fail ad un anno e passa prima dell'uscita :asd:

Angeland
07-02-2018, 18:31
Starai scherzando, è ancora niente per tomshw, vedrai che poi arriva l'onda lunga :asd:

Mi fa sorridere che si ironizza sul fatto che le AMD vadano molto forte lato mining, come se fosse una colpa oppure un aspetto negativo, magari gli rode :ciapet:

fraussantin
07-02-2018, 18:40
ma trollate e MCN(:asd:) a parte , ma è vera sta cosa o se l'è inventata tommaso?

navii non doveva essere modulare ecc ecc?

sieg87
07-02-2018, 18:49
ma trollate e MCN(:asd:) a parte , ma è vera sta cosa o se l'è inventata tommaso?

navii non doveva essere modulare ecc ecc?

Magari la usano come test :confused:

Gyammy85
07-02-2018, 19:11
ma trollate e MCN(:asd:) a parte , ma è vera sta cosa o se l'è inventata tommaso?

navii non doveva essere modulare ecc ecc?

L'architettura di base è quella di Vega con i consueti affinamenti, potrebbero mettere due core piccoli e farli funzionare stile ryzen. Non è necessario uno stravolgimento dell'architettura.

fraussantin
08-02-2018, 09:39
È che dopo tutti questi anni con la stessa architettura averne ben 2 nuove in 2 anni gli faceva strano. XD

techfede
08-02-2018, 10:15
Non si diceva che Navi sarebbe stata la prima architettura pensata in toto da raja?
Che poi mantenga delle similitudini con gcn posso capire, ma che sia ancora così simile, dubito che sarebbe modulare e scalabile come dicevano.

Gyammy85
08-02-2018, 20:06
Non si diceva che Navi sarebbe stata la prima architettura pensata in toto da raja?
Che poi mantenga delle similitudini con gcn posso capire, ma che sia ancora così simile, dubito che sarebbe modulare e scalabile come dicevano.

Dicevano così ma raja nei video affermava che vega era la base per le vga degli anni a venire.

techfede
09-02-2018, 10:31
Ok, nulla di nuovo insomma :asd:

Gyammy85
09-02-2018, 13:14
Come ho scritto dai verdi Volta è Pascal + tensore core + affinamenti, Ampere è Volta senza tensor core e quindi Pascal + affinamenti :asd:
Non c'è da stupirsi.

Quindi 4++GHz in boost?
Scrivilo di nella news dei risultati di nvidia

Gyammy85
09-02-2018, 13:26
Lato verde dicono che Ampere sarà un die-shrink di Pascal e non userà Volta, per restare in tema di speculazioni... :)

E' che non ci sono news e i siti di settore hanno bisogno di click.

Si anche perché la titan v è una 1080ti con più sp, i tensore cores penso non verranno mai utilizzati su quella scheda dato che nvidia vieta categoricamente l'uso in quella fascia semipro-semigaming-ultraenthusiast.

Quindi utilizzeranno pascal per le apu vere ampere per il gaming e volta per quei due sul server quando cambieranno postazione?
"ragazzi chabbiamo la taitan x che va un pelo meno della 1080 ti ai ma è comprensibile dato che è uscita l'altro ieri"

Si lo so è il mercato baby (cit.)

Angeland
09-02-2018, 17:30
Come ho scritto dai verdi Volta è Pascal + tensore core + affinamenti, Ampere è Volta senza tensor core e quindi Pascal + affinamenti :asd:
Non c'è da stupirsi.

Le nuove Nvidia dovrebbero dare il meglio con le dx12 e Vulkan.

Speriamo escano il prima possibile, così da vedere "casualmente" tutti i giochi con Vulkan :asd:

Gyammy85
09-02-2018, 18:50
Le nuove Nvidia dovrebbero dare il meglio con le dx12 e Vulkan.

Speriamo escano il prima possibile, così da vedere "casualmente" tutti i giochi con Vulkan :asd:

I guru hanno detto che nvidia non ha nessun bisogno di dx12 o vulkan che la gpu supermodulare da sempre il meglio pure in dx7...torna a studiare

Roland74Fun
09-02-2018, 19:04
Non bisogna parlare di altre marche, limitiamoci a quello che possiamo nella nostra riserva indiana... ormai sempre più spopolata. :( :(

sgrinfia
10-02-2018, 12:38
Ma che vi frega delle nuove VGA, tra poco con la caduta di chi sappiamo avremo vagonate di VGA a prezzi stracciati che potremmo prendere a chili ,.
pensate che bello .........vga di fascia alta comprate a pochi euro..........;)

Windtears
10-02-2018, 13:42
Ma che vi frega delle nuove VGA, tra poco con la caduta di chi sappiamo avremo vagonate di VGA a prezzi stracciati che potremmo prendere a chili ,.
pensate che bello .........vga di fascia alta comprate a pochi euro..........;)

non ne sarei così convinto,finché l'esercito di speculatori mondiali (e sono tanti tra lavanderie di denaro e soliti noti) ne trarrà profitto la bolla non esploderà: hanno fatto scappare tutti con la minaccia a 4000$, oggi siamo di nuovo sopra al doppio in meno di una settimana. -.-

TheDarkAngel
10-02-2018, 13:52
non ne sarei così convinto,finché l'esercito di speculatori mondiali (e sono tanti tra lavanderie di denaro e soliti noti) ne trarrà profitto la bolla non esploderà: hanno fatto scappare tutti con la minaccia a 4000$, oggi siamo di nuovo sopra al doppio in meno di una settimana. -.-

4000$ nuova cifra inventata :asd:

Windtears
10-02-2018, 14:22
4000$ nuova cifra inventata :asd:

azz, dici che ho esagerato verso il basso? :asd: in effetti coinbase mi dà 6100 come minimo il 6/2.

magari pensavo in euro e ho scritto in $, scusatemi. :)

FroZen
06-03-2018, 07:50
https://www.pcper.com/files/imagecache/article_max_width/news/2018-03-05/amd_resx_table.jpg

https://www.pcper.com/news/Graphics-Cards/AMD-Project-ReSX-brings-performance-and-latency-improvements-select-games

la nuova frontiera del marketing

istogrammi obliqui!!!!!!!!!!!!

Gyammy85
06-03-2018, 07:59
Edit

sgrinfia
06-03-2018, 08:01
Era ora , mi sono sempre chiesto perchè non li facessero" obliqui" , si leggono meglio ...da più il senso di .......scala.

Gyammy85
06-03-2018, 08:05
Era ora , mi sono sempre chiesto perchè non li facessero" obliqui" , si leggono meglio ...da più il senso di .......scala.

Sono le slide della collezione autunno-inverno 2019.
Colori fluo su geometrie variabili, per la trasversalità delle vedute nell'ottica più grande dell'interesse per gli stakeholders.

sgrinfia
06-03-2018, 08:24
Mi sono tolto da Vega per non vedervi più litigare, non fatelo pure qua che poi partono le segnalazioni vi ho avvisato.
E che roba oh, sembrate ragazzini di 5° elementare...

No, qui a parte qualche battuta innocente .............siamo più maturi .:)

Gyammy85
20-03-2018, 11:31
NVIDIA Announces RTX Technology: Real Time Ray Tracing Acceleration for Volta GPUs and Later (https://www.anandtech.com/show/12546/nvidia-unveils-rtx-technology-real-time-ray-tracing-acceleration-for-volta-gpus-and-later)
e poco dopo:
AMD Announces Real-time Ray Tracing Support for ProRender and Radeon GPU Profiler 1.2 (https://www.anandtech.com/show/12552/amd-announces-real-time-ray-tracing-for-prorender-and-radeon-gpu-profiler-12)

Il futuro si fa interessante? Che dite?

Molto interessante, comunque sono cose diverse imho, perché nel video promo di prorender compare il logo vulkan alla fine, mentre quello di nvidia parla del supporto in dx12 da parte di microsoft, che per ora non è esplicitato via driver da parte di amd, lo sarà nelle prossime release.

Per il futuro, navi 96 e 88, rispettivamente +10% su 2080ti e +10% su 2080, segnate :O

DuttZ
20-03-2018, 22:41
NVIDIA Announces RTX Technology: Real Time Ray Tracing Acceleration for Volta GPUs and Later (https://www.anandtech.com/show/12546/nvidia-unveils-rtx-technology-real-time-ray-tracing-acceleration-for-volta-gpus-and-later)
e poco dopo:
AMD Announces Real-time Ray Tracing Support for ProRender and Radeon GPU Profiler 1.2 (https://www.anandtech.com/show/12552/amd-announces-real-time-ray-tracing-for-prorender-and-radeon-gpu-profiler-12)

Il futuro si fa interessante? Che dite?E poco dopo poco dopo

https://www.tomshw.it/microsoft-annuncia-directx-raytracing-futuro-gaming-92393

Coincidenze? Un abbraccio, Adam

giovanbattista
21-03-2018, 02:08
un lustro......temo ci vorrà
prima che nà gpu
il raytray (agevolmente) gestirà
sopratutto se in 4k lui sarà

X l'8k invece?
e chissà chi lo sà!

il 2028??
la data...la sparo là
sopratutto
se in doppia precisione lui sarà
ma "forse" x i giochi non servirà

e alla VìaR.....
manco c'è voglio pensar
che il mal di testa me venuto già
a calcolar i teraflop
che la gpu dovrà macinà
se il rey-bello lei vorrà fà
che con questo (http://www.avmagazine.it/news/televisori/prezzo-indicativo-samsung-microled-the-wall-_13100.html) pannello
lei pandan dovrà far
ma nà casa.....poi resterà, dove abitar...dove abitar?
o sotto il ponte me toccherà andar

:D

giovanbattista
21-03-2018, 07:12
è chiaro che saranno 2 effettini in croce 4k 60fps x secondo ti serve un rack di 40gpu....ma delle pronipoti di quelle odierne e forse.... è una vita che non maneggio C4D (che cmq usa la cpu x il render se non ricordo male e non credo).....bisognerebbe fare 2 conti....poi bisogna vedere come viene implementato

ps era x farsi una risata

Gyammy85
21-03-2018, 07:44
è chiaro che saranno 2 effettini in croce 4k 60fps x secondo ti serve un rack di 40gpu....ma delle pronipoti di quelle odierne e forse.... è una vita che non maneggio C4D (che cmq usa la cpu x il render se non ricordo male e non credo).....bisognerebbe fare 2 conti....poi bisogna vedere come viene implementato

ps era x farsi una risata

Ma anche no, una volta avevo alcune techdemo di raytracing in semi real time, tipo un rubino coi riflessi, e girava tranquillamente su una 6870 mi pare.

Anche il radiosity in tempo reale sembrava fantascienza, in hl2 era precalcolato, in alien isolation ad esempio no.
Magari verrà usato per avere illuminazioni più realistiche, se non sbaglio la differenza principale rispetto al rendering tradizionale è il modo in cui vengono calcolate riflessioni e rifrazioni.
Già ora abbiamo 12 tf che stanno lì senza far niente o quasi, pensa quando saranno 18 o 20...col ray tracing le fulli. :O

giovanbattista
21-03-2018, 08:31
ok ma io parlo di avere a schermo un immagine (occhio che quelle sono statiche) che non sai se è un render o una foto......non precalcolato no tech demo no semi real time......uno sul forum di C4D utilizzando (forse vray o luxrender) aveva snocciolato 4 cifre e la potenza che serviva era da paura....ok sono passati anni.


800tf.....800;) del 2009
https://arstechnica.com/gadgets/2009/07/800-tflop-real-time-ray-tracing-gpu-unveiled-not-for-gamers/

secondo me sotto i 2000 (ma magari manca uno 0:D ) raytray puro a 2k x 60fps non scendi, ma temo siano pochi ripeto basterebbe fare i calcoli

giovanbattista
21-03-2018, 09:01
trovato........6 exaflops/s......x 25fps a 4k ed era un cartone animato della pixar......quindi a spanne 15/20exaflops/s

AceGranger
21-03-2018, 10:07
Io non ho capito una cosa però: RTX di Nvidia è proprietario e fa parte di gameworks ma si basa su DXR di MS... se si basa su DXT dovrebbe funzionare allo stesso modo anche su hw non Nvidia (cioè AMD)?


gli algoritmi matematici di ray-tracing sono proprietari, come anche quelli molto importanti di de-noising che dovranno necessariamente impiegare subito dopo il calcolo del ray-tracing.


se guardi bene il video hanno un forte noise in alcuni punti, e hanno anche un noise disomogeneo fra un frame e l'altro; non ti hanno applicato il de-noise perchè seno la GPU si sarebbe piegata :asd:


Hanno parlato anche di supporto via software per le schede attuali che suppongo servirà solo limitati effetti ray tracing perchè non credo che la capacità delle schede attuali permetta un uso più ampio.


dipende cosa dovranno fare; volendo c'è anche l'accelerazione ray-Tracing Embree di Intel per le CPU.

se i motori si sposteranno sul ray-tracing magari sara possibile arrivare anche al calcolo ibrido.


La buona notizia è che per quanto ho capito le amd attuali vanno parecchio bene con il ray tracing rispetto alle nvidia attuali.
Quindi come al solito le attuali generazioni sono zoppicheranno troppo quando usciranno le nuove.

eh no.... dipende dal codice... ma sopratutto anche dal fatto che in campo ray-tracing nVidia ha CUDA e ha gia ottimi algoritmi gia pronti sia di tracing che di denoising.

giovanbattista
21-03-2018, 10:23
Futuremark Showcases DirectX Raytracing Demo, Teases Upcoming 3D Benchmark Test
https://www.techpowerup.com/242556/futuremark-showcases-directx-raytracing-demo-teases-upcoming-3d-benchmark-test


ciao ace tu ne sai sicuramente i dati che ho riportato (so che ci sono tanti parametri che possono influire) possono essere veritieri?

AceGranger
21-03-2018, 10:39
Ma non sono come gli algoritmi degli antialiasing?
Cioè nvidia ha i suoi e amd ha i suoi ma sono trasparenti per il motore no?


presumo che funzionera in una maniera simile a questa ipotetica situazione:

il motore Ray tracing X è in grado di calcolare una determinata scena a 30 fps di default, nVidia ha un algoritmo che velocizza alcune parti del calcolo e il motore X con l'aggiunta del codice Y fa 40 fps.

ma questo codice parte solo con le nVidia perchè è sotto copiright.

Oppure

nVidia sviluppa un nuovo denoiser, lo ingloba nei game works, visto che il nuovo denoiser lavora molto meglio del precedente o a quello di default del motore, quelo di default viene escluso e lavora quello nuovo e cosi è possibile utilizzare meno raggi di luce per ottenere la stessa qualita visiva, quindi con quello il motore di render tira fuori 50 fps.


Si avevo già intuito che il noise è praticamente l'aliasing del ray tracing se posso dirla da profano :D


si esatto


Chissà perchè se parli di calcolo ibrido mi vengono subito in mente le APU :D


:p

io sono abbastanza allergico alle APU, specialmente in questi campi; preferisco di gran lunga avere CPU e GPU separati e upgradabili a seconda delle esigenze.


Non lo so, come ho detto sono veramente poco pratico ho cercato qualche info è ho solo visto che in luxmark le amd vanno abbastanza bene.

si dipende sempre dal codice, ma conta sempre che OpenCL non viene molto tenuto in considerazione da nVidia, anche perchè il suo ecosistema CUDA in campo ray-tracing è nettamente superiore.


vedremo come si mettera il mondo gaming, ma ho idea che nVidia portera tutto il know-how che ha sviluppato per il mercato pro nel mercato gaming attraverso il game works.

AceGranger
21-03-2018, 10:54
Futuremark Showcases DirectX Raytracing Demo, Teases Upcoming 3D Benchmark Test
https://www.techpowerup.com/242556/futuremark-showcases-directx-raytracing-demo-teases-upcoming-3d-benchmark-test


ciao ace tu ne sai sicuramente i dati che ho riportato (so che ci sono tanti parametri che possono influire) possono essere veritieri?

oddio, non ne ho idea, non ho mai guardato il rapporto Flops ---- fps, in linea teorica potrebbero essere tranquillamente veritieri, e per quello che saranno molto, molto, determinanti gli algoritmi di approssimazione e gli algoritmi di de-noise, perchè cosi si andra a ridurre drasticamente la quantita di calcoli da effettuare.


giusto per capire, questo è Vray Real Time via GPGPU, con il nuovo de-noiser di nVidia


minuto 8.58 - 9.00
https://www.youtube.com/watch?v=nvA4GQAPiTc

https://www.youtube.com/watch?v=lcCI8xH3SLM



se vorra rimanere competitiva AMD dovra lavorare molto lato softwre e codice.

Gyammy85
21-03-2018, 11:44
trovato........6 exaflops/s......x 25fps a 4k ed era un cartone animato della pixar......quindi a spanne 15/20exaflops/s

Vabbè ma i film pixar non sono progettati per girare in tempo reale...la potenza serve solo a stringere coi tempi.
Se guardi la demo leo di amd, il dettaglio e l'illuminazione sono eccellenti, e girava tranquillamente su una 7970. Basterebbe applicare elementi di ray tracing via vulkan o dx12 con asynch computing e altro e non avresti grossi problemi di framerate ;)

giovanbattista
21-03-2018, 12:10
sai che ti voglio bene, ma parti con un ragionamento fallato e mi spiego:

pensi che alla pixar dicano facciamo lavorare una render farm da 2000pc con 12core x 2 anni così c'è la tiriamo e sputtaniamo un pò di ore lavoro e corrente che altrimenti a fine anno non porto nulla in detrazione?

Certo che no (ne convieni?), quindi per ottenere quei risultati quello devi/dovevi fare.

Ora mettici alogoritmi superspinti e compagnia bella tu credimi che per avere certi risultati la potenza non basta mai, tra un lustro se implementano in hardware un asic dedicato altrimenti aspettane 2 o come ha detto prima bivvoz avrai si e no la pelata con 4 rifrazioni in croce e precalcolate.

Io ti parlo di tu che sorvoli una città di notte dove hai 50/100/500 punti luce che si riflettono su x materiali ognuno con le sue peculiarità di rifrazione, in base al colore al materiale a cosa c'è vicino, da che angolatura lo guardi............ecc realtà in CG indistinguibili tra loro

https://www.quora.com/How-fast-would-a-computer-need-to-be-to-raytrace-in-real-time

estratto x farti capire
Nella maggior parte dei miei lavori professionali (pubblicità, film, ecc.) I tempi di rendering tipici sono tra dieci minuti (molto veloci) e due ore (piuttosto lenti) per fotogramma. Diciamo un'ora in media.

Per farlo in tempo reale con lo stesso software, il computer dovrebbe essere circa 100.000* volte più veloce. Supponendo che le prestazioni raddoppino ogni tre anni (e non lo fanno), ci arriveremo entro il 2065. Ahi.

ecco io ho detto 10 anni al posto di 45

se poi tengono il coniglio nel cilindro (super software) sarò solo felice.

*togli 3zeri x gli algoritmi sono sempre x 100;)

Ps che poi il conto che fà lui è errato (nel nostro caso) x difetto, in quanto devi fare (60 secondi*60 minuti*60fps)=216000 volte;)

FroZen
23-03-2018, 14:41
MSI e Gigabyte non venderanno più gpu AMD sotto alcun brand gaming come in passato, forse anche Asus... praticamente le mettono nella sezione dei tostapane e dei post-it....immagino quale attenzione daranno all'ingegnerizzazione e al marketing del nuovo brand di serie Z...

Ci toccherà acquistare solo Sapphire, HIS e Asrock (forse)

#tuttacolpadiamd sia chiaro, nVidia ha fatto benissimo e porterà ulteriori frutti e profitti questa mossa, sicuroh!11!!!!!11! :O

http://www.game-debate.com/news/24752/msi-and-gigabyte-radeon-gpus-stripped-of-branding-as-nvidia-gpp-comes-into-effect?&page=3#discussForm

Gyammy85
23-03-2018, 15:15
ma non c'è scritto che non le venderanno più, ma che nvidia vuole un marchio esclusivo per le sue schede rispetto a quelle amd nei brand che aderiscono al gpp, ad esempio quindi "Gaming X" usato solo per le nvidia...

Si ma è inutile girarci attorno, abbiamo capito benissimo cosa significa, ma resta in ogni caso una porcata. Si shitstorma intel per meno, ma questi no, amati per sempre, altro che apple, è proprio un altro livello.

bagnino89
23-03-2018, 16:13
Quando qualcuno mette un link in un post di solito lo per un motivo, quindi se gli rispondi prima vai a vedere in quel link.

Nello specifico MSI non vende più una AMD come la gaming x senza la scritta gaming x, ma se vuoi una AMD devi prendere una armor merdosa con un dissi del piffero e delle ventole ridicole.
Stessa cosa per Gigabyte niente più triventola xtf cazzuta AMD ma due ventole e ritieniti fortunato.

Questo è quello che dicono in quella discussione almeno.
Io sono andato ora sul sito MSI e sul sito Gigabyte e le gaming x/ auros xtr le vedo ancora.Ma io penso non si arrivi a questo, dai... Cambieranno i nomi sulle scatole ma non credo che cambieranno anche l'ingegnerizzazione di ventole e quant'altro.

Windtears
23-03-2018, 17:38
peccato che i soldi del branding e il marketing per i vari strix - gaming x ecc li abbiano messi gli AIB e non nvidia... si vede che hanno speso meno di quanto pensano di guadagnare vendendo le founders ricolorate. :(

spero che anche 3.5+0.5GB faccia parte dell'accordo GPP. :P

Angeland
23-03-2018, 18:22
Immaginatevi una situazione opposta, a quest'ora sarebbero partite ondate di class action verso AMD ecc...ma siccome é by Green Power tutto tace :D

Io mi ritengo fortunato perché ormai mi sono abituato bene e se dovró cambiare la Liquid prenderò un'altra scheda con AiO, quindi reference, di conseguenza può essere venduta pure dalla giochi preziosi :sofico:

mirkonorroz
23-03-2018, 19:35
Le nVidia useranno "Gaming", le AMD useranno "True Gaming" e saranno meglio e senza avere unto :sofico:

SwatMaster
01-04-2018, 01:04
Non so se avete letto questa bomba di Mosca...

https://wccftech.com/amd-project-canis-flagship-intel-joint-venture/amp/

Sent from my Moto G (5) Plus using Tapatalk

Roland74Fun
01-04-2018, 01:19
Non so se avete letto questa bomba di Mosca...

https://wccftech.com/amd-project-canis-flagship-intel-joint-venture/amp/

Sent from my Moto G (5) Plus using Tapatalk
Mah....50 theraflops, 1800mhz di base.... 10000 SP.... a soli 1000 dollari. conna scheda così si mina alla grande....

AceGranger
01-04-2018, 01:50
Non so se avete letto questa bomba di Mosca...

https://wccftech.com/amd-project-canis-flagship-intel-joint-venture/amp/

Sent from my Moto G (5) Plus using Tapatalk



indovina che giorno è :p ?

Vash88
01-04-2018, 02:43
indovina che giorno è :p ?

Hahahahaha mi sembrava strano in effetti

giovanbattista
01-04-2018, 06:29
Mah....50 theraflops, 1800mhz di base.... 10000 SP.... a soli 1000 dollari. conna scheda così si mina alla grande....

la prossima archittetura si chiamerà Kelevra:D

Ton90maz
01-04-2018, 07:30
Non so se avete letto questa bomba di Mosca...

https://wccftech.com/amd-project-canis-flagship-intel-joint-venture/amp/

Sent from my Moto G (5) Plus using Tapatalk

Se non fosse per le frequenze assurde e il prezzo troppo basso probabilmente sarebbe anche possibile :sofico:

Gyammy85
01-04-2018, 07:48
Coi 7 nm sarebbero fattibili 1800 mhz, 10000 sp no ma almeno 6000 si...

Roland74Fun
01-04-2018, 09:03
Facciamo una gruppo d'acquisto solidale e prendiamocele....

https://www.hwupgrade.it/forum/showthread.php?t=2849294

SwatMaster
01-04-2018, 09:11
indovina che giorno è :p ?Che pirla che sono! Ahahah

Sarà che noi amd-boys siamo tutti dei sognatori un po' ingenui :sofico:

Sent from my Moto G (5) Plus using Tapatalk

Ton90maz
01-04-2018, 09:34
Coi 7 nm sarebbero fattibili 1800 mhz, 10000 sp no ma almeno 6000 si...

Sarebbero 5000 per chip

Gyammy85
01-04-2018, 10:07
Sarebbero 5000 per chip

Dici che fanno il multichip tipo infinity fabric? Potrebbe essere, ma ci credo poco, anche se nell'ottica del ray tracing avrebbe un senso.

Roland74Fun
01-04-2018, 10:18
Che pirla che sono! Ahahah

Sarà che noi amd-boys siamo tutti dei sognatori un po' ingenui :sofico:

Sent from my Moto G (5) Plus using Tapatalk
Abbiamo gli occhialini speciali per la realtà personificata. :) :)

Gyammy85
01-04-2018, 10:28
Abbiamo il visore per la realtà mistificata di AMD. :) :)

Fixed :read: :)

Ton90maz
01-04-2018, 13:18
Dici che fanno il multichip tipo infinity fabric? Potrebbe essere, ma ci credo poco, anche se nell'ottica del ray tracing avrebbe un senso.

Lassà perd, parlavo sempre del pesce con intel. Cosa faranno davvero coi 7 nm onestamente non lo so, non faccio troppe previsioni visti i pessimi risultati recenti.

Gyammy85
01-04-2018, 15:18
Lassà perd, parlavo sempre del pesce con intel. Cosa faranno davvero coi 7 nm onestamente non lo so, non faccio troppe previsioni visti i pessimi risultati recenti.

Quali pessimi risultati?

Roland74Fun
01-04-2018, 16:50
Quali pessimi risultati?
Polaris ad es.
Una 580 da 8GB che Costa 500 euro ed in 4K a stento arriva a 40 fps... più pessimo di così.... :( :(

Ton90maz
01-04-2018, 17:38
Quali pessimi risultati?Parlo di Vega. E' un colpo al cuore da sentire?

Gyammy85
01-04-2018, 17:52
Parlo di Vega. E' un colpo al cuore da sentire?

:asd:
Arrivi con un anno e più di ritardo, non fa più ridere la trollata gratuita contro Vega ;)

55AMG
01-04-2018, 19:50
:asd:
Arrivi con un anno e più di ritardo, non fa più ridere la trollata gratuita contro Vega ;):asd:

Ma non si stancano mai? :asd:

A me che sta stupendo é la stabilità dei driver e sto con gli ultimi 17.
Sto provando una marea di giochi recenti e meno e nessunissimo problema.

Inviato dal mio SM-G935F utilizzando Tapatalk

Angeland
01-04-2018, 21:13
Parlo di Vega. E' un colpo al cuore da sentire?

Come pesce d'aprile non è molto originale :sofico:

Ton90maz
02-04-2018, 07:08
Uff, però molti hanno creduto alla storia dei driver che pompano le prestazioni di oltre il 10%

giovanbattista
02-04-2018, 07:30
https://www.techpowerup.com/242913/amd-vega-20-optical-shrunk-gpu-surfaces-in-linux-patches
AMD "Vega 20" is rumored to be an optical shrink of the current "Vega 10" GPU die to a newer process, either 12 nm, or 10 nm, or perhaps even 7 nm. Six new device IDs that point to "Vega 20" based products, surfaced on AMD's GPU drivers source code, with its latest commit made as recently as on 28th March. AMD "Vega 10" is a multi-chip module of a 14 nm GPU die, and two "10 nm-class" HBM2 memory stacks, sitting on a silicon interposer that facilitates high-density wiring between the three. In an effort to increase clock speeds, efficiency, or both, AMD could optically shrink the GPU die to a smaller silicon fabrication process, and carve out a new product line based on the resulting chip.:D https://cgit.freedesktop.org/~agd5f/linux/commit/?h=vg20-dkms-4.13&id=a95549de353b967c1dcc725389542a350ae5af6e

Gyammy85
02-04-2018, 08:16
https://www.techpowerup.com/242913/amd-vega-20-optical-shrunk-gpu-surfaces-in-linux-patches
AMD "Vega 20" is rumored to be an optical shrink of the current "Vega 10" GPU die to a newer process, either 12 nm, or 10 nm, or perhaps even 7 nm. Six new device IDs that point to "Vega 20" based products, surfaced on AMD's GPU drivers source code, with its latest commit made as recently as on 28th March. AMD "Vega 10" is a multi-chip module of a 14 nm GPU die, and two "10 nm-class" HBM2 memory stacks, sitting on a silicon interposer that facilitates high-density wiring between the three. In an effort to increase clock speeds, efficiency, or both, AMD could optically shrink the GPU die to a smaller silicon fabrication process, and carve out a new product line based on the resulting chip.:D https://cgit.freedesktop.org/~agd5f/linux/commit/?h=vg20-dkms-4.13&id=a95549de353b967c1dcc725389542a350ae5af6e

Molto molto interessante, insieme a ryzen shrinkano anche vega, su ryzen oltre la frequenza hanno migliorato le latenze, se sistemano i difettucci faranno il botto.

Angeland
02-04-2018, 08:24
https://www.techpowerup.com/242913/amd-vega-20-optical-shrunk-gpu-surfaces-in-linux-patches
AMD "Vega 20" is rumored to be an optical shrink of the current "Vega 10" GPU die to a newer process, either 12 nm, or 10 nm, or perhaps even 7 nm. Six new device IDs that point to "Vega 20" based products, surfaced on AMD's GPU drivers source code, with its latest commit made as recently as on 28th March. AMD "Vega 10" is a multi-chip module of a 14 nm GPU die, and two "10 nm-class" HBM2 memory stacks, sitting on a silicon interposer that facilitates high-density wiring between the three. In an effort to increase clock speeds, efficiency, or both, AMD could optically shrink the GPU die to a smaller silicon fabrication process, and carve out a new product line based on the resulting chip.:D https://cgit.freedesktop.org/~agd5f/linux/commit/?h=vg20-dkms-4.13&id=a95549de353b967c1dcc725389542a350ae5af6e

Molto molto interessante, insieme a ryzen shrinkano anche vega, su ryzen oltre la frequenza hanno migliorato le latenze, se sistemano i difettucci faranno il botto.


Sarebbe il top se riuscissero ad inserire le nuove hbm2 di Samsung "acquabolt" :oink: (che poi erano già previste inizialmente per Vega 10)

Gyammy85
02-04-2018, 08:28
Sarebbe il top se riuscissero ad inserire le nuove hbm2 di Samsung "acquabolt" :oink: (che poi erano già previste inizialmente per Vega 10)

Ma utilizzassero le gddr5x, che costano meno e vanno di più (ubercit.)

Angeland
02-04-2018, 10:55
Ma utilizzassero le gddr5x, che costano meno e vanno di più (ubercit.)

Gddr6 come le nuove verdi :sofico:
In realtà le Aquabolt hanno un +20% di banda rispetto alle specifiche iniziali di Vega :>

E secondo me non le useranno.

Si occano pure queste fisse a 1.35v :cool:

techfede
02-04-2018, 17:30
Questo è quello che dicono in quella discussione almeno.
Io sono andato ora sul sito MSI e sul sito Gigabyte e le gaming x/ auros xtr le vedo ancora.
Se non mi sbaglio, sul sito global, le gaming X non le trovi più per le AMD (per quanto riguarda MSI almeno, qualche giorno fa avevo guardato).

peccato che i soldi del branding e il marketing per i vari strix - gaming x ecc li abbiano messi gli AIB e non nvidia... si vede che hanno speso meno di quanto pensano di guadagnare vendendo le founders ricolorate. :(

Questa è la cosa che ha dato da pensare anche a me, e ricordo che anche Steve di GamersNexus ne ha parlato. Se veramente i vari AiB lasciassero andare questi brand che hanno creato loro (e non nvidia) a me sembrerebbe una bella perdita.

ma non c'è scritto che non le venderanno più, ma che nvidia vuole un marchio esclusivo per le sue schede rispetto a quelle amd nei brand che aderiscono al gpp, ad esempio quindi "Gaming X" usato solo per le nvidia...
Credo che quello che si aspettano tutti sia proprio un cambio di dissipatore, ovvero "se noi (nvidia) collaboriamo con te (AiB) per ingegnerizzare al meglio le nostre schede, non vogliamo che le schede degli avversari siano uguali", che di per se avrebbe un senso, se non ci fosse il discorso sopra di un marchio già consolidato, e se non fosse che obbligherebbe gli AiB a spendere altri soldi ad ingegnerizzare dissipatori apposta per le AMD (con conseguente marketing eccetera, e immagino cosa potrebbe succedere se i soldi dovessero scarseggiare).

Gyammy85
02-04-2018, 18:22
Comunque stiamo parlando di scoreggie, i dissipatori dei vari produttori sono poco più che schifezze.
AMD potrebbe tranquillamente fare in prima persona le reference blower e anche delle reference con dissipatori e ventole cazzute magari collaborando con chi fa veramente dei dissipatori seri per le vga come Arctic.

In parte lo fa già, per le liquid si rivolge a cooler master mi pare

Gyammy85
02-04-2018, 18:39
Benissimo, adesso faccia anche delle schede ad aria buone e ciaone.

Insomma ritornare alle build by ati :sofico:

55AMG
02-04-2018, 23:18
In parte lo fa già, per le liquid si rivolge a cooler master mi pareLa 64 Liquid come dissipazione, silenziosità ed in generale è veramente ottima.

Come detto la ventola del radiatorino è silenziosa. Inoltre a prima vista il tutto è assemblato molto bene ed i materiali sembrano resistenti e di buona qualità.
In un CASE non enorme, e bello "pieno", in game come temp massima raggiunge i 47 gradi.

Inviato dal mio SM-G935F utilizzando Tapatalk

methis89
02-04-2018, 23:39
Scusate se mi intrometto un po' così dal nulla, ogni tanto leggo ma non seguo questo thread..
Ma per quando sono previste le future schede? Perché io ancora sto con un r9 290 e ogni tanto è parecchio al limite su un 2k da 32pollici a 144hz...e visto come è andata con vega se le prossime vga sono appetibili me ne prendo una al day one per evitare che pure sto giro il prezzo esploda per il mining...

Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk

Catan
03-04-2018, 14:32
Insomma ritornare alle build by ati :sofico:

ah le bba, fatte e costruite in canada...schede da oc ormai perso...ho avuto solo una volta una bba per le mani (una x1800xl) e andava come un treno...

The_SaN
03-04-2018, 15:41
Ma anche Hercules...che belle schedozze :cry:

Gyammy85
04-04-2018, 14:26
https://www.reddit.com/r/Amd/comments/89ljbd/playstation_5_uses_zen_navi_possible_late_2018/

Per la ps5 zen+navi, uscita per la fine del 2018

The_SaN
04-04-2018, 15:29
https://www.reddit.com/r/Amd/comments/89ljbd/playstation_5_uses_zen_navi_possible_late_2018/

Per la ps5 zen+navi, uscita per la fine del 2018

Sarà una CioVega :O

antonioalex
04-04-2018, 17:56
E sviluppano i giochi su devkit non hw diverso?

certamente, non è raro vedere all'e3 girare demo su pc perchè non hanno manco i devkit

Free Gordon
05-04-2018, 10:18
https://www.reddit.com/r/Amd/comments/89ljbd/playstation_5_uses_zen_navi_possible_late_2018/
Per la ps5 zen+navi, uscita per la fine del 2018


https://semiaccurate.com/2018/04/03/semiacccurate-gets-playstation-5next-details/

We once again have real technical info on it, and two possible launch dates, one more solid than the other. You might want to hold off on that XBox One X if you plan on buying it in the next few months, Sony has quite a beast in the wings. Enjoy

Charlie dice 2 date possibili.. ma dice anche che hanno info certe sull'hw. E dice Navi.

Beh, due considerazioni:

se anche PS5 avrà Navi...significherà la sesta console (considerando l'Atari) con GCN... :asd:
Quest'architettura, per quanto sia obsoleta, a livello progettuale ha svolto il suo compito!
Saranno 8 anni con la stessa minestra!!! :rotfl:


Dal canto mio, l'unica questione è: che PP userà? Il prossimo step di TSMC...? o ancora i 14nm? Perché se è ancora a 14, non andrà così tanto lontano da XboxoneX.. (massimo sarà potente il doppio...ma il doppio in ambito console non è sufficiente a decretare un salto vero e proprio tra una generazione e l'altra).