PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 [204] 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348

Roland74Fun
10-09-2018, 21:08
Scheda video nVidia, lamentele sui driver, benchi fortinite... il lato oscuro della forza scorre forte in te... :asd:Vabbeh, dopo il minaccioso avviso ho comunque lanciato il gioco è girava bene lo stesso.... la Nvidia è sul muletto botteleneckata dall'atlhon x2. :)
Se riesco a riconfigurarlo a poco prezzo con qualcosa tipo phenom x4. Anche se mi sa che mi tocca cambiare pure la motherboard.

LkMsWb
10-09-2018, 23:54
E dai se devi cambiare tutto vendi anche la 1030 e metti un 2400G :sofico:

Comunque non capisco il senso di suggerire dei driver beta.

Perché nel changelog dei 18.8.1 c'è:

Fixed Issues
Fortnite™ may experience an application crash on game launch in Windows®7.

Ale55andr0
11-09-2018, 13:48
Ma che Ryzen stia andando bene...e che sia un'ottima cpu non ci piove. :)
Da quando è uscito, ho praticamente solo montato Ryzen ai clienti.. (quasi sempre).

ma di tua iniziativa o han chiesto loro? chiedo perchè è molto importante capire se è cambiato qualcosa dal punto di vista della percezione del brand a cominciare proprio dal cliente, anche se certo se a proposta accetta e già un bel passo avanti. A chi, mesi fa, ho suggerito ryzen mi han detto "Ma intel non è meglio e amd ha problemi di incompatibilità? :doh:


Ma lato GPU devono cambiare archi...è giunto il momento.



è da mo' che è giunto, tipo dalla fury con hbm :asd:

Gyammy85
11-09-2018, 14:14
è da mo' che è giunto, tipo dalla fury con hbm :asd:

Ma ti sei proprio fissato eh :asd:

https://www.guru3d.com/articles_pages/strange_brigade_pc_graphics_performance_benchmark_review,8.html

FAIL :asd:

Gyammy85
11-09-2018, 14:17
Da oggi in vendita la vega nano di powercolor

https://www.guru3d.com/news-story/powercolor-launches-rx-vega-nano.html

Stessi clock della 56 reference

bagnino89
11-09-2018, 14:31
Quale fury intendi? La fury liscia o la fury OC? :asd:

Questa è mitica ahah :asd:

AceGranger
11-09-2018, 14:39
Ma ti sei proprio fissato eh :asd:

https://www.guru3d.com/articles_pages/strange_brigade_pc_graphics_performance_benchmark_review,8.html

FAIL :asd:


chissa che noia a postare sempre lo stesso bench :asd:

Ale55andr0
11-09-2018, 14:42
Ma ti sei proprio fissato eh :asd:

https://www.guru3d.com/articles_pages/strange_brigade_pc_graphics_performance_benchmark_review,8.html

FAIL :asd:

non vedo nemmeno lontanamente il nesso del bench col mio post, ma mi limito ad annuire così famo prima :asd:


PS: ma che razzo è strange brigade? se magna? :asd:

bagnino89
11-09-2018, 14:45
chissa che noia a postare sempre lo stesso bench :asd:

E basta, è una palese techdemo AMD :O

xXFedeBoyXx
11-09-2018, 15:39
Ciao ragazzi, qualcuno saprebbe spiegarmi come mai le schede video r9 fury e fury x, prodotte nel 2015, riescano ad avere più fps di, rispettivamente, rx 480 e 580, prodotte nel 2016/2017?

Gyammy85
11-09-2018, 15:45
Ciao ragazzi, qualcuno saprebbe spiegarmi come mai le schede video r9 fury e fury x, prodotte nel 2015, riescano ad avere più fps di, rispettivamente, rx 480 e 580, prodotte nel 2016/2017?

Le fury erano le top di gamma del 2015 mentre le 480 e 580 sono schede di fascia media, l'attuale top è appunto vega.

Ale55andr0
11-09-2018, 17:35
In 4 a perculare un utente... non è manco flame, è bullismo.

a limite, cyber bullismo :O :read:





:doh:

Ton90maz
11-09-2018, 19:31
Le fury erano le top di gamma del 2015 mentre le 480 e 580 sono schede di fascia media, l'attuale top è appunto vega.

L’attuale top non esiste :oink:

Gyammy85
11-09-2018, 20:02
L’attuale top non esiste :oink:

Vero :oink: :oink:

E dopo questa passo e chiudo

A domani

Notte Notte :ronf:

ninja750
11-09-2018, 20:20
Da oggi in vendita la vega nano di powercolor

https://www.guru3d.com/news-story/powercolor-launches-rx-vega-nano.html

Stessi clock della 56 reference

finalmente!

ovviamente farà la fine della R9 nano introvabile e con prezzi uber

ninja750
11-09-2018, 20:21
Cmq ragazzi quello che conta è l'effetto visivo finale, se Nvdia con gli RT core riuscirà a fornire un risultato estetico irraggiungibile su GPU AMD, avrà vinto...morta lì.

si ma non stiamo parlando dell'acqua e del fumo delle 3dfx quello si che è stato un cambiamento fotonico

sta roba qui la vedo come minore, poi ovviamente meglio averla che non

Roland74Fun
11-09-2018, 21:16
si ma non stiamo parlando dell'acqua e del fumo delle 3dfx quello si che è stato un cambiamento fotonico

sta roba qui la vedo come minore, poi ovviamente meglio averla che non

Ricordo ancora nei newgroup di allora i Bulli della Vodoo2...
"Raga stai calmino perchè io gioco con due V" in SLI a 1024x768 e tu con la tua Virge S3 fai ridere"..... :D :D

Gyammy85
12-09-2018, 07:51
Intervista a Lisa Su sulla collaborazione con Sony

https://www.cnbc.com/video/2018/09/11/amd-ceo-describes-key-gaming-partnerships-with-sony-microsoft.html

Edit: Non dice niente di che parla in generale...

FroZen
12-09-2018, 09:01
Intervista a Lisa Su sulla collaborazione con Sony

https://www.cnbc.com/video/2018/09/11/amd-ceo-describes-key-gaming-partnerships-with-sony-microsoft.html

Edit: Non dice niente di che parla in generale...

Si ma...... le esce?

Gyammy85
12-09-2018, 09:19
Si ma...... le esce?

NO.
Come si può competere se si hanno le pipeline corte?

FroZen
12-09-2018, 09:26
Le bugie hanno le pipeline corte :O

Mi chiedevo fra me e me: ma se nvidia ha come al solito sbragato alzando i prezzi di tutte le fasce sulla loro nuova serie, sicuramente anche amd lo farà...rimarrà indietro quel classico 10/20% a pari fascia ma stando qualcosina sotto come prezzi............

Oh finalmente posso scriverlo: grazie nVidia!!!!! :muro: :mad: 11!11!!!!1!1!11

Una volta che avevo un certo gruzzoletto via per farmi la top (si ma dove è?) al "deihuang" mi sa che mi dovrò di nuovo attaccare :asd:

Gyammy85
12-09-2018, 09:34
Le bugie hanno le pipeline corte :O

Mi chiedevo fra me e me: ma se nvidia ha come al solito sbragato alzando i prezzi di tutte le fasce sulla loro nuova serie, sicuramente anche amd lo farà...rimarrà indietro quel classico 10/20% a pari fascia ma stando qualcosina sotto come prezzi............

Oh finalmente posso scriverlo: grazie nVidia!!!!! :muro: :mad: 11!11!!!!1!1!11

Una volta che avevo un certo gruzzoletto via per farmi la top (si ma dove è?) al "deihuang" mi sa che mi dovrò di nuovo attaccare :asd:

Torneremo al 2008 con schede da 500 che vanno quanto quelle da 1200 "per recuperare quote di mercato", che non verranno recuperate, quindi #noncelacnocnoreerernzareaza e via così, intanto lara se la ride...

Gyammy85
12-09-2018, 09:44
Troppo facile andare come le schede da 1200€ ma senza gigaraggi e riflessi maggici :ciapet:

Eh ma sicuramente amd sfrutterà qualche feature fake delle dx12 o delle vulkan per gimpare nvidia e intel e far andare le sue schede coi teraflop ciccioni più forte quando in realtà non è così #itigginonlodicono

Einhander
12-09-2018, 11:44
scusate se mi permetto di chiedere a monte delle supercazzole ivi raccolte fino ad ora:

Ma in definitiva cosa sappiamo con "relativa certezza" di quello che amd ha in cantiere e delle tempostiche di "rilascio"?

La prossima gpu è per il mercato pro/semipro, ma poi per il resto la roadmap qual'è?

E poi su navi sappiamo almeno se sarà una nuova architettura oppure siam sempre lí ad avere gpu equilibrate solo in fascia media?

Gyammy85
12-09-2018, 11:50
scusate se mi permetto di chiedere a monte delle supercazzole ivi raccolte fino ad ora:

Ma in definitiva cosa sappiamo con "relativa certezza" di quello che amd ha in cantiere e delle tempostiche di "rilascio"?

La prossima gpu è per il mercato pro/semipro, ma poi per il resto la roadmap qual'è?

E poi su navi sappiamo almeno se sarà una nuova architettura oppure siam sempre lí ad avere gpu equilibrate solo in fascia media?

Dovrebbe uscire tutto nella prima metà del 2019, bisognerà vedere come giostreranno il rilascio di zen 2, ma al CES si saprà qualcosa imho.
Dalle informazioni trapelate, vega aveva il codice gfx9 mentre vega 20/navi gfx10, quindi sembra che un cambio di architettura oltre lo shrink ci sia, io penso che sicuro useranno il bus a 4096 bit, potrebbero fare inizialmente solo fascia media 2070/1080 o anche insidiare la 2080 che andrà un pochino più della 1080ti a quanto sembra, con top di gamma solo successivamente, ma io sono propenso a credere che presenteranno una linea completa.

Einhander
12-09-2018, 12:09
https://www.youtube.com/watch?v=vfthzU3V4zo :asd:

sappiamo solo che APU ha abbandonato la navi.... :asd:

E io che ci clicco pure sopra a sti link :doh:

A riprova del fatto che l'abbandono di Raja e' roba gia' vecchia, non comprendo perche' rispondere cosi' anche ad un post innocuo inerente il chiedere informazioni relativamente precise in merito alla situazione e ai programmi...pero' oh, manco quando si chiedono cose cosi' e' possibile evitare il trollaggio :rolleyes:

Dovrebbe uscire tutto nella prima metà del 2019, bisognerà vedere come giostreranno il rilascio di zen 2, ma al CES si saprà qualcosa imho.
Dalle informazioni trapelate, vega aveva il codice gfx9 mentre vega 20/navi gfx10, quindi sembra che un cambio di architettura oltre lo shrink ci sia, io penso che sicuro useranno il bus a 4096 bit, potrebbero fare inizialmente solo fascia media 2070/1080 o anche insidiare la 2080 che andrà un pochino più della 1080ti a quanto sembra, con top di gamma solo successivamente, ma io sono propenso a credere che presenteranno una linea completa.

Pero' in effetti non sappiamo proprio nulla in merito quindi all'architettura? cioe' manco sulle slide?

AceGranger
12-09-2018, 12:21
E io che ci clicco pure sopra a sti link :doh:

A riprova del fatto che l'abbandono di Raja e' roba gia' vecchia, non comprendo perche' rispondere cosi' anche ad un post innocuo inerente il chiedere informazioni relativamente precise in merito alla situazione e ai programmi...pero' oh, manco quando si chiedono cose cosi' e' possibile evitare il trollaggio :rolleyes:



Pero' in effetti non sappiamo proprio nulla in merito quindi all'architettura? cioe' manco sulle slide?


l'unica slide di AMD dove compare NAVI è questa

https://www.anandtech.com/Gallery/Album/6399#14


non si sa nulla, anche parlare di H1 2019 è uguale a dire che arrivera a dicembre 2019.

credo non lo sappinao nemmeno loro la data di uscita, verra schedulata quando avranno un'idea chiara sulle rese dei 7nm compatibili con il mercato consumer, che di sicuro ora non hanno.

Gyammy85
12-09-2018, 12:31
Per le slide sull'architettura bisognerà aspettare il ces
H1 vuol dire prima metà non c'entra niente dicembre

FroZen
12-09-2018, 12:43
Al di là della incognita ray tracing degli innovatori visto la sbandata della nuova uarch accidia verso DX12 etc etc non serve molto per avere una navi competitiva.

Prendi la vega 64, la pompi un po' di sp, raddoppi il canale vram, una spruzzata di pecorino e olio d'oliva e hai qualcosa che compete costando due terzi del concorrente con consumi comparabili (turing sarà la nuova fermi-idrovora imho, leggo già riposisizionamenti sul "turing non è solo da gaming ci sta il megadie, i mega consumi e vuoi mettere l'IA?")

Mettersi a toccare anche la parte geometrica invece richiederebbe più tempo/soldi

La supercazzola è finita, andate in pace :O

AceGranger
12-09-2018, 13:13
Per le slide sull'architettura bisognerà aspettare il ces
H1 vuol dire prima metà non c'entra niente dicembre

provo a riformulare:

H1 te lo sei inventato tu, e dire prima parte dell'anno è uguale a dire seconda parte dell'anno che è uguale a dire 31 dicembre, sono date a caso visto che nessuno sa nulla, AMD non ha mai detto nulla e non ha mai nemmeno accennato alla lontana.


e se proprio vuoi prendere date ipotizzate, quei pochi che ci provano, indicano H2 e non H1

https://www.techradar.com/news/amd-navi
https://wccftech.com/exclusive-amd-navi-gpu-roadmap-cost-zen/

Gyammy85
12-09-2018, 13:20
provo a riformulare:

H1 te lo sei inventato tu, e dire prima parte dell'anno è uguale a dire seconda parte dell'anno che è uguale a dire 31 dicembre, sono date a caso visto che nessuno sa nulla, AMD non ha mai detto nulla e non ha mai nemmeno accennato nemmeno alla lontana.

A parte il fatto che lisa su disse al computex che le gpu a 7 nm consumer sarebbero arrivate presto, hanno pure dichiarato di essere in anticipo con le tempistiche tanto da anticipare vega 20 a fine 2018 quindi...è lecito aspettarsi il debutto per giugno al più tardi

Ton90maz
12-09-2018, 14:14
Al di là della incognita ray tracing degli innovatori visto la sbandata della nuova uarch accidia verso DX12 etc etc non serve molto per avere una navi competitiva.

Prendi la vega 64, la pompi un po' di sp, raddoppi il canale vram, una spruzzata di pecorino e olio d'oliva e hai qualcosa che compete costando due terzi del concorrente con consumi comparabili (turing sarà la nuova fermi-idrovora imho, leggo già riposisizionamenti sul "turing non è solo da gaming ci sta il megadie, i mega consumi e vuoi mettere l'IA?")

Mettersi a toccare anche la parte geometrica invece richiederebbe più tempo/soldi

La supercazzola è finita, andate in pace :OLa baracca ultra :sofico:

Sta volta competerà con la 3060 da 2 cm quadrati quando invidia farà il salto a 7 nm?

Gyammy85
12-09-2018, 14:29
La baracca ultra :sofico:

Sta volta competerà con la 3060 da 2 cm quadrati quando invidia farà il salto a 7 nm?

Eh quando nvidia farà il salto ai 7 nm oltre ai raggi avremo le ruote i freni a disco e tutta la bicicletta al completo e amd keffà?

FroZen
12-09-2018, 15:00
nVIDIA sembra essere un po' dove era AMD quando uscì Vega10 in realtà: chip grosso, memorie meno performanti del previsto, sbilanciamento dell'architettura verso gli shader...

Alla fine il trend è quello, sono architetture pensate per altro che vengono poi adattate al gaming. E' più semplice cambiare il modo nel quale vengono fatti i giochi probabilmente. Solo che AMD ovviamente non può farcela, nVDIA Sì.

Nel breve, cmq, AMD non dovrebbe aver problemi a bypassare i problemi di memoria, basta buttar su degli stack di HBM2... il punto è capire che stanno combinando con Navi.

....cmq, al di là delle considerzioni tecniche/strategiche, è abbastanza evidente che la prossima AMD spaccherà il culo ai passeri: ho comprato un monitor 4k gsync, il karma mi punirà costringendomi a guardarle impotente. Così imparo a farmi fidelizzare!

Date 1000 frustate a quest'uomo :O

Gyammy85
12-09-2018, 15:03
nVIDIA sembra essere un po' dove era AMD quando uscì Vega10 in realtà: chip grosso, memorie meno performanti del previsto, sbilanciamento dell'architettura verso gli shader...

Alla fine il trend è quello, sono architetture pensate per altro che vengono poi adattate al gaming. E' più semplice cambiare il modo nel quale vengono fatti i giochi probabilmente. Solo che AMD ovviamente non può farcela, nVDIA Sì.

Nel breve, cmq, AMD non dovrebbe aver problemi a bypassare i problemi di memoria, basta buttar su degli stack di HBM2... il punto è capire che stanno combinando con Navi.




....cmq, al di là delle considerzioni tecniche/strategiche, è abbastanza evidente che la prossima AMD spaccherà il culo ai passeri: ho comprato un monitor 4k gsync, il karma mi punirà costringendomi a guardarle impotente. Così imparo a farmi fidelizzare!

Si diciamo che coi 7 nm sono fattibili i 4096 bit di bus (vega 20 ce l'ha sicuramente e arriva ad 1 tb di banda), in effetti anche il chip è piccolo per essere una gpu pro, dato che sembra abbiano abilitato le feature dormienti delle ncu, probabilmente a sto giro hanno aumentato di molto l'efficienza, e se già vega con le giuste condizioni era paragonabile a pascal come efficienza, amd potrebbe essere in vantaggio su nvidia pure quando farà le sue a 7 nm...

Windtears
12-09-2018, 15:20
E da cosa è così evidente? :mbe:

sarcasmo. :) Essendo sfigato e avendo comprato un monitor nvidia-only, la prossima amd sarà "ovviamente" uber... easy. Almeno l'ho capita così.

Gyammy85
12-09-2018, 15:21
E da cosa è così evidente? :mbe:

Perché dopo la prima nuova architettura acerba viene l'architettura nuova matura con un'iniezione di brutale potenza asfaltante come da tradizione ATI/AMD :O

Gyammy85
12-09-2018, 15:23
sarcasmo. :) Essendo sfigato e avendo comprato un monitor nvidia-only, la prossima amd sarà "ovviamente" uber... easy. Almeno l'ho capita così.

Un sarcasmo abbastanza stealth :fagiano:

The_SaN
12-09-2018, 15:24
Si diciamo che coi 7 nm sono fattibili i 4096 bit di bus (vega 20 ce l'ha sicuramente e arriva ad 1 tb di banda), in effetti anche il chip è piccolo per essere una gpu pro, dato che sembra abbiano abilitato le feature dormienti delle ncu, probabilmente a sto giro hanno aumentato di molto l'efficienza, e se già vega con le giuste condizioni era paragonabile a pascal come efficienza, amd potrebbe essere in vantaggio su nvidia pure quando farà le sue a 7 nm...

Certo, downcloccando e downvoltando il tutto a livelli da 1070...un chip da 510mmq vs uno da 314mmq a default.
Se fai un chip da 1000mmq e lo clocchi a 500MHz dovresti fare ancora meglio :D

Windtears
12-09-2018, 15:25
Un sarcasmo abbastanza stealth :fagiano:

"il karma mi punirà sicuramente" non è proprio stealth, sono 26 lettere in totale. :asd: <-ok la smetto. :P

AceGranger
12-09-2018, 15:27
nVIDIA sembra essere un po' dove era AMD quando uscì Vega10 in realtà: chip grosso, memorie meno performanti del previsto, sbilanciamento dell'architettura verso gli shader...

Alla fine il trend è quello, sono architetture pensate per altro che vengono poi adattate al gaming. E' più semplice cambiare il modo nel quale vengono fatti i giochi probabilmente. Solo che AMD ovviamente non può farcela, nVDIA Sì.

Nel breve, cmq, AMD non dovrebbe aver problemi a bypassare i problemi di memoria, basta buttar su degli stack di HBM2... il punto è capire che stanno combinando con Navi.


Turing è forse la prima vera architettura pensata solo per il gaming, per cambiare il mondo del gaming; dubito che la prossima Tesla avra i core RT.

AMD puo farcela benissimo, basta solo cambiare architettura; come ha buttato BD puo tranquillamente mettere una pietra sopra all'attuale architettura GPU e passare oltre; non arrivera con Navi arrivera con la prossima ma è sicuro che si andra in questa direzione.

Gyammy85
12-09-2018, 15:33
Certo, downcloccando e downvoltando il tutto a livelli da 1070...un chip da 510mmq vs uno da 314mmq a default.
Se fai un chip da 1000mmq e lo clocchi a 500MHz dovresti fare ancora meglio :D

C'è una slide dove si dimostra che con certi carichi di lavoro l'efficienza è uguale

Ogni volta basta mettere nella stessa frase pascal o 1080ti e vega e scatta la procedura di punizione :asd:

Il chip da 1000 a sto giro lo sta facendo nvidia

Gyammy85
12-09-2018, 15:35
Turing è forse la prima vera architettura pensata solo per il gaming, per cambiare il mondo del gaming; dubito che la prossima Tesla avra i core RT.

AMD puo farcela benissimo, basta solo cambiare architettura; come ha buttato BD puo tranquillamente mettere una pietra sopra all'attuale architettura GPU e passare oltre; non arrivera con Navi arrivera con la prossima ma è sicuro che si andra in questa direzione.

Certo se non è gaming basta cambiare il gaming LOL :asd: :asd:
Questa frase sintetizza un pò il tutto

Certo basta cambiare architettura, ma con più geo o più rt?

Ton90maz
12-09-2018, 15:54
Si diciamo che coi 7 nm sono fattibili i 4096 bit di bus (vega 20 ce l'ha sicuramente e arriva ad 1 tb di banda), in effetti anche il chip è piccolo per essere una gpu pro, dato che sembra abbiano abilitato le feature dormienti delle ncu, probabilmente a sto giro hanno aumentato di molto l'efficienza, e se già vega con le giuste condizioni era paragonabile a pascal come efficienza, amd potrebbe essere in vantaggio su nvidia pure quando farà le sue a 7 nm...

Se vabbè :asd:

Ton90maz
12-09-2018, 15:58
C'è una slide dove si dimostra che con certi carichi di lavoro l'efficienza è uguale

Ogni volta basta mettere nella stessa frase pascal o 1080ti e vega e scatta la procedura di punizione :asd:

Il chip da 1000 a sto giro lo sta facendo nvidiaQuella con prestazioni inferiori a una 1080 strozzata? :mc:

AceGranger
12-09-2018, 16:01
E io che credevo fossero i chip fallati delle quadro. :asd:

Hanno fatto i tensor per il deep learning, gli RT core per il rendering e poi gli hanno riciclati in gaming per fare le pozzanghere e il dlss.


le Quadro sono le GPU per produrre, le GeForce sono le GPU per fruire ( anche se in realta si usano spesso anche le GeForce anche per produrre :sofico:) , devono per forza di cose condividere la stessa tecnologia...

prima i render si facevano Raster, poi si è passati al Ray Tracing, il gaming è solo arrivato in ritardo per problemi di potenza computazionale, non potendo per ovvie ragioni dividere il carico su una farm.... ma CHIUNQUE nell'ambito sapeva che prima o poi ci sarebbe stato il passaggio, e il passaggio sta avvenendo ora.

stanno standardizzando la filiera e si sta arrivando al punto in cui un asset prodotto per render in alta qualita finira direttamente nel game engine, senza nemmeno rifare il materiali ( che stanno diventando PBR ).


Certo se non è gaming basta cambiare il gaming LOL :asd: :asd:
Questa frase sintetizza un pò il tutto

Certo basta cambiare architettura, ma con più geo o più rt?

e certo, perchè secondo te sono le architetture che si adattano ai Game Engine :rotfl:

AceGranger
12-09-2018, 16:22
Dev'essere per questo che i chip full sono marcati Quadro e quelli cut sono marcati Geforce :asd:

eh si, proprio lo stesso numero di pezzi venduti; le rese non centrano ovviamente nulla.

sara sicuramente cosi, hanno fatto un chip per un mercato da 290 Milioni dove ha gia un vantaggio schiacciante superiore all'80% e blindato da CUDA, rispetto al mercato Gaming che vale 1,8 Miliardi di dollari e dove stanno al 65% con ampi margini di aumento.

è sicuramente cosi guarda :asd:

in pratica nVidia fa solo chip Pro, e GV100 è il chip Pro al quadrato.

ninja750
12-09-2018, 16:28
il consumo di vega è comunque alto, anche se si tratta di schede di fascia alta l'efficienza non è ai livelli delle 480

sto leggendo la review della nano 56 e i watt totali alla presa sono troppi troppi 400w stock e 480w oc.. se non li tagliano con il nuovo PP dovremo prenderci tutti alimentatori da 650w?

Gyammy85
12-09-2018, 16:31
sara sicuramente cosi, hanno fatto un chip per un mercato da 290 Milioni dove ha gia un vantaggio schiacciante superiore all'80% e blindato da CUDA, rispetto al mercato Gaming che vale 1,8 Miliardi di dollari e dove stanno al 65% con ampi margini di aumento.

è sicuramente cosi guarda :asd:

PODERE ILLIMITATO

Scusate :asd: :asd:

Comunque per ricollegarmi a quello che hai scritto prima, qui son 2 anni che dite "in amd devono fare l'architettura gaming per i giochi di oggi" e ora si scopre che sono i giochi a dover seguire l'architettura gaming nella connotazione gaming propria della gpu, qualquadra non cosa

Gyammy85
12-09-2018, 16:33
il consumo di vega è comunque alto, anche se si tratta di schede di fascia alta l'efficienza non è ai livelli delle 480

sto leggendo la review della nano 56 e i watt totali alla presa sono troppi troppi 400w stock e 480w oc.. se non li tagliano con il nuovo PP dovremo prenderci tutti alimentatori da 650w?

Quale review?
La nano è uguale alla vega 56 reference, che per inciso ha 210w di tdp, 25w più della 580 nitro andando però il 50% in più, scusa se è poco.

The_SaN
12-09-2018, 16:37
C'è una slide dove si dimostra che con certi carichi di lavoro l'efficienza è uguale

Ogni volta basta mettere nella stessa frase pascal o 1080ti e vega e scatta la procedura di punizione :asd:

Il chip da 1000 a sto giro lo sta facendo nvidia

Quella slide me la ricordo benissimo. Per arrivare all'efficienza di una 1080 DEFAULT devi portare il chip di Vega a 150W.
Capisci che è un confronto Ponziponzibonbonbon (ti piace vincere facile?)
Se porti una 1080TI a 150W la fine della barra non la vedi. ;)

Eppure in queste condizioni di estremo vantaggio Vega64 a malapena raggiunge l'efficienza di una 1080 (ovviamente con performance da 1070 o meno)


EDIT: sto dando per scontato che si sappia la regola che segue: a parità di architettura, il chip più grosso downcloccato sarà SEMPRE più efficiente di quello piccolo a default, a parità di prestazioni.

AceGranger
12-09-2018, 16:38
PODERE ILLIMITATO

Scusate :asd: :asd:


nVidia è ricca ha molti terreni :asd:



Comunque per ricollegarmi a quello che hai scritto prima, qui son 2 anni che dite "in amd devono fare l'architettura gaming per i giochi di oggi" e ora si scopre che sono i giochi a dover seguire l'architettura gaming nella connotazione gaming propria della gpu, qualquadra non cosa

son 2 anni che si dice che AMD deve fare un'architettura e bast, ma soprattutto deve smettere di rifilare lavoro extra non pagato agli sviluppatori :asd:

Quale review?
La nano è uguale alla vega 56 reference, che per inciso ha 210w di tdp, 25w più della 580 nitro andando però il 50% in più, scusa se è poco.

una figata proprio :asd:

Gyammy85
12-09-2018, 16:42
Quella slide me la ricordo benissimo. Per arrivare all'efficienza di una 1080 DEFAULT devi portare il chip di Vega a 150W.
Capisci che è un confronto Ponziponzibonbonbon (ti piace vincere facile?)
Se porti una 1080TI a 150W la fine della barra non la vedi. ;)

Eppure in queste condizioni di estremo vantaggio Vega64 a malapena raggiunge l'efficienza di una 1080 (ovviamente con performance da 1070 o meno)

La slide era che a 150w aveva le stesse prestazioni della 1080 a 150w, col perlin noise, quindi si, ha efficienza molto superiore alle altre amd e paragonabile a pascal, punto.

Gyammy85
12-09-2018, 16:45
una figata proprio :asd:

Eh si, considerando che la 580 batte del 15% medio in 25 giochi su 30 la 1060

AceGranger
12-09-2018, 16:48
Eh si, considerando che la 580 batte del 15% medio in 25 giochi su 30 la 1060


https://www.techpowerup.com/reviews/MSI/RX_580_Mech_2/31.html

ma se sta avanti dal 3% al 6 %, media 4,5 % :asd:

ah gia, dobbiamo levare tutti gli UE4, poi andiamo a grattare il deep web in cerca del B-game con il suo motore non usato da nessuno altro dove la AMD fa 2 fps in piu.

e ci mancava pure che una GPU da 185W non battesse una GPU da 120 W

la 1070 sono 150W e la 1080 180W :asd:

The_SaN
12-09-2018, 16:49
La slide era che a 150w aveva le stesse prestazioni della 1080 a 150w, col perlin noise, quindi si, ha efficienza molto superiore alle altre amd e paragonabile a pascal, punto.

Direi di no

https://www.techpowerup.com/reviews/AMD/Vega_Microarchitecture_Technical_Overview/images/arch-38.jpg

Gyammy85
12-09-2018, 16:51
ci mancava pure che una GPU da 185W non battesse una GPU da 120 W :asd:

la 1070 sono 150W e la 1080 180W :asd:

E vabbè dai, mi sa che ti ho dato corda anche troppo, passo e chiudo :O

Direi di no

https://www.techpowerup.com/forums/proxy.php?image=http%3A%2F%2Fimg.techpowerup.org%2F170804%2Frx-vega-efficiency-150-220w.jpg&hash=13626a2889d29dd9af7c1e67c12311b7

Non riesco a vedere il link
Edit visto, vabbè ricordavo male, comunque la slide quello mostra. Non facciamo come quando uscì la slide dell'8x capacity stack e si trovarono migliaia di interpretazioni astrali sulla materia oscura dei raggi cosmici, quando in realtà significava semplicemente che ogni stack arrivava a 8 giga contro 1 giga della hbm 1...

The_SaN
12-09-2018, 16:54
E vabbè dai, mi sa che ti ho dato corda anche troppo, passo e chiudo :O



Non riesco a vedere il link

Aggiornato. Comunque cerco di riassumere:

Un chip da 510mmq e 150W dovrebbe SURCLASSARE in efficienza un chip da 314mmq a 180W.
Eppure non accade. Sarà l'architettura che magari non va bene?

The_SaN
12-09-2018, 16:56
Spente poi consumano uguali!

:asd:

Gyammy85
12-09-2018, 17:01
Aggiornato. Comunque cerco di riassumere:

Un chip da 510mmq e 150W dovrebbe SURCLASSARE in efficienza un chip da 314mmq a 180W.
Eppure non accade. Sarà l'architettura che magari non va bene?

Ma cosa significa, in opencl e calcolo puro pure una 580 riesce ad arrivare a volte alle performance della 1080, e allora? pascal fail?
Vogliamo parlare della 2080ti +35% sulla 1080ti? 2 anni dopo e miliardi di investimenti? Certo hanno tirato fuori la menata i tensor puliscono e gli rtx illuminano, tanto per deviare l'attenzione

bagnino89
12-09-2018, 17:20
Aggiornato. Comunque cerco di riassumere:

Un chip da 510mmq e 150W dovrebbe SURCLASSARE in efficienza un chip da 314mmq a 180W.
Eppure non accade. Sarà l'architettura che magari non va bene?Ma gli rispondi pure? Solo lui in tutti gli infiniti universi paralleli può dire che l'efficienza di Vega è paragonabile a quella di Pascal :asd:Spente poi consumano uguali!
:asd:

The_SaN
12-09-2018, 17:21
Ma cosa significa, in opencl e calcolo puro pure una 580 riesce ad arrivare a volte alle performance della 1080, e allora? pascal fail?
Vogliamo parlare della 2080ti +35% sulla 1080ti? 2 anni dopo e miliardi di investimenti? Certo hanno tirato fuori la menata i tensor puliscono e gli rtx illuminano, tanto per deviare l'attenzione

Dai Gyammy :asd:
Sono il primo a difendere AMD se c'è da farlo, ma in ambito efficienza è proprio impossibile :doh:

AceGranger
12-09-2018, 17:28
:rotfl: Un'altro paio di post e la 580 diventa la migliore GPU per supercomputer e downvoltata batte in fps la 2080Ti.

bagnino89
12-09-2018, 17:31
Oggi si sente particolarmente influencer, peccato che manco Lisa Su farebbe certe affermazioni :asd:

Free Gordon
12-09-2018, 18:01
https://wccftech.com/exclusive-amd-navi-gpu-roadmap-cost-zen/

Roadmap: AMD’s Navi 10 will arrive in late 2019 and will be the first non-GCN GPU, no Vega 7nm for gamers


speriamo sia vera sta cosa... :sperem:

Free Gordon
12-09-2018, 18:06
oh quando dicevo settembre/ottobre 2019 per navi non ero così pazzo allora...

sarebbe pazzia pura non far uscire nulla nel gaming... da quì a un anno... :mad: :mad: :mad:

Cmq
https://it.wikipedia.org/wiki/Segin

Navi è Segin

Il nabbo di turno
12-09-2018, 18:10
Vabbe', l'ha scritta wccftech, praticamente è il fatto che parla di tecnologia in inglese....

Gyammy85
12-09-2018, 18:12
Roadmap: AMD’s Navi 10 will arrive in late 2019 and will be the first non-GCN GPU, no Vega 7nm for gamers


speriamo sia vera sta cosa... :sperem:

oh quando dicevo settembre/ottobre 2019 per navi non ero così pazzo allora...

comunque incredibile, amd ha creduto così tanto in vega gaming che, nonostante abbiano pronta la versione a 7nm che a detta dei soliti ben informati "risolve tutti i problemi di vega e da un boost del 50% prestazionale", ha decisio di relegarla al pro e lasciare (se tutto confermato) 1 anno di scopertura...

sarebbe pazzia pura non far uscire nulla nel gaming... da quì a un anno... :mad: :mad: :mad:

Cmq
https://it.wikipedia.org/wiki/Segin

Navi è Segin

Sono tutte ipotesi basate su ipotesi quelle di wcctech, se sono in anticipo con vega 20 perché non anche con Navi? Poi se dicono che la ps5 uscirà nel 2020 come minimo un anno prima esce navi, ma minimo eh, pure la one x che è uscita ben dopo ryzen e vega è ancora basata su jaguar e polaris anche se potenziati.

AceGranger
12-09-2018, 19:16
Tralasciando il solito clima di bullismo nei confronti di Gyammy rendetevi conto di cosa avete scritto in queste pagine.


ognuno raccoglie cio che ha seminato :asd:

l'entita delle sue perle è tale da generare un gran numero di risposte.


Prima avete scritto che i game engine devono adattarsi all'architettura delle gpu, poi che amd deve cambiare la sua architettura per adattarla ai game engine.

Quindi quello che emerge è che i game engine sono adattati all'architettura nvidia perchè è quella più diffusa e amd potrebbe solo copiare l'architettura nvidia per adattarsi ma ovviamente non può per una serie di motivi.
Quindi hai voglia a dire che amd deve cambiare architettura, non arriverà mai ad avere l'architettura giusta perchè l'architettura giusta è quella nvidia.


i Game Engine, sin dall'alba dei tempi, si sono sempre adattati alle novita architetturali, ma quando le novita sono solo da una parte, o investi o gli sviluppatori non ti verranno mai dietro, specialmente quando hai il 35% del mercato, perchè a nessuno piace lavorare gratis....

La differenza fra nVidia e AMD è sempre stata quella che quando presentano qualche novita, una ci investe l'altra no, poi puo andare male comunque, ma di base AMD ci investe sempre poco un caz;
poi qua dentro si leggono solo lamenti degli sviluppatori brutti e cattivi anche quando poi si scopre che chi non ha fatto il lavoro è la stessa AMD... e poi ovviamente è sempre colpa di nVidia, come e nVidia, quando paga per lo sviluppo di un gioco dovesse pagare anche per far integrare le migliorie di AMD :rolleyes: .

T
Io penso che non sia tanto un problema di architettura, ma proprio come ha detto AceGranger di game engine adattati all'architettura nvidia e non amd.
Dopo tutto sulle console dove i game engine sono scritto per amd l'architettura amd da dei buoni risultati e come ha detto Gyammy in situazioni più neutre come calcoli puri e il mining anche.

Più che cambiare architettura amd dovrebbe lavorare per avere più attenzione da parte degli sviluppatori o almeno fare le due cose parallelamente.


dai su, tutti i vostri discorsi, alla fine, girano intorno all'Async, e l'Async a nVidia non serve.... è inutile giraci intorno, l'Async è stato sviluppato da AMD con MANTLE perchè serviva alla SUA architettura... nVidia ha puntato sulla SUA gestione software/driver di overhead e gestione pipeline e Turing seguira la stessa filosofia ma migliorata, potra gestire la singola istruzione e avra unita dedicate e parallele;

quindi c'è poco da stare qui a lamentarsi dell'Async e dei giochi "finti" DX12 solo perchè non hanno un Async efficace.... l'Async va programmato appositamente, ed è DIVERSO da quello delle console ( come d'altra parte anche MANTLE NON era compatibile con le console ) e uno sviluppatore lo deve fare per il 35% del mercato, quindi o AMD impara a sganciare il grano, o tutte le sue cose finiranno sempre in merda, vedasi HSA e vedasi OpenCL dove ci ha messo 6 anni ad arrivare con un suo motore di render proprietario, ( e notare il tempismo perfetto quando nVidia arriva con unita accelerate in hardware :asd: )

quindi dovrebbe pure cambiare architettura e renderla concettualmente piu simile a quella nVidia; d'altra parte è gia andata male con le CPU, BD diverso da INtel = cagata, Ryzen simile a Intel = CPU che è pure migliore.

quando fai una cosa molto diversa devi essere pronto a spendere soldi seno tanto vale che non la fai.

Ton90maz
12-09-2018, 19:28
mentre le tue previsioni sulle performance delle rtx compresa la 2060, ti sono state direttamente dettate sul monte Sinai da un roveto ardente?



sul ritardo previsto?



e meno male, la ps4 pro butta le fiamme, la xbox one X pure ed ha una dissipazione pazzesca... accoppiare vega ad un jaguar sarebbe stato secondo me folle e sbilanciato, oltretutto un vega "così prestante" integrato in una apu.. boh, qua qualcuno più tecnico potrebbe dirmi se era fattibile all'epoca...perchè mi pare che ad oggi non ci sia una apu con una gpu potente quanto quella della one x, forse manco la ibrida intel/amd ci sta dietro, e non è una apu.

edit

tra l'altro infilare vega dentro una console non necessitava buttarci dentro per forza HBM? la one x ha 12gb di gddr5 unificate ..Ma intendi vega 64 (la baracca super) o in generale? Vega è un’architettura generica, sulla console cinese è abbinata a delle classiche gddr5 (e nelle apu desktop alle ddr4).

bagnino89
12-09-2018, 19:35
Hanno detto chiaramente che Navi è ancora monolitica, niente chippini con bus per ora anche se ci stanno pensando (così come Nvidia)

Vega però la montano sui mac pro.
A proposito non è paragonabile quanto rende una vega su windows e quando rende su mac?
Giusto per capire se in un ambiente che potrebbe essere stato più adattato cambia qualcosa.Apple ha mollato Nvidia solo per risparmiare soldi e aumentare i profitti. Non traggano alcun vantaggio nell'usare GPU AMD, anzi... Tutti i Mac user sì lamentano dell'assenza di Nvidia.

E vedrai che, appena sarà possibile, diranno ciao ad Intel anche per le CPU.

AceGranger
12-09-2018, 19:40
Apple ha mollato Nvidia solo per risparmiare soldi e aumentare i profitti. Non traggano alcun vantaggio nell'usare GPU AMD, anzi... Tutti i Mac user sì lamentano dell'assenza di Nvidia.

E vedrai che, appena sarà possibile, diranno ciao ad Intel anche per le CPU.

Apple ha mollato nVidia perchè vuole il controllo totale sui suoi prodotti/software e con nVidia non sarebbe stato possibile.

Windtears
12-09-2018, 19:51
In un modo o in un altro, che sia windows o che sia mac, AMD è la causa maggiore delle lamentele sulla mancanza di concorrenza :asd:

/Sarcasm
esatto, per tutto il resto c'è gpp. :asd: :sofico:

Ale55andr0
12-09-2018, 20:10
Roadmap: AMD’s Navi 10 will arrive in late 2019 and will be the first non-GCN GPU, no Vega 7nm for gamers


speriamo sia vera sta cosa... :sperem:

minkia, era ora, del resto pure la ferrari ha finalmente droppato la zavorra raikkonen :sofico:

Gyammy85
12-09-2018, 20:23
Apple ha mollato Nvidia solo per risparmiare soldi e aumentare i profitti. Non traggano alcun vantaggio nell'usare GPU AMD, anzi... Tutti i Mac user sì lamentano dell'assenza di Nvidia.

E vedrai che, appena sarà possibile, diranno ciao ad Intel anche per le CPU.

Si si, solo per risparmiare, ma le hbm2 non costavano quanto una casa?
Si guarda si lamentano dell'assenza di nvidia, ma sanno cos'è la scheda video? :asd: i mac user :sofico:

Vabbè si risolve facile basta metterci i marchietti intel+nvidia FTW it's gheiming troll different e il gioco è fatto, non fare così :ahahah:

Certi post sarebbero da incorniciare

bagnino89
12-09-2018, 20:33
Si si, solo per risparmiare, ma le hbm2 non costavano quanto una casa?
Si guarda si lamentano dell'assenza di nvidia, ma sanno cos'è la scheda video? :asd: i mac user :sofico:

Vabbè si risolve facile basta metterci i marchietti intel+nvidia FTW it's gheiming troll different e il gioco è fatto, non fare così :ahahah:

Certi post sarebbero da incorniciare

Le HBM2 costano ad AMD, mica ad Apple... Forse tu non lo sai ma Apple fa i prezzi con i fornitori, non il contrario.

Il fatto è che tutti si lamentano - cito un sito a caso, Saggiamente, dove la critica alle GPU AMD è una costante fissa di redattori ed utenti - ma poi li comprano lo stesso i Mac, quindi... Chi glielo fa fare ad Apple a sottostare a prezzi/politiche Nvidia?

Certi tuoi post sarebbero veramente da incorniciare, l'unico al mondo - insieme a lucusta dai, grande amicone :asd: - a dire che Vega è efficiente come Pascal LOL

Gyammy85
12-09-2018, 20:37
Le HBM2 costano ad AMD, mica ad Apple... Forse tu non lo sai ma Apple fa i prezzi con i fornitori, non il contrario.

Il fatto è che tutti si lamentano - cito un sito a caso, Saggiamente, dove la critica alle GPU AMD è una costante fissa di redattori ed utenti - ma poi li comprano lo stesso i Mac, quindi... Chi glielo fa fare ad Apple a sottostare a prezzi/politiche Nvidia?

Certi tuoi post sarebbero veramente da incorniciare, l'unico al mondo - insieme a lucusta dai, grande amicone :asd: - a dire che Vega è efficiente come Pascal LOL

Ma dai non puoi parlare sul serio, non ci credo, cioè secondo te si lamentano per un motivo reale o perché gli youtuber channo la 1080? :asd:
Dai su...

bagnino89
12-09-2018, 20:45
Ma dai non puoi parlare sul serio, non ci credo, cioè secondo te si lamentano per un motivo reale o perché gli youtuber channo la 1080? :asd:
Dai su...Assenza di CUDA principalmente, ed efficienza peggiore (già, perché Vega e Polaris non sono efficienti come Pascal).

Fatti un giro sulle recensioni dei Mac e poi mi dici se è vero o no.

PS. Su siti come Saggiamente non postano bimbiminchia, in genere.

Gyammy85
12-09-2018, 20:50
Assenza di CUDA principalmente, ed efficienza peggiore (già, perché Vega e Polaris non sono efficienti come Pascal).

Fatti un giro sulle recensioni dei Mac e poi mi dici se è vero o no.

PS. Su siti come Saggiamente non postano bimbiminchia, in genere.

Pensa cosa succedrà quando l'utenza scoprirà che le console hanno quei fornetti delle amd, mentre la switch nientemeno che il tigre...altro che "gioca sulla console più potente del mondo" :asd:

AceGranger
12-09-2018, 20:53
Pensa cosa succedrà quando l'utenza scoprirà che le console hanno quei fornetti delle amd, mentre la switch nientemeno che il tigre...

credo se ne siano accorti sin da subito una volta visto che non riuscivano a giocare in FHD :sofico: almeno la switch ha la scusa che è portatile e ha un SOC mobile :asd:

Gyammy85
12-09-2018, 20:55
credo se ne siano accorti sin da subito una volta visto che non riuscivano a giocare in FHD :sofico: almeno la switch ha la scusa che è portatile :asd:

E niente, se non mettono mano al portafoglio sarà sempre peggio.

Vi saluto, vedo se riesco ad avviare qualche gioco, notte notte :ronf:

bagnino89
12-09-2018, 21:02
Pensa cosa succedrà quando l'utenza scoprirà che le console hanno quei fornetti delle amd, mentre la switch nientemeno che il tigre...altro che "gioca sulla console più potente del mondo" :asd:

Nel mondo delle console, l'utenza media non sa manco cosa sia un SOC... Ma fidati che chi lo sa non fa che insultare quello schifo di Jaguar che ci hanno messo - per inciso, ci sono svariati test che mostrano che sia Pro che One X in molti casi hanno la CPU che fa da collo di bottiglia alla GPU.

bagnino89
12-09-2018, 21:15
Beh questa non è colpa di AMD, passi per la ps4 e la xbox1 quando o jaguar o bulldozer, ma per ps4pro e xbox1x c'era già ryzen e non credo che sia stata una scelta di AMD non mettercelo.
Probabilmente ci sarebbe stato troppo da cambiare lato software.

Sì, infatti non parlavo per accusare AMD, ma per far notare a Gyammy che non è tutto oro quello che di AMD luccica. :D

Sicuramente è vero quello che dici, ma la verità è anche che Jaguar lo pagano due lire.

Comunque se Navi è pensata in collaborazione con Sony per la PS5 spero sia la volta buona che portino il checkerboard rendering anche su pc.

Non saprei Navi, ma già passare da Jaguar a Ryzen per le scatolette sarebbe un salto di qualità enorme.

Ale55andr0
12-09-2018, 21:20
Beh questa non è colpa di AMD, passi per la ps4 e la xbox1 quando o jaguar o bulldozer, ma per ps4pro e xbox1x c'era già ryzen e non credo che sia stata una scelta di AMD non mettercelo.
Probabilmente ci sarebbe stato troppo da cambiare lato software.

cambiare cosa che è e resta una cpu x86? all'epoca si lavora su power pc + cell + cpu x86 per i multipiatta, ora cosa vuoi che sia passare da jaguar a ryzen quando in una console teoricamente ci faresti pure girare windows? :D su jaguar come su ryzen e viceversa ci fai girare la stessa roba se vuoi, con le ovvie differenze prestazionali. La sola motivazione logica è che essendo anche passato un amen fra le scatolette base e la versione upgradata usare una cpu diversa significava riprogettarle da 0, sia se si fosse trattato di un soc, che di una soluzione con cpu e gpu discrete, in entrambi i casi con costi folli visto che sarebbero state modifiche pesanti ognuna a modo loro

wulff73
12-09-2018, 21:24
Comunque se Navi è pensata in collaborazione con Sony per la PS5 spero sia la volta buona che portino il checkerboard rendering anche su pc.

Ho visto le comparazioni tra risoluzioni native e checkboard...la differenza c'è e si vede. Non sono sicuro che gli upscaler siano una cosa buona nel mondo PC.

ilcose
12-09-2018, 21:30
Ho visto le comparazioni tra risoluzioni native e checkboard...la differenza c'è e si vede. Non sono sicuro che gli upscaler siano una cosa buona nel mondo PC.



Hai qualche link di qualche comparazione ben fatta che sono curioso?


Inviato dal mio iPad utilizzando Tapatalk

wulff73
12-09-2018, 21:31
Hai qualche link di qualche comparazione ben fatta che sono curioso?


Inviato dal mio iPad utilizzando Tapatalk

https://www.youtube.com/watch?v=wSpHONwyBqg

ilcose
12-09-2018, 22:01
https://www.youtube.com/watch?v=wSpHONwyBqg



Grazie!


Inviato dal mio iPad utilizzando Tapatalk

Windtears
12-09-2018, 22:37
https://www.youtube.com/watch?v=wSpHONwyBqg

nel video il tipo pare voler proprio che i dev e amd-nvidia supportino in massa sia il checkboard che le res ibride come il 1800p (e scaler interni ai giochi), ovviamente penso sia un controsenso se vogliono vendere fasce superiori di gpu e anche perché i monitor 4k per gaming non sono ancora così diffusi tra la massa...

FroZen
13-09-2018, 08:11
Non ho mai detto che non ci sia differenza, però è una soluzione molto utile per tanti motivi.
Per esempio risolve i problemi di risoluzione non nativa: con uno schermo 4k si potrebbe scegliere di giocare in 4k nativo, in 1080p che scala senza distorsioni o in 4k checkerboard che pesa circa come il 1440p ma non è distorsioni.
In questo modo con uno schermo 4k si possono scegliere liberamente 3 risoluzioni in base a quanto pesa il gioco.

Questo è un altro link molto interessante:
http://aquariusforte.blogspot.com/2016/12/ps4-pro-4k-checkerboard-interpolation.html

https://1.bp.blogspot.com/-4H2nfUtKug4/WF181PKwtkI/AAAAAAAAArg/gfyhQSTE-UEg9kW2gFU-O5BqCd9_0kOdACEw/s1600/1080p_4k_comparison_2.png

Come vedete il 4k checkerboard con questo sistema non è certo a livello del 4k nativo ma è decisamente meglio del fullhd e del fullhd upscalato.
Guardate che il DLSS di Nvidia fa più o meno la stessa cosa ma in modo differente, presenta dei pro (probabilmente una qualità maggiore) e dei contro (applicabile solo nei giochi per cui è addestrato).

Io da utilizzatore della fascia media sarei entusiasta di poter giocare in 4k checkerboard al costo prestazionale del 1440p.

macheccefregadelcheckerboard, c'avemoiraggidigundam :O

https://preview.ibb.co/gv8rCe/mwsvu1ulxoh11.jpg (https://ibb.co/eNXJse)

AceGranger
13-09-2018, 08:22
Tesla T4, architettura Turing anche per il deep learning (https://www.tomshw.it/tesla-t4-architettura-turing-anche-il-deep-learning-97499)

Monta TU104 :asd:

fai finta di non capire quello che ho scritto ? non è il nuovo chip che sostituisce il GV100;

è una variante di Tesla come ne esistono anche con i chip Pascal, che appunto va a sostituire, la P4.

AceGranger
13-09-2018, 08:41
Ah capisco, è una tesla ma non è "AceGranger approved" quindi non conta. :asd:


direi di no :asd:

Gyammy85
13-09-2018, 08:44
Ah capisco, è una tesla ma non è "AceGranger approved" quindi non conta. :asd:

Devi capire che è un duro colpo per loro ammettere che a sto giro nvidia sta vendendo una gpu computing per il gaming, come ha fatto amd l'anno scorso.

Comunque suggerirei di limitare gli ot, cerchiamo di rimanere in tema, che il placement della lineup quadro tesla turing non c'entra proprio niente (non è rivolto a te)

AceGranger
13-09-2018, 08:52
Devi capire che è un duro colpo per loro ammettere che a sto giro nvidia sta vendendo una gpu computing per il gaming, come ha fatto amd l'anno scorso.

Comunque suggerirei di limitare gli ot, cerchiamo di rimanere in tema, che il placement della lineup quadro tesla turing non c'entra proprio niente (non è rivolto a te)

ah perchè VEGA sarebbe stata una GPU computing, senza manco l'FP 64; hanno proprio capito tutto in AMD :asd:
:rotfl::rotfl::rotfl::rotfl::rotfl::rotfl::rotfl::rotfl::rotfl:


Certo che l'ho capito benissimo, nonostante qualcuno dica il contrario :asd:


sisssi, avete capito proprio benissimo :asd:

https://www.nextplatform.com/2018/09/12/nvidia-takes-on-the-inference-hordes-with-turing-gpus/
"The GT104 chip has dedicated RT cores to perform ray tracing, which are not interesting when it comes to inference, even if the converse – the inference engines are useful for ray tracing – is true."

https://news.developer.nvidia.com/nvidia-dgx-2-server-and-new-tesla-t4-set-image-recognition-records-for-training-and-inference/?ncid=-wnnc-58464
https://www.nvidia.com/en-us/data-center/tesla-t4/?ncid=so-twi-58358

una Tesla pensata per sfruttare solo la nuova parte Tensor per inferenza fino a INT4 con la parte RT inutilizzata che non viene nemmeno menzionata nelle caratteristiche della GPU :asd:




Ovviamente io che scrivo in entrambi sono fanboy di uno o dell'altra a seconda se una novità mi piace, non mi piace o semplicemente ho qualche dubbio :asd:

stranamente pero di nVidia non ti piace mai nulla :asd:

obbiettivita gyammy style :asd:

Gyammy85
13-09-2018, 08:54
Certo che l'ho capito benissimo, nonostante qualcuno dica il contrario :asd:

In teoria parlare delle novità sia AMD che Nvidia non dovrebbe essere OT perchè le novità di un brand influenzano per forza le novità dell'altro.
Cioè se Nvidia fa una cosa e lecito pensare che AMD potrebbe fare qualcosa per rispondere.

In realtà ci vorrebbe un unico thread "aspettando le nuove GPU" perchè è un argomento unico, la divisione serve per le tifoserie.
Ovviamente io che scrivo in entrambi sono fanboy di uno o dell'altra a seconda se una novità mi piace, non mi piace o semplicemente ho qualche dubbio :asd:

Si ok qualche volta ci sta, ma ogni due per tre "ma il mercato usa cuda e la gente vuole cuda schede inutili tutte le pro amd, tutte le gaming pure perché non hanno gli rt, gyammy visionario" non è il massimo, dato che esistono anche i thread nvidia uno se è interessato approfondisce lì, qui limitiamoci a trovare spunti di discussione sulle prossime amd

Io dico 8000 sp per le nuove, shaderripper (ho trovato pure il nome) :O

Sarebbe bello riuscire ad interpretare gpuopen per i driver e capire dalle stringhe cosa c'è di nuovo con gfx10

Roland74Fun
13-09-2018, 10:12
macheccefregadelcheckerboard, c'avemoiraggidigundam...

Ho provato ad impostare come consigliato nel video, ma non noto differenze. Generalmente uso l'upscaling quando l'AA è troppo pesante o blurra tutto. L'altro giorno ho visto un fantastico Tav LG 43' 4K IPS HDR a 359 euro... stavo per portarmelo a casa... Sognavo già che me lo sarei messo in soggiorno e ci avrei collegato il PC con Assassin 's Creed e Tomb Raider, Gittià..... Meno male che mia mi a moglie mi ha minacciato.... :D :D

AceGranger
13-09-2018, 10:28
Perché il computing è solo FP64. Certo, lo ha detto la marmotta?

ti pare che abbia scritto quello ?

che Vega sia stata una GPU Progettata per il computing e portata nel gaming fa ridere; equivale a dire che GP104 sia un chip Computing Portato nel Gaming :asd: perchè attenzione attenzione, c'è la tesla P4...
dire che un chip sia pensato espressamente è diverso dal dire che puo fare anche quello... e VEGA sicuramente non è un chip pensato per il computing; lo avevano persino scritto quelli di Bits and Chip, e ho detto tutto.

https://twitter.com/bitsandchipseng/status/877972194755837952
"Forget about VEGA in Enterprise market."

Turing non è nato espressamente per il mercato Pro, e quella Tesla T4 è probabile che abbia gli RT core disabilitati, visto che nVidia manco li menziona fra le caratteristiche.

solo qua dentro si leggono minchiate di questa entita :asd:

Ale55andr0
13-09-2018, 10:28
Io sapevo che le console assegnano i core jaguar per precisi compiti, già non aver più 8 core ma magari 4 richiede di cambiare questo paradigma e compromette la compatibilità che attualmente c'è tra ps4 e ps4pro per esempio.

ma i compiti specifici li assegni anche col ryzen, non vedo chissà quale difficoltà, non sono due processori che "parlano lingue diverse", anche se ovviamente per estrarre il potenziale poi ottimizzi nello specifico, ma lato compatibilità vedo 0 problemi o poco più. Cmq considerando che un 1700 liscio a 14 nani tiene tutti e 8 core a 3.2ghz effettivi di default, anche se ne dichiara meno, e questo con appena 65w di tdp, credo proprio che con i 7nm non avranno il benchè minimo problema ed anzi sicuramente monteranno un octa core ryzen sulla prossima generazione... e imho con frequenza comunque non inferiore ai 3ghz....starebbero sempre tranquillamente sotto 50w di tdp e, mantenendo i consumi della generazione attuale avrebbero margine per una gpu da 150w di tdp che con 7 nm, che sia apu o meno, permettono di fare tanta roba uguale per una console....

Ale55andr0
13-09-2018, 10:31
ah perchè VEGA sarebbe stata una GPU computing, senza manco l'FP 64; hanno proprio capito tutto in AMD :asd:
:rotfl::rotfl::rotfl::rotfl::rotfl::rotfl::rotfl::rotfl::rotfl:




se pozzo..te però te la sei comprata la vega :Prrr: (si, e io una verde, lo so :asd:)

Ale55andr0
13-09-2018, 10:33
Non parlare di mogli che sono riuscito abilmente a informarla della spesa per la nuova scheda video nell'unico momento della giornata in cui non era incazzata come una biscia :asd:

perchè informarla scusa? ste cose si fanno a tradimento e nascondendo gli imballi :asd: :read:

Ale55andr0
13-09-2018, 10:34
Assegnare compiti specifici a 4 core invece che a 8 è una bella differenza, significa che tutti i giochi che hai sviluppato fino ad oggi vanno modificati.
Magari è una modifica semplice ma va fatta, se ne tieni 8 no.

Altrimenti perchè tenere 8 jaguar quando potevano mettere 4 ryzen?

come dicevo sopra, non credo proprio che sarà un quad core, ci scommetto il tuo stipendio :O


EDIT: perchè noncore 4 ryzen? come detto, perchè dovevi riprogettare una intera apu, non è che sono due lego che li metti insieme ed hai finito, non era proprio conveniente sia per costi che per tempistiche, era und mid gen e non aveva senso fare altrimenti

AceGranger
13-09-2018, 10:36
se pozzo..te però te la sei comprata la vega :Prrr: (si, e io una verde, lo so :asd:)

per favore, non ricordarmelo :cry:
Hai scritto che senza FP64 non può essere una GPU computing. CHe è una boiata.

ho editato mentre scrivevi, riporto qui:

non ho scritto quello.

che Vega sia stata una GPU Progettata per il computing e portata nel gaming fa ridere; equivale a dire che GP104 sia un chip Computing Portato nel Gaming :asd: perchè attenzione attenzione, c'è la tesla P4...
dire che un chip sia pensato espressamente per un ambito è diverso dal dire che puo fare anche quello... e VEGA sicuramente non è un chip pensato per il computing; lo avevano persino scritto quelli di Bits and Chip, e ho detto tutto.

https://twitter.com/bitsandchipseng/status/877972194755837952
"Forget about VEGA in Enterprise market."

Turing non è nato espressamente per il mercato Pro, come non lo era Pascal nelle declinazioni dal GP102 a scendere, e quella Tesla T4 è probabile che abbia gli RT core disabilitati, visto che nVidia manco li menziona fra le caratteristiche.

solo qua dentro si leggono minchiate di questa entita :asd:

FroZen
13-09-2018, 10:44
Ma che ce frega di pro semipro ultrapro ......... e sticazzi non ce li mettete? :muro:

Nvidia ha vinto, ok? Contenti? Durerà più dell'impero romano e il suo regno non avrà fine, amen.

Bene, andiamo avanti.

p.s: magari sarebbe meglio iniziare a segnalare come si fa nei thread verdi, che dite? avete la maturità per evitarlo?

magnusll
13-09-2018, 11:07
Nvidia ha vinto, ok? Contenti? Durerà più dell'impero romano e il suo regno non avrà fine, amen.


No che non so' contenti, perche' cosi' nVidia li munge sempre peggio a ogni nuova generazione; i reni so' solo due e uno ti serve per forza :asd:

Gyammy85
13-09-2018, 11:09
No che non so' contenti, perche' cosi' nVidia li munge sempre peggio a ogni nuova generazione; i reni so' solo due e uno ti serve per forza :asd:

Non son contenti? e tutti i preorder? pure a sto giro tutti fan di amd delusi?

magnusll
13-09-2018, 11:12
Non son contenti? e tutti i preorder? pure a sto giro tutti fan di amd delusi?

Non hai capito... si lagnano di AMD perche' cosi' nVidia gli costa di piu'.

Gyammy85
13-09-2018, 11:16
Non hai capito... si lagnano di AMD perche' cosi' nVidia gli costa di piu'.

Vogliono spendere di più :O

Lagnarsi di amd è un pò come lagnarsi di microsoft, è un atto dovuto, ti fa sembrare skillato :asd:

bagnino89
13-09-2018, 11:23
E poi devo solo informarla, che le piaccia o no frega poco, non sono mica come qualche mio amico che non ha il permesso di portare fuori casa la carta di credito :asd:

:asd:

FroZen
13-09-2018, 11:27
È perfetto così, sono felici di dare 1500€ a Nvidia scaricando la colpa su AMD :asd:

Non solo

se arriverà mai sta cacchio di top navi non chiederanno meno di 800€ per metterla all'intorno della 2080 (sto tenendo basse le aspettative, troppe bruciature passsate :asd: )

d'altronde, le aziende non sono una onlus (cit.)

Il die sarà magari più piccolo ma essendo @7nm sarà comunque costoso forse anche rispetto al megadie@12nm di nvidia..... detto che la gpu è forse l'elemento meno costoso nella bom di una vga (includendo supporto, mazzette agli svil....ehm, formazione professionale di terzi, etc)

Gyammy85
13-09-2018, 11:40
Non solo

se arriverà mai sta cacchio di top navi non chiederanno meno di 800€ per metterla all'intorno della 2080 (sto tenendo basse le aspettative, troppe bruciature passsate :asd: )

d'altronde, le aziende non sono una onlus (cit.)

Il die sarà magari più piccolo ma essendo @7nm sarà comunque costoso forse anche rispetto al megadie@12nm di nvidia..... detto che la gpu è forse l'elemento meno costoso nella bom di una vga (includendo supporto, mazzette agli svil....ehm, formazione professionale di terzi, etc)

Ma chi la comprerebbe mai a 800 euro, max e dico max cioè perf +20% su 2080ti "non sono disposto a pagare più di 500 euro per quelle performance" (semicit.), tanto ora esce nvidia coi 7 nm"

Roland74Fun
13-09-2018, 11:48
macheccefregadelcheckerboard, c'avemoiraggidigundam :O

https://preview.ibb.co/gv8rCe/mwsvu1ulxoh11.jpg (https://ibb.co/eNXJse)



https://i.redd.it/o47alekqroh11.jpg



https://img-9gag-fun.9cache.com/photo/ajEeVm0_700b.jpg

Ale55andr0
13-09-2018, 11:49
Tanto poi a fine mese controlla i movimenti sul conto.
E poi devo solo informarla, che le piaccia o no frega poco, non sono mica come qualche mio amico che non ha il permesso di portare fuori casa la carta di credito :asd:



Forse parliamo di due cose diverse, io parlavo di un ipotetica ps4pro o xbox1x con core ryzen.
Sarebbero stati 4 perchè una apu con 8 ryzen e gpu grossa sarebbe stata troppo grande.
Le prossime saranno sicuramente con ryzen 8 core perchè saranno a 7nm.

e io con la spiegazione del perchè non quad a quella mi riferivo, cioè fai una mid gen che è un banale upgrade e devi riprogettare per intero la apu, non aveva senso ne logisticamente ne economicamente...il discorso sull'octacore della next gen era per dire che comunque il problema non si sarebbe posto in toto nemmeno in futuro, ne per tipologia che è comunque x86, ne per il numero dei core, e quindi una ps5 xbox two ecc manterranno in toto la retro-compatibilità

Ale55andr0
13-09-2018, 11:54
segnalate alla polizia postale che sono usciti i primi bench not approved di shadow of tomb raiders dai russi. :asd:

adesso che le dx12 servono anche le pascal hanno big improvements, le teorie del gombloddo erano vere!!! :O

scusa ma paxwell non fa schifo in dx 12 aemmeddì botte di vino ecc? :D

Ale55andr0
13-09-2018, 12:00
preferisco con rtx off in questo caso :stordita:

Gyammy85
13-09-2018, 12:01
scusa ma paxwell non fa schifo in dx 12 aemmeddì botte di vino ecc? :D

Certo perché non c'è il minimo zampino di nvidia in quel codice no no :asd:

DX12 dure e pure come da sdk stile quantum break timespy, oh wait :asd:

Ale55andr0
13-09-2018, 12:04
Certo perché non c'è il minimo zampino di nvidia in quel codice no no :asd:

DX12 dure e pure come da sdk stile quantum break timespy, oh wait :asd:

se dx12 è l'anticristo di nvidia come più volte sottolineato qui non dovresti migliorare e basta, se migliori semplicemente vuol dire che come sempre, bisogna ottimizzare per sfruttarle le cose e finita li'

Ale55andr0
13-09-2018, 12:05
https://www.hwupgrade.it/forum/showpost.php?p=44411620&postcount=39187

bravissimo :O , ma solo gli idioti non cambiano idea :read: . E per giunta l'ho fatto pure sul discorso colori e rendering, in crescendo :read:

dovresti vedere come mi sta facendo sbavare AC origins in questi giorni con texture di una definizione allucinante, zero aliasing e colori spettacolari :sofico: anche il gioco per una volta non è male, anche se alla lunga ripetitivo come tutti gli open world

Ale55andr0
13-09-2018, 12:06
Ma mica le dx12 a pascal non servivano a niente? :wtf:

ma se in passato si è più volte discusso in merito :D

Roland74Fun
13-09-2018, 12:21
scusa ma paxwell non fa schifo in dx 12 aemmeddì botte di vino ecc? :D

Ma mica le dx12 a pascal non servivano a niente? :wtf:

Certo perché non c'è il minimo zampino di nvidia in quel codice no no :asd:

DX12 dure e pure come da sdk stile quantum break timespy, oh wait :asd:

se dx12 è l'anticristo di nvidia come più volte sottolineato qui non dovresti migliorare e basta, se migliori semplicemente vuol dire che come sempre, bisogna ottimizzare per sfruttarle le cose e finita li'

ma se in passato si è più volte discusso in merito :D

Secondo me le dx12 andavano male su nVidia per colpa di AMD che le azzoppavah volontariamentehhh!

Aiutoooo, ma bastaa sempre gli stessi sterili discorsi... ma pensate ad accattarvi il gioco che secondo me è bellissimo.

Andrà bene come deve andare in ogni scheda ed al limite se è un po pesante si toglie qualcosa di inutile... tipo "Seni ballonzolanti OFF" ecc.... :muro: :muro:

Free Gordon
13-09-2018, 12:43
Non saprei Navi, ma già passare da Jaguar a Ryzen per le scatolette sarebbe un salto di qualità enorme.

Non credo così tanto sai..
Su console targettano i 30fps (la maggioranza). :)

Free Gordon
13-09-2018, 12:48
Ma che ce frega di pro semipro ultrapro ......... e sticazzi non ce li mettete? :muro:
Nvidia ha vinto, ok? Contenti? Durerà più dell'impero romano e il suo regno non avrà fine, amen.
Bene, andiamo avanti.


:cincin:

sgrinfia
13-09-2018, 13:12
L'uomo forte soffre senza lagnarsi, l'uomo debole si lagna senza soffrire.“

The_SaN
13-09-2018, 13:17
Scusa però io vorrei capire esattamente qual'è il tuo pensiero.

Cioè cosa comporta secondo te il fatto che in shadow of the tomb raider per la prima volta (credo) le nvidia (pascal) mostrano un deciso incremento di prestazioni passando da dx11 a dx12?

GOMBLODDO :O
Gli Async come le scie chimiche

Einhander
13-09-2018, 13:42
Regà....

EMMOBBASTADAI!!

Non se ne puo' piu'!

:muro: :muro:

Roland74Fun
13-09-2018, 13:48
Regà....

EMMOBBASTADAI!!

https://youtu.be/YMBrL96vKIE

bagnino89
13-09-2018, 13:55
Non credo così tanto sai..
Su console targettano i 30fps (la maggioranza). :)

Spero che le prossime console si pongano come obiettivo inalienabile i 60 FPS costanti, cribbio l'altro giorno ho visto TW3 sulla Pro di un mio amico e il framerate mi stava facendo girare la testa per il disagio... Per non parlare dei caricamenti dalla durata snervante :asd:

Ton90maz
13-09-2018, 14:50
segnalate alla polizia postale che sono usciti i primi bench not approved di shadow of tomb raiders dai russi. :asd:

adesso che le dx12 servono anche le pascal hanno big improvements, le teorie del gombloddo erano vere!!! :ODove? Non riesco a trovarli

e io con la spiegazione del perchè non quad a quella mi riferivo, cioè fai una mid gen che è un banale upgrade e devi riprogettare per intero la apu, non aveva senso ne logisticamente ne economicamente...il discorso sull'octacore della next gen era per dire che comunque il problema non si sarebbe posto in toto nemmeno in futuro, ne per tipologia che è comunque x86, ne per il numero dei core, e quindi una ps5 xbox two ecc manterranno in toto la retro-compatibilitàL'apu l'hanno riprogettata da zero comunque, specialmente Microsoft. A quanto pare la progettazione di un'apu è relativamente economica, si parla di qualche decina di milione (se le info sono giuste) per la console cinese con vega e ryzen. Io punto più che altro a questioni di tempo, priorità (il 4kakka!!!1 Per qualche ragione sinonimo naturale di grafikaaaa e putenzaaa tra i più rincoglioniti) ed eventualmente compatibilità.

Il problema delle console è che devono andare in 4K anche se non serve assolutamente ad un cavolo e questo perchè le tv le fanno 4K.
Per questo secondo me è più intelligente la scelta di Sony di usare il checkerboard rispetto a quella di MS di usare il 4K nativo.
Poi certo il consolaro dirà che il 4 cappa vero è meglio del 4 cappa cechir.. cegher... ciackerba... insomma finto :asd:
Più che scelta diciamo semplicemente necessità :asd:

Ale55andr0
13-09-2018, 15:16
Scusa però io vorrei capire esattamente qual'è il tuo pensiero.

Cioè cosa comporta secondo te il fatto che in shadow of the tomb raider per la prima volta (credo) le nvidia (pascal) mostrano un deciso incremento di prestazioni passando da dx11 a dx12?

cosa comporta? comporta che va meglio :asd:

se invece mi chiedi perchè...evidentemente in quel titolo, con quel motore sono riusciti a cavare fuori prestazioni migliori, o magari è proprio l'engine che da il meglio di se con quelle librerie a prescindere da nome e cognome della vga

Gyammy85
13-09-2018, 15:21
Vabbè dai per qualche mese sarà il bench di riferimento facciamocene una ragione

È uscita la demo di forza horizon 4

Ton90maz
13-09-2018, 15:45
https://s6.postimg.cc/92vjyltjl/screenshot_183.png
https://s6.postimg.cc/rig0w0utd/screenshot_184.png

https://gamegpu.com/action-/-fps-/-tps/shadow-of-the-tomb-raider-test-gpu-cpu

Qualcuno sostiene cose insostenibili tanto per il gusto di farlo, facendo finta che il grafico DX11 non mostri evidenti problemi. Pensa, ci sono degli scemi che hanno comprato una 1080Ti quando con una 1080 andavano uguale :asd:Thanks


Anche se non amo molto il sito, ho sempre il dubbio sulla veridicità dei loro millemila test

Andy1111
13-09-2018, 15:51
Cioè fatemi capire: pagine di gomblotti, faccine ghignanti e perculate per sta boiata di bench?

Dai smettetela con sto cavolo di sito russo, quando ci sono bench di siti seri ne riparliamo.

Io ho trovato qualcosa di più serio: https://www.computerbase.de/2018-09/shadow-of-the-tomb-raider-benchmark/2/#diagramm-sottr-mit-directx-11-vs-directx-12-3840-2160

Qui la 1080 e sottolineo solo la 1080 ha un incremento di prestazioni del 10% solo in fullhd, tutte le altre gpu e anche la 1080 ad altre risoluzioni che sia dx11 o dx12 non cambia nulla, anzi solitamente meglio dx11.
Questo parlando delle Nvidia, per le AMD invece non cambia nulla solo che invece di 1080 bisogna scrivere Vega.
Polaris che sia dx11 o dx12 frega nulla.

Questo mi fa pensare che in fullhd le dx12 non fanno altro che alleggerire un po' il peso sulla CPU e spremere qualche fps in più.

P.S: noto ora che Vega anche a 1440p ha un miglioramento dei minimi in dx12.

Scusa Bivoz sei sicuro di quello che dici? io vedo un altra situazione e mi riferisco a vega dx11 vs dx12

https://www.youtube.com/watch?v=G9YNqbmIYYI

FroZen
13-09-2018, 17:14
https://www.youtube.com/watch?v=nIoZB-cnjc0&feature=youtu.be

Interessante analisi (in teoria, in pratica non l'ho vista ancora eh) sulle differenze in DX11 della gestione driver nvidia/amd

Gyammy85
13-09-2018, 19:03
Si ragazzi però anche basta, cerchiamo di chiudere con gli ot...

Gyammy85
13-09-2018, 19:23
Questo thread chiusi tutti gli OT per i prossimi 6 mesi:

http://78.media.tumblr.com/tumblr_ltwsn1V55B1qi6ujuo1_500.gif

:asd:

:asd: vabbè dai si parlava bene anche prima, fra 90 88 92 96 navicu e il resto

sgrinfia
13-09-2018, 20:17
:asd: vabbè dai si parlava bene anche prima, fra 90 88 92 96 navicu e il resto

Se si chiudono tutti.....ma proprio tutti gli OT questo canale thread diventa noioso come quello di invidia.:D

Gyammy85
13-09-2018, 21:32
Sembra confermato pcie4 per navi e zen 2, primi ad adottarlo

https://www.pcgamesn.com/amd-navi-zen-2-pcie-4

ninja750
13-09-2018, 22:14
Quale review?
La nano è uguale alla vega 56 reference, che per inciso ha 210w di tdp, 25w più della 580 nitro andando però il 50% in più, scusa se è poco.

https://www.overclock3d.net/reviews/gpu_displays/powercolor_rx_vega_56_8gb_nano_edition_review/1

methis89
14-09-2018, 06:08
https://www.overclock3d.net/reviews/gpu_displays/powercolor_rx_vega_56_8gb_nano_edition_review/1Consumo totale del sistema, non della sola scheda

Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk

AceGranger
14-09-2018, 08:23
https://www.overclock3d.net/reviews/gpu_displays/powercolor_rx_vega_56_8gb_nano_edition_review/1

:asd:

bagnino89
14-09-2018, 08:36
https://www.overclock3d.net/reviews/gpu_displays/powercolor_rx_vega_56_8gb_nano_edition_review/1

Col profilo OC consuma 30 W in meno di uno SLI di 1080 :D

Gyammy85
14-09-2018, 08:42
Buongiorno eh :asd:

[Thread ufficiale] aspettando che ci arrivi la 2080ti divertiamoci un pò qui

:asd: :oink:

sniperspa
14-09-2018, 10:29
Ma scusate in undervolt consuma più che a default?!?!

Cosa non mi torna?:confused:

Gyammy85
14-09-2018, 10:33
Ma scusate in undervolt consuma meno che a default?!?!

Cosa non mi torna?:confused:

Eh?
mi sembra più che normale, se togli il voltaggio per forza di cose i consumi si abbassano (la potenza è il prodotto tra volt e ampere)

ninja750
14-09-2018, 10:38
Consumo totale del sistema, non della sola scheda

Inviato dal mio ONEPLUS A3003 utilizzando Tapatalk

vorrei ben vedere ci sarebbe da preoccuparsi 500w di sola vga :sofico:

Gyammy85
14-09-2018, 10:59
Grazie.



Prego.

Chiedo venia :(

Gyammy85
14-09-2018, 11:18
Vebbè io sono un elettronico, Gyammy è cartongessista :rotfl:

:asd: son analista aziendale e influencer a tempo perso
:ops2: :ops2: :ops2: :ops2:

Gyammy85
14-09-2018, 11:30
Ahhhh l'analista, quello che tiene una lista di buch................... :rotfl:

Non capisco :help: :help:

Einhander
14-09-2018, 11:49
Non capisco :help: :help:

Scomponi la parola e la verita' ti sara' rivelata :asd:

Gyammy85
14-09-2018, 11:54
Scomponi la parola e la verita' ti sara' rivelata :asd:

E niente l'ho capita ora...

Altra gaffe al contrario, mi autobanno.

sniperspa
14-09-2018, 13:40
Undervolt vuole dire che abbassi la tensione, quindi è normale che consumi di meno :)

Forse hai letto "undervolt" ma hai pensato "overvolt"?

Eh?
mi sembra più che normale, se togli il voltaggio per forza di cose i consumi si abbassano (la potenza è il prodotto tra volt e ampere)

Scusate ho corretto :doh:

Intendevo chiaramente dire il contrario....in undervolt da quel grafico consuma PIU' che a default :eek:

https://imgur.com/iBW1lfm.jpg

:wtf:

Ton90maz
14-09-2018, 13:59
Forse è undervolt ma con overclock e il power limit innalzato a valori centrale nucleare :oink:

sniperspa
14-09-2018, 14:30
Forse è undervolt ma con overclock e il power limit innalzato a valori centrale nucleare :oink:

Bè se fosse così, utile direi :doh:

Einhander
14-09-2018, 15:09
"quando ancora c'era qualcuno all'altezza di capirli, adesso mi sono adeguato al livello della frequentazione"

:asd:

"Cala cala Merrrlino!" (cit.)


:sofico: :sofico: :sofico:

ninja750
14-09-2018, 16:12
Scusate ho corretto :doh:

Intendevo chiaramente dire il contrario....in undervolt da quel grafico consuma PIU' che a default :eek:

:wtf:

in quei grafici la nano stock gira a 1415mhz/800, nel profilo undervolt a 1446/900, nel profilo OC a 1603/900

a far consumare di più sono le memorie

Gyammy85
14-09-2018, 21:36
Intervista al CFO di AMD sullo scheduling dei prodotti

https://www.reddit.com/r/Amd/comments/9frjoe/amd_cfo_devinder_kumar_on_7nm_products_schedule/

Conferma sostanzialmente la roadmap, prima vega 20, poi le cpu e un po' dopo le gpu consumer.

Gyammy85
14-09-2018, 21:38
AMD ha inviato altro codice per i driver su linux di vega 20

https://www.phoronix.com/scan.php?page=news_item&px=AMDKFD-Vega-20-Support

Free Gordon
14-09-2018, 23:02
Intervista al CFO di AMD sullo scheduling dei prodotti
https://www.reddit.com/r/Amd/comments/9frjoe/amd_cfo_devinder_kumar_on_7nm_products_schedule/
Conferma sostanzialmente la roadmap, prima vega 20, poi le cpu e un po' dopo le gpu consumer.


Apposto stiamo.....

Vega 20 Dicembre..

Ryzen 2 nel Q2...(non credo prima a questo punto)

Navi dal back to school in poi... :doh: (Settembre)

1 anno senza GPU gaming nuove. :sofico:

Roland74Fun
14-09-2018, 23:10
Apposto stiamo.....
........
1 anno senza GPU gaming nuove. :sofico:

Eccheccefrega tanto ora ci sono i mercatini tappezzati di super gtx a prezzi stracciati.
Quindi siamo in una botte di ferro.

D'altronde, se in AMD non hanno voglia di lavorare che si arrangino.

G80
15-09-2018, 01:13
Intervista al CFO di AMD sullo scheduling dei prodotti

https://www.reddit.com/r/Amd/comments/9frjoe/amd_cfo_devinder_kumar_on_7nm_products_schedule/

Conferma sostanzialmente la roadmap, prima vega 20, poi le cpu e un po' dopo le gpu consumer.

Ciao!
A questo punto però mi chiedo.....e per la fascia media?? Polaris 3?? Perchè nn mi sembra che Vega possa scalare verso il basso......o stanno con Paul:D aris 20??
:confused:

Gyammy85
15-09-2018, 07:06
Apposto stiamo.....

Vega 20 Dicembre..

Ryzen 2 nel Q2...(non credo prima a questo punto)

Navi dal back to school in poi... :doh: (Settembre)

1 anno senza GPU gaming nuove. :sofico:

E dove hai letto sta cosa?
Casomai indica che non hanno intoppi, poi se devono lanciare qualcosa in mezzo non lo dicono a bruciapelo, che se no nvidia fa la 2075++ chesioccaabestiaevapiùdella2080tiingiggia, dai, con nvidia in applezone meno si dice e meglio è.

Ciao!
A questo punto però mi chiedo.....e per la fascia media?? Polaris 3?? Perchè nn mi sembra che Vega possa scalare verso il basso......o stanno con Paul:D aris 20??
:confused:

Sembra non ci sia niente, ma non si può mai dire, tanto la 2060 non avrà rtx, polaris così com'è non ha da preoccuparsi (5 giga a soli 400 euro la 2060, che affare)

Gyammy85
15-09-2018, 08:24
Che ti avevo detto? :fagiano:

Gyammy tanto denigri l'rtx e poi la 2060 fa schifo perché non avrà l'rtx, sai già quanto va, quanta RAM e quanto costa!

Eh si in quell'articolo c'è scritto chiaro settembre al più presto :asd:

Eh si denigro, sono un hater, non posso comprarmi l'iphone e invece resto con android...oh wait ho sbagliato thread!! :asd:

Gyammy85
15-09-2018, 08:49
ecco vedi... poi l'indinniato/pentito critica solo i miei post per mancanza di intelligenza, come vedi mi adeguo soltanto :O

la 2060 non avendo l'rtx non sappiamo ne quanto va ne quanto costerà (non essendo probabilmente un chippone), stare li a cantar vittoria (poi di chissà quale premio) mi sembra inutile.

se la roadmap "dichiarata" è quella non è tanto difficile leggere tra le righe che navi arriverà verso settembre/ottobre, la speranza è che non sia così visto che questa potrebbe essere una ghiotta occasione per AMD di differenziarsi da nvidia e proporre schede uber in tutti i sensi come non si vedevano dai tempi della 9700 pro

E quanto dovrebbe costare sencondo te? Ora le 1060 cengono 300 euro, minimo 400, poi se pensi che quei 500 rt cores costino 1000 euro e il resto della scheda 300 è un altro discorso (poi fra 5 anni si scopre che tutte ste unità dedicate erano in realtà cuda cores con istruzioni diverse, ma poco importa ci saranno già le 9000 con pixel e vertex separati e rops e tmu saldate sulla scheda madre).
Per la roadmap, potrebbero benissimo presentare prima le cpu serve, poi ad aprile zen 2, e a giugno Navi, al ces diranno sicuramente qualcosa

Gyammy85
15-09-2018, 09:04
continui a sapere tutto è incredibile, dico mi dai un terno al lotto?

la serie gtx rimarrà a quanto pare ancora 1 anno a mercato, se la 2060 non si discosta in termini di features da pascal dovranno incastonarla per forza nell'attuale offerta in base alle prestazioni e magari ne faranno qualche derivata o uscirà qualche scheda in più (2060ti, versioni cut con meno ram e via dicendo) oltre che potrebbero riposizionare le 1050 (2050) e creare qualcosa di più in fascia bassa.

che gli rt core non sono altro che cuda travestiti, boh io non sono così tecnico come tutti qui dentro, mi limito solo a provare ad arrivarci per logica e onestamente anche questa mi pare una fesseria bella e buona.

Ahhhh ok si spiega tutto allora, ma proprio tutto, continuare a vendere roba di 3 anni prima e vendere la nuova ai più enthusiast fra gli enthusiast.
Di questo passo si arriverà a spendere per il pc esattamente l'equivalente dei 10 milioni che mio padre spese per il computer nel 1986.

The_SaN
15-09-2018, 09:10
Ahhhh ok si spiega tutto allora, ma proprio tutto, continuare a vendere roba di 3 anni prima e vendere la nuova ai più enthusiast fra gli enthusiast.
Di questo passo si arriverà a spendere per il pc esattamente l'equivalente dei 10 milioni che mio padre spese per il computer nel 1986.

Ecco, questa cosa l'ho fatta notare nell'altro thread e mi hanno dato del poveraccio :asd:
Praticamente hanno alzato (sensibilmente) il prezzo per fascia con la scusa dell'innovazione, anche se per anni la nuova serie ha sempre sostituito la vecchia ad un prezzo simile, com'è giusto che sia nel mondo della tecnologia.

Gyammy85
15-09-2018, 09:23
ho capito io che quando si tratta di amd e la fury tenuta due anni a mercato o hawaii rebrand (290 390) per anni a mercato è "rovere e botti di vino", mentre se nvidia a causa dell'rtx "esoso" in termini di performance e costo fa praticamente la stessa cosa, è robba vecchia di 3 anni.

se le vga le cambiano ogni anno sono pazzi, se le teniamo 2 anni di fila sono mexxe che ci vendono sempre le stesse cose...

hai un modo per tentare di girare la frittata così posticcio che la immagino spiaccicata sul tettto.

se vogliamo fare i seri, parliamo seriamente, se no a voglia di indinniarsi per commenti "poco intelligenti", se è questo quello che vuoi sarà quello che avrai... il buttarla in caciara tra hashtag, piagnistei, gombloddi, review che da approved diventano rejected è tua esclusiva prerogativa ed è tutto scritto, non una mia opinione.

ps.

toh, 10001 pure io.. coincidenze? io non credo

No no aspetta, io ho detto 3 anni riferendomi a pascal, non mi risulta che amd tenga in vendita la fury ora che c'è vega, questi qui invece ti vendono entrambe, tipo intel che ti tiene in vendita 3 serie in contemporanea, tanto dall'i3 7100 al 7980x cambia poco per l'utente, tanto è una garanzia.

Intel impara da nvidia e nvidia impara da intel, si salvi chi può

Gyammy85
15-09-2018, 09:49
allora andiamoci così

panni di nvidia

presento le rtx, costano un botto e le vendo altrettanto, l'rtx per ovvi motivi non posso darlo in fascia più bassa, la gente parla di continuare a comprare pascal sull'usato, vendo pascal sul nuovo e continuo a guadagnarci

panni degli utenti

amd non ha un caxxo ne oggi ne nell'immediato futuro in fascia 1080ti e per arrivare a superare mediamente la 1080 custom deve tirar fuori soluzioni costose e a liquido come la fury liquido. Se nvidia non lascia nulla in una fascia di prezzo abbordabile, o compro usato o compro amd. Tanto vale non è meglio avere pascal in mezzo e avere più scelta/concorrenza su fasce di prezzo abbordabili per entrambi i marchi?

non devo difendere nvidia ma la scelta di tenere pascal ancora in piedi PENSO che non possa far altro che piacere un pò a tutti, tanto gli altri, quelli che hanno già preordinato LORO MALGRADO E NONOSTANTE LE CRITICHE FEROCI uno sli di 2080ti, non gliene frega un caxxo del resto del mondo, cioè i barboni "under 700€ per giocare".

Il fatto che da qui ad un anno ci sarà ancora pascal mi rincuora sulla possibilità che forse una capatina su vega riuscirò a farla finalmente a prezzi "decenti". Ho preso la mia 1080 a 450€, non posso pensare di spendere 580€ per una vega air, ne tanto meno 650€ per una vega liquid. Ma se tra qualche mese spunta una vega air toh a 400€ (nuova o usata che sia) o qualche cosa di più per una liquid, il pensiero potrebbe concretizzarsi. E lo stesso discorso per nvidia ed una 1080ti usata anche lei a prezzi simil vega liquid. Un conto, penso per me e per molti, è giocare con la passione nell'ambito dei 500 euro, un conto è non aver scelta e o spendere troppo o non poter comprare nulla.

Eh bè è una necessità comprare lo sli di 2080ti, li capisco.

Per il resto, mi sembra che oggi sia meglio una vega 64 nitro a 580 che una 1080ti minimo a 800, o sbaglio? Anzi no, 900 per la 2080, che però ha gli rtx e l'aa via deep learning qualunque cosa voglia dire, strano che prima "eh no la grafica va fatta in maniera classica, vuoi aa? fallo con 700 tmu e 700 rops", boh, cambia tutto tutto cambia.

The_SaN
15-09-2018, 10:22
rispondi solo a quello che ti interessa e tenti al solito di sviare il discorso CHE TU hai tirato fuori.

chi ha detto che è meglio una 1080ti a 800 e non una vega nitro a 580? per me è meglio una 1080ti usata nei pressi dei 500/550 anche perchè vega nitro usate non se ne trovano. Una vega nitro per quanto mi riguarda* non può costare di più, a pari condizioni (nuovo/usato) di una buona custom 1080 liscia.

*leggi: opinione personale soggettiva

per quanto riguarda il deep learning ancora si sa poco. SE permette qualità simil 4k con performance simil 1080P, ti farebbe schifo? Stiamo parlando solo di performance, nessuna correlazione al prezzo che per me la pone come oggetto più che di lusso, di estremo capriccio.

Infatti a me più che il RT è il DLSS che potrebbe farmi vacillare nella decisione di prendere una 1080ti usata.
Se la qualità delle immagini è paragonabile, avremmo sicuramente una longevità della scheda molto maggiore con i nuovi giochi.

Mi piacerebbe che pure AMD facesse qualcosa del genere...altro che RT (che mi piace tantissimo, ma credo sia troppo presto)

G80
15-09-2018, 11:39
E dove hai letto sta cosa?
Casomai indica che non hanno intoppi, poi se devono lanciare qualcosa in mezzo non lo dicono a bruciapelo, che se no nvidia fa la 2075++ chesioccaabestiaevapiùdella2080tiingiggia, dai, con nvidia in applezone meno si dice e meglio è.



Sembra non ci sia niente, ma non si può mai dire, tanto la 2060 non avrà rtx, polaris così com'è non ha da preoccuparsi (5 giga a soli 400 euro la 2060, che affare)

Si potrebbero pure stare così in fascia media probabilmente hai ragione. E lo preferirei pure io così la mia RX 580 nn si svaluta troppo.....:)

Einhander
15-09-2018, 12:37
Su hw AMD gira già il checkerboard su ps4pro (e credo anche su xbox1x) probabilmente non è a livello del DLSS come qualità dell'immagine ma sarebbe già un'alternativa valida.
Cioè giocare 4k CB che pesa quanto un 1440p in termini di prestazioni e con una qualità che è una via d mezzo tra il 1440p e il 4k per me sarebbe ottimo.
Del resto questa descrizione dovrebbe valere anche per il DLSS, magari il DLSS si avvicina di più al 4k vero del 4k CB ma a me andrebbe bene uguale, sopratutto perchè il DLSS richiede una RTX per forza e costano tutte parecchio.

Comunque frega poco delle RTX, io ho sempre detto che acquisto vga nella fascia 200-300€.
Ora ho preso una GTX1070 usata a 300€ chi mi offre una scheda che va circa il 50% in più a max 300€ vince.
Poi mi piace discutere delle questioni tecniche, ma solo come spettatore :asd:

ti capisco eh, ho fatto la stessa cosa un anno e mezzo fa...presi una 980ti a 300 euro con ancora un anno di garanzia (msi OC) e sull'altro computer ho ancora la 7970 che fa egregiamente il suo lavoro (oh davvero botti di rovere :asd: ) pero' soprattutto in questi ultimi mesi sono passato ad usare quasi tutti render engine basati sulla gpu (redshift ed octane) e purtroppo lo stato attuale delle cose non mi permette di scegliere amd in quanto e' pesantemente limitata -se non assente- in questo campo.

Non ho intenzione di avere a casa un workstation totalmente dedicata alla creazione di contenuti visto che ancora mi piace giocare e soprattutto perche' ne abbiamo diverse in ufficio -tutte cpu threadripper 16/32 e 1080ti/quadro- perche' hanno il rapporto qualita' prezzo migliore, sempre in riferimento all'ambito pro..

SE e dico SE NAVI sara' quello che e' stato allora la 7970 ci spendero' volentieri piu' di 300 euro, altrimenti come e' stato per hawaii e per la 980ti il mio limite e' sempre 300/350 euro per quello che finisce dentro al mio case "at home".


Per quanto riguarda le nuove nvidia parlero' solo quando si avranno dati concreti per valutarne le prestazioni...dell' RT frega nulla, tanto piu' che le prime implementazioni sembrano veramente solo brochure pubblicitarie...

Vedremo

Gyammy85
15-09-2018, 14:19
https://www.phoronix.com/scan.php?page=news_item&px=AMD-ROCm-1.9-Released

Free Gordon
15-09-2018, 15:07
se la roadmap "dichiarata" è quella non è tanto difficile leggere tra le righe che navi arriverà verso settembre/ottobre, la speranza è che non sia così visto che questa potrebbe essere una ghiotta occasione per AMD di differenziarsi da nvidia e proporre schede uber in tutti i sensi come non si vedevano dai tempi della 9700 pro


Terribile questa "probabile" eventualità...

L'unica cosa buona di tutto questo ritardo sarebbe che, a rigor di logica date le tempistiche bibliche (ancora un anno senza nuove GPU gaming... :asd: ), Raja possa aver tirato fuori una nuova archi e magari pure coi controcaz.z.i... :oink: :oink: :oink:

Speriamo bene :sperem:

Therinai
15-09-2018, 15:57
Il pezzo di Magò con il fiore mi ricorda sempre mia moglie, dalle una pianta e muore in 2 giorni :asd:

Vabbuoò sono tornato a dare un occhiata al thread sperando ci fosse qualche novità e apprendo per per le nuove vga gaming c'è da aspettare fino a settembre 2019, a sto punto tanto vale andare un po OT: ma che problemi hanno le donne con le piante??? :confused:

Il nabbo di turno
15-09-2018, 16:26
Intervista al CFO di AMD sullo scheduling dei prodotti

https://www.reddit.com/r/Amd/comments/9frjoe/amd_cfo_devinder_kumar_on_7nm_products_schedule/

Conferma sostanzialmente la roadmap, prima vega 20, poi le cpu e un po' dopo le gpu consumer.

Polaris che copre buona parte della gamma anche nel 2019 sarebbe demenziale oltre ogni limite...

Si può amare amd quanto ti pare, ma se non fai una mazza nel mentre il mercato(giustamente) ti punisce.

Therinai
15-09-2018, 16:45
Mica ho parlato di "tutte le donne" solo di mia moglie che è una pianticida seriale :asd:

Purtroppo è una feature comune a molte donne, non solo a tua moglie :D

G80
15-09-2018, 17:07
Polaris che copre buona parte della gamma anche nel 2019 sarebbe demenziale oltre ogni limite...

Si può amare amd quanto ti pare, ma se non fai una mazza nel mentre il mercato(giustamente) ti punisce.

Infatti, mi chiedo pero se non esce Navi (che dicono sarà scalabile anche su fascia media ed entry level) che fanno una fascia media con Vega?? boh al momento sono parecchio confuso :confused:

Ton90maz
15-09-2018, 17:38
Sembra non ci sia niente, ma non si può mai dire, tanto la 2060 non avrà rtx, polaris così com'è non ha da preoccuparsi (5 giga a soli 400 euro la 2060, che affare)Aspè, siamo nel thread "azionisti AMD"?

A preoccuparmi sono io, che mi ritrovo ancora le schedine sushi a prezzi da spremitura della prostata.

Therinai
15-09-2018, 17:44
se apriamo un thread "donne che sterminano le piante" mi sa che ci ritroviamo tutti li dentro ad andare d'amore e d'accordo.... :asd:

Sicuro :asd:

Therinai
15-09-2018, 17:46
Aspè, siamo nel thread "azionisti AMD"?

A preoccuparmi sono io, che mi ritrovo ancora le schedine sushi a prezzi da spremitura della prostata.

L'azionista AMD se la cava anche senza nuove schede grafiche gaming, sono i videogiocatori a vederla un po' grigia :stordita:

Windtears
15-09-2018, 18:01
raga, ma giocare che è sabato? :asd:

Edit: non ha senso in un thread aspettando, quindi ho cancellato. :p

Therinai
15-09-2018, 18:06
raga, ma giocare che è sabato? :asd:

Edit: non ha senso in un thread aspettando, quindi ho cancellato. :p

Sto giocando infatti, e per una volta non devo neanche perdere tempo con i settaggi grafici :asd:

Ton90maz
15-09-2018, 18:34
L'azionista AMD se la cava anche senza nuove schede grafiche gaming, sono i videogiocatori a vederla un po' grigia :stordita:

Infatti c'è da correggere il titolo del topic, ne facciamo uno per i giocatori e uno per gli azionisti :asd:

Gyammy85
15-09-2018, 18:41
Comunque sembra che siano già in giro gli es di epyc 2, non è lontano il debutto.

Windtears
15-09-2018, 19:42
Sto giocando infatti, e per una volta non devo neanche perdere tempo con i settaggi grafici :asd:

idem, per essere una "semplice" 580 mi sto divertendo con rise of tomb raider (parola grossa, il gioco non è proprio il mio genere) ma a parte frtc a 60fps non ho impostato niente se non l'e-sync (e udite udite pare funzionare). :D

deadbeef
16-09-2018, 09:03
L'azionista AMD se la cava anche senza nuove schede grafiche gaming, sono i videogiocatori a vederla un po' grigia :stordita:

ricordiamo sempre con affetto gli azionisti presenti in questo thread

Gyammy85
16-09-2018, 10:19
ricordiamo sempre con affetto gli azionisti presenti in questo thread

Insomma, se amd nel giro di 6 mesi passa da 10 a 30 miliardi di capitalizzazione, una piccolissima ricaduta sui nuovi prodotti c'è...

Gyammy85
16-09-2018, 10:30
AMD sta crescendo grazie a Ryzen e le console, questo le da più soldi da investire in R&D ma deve investirli sicuramente nelle CPU perchè è quello il settore che sta tirando in casa AMD.
Per le GPU devi prima di tutto investire per metterle nelle APU delle console perchè quello è il secondo settore che tira.
GPU discrete viene come terzo e ultimo investimento e non sappiamo quando avrà finanziamenti a disposizione.
La fascia media viene quasi gratis perché va di pari passo con il punto due cioè le GPU che vanno nelle APU; Polaris è la stessa GPU che c'è nelle console, Navi sarà la stessa GPU che ci sarà nelle console di prossima generazione.
Se aspettate una fascia alta progettata ad hoc dovrete aspettare un bel po'.

Eh no le console le vende a gratis se no ms e sony comprerebbero le altre marche, non lo sapevi? :read: :O

Einhander
16-09-2018, 12:19
AMD sta crescendo grazie a Ryzen e le console, questo le da più soldi da investire in R&D ma deve investirli sicuramente nelle CPU perchè è quello il settore che sta tirando in casa AMD.
Per le GPU devi prima di tutto investire per metterle nelle APU delle console perchè quello è il secondo settore che tira.
GPU discrete viene come terzo e ultimo investimento e non sappiamo quando avrà finanziamenti a disposizione.
La fascia media viene quasi gratis perché va di pari passo con il punto due cioè le GPU che vanno nelle APU; Polaris è la stessa GPU che c'è nelle console, Navi sarà la stessa GPU che ci sarà nelle console di prossima generazione.
Se aspettate una fascia alta progettata ad hoc dovrete aspettare un bel po'.

Parli con la mia bocca figliuolo, ma io credo che se amd tirasse fuori una gpu decente a 7nm o di derivazione console o nuova e poi "consolizzata" ne avrebbe cmq da guadagnare in entrambi i settori, quindi non sarei cosi' certo che l' R&D delle gpu sia proprio l'ultimo.
Di sicuro quello delle cpu pero' e' il primo :asd:

Il nabbo di turno
16-09-2018, 13:20
ricordiamo sempre con affetto gli azionisti presenti in questo thread

Loro giocano in borsa(8k maxed out rtx on 216 hz), visto che in amd di schede video da gioco non se ne vedono.

Free Gordon
16-09-2018, 15:07
Polaris che copre buona parte della gamma anche nel 2019 sarebbe demenziale oltre ogni limite...


Purtroppo mi sa che sarà così...volenti o nolenti...

Il problema è che RTG è stato creato proprio per contenere i costi ed è stato abbandonato da Raja molto probabilmente per lo stesso motivo.

Hanno persino "rushato" Vega10 e sono comunque arrivati tardissimo... ora si stanno concentrando sugli shrink (con leggere modifiche) per il mercato pro/compute (Vega20) ma Navi è lontana...ormai è chiaro. :help:

Hanno investito tutto su Ryzen e le GPU da gioco sono passate moooolto in secondo piano.

Alla luce dei fatti, RTG è stato creato per non rompere i co...oni allo sviluppo delle CPU. :)

Hanno i SoC per console come priorità...e solo dopo le GPU gaming PC. Chiaro che senza un'architettura nuova, non fai nemmeno dei SoC nuovi al passo coi tempi (PS5).

L'UNICA SPERANZA che ho ormai...è che Navi sia una NUOVA architettura e che attui una sterzata forte nella direzione del gaming (e che continuino pure con GCN per il computing, per l'IA ecc).

Ma la vedremo tra un annetto circa mi sa.... :cry:

Prima cosa vuoi che ci sia? Ci saranno le scimmie urlanti per strada... :read:

1) Polaris30... (mi chiedo cosa si inventeranno per ridurre moltissimo i costi, l'unico modo che hanno di competere a questo punto).
2) Vega56 e 64 price-cut (ma come fanno? le produrranno a 12nm? Mah..boh..)
3) In regalo per ogni GPU AMD acquistata un calendario di Lisa in pose osé? :cry:

Gyammy85
16-09-2018, 15:22
Che esce fra un anno lo dite solo tu e ultimate, vabbè...

ninja750
16-09-2018, 15:46
Polaris che copre buona parte della gamma anche nel 2019 sarebbe demenziale oltre ogni limite...


si appunto ti fan venire voglia di prendere una 1070usata e finita li

Gyammy85
16-09-2018, 16:34
si appunto ti fan venire voglia di prendere una 1070usata e finita li

Per rappresaglia, tutti 1080 usata semifusa.
Facciamo crollare il mercato!! :)

Il nabbo di turno
16-09-2018, 17:00
Purtroppo mi sa che sarà così...volenti o nolenti...

Il problema è che RTG è stato creato proprio per contenere i costi ed è stato abbandonato da Raja molto probabilmente per lo stesso motivo.

Hanno persino "rushato" Vega10 e sono comunque arrivati tardissimo... ora si stanno concentrando sugli shrink (con leggere modifiche) per il mercato pro/compute (Vega20) ma Navi è lontana...ormai è chiaro. :help:

Hanno investito tutto su Ryzen e le GPU da gioco sono passate moooolto in secondo piano.

Alla luce dei fatti, RTG è stato creato per non rompere i co...oni allo sviluppo delle CPU. :)

Hanno i SoC per console come priorità...e solo dopo le GPU gaming PC. Chiaro che senza un'architettura nuova, non fai nemmeno dei SoC nuovi al passo coi tempi (PS5).

L'UNICA SPERANZA che ho ormai...è che Navi sia una NUOVA architettura e che attui una sterzata forte nella direzione del gaming (e che continuino pure con GCN per il computing, per l'IA ecc).

Ma la vedremo tra un annetto circa mi sa.... :cry:

Prima cosa vuoi che ci sia? Ci saranno le scimmie urlanti per strada... :read:


E' un discorso che parte da abbastanza lontano, che in amd molti dei fondi delle radeon prima e durante l'arrivo di zen siano stati dirottati sul versante cpu è praticamente chiaro a tutti, anche perchè di certo non campavano con i soldi delle vendite degli fx nel mercato retail...

Il fatto è che si vede proprio una mancanza di impegno nella progettazione, nella cura dei prodotti al lancio(marketing di serie C neanche B), e nel diversificare la propria offerta al cliente.

L'ultima volta che amd ha avuto una lineup veramente completa è stata 3 anni fa con la serie 300, che aveva anche dei rebrand di gcn abbastanza vecchiotti(la r7 370 era il rebrand della 265 che era il rebrand della 7850 del 2012), ma almeno c'era un po' di competitività nel rapporto prezzo/prestazioni, ora neanche quello.

Alla lineup di ora manca una vera enthusiast da gaming, manca una scheda che competa in modo diretto con la 1050 ti(un chip in mezzo per specifiche tra p10 e p11, una 7790/260x a 14nm), e mancherebbe anche qualcosa tra la 580 e la v56(una vega con 300/350 mm^2 di die size sarebbe l'ideale).

Praticamente all'appello mancano 3 chip distinti...



1) Polaris30... (mi chiedo cosa si inventeranno per ridurre moltissimo i costi, l'unico modo che hanno di competere a questo punto).
2) Vega56 e 64 price-cut (ma come fanno? le produrranno a 12nm? Mah..boh..)
3) In regalo per ogni GPU AMD acquistata un calendario di Lisa in pose osé? :cry:


1)Polaris 30 è nata dalla mente di qualcuno che notando l'ottimo scaling di p10 con l'oc delle memorie si è detto, "Mettiamoci delle gddr5x/gddr6 su polaris 20, in modo da battere agevolmente la 1060, così si che sarebbe un bel refresh".
Ma non ci sono mai stati spotted reali di questo chip, anche perchè lavorare ancora su polaris invece di vega è nonsense.
2)E' un chip enorme e monta delle memorie costosette, non mi aspetto di certo le vega 56 a 300 euro...
3)Fai anche di tutto lo staff...
4)Ci sarebbe lo spotted di vega 12, ma presumo sia la vega che hanno venduto ad intel...

Roland74Fun
16-09-2018, 17:03
si appunto ti fan venire voglia di prendere una 1070usata e finita li

Poi sono io quello poco serio.
Dai la cosa è seria, non mi pare il caso di fare ironia sui "compagni che sbagliano".....:Prrr: :Prrr:

ilcose
16-09-2018, 17:33
Non si è ancora consumato il passaggio al lato oscuro che già volano le prime frecciate dai prossimi nuovi ex amici.... :asd:



Ma...quindi se io passassi a una 2080ti devo cliccare su "elimina sottoscrizione" :'(


Inviato dal mio iPad utilizzando Tapatalk

FroZen
16-09-2018, 17:34
Ma...quindi se io passassi a una 2080ti devo cliccare su &ldquo;elimina sottoscrizione&rdquo;? :&rsquo;(


Inviato dal mio iPad utilizzando Tapatalk

chi ha parlato?

ilcose
16-09-2018, 17:43
chi ha parlato?

:ops:

Gyammy85
16-09-2018, 18:13
Ma...quindi se io passassi a una 2080ti devo cliccare su "elimina sottoscrizione" :'(


Inviato dal mio iPad utilizzando Tapatalk

Si
Ricordati di passare l'impianto da 6 a 3 kw

ilcose
16-09-2018, 19:05
Si
Ricordati di passare l'impianto da 6 a 3 kwNon credo dato che quella mattonella probabilmente consumerà allo stesso modo ;)

Però siete cattivi sigh :'(

Inviato dal mio ZTE A2017G utilizzando Tapatalk

Roland74Fun
16-09-2018, 19:45
Però siete cattivi sigh :'(


Non cercare me. Io sono insospettabile. Guarda la mia firma.... :read:

sgrinfia
16-09-2018, 20:43
Ma...quindi se io passassi a una 2080ti devo cliccare su "elimina sottoscrizione" :'(


Inviato dal mio iPad utilizzando Tapatalk

Sarebbe un gesto di maturità :sofico:

ilcose
16-09-2018, 22:58
Ovviamente no, facendolo ti condanneresti alla dannazione eterna.
Resta qui e sarà la tua ancora di salvezza :DQuello sicuro, è 3 gen che salto da una marca all'altra e provo un po' tutte le top (evitando gli intermezzi stile 1080/980 lisce ecc) quindi rimango molto interessato a Navi, soprattutto se finalmente sarà una nuova architettura.
Magari nel mentre switcho a ryzen 2, vediamo che succederà nel 2019.

Nel frattempo inizio già la mia penitenza per aver iniziato il cammino verso il lato oscuro xD

Inviato dal mio ZTE A2017G utilizzando Tapatalk

deadbeef
16-09-2018, 23:38
Ai gamerz è andata pure bene con GloFo che s'è tirata fuori, TSMC è l'unica speranza di vedere una GPU che non sbrodoli watt in modalità hp

Gyammy85
17-09-2018, 07:38
Forse è stato già postato, lo ripropongo

https://www.reddit.com/r/Amd/comments/9gc87q/ray_tracing_on_at_least_one_vulkan_based_game/

Amd sul raytracing

Gyammy85
17-09-2018, 08:46
In un commento leggo:
"Ci sono state demo di Ray Tracing in tempo reale con R9 290X"
È vero? E se si dove si possono vedere?

Sarà vero ma non so proprio dove trovarle, una volta avevo scaricato una demo raytracing che raffigurava una gemma (un rubino mi pare) con la luce che si rifletteva sopra, girava più o meno a 40 fps con la 6870, ma non l'ho più trovata e non l'avevo neanche salvata all'epoca.
Chissà se doom eternal o wolf 3 avranno cose simili, parla di supporto via vulkan

Gyammy85
17-09-2018, 08:58
Francamente per me possono usare pure la magia per fare i riflessi, m'interessa la qualità dell'effetto finale, del resto me ne sciacquo.

Io preferirei una maggiore interazione con l'ambiente di gioco, i riflessi buoni già ci sono. Ops...

Gyammy85
17-09-2018, 09:16
https://www.google.it/search?ei=QlqfW7aoDcj9swH986WICg&ins=true&q=ray+tracing+powervr&oq=raytracing+power&gs_l=mobile-gws-wiz-serp.1.0.0i19j0i22i30i19l4.21154.26221..28456...3.0..0.184.1978.0j12......0....1.........0j35i39j0i10j0i10i203j0i13j0i22i10i30j0i22i30j33i160.MMPkSKv0aJ0

Beh power VR aveva mostrato qualcosa 2 anni fa

E dall'architettura mostrata su una slide in un articolo di toms, SEMBRA, che avesse unità dedicate al calcolo RT ma chiaramente lascio agli esperti

Visto ma non mi sembra il massimo, la demo che avevo io anche se elementare perché mostrava solo un oggetto era molto vicina a quello che si ottiene col raytracing classico...

Gyammy85
17-09-2018, 09:18
Sono abbastanza vecchio da aver visto arrivare Havok nei videogiochi, fu una rivoluzione dell'esperienza di gioco.

Sicuramente anche l'occhio vuole la sua parte, ma se dev'essere una scusa per un gameplay scadente si possono tenere qualunque innovazione grafica.

Per di più anche l'introduzione del RT nell'illuminazione è fisicamente corretto solo se le superifici sono caratterizzate fisicamente in modo corretto, altrimenti non lo è nemmeno l'RT. Quindi se per mancanza di potenza l'RT deve avere un effetto finale peggiore e meno realistico dei vecchi metodi per quanto mi riguarda se ne riparla fra tre generazioni.

Giusto, però poter avere qualcosa di rivoluzionario lato fisica stile hl2 ai tempi non sarebbe male. Il mondo di gioco sembrava vivo e reale

Gyammy85
17-09-2018, 09:20
https://www.tomshw.it/powervr-wizard-ray-tracing-efficiente-grafica-paura-videogiochi-68640

si parlava di ray tracing su smartphone



quindi va contestualizzato.

Quando ho cliccato sul tuo link non mi è apparso quell'articolo ma alcuni video, uno dell'ue4 col power vr e l'altro una demo sempre power vr con riflessi sulle auto

Gyammy85
17-09-2018, 10:18
a) Se lo chiedono in molti, forse non era pronta e ci voleva troppo tempo.
Forse vogliono sfruttare l'effetto scimmia di tensor + rt e l'effetto scimmia 7nm separatamente.

b) Non sembra ma in verità non ne sappiamo molto, sappiamo solo vega20 7nm quest'anno ma non gaming e nel 2019 Navi 7nm gaming.
Non sappiamo però se Navi sarà un fascia media, un fascia enthusiast o entrambe, anche se la logica suggerisce che sicuramente sia media visto che deriva dalla GPU della PS5.

Non è navi che deriva dalla ps5 ma la ps5 che deriva da navi, c'è molta differenza.

ilcose
17-09-2018, 10:24
Cmq non per essere cattivo ma il RT dovrà rendere tutto più fotorealistico o rendere tutto una caricatura della realtà in game ? Riguardando il demo di bf5 secondo voi la macchina è uno specchio ? Le vostre auto rispecchiano le cose nel solito modo ? La mia no. Quindi mi viene un Po da pensare sulla maturità di questa tecnica in game. Sbaglio molto?Basta gestire le proprietà del materiale per evitare la riflessione a specchio. Quello che fa il RT non cambia tra avere riflessi a specchio o no. Lì sta tutto ai dev a seconda del look che vogliono dare al gioco.

Inviato dal mio ZTE A2017G utilizzando Tapatalk

AceGranger
17-09-2018, 10:27
Ho pensato la stessa identica cosa... :)

Io cmq non ho ben capito perchè:

a) nVIDIA abbia preferito fare i piastrelloni sui 12nm invece di farlo sui 7nm;

b) AMD non sembra intenzionata ad approfittatare dell'anticipo sui 7nm per fare qualche VGA "muscolosa". Cioè, sulla carta potrebbero tranquillamente passare due anni con delle versioni shrinkate delle tecnologie già sviluppate da tempo (e usarli per preparare le proprie versioni di RT e Tensor Core).

Probabilmente problemi produttivi e non tecnologici.

a) a quanto pare Turing doveva arrivare sui 10nm di Samsung, poi rimandati , quindi hanno ripiegato sui 12 con i quali avevano gia parte del lavoro svolto con Volta; che è ormai un po il motivo per il quale non rilasciano piu una mezza roadmap, nessuno ha piu il controllo sui pp, neppure Intel che se li fa in casa.

i 7nm consumer non credo siano molto vicini e nVidia ha anche il "problema" dei volumi elevati, quindi è obbligata ad aspettare che sia tutto a regime

b) un conto è mettere in produzione un chip da pochi esemplari e dall'alto margine come VEGA 20 ( come lo è stato V100 ai tempi ), un conto è mettere in produzione un chip consumer dai bassi margini e alti volumi.

non a caso l'ordine dei 7nm è Vega 20 con pochi esemplari, EPYC con un volumi medi e poi per ultimi Navi in volumi maggiori.

Gyammy85
17-09-2018, 10:27
No Gyammy è Navi che deriva dalla GPU della PS5 così come è Polaris che deriva dalla GPU delle console attuali.

Scusa ma non è che quando uscì polaris si sapeva che avrebbe equipaggiato le console nuove, poi mi sembra più logico che le console si adattino alle gpu e non viceversa. Vega non la vedi in nessuna console per ora, non è che se la userà ms per la xbox 2 a 7 nm si dirà "l'hanno fatta per le console".

bagnino89
17-09-2018, 10:31
Ho pensato la stessa identica cosa... :)

Io cmq non ho ben capito perchè:

a) nVIDIA abbia preferito fare i piastrelloni sui 12nm invece di farlo sui 7nm;

Oltre a quanto già detto, ci sono stati ritardi sulle GDDR6, che tra l'altro vanno anche un po' meno di quanto si sperasse. Molto probabilmente, Turing sarebbe dovuto uscire qualche mese fa.

Gyammy85
17-09-2018, 10:36
Oltre a quanto già detto, ci sono stati ritardi sulle GDDR6, che tra l'altro vanno anche un po' meno di quanto si sperasse. Molto probabilmente, Turing sarebbe dovuto uscire qualche mese fa.

Io direi che è la gente che si era fatta castelli in aria su chissà quali performance di queste memorie che non sono altro che il naturale upgrade delle gddr5.
Le hbm2 vanno il doppio o quasi delle hbm1, hai banda comparabile al bus da 4096 bit col bus da 2048.

Gyammy85
17-09-2018, 10:45
Non lo sapevamo noi, ma loro si.
Vega non è sviluppata per le console è sviluppata per Apple :)

Ovvio che le sviluppano anche con un occhio di riguardo alle future GPU discrete ma il loro primo obbiettivo è altro.
Questo implica che Navi sicuramente sarà un buona GPU da fascia media come Polaris (che è quello che interessa a me) ma che non necessariamente esisterà in versione enthusiast.

Poi ovviamente sono solo speculazione, notizie certe non ci sono.

Quindi navi come polaris e per la fascia enthusiast altro nome?
Non mi convince tanto, nessun riferimento, poi indicata come successore di vega non credo si limiti a fascia media.

bagnino89
17-09-2018, 10:55
Io direi che è la gente che si era fatta castelli in aria su chissà quali performance di queste memorie che non sono altro che il naturale upgrade delle gddr5.
Le hbm2 vanno il doppio o quasi delle hbm1, hai banda comparabile al bus da 4096 bit col bus da 2048.

Mi riferivo in particolare al fatto che le GDDR6 attualmente implementate sono a 14 Gb/s, mentre ci si attendevano 16 Gb/s (e Samsung aveva addirittura parlato di 18 Gb/s).

Come dicevo, il ritardo delle GDDR6 ha secondo me contribuito abbastanza nel far slittare le Turing, che altrimenti sarebbero uscite ben prima di adesso.

Gyammy85
17-09-2018, 11:35
Certo che vega 20 pur essendo un chip pro è piccolino, che abbiano intenzione di sfornare tutta una gen di chi piccoli e veloci?

Roland74Fun
17-09-2018, 11:48
....Riguardando il demo di bf5 secondo voi la macchina è uno specchio ? Le vostre auto rispecchiano le cose nel solito modo ? La mia no....
Dipende....quando mia moglie ha voglia di pulirla per la vergogna allora qualcosina riflette. Per quanto mi riguarda non la lavo dai tempi del boh... di andare in giro a fare il tamarro con l'RTX ON non mi interessa....

Gyammy85
17-09-2018, 11:51
Dipende....quando mia moglie ha voglia di pulirla perla vergogna allora qualxosina riflette. Per quanto mi riguarda non la lavo dai tempi del boh... di andare in giro a fare il tamarro con l'RTX ON non mi interessa....

You win.

:rotfl:

Einhander
17-09-2018, 12:32
Dipende dalle caratteristiche fisiche che assegni ai materiali degli oggetti colpiti dai raggi e da quanti raggi usi. In base a cosa scegli ottieni risultati diversi.

Per questo dico che se introduci una tecnologia nuova ma poi la devi usare azzoppata perché l'hardware non ce la fa la tecnologia all'atto pratico è peggiore della vecchia. Quel che va valutato è il risultato (mi dicevano al day1), del resto me ne sciacquo, le schede video le uso per giocare, non per farmi una pugnetta su quanto è fisicamente accurato il rimbalzo di un raggio su un'automobile costruita con lo specchio delle mie brame.

oh
non e' che attualmente gli shader in media sui giochi che vogliono "sembrare" photoreal for real" hanno sti mega shader eh :rolleyes:

Ultimamente mi pare che scazzino pure al cinema...se ti fermi a guardare alcuni vfx anche di filmoni o grandi produzioni ed esami bene gli shader rimango sempre perplesso del come ad un aumento drastico della complessita' degli scenari o delle interazioni o quant'altro corrisponda un altrettanto rapido -in media- declino del realismo di quanto si vede a schermo in termini di 3d e "realismo" degli shader...

I migliori progressi o le migliori integrazioni le vedo spesso negli spot pubblicitari -certo alcuno spot hanno budget da film disney pero' durano una manciata di secondi-.

Il problema del realismo degli shader e' sempre la manina umana, sia una parte che dall'altro, il vantaggio dovrebbe essere che con il raytracing ci si avvicina molto di piu' alla fotografia tradizionale come "prospettiva" con cui decidere l'estetica di quanto vedi su schermo, ma in ogni caso puoi anche essere un genio della fotografia ma se ti faranno male gli shader il risultato sara' sempre pessimo.

Rispetto alle tecniche raster si guadagna anche in prevedibilita' del risultato finale in quanto piu' simile -attenzione non uguale- al comportamento della luce, o radiazione luminosa, nella realta' di tutti i giorni.

Guadagni da una parte ma poi devi ottimizzare cmq altre cose dall'altra.
Al solito la differenza la fara' l'umano e la sua "bravura".
Io tutti sti sconti in termini di facilita' di utilizzo non li vedo, perche' cmq a questo si aggiungono nuove sfide, problematiche e tipologie diverse di ottimizzazione.
Sicuramente pero' in termini di verosimiglianza POTENZIALMENTE rappresenta un grosso passo in avanti.

pero' "la potenza e nulla senza controllo" :O

AceGranger
17-09-2018, 14:16
Il problema del realismo degli shader e' sempre la manina umana, sia una parte che dall'altro, il vantaggio dovrebbe essere che con il raytracing ci si avvicina molto di piu' alla fotografia tradizionale come "prospettiva" con cui decidere l'estetica di quanto vedi su schermo, ma in ogni caso puoi anche essere un genio della fotografia ma se ti faranno male gli shader il risultato sara' sempre pessimo.


quello che ti fa sembrare uno shader reale sono la global illumination, l'ambient occlusion, il color bleeding, le ombre e le riflessioni; e sono tutte cose che nel raster richiedono barbatrucchi e impostazioni aggiuntive tipo l'nVidia HBAO.

settare i valori in se del materiale è veramente l'ultimo dei problemi...


Rispetto alle tecniche raster si guadagna anche in prevedibilita' del risultato finale in quanto piu' simile -attenzione non uguale- al comportamento della luce, o radiazione luminosa, nella realta' di tutti i giorni.


Io tutti sti sconti in termini di facilita' di utilizzo non li vedo, perche' cmq a questo si aggiungono nuove sfide, problematiche e tipologie diverse di ottimizzazione.



il vantaggio per lo sviluppatore è che con l'RT si puo lavorare in modo piu lineare dal software di creazione degli asset al game engine, fino ad arrivare a fare un import quasi 1:1.

lo standard MDL Material Definition Language che nVidia ha reso Open va in questa direzione, creare materiali trasferibili da un software all'altro mantenendo il piu possibile lo stesso risultato.

G80
17-09-2018, 14:18
In un commento leggo:
"Ci sono state demo di Ray Tracing in tempo reale con R9 290X"
È vero? E se si dove si possono vedere?

Ciao
Penso parlino di questo:

https://www.reddit.com/r/Amd/comments/9bj93j/technical_informationpaper_for_raytracing_test/

EDIT nessun demo :(

Daytona
17-09-2018, 14:22
Guys ma sto RT è una esclusiva Nvidia ?! :stordita:

c'è già in cantiere una ipotetica risposta di AMD ?!;)

AceGranger
17-09-2018, 14:26
Guys ma sto RT è una esclusiva Nvidia ?! :stordita:

c'è già in cantiere una ipotetica risposta di AMD ?!;)

no, è uno standard delle DX12.

Gyammy85
17-09-2018, 14:26
Ciao
Penso parlino di questo:

https://www.reddit.com/r/Amd/comments/9bj93j/technical_informationpaper_for_raytracing_test/

Molto interessante, parlano di 4,4 gigarays per la 290x, e le immagini èiccole che si vedono di ogni scena sono molto più simili a quelle dei raytracing classici precalcolati.

FroZen
17-09-2018, 14:26
Guys ma sto RT è una esclusiva Nvidia ?! :stordita:

c'è già in cantiere una ipotetica risposta di AMD ?!;)

al momento nulla di più di un "prrrrrrrrrrrrrrrrrrrrr"

Tranquilli che arriva e al solito sarà uno standard aperto (che nessuno si cagherà)

Daytona
17-09-2018, 14:40
grazie guys ... ora sto proprio meglio ! :D

Gyammy85
17-09-2018, 14:45
leggo



ed uno risponde



non so, sognare non costa, ma la 2080ti è data, con hw dedicato, per 10giga ray.

vedremo che succederà

Potrebbero benissimo fare navi con shader core molto grosso ed avere quindi suffiente riserva di potenza per gestire scene con e senza rt imho.
Poi se fanno via fp16 si raddoppia tutto

AceGranger
17-09-2018, 14:53
Molto interessante, parlano di 4,4 gigarays per la 290x, e le immagini èiccole che si vedono di ogni scena sono molto più simili a quelle dei raytracing classici precalcolati.

ma anche no :asd:
dicono che modificando una ipotetica X290 nel modo in cui dicono loro riuscirebbero a creare un chip votato al calcolo RT che produrrebbe 4,4 gigarays...

"it seems reasonable to consider fully custom architectures to support ray tracing."
in sostanza farebbero quello che ha fatto nVidia con gli RT core solo che partirebbero modificando GNC, e non affrontano l'argomento dell'efficienza di questa soluzione paragonate ad unita ancora piu dedicate come quelle nVidia ( che comuqnue non fanno solo una cosa ).

quindi dovresti mettere 2,5 290x solo per coprire i raggi, poi aggiungere altri 15 TFlops solo per lo shading + altri TFlops per il De-Noise, visto che quella tecnica di cui parlano si basa sul taglio drastico del numero di raggi per pixel...

bagnino89
17-09-2018, 15:08
Il problema è capire cosa succederà quando anche Nvidia passerà ai 7 nm...

bagnino89
17-09-2018, 15:15
https://www.youtube.com/watch?v=5j8nuUVByrU :asd:

Molto probabile :asd:

AceGranger
17-09-2018, 15:19
Quindi ci vorrebbero 5 o 6 r9 290x per fare una 2080ti... contando il salto di PP e quanto è grossa TU102 potrebbero anche starci :sofico:

a grandi linee:

vega 64 13 TFlops = 10 TFlops della 1080

prendi VEGA, gli dai un 40% in piu di TFLops per lo shading, aggiungi un'altro 20-30% di TFlops per la pate INT, aggiungi 2,5 x290 per la parte l'RT ed infine aggiungi l'equivalente dei TFlops per la parte FP16.


come lo ha fatto nVidia possono benissimo farlo loro, non è che nVidia abbia fatto chissa cosa, come lo avevano anche pensato quelli di Imagination Tecnologies.

Gyammy85
17-09-2018, 15:20
Se in condizioni ideali una 290x produce 4 gigarays...
Ricordo che Vega asfalta fury e tutto il resto anche a parità di clock in applicazioni rendering e computing, penso sarebbe perfettamente in grado di gestire rt, specie in fp16...

AceGranger
17-09-2018, 15:31
Se in condizioni ideali una 290x produce 4 gigarays...
Ricordo che Vega asfalta fury e tutto il resto anche a parità di clock in applicazioni rendering e computing, penso sarebbe perfettamente in grado di gestire rt, specie in fp16...

non sono condizioni ideali, hanno ipotizzato come creare un chip RT partendo da una X290....

l'RT non è FP16.

The_SaN
17-09-2018, 15:33
Avevo letto che ci volevano circa 10 Tflops per calcolare 1 Gigaray. Non è un po' ottimistica la stima di mettere tutto sullo shader core?
Poi boh...non sono programmatore quindi non posso esserne certo.

Ma una cosa è sicura: niente FP16 per questo tipo di calcoli.

The_SaN
17-09-2018, 15:44
Nota, io ho parlato di FP16 ma io parlavo di Deep Learning non di Ray Tracing. :)

Mi riferivo a Gyammy :D

Roland74Fun
17-09-2018, 15:47
ne sparo una assurda, amd presenterà schede aggiuntive acceleratrici di rt e deeplearning da accoppiare alle proprie gpu, degli asic gaming oriented

:ciapet:


Siii grandeee... come quando comprai la 3DFX nel lontano 1997!!! Gliela metti affianco, metti la patch 3dfx di tombraider e WOW, mascella per terra...

Ma il cavetto esterno per fare il ponte lo forniranno incluso nella confezione?

Gyammy85
17-09-2018, 15:47
Alla fine l'approccio di amd sarà sempre quello brute force.

The_SaN
17-09-2018, 15:49
Alla fine l'approccio di amd sarà sempre quello brute force.

Il die di Threadripper sembrerà nulla a confronto :cool:

AceGranger
17-09-2018, 16:11
È la storia del DL che non mi è molto chiara.
Leggevo questo: https://wccftech.com/nvidia-volta-tesla-v100-amd-vega-10-gpu-hot-chips-2017/

Parlando di V100 vedo che è dichiarato come FP16 28/30 Tflops in base alla versione, qui vega è data a 24.6 Tflops che è ottimo considerando che V100 è una piastrella.
Poi in deep learning la danno a 120 Tflops.
Come diamine si calcolano il Tflops in DL?
Da cosa sono dovuti?
Facendo un confronto vega a quanto sarebbe?


si ma V100 è una piastrella perchè oltre ai 28 TFlops ha i Tensor, le INT separate, le FP64 e 4 canali nVlink... facile prendere solo un valore e dire che no nè male.... immagina se Volta fosse stato solo FP32/FP16 quanti TFLops avrebbe tirato fuori, pero sarebbe stato peggiore perchè non avrebbe fatto tutto.

da Anandtech

"the 2nd generation tensor cores still have FP16 mode, which they now support in a pure FP16 mode without FP32 accumulator."

da datasheet nVidia

"Each Tensor Core can perform up to 64 floating point fused multiply-add (FMA) operations per clock using FP16 inputs. Eight Tensor Cores in an SM perform a total of 512 FP16 multiply and accumulate operations per clock"

Ogni Tensor è in grado di effettuare 64 operazioni per ciclo di clock di addizione/moltiplicazione di gruppi di dati,

https://pc.watch.impress.co.jp/img/pcw/docs/1143/278/TensorCore.png




nel DL, a quanto pare, la base del calcolo è del tipo a matrici masticato dai tensor, che è il motivo per il quale li hanno messi, in piu ci sono gli FP16 dati dai CUDA.



quindi la 2080Ti, nel caso di calcoli matriciali, tira fuori effettivamente 110 TFlops dai Tensor, piu i 26 TFlops FP16 dai CUDA

AceGranger
17-09-2018, 16:27
Alla fine l'approccio di amd sarà sempre quello brute force.

quello non vuol dire brute force :asd:

Il die di Threadripper sembrerà nulla a confronto :cool:

Threadripper invece è l'emblema delle unita dedicate, come l'unita hardware specifica per la criptazione/decriptazione per sgravare i core da questa operazione; non per altro l'infinity fabric nasce proprio per poter creare chip dedicati ( anche di produttori terzi ) e collegarli fra di loro on die e socket-to-socket.



se l'entita del calcolo da effettuare è conosciuto, è sempre meglio avere unita dedicate ;)

Ton90maz
17-09-2018, 17:29
se l'entita del calcolo da effettuare è conosciuto, è sempre meglio avere unita dedicate ;)

Sicuramente, ma qua dentro per qualcuno è una bestemmia :oink:

Gyammy85
17-09-2018, 19:22
Boh, vediamole ste unità dedicate di amd, io dico 100 cu

Gyammy85
17-09-2018, 19:59
E io a sto punto dico "scaffale" :asd:

E perché? Deve avere per forza rt cores separati?

Einhander
17-09-2018, 20:18
Un grande produttore cinematografico una volta disse che per sembrare vero, al cinema, dev'essere molto più vero del vero :>

Non è detto che "accurato" voglia automaticamente dire "migliore" :D

tra molto piu' vero e nammerd@ pero' ce ne passa eh :stordita:

Einhander
17-09-2018, 20:29
quello che ti fa sembrare uno shader reale sono la global illumination, l'ambient occlusion, il color bleeding, le ombre e le riflessioni; e sono tutte cose che nel raster richiedono barbatrucchi e impostazioni aggiuntive tipo l'nVidia HBAO.

settare i valori in se del materiale è veramente l'ultimo dei problemi...



Beh la G.I., l'AO, e il Color Bleeding sono in effetti degli artifici creati ad hoc per simulare la radiazione luminosa, ma sono essi stessi dei barbatrucchi come quelli implementati nel raster.
Intendo dire che sono approssimazioni o trucchetti -vedi AO- per simulare il comportamento della luce in situazioni specifiche e che sono stati implementati perche' altrimenti la simulazione dura e pura richiederebbe un enorme capacita' computazionale...non so te ma io l'ao lo amo e lo odio allo stesso tempo proprio per questo.

E ad oggi anche quando vedo le migliori implementazioni -non in game- ma create dai vari unreal, unity, cryengine e' uno degli aspetti che mi salta prima agli occhi come "finto".
Idem quando non e' implementato ad arte nella normale cgi.

Detto questo stiamo dicendo la stessa cosa, ovvero che il raytracing semplifica l'approccio e il flusso di lavoro, ma alla fine se setti male riflessioni, ombre e quant'altro il risultato e' sempre finto, ovviamente idem per le luci...poi dipende sempre dall'estetica scelta ecc ecc, ma alla fine sempre li stiamo, poi chiaramente sara' meno complesso del raster, ma secondo me implichera' un'ottimizzazione, anzi una necessita' di ottimizzazione ancora superiore, almeno allo stato attuale e nel futuro prossimo venturo.

Gyammy85
17-09-2018, 20:48
Perchè non si può continuare ad aggiungere cu e basta.
Sembrava che con Vega ci fosse stata una svolta NCU, HBCC, TVUMDB, ecc. ma alla fine sempre la stessa roba.

Non voglio dire che servano necessariamente tensor e rt su modello Nvidia ma di sicuro le CU devono cambiare pelle.

Potrebbero aggiungere dei superset per rt, vedremo.
Dico solo di non farsi illusioni

Free Gordon
18-09-2018, 00:44
Quindi ci vorrebbero 5 o 6 r9 290x per fare una 2080ti... contando il salto di PP e quanto è grossa TU102 potrebbero anche starci :sofico:


Hawaii aveva 44CU...

5 Hawaii sono 220CU :sofico:

Nei 7nm ce le mettono anche...magari... Ma poi come fanno con la capacità geometrica? UN chip del genere per essere equilibrato nel gaming, dovrebbe avere circa 20 Geo engine... :asd:

Ton90maz
18-09-2018, 06:55
Hawaii aveva 44CU...

5 Hawaii sono 220CU :sofico:

Nei 7nm ce le mettono anche...magari... Ma poi come fanno con la capacità geometrica? UN chip del genere per essere equilibrato nel gaming, dovrebbe avere circa 20 Geo engine... :asd:O 6 polaris, per risparmiare qualche rops o collegamento ed eliminare i fastidiosissimi numeri dispari :asd: