PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 [74] 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346

Nurabsa
16-03-2016, 07:54
se quello che dice freegordon è vero,

quest estate le verdi venderanno tanto ma vedo piu realistico amd/hbm nvd/gddr5x.
una serie con hmb2 costerebbe troppo quando per il target coperto vanno bene le gddrx, a giugno usciranno schede da 5/600€.

FroZen
16-03-2016, 07:57
http://www.overclock.net/content/type/61/id/2734731/

Ecco la scheda perfetta per il 1080 asdasd

Interessante notare titan z vs 295 uno dei flop migliori di nvidia dai tempi delle fx

FroZen
16-03-2016, 08:02
Se fosse sempre stato così avremmo ancora 512MB :)

Comunque ci sta anche che ogni scheda avrà lo stesso quantitativo di ram di quella che va a sostituire... tranne le fury che devono salire da 4 a 8 però.

Non hai colto

5870 1gb
6970 2gb
7970 3gb
290x 4gb

L'anomalia è la serie 390 che commercialmente hanno sparato 8gb

Fury 4gb hbm

Mi aspetto serie media a 4
Serie high a 8
E super top 8 16

La messa è finita, andate in pace amen

fraussantin
16-03-2016, 08:07
http://www.freesaveweb.net/hwupgrade/smile/asd/wallasd.gif

Amd: scegliere il partner sbagliato ---> check!
Ha sempre scelto male i suoi "ragazzi"..

Raven
16-03-2016, 09:03
sicuramente, è come quelli che comprano la fotocamera compatta:
meglio 16 o 24 MP? :sofico:
Paragone che non c'azzecca ... ma proprio per nulla!.... ;)

Avere una riserva di ram "abbondante" su schede video di fascia alta ne può prolungare la vita utile in maniera decisiva... vedi quelli che sostenevano che i 2Gb della 680gtx erano più che sufficienti e che oggi mangiano la polvere rispetto alla 7970 e ai suoi 3Gb
Poi ripeto: non è detto siano davvero essenziali (tipo gli 8gb su 390/390x) , ma già a livello "psicologico" non è un bella presentazione...


Inviato dal mio SM-N910F utilizzando Tapatalk

Nurabsa
16-03-2016, 09:32
a parita di schede bilanciate gpu/vram nel dubbio acquisterei la scheda con piu vram prezzo permettendo.
la cosa triste sulle memorie è che anche +700mhz non spingono niente in game, lusso se danno 2fps

deadbeef
16-03-2016, 10:43
Se anche quello che dice freegordon fosse vero, cioè che nvidia esce con le hbm2 e amd con le hbm1 limitate a 4gb, su quella fascia 8gb di hbm2 sarebbero troppo costose.


P.s. trollino: ovviamente fino ad oggi i fanboy verdi hanno sostenuto che hbm non hanno portato vantaggi, ma da domani se nvidia monta hbm saranno indispensabili :sofico:

più spendo meglio è :O

Amd: scegliere il partner sbagliato ---> check!

Tralasciando il piccolo particolare per cui le HBM sono state 'inventate' da Hynix e AMD

Free Gordon
16-03-2016, 11:08
dubito la 1080
direi piuttosto a volumi sufficienti
la titan e a seguire a fine anno la 1080ti

Se non le montano le 1080, che schede le monteranno...dato che Titan e Ti escono a fine anno? ;)

Free Gordon
16-03-2016, 11:11
Interessante notare titan z vs 295 uno dei flop migliori di nvidia dai tempi delle fx

:asd: vero

Free Gordon
16-03-2016, 11:12
Se anche quello che dice freegordon fosse vero, cioè che nvidia esce con le hbm2 e amd con le hbm1 limitate a 4gb, su quella fascia 8gb di hbm2 sarebbero troppo costose.

Può essere che siano anche solo 4GB..ma potrebbero essere di HBM2...


P.s. trollino: ovviamente fino ad oggi i fanboy verdi hanno sostenuto che hbm non hanno portato vantaggi, ma da domani se nvidia monta hbm saranno indispensabili :sofico:

Sicuro! :sofico:

Free Gordon
16-03-2016, 11:14
Amd: scegliere il partner sbagliato ---> check!

Mah, bisogna vedere... è arrivata prima sulle HBM1, ora le HBM2 hanno il difetto di consumare un bel pò in più.. non so quale tecnologia sarà più matura alla prova dei fatti, vedremo.. :)

Free Gordon
16-03-2016, 11:21
Avere una riserva di ram "abbondante" su schede video di fascia alta ne può prolungare la vita utile in maniera decisiva... vedi quelli che sostenevano che i 2Gb della 680gtx erano più che sufficienti e che oggi mangiano la polvere rispetto alla 7970 e ai suoi 3Gb

Hmm...Kepler sta dietro anche se GCN ne ha 2 di GB... ;)

https://tpucdn.com/reviews/ASUS/R9_380X_Strix/images/perfrel_1920_1080.png

La 770 (più veloce della 680) è sotto già @1080p rispetto alla 285 (28 CU vs 32 di Tahiti ;) )

Raven
16-03-2016, 12:35
La 770 (più veloce della 680) è sotto già @1080p rispetto alla 285 (28 CU vs 32 di Tahiti ;) )

Certo che oh... la 680/770 è proprio diventata namm€rd@, in confronto alle 7970Ghz/280x! :asd:

FroZen
16-03-2016, 12:49
E che problema c'è?! Basta comprare la nuova nvidia, e si ricomincia il loop

deadbeef
16-03-2016, 12:51
si ma non ditelo in giro che laggente s'offende

Trokji
16-03-2016, 13:02
sono contento del miglioramento dell'efficienza a questo giro di AMD.. una scheda da 200-250 euro che assorbe 100W e va come la 390x la prenderei sicuramente :fagiano: . Speriamo riescano a fare uscire queste nuove schede in breve tempo. Poi è vero che l'immagine si dà con le top di gamma ma i volumi di vendita li fanno soprattutto la fascia media e bassa del mercato

Nurabsa
16-03-2016, 13:10
tutti fieri di quanto vada ancora bene la 7970
non dico di fare come le verdi, è sempre positivo quando una vecchia scheda gira bene, in particolare a vantaggio di chi non cambia spesso hw
Ma fare un po di autocritica su quanto brutte e poco customizzate siano le nuove rosse potrebbe aiutare domani ad avere signore schede appetibili non solo per le buone prestazioni.

Ma vige il pubblicizza bene il vecchio per avere meno market share domani

e intanto nv*dia sciabola sui profitti

FroZen
16-03-2016, 13:24
L'ho sempre detto che ci vorrebbe una evga delle rosse, ma se prendo una vaporx o una lightning bhe sono vga fatte ad arte senza gli eccessi di kpe pippe...pagarsi il 30% in più levstesse prestazioni di semicustom normali bhe si va nel personale , nvidia ha ciulato un po' di clienti a amd co sta storia dell'efficienza e del mito driver ma il resto del market share sono di posessori di kepler che volevano più ram (un abbraccio a chi si è fatto consigliare di buttare 780 per delle 970 con 1gb di ram in più asdasd) o che non resistono al record sul 3dmark e dove un 20% di prestazioni in più sul modello vecchio diventa assolutamente da avereeeeee scimmiaaaaaaaa scimmiaaaaaa (e poi si cambia il monitor perché...eh... Se no come giustificare l'acquisto di tanta putenza?! Un bel gsync da 700/1300€ evvaiiiiii ora anche se vado sotto sono fluido, ma come, non hai cambiato per le prestazioni in più?! Cortocircuito, mindnumbed e tzeentch lash!!!! ), tra sei mesi esce la nuova gpu!!!aaaahhh altra scimmiaaaa ho una vga gia vecchia!!! Speriamo escano buone amd cosi la pago menooooooooo

Ok torno alle mie query

Il dua bios in rosso c'è da quando lisa su era ancora giu :O il pastore è potente in me asdasd che ricordi sigh

deadbeef
16-03-2016, 13:25
Tu parli delle Fury? Guarda che quelle schede rimangono un enigma per molti, però non è che scriverlo ogni due righe aiuti a cambiare la situazione. Le ha prese più che altro chi si è trovato bene con AMD ed aveva bisogno di un boost a risoluzioni più elevate del 1080p, tutti gli altri non ne hanno sentito l'esigenza, credo (almeno parlo per me, che la Fury X l'ho anche avuta ma a conti fatti, giocando su una tv full hd, era troppo). Il suo problema (della X) è stata la mancanza di versioni custom, poi il design può piacere o meno, io che l'ho avuta tra le mani ti posso dire che come qualità costruttiva era molto buona (pump whine a parte). Lo stesso discorso non vale per le fury lisce, dove design custom ne trovi: è appena uscita la Sapphire Fury Nitro con PCB completamente ridisegnato, per dirne una.

AMD ha fatto nel recente passato delle scelte inspiegabili o perlomeno discutibili e qui non credo che ci sia qualcuno che lo neghi, ma allo stesso tempo, col senno di poi, alcune di queste decisioni si sono rivelate future proof (non dimentichiamo la parte che ha avuto AMD nella progettazione delle APU per le console next-gen) e potrebbero dare i loro frutti a breve, includendo Async compute, Vulkan, AMDGPU, GPUOpen, HBM, etc

@FroZen: eh, quello è un trend che è difficile non notare, scimmiaaaa, gorillaaaa, poi magari se guardi bene si gioca a titoli di 4 anni fa però l'importante è avere lo SLI di super custom sul monitor curved gsync a 144hz che costa quanto un pc di fascia alta. A volte ho l'impressione che una certa fetta di utenza faccia le cose solo per sfoggio

°Phenom°
16-03-2016, 13:57
Il fatto è questo, generalmente molti utenti nvidia tendono a cambiare spessissimo la propria vga, anche più e più volte nello stesso anno, per avere magari solo un magro 5/10% di perf in più, un efficienza migliore o comunque per passione. Nvidia essendo già maestra di suo a livello di marketing, e specialmente negli ultimi anni con la sua strategia di mercato nel dosare l'uscita delle proprie vga, sopratutto a causa di un amd addormentata con le ultime 2 uscite in forte ritardo (Hawaii-Fiji) è riuscita, forte anche del suo share, ad incrementare sempre più le vendite, ed accaparrarsi anche un bel bacino di ex utenza amd che magari doveva cambiare vga senza voler aspettare ulteriore tempo. Ora con questo non dico che chi acquista radeon per forza non sia un "malato" di hardware, però credo anche voi concordiate che generalmente la maggior parte di questo tipo di utenza si fionda su nvidia perchè calza meglio con questa filosofia.
Riguardo alla questione che spesso sto leggendo delle fury che rimangono incomprate anche da possessori di radeon, ci tengo a dire che intanto non tutti sono fanboy, specialmente di un azienda che produce hardware, quindi non è che perchè preferisco le rosse devo comprarle tutte e fare l'elemosina o viceversa. Se il prodotto amd o nvidia che sia mi aggrada, lo acquisto, ad esempio negli ultimi anni ho preferiro amd per diverse questioni che non c'è bisogno di elencare. Almeno parlando personalmente, cambiare la 290X che va ancora molto bene per i miei canoni, con un altra vga sempre a 28nm che sia 980Ti o Fury X, e quindi buttarci ancora altri soldi, non lo trovo un investimento valido.
Anche io sono un grande appassionato di hardware, però non vuol dire che acquisto di "ignoranza" ogni vga che esce tanto per lo sfizio di averla :asd: Certamente in genere ogni anno prendo la nuova top, però quando capita un anomalia come nel caso dei 28nm, so controllarmi ed aspettare.

deadbeef
16-03-2016, 14:21
Mi sembra una precisazione doverosa, ogni tanto si legge qualche messaggio per cui sembra che se non spendi 5K l'anno per cambiare 3 schede video o aggiornare per forza all'ultimo modello sembri uno che automaticamente non ha il diritto di esprimere la propria opinione o quantomeno a cui non dare troppo retta

FroZen
16-03-2016, 14:24
Finito le query :sofico:

L'utente nvidia enthusiast cambia le vga come mutande....prende la 970 al day 1 (il koreano si strofina le mani, gli AIB pure e pure i distributori) la paga 450 cucuzze, va talmente bene che ne prende un'altra (non sensa ma ... è così spesso) dopo sei mesi ha la 980ti....la prende a 700 cucuzze al day 1.....ma prima ha rivenduto le 970 ("eh sai, sempre meglio avere single gpu" :mbe: ) a quasi 400 l'una quindi ci mette quasi nulla (e il koreano si è strofinato tre volte le mani e così aib e distributori e il market share schizza), perché?!? Perché c'è gente disposta a pagargli ancora un pezzo di iva quasi pur di avere la vga (tralasciando che non è a norma con le regole mercatino ma oh, pirla chi l'ha comprata) a 50€ in meno rispetto allo shop....

Finchè il prezzo del nuovo non cala, l'usato tiene e si è invogliati a fare lo switch..... come si fanno a far calare i prezzi?!? Più concorrenzaaaaaaaaaaaaaaaaaaaaaaaaaa (oppure non comprando :asd: ) e qui amd nelle ultime due uscite è sempre arrivata dopo, solo con le 290 i possessori di 780 hanno accusato il colpo....ma sono diventati poi tutti possessori di 970 3,5+0,5GB spaventati dal trend dei game alloca-ram.....

Raven............già sai :O hwupgrade rieducational channel North korea edisciòn

Free Gordon
16-03-2016, 15:28
AMD si deve svegliare.

Secondo me Lisa ha iniziato col piede giusto, sto vedendo cose buone dal lato marketinghettoso...

Vedremo se riuscirà a tirarla un pò più su nei prox 2 anni...verso il 25%.. (l'ideale per RTG sarebbe il 30!)

FroZen
16-03-2016, 15:56
40 a 60 come era sempre stato....del marketing di lisa mi ci faccio una pippa tanto lo sa che non resisto al suo fascino e al bazooka, a me piace un sacco invece l'RTG (si quello che significava che amd falliva per la 1000esima volta) e il raja guru panda :O la ciccia si fa nel campo HPC dove ti ordinano 1000 o 2000 schede firepro alla volta, server/workstation............le vga gaming sono relativamente a bassa marginalità ma hanno i volumi....

FroZen
16-03-2016, 16:27
Si però, però però...............

Obrigado NON ha fatto un discorso da snob, ha solo detto che a torto o ragione in quanto a monitor gliene sono passati sotto le mani molti, e si spendono soldi anche qui a torto o ragione e quindi si sentiva più in dovere di poter dare die giudizi (obiettivi o meno è un altro paio di maniche ma la questione non cambia), NON mettiamo cose in bocca a utenti cose che non hanno detto altrimenti inutile lamentarsi se poi si flamma ad ogni dove.....

Pìs en' lòv

deadbeef
16-03-2016, 16:33
non era riferito a quello, anche se effettivamente poteva sembrare, io gioco ad umili 60fps su tv senza adaptive sync per cui non metto bocca in tali discorsi

fraussantin
16-03-2016, 16:43
La strategia nvidia è corretta, ci sono compratori fessi perché non approfittarne? :D


Direi che non è il caso di generalizzare.

Nvidia su dx11 ha reso meglio , specialmente su tecnologia propietaria , la più diffusa. ( quella amd non esiste in nessun tripla a)

Su dx 12 per ora ( PER ORA) è avanti amd , ma già il diavolo verde sta scaldando il forcone ( con effetti proprietari. )


Poi anche tu hai detto più volte che si deve guardare al subito e non al poi .. quando si compra una vga...


Quindi se uno cambia vga ogni 2 anni o 3 sarebbe stato fesso a spendere di più , o uguale per rinunciare ad effetti e ottimizzazioni verdi.

Radeon80
16-03-2016, 16:48
Se Polaris 10 avrà gli stessi SP di Hawaii con tutti i miglioramenti di GCN4 secondo me arriverà a livelli prestazionali della Fury liscia.

Obrigado
16-03-2016, 17:02
Vi sto leggendo....


Vedete di non dire cose che non dovete dire....

Bivvoz che problema hai?

Obrigado
16-03-2016, 17:08
non era riferito a quello, anche se effettivamente poteva sembrare, io gioco ad umili 60fps su tv senza adaptive sync per cui non metto bocca in tali discorsi
Chiudiamo sto discorso.

La mia uscita è stata violenta, per placare con forza la disinformazione che si stava facendo.

Stop.

Poi se a voi brucia che ho provato 17 monitor e che sono stato bannato da amazon...

Radeon80
16-03-2016, 17:13
Ma conosci quali sono i miglioramenti di gcn4 o speri che sia così? :stordita:

Si sa che GCN 4 porterù miglioramenti in tutte le parti della GPU,ma non so quanto sarà.
La mia è più una speranza da appassionato.
Sarebbe poi strano che Polaris 10 anche con la metà del consuma andasse come la 390x.

deadbeef
16-03-2016, 17:13
ao', ho scritto che non era riferito a quello perchè non ho mai provato monitor con adaptive sync e mi metti in mezzo...certo che poi scoprire che hai provato 17 monitor facendo i resi su amazon apre scenari che portano a considerazioni magari poco lusinghiere, altro che monolocale in via monte napoleone. Anche se effettivamente ho notato che questa cosa la fanno parecchi youtubers, prendono, fanno il video, rimandano indietro, poi chissene se gli bannano l'account

Obrigado
16-03-2016, 17:15
ao', ho scritto che non era riferito a quello perchè non ho mai provato monitor con adaptive sync e mi metti in mezzo...certo che poi scoprire che hai provato 17 monitor facendo i resi su amazon apre scenari che portano a considerazioni magari poco lusinghiere, altro che monolocale in via monte napoleone

Ci sta un prima e un dopo e ci sono altri.

deadbeef
16-03-2016, 17:16
mi fido :confused: :ubriachi:

Obrigado
16-03-2016, 17:25
Parliamo di gpu per favore

Obrigado
16-03-2016, 17:36
hanno dichiarato 2.5x di efficienza, per tanto 232mmq di Polaris 10 equivalgono a 580mmq di Fiji e Fiji conta 596mmq :read:

quindi se mantengono le attese ed il Die di Polaris 10 si confermasse essere 232mmq le prestazioni sarebbero da ~Fury X con TDP da 110~120watt

non conto il TDP della Nano da 175watt ma quello della Fury X da 275watt 275/2.5= 110watt

Polaris 11 100~120mmq potrebbe avere un TDP da 60watt e senza connettore ausiliario e prestazioni da 370x/380
E sarebbe notevole...

Nurabsa
16-03-2016, 17:46
Ti ho già risposto su questo, le uniche due schede non customizzate sono la fury x e la fury nano e su queste due sono d'accordo con te e dico che è stato un errore da parte di AMD, hanno avuto i loro motivo che capisco ma a parer mio restano sbagliati.

Ma tutte le altre hanno modelli custom a go go (tri-x, nitro, strix, ecc.) alcune case non fanno amd (come evga) alcune case non fanno nvidia (come sapphire).

La strategia nvidia è corretta, ci sono compratori fessi perché non approfittarne? :D


il tuo parere mi interessa esattamente come quello degli altri,
avrei acquistato il top di amd quindi giusto per non girarci intorno inutile parlare di fury non X.
la questione è semplice i livelli qualitativi delle rifiniture e non solo raggiunti dalla kpe a mio personalissimo avviso non ci sono in nessuna custom.
Spero che al piu presto si presenti l occasione di una auspicata ardua scelta tra schede dal design curatissimo esempio entrambe dualslot/dualfan, quelle lughe trifan non fanno per me ex possessore g1 970.
Specifico se sapphire non fa verde non ci perde nessuno, ma che amd non abbia un brand iper curato con cui rivaleggiare ev*a per me è una grave mancanza

scrivere e confrontarsi è sempre un piacere :)

FroZen
16-03-2016, 18:23
Le fury scarseggiavano talmente che solo tre aib hanno chiuso contratti al day1 diciamo....anche le titan sono solo reference e la 980ti delle rosse sono le fury lisce e infatti ci sono le custom

Comunque anche qui le vendite impattano....hai un roi migliore su 1k o su 8k venduti?!

FroZen
16-03-2016, 20:32
Interessante, ci sono pure le fermi

http://www.overclock.net/content/type/61/id/2728396/

Lol non è l'hitman che pensavo, ma rimane interessante

FroZen
16-03-2016, 20:36
raja sta martellando forte asd

http://www.overclock.net/content/type/61/id/2734904/

http://www.overclock.net/content/type/61/id/2734905/

deadbeef
16-03-2016, 20:59
Anche su Linux si muove qualcosa:

http://www.phoronix.com/scan.php?page=article&item=ubuntu-1604-amd&num=1

FroZen
16-03-2016, 22:37
La terza partizione di m8 infatti è per una distro linux magari steamos

Ale55andr0
16-03-2016, 23:30
E sarebbe notevole...

sarebbe be più che notevole...ma non ci credo finchè non vedo

killeragosta90
16-03-2016, 23:51
Interessante, ci sono pure le fermi

http://www.overclock.net/content/type/61/id/2728396/

Lol non è l'hitman che pensavo, ma rimane interessante

Figo questo! Lato Nvidia è "invecchiata" meglio la 580 rispetto alla 680, calcolando l'anno di uscita, almeno su questo test....

Free Gordon
17-03-2016, 00:06
Sarebbe poi strano che Polaris 10 anche con la metà del consuma andasse come la 390x.


E' difficile però che GCN resti fedele a se stessa...e cominci d'incanto a consumare poco. :)

Di là del PP, che permetterà di scendere ovviamente coi consumi, se AMD continua a proporre un design "SIMD" così ampio, le conseguenze sui consumi saranno evidenti anche @14nm...

Il consumo di GCN è dato dalla struttura del suo shader core (oltre che da un MC molto massiccio), che ha prestazioni esaltanti in molti scenari di calcolo, migliori persino dell'attuale concorrenza (Maxwell) ma ha di contro il difetto di portare a dei consumi elevati.

Ora non so Koduri cosa abbia deciso con GCN4.0...
ma il fatto che mantenga lo stesso nome mi fa pensare che
1) per ridurre i consumi abbia tagliato "più profondamente" le features inutili a livello gaming del vecchio core e risparmiato molti transistor per salire di più di frequenza e fare rendere di più le unità specializzate o che
2) se non sono state tagliate...il chip consumerà necessariamente di più del corrispettivo Nvidia votato al gaming. :read:

Se è valida la 1, ecco come un chip da 220mmq sui 14nm può arrivare a rendere come un Fiji sui 28...
Ma i "super poteri" :D di GCN, su un chip del genere saranno andati quasi del tutto persi. Felice di essere smentito eh. :D
E soprattutto, potrebbe essere in debito di "features" nei confronti della rivale. Una cosa simile a quella che è successa con l'architettura Terascale dove piccolo e parco, era anche bello...

Certo è che se sono veri i dati, un die del genere su una GPU di punta....solo leggermente più grande della 3870...sono eoni che non si vede. Per dire la 5870 era ben 332mmq ed è cmq sempre stata considerata piccola e parsimoniosa...

deadbeef
17-03-2016, 00:34
Balla un 14% di differenza tra i pp a 14nm e 16nm che potrebbe consentire margini di manovra più ampi lato consumi/prestazioni

Free Gordon
17-03-2016, 11:02
comunque immagino che P10 avrà 8 GB e P11 4 GB, tutte due hbm1...


A questo punto, spero proprio sia così...

Costeranno care però....le P11..

Free Gordon
17-03-2016, 11:09
Figo questo! Lato Nvidia è "invecchiata" meglio la 580 rispetto alla 680, calcolando l'anno di uscita, almeno su questo test....


Beh la 580 "consumava un pò" ma è sicuramente la scheda più "completa" tra serie 400,500 e 600. ;)

Credo sia stato il più giusto compromesso tra consumi/potenza e features che ha tirato fuori Nvidia dalla 8800GTX in poi.

Free Gordon
17-03-2016, 11:12
sul P11 che siano memorie hbm infatti non sono ancora convinto al 100% anche se quel notebook 4k me lo fa pensare, sul P10 si sono più che convinto così come che faranno la versione a 8GB di HBM1

Che Notebook?? :eek:



nel Q1 2017 sono curioso di vedere che differenza ci sarà sia come prezzo che come prestazioni tra P10 hbm1 8 GB e V11 hbm2 8~16GB
ps. certo che con zen_apu nel 2017 si potranno avere PC senza ram di sistema :sofico:

Quell'APU (quella grossa :oink: :oink: :oink: ) la voglio!!! :sofico:

Free Gordon
17-03-2016, 12:46
Comunque l'articolo su anandtech (http://www.anandtech.com/show/10145/amd-unveils-gpu-architecture-roadmap-after-polaris-comes-vega) dice che polaris avrà gddr5 e che la più piccola (polaris 11) è una gpu per mobile (notebook).


Non si capisce però "quale" delle due polaris usa le gddr5...

Perchè credo difficile che non usino le HBM1 su schede che devono combattere con le 1080.

Le 1070/80 saranno le nuove 970/980 e quindi, soprattutto la 970, si troverà in un segmento molto remunerativo! AMD non può contrastare una 1070 con una polaris10+gddr5... perlomeno non ci credo finchè non vedo! :D

Free Gordon
17-03-2016, 12:50
scusa hai ragione :D
http://videocardz.com/58621/amd-polaris-10-engineering-sample-pictured


Il notebook 4K passivo! :sofico:
Figata! :oink: :oink: :oink:

Lo voglioooo :sofico:


Quindi aspetto settembre/ottobre per cambiare il mio attuale fido i3 2310 con GT540m! :D Compirà 5 anni proprio in quei gg..

smoicol
20-03-2016, 14:52
il tuo parere mi interessa esattamente come quello degli altri,
avrei acquistato il top di amd quindi giusto per non girarci intorno inutile parlare di fury non X.
la questione è semplice i livelli qualitativi delle rifiniture e non solo raggiunti dalla kpe a mio personalissimo avviso non ci sono in nessuna custom.
Spero che al piu presto si presenti l occasione di una auspicata ardua scelta tra schede dal design curatissimo esempio entrambe dualslot/dualfan, quelle lughe trifan non fanno per me ex possessore g1 970.
Specifico se sapphire non fa verde non ci perde nessuno, ma che amd non abbia un brand iper curato con cui rivaleggiare ev*a per me è una grave mancanza

scrivere e confrontarsi è sempre un piacere :)

Sapphire fa' ottimi prodotti curati, proprio come evga, pero' se il prodotto non tira, puoi aver il miglior dissipatore e le migliori features, ci fai poco, se uscira' un chip notevole vedrai come se ne parlera'
Alla fine anche evga non e' nvidia e' solo un partner

Nurabsa
20-03-2016, 15:45
Sapphire fa' ottimi prodotti curati, proprio come evga, pero' se il prodotto non tira, puoi aver il miglior dissipatore e le migliori features, ci fai poco, se uscira' un chip notevole vedrai come se ne parlera'
Alla fine anche evga non e' nvidia e' solo un partner

La cosa è soggettiva,

se ho scelto ev*a vuol dire che è stato colpo di fulmine indipendentemente dalla marca della gpu.
Sempre curioso di capire quale sarebbe la risposta sapphire alla kpe :)

Nurabsa
20-03-2016, 16:16
Che ha di così speciale sta kpe?

cosa ha di speciale lo deve scoprire chi è interessato in caso all acquisto,
nel mio caso posso dirti cosa secondo me ha di speciale.

Se c'è una cosa che unisce sotto la stessa bandiera tutti gli appassionati credo sia qualita con cui indipendentemente dalla gpu rossa o verde, viene realizzato il gruppo termico e quindi a quale temperatura d esercizio starà la nostra scheda.
Rispondo a te perche mi hai fatto una domanda diretta ma non l ho mai scritto prima di adesso ne mi interessa farlo a scopo tifo.
In tutti questi mesi pensavo si di avere un buon raffreddamento leggermente piu efficiente delle altre ma niente di eclatante.
Se non fosse che ho realizzato da poco che ho sempre confrontato i miei 59° con le altre, senza considerare che ero l unico fesso in uhd.
Voglio dire che a parità di fhd la differenza tra la mia e le altre non è piu 4/5° perche la mia lavora a 40°.
Se a tutto questo aggiungi che gira al massimo 1510gpu 8300ram direi che hanno fatto una lavoro egregio alla casa madre.
Sull estetica ho gia scritto ma li è molto personale il concetto di bello, di sicuro ho apprezzato le misure non da bisteccona stile gigabyte g1 in generale le triventola sono tutte belle lunghe.

°Phenom°
20-03-2016, 16:31
La cosa è soggettiva,

se ho scelto ev*a vuol dire che è stato colpo di fulmine indipendentemente dalla marca della gpu.
Sempre curioso di capire quale sarebbe la risposta sapphire alla kpe :)

Per amd brand che fanno gpu multifase più serie ci sono anche le solite msi, asus, giga e powercolor. La toxic di sapphire è si una custom di livello superiore alla media, però non compete con le multifase estreme come appunto lightning, matrix, soc, kpe (in caso di nvidia) ecc..

CiccoMan
20-03-2016, 17:25
Io ci ho guardato un po'.
"abbiamo fatto il dissipatore figo, le fasi fighe, il sistema di alimentazione figo..." insomma le solite cose di una custom.
Non mi pare abbia niente da che invidiare ad una fury nitro di sapphire per esempio.

Se facessero la fury kpe ti accorgeresti che tra evga e sapphire c'è la stessa differenza che c'è tra una 458 italia e una punto Abarth...

Guarda quante fasi ha e che regolatori usa la kpe e guarda la nitro oppure guarda come è fatto il dissipatore... Certo, le modifiche sempre quelle sono, del resto parliamo sempre di vga, ma la qualità è diversa ;)

AkiraFudo
20-03-2016, 19:06
sta bene che la compri per sfizio ma la kpe ad aria è paradossale.
E' una scheda per competizioni. Usata così va come la punto abarth perchè di tutte le menate per tenere voltaggi assurdi non te ne fai nulla.
In pratica tieni la ferrari in garage.

CiccoMan
20-03-2016, 19:29
Questo è vero. Rimane comunque una vga che boosta di suo più alto delle altre e con un dissipatore iper efficiente... Comunque è sprecata, perché non viene usata per quello per cui è pensata. Spesso è più una questione estetica e/o di sfizio che altro :D

CiccoMan
20-03-2016, 20:55
Ahhh ok adesso mi è chiaro.
La kpe è una di quelle.
Una di quelle che servono a 100 persone sul pianeta e altre migliaia prendono per niente ma solo perché fa figo.

Ok ottimo sfoggio di abilità tecnica da parte di evga, ma non mi venite a dire che il problema di amd è il non avere un partner che mette sul mercato una cosa del genere.

Perdonami, sono entrato in un discorso non mio e non avevo capito che la cosa fosse partita da li.

Visto che ormai sono dentro... imho AMD non ha nessun problema, non mi sembra un'azienda in difficoltà... stiamo sempre parlando di un competitor mondiale... magari io fossi presidente di una realtà di questo tipo :D

I suoi prodotti sono frutto di scelte politico-economiche volte all'ottenere il maggior margine possibile... mica stanno li a pensare di far contenti i fanboy che si scannano nei forum :sofico:

Io sbaverei di fronte ad una Fury X Matrix Platinum o Lightning, ma evidentemente ai vertici avranno fatto i conti e concluso che a loro non conviene :read:

mikael84
20-03-2016, 23:01
Sulle fury x comunque non c'è molto da fare, la fanno solo reference.
Secondo me non è una bella mossa, ma avranno avuto i loro motivi.

Non mi pare che solitamente su AMD ci siano versioni così estreme, ma comunque non si sarebbero sbattuti a farle sulle fury lisce.

AMD ha fatto tantissime multifase e spesso più di Nvidia.
Phenom e Frozen sicuramente si ricorderanno.
Con le 7970, c'era la HIS turbo con ben 14+2 fasi(stupenda, l'unico brand che non bloccava il voltaggio insieme alla dual-x).
La Asus matrix platinum in versione da ben 18 fasi + 2 (un record di fasi)
la gigabyte SOC WF5 (c'era anche la 680 di questa) con i proadlizer di tensione, una scheda formidabile (la possedeva Lurenz).
La lightning era un mostro come le Nvidia.
La sapphire 7970 toxic di sapphire, una belva con modelli selezionati da 1200 stock.

Le ultime serie sono tutto un programma, bisogna vedere le varie Pascal con HBM.
Bisogna dare a Cesare quel che è di Cesare.:)

CiccoMan
20-03-2016, 23:05
Sisi, almeno fino alla 290x esistono sia la Matrix che la Lightning. Belle bestie, roba da LN2.

La linea Fury credo che non abbia beneficiato di tali versioni per via delle HBM... non so, magari non sono riusciti a customizzare in tempo i pcb. Se ci pensi inizialmente solo pochissimi partner hanno presentato la fury e ancora alcuni sono latitanti.

Per il futuro spero che AMD riprenda a produrre schede ultra enthusiast, perche fanno buona pubblicità... Si sa, l'immagine è tutto ;)

FroZen
21-03-2016, 07:22
Fury strix e fury x come pcb sono signori pcb lasciate stare...

dado1979
21-03-2016, 09:07
Se facessero la fury kpe ti accorgeresti che tra evga e sapphire c'è la stessa differenza che c'è tra una 458 italia e una punto Abarth...

Guarda quante fasi ha e che regolatori usa la kpe e guarda la nitro oppure guarda come è fatto il dissipatore... Certo, le modifiche sempre quelle sono, del resto parliamo sempre di vga, ma la qualità è diversa ;)
Le differenze di cui parli stanno nel prezzo... non nella quantità di frame generati.
Le schede estreme costano un botto in + per una pochi frame in più.
Per le gpu AMD questa cosa è lampante... millemila fasi, pcb a 2000 strati e poi fanno il 5 % in overclock.

Nurabsa
21-03-2016, 09:25
Ahhh ok adesso mi è chiaro.
La kpe è una di quelle.
Una di quelle che servono a 100 persone sul pianeta e altre migliaia prendono per niente ma solo perché fa figo.

Ok ottimo sfoggio di abilità tecnica da parte di evga, ma non mi venite a dire che il problema di amd è il non avere un partner che mette sul mercato una cosa del genere.

se per te 20° in meno è figaggine allora scegliamo le vga con criteri diversi.
Dopo la brutta esperienza fermi personalmente sono ossessionato dalle prestazioni termiche.
Se l azienda avesse fatto questo prodotto solo per liquido/azoto non penso avrebbe posto cosi tanto zelo sul raffreddamento ad aria, poteva evitarsi il rame e la finitura specchiata ad esempio.
Praticamente senza raffreddamento ad aria perde quasi tutta la sua bellezza.

Ti prego non dipingermi come mister figaggine te ne sarei grato, ho risposto solo ad una domanda diretta da te posta, nel mio piccolo in maniera tecnica :)

Trokji
21-03-2016, 11:59
Ma quando è la data di uscita delle nuove schede?

HORN
21-03-2016, 12:09
Buona Meta´ maggio oppure ultimi di maggio 2016
Se tutto non va bene inizio giugno 2016

FroZen
21-03-2016, 12:26
A giugno esce sia amd che nvidia con cosa bho ma qualcosa esce

sgrinfia
21-03-2016, 12:34
Intel e AMD: accordo di licenza sui brevetti grafici?

di Manolo De Agostini - @mdeagostini 21 Marzo 2016, 07:21 28 commenti

Secondo voci di corridoio Intel potrebbe bussare alla porta di AMD per siglare un accordo di licenza su alcune tecnologie grafiche. Tale intesa ne sostituirebbe una analoga con Nvidia che si avvicina alla scadenza.
Il mondo finanziario s'interroga su un possibile accordo tra Intel e AMD per quanto riguarda la licenza di brevetti tecnologici in ambito grafico. L'indiscrezione giunge da un presunto report di Bloomberg, che tuttavia non appare sul sito economico. Il primo a ribattere questa "notizia" è stato il blog Barron's.

A oggi Intel ha un accordo con Nvidia da oltre 1,5 miliardi di dollari che riguarda alcuni brevetti tecnologici, sulla base di un'intesa del 2011 trovata per mettere fine a dura battaglia in tribunale. Tale alleanza, che porta nella casse di Nvidia circa 66 milioni di dollari a trimestre, ha però una durata: sei anni.
L'accordo dovrebbe quindi terminare il 17 marzo 2017 e Intel anziché rinnovarlo starebbe guardando ad AMD per siglare un accordo simile. Il possibile patto tra le due rivali del settore microprocessori potrebbe portare benefici tangibili ad AMD, ossia una nuova fonte d'introiti molto utile per un'azienda che da anni si trova in una forte crisi finanziaria.

Intel invece potrebbe pescare qualche valida tecnologia tra le fila di AMD, e sostenere tecnologie di cui AMD è "portavoce" come ad esempio il FreeSync (che si basa sullo standard Adaptive-Sync della VESA): l'azienda si era infatti professata interessata ad abbracciare lo standard gratuito per la gestione del refresh rate variabile.

Uno sviluppo di questo genere potrebbe rendere il FreeSync lo standard di fatto nel mondo dei monitor con refresh rate variabile (anche se, in qualche modo, lo sta già diventando), relegando il G-Sync in un angolo - e magari portando Nvidia ad abbracciare, finalmente, lo standard aperto.

Un'altra tecnologia interessante per Intel è AMD XConnect, per l'uso di schede video esterne insieme a prodotti come i NUC, non ultimo il potente modello Skull Canyon. Al momento però rimane solo un'indiscrezione, per di più senza una chiara fonte nero su bianco. Apparsa sul web nella giornata di venerdì, abbiamo atteso qualche giorno per riportarvela sperando nella disponibilità di qualche dettaglio in più che tuttavia non è ancora pervenuto.
:confused:

dado1979
21-03-2016, 13:15
Quindi Microsoft monta GPU (anzi APU) AMD, Sony monta APU AMD, Intel potrebbe montare GPU che almeno in parte derivano da tecnologie AMD.
Ma in AMD chi li stipula i contratti? Topo Gigio?
Praticamente montano GPU AMD in ogni dove e sono sempre in rosso.
O le regalano o spiegatemi dove caspita spendo i soldi.
Ti rigiro la frittata... Ma secondo te perché ultimamente montano tutti gpu AMD? Consoles Microsoft e Sony, Intel etcc...
Devono riguadagnare fette di mercato - per farlo devono vendere a basso costo - di conseguenza i ricavi sono bassi - si spera che nei prossimi mesi AMD guadagni mercato altrimenti il gioco è finito.

dado1979
21-03-2016, 13:47
Si ok, ma quando stipuli un contratto con MS o Sony per le APU lo sai bene che il prezzo sarà sempre quello, mica puoi regalarle.
Il prezzo non è sempre quello... se non le "regali" come stanno facendo... non avrebbero fatto contratti con tutti. ;)

deadbeef
21-03-2016, 15:05
O forse fanno i contratti perchè sono gli unici ad avere delle APU

fraussantin
21-03-2016, 15:21
O forse fanno i contratti perchè sono gli unici ad avere delle APU
Hanno firmato dei contratti prima di iniziare la produzione di entrambe.

Gli altri han dichiarato di non poter lavorare a quei prezzi.

deadbeef
21-03-2016, 15:26
faccio finta di non aver letto certi commenti e vado avanti

FroZen
21-03-2016, 16:10
La divisione semicustom infatti è da anni l'unica redditiva

Ale55andr0
21-03-2016, 16:17
OT

già mi immagino le prossime console nel ~2020 con un APU+HBM (o la NEXT-GEN MEMORY ???) da 64~128GB a 10~7nm da 12~20TFlops in 120watt :sofico:

OT

doveva essere queslla la VERA next gen, APU a 10nm con gpu integrata polaris o successiva e 16/+gb di hbm unificate. Invece hanno avuto fretta di far uscire quei ROITI che han fatto quando di li a "poco" si sarebbero resi disponibili i pp a 14nm e le prime implementazioni di hbm..che costava aspettare qualche altro anno dopo il ciclo gia biblico in corso? niente. Risultati? giochi che se tengono 30fps a 1080 è grasso che cola (quando a 1080p...), microsoft che in pratica toglie le esclusive a one e le muta in multipiatta per windows e rumors su una one/ps 4 "potenziate" con solenne incazzatura dell'utenza :asd:

Sul chissenefrega delle console dissento. Perchè? beh perchè con grandi console ne avrebbero indirettamente beneficiato anche i titoli PC, vedasi TW3 castrato per non far sfigurare quei CESSI per cui lo hanno fatto uscire

FroZen
21-03-2016, 16:25
infatti in cantiere c'è una superapu per ambito server, non ricordo il nome

dado1979
21-03-2016, 16:53
Vuoi farmi credere che AMD ha firmato un contratto con MS e Sony per prodotti che sono usciti nel 2013 prima del 2011 anno in cui è uscito Llano?
Che dirti... hai sicuramente più esperienza dei commerciali AMD e in un battibaleno risolveresti una situazione finanziaria così semplice (solo x te) di AMD.
Le cose non stanno come pensi te, altrimenti AMD sarebbe in attivo; non lo è, quindi:
- o i commerciali sono completamente degli incapaci che non sanno fare un controllo costi/preventivo;
- oppure la cosa è voluta e sono costretti a vendere con una margine risicatissimo (e infatti gli altri si sono tirati insietro); per acquisire quote di mercato.

dado1979
21-03-2016, 17:26
Ma cosa vogliono dire sti commenti?
Ho solo fatto notare che nonostante AMD abbia firmato contratti interessanti sia ancora in rosso.
Era chiaramente un'esagerazione la mia per evidenziare la cosa.
Non condivido il tuo ragionamento che mi sembra veramente troppo semplicistico.
Quello che sostengo io è che AMD non ha firmato contratti interessanti... AMD è stata costretta fare contratti con tutti (perchè in rosso) senza grossi margini per acquisire quote di mercato e da qui a fare utili ce ne passa ancora.

FroZen
21-03-2016, 17:46
Tutti analisti societari qui vedo :asd:

traider
21-03-2016, 17:50
POLARIS SI MOSTRA

http://hardware.hdblog.it/2016/03/21/AMD-Polaris-immagini/

http://i2.hd-cdn.it/img/width330/height322/id499604_1.jpg

Il pannello mostra tre connettori Display Port 1.3, HDMI 2.0a e il classico DVI; ricordiamo che DP 1.3 è capace di gestire una banda sufficiente per contenuti 5K, ossia 5120 x 2880 pixels a 60 Hz, oppure 4K-HDR (3840 x 2160 con HDR a 60 Hz), o anche 4K-SDR a 120 Hz.

http://i2.hd-cdn.it/img/width330/height322/id499603_1.jpg

Il sistema in questione è stato capace di far girare Hitman 2016 (DX 12) con settaggi Ultra a 2560x1440 pixel, il tutto a oltre 60 FPS.

dado1979
21-03-2016, 18:17
Tutti analisti societari qui vedo :asd:
Io faccio anche preventivi e controllo costi dove lavoro... non è difficile da capire cosa AMD sta cercando di fare... inoltre è l'unica cosa che può fare, oltre che diversificare.

mirkonorroz
21-03-2016, 19:03
Scusate l'OT, ma sapete se sia mai stata distribuita al pubblico QUESTA (https://www.youtube.com/watch?v=V0TyhQiY2pQ&ebc=ANyPxKqqhqUwm-BS7XQRF9tMk79awobq8yyRkhURjezR-qAl1ZOtdxlzdcQMvhg1bWsu8XwMkke9) demo realtime di Ruby (o magari anche quella cinematic in qualita' "ottima")?

Free Gordon
22-03-2016, 00:30
ormai non si poteva più aspettare,

Credo anche io che non potessero più attendere...ma non si poteva fare di meglio con le APU sui 28nm nel 2013.

Il problema non è solo il wattaggio (in realtà la ONE consuma meno di 120W..), il problema era fare degli hw che dovevano fare "profitto" al lancio.

Al contrario di quello che successe con PS360 (e con tante altre macchine del passato), vendute in perdita nei primi anni.
Con una GPU "grossa" dentro, le attuali nextgen sarebbero costate troppo...

Free Gordon
22-03-2016, 00:37
Che dirti... hai sicuramente più esperienza dei commerciali AMD e in un battibaleno risolveresti una situazione finanziaria così semplice (solo x te) di AMD.
Le cose non stanno come pensi te, altrimenti AMD sarebbe in attivo; non lo è, quindi:
- o i commerciali sono completamente degli incapaci che non sanno fare un controllo costi/preventivo;
- oppure la cosa è voluta e sono costretti a vendere con una margine risicatissimo (e infatti gli altri si sono tirati insietro); per acquisire quote di mercato.


AMD non avrebbe certo ripianato i debiti solo perchè ha concesso delle tecnologie in licenza per le APU delle console. ;)

Ricordo a tutti che AMD ha solo concesso delle licenze/tecnologie, tutti i chip sono marchiati Microsoft, Sony, Nintendo...e sviluppati/customizzati dalle rispettive case. ;)

AMD era l'unica casa sul mercato che poteva permettere di raggiungere gli obiettivi che i 3 competitors si erano posti, nei tempi e nei costi previsti.

Nè Intel nè Nvidia avrebbero potuto fare ciò che ha fatto AMD. Questo è il motivo principale per cui è stata scelta da tutti e tre...
Per le nextgen, l'obiettivo principale era tenere i costi bassi.

deadbeef
22-03-2016, 06:45
Non sarebbe male una APU Zen+Polaris

http://www.ocaholic.ch/modules/news/article.php?storyid=14416

dado1979
22-03-2016, 14:09
AMD non avrebbe certo ripianato i debiti solo perchè ha concesso delle tecnologie in licenza per le APU delle console. ;)

Ricordo a tutti che AMD ha solo concesso delle licenze/tecnologie, tutti i chip sono marchiati Microsoft, Sony, Nintendo...e sviluppati/customizzati dalle rispettive case. ;)

AMD era l'unica casa sul mercato che poteva permettere di raggiungere gli obiettivi che i 3 competitors si erano posti, nei tempi e nei costi previsti.

Nè Intel nè Nvidia avrebbero potuto fare ciò che ha fatto AMD. Questo è il motivo principale per cui è stata scelta da tutti e tre...
Per le nextgen, l'obiettivo principale era tenere i costi bassi.
I competitor non si erano posti nessun obbiettivo particolare in questa generazione... semplecemente ogni (e per "ogni" intendo che è sempre stato così) volta che si parte con un progetto, si cerca l'hardware di minima e quindi si cerca di spendere il meno possibile, sempre. Detto come lo dici tu sembra che questa volta avrebbero risparmiato per poi spendere di più nelle prossime console... così non è.
Questa volta c'era AMD che aveva le tecnologie per fare il minimo indispensabile (APU) ed era pure in una situazione finaziaria non bella... la manna dal cielo per i competitor... il reale problema è che con le tecnologie AMD hanno fatto davvero il minimo minimo inspensabile, lle APUsono davvero molto poco potenti.

LurenZ87
22-03-2016, 15:32
Credo di aver sbagliato thread, cercavo quello sulle nuove AMD...


Inviato dal mio Samsung Galaxy S6 utilizzando Tapatalk

Ale55andr0
22-03-2016, 15:37
Credo di aver sbagliato thread, cercavo quello sulle nuove AMD...


Inviato dal mio Samsung Galaxy S6 utilizzando Tapatalk


ma che pretese assurde che hai :O

dado1979
22-03-2016, 16:06
Credo di aver sbagliato thread, cercavo quello sulle nuove AMD...


Inviato dal mio Samsung Galaxy S6 utilizzando Tapatalk
Si chiamerà Polaris, userà i 14/16 nm Finfet come transistor gate, avrà un rapporto watt/frames per second molto più alto della generazione attuale, le versioni più potenti utilizzeranno le HBM di seconda generazione.

LurenZ87
22-03-2016, 16:14
ma che pretese assurde che hai :O

già...

Si chiamerà Polaris, userà i 14/16 nm Finfet come transistor gate, avrà un rapporto watt/frames per second molto più alto della generazione attuale, le versioni più potenti utilizzeranno le HBM di seconda generazione.

forse non hai capito il senso della frase...

...poi non vi lamentate se passa FreeMan e vi sospende per OT.

FroZen
22-03-2016, 16:21
Credo di aver sbagliato thread, cercavo quello sulle nuove AMD...


Inviato dal mio Samsung Galaxy S6 utilizzando Tapatalk

Devi andare nel thread aspettando nvidia per quello :O li sanno già che saranno un flop :asd: #sischerza

Ren
22-03-2016, 16:21
I competitor non si erano posti nessun obbiettivo particolare in questa generazione... semplecemente ogni (e per "ogni" intendo che è sempre stato così) volta che si parte con un progetto, si cerca l'hardware di minima e quindi si cerca di spendere il meno possibile, sempre. Detto come lo dici tu sembra che questa volta avrebbero risparmiato per poi spendere di più nelle prossime console... così non è.
Questa volta c'era AMD che aveva le tecnologie per fare il minimo indispensabile (APU) ed era pure in una situazione finaziaria non bella... la manna dal cielo per i competitor... il reale problema è che con le tecnologie AMD hanno fatto davvero il minimo minimo inspensabile, lle APUsono davvero molto poco potenti.

Su un fatturato di 2.2mld della sezione server/Semi custom, più della metà è fatto da console, dato che AMD nei server è quasi defunta.
Non sono noccioline su 25-30 milioni(annualmente) di macchine vendute con guadagni risibili.

FroZen
22-03-2016, 16:25
Sto mettendo via i centesimi per prendermi le azioni amd, mi aspetto una crescita del 1550%

Raven segna :O

FreeMan
22-03-2016, 19:30
Basta OT:rolleyes:

>bYeZ<

Free Gordon
22-03-2016, 22:49
I competitor non si erano posti nessun obbiettivo particolare in questa generazione... semplecemente ogni (e per "ogni" intendo che è sempre stato così) volta che si parte con un progetto, si cerca l'hardware di minima e quindi si cerca di spendere il meno possibile, sempre.

No, ti sbagli. :)
La scorsa gen, l'effort è stato portato sulle performance. Infatti tutti e due spinsero (e spesero) tantissimo in R&D per salire in perf/watt.

Le attuali nextgen sono diverse in origine: queste console dovevano essere profittevoli già al dayone. Inoltre l'effort è stato anche portato sul lowpower. Tutti e due i design puntano a quello (con la ONE ancor più "tirata" da quel lato)


Detto come lo dici tu sembra che questa volta avrebbero risparmiato per poi spendere di più nelle prossime console... così non è.

Non ho detto assolutamente questo.



Questa volta c'era AMD che aveva le tecnologie per fare il minimo indispensabile (APU) ed era pure in una situazione finaziaria non bella... la manna dal cielo per i competitor... il reale problema è che con le tecnologie AMD hanno fatto davvero il minimo minimo inspensabile, lle APUsono davvero molto poco potenti.

E' anche una leggenda che le attuali nextgen siano poco potenti...
Trovami un pc fatto su quella nanometria, che consuma come la console più esosa delle due..e fa' girare alla stessa qualità gli stessi giochi... non c'è. ;)

Senza stare a scomodare un Uncharted 4 eh...

Il fatto è che queste console dovevano consumare 120W e non di più...sennò sarebbero potute essere più potenti...ovviamente..


AMD era l'unica che poteva fornire dei prodotti simili in quella timeline, a quel consumo, in quei prezzi.. ;)

dado1979
23-03-2016, 09:38
già...



forse non hai capito il senso della frase...

...poi non vi lamentate se passa FreeMan e vi sospende per OT.
Valà che ho capito bene cosa intendevi, ho imparato a conoscere la tua malizia col tempo.
No, ti sbagli. :)
La scorsa gen, l'effort è stato portato sulle performance. Infatti tutti e due spinsero (e spesero) tantissimo in R&D per salire in perf/watt.

Le attuali nextgen sono diverse in origine: queste console dovevano essere profittevoli già al dayone. Inoltre l'effort è stato anche portato sul lowpower. Tutti e due i design puntano a quello (con la ONE ancor più "tirata" da quel lato)




Non ho detto assolutamente questo.





E' anche una leggenda che le attuali nextgen siano poco potenti...
Trovami un pc fatto su quella nanometria, che consuma come la console più esosa delle due..e fa' girare alla stessa qualità gli stessi giochi... non c'è. ;)

Senza stare a scomodare un Uncharted 4 eh...

Il fatto è che queste console dovevano consumare 120W e non di più...sennò sarebbero potute essere più potenti...ovviamente..


AMD era l'unica che poteva fornire dei prodotti simili in quella timeline, a quel consumo, in quei prezzi.. ;)
"In quei prezzi" è veramente l'unica cosa che posso veramente condividere.
Il resto è quello che si crede in giro come al solito ma le cose non stanno così: nessuno si è imposto a priori di consumare massimo 120 W... la realtà è che quando si è deciso di usare APU AMD che consumavano 120W i commerciali hanno cavalcato l'onda sostenendo che hanno aumentato il rapporto perf/watt... è sempre sempre sempre così e mai il contrario... ti fanno credere che sia il contrario perché gli fa comodo.
Le gpu sono praticamente delle 7870: ora la 7870 è uscita nel febbraio 2012 mentre la PS4 ad esempio è uscita nel novembre 2013; sono 20 mesi dopo! E' chiaro che l'ottimizzazione fa un buon lavoro e con le directx 12 qualcosa ancora tireranno fuori... ma rimane il fatto (che non era mai successo tengo a precisare) che queste console sono nate già vecchie: quando sono uscite il loro hardware era già vecchio di 20 mesi.

FroZen
23-03-2016, 10:26
La 7870 è una gpu

La apu delle console è un ibrido di 8 core jaguar (architettura fantastica per ipc e consumi, intel qui era indietro) per la parte cpu e 7870/7850 per la parte igpu ( ma se non ricordo male hanno 8 ace invece che le classiche 2 di gcn1, una preview di tonga) insomma tanta roba per il target di quelle console 1080p@30fps

Le console non si costruiscono in un giorno (cit.) e non seguono le tempistiche del mercato retail di gpu, hanno piani industriali in anticipo di ANNI ...

La xbox vecchia aveva una fx di nvidia mentre ps ha sempre avuto chip custom fino alla 3 quindi anche qui le cose sono diverse

amon.akira
23-03-2016, 10:36
La 7870 è una gpu

La apu delle console è un ibrido di 8 core jaguar (architettura fantastica per ipc e consumi, intel qui era indietro) per la parte cpu e 7870/7850 per la parte igpu ( ma se non ricordo male hanno 8 ace invece che le classiche 2 di gcn1, una preview di tonga) insomma tanta roba per il target di quelle console 1080p@30fps

Le console non si costruiscono in un giorno (cit.) e non seguono le tempistiche del mercato retail di gpu, hanno piani industriali in anticipo di ANNI ...

La xbox vecchia aveva una fx di nvidia mentre ps ha sempre avuto chip custom fino alla 3 quindi anche qui le cose sono diverse


la xboxvecchia era sempre ati, l xbox vecchissima era nvidia :P

ovviamente tutti non usano mai gli stessi componenti, ma vengono sempre customizzati, anche la ps3 aveva una gpu derivata dalla 7800nvidia.

Ale55andr0
23-03-2016, 10:38
La 7870 è una gpu

La apu delle console è un ibrido di 8 core jaguar (architettura fantastica per ipc e consumi, intel qui era indietro) per la parte cpu e 7870/7850 per la parte igpu ( ma se non ricordo male hanno 8 ace invece che le classiche 2 di gcn1, una preview di tonga) insomma tanta roba per il target di quelle console 1080p@30fps

Le console non si costruiscono in un giorno (cit.) e non seguono le tempistiche del mercato retail di gpu, hanno piani industriali in anticipo di ANNI ...

La xbox vecchia aveva una fx di nvidia mentre ps ha sempre avuto chip custom fino alla 3 quindi anche qui le cose sono diverse


la vecchia xbox del 2001, che peraltro possiedo, aveva una geforce titanium "ibrida" fra la 3 e la 4 (NON una fx) leggermente downcoloccata (233mhz) rispetto la versione PC, con tanto di doppia unità vertex shader potenziata (inserita a partire dalla geforce 4, la 3 ne aveva una..) decisa peraltro all'ultimo momento ancora utile: usci' pure un libro con tutta la storia del suo sviluppo e le specifiche...ed era l'equivalente di una scheda di fascia alta del periodo, infatti solo di li a poco sarebbe uscita su PC la ge force 4 ti. Dove hai tirato fuori la nvidia fx, ovvero la serie 5 non lo so :fagiano:
Idem la 360 che montava una gpu Ati addirittura più avanzata della x1950xt presente sul mercato pc in quel momento, gpu con tanto di supporto parziale a direct x 10 e shader unificati a differenza di tutte le gpu PC di quel periodo, niente vertex/pixel pipeline differenziate. Ste console a differenza delle vecchie sono nate con un hardware strasuperato all'uscita (era fascia media nel 2011!!!) cosa che prima non era mai accaduta e non c'entrano i piani di sviluppo vecchi di anni, perchè pure quelli di polaris e di zen non li hanno iniziati 6 mesi fa...ma mooooolto prima.Tornando IT, io spero solo due cose: che le nuove gpu AMD eliminino in qualche modo i colli di bottiglia in dx 11 che restano ancora i titoli più diffuso e che almeno con la top, siano in grado di gestire il 4k...e ah, che montino 8 gb sulle top, perchè ancora non si è ben capito che tipo di memorie monteranno, c'è che parla di ritardi nell'implementazione di hbm 2...

FroZen
23-03-2016, 11:12
Mea culpa ricordavo male

Quanto consumava una x1950xt e una xbox 360?

amon.akira
23-03-2016, 11:44
la xbox360 debutto con un ali da 220watt se non ricordo male, la ps3 anche 250watt mi pare.

poi scesero passando da 90nm -> 65nm -> 45nm

FroZen
23-03-2016, 12:20
la xbox360 debutto con un ali da 220watt se non ricordo male, la ps3 anche 250watt mi pare.

poi scesero passando da 90nm -> 65nm -> 45nm

Ecco da qui si capisce perché nulla più di una 7870 poteva entrare in una nextgen del 2012 al di là del discorso costi fissi

amon.akira
23-03-2016, 12:49
be qui hanno debuttato con 120-140watt, quindi qualcosa in piu potevano dare, però volevano monetizzare fin da subito o forse più semplicemente non hanno progetti a lungo termine come per la scorsa gen che è durata un sacco.

DottorLeo
23-03-2016, 20:11
Ciao!

Per i curiosi su Polaris, volevo informarvi che AMD ha rilasciato la prima parte del codice per il supporto di Baffin e Ellesmere nei driver open source su Linux:

https://cgit.freedesktop.org/~agd5f/linux/log/?h=drm-next-4.7-wip-polaris

Il codice è presente sul repository di Alex Deucher (uno degli sviluppatori principali di AMD per Linux). Spulciando il codice si possono notare alcune caratteristiche delle nuove schede.

Inoltre è possibile vedere quante saranno le schede al debutto, precisamente 6 modelli per Polaris11 e 2 per Polaris 10: https://lists.freedesktop.org/archives/mesa-dev/2016-March/110716.html .

Radeon80
23-03-2016, 22:27
Sono molto incuriosito dalle caratteristiche architetturali di Polaris e quali novità avrà rispetto a Tonga e Fiji.
Poi c'è una parte della GPU che mi interessa quanto dovrebbe essere stata migliorata solo che non mi ricordo che componente è della GPU.
Mi ricordo solo che nella varie versioni di GCN è la causa dell'elevato Overhead in dx11 dei driver Catalyst e Crimson e che in Polaris dovrebbe rendere i giochi meno dipendenti dalla CPU anche in dx11.

FroZen
24-03-2016, 06:24
Ciao!

Per i curiosi su Polaris, volevo informarvi che AMD ha rilasciato la prima parte del codice per il supporto di Baffin e Ellesmere nei driver open source su Linux:

https://cgit.freedesktop.org/~agd5f/linux/log/?h=drm-next-4.7-wip-polaris

Il codice è presente sul repository di Alex Deucher (uno degli sviluppatori principali di AMD per Linux). Spulciando il codice si possono notare alcune caratteristiche delle nuove schede.

Inoltre è possibile vedere quante saranno le schede al debutto, precisamente 6 modelli per Polaris11 e 2 per Polaris 10: https://lists.freedesktop.org/archives/mesa-dev/2016-March/110716.html .


W i repository!!!

6 polaris dieci...fai che tre sono mobile e tre desktop... Mi aspetto 470, 480 e 480x na roba così...e poi 490 e 490x polaris 10...470 e 480/x 4gb e le altre tutte 8gb.... Vega avrà 16gb hbm2...

Free Gordon
24-03-2016, 08:30
6 modelli polaris 11.
Significa che è mooolto scalabile..

Capisco i 2 polaris 10... 490/X.


Con Pitcairn (in teoria il pari fascia di P11) quanti modelli hanno fatto all'uscita? Che io ricordi solo 7870 e 7850...o sbaglio?

FroZen
24-03-2016, 13:39
As for Kepler, GCN and Maxwell...

It has to do with compute utilization...


Just like Kepler's SMX, each one of Maxwell's SMM has four warp schedulers, but what's changed between SMX and SMM is that each SMMs CUDA cores are assigned to a particular scheduler. So there are less shared units. This simplifies scheduling as each of SMM’s warp schedulers issue to a dedicated set of CUDA Cores equal to the warp width (Warps are 32 thread wide and each scheduler issues its Warps to 32 CUDA cores). You can still dual issue, like with Kepler, but a single issue would result in full CUDA core utilisation. This means that you have less idling CUDA cores. (There's also the dedicated 64KB per SM of Maxwell over Kepler's 16KB + 48KB design).

Why is this important? Because console titles are being optimized for GCN. Optimizing for GCN means using Wavefronts (not Warps). Wavefronts are 64 threads wide (mapping directly to two Warps). Since a Maxwell SMM is composed of 4x32 CUDA core partitions, that means that a wavefront would occupy 2x32CUDA core partitions (half an SMM). With Kepler, you had 192 CUDA cores per SMX. Try mapping Wavefronts to that and you need 3 Wavefronts. If you only have a single wavefront then you're utilizing 50% of a Maxwell SMM while only utilizing 33.3% of an SMX. That's a lot of unused compute resources.

With NVIDIAs architecture, only Kernels belonging to the same program can be executed on the same SM. So with SMX, that's 66.6% of compute resources not being utilized. That's a huge loss.

So what has happened is that:
1. The ratio of render:compute is tilting higher towards compute than a few years ago when Kepler was introduced.
2. The console effect is pushing developers into using more compute resources in order to extract as much performance as possible from the consoles GCN APUs.
3. Console titles are being optimized for GCN.

This has pushed GCN performance upwards as ALL GCN based GPUs (GCN1/2/3) utilize Compute Units which map directly to a wavefront (4 x 16SIMD = 64).

The end result is higher compute utilization on GCN, less wasted resources on GCN, good utilization on Maxwell and very crappy utilisation on Kepler.

NVIDIA is evolving towards a more GCN-like architecture while AMD are refining GCN. GCN is more advanced than any NVIDIA architecture. People who claim that GCN is "old" simply don't understand GPU architectures.

It's the console effect.

mikael84
24-03-2016, 13:57
As for Kepler, GCN and Maxwell...

It has to do with compute utilization...


Just like Kepler's SMX, each one of Maxwell's SMM has four warp schedulers, but what's changed between SMX and SMM is that each SMMs CUDA cores are assigned to a particular scheduler. So there are less shared units. This simplifies scheduling as each of SMM’s warp schedulers issue to a dedicated set of CUDA Cores equal to the warp width (Warps are 32 thread wide and each scheduler issues its Warps to 32 CUDA cores). You can still dual issue, like with Kepler, but a single issue would result in full CUDA core utilisation. This means that you have less idling CUDA cores. (There's also the dedicated 64KB per SM of Maxwell over Kepler's 16KB + 48KB design).

Why is this important? Because console titles are being optimized for GCN. Optimizing for GCN means using Wavefronts (not Warps). Wavefronts are 64 threads wide (mapping directly to two Warps). Since a Maxwell SMM is composed of 4x32 CUDA core partitions, that means that a wavefront would occupy 2x32CUDA core partitions (half an SMM). With Kepler, you had 192 CUDA cores per SMX. Try mapping Wavefronts to that and you need 3 Wavefronts. If you only have a single wavefront then you're utilizing 50% of a Maxwell SMM while only utilizing 33.3% of an SMX. That's a lot of unused compute resources.

With NVIDIAs architecture, only Kernels belonging to the same program can be executed on the same SM. So with SMX, that's 66.6% of compute resources not being utilized. That's a huge loss.

So what has happened is that:
1. The ratio of render:compute is tilting higher towards compute than a few years ago when Kepler was introduced.
2. The console effect is pushing developers into using more compute resources in order to extract as much performance as possible from the consoles GCN APUs.
3. Console titles are being optimized for GCN.

This has pushed GCN performance upwards as ALL GCN based GPUs (GCN1/2/3) utilize Compute Units which map directly to a wavefront (4 x 16SIMD = 64).

The end result is higher compute utilization on GCN, less wasted resources on GCN, good utilization on Maxwell and very crappy utilisation on Kepler.

NVIDIA is evolving towards a more GCN-like architecture while AMD are refining GCN. GCN is more advanced than any NVIDIA architecture. People who claim that GCN is "old" simply don't understand GPU architectures.

It's the console effect.

Ipotizzavo tutto ma non avevo fonti, questo è molto importante.
Mi passi il link che vorrei leggerlo bene, perchè avrei numeri alla mano.;)

Da considerare che anche le rops di gk110 sono fasulle, o meglio sono 48 fisiche, ma la 780 accede a 32 rops e la 780ti a 40. Ogni raster può elaborare solo 8 pixel (sono 4 per la 770-4 per la 780-5 per la 780ti).

Ale55andr0
24-03-2016, 14:25
As for Kepler, GCN and Maxwell...

//CUT megapippone//

It's the console effect.


e ciononostante prestazionalmente siamo un po' dietro maxwell a pari pp e con memorie hbm con la nostra "non old" architettura :stordita: Posto che poi una volta trasposti su pc io tutta sta fantomatica ottimizzazione per gcn dei titoli multipiatta ancora non la ho vista, chiedo venia e lapidatemi pure. Io so solo che egli ultimi anni AMD a parole ha fatto il MONDO ma quanto a fatti c'è da piangere: prima col frametime risolto dopo, poi con mantle (e ci credevo eh!) finito a nulla, ora esce fuori che proprio uno dei liet motiv (indipendenza dalla cpu) per cui AMD si batte è proprio uno dei punti di debolezza nelle attuali GCN in dx11 :doh:...poi gli sproloqui su quanto amd andrà meglio in dx12 non si sa quando (e l'unico bench che ho visto va peggio che in dx 11), mo l'egemonia di gcn sulle console e conseguente ottimizzazione per amd (che pure io ipotizzavo all'epoca eh, ma che ripeto non ho visto!) e vedo invece che da quando ci sono le next gen console nvidia continua ad avere più ottimizzazioni :rolleyes:. Io dico solo una cosa, quando al PRIMO giro, coi primi driver e NON quelli del cavolo xyz uscito 18 mesi DOPO, vedrò la top di gamma di AMD andare MM (mediamente meglio) dello top di gamma della nvidia, non importa se di 1cm o di un km..ehm se di un frame o cento, senza i se, senza i ma, senza "eh ma in futuro" e ma a questA risoluzione specifica, e ma le memorie di Dio ecc. diro' BRAVA AMD! vedro mai sto giorno? quando, quando QUANDO??? :muro: :mc:

FroZen
24-03-2016, 14:51
Ipotizzavo tutto ma non avevo fonti, questo è molto importante.
Mi passi il link che vorrei leggerlo bene, perchè avrei numeri alla mano.;)

Da considerare che anche le rops di gk110 sono fasulle, o meglio sono 48 fisiche, ma la 780 accede a 32 rops e la 780ti a 40. Ogni raster può elaborare solo 8 pixel (sono 4 per la 770-4 per la 780-5 per la 780ti).

http://forums.anandtech.com/showpost.php?p=38117913&postcount=79

FroZen
24-03-2016, 14:52
Vedo che dopo 8 mesi non si è ancora capito che le hbm sono servite per avere piu prestazioni a consumi inferiori ... Vi sono cascato anche io all'inizio ma pra l'ho capito :rolleyes:

Ale55andr0
24-03-2016, 14:58
Vedo che dopo 8 mesi non si è ancora capito che le hbm sono servite per avere piu prestazioni a consumi inferiori ... Vi sono cascato anche io all'inizio ma pra l'ho capito :rolleyes:

io vedo che continui a glissare sul contesto in cui le inserisco e tiri fuori UN punto sorvolando sul RESTO. Posto che poi appunto prestazioni superiori a cosumi inferiori li ho sempre sottolineati, considerano però, cosa che tu dimentichi puntualmente, che andiamo meno e consumiamo di più uguale di chi ha le ddr5 :muro:. Cavolo ma un po' di obiettività e occhi aperti quando si parla di amd la leggeremo mai o dovremmo sempre fare voli pindarici spippolandoci sull'aria fritta e sui rosei futuri che non arrivano MAI? e parlo da possessore simpatizzante rosso da minimo DIECI anni eh...

mikael84
24-03-2016, 15:05
http://forums.anandtech.com/showpost.php?p=38117913&postcount=79

Quindi arriviamo al punto che su SMX per come programmato stai sprecando 1/3 di risorse su base GCN.
Questo l'avevo ipotizzato ma ora mi è più chiaro

deadbeef
24-03-2016, 15:16
e ciononostante prestazionalmente siamo un po' dietro maxwell a pari pp e con memorie hbm con la nostra "non old" architettura :stordita: Posto che poi una volta trasposti su pc io tutta sta fantomatica ottimizzazione per gcn dei titoli multipiatta ancora non la ho vista, chiedo venia e lapidatemi pure. Io so solo che egli ultimi anni AMD a parole ha fatto il MONDO ma quanto a fatti c'è da piangere: prima col frametime risolto dopo, poi con mantle (e ci credevo eh!) finito a nulla, ora esce fuori che proprio uno dei liet motiv (indipendenza dalla cpu) per cui AMD si batte è proprio uno dei punti di debolezza nelle attuali GCN in dx11 :doh:...poi gli sproloqui su quanto amd andrà meglio in dx12 non si sa quando (e l'unico bench che ho visto va peggio che in dx 11), mo l'egemonia di gcn sulle console e conseguente ottimizzazione per amd (che pure io ipotizzavo all'epoca eh, ma che ripeto non ho visto!) e vedo invece che da quando ci sono le next gen console nvidia continua ad avere più ottimizzazioni :rolleyes:. Io dico solo una cosa, quando al PRIMO giro, coi primi driver e NON quelli del cavolo xyz uscito 18 mesi DOPO, vedrò la top di gamma di AMD andare MM (mediamente meglio) dello top di gamma della nvidia, non importa se di 1cm o di un km..ehm se di un frame o cento, senza i se, senza i ma, senza "eh ma in futuro" e ma a questA risoluzione specifica, e ma le memorie di Dio ecc. diro' BRAVA AMD! vedro mai sto giorno? quando, quando QUANDO??? :muro: :mc:

- sul frame pacing in multi gpu hai ragione
- la codebase di Mantle è finita dentro le Directx 12 e Vulkan, non mi sembra proprio nulla
- l'overhead cpu non è una debolezza di GCN, ma dei driver
- fino ad ora nell'unico bench con engine scritto ad hoc per dx12, ossia AoTS, si sono visti incrementi prestazionali
- Nvidia non è che ottiene più ottimizzazioni perchè cadono dal cielo, ha il programma TWIMTBP che assicura introiti agli sviluppatori, che di conseguenza lo adottano
- se mi fai un discorso sulle top di gamma a parità di prezzo ti do ragione, altrimenti no. La fury X costa quanto una 980Ti ma è già di serie raffreddata a liquido, quindi non stai pagando solo la scheda ma anche il sistema di raffreddamento

FroZen
24-03-2016, 15:19
io vedo che continui a glissare sul contesto in cui le inserisco e tiri fuori UN punto sorvolando sul RESTO. Posto che poi appunto prestazioni superiori a cosumi inferiori li ho sempre sottolineati, considerano però, cosa che tu dimentichi puntualmente, che andiamo meno e consumiamo di più uguale di chi ha le ddr5 :muro:. Cavolo ma un po' di obiettività e occhi aperti quando si parla di amd la leggeremo mai o dovremmo sempre fare voli pindarici spippolandoci sull'aria fritta e sui rosei futuri che non arrivano MAI? e parlo da possessore simpatizzante rosso da minimo DIECI anni eh...

Non mi interessa continuare la solita diatriba

Tu hai detto delle hbm come placebo a qualsiasi problema prestazionale e siamo dietro a chi usa ddr5

Io ho fatto notare che le hbm sono servite ad avere gpu che consumano meno delle precedenti top rosse pur andando di più stop punto a capo

Se non ti interessa capire le architetture gpu buon per te, continua a guardare il numerino dei bench e stop magari a qualcuno del forum invece interessa

Out!

Einhander
24-03-2016, 15:24
e ciononostante prestazionalmente siamo un po' dietro maxwell a pari pp e con memorie hbm con la nostra "non old" architettura :stordita: Posto che poi una volta trasposti su pc io tutta sta fantomatica ottimizzazione per gcn dei titoli multipiatta ancora non la ho vista, chiedo venia e lapidatemi pure. Io so solo che egli ultimi anni AMD a parole ha fatto il MONDO ma quanto a fatti c'è da piangere: prima col frametime risolto dopo, poi con mantle (e ci credevo eh!) finito a nulla, ora esce fuori che proprio uno dei liet motiv (indipendenza dalla cpu) per cui AMD si batte è proprio uno dei punti di debolezza nelle attuali GCN in dx11 :doh:...poi gli sproloqui su quanto amd andrà meglio in dx12 non si sa quando (e l'unico bench che ho visto va peggio che in dx 11), mo l'egemonia di gcn sulle console e conseguente ottimizzazione per amd (che pure io ipotizzavo all'epoca eh, ma che ripeto non ho visto!) e vedo invece che da quando ci sono le next gen console nvidia continua ad avere più ottimizzazioni :rolleyes:. Io dico solo una cosa, quando al PRIMO giro, coi primi driver e NON quelli del cavolo xyz uscito 18 mesi DOPO, vedrò la top di gamma di AMD andare MM (mediamente meglio) dello top di gamma della nvidia, non importa se di 1cm o di un km..ehm se di un frame o cento, senza i se, senza i ma, senza "eh ma in futuro" e ma a questA risoluzione specifica, e ma le memorie di Dio ecc. diro' BRAVA AMD! vedro mai sto giorno? quando, quando QUANDO??? :muro: :mc:

Vabbeh io ci aggiungo che il danno maggiore di amd in realta' non deriva da questa serie di cose che cmq esistono e sono OVVIAMENTE reali, ma dall'incapacita' che ha nel gestire queste problematiche a livello mediatico in confronto alla rivale che eppure di minkiate ne ha fatte a bizzeffe ultimamente: al di la' di vendere schede a 1000 euro rivaleggiate a distanza di 3-4 mesi da roba che ne costava la meta', passando per il caso 3,5+0,5 gb di vram che non servono e non intaccano le prestazioni -ma sono essenziali per le fury :asd:- e frega caxxi della pubblicita' ingannevole e del torto a livello di comunicazione effettuato dalla compagnia, dai driver che ammazzano le schede old gen -perche' i driver devono essere super mega op appena esce la schema ma un anno dopo NO.- mentre quelli amd che recuperano sulla distanza fino ad eguagliare o sorpassare le sue concorrenti sono solo spazzatura, oppure la storia degli effettini del gameworks che ammazzano il frame rate anche a chi in teoria ha la scheda giusta, oppure rendono non giocabile il gioco a chi ha la scheda giusta MA della generazione passata, oppure delle trovate per i monitor di tipo closed in modo da imporre il pizzo ecc ecc fino ad arrivare alla dichiarata inutilita' di mantle che pero' e' per intero dentro vulkan e dx12 -parecchio inutile MANTLE si, proprio...- direi che entrambe le marche hanno fatto ENORMI passi falsi rispetto alla loro media degli anni passati, eppure le minkiate di nvidia scompaiono mentre quelle di amd ritornano con effetto boomerang anche quando ormai non esistono piu'.
E questo in parte e' dovuto, anzi forse non solo in parte, magari quasi totalmente, all'utenza che non fa altro che ripetere all'infinito queste cose anche quando in realta' non esistono piu' o meglio sono diventate trascurabili o quanto meno non meno gravi delle grane dall'altra parte verde del mondo delle gpu.

Certo poi si potrebbe parlare del fatto che i consumi delle schede video di 60-80 watt superiori sono il male -come se fregasse REALMENTE qualcosa a qualcuno- e adesso non mi venite a dire che siccome consuma 60-80 watt allora il vostro case prende fuoco, perche' in tal caso non mi spiego come ci siano entrate schede video delle precedenti generazioni anche verdi.

Nella fascia medio-bassa in realta' amd va bene, pero' improvvisamente non frega piu' nulla a nessuno, per non parlare dei test utili solo ad una parte e altri -tipo quelli sull'AA o sulla qualita' cromatica- che magicamente scompaiono dalle recensioni ecc ecc.

Tutto cio' ricordandosi che Nvidia a livello di introiti e potere finanziario e' ENORMEMENTE piu' forte di AMD e quindi anche i soldi che ha a disposizione da investire nel reparto marketing e annessi e connessi sono, ovviamente, maggiori.

Considerando le capacita' economiche in campo io personalmente mi stupisco di come amd ancora regga in termini di prestazioni e in generale di avanzamento tecnologico.

Pero' certo possiamo essere qui a ripetere le solite storie all'infinito fino alla morte ad ogni notizia buona solo perche' tale tizio x ha espresso un'opinione che non coincide per forza con il mantra "e tutta colpa di amd/amd sbaglia sempre tutto Nvidia no." e esprimere il nostro rammarico spacciandolo per universale anche quando non c'entra un fico secco.

Quello che ho scritto prima serviva solo a dire che di minkiate ne sono state fatte FIN TROPPE da ambo le parti, ma magicamente siccome nvidia vende di piu' le sue minkiate -pur riguardando appunto un numero maggiore di persone- sono meno importanti e finiscono in secondo piano o direttamente nel dimenticatoio...bah..

Invece la domanda e': sicuri che polaris non esca, anche in versione top, con le gddr5 normali? sicuri che esca con le hbm anche se a 8gb?
Non c'era un problema nell'avere 8gb di memoria virtuale con le hbm?
p.s.: sta a vedere che nvidia se ne esce con 12 gb di vram e improvvisamente manco 8gb saranno piu' sufficienti eh, anche quando amd di vram ne ha avuta sempre di piu', ma nn mi stupirebbe d'altronde sono anni che ci sono due pesi e due misure :asd:

deadbeef
24-03-2016, 15:28
credo si chiami "lavaggio del cervello"



Considerando le capacita' economiche in campo io personalmente mi stupisco di come amd ancora regga in termini di prestazioni e in generale di avanzamento tecnologico.

già, un aspetto troppo spesso dimenticato

Ale55andr0
24-03-2016, 15:39
- la codebase di Mantle è finita dentro le Directx 12 e Vulkan, non mi sembra proprio nulla


fino a quando non mi darà vantaggi che sono vantaggi e non teorie a me continuerà a rappresentare nulla (se poi ci andrà meglio di noi la concorrenza peggio poi: vojo vedere visto che le dx12 mica sono fatte solo per amd...). A oggi che ho visto che mi abbia portato migliorie? niente. Solo mantle con thief e stop

- l'overhead cpu non è una debolezza di GCN, ma dei driver

quel che ti pare, è un punto a sfavore, se driver o hardware tale rimane, se poi è software come dici peggio ancora visto che allora ad oggi han dormito visto che gcn è sul mercato da 2011, praticamente gli hai dato degli incapaci peggio ancora, così

- fino ad ora nell'unico bench con engine scritto ad hoc per dx12, ossia AoTS, si sono visti incrementi prestazionali

io mi riferisco a tomb ryder, un gioco, non un bench. Poi mi potrai tirar fuori che non ci è nato, non è ottimizzato ecc, ma ripeto, sono stufo marcio di parlare di futuri e spippolamenti, io parlo di ora e di cio che ho visto negli ultimi anni: ancora non ho visto un accidenti di niente e da quando ci sono le nuove console, tutto questa spremuta dell'architettura gcn nei titoli io non la ho vista manco per sbaglio...

- Nvidia non è che ottiene più ottimizzazioni perchè cadono dal cielo, ha il programma TWIMTBP che assicura introiti agli sviluppatori, che di conseguenza lo adottano

continui a spiegarmi i perchè senza arrivare al nocciolo che è quello che mi interessa, cioè cio che vedo e cio di cui mi giovo. Se nvidia lo fa con le marchette o se perchè sono geni dell'hardware/software me ne sbatto, il risultato non MI cambia, continuo a non vedere il becco di un vantaggio sulla mia gcn (R290) e vedo anzi (!) titoli sempre più "verdi"

- se mi fai un discorso sulle top di gamma a parità di prezzo ti do ragione, altrimenti no.

Ho ben specificato parlando di hbm, ergo di fury x. nella fascia top il celolunghismo è il fine, inutile girarci attorno, se tu mi parli di una vga top da 600 euro, me la millanti per la più veloce io PRETENDO che lo sia salvo poi accorgermi che mi hai preso per il culo. Io acquisto ormai da anni solo top o subito sottostanti perchè tengo l'hardware a lungo e poi cambio l'intero PC

La fury X costa quanto una 980Ti ma è già di serie raffreddata a liquido, quindi non stai pagando solo la scheda ma anche il sistema di raffreddamento

se è raffreddata a liquido è perchè deve esserlo per non fondere il nocciolo (non mi tirate fuori la nano con chip selezionati, downclock dinamico ecc...), io so solo che è la top single amd che va meno della top rivale col liquido, le hbm cazzi e mazzi, è quello mi interessa. Quando AMD sfornerà "l'athlon delle gpu" sarà lieto di darle ragione, ma oggi non leggo altro che proclami, promesse, pompose tecnologie che restano su carta e poi all'atto pratico niente, anzi i titoli vanno mediamente meglio sui rivali il più delle volte

Einhander
24-03-2016, 15:44
Si vabbeh, ma quanto la paghi la top rivale a liquido pls?

Ale55andr0
24-03-2016, 15:46
Nella fascia medio-bassa in realta' amd va bene, pero' improvvisamente non frega piu' nulla a nessuno

a me della fascia bassa non frega un emerito. E poi decidetevi, se AMD regge il colpo è perchè sono bravi con l'architettura "vecchia", ah no, l'architettura non è vecchia (post di frozen)...in un caso o nell'altro il risultato è? che il meglio prodotto dalle due aziende vede la verde andare di più e consumare di meno, ma noi (ah no anche loro) abbiamo le dx 12 che faranno volare le vga, l'architettura che è usata nelle console (da due anni, non da oggi) percio i titoli la sfrutte(ran)no al meglio (ah no vanno meglio loro) ecc...
Io so solo che continuo a vedere che non cambia nulla nell'andazzo con AMD sempre diligentemente ad inseguire e mai a dettar legge sulle PRE-STA-ZIO-NI :read:

Si vabbeh, ma quanto la paghi la top rivale a liquido pls?


ma che cavolo mi frega della rivale a liquido? ma possibile che non si capisca che parlo solo di PRESTAZIONI? a parte il fatto che basta pure la 980ti ad aria per averne la meglio..ma cioè, ora che amd l'ha fatta e pure per necessità è divenuto il punto focale, na volta era che amd consumava meno (andando pero menò), domani saranno le memorie hbm4^8, le dx 13.1 e la stessa gpu sulla play 5....io dico solo che la fury x resta dietro, ad aria, a liquido, soffiandoci sopra, come ve pare, e che le gcn non vedono tutti sti benefici nelle ottimizzazioni per via delle console e che quindi di futuri rosei io non ne vedo, perchè quelli "passati" sono stati tutti disattesi

dado1979
24-03-2016, 15:53
Ecco da qui si capisce perché nulla più di una 7870 poteva entrare in una nextgen del 2012 al di là del discorso costi fissi
Tu dici?
Eppure una 7950, ad esempio, consuma al massimo di picco 179 W contro i 144 W della 7870:
http://www.techpowerup.com/reviews/AMD/HD_7950/25.html
http://www.techpowerup.com/reviews/AMD/HD_7850_HD_7870/24.html
Avete questa fissa dei watt consumati che non capisco dove l'avete presa.

Ribadisco per l'ennesima volta: AMD aveva l'unica scelta da fare nel monopolizzare il mercato console per aumentare le quote di mercato, i competitor vogliono sempre sempre sempre guadagnare il più possibile e subito, si sono rivolti ad AMD, le hanno proposto di adottare le sue APU per tutte e due le console ma AMD ci avrebbe guadagnato molto poco (AMD non aveva margine di trattativa), l'APU che AMD poteva proporre allora era con una 7870 (neanche in realtà) come gpu e consumava 120 W, i commerciali hanno detto quindi che avrebbero aumentato il rapporto perf/watt, ci hanno messo un bel po' a fare le console, la PS4 (che già è più potente della Xbox one) è nata già stravecchia.
La morale qual è alla fine:
la debolezza finanziaria di AMD ha permesso sia a Microsoft che a Sony di fare+ soldi e prima... l'unico guadagno di AMD sono le quote di mercato e il controllo del software di sviluppo (che non è poco), noi utenti ci abbiamo perso tutti.

Raven
24-03-2016, 16:15
poi con mantle (e ci credevo eh!) finito a nulla,

Evvabbeh... Certo che anche tu, però... :O
Che mantle sarebbe stato un flop non era nemmeno quotato, da scontato che era!

Sul resto concordo... Però la 9700 fu subito meglio, della top nvidia (il phon FX 5800....) :D

Inviato dal mio SM-N910F utilizzando Tapatalk

FroZen
24-03-2016, 16:19
Ma quote di mercato di che?!

Hanno preso ordini = fatturato (che non significa GUADAGNARE ok ma qui non la finiamo piu se no)
Hanno avviato il discorso api mantle poi vulkan e dx12 con ms per indirizzare il mercato più dove vuole amd e non la solita nvidia/intel

E qui leggo che le console nate stravecchie hanno tarpato il mondo pc?!

Notiziona: finché esisteranno le console succederà questo!

Non è che prima con la ps3 e xbox360 avevamo campioni di ottimizzazione e effetti grafici da urlo....se le sh vogliono fare giochi in sei mesi con la metà delle persone di anni fa su otto piattaforme diverse bhe allora non c'è scampo, anche se avessero una 980ti kingpin nelle scatelette

Ale55andr0
24-03-2016, 16:29
Evvabbeh... Certo che anche tu, però... :O
Che mantle sarebbe stato un flop non era nemmeno quotato, da scontato che era!

Sul resto concordo... Però la 9700 fu subito meglio, della top nvidia (il phon FX 5800....) :D

Inviato dal mio SM-N910F utilizzando Tapatalk

ovviamente parlavo del post jurassico :D

Einhander
24-03-2016, 16:35
a me della fascia bassa non frega un emerito. E poi decidetevi, se AMD regge il colpo è perchè sono bravi con l'architettura "vecchia", ah no, l'architettura non è vecchia (post di frozen)...in un caso o nell'altro il risultato è? che il meglio prodotto dalle due aziende vede la verde andare di più e consumare di meno, ma noi (ah no anche loro) abbiamo le dx 12 che faranno volare le vga, l'architettura che è usata nelle console (da due anni, non da oggi) percio i titoli la sfrutte(ran)no al meglio (ah no vanno meglio loro) ecc...
Io so solo che continuo a vedere che non cambia nulla nell'andazzo con AMD sempre diligentemente ad inseguire e mai a dettar legge sulle PRE-STA-ZIO-NI




ma che cavolo mi frega della rivale a liquido? ma possibile che non si capisca che parlo solo di PRESTAZIONI? a parte il fatto che basta pure la 980ti ad aria per averne la meglio..ma cioè, ora che amd l'ha fatta e pure per necessità è divenuto il punto focale, na volta era che amd consumava meno (andando pero meno), domani saranno le memorie hbm4^8, le dx 13.1 e la stessa gpu sulla play 5....io dico solo che la fury x resta dietro, ad aria, a liquido, soffiandoci sopra come ve pare, e che le gcn non vedono tutti sti benefici nelle ottimizzazioni per via delle console e che quindi di futuri rosei io non ne vedo perchè quelli "passati" sono stati tutti disattesi

Il punto e' che siamo sempre a discutere di queste cose, anzi spesso non fai che ripetere questi punti all'infinito, io non posto molto, ma tu ste cose le stai ripetendo ad rotam da quando sono uscite le 290 a momenti...cosa cambia a parte ripetere sempre gli stessi concetti?

Abbiamo due visioni diverse delle cose, il che e' normale e pure giusto,e le verdi vanno meglio -solo su singola scheda c'e' ancora la 295x2 spesso e volentieri in cima ai bench anche se dual- quello che mi turba e' che se non sono le prestazioni e' il consumo, se non e' il consumo sono le prestazioni e se non sono queste due cose sono altre cose come mantle o annessi e connessi..di questo passo diremo che pure avere il monopolio delle scatolette e' male, pero' mi chiedo dove sarebbe amd se il monopolio delle scatolette l'avesse nvidia idem se nvidia avesse fatto quello che ha fatto amd con mantle.

Poi oh si possono ripetere gli stessi concetti per mille-mila anni ma a parte sembrare solo un disco rotto cosa cambia dal dirlo solo 10 volte e poi fermarsi?

lo ripeti da piu' di un anno ormai...ti suggerisco di scrivere ad amd stessa cosi' magari qualcosa potrebbe anche cambiare ma ripeterlo qui ad ogni minima occasione sono ABBASTANZA certo che non portera' a nulla.

Einhander
24-03-2016, 16:43
Si ma poi le prestazioni di che cosa? quando c'era la titan ed e' uscita la amd che a meta' del prezzo era allineata e in qualche caso superiore li le prestazioni c'erano ma poi? e' scalda troppo....oppure fa rumore ecc ecc.

Il problema delle prestazioni e' reale certo, ma anche quello economico che forse non ti ricordi purtroppo e' legato spessissimo anche alle prestazioni in quanto avendo meno soldi da investire in ricerca e sviluppo puo' in effetti tradursi in prestazioni inferiori, ma a parte parlare del piu' e del meno e sottolineare l'ovvio -ovvero desiderare un scheda che vada un 5% in piu'- e' anche vero che nonostante le risorse ESTRAMAMENTE limitate di amd in ambito gpu le rosse ancora tengono testa degnamente, certo non per te eh, ma in generale le prestazioni in numeri si traducono in un 10% in piu', IL MEGA PIPPONE deriva dai consumi -di cui fino a ieri non fregava nulla a nessuno- e, credo, dalla qualita' percepita del marchio che non e' detto derivi solo dalle prestazioni ma purtroppo anche e soprattutto dal reparto marketing e annessi e connessi, ergo dai SOLDI che puo' sperpetrare promuovendo il tuo prodotto e qui di liquidita' nvidia ne ha molta id piu' e lo ha capito, infatti fotte sega se si permette il lusso di ammazzare by driver vecchie gpu due anni prima del previsto e altre robe tanto poi basta martellare a suon di pubblicita' ed e' fatta lo stesso.

Quello che ti chiedo io e' cosa ti aspetti da amd, rispetto ad nvidia, avendo a disposizione quello che ha attualmente? a parte il sogno bagnato ed OVVIO di desiderare una scheda video che vada di piu'? che e' come dire che l'acqua e' calda.

Ale55andr0
24-03-2016, 17:00
Il punto e' che siamo sempre a discutere di queste cose, anzi spesso non fai che ripetere questi punti all'infinito, io non posto molto, ma tu ste cose le stai ripetendo ad rotam da quando sono uscite le 290 a momenti...


mi permetti? bubbole, grazie. Se ti vai a vedere il mio "cronologico" noterai che non solo pure io non posto molto ma che non sono qui certo a fare il bastian contrario dei thread AMD. Chi invece fa l'esatto opposto, avendo un brillante carriera nel settore pubblicitario per quanto mi riguarda, è qualcun altro, ma nessuno gli rompe le bolas perchè evidentemente questo un thread a senso unico



Quello che ti chiedo io e' cosa ti aspetti da amd, rispetto ad nvidia, avendo a disposizione quello che ha attualmente? a parte il sogno bagnato ed OVVIO di desiderare una scheda video che vada di piu'? che e' come dire che l'acqua e' calda.


non vedo perchè devo dirti cosa mi aspetto eccetto il sogno bagnato visto che è AMD a farlo ogni volta asciutto. E' proprio quello che aspetto: che faccia una stracaxxaccio di top di gamma single che vada di più e punto! senza i se, i ma i i forse e i vedremo, che ripiji sto benedetto scettro. Se poi vuol fare la seconda "e ma stavolta ci eravamo quasi evvai spippoliamoci tutti in coro" allora lo dicano prima, ma non spaccino i loro prodotti e le loro tecnologie come le più performanti o le più future proof perchè NON è così. Al prossimo giro se rivedo le solite storie perdono un cliente che compra da loro da due lustri. Fottesegheranno? beh, pure io.



saluti

Einhander
24-03-2016, 17:06
mi permetti? bubbole, grazie. Se ti vai a vedere il mio "cronologico" noterai che non solo pure io non posto molto ma che non sono qui certo a fare il bastian contrario dei thread AMD. Chi invece fa l'esatto opposto, avendo un brillante carriera nel settore pubblicitario per quanto mi riguarda, è qualcun altro, ma nessuno gli rompe le bolas perchè evidentemente questo un thread a senso unico

saluti

Vabbhe dai lo so perche' seguo il thread anche se non scrivo molto, ma dai, sono cose che hai detto e ridetto in 1000 modi, non solo tu eh ci mancherebbe mi ci metto anche io nel mezzo, rimane pero' l'idea che non mi e' chiaro cosa ti aspetti da amd a parte le OVVIE prestazioni superiori ad ogni nuova architettura -che poi penso riguardi tutti-.

Ale55andr0
24-03-2016, 17:07
detto sopra ;)

Einhander
24-03-2016, 17:10
mi permetti? bubbole, grazie. Se ti vai a vedere il mio "cronologico" noterai che non solo pure io non posto molto ma che non sono qui certo a fare il bastian contrario dei thread AMD. Chi invece fa l'esatto opposto, avendo un brillante carriera nel settore pubblicitario per quanto mi riguarda, è qualcun altro, ma nessuno gli rompe le bolas perchè evidentemente questo un thread a senso unico






non vedo perchè devo dirti cosa mi aspetto eccetto il sogno bagnata visto che è AMD a farlo ogni volta asciutta. E proprio quello: che faccia una stracaxxaccio di top di gamma single che vada di più e punto! senza i se, i ma i i forse e i vedremo, che ripiji sto benedetto scettro, se poi vuol fare la seconda "e ma stavolta ci eravamo quasi" allora lo dicano prima ma non spaccino i loro prodotti e le loro tencologie come le più performanti o le più future proof quando NON è così



saluti

concordo sulle prestazioni superiori per carita', ma sul future proof, beh e' stato da poco dimostrato che lo sono visto il degrado o il non aumento prestazionale che affligge le rivali di precedente generazione...scommettiamo che accadra' anche al prossimo giro?
Che poi questo sarebbe meglio accompagnato da prestazioni assolute migliori farebbe felici tutti eh, ma voglio dire il marketing e' anche questo, promuovere il proprio hardware non dire LA SACROSANTA verita'...senno' ogni film che esce al cinema dando per scontato quello che viene narrato nei trailer dovrebbe essere ogni volta un'esperienza incredibile xD
E invece...
Concordo cmq sul fatto delle prestazioni assolute, ma attenzione che anche quando c'erano quelle cmq si trovava il modo di andare contro ad amd/ati con altro...E questo e' vero come il desiderio di aver piu' potenza e prestazioni.

mikael84
24-03-2016, 18:19
http://wccftech.com/amd-polaris-10-gpu-specs-leaked/

Einhander
24-03-2016, 18:34
http://wccftech.com/amd-polaris-10-gpu-specs-leaked/

MMM ma quindi si ritorna al piccolo e' bello e fanculo la super top la vedremo solo nel 2017...sembrerebbe, se fosse vero, che questo gcn 4.0 a parita' di gcn cores come li chiamano li vadano molto meglio rispetto alle 390/x per altro anche a frequenze considerevolmente piu' basse...ma a parte il bus a 256bit che altro avrebbero cambiato esattamente per raggiungere questo livello prestazionale e per altro con frequenze cosi' contenute?

Ale55andr0
24-03-2016, 18:56
MMM ma quindi si ritorna al piccolo e' bello e fanculo la super top la vedremo solo nel 2017...sembrerebbe, se fosse vero, che questo gcn 4.0 a parita' di gcn cores come li chiamano li vadano molto meglio rispetto alle 390/x per altro anche a frequenze considerevolmente piu' basse...ma a parte il bus a 256bit che altro avrebbero cambiato esattamente per raggiungere questo livello prestazionale e per altro con frequenze cosi' contenute?

l'ipc per ogni CU direi...
Fra i 14nm e le gddr5x che fanno bastare il bus 256bit potrebbero essere schede spaventosamente efficienti. Purtroppo però parlano anche della volontà di AMD di distanziare maggiormente le prestazioni tra la ipotetica 490x e la 490, cosa che dai tempi della 7950 aveva reso la scheda subito sotto la top incredibilmente conveniente...una mossa che francamente non condivido. Poi dipende da quanto, visto che fra una 390 e una 390x ci passa meno del 10% (e clock to clock meno ancora) se dovessero distanziarle 15/20% allora potrebbe essere anche accettabile, specie se le prestazioni assolute saranno comunque elevate (traduzione: la 490 liscia comunque superiore alla fury x)

traider
24-03-2016, 19:00
Ce la ficcheranno anche sulla nuova PS4 4K .

Ale55andr0
24-03-2016, 19:39
come no :asd:

DuttZ
24-03-2016, 20:12
Attendo prestazioni come un Fury x al massimo 150 watt ed a un costo contenuto! Basta sognare 😂😂😂

HadesSaint
24-03-2016, 21:17
ma perche l'ipotetica 490/X non esce gia con HBM1?? se vega avrà HBM2 perche non montare appunto la prima generazione di hbm anche sulle serie 480+??

8GB di Ram dannazione mi sembrano esagerati almeno fino a marzo 2016 in ambito game...

Trokji
24-03-2016, 21:29
Attendo prestazioni come un Fury x al massimo 150 watt ed a un costo contenuto! Basta sognare ������

spero anche io.. ad un prezzo abbordabile la prenderei a volo :fagiano:..a alla fine una nano più economica e silenziosa e leggermente più potente/efficiente.. credo che da quanto detto nel thread ci si possa aspettare anche di più.. però eviterei di sparare troppo in alto per non restare delusi

FroZen
24-03-2016, 21:31
Le hbm1 hanno costi troppo elevati per il margine che hanno sulla fascia media...poi non ci lamentiamo se i prezzi salgono...

Le ddr sono meno gestibili rispetto alle hbm in termini di utilizzo del fb per via della serialità di riempimento e svuotamento dove la frequenza è tutto...ma essendo cheap puoi metterne il doppio es. 390, per limitare al massimo l'effetto scarica carica delle texture in vram e eventuale swap su ram di sistema e stuttering fest (che invece è esattamente il comportamento std per vga con delle hbm da "soli" 4gb tenere i dati cachati nella ram di sistema grazie al potente parallellismo)

HadesSaint
24-03-2016, 22:07
Le hbm1 hanno costi troppo elevati per il margine che hanno sulla fascia media...poi non ci lamentiamo se i prezzi salgono...

Le ddr sono meno gestibili rispetto alle hbm in termini di utilizzo del fb per via della serialità di riempimento e svuotamento dove la frequenza è tutto...ma essendo cheap puoi metterne il doppio es. 390, per limitare al massimo l'effetto scarica carica delle texture in vram e eventuale swap su ram di sistema e stuttering fest (che invece è esattamente il comportamento std per vga con delle hbm da "soli" 4gb tenere i dati cachati nella ram di sistema grazie al potente parallellismo)

in parole povere per le fascie medie non conviene l'HBM?

deadbeef
24-03-2016, 22:37
non mettono le HBM perchè se laggente vede scritto 4GB non le compra ste schede

HadesSaint
24-03-2016, 23:53
non mettono le HBM perchè se laggente vede scritto 4GB non le compra ste schede


4gb HBM1 vs 6/8gb DDR5/X vincono le DDR5? con il voltaggio che ha poi quest'ultima di 1,35v...8gb in ambito game mi pare al momento troppo esagerato...pero come ha detto frozen qualcosa sotto c'è

Free Gordon
24-03-2016, 23:54
tahiti 3 versioni e niente mobile -> Vega (n versioni?)

pitcairn 2 versioni di cui 1 usata anche per mobile ed era la stessa del DT -> P10 2 versioni

cape verde 3 versioni di cui 2 usate anche per mobile ed erano le stesse del DT -> P11 6 versioni (3+3 tra DT e MB ?)

ho comparato così le fasce in quanto Vega esce più avanti solamente per implementare le HBM2, ma sarebbe in realtà il vero Top di gamma come lo era tahiti

Vega intendi = Hawaii? :)

Infatti nella vecchia lineup c'è cape verde...
Se non c'è un chip più piccolo significa che sto polaris 11 è mooolto scalabile e parco nei consumi..

Free Gordon
25-03-2016, 00:21
http://wccftech.com/amd-polaris-10-gpu-specs-leaked/


"Soli" 36CU per la nuova 290/390... e quindi si presume o 40 o 44 per la 390X...

Più distanti di prima, come prestazioni...probabilmente..

desmy
25-03-2016, 06:34
Ma non può essere che nvidia/AMD usino gddr5 e gddr5x per presentare 2 prodotti per ogni fascia (es 480 con gddr5 e 480x con gddr5x)?
Questo lo permetterebbe anche di entrare subito con tutta la line-up con gddr5 e in seguito presentare quella con gddr5x

FroZen
25-03-2016, 09:47
"Yes. We have two versions of these FinFET GPUs. Both are extremely power efficient. This is Polaris 10 and that’s Polaris 11. In terms of what we’ve done at the high level, it’s our most revolutionary jump in performance so far. We’ve redesigned many blocks in our cores. We’ve redesigned the main processor, a new geometry processor, a completely new fourth-generation Graphics Core Next with a very high increase in performance. We have new multimedia cores, a new display engine. This is very early silicon, by the way. We have much more performance optimization to do in the coming months. "

Koduri è uno che non parla a vanvera di solito...

desmy
25-03-2016, 09:50
Ma Vega sarà un sostituto per le fury o per la fascia alta 390/390x?

FroZen
25-03-2016, 10:01
Media e alta

La enthusiast (nuova fury x) arriverà ad inizio 2017 con hbm2 per contrastare le 1080ti o come diavolo si chiameranno

HadesSaint
25-03-2016, 10:06
domanda quindi facendo un recap veloce:

* erede delle 290/390 saranno queste 490/X versione GDDR5/X (6GB+ di RAM)
* erede delle fury/x/nano sarenno appunto le vega con hbm2 giusto?

Free Gordon
25-03-2016, 10:11
intendevo fare il parallelo con la serie 7000 e fasce di prestazioni dimensioni Die

non guardiamo al fatto che vega uscirà +6mesi da polaris, ma se facciamo un parallelo si può dire che:

P11 = Cape Verde
P10 = Pitcairn
Vega(x) = Tahiti

Ah ok. ;)

Free Gordon
25-03-2016, 10:29
So what has happened is that:
1. The ratio of render:compute is tilting higher towards compute than a few years ago when Kepler was introduced.
2. The console effect is pushing developers into using more compute resources in order to extract as much performance as possible from the consoles GCN APUs.

Questo dimostrerebbe (come era anche nell'era da R500 a R580) che le architetture GCN sono sempre state più sbilanciate verso la "flessibilità" e il calcolo rispetto alle conbtroparti Nvidia (trend un pò interrotto con l'architettura terascale (R600), che ha sacrificato la flessibilità a vantaggio del risparmio transistor).
Con tutti i vantaggi/svantaggi che ne conseguono...


PS:
Gli ACE di XboxONE sono 4 (e ha 768sp). Gli ACE di PS4 8 con 1152sp. Nessuna delle due console ha un die pitcairn "intero".
ONE perchè ha già un sacco di transitor nei 32MB di sRAM, PS4 proprio perchè 1280sp funzionanti non ci stavano in un'apu simile...E' già un mostro da 5mld di transistor...

mikael84
25-03-2016, 11:00
MMM ma quindi si ritorna al piccolo e' bello e fanculo la super top la vedremo solo nel 2017...sembrerebbe, se fosse vero, che questo gcn 4.0 a parita' di gcn cores come li chiamano li vadano molto meglio rispetto alle 390/x per altro anche a frequenze considerevolmente piu' basse...ma a parte il bus a 256bit che altro avrebbero cambiato esattamente per raggiungere questo livello prestazionale e per altro con frequenze cosi' contenute?

I clock base saranno sicuramente molto più elevati, almeno quanto i 28hpm Nvidia con maxwell e si avranno ampi margini di OC (su questo ci scommetterei).
Il bus finale in GDDR5X avrà ampiezza doppia e su 6gb si potrà contare sulla stessa banda della 390x ma con 64 rops in compressione che permettono di sgravare la banda. Su un 256bit si riesce a guadagnare sino al 40% in più.
Quindi il rapporto tra rops-cache-banda- dovrebbe essere in stile fury (salvo che le rops di polaris dovrebbero essere più veloci).
Utilizzando le gddr5x e in base all'efficienza della nuova GCN secondo me queste schede non saranno molto inferiori alle Fury.
Con Polaris AMD dovrebbe rivedere anche la struttura interna e migliorare il reparto poligonale piuttosto carente .
Ciò che però sarà straordinaria sarà l'efficienza generale su un core molto piccolo.

deadbeef
25-03-2016, 12:02
Si respira ottimismo :O

FroZen
25-03-2016, 12:19
Si respira ottimismo :O

Da quando koduri è tornato questa è la prima lineup creata da zero senza dover rincorrere le scelte dell'avversario con una architettura "bloccata" quindi si direi che le aspettative sono alte

Einhander
25-03-2016, 12:36
I clock base saranno sicuramente molto più elevati, almeno quanto i 28hpm Nvidia con maxwell e si avranno ampi margini di OC (su questo ci scommetterei).
Il bus finale in GDDR5X avrà ampiezza doppia e su 6gb si potrà contare sulla stessa banda della 390x ma con 64 rops in compressione che permettono di sgravare la banda. Su un 256bit si riesce a guadagnare sino al 40% in più.
Quindi il rapporto tra rops-cache-banda- dovrebbe essere in stile fury (salvo che le rops di polaris dovrebbero essere più veloci).
Utilizzando le gddr5x e in base all'efficienza della nuova GCN secondo me queste schede non saranno molto inferiori alle Fury.
Con Polaris AMD dovrebbe rivedere anche la struttura interna e migliorare il reparto poligonale piuttosto carente .
Ciò che però sarà straordinaria sarà l'efficienza generale su un core molto piccolo.

Pero' non capisco, nel senso ok, ho capito quello che intendi, ma quello che non mi e' chiaro e' se tutta l'ottimizzazione derivi dal solo processo produttivo -e chiaramente non e' cosi', altrimenti non avrebbero chiamato questa gpu GCN 4.0- oppure dalla "nuova" architettura, o meglio mi chiedo quanto dipenda dal salto sul PP a 14nm e quanto dall'ottimizzazione.
Inoltre mi chiedo se le prestazioni in linea di massima saranno ottimizzate per il rapporto watt/performance oppure tese alle massime prestazione possibili, almeno su polaris 10.

Non e' che poi le fury x rimangono davanti eh, seppur consumando molto di piu'??

Anche perche' se uscissero in estate le 490/x sarebbero, le fury, tra le schede video tra la vita piu' breve e travagliata che io ricordi -considerando anche la disponibilita' limitata iniziale-.


P.s.: Se tanto mi da tanto in teoria anche Nvidia dovrebbe fare i miracoli in termini di consumo complessivo, o no?

Ale55andr0
25-03-2016, 14:14
Utilizzando le gddr5x e in base all'efficienza della nuova GCN secondo me queste schede non saranno molto inferiori alle Fury.


e no cappero, se la 490x sarà la top a lungo prima di vedere vega con hbm2 (2017 :muro: ) DEVONO assolutamente essere superiori alle fury x, altro che non molto inferiori :fagiano:

comunque io escluderei i 6gb che, su una top vorrebbero dire di nuovo bus "complesso" (384bit. Reputo improbabile un 192 su una 490x), sarebbe un passo indietro dopo i miglioramenti con la compressione delle rops. Le gddr5x che a pari bus/frequenza danno il doppio della banda permettono proprio di semplificare l'MC a tutto vantaggio di mm^2 risparmiati e consumi sulla GPU, ergo suppongo che sulla 490x siano più probabili 8gb/256bit/gddr5x a 6ghz che dovrebbero dare intorno ai 448gb/s di banda econ consumi immagino non superiori ai 200w...venissse proposta a un prezzo umano (viste le memorie meno costose e più facili da implementare delle hbm) sarebbe una GRANDE scheda

mikael84
25-03-2016, 14:35
e no cappero, se la 490x sarà la top a lungo prima di vedere vega con hbm2 (2017 :muro: ) DEVONO assolutamente essere superiori alle fury x, altro che non molto inferiori :fagiano:

comunque io escluderei i 6gb che, su una top vorrebbero dire di nuovo bus "complesso" (384bit. Reputo improbabile un 192 su una 490x), sarebbe un passo indietro dopo i miglioramenti con la compressione delle rops. Le gddr5x che a pari bus/frequenza danno il doppio della banda permettono proprio di semplificare l'MC a tutto vantaggio di mm^2 risparmiati e consumi sulla GPU, ergo suppongo che sulla 490x siano più probabili 8gb/256bit/gddr5x a 6ghz che dovrebbero dare intorno ai 448gb/s di banda econ consumi immagino non superiori ai 200w...venissse proposta a un prezzo umano (viste le memorie meno costose e più facili da implementare delle hbm) sarebbe una GRANDE scheda

No mi riferivo alle gddr5x, 6gbit sono 12gbit in gddr5x. Con tali memorie la banda è di 384gb/s, con prestazionalmente un 40% di base dovuto alla decompressione vertex/pixel pipeline.
Teoricamente la banda sarà in line acon Maxwell anche se non capisco perchè settarla con 12gbit quando i 14gbit da 448gb/s sono perfettamente utilizzabili.
Ora bisogna vedere come sarà la nuova GCN4 a parte migliorie lato cache e una compressione migliorata.
Penso che sia rivisti anche i vari rasterizzatori per permettere migliorie poligonali e con un maggior numero di geometry engine. Ci saranno sicuramente migliorie lato tessellazione, Nvidia già ad oggi consente di calcolare ben 24g/tris per SMM.
Conoscendo solo un'ipotetico valore numerico di shader è difficile valutare il tutto.:)


Pero' non capisco, nel senso ok, ho capito quello che intendi, ma quello che non mi e' chiaro e' se tutta l'ottimizzazione derivi dal solo processo produttivo -e chiaramente non e' cosi', altrimenti non avrebbero chiamato questa gpu GCN 4.0- oppure dalla "nuova" architettura, o meglio mi chiedo quanto dipenda dal salto sul PP a 14nm e quanto dall'ottimizzazione.
Inoltre mi chiedo se le prestazioni in linea di massima saranno ottimizzate per il rapporto watt/performance oppure tese alle massime prestazione possibili, almeno su polaris 10.

Non e' che poi le fury x rimangono davanti eh, seppur consumando molto di piu'??

Anche perche' se uscissero in estate le 490/x sarebbero, le fury, tra le schede video tra la vita piu' breve e travagliata che io ricordi -considerando anche la disponibilita' limitata iniziale-.


P.s.: Se tanto mi da tanto in teoria anche Nvidia dovrebbe fare i miracoli in termini di consumo complessivo, o no?

Nvidia sta puntando tutto sull'efficienza e difficilmente ci possiamo aspettare grossi numeri, a partire da un core piccolo da 300/330mm2 contro i 400 gpm204.
Se però Pascal dovrebbe riprendere Maxwell su GCN tutto è imprevedibile attualmente. GP104 è pensato per un singolo 8pin e questo fa presupore quanto si stia cercando di puntare all'efficienza piuttosto che alle prestazioni finali in entrambi.
Il fattore discutibile per ora e che di questo passo ci troviamo i vari chipponi, Vega/GP104 con prestazioni decisamente superiori alla fascia media. Come quando con le HD2000 o le 8800gtx c'era una differenza in rapporto di 1/3 tra fascia media e ultra

Crysis90
25-03-2016, 15:33
http://www.hwupgrade.it/news/skvideo/polaris-vega-ellesmere-e-baffin-ecco-i-nomi-in-codice-delle-future-gpu-amd_61779.html

Sembra che nel 2016 non vedremo vere TOP di gamma a 16/14 nm.
Toccherà aspettare il 2017.

FroZen
25-03-2016, 15:39
Forse l'unica cosa che si sapeva :D

fraussantin
25-03-2016, 15:45
http://www.hwupgrade.it/news/skvideo/polaris-vega-ellesmere-e-baffin-ecco-i-nomi-in-codice-delle-future-gpu-amd_61779.html

Sembra che nel 2016 non vedremo vere TOP di gamma a 16/14 nm.
Toccherà aspettare il 2017.
Ok ma escono quelle che sono piu nell'interesse di tutti.

Non credo che siano in molti gli interessati a vga amd da 1000 euro

FroZen
25-03-2016, 16:05
AMD replaced the Graphics Command Processor and increased the size of the command buffer (section of the frame buffer/system memory dedicated to keeping many to-be executed commands). The two changes, when coupled together, allow for a boost in performance under single threaded scenarios.

How? My opinion is that if the CPU is busy handling a complex simulation or other CPU heavy work under DX11, you generally get a stall on ther GPU side whereas the GPU idles, waiting on the CPU to finish the work it is doing so that it can continue to feed the GPU.

By increasing the size of the command buffer, more commands can be placed in-waiting so that while the CPU is busy with other work, the Graphics Command Processor still has a lot of buffered commands to execute. This averts a stall.

So 720p/900p/1080p/1440p performance should be great under DX11 and Polaris/Vega.


Another nifty new feature is instruction prefetching. Instruction prefetch is a technique used in central processor units to speed up the execution of a program by reducing wait states (GPU Idle time).

Prefetching occurs when a processor requests an instruction or data block from main memory before it is actually needed. Once the block comes back from memory, it is placed in a cache (and GCN4 has increased its Cache sizes as well). When the instruction/data block is actually needed, it can be accessed much more quickly from the cache than if it had to make a request from memory. Thus, prefetching hides memory access latency.

In the case of a GPU, the prefetch can take advantage of the spatial coherence usually found in the texture mapping process. In this case, the prefetched data are not instructions, but texture elements (texels) that are candidates to be mapped on a polygon.

This could mean that GCN4 (Polaris/Vega) will be boosting texturing performance without needing to rely on more texturing units. This makes sense when you consider that Polaris will be a relatively small die containing far fewer CUs (Compute Units) than Fiji and that Texture Mapping Units are found in the CUs. By reducing the texel fetch wait times, you can get a more efficient use out of the Texture Mapping Units on an individual basis. Kind of like higher TMU IPC.

Supposizioni varie sul fatto che il dx11 overhead verrà risolto via hardware e non software come si pensava

Trokji
25-03-2016, 16:10
Usando molto folding@home non mi dispiace affatto che le schede AMD siano più sbilanciate verso il calcolo generico.. infatti probabilmente sbagliai a dare via la 280X in cambio della 750 in vista di un miglioramento dell'efficienza.. alla fine consuma meno ed il rapporto performance/watt è migliore nei giochi ma non nei calcoli..:stordita:

Free Gordon
25-03-2016, 16:15
e no cappero, se la 490x sarà la top a lungo prima di vedere vega con hbm2 (2017 :muro: ) DEVONO assolutamente essere superiori alle fury x, altro che non molto inferiori :fagiano:

Io penso sia difficile che le le top che usciranno a giugno, vadano di più di una FuryX.. forse eguaglieranno Furyx/980ti...ma più probabile siano leggermente sotto..


comunque io escluderei i 6gb che, su una top vorrebbero dire di nuovo bus "complesso" (384bit. Reputo improbabile un 192 su una 490x), sarebbe un passo indietro dopo i miglioramenti con la compressione delle rops. Le gddr5x che a pari bus/frequenza danno il doppio della banda permettono proprio di semplificare l'MC a tutto vantaggio di mm^2 risparmiati e consumi sulla GPU, ergo suppongo che sulla 490x siano più probabili 8gb/256bit/gddr5x a 6ghz che dovrebbero dare intorno ai 448gb/s di banda econ consumi immagino non superiori ai 200w...venissse proposta a un prezzo umano (viste le memorie meno costose e più facili da implementare delle hbm) sarebbe una GRANDE scheda

Concordo sul bus 256bit e gli 8GB, ma per i 448GB/s ci vogliono 7ghz.. ;)

deadbeef
25-03-2016, 16:17
speriamo siano energy efficient, così con i watt risparmiati posso fare il pieno al SUV 4.0cc a benzina :fagiano:

Free Gordon
25-03-2016, 16:23
AMD replaced the Graphics Command Processor and increased the size of the command buffer (section of the frame buffer/system memory dedicated to keeping many to-be executed commands). The two changes, when coupled together, allow for a boost in performance under single threaded scenarios.


Ottimo, sembra ciò che serve a GCN in un tipico gioco dx9/11.. :D



speriamo siano energy efficient, così con i watt risparmiati posso fare il pieno al SUV 4.0cc a benzina :fagiano:

:rotfl:

Gundam1973
25-03-2016, 16:41
speriamo siano energy efficient, così con i watt risparmiati posso fare il pieno al SUV 4.0cc a benzina :fagiano:

lol:D :D

Ale55andr0
25-03-2016, 18:17
Io penso sia difficile che le le top che usciranno a giugno, vadano di più di una FuryX.. forse eguaglieranno Furyx/980ti...ma più probabile siano leggermente sotto..

cioè aspettiamo da eoni per non fare un salto? non credo sinceramente, e questo nonostante non siano la gpu top, dopotutto la 290 liscia, che non era la top di gamma andava comunque più della precedente top, la 7970 e a pari pp...non vedo perchè un 490x debba star dietro alla fury. Posso sbagliare, ma visto che parliamo di aria fritta ad oggi, mi pare scontato che la gpu che resterà top di gamma AMD fino al 2017 DEVE assolutamente essere superiore a fury x, senno è un flop. Da vega ci si aspetta che sia mostruosa, ok, ma la 490x deve rappresentare comunque un upgrade rispetto la top precedente visto quanto dovrà tirare avanti



Concordo sul bus 256bit e gli 8GB, ma per i 448GB/s ci vogliono 7ghz.. ;)

giusto, ricordavo che la 980 liscia le avesse a 6ghz, sbagliando ;)

OEidolon
26-03-2016, 09:07
cioè aspettiamo da eoni per non fare un salto? non credo sinceramente, e questo nonostante non siano la gpu top, dopotutto la 290 liscia, che non era la top di gamma andava comunque più della precedente top, la 7970 e a pari pp...non vedo perchè un 490x debba star dietro alla fury. Posso sbagliare, ma visto che parliamo di aria fritta ad oggi, mi pare scontato che la gpu che resterà top di gamma AMD fino al 2017 DEVE assolutamente essere superiore a fury x, senno è un flop. Da vega ci si aspetta che sia mostruosa, ok, ma la 490x deve rappresentare comunque un upgrade rispetto la top precedente visto quanto dovrà tirare avanti


A mantenere un minimo di razionalità verrebbe da dire che le 490 debbano sostituire le 390, quindi prestazioni che non devono superare le fury, altrimenti c'è cannibalizzazione in meno di un anno sul mercato.

Fai il paragone con le 290-7970, ma da un po' nvidia ha inaugurato il concetto di "oltre la top di gamma"="enthusiast", per cui sappiamo tutti che le fury saranno sostituite da qualcosa "enthusiast", non da qualcosa di "fascia alta", quindi da qualcosa con un nome diverso da 490.
Non so dove cavolo leggi "top di gamma amd" nella gamma polaris, che in realtà va a rinnovare sensibilmente i segmenti occupati dalle 390 in giù evitando l'ennesimo rebrand.

Ti sei fissato con sta cosa che le 490 debbano sostituire le fury, ma sono destinate a segmenti di mercato diversi :boh:

Ale55andr0
26-03-2016, 10:03
A mantenere un minimo di razionalità verrebbe da dire che le 490 debbano sostituire le 390, quindi prestazioni che non devono superare le fury, altrimenti c'è cannibalizzazione in meno di un anno sul mercato

e invece devono eccome visto che dai tempi della 4850 la "quasi top" di nuova generazione ha sempre superato la top assoluta della precedente, fino appunto alla 290/390 vs la 7970. Ergo mi aspetto e pretendo lo stesso :O
La cannibalizzazione del mercato? AMD sta con le pezze al culo e ora come ora ha un market share ridicolo sulle vga discrete rispetto alla concorrenza, ha ben altro di cui preoccuparsi di non "infastidire" la Fury X che poi rispetto alla produzione della famiglia R9 la hanno in 4 gatti. La "top di gamma" la vedo nel fatto di quale sarà la scheda più performanante prodotta disponibile al momento e per parecchi mesi. Se per tirare fuori vega devono passare 6 mesi o più è OVVIO che ìl riferimento per le prestazioni sarà la 490x, come fu la 680 "chip medio" per nvidia nonostante mesi dopo usciti la titan peraltro pure annunciata, ma fino ad allora quella era la top di gamma, di fatto e di prezzo, punto. E specialmente adesso che ci sta un cambio di pp di mezzo deve andare più forte, senza se, senza ma, lo han gia fatto a pari pp figurarsi ora! Se poi la 490x verrà venduta a 300 euro ne riparliamo.... ma se sarà una vga da 5 cucuzze & dintorni ripeto, PRETENDO che vada più forte :O

Free Gordon
26-03-2016, 11:29
Credo polaris10 prenderà il posto (a livello di fascia di prezzo), della 390X...quindi sui 399-459$...poi dipenderà anche da Nvidia probabilmente.

Come prestazioni è possibile che si avvicini alla FuryX...ma il chip sarà settato in modo tale da stargli sotto o al massimo alla pari in alcuni casi. :)

E' un fatto commerciale...la fascia alta sarà coperta dalla nuova Fury, Vega10...in uscita 6 mesi dopo.

La fascia dove fanno margine e quindi soldi è quella dei 250-300$, quindi credo la cutteranno/inquadreranno lì per massimizzare gli introiti.

FroZen
26-03-2016, 11:54
Con un die meno della metà di fury torneranno margini interessanti (e la famosa profittabilità) se anche andasse come una 390 consumando meno della metà .... Bisogna aspettare il 2017 per le vere top e prestazioni almeno del 40% sulle attuali enthusiast

Radeon80
26-03-2016, 12:52
Da un paio di giorni girano dei rumor il quale dicono che tutte le novità che verranno introdotte con Polaris 10 e 11(con relativa immagine) non ci saranno e che verranno "aggiornati" solo alcune parti dell'architettura.
Sarebbe come chiamarlo GCN 1.25 oppure 3.5
In passato quando AMD mostrava le Slide sia su CPU e GPU di solito non risultavano veritiere le prestazioni e non le novità architetturali.
Mi sembrerebbe strano che le novità architetturali annunciate con GCN4 non venissero confermate e da quello che mi ricordo negli ultimi anni questa situazione non avrebbe precedenti.

Raven
26-03-2016, 13:08
http://gaming.ngi.it/forum/images//emot-v.gif... tra un po' vien fuori che Polaris 10 e 11 saranno rebrand di 285 e 290/390! http://digilander.libero.it/arosati76/emotvcr1.png

FroZen
26-03-2016, 13:33
Polaris e vega saranno vga con architettura profondamente diversa e su pp nuovo full stop

Come si inseriscano a livello prestazionale alla attuale lineup è l'unica incognita full stop

In casa nvidia la situazione è ancora piu confusa dato che ufficialmente sono muti e l'unico aspetto certo è che pascal sarà piu compute oriented di maxwell ma non sarà sto gran stravolgimento, è volta la vera nuova architettura

FroZen
26-03-2016, 17:07
Mi ritiro nel mio ice per tre mesi

OEidolon
26-03-2016, 17:43
e invece devono eccome visto che dai tempi della 4850 la "quasi top" di nuova generazione ha sempre superato la top assoluta della precedente, fino appunto alla 290/390 vs la 7970. Ergo mi aspetto e pretendo lo stesso :O
La cannibalizzazione del mercato? AMD sta con le pezze al culo e ora come ora ha un market share ridicolo sulle vga discrete rispetto alla concorrenza, ha ben altro di cui preoccuparsi di non "infastidire" la Fury X che poi rispetto alla produzione della famiglia R9 la hanno in 4 gatti. La "top di gamma" la vedo nel fatto di quale sarà la scheda più performanante prodotta disponibile al momento e per parecchi mesi. Se per tirare fuori vega devono passare 6 mesi o più è OVVIO che ìl riferimento per le prestazioni sarà la 490x, come fu la 680 "chip medio" per nvidia nonostante mesi dopo usciti la titan peraltro pure annunciata, ma fino ad allora quella era la top di gamma, di fatto e di prezzo, punto. E specialmente adesso che ci sta un cambio di pp di mezzo deve andare più forte, senza se, senza ma, lo han gia fatto a pari pp figurarsi ora! Se poi la 490x verrà venduta a 300 euro ne riparliamo.... ma se sarà una vga da 5 cucuzze & dintorni ripeto, PRETENDO che vada più forte :O

e pretendi troppo :asd:

Quello che intendo farti capire è che tu stai decidendo arbitrariamente di usare come riferimento prestazionale top di gamma un'insieme di prodotti che non nasce come riferimento prestazionale top di gamma. Sarà anche fascia alta, ma non è top di gamma. E vedrai che i prezzi di listino saranno allineati di conseguenza, perchè dovranno rispecchiare il posizionamento.

C'è anche da aggiungere che attorno a polaris c'è la dichiarazione di "voler portare la VR nella fascia dei 350usd", e immagino che si riferisca alla versione meno potente di polaris 10. Con polaris 11 che va a sostituire la 380x e a scendere.

Il discorso cannibalizzazione (non del mercato, non ha senso perchè si tratta dei prodotti e dei profitti derivanti dalla vendita) vale per qualsiasi gamma prodotto, a 500 euro street ci sono le fury lisce, la 490x dovrà inserirsi sui 450+/-10% di listino.

Alla fine dello scorso anno, ricordo una dichiarazione di Lisa o dell'indiano che lasciavano intendere di voler approcciarsi (niente doppi sensi please :asd: ) con una metodologia stile nvidia.
Penso che avessero in testa il fatto che prima di tutto abbiano necessità di rinfrescare il segmento che fa più quote (appunto per il discorso "pezze al culo") ed effettivamente i numeri che girano indicano che puntano a rinnovare sensibilmente l'offerta in quei determinati segmenti, anche perchè la top di gamma amd è la duo, presentata da poco, e secondo me rimarrà tale fino a vega, perchè la duo è "la scheda più performanante prodotta disponibile al momento e per parecchi mesi"(cit.) di amd.

quindi preparati a lamentarti di come le 490x saranno un fail rispetto alle tue personalissime aspettative costruite ignorando la logica dei numeri attuali e la realtà della gamma amd :fagiano:

per il resto Free Gordon ha riassunto bene la situazione che si verrà a creare:
Credo polaris10 prenderà il posto (a livello di fascia di prezzo), della 390X...quindi sui 399-459$...poi dipenderà anche da Nvidia probabilmente.

Come prestazioni è possibile che si avvicini alla FuryX...ma il chip sarà settato in modo tale da stargli sotto o al massimo alla pari in alcuni casi. :)

E' un fatto commerciale...la fascia alta sarà coperta dalla nuova Fury, Vega10...in uscita 6 mesi dopo.

La fascia dove fanno margine e quindi soldi è quella dei 250-300$, quindi credo la cutteranno/inquadreranno lì per massimizzare gli introiti.

Raven
26-03-2016, 18:20
Mi ritiro nel mio ice per tre mesi

https://upload.wikimedia.org/wikipedia/en/3/3f/Prisoner_of_Ice_cover.jpg

amon.akira
26-03-2016, 19:31
https://upload.wikimedia.org/wikipedia/en/3/3f/Prisoner_of_Ice_cover.jpg

cosa non mi hai ricordato, uno dei pochi che saltai all epoca e che m intrigava tantissimo dalla review su tgm :D

FroZen
26-03-2016, 20:01
https://upload.wikimedia.org/wikipedia/en/3/3f/Prisoner_of_Ice_cover.jpg

http://ultimokaramazov.altervista.org/blog/wp-content/uploads/2013/01/neuromante1.jpg

deadbeef
26-03-2016, 23:05
per voi anzianotti :O

https://www.gog.com/news/release_shadow_of_the_comet_prisoner_of_ice

Windtears
29-03-2016, 12:25
So 720p/900p/1080p/1440p performance should be great under DX11 and Polaris/Vega.


Supposizioni varie sul fatto che il dx11 overhead verrà risolto via hardware e non software come si pensava

il che mi fa pensare che questa architettura è stata concepita con in mente le dx9-11, e mi fa "temere" che queste ultime saranno ancora alla base di molti motori middleware per anni a venire.

Ovvio che non si poteva pretendere fossero dx12-oriented (almeno mantle-vulkan forse si, ma chissà quanto amd poteva crederci visto il mercato dominato dai programmi di "assistenzialismo" alle software house), ma forse per ignoranza personale avrei provato a "inserire" qualche ottimizzazione dx12.

Poi, se ci penso, non è che ci siano chissà quali prodotti dx11 in giro, figurarsi dx12. :P

Scusate l'intervento da nabbo. :)

HadesSaint
29-03-2016, 12:51
le vega 10 avranno in teoria 4k di SP..come le fury :) quindi per le polaris 10/11 avremo 2k/2.8k di SP?

FroZen
29-03-2016, 13:30
Bhe almeno i rumor sono coerenti :asd: ma rimangono tali...

Ale55andr0
29-03-2016, 13:58
se l'architettura performasse a pari sp 2.5x volte meglio, allora TEORICAMENTE avrei ragione io, la 490x "2816sp" andrebbe più della fury x, ed è vega che ne avrà 4000di sp :fagiano: Il punto è: il 2.5x è inteso a pari cu/sp o pari consumi? :stordita: ma....anche fosse a pari consumi, quindi un rapporto performance/watt e non performance/sp in ogni caso, con lo stesso consumo di una 390x, le prestazioni traslate in alto di 2.5volte sarebbero mostruose e nettamente superiori a furyx, non si scappa! il punto è che probabilmente la ipotetica scheda che consumerebbe (?) quanto la 390x ( 250-275w o giu di li?) non sarebbe certo la 490x ma più verosimilmente la supertop con lo scatafascio di ram hbm2 che non ho idea quanto la prezzeranno...:mc: certo che una vega che con 4000sp performa 2.5 la fury x è un sogno da materasso fradicio :D

FroZen
29-03-2016, 15:01
Gli sp saranno molto differenti quindi non ha senso un confronto del genere

L'unico che ha senso sono performance/watt e infatti è l'unico che hanno dato (ovviamente nel best case scenario)

Ale55andr0
29-03-2016, 15:49
2.5x è legato all'efficienza dichiarata e non alle prestazioni.



se parli di performance per watt 2.5x superiori, tu mi stai dicendo che a pari consumo vai 2.5x di più, non ci stanno altre interpretazioni eh... ergo indipendentemente da come organizzi gli shader core o dal loro clock se mi dai quella informazione, come li raggiungi sono fatti tuoi, ma se fai una scheda da 275w per dire, il discorso resta valido, senno' non tiri fuori il rapporto prestazioni per watt come metro di paragone.
Sono anche curioso di vedere come performeranno a livello di tessellation, campo rispetto al quale sono dietro rispetto la rivale, una delle aree riviste sulle gpu mi pare sia proprio il motore geometrico (che nelle nvidia è integrato in ognuna delle cu mi par di ricordare)

Ale55andr0
29-03-2016, 16:34
2.5x dichiarato come efficienza e quindi watt/perf NON vuol dire assolutamente che 2816sp di polaris vadano come 2.5x di hawaii

ehm, ho ben detto di lasciar perdere gli shader e la frequenza, ma di parlare solo di watt e prestazioni relative, appunto, non ho parlato di 2816sp o 3000...e non cambia il discorso: se mi fai una scheda che consuma come una fury x o una 390x sia in un caso e nell'altro mi stai dicendo che rispetto a quelle andrai 2.5 volte meglio

DuttZ
29-03-2016, 21:35
Quindi per avere delle prestazioni superiori dalle polaris rispetto alle vecchie dello stesso segmento, o avranno frequenze decisamente più alte o come detto da qualcuno sopra, gli SP dovranno rullare di brutto... Visto che dalle prime indiscrezioni si parla di un numero di SP esiguo

soulsore
29-03-2016, 22:06
Speravo di pensionare la mia 7870 prima di metà anno ma a quanto pare per le nuove schede di fascia alta ed enthusiast si dovrà aspettare Settembre o inizio 2017 giusto? Diamine..

Oirasor_84
29-03-2016, 22:43
se parli di performance per watt 2.5x superiori, tu mi stai dicendo che a pari consumo vai 2.5x di più, non ci stanno altre interpretazioni eh... ergo indipendentemente da come organizzi gli shader core o dal loro clock se mi dai quella informazione, come li raggiungi sono fatti tuoi, ma se fai una scheda da 275w per dire, il discorso resta valido, senno' non tiri fuori il rapporto prestazioni per watt come metro di paragone.
Sono anche curioso di vedere come performeranno a livello di tessellation, campo rispetto al quale sono dietro rispetto la rivale, una delle aree riviste sulle gpu mi pare sia proprio il motore geometrico (che nelle nvidia è integrato in ognuna delle cu mi par di ricordare)
Anche se molti dicono che le nvidia hanno più unità geometriche queste servono fino ad un certo punto se poi usi la tessellation anche nell'audio a momenti,infatti vedi gameworks dove in tutti gli effetti di luce viene usata la tessellation e anche i chipponi nvidia prendono bastonate.Amd ha techdemo della tessellation dai tempi dell hd2000 e sono implementazioni che migliorano la grafica e non impattano nelle prestazioni.
https://www.youtube.com/watch?v=lU_lB8MPwPY

Free Gordon
29-03-2016, 23:38
se l'architettura performasse a pari...CUT..


Polaris è 2.5x più efficiente di Grenada/Hawaii... significa che schede con prestazioni simili, consumeranno 2 volte e mezzo in meno delle rispettive a 28nm. Non penso che significhi altro.. ;)

Free Gordon
29-03-2016, 23:50
Sono anche curioso di vedere come performeranno a livello di tessellation, campo rispetto al quale sono dietro rispetto la rivale, una delle aree riviste sulle gpu mi pare sia proprio il motore geometrico (che nelle nvidia è integrato in ognuna delle cu mi par di ricordare)

Diciamo che fino ad ora le due avevano un approccio diverso: AMD ha un tessellator "ad hoc" per svolgere quelle funzioni, Nvidia usa i cuda cores..

Il tutto si riverbera sulle prestazioni in questo modo: come picco teorico Nvidia è ovviamente più forte, perchè le capacità geometriche di tutto lo shader core se usato SOLO per quello...sono enormi. Se invece prendiamo un workload misto, dove c'è anche bisogno di fare tessellazione, non è detto che la scelta di AMD sia la perdente ;) Mentre il tessellator è impegnato a fare solo quello per cui è fatto, lo shader core si può occupare di tutto il resto, "indisturbato"...

Sono approcci diversi, vedremo cosa farà AMD con Polaris..

Ale55andr0
30-03-2016, 02:43
Quindi per avere delle prestazioni superiori dalle polaris rispetto alle vecchie dello stesso segmento, o avranno frequenze decisamente più alte o come detto da qualcuno sopra, gli SP dovranno rullare di brutto... Visto che dalle prime indiscrezioni si parla di un numero di SP esiguo

in giro ho letto di 2304sp a 800mhz e prestazioni superiori a titan-x gia così...anche se non ci credo molto

FroZen
30-03-2016, 06:32
Le frequenze non sono veritiere, gli 800mhz sono un pstate conservativo ho letto ... Più facile siano i 2300sp la notizia....vediamo dopo domani qualche succosa anticipazione...

Free Gordon
30-03-2016, 10:11
Se hanno aumentato la lunghezza della pipe è possibile..

mikael84
30-03-2016, 10:40
in giro ho letto di 2304sp a 800mhz e prestazioni superiori a titan-x gia così...anche se non ci credo molto

Titan Black (780ti con dp) non titan x;)

Ale55andr0
30-03-2016, 11:16
Titan Black (780ti con dp) non titan x;)


chiedo venia :D. Peraltro non sapevo nemmeno la differenza fra la black e la x, leggo ora che è la precedente con 2880sp e boost a 980...sempre tanta roba se viene pareggiata da polaris a 800mhz con 2304sp :) e in prospettiva vega con 4096 è davvero impressionante

ma non fate prima a postare il link di sto leak? :stordita:


http://wccftech.com/amd-vega-10-4096-stream-processors/


"The 4th generation GCN cores are ~50-55% faster than their predecessors according to the SiSoft Sandra entry of Polaris 10 that we spotted recently. Which had a 2304 GCN 4.0 core GPU running at 800mhz beating a GTX Titan black and an R9 290X which has 2816 GCN cores running at 1000Mhz."




quindi secondo i (presunti) leak GCN 4 ha un ipc brutale visti i soli 800mhz

mikael84
30-03-2016, 11:30
chiedo venia :D. Peraltro non sapevo nemmeno la differenza fra la black e la x, leggo ora che è la precedente con 2880sp e boost a 980...sempre tanta roba se viene pareggiata da polaris a 800mhz con 2304sp :) e in prospettiva vega con 4096 è davvero impressionante




http://wccftech.com/amd-vega-10-4096-stream-processors/


"The 4th generation GCN cores are ~50-55% faster than their predecessors according to the SiSoft Sandra entry of Polaris 10 that we spotted recently. Which had a 2304 GCN 4.0 core GPU running at 800mhz beating a GTX Titan black and an R9 290X which has 2816 GCN cores running at 1000Mhz."




quindi secondo i (presunti) leak GCN 4 ha un ipc brutale visti i soli 800mhz

Diventa troppo complesso paragonare questa architettura di cui non si conosce niente. Certo quel che è sicuro è che i clock saranno ben più elevati.
Se 4096 shader dovessero reggere contro i probabili 5144 di full Pascal, significherebbe che con 2304 vai quanto le top attuali e la 2560-2816 se la giocherà con x80 tranquillamente sia in performance che in efficienza.

Free Gordon
30-03-2016, 12:06
quindi la cosa migliore è far lavorare il pp nel range ottimale di frequenza/vcore e trovare di conseguenza le prestazioni volute adattando l'architettura in corso

...che nella passata gen, è stato senza dubbio Maxwell.
Essendo anche l'architettura più "nuova" uscita in ambito gpu..

FroZen
30-03-2016, 12:59
Prendete e godetene tutti :O

https://community.amd.com/community/gaming/blog/2016/03/28/asynchronous-shaders-evolved

mikael84
30-03-2016, 14:09
grazie, me l'ero persa quella parte 2 settimane fa :p
+50~55% di IPC :stordita:



infatti mi pare un po' esagerato come incremento in IPC, ok che praticamente da come è stato dichiarato hanno ritoccato tutto ma sarebbe praticamente un altra architettura in toto, peggio di Zen...



azz... però speriamo che i programmatori si diano una sveglia con ste DX12, che sono partite al palo

Bisogna vedere le migliorie architetturali complete. Per dire Maxwell con 1664 cuda spesso supera la precedente con 2880cc. Maxwell rispetto a Kepler e le AMD ha un vantaggio però elevato sui clock che è alla base di ogni moltiplicazione (rops-tmu-p.aritmetica), questo aspettiamocelo anche dalle Polaris/Vega

Vul
01-04-2016, 18:38
grazie, me l'ero persa quella parte 2 settimane fa :p
+50~55% di IPC :stordita:



infatti mi pare un po' esagerato come incremento in IPC, ok che praticamente da come è stato dichiarato hanno ritoccato tutto ma sarebbe praticamente un altra architettura in toto, peggio di Zen...



azz... però speriamo che i programmatori si diano una sveglia con ste DX12, che sono partite al palo

Finchè dx12 è esclusiva win10, nessuno ha interesse a lavorarci seriamente.

DX 11 ci ha messo 5-7 anni ad essere adottato in maniera nativa (no dx 9).

FroZen
06-04-2016, 11:46
Bene ora che nvidia si è amdizzata tornando a puntare sul compute è probabile che le hawaii andranno a bomba anche su titoli verdi, rimane il rischio async compute su dx12 che penso invece rimarrà molto diverso nell'implementazione dei due brand.....bho stamo a vedè.....

Comunque nvidia rincorre amd ahahaha chi lo avrebbe mai detto

Si vede che i contratti in ambito hpc siglati da amd ora che cuda è trascodificabile hanno fatto venire la pelle d'oca al lampadato cinoperuviano, se cimettete poi le apu refresh di xbox ps4 e nintendo....sarà un ottimo anno finalmente per gli azionisti amd

davo30
06-04-2016, 12:56
Bene ora che nvidia si è amdizzata tornando a puntare sul compute è probabile che le hawaii andranno a bomba anche su titoli verdi, rimane il rischio async compute su dx12 che penso invece rimarrà molto diverso nell'implementazione dei due brand.....bho stamo a vedè.....

Comunque nvidia rincorre amd ahahaha chi lo avrebbe mai detto

Si vede che i contratti in ambito hpc siglati da amd ora che cuda è trascodificabile hanno fatto venire la pelle d'oca al lampadato cinoperuviano, se cimettete poi le apu refresh di xbox ps4 e nintendo....sarà un ottimo anno finalmente per gli azionisti amd
Si, basta solo che si decidano a tirare fuori le nuove gpu. Visto che iNvidia parrebbe essere in ritardo sulla parte consumer, magari approfittare per anticiparla con Polaris e rubarle qualche quota di mercato sarebbe una mossa intelligente.

Inviato dal mio XT1092 utilizzando Tapatalk

Phopho
06-04-2016, 13:34
se riuscissero davvero a bruciarli sul tempo guadagnerebbero un bel fettone.
io sarei stato comunque indirizzato a tornare in rosso ma, sinceramente, per come è invecchiata precocemente la mia 770 sono rimasto deluso dalla mia prima esperienza in verde.

Ale55andr0
06-04-2016, 13:41
Bene ora che nvidia si è amdizzata tornando a puntare sul compute è probabile che le hawaii andranno a bomba anche su titoli verdi


certo come no, con le mazzette che sgancia nvidia le amd voleranno sui titoli verdi, specialmente quelli shitworks

Free Gordon
06-04-2016, 13:46
se riuscissero davvero a bruciarli sul tempo guadagnerebbero un bel fettone.


Purtroppo credo di no. :)

L'utenza media... ha la memoria MOLTO corta. ;)

davo30
06-04-2016, 14:03
Purtroppo credo di no. :)

L'utenza media... ha la memoria MOLTO corta. ;)
È vero, però leggendo i qua e là in vari forum (escludendo i fanboy più ottusi) tra shitworks, specifiche fuffa, driver tutt'altro che perfetti e prestazioni pesantemente castrate, molto utenti di Nvidia stessa stanno aspettando Polaris per passare (o ritornare) alla concorrenza. Ormai la storiella di AMD con i driver schifosi e dai consumi spropositati sta sparendo.

P.s. tanto per specificare, sono attualmente utente Nvidia che aspetta Polaris per tornare ad AMD

Inviato dal mio XT1092 utilizzando Tapatalk

fraussantin
06-04-2016, 14:08
È vero, però leggendo i qua e là in vari forum (escludendo i fanboy più ottusi) tra shitworks, specifiche fuffa, driver tutt'altro che perfetti e prestazioni pesantemente castrate, molto utenti di Nvidia stessa stanno aspettando Polaris per passare (o ritornare) alla concorrenza. Ormai la storiella di AMD con i driver schifosi e dai consumi spropositati sta sparendo.

P.s. tanto per specificare, sono attualmente utente Nvidia che aspetta Polaris per tornare ad AMD

Inviato dal mio XT1092 utilizzando Tapatalk
Resta da capire il prezzo , e tutta quella paccottiglia presentata ieri quando inciderà sui game.

Perché siamo punto e accapo , se nvidia pilota developer dei titoli maggiori con i suoi kit di sviluppo flameworks( cit.:asd:) resta un bel dilemma.

Si compro amd , ma non ho questo fx , ne quello ...

Boh!

Tanto io per un paio di anni mi tengo la mia e poi si vedrà.

Free Gordon
06-04-2016, 14:20
Direi che chi ha 970/980 o 390/390X non ha motivo cmq di cambiare.
Per i giochi che ci sono in giro oggi, bastano e avanzano.... :)

I consumi (in condizioni di gioco comune) sono una baggianata a mio modo di vedere.

davo30
06-04-2016, 15:56
Resta da capire il prezzo , e tutta quella paccottiglia presentata ieri quando inciderà sui game.

Perché siamo punto e accapo , se nvidia pilota developer dei titoli maggiori con i suoi kit di sviluppo flameworks( cit.:asd:) resta un bel dilemma.

Si compro amd , ma non ho questo fx , ne quello ...

Boh!

Tanto io per un paio di anni mi tengo la mia e poi si vedrà.
Il problema è che agli effetti, quanto incide Gameworks sulle prestazioni delle AMD? Io penso che il problema non sia Gameworks in se, ma la visibilità che da/ha dato ad nVidia a livello di conoscenza del marchio. È ovvio che un "ignorante" (e non solo) del settore vedendo il logo nVidia su 8/10 dei giochi, sia attirato ad acquistare quel marchio, non sapendo che a conti fatti le AMD vanno benissimo anche nei giochi Gameworks (alcune volte con gli effetti disattivato vanno pure meglio delle stesse Nvidia). Questa però non è una colpa di Nvidia, anzi, se la sta giocando perfettamente. È AMD che vive nel mondo dei puffi e non ha minimamente saputo controbattere a livello di immagine la controparte


Inviato dal mio XT1092 utilizzando Tapatalk

fraussantin
06-04-2016, 16:23
Il problema è che agli effetti, quanto incide Gameworks sulle prestazioni delle AMD? Io penso che il problema non sia Gameworks in se, ma la visibilità che da/ha dato ad nVidia a livello di conoscenza del marchio. È ovvio che un "ignorante" (e non solo) del settore vedendo il logo nVidia su 8/10 dei giochi, sia attirato ad acquistare quel marchio, non sapendo che a conti fatti le AMD vanno benissimo anche nei giochi Gameworks (alcune volte con gli effetti disattivato vanno pure meglio delle stesse Nvidia). Questa però non è una colpa di Nvidia, anzi, se la sta giocando perfettamente. È AMD che vive nel mondo dei puffi e non ha minimamente saputo controbattere a livello di immagine la controparte


Inviato dal mio XT1092 utilizzando Tapatalk
Si quello che dici è verissimo ( la pubblicità traina tutto).

Ma i gameworks sono nati per affossare le prestazioni delle gpu amd ( e le nvidia vecchie) .


Poi uno può anche decidere di staccarli.

Ripeto sarà tutto da valutare.
Cmq se ci sarà un reale risparmio du zen rispetto a pascal , riconquisteranno una buona fetta di fun .

Prezzo al prezzo mmm boh!
Poi c'è anche da vedere in dx 12 chi va meglio. Può darsi che amd riesca a mantenere il gap e a sfruttarlo a suo favore.

davo30
06-04-2016, 17:40
Si quello che dici è verissimo ( la pubblicità traina tutto).

Ma i gameworks sono nati per affossare le prestazioni delle gpu amd ( e le nvidia vecchie) .


Poi uno può anche decidere di staccarli.

Ripeto sarà tutto da valutare.
Cmq se ci sarà un reale risparmio du zen rispetto a pascal , riconquisteranno una buona fetta di fun .

Prezzo al prezzo mmm boh!
Poi c'è anche da vedere in dx 12 chi va meglio. Può darsi che amd riesca a mantenere il gap e a sfruttarlo a suo favore.
A me sinceramente interessa che si diano una mossa oltre che una sonora svegliata, visto che voglio cambiare una 660 con una Polaris da 200&euro;. Mi sto oggettivamente stancando della loro lentezza. Già sono stato "costretto" a passare a Intel per manifesta mancanza di alternative (se si fossero svegliati un po prima con BR e Am4, avrei preso una apu e poi sarei passato a zen a tempo debito). L'idea che AMD se la prenda comoda anche con le gpu mi fa veramente innervosire.....

Inviato dal mio XT1092 utilizzando Tapatalk

fraussantin
06-04-2016, 18:55
Gameworks incide soprattutto sui benchmark, in uso reale levi hbao+ e hairworks e ciao ciao, tanto de3vi levarli anche con le verdi.
Il problema è che se chi compra una vga guarda i benchmark e basta sembra che nvidia vada parecchio di più di amd.
No non devi levarli .

Con la 970 in moltissimi giochi li regge bene in 1080p( almeno hbao sicuro) immagina una x70

FroZen
06-04-2016, 19:02
Il discorso è che fare effettini fighi e che vertono su peculiarità architetturali fa magari uscire nelle rece fighe le tue ultime vga ma tarpi le alle "vecchie" (pompi marketshare ok) e ovviamente pure alle concorrenti (e ci sta)

Ma dal dire che le maxwell digeriscono qualsiasi cosa dei gimpworks errrrrr ce ne passa...gli innumerevoli post di tuning settaggi sui thread verdi sono li a dimostrarlo...se si vogliono i 60 120 144 rock solid o ritocchi o non te la cavi con meno di 3000€ e manco li sei a prova di bomba su certi titoli

È una lotta contro i mulini a vento

egounix
06-04-2016, 19:15
Il discorso è che fare effettini fighi e che vertono su peculiarità architetturali fa magari uscire nelle rece fighe le tue ultime vga ma tarpi le alle "vecchie" (pompi marketshare ok) e ovviamente pure alle concorrenti (e ci sta)

Ma dal dire che le maxwell digeriscono qualsiasi cosa dei gimpworks errrrrr ce ne passa...gli innumerevoli post di tuning settaggi sui thread verdi sono li a dimostrarlo...se si vogliono i 60 120 144 rock solid o ritocchi o non te la cavi con meno di 3000&euro; e manco li sei a prova di bomba su certi titoli

È una lotta contro i mulini a vento

Rosiki abbestia!

davo30
06-04-2016, 19:31
Rosiki abbestia!
Scusa ma perché vieni su questo thread a flammare? Se una persona qualsiasi avesse fatto ciò che hai fatto tu sul thread Nvidia dopo 2 minuti sarebbe stato insultato e riportato al mod. Quindi per favore, se non hai piacere che ciò venga fatto sul thread-ghetto Nvidia, ti prego di non farlo a tua volta su questo

Inviato dal mio XT1092 utilizzando Tapatalk

egounix
06-04-2016, 19:41
Scusa ma perché vieni su questo thread a flammare? Se una persona qualsiasi avesse fatto ciò che hai fatto tu sul thread Nvidia dopo 2 minuti sarebbe stato insultato e riportato al mod. Quindi per favore, se non hai piacere che ciò venga fatto sul thread-ghetto Nvidia, ti prego di non farlo a tua volta su questo

Inviato dal mio XT1092 utilizzando Tapatalk

A parte l'amore incondizionato che abbiamo io e frozen, e che non puoi capire, non sono mica a casa tua. Regolati, che nessuno t'ha cagato di striscio o offeso la santa rossa.
La spazzatura che è girata qui per pagine nemmeno è stata ripresa.

FroZen
06-04-2016, 20:46
Thread ghetto

Lol

Su ragazzi, l'ego è un fiolo con un ego molto sviluppato e ultimamente qualche gioco gli sta dando estrogeni a profusione che manco la boschi mestruata

È il compagno di scuola che quando reciti il pezzo di poesia a memoria del cazzoneso montale fa una pernacchia terribile e tutti giù a ridere ... e lui fuori dalla classe :smack:

fraussantin
06-04-2016, 21:38
Il discorso è che fare effettini fighi e che vertono su peculiarità architetturali fa magari uscire nelle rece fighe le tue ultime vga ma tarpi le alle "vecchie" (pompi marketshare ok) e ovviamente pure alle concorrenti (e ci sta)

Ma dal dire che le maxwell digeriscono qualsiasi cosa dei gimpworks errrrrr ce ne passa...gli innumerevoli post di tuning settaggi sui thread verdi sono li a dimostrarlo...se si vogliono i 60 120 144 rock solid o ritocchi o non te la cavi con meno di 3000&euro; e manco li sei a prova di bomba su certi titoli

È una lotta contro i mulini a vento
Allora non esiste lo 0 e il 10 , ma anche una via di mezzo.

Io ho giocato a molti titoli , dove con una singola 970 potevo attivare tranquillamente uno o piu effetti gworks.

In particolare fisica e occlusione in tutti quelli che ho provato mi han fatto fare 60 fissi .( anche in quel famoso ac5 dove purtroppo i cali li avevo per via della cpu.)

L 'antialiasing temporale è osceno . E pesantissimo . E non lo metto mai , ma pecco poco AA di mio in diversi game perché non mi piacciono proprio. ( se posso faccio DS)

Quindi ti dico si tutti non li metti , ma quelli più belli ce la si fa. Con maxwell in 1080p. Con pascal immagino dovranno inventarsi altra roba per convincere la gente a fare gli sli.


Chiudo questo ot che mi sembra abbia preso una brutta piega. In realtà era solo una semplice riflessione su cosa comprerà la gente alla prossima gen .

fraussantin
06-04-2016, 22:01
Con qualsiasi scheda io li leverei.
Avessi un quad sli di 980ti li leverei per avere 144 fps in 4k :cool:

Più frame e più risoluzione > ombre più belle negli anfratti e capelli l'Oréal :asd:
Non è sempre così.
Per esempio ryse of rome , ... Mi è toccato sorbirmi il txaa perche era l'unico AA disponibile. E in DS a 2.5 k avevo cali .

Quindi l'unico sistema per giocare a 60 fissi( che poi in alcuni livelli qualche caletto a 55 c'era) senza squadrettature era ciucciarsi il temporale. ( che ribadisco è orrendo)

In altri game come fc4 ac5 , WD, tw3,( ancora non l'ho provato) non puoi andare oltre il 1080p con una vga.

Quindi vale la pena gustarsi l'ottima occlusione del GW e varie scapigliature ombre e fisica.

soulsore
06-04-2016, 22:09
AMD è troppo buona, mi ricordo ancora quando sul primo reboot di Tomb Raider se si attivava il tressfx su schede video nvidia le prestazioni crollavano parecchio ed eccoli li, tutti i fanboy nvidia a piangere perché non potevano maxare il titolo senza subire cali prestazionali.. amd per tutta risposta rilascia una patch che sistema le cose.. troppa buona, e in un ambiente agguerrito come questo purtroppo la cosa non le giova imho..

fraussantin
06-04-2016, 22:11
AMD è troppo buona, mi ricordo ancora quando sul primo reboot di Tomb Raider se si attivava il tressfx su schede video nvidia le prestazioni crollavano parecchio ed eccoli li, tutti i fanboy nvidia a piangere perché non potevano maxare il titolo senza subire cali prestazionali.. amd per tutta risposta rilascia una patch che sistema le cose.. troppa buona, e in un ambiente agguerrito come questo purtroppo la cosa non le giova imho..
Beh quel gioco stava floppando su pc .. Ci mancava solo di inimicarsi il 70 % della clientela che faceva la fine di batman ... ( pecora nera del gameworks)

Einhander
07-04-2016, 11:31
Beh quel gioco stava floppando su pc .. Ci mancava solo di inimicarsi il 70 % della clientela che faceva la fine di batman ... ( pecora nera del gameworks)

non e' che floppava per i capelli l'oreal eh :asd:

Cmq io apprezzo invece quanto fa, avendo avuto sia le verdi che le rosse -attualmente a dire il vero sono con tre rosse, ma vengo da 3 anni di verdi- francamente il modus operandi dietro ai gollumworks li trovo una poverata assurda e a tratti disarmante.

Se si avesse un market share GPU del 50% o giu' di li' non so' mica quanto le converrebbe ad nvidia a fare ste robe per affossare le proprie soluzioni piu' datate e quelle del "nemico". Spero in POLARIS anche per questo, non tanto per il "mentecattismo" del "cosi' pago meno le verdi perchè il cino-giappo-kurdo-lappo-albino-inverso" e' piu' trendy, quanto perche' spero, credo, auspico ci sarebbe o ci dovrebbe essere quantomeno un comportamento meno scellerato in generale da parte di entrambe e una concorrenza vera tra le due case e non solo a suon di prestazioni e costi, ma anche di evoluzioni tecnologiche ad esse legate.

P.s.: ma la 780 sui test VR l'avete vista????
na roba O-S-C-E-N-A :eek: :eek:

davo30
07-04-2016, 11:33
http://videocardz.com/58894/amd-radeon-r9-490x-and-r9-490-launches-in-june

Einhander
07-04-2016, 11:40
http://videocardz.com/58894/amd-radeon-r9-490x-and-r9-490-launches-in-june

dai speriamo nella seconda ipotesi, ovvero 490(x) piu' veloci delle fury e le fury che passano il testimone e diventano la nuova fascia "medio-alta"...o e' possibile che ne rifacciano in futuro un rebrand a 14nm e senza liquido? (non credo ma boh).

Sara' vero per la fine di giugno??????:oink:

davo30
07-04-2016, 11:58
dai speriamo nella seconda ipotesi, ovvero 490(x) piu' veloci delle fury e le fury che passano il testimone e diventano la nuova fascia "medio-alta"...o e' possibile che ne rifacciano in futuro un rebrand a 14nm e senza liquido? (non credo ma boh).

Sara' vero per la fine di giugno??????:oink:

DEVE essere vero! Almeno anticiperebbero la concorrenza e avrebbero campo libero per qualche mese, riuscendo a recuperare qualche quota di mercato.

Sinceramente, a me, frega poco se le 480/480x saranno le P11 oppure uno shrink di Fiji a 14nm (basta che non si ripresentino con qualcosa a 28nm perche sarebbe da insulti e petizione per farla chiudere per manifesta deficenza :muro: ) basta che escano per giugno.
Sicuramente non vedremo HBM fino a Vega e GP100, e a quanto pare neanche GDDR5X. Uno shrink di Fiji a 14nm permetterebbe un TDP a spanne ridotto del 30%

fraussantin
07-04-2016, 13:00
non e' che floppava per i capelli l'oreal eh :asd:

Cmq io apprezzo invece quanto fa, avendo avuto sia le verdi che le rosse -attualmente a dire il vero sono con tre rosse, ma vengo da 3 anni di verdi- francamente il modus operandi dietro ai gollumworks li trovo una poverata assurda e a tratti disarmante.

Se si avesse un market share GPU del 50% o giu' di li' non so' mica quanto le converrebbe ad nvidia a fare ste robe per affossare le proprie soluzioni piu' datate e quelle del "nemico". Spero in POLARIS anche per questo, non tanto per il "mentecattismo" del "cosi' pago meno le verdi perchè il cino-giappo-kurdo-lappo-albino-inverso" e' piu' trendy, quanto perche' spero, credo, auspico ci sarebbe o ci dovrebbe essere quantomeno un comportamento meno scellerato in generale da parte di entrambe e una concorrenza vera tra le due case e non solo a suon di prestazioni e costi, ma anche di evoluzioni tecnologiche ad esse legate.

P.s.: ma la 780 sui test VR l'avete vista????
na roba O-S-C-E-N-A :eek: :eek:

Eheh

Va beh non è che floppava per i capelli , ma era comunque un plus per far incazzare la clientela.

Poi i capelli si potevano disattivare come si può disattivare il gameworks .

Quello che non si potrà disattivare( in futuro) saranno le dx12 e quelle per adesso mi pare diano filo da torcere a molte soluzioni verdi ed ad alcune rosse.

Cmq non credo che polaris\zen farà calare di prezzo le verdi.

Le 390 non han fatto calare maxwell . ( anzi appena sono uscite le 970 sono rincarate)

Le fury hanno fatto calare le titan , ma perchè erano fuori ad un prezzo da :censured: ....

Certo uno sarà piu libero di scegliere cosa comprare senza dover essere costretto a prendere intel \nvidia e questo è un bene.

FroZen
07-04-2016, 16:54
http://videocardz.com/58894/amd-radeon-r9-490x-and-r9-490-launches-in-june

Preparo i pop corn e i :asd:

Obrigado
07-04-2016, 19:04
http://videocardz.com/58894/amd-radeon-r9-490x-and-r9-490-launches-in-june

Preparo i pop corn e i :asd:

e menomale...

bentornata concorrenza....

FroZen
07-04-2016, 21:12
e menomale...

bentornata concorrenza....

Non ci credo finché non ti vedo un trifire di vega sul banchetto :O

fraussantin
07-04-2016, 21:41
http://videocardz.com/58894/amd-radeon-r9-490x-and-r9-490-launches-in-june

Preparo i pop corn e i :asd:

questi hanno più fantasia che gli utenti di questo forum :asd:

la fury x come rebrand della 480 , si ma a che prezzo?

fraussantin
07-04-2016, 22:13
Non era saltato fuori che c'erano 6 polarsi 11 e 2 polaris 10?
Se così fosse direi che i rebrand sono esclusi a questo giro, anche perché non avrebbero assolutamente senso dei rebrand a 28nm in una nuova famiglia a 14nm.
A parte forse nelle vga di infimo livello.

Certo se la r7 460 fosse un rebrand della fury X o della nano e costasse 100€ un pensierino ce lo farei :asd:

io ci faccio un tri crossfire :asd: a costo di comprare un alimentatore ad energia nucleare

davo30
07-04-2016, 22:29
Non era saltato fuori che c'erano 6 polarsi 11 e 2 polaris 10?
Se così fosse direi che i rebrand sono esclusi a questo giro, anche perché non avrebbero assolutamente senso dei rebrand a 28nm in una nuova famiglia a 14nm.
A parte forse nelle vga di infimo livello.

Certo se la r7 460 fosse un rebrand della fury X o della nano e costasse 100€ un pensierino ce lo farei :asd:
4 modelli di P11 dovrebbero essere per notebook

Inviato dal mio XT1092 utilizzando Tapatalk

Teox82
08-04-2016, 09:24
Sì ma di questo passo Nvidia farà uscire le schede di fascia medio/bassa in gennaio. Per AMD è un'occasione d'oro farle uscire all'inizio dell'estate,IMHO

FroZen
08-04-2016, 09:33
Manca la concorrenza :O amd non ha fretta, quantum break e hitman sono lì a dimostrarlo :O nvidia è dietro

FroZen
08-04-2016, 11:24
Ho lanciato l'amo ma ego non abbocca :cry: non sputa più sangue come una volta :(

fraussantin
08-04-2016, 11:36
Scusate è uscita una news su hwu ma ho capito male o dice dice che polaris non avrà hbm2 ne gddr5x , ma hbm , quindi se ne escono con una vga ancora a 4 giga , mentre nvidia esce con roba minimo il doppio ?

Oppure ho capito male.

°Phenom°
08-04-2016, 11:42
Scusate è uscita una news su hwu ma ho capito male o dice dice che polaris non avrà hbm2 ne gddr5x , ma hbm , quindi se ne escono con una vga ancora a 4 giga , mentre nvidia esce con roba minimo il doppio ?

Oppure ho capito male.

Se utilizzano il dual link interposer possono anche mettercene 8gb di hbm1, comunque credo siano in ogni caso con gddrx5 ;)

P.s. nell' articolo cita aappunto le ddrx5

fraussantin
08-04-2016, 12:02
Se utilizzano il dual link interposer possono anche mettercene 8gb di hbm1, comunque credo siano in ogni caso con gddrx5 ;)

P.s. nell' articolo cita aappunto le ddrx5
Ah ecco ! Grazie

HadesSaint
08-04-2016, 12:32
aspettare settembre 2016 o marzo+2017 mmm il dubbio e il dilemma sale...la scimmia sta uscendo dal letargo...

Teox82
08-04-2016, 12:37
aspettare settembre 2016 o marzo+2017 mmm il dubbio e il dilemma sale...la scimmia sta uscendo dal letargo...

Minchia ma hai una 290 occata.Noi poveracci cosa dovremmo fare?? :asd:

fraussantin
08-04-2016, 12:50
Minchia ma hai una 290 occata.Noi poveracci cosa dovremmo fare?? :asd:
Ci sono persone col tri-sli di 980ti che non riescono a dormire in attesa di Pascal

Free Gordon
08-04-2016, 12:54
Sinceramente, a me, frega poco se le 480/480x saranno le P11 oppure uno shrink di Fiji a 14nm (basta che non si ripresentino con qualcosa a 28nm perche sarebbe da insulti e petizione per farla chiudere per manifesta deficenza :muro: ) basta che escano per giugno.
Sicuramente non vedremo HBM fino a Vega e GP100, e a quanto pare neanche GDDR5X. Uno shrink di Fiji a 14nm permetterebbe un TDP a spanne ridotto del 30%



E' una cosa a cui non avevo pensato.. :D

Ma uno shrink di Fiji full @14nm...e clock attorno ai 1300-1350mhz...sarebbe una bella bestia!! :cool:

AMD è quella che ha più da guadagnarci salendo con le frequenze rispetto a Maxwell, bisognerà vedere se Maxwell/Pascal manterrà il suo vantaggio anche in questa gen rispetto a GCN..

Il problema sono il limite di 4GB sulle HBM, aggirabile solo con costi molto alti...:stordita:

davo30
08-04-2016, 13:05
E' una cosa a cui non avevo pensato.. :D

Ma uno shrink di Fiji full @14nm...e clock attorno ai 1300-1350mhz...sarebbe una bella bestia!! :cool:

AMD è quella che ha più da guadagnarci salendo con le frequenze rispetto a Maxwell, bisognerà vedere se Maxwell/Pascal manterrà il suo vantaggio anche in questa gen rispetto a GCN..

Il problema sono il limite di 4GB sulle HBM, aggirabile solo con costi molto alti...:stordita:

Sarebbe una bella bestia. Il problema è che stando a i rumor P10 dovrebbe essere montato sulle 490, con vega sulle nuove fury con le hbm2
Ora, a meno che non facciano le 490 con doppio interposer per arrivare a 8gb di hbm1, e quindi uno shrink di Fiji@480 con 4gb di hbm1 (su cui io metterei la firma, magari prezzato sui 250 :sofico: ), vedo improbabile vedere le 490 con gddr5x e le 480 con hbm.

Piu probabile che le 490 siano le P10 con ddr5x e le 480 uno shrink di fiji, con modifica del controller per le gddr5/gddr5x

Altrimenti:
Fury 2 Vega HBM2
490 P10 GDDR5x
480 P11 GDDR5/GDDR5x
470 P11 castrato GDDR5/GDDR5x

FroZen
08-04-2016, 13:11
I 14 16 sono i pp piu costosi della storia per singolo wafer, se i die rimangono piccoli ci ricavi piu gpu e medi i costi ma vedendo che si parla di 600mm2 almeno per il big pascal direi che i costi sono saliti (ancora)

Fasce medie imho non hanno i margini per avere hbm a meno di alzare lasticella dei prezzi di tutta la lineup, cosa che spero non avvenga... Punterei più su ddr5x e hbm2 direttamente ma chi lo sa...

Free Gordon
08-04-2016, 13:51
Ma che senso ha uno shrink a 14nm di un'architettura già passata?

Boh..non so, è un'ipotesi remota anche secondo me.
Cmq Fiji non sarebbe poi così passata come architettura ;)

Credo che la vedremo andare sempre meglio man mano che i giochi console sfruttano appieno GCN. ;)

Free Gordon
08-04-2016, 13:57
Piu probabile che le 490 siano le P10 con ddr5x e le 480 uno shrink di fiji, con modifica del controller per le gddr5/gddr5x

E' una possibilità.. :)

Quindi le 490 avrebbero prestazioni molto alte.. :cool: :cool: :cool:
Le 480 prestazioni decisamente migliori delle attuali Fiji FuryX...
e di seguito le Polaris11. :sofico:

E' un pò troppo rosea come prospettiva. :D Ma dai, non mettiamo limiti alla goduria! :oink:



Altrimenti:
Fury 2 Vega HBM2
490 P10 GDDR5x
480 P11 GDDR5/GDDR5x
470 P11 castrato GDDR5/GDDR5x

Mi pare strano che il P11, sia così scalabile da portare a chip low cost (ci sono anche chip per portatili di medio/bassa in P11), partendo dalla fascia della 380X...

Ci perderebbero troppo, imho.

FroZen
08-04-2016, 14:07
Nelle fasce basse ci sono le apu nel mobile