PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 [122] 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348

Free Gordon
09-08-2016, 14:07
Questo credo sia insindacabile.


Ma infatti, il vero e reale motivo per cui AMD è e sarà dentro a 2 gen di console da sola, è perché è l'unica azienda sul mercato a poter proporre in certi tempi e costi, delle soluzioni complete, flessibili e adattabili alle varie esigenze dei clienti, mettendoli nelle condizioni di produrre e vendere a profitto già dal dayone. Avendo nel contempo prestazioni accettabili.

Il resto è dietrologia fanboyistica... :D

Nè Intel (che avrebbe avuto "APU" paragonabili a livello di performance -nel 2012..- ma non nei costi sicuramente...) né tantomeno Nvidia che non ha le licenze x86 e cmq non aveva una cpu ARM valida a livello di Jaguar da proporre. ;)



PS: ricordo a tutti che M$ sta ancora pagando debiti ora per la minchi@ata che ha fatto con la prima Xbox e l'accordo con Nvidia... :asd:

fraussantin
09-08-2016, 14:10
A parte che adesso Nvidia esce con TegraX1 su NX...e se c'è un'azienda che va' al risparmio lato hw DA ANNI è proprio Nintendo.. :asd:

Quindi credo che anche Nvidia (proseguendo il ragionamento di AceGranger) si sia venduta per un piatto di lenticchie... :D
Nintendo non ha mai puntato sulla grafica.

Loro puntano su quei 2 3 brand famosi e qualche dispositivo di dubbia utilità , ma di moda.

Free Gordon
09-08-2016, 14:16
Invece sbagli, se tu hai un server dedicato è facile avere anche un software su misura.
Più difficile è su un pc casalingo o workstation dove gira il software che c'è

E' proprio ciò che ho detto Bivvoz.... ;)


Il problema è che non puoi condizionare tutta una filiera produttiva da -ormai 7/8 anni a questa parte?? :D - perché FORSE nel 2017 riuscirai ad uscire con una proposta che sul mercato server (ma solo in una parte di esso oltretutto)..avrà buone perf/watt. :D

A me sembra più che altro che finalmente FORSE (si spera Iddio padre onnipotente :sofico: ) abbiano trovato un modo sensato per impiegare quel carrozzone che hanno messo su quasi 10 anni fa' e che li ha portati praticamente al collasso finanziario, facendogli perdere quote in ogni settore del loro business.... :mad: purtroppo per noi...

Free Gordon
09-08-2016, 14:25
Quanti analisti pressapochisti in questo thread.

http://www.forbes.com/sites/patrickmoorhead/2013/06/26/the-real-reasons-microsoft-and-sony-chose-amd-for-consoles/#4bbcc54f9559



Ecco:

"Then it came down to ARM versus X86 architecture. I am told there was a technical “bake-off”, where prototype silicon was tested against each other across a myriad of application-based and synthetic benchmarks. At the end of the bake-off, ARM was deemed as not having the right kind of horsepower and that its 64-bit architecture wasn’t ready soon enough. 64-bit was important as it maximized memory addressability, and the next gen console needed to run multiple apps, operating systems and hypervisors. ARM-based architectures will soon get as powerful as AMD’s Jaguar cores, but not when Sony or Microsoft needed them for their new consoles."

;)

Ren
09-08-2016, 14:40
A parte che adesso Nvidia esce con TegraX1 su NX...e se c'è un'azienda che va' al risparmio lato hw DA ANNI è proprio Nintendo.. :asd:

Quindi credo che anche Nvidia (proseguendo il ragionamento di AceGranger) si sia venduta per un piatto di lenticchie... :D


In un dispositivo portatile(ibrido) servono le prestazioni/watt ed nvidia con Pascal ha il miglior prodotto. (forse anche imgtec)


ps. hotchips presenteranno il nuovo Tegra 16nm...

AceGranger
09-08-2016, 14:40
A parte che adesso Nvidia esce con TegraX1 su NX...e se c'è un'azienda che va' al risparmio lato hw DA ANNI è proprio Nintendo.. :asd:

Quindi credo che anche Nvidia (proseguendo il ragionamento di AceGranger) si sia venduta per un piatto di lenticchie... :D

credo anche meno di un piatto di lenticchie in quel caso; Tegra non ha mai avuto successo e in questi anni nVidia ha tagliato tutti i rami secchi come quello che si occupava della parte Modem, e il progetto Tegra è stato riciclato nell'automotive... l'X1 credo sia montanto solo sui prodotti shield nVidia.

Ren
09-08-2016, 14:44
Si ma il Tegra X1 è maxwell :)

Ho aggiunto sopra, ma riporto anche qui.

Nvidia presenterà il nuovo Tegra 16nm al Hotchips.;)
Probabilmente con nuovi core ARM e Pascal...


ps. Tegra x1 ha un maxwell 20nm.

AceGranger
09-08-2016, 14:53
Ho aggiunto sopra, ma riporto anche qui.

Nvidia presenterà il nuovo Tegra 16nm al Hotchips.;)
Probabilmente con nuovi core ARM e Pascal...


ps. Tegra x1 ha un maxwell 20nm.

spero vivamente che Nintendo adotti quello, ma se lo presentano ora o è stato dato a Nintendo molto prima o per ragioni tempistiche di progettazione adottera l'X1 Maxwell.

Ren
09-08-2016, 14:58
spero vivamente che Nintendo adotti quello, ma se lo presentano ora o è stato dato a Nintendo molto prima o per ragioni tempistiche di progettazione adottera l'X1 Maxwell.

Nintendo è un terno al lotto. Spesso vanno controcorrente con porcherie immonde. (ARM11 e DMP PICA:p )

La migliore soluzione è un Tegra 16nm Finfet se devono piazzarlo su un portatile. Rinunciare al Finfet in un chip con frequenze/volt bassi è un suicidio.

Free Gordon
09-08-2016, 15:12
ps. hotchips presenteranno il nuovo Tegra 16nm...

Spero anch'io ci piazzino il nuovo chip sull'NX...ma come tempi come siamo messi?

NX dovrebbe uscire a gennaio/Febbraio da quanto ho letto..

fraussantin
09-08-2016, 15:14
Spero anch'io ci piazzino il nuovo chip sull'NX...ma come tempi come siamo messi?

NX dovrebbe uscire a gennaio/Febbraio da quanto ho letto..

ma seriamente pensi che l'utenza nintendo sappia che chip c'è dentro e gliene importi qualcosa..?

ci metteranno quello che costa di meno

Ren
09-08-2016, 15:16
Spero anch'io ci piazzino il nuovo chip sull'NX...ma come tempi come siamo messi?

NX dovrebbe uscire a gennaio/Febbraio da quanto ho letto..

Le tempistiche sono in regola. Dipende dalla volontà di Nintendo.:sofico:

ma seriamente pensi che l'utenza nintendo sappia che chip c'è dentro e gliene importi qualcosa..?

ci metteranno quello che costa di meno

Mi aspetto di tutto...:asd:

La soluzione più economica (non esotica) è un SOC tutto ARM, Mali compreso...

Free Gordon
09-08-2016, 15:31
eh ma sai le console, nvidia le snobba, si fa pagare, e bla e bla e bla... :asd:

:asd:

AceGranger
09-08-2016, 15:50
ma seriamente pensi che l'utenza nintendo sappia che chip c'è dentro e gliene importi qualcosa..?

ci metteranno quello che costa di meno

ah bè perchè all'utenza PS4/One sanno/importa ?

Sony e Microsoft hanno esattamente fatto la stessa cosa, messo quello che costava meno, e ora si ritrovano a cambiare una console dopo solo 3 anni :asd: :sofico:.

zerotre
09-08-2016, 15:58
ah bè perchè all'utenza PS4/One sanno/importa ?

Sony e Microsoft hanno esattamente fatto la stessa cosa, messo quello che costava meno, e ora si ritrovano a cambiare una console dopo solo 3 anni :asd: :sofico:.

hanno messo l'unica possibilita' presente, non avevano scelte, e adesso la cambiano perche' le esigenze cambiano o pensavi che queste console durassero 10 anni?

FroZen
09-08-2016, 16:03
tv 4k e visori vr hanno cambiato i piani..... o si vuole far credere che una gpu nvidia avrebbe dato più longevità al prodotto? :asd: cosa opposta a quanto visto nel mercato gpu discrete da anni a questa parte? :doh:

zerotre
09-08-2016, 16:04
tv 4k e visori vr hanno cambiato i piani..... o si vuole far credere che una gpu nvidia avrebbe dato più longevità al prodotto? :asd: cosa opposta a quanto visto nel mercato gpu discrete da anni a questa parte? :doh:

bhe se c'e' di mezzo gente piu' verde di hulk puo' capitare di leggere di tutto :D

Ale55andr0
09-08-2016, 16:10
ah bè perchè all'utenza PS4/One sanno/importa ?

Sony e Microsoft hanno esattamente fatto la stessa cosa, messo quello che costava meno, e ora si ritrovano a cambiare una console dopo solo 3 anni :asd: :sofico:.

beh, sono loro ad aver scelto di avere come cuore delle macchine delle apu "giuste giuste e arrotondiamo in difetto" al lancio, non è che non potessero scegliere di piazzare una architettura più performante con cpu+discreta come negli anni precedenti. AMD ha fatto quel che gli han chiesto, mica ha imposto lei una apu, tanto per cominciare, ne una 7770 con la esram (inesistente nelle discrete di amd) che ciulla spazio nel chip per nulla e una 7850 versione decurtata e spompa rispettivamente a microsoft e sony..

AceGranger
09-08-2016, 16:13
hanno messo l'unica possibilita' presente, non avevano scelte, e adesso la cambiano perche' le esigenze cambiano o pensavi che queste console durassero 10 anni?

dai su, non raccontiamoci altre storie.... fino a ieri le console le avevano SEMPRE fatte con CPU e GPU separate e di produttori diversi, e vendendo inizialmente in perdita in modo tale da dare hadrware superiore e far durare di piu la console....

di possibilita di fare combinazioni fra CPU/GPU di Intel,AMD e nvidia ce ne erano un'infinita ( rimanendo in ambito X86 e immaginando di fare sempre una console PC ); sono andati in cerca solo e soltanto della soluzione piu economica e basta, perchè al tempo con CPU Intel e GPU nvidia, pur non essendo un unico soc, avrsti senza ombra di dubbio ottenuto una console migliore in prestazioni pure e in perf/watt, ma ovvimente piu costosa.

hanno scelto la via piu economica, va bene, non c'è nulla di male, ma non raccontiamoci la storia che hanno scelto l'unica via a e la migliore :rolleyes: .

beh, sono loro ad aver scelto di avere come cuore delle macchine delle apu "giuste giuste e arrotondiamo in difetto" al lancio, non è che non potessero scegliere di piazzare una architettura più performante con cpu+discreta come negli anni precedenti. AMD ha fatto quel che gli han chiesto, mica ha imposto lei una apu, tanto per cominciare, ne una 7770 con la esram (fissazione di microsoft inesistente nelle discrete di amd) che ciulla spazio nel chip per nulla e una 7850 versione decurtata e spompa rispettivamente a microsoft e sony..

in realta avrebbero potuto farlo tranquillamente, e poi non ho mai detto nulla sul fatto che AMD non abbia fatto quello che hanno chiesto.

fraussantin
09-08-2016, 16:16
ah bè perchè all'utenza PS4/One sanno/importa ?

Sony e Microsoft hanno esattamente fatto la stessa cosa, messo quello che costava meno, e ora si ritrovano a cambiare una console dopo solo 3 anni :asd: :sofico:.
Calma l'utenza ps4 xbox sono li a scannarsi all'ultimo fps.

Li le prestazioni sono fondamentali .

Ale55andr0
09-08-2016, 16:17
hanno scelto la via piu economica, va bene, non c'è nulla di male, ma non raccontiamoci la storia che hanno scelto l'unica via a e la migliore :rolleyes: .

la via per avere una apu era assolutamente unica, economica o meno, e comunque non vedo come cio delegittimi minimamente quel che ha fatto AMD con la storia de "eh ma amd ha le pezze al culo percio ha svenduto" quando ha fatto cio che gli han chiesto i clienti ed era l'unica a poterlo offrire anzitutto TECNICAMENTE :read:

Intel fa apu con grafica che fa ca-ga-re, nvidia non fa cpu x86 che eran una prerogativa voluta sia da sony che da microsoft per semplificare la vita agli sviluppatori che prima dovevano barcamenarsi con i medesimi multipiatta su architetture completamente diverse (power pc e cell), i prezzi di amd, che non li hanno detti ne a te ne a me, c'entrano una pippa già di fronte queste due evidenze

zerotre
09-08-2016, 16:19
dai su, non raccontiamoci altre storie.... fino a ieri le console le avevano SEMPRE fatte con CPU e GPU separate e di produttori diversi, e vendendo inizialmente in perdita in modo tale da dare hadrware superiore e far durare di piu la console....

di possibilita di fare combinazioni fra CPU/GPU di Intel,AMD e nvidia ce ne erano un'infinita ( rimanendo in ambito X86 e immaginando di fare sempre una console PC ); sono andati in cerca solo e soltanto della soluzione piu economica e basta, perchè al tempo con CPU Intel e GPU nvidia, pur non essendo un unico soc, avrsti senza ombra di dubbio ottenuto una console migliore in prestazioni pure e in perf/watt, ma ovvimente piu costosa.

hanno scelto la via piu economica, va bene, non c'è nulla di male, ma non raccontiamoci la storia che hanno scelto l'unica via a e la migliore :rolleyes: .

SCusami ma ragioni distantemente dalle politiche aziendali.
Che significa migliore? Che intendi tu per migliore?
Ms e sony avevano un budget per il SOC/system (che integra tutto non solo gpu e cpu), qual'era la soluzione migliore per il budget? AMD.

O pensi che avrebbero dovuto vendere la ps4 a 1000?

Mi spiace ma sono ragionamenti molto poveri, realta' e scelte aziendali sono molto differenti, mi spiace smontarti i tuoi castelli in aria.

Ale55andr0
09-08-2016, 17:02
in realta avrebbero potuto farlo tranquillamente, e poi non ho mai detto nulla sul fatto che AMD non abbia fatto quello che hanno chiesto.


no, ma hai lasciato intendere che hanno svenduto il progetto quando sony e microsoft ad essersi rivolte a lei perchè, semplicemente, quella soluzione non poteva dargliela nessun'altro e questo a prescindere dai costi, ma della soluzione in se, e AMD appunto ha appronato quanto chiestogli dai clienti. La apu è una soluzione (relativamente) economica, nessuno le mette in dubbio, ma lo è intrinsecamente e soprattuto, un conto è quello, un'altro dire che amd abbia svenduto: ognuna delle aziende citata ha il proprio di interesse, e i dettagli degli accordi di certo non li hanno detti a te o a me

Dextroy
09-08-2016, 19:47
Forza amd spero esco vega presto x##D

Inviato dal mio LG-D802 utilizzando Tapatalk

aled1974
09-08-2016, 20:23
lo speriamo tutti, vediamo dal 17 agosto se ci dicono qualcosa di certo :sperem:

ciao ciao

aled1974
09-08-2016, 21:46
gamescom 2016 http://www.gamescom-cologne.com/gamescom/index-9.php ;)

magari poi non dicono niente di Vega eh, nessuno sa niente, sono solo speranze :boh: http://www.htita.it/images/smilies/praying.gif

ciao ciao

fraussantin
09-08-2016, 22:13
gamescom 2016 http://www.gamescom-cologne.com/gamescom/index-9.php ;)

magari poi non dicono niente di Vega eh, nessuno sa niente, sono solo speranze :boh: http://www.htita.it/images/smilies/praying.gif

ciao ciao
http://www.gamescom-cologne.com/gamescom/exhibitor-search/index.php?fw_goto=aussteller/details&&kid=0015362381&values=%7B"stichwort"%3A"Amd"%2C"start"%3A0%7D

Ad esserci ci sono , qualche cosa racconteranno .

Free Gordon
10-08-2016, 00:05
ah bè perchè all'utenza PS4/One sanno/importa ?
Sony e Microsoft hanno esattamente fatto la stessa cosa, messo quello che costava meno, e ora si ritrovano a cambiare una console dopo solo 3 anni :asd: :sofico:.

Quella di Sony/M$, non è la strategia di un tempo a livello console.

Immettono console sul mercato, vendendole dayone a guadagno...e poi upgradano mantenendo il vecchio software funzionante. ;)

Le console sono diventate sostanzialmente dei PC user-friendly e i due colossi guadagnano più di prima (cioè spendono meno) sia a livello di sviluppo che a livello di guadagno hw. ;)



dai su, non raccontiamoci altre storie.... fino a ieri le console le avevano SEMPRE fatte con CPU e GPU separate e di produttori diversi, e vendendo inizialmente in perdita in modo tale da dare hadrware superiore e far durare di piu la console....

Sì... :D e generando debiti che sono ancora lì a pagare.. :asd:
Una furbata! :D

Randall
10-08-2016, 09:31
non si chiamerà Precompatibilità, ma più semplicemente Windows Store OS! con buona pace di zio Gabe :Prrr:

Foglia Morta
15-08-2016, 11:49
AMD VEGA (Radeon RX 490) Launch Imminent ?
(http://www.guru3d.com/news-story/amd-vega-launch-imminent.html)
AMD was supposed to launch their high-end class VEGA (codename) product in early 2017, the latest rumor was that the launch was being moved forward towards October. However today on Facebook Chris Hook, Sr. Director, Global Marketing and Public Relations, Radeon Technologies Group at AMD posted a photo with the comment "This is the Vega launch venue. Shh, don't tell the press". Considering half the worlds tech press is on his facebook, that obviously was a rather subtle joke slash hint.

aled1974
15-08-2016, 11:54
penso sia una gran trollata, o per meglio dire una sorta di gavettone (gelato) ferragostano

prova a guardare bene la "foto" postata, sembra una fabbrica di Dresda nell'immediato dopoguerra :asd:

no, beh, in realtà c'è poco da ridere :cry:


humor? mah, mi sa che rideranno in pochi

ciao ciao

Ale55andr0
15-08-2016, 12:28
no, beh, in realtà c'è poco da ridere :cry:


humor? mah, mi sa che rideranno in pochi

ciao ciao

infatti :rolleyes:



..però a pensarci bene che senso avrebbe fare una autrollota (perchè questo è letteralmente prendersi per il culo da soli) del genere da parte di un responsabile AMD? magari le voci che volevano vega a ottobre sono vere, sia mai, in fin dei conti ci potrebbe ancora stare come tempistiche, anche se in modo piuttosto rushato (paper launch?) :sperem:
Ora non resta che attendere eventuali smentite

aled1974
15-08-2016, 13:41
ben venga, ma allora che senso ha mostrare una foto del genere e prendere in giro la stampa?

perchè a me pare un qualcosa rivolto alla stampa: humor, critica, trollata o quel che è

:boh:

ciao ciao

Ale55andr0
15-08-2016, 14:00
humor/critica/trollata da parte di un direttore marketing AMD? beh, se vuole essere licenziato, sicuramente! La foto di per se effettivamente è strana :stordita:, ma significa tutto o niente: a me fa pensare alla materia grezza necessaria ai chip e dalla quale parte tutto, ovvero il silicio, ma effettivamente è un po' una forzatura mia volerci vedere a tutti i costi il lato positivo e plausibile :mc: Piuttosto, ma siamo sicuri sicuri sicuri che l'account facebook del tizio in questione sia vero e non un fake? io non l'ho trovato :fagiano: se fake è credo sia doverosa la smentita di AMD, per il loro stesso tornaconto

davo30
15-08-2016, 21:31
humor/critica/trollata da parte di un direttore marketing AMD? beh, se vuole essere licenziato, sicuramente! La foto di per se effettivamente è strana :stordita:, ma significa tutto o niente: a me fa pensare alla materia grezza necessaria ai chip e dalla quale parte tutto, ovvero il silicio, ma effettivamente è un po' una forzatura mia volerci vedere a tutti i costi il lato positivo e plausibile :mc: Piuttosto, ma siamo sicuri sicuri sicuri che l'account facebook del tizio in questione sia vero e non un fake? io non l'ho trovato :fagiano: se fake è credo sia doverosa la smentita di AMD, per il loro stesso tornaconto
Dopo certe uscite del reparto markette di Amd, questa sarebbe una delle meno peggio. Però ho letto male, o loro stessi lo hanno etichettato come "joke"?

Inviato dal mio XT1092 utilizzando Tapatalk

Ale55andr0
15-08-2016, 21:50
Dopo certe uscite del reparto markette di Amd, questa sarebbe una delle meno peggio. Però ho letto male, o loro stessi lo hanno etichettato come "joke"?

Inviato dal mio XT1092 utilizzando Tapatalk

hai letto semi-male :D

la parte riferita al "joke" è quella dell'articolista riferendosi alla frase in cui il responsabile amd dice "shh, ma non ditelo alla stampa", ben sapendo che invece avrebbero proprio letto cani e porci...è quello"il joke", il far finta di fare una confidenza che passerà inosservata ben sapendo che sarà l'opposto, un po' come quando in un programma tv seguito da milioni di spettatori il presentatore chiede al suo ospite di fargli una confidenza che tanto "resta fra noi due e non lo diciamo a nessuno" :D

Capozz
15-08-2016, 23:05
Se la facessero uscire in contemporanea con Battlefield 1 sarebbe perfetto. Speriamo bene

Raven
15-08-2016, 23:17
boh... ma pensano pure di essere simpatici?! :rolleyes:
No perché AMD non è esattamente nella posizione di potersi permettere battutine, occhiolini e scherzoni, eh!...

Ale55andr0
15-08-2016, 23:20
speriamo siano simpaticamente seri :fagiano:

Free Gordon
16-08-2016, 02:10
In realtà ricordo bene nel 2014 le battutine di Roy Taylor all'uscita di Maxwell... con frasi ammiccanti su razzi e cos'altro..

Nessuno capì come prendere quelle battutine, sembravano commenti fatti da fanboy Nvidia che perculavano AMD, piuttosto che post di un marketing manager rosso!

Non c'era nulla da ridere...eppure, anche a quel tempo, se la ridevano di gusto...


Imho se esce qualcosa a ridosso di B1, sarà la dual RX480 X2.
Magari si spera con un sistema di memoria in grado di condividere lo spazio (8GB) almeno in dx12, senza quindi la necessità di metterci 16GB effettivi sopra...

mirkonorroz
16-08-2016, 08:44
Era gia' stato postato questo video (https://www.youtube.com/watch?v=vyKgT5QUU2Q) del SIGGRAPH?
Ci sono arrivato guardando i due progetti sponsorizzati da AMD per Blender dei quali parlano qui (https://community.amd.com/thread/203153)

:old: ?

Ale55andr0
16-08-2016, 09:02
Imho se esce qualcosa a ridosso di B1, sarà la dual RX480 X2.
.


oh ma piantatela co sta dual della ceppa, che il signore oscuro vi sente e la fa uscire davvero quella schifezza la' :mad:

Ale55andr0
16-08-2016, 09:09
Te l'ho già detto più volte: se hanno trovato il modo di unificare la memoria di due gpu e rendere il CF trasparente per la cpu saresti facile come una volte in pollaio :D


il dual gpu è IL MALE, secondo solo alle scatolette, memoria unificata o meno :O

mirkonorroz
16-08-2016, 09:13
[cut]



Scusa tu credevi davvero alle bimbominkiate secondo cui AMD non esiste nel professionale, non lavora con le sh di sw professionali e altre leggende metropolitante verdi? :D
AMD probabilmente non è a livelli di Intel e Nvidia su certe cose ok, ma non è che stanno proprio lia girarsi i pollici tutto il giorno altrimenti non sarebbero in difficoltà ma sotto i ponti a coprirsi con dei cartoni.
AMD sta facendo belle cose e sopratutto le sta facendo open.

No, io lo so da sempre. La grafica 3D la seguo dal Juggler di Eric Graham, visto allo Smau.
Chiedevo solo se il video era gia' stato postato o se lo avevate gia' visto.

mirkonorroz
16-08-2016, 10:39
@Bivvoz non preoccuparti, comunque non la seguo piu' assiduamente come una volta ed il video intero e' anche vero che e' stato postato un po' di tempo fa :)
Il video imho e' interessante perche' e' un po' la fonte di diverse notizie apparse anche qui su HWU, solo che ad esempio riguardo la scheda con la memoria di massa integrata SSG non si era postato l'effettivo guadagno in prestazioni.
Nel video c'e' l'esempio che su un video a 8k (raw) si passa da 17 FPS a 90 FPS.
:)

Free Gordon
16-08-2016, 15:22
oh ma piantatela co sta dual della ceppa, che il signore oscuro vi sente e la fa uscire davvero quella schifezza la' :mad:

:asd: mettete er core 'n pace Alessa' :D

Free Gordon
16-08-2016, 15:38
Era gia' stato postato

https://youtu.be/vyKgT5QUU2Q?t=43m47s

Questo..in realtime su FuryX con Unity... è davvero impressive! :oink: :oink: :oink:

Pelvix
16-08-2016, 15:51
:asd: mettete er core 'n pace Alessa' :D

Di sto passo, fra poco, in pace ci mettiamo proprio AMD, altro che Alessandro...:muro:

Ale55andr0
16-08-2016, 15:53
Ma in quel caso avrebbero estirpato il male dal dual gpu :O



no no, l'idea di usare due chippetti per fare il lavoro di uno grande è IL MALE in se :read:

dado1979
16-08-2016, 16:00
no no, l'idea di usare due chippetti per fare il lavoro di uno grande è IL MALE in se :read:
Io credo l'esatto contrario... se supportata in software, è la migliore scelta che si possa fare sotto praticamente tutti i punti di vista.

Free Gordon
16-08-2016, 16:02
Io credo l'esatto contrario... se supportata in software, è la migliore scelta che si possa fare sotto praticamente tutti i punti di vista.

Se ben supportato forse nì..perché a livello di consumi sarebbe sempre svantaggiato rispetto ad una soluzione più grossa di pari velocità.

Ovvio che questo non interessi a noi..ma all'industria interessa. ;)

mirkonorroz
16-08-2016, 16:03
no no, l'idea di usare due chippetti per fare il lavoro di uno grande è IL MALE in se

Ma infatti ce ne vogliono almeno 4 di chi(a)ppetti :ciapet:

dado1979
16-08-2016, 16:04
Se ben supportato forse nì..perché a livello di consumi sarebbe sempre svantaggiato rispetto ad una soluzione più grossa di pari velocità.

Ovvio che questo non interessi a noi..ma all'industria interessa. ;)
Ma il costo di due chip diciamo medi è inferiore (sui grandi volumi) di quello di un chip grande... e questo è quello che realmente interessa a noi.

Ale55andr0
16-08-2016, 16:05
Ma infatti ce ne vogliono almeno 4 di chi(a)ppetti :ciapet:

yep, per poi ridurli in spaghetti e usarli come legacci per la monnezza :O

mirkonorroz
16-08-2016, 16:11
yep, per poi ridurli in spaghetti e usarli come legacci per la monnezza :O

Comunque mi ha detto Lisa che quando butteranno fuori una scheda fenomenale a poco prezzo, ne vieteranno l'uso ad un certo Ale55andr0 :sofico:

AceGranger
16-08-2016, 16:12
Scusa tu credevi davvero alle bimbominkiate secondo cui AMD non esiste nel professionale, non lavora con le sh di sw professionali e altre leggende metropolitante verdi? :D


quello che investe AMD nel professionale è direttamente proporzionale al suo Market Share; il 20% da piu di un lustro a questa parte.


AMD sta facendo belle cose e sopratutto le sta facendo open.

con un 80% di Market Share da recuperare, e CUDA nettamente piu diffuso e supportato, non hanno molte altre alternative.

Free Gordon
16-08-2016, 16:16
Ma il costo di due chip diciamo medi è inferiore (sui grandi volumi) di quello di un chip grande... e questo è quello che realmente interessa a noi.

Come costi sicuramente...in prospettiva futura perf/watt non so se è una politica che può andar lontano.

APU è da anni che vorrebbe andare in quella direzione, ma i tempi non sono...e mi sa che nn saranno ancora per molto, maturi.

AceGranger
16-08-2016, 16:21
https://youtu.be/vyKgT5QUU2Q?t=43m47s

Questo..in realtime su FuryX con Unity... è davvero impressive! :oink: :oink: :oink:

:asd:

ora, spero bene che almeno il video lo abbiano registrato dopo averlo fatto rigirare sulle loro GPU..... perchè il video originale ufficiale di ADAM di Unity3D è stato fatto con una GTX980 :fagiano:

e singolare anche che dopo mostrino Octane e Vray come partner delle Radeon Pro, visto che Octane è nato come CUDA e si sta affacciando solo ora ad OpenCL e mentre la versione di Vray CUDA è avanti anni luce alla variante OpenCL....

sara che faceva piu figo mettere quelli invece che Luxrender :asd:

mirkonorroz
16-08-2016, 16:27
:asd:

ora, spero bene che almeno il video lo abbiano registrato dopo averlo fatto rigirare sulle loro GPU..... perchè il video originale ufficiale di ADAM di Unity3D è stato fatto con una GTX980 :fagiano:

e singolare anche che dopo mostrino Octane e Vray come partner delle Radeon Pro, visto che Octane è nato come CUDA e si sta affacciando solo ora ad OpenCL e mentre la versione di Vray CUDA è avanti anni luce alla variante OpenCL....

sara che faceva piu figo mettere quelli invece che Luxrender :asd:

Tu se non volgi le cose al male non sei contento :asd:
Dici cose anche vere, ma chissa' come mai devi trovarci sempre qualcosa che non va...
Se hanno fatto accordi con Octane da poco fanno bene a dirlo: che poi cuda sia stato il pioniere e che sia diffuso non ci piove.
Pensa che quando c'era solo gelato uno mi ha detto che che non bastava a dimostrare che il rendering via gpu si potesse fare e sviluppare...

Se c'e' qualche buon'anima che si diverte con Luxrender, sia a programmarlo che ad usarlo che male c'e'?

AceGranger
16-08-2016, 16:43
Tu se non volgi le cose al male non sei contento :asd:
Dici cose anche vere, ma chissa' come mai devi trovarci sempre qualcosa che non va...


:mbe: se una cosa è vera, non c'è qualcosa che non va, è cosi e basta....


Se hanno fatto accordi con Octane da poco fanno bene a dirlo: che poi cuda sia stato il pioniere e che sia diffuso non ci piove.
Pensa che quando c'era solo gelato uno mi ha detto che che non bastava a dimostrare che il rendering via gpu si potesse fare e sviluppare...


poca lungimiranza dentro di lui!



Se c'e' qualche buon'anima che si diverte con Luxrender, sia a programmarlo che ad usarlo che male c'e'?

ma infatti nessuna, trovo solo abbastanza simpatico che si mettano a pubblicizzare cose dove vanno peggio della concorrenza, giusto per mettere li 2 nomi famosi a caso...

dado1979
16-08-2016, 16:44
Tu se non volgi le cose al male non sei contento :asd:
Dici cose anche vere, ma chissa' come mai devi trovarci sempre qualcosa che non va...
Se hanno fatto accordi con Octane da poco fanno bene a dirlo: che poi cuda sia stato il pioniere e che sia diffuso non ci piove.
Pensa che quando c'era solo gelato uno mi ha detto che che non bastava a dimostrare che il rendering via gpu si potesse fare e sviluppare...

Se c'e' qualche buon'anima che si diverte con Luxrender, sia a programmarlo che ad usarlo che male c'e'?
Il Lato Oscuro è potente in questo utente:
https://www.youtube.com/watch?v=OvsJk6Dve3A

siluro85
16-08-2016, 16:52
Mi sono venuti i brividi! :D

ninja750
16-08-2016, 17:10
Io credo l'esatto contrario... se supportata in software, è la migliore scelta che si possa fare sotto praticamente tutti i punti di vista.

ma infatti.. qui ci sono molti giovani ( :D ) che non ricordano le prime schede cazzute di 3dfx ovvero le voodoo2 che avevano non so quanti chip in parallelo e memoria condivisa e funzionavano alla grande

ora non so quanto incida la sola gpu come costo totale in una scheda ma immagino che se una totale singola costi 200 una ipotetica tri-gpu potrebbe stare comodamente sotto i 300, resta il problema dei consumi ma più che altro perchè attualmente siamo abituati a chipponi grossi che scaldano e consumano tanto

devil_mcry
16-08-2016, 17:17
Io credo l'esatto contrario... se supportata in software, è la migliore scelta che si possa fare sotto praticamente tutti i punti di vista.

Qualcuno però è fallita perseguendo quella strada...

fraussantin
16-08-2016, 17:25
AMD sta facendo belle cose e sopratutto le sta facendo open.

Ci sono 2 produttori di vga ( intel non conta un caxxo)

Se nvidia sviluppa bene solo per se , e amd sviluppa open ( che peró non funziona bene con nvidia) cosa cambia?

Capozz
16-08-2016, 18:43
Qualcuno però è fallita perseguendo quella strada...
I problemi di 3dfx furono ben altri... Il multigpu era praticamente l'unica cosa che funzionava bene sulle ultime voodoo

Free Gordon
16-08-2016, 18:51
( che peró non funziona bene con nvidia)

Non funziona bene su Nvidia? :confused:

Free Gordon
16-08-2016, 19:02
:asd:
ora, spero bene che almeno il video lo abbiano registrato dopo averlo fatto rigirare sulle loro GPU..... perchè il video originale ufficiale di ADAM di Unity3D è stato fatto con una GTX980 :fagiano:


https://www.youtube.com/watch?v=GXI0l3yqBrA

Il video è solo del 20 di Giugno...

Quello di AMD https://www.youtube.com/watch?v=vyKgT5QUU2Q di un mese dopo...Sono praticamente contemporanei..

devil_mcry
16-08-2016, 19:17
I problemi di 3dfx furono ben altri... Il multigpu era praticamente l'unica cosa che funzionava bene sulle ultime voodoo

Beh le 6000 non sono mai riuscite a farle uscire dalla fase prototipale e con le Rampage erano single GPU... Sicuramente la mancanza del T&L non ha giocato a favore ma non riuscire nemmeno a mettere sul mercato l'ammiraglia è stato per problemi tecnici

Inoltre già allora non sempre le SLI faceva favillelink (http://www.anandtech.com/show/272/31)

Ale55andr0
16-08-2016, 21:41
Comunque mi ha detto Lisa che quando butteranno fuori una scheda fenomenale a poco prezzo, ne vieteranno l'uso ad un certo Ale55andr0 :sofico:


magna tranquillo allora :asd:

FroZen
18-08-2016, 19:07
Sembra che amd finalmente abbia racimolato i soldi per fare vega :asd:

http://www.overclock3d.net/news/misc_hardware/amd_sees_huge_improvements_in_their_q2_2016_financial_results/1

+23% fatturato q2 2016 su q1

FroZen
18-08-2016, 19:11
Vuoi dire nel quadrimestre in cui hanno venduto la prima partita di polaris? :asd:

No quelle non se li incxxxa nessuno :O

fraussantin
18-08-2016, 19:27
Il 23% di quasi niente quanto fa?

TheDarkAngel
18-08-2016, 19:45
Il 23% di 803 miliardi di dollari veramente :muro:

milioni? :p

OvErClOck82
18-08-2016, 20:17
Il 23% di quasi niente quanto fa?

ma ti pagano per trollare ? :D

Lunar Wolf
18-08-2016, 20:17
Sembra che amd finalmente abbia racimolato i soldi per fare vega :asd:

http://www.overclock3d.net/news/misc_hardware/amd_sees_huge_improvements_in_their_q2_2016_financial_results/1

+23% fatturato q2 2016 su q1
Strano... A leggere certi ingegneri ed economisti qui dentro pensavo - 28%

AceGranger
18-08-2016, 20:19
Certo negli store sono disponibili 3 ore e poi finiscono. :asd:

ne arriveranno 4 nei negozi :asd: ? no perchè sembrerebbe vendere di piu nVidia con tutti i suoi problemoni di produzione :asd:

AceGranger
18-08-2016, 20:27
No quelle sono le 1080 e le 1070 :sofico:

La classifica di Luglio di Steam per ora ci dice ben altro :asd:

1080 in vendita dal 27 Maggio - 0.56%
1070 in vendita dal 10 Giugno - 0.64%
480 in vendita dal 29 Giugno - 0.12%
1060 in vendita da 19 Luglio - 0.06%


grandissssssime vendite è, proprio grandi :asd:


vedremo se migliorera nei prossimi mesi

AceGranger
18-08-2016, 20:32
Scusa ma dove li vedi sti dati?

Steam, sopra nella tendina seleziona Item Name e vedi l'elenco completo per nomi e divise fra AMD e nVidia e Intel

http://store.steampowered.com/hwsurvey/directx/?sort=name

devil_mcry
18-08-2016, 20:36
Scusa ma dove li vedi sti dati?

Sono i survery di Steam... Comunque la 1070 via di sto passo ci mette poco a sostituirsi alla 970, sempre se ne producono abbastanza lol, non pensavo fosse già così diffusa si vede che all'estero ne hanno di più

devil_mcry
18-08-2016, 20:47
NVIDIA GeForce GTX 1070---0.10%0.64%+0.54%
AMD Radeon RX 480---0.00%0.12%+0.12%
NVIDIA GeForce GTX 1080-0.00%0.00%0.20%0.56%+0.36%
NVIDIA GeForce GTX 1060----0.06%+0.06%

I dati sono presi sul cluster con OS compatibile con Vulkan direi, in ogni caso quello più di fascia alta. Tu probabilmente stai guardando i dati sul cluster dx11 ma li ti spariscono per via delle integrate di amd e intel

fraussantin
18-08-2016, 20:48
ma ti pagano per trollare ? :D
Non trollo sono serio.

Qua si esulta per un 23% .

Con tutte le vagonate di 480 che hanno venduto paragonate alle invisibili ( su steam) 3xx e fury .. Mi aspettavo un 230%....

devil_mcry
18-08-2016, 20:50
Comunque io sti dati non li vedo, ho capito che sono quelli di steam ma vedo le 1080 e le 1070 a 0.30% e 0.33% ma le 480 e le 1060 non el vedo.

P.S: ok adesso visti dal link di AceGranger, non so cosa cambia da dove andavo io.
Comunque state guardando le farfalle perchè è la pagina dell'hw in base all'os e mi avete dato i valori di linux :asd:

Sopra c'è la divisione anche per OS, non è la pagina di Linux.

Questa scritta "VULKAN SYSTEMS (LINUX OR POST-XP WINDOWS WITH VULKAN GPU)" vuol dire che stai guardando il Cluster con OS recenti compatibili con Vulkan e con GPU supportanti Vulkan (quindi le più nuove) non che sono solo Linux. Tra l'altro lo stesso link è filtrato per directX in realtà (leggi l'url) quindi linux non è presente

Tu prima probabilmente guardavi il cluster dx11 dove la 480 e 1060 affogano tra le integrate intel e amd

FroZen
18-08-2016, 21:01
Non trollo sono serio.

Qua si esulta per un 23% .

Con tutte le vagonate di 480 che hanno venduto paragonate alle invisibili ( su steam) 3xx e fury .. Mi aspettavo un 230%....

Steam non è la sacra bibbia essendo un check skippabile

AceGranger
18-08-2016, 21:05
Comunque io sti dati non li vedo, ho capito che sono quelli di steam ma vedo le 1080 e le 1070 a 0.30% e 0.33% ma le 480 e le 1060 non el vedo.

P.S: ok adesso visti dal link di AceGranger, non so cosa cambia da dove andavo io.
Comunque state guardando le farfalle perchè è la pagina dell'hw in base all'os e mi avete dato i valori di linux no di vulkan :asd:

ma no, il primo elenco dovrebbe essere quello generale perchè riporta:

VULKAN SYSTEMS (LINUX OR POST-XP WINDOWS WITH VULKAN GPU)


quindi tutti gli OS che supportano Vulcan

coumque se vuoi c'è anche al classifica dei sitemi W10 che racconta la stessa storia

1080 - 0.26%
1070 - 0.28%
480 - 0.05%
1060 - 0.02%


Steam non è la sacra bibbia essendo un check skippabile

e stranamente lo skippano tutti quelli con la 480 o le AMD in generale :asd:


saranno invece la sacra bibbia i post a vanvera di gente a caso in giro per altri forum o gli articoli del "sitarello" che in ogni news di Intel o nVidia deve metterci dentro la frase di terrore e tragggedia :asd:
di sicuro è piu affidabile Steam

FroZen
18-08-2016, 21:07
Se il trend continua anche con vega faccio una deroga all'anticapitalismo e prendo una carriola di azioni amd

AceGranger
18-08-2016, 21:19
Si AceGranger ma adesso non è che devi fare "terrore e tragggedia" tu.
La storia che viene raccontata da steam per ora è solo che le 1080 e le 1070 nel resto del mondo si trovavano più facilmente che in Italia.
Delle 480 è abbastanza inutile guardarle, io vorrei comprarla e non la trovo per esempio.
.
visto che continuate a scrivere che una stravende e l'altra ha problemi di distribuzione, ho solo riportato i dati , visto che finalmente sono usciti:p


Da quei dati si vede che la 1070 al primo mese ha fatto pure peggio della 480.


la 480 si è fatta il suo primo mese pieno, e in 30 giorni ha totalizzato 0.12%
la 1070 hanno iniziato a venderla dal 10, e in 20 giorni ha totalizzato lo 0.10%....
la 1060 hanno iniziato a vendera il 19, e in soli 10 giorni ha totalizzato 0,06%, la meta delle 480.

e pensa se non ci fosse stata la penuria iniziale :sofico:



questi sono i dati di vendita iniziali, vedremo come andranno i prossimi mesi e come si evolvera la situazione

OvErClOck82
18-08-2016, 21:37
dite quello che volete ma almeno DEATHROMA era azionista :rolleyes:

Ren
18-08-2016, 22:07
visto che continuate a scrivere che una stravende e l'altra ha problemi di distribuzione, ho solo riportato i dati , visto che finalmente sono usciti:p



la 480 si è fatta il suo primo mese pieno, e in 30 giorni ha totalizzato 0.12%
la 1070 hanno iniziato a venderla dal 10, e in 20 giorni ha totalizzato lo 0.10%....
la 1060 hanno iniziato a vendera il 19, e in soli 10 giorni ha totalizzato 0,06%, la meta delle 480.

e pensa se non ci fosse stata la penuria iniziale :sofico:



questi sono i dati di vendita iniziali, vedremo come andranno i prossimi mesi e come si evolvera la situazione

Prima o poi bisogna svegliarsi dal sogno...:sofico:

Ale55andr0
18-08-2016, 22:13
qui si parla delle nuove gpu AMD, non rompete i maroni con i dati di steam e parlatemi di vega, che sono annoiato :O

Ren
18-08-2016, 22:16
qui si parla delle nuove gpu AMD, non rompete i maroni con i dati di steam e parlatemi di vega, che sono annoiato :O

A meno di annunci shock, ti annoierai per parecchio...:p

55AMG
18-08-2016, 22:17
dite quello che volete ma almeno DEATHROMA era azionista :rolleyes:
:D :D :D

Ale55andr0
18-08-2016, 22:22
A meno di annunci shock, ti annoierai per parecchio...:p

se va bene solo fino a ottobre

Ren
18-08-2016, 22:29
se va bene solo fino a ottobre

Se va bene...;)
La vecchia roadmap non indicava Q1 2017 per Vega ?


http://m.memegen.com/u3lcbs.jpg

:sofico:

Ale55andr0
18-08-2016, 22:47
il direttore del marketing amd ha detto diversamente parlando di lancio imminente (letto le ultime pagine?), quindi o vuole essere licenziato (può essere eh :asd: )o sono vere le voci che circolavano tempo addietro e che parlano di una anticipazione dell'uscita di vega 10 a ottobre, in concomitanza con BF1

mircocatta
18-08-2016, 22:50
Se così fosse e Vega va quanto una 1080 io mi sparo sulle palle, detta come va detta

Inviato dal mio HTC One M9 utilizzando Tapatalk

Ale55andr0
18-08-2016, 23:07
Se così fosse e Vega va quanto una 1080 io mi sparo sulle palle, detta come va detta




spero che le tue palle finiscano male allora, niente di personale eh :asd:
..comunque dovresti gia averlo fatto da un pezzo pensando a quanto presto hanno messo le 980ti in legacy e a quanto presto si sta parlando di volta con molti utenti che considerano pascal una meteora dopo che hanno speso quanto per la 1080? 700 o giu di li? :asd:

...comunque da nessuna parte è stato detto che va come una 1080, puoi star sereno :D. Personalmente parto dal presupposto che gcn 4 con meno bandwidth, cu, tmu e la metà della rop con una aggiustatina in alto al clock va come le 2560sp/512bit/64rop, quindi se a vega 4096sp ci aggiungo questi miglioramenti "dell'ipc" e i 14 nm che dovrebbero consentire grazie anche ad hbm 2 e relativo mc 150-200mhz in più sul core senza fondere la testata, la vedo piazzata abbastanza bene per mettersi dietro la 1070 e mettere a 90 la 1080 in asyc compute. L'altra speranza è che visto che si sono fossilizzati con gcn e che pure l'altra infornata di console sarà gcn si avrà un supporto assicurato per altri 4-5 anni almeno :sofico:

Legolas84
19-08-2016, 00:32
A leggere alcuni di voi sembra davvero che le cose in AMD vadano a gonfie vele... speriamo dai ;)

Lunar Wolf
19-08-2016, 07:17
A leggere alcuni di voi sembra davvero che le cose in AMD vadano a gonfie vele... speriamo dai ;)

In uk vendono come il pane, Zen sembra competere (finalmente) con i5-i7 sembra che il 2017 sia l'anno di AMD....aspettando Vega ovviamente e sperando nelle giuste prestazioni.

fraussantin
19-08-2016, 07:46
In uk vendono come il pane, Zen sembra competere (finalmente) con i5-i7 sembra che il 2017 sia l'anno di AMD....aspettando Vega ovviamente e sperando nelle giuste prestazioni.


E prezzi. :sperem:

FroZen
19-08-2016, 08:13
E prezzi. :sperem:

Amd non è una onlus (cit.)

FroZen
19-08-2016, 08:14
A leggere alcuni di voi sembra davvero che le cose in AMD vadano a gonfie vele... speriamo dai ;)

:asd:

Suona vero come la famosa banconota da 300€

egounix
19-08-2016, 08:16
:asd:

Suona vero come la famosa banconota da 300€

Anche io con la 750

Ale55andr0
19-08-2016, 08:25
Amd non è una onlus (cit.)


ma non devono nemmeno alienarsi dalla realtà: necessitano di vendere partendo da uno svantaggio tecnico e di mercato. Se piazzano vega al costo della 1080 uscendo mesi dopo failano e di brutto, e lo sanno pure loro, fury-x docet :read:, a meno che vadano nettamente più forte, ma ne dubito...

N3OM4TR|X
19-08-2016, 13:09
Non so se e' stato gia' postato:
https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/2/

L'articolo e' in tedesco, ma in breve, ha fatto un confronto con driver 16.8.1 fra le architetture GCN1/3/4 a parita' di tutto il resto (SP, clock, bandwidth, etc).
Viene calcolato un miglioramento GCN4 vs GCN3 di ~7% in media con casi dove e' piu risicato ed altri in cui arriva ben oltre.

Trovo l'articolo molto interessante in previsione di Vega per scremare almeno una variabile e capire un po' cosa aspettarsi.

Parto dal presupposto che Vega10, come da rumors, sia effettivamente bilanciata come Fury X (4096:256:64) e, come dissi in un altro post, trovo ragionevole pensare che la bandwidth resti la stessa (2 stack x 4GB x 2Gbps HBM2).
A livello di architettura fra Polaris e Vega credo che, realisticamente, le differenze saranno minime, quanto basta per passare da GDDR5 a HBM2. Restano entrambe GCN4.
Direi, dunque, che quel +7% di differenza si dovrebbe riproporre ed essere leggermente incrementato dalla presenza di 8GB nelle alte risoluzioni.

Tutto il resto direi che AMD lo deve ricavare dal clock, dal quale non mi aspetto miracoli soprattutto visto che il 14nm utilizzato sara' solo qualche mese piu' maturo rispetto a quello visto su Polaris.

Per farla breve, mi unisco a coloro che vedono Vega 10 Full piazzata poco sotto la GTX 1080 (~10%) ad un MSRP che mi auguro sia di 499$ e spero non arrivi a 549$ (oltre non ci saremmo proprio).
A 499$ sarebbe una scheda interessante.

Incrocio le dita, anche perche' il monitor 4K mi e' arrivato e la mia GTX 970 ha minacciato di svitarsi, sganciarsi dal PCI-E e scioperare (giustamente).
Pero' che avrei dovuto fare? Se nel trasloco mi si rompe il FullHD, e' ovvio che mi ritrovi costretto a passare ante tempo al 4K :sofico:

Dextroy
19-08-2016, 13:23
Speriamo escano presto le vega. Vendendo le mie 970 mi son fatto un bel gruzzoletto. Dai che il mio fhd 144hz freesync scalpita.

Inviato dal mio LG-D802 utilizzando Tapatalk

Ale55andr0
19-08-2016, 13:45
Non so se e' stato gia' postato:
https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/2/

L'articolo e' in tedesco, ma in breve, ha fatto un confronto con driver 16.8.1 fra le architetture GCN1/3/4 a parita' di tutto il resto (SP, clock, bandwidth, etc).
Viene calcolato un miglioramento GCN4 vs GCN3 di ~7% in media con casi dove e' piu risicato ed altri in cui arriva ben oltre.

Trovo l'articolo molto interessante in previsione di Vega per scremare almeno una variabile e capire un po' cosa aspettarsi.

Parto dal presupposto che Vega10, come da rumors, sia effettivamente bilanciata come Fury X (4096:256:64) e, come dissi in un altro post, trovo ragionevole pensare che la bandwidth resti la stessa (2 stack x 4GB x 2Gbps HBM2).
A livello di architettura fra Polaris e Vega credo che, realisticamente, le differenze saranno minime, quanto basta per passare da GDDR5 a HBM2. Restano entrambe GCN4.
Direi, dunque, che quel +7% di differenza si dovrebbe riproporre ed essere leggermente incrementato dalla presenza di 8GB nelle alte risoluzioni.

Tutto il resto direi che AMD lo deve ricavare dal clock, dal quale non mi aspetto miracoli soprattutto visto che il 14nm utilizzato sara' solo qualche mese piu' maturo rispetto a quello visto su Polaris.

Per farla breve, mi unisco a coloro che vedono Vega 10 Full piazzata poco sotto la GTX 1080 (~10%) ad un MSRP che mi auguro sia di 499$ e spero non arrivi a 549$ (oltre non ci saremmo proprio).
A 499$ sarebbe una scheda interessante.

Incrocio le dita, anche perche' il monitor 4K mi e' arrivato e la mia GTX 970 ha minacciato di svitarsi, sganciarsi dal PCI-E e scioperare (giustamente).
Pero' che avrei dovuto fare? Se nel trasloco mi si rompe il FullHD, e' ovvio che mi ritrovi costretto a passare ante tempo al 4K :sofico:


io sinceramente non ho ancora capito se usano glofo o samsung per vega, e se magari optano per la seconda magari il pp migliore perchè oggettivamente, anche se è peculiarità di gcn non salire molto in se, sti 14nm densi mi paiono una fetenzia lato clock, con degli incrementi def vs def francamente deludenti rispetto i mattonazzi a 28nm. Con la fury x partivano da 1050 con AIO, c'è da sperare che coi 14nm reggano almeno 150mhz in più ad aria :rolleyes:

Mi accodo totalmente al neretto: performance fra 1070 e 1080 che passano la 1080 con vulkan/async e street price inferiore ai 600 :sperem:

siluro85
19-08-2016, 15:47
Le prestazioni saranno quelle, prezzo non lo so ma spero intorno ad un msrp intorno ai 500 in modo da averla qua tra 550 e 600

mirkonorroz
19-08-2016, 16:28
[cut]
Se nel trasloco mi si rompe il FullHD, e' ovvio che mi ritrovi costretto a passare ante tempo al 4K :sofico:

C'e' l'FBI che ha iniziato le indagini :sofico:

Free Gordon
19-08-2016, 17:03
Se va bene...;)
La vecchia roadmap non indicava Q1 2017 per Vega ?

Hai letto della dimostrazione di Zennuccio nostro? :D

Ren
19-08-2016, 17:10
Hai letto della dimostrazione di Zennuccio nostro? :D

Yes. :)

Tutto come previsto.;)

Ottimo IPC, Clock contenuti per mille ragioni (niente pentium4 :sofico:) ed un buon consumo.

Voglio proprio vedere che si inventeranno in intel per competere contro il 32core...:sofico:

Speriamo non comincino con i soliti ritardi...:rolleyes:

Free Gordon
19-08-2016, 17:20
Non so se e' stato gia' postato:
https://www.computerbase.de/2016-08/amd-radeon-polaris-architektur-performance/2/

L'articolo e' in tedesco, ma in breve, ha fatto un confronto con driver 16.8.1 fra le architetture GCN1/3/4 a parita' di tutto il resto (SP, clock, bandwidth, etc).
Viene calcolato un miglioramento GCN4 vs GCN3 di ~7% in media con casi dove e' piu risicato ed altri in cui arriva ben oltre.

Veramente molto interessante.
E' l'articolo che attendevo..
Ora c'è da capire se i futuri giochi, aumenteranno il gap su GCN3 o resterà stabile.



Parto dal presupposto che Vega10, come da rumors, sia effettivamente bilanciata come Fury X (4096:256:64) e, come dissi in un altro post, trovo ragionevole pensare che la bandwidth resti la stessa (2 stack x 4GB x 2Gbps HBM2).
A livello di architettura fra Polaris e Vega credo che, realisticamente, le differenze saranno minime, quanto basta per passare da GDDR5 a HBM2. Restano entrambe GCN4.
Direi, dunque, che quel +7% di differenza si dovrebbe riproporre ed essere leggermente incrementato dalla presenza di 8GB nelle alte risoluzioni.
Tutto il resto direi che AMD lo deve ricavare dal clock, dal quale non mi aspetto miracoli soprattutto visto che il 14nm utilizzato sara' solo qualche mese piu' maturo rispetto a quello visto su Polaris.
Per farla breve, mi unisco a coloro che vedono Vega 10 Full piazzata poco sotto la GTX 1080 (~10%) ad un MSRP che mi auguro sia di 499$ e spero non arrivi a 549$ (oltre non ci saremmo proprio).
A 499$ sarebbe una scheda interessante.
Incrocio le dita, anche perche' il monitor 4K mi e' arrivato e la mia GTX 970 ha minacciato di svitarsi, sganciarsi dal PCI-E e scioperare (giustamente).
Pero' che avrei dovuto fare? Se nel trasloco mi si rompe il FullHD, e' ovvio che mi ritrovi costretto a passare ante tempo al 4K :sofico:


Se con le HBM2 possono ridurre le dimensioni del bus, aumentando nel contempo i GB (penso 8) a disposizione e la banda (rispetto a Fiji), le prestazioni da 1070+ ci dovrebbero essere. :)

Perché 4600SP e 64ROPs a 1200mhz (perché non duplicare P10 paro paro? ;) ) dovrebbero consentire prestazioni del 15% rispetto a FuryX.

https://tpucdn.com/reviews/Zotac/GeForce_GTX_1080_Amp/images/perfrel_2560_1440.png


La 1070 la prendi sicuro sul 1440p e la superi sul 4K. ;)

Il problema è che le 1070 ora si trovano a 450€...e se Vega esce a 499$+ tasse...hmmm...la vedo grigia.

Devono uscire con un prezzo più aggressivo, quindi sarà di nuovo GF14 solo con dissi custom. Da subito..


Certo, avere una scheda (1 anno e mezzo dopo..) su un nuovo nodo...che ti fa il 15% in più della vecchia top a 28nm, non è proprio il massimo come biglietto da visita di GCN4.

Se con Zen cambiano marcia, il prossimo cambio vero sarà pensionate GCN...e tornare al gaming puro!!!

Free Gordon
19-08-2016, 17:26
Yes. :)
Tutto come previsto.;)
Ottimo IPC, Clock contenuti per mille ragioni (niente pentium4 :sofico:) ed un buon consumo.
Voglio proprio vedere che si inventeranno in intel per competere contro il 32core...:sofico:
Speriamo non comincino con i soliti ritardi...:rolleyes:

:sperem:

Ren
19-08-2016, 17:27
Veramente molto interessante.
E' l'articolo che attendevo..
Ora c'è da capire se i futuri giochi, aumenteranno il gap su GCN3 o resterà stabile.

Rimarrà più o meno stabile.;)

Hanno fatto miglioramenti minimi che non impattano sulle ottimizzazioni.

Tanti paroloni nelle slide ed hanno ottenuto solo il 7% :rolleyes: di IPC. (+wavefront,prefetch e compressione migliorata)

Free Gordon
19-08-2016, 17:31
Rimarrà più o meno stabile.;)
Hanno fatto miglioramenti minimi che non impattano sulle ottimizzazioni.

Vista la 480..era quello che mi aspettavo.
Ma prima dell'uscita, pensavo avrebbero migliorato ALMENO del 10% GCN1.2...

Mi sa che hanno le mani legate, più di tanto con GCN così come sarà stata concepita più di 6 anni fà.. non riescono a fare. :(

Ren
19-08-2016, 17:42
Vista la 480..era quello che mi aspettavo.
Ma prima dell'uscita, pensavo avrebbero migliorato ALMENO del 10% GCN1.2...

Mi sa che hanno le mani legate, più di tanto con GCN così come sarà stata concepita più di 6 anni fà.. non riescono a fare. :(

Speriamo non si portino dietro il carrozzone per tutta la durata delle console...:rolleyes:

Rimane l'impressione che del mercato discrete PC gli importi poco. (non hanno tutti i torti)

Legolas84
19-08-2016, 17:44
Speriamo non si portino dietro il carrozzone per tutta la durata delle console...:rolleyes:

Rimane l'impressione che del mercato discrete PC gli importi poco. (non hanno tutti i torti)

Se la loro strategia è quella che abbiamo ipotizzato non credo la cambieranno...

siluro85
19-08-2016, 17:46
È votata parecchio alla parallelizzazione ed alla esecuzione di 3d generici, non solo grafici e così facendo perdi un po' di specializzazione anche delle unità stesse..

Ren
19-08-2016, 17:47
Se la loro strategia è quella che abbiamo ipotizzato non credo la cambieranno...

Infatti era uno "speriamo". :sofico:

Finché le console vendono non cambieranno un fico secco.

Fatturano più di due miliardi l'anno. (anche se i margini sono bassi)

Legolas84
19-08-2016, 17:48
Infatti era uno "speriamo". :sofico:

Finché le console vendono non cambieranno un fico secco.

Fatturano più di due miliardi l'anno. (anche se i margini sono bassi)

Non c'è possibilità che i conti si pareggino con le console vero?

Bisogna sperare in zen come dicevo di la....

Ren
19-08-2016, 17:57
Non c'è possibilità che i conti si pareggino con le console vero?

Bisogna sperare in zen come dicevo di la....

Hanno mantenuto in piedi la baracca con le console.
Sono in rosso da anni ed hanno venduto diversi rami d'azienda, quindi ad oggi non sono bastati.

Zen va a doppio filo con la joint venture con i cinesi.

In teoria sono usciti dal baratro. Speriamo...;)


cmq nvidia ha in mano il mercato GPU, ma fattura solo 5 miliardi. Certo i suoi margini sono belli alti, ma stiamo parlando di quasi un monopolio.

Legolas84
19-08-2016, 18:07
NVIDIA non è un'azienda enorme, ma ha sempre saputo tenere in ordine i sui conti con ottimi guadagni...

Comunque confido in Zen come erede dell'Athlon64.... ;)

N3OM4TR|X
19-08-2016, 18:07
C'e' l'FBI che ha iniziato le indagini :sofico:

Le hanno già concluse e chi doveva pagare ha pagato (ho risparmiato un centone sul 4K che è meglio di niente!)

[...]non ho ancora capito se usano glofo o samsung per vega, e se magari optano per la seconda magari il pp migliore[...]

Beh... cito:
AMD has strong foundry partnerships and our primary manufacturing partners are GLOBALFOUNDRIES and TSMC. We have run some product at Samsung and we have the option of enabling production with Samsung if needed as part of the strategic collaboration agreement they have with GLOBALFOUNDRIES to deliver 14nm FinFET process technology capacity.

GloFo e Samsung hanno lo stesso PP (il 14LPP se non ricordo male) che GloFfo ha preso in licenza proprio da Samsung.
Da quello che ho capito hanno un accordo secondo il quale, se GloFo non riesce a star dietro alle richieste, delegano un po' del lavoro a Samsung (e credo lo faccia GloFo stessa, non AMD).
Certo, è possibile che Samsung le cose le faccia un attimino meglio, ma non mi aspetterei tutta sta differenza francamente.
Un'altra possibilità, e per certi versi opposta a quanto ho appena detto, è che Samsung riesca a produrre chip con TDP maggiore di GloFo a parità di PP. Il ché avvantaggerebbe Vega permettendogli di spuntare qualche Mhz in più.
Ma di ufficiale non c'è un bel niente, se non quanto ho riportato sopra.

[...]Se con le HBM2 possono ridurre le dimensioni del bus, aumentando nel contempo i GB (penso 8) a disposizione e la banda (rispetto a Fiji), le prestazioni da 1070+ ci dovrebbero essere. :)

Perché 4600SP e 64ROPs a 1200mhz (perché non duplicare P10 paro paro? ;) ) dovrebbero consentire prestazioni del 15% rispetto a FuryX.[...]

Per quanto riguarda il particolare l'utilizzo delle HBM2, possono farlo e lo faranno al 99.9%. Anche se non ci sono dichiarazioni ufficiali in merito, è l'unica soluzione logica (cit. Spock, Tuvok, etc):
Hynix produce solo due tipi di stack HBM, entrambi da 4GB di capienza l'uno, che differiscono solo per la bandwidth (i.e. 2 Gbps vs 1.6 Gbps). Va da se che, a meno che AMD non impazzisca, Vega destinata al mercato consumer non sarà da 16GB ma da 8GB. Ci risparmia un sacco lei, ci guadagna Xynix che, da quanto sappiamo e per ora, come unico cliente ha AMD (nVidia usa Samsung) e, si spera, ci risparmiamo un pochino anche noi utenti finali.
Poi su Vega per HPC è ovvio che ci butti sopra i 16GB inizialmente o aspetti e parti direttamente da 32GB quando Xynix produrrà stack da 8GB l'uno.

Per quanto riguarda la previsione prestazionale, non credo che fare MUL(RX480, 2) sia esattamente un buon calcolo :stordita:
Qualche piccola miglioria a livello architetturale Vega dovrebbe comunque averla rispetto a Polaris (IP v9 vs IP v8 qualcosa, seppur minima, dovranno cambiarla!), credo sia più auspicabile un +20% rispetto a Fury X in media.

Inoltre mi pare di aver letto, ma non ricordo dove quindi non lo prendo in considerazione nel discorso generale, che la RX480 ha un piccolo collo di bottiglia nella bandwidth della memoria, quindi ci sta che 4096SP, unito al raddoppio di bandwidth via HBM2, portino ad una scheda ben bilanciata. 4608SP potrebbe essere rischioso/superfluo.

Ale55andr0
19-08-2016, 18:16
Tanti paroloni nelle slide ed hanno ottenuto solo il 7% :rolleyes: di IPC. (+wavefront,prefetch e compressione migliorata)

vatti a vedere cosa fa pascal a livello di ipicì rispetto a maxwell :O ...

N3OM4TR|X
19-08-2016, 18:19
vatti a vedere cosa fa pascal a livello di ipicì rispetto a maxwell :O ...

Posso riassumerlo in: mi sono tenuto Maxwell e il 4K che ho preso è FreeSync.

Ren
19-08-2016, 18:21
vatti a vedere cosa fa pascal a livello di ipicì rispetto a maxwell :O ...

Guarda che è identico (copia carbone) come architettura...:sofico: (pascal Geforce)

L'unica cosa che ha fatto nvidia è ottimizzare la compressione per evitare un bus più ampio.

Dimenticavo, in teoria hanno peggiorato di un nulla l'ipc con il quinto TPC...

Ale55andr0
19-08-2016, 18:24
perchè allora maxwell con la stessa architettura fa cacare in dx 12? :D

Legolas84
19-08-2016, 18:25
perchè allora maxwell con la stessa architettura fa cacare in dx 12? :D

Ancora con questa storia? :asd:

Mamma mia quanta disinformazione.....

Ren
19-08-2016, 18:25
perchè allora maxwell con la stessa architettura fa cacare in dx 12? :D

Ti riferisci agli async ? :confused:

Legolas84
19-08-2016, 18:27
Ti riferisci agli async ? :confused:

Non penso abbia ancora chiaro come funziona la storia DX12 e Async.... e quindi è ancora convinto che sia NVIDIA che ha problemi in DX12...

Ren
19-08-2016, 18:28
Ancora con questa storia? :asd:

Mamma mia quanta disinformazione.....

Non penso abbia ancora chiaro come funziona la storia DX12 e Async.... e quindi è ancora convinto che sia NVIDIA che ha problemi in DX12...

Ok, allora evito di perdere tempo in spiegazioni. ;)

Ale55andr0
19-08-2016, 18:40
Ancora con questa storia? :asd:

Mamma mia quanta disinformazione.....

quale disinformazione? nei bench che ho visto maxwell non solo non guadagna, ma va più piano che in dx 11, e non ho tirato i ballo ne async ne ace, parlo di dx 12 lissie

Ale55andr0
19-08-2016, 18:57
credo che ti volessero dire che "nvidia è così uber in dx11 che dei benefit delle dx12 se ne sbatte" il che è una considerazione secondo me un po sui generis e che forse vale adess.

eh no, perchè allora non dovresti andare meno, ma almeno uguale, invece si perde qualcosa. Quantomeno nei bench che ho visto (il primo che mi viene in mente è tomb raider). Non ho tirato in ballo il discorso ace e async compute che mi sa che è la prima cosa che hanno pensato :asd: ma solo la perdita prestazionale in dx12, che a sto punto ce la spiegano loro visto che pure sul thread verde in diversi dicono che pascal fa meglio di maxwell in dx12, quindi o con quelle librerie va maluccio l'architettura o i driver, non vedo altri motivi :boh: direi almeno per ora ma...dubito che le cose migliorino con la 900 in legacy :fagiano:

fraussantin
19-08-2016, 19:16
l'opinione comune che sto notando è che lato nvidia almeno per il momento si tende più ad esaltare magari un physx qualsiasi ed a snobbare le dx12 del tipo "non ci servono". E tra poco si parlerà di dx11.3... invece che migliorare si va indietro lol.
Tira l'acqua al suo mulino.


Quando dissi che microsoft si era fatto gli alleati sbagliati e i nemici più pericolosi .... Tutti a darmi di troll


Cmq prima o poi ci si dovrà arrivare , a meno che non si salti alle 13.. Con w11 ...


( ricordo vista)


Pd chissà se le dx12 fossero state pro nvidia , e esclusiva microsoft store , se quello store oggi sarebbe "partito"..

55AMG
19-08-2016, 19:30
perchè allora maxwell con la stessa architettura fa cacare in dx 12? :D
Diciamo che nvidia compensa con la potenza, ma AMD é palese che sia piú a suo agio in dx12.

Dovessi prendere oggi una scheda video edclusivamente per il dx12, andrei di AMD con ben pochi dubbi.

siluro85
19-08-2016, 19:32
Premettendo che nelle dx12 è presente la funzione async compute che amd sfrutta tramite gli ace (async compute engine) e che nvidia se mai un giorno decidesse di adottare una soluzione hw simile li può chiamare anche "sbirulino engine", amd con gli AC guadagna perché va a sfruttare quelle unità che rimangono inutilizzate.. nvidia questo problema non lo ha quindi in dx12 non ha gli stessi guadagni.. poi sul fatto che vada peggio essendo la stessa architettura non mi voglio esprimere... e le dx11.3 mi puzzano di verde..

Ale55andr0
19-08-2016, 20:07
Diciamo che nvidia compensa con la potenza, ma AMD é palese che sia piú a suo agio in dx12.



non era quello il mio punto ;)

maxwell non compensa nulla, va peggio che in dx11, pascal migliora, come AMD, quello era il punto in questione :)

Ren
19-08-2016, 20:10
non è questione di agio in fin dei conti, AMD ha delle unità di calcolo hardware dedicate ed un'architettura volta al parallelismo, quindi ovvio che spinge, mettici pure che in dx11 soffre di problemi di overhead tutto si traduce in un agio si fa per dire.

Nvidia non è scalabile per virtù dello spirito santo. Il chip è infarcito di TPC proprio per evitare stalli delle unità funzionali, inoltre la pletore di fixed function abbassa i consumi.

AMD cerca di limitare gli stalli con gli ACE che vengono utilizzati per lo più per fare post processing senza passare per la pipeline grafica.

Ale55andr0
19-08-2016, 20:13
Nvidia non è scalabile per virtù dello spirito santo. Il chip è infarcito di TPC proprio per evitare stalli delle unità funzionali, inoltre la pletore di fixed function abbassa i consumi.

AMD cerca di limitare gli stalli con gli ACE che vengono utilizzati per lo più per fare post processing senza passare per la pipeline grafica.

sto ancora spettando il perchè maxwell vada più piano in dx 12 che 11 e pascal no :fiufiu:

FroZen
19-08-2016, 20:16
Tira l'acqua al suo mulino.


Quando dissi che microsoft si era fatto gli alleati sbagliati e i nemici più pericolosi .... Tutti a darmi di troll


Cmq prima o poi ci si dovrà arrivare , a meno che non si salti alle 13.. Con w11 ...


( ricordo vista)


Pd chissà se le dx12 fossero state pro nvidia , e esclusiva microsoft store , se quello store oggi sarebbe "partito"..

Più che da troll è proprio una cazzata

egounix
19-08-2016, 20:19
Più che da troll è proprio una cazzata

http://pad.mymovies.it/filmclub/attori/144568.jpg

siluro85
19-08-2016, 20:51
Secondo me non sono bestie masochiste, hanno pensato una architettura molto votata al parallelismo per il progetto fusion/hsa ed ora per me erano sotto con zen e non avevano le risorse per rifare da zero...

Lunar Wolf
19-08-2016, 20:54
sto ancora spettando il perchè maxwell vada più piano in dx 12 che 11 e pascal no :fiufiu:

se non erro in pascal ci sarebbe una piccola parte del hardware per eseguire certe funzioni (ace :stordita: ) delle dx12.

ho scritto se non erro non fucilatemi perchè seguo poco il thread delle verdi.

poi vai a capire se mamma nvidia ha sbagliato una virgola nel driver voce-> maxwell ;)

Ren
19-08-2016, 20:56
Che in amd a volte non brillino in intelligenza non é un segreto, ma resto spiazzato di fronte all'ovvietà che volete fare passare con certe affermazioni. Io leggo "é ovvio che le Nvidia non hanno problemi" seguito da una supercazzola tecnica. O in amd sono bestie masochiste o qualcuno di voi potrebbe proporsi per progettare le prossime gpu amd da solo con matita e foglio di carta scrivendo alla fine del progetto "ovviamente".

Se non capisci adesso è colpa mia...:asd:

Intendi un pò quel che ti pare ;) . Tanto dai fanatici del silicio mi aspetto di tutto. :p

Ren
19-08-2016, 21:07
Bene l'hai presa sul personale, capisci una cifra di architetture ma non hai capito un ciufolo sul mio discorso. Fa nulla, del resto son un fanatico del silicio, di pure fanboy non mi offendo.

Perchè dovresti offenderti. Lo sei :sofico:

Sembrate una setta religiosa...:asd:

Ale55andr0
19-08-2016, 21:15
Che in amd a volte non brillino in intelligenza non é un segreto, ma resto spiazzato di fronte all'ovvietà che volete fare passare con certe affermazioni. Io leggo "é ovvio che le Nvidia non hanno problemi" seguito da una supercazzola tecnica. O in amd sono bestie masochiste o qualcuno di voi potrebbe proporsi per progettare le prossime gpu amd da solo con matita e foglio di carta scrivendo alla fine del progetto "ovviamente".

:asd:

Ale55andr0
19-08-2016, 21:17
se non erro in pascal ci sarebbe una piccola parte del hardware per eseguire certe funzioni (ace :stordita: ) delle dx12.



quello dovrebbe farla andare più forte, non più piano, ma ren ovviamente ci illuminerà tutti perchè ancora s'è ben guardato dal dirci perchè maxwel in dx 12 non va manco a spinta e perde rispetto a dx11 mentre pascal no

Ren
19-08-2016, 21:25
É tutto cosi ovvio che hai gia le prossime due generazioni di gcn in tasca che puoi perdere tempo con me.

Scendi dal piedistallo, ti avevo solo chiesto come mai tutto fosse cosi ovvio a voi utenti del forum e non agli ingegneri amd, ma la tua spocchia precede la tua intelligenza.

Hai un modo curioso di chiedere le cose.

Prima dai del ciarlatano. Dopo vuoi spiegazioni...:sofico:

Stai sereno e non roderti il fegato per i tuoi pezzi di silicio...;)

Vul
19-08-2016, 21:25
Non entri a fare R&D in queste aziende senza un immensa preparazione.

Ren
19-08-2016, 21:27
Non entri a fare R&D in queste aziende senza un immensa preparazione.

Infatti solo loro credono che è per stupidità... :p

Ren
19-08-2016, 21:31
quello dovrebbe farla andare più forte, non più piano, ma ren ovviamente ci illuminerà tutti perchè ancora s'è ben guardato dal dirci perchè maxwel in dx 12 non va manco a spinta e perde rispetto a dx11 mentre pascal no

Vedo che non capisci nemmeno le spiegazioni di Lunar Wolf... ;)

Ale55andr0
19-08-2016, 21:31
Hai un modo curioso di chiedere le cose.

Prima dai del ciarlatano. Dopo vuoi spiegazioni...:sofico:

Stai sereno e non roderti il fegato per i tuoi pezzi di silicio...;)

stai continuando a sparare a salve gettando fumo negli occhi :mc:

e le spiegazioni le si vuole per un motivo ben preciso..."ovviamente" :Prrr:

Ale55andr0
19-08-2016, 21:37
Vedo che non capisci nemmeno le spiegazioni di Lunar Wolf... ;)

lunar wolf non ha spiegato proprio nulla, se pascal sostanzialmente =maxwell (dicon gli altri eh) e viceversa che abbia o meno funzioni in hardware in merito all'async compute non spiega perchè razzo in dx 12 perda, async o meno. Nel frattempo stai continuando a glissare e a lanciare bombe fumogene. Dai che pendiamo dalle tue labbra :)

Ren
19-08-2016, 21:43
lunar wolf non ha spiegato proprio nulla, se pascal sostanzialmente =maxwell (dicon gli altri eh) e viceversa che abbia o meno funzioni in hardware in merito all'async compute non spiega perchè razzo in dx 12 perda, async o meno. Nel frattempo stai continuando a glissare e a lanciare bombe fumogene. Dai che pendiamo dalle tue labbra :)

Invece ti ha dato una delle possibili spiegazioni il "Preemption".

Ale55andr0
19-08-2016, 21:45
Bene l'hai presa sul personale, capisci una cifra di architetture ma non hai capito un ciufolo sul mio discorso. Fa nulla, del resto son un fanatico del silicio, di pure fanboy non mi offendo.

e chi lo dice? io ad esempio sono discretamente scafato nel settore dell'autocostruzione audio, dall'ottimizzazione del sistema di caricamento di un woofer (dalla sospensione penumatica al reflex in varie configurazioni) alla progettazione del circuito di crossover, tutto su basi reali (parametri thiele&small, risposta i frequenza e impedenza effettive del trasduttore caricato nel suo box comprensivo di diffrazioni a pannello ecc)e non sulle formulette che trovi su internet che servono a UN CAZZO . In certi forum di appassionati alcuni utenti mi considerano una sorta di profeta quando parte a me la supercazzola e non capiscono una mazza di quello che dico perchè il loro livello è terra terra (con tutto il rispetto) ma cio non fa di me uno che dovrebbe lavorare alla B&W e spiegargli come si progetta un buon sistema di altoparlanti :asd: non valgo il dito mignolo di un ingegnere laureato con un calcio in culo. E' proprio vero il detto che dice: chi sa fa, non non sa, parla...

Free Gordon
19-08-2016, 21:46
Secondo me non sono bestie masochiste, hanno pensato una architettura molto votata al parallelismo per il progetto fusion/hsa ed ora per me erano sotto con zen e non avevano le risorse per rifare da zero...

Possibilissimo...

Il fatto è che il progetto HSA è andato dal culo (si dice dalle mie parti :asd: ), quindi sarebbe ora che decidessero di pensionare GCN, dato che in 6 anni...è andata sempre peggio a livello di perf/watt.

Probabilmente GCN avrebbe avuto molto più senso con delle APU ben sfruttate (e nn solo per "inutile" gaming...).

Ma così purtroppo non è stato...

Sinceramente non credo che HSA prenderà mai piede tra i devs...non vedremo tutti i principali software in commercio programmati ad hoc per sfruttare appieno le CU delle APU (parlo di programmi di grafica, audio, sviluppo ecc ecc..).

Almeno, di anni ne abbiamo attesi...ma per ora all'orizzonte PURTROPPO non si vede nulla.

Ale55andr0
19-08-2016, 21:46
In tre post ha dato

- del coglione agli ingegneri amd che non sanno fare cose ovvie
- dello scemo ad Alessandro che non capisce spiegazioni banali
- del pippa a lunarwolf (quello che da spiegazioni banali)
- fanboy a me (alla fine mi é finita meglio di tutti)

e non ha spiegato un piffero di suo :asd:

55AMG
19-08-2016, 21:48
F1 2016 maxato a 1080P con la mia 290 arranca un po'...

Forza AMD svegliaaaa.
Mi serve una 490!

Inviato dal mio GT-I9505 utilizzando Tapatalk

Ren
19-08-2016, 21:50
Invece ti ha dato una delle possibili spiegazioni il "Preemption".

Comunque del perchè pascal si comporta meglio in DX12 è spiegato abbastanza semplicemente qui alla voce "Asynchronous Compute" http://www.tomshw.it/articoli/recensione-geforce-gtx-1080-8gb-gddr5x-77025-p5

Certo questo è più una preemption migliorata che dei veri ace, infatti per quanto si comporti meglio di Maxwell non ha vantaggi importanti come GCN.

Dai che tra un pò ci arrivava da solo...;)

Ale55andr0
19-08-2016, 21:51
F1 2016 maxato a 1080P con la mia 290 arranca un po'...

Forza AMD svegliaaaa.
Mi serve una 490!

Inviato dal mio GT-I9505 utilizzando Tapatalk

ma pijati na 1070 e smettila di fare il piangina come quel coglione di Ale55andro che caga il cazzo da mane a sera co sta vega che non esce, gne gneee, non posso giocare, nvidia costa assai, m'annoio, AMD mi hai stufato ecc ecc :O









...Oh ma quando razzo esce vega? mi sono ROTTO :mad:

55AMG
19-08-2016, 21:56
ma pijati na 1070 e smettila di fare il piangina come quel coglione di Ale55andro che caga il cazzo da mane a sera co sta vega che non esce, gne gneee, non posso giocare, nvidia ocsta assai, m'annoio, AMD mi hai stufato ecc ecc :O









...Oh ma quando razzo esce vega? mi sono ROTTO :mad:
In effetti sto Alessandro ha un po' rotto 😅😅😅

Una 480 in percentuale, quanto andrebbe piú di una 290 WindForce 3 (OC di fabbrica)?

Potrei prendere una 480 ora, e poi appena passo al 1440P, prenderne un'altra in Cross.

Anche se preferirei singola GPU.
Le fury-x si trovano intorno ai 500 e poco piú Euro...

Ma una 485 x2 no? 😅

Ale55andr0
19-08-2016, 22:02
In effetti sto Alessandro ha un po' rotto ������

è quel che dico anch'io. Guarda, spero solo che AMD l'accontenti presto così si toglie dalle pelotas rinchiudendosi nel suo loculo a giocare liberandoci dalle sue isteriche crisi d'astinenza

Una 480 in percentuale, quanto andrebbe piú di una 290 WindForce 3 (OC di fabbrica)?

stai chiedendo che differenza fa avere un'auto da 1 tonnellata per cento cavalli rispetto ad una da cento cavalli per una tonnellata :D (ora mi aspetto n'altra supercazzola da parte di un utente x che comincia a sproloquiare su cx, rapportatura del cambio, gommatura e bilanciamento pesi :asd:)

Potrei prendere una 480 ora, e poi appena passo al 1440P, prenderne un'altra in Cross.

basta basta, esci da questo corpo!

Anche se preferirei singola GPU.

ecco, gia meglio

Le fury-x si trovano intorno ai 500 e poco piú Euro...

50 sfumature di "oggi non so come gettare soldi nella monnezza"

Ma una 485 x2 no? ��


noooooo, il maligno sta tentando di nuovo di possederti!!!!! :muro: :muro:

55AMG
19-08-2016, 22:08
Voglio un grafico in percentuali 480 (con ultimi driver) VS 290!!!

Magari un 15% in piú va 😅😅😅

Inviato dal mio GT-I9505 utilizzando Tapatalk

Ale55andr0
19-08-2016, 22:10
Voglio un grafico in percentuali 480 (con ultimi driver) VS 290!!!

Magari un 15% in piú va 😅😅😅

Inviato dal mio GT-I9505 utilizzando Tapatalk

vedi se questo ti schiarisce le idee, così, googlando a caso

https://www.youtube.com/watch?v=IT1Dd8S69jM

55AMG
19-08-2016, 22:16
Sono su cell se no googlavo. Qua mi tiro scemo 😅

Inviato dal mio GT-I9505 utilizzando Tapatalk

Lunar Wolf
19-08-2016, 22:18
Credimi la mia ironia non voleva essere un attacco personale.

Ho detto solo che leggo ovvio di qua ovvio di la e disamine tecniche da far impallidire Apu.

Quindi o in amd hanno degli ingegneri che sono degli emeriti coglioni o nel forum abbiamo degli ingegneri con i controcazzi. O forse le cose non sono cosi ovvie come le si vogliono far passare magari non conoscendo i motivi per cui certe scelte progettuali sono state perpetrate nonostante l'apparente o palese sconvenienza nel farlo.
Ingegneri con i controcaxxi li abbiamo sul forum eccome... Per non far nomi posti solo un immagine :

http://uploads.tapatalk-cdn.com/20160819/20e795eecc5f0ad477c968df209a3ddf.jpg

Lunar Wolf
19-08-2016, 22:19
Non entri a fare R&D in queste aziende senza un immensa preparazione.
Appunto... Ma sai loro sono in rosso quindi prendono i primi cinesi che sappiano usare un tester... Lool

Ale55andr0
19-08-2016, 22:20
Ingegneri con i controcaxxi li abbiamo sul forum eccome...


scherzi a parte, qua l'unico VERO esperto che abbia mai visto è un certo yossarian che a mio avviso zitto zitto ci lavorava davvero in AMD/nvidia/quel che è :asd:

sparito da anni :cry:

55AMG
19-08-2016, 22:20
Questo é bello chiaro Ale:
http://hwbench.com/vgas/radeon-rx-480-vs-radeon-r9-290

Circa un 10% in piú...

Quindi NO.

sto provando ad illudermi...

Inviato dal mio GT-I9505 utilizzando Tapatalk

Lunar Wolf
19-08-2016, 22:21
In tre post ha dato

- del coglione agli ingegneri amd che non sanno fare cose ovvie
- dello scemo ad Alessandro che non capisce spiegazioni banali
- del pippa a lunarwolf (quello che da spiegazioni banali)
- fanboy a me (alla fine mi é finita meglio di tutti)
Spiegazioni banali le dovrebbero capire anche i più ignoranti di materia come me eppure farei l'area dedicata agli ingegneri qui dentro! Almeno nella sezione cpu e una goduria leggere certe cose(anche se non capisco niente) ma qui andiamo oltre l'immaginazione!

Ale55andr0
19-08-2016, 22:22
Appunto... Ma sai loro sono in rosso quindi prendono i primi cinesi che sappiano usare un tester... Lool

c'hanno pure i cinesi che fungono da ponte LCR applicando i reofori dei componenti sulle loro estremita che...:O

Lunar Wolf
19-08-2016, 22:22
scherzi a parte, qua l'unico VERO esperto che abbia mai visto è un certo yossarian che a mio avviso zitto zitto ci lavorava davvero in AMD/nvidia/quel che è :asd:

sparito da anni :cry:
Per una volta ti posso dare ragione ;)

Quel utente era un mostro...

Ale55andr0
19-08-2016, 22:24
Questo é bello chiaro Ale:
http://hwbench.com/vgas/radeon-rx-480-vs-radeon-r9-290

Circa un 10% in piú...

Quindi NO.

sto provando ad illudermi...

Inviato dal mio GT-I9505 utilizzando Tapatalk

ma pijati na bella 1070 custom (decurtata pure rispetto la versione mobile: 1980sp/120tmu vs 2048/128) e vivi in pace per almeno 6barra12 mesi, il tempo che esce volta e via verso nuove mirabolanti avventure :O

Free Gordon
19-08-2016, 22:25
scherzi a parte, qua l'unico VERO esperto che abbia mai visto è un certo yossarian che a mio avviso zitto zitto ci lavorava davvero in AMD/nvidia/quel che è :asd:
sparito da anni :cry:

Yoss lavorava in ATI ma ha cambiato lavoro molti anni fà, prima dell'uscita di R600.

Ci sono stati anche altre persone del settore sul forum, uno era nAo che ora credo programmi ancora per DICE (se non ha cambiato) e l'italianissimo Fek (direttore tecnico in Crytek fino a qualche anno fa').

Ale55andr0
19-08-2016, 22:28
Yoss lavorava in ATI ma ha cambiato lavoro molti anni fà, prima dell'uscita di R600.

Ci sono stati anche altre persone del settore sul forum, uno era nAo che ora credo programmi ancora per DICE (se non ha cambiato) e l'italianissimo Fek (direttore tecnico in Crytek fino a qualche anno fa').

vallo a sapere :eek:

chissà cosa ne pensa di tuta sta diatriba e delle fette di silicio attuali :asd:

55AMG
19-08-2016, 22:30
ma pijati na bella 1070 custom (decurtata pure rispetto la versione mobile: 1980sp/120tmu vs 2048/128) e vivi in pace per almeno 6barra12 mesi, il tempo che esce volta e vie verso nuove mirabolanti avventure :O
Non mi fido...
Tolto che nvidia sta facendo giá ora bei casini coi driver...

Poi anno prossimo mi ritrovo con scheda che magari manco é piú supportata/aggiornata.
Se scende a 350Euro ci faccio un mezzo pensiero...

Ma poi passerei al 1440P, quindi sarebbe meglio una 1080 (dalla padella alla brace...).

Non mi va di regalare soldi a chi spenna noi appassionati...


Ma possibile AMD non abbia a breve termine in uscita qualcosa di piú potente della 480? Anche un 20/30% in piú mi andrebbe bene...

Lunar Wolf
19-08-2016, 22:47
Yoss lavorava in ATI ma ha cambiato lavoro molti anni fà, prima dell'uscita di R600.

Ci sono stati anche altre persone del settore sul forum, uno era nAo che ora credo programmi ancora per DICE (se non ha cambiato) e l'italianissimo Fek (direttore tecnico in Crytek fino a qualche anno fa').
Peccato che abbia abbandonato il forum... Sicuramente avrà le sue ragioni. Ormai tra tempo libero e altri progetti, famiglia, morosa ecc ci toccherà che in futuro dobbiamo lavorare per comprare il "tempo".

55AMG
19-08-2016, 22:51
Dai comunque al di la di tutto la 1070 a 400€ netti male non é, parola di fanboy amd!
No non é male hai ragione.
Ma resto dell'idea che dovrebbe stare sui 350, cosí come la 480 sui 250.
Della 1070 non mi fido del supporto nel tempo, e di certe cose che leggo nella discussione ufficiale.

Voglio una degna erede della mia 290!
Che se poi fosse un po'piú fresca e non ci fossero casini vari, un bel CF di 290 non sarebbe malvagio. Pensa che risparmio...

Free Gordon
19-08-2016, 23:13
Dai comunque al di la di tutto la 1070 a 400€ netti male non é, parola di fanboy amd!

Non è disponibile.. :asd: come sempre.

No cmq ormai hanno prezzi vicinissimi ai 400, buono così.

La FuryX a questo punto dovrebbe calare un bel pò, imho..

soulsore
19-08-2016, 23:45
Non so se avete visto i benchmark dell'ultimo Deus Ex ma se fossero veri spero caldamente che AMD si dia una mossa a presentare vega :cry:

http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/dem_1920_11_2.png

Dextroy
19-08-2016, 23:50
Non so se avete visto i benchmark dell'ultimo Deus Ex ma se fossero veri spero caldamente che AMD si dia una mossa a presentare vega :cry:

http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/dem_1920_11_2.png
Che caz di gioco é? Come direbbe qualche noto personaggio. Ottimizzato da macachi che sbattono sulla tastiera.

Inviato dal mio LG-D802 utilizzando Tapatalk

Ren
19-08-2016, 23:58
Non so se avete visto i benchmark dell'ultimo Deus Ex ma se fossero veri spero caldamente che AMD si dia una mossa a presentare vega :cry:

Volevo prendere una 480 proprio per questo gioco, dato che è sponsorizzato AMD.:( (un bel mattone)

http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/dem_1920_11_2.pnghttp://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/dem_1920_12.png

mikael84
20-08-2016, 00:20
Volevo prendere una 480 proprio per questo gioco, dato che è sponsorizzato AMD.:( (un bel mattone)



Ecco che nascono i primi casotti con la coda statica di Maxwell, i tempi di latenza la penalizzano e basta.
Notevole Pascal in dx12 a basse latenze. Però non ci siamo troppo pesante. Già a 1440p è ingiocabile da tutte le soluzioni.:doh:

egounix
20-08-2016, 00:20
Scherzi o trolli? Io dai bench che hai postato vedo che sul confronto singola scheda la furyx va più di una 1070 e la 480 meglio di una 980... Boh

Forse intendeva dire che di questa gen - polaris - non ce n'è una che lo mandi a 60. Bho

Ren
20-08-2016, 00:24
Ecco che nascono i primi casotti con la coda statica di Maxwell, i tempi di latenza la penalizzano e basta.
Notevole Pascal in dx12 a basse latenze. Però non ci siamo troppo pesante. Già a 1440p è ingiocabile da tutte le soluzioni.:doh:

Hanno rimandato la patch dx12 per un motivo. Pare azzoppi di tutto...:doh:

Hai visto anche il lato CPU ?

http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/proz_11_nv.png

Forse intendeva dire che di questa gen - polaris - non ce n'è una che lo mandi a 60. Bho

Anche io ho capito così...;)

Ale55andr0
20-08-2016, 00:25
Notevole Pascal in dx12 a basse latenze. Però non ci siamo troppo pesante. Già a 1440p è ingiocabile da tutte le soluzioni.:doh:

tsk, che fermacarte ste 1080 :O


:D

egounix
20-08-2016, 00:32
Intendeva che se si muovono con la 490 fanno il culo a strisce alla 1070 e in casi limite come questo anche alla 1080 :D

ahhhhh ma nel senso che farà le vecchie schermate a strisce e quadretti delle 79xx :asd: :ciapet:
Ebeh lì saranno trecentogliardi di effepiesse :stordita:
Che bei ricordi le striped screens con le 7950
Quando mi usciva la scacchiera grigia mi chiedevo "ma è skyrim che ha failato per via di qualche mod, o forse ho perso la memoria per qualche istante e non ricordavo di stare a giocare a chess" :stordita:

mikael84
20-08-2016, 00:38
Hanno rimandato la patch dx12 per un motivo. Pare azzoppi di tutto...:doh:

Hai visto anche il lato CPU ?

Anche io ho capito così...;)

Visto, vediamo che ne uscirà fuori. E' però abbastanza normale a quella risoluzione:)

tsk, che fermacarte ste 1080 :O


:D

Tutte qua sono fermacarte. Maxwell non ne parliamo, anche AMD non brilla però in dx12.
Tutte su 1440p fanno penna. Spero che i russi non ci abbiano preso.:)


ahhhhh ma nel senso che farà le vecchie schermate a strisce e quadretti delle 79xx :asd: :ciapet:
Ebeh lì saranno trecentogliardi di effepiesse :stordita:
Che bei ricordi le striped screens con le 7950
Quando mi usciva la scacchiera grigia mi chiedevo "ma è skyrim che ha failato per via di qualche mod, o forse ho perso la memoria per qualche istante e non ricordavo di stare a giocare a chess" :stordita:

Non avvicinarti troppo in dx12 con la 1060 perchè overclocko a morte e ti ribalto :D

Ren
20-08-2016, 00:46
Visto, vediamo che ne uscirà fuori. E' però abbastanza normale a quella risoluzione:)



Tutte qua sono fermacarte. Maxwell non ne parliamo, anche AMD non brilla però in dx12.
Tutte su 1440p fanno penna. Spero che i russi non ci abbiano preso.:)

Speriamo non sia un altro batman\quantum...:mad:

egounix
20-08-2016, 00:48
Visto, vediamo che ne uscirà fuori. E' però abbastanza normale a quella risoluzione:)



Tutte qua sono fermacarte. Maxwell non ne parliamo, anche AMD non brilla però in dx12.
Tutte su 1440p fanno penna. Spero che i russi non ci abbiano preso.:)




Non avvicinarti troppo in dx12 con la 1060 perchè overclocko a morte e ti ribalto :D

Dopo la "gatta" dipartita del sistema con le 780, co sta 1060 spacco tutto!!! Ma va, credo che finirò di nuovo a giocare su bad company 2, dove già la 750 ti era un mostro :asd:

Free Gordon
20-08-2016, 03:59
Volevo prendere una 480 proprio per questo gioco, dato che è sponsorizzato AMD.:( (un bel mattone)

http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/dem_1920_11_2.png[/IMG][IMG]http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/dem_1920_12.png


beh, mi pare che la 480 in dx11 vada bene no? ;)

La versione dx12 per ora è prematura, stanno ancora sistemando il codice...

Raven
20-08-2016, 07:31
Che poi lol la prima titan le busca dalla 280x... Mentre lato multigpu amd ha gia il profilo Nvidia non sembra.

ehhh... l'invecchiamento in botti di rovere di AMD! (cit.) :O

mirkonorroz
20-08-2016, 08:07
Ma poi tutte quelle risorse richieste per fare un gioco color giallo?
A parte gli scherzi la grafica non mi pare tale da giustificare una tale pesantezza.

55AMG
20-08-2016, 08:19
Cioé fanno le schede nuove medie AMD 480 e le top 1070 e 1080, ed un nuovo gioco quasi le stronca giá a 1080P 😅😅😅

Inviato dal mio GT-I9505 utilizzando Tapatalk

N3OM4TR|X
20-08-2016, 08:42
A sembra il classico caso in cui si fraintende il vero problema.
Personalmente non credo proprio che il problema con DeusEx siano Pascal o Polaris, punterei più su un codice che doveva essere ottimizzato da quel ragazzo nuovo, come si chiama? Quello che appena arrivato si è messo in malattia per i prossimi 4 anni!?

Legolas84
20-08-2016, 09:13
Deus EX andrà sicuramente meglio su AMD (come frame medio per lo meno) visto che è sponsorizzato. Il problema però è che mi pare sia un pochino mal programmato se quei test sono reali.

La grafica è carina, ok, ma non giustifica delle prestazioni del genere.... anzi....

e le DX12 paiono deleterie per tutti....

Sicuramente lo giocherò ma molto in la dopo 5 o 6 patch :asd:

soulsore
20-08-2016, 10:07
Scherzi o trolli? Io dai bench che hai postato vedo che sul confronto singola scheda la furyx va più di una 1070 e la 480 meglio di una 980... Boh ↓ Forse intendeva dire che di questa gen - polaris - non ce n'è una che lo mandi a 60. BhoIntendeva che se si muovono con la 490 fanno il culo a strisce alla 1070 e in casi limite come questo anche alla 1080 :DEsattamente questo, se quei bench fossero veritieri la attuale RX480 (e neppure la 1060 probabilmente vista la posizione della 980) non riuscirebbero neppure a gestire un titolo del genere fluidamente a 60fps 1080p, va detto che dovrebbe uscire l'oramai immancabile e classica patch del d1 nonché i driver video aggiornati quindi si spera in quelli, poi c'è da dire che AMD generalmente si comporta meglio delle controparti Nvidia in DX11 (DX12 non le ho prese neppure in considerazione dato che giorni fa avevano detto non essere pronte prima del 5 settembre) quindi con Vega le cose dovrebbero farsi molto interessanti.. quindi, AMD, datti una mossa a presentarla!!! :asd:

P.S. in questo video (https://www.youtube.com/watch?v=02uxM3vyClY) fanno vedere le differenze grafiche tra basso, medio, alto e ultra..

fraussantin
20-08-2016, 12:08
Deus EX andrà sicuramente meglio su AMD (come frame medio per lo meno) visto che è sponsorizzato. Il problema però è che mi pare sia un pochino mal programmato se quei test sono reali.

La grafica è carina, ok, ma non giustifica delle prestazioni del genere.... anzi....

e le DX12 paiono deleterie per tutti....

Sicuramente lo giocherò ma molto in la dopo 5 o 6 patch :asd:
Speriamo almeno sia bello il gioco.

Quello vecchio non era malaccio. (lontano 1000miglia dal vero deus cmq)


Anche per un ritorno economico ad amd e square. ( hitman fa veramente cagare...)

Legolas84
20-08-2016, 12:18
Si diciamo che le scelte dei giochi sponsorizzati di AMD di solito sono buchi nell'acqua... ma Deus EX Human Revolution a me è piaciuto quindi ci spero ;)

55AMG
20-08-2016, 12:21
Dirt Rally mi pare sia sponsorizzato AMD.
Ed é super 😉

Inviato dal mio GT-I9505 utilizzando Tapatalk

Lunar Wolf
20-08-2016, 12:26
E come dicevo ecco il nuovo AAA e non maxi più con nessuna scheda, nemmeno quella pagata 800 sacchi a maggio. QED.

Sent from Tapatalk
Per me è stato scritto coi piedi oppure le due case dovranno rilasciare un driver aggiornato.

Dextroy
20-08-2016, 12:32
Scritto punzecchiando sulla tastiera con le chiappe.

Inviato dal mio LG-D802 utilizzando Tapatalk

Legolas84
20-08-2016, 13:21
Puo' essere, nel frattempo non lo maxi con nessuna scheda sul mercato a meno di non aver speso 1300EUR nella vga per giocare in 1080P...
Va be ma scusa che significa? Non è mica una bella cosa che i programmatori si mettano a fare schifezze simili... Comunque ho visto i grafici in 1440p e sembra che con lo SLI di 1080 sia giocabile anche così (i frame non variano molto dal 1080p).

La mia speranza è che ci sia una qualche opzione del cavolo ammazza frame che una volta disabilitata renda il gioco utilizzabile su tutte le configurazioni...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Legolas84
20-08-2016, 14:01
Era un discorso iniziato su un altro thread riguardo al maxare. Non sono un fanatico sull'argomento (tutt'altro, guarda la firma) ma volevo sottolineare come l'acquisto sia sempre un salto nel buio, soprattutto per chi ha la fissa del maxare.

Sicuramente c'è qualcosa che spezza le prestazioni oltremodo, ma "maxo tutto escluso X" non è maxare, è scendere a compromessi

Sent from Tapatalk

Maxare inteso in questo senso è più una malattia che una fissa :D

Poi ovvio che si giochi molto meglio con una 1080 in 1440p che in 1080p su una 1060.... ;)

Ale55andr0
20-08-2016, 15:46
al momento le dx12 non sono neanche veramente funzionali, hanno detto che deve uscire una patch dedicata a settembre

mirkonorroz
20-08-2016, 17:18
nel frattempo buone notizie, forse!

http://www.tweaktown.com/news/53506/directx-12-vulkan-support-way-cryengine/index.html

C'e' scritto che supporta anche PhysX. Pero' mi sembrava che gia' il primo motore non se la cavasse affatto male con la fisica (almeno quella rigid-body)

Legolas84
20-08-2016, 17:20
Epic mi pare punti sempre a supportare più cose possibili a 360°.....

dado1979
20-08-2016, 17:26
Non so se avete visto i benchmark dell'ultimo Deus Ex ma se fossero veri spero caldamente che AMD si dia una mossa a presentare vega :cry:

http://gamegpu.com/images/stories/Test_GPU/Action/Deus_Ex_Mankind_Divided_/test/dem_1920_11_2.png
Perfettamente... il contrario di quello che hai affermato... l'esatto contrario.

dado1979
20-08-2016, 17:27
Deus EX andrà sicuramente meglio su AMD (come frame medio per lo meno) visto che è sponsorizzato. Il problema però è che mi pare sia un pochino mal programmato se quei test sono reali.

La grafica è carina, ok, ma non giustifica delle prestazioni del genere.... anzi....

e le DX12 paiono deleterie per tutti....

Sicuramente lo giocherò ma molto in la dopo 5 o 6 patch :asd:
Anche io lo compro a Natale a 20 euro.

mirkonorroz
20-08-2016, 17:33
Epic mi pare punti sempre a supportare più cose possibili a 360°.....

Non capisco, il cryengine e' diventato di epic?

Ren
20-08-2016, 18:11
in questo video (https://www.youtube.com/watch?v=02uxM3vyClY) fanno vedere le differenze grafiche tra basso, medio, alto e ultra..

La modalità "ultra" dimezza spesso il framerate su una 980ti.

La solita modalità ultra fatta con i piedi.

Allarme rientrato...:)

fraussantin
20-08-2016, 18:21
Ma c'è un effetto ammazza frame ( del tipo xxxworks:asd:) oppure anche a grafica modesta cala a quel modo?

Ale55andr0
20-08-2016, 18:30
nel frattempo buone notizie, forse!

http://www.tweaktown.com/news/53506/directx-12-vulkan-support-way-cryengine/index.html

era ovvio che lo supportassero, all'epoca hanno stretto una partnership con amd per mantle, il punto è quanti game useranno quell'engine

Ale55andr0
20-08-2016, 19:00
che poi sta partnership con mantle non si è mai vista nei fatti... amd ci è arrivata ugualmente con vulkan senza dover più (presumibilmente) pagare per la partnership..

come no? secondo te perchè hanno deciso di supportare DX12 E vulkan? :asd:

Free Gordon
20-08-2016, 22:46
P.S. in questo video (https://www.youtube.com/watch?v=02uxM3vyClY) fanno vedere le differenze grafiche tra basso, medio, alto e ultra..


Praticamente l'high è indistinguibile dall'Ultra... e raddoppia il frame rate.... :asd:

Cmq la grafica è decisamente bella..

Ale55andr0
20-08-2016, 22:57
da ultra ad high cambia quasi niente, da medium in giu le texture perdono dettaglio. Bisognerebbe vedere a livello di effettistica che cambia

fraussantin
21-08-2016, 08:02
http://i.imgur.com/IIWAtRb.jpg

queste cose mi fanno incazzare. spero sincerament eche si possa adottare un antialiasing meno invasivo e più efficace. altrimenti lo tengo senza.


per l'ultra inutile , non lo posso giudicare.. non avendo uno schermo 4k di grandi dimensioni ( e soprattutto essendo il video in 1080p:asd:) non posso vedere se ci sono reali differenze.

dovremo aspettare qualcuno più attrezzato

55AMG
21-08-2016, 08:02
Ultra é fatto per far cambiare le schede o per farne aggiungere un'altra in CF! 😅
Serve a poco/niente come resa visiva.
Non cascateci! 😀

Buondí ragazzi 😉

Inviato dal mio GT-I9505 utilizzando Tapatalk

mirkonorroz
21-08-2016, 08:06
Se la texture di partenza o quelle del MIP map e' fatta male anche il miglior antialiasing non puo' indovinare lo shape originale e quindi addolcira' uno shape irregolare che rimarra' irregolare.
Idem per le ombre. Se le ombre sono campionate con pixel enormi e pochi, hai voglia ad abbatterne le scalette (mantenendo il contrasto)

Ale55andr0
21-08-2016, 08:46
tutto tace, tutto è quieto, un piccolo fulmine a ciel sereno e ripiomba tutto nel silenzio :O

Legolas84
21-08-2016, 08:49
Non capisco, il cryengine e' diventato di epic?

Nono cavolo... ho letto male, mi pareva fosse Unreal Engine invece è CryEngine....

Comunque speriamo venga adottato maggiormente rispetto al passato...

Raven
21-08-2016, 09:06
tutto tace, tutto è quieto, un piccolo fulmine a ciel sereno e ripiomba tutto nel silenzio :O

poeta!... :O

N3OM4TR|X
21-08-2016, 09:13
Nono cavolo... ho letto male, mi pareva fosse Unreal Engine invece è CryEngine....

Comunque speriamo venga adottato maggiormente rispetto al passato...

UE4(.12) già lo supporta Vulkan. Ovviamente è un work in progress, ma lo supporta.

EDIT: Meglio specificare, attualmente supporta la mobile path dell'SDK

Ale55andr0
21-08-2016, 09:18
poeta!... :O

lo so, ero ispirato :O

Ale55andr0
21-08-2016, 09:20
....raga ma ce lo danno half life 3 in bundle con vega vero? il due era sponsorizzato AMD :read:

Lunar Wolf
21-08-2016, 09:34
Se aspetti half life 3 con Vega allora stai al fresco per tanti anni mi sa XD

Free Gordon
21-08-2016, 10:32
per l'Ultra inutile , non lo posso giudicare..

Ma certo che si può giudicare... :)

La stra-grande maggioranza dei giochi è nella stessa situazione.

Le impostazioni Ultra sono quasi sempre "ammazza-frame-rate-inutili" e sono fatte ad hoc nel passaggio console ---> pc per giustificare la spesa di centinaia (migliaia) di € su configurazioni altrettanto inutili.. :asd:

Questo gioco non fa' eccezione anzi, pare essere uno dei peggiori (frame rate dimezzati..) :D

Ale55andr0
21-08-2016, 10:33
Se aspetti half life 3 con Vega allora stai al fresco per tanti anni mi sa XD

dici? :O

Free Gordon
21-08-2016, 10:36
....raga ma ce lo danno half life 3 in bundle con vega vero? il due era sponsorizzato AMD :read:

Io ho letto che HL3 uscirà in bundle col refresh di Polaris, a Luglio 2017.. ;)

devil_mcry
21-08-2016, 10:52
Io onestamente non credo che uscirà mai un HL3, sono passati troppi anni... Inoltre che fine ha fatto HL2 Episode 3? Perché Valve nel 2006 aveva annunciato l'uscita di quello che non è mai arrivato... Figuriamoci con il 3 mai annunciato ufficialmente

Di certo la trollata del gamescom è stata bellissima ma...

Ale55andr0
21-08-2016, 11:37
Io onestamente non credo che uscirà mai un HL3, sono passati troppi anni...

ma l'ironia è stata colta o credevi che stessi davvero ipotizzando il bundle con half life 3? :sofico:

Legolas84
21-08-2016, 12:45
Hl3 uscirà in bundle con la 3dfx Rampage (o Voodoo 6 che dir si voglia)....

Inviato dal mio ONE A2003 utilizzando Tapatalk

Free Gordon
21-08-2016, 12:58
ma l'ironia è stata colta o credevi che stessi davvero ipotizzando il bundle con half life 3? :sofico:


:asd:

Valve fa un pacco di soldi con Steam... chi glielo fa fare di sviluppare un gioco??

Cmq...imho HL3 arriverà solo QUANDO e SE HTC vive prenderà piede... Oppure faranno una versione per tutti i visori principali, ma ci vorrà ancora più tempo..

fraussantin
21-08-2016, 13:00
ma l'ironia è stata colta o credevi che stessi davvero ipotizzando il bundle con half life 3? :sofico:
:asd:


Ero già andato a comprare le azioni da dethroma

Lunar Wolf
21-08-2016, 13:23
dici? :O
Ce caso che esce hl3 piuttosto che Vega ;)

Lunar Wolf
22-08-2016, 10:52
AMD Announces New Silicon Valley Headquarters Location (http://www.amd.com/en-us/press-releases/Pages/amd-announces-new-2016aug19.aspx)

Korn
22-08-2016, 11:22
:asd:

Valve fa un pacco di soldi con Steam... chi glielo fa fare di sviluppare un gioco??

Cmq...imho HL3 arriverà solo QUANDO e SE HTC vive prenderà piede... Oppure faranno una versione per tutti i visori principali, ma ci vorrà ancora più tempo..mi domando perchè non faccia entrambe le cose, EA mi pare ci riesca bene...

dado1979
22-08-2016, 12:05
mi domando perchè non faccia entrambe le cose, EA mi pare ci riesca bene...
EA riesce a fare i soldi molto bene... fare dei bei giochi non mi pare.

Ale55andr0
22-08-2016, 12:10
AMD Announces New Silicon Valley Headquarters Location (http://www.amd.com/en-us/press-releases/Pages/amd-announces-new-2016aug19.aspx)

interessante :)

..quindi vega esce il? :oink:

Korn
22-08-2016, 12:13
EA riesce a fare i soldi molto bene... fare dei bei giochi non mi pare.

hanno i dice mi basta quello :)

Lunar Wolf
22-08-2016, 12:24
interessante :)

..quindi vega esce il? :oink:
No lì i dipendenti giocono col kinect e hanno l'area caffè.

PConly92
22-08-2016, 12:27
:asd:

Valve fa un pacco di soldi con Steam... chi glielo fa fare di sviluppare un gioco??

Cmq...imho HL3 arriverà solo QUANDO e SE HTC vive prenderà piede... Oppure faranno una versione per tutti i visori principali, ma ci vorrà ancora più tempo..

HL 3 non uscirà mai secondo me.. anche perché se esce deve portare con se delle belle innovazioni!! e non sto parlando di realtà virtuale bensì fisica\interazione e intelligenza artificiale ai massimi livelli :sofico:
valve non può fare un passo falso con HL!!!

Forum Rift
22-08-2016, 13:08
HL 3 non uscirà mai secondo me.. anche perché se esce deve portare con se delle belle innovazioni!! e non sto parlando di realtà virtuale bensì fisica\interazione e intelligenza artificiale ai massimi livelli :sofico:
valve non può fare un passo falso con HL!!!

esatto!

ormai l'aspettativa è troppo alta.

mircocatta
22-08-2016, 13:20
Ma da quand'è che deus ex et un fps?

dado1979
22-08-2016, 13:34
Ma da quand'è che deus ex et un fps?
Mmmhh... Da quando è stato creato?

S3lfman
22-08-2016, 14:16
seguo

GvN82^^
22-08-2016, 14:30
HL 3 non uscirà mai secondo me.. anche perché se esce deve portare con se delle belle innovazioni!! e non sto parlando di realtà virtuale bensì fisica\interazione e intelligenza artificiale ai massimi livelli :sofico:
valve non può fare un passo falso con HL!!!

Però lasciarci con un cliffhanger del genere dopo ep. 2 è da sadici! :cry:

fraussantin
22-08-2016, 18:16
L'AA non genera blur... cioè l'AA vero non le fesserie che usano adesso :D
L'unico aa che non blurra è il supersampling o come si chiama.

Ma è pesantissimo.

Gli altri un po più o un po meno blurrano tutti.

Certo le porcherie nvidia-temporali sono inguardabili . E anche questo non scherza.

fraussantin
22-08-2016, 18:36
Scusa ma MSAA non dovrebbe blurrare o sbaglio?
Alla fine è come il supersampling ma solo dove serve.

Le cose vecchie sono le migliori :O
Non sono sicuro sia il supersampling quello pulito perché con queste sigle e nomi non ci ho mai capito niente , intendo quello che alza la risoluzione di rendering.
ma quello vecchio 2x 4x 8x ecc se calcavi troppo la mano i contorni perdevano di nitidezza.

Poi dipende molto dalla dimensione del monitor \ risoluzione.

Per dire sul vecchio portatile 1080p 15" era molto meglio non attivare nessun AA.

Sul 22" sempre full hd almeno un 4x va messo. Ma la senzazione di sfumatura c'è sempre . ( anche se minore)


Poi l'effetto" ho lasciato gli occhiali a casa" di altri è assurdo.

Ale55andr0
22-08-2016, 19:08
Non sono sicuro sia il supersampling quello pulito perché con queste sigle e nomi non ci ho mai capito niente , intendo quello che alza la risoluzione di rendering.


è proprio quello, l'SSAA lo ha metro 2033/last light, se lo metti a 2x a 1080p sparisce ogni minima scalettatura