PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 [34] 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346

Catan
13-08-2014, 11:47
dipende, credo che la vga nascerà per prendere la fascia dei 180-200€ dove attualmente amd ha poco o nulla, se non le 280 lisce. Abbassando il costo di produzione ( del chip vista la semplificazione del controller di memoria, che presumo adesso sia sulla falsariga di quello di hawaii solo dimezzato, sia del pcb, sia dell'aver tagliato 1 gb di vram) recuperano parte della potenza mettendo 2048 sp contro i 1756 della 280 lisce.
In caso non mi stupirei nemmeno se fanno uscire una versione con 1756 sp e una con 2048 da distanziarsi come fascia di prezzo di quei 30€.
Certo io l'avrei chiamata più 275 che non 285, cmq vedremo le recensioni, come ho detto l'aspetto con ansia, potrebbe essere la vga perfetta per finire dentro l'itx gaming che sto pensando di fare.

Athlon 64 3000+
13-08-2014, 12:27
La versione di Tonga con 2048 SP e bus a 256 bit sono curioso di vedere come andrà rispetto alla HD 7970 ghz Edition sia a livello di prestazioni che di consumi.
E' vero che avrà il bus minore,ma avrà dalla sua le unità di tesselazione raddoppiate e altre novità architetturali che magari rendono l'eventuale 285x leggermente più veloce della 7970.

smoicol
14-08-2014, 11:36
La versione di Tonga con 2048 SP e bus a 256 bit sono curioso di vedere come andrà rispetto alla HD 7970 ghz Edition sia a livello di prestazioni che di consumi.
E' vero che avrà il bus minore,ma avrà dalla sua le unità di tesselazione raddoppiate e altre novità architetturali che magari rendono l'eventuale 285x leggermente più veloce della 7970.

beh al 99% sarà cosi, diciamo che se và un 5% più forte di una hd7970 o r9 280x è già un ottimo risultato, però girando in rete e leggendo diverse info mi son chiesto ......ma vuoi che sti furboni di amd e pure nvidia con questa storia dell'unificazione delle process unit ci danno lo stesso chip della generazione precedente solo migliorato? a quanto pare è cosi ovviamente renderà di più, ma a che prezzo tutto ciò? e poi siamo sicuri che il 20nm o 16nm che sia, non sarà altro che lo stesso chip ridimensionato? insomma ci rivenderanno ancora lo stesso e sono tre, spero che non sia cosi.

Caterpillar_WRT
14-08-2014, 12:02
E' proprio così purtroppo. Le vere novità arriveranno solo quando sarà pronto il prossimo processo produttivo.
Fino ad allora possono fare solo il gioco delle 3 carte ... :rolleyes:

Ale55andr0
14-08-2014, 12:31
La versione di Tonga con 2048 SP e bus a 256 bit sono curioso di vedere come andrà rispetto alla HD 7970 ghz Edition sia a livello di prestazioni che di consumi.
E' vero che avrà il bus minore,ma avrà dalla sua le unità di tesselazione raddoppiate e altre novità architetturali che magari rendono l'eventuale 285x leggermente più veloce della 7970.

le unità tesselletor fanno la differenza solo in dx11 e solo se, appunto, si usa il relativo effetto... per il resto, non vedo come possa essere più veloce a meno di non giocare col clock. Di novità sostanziali all'architettura che fanno andare più veloce una gpu a pari clock e unità elaborative AMD ancora non ne ha mostrate manco mezza, al contrario di nvidia che le cose le ha messe bene in chiaro con la 750 che, nonstante il ridotto bus e il pp a 28nm, lascia presagire che le prossime top verdi andranno a cannone e saranno molto efficienti...potrei sbagliare, ma AMD mi da la sensazione di voler (ri)proporre il solito GCN xxx (che a l'atto pratico cambia poco e niente) con il solo refresh del pp e maggiori unità elaborative...se ci va ben si decideranno a usare le memorie HBM

Foglia Morta
14-08-2014, 19:37
le unità tesselletor fanno la differenza solo in dx11 e solo se, appunto, si usa il relativo effetto... per il resto, non vedo come possa essere più veloce a meno di non giocare col clock. Di novità sostanziali all'architettura che fanno andare più veloce una gpu a pari clock e unità elaborative AMD ancora non ne ha mostrate manco mezza, al contrario di nvidia che le cose le ha messe bene in chiaro con la 750 che, nonstante il ridotto bus e il pp a 28nm, lascia presagire che le prossime top verdi andranno a cannone e saranno molto efficienti...potrei sbagliare, ma AMD mi da la sensazione di voler (ri)proporre il solito GCN xxx (che a l'atto pratico cambia poco e niente) con il solo refresh del pp e maggiori unità elaborative...se ci va ben si decideranno a usare le memorie HBM

Ti fai queste idee perchè vedi solo quel che ti pare , beema e mullins sono due chiari esempi concreti di ciò che hanno fatto per migliorare l' efficienza a parità di processo produttivo , fare distinzione tra apu e gpu in questo caso non ha senso... le cose escono quando sono pronte e da quando sono usciti beema e mullins di gpu non ne sono uscite e il fatto che ne escano di nuove a parità di processo produttivo indica proprio il fatto che ci siano sviluppi per ottenere di più a parità di risorse. Avevano anche pubblicato una roadmap su come evolveranno le proprietà intellettuali ( quindi al di là del processo produttivo ) per migliorare l' efficienza.


Novità riguardo Mantle : http://techreport.com/news/26922/amd-hopes-to-put-a-little-mantle-in-opengl-next

da Marzo a pochi mesi fa erano 47 gli sviluppatori che ci lavoravano e ora sono 75 , AMD "invita" il Khronos group a ispirarsi a Mantle per le OpenGL NG

e: http://techreport.com/news/26919/freesync-monitors-will-sample-next-month-start-selling-next-year

monitor freesync sul mercato all' inizio del 2015 , l' aggiunta della feature dovrebbe comportare 20 dollari di costo extra.

Foglia Morta
15-08-2014, 05:13
http://semiaccurate.com/2014/08/14/amds-fiji-gpu-not-arriving-soon-enough/

AMD’s Fiji GPU not arriving soon enough
Three years later than planned but finally here

It looks like AMD’s upcoming Fiji has something fun, something that will provide some very interesting numbers. While it won’t be here for a while, SemiAccurate is looking forward to testing Fiji.




Una vecchia roadmap indicava Tiran ( stacked die ) per fine 2011 , 3 anni dopo quindi fine 2014 Fiji.

http://i.imgur.com/Lp6XJJYl.jpg

Ale55andr0
15-08-2014, 13:02
Ti fai queste idee perchè vedi solo quel che ti pare , beema e mullins sono due chiari esempi concreti di ciò che hanno fatto per migliorare l' efficienza a parità di processo produttivo

beh, io parlo delle gpu, e beema e mullins hanno dei minuscoli core grafici che son sempre GCN...ovvio che se usi appena 128sp (e non parliamo di quanti TM e rops che saranno numeri da ridere...) a bassa frequenza consumi un botto meno, ma così non hai migliorato l'efficienza, hai ridotto i consumi segando le prestazioni che è diverso. Gli altri miglioramenti che permettono una migliore efficenza lato gpu (-38% di dispersione di corrente sui transistor grafici) non sono attribuibili ad AMD ma a chi ha affinato l'attuale pp...positivo senza dubbio, ma non è merito di AMD, che non ha fonderie da tempo
Mi dovresti piuttosto far vedere invece che modifiche apporterà AMD a GCN per farla consumare meno e allo stesso tempo andare di più forte a pari mm^2 e pp come fa maxwell, ovvero cosa proporrà AMD come nuova (??) architettura. Io ad oggi non la vedo rosea semplicemente perchè dacchè le AMD eran le più efficienti, ma andando un pelo meno, la situazione si è ribaltata, con la differenza che la concorrenza oltre a consumar meno va un pelo più, prendendo ad esempio i propri prodotti di punta. Inoltre tutto questo partendo da un vantaggio temporale che AMD aveva sull'allora nuovo pp a 28nm...ora, dal momento che AMD ha solo presentato gpu più potenti, ma non più efficienti sullo stesso pp (290/290x) e dal momento che di certo non hanno fottiliardi da spendere in ricerca e sviluppo (altrimenti sul lato cpu non avrebbero praticamente alzato bandiera bianca...) è ovvio che due conti me li faccio, poi possono pure essere sbagliati, ma non sono certo campati per aria ma su fatti concreti e sotto l'occhio di tutti. Ad oggi nvidia ha già buttato fuori la nuova architettura lanciando un chiaro messaggio, mentre AMD ancora non mostrato un cappero e i numeri delle future 390, MI lasciano più pensare ad un refresh di GCN con "più cv nel motore" piuttosto che a una nuova "rivoluzionaria" architettura

Foglia Morta
15-08-2014, 15:18
beh, io parlo delle gpu, e beema e mullins hanno dei minuscoli core grafici che son sempre GCN...ovvio che se usi appena 128sp (e non parliamo di quanti TM e rops che saranno numeri da ridere...) a bassa frequenza consumi un botto meno, ma così non hai migliorato l'efficienza, hai ridotto i consumi segando le prestazioni che è diverso. Gli altri miglioramenti che permettono una migliore efficenza lato gpu (-38% di dispersione di corrente sui transistor grafici) non sono attribuibili ad AMD ma a chi ha affinato l'attuale pp...positivo senza dubbio, ma non è merito di AMD, che non ha fonderie da tempo
Mi dovresti piuttosto far vedere invece che modifiche apporterà AMD a GCN per farla consumare meno e allo stesso tempo andare di più forte a pari mm^2 e pp come fa maxwell, ovvero cosa proporrà AMD come nuova (??) architettura. Io ad oggi non la vedo rosea semplicemente perchè dacchè le AMD eran le più efficienti, ma andando un pelo meno, la situazione si è ribaltata, con la differenza che la concorrenza oltre a consumar meno va un pelo più, prendendo ad esempio i propri prodotti di punta. Inoltre tutto questo partendo da un vantaggio temporale che AMD aveva sull'allora nuovo pp a 28nm...ora, dal momento che AMD ha solo presentato gpu più potenti, ma non più efficienti sullo stesso pp (290/290x) e dal momento che di certo non hanno fottiliardi da spendere in ricerca e sviluppo (altrimenti sul lato cpu non avrebbero praticamente alzato bandiera bianca...) è ovvio che due conti me li faccio, poi possono pure essere sbagliati, ma non sono certo campati per aria ma su fatti concreti e sotto l'occhio di tutti. Ad oggi nvidia ha già buttato fuori la nuova architettura lanciando un chiaro messaggio, mentre AMD ancora non mostrato un cappero e i numeri delle future 390, MI lasciano più pensare ad un refresh di GCN con "più cv nel motore" piuttosto che a una nuova "rivoluzionaria" architettura

beema e mullins hanno i core grafici che hanno kabini e temash ed è con quello che devi paragonare l' efficienza e i risultati sono ottimi... se non lo vuoi vedere io tempo non ne perdo perchè tanto è una causa persa , la roadmap sulle proprietà intellettuali anche quella non la posto per lo stesso motivo di prima... la puoi trovare facilmente da solo , se vuoi .
I numeri della future 390 quali sarebbero a tuo dire ? Perchè oltre alla slide di Synapse che postai tempo fa e che intuitivamente può far pensare a oltre 80 CU altro non ricordo , ma se il " + di 80 " si riferisse veramente al numero di CU allora è implicito un importante aumento dell' efficienza energetica perchè lo standard PCI-E ( che tutte le schede single gpu reference rispettano che io ricordi , watt più o watt meno ) stabiliscono un TDP che deve restare entro i 300 W .

francisco9751
15-08-2014, 15:41
ma poi che cambi se una scheda consuma 50W in più o in meno,non lo capirò mai..a questi livelli,quello che contano sono le performance..anche perchè scusate,spendete 500 euro di gpu e vi lamentate di 50W,sapete quanto vi costa in più all'anno questi 50W???mi sembrate come quelli che si comprano gli iphone a 800 euro e poi fanno il jailbreak per scaricarsi le app:muro: :muro: :muro:

Ale55andr0
15-08-2014, 16:27
ma poi che cambi se una scheda consuma 50W in più o in meno,non lo capirò mai..

cambia che hai più margine proprio per spremere altra potenza o decidere di avere comunque una buona performance mantenendo consumi e calore entro un certo limite. Se decidi per l'altoforno, ovvero per cavar fuori tutto il possibile, quantomeno avrai comunque un vantaggio rispetto a chi è più impiccato di te in efficienza.
non ho parlato di soldi e bollette...io ragiono in termini di prestazione esprimibile, e consumare meno ti da vantaggi anche in quel frangente.

s12a
15-08-2014, 16:32
A me risparmiare 20-25 watt in idle perché voglio mantenere la seconda uscita video attiva (e non ogni volta fare switch ad uscita singola, con tutto quello che ne consegue dal punto di vista del window management), con una scheda di fascia media farebbe comodo, e non sono 500 euro.

http://tpucdn.com/reviews/ASUS/GTX_750_Ti_OC/images/power_multimon.gif

Notare dove sono posizionate le varie Radeon.

Foglia Morta
15-08-2014, 16:36
http://www.amd.com/en-us/press-releases/Pages/amd-to-celebrate-2014aug14.aspx

AMD to Celebrate 30 Years of Graphics and Gaming in Live Webcast

Festivities to be commemorated with special guests, never-before-heard stories and new product announcements​

AMD (NYSE: AMD) today announced that it will webcast its 30 Years of Graphics and Gaming commemoration, hosted by AMD’s Chief Gaming Scientist, Richard Huddy on Saturday, Aug. 23, 2014 at 10:00 AM EDT (9:00 AM CDT/7:00 AM PDT).

Additionally, viewers will also be able to access the live broadcast on the AMD Twitch channel at twitch.tv/amd. A replay of the webcast will be accessible on the AMD YouTube channel.

belta
15-08-2014, 22:33
cioè la mia 580 si frega 100 watt quando attivo il secondo monitor (tv lcd) ? ma all'anima de li mortacci loro

s12a
15-08-2014, 23:06
cioè la mia 580 si frega 100 watt quando attivo il secondo monitor (tv lcd) ? ma all'anima de li mortacci loro

Considerato che una GTX 570 per esperienza personale su un altro PC non è troppo lontana da quei valori non appena si attiva l'uscita video verso il secondo monitor (basta che sia connesso, non serve neanche accenderlo), direi che è verosimile. Le Geforce GTX5xx non brillavano da questo punto di vista. Le successive però hanno colmato completamente il gap.

Foglia Morta
16-08-2014, 05:18
http://www.dsogaming.com/news/ryse-son-of-rome-will-support-amds-mantle-api/

Ryse: Son of Rome su pc supporterà Mantle , trattasi di Cryengine quindi mi aspetto che anche Evolve , Arena of Fate e Hunt: Horrors of the Gilded Age lo supporteranno

Ale55andr0
16-08-2014, 10:09
me lo aspettavo anch'io. Mi chiedo piuttosto se crytek, visti i recenti problemi finanziari, continuerà a realizzare giochi ed engine 3d: in futuro, l'ipotetico mancato supporto a mantle di engine che sono fra i più avanzati tecnicamente, sarebbe un bel peccato, l'accordo con crytek era/è una bel colpo per AMD. Spero che almeno continuino a realizzare motori grafici da concedere su licenza (coi giochi veri e propri non sono propriamente degli assi :D), visto che da quanto ho letto in giro a momenti sono diventati una sorta di distributore :what:

capitan_crasy
18-08-2014, 09:54
Un Twitter AMD india pubblicato poi rimosso...

http://i.imgur.com/gAABckE.jpg

Clicca qui... (http://translate.google.com/translate?hl=it&sl=es&tl=en&u=http%3A%2F%2Fwww.chw.net%2F2014%2F08%2Famd-anunciara-nuevos-gpus-el-23-de-agosto-de-este-ano%2F&sandbox=1)

Foglia Morta
18-08-2014, 10:42
Un Twitter AMD india pubblicato poi rimosso...

[IMG]http://i.imgur.com/gAABckE.jpg[IMG]

Clicca qui... (http://translate.google.com/translate?hl=it&sl=es&tl=en&u=http%3A%2F%2Fwww.chw.net%2F2014%2F08%2Famd-anunciara-nuevos-gpus-el-23-de-agosto-de-este-ano%2F&sandbox=1)

C' è il link direttamente al sito AMD : http://hwupgrade.it/forum/showpost.php?p=41410622&postcount=8424

fare un tweet e poi rimuoverlo quando sul sito aziendale se ne parla già... c' è gente strana al mondo :D

Ale55andr0
18-08-2014, 10:45
oddio 30 anni di "leadership" è un po' come cantarsela e suonarsela da soli :sofico:, posto che poi AMD non si occupa da 30 anni di gpu :Prrr:

ad ogni modo, l'esplicito riferimento al settore video lascia ben sperare che si tratti di un annuncio relativo a quel settore :)

capitan_crasy
18-08-2014, 11:12
C' è il link direttamente al sito AMD : http://hwupgrade.it/forum/showpost.php?p=41410622&postcount=8424

fare un tweet e poi rimuoverlo quando sul sito aziendale se ne parla già... c' è gente strana al mondo :D

:ops: non lo visto...

s12a
18-08-2014, 12:00
Probabilmente avrà a che fare anche con OpenCL 2.0, mi sembra di aver letto che avrebbero rilasciato un SDK nei prossimi mesi.

Fantomatico
18-08-2014, 12:18
http://www.dsogaming.com/news/ryse-son-of-rome-will-support-amds-mantle-api/

Ryse: Son of Rome su pc supporterà Mantle , trattasi di Cryengine quindi mi aspetto che anche Evolve , Arena of Fate e Hunt: Horrors of the Gilded Age lo supporteranno

Ottimo!

Secondo voi uscirà a breve entro qualche mese, o verso fine anno?

Foglia Morta
18-08-2014, 12:37
Ottimo!

Secondo voi uscirà a breve entro qualche mese, o verso fine anno?

hanno scritto autunno 2014

ghiltanas
18-08-2014, 12:42
C' è il link direttamente al sito AMD : http://hwupgrade.it/forum/showpost.php?p=41410622&postcount=8424

fare un tweet e poi rimuoverlo quando sul sito aziendale se ne parla già... c' è gente strana al mondo :D

quasi quasi lo pubblico sulla pagina italiana :asd:

Vul
18-08-2014, 12:44
Dati il bus a 256bit e i 2gb di vram, mi pare che sostituisca la 270 e non la 280.
Che abbia prestazioni superiori alla 280 con 3gb e bus a 384bit mi pare difficile.

Se cambia architettura, perchè no?

appleroof
18-08-2014, 13:10
oddio 30 anni di "leadership" è un po' come cantarsela e suonarsela da soli :sofico:, posto che poi AMD non si occupa da 30 anni di gpu :Prrr:

ad ogni modo, l'esplicito riferimento al settore video lascia ben sperare che si tratti di un annuncio relativo a quel settore :)

Bè JHH negli anni 80 lavorava ad AMD :ops2:

Ok fuor di battutone credo si tratti di Tonga consumer, salvo clamorose sorprese...

Ale55andr0
18-08-2014, 16:23
fare un annuncio in pompa magna per parlare di tonga alias R9 285 sarebbe deludente

c'è da attaccarsi a quel "what's next" per sperar di vedere cosa vogliono buttar fuori in futuro

francisco9751
18-08-2014, 16:28
dubito sia tonga,almeno lo spero per loro..con nvidia che presenterà le maxwell a settembre..spero che abbiano qualcosa in serbo..sennò si tagliano le gambe da sole..anche se a prescindere da tutto salterò questo giro..rimanendo con la mia 7950 :D
devo dire che con la serie 7000 AMD ci abbia azzeccato in pieno..spero si ripetano anche con la prossima serie :D

appleroof
18-08-2014, 17:38
Bè rumors di una nuova flagship parlavano di Hawaii xtx con più di 3000sp se ricordo bene, ma risalgono a qualche settimana fa poi non se n'è più parlato mentre Tonga rappresenta l'ultima novità, e al di fuori di queste due ipotesi di altro se non mi è sfuggito nulla direi che non si è parlato... Non saprei stiamo a vedere... :boh:

Foglia Morta
18-08-2014, 18:50
l' hawaii xtx proviene da gente che è o sottosviluppata o scrive tanto per attirare dei click... era già stato confermato mesi fa che hawai ha 44 CU e basta. Prima arriva Tonga ( che dovrebbe essere volcanic islands ), poi Fiji ( la nuova top di gamma ).

appleroof
19-08-2014, 21:09
videocardz.com/51246/amd-unveil-radeon-r9-285-august-23rd

appleroof
20-08-2014, 07:17
http://wccftech.com/amd-radeon-r7-250-xe-gpu-1gb/

s12a
20-08-2014, 11:51
http://pc.watch.impress.co.jp/docs/news/20140820_662736.html
http://www.overclockers.ru/hardnews/63129/V_Yaponii_zamecheny_videokarty_Radeon_R7_250XE.html

Sembra sia una nuova versione low profile/ 1 slot

http://i.imgur.com/ejUAlkb.jpg

http://www.itmedia.co.jp/pcuser/articles/1408/20/news085.html

http://i.imgur.com/gpSPS2v.jpg

http://i.imgur.com/mnLmdn6.jpg

appleroof
21-08-2014, 13:31
videocardz.com/51251/amd-radeon-r9-285-arrives-september-2nd-preliminary-information-2-days

HORN
21-08-2014, 15:21
La scheda R9 290 TurboDuo diffettosa stamatina rimandato al Shop Bp... Pow.... a Torino
Loro Riguardano cosa possono fare, e mi vongono incontro magari con Buono d´Aquisto, oppure se NON possibile prendo la Club 3D RoyalAce a 309 Euro...

Un altra Turboduo NON mi interessa piu´ perche´ sono stato deluso piu´ di tanto. Aspettare le nuove AMD sarebbe anche un alternativa, dopo Tonga arrivano i Fiji, oppure una R9 295 (simile al R9 295_X2)

appleroof
21-08-2014, 19:44
Un po' di dettagli in più su Tonga, interessante il dato secondo il quale la 285x dovrebbe andare come la 280x ma con tdp sotto i 200w contro i 250w di tahity xt ovviamente sempre a parità di pp (Tonga pro addirittura sui 150w), non credo si possa parlare di architettura nuova come Maxwell ma di un respin in cui la maggiore efficienza verosimilmente è aiutata pure dalla piena maturazione del pp a 28nm (cosa che vale pure le verdi ovviamente)

wccftech.com/amd-radeon-r9-285-tonga-pro-officially-launches-2nd-september-announced-live-event-23rd-august/

LurenZ87
21-08-2014, 19:47
Hai detto bene, "dovrebbe" ma...

francisco9751
21-08-2014, 20:44
se sai qualcosa, parla u.u

tapatalked with LG G2

appleroof
21-08-2014, 21:06
Hai detto bene, "dovrebbe" ma...

Ah be io praticamente ho tradotto quanto detto in quel link :D non ho alcuna fonte diretta, magari ce l'avessi :read:

LurenZ87
21-08-2014, 21:48
se sai qualcosa, parla u.u

tapatalked with LG G2

:)

Ah be io praticamente ho tradotto quanto detto in quel link :D non ho alcuna fonte diretta, magari ce l'avessi :read:

tranquillo che non ce l'ho nemmeno io, in compenso in redazione dovrebbe arrivare qualcos'altro, di molto più potente e "verde" di rabbia... :asd:

notte :D

Ale55andr0
22-08-2014, 10:03
Hai detto bene, "dovrebbe" ma...

:)


te dai sempre l'impressione di sapere più di quel che lasci trapelare, ma non ti esponi mai :D

capitan_crasy
22-08-2014, 11:08
Hai detto bene, "dovrebbe" ma...

http://i.imgur.com/Xx4x89Z.gif

:D

Foglia Morta
23-08-2014, 04:45
Riaguardo l' evento di oggi: http://anandtech.com/show/8417/amd-celebrates-30-years-of-gaming-and-graphics-innovation

dicono che ci saranno 3 sviluppatori , magari parleranno anche di Mantle.

Comunque se per Tonga le performance saranno simili a Tahiti ma con i consumi di Pitcairn allora Tonga sostituirà Pitcairn ( considerando desktop + mobile , tahiti nel mobile non c' è ) e sarà prodotto con i 28nm di Global Foundries in base a ciò che si era letto . Dopodichè dovranno uscire altre 2 gpu per sostituire Tahiti e Hawaii , questa volta prodotte da TSMC con "nuovo" processo produttivo 28nm HPM e secondo me entrambe le gpu utilizzeranno la tecnologia stacking die , mantenendo all' incirca le proporzioni dell' attuale generazione di gpu se l' erede di Pitcairn ha 32 CU allora mi aspetto che la gpu che sostituirà Tahiti avrà 56 CU e quella che sostituirà Hawaii 88 CU... ispirandomi da qui:

http://www.synapse-da.com/Corporate/Clients

http://i.imgur.com/ABzFRth.jpg

Foglia Morta
23-08-2014, 09:04
https://translate.google.com/translate?sl=auto&tl=en&js=y&prev=_t&hl=en&ie=UTF-8&u=http%3A%2F%2Fwww.chw.net%2F2014%2F08%2Famd-trabaja-en-sus-gpus-radeon-r-400-series-faraway-islands-a-20nm%2F&edit-text=

We know that AMD readies its next-generation GPUs Radeon R300 series "Pirate Islands" , successor of current GPUs Radeon R 200 Series "Volcanic Islands" which will be released in the remainder of this year (likely to be announced on Saturday 23 August ).

With its new graphics architecture Pirate Islands to debut, presumably for some time that AMD should be working on his successors, which to the new information that comes from SemiAccurate code name will Faraway Islands (FI).

Even the architectural changes that incorporate these GPUs are unknown, which we assume will be the second generation of GPUs compatible with the graph API Microsoft DiretX 12 will have a performance per watt than Pirate Islands and be made with the manufacturing process to 20nm TSMC and GlobalFoundries.

Faraway Islands will also be integrated in future AMD APUs based on future x86 micro-architecture of high performance and future SoC-based low-power micro-architecture its successor Cheetah products that make their appearance in late 2015 and early of 2016.

Probably Faraway Islands is also integrated into future ARM SoC for mobile devices and some future version of its Series A SoC Opteron server.

Pare che qualche abbonato agli articoli di semiaccurate abbia detto qualcosa. Dopo Pirate Islands dovrebbe arrivare Faraway Islands a 20nm

francisco9751
23-08-2014, 09:08
a che ora è oggi l evento?

tapatalked with LG G2

Foglia Morta
23-08-2014, 09:17
a che ora è oggi l evento?

tapatalked with LG G2

10.00 AM EDT dovrebbero essere le nostre 4 del pomeriggio

LurenZ87
23-08-2014, 09:25
10.00 AM EDT dovrebbero essere le nostre 4 del pomeriggio
Anche uno dei nostri admin sarà presente all'evento :)

MaBru
23-08-2014, 09:49
Quindi adesso serie R300 aka Pirate Islands a 28 nm ma HPM.

Serie Faraway Islands 2015 o inizio 2016 a 20 nm

???????

appleroof
23-08-2014, 12:10
videocardz.com/51277/amd-30-years-graphics-gaming-event-live-blog

Pare che a settembre, secondo Forbes, ci sarà una qualche ulteriore novità, di più non è dato sapere

francisco9751
23-08-2014, 12:20
videocardz.com/51277/amd-30-years-graphics-gaming-event-live-blog

Pare che a settembre, secondo Forbes, ci sarà una qualche ulteriore novità, di più non è dato sapere

me lo auguro,non penseranno andare avanti solo con una 285 :muro:

capitan_crasy
23-08-2014, 12:54
videocardz.com/51277/amd-30-years-graphics-gaming-event-live-blog

Pare che a settembre, secondo Forbes, ci sarà una qualche ulteriore novità, di più non è dato sapere

Voglio il successore di Pitcaim!:read:

appleroof
23-08-2014, 13:02
Voglio il successore di Pitcaim!:read:

Se vuoi spannometricamente più prestazioni a parità di consumo potresti prendere Tonga :fagiano:

MaBru
23-08-2014, 13:04
Pitcairn è stato un mezzo capolavoro di chip

francisco9751
23-08-2014, 13:13
tahiti è stato un capolavoro completo :3

tapatalked with LG G2

capitan_crasy
23-08-2014, 13:54
Se vuoi spannometricamente più prestazioni a parità di consumo potresti prendere Tonga :fagiano:

Beh certo se voglio "spannometricamente ancora più prestazioni in turbo boost" vado su Hawaii!:asd:
Ma è importante anche il prezzo e un erede di Pitcaim sulla stessa fascia è quello che sto aspettando; a meno che non esca una versione di Tonga al costo di 130/150 euro...

appleroof
23-08-2014, 14:05
Beh certo se voglio "spannometricamente ancora più prestazioni in turbo boost" vado su Hawaii!:asd:
Ma è importante anche il prezzo e un erede di Pitcaim sulla stessa fascia è quello che sto aspettando; a meno che non esca una versione di Tonga al costo di 130/150 euro...

Ah non avevo considerato il discorso piccioli :D mi sa che allora dovrai attendere la prossima serie imho... ari :fagiano:

Edit:

Sapphire is preparing six Radeon R9 285 cards:

SAPPHIRE R9 285 2GB GDDR5 ITX COMPACT OC Edition (UEFI)
SAPPHIRE R9 285 2GB GDDR5 ITX COMPACT Edition (UEFI)
SAPPHIRE DUAL-X R9 285 2GB GDDR5 OC (UEFI)
SAPPHIRE DUAL-X R9 285 2GB GDDR5 (UEFI)
SAPPHIRE DUAL-X R9 285 4GB GDDR5 OC (UEFI)
SAPPHIRE DUAL-X R9 285 4GB GDDR5 (UEFI)

francisco9751
23-08-2014, 14:46
uh,la itx..saranno quelli vga corte tipo la 760 itx??peccato che non è la 4gb sennò avrei pensato ad un cambio :0

tapatalked with LG G2

okorop
23-08-2014, 14:57
qui la diretta streaming dell'evento
http://www.amd.com/en-us/who-we-are/corporate-information/events/amd-30-live
20 minutes to go now!

Foglia Morta
23-08-2014, 15:01
comincia

edit: devo quotare un commento della chat

Lowcosmile: No hair compagny..... 20mn hair length

:D

francisco9751
23-08-2014, 16:31
a che ora finisce??

tapatalked with LG G2

Foglia Morta
23-08-2014, 17:05
Finito , confermate le specifiche di Tonga Pro che sono anche qui: http://www.sapphiretech.com/presentation/product/?cid=1&gid=3&sgid=1227&pid=2444&psn=&lid=1&leg=0

per il resto mi sa che si dovrà aspettare gli ultimi 3 mesi dell' anno. Hanno parlato anche del nuovo bundle never settle ma non l' ho seguito

okorop
23-08-2014, 17:07
è finito poco fa non hanno detto praticamente niente a parte il fatto che uscirà il the fixer 3 hypeeeeeeeeeeeeeeeeeeeee :sofico: :sofico: :sofico: :sofico:

francisco9751
23-08-2014, 17:09
è finito poco fa non hanno detto praticamente niente a parte il fatto che uscirà il the fixer 3 hypeeeeeeeeeeeeeeeeeeeee :sofico: :sofico: :sofico: :sofico:

che sarebbe?

quindi hanno annunciato solo la 285?? che va tra una 7950 e 7970,giusto?

okorop
23-08-2014, 17:15
che sarebbe?

quindi hanno annunciato solo la 285?? che va tra una 7950 e 7970,giusto?

si hanno annunciato la 285 che va tra una 7950 e 7970 il the fixer è questo:
http://www.youtube.com/watch?v=eH6XayaLTw8
http://www.youtube.com/watch?v=Vr-P9xcifT4

Major Clock
23-08-2014, 17:26
Non ho capito, il grande evento era l'annuncio della 285? Tutto qui sul fronte "nuove gpu"?? :mbe:

okorop
23-08-2014, 17:28
Non ho capito, il grande evento era l'annuncio della 285? Tutto qui sul fronte "nuove gpu"?? :mbe:

no praticamente hanno parlato di giochi che usano mantle con qualche intervista qua e la e alla fine hanno detto che esce la 285+nuovi giochi in bundle con il the fixer 3

francisco9751
23-08-2014, 17:28
Non ho capito, il grande evento era l'annuncio della 285? Tutto qui sul fronte "nuove gpu"?? :mbe:

così pare..ma spero che abbia qualcosa in serbo per settembre ottobre,sennò perderà il treno,dato che nvidia esce con le 870/880

Il nabbo di turno
24-08-2014, 08:01
Francamente sono molto deluso da questa nuova r9, il chip non l'hanno proprio toccato, hanno solo fatto la riduzione del bus, io non dico che dovesse essere alimentata con un connettore a 6 pin, ma 10w di tdp di differenza sono una presa per i fondelli.

Poi costasse anche meno della 280, hanno pure lo stesso prezzo, poi quando avevo sentito per la prima volta dal l'annunciatore il prezzo di 329 stavo per andare in America a riempirlo di botte...

HadesSaint
24-08-2014, 09:43
Quindi dopo questa reload della 280 la verà novita sarà fra qualche mese con le R 295 o 2015 R 3**??

francisco9751
24-08-2014, 09:56
qualche mese fa,si girava voce della r9 390 entro fine anno..ma poi non si è più saputo nulla

tapatalked with LG G2

Foglia Morta
26-08-2014, 04:47
Ryse in versione mantle non ci sarà: https://twitter.com/RyseGame/status/502365632269406208

Per Mantle penso che ci vorrà una versione più aggiornata del cryengine

appleroof
26-08-2014, 17:12
Ryse in versione mantle non ci sarà: https://twitter.com/RyseGame/status/502365632269406208

Per Mantle penso che ci vorrà una versione più aggiornata del cryengine

Credo siano solo questioni commerciali: star citizen supporterà mantle ed usa cryengine

Cmq mantle con le dx12 credo sia di fatto finito o quantomeno abbia prospettive molto ridimensionate, a meno che esca una sorta di Mantle 2 con ulteriori features che diano reale valore aggiunto rispetto alle dx12.

Ale55andr0
26-08-2014, 17:45
oddio, parlando di fatti dx12 ancora non esistono e se ne parla pure tra un pezzo (fine 2015 da quel che ricordo), restano api generiche, ergo cosa permetteranno su strada e non su carta è ancora da vedere, e nel frattempo gli sviluppatori che aderiscono al programma mantle sono andati ad aumentare e non a dimiunire dacchè è stato introdotto, compresi quelli di titoli importanti e altri nuovi interessanti, e questo nonostante proprio lo "spettro" delle dx12. Parlare di morte mi pare quindi non solo prematuro ma anche non veritiero, almeno ad oggi :)

appleroof
26-08-2014, 18:02
oddio, parlando di fatti dx12 ancora non esistono e se ne parla pure tra un pezzo (fine 2015 da quel che ricordo), restano api generiche, ergo cosa permetteranno su strada e non su carta è ancora da vedere, e nel frattempo gli sviluppatori che aderiscono al programma mantle sono andati ad aumentare e non a dimiunire dacchè è stato introdotto, compresi quelli di titoli importanti e altri nuovi interessanti, e questo nonostante proprio lo "spettro" delle dx12. Parlare di morte mi pare quindi non solo prematuro ma anche non veritiero, almeno ad oggi :)

le dx12 non esistono ma non sono nemmeno il sogno di qualcuno, qualche piccola dimostrazione c'è già stata e pare che apportino gli stessi identici benefici (in sostanza, per brevità) di mantle: http://www.brightsideofnews.com/2014/08/14/needs-mantle-directx-12-shows-big-performance-gains-siggraph/

c'è pure un'interessante intervista ad un tipo Intel sempre su BSN http://www.brightsideofnews.com/2014/08/25/intel-directx-12s-big-day-intel-chats-intel-microsoft-api-partnership/

va da sè che essendo api agnostiche la loro adozione non avrà bisogno di alcun accordo commerciale o similia (e cmq pure tu parli di fine 2015, ossia più o meno un anno, mica tra 10 anni), quindi si spera sarà veloce e sopratutto generalizzato (tanto più che la xboxone le usa anch'essa), e se fanno più o meno ciò che permette Mantle io onestamente non ne vedo più il senso, anche perchè pure le vga AMD supporteranno dx12 (anzi allo stato si sà che lo fanno le attuali a partire da GCN)

Foglia Morta
26-08-2014, 18:05
Credo siano solo questioni commerciali: star citizen supporterà mantle ed usa cryengine

Cmq mantle con le dx12 credo sia di fatto finito o quantomeno abbia prospettive molto ridimensionate, a meno che esca una sorta di Mantle 2 con ulteriori features che diano reale valore aggiunto rispetto alle dx12.

Richard Huddy l' aveva già detto tempo fa in un' intervista che entro il 2014 esce Mantle 1 e successivamente Mantle 2 ( quando escono le DX12 ) , poi il 3 , poi il 4 etc etc... l' avevo già postato comunque rieccolo: http://www.techradar.com/news/computing/pc/amd-s-richard-huddy-on-the-state-of-pc-graphics-mantle-2-and-apus-1255575/2#articleContent . Mi pare che li spieghi i motivi per cui continuerà ad esserci ( lo vogliono gli sviluppatori , possono esporre nuove features senza attendere Microsoft e quindi altri vantaggi rispetto alle DX12 , costi di porting più bassi da Mantle a DX12 rispetto alle DX11 , multi-platform con una marea di processori AMD dalla semi-custom business unit che non faranno altro che aumentare il peso di AMD con gli sviluppatori ) . Inoltre recentemente hanno detto che stanno lavorando per estendere il supporto alle Fire Pro , quindi mi sa che il futuro lo abbiano già ben chiaro.

Poi c' è anche questo:

http://regmedia.co.uk/2014/08/04/windows_market_share_july_2014.jpg

e questo:

http://community.amd.com/community/amd-blogs/amd-gaming/blog/2014/05/28/mantle-101

Dato che la stima è stata fatta molto dopo che Microsoft ha annunciato le DX12 quel tasso di adozione mi pare eloquente... gli sviluppatori Mantle lo vogliono comunque

appleroof
26-08-2014, 18:16
Richard Huddy l' aveva già detto tempo fa in un' intervista che entro il 2014 esce Mantle 1 e successivamente Mantle 2 ( quando escono le DX12 ) , poi il 3 , poi il 4 etc etc... l' avevo già postato comunque rieccolo: http://www.techradar.com/news/computing/pc/amd-s-richard-huddy-on-the-state-of-pc-graphics-mantle-2-and-apus-1255575/2#articleContent . Mi pare che li spieghi i motivi per cui continuerà ad esserci ( lo vogliono gli sviluppatori , possono esporre nuove features senza attendere Microsoft e quindi altri vantaggi rispetto alle DX12 , costi di porting più bassi da Mantle a DX12 rispetto alle DX11 , multi-platform con una marea di processori AMD dalla semi-custom business unit che non faranno altro che aumentare il peso di AMD con gli sviluppatori ) . Inoltre recentemente hanno detto che stanno lavorando per estendere il supporto alle Fire Pro , quindi mi sa che il futuro lo abbiano già ben chiaro.

Poi c' è anche questo:

http://regmedia.co.uk/2014/08/04/windows_market_share_july_2014.jpg

Avranno investito soldi, ci sono gli azionisti, stretto accordi commerciali con EA e altri, poi al di là del valore tecnico è anche - giustamente- un ottimo argomento di marketing per vendere i prodotti, non credo possano dire "ok è stato uno scherzo"

Cmq io volevo dire che se esce un set di api agnostiche che fanno le stesse cose di quelle proprietarie, è più probabile soccombano o vengano relegate a nicchia quelle proprietarie (tanto più che le vga AMD supportano dx12 ripeto), anche considerando che Mantle è in u o stato embrionale, non radicato

Ovviamente posso sbagliare ma nel medio periodo la vedo così, nel frattempo Mantle è di sicuro un ottimo valore aggiunto per chi ha hw AMD

siluro85
26-08-2014, 18:22
Beh non far supportare le dx12 alle proprie gpu sarebbe stato un autogol epocale...

Foglia Morta
26-08-2014, 18:26
Avranno investito soldi, ci sono gli azionisti, stretto accordi commerciali con EA e altri, poi al di là del valore tecnico è anche - giustamente- un ottimo argomento di marketing per vendere i prodotti, non credo possano dire "ok è stato uno scherzo"

Cmq io volevo dire che se esce un set di api agnostiche che fanno le stesse cose di quelle proprietarie, è più probabile soccombano o vengano relegate a nicchia quelle proprietarie (tanto più che le vga AMD supportano dx12 ripeto), anche considerando che Mantle è in u o stato embrionale, non radicato

Ovviamente posso sbagliare ma nel medio periodo la vedo così, nel frattempo Mantle è di sicuro un ottimo valore aggiunto per chi ha hw AMD

Le api agnostiche non vanno su tutte le gpu ma solamente sulle gpu installate in sistemi con il sistema operativo con appunto le api agnostiche ( in questo caso DX 12 ) . Winodws 7 al 51.5 % di market share per le DX12 sono un grosso problema... La cina tra un po eliminerà Windows per un proprio sistema operativo , poi ci sarà Steam OS e così via, tutto questo per AMD sono soltanto vantaggi e gli sviluppatori lo sanno anche loro. Poi , ripeto, la questione scbu che non farà altro che aumentare lo share di AMD... e infatti gli sviluppatori confermano l' interesse per Mantle, nonostante le DX12.

Ale55andr0
26-08-2014, 18:28
le dx12 non esistono ma non sono nemmeno il sogno di qualcuno, qualche piccola dimostrazione c'è già stata e pare che apportino gli stessi identici benefici (in sostanza, per brevità) di mantle: http://www.brightsideofnews.com/2014/08/14/needs-mantle-directx-12-shows-big-performance-gains-siggraph/

c'è pure un'interessante intervista ad un tipo Intel sempre su BSN http://www.brightsideofnews.com/2014/08/25/intel-directx-12s-big-day-intel-chats-intel-microsoft-api-partnership/

va da sè che essendo api agnostiche la loro adozione non avrà bisogno di alcun accordo commerciale o similia (e cmq pure tu parli di fine 2015, ossia più o meno un anno, mica tra 10 anni), quindi si spera sarà veloce e sopratutto generalizzato (tanto più che la xboxone le usa anch'essa), e se fanno più o meno ciò che permette Mantle io onestamente non ne vedo più il senso, anche perchè pure le vga AMD supporteranno dx12 (anzi allo stato si sà che lo fanno le attuali a partire da GCN)

non ho mai detto che sia un sogno ma dire che mantle è morto dai...:fagiano:

ci saranno sempre titoli rossi e verdi, e quelli rossi molto probabilmente vedranno facilmente le ottimizzazioni per AMD sotto mantle come per nvidia col programma GW (anche se in quest'ultimo caso si tratta di roba diversa). Ergo credo che non morirà proprio nulla, e di fatto non lo è o chi ci sta lavorando è un fantasma e non un entità fisica :asd:
ovvio che se intendevi mantle come api del tutto sostitutiva allora si, mantle era già "spacciato" PRIMA di dx12 perchè era impensabile divenisse uno standard universale, e io non lo ho MAI creduto ;)

s12a
26-08-2014, 18:31
Lievemente off-topic con il thread ma correlato con l'argomento discusso negli ultimi post: l'ultima versione di OpenGL (4.5) include nuove istruzioni che permettono, detto in breve, un accesso più diretto alla GPU, quindi con meno overhead, similmente a quanto permette di fare Mantle. Con queste non si è legati ad un sistema operativo od una architettura GPU in particolare.

appleroof
26-08-2014, 18:43
non ho mai detto che sia un sogno ma dire che mantle è morto dai...:fagiano:

ci saranno sempre titoli rossi e verdi, e quelli rossi molto probabilmente vedranno facilmente le ottimizzazioni per AMD sotto mantle come per nvidia col programma GW (anche se in quest'ultimo caso si tratta di roba diversa). Ergo credo che non morirà proprio nulla, e di fatto non lo è o chi ci sta lavorando è un fantasma e non un entità fisica :asd:
ovvio che se intendevi mantle come api del tutto sostitutiva allora si, mantle era già "spacciato" PRIMA di dx12 perchè era impensabile divenisse uno standard universale, e io non lo ho MAI creduto ;)

continui credo a non capire cosa intendo, provo così: se le dx11 avessero avuto un set per la fisica integrato che avesse fatto le stesse identiche cose del middleware physx, nvidia avrebbe dovuto pagare ancora di più gli sviluppatori per usare physx di quanto non faccia oggi, e forse nemmeno ci sarebbe riuscita

non dico che sarà il destino di mantle, o meglio lo dico io ma ovviamente se ne discute, ma è per spiegare il mio pensiero

Lievemente off-topic con il thread ma correlato con l'argomento discusso negli ultimi post: l'ultima versione di OpenGL (4.5) include nuove istruzioni che permettono, detto in breve, un accesso più diretto alla GPU, quindi con meno overhead, similmente a quanto permette di fare Mantle. Con queste non si è legati ad un sistema operativo od una architettura GPU in particolare.

Ma infatti al di là dei vantaggi che può apportare ai possessori di hw AMD (onestamente non vedo un coro di consensi cmq dai suddetti possessori girando sui vari forum, almeno per i pochi giochi che lo supportano adesso in particolare bf4 dove leggo che molti preferiscono la versione dx11, sarà perchè è agli inizi) di certo mantle ha avuto il merito di dare una scossa da questo punto di vista, è dalle dx10 che gli sviluppatori chiedevano quello che mantle e ora dx12 fanno, merito di AMD di aver colto la palla al balzo (penso pure alle cpu più che alle vga) e colpa di microsoft se non si è mossa prima, secondo me...

Foglia Morta
26-08-2014, 18:51
Lievemente off-topic con il thread ma correlato con l'argomento discusso negli ultimi post: l'ultima versione di OpenGL (4.5) include nuove istruzioni che permettono, detto in breve, un accesso più diretto alla GPU, quindi con meno overhead, similmente a quanto permette di fare Mantle. Con queste non si è legati ad un sistema operativo od una architettura GPU in particolare.

Quella versione di OpenGL è ancora più lontana delle DX12. E' in uno stato di sviluppo talmente embrionale che AMD ha proposto appunto di copiare da Mantle , e probabilmente gli conviene se vogliono aiutare gli sviluppatori. La gente si ostina a vedere le DX12 come un nemico di Mantle ma Richard Huddy nell' intervista che ho linkato prima lo dice chiaramente:

We had a lot of conversations with Microsoft about what we were doing with Mantle, and in those conversations, they said, 'OK, if you really can solve this problem of building a better throughput system that runs on Windows, then we'd like to take that to Windows as well and we'll make that the extra software functionality that comes in DX 12.' So that's how DX 12 has come about.

le DX 12 sono Mantle + nuove features . Quindi gira che ti rigira gli sviluppatori si troveranno a fare conversioni a costo molto ridotto con il vantaggio delle nuove features che potrà esporre Mantle + il supporto a tutti i sistemi operativi che AMD vorrà supportare.

Ale55andr0
26-08-2014, 18:57
non dico che sarà il destino di mantle, o meglio lo dico io ma ovviamente se ne discute, ma è per spiegare il mio pensiero



anche il mio lo è, ci mancherebbe ;) nell'economia generale del tuo pensiero però sembri trascurare/non attribuire importanza al fatto che, come detto, il supporto è tutt'ora in crescendo e non in diminuendo, quindi dal tuo punto di vista cio come si spiega? perchè chi aderisce alla "beta privata" non credo sia pagato per farlo, visto che di fatto non è un impegno al supportarlo... a quel punto allora perchè mai prendersi anche la briga per qualcosa che è, per così dire, già questione chiusa e finita, sarebbe solo perdita di tempo da parte di uno sviluppatore, almeno per come la vedo io

Ale55andr0
26-08-2014, 19:02
La gente si ostina a vedere le DX12 come un nemico di Mantle
.

direi più l'inverso :D

Foglia Morta
26-08-2014, 19:21
direi più l'inverso :D

AMD ha fornito il proprio lavoro a Microsoft per fare le DX12 , quindi tutto sto conflitto è soltanto nell' immaginazione della gente :D

s12a
26-08-2014, 19:32
Quella versione di OpenGL è ancora più lontana delle DX12. E' in uno stato di sviluppo talmente embrionale che AMD ha proposto appunto di copiare da Mantle , e probabilmente gli conviene se vogliono aiutare gli sviluppatori. La gente si ostina a vedere le DX12 come un nemico di Mantle ma Richard Huddy nell' intervista che ho linkato prima lo dice chiaramente...
Non parlo della futura totale riprogettazione dei queste API denominata su alcuni siti web "Next Generation", ma della versione 4.5 le cui specifiche sono state rilasciate un paio di settimane fa e che quindi sarebbero già utilizzabili previo supporto driver (gli ultimi NVidia ad esempio già lo permettono). Qui è spiegato bene cosa aggiunge di importante questa versione e cosa comporta:

http://arstechnica.com/information-technology/2014/08/opengl-4-5-released-with-one-of-direct3ds-best-features/

appleroof
26-08-2014, 19:36
AMD ha fornito il proprio lavoro a Microsoft per fare le DX12 , quindi tutto sto conflitto è soltanto nell' immaginazione della gente :D

Ci mancherebbe pure non partecipasse allo sviluppo delle dx12, magari facendo pure vga ad esse incompatibili o dichiarando che non servono perché c'è Mantle, siamo seri..il "conflitto" è nelle cose, sono la stessa cosa o meglio fanno le stesse cose, più che le ovvie parole di un addetto AMD direi che occorre guardare a questi aspetti per cercare di intuire il destino di Mantle, e poi aspettare bench ed analisi terze

Poi ribadisco per l'ennesima, non sono uno sviluppatore e non posso parlare in maniera tecnica, parlo da appassionato e cmq riconosco che qualche freccia all'arco Mantle le ha (se dx12 saranno confermate solo per Windows 8 e 9 ad esempio), cosa si può dire? Vedremo.

Foglia Morta
26-08-2014, 19:42
Non parlo della futura totale riprogettazione dei queste API denominata su alcuni siti web "Next Generation", ma della versione 4.5 le cui specifiche sono state rilasciate un paio di settimane fa e che quindi sarebbero già utilizzabili previo supporto driver (gli ultimi NVidia ad esempio già lo permettono). Qui è spiegato bene cosa aggiunge di importante questa versione e cosa comporta:

http://arstechnica.com/information-technology/2014/08/opengl-4-5-released-with-one-of-direct3ds-best-features/

Quelle OpenGL in questo contesto sono poco rilevanti... davo per scontato ti riferissi alle NG perchè sono quelle che daranno un vantaggio concreto con l' unificazione tra mobile e il resto , non ci saranno più opengl es e opengl trick e track ma soltanto una versione per tutto , unita alle alre cose possono avere un peso le opengl ma senza quello in questo contesto contano poco.

Foglia Morta
26-08-2014, 19:49
Ci mancherebbe pure non partecipasse allo sviluppo delle dx12, magari facendo pure vga ad esse incompatibili o dichiarando che non servono perché c'è Mantle, siamo seri..il "conflitto" è nelle cose, sono la stessa cosa o meglio fanno le stesse cose, più che le ovvie parole di un addetto AMD direi che occorre guardare a questi aspetti per cercare di intuire il destino di Mantle, e poi aspettare bench ed analisi terze

Poi ribadisco per l'ennesima, non sono uno sviluppatore e non posso parlare in maniera tecnica, parlo da appassionato e cmq riconosco che qualche freccia all'arco Mantle le ha (se dx12 saranno confermate solo per Windows 8 e 9 ad esempio), cosa si può dire? Vedremo.

La partecipazione è una cosa mentre condividere lo sviluppo delle proprie api con quelle di un altro va oltre, significa che AMD non ha nulla da temere dalle DX12 , e mi pare che l' intervista che ho postato lo spieghi bene il perchè. Poi ci sono cose che fanno pensare ad una collaborazione di lungo periodo tra Microsoft e AMD , lo dirà il tempo.

s12a
26-08-2014, 20:06
Quelle OpenGL in questo contesto sono poco rilevanti... davo per scontato ti riferissi alle NG perchè sono quelle che daranno un vantaggio concreto con l' unificazione tra mobile e il resto , non ci saranno più opengl es e opengl trick e track ma soltanto una versione per tutto , unita alle alre cose possono avere un peso le opengl ma senza quello in questo contesto contano poco.

Il vantaggio maggiormente pubblicizzato di Mantle mi sembra sia stato la riduzione dell'overhead di comunicazione fra CPU e GPU, permettendo quindi maggiori prestazioni/FPS. Le OpenGL 4.5 introducono questo Direct State Access che permette guadagni simili, oltre che una significativa riduzione delle complicazioni di programmazione. Ovviamente affinché si abbiano benefici occorre adeguarsi, i miglioramenti non sono automatici.

Perché la cosa non dovrebbe contare in questo contesto? Lo scopo principale delle cosiddette OpenGL NG è di buttare via tutto il vecchiume che ci si porta dietro fin dai primi anni '90 (ed in gran parte deprecato, ma non rimosso) e snellire/ridurre queste API alle funzionalità e le necessità richieste dalla moderna programmazione grafica, non intrinsicamente fornire maggiori prestazioni, anche se la cosa avverrà naturalmente (immagino che l'accesso diretto allo stato della GPU avverrà di default invece che richiedere istruzioni separate come con 4.5).

HadesSaint
26-08-2014, 21:47
Non capisco qualche mese fa parlavano di Mantle come una cosa super UP e ora sembra gia storia?

Foglia Morta
27-08-2014, 04:38
Il vantaggio maggiormente pubblicizzato di Mantle mi sembra sia stato la riduzione dell'overhead di comunicazione fra CPU e GPU, permettendo quindi maggiori prestazioni/FPS. Le OpenGL 4.5 introducono questo Direct State Access che permette guadagni simili, oltre che una significativa riduzione delle complicazioni di programmazione. Ovviamente affinché si abbiano benefici occorre adeguarsi, i miglioramenti non sono automatici.

Perché la cosa non dovrebbe contare in questo contesto? Lo scopo principale delle cosiddette OpenGL NG è di buttare via tutto il vecchiume che ci si porta dietro fin dai primi anni '90 (ed in gran parte deprecato, ma non rimosso) e snellire/ridurre queste API alle funzionalità e le necessità richieste dalla moderna programmazione grafica, non intrinsicamente fornire maggiori prestazioni, anche se la cosa avverrà naturalmente (immagino che l'accesso diretto allo stato della GPU avverrà di default invece che richiedere istruzioni separate come con 4.5).

In questo contesto sta per "pc gaming" per come lo intendo io. Conosci una lista di giochi o engine scritti per le OpenGl 4.5 ?

ghiltanas
27-08-2014, 17:42
Sapphire mi ha da poco mandato la press-release delle sue 2 versioni di 285, a breve le posto sulla pagina facebook (foto e pdf con tutte le caratteristiche)

s12a
27-08-2014, 18:38
In questo contesto sta per "pc gaming" per come lo intendo io. Conosci una lista di giochi o engine scritti per le OpenGl 4.5 ?

Le OpenGL 4.5 sono uscite "ieri", è ovvio che non ci sia una lista di giochi od engine scritti per loro :rolleyes: stessa situazione per le DX12 quando saranno finalizzate (anche se limitatamente a Windows).

Non capisco tutto questo entusiasmo per Mantle sinceramente; la frammentazione che comporterebbe nell'improbabile caso in cui a suon di sponsorizzazioni AMD inizieranno ad essere adottate più diffusamente non sarebbe una cosa positiva né per sviluppatori né per gli utenti, come del resto dovrebbe già suggerire il fatto che sono delle API proprietarie, hardware-specifiche ed al momento Windows-only.

Foglia Morta
27-08-2014, 19:12
Le OpenGL 4.5 sono uscite "ieri", è ovvio che non ci sia una lista di giochi od engine scritti per loro :rolleyes: stessa situazione per le DX12 quando saranno finalizzate (anche se limitatamente a Windows).

Non capisco tutto questo entusiasmo per Mantle sinceramente; la frammentazione che comporterebbe nell'improbabile caso in cui a suon di sponsorizzazioni AMD inizieranno ad essere adottate più diffusamente non sarebbe una cosa positiva né per sviluppatori né per gli utenti, come del resto dovrebbe già suggerire il fatto che sono delle API proprietarie, hardware-specifiche ed al momento Windows-only.

Ma di questa presunta frammentazione che ne sai ? Qui ci si attacca ai nomi delle API quando quello che conta è la sostanza che c' è dietro. Un programmatore dei Creative Assembly tempo fa dopo aver visto la programming guide delle DX12 aveva detto che sembrava di leggere quelle per Mantle , è una conferma da uno sviluppatore indipendente che hanno scopiazzato il lavoro fatto da AMD ( che quest' ultima gli ha voluto fornire ) , ma lo ha detto anche Richard Huddy. Per quanto riguarda le OpenGL NG:

http://www.xbitlabs.com/news/graphics/display/20140821230919_Khronos_Group_to_Follow_DirectX_12_with_Cross_Platform_Low_Level_API.html

The TechReport web-site quotes Richard Huddy, chief gaming scientist at AMD, as saying that AMD had dne a "great deal of work" with the Khronos Group on OpenGL Next. AMD has provided the organization unrestrained access to Mantle so the group could learn how AMD implemented certain things.

“This is how we do it. If you want to take the same approach, go ahead,” said Richard Huddy. “Khronos is free to take as many pages as it wants out of the Mantle playbook, and AMD will impose no restrictions, nor will it charge any licensing fees.”

Qui di proprietario , in sostanza , c' è poco. Tutti questi conflitti tra API ve li siete costruiti voi nella vostra mente...

Comunque altra intervista di poche ore fa sempre sull' argomento:

http://www.eteknix.com/interview-amds-richard-huddy-responds-criticisms-mantle/?utm_source=dlvr.it&utm_medium=twitter&utm_campaign=interview-amds-richard-huddy-responds-criticisms-mantle

Da Maggio a oggi gli sviluppatori che lavorano con Mantle sono passati da 40 a 70 , bisognerebbe informarli che son dei falliti e non hanno capito nulla :sofico:

s12a
27-08-2014, 19:42
Ma di questa presunta frammentazione che ne sai ?
Fatto: se ogni hardware vendor si sviluppasse le proprie API di programmazione, si tornerebbe indietro nel tempo invece che perseguire la strada dell'unificazione/standardizzazione che a piccoli passi si stava raggiungendo.

Qui ci si attacca ai nomi delle API quando quello che conta è la sostanza che c' è dietro. Un programmatore dei Creative Assembly tempo fa dopo aver visto la programming guide delle DX12 aveva detto che sembrava di leggere quelle per Mantle , è una conferma da uno sviluppatore indipendente che hanno scopiazzato il lavoro fatto da AMD ( che quest' ultima gli ha voluto fornire ) , ma lo ha detto anche Richard Huddy. Per quanto riguarda le OpenGL NG:
Il fatto di essere simili non elimina l'inconveniente della duplicazione del codice, con tutte le conseguenze del caso.

Qui di proprietario , in sostanza , c' è poco. Tutti questi conflitti tra API ve li siete costruiti voi nella vostra mente...

Comunque altra intervista di poche ore fa sempre sull' argomento:

http://www.eteknix.com/interview-amds-richard-huddy-responds-criticisms-mantle/?utm_source=dlvr.it&utm_medium=twitter&utm_campaign=interview-amds-richard-huddy-responds-criticisms-mantle

Ad oggi possono usare Mantle solo sviluppatori selezionati previa richiesta mediante form sul sito web AMD. Non ci sono SDK pubblicamente e liberamente disponibili né documentazione liberamente consultabile in merito. Se ci sono in mezzo come è probabile accordi commerciali ed NDA fra sviluppatori ed AMD relativi al loro utilizzo, non è affatto una notizia positiva per gli utenti.

Da Maggio a oggi gli sviluppatori che lavorano con Mantle sono passati da 40 a 70 , bisognerebbe informarli che son dei falliti e non hanno capito nulla :sofico:
Marketing. :rolleyes:

Foglia Morta
28-08-2014, 04:54
Fatto: se ogni hardware vendor si sviluppasse le proprie API di programmazione, si tornerebbe indietro nel tempo invece che perseguire la strada dell'unificazione/standardizzazione che a piccoli passi si stava raggiungendo.

Vedi solo i fatti che ti pare... perchè Mantle sarà multi-platform ( il supporto ad android lo hanno già annunciato per il 2015 e magari supportranno altree piattaforme ). E poi eviti sempre di guardare la sostanza , se tutte queste api hanno un comune denominatore in Mantle vuol dire che gran parte del lavoro lo si fa una volta e stop. La soluzione più unificata in teoria saranno le OpenGL NG , ma c' è il Khronos con tutti i suoi membri a stabilire lo sviluppo con tutto ciò che ne consegue ( tempistiche che impongono il non sfruttamento delle capacità dell' hardware ). Sempre a lamentarsi che l' hardware non è sfruttato... per sfruttarlo si devono fare api che si aggiornano alla velocità dell' hardware , e nè Microsfot e nè altri sono interessati a farlo , AMD lo ha capito e ha fatto Mantle e Apple lo ha capito e ha fatto Metal. Mantle 2 , 3 , 4 e così via serviranno appunto a esporre con tempistiche adatte agli sviluppatori le feature dei prossimi aggiornamenti a GCN , va in direzione di quel che chiedono sia gli utenti che gli sviluppatori ( non tutti , quelli che hanno il budget per farlo e ce ne sono ). Poi in futuro quante piattaforme ci saranno ? Windows ( molti windows ) , Steam OS , Linux , Android , la Cina ha in programma di sostituire gli altri sistemi operativi con uno proprio e così via...

Il fatto di essere simili non elimina l'inconveniente della duplicazione del codice, con tutte le conseguenze del caso.

Sarà drammatico clickare il tasto destro del mouse , selezionare copy , clickare con il sinistro e clickare paste. Semplificazione eccessiva... ma parli di cose delle quali non hai voluto informarti, chi ci ha lavorato su Mantle ha già detto quanto righe di codice ci sono volute ( e quante ore lavoro ) per portare da DX11 a Mantle il lavoro svolto , e con le DX12 ce ne sarà ancora meno.


Ad oggi possono usare Mantle solo sviluppatori selezionati previa richiesta mediante form sul sito web AMD. Non ci sono SDK pubblicamente e liberamente disponibili né documentazione liberamente consultabile in merito. Se ci sono in mezzo come è probabile accordi commerciali ed NDA fra sviluppatori ed AMD relativi al loro utilizzo, non è affatto una notizia positiva per gli utenti.


Marketing. :rolleyes:

nell' intervista hanno detto chiaro e tondo che l' SDK sarà disponibile a TUTTI quando arriveranno alla versione 1.0 ( entro l' anno ) . Nel frattempo , causa risorse limitate, supportano il lavoro degli sviluppatori. Fossero 5 o 6 gli sviluppatori interessati a Mantle potrebbero anche essere accordi commerciali , ma visti i numeri mi sa che si tratta di qualcosa che gli sviluppatori ritengono utile

Einhander
28-08-2014, 16:50
Fatto: se ogni hardware vendor si sviluppasse le proprie API di programmazione, si tornerebbe indietro nel tempo invece che perseguire la strada dell'unificazione/standardizzazione che a piccoli passi si stava raggiungendo.


Il fatto di essere simili non elimina l'inconveniente della duplicazione del codice, con tutte le conseguenze del caso.


Ad oggi possono usare Mantle solo sviluppatori selezionati previa richiesta mediante form sul sito web AMD. Non ci sono SDK pubblicamente e liberamente disponibili né documentazione liberamente consultabile in merito. Se ci sono in mezzo come è probabile accordi commerciali ed NDA fra sviluppatori ed AMD relativi al loro utilizzo, non è affatto una notizia positiva per gli utenti.


Marketing. :rolleyes:

E' un po' che leggo, ma non posto nulla, tuttavia sta storia dell'unificazione se proprio devo essere sincero, non la condivido assolutamente, cioe' fosse una cosa open, ok, ma nel caso in cui cmq dietro c'e' microsoft non vedo proprio perche' sperare in una cosa del genere. Capisco l'esigenza di non avere limitazione in base all'hardware installato, ma di base questa distinzione c'e' gia' in base all'os installato. Ergo l'unica cosa che puo' spingere, un minimo, chi detiente il monopolio a migliorare REALMENTE se stesso e' un concorrente o l'idea che ce ne sia uno, in questo caso mantle, il quale ha numeri ridicoli in confronto a quanti adottano le dx, tuttavia e' innegabile lo slancio che abbia donato agli altri dal momento che e' divenuto realta'.

Di conseguenza dal momento che mantle e' un opzione e di fatto non limita nessuno in quanto chi ha hardware amd puo' usarlo oppure limitarsi alle dx, ma allo stesso tempo e' uno stimolatore per gli altri a darsi una mossa lo ritengo una cosa estremamente positiva a prescindere dall'hardware installato nel proprio pc.

Inoltre non capisco perche' non si dovrebbe incoraggiare mantle gia' solo per questo e magari si venera o si rispetta il gameworks dall'altra parte, alla fine mi sembra molto, ma molto piu' razionale mantle del pacchetto nvidia ad essere onesti, e fintanto che le prestazioni aumenteranno su macchine dove ce n'e' un reale bisogno -cpu e scheda video scarsini- io lo reputo veramente ben accetto e sinceramente dopo le dx10 e 11 io ci andrei cauto con i proclami di successo delle dx12 xD.

inoltre per quanto saranno ottimizzate ecc ecc non potranno mai essere fatte ad hoc per una singola architettura, cosa che invece mantle puo'essere. Per non parlare di tecnologie simil hairfx ecc che potrebbero tirare fuori dal cappello proprio grazie a queste ottimizzazioni, per l'appunto come fa nvidia, ma almeno amd consente di attivarli tali effetti anche se alla fine su hardware diverso pesano di piu'.

In sostanza un minimo di competizione in un mondo governato dal capitalismo mi sembra l'unica REALE soluzione all'immobilismo tecnologico.

E l'entusiasmo per mantle non ce l'ho, ma ne percepisco cmq la carica innovatrice che si porta dietro, dove per innovazione intendo innovare la condizione di pseudo melma che caratterizzava il panorama delle direct x fino all'annuncio del mantello.

Vul
28-08-2014, 17:00
Fatto: se ogni hardware vendor si sviluppasse le proprie API di programmazione, si tornerebbe indietro nel tempo invece che perseguire la strada dell'unificazione/standardizzazione che a piccoli passi si stava raggiungendo.




Ma guarda che più sono specifiche le api e più sono efficienti.

La strada dell'unificazione/standardizzazione porta solo a perdite di prestazioni e un pc a parità di hardware deve sempre arrancare rispetto ad una console simile.

Athlon 64 3000+
29-08-2014, 17:04
http://www.kitguru.net/components/graphic-cards/anton-shilov/key-features-of-amds-third-iteration-of-gcn-architecture-revealed/

si dice che Tonga sia basata sulla terza generazione di GCN ribattezzata GCN 1.2 e che quindi sia più avanzata di Hawaii.

capitan_crasy
29-08-2014, 19:00
http://www.kitguru.net/components/graphic-cards/anton-shilov/key-features-of-amds-third-iteration-of-gcn-architecture-revealed/

si dice che Tonga sia basata sulla terza generazione di GCN ribattezzata GCN 1.2 e che quindi sia più avanzata di Hawaii.

Ci avevo azzeccato...:asd:

Clicca qui... (http://www.hwupgrade.it/forum/showpost.php?p=41268165&postcount=8348)

HORN
01-09-2014, 14:22
fra qualche ora verra´ lanciato la R9 285
Penso dopo mezzanotte, massimo domani dopo le 06:00 di mattina abbiamo dei recensioni e anche gia´ presenti nei Shop Online (e-pri.. ecc.)

La 285X forse verra´ lanciato gia´ prima di meta´ settembre :-)
visto che anche Nvidia lancia fra una decina di giorni, Paperlaunch :-)

Dimitri-
01-09-2014, 17:26
ma delle nuove gpu amd non c'è nessuna notizia? cioè lasciano campo libero ad nvidia per 5-6 (?) mesi? :rolleyes:

HadesSaint
01-09-2014, 18:57
ma delle nuove gpu amd non c'è nessuna notizia? cioè lasciano campo libero ad nvidia per 5-6 (?) mesi? :rolleyes:

al momento si parla solo di Tonga (285/285X) :)

Vul
02-09-2014, 11:26
Amd porta prestazioni da 280x al prezzo delle 280 abbassando notevolmente i consumi (60w sul massimo):

http://news.evatech.com.au/2014/09/gigabyte-r9-285x-oc-unboxing-hands-on-benchmarking-gv-r9285wf2oc-2gd/

Veramente una gran bella scheda che immagino verrà venduta a poco dalla release sotto i 200€.

Athlon 64 3000+
02-09-2014, 11:44
cut

Athlon 64 3000+
02-09-2014, 11:53
http://videocardz.com/51462/amd-officially-announces-radeon-r9-285-never-settle-space-edition

Sono le slide di presentazione della R9 285.

appleroof
02-09-2014, 12:16
http://videocardz.com/51462/amd-officially-announces-radeon-r9-285-never-settle-space-edition

Sono le slide di presentazione della R9 285.

Molto interessante come scheda, sopratutto mi ha colpito la slide sulla bandwith, nonostante il bus a 256bit è il 40% piu efficiente, bella scheda.

HORN
02-09-2014, 12:21
Penso fra 7970 e 7970 Ghz, piu´ vicino alla 7970 Ghz Edition
ma al prezzo di +- 210 Euro fra 10 giorni, finche arrivanno in noti shop e anche in quantita´
Per colpo da AMD, adesso ancora la R9 285X, poco dietro della R9 290 :-)
Versioni OC ci penso occhio ad occhio alla R9 290

francisco9751
02-09-2014, 12:45
senza contare che ti danno 3 giochi gratis,che male non fanno :fagiano:

LurenZ87
02-09-2014, 13:11
senza contare che ti danno 3 giochi gratis,che male non fanno :fagiano:
In effetti, per uno come me che va pazzo per la saga di Alien, averlo già in regalo con la vga mi fa gola :D

Inviato dal mio OnePlus One utilizzando Tapatalk

mircocatta
02-09-2014, 13:40
285 che va come la 280 e consuma uguale...chip nuovo ma....boh

ivanto
02-09-2014, 14:30
sta 285 mi sembra tanto una 280 con 1gb di ram in meno allo stesso prezzo...

appleroof
02-09-2014, 14:32
:mbe:

Il livello di consumo complessivo del sistema con scheda Sapphire R9 285 Dual-X OC è quindi di fatto allineato a quello della scheda Asus basata su GPU Radeon R9 280; questo comportamento è legato anche all'overclock di default di questa scheda ma è ben differente da quanto ci attendevamo alla luce delle indicazioni di consumo medio tipico della scheda indicate da AMD, con un dato che stando al produttore americano scende dai 250 Watt delle soluzioni Tahiti ai 190 Watt di quelle Tonga.

www.hwupgrade.it/articoli/skvideo/4130/amd-radeon-r9-285-e-la-volta-della-nuova-gpu-tonga_2.html

Mi sa che rivedo il mio giudizio sulla scheda, non in meglio...

Lan_Di
02-09-2014, 14:36
Hanno spinto tanto sulla questione consumi e poi alla fine consuma come una 280x, con performance tra la 280 e la 280x in base al gioco. :wtf:

ivanto
02-09-2014, 14:37
quando parlano di un passaggio da 250 watt di tahiti a 190 di tonga non è proprio corretto, perche i 250 watt riguardano la 280x e non la 280 che è data per 200w

LurenZ87
02-09-2014, 14:38
Preso da TechPowerUp!

"I measured its die size to be 17.5 x 20.9 mm = 366 mm², which makes the GPU bigger than Tahiti and, most probably, more expensive to produce."

:fagiano:

Inviato dal mio OnePlus One utilizzando Tapatalk

ivanto
02-09-2014, 14:40
che poi grazie che consuma di meno perchè ha 1 gb in meno di ram...

Catan
02-09-2014, 14:45
realmente la cosa turba un pò anche me.
ok togli 1 gb di ram e semplifichi il bus del chip...il controller è magari migliore di quello della 79x0 e 280 (presumo lo abbiano fatto 1:1 dimezzato come quello di 290) quindi più equilibrato rispetto a quello di tahiti che per fare 384bit lo hanno dovuto slegare dall'1a1 della tmu ( sto termine prendetelo con le pinze, può darsi che non sia la tmu precisamente ma il cluster).

La scelta di darmelo a 1792sp non la capisco, perchè non completo a 2048? forse perchè vuoi farmi una 285X e come? sempre con 256bit ma con 2048 sp, cioè quanto, il 6% più veloce della 285 liscia?

Come ha fatto notare lurentz, il chip è più grosso di tahiti, e l'implementazione delle cose extra che sono sulle 290 e sulle 260 a livello audio non giustificano questo ingrandimento (anche perchè hai tolto 1/3 di mc).

Il costo, attualmente una 285 non costa meno di una 280, a parità di sp è meglio 1gb di ram e 128bit di bus in più ovviamente. (le 280 stanno a 200€ circa, quindi queste devono costare almeno 180€ per essere competitive)

Ecco potrebbero essere best buy se e solo se si scopre che tutte le toga di adesso con il flash del bios diventano 285x e abilitano tutte le 2048 sp.

A parte il consumo energetico ridotto, ho un pò di amaro in bocca anche io, perchè mi pare una mossa un pò strana, non per altro.

appleroof
02-09-2014, 14:46
quando parlano di un passaggio da 250 watt di tahiti a 190 di tonga non è proprio corretto, perche i 250 watt riguardano la 280x e non la 280 che è data per 200w

Giusto hai ragione, però mi ero fatto altre aspettative dai rumors...

Preso da TechPowerUp!

"I measured its die size to be 17.5 x 20.9 mm = 366 mm², which makes the GPU bigger than Tahiti and, most probably, more expensive to produce."

:fagiano:

Inviato dal mio OnePlus One utilizzando Tapatalk

Che sia la dimostrazione che è un altro chip pensato per i 20nm (magari come sostituto di pitcairn) come - secondo la mia opinione :D - Hawaii?

Lan_Di
02-09-2014, 14:48
che poi grazie che consuma di meno perchè ha 1 gb in meno di ram...

ha anche un'ampiezza di bus minore, 256 bit contro i 384 della serie 280, per cui anche per questo i consumi dovrebbero essere minori.
Invece hanno migliorato il sistema in idle allineandosi a quello che facevano già con altre schede, poichè più che altro erano le 280 ad essere deficitarie, ma è peggiorato il consumo sotto stress

francisco9751
02-09-2014, 14:53
scaffale pure questa vga comunque.. mi attizza solo la versione itx da 17cm della sapphire..ma se devo aggiungere più di 50 euro per far un cambio..mi tengo la 7950 e bone..
vediamo se anche le 970/980 andranno uguali alle 780/780ti consumando meno o almeno loro avrannò un incremento di prestazioni sostanziale..

comunque nulla di sorprendente imho...sono 285/285X non mica 380..allora si sarebbe stato un scandalo

LurenZ87
02-09-2014, 14:54
realmente la cosa turba un pò anche me.
ok togli 1 gb di ram e semplifichi il bus del chip...il controller è magari migliore di quello della 79x0 e 280 (presumo lo abbiano fatto 1:1 dimezzato come quello di 290) quindi più equilibrato rispetto a quello di tahiti che per fare 384bit lo hanno dovuto slegare dall'1a1 della tmu ( sto termine prendetelo con le pinze, può darsi che non sia la tmu precisamente ma il cluster).

La scelta di darmelo a 1792sp non la capisco, perchè non completo a 2048? forse perchè vuoi farmi una 285X e come? sempre con 256bit ma con 2048 sp, cioè quanto, il 6% più veloce della 285 liscia?

Come ha fatto notare lurentz, il chip è più grosso di tahiti, e l'implementazione delle cose extra che sono sulle 290 e sulle 260 a livello audio non giustificano questo ingrandimento (anche perchè hai tolto 1/3 di mc).

Il costo, attualmente una 285 non costa meno di una 280, a parità di sp è meglio 1gb di ram e 128bit di bus in più ovviamente. (le 280 stanno a 200€ circa, quindi queste devono costare almeno 180€ per essere competitive)

Ecco potrebbero essere best buy se e solo se si scopre che tutte le toga di adesso con il flash del bios diventano 285x e abilitano tutte le 2048 sp.

A parte il consumo energetico ridotto, ho un pò di amaro in bocca anche io, perchè mi pare una mossa un pò strana, non per altro.
Ci sono varie cose che non tornano...

Primo la dimensione del die, mi sembra davvero grande per quei pochi sp ed inoltre, come hai fatto ben notare, non credo che le nuove feature introdotte (già presenti su Hawaii) siano così "ingombranti"...

Secondo, guardando i grafici su TechPowerUp! sul consumo medio, c'è da chiedersi che senso ha questa scheda, cioè dico consuma quasi quanto una GTX 780, anche se quest'ultima ha ben altre performance, inoltre sul fattore overclock si comporta peggio di Tahiti.

Già ero informato in merito alle prestazioni di questa vga, ma i consumi mi lasciano allibito...


Giusto hai ragione, però mi ero fatto altre aspettative dai rumors...



Che sia la dimostrazione che è un altro chip pensato per i 20nm (magari come sostituto di pitcairn) come - secondo la mia opinione :D - Hawaii?

Molto probabile...

Inviato dal mio OnePlus One utilizzando Tapatalk

Lan_Di
02-09-2014, 15:01
scaffale pure questa vga comunque.. mi attizza solo la versione itx da 17cm della sapphire..ma se devo aggiungere più di 50 euro per far un cambio..mi tengo la 7950 e bone..
vediamo se anche le 970/980 andranno uguali alle 780/780ti consumando meno o almeno loro avrannò un incremento di prestazioni sostanziale..

comunque nulla di sorprendente imho...sono 285/285X non mica 380..allora si sarebbe stato un scandalo

Come prestazioni possono andare bene, essendo 285 non possono andare avere un boost troppo grande rispetto alle 280 altrimenti le 285x andrebbero ad intaccare le 290.
Dovrebbero essere un'ottimizzazione delle 280 che vanno a sostituire, con costi di produzione minore e, si sperava, con consumi sensibilmente migliorati.
Invece quello che proprio non convince è l'efficenza, sopratutto alla luce di quello che è riuscita a fare nvidia con le gtx 750 diversi mesi addietro, per cui significa che attualmente sui 28 nm non possono fare molto, a meno che non abbiano qualche asso nella manica per la serie 3xx e che pertanto abbiano risparmiato anche sulla progettazione e che senza sbattersi molto abbiano preso quello che avevano in casa fatto per la 290 tagliuzzando qua e la..

mircocatta
02-09-2014, 15:25
Che sia la dimostrazione che è un altro chip pensato per i 20nm (magari come sostituto di pitcairn) come - secondo la mia opinione :D - Hawaii?

si ma gente, rendiamoci conto che nvidia sta per fare uscire le 980 che teoricamente si dice consumino 190 watt e vanno come le 780ti, un ABISSO architetturale rispetto a questo tonga

appleroof
02-09-2014, 15:49
si ma gente, rendiamoci conto che nvidia sta per fare uscire le 980 che teoricamente si dice consumino 190 watt e vanno come le 780ti, un ABISSO architetturale rispetto a questo tonga

Si come dicevo di là il paragone secco performance gaming/Watt sarebbe impietoso per AMD, ma dipende come al solito dalle scelte architetturali adottate: in passato Nvidia guardava anche al gpgpu sopratutto in Dp e alla potenza bruta sacrificando i consumi e amd con la vliw faceva chip più adatti al gaming (anche se un incubo di ottimizzazione driver) e che consumavano poco, adesso (gk110 escluso) le parti si sono invertite, (probabilmente gm204 andrà peggio di Tonga nel gpgpu per dire) dipende dalle strategie che perseguono e la perfezione non è di questo mondo :D

Edit: il tutto assumendo che il tdp di gm204 sarà in effetti sotto i 200w, sottinteso
riedit: e adesso che ci penso, assumo che i rumors che vorrebbero gm204 a 20nm siano falsi, ma chi lo sa escludere con certezza ora come ora in effetti?

Simedan1985
02-09-2014, 18:32
Ragazzi vi giuro a volte AMD mi lascia veramente perplesso e arrabbiato ... Nn aggiungo altro perché avete detto tutto voi. Come si fa a sfornare qualcosa che va peggio di prima? Dice bene Mirco catta.... Iniziamo a prepararci psicologicamente ad avere gpu monomarca:mad: (e lo dico da amatore di AMD)

cire92cry
02-09-2014, 20:50
Ragazzi vi giuro a volte AMD mi lascia veramente perplesso e arrabbiato ... Nn aggiungo altro perché avete detto tutto voi. Come si fa a sfornare qualcosa che va peggio di prima? Dice bene Mirco catta.... Iniziamo a prepararci psicologicamente ad avere gpu monomarca:mad: (e lo dico da amatore di AMD)

E' un po preoccupante la situazione se AMD non tira fuori una nuova architettura . Nel senso che dopo la 7970 con GNC non ha ancora cambiato. Pure nvidia è rimasta con kepler per molto tempo però ora è in arrivo maxwell che abbiamo già visto nella 750ti.
Al di la dei nanometri se migliori l'architettura riesci a aumentare le performance come con maxwell. Speriamo bene !

Athlon 64 3000+
02-09-2014, 22:18
Davvero un lancio in chiaro scuro per Tonga nella versione R9 285.
Prestazioni piuttosto strane visto che ci passa in giochi dove va come la 280x e 7970 Ghz Edition ad altri dove va leggermente peggio della R9 280.
Interessanti le novità della architettura GCN 1.2
Il lato negativo sono i consumi perchè ci si aspettava un calo dei consumi da rendere più competitiva e invece sono rimasti inalterati.
Mi chiedo cosa avranno inserito in Tonga per giustificare 700 milioni di transistor in più visto che poi il bus è stato ridotto a 256 bit.
Riguardo poi a Tonga si parla che la 285 non abbia tutti gli sp attivi e che la 285x
li avrà tutti attivi e si parla che ci sarà un bus da 384 bit.
Riguardo il bus altri dicono che invece anche per la 285x rimarrà a 256 bit e per compensare si useranno ram più spinte.

Trokji
02-09-2014, 22:27
boh mi pare che questa tonga non sia una scheda di nuova generazione, ma una "rivisitazione" in attesa della nuova generazione che magari può darsi sia in ritardo per vari motivi

Catan
02-09-2014, 23:20
il problema è che è una rivisitazione he non ha un senso a livello prestazionale.
Se vuoi stare tra le 270x e le 280x il prezzo è sballato, se vuoi prendere il posto delle 280 è sensata, ma deve vere lo stesso prezzo, non 50€ di più (senza contare che visto la vita media delle 280 lisce, cioè una estate, non ha senso che te le sei sparate)...

Insomma secondo attualmente meglio tenere d'occhio come falchetti gli shop online che vorranno sbarazzarsi delle 280 lisce, capace che a 180-190€ le diano via (senza contare che anche le 280 concorrono per il bundle a 3 giochi ergo...)

è un peccato perchè pensavo di mettere sta 285 nel mini itx gaming sperando in consumi più parchi, ma soprattutto prezzo più parco, deve costare 200$, non 250$ (o meglio mettiamola cosi, deve costare 180-190€, non 240€ come negli shop adesso)

ivanto
03-09-2014, 06:13
sono in uscita le nuove cpu fx 8 core a 95W che vengono consigliate da abbinare ad una 285
sarebbe interessante una prova di una 295 con uno di questi 8core a 95W
http://s3.postimg.org/agdjanpg3/cpu_95w.jpg

okorop
03-09-2014, 07:35
Secomdo me Amd ha in serbo una scheda video top gnc 1.2 quando nvida presenterà le sue nuove schede con un mc più efficiente e più piccolo dei 512 delle 290-290x con consumi inferiori

mircocatta
03-09-2014, 07:59
sono stati fatti test in gpgpu?
mining? perchè magari è sotto questo aspetto la vera sorpresa..

francisco9751
03-09-2014, 09:33
l'architettura quella è, quindi le performance quelle sono...ma non so se ha ancora senso minare

tapatalked with LG G2

Ale55andr0
03-09-2014, 13:05
boh mi pare che questa tonga non sia una scheda di nuova generazione, ma una "rivisitazione" in attesa della nuova generazione che magari può darsi sia in ritardo per vari motivi

a me sto ritardo non fa pensare positivo, l'ho detto e sono pure stato citicato, ma ad oggi ripeto che l'assordante silenzio di AMD a me non mette il sorriso, di nuovo non ha presentato praticamente nulla, manco mezzo dato giusto ad attirar l'attenzione visto che maxwell è realtà pur se ancora in chiave economica. Se fanno come per le cpu non siamo messi benissimo :fagiano: io l'ho detto che a me tutta sta storia con gcn 1, 1.1, 1.2, 2,3456978 non mi convince per nulla: quand'è che fanno qualcosa di totalmente nuovo nell'architettura? :stordita:

francisco9751
03-09-2014, 13:08
magari hanno gia dato il massimo???se la 980 andrà come la 780ti consumando 50W in meno,non c'è motivo di fare nuove architetture solo per consumarr di meno..perché utenti a cui queste schede sono rivolte,non dovrebbero certo guardare se una vga consuma 250W o 300W..

tapatalked with LG G2

Einhander
03-09-2014, 15:21
magari hanno gia dato il massimo???se la 980 andrà come la 780ti consumando 50W in meno,non c'è motivo di fare nuove architetture solo per consumarr di meno..perché utenti a cui queste schede sono rivolte,non dovrebbero certo guardare se una vga consuma 250W o 300W..

tapatalked with LG G2

concordo, tuttavia la scheda uscita ora non e' certo su quella fascia di prezzo, piu' che altro c'e' da dire che le lievi differenze con la la 280x possono essere colmate anche da un paio di release driver, cmq per quanto simile sto gcn e' diverso da quello precedente e un minimo di ottimizzazione lato driver sara' necessario come per tutte le schede uscite fin'ora e data la differenza in media dell'ordine del 10% scarso e' plausibile che il gap venga colmato cosi'.

Per quanto riguarda l'efficienza sono d'accordo che nvidia e' avanti, ma ha sacrificato anche diverse cose e cmq propone in media le sue schede -soprattutto le top di gamma- a prezzi decisimente superiori appena uscite e come chiedevo oggi a Crapa quanto tempo ci metti a colmare 50-100 euro di differenza rispetto alle nvidia tramite bolletta? -chiaramente il riferimento in quel caso era rispetto a tahiti e alla 780 o a quella ladrata della titan- che poi e' chiaro che consumi di meno inizialmente, hai meno ram, non esisti nel gpgpu e vai pure di meno, perche' cavolo dovresti consumare di piu'?????

Sono convinto che se amd tornasse ai chip piccoli ed efficienti nvidia ritirerebbe fuori dalla scatola il gpgpu e le prestazioni massime dicendo che amd e' una scheda con cui "si puo' solo giocare" xD.

Come al solito due pesi e due misure, solo che non capisco perche' la gente segua sempre i "pesi decisi da nvidia" detto sinceramente : D.

siluro85
03-09-2014, 15:39
concordo, tuttavia la scheda uscita ora non e' certo su quella fascia di prezzo, piu' che altro c'e' da dire che le lievi differenze con la la 280x possono essere colmate anche da un paio di release driver, cmq per quanto simile sto gcn e' diverso da quello precedente e un minimo di ottimizzazione lato driver sara' necessario come per tutte le schede uscite fin'ora e data la differenza in media dell'ordine del 10% scarso e' plausibile che il gap venga colmato cosi'.

Per quanto riguarda l'efficienza sono d'accordo che nvidia e' avanti, ma ha sacrificato anche diverse cose e cmq propone in media le sue schede -soprattutto le top di gamma- a prezzi decisimente superiori appena uscite e come chiedevo oggi a Crapa quanto tempo ci metti a colmare 50-100 euro di differenza rispetto alle nvidia tramite bolletta? -chiaramente il riferimento in quel caso era rispetto a tahiti e alla 780 o a quella ladrata della titan- che poi e' chiaro che consumi di meno inizialmente, hai meno ram, non esisti nel gpgpu e vai pure di meno, perche' cavolo dovresti consumare di piu'?????

Sono convinto che se amd tornasse ai chip piccoli ed efficienti nvidia ritirerebbe fuori dalla scatola il gpgpu e le prestazioni massime dicendo che amd e' una scheda con cui "si puo' solo giocare" xD.

Come al solito due pesi e due misure, solo che non capisco perche' la gente segua sempre i "pesi decisi da nvidia" detto sinceramente : D.
nulla da aggiungere.

Trokji
03-09-2014, 15:50
Non sono molto d'accordo.. Nvidia con maxwell sta facendo il colpaccio, un aumento di efficienza da una generazione alla successiva che non si era mai visto forse da 10 anni a questa parte o più. Questo sarà un vantaggio chiave, perché nvidia vuole sopratutto espandersi sul mobile, e lì avere un aumento del genere di efficienza vorrà dire a breve giocare a crysis su tablet sottili e dal costo basso o addirittura su smartphones (vedi K1 che ancora usa Kepler!). Senza contare la sempre maggiore attenzione per i consumi anche a livello server.
AMD ha fatto il colpaccio per le console (EDIT: colpaccio forse col senno di poi, ma a priori nessuno sapeva quanto ancora il mercato console avrebbe tirato, con smartphones e tablet così potenti già in giro), ma a parte quello anche sulle APU si è arenata. Interessante HSA, ma lascia il tempo che trova se il 99% dei programmi non lo supportano. Il vantaggio di AMD è che (più per i consumatori) così ha abbassato i prezzi di gpu in definitiva ancora potenti come tahiti, ma che ormai hanno la loro età e consumano molta corrente. Non è che AMD può proporre FX a 50 euro oppure farne da 400W.. oppure continuare a proporre ancora tahiti abbassando ancora i prezzi, prima o poi questa strategia se il divario tecnologico aumenta non funziona più. Di sicuro hanno in serbo un grosso cambiamento dietro l'angolo sulle GPU, sperando che sia la mossa giusta a questo giro

Ale55andr0
03-09-2014, 16:43
magari hanno gia dato il massimo???se la 980 andrà come la 780ti consumando 50W in meno,non c'è motivo di fare nuove architetture solo per consumarr di meno...

vabò ma queste sono solo supposizioni. Di mio, visto che maxwell già a 28 nm consuma poco non credo proprio che con le top maxwell a 20nm si limitino ad andare come una 780ti...consumi o non consumi...e poi a sua volta non avrebbe senso per nvidia fare una nuova top che va come la precedente, sarebbe un suicidio commerciale

elijahk
03-09-2014, 17:10
avete notato che tutte le 285 testate sono in versione OC?
Dando una rapida occhiata alle recensioni, si vede che ogni custom oc di sapphire, msi, asus danno valori di consumi molto diversi. Quella Asus consuma tra una 760 e una 280. Quelle sapphire e msi consumano più della 280, a volte anche più della 280X. Le prestazioni tra le varie versioni, a confronto con le altre schede reference, non variano un granché.
Secondo me oltre a dei driver non ancora perfetti, le 285 recensite stanno tutte lavorando molto meno efficientemente di quanto dovrebbero. Diciamo che 20W in più rispetto alla 760 è un dato realistico http://www.guru3d.com/articles_pages/amd_radeon_r9_285_review,5.html ma 50W in più ha qualcosa di assurdo.
Vorrei vedere qualcuno che abbia provato a downvoltare o almeno simulare clock e voltaggi reference per questa scheda, e vedere veramente dove arriva.

Einhander
04-09-2014, 12:18
Non sono molto d'accordo.. Nvidia con maxwell sta facendo il colpaccio, un aumento di efficienza da una generazione alla successiva che non si era mai visto forse da 10 anni a questa parte o più. Questo sarà un vantaggio chiave, perché nvidia vuole sopratutto espandersi sul mobile, e lì avere un aumento del genere di efficienza vorrà dire a breve giocare a crysis su tablet sottili e dal costo basso o addirittura su smartphones (vedi K1 che ancora usa Kepler!). Senza contare la sempre maggiore attenzione per i consumi anche a livello server.
AMD ha fatto il colpaccio per le console (EDIT: colpaccio forse col senno di poi, ma a priori nessuno sapeva quanto ancora il mercato console avrebbe tirato, con smartphones e tablet così potenti già in giro), ma a parte quello anche sulle APU si è arenata. Interessante HSA, ma lascia il tempo che trova se il 99% dei programmi non lo supportano. Il vantaggio di AMD è che (più per i consumatori) così ha abbassato i prezzi di gpu in definitiva ancora potenti come tahiti, ma che ormai hanno la loro età e consumano molta corrente. Non è che AMD può proporre FX a 50 euro oppure farne da 400W.. oppure continuare a proporre ancora tahiti abbassando ancora i prezzi, prima o poi questa strategia se il divario tecnologico aumenta non funziona più. Di sicuro hanno in serbo un grosso cambiamento dietro l'angolo sulle GPU, sperando che sia la mossa giusta a questo giro

Si ma qua si parla di schede video desktop non per smartohone ecc, il grande aumento di efficienza, per quanto mi riguarda, deve essere accompagnato da un altrettanto valido aumento delle prestazioni e allora si che e' il colpaccio come dici te. Se invece e' come si sente in giro che ci sia la possibilita' che le nuove verdi vadano come la 780ti ma consumando meno, non me ne faccio nulla sinceramente e cmq la 750ti e' una scheda molto, ma molto piu' semplice di una 780ti per cui persino a parita' di architettura considerando i controller di memoria, bus, stream processors o cuda core, e' veramente piu' semplice ridurre i consumi pur aumentando le prestazioni.

Il mio discorso era improntato nell'ottica del paragone tra tahiti e le varie 70ti, 780, titan ecc ecc.

e i data center, se invece di mettere una scheda ne devono mettere due o tre per recuperare quell'abisso che separa tahiti dalle nvidia nel gpgpu direi che non ci guadagnano ne in spazio, ne in calore, ne in consumi...il problema e' che per ambiti professionali o calcoli generici tahiti e' veramente un mostro e quando vedo quei numerini essere dalle due alle 4 volte superiori alla controparte mi chiedo come te cosa se ne fanno nei datacenter, visto che per avere la stessa potenza di elaborazione si ha necessita' del doppio o il triplo delle schede video. Francamente e' proprio sul questo aspetto che le nvidia toppano di piu' e il caso del mining con tahiti ne e' un prova.

Paradossalmente per un datacenter e' preferibile avere maggiori prestazioni con minor consumo, ingombro, e calore sprigionato, ovviamente su singola scheda le nvidia vanno meglio per tutto salvo le PRESTAZIONI quindi alla fine della fiera, se ho bisogno di x potenza elaborativa e mi servono x schede amd che consumano un po' di piu' a pieno regine delle controparti o 2x\3x di schede nvidia secondo te alla fine, considerando lo spazio richiesto, corrente e calore quale risulta preferibile?

Concordo sul mobile dove nvidia si e' buttata a capofitto e infatti si parla di dispositivi con singola scheda video e portatili, ma i datacenter no, quelli lasciamoli stare che il discorso manco si pone, o almeno, si porrebbe nel momento in cui a maggiori consumi si affiancassero prestazioni piu' o meno simili e sebbene sia il caso su applicazioni come i giochi per i calcoli gpgpu il divario e' tutt'ora enorme. Cioe' se consumo il 20-0% in meno e vado dal 200% al 400% in meno nel gpgpu costando di piu', la mia efficienza e' calata drasticamente, altro che aumento : D.
In tutto questo non ho neanche considerato il prezzo ovviamente, in media piu' alto.

chiaramente il discorso e' diverso nell'abito domestico dove un cosumo minore abbinato a prestazioni paragonabili e' cmq una buona alternativa, cmq piu' costosa, ma sicuramente valida. -e cmq anche qui si pone il problema della vram in meno, inesistenza o quasi del gpgpu rispetto alla controparte ecc ecc. Pero' in questo caso chiaramente la situazione e' quasi allineata -escludendo sempre la ladrata titan : D-.


Cmq quello su cui vorrei soffermarmi e' in realta' il nuovo controller di memoria delle 285 che mi pare di gia' funzioni molto, ma molto bene, al punto che una scheda con meno bus, meno vram, meno stream processors sia allineata con chi ne ha di piu' praticamente quasi solo per l'efficienza del controller.

E cmq almeno un mese o due di ottimizzazione driver per una maggiore costanza di rendiminto e' sempre da mettere in conto, come dicevo prima, e' pur sempre un gcn, ma nel bene o nel male diverso, idem per mantle.

Ale55andr0
04-09-2014, 12:58
Si ma qua si parla di schede video desktop non per smartohone ecc, il grande aumento di efficienza, per quanto mi riguarda, deve essere accompagnato da un altrettanto valido aumento delle prestazioni e allora si che e' il colpaccio come dici te. Se invece e' come si sente in giro che ci sia la possibilita' che le nuove verdi vadano come la 780ti ma consumando meno, non me ne faccio nulla sinceramente e cmq la 750ti e' una scheda molto, ma molto piu' semplice di una 780ti per cui persino a parita' di architettura considerando i controller di memoria, bus, stream processors o cuda core, e' veramente piu' semplice ridurre i consumi pur aumentando le prestazioni.


sto discorso ha di fondo una pecca, anzi due: anzitutto la 750 sarà anche più semplice ma resta a 28nani...ergo l'efficenza energetica/performance pura è aumentata comunque... e tale incremento, in misura minore che sia, lo si avrà anche sulle top. Secondo, se nvidia fa una top che va come la 780ti e consuma meno, a parte che un soldo di danno non fa, è perchè decide di non farla andare di più, proprio perchè ha un margine da giostrarsi su alimentazione e disispazione: se volesse farla consumare quanto la 780ti, per forza andrebbe più forte, non si scappa, visto che maxwell ha mostrato che con meno bus, sp ecc va più forte di kepler a priori e se le fanno a 20 nani poi io proprio non vedo come possano fare una vga che vada come la 780ti... avete mai visto una top nvidia (ma anche AMD/Ati) andare uguale alla generazione precedente?! :sbonk: e poi parliamo di nvidia, l'azienda delcelolunghismocostiquelchecosti per eccellenza, che non ha mancato di sfornare...forni pur di fare 5fps in più, per così dire :sofico:

Trokji
04-09-2014, 13:57
sto discorso ha di fondo una pecca, anzi due: anzitutto la 750 sarà anche più semplice ma resta a 28nani...ergo l'efficenza energetica/performance pura è aumentata comunque... e tale incremento, in misura minore che sia, lo si avrà anche sulle top. Secondo, se nvidia fa una top che va come la 780ti e consuma meno, a parte che un soldo di danno non fa, è perchè decide di non farla andare di più, proprio perchè ha un margine da giostrarsi su alimentazione e disispazione: se volesse farla consumare quanto la 780ti, per forza andrebbe più forte, non si scappa, visto che maxwell ha mostrato che con meno bus, sp ecc va più forte di kepler a priori e se le fanno a 20 nani poi io proprio non vedo come possano fare una vga che vada come la 780ti... avete mai visto una top nvidia (ma anche AMD/Ati) andare uguale alla generazione precedente?! :sbonk: e poi parliamo di nvidia, l'azienda delcelolunghismocostiquelchecosti per eccellenza, che non ha mancato di sfornare...forni pur di fare 5fps in più, per così dire :sofico:

quoto.. comunque vedevo la recensione di tonga e pare che quei 40W li abbia recuperati, nella recensione di tom's. Non è una cosa stratosferica e non può competere con maxwell sul fronte dell'efficienza, ma sembra il miglioramento ci sia e non sia quindi esattamente uguale alla 280 :D
Per rispondere in parte al discorso precedente: elemento chiave dell'evoluzione tecnologica parlando di cpu o gpu è l'efficienza.. perché poi il tdp viene limitato dai problemi di smaltimento del calore, spazio, consumi (che sono più o meno uguali di generazione in generazione).
Non ci sono motivi per cui Nvidia non potrebbe fare una gpu maxwell da 400W in linea teorica, nella pratica decideranno quando quanto e se converrà in base al mercato e decisioni di altro tipo.
Per quanto riguarda i supercomputers è vero che AMD ha venduto molte 280x, 290 e 290x, ma si tratta di utenze perlopiù domestiche che fanno mining o gp gpu per calcoli scientifici.
Le aziende che hanno i supercalcolatori da quello che so hanno ancora le titan, ci sono supercomputers nella top 100 con titan, non con schede AMD (i supercomputers più potenti hanno ancora gli Xeon sebbene come potenza bruta costino molto più delle titan). I motivi possono essere molteplici, ma alla base credo ci sia che nvidia ha proposto fin da subito titan per questi scopi, con la sua piattaforma, supporto.. AMD ha venduto schede da gaming che potevano fare ANCHE gpgpu a buone prestazioni.
Questo parlando di supercomputer in senso stretto, nel senso un supercalcolatore collocato in un dato luogo e che un numero limitato di persone controllano, poi se si considera come supercomputer il supercomputer globale di bitcoin, litecoin o folding@home allora sì sono più potenti e AMD ha una rilevanza ben maggiore (ma questo è un supercomputer distribuito che non rientra nel concetto di supercomputer in senso classico, perché è dato dall'adesione spontanea di utenti e non completamente controllabile dunque).
Tornando al discorso mobile in realtà è molto più ampio di quanto è stato detto.. Nvidia ha già tegra fuori da un po' di tempo, prodotto con buone prestazioni ma che al momento non ha avuto successo. Ma con K1 potrebbe averne, lo stanno mettendo quasi dappertutto come calcolatore multi purpose a basso consumo e costi contenuti. Inoltre se vedete il nuovo tablet siamo già a livelli di calcolo ben superiori a xbox 360 e ps3, vale a dire che questo tipo di prodotti a costo minore andranno ad intaccare il mercato console e perfino il mercato pc gaming probabilmente in pochi anni (settori che solo in minima parte sono stati intaccati dal gaming ultra mobile perché di fatto né apple né altre aziende grosse hanno realizzato soluzioni convincenti in questo campo). E questo con K1 che è un chip che usa ancora Kepler, un'architettura già vecchia, con Maxwell le prestazioni saranno già simili con ogni probabilità alle consoles attuali

okorop
04-09-2014, 17:38
Ecco un po di recensioni della 285 in attesa della 285x scheda video assai interessante secondo me :D

http://www.techpowerup.com/reviews/Sapphire/R9_285_Dual-X_OC/
http://www.hardwareheaven.com/2014/09/radeon-r9-285-review/
http://hothardware.com/Reviews/AMD-Radeon-R9-285-GPU-Review-Tonga-Arrives/#!bPHaEp
http://www.tomshardware.com/reviews/amd-radeon-r9-285-tonga,3925.html#xtor=RSS-182
http://www.cowcotland.com/articles/1714/carte-graphique-sapphire-r9-285-dual-x.html
http://techgage.com/article/amds-gtx-760-killer-msi-radeon-r9-285-twin-frozr-iv-review/
http://www.kitguru.net/components/graphic-cards/zardon/asus-r9-285-strix-review/
http://www.kitguru.net/components/graphic-cards/zardon/asus-r9-285-strix-review/
http://www.eteknix.com/sapphire-dual-x-amd-r9-285-tonga-2gb-graphics-card-review/
http://www.tweaktown.com/reviews/6634/sapphire-radeon-r9-285-2gb-dual-x-oc-video-card-review/index.html
http://www.legionhardware.com/articles_pages/amd_radeon_r9_285,1.html
http://www.hardwarespot.de/?id=100040291
http://www.guru3d.com/articles-pages/amd-radeon-r9-285-review,1.html
http://ht4u.net/reviews/2014/amds_tonga-gpu_-_radeon_r9_285_im_test/
http://techreport.com/review/26997/amd-radeon-r9-285-graphics-card-reviewed
http://www.computerbase.de/2014-09/amd-radeon-r9-285-test-benchmarks/?utm_source=newsletter-webarticle&utm_medium=email&utm_content=html&utm_term=content-label&utm_campaign=newsletter-webarticle

Frangy2
04-09-2014, 21:25
sono in uscita le nuove cpu fx 8 core a 95W che vengono consigliate da abbinare ad una 285
sarebbe interessante una prova di una 295 con uno di questi 8core a 95W

Gurda che gli E sono processori a Risparmio.
infatti hanno meno mhz della stessa serie............e costano uguale o di meno

ci sono anche i7 4770 Serie S e Serie T che sono a risparmio anche loro.
e hanno meno TDP..........

se vuoi le prestazioni si deve sempre andare sul quelle LISCE :cool:

HadesSaint
05-09-2014, 07:12
Gurda che gli E sono processori a Risparmio.
infatti hanno meno mhz della stessa serie............e costano uguale o di meno

ci sono anche i7 4770 Serie S e Serie T che sono a risparmio anche loro.
e hanno meno TDP..........

se vuoi le prestazioni si deve sempre andare sul quelle LISCE :cool:

Ma come ne parlano bene di questi nuovo processori serie E

thepunisher515
05-09-2014, 09:43
Scusate una piccola domanda, la 285 alcuni la vendono a 250. Ieri avevo letto che nvidia abbassa il prezzo della gtx770 sembra di una 50 di euro. Ora senza offesa per amd, ma chi me lo fa fare di prendermi una 285 sapphire, quando a quel prezzo mi prendo una gtx 770 asus oppure msi??

capitan_crasy
05-09-2014, 10:21
Scusate una piccola domanda, la 285 alcuni la vendono a 250. Ieri avevo letto che nvidia abbassa il prezzo della gtx770 sembra di una 50 di euro. Ora senza offesa per amd, ma chi me lo fa fare di prendermi una 285 sapphire, quando a quel prezzo mi prendo una gtx 770 asus oppure msi??

Mai prendere una scheda appena uscita, la paghi 50 euro più del necessario almeno in Italia.
Se vai sul mercato tedesco riesco a trovare in listino 285 al prezzo di €.219, un mesetto d'attesa e rischi di trovarme anche a meno...

thepunisher515
05-09-2014, 11:09
Forse ho capito cosa intendi, acquistando dalla germania, io la comprerei anche ma. La garanzia come funziona? Quali sono i venditori validi in germania?

capitan_crasy
05-09-2014, 11:19
Forse ho capito cosa intendi, acquistando dalla germania, io la comprerei anche ma. La garanzia come funziona? Quali sono i venditori validi in germania?

Non devi per forza acquistarla in Germania, era solo per farti vedere l'effetto novità che da noi (ma non solo) equivale ad un sovraprezzo ingiustificato.

http://i.imgur.com/vlacTB5.jpg

Ripeto bisogna aspettare un mesetto e i prezzi dovrebbero cominciare ad abbassarsi anche in Italia...

Frangy2
05-09-2014, 11:40
Scusate una piccola domanda, la 285 alcuni la vendono a 250. Ieri avevo letto che nvidia abbassa il prezzo della gtx770 sembra di una 50 di euro. Ora senza offesa per amd, ma chi me lo fa fare di prendermi una 285 sapphire, quando a quel prezzo mi prendo una gtx 770 asus oppure msi??

lo so' quello che intendi.......
ma ha le dx12.......tanto per dire

oppure per 20 euro si prende anche la 280x

jumpboy8
05-09-2014, 12:03
Mai prendere una scheda appena uscita, la paghi 50 euro più del necessario almeno in Italia.
Se vai sul mercato tedesco riesco a trovare in listino 285 al prezzo di €.219, un mesetto d'attesa e rischi di trovarme anche a meno...
Mah io non la vedo tutta sta differenza, su trovaprezzi le 285 partono da 212€

elijahk
05-09-2014, 12:14
ma se la 280X sta a 237€ perché si considera la 285?

ivanto
05-09-2014, 12:15
a mio parere prendete la 280 a 170/180€ finchè ce ne sono...
questa è usa sapphire 280 dual x overcloccata

http://s13.imagestime.com/out.php/i971942_sapphire280oc.JPG

Frangy2
05-09-2014, 12:16
Rega' dico una cavolata che le nuove 285 hanno le dx12 e le altre sono ferme alle 11.2??

avevo visto una slay che le mostrava e diceva cosi

Frangy2
05-09-2014, 12:23
ok grazie.
anche io sapevo che erano solo software.

avevo sentito dire che in parte pero'.
per sfruttare appieno le dx12 ci vuole l'hardware.

Vediamo dai.



Based on preliminary DirectX 12 specifications as of July 2014, AMD's GCN-based products are expected to support DX12 upon its release. That said, the DX12 specification is subject to change without notice before release, so I am not sure we can call this "official" support just yet, though AMD is confident enough to already claim so.

capitan_crasy
05-09-2014, 13:45
Mah io non la vedo tutta sta differenza, su trovaprezzi le 285 partono da 212€

Hai ragione, infatti non ce una grande differenza con il mercato tedesco; ottima notizia...:)

ma se la 280X sta a 237€ perché si considera la 285?

A parte che non si sa per quanto la 280x resterà in commercio oggi personalmente preferirei un tonga per via delle nuove tecnologie aggiuntive...

Einhander
05-09-2014, 14:47
sto discorso ha di fondo una pecca, anzi due: anzitutto la 750 sarà anche più semplice ma resta a 28nani...ergo l'efficenza energetica/performance pura è aumentata comunque... e tale incremento, in misura minore che sia, lo si avrà anche sulle top. Secondo, se nvidia fa una top che va come la 780ti e consuma meno, a parte che un soldo di danno non fa, è perchè decide di non farla andare di più, proprio perchè ha un margine da giostrarsi su alimentazione e disispazione: se volesse farla consumare quanto la 780ti, per forza andrebbe più forte, non si scappa, visto che maxwell ha mostrato che con meno bus, sp ecc va più forte di kepler a priori e se le fanno a 20 nani poi io proprio non vedo come possano fare una vga che vada come la 780ti... avete mai visto una top nvidia (ma anche AMD/Ati) andare uguale alla generazione precedente?! :sbonk: e poi parliamo di nvidia, l'azienda delcelolunghismocostiquelchecosti per eccellenza, che non ha mancato di sfornare...forni pur di fare 5fps in più, per così dire :sofico:

Si pero' aspetta un momento, quello che tu dici per le schede video e' corretto ma qui si parlava di tahiti e delle 780 o 780ti o titan che in confronto alle radeon non ho ben capito -a parte la storia dei consumi- dove prevalgano visto che in alcuni ambiti sono molto meno performanti pur costando di piu'.

Chiaro che per quello che deve ancora uscire nessuno ha la palla di vetro e personalmente non condivido molto la strada intrapresa della scheda video con cui puoi solo giocare ora che ci sono interessanti possibilita' per il calcolo distribuito anche su scheda video.

Ripeto quando nvidia ha creato il fenomeno gpgpu andava tutto bene fin quando i consumi non sono divenuti un problema in relazione a quelle delle radeon vliw, e infatti per 5 fps in piu' e' arrivata a fare schede mostruosamente assetate di energia.
Ora che le radeon hanno maggiori prestazioni -ad eccezione della 780ti- e maggiori se non enormi potenzialita' per il gpgpu non va piu' bene perche' consumano a pieno carico 50-60 watt in piu'? con piu' memoria e unita' di calcolo perche' non limitate solo al gioco?

Come fate a non vedere i due pesi e le due misure?
nvidia cambia il metro di paragone ogni volta che la concorrente si avvicina o la supera e parimenti cambia il metro di paragone anche nostro?
Ma perche?

Io credo che invece la scelta giusta sia una unita' in grado di svolgere una grande varieta' di compiti con eccellenti prestazioni anche a consumi piu' alti, perche' se poi mi specializzo troppo alla fine faccio bene solo una cosa e quindi divento troppo settoriale e poi parliamoci chiaro, l'evoluzione della grafica sara' in stallo, o rallentata di brutto, almeno per i prossimi 5 anni causa scatolette, quindi si puo' affinare sia il gpgpu per aumentare le prestazioni di software vari e ridurre i consumi, ma se questo avviene a scapito di qualche feature importante per me non e' un evoluzione, e' una limitazione mascherata dal risparmio energetico.

P.s.: le tesla sono nei laboratori perche' nvidia ha da sempre una carta vincente in piu' dell'avversaria: il marketing e le limitazioni sottobanco XD.

appleroof
05-09-2014, 15:18
Che spettacolo:

videocardz.com/52134/asus-republic-gamers-announces-ares-iii

°Phenom°
05-09-2014, 15:42
Che spettacolo:

videocardz.com/52134/asus-republic-gamers-announces-ares-iii

Davvero un gioiellino anche di estetica, non fosse per il prezzo assurdo che di sicuro avrà :asd:

appleroof
05-09-2014, 15:43
Davvero un gioiellino anche di estetica, non fosse per il prezzo assurdo che di sicuro avrà :asd:

Si per i comuni mortali è solo da ammirare :D

Athlon 64 3000+
05-09-2014, 16:51
Come gia avevo scritto il giorno della presentazione mi sto chiedendo a cosa sono dovuti i 700 milioni di transistor in più di Tonga rispetto a Tahiti.
Mi chiedo se sono dovuto all'introduzione delle funzioni di True Audio e Free sync,poi al potenziamento della parte di Tesselation e poi alla varie ottimizzazioni che la rendono GCN 1.2

Einhander
05-09-2014, 16:57
Come gia avevo scritto il giorno della presentazione mi sto chiedendo a cosa sono dovuti i 700 milioni di transistor in più di Tonga rispetto a Tahiti.
Mi chiedo se sono dovuto all'introduzione delle funzioni di True Audio e Free sync,poi al potenziamento della parte di Tesselation e poi alla varie ottimizzazioni che la rendono GCN 1.2

Credo che le tue deduzioni siano corrette - ma poi la 285 e' compatibile dx12 o no?- soprattutto per le unita' di tessellazione, piu' che per il free sync,m probabile anche il true audio comporti qualche pezzo di silicio in piu' ma secondo me e' in maggior parte in relazione alle unita' per la tessellation e per l'assenza del connettore o ponte per il crossfire..poi non so' il controller di memoria piu' avanzato se anche quello comporta un aumento di transistor :stordita:

HadesSaint
05-09-2014, 18:47
quella 290x in titanio verra di piu della 294X2 lol

Einhander
05-09-2014, 19:49
Siete de coccio xD. Le dx12 non richiedono nuovo hw! Sono compatibili con le gpu in dx 11.2.

we calma eh, sono stato via un po' e non ricordavo tale dettaglio >_>'...
In ogni caso il nuovo hardware sulle 285 c'e' eccome tra il controller -che sarei curioso di vedere applicato alle fasce piu' alte- e le nuove unita' per la tessallation credo che insieme possano giustificare i 700 mln di transistor in piu' : )

okorop
05-09-2014, 21:41
we calma eh, sono stato via un po' e non ricordavo tale dettaglio >_>'...
In ogni caso il nuovo hardware sulle 285 c'e' eccome tra il controller -che sarei curioso di vedere applicato alle fasce piu' alte- e le nuove unita' per la tessallation credo che insieme possano giustificare i 700 mln di transistor in piu' : )

la 285 ha anche il controller per il fresync e qualche altra cosa, comunque credo che per una vera evoluzione dovremmo aspettare le nuove vga a 20nm....ste 285 non son niente male, bus ridotto ma performance simili alla 280=miglior efficienza

°Phenom°
05-09-2014, 21:48
Quando dovrebbe uscire la 285X?

okorop
05-09-2014, 21:51
Quando dovrebbe uscire la 285X?

notizie non sono ancora trapelate ma penso prima della fine del mese.....sarebbero molto interessanti le 295x: stessi sp della 290x ma con un mc ridotto e maggiore efficienza energetica già vista con la 285.....
chi vivrà vedrà :D

°Phenom°
05-09-2014, 22:14
Non penso ci sarà una 295x comunque, oppure mi sono perso qualcosa? :D

okorop
05-09-2014, 22:16
Non penso ci sarà una 295x comunque, oppure mi sono perso qualcosa? :D

no non ci sarà purtroppo, ma prevedo nei 20 nani una riduzione del bus per le vga di fascia alta....

°Phenom°
05-09-2014, 22:17
no non ci sarà purtroppo, ma prevedo nei 20 nani una riduzione del bus per le vga di fascia alta....

Sarà da vedere, purtroppo ancora non si sa nulla dei 20nm o se magari si passi direttamente oltre con il pp.. :O

okorop
05-09-2014, 22:26
Sarà da vedere, purtroppo ancora non si sa nulla dei 20nm o se magari si passi direttamente oltre con il pp.. :O

di un haway xtx se ne sentito parlare in luglio chissa se qualcosa si muove oppure no....staremo a vedere :)

http://videocardz.com/51021/amd-gcn-update-iceland-tonga-hawaii-xtx
http://www.techstation.it/news/amd-prepara-iceland-tonga-e-hawaii-xtx-le-gpu-per-il-futuro-8630.html
http://www.thinkcomputers.org/amd-to-launch-hawaii-xtx-gpu/
http://www.eteknix.com/amd-hawaii-xtx-r9-295x-confirmed-3072-gcn-cores/
http://www.tomshw.it/cont/news/iceland-tonga-e-hawaii-xtx-il-futuro-delle-schede-radeon/57845/1.html

Frangy2
05-09-2014, 23:51
Era un tono scherzoso tranquillo ;)

lhai tradotto questo??

Based on preliminary DirectX 12 specifications as of July 2014, AMD's GCN-based products are expected to support DX12 upon its release. That said, the DX12 specification is subject to change without notice before release, so I am not sure we can call this "official" support just yet, though AMD is confident enough to already claim so.

LurenZ87
05-09-2014, 23:54
questa credo sia una delle parti più interessanti che tutti volevamo vedere nelle recensioni della R9 285, ovvero Tahiti vs Tonga a parità di frequenza sul core e di banda passante ;)

http://www.hardware.fr/articles/926-24/tonga-vs-tahiti.html

:)

°Phenom°
06-09-2014, 00:20
questa credo sia una delle parti più interessanti che tutti volevamo vedere nelle recensioni della R9 285, ovvero Tahiti vs Tonga a parità di frequenza sul core e di banda passante ;)

http://www.hardware.fr/articles/926-24/tonga-vs-tahiti.html

:)

Non sembrerebbe male come miglioramento :)

Ale55andr0
06-09-2014, 12:31
sarà si e no un 7-8% facendo la media tra i risultati migliori e quelli in cui si stacca di pochissimo, non mi pare un granchè anche se meglio di nulla. Comunque AMD per ora pare dormire, e se dovessero parlare ancora di gcn per il prossimo giro di vga, lo chiamassero pure 3.0, per restarebbe la stessa solfa

°Phenom°
06-09-2014, 13:16
sarà si e no un 7-8% facendo la media tra i risultati migliori e quelli in cui si stacca di pochissimo, non mi pare un granchè anche se meglio di nulla. Comunque AMD per ora pare dormire, e se dovessero parlare ancora di gcn per il prossimo giro di vga, lo chiamassero pure 3.0, per restarebbe la stessa solfa

Vedremo, per adesso non si sa nulla di nulla :rolleyes:

Ale55andr0
06-09-2014, 13:27
Vedremo, per adesso non si sa nulla di nulla :rolleyes:

ma che mi rolleyesseggi a fare? :D (o lo facevi in generale sulla situazione :)) AMD ad oggi ha tirato fuori tonga non si sa bene per far che, e che non consuma nemmeno quanto promesso...per il resto zitti e muti: ergo o hanno per le mani un arma nucleare e vogliono attaccare hiroshima col fattore sorpresa.. o sanno di dover fare una scoreggia e non vogliono farla sentire in pubblico :oink:

°Phenom°
06-09-2014, 13:28
Ahahah epic post :asd: :sofico:

francisco9751
06-09-2014, 13:33
Beh seeffettivamente la 980 va un 10% in più di una 780ti,consumando un po di meno,imho per un 10% non vale la.pena far uscrir una nuova gpu,ci sta che abbiano fatto sto ragionamento,altrimenti non saprei...ma ricordiamo perché la 780ti consuma meno, è inesistente nel gpgpu, ed ha anche 1GB di ram in meno...

tapatalked by LG GPAD 8.3

francisco9751
06-09-2014, 13:56
È l'ultimo rumors apparso in rete questa notte

tapatalked by LG GPAD 8.3

Einhander
06-09-2014, 14:35
sarà si e no un 7-8% facendo la media tra i risultati migliori e quelli in cui si stacca di pochissimo, non mi pare un granchè anche se meglio di nulla. Comunque AMD per ora pare dormire, e se dovessero parlare ancora di gcn per il prossimo giro di vga, lo chiamassero pure 3.0, per restarebbe la stessa solfa

scusa ma tale percentuale non e' con meno vram, meno bus, meno streamprocessors? se cosi' fosse considerando anche lo stato dei driver non mi pare male per niente. Poi chiaro ora tutti scettici su gcn e non si sa' perche' xD

Sara la moda del momento : D

Caterpillar_WRT
06-09-2014, 16:19
Esistono test oltre il full HD?

Ale55andr0
06-09-2014, 16:34
scusa ma tale percentuale non e' con meno vram, meno bus, meno streamprocessors? se cosi' fosse considerando anche lo stato dei driver non mi pare male per niente. Poi chiaro ora tutti scettici su gcn e non si sa' perche' xD


no :read: il confronto era con la 280, non con la 280x...quindi 1792sp vs 1792 sp, 112tmu vs112tmu e 32rops vs 32rops..totale: 6-8% messi in condizioni paritarie su bandwidth e core clock, ovvero risultato sicuramente che è meglio averlo che non ma assolutamente niente di che e non ottenuto con 60w di consumo in meno come promesso :rolleyes:...anzi ci sta pure meno ram sulla 285 (che non influisce sulla velocità di esecuzione se il gioco non richiede quella memoria ma che resta comunque un difetto visto che oggi 4gb sono assolutamente lo standard da avere con la next gen) e in quel test come detto hanno impiegato stessa frequenza per la gpu e settato le ram in modo che la banda fosse la stessa proprio per vedere a pari valori quanto influissero le altre migliorie (memory controller nuovo e unità tessellator potenziata)


come gli altri prevedano cose positive sulle prossime ucite AMD aggrappandosi ai "non si sa, vedremo ecc." visto questa mossa abbastanza inutile e alla soglia della nuova generazione nvidia non lo so :fagiano: . Io, lietissimo di essere smentito, sto cominciando a vedere l'AMD dei processori...

Einhander
06-09-2014, 17:06
Non so come tu faccia a vedere l'AMD dei processori sinceramente. Hanno solo fatto uscire una schedina per la fascia media per rinfrescare il segmento. State a fare una tragedia per nulla. Poi nVidia è tanto meglio no? La GTX 780 sta ancora a 385€, la meno cara su trovaprezzi, la 290 che va di più (anche se di poco è sopra cmq) sta' sulle 300€. Con questi prezzi di cosa stiamo a parlare? Ci inventiamo ancora un po' la storia dei driver? Del software? Sembra di sentire gli utenti apple nei confronti di android o di windows.

Si poi come se dall'altra parte avessero gia' svelato il gesu' cristo moderno delle vga...adesso la priorita' sulle schede di fascia alta sono i consumi e non piu' il rapporto prezzo prestazioni o prestazioni assolute. Come mai? perche' nvidia si e' concentrata sui consumi, STRANAMENTE, quando lo faceva amd, non andava bene, MA ORA che lo fa nvidia e' la nuova rotta da seguire...bah..e si certooooooooooooooo.

Tu consideri le migliori intorno all'7-8 percento in relazione a schede uscite ora ma cosa ne sei di come impattera' il memory controller con maggiori stream processors e maggior bus di memoria, dove sta scritto che l'incremento deve essere lineare e non esponenziale per esempio? senza contare che nonostante la mole in piu' di features ci sono driver allo stato iniziale e sappiamo quanta differenza puo' fare su architettura gcn un affinamente degli stessi.

Io credo che minimo a parita' di tutto si possa tranquillamente raggiungere un 10-12% di prestazioni in piu', dei consumi me ne frego sincerametne, non c'ho mai guardato e non ci guardero mai dalle schede video dai 200 euro in piu', come se per rifarmi di 50 euro in piu' delle nvidia ci potrei mettere tranquillamente 4 anni a parita'd i utilizzo ma facendo a meno di fps, giochi, gopgpu e altre cose...dai su sarebbe diverso se i costi fossero i medesimi ma e' facile dire siamo piu' efficienti quando seghi meta' delle unita' di calcolo della parte gpgpu e ci metti pure meno memoria : D

SEmpre due pesi e due misure, proprio in apple style : D

okorop
06-09-2014, 19:40
curioso di vedere in azione la 285x che dovrebbe avere lo stesso bus della 280x con performance del 10% in piu :D

LurenZ87
06-09-2014, 19:46
curioso di vedere in azione la 285x che dovrebbe avere lo stesso bus della 280x con performance del 10% in piu :D
La 285X avrà lo stesso bus della 285, sarà la stessa scheda con Tonga al completo e con frequenze più elevate.

Inviato dal mio OnePlus One utilizzando Tapatalk

okorop
06-09-2014, 19:47
La 285X avrà lo stesso bus della 285, sarà la stessa scheda con Tonga al completo e con frequenze più elevate.

Inviato dal mio OnePlus One utilizzando Tapatalk
http://fudzilla.com/home/item/35491-amd-tonga-xt-based-graphics-card-comes-later
L'info l'ho presa da qui....
According to sources who wish to remain unnamed, we should see an AMD Tonga XT-based graphics card launched sometime in September.

Our sources report that AMD is indeed planning to introduce an XT version of the Tonga GPU which will not only have a higher Stream Processor count, most likely 2048, but also come with a wider 384-bit memory interface. While no names were mentioned, we would not be surprised to see the R9 285X in September. The Radeon R9 285 is coming a few week ahead of the R9 285X and we should see it by the end of August.

The most surprising piece of information is the wider memory interface, which means that the R9 285X will pack 3GB of GDDR5 memory.

Our sources suggested that some AMD AIB partners already have samples of the new card and are tweaking clocks and designs.

The new Tonga XT-based graphics card should end up faster than both the Tahiti XT-based R9 280X and the GTX 770 while drawing less power, which suggests that this should be a very good piece of hardware in terms of performance per watt.

Of course, as with all early rumors, these should be taken with a grain of salt and AMD can certainly tweak some things before the launch but these information is what we have are hearing now. We will certainly keep our ear close to the ground as we are bound to have more info as we draw closer to the launch date.

LurenZ87
06-09-2014, 20:05
http://fudzilla.com/home/item/35491-amd-tonga-xt-based-graphics-card-comes-later
L'info l'ho presa da qui....
According to sources who wish to remain unnamed, we should see an AMD Tonga XT-based graphics card launched sometime in September.

Our sources report that AMD is indeed planning to introduce an XT version of the Tonga GPU which will not only have a higher Stream Processor count, most likely 2048, but also come with a wider 384-bit memory interface. While no names were mentioned, we would not be surprised to see the R9 285X in September. The Radeon R9 285 is coming a few week ahead of the R9 285X and we should see it by the end of August.

The most surprising piece of information is the wider memory interface, which means that the R9 285X will pack 3GB of GDDR5 memory.

Our sources suggested that some AMD AIB partners already have samples of the new card and are tweaking clocks and designs.

The new Tonga XT-based graphics card should end up faster than both the Tahiti XT-based R9 280X and the GTX 770 while drawing less power, which suggests that this should be a very good piece of hardware in terms of performance per watt.

Of course, as with all early rumors, these should be taken with a grain of salt and AMD can certainly tweak some things before the launch but these information is what we have are hearing now. We will certainly keep our ear close to the ground as we are bound to have more info as we draw closer to the launch date.
Ho i miei grossi dubbi in merito, non credo che utilizzino un bus più ampio sulla 285X, poi boh tutto può essere :)

Inviato dal mio OnePlus One utilizzando Tapatalk

Ale55andr0
06-09-2014, 20:34
Non so come tu faccia a vedere l'AMD dei processori sinceramente. Hanno solo fatto uscire una schedina per la fascia media per rinfrescare il segmento. State a fare una tragedia per nulla. Poi nVidia è tanto meglio no? La GTX 780 sta ancora a 385€, la meno cara su trovaprezzi, la 290 che va di più (anche se di poco è sopra cmq) sta' sulle 300€. Con questi prezzi di cosa stiamo a parlare? Ci inventiamo ancora un po' la storia dei driver? Del software? Sembra di sentire gli utenti apple nei confronti di android o di windows.


ti invito a leggere la mia firma, prima di darmi indirettamente del fazioso :read:

Ale55andr0
06-09-2014, 20:43
Si poi come se dall'altra parte avessero gia' svelato il gesu' cristo moderno delle vga...

sembra di ripetermi all'infinito: ma è proprio l'ipotetico consumo basso che fa chiaramente capire che il potenziale proprio SULLE PRESTAZIONI è ENORME :read: ma che vi cuole a capirlo? perchè se volessero lanciare una gpu che consuma 250w (e conoscendoli te la piazzano sicuro, magari non subito ma sta sicuro che la piazzano) con la medesima architettrua volerebbe con già la fascia media a prendere a sberle le top avversarie

okorop
06-09-2014, 20:55
sembra di ripetermi all'infinito: ma è proprio l'ipotetico consumo basso che fa chiaramente capire che il potenziale proprio SULLE PRESTAZIONI è ENORME :read: ma che vi cuole a capirlo? perchè se volessero lanciare una gpu che consuma 250w (e conoscendoli te la piazzano sicuro, magari non subito ma sta sicuro che la piazzano) con la medesima architettrua volerebbe con già la fascia media a prendere a sberle le top avversarie

Amd sta cercando di fare la stessa cosa di Nvida ma un po in ritardo: aumentare l'efficienza delle proprie schede video con la 285 e la futura 285x

Ale55andr0
06-09-2014, 23:04
Amd sta cercando di fare la stessa cosa di Nvida ma un po in ritardo: aumentare l'efficienza delle proprie schede video con la 285 e la futura 285x

ma l'efficienza non l'ha affatto aumentata: va uno sputo in più si ma nelle review che ho visto non consuma meno ma una manciata di w in più ed ha pure 1gb di ram in meno... ergo manco togliendo ram son riusciti a migliorarla da quel punto di vista quindi di che parliamo scusa? E poi che senso ha cercare l'efficienza (quale?) ORA, a 3 anni dall'introduzione di GCN? :doh:
"un po" in ritardo?? se tardava n'altro po ricominciava il big bang come in futurama :sofico: :asd:

okorop
06-09-2014, 23:13
ma l'efficienza non l'ha affatto aumentata: va uno sputo in più si ma nelle review che ho visto non consuma meno ma una manciata di w in più ed ha pure 1gb di ram in meno... ergo manco togliendo ram son riusciti a migliorarla da quel punto di vista quindi di che parliamo scusa? E poi che senso ha cercare l'efficienza (quale?) ORA, a 3 anni dall'introduzione di GCN? :doh:
"un po" in ritardo?? se tardava n'altro po ricominciava il big bang come in futurama :sofico: :asd:

effettivamente hai ragione non è che i consumi siano migliorati assai anche se la scheda per via del mc piu' efficiente va qualcosa in piu' rispetto alla 7950 e r280...... Aspettiamo e vediamo che cosa uscirà con i 20 nani e vedremo, per ora sembra che stia un po' dormicchiando o forse hanno già un'architettura per i 20 nani da presentare quando sono disponibili

Einhander
07-09-2014, 04:59
Amd sta cercando di fare la stessa cosa di Nvida ma un po in ritardo: aumentare l'efficienza delle proprie schede video con la 285 e la futura 285x

Vedremo figliuolo vedremo, ma nel mentre non dimenticare che un minor consumo non vuol dire necessariamente una maggiore potenza a parita' di cosumo, ci sono altri valori come la densita' della circuiteria e lo spazio occupato in termini di die e percentuali di resa, oltre che il costo, ma vabbeh vedremo in futuro io prima di farmi illuminare sulla strada di damasco aspetto che le schede sia uscite ::)

Psycho77
07-09-2014, 10:31
Ragazzi ho trovato una sapphire r9 295x2 a 850 euro e ci stavo facendo un pensierino,che ne pensate?Mi sembra un ottimo prezzo visto che fino a ieri stava a 1200 euri.:D

°Phenom°
07-09-2014, 10:34
Ragazzi ho trovato una sapphire r9 295x2 a 850 euro e ci stavo facendo un pensierino,che ne pensate?Mi sembra un ottimo prezzo visto che fino a ieri stava a 1200 euri.:D

é ottimo davvero! :eek:

Ale55andr0
07-09-2014, 10:37
fai tu, io le multi gpu le schifo e le odio, convenienti o meno

Psycho77
07-09-2014, 10:39
é ottimo davvero! :eek:

Datemi una dritta.A microstuttering come è messa?Con questa gpu con mantle potrei spiccare il volo.Che faccio,ordino subito?:D
Ho un ali da 875 watt,la regge?

Caterpillar_WRT
07-09-2014, 10:44
A chi interessa una comparativa a 1440p: https://www.youtube.com/watch?v=lNbLW7ppH0o&list=UU9PBzalIcEQCsiIkq36PyUA

Adesso si può dire che hanno fatto un buon lavoro, anche a 1440, i 2gb sono sufficienti per mantenere il passo della 280.
Da qualche parte ho letto che tonga proviene da hawaii e non da tahiti, vi risulta?

Cmq fino all'arrivo dei 20nm non ci saranno novità sostanziali nè dal punto di vista delle prestazioni, nè tantomeno da quello dell'efficienza, ma come affinamento mi pare buono.

°Phenom°
07-09-2014, 10:46
Datemi una dritta.A microstuttering come è messa?Con questa gpu con mantle potrei spiccare il volo.Che faccio,ordino subito?:D

Con l'xdma ed i giochi dx10/dx11 adesso non c'è problema di stuttering (ho provato poco tempo fà un cross di 280x ed andava benissimo). Ovviamente come ben dovresti sapere le config multigpu a prescindere che sia uno sli o un cfx con alcuni titoli possono dare rogne, o altri titoli non supportarlo direttamente. In questi casi o usi solo una scheda o provi a forzare il multigpu tramite diversi tool, come radeonpro per amd e inspector per nvidia.

°Phenom°
07-09-2014, 10:47
Adesso si può dire che hanno fatto un buon lavoro, anche a 1440, i 2gb sono sufficienti per mantenere il passo della 280.
Da qualche parte ho letto che tonga proviene da hawaii e non da tahiti, vi risulta?

Cmq fino all'arrivo dei 20nm non ci saranno novità sostanziali nè dal punto di vista delle prestazioni, nè tantomeno da quello dell'efficienza, ma come affinamento mi pare buono.

Tonga è più evoluto di Hawaii essendo gcn 1.2

Ale55andr0
07-09-2014, 10:51
Da qualche parte ho letto che tonga proviene da hawaii e non da tahiti, vi risulta?


boh la geografia non è il mio forte :stordita:



:sbonk:


scherzi a parte, deriva da tahiti "liscio" (non XT) alias 7950 con qualche feature in più

Caterpillar_WRT
07-09-2014, 10:52
Tonga è più evoluto di Hawaii essendo gcn 1.2

Mi pare normale che sia più evoluto, una volta che ci hanno messo le mani ...

Psycho77
07-09-2014, 10:52
Con l'xdma ed i giochi dx10/dx11 adesso non c'è problema di stuttering (ho provato poco tempo fà un cross di 280x ed andava benissimo). Ovviamente come ben dovresti sapere le config multigpu a prescindere che sia uno sli o un cfx con alcuni titoli possono dare rogne, o altri titoli non supportarlo direttamente. In questi casi o usi solo una scheda o provi a forzare il multigpu tramite diversi tool, come radeonpro per amd e inspector per nvidia.

Con la gtx 690 mi sono trovato da favola,ho avuto solo problemi con l'ultimo update di battlefield 4 che portava stuttering a valanga,ma non ho mai avuto un cx di amd.
Potrei pentirmene?

°Phenom°
07-09-2014, 11:03
Con la gtx 690 mi sono trovato da favola,ho avuto solo problemi con l'ultimo update di battlefield 4 che portava stuttering a valanga,ma non ho mai avuto un cx di amd.
Potrei pentirmene?

Non ti so dire personalmente, ho solo avuto svariati sli ed il cfx di 280x per 2 giorni visto che una non era mia e mi sono trovato bene. Chi lo ha provato ultimamente dice che va benissimo, lo stesso le review, più di questo non ti posso dire :)

Psycho77
07-09-2014, 11:07
Non ti so dire personalmente, ho solo avuto svariati sli ed il cfx di 280x per 2 giorni visto che una non era mia e mi sono trovato bene. Chi lo ha provato ultimamente dice che va benissimo, lo stesso le review, più di questo non ti posso dire :)

Grazie mille.;)

jok3r87
07-09-2014, 11:45
Datemi una dritta.A microstuttering come è messa?Con questa gpu con mantle potrei spiccare il volo.Che faccio,ordino subito?:D
Ho un ali da 875 watt,la regge?

Ma perchè non due 290x custom ? Dovresti spendere anche qualcosa in meno e avere più performance.

°Phenom°
07-09-2014, 11:57
Ma perchè non due 290x custom ? Dovresti spendere anche qualcosa in meno e avere più performance.

Non proprio, la 295x2 è davvero ben riuscita e non scalda una mazza, con 2 290x avrebbe molto più calore ed ingombro ;)

Vul
07-09-2014, 23:47
Secondo me è una scheda mediocre. Quando scende a 170 circa al dettaglio potrebbe essere considerata.
Ma con le 280x sotto i 210 euro mi sa faranno muffa.

Inoltre, volenti o no va il 10 % in media più veloce di una 270x che si trova a 140.

Catan
08-09-2014, 14:54
Ho i miei grossi dubbi in merito, non credo che utilizzino un bus più ampio sulla 285X, poi boh tutto può essere :)

Inviato dal mio OnePlus One utilizzando Tapatalk

E' un dubbio che ho anche io ( sul bus, mentre sugli sp sicuro saranno 2048), però boh il die size è più grosso di un tahiti e come dicevamo le implementazioni del true audio e le altre piccole cose non possono avere aumentato il die cosi tanto ( a priori se hanno toccato l'mc, hanno 1/3 di mc dimeno, quindi le dimensioni sarebbero dovute diminuire). Cmq parlano di un lancio nel mese...vedremo, perchè come ho detto nel mini itx gaming mi interessa un certo risparmio sui consumi, però anche per un gaming in full hd, tra le 285 a 2gb e le 280 lisce a 3gb allo stesso prezzo, a sto punto la 280 liscia è ancora consigliabile.

FroZen
08-09-2014, 18:05
Tonga é derivato da gcn 1.1 quindi hawaii, hanno raddoppiato le prestazioni di tessellazione per ciclo di clock (da 2 a 4x) ... Non scherziamo paragonandola alle 270 please....il potenziale qui é ben altro, e se pompi risoluzione e filtri le 78xx non si vedono piu...

FroZen
08-09-2014, 18:08
Catan, un 7950 per il fullhd va benissimo senza dovervessere per forza maniaci del 60 fisso costi quel che costi....le 285 cmq sono ottime schedine, bisogna vedre il delta prezzo....e prendi da uno shop con il never settle....

Dort
08-09-2014, 18:46
Ragazzi ma per quando è prevista l'uscita della serie R300? Perchè mi è morta la vecchia HD4830 e stavo per fiondarmi sulla R270X, ma se stanno per uscire subito le sostitute posso aspettare anche due mesi e andare per il momento con l'integrata

°Phenom°
08-09-2014, 18:52
Secondo i rumors, Q1 2015.

Dort
08-09-2014, 19:35
Secondo i rumors, Q1 2015.

Capito, quindi minimo tre mesi...mamma
i primi bench per queste schede si ha un'idea di quando verranno rilasciati?

capitan_crasy
08-09-2014, 20:00
Capito, quindi minimo tre mesi...mamma
i primi bench per queste schede si ha un'idea di quando verranno rilasciati?

:D
Sinceramente ma davvero credi che qualcuno lo sappia? :asd:

LurenZ87
08-09-2014, 20:11
:D
Sinceramente ma davvero credi che qualcuno lo sappia? :asd:
Anche se ci fosse sarebbe qualcuno di parecchio a contatto con l'azienda e per ovvi motivi non può parlare :)

Inviato dal mio Nexus 7 utilizzando Tapatalk

Dort
08-09-2014, 21:07
:D
Sinceramente ma davvero credi che qualcuno lo sappia? :asd:

Si speravo in qualche rumor molto vago non si sa mai, non seguo il settore da tanto tempo :(

elijahk
09-09-2014, 10:38
tornando sull'efficienza delle 285
i test di questo sito tedesco http://ht4u.net/reviews/2014/xfx_radeon_r9_285_black_oc_edition_review/index15.php
confermano la mia opinione che le misure dei consumi della maggior parte delle review sono un po' sballate causa schede con OC di fabbrica. Qui si mettono a confronto schede quasi tutte con OC di fabbrica, e scompaiono le situazioni tipo 285 che consuma quanto una 280X.

Catan
09-09-2014, 11:59
Catan, un 7950 per il fullhd va benissimo senza dovervessere per forza maniaci del 60 fisso costi quel che costi....le 285 cmq sono ottime schedine, bisogna vedre il delta prezzo....e prendi da uno shop con il never settle....

Va ancora bene perchè ha un buffer di 3gb, i 2gb iniziano ad essere alla frusta. Va ancora bene perchè i giochi non hanno avuto evoluzioni rispetto a 2 anni fà (e questo è un bene per noi), le 285 sono sicuramente belline a livello teorico (sopratutto nell'aumento delle capacità di calcolo in tassellazione ed in un mc più efficiente di quello di tahiti), però poi ti domandi se è il caso di spendere 40€ in più tra una 285 da 2gb e una 280 da 3gb. Sul never settle...posso dirti la mia? preferirei pagare la vga 100€ di meno e fare a meno dei giochi...facciamo anche 60€ di meno (mettiamo che ogni gioco vale 20€)...

ivanto
09-09-2014, 18:33
ma per riscattare il never settle è necessario che all'interno della scatola della scheda ci sia un coupon?

FroZen
09-09-2014, 19:35
Il never settle é un valore aggiunto, i prezzi della scheda in se li decide amd con il produttore, amd sicuramente non paga la copia al prezzo per plebei ovviamente...

Catan
10-09-2014, 10:43
ma per riscattare il never settle è necessario che all'interno della scatola della scheda ci sia un coupon?

no devi mandare la copia della fattura ai negozi (es eprezzo devi mandargli la copia della fattura, entro 1 mese, per avere il codice del riscatto). Se non li hai preso dagli shop che aderiscono all'iniziativa puoi provare a mandare la fattura direttamente ad amd, se sono buoni ti danno il codice anche con shop non aderenti all'iniziativa. Cmq il termine è sempre entro 30 giorni.

appleroof
12-09-2014, 12:01
videocardz.com/52302/amd-radeon-r9-390x-cooling-pictured

francisco9751
12-09-2014, 12:12
speriamo bene,anche se peggio di quel coso delle R9 290,dubito possa esserci

tapatalked with LG G2

LurenZ87
12-09-2014, 12:27
videocardz.com/52302/amd-radeon-r9-390x-cooling-pictured
Ottimo, sembra si siano svegliati...

Inviato dal mio OnePlus One utilizzando Tapatalk

belta
12-09-2014, 12:36
molto molto bene :D

Ale55andr0
12-09-2014, 12:39
Ottimo, sembra si siano svegliati...

Inviato dal mio OnePlus One utilizzando Tapatalk


più che svegliati pare abbiano scopiazzato spudoratamente :asd:

a me comunque pare un fake

comunque se si sono svegliati o no più che dal dissi dipenderà molto anche dalle prestazioni, dai consumi, e dai costi...

LurenZ87
12-09-2014, 12:46
più che svegliati pare abbiano scopiazzato spudoratamente :asd:

a me comunque pare un fake

comunque se si sono svegliati o no più che dal dissi dipenderà molto anche dalle prestazioni, dai consumi, e dai costi...
Si e no, diciamo che si sono dovuti "adattare" alla concorrenza, con l'unica differenza che le temperature saranno decisamente più contenute delle reference attuali, idem per la rumorosità. Il rovescio della medaglia è il posizionamento del radiatore, ma è facilmente risolvibile in tutti i case in commercio :).

PS: non è un fake, si vede anche la piastra per raffreddare i vrm, inoltre dalla foto imho sarà alimentata da un 8+8pin...

Inviato dal mio OnePlus One utilizzando Tapatalk

HORN
12-09-2014, 13:02
forse portano le R9 290(X)
a nuovo Revisione del gpu chip con la ventola Asetek e clock ai 1080 Mhz per la 295
e 1200+ Mhz per la R9 295X

Einhander
12-09-2014, 13:04
più che svegliati pare abbiano scopiazzato spudoratamente :asd:

a me comunque pare un fake

comunque se si sono svegliati o no più che dal dissi dipenderà molto anche dalle prestazioni, dai consumi, e dai costi...

A me sembra invece molto piu' un richiamo estetico introdotto inizialmente con la dual 290x raffreddata a liquido, poi se intendi che siccoem hanno fatto la scocca piu' caruccia e meno plasticosa allora e' automaticamente ricopiato da nvidia e' un altro paio di maniche...

Ma a te c'e' qualcosa che va bene di quello che fa amd? anche quando si vedono cose buone o petenzialmente tali tendi sempre a sminuirle o a dire che devono seguire la strada intrapresa da nvidia, poi quando lo fanno, in questo caso sul dissi -che pero' a me pare simile a quello della dual- dici che scopiazzano?

Non capisco xD

Ale55andr0
12-09-2014, 13:10
Si e no, diciamo che si sono dovuti "adattare" alla concorrenza, con l'unica differenza che le temperature saranno decisamente più contenute delle reference attuali, idem per la rumorosità. Il rovescio della medaglia è il posizionamento del radiatore, ma è facilmente risolvibile in tutti i case in commercio :).

PS: non è un fake, si vede anche la piastra per raffreddare i vrm, inoltre dalla foto imho sarà alimentata da un 8+8pin...

Inviato dal mio OnePlus One utilizzando Tapatalk


eccalà, allora i consumi non saranno contenuti :fagiano:

intendiamoci, non è che io mi faccia problemi per quelli, peraltro con la 290 custom sto apposto e non devo cambiar nulla...anzi solitamente cambio l'intero pc ogni 4anni circa, la vga l'ho sostituita solo perchè la 7970 è morta fuori garanzia...
il punto, da semplice osservatore appassionato, è che a questi livelli se l'altra a pari prestazioni consuma meno in modo significativo, automaticamente viene da pensare che il massimo potenziale esprimibile (OC) sia comunque superiore nella scheda che consuma meno, e quindi per me i consumi alti in un certo senso vanno un po' a limitare proprio le prestazioni assolute quando si cerca di cavar fuori il massimo dalla scheda... non parlo perchè sono divenuto improvvisamente un ambientalista :asd:.


edit: leggo solo ora che trattasi di raffreddamento a liquido... beh onestamente la trovo una complicazione inutile (installazione e manutenzione). Mi sembrava una semplice rivisitazione in rosso del dissi montato da nvidia sulle titan.

francisco9751
12-09-2014, 13:21
beh chiadiamoci perchè consumano meno,forse perchè hanno 1 GB in meno di ram, e sono inesistenti nel gpgpu??? :O :O :O
nessuno fa miracoli ;)

Ale55andr0
12-09-2014, 13:35
beh chiadiamoci perchè consumano meno,forse perchè hanno 1 GB in meno di ram, e sono inesistenti nel gpgpu??? :O :O :O
nessuno fa miracoli ;)

no, perchè la nuova 285 con meno ram consuma tanto quanto la 7950 che ha 3gb ed il bus a 384bit (ed entrambe hanno 1792sp, 112tmu e 32 rops) :read:. Il consumo della ram è una inezia, anch'io credevo fosse quello a contribuire a innalzare i consumi sulle rosse, ma mi sono ricreduto vedendo che le versioni da 6gb delle 7970 consumavano appena più di quelle da 3...è proprio GCN che è assetato di watt. E poi la nuova 980 ha 4gb...ergo se consuma meno della 780ti e va più di questa le chiacchiere sulla ram si annullano ancor più: è l'architettura della gpu ad essere più efficiente nel mutare i watt assorbiti in...frame al secondo :D

francisco9751
12-09-2014, 13:41
può essere,ma nvidia non ha il gpgpu,forse amd dovrebbe levarl in queste schede gaming.buh

tapatalked with LG G2

°Phenom°
12-09-2014, 13:44
La 285 è più efficiente più o meno di un 40w a parità di vcore e frequenze rispetto alla 7950. La differenza è poca ma non nulla, quindi in qualche modo sono intervenuti per cavare questi 40w, fermo restando che comunque Maxwell allo stato attuale è decisamente più efficiente.

°Phenom°
12-09-2014, 13:44
può essere,ma nvidia non ha il gpgpu,forse amd dovrebbe levarl in queste schede gaming.buh

tapatalked with LG G2

Mi sa che su gcn non si può levare la parte gpgpu, anche se comunque personalmente a me non frega una mazza dei consumi del pc, watt più, watt meno, sulla bolletta la cosa è irrisoria.

LurenZ87
12-09-2014, 13:45
può essere,ma nvidia non ha il gpgpu,forse amd dovrebbe levarl in queste schede gaming.buh

tapatalked with LG G2

quì ti sbagli, sia le AMD che le Nvidia nelle rispettive serie da gaming (quindi Radeon e GTX, tralasciando la serie Titan/Titan-Z) hanno la parte del gpgpu molto castrata, quindi non è per quello che le verdi consumano meno. Le architetture Kepler e soprattutto Maxwell sono molto più efficienti di GCN in qualsiasi variante essa sia.

A questo giro il punto è verde e se AMD non si sveglia, Nvidia gli darà una mazzata con Maxwell che nemmeno si sogna.

°Phenom°
12-09-2014, 13:49
Tahiti se non erro ha la parte gpgpu non castrata, mentre Hawaii solo leggermente castrata.

LurenZ87
12-09-2014, 13:51
Tahiti se non erro ha la parte gpgpu non castrata, mentre Hawaii solo leggermente castrata.

Tahiti non lo ricordo, ma Hawaii non è leggermente castrata è parecchio castrata, se non sbaglio le prestazioni in doppia virgola sono 1/8 nelle Radeon rispetto alle FirePro.

Comunque Tahiti era più votata al gpgpu, la parte in doppia precisione era 1/4 di quella singola, mentre Hawaii è 1/8.

°Phenom°
12-09-2014, 13:55
Sisi, non ricordavo quant'era con precisione il rapporto. Comunque anni fa leggevo che su cgn non era possibile decurtare la parte gpgpu in stile nvidia Kepler e successive, essendo sulle radeon un arch monoblocco o una cosa del genere. Adesso non ricordo perfettamente...

Ale55andr0
12-09-2014, 13:58
può essere,ma nvidia non ha il gpgpu,forse amd dovrebbe levarl in queste schede gaming.buh

tapatalked with LG G2

non si può, da quel che ne so, non è come sulle nvidia che vi sono particolari circuiti dediti al gpgpu che possono essere disattivati, ma è l'intera architettura ottimizzata per il gpgpu per AMD.
Lo ripeto, possono parlare di gcn 1.1 1.2 , sempre quello resta in sostanza :rolleyes: se non se ne vengono con qualcosa di totalmente nuovo nell'architettura, difficilmente vedremo particolari salti nell'efficienza (e di conseguenza nelle prestazioni asosolute possibili) se non grazie a nuovi pp a 20/16nm...fosse così sarebbero cavoli amari... perchè mica nvidia con maxwell resterà a 28nm a vita..e già a 28nm mette in chiaro di che pasta è fatto, ergo o AMD si SVEGLIA o farà la stessa fine del settore CPU, con prodotti che vanno meno e consumano di più

Ale55andr0
12-09-2014, 14:01
La 285 è più efficiente più o meno di un 40w a parità di vcore e frequenze rispetto alla 7950. La differenza è poca ma non nulla, quindi in qualche modo sono intervenuti per cavare questi 40w, fermo restando che comunque Maxwell allo stato attuale è decisamente più efficiente.

questa cifra io francamente non la ho vista, rispetto alla 280 (ovvero la 7950) qua nelle recensione ho visto consumi maggiori, pur di pochi watt, sti 40w di risparmio non li ho proprio visti. Forse si dovrebbe fare una media fra le varie review per cercar di capirci di più

francisco9751
12-09-2014, 14:05
Io intendevo in un confronto 290 vs 780..non in generale quanto siano prestanti nel gpgpu..ed ovviamente intendevo nelle prossime architetture,.mica di modificare ora tahiti

tapatalked by LG GPAD 8.3

Ale55andr0
12-09-2014, 14:06
quì ti sbagli, sia le AMD che le Nvidia nelle rispettive serie da gaming (quindi Radeon e GTX, tralasciando la serie Titan/Titan-Z) hanno la parte del gpgpu molto castrata, quindi non è per quello che le verdi consumano meno. Le architetture Kepler e soprattutto Maxwell sono molto più efficienti di GCN in qualsiasi variante essa sia.

le 7970 non sono castrate, e le 290 mi pare che sia un cosa più software che hardware, ma quale che sia la cosa, consumano uguale un bel po', è proprio GCN che come dici anche tu che è meno efficiente

A questo giro il punto è verde e se AMD non si sveglia, Nvidia gli darà una mazzata con Maxwell che nemmeno si sogna.

quoto al 100%

e francamente dal silenzio di AMD io non mi aspetto niente di buono :stordita:, anche perchè dovresti teoricamente impedire al tuo avversario di fare il botto con le 980, un po come nvidia faceva il suo marketing sulla 680 quando usci in ritardo sulla 7970 cercando di indurre l'utenza a no ncomprare le rosse...invece AMD che fa? niente, tace e piazza una 285 che imho non ha mostrato asoslutamente nulla, se non la sua intrinseca inutilità

appleroof
12-09-2014, 14:24
le 7970 non sono castrate, e le 290 mi pare che sia un cosa più software che hardware, ma quale che sia la cosa, consumano uguale un bel po', è proprio GCN che come dici anche tu che è meno efficiente



quoto al 100%

e francamente dal silenzio di AMD io non mi aspetto niente di buono :stordita:, anche perchè dovresti teoricamente impedire al tuo avversario di fare il botto con le 980, un po come nvidia faceva il suo marketing sulla 680 quando usci in ritardo sulla 7970 cercando di indurre l'utenza a no ncomprare le rosse...invece AMD che fa? niente, tace e piazza una 285 che imho non ha mostrato asoslutamente nulla, se non la sua intrinseca inutilità

Le nuove Maxwell avranno un rapporto performance/Watt strepitoso ma dal punto di vista performance pure non sembrano dare un boost consistente rispetto alle top Kepler, per cui credo che amd con Hawaii può tirare qualche mese (magari con revisione delle attuali al limite)

D'altra parte pure Nvidia non ha potuto opporre nulla a 7970 per tre mesi, e li non c'era nemmeno l'attenuante delle prestazioni perché aveva la 580, non mi pare nel frattempo sia fallita per quei tre mesi