PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348

digieffe
15-10-2013, 00:59
l'architettura è la stessa di GNC, hanno aumentato il bus, le ram, le rops, le tmu e gli shader processors e come fa a essere una schifezza....penso che andrà sicuramente piu' della 280x OC Edition, 20-30% almeno
a livello di architettura hanno cambiato anche la gestione dell'indirizzamento.

ertruffa
15-10-2013, 06:04
non so se sono stati postati, io li metto
http://s14.postimg.org/o2pr7fvel/32a773700579431f8125c5ab1e323809.jpg (http://postimg.org/image/o2pr7fvel/)
http://s22.postimg.org/3rfbonngt/84751cec156f4c16936c3fb57cf595f1.jpg (http://postimg.org/image/3rfbonngt/)
mi interessa vedere nei giochi come va.:O

°Phenom°
15-10-2013, 07:05
Non si capisce piú nulla in alcuni test al fire strike va piú di titan, in altri meno :O

Inviato dal mio GT-I9300 con Tapatalk now Free ('http://tapatalk.com/m?id=10')

francisco9751
15-10-2013, 07:15
Su OC.NET ad un utente uno shop avrebbe spedito la 290x..vediamo che succede entro venerdì.. A sto punto non si più che pensare :/

Tapatalked from Nexus 4

ertruffa
15-10-2013, 07:24
Su OC.NET ad un utente uno shop avrebbe spedito la 290x..vediamo che succede entro venerdì.. A sto punto non si più che pensare :/

Tapatalked from Nexus 4

effettivamente, qui c'e' gente che deve fare la recensione e dice di non aver ricevuto ancora le vga, e shop che le spediscono, se fosse realmente cosi' amd sta perdendo il controllo, o al massimo domani devono uscire le recensioni.

°Phenom°
15-10-2013, 07:28
Appunto, quoto...

Inviato dal mio GT-I9300 con Tapatalk now Free ('http://tapatalk.com/m?id=10')

<Masquerade>
15-10-2013, 07:29
ma queste schede escono o no?
santo cielo quanto ci vuole ancora?
non capisco che problemi ha amd, perché la fa tanto lunga co ste 290 ???

francisco9751
15-10-2013, 07:35
L'attesa aumenta il desiderio :asd:
Comunque non è detto che i recensori non le hanno, magari non possono dire di averle.. Ma sicuramente le maggiori testate mondiali già le hanno..già due settimane fa si vedevano foto di VGA addirittura in crossfire..

Tapatalked from Nexus 4

mircocatta
15-10-2013, 07:54
Sarà bello il confronto tra titan ultra e r9 290xt2.....8 gb di ram :O impressionante come scheda video!!!!

Se una 290x è già più veloce, questa 290xt non la vede neanche con il binocolo

ha più tmu, più sp, il doppio di ram, e non so se avete letto bene il core..parte da 1200 (!!!!!) e arriva a 1450mhz in tubo mode :eek: :eek: :eek: :eek: :eek:

sa di fake anche a me questa 290xt..da che sito è preso lo screen?

°Phenom°
15-10-2013, 07:58
Se una 290x è già più veloce, questa 290xt non la vede neanche con il binocolo

ha più tmu, più sp, il doppio di ram, e non so se avete letto bene il core..parte da 1200 (!!!!!) e arriva a 1450mhz in tubo mode :eek: :eek: :eek: :eek: :eek:

A me sembra più che altro un gran fake questa xt2, con tutti quelli shader sempre a 28nm fare i 1450mhz sul core mi sembra impossibile, ammenochè in bundle non ti diano la tanica di azoto liquido con cui raffreddarla... :asd:

<Masquerade>
15-10-2013, 08:48
The Xbox One graphics API is “Direct3D 11.x” and the Xbox One hardware provides a superset of Direct3D 11.2 functionality. Other graphics APIs such as OpenGL and AMD’s Mantle are not available on Xbox One

http://blogs.windows.com/windows/b/appbuilder/archive/2013/10/14/raising-the-bar-with-direct3d.aspx

maxmix65
15-10-2013, 08:54
non so se sono stati postati, io li metto
http://s14.postimg.org/o2pr7fvel/32a773700579431f8125c5ab1e323809.jpg (http://postimg.org/image/o2pr7fvel/)
http://s22.postimg.org/3rfbonngt/84751cec156f4c16936c3fb57cf595f1.jpg (http://postimg.org/image/3rfbonngt/)
mi interessa vedere nei giochi come va.:O

Bella :D :D :D :D
Spero stavolta non dicano che sono fake

:D :D :D :D :D :D

°Phenom°
15-10-2013, 08:54
Come credevo riguardo a xbox one, microsoft non credo permetta di sostituire le proprie directx, imho secondo me la ps4 oltre ad avere vantaggi in termine hardware rispetto a xbox one, potrebbe anche sfruttare mantle in certi giochi per una maggiore ottimizzazione di essi, visto che alla fine sony potrebbe accettare tranquillamente queste api.

Inviato dal mio GT-I9300 con Tapatalk now Free ('http://tapatalk.com/m?id=10')

Vul
15-10-2013, 08:56
The Xbox One graphics API is “Direct3D 11.x” and the Xbox One hardware provides a superset of Direct3D 11.2 functionality. Other graphics APIs such as OpenGL and AMD’s Mantle are not available on Xbox One

http://blogs.windows.com/windows/b/appbuilder/archive/2013/10/14/raising-the-bar-with-direct3d.aspx

perchè la ONE non ha una scheda video, ma una apu

Come credevo riguardo a xbox one, microsoft non credo permetta di sostituire le proprie directx, imho secondo me la ps4 oltre ad avere vantaggi in termine hardware rispetto a xbox one, potrebbe anche sfruttare mantle in certi giochi per una maggiore ottimizzazione di essi, visto che alla fine sony potrebbe accettare tranquillamente queste api.

Inviato dal mio GT-I9300 con Tapatalk now Free ('http://tapatalk.com/m?id=10')

Dubito PS4 possa avere gcn, per i motivi sopraelencati. Sul sito AMD parla chiaramente di gcn come una feature delle sue gpu, non delle cpu/apu.

Tra l'altro dubito che servano api ottimizzate per le console, visto che di default le console utilizzano api differenti e kernel differenti gaming oriented (da cui deriva la fantomatica ottimizzazione). Le console hanno già api di basso livello, è una feature che manca sui pc questa, non sulle console. In particolare la One ha un kernel migliorato (ma si muove su api directx), mentre la PS4 dovrebbe avere anche api differenti oltre al kernel diverso basato su freebsd.

maxmix65
15-10-2013, 08:58
A me sembra più che altro un gran fake questa xt2, con tutti quelli shader sempre a 28nm fare i 1450mhz sul core mi sembra impossibile, ammenochè in bundle non ti diano la tanica di azoto liquido con cui raffreddarla... :asd:
Forse Amd la vende con un l'impianto a liquido all in one compreso ;)

ertruffa
15-10-2013, 09:04
Bella :D :D :D :D
Spero stavolta non dicano che sono fake

:D :D :D :D :D :D

secondo me le redazioni delle grande testate hanno le vga, aspettano solo che amd levi nda, speriamo che si sbrighino, ne ho le p.... piene.

maxmix65
15-10-2013, 09:10
http://uptiki.altervista.org/_altervista_ht/0oaybu3mb3ebytvqhng_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=0oaybu3mb3ebytvqhng.jpg)

ertruffa
15-10-2013, 09:11
http://videocardz.com/46741/radeon-r9-290x-pictured-close
forse il 18:D

Pelvix
15-10-2013, 09:13
Tutti sti rinvii sti misteri mi ricordano molto la presentazione di Fermi: speriamo in bene..

obiwan-80
15-10-2013, 09:26
Ma le 290 usciranno in contemporanea con le 290x?

ertruffa
15-10-2013, 09:28
Ma le 290 usciranno in contemporanea con le 290x?

si dice un po' dopo, credo una settimana di differenza.poi.....

<Masquerade>
15-10-2013, 09:47
http://www.chiphell.com/thread-878018-1-1.html

appleroof
15-10-2013, 09:49
su b3d dicono che i chip memoria hynix montati sulla 290x avrebbero bisogno di overvolt per salire in frequenza, perchè sarebbero modelli a 1,35v mentre ad sempio quelli della 270x sono a 1,55v....aggiungo che evidentemtne la scelta è legata al contenimento dei consumi (e pure il bus 512bit offre cmq banda sufficiente a freq. relativamente basse della mem)

per gli scoppiati delle frequenze e dei bench, non resta che aspettare le rxce per vedere se tramite qualche tool è possibile overvoltare le memorie, ammesso che il tutto sarà confermato

ertruffa
15-10-2013, 09:51
http://www.chiphell.com/thread-878018-1-1.html

dai ormai dovrebbe mancare poco, basta con sti 3dmark,voglio i giochi:D
qui hanno messo un po' tutto quell oche si e' visto ad oggi
http://videocardz.com/46785/amd-radeon-r9-290x-performance-charts-emerge

appleroof
15-10-2013, 09:55
The Xbox One graphics API is “Direct3D 11.x” and the Xbox One hardware provides a superset of Direct3D 11.2 functionality. Other graphics APIs such as OpenGL and AMD’s Mantle are not available on Xbox One

http://blogs.windows.com/windows/b/appbuilder/archive/2013/10/14/raising-the-bar-with-direct3d.aspx

ottimo, per quanto mi riguarda.

perchè la ONE non ha una scheda video, ma una apu
cut

.....e quindi? :mbe:

<Masquerade>
15-10-2013, 10:04
ottimo, per quanto mi riguarda.


è supportato solo dalla ps4, Xbox One e WiiU no.

bronzodiriace
15-10-2013, 10:05
perchè la ONE non ha una scheda video, ma una apu



Dubito PS4 possa avere gcn, per i motivi sopraelencati. Sul sito AMD parla chiaramente di gcn come una feature delle sue gpu, non delle cpu/apu.

Tra l'altro dubito che servano api ottimizzate per le console, visto che di default le console utilizzano api differenti e kernel differenti gaming oriented (da cui deriva la fantomatica ottimizzazione). Le console hanno già api di basso livello, è una feature che manca sui pc questa, non sulle console. In particolare la One ha un kernel migliorato (ma si muove su api directx), mentre la PS4 dovrebbe avere anche api differenti oltre al kernel diverso basato su freebsd.

Ha un Apu con sottosistema video basato su GCN. La medesima cosa per ps4.

Discorso differente per WiiU che invece monta una cpu multicore IBM oooe ed una gpu AMD basata su 5800.

appleroof
15-10-2013, 10:07
è supportato solo dalla ps4, Xbox One e WiiU no.

appunto, và benissimo per i motivi che ho detto 100 volte....solo una cosa: per PS4 si ha certezza che sia supportato?

edit: mi rispondo da solo Mantle appears to have much in common with the GNM API used in PlayStation 4, http://www.eurogamer.net/articles/digitalfoundry-could-amd-mantle-revolutionise-pc-gaming quindi non si ha certezza che siano la stessa cosa.

<Masquerade>
15-10-2013, 10:21
ed una gpu AMD basata su 5800.

addirittura?

appleroof
15-10-2013, 10:23
addirittura?

io sapevo che era equivalente ad una cape verde, cmq gcn...

maxmix65
15-10-2013, 10:24
:eek: :eek: :p :p :eek: :eek: :D :D
http://uptiki.altervista.org/_altervista_ht/4b5smz1gr97mnlrbw_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=4b5smz1gr97mnlrbw.jpg)

<Masquerade>
15-10-2013, 10:27
io sapevo che era equivalente ad una cape verde, cmq gcn...

per capa verde non saprei...

ma io ero rimasto che era basata su rv770, ma sul livello di una 4670, con 320 stream processor.

Foglia Morta
15-10-2013, 10:27
è supportato solo dalla ps4, Xbox One e WiiU no.

Mantle non ha bisogno del supporto dei produttori di console perchè è AMD che ha progettato l' hardware delle console... quando gli sviluppatori programmano per le console gran parte del loro lavoro è automaticamente valido per altre piattaforme utilizzando Mantle ( e GCN quindi ).

“What Mantle creates for the PC is a development environment that’s *similar* to the consoles, which already offer low-level APIs, close-to-metal programming, easier development and more (vs. the complicated PC environment). By creating a more console-like developer environment, Mantle: improves time to market; reduces development costs; and allows for considerably more efficient rendering, improving performance for gamers. The console connection is made because next-gen uses Radeon, so much of the programming they’re doing for the consoles are already well-suited to a modern Radeon architecture on the desktop; that continuum is what allows Mantle to exist.”

http://images.anandtech.com/doci/7371/MantleHLSL_575px.jpg

appleroof
15-10-2013, 10:29
Mantle non ha bisogno del supporto dei produttori di console perchè è AMD che ha progettato l' hardware delle console... quando gli sviluppatori programmano per le console gran parte del loro lavoro è automaticamente valido per altre piattaforme utilizzando Mantle ( e GCN quindi ).



non capisco allora la precisazione esplicita di Microsoft, sostiene che xbox userà un superset di dx11.2 per i giochi, ossia che gli sviluppatori per programamre per xboxone useranno il superset dx11.2, non mantle. Se vorranno scrivere in mantle dovranno fare un'ulteriore versione del gioco con tale set di Api.

appleroof
15-10-2013, 10:31
per capa verde non saprei...

ma io ero rimasto che era basata su rv770, ma sul livello di una 4670, con 320 stream processor.

si hai ragione, non era crapa verde a rv770...

appleroof
15-10-2013, 10:35
non so se già detto, pare che il lancio sarà il 18:

Fresh news have just arrived. The launch is probably set for October 18th. We couldn’t confirm the launch date since distributors, manufacturers and reviewers have all slightly different information. So it’s either this date or a date closer to BF4 launch. Take it as you will.

http://videocardz.com/46741/radeon-r9-290x-pictured-close

LurenZ87
15-10-2013, 10:38
dai ormai dovrebbe mancare poco, basta con sti 3dmark,voglio i giochi:D
qui hanno messo un po' tutto quell oche si e' visto ad oggi
http://videocardz.com/46785/amd-radeon-r9-290x-performance-charts-emerge

93°C :fagiano:

Inviato dal mio Nexus 4 now Free ('http://tapatalk.com/m?id=10')

Foglia Morta
15-10-2013, 10:39
non capisco allora la precisazione esplicita di Microsoft, sostiene che xbox userà un superset di dx11.2 per i giochi, ossia che gli sviluppatori per programamre per xboxone useranno il superset dx11.2, non mantle. Se vorranno scrivere in mantle dovranno fare un'ulteriore versione del gioco con tale set di Api.

Non c'è bisogno che sia Microsoft a supportare Mantle perchè è AMD che ha reso Mantle compatibile con le DirectX HLSL . Ogni console ha le sue api di basso livello che sono fatte appositamente per GCN , Mantle è un altra api di basso livello che serve a portare gran parte del lavoro svolto sulle console sulle altre piattaforme con GCN. La nuova versione del gioco dev' essere fatta ma gran parte del lavoro non deve essere rifatto... ed è questo che lo rende conveniente e fattibile per gli sviluppatori , altrimenti i costi e i tempi di sviluppo non lo consentirebbero

edit: cMantle prende di mira gli engine che vengono usati nei giochi, sono quelli che devono essere fatti in versione mantle e il resto viene poi di conseguenza

ertruffa
15-10-2013, 10:41
93°C :fagiano:

Inviato dal mio Nexus 4 now Free ('http://tapatalk.com/m?id=10')

si visto, magari pero' con la vga al 100% e la ventola in auto, sicuramnete non e' buono come inizio....vediamo

appleroof
15-10-2013, 10:47
Non c'è bisogno che sia Microsoft a supportare Mantle perchè è AMD che ha reso Mantle compatibile con le DirectX HLSL . Ogni console ha le sue api di basso livello che sono fatte appositamente per GCN , Mantle è un altra api di basso livello che serve a portare gran parte del lavoro svolto sulle console sulle altre piattaforme con GCN. La nuova versione del gioco dev' essere fatta ma gran parte del lavoro non deve essere rifatto... ed è questo che lo rende conveniente e fattibile per gli sviluppatori , altrimenti i costi e i tempi di sviluppo non lo consentirebbero

questo è un altro paio di maniche, ma oltre a confermare quanto dicevo (per il neretto) si perde gran parte della convenienza che ci sarebbe stata se le console (adesso sappiamo di certo xboxone e wii, su ps4 non ho ancora capito) avessero avuto come unico set mantle, come veniva speculato all'inizio quando mantle è stato annunciato, cosa che avrebbe ribaltato la prospettiva: lo sviluppatore programmava con mantle e dopo per pc faceva la versione dx (o ogl) con ulteriore aggravio.

Comunque queste parole non lasciano spazio ad interpretazioni: Other graphics APIs such as OpenGL and AMD’s Mantle are not available on Xbox One. Se vuoi scrivere per xboxone, devi scrivere in dx (mi spiace per le ogl in realtà).


Insomma, è evidente che la precisazione di Microsoft non è fatta a caso, che poi è anche naturale che Microsoft non guardi con favore Mantle, essendo la presenza di Windows in ambito desktop consumer legata per il 90% se non 99% allo strapotere delle directx in ambito pc gaming. (edit: a parte ipotizzo anche una certa pressione di Intel ed Nvidia in questo senso, che ovviamente non hanno alcun interesse in mantle...)

bronzodiriace
15-10-2013, 10:49
questo è un altro paio di maniche, ma oltre a confermare quanto dicevo (per il neretto) si perde gran parte della convenienza che ci sarebbe stata se le console (adesso sappiamo di certo xboxone e wii, su ps4 non ho ancora capito) avessero avuto come unico set mantle, come veniva speculato all'inizio quando mantle è stato annunciato, cosa che avrebbe ribaltato la prospettiva: lo sviluppatore programmava con mantle e dopo per pc faceva la versione dx (o ogl) con ulteriore aggravio.

Comunque queste parole non lasciano spazio ad interpretazioni: Other graphics APIs such as OpenGL and AMD’s Mantle are not available on Xbox One. Se vuoi scrivere per xboxone, devi scrivere in dx (mi spiace per le ogl in realtà).


Insomma, è evidente che la precisazione di Microsoft non è fatta a caso, che poi è anche naturale che Microsoft non guardi con favore Mantle, essendo la presenza di Windows in ambito desktop consumer legata per il 90% se non 99% allo strapotere delle directx in ambito pc gaming.

Io credo che il modo di sviluppare su console non sia altro che Mantle.

Nel senso che AMD vuole portare il concetto di sviluppo in ambito console tramite le API Mantle.

Free Gordon
15-10-2013, 10:50
per capa verde non saprei...

ma io ero rimasto che era basata su rv770, ma sul livello di una 4670, con 320 stream processor.


Sì ;)
http://en.wikipedia.org/wiki/Latte_(graphics_chip)

okorop
15-10-2013, 10:53
Io credo che il modo di sviluppare su console non sia altro che Mantle.

Nel senso che AMD vuole portare il concetto di sviluppo in ambito console tramite le API Mantle.

quoto!!!

appleroof
15-10-2013, 10:53
Io credo che il modo di sviluppare su console non sia altro che Mantle.

Nel senso che AMD vuole portare il concetto di sviluppo in ambito console tramite le API Mantle.

raga, scusate se ribadisco: Other graphics APIs such as OpenGL and AMD’s Mantle are not available on Xbox One


quindi non si tratta di "io credo", ma di leggere le parole testuali...poi insisto, mantle è una iattura per i consumatori pc, piuttosto sarebbe il caso che potenziassero e migliorassero le directx o le ogl (ma MS le ha fatte fuori anni fà ormai, la speranza è in SteamOs in qualche modo..), e attenzione, sarebbe lo stesso se fosse nvidia a proporre una cosa del genere, spero si capisca che il mio parere prescinde dal fanboismo (ed oggettivamente infatti credo che chiunque non sia fanboy dovrebbe riconoscere che un set di api proprietario non è un bene per la concorrenza e quindi per il consumatore finale che non avrebbe più scelta hw nel caso si imponessero come standard).

LurenZ87
15-10-2013, 10:56
si visto, magari pero' con la vga al 100% e la ventola in auto, sicuramnete non e' buono come inizio....vediamo

Può essere una cosa cattiva per un lato e buona dall'altro...

Mi spiego, ti ricordi la GTX 480??? Scaldava a bestia, però se raffreddata bene saliva e pure parecchio... Chissà, magari Hawaii XT ha delle potenzialità ma è limitata dal dissipatore reference...

Inviato dal mio Nexus 4 now Free ('http://tapatalk.com/m?id=10')

Foglia Morta
15-10-2013, 10:58
questo è un altro paio di maniche, ma oltre a confermare quanto dicevo (per il neretto) si perde gran parte della convenienza che ci sarebbe stata se le console (adesso sappiamo di certo xboxone e wii, su ps4 non ho ancora capito) avessero avuto come unico set mantle, come veniva speculato all'inizio quando mantle è stato annunciato, cosa che avrebbe ribaltato la prospettiva: lo sviluppatore programmava con mantle e dopo per pc faceva la versione dx (o ogl) con ulteriore aggravio.

Comunque queste parole non lasciano spazio ad interpretazioni: Other graphics APIs such as OpenGL and AMD’s Mantle are not available on Xbox One. Se vuoi scrivere per xboxone, devi scrivere in dx (mi spiace per le ogl in realtà).


Insomma, è evidente che la precisazione di Microsoft non è fatta a caso, che poi è anche naturale che Microsoft non guardi con favore Mantle, essendo la presenza di Windows in ambito desktop consumer legata per il 90% se non 99% allo strapotere delle directx in ambito pc gaming. (edit: a parte ipotizzo anche una certa pressione di Intel ed Nvidia in questo senso, che ovviamente non hanno alcun interesse in mantle...)

non è un altro paio di maniche perchè chiarisce il motivo per cui esiste mantle , sanno benissimo gli sviluppatori con un ulteriore api porta ulteriore di lavoro e sono stati loro a volerlo perchè i vantaggi che ne derivano superano gli svantaggi , quello che ho quotato prima dice tutto: “What Mantle creates for the PC is a development environment that’s *similar* to the consoles, which already offer low-level APIs, close-to-metal programming, easier development and more (vs. the complicated PC environment). By creating a more console-like developer environment, Mantle: improves time to market; reduces development costs; and allows for considerably more efficient rendering, improving performance for gamers. The console connection is made because next-gen uses Radeon, so much of the programming they’re doing for the consoles are already well-suited to a modern Radeon architecture on the desktop; that continuum is what allows Mantle to exist.”


Mantle ricrea un' ambiente di sviluppo simile a quello delle console, non dev' essere lo stesso. Questo fa si che gran parte del lavoro svolto su una piattaforma sia facilmente portabile su un' altra piattaforma grazie a Mantle

appleroof
15-10-2013, 10:59
Può essere una cosa cattiva per un lato e buona dall'altro...

Mi spiego, ti ricordi la GTX 480??? Scaldava a bestia, però se raffreddata bene saliva e pure parecchio... Chissà, magari Hawaii XT ha delle potenzialità ma è limitata dal dissipatore reference...

Inviato dal mio Nexus 4 now Free ('http://tapatalk.com/m?id=10')

se gk110 che è una mattonella da più di 550mm* non è una gpu particolarmente calda (non quanto gf100 almeno, in proporzione), ci sono buone speranze che Hawaii si possa comportare bene sotto questo punto di vista...l'unico dubbio potrebbe essere che, visto che mi pare di aver letto che per farlo così relativamente piccolo abbiano usato transistor ad alta densità (da confermare eh?) questa cosa possa in qualche modo influire appunto sul calore prodotto, boh...

Free Gordon
15-10-2013, 11:05
quindi non si tratta di "io credo", ma di leggere le parole testuali...poi insisto, mantle è una iattura per i consumatori pc,.

Direi che è MOOOOOLTO prematuro dirlo ora.... :D

appleroof
15-10-2013, 11:05
non è un altro paio di maniche perchè chiarisce il motivo per cui esiste mantle , sanno benissimo gli sviluppatori con un ulteriore api porta ulteriore di lavoro e sono stati loro a volerlo perchè i vantaggi che ne derivano superano gli svantaggi , quello che ho quotato prima dice tutto: “What Mantle creates for the PC is a development environment that’s *similar* to the consoles, which already offer low-level APIs, close-to-metal programming, easier development and more (vs. the complicated PC environment). By creating a more console-like developer environment, Mantle: improves time to market; reduces development costs; and allows for considerably more efficient rendering, improving performance for gamers. The console connection is made because next-gen uses Radeon, so much of the programming they’re doing for the consoles are already well-suited to a modern Radeon architecture on the desktop; that continuum is what allows Mantle to exist.”


Mantle ricrea un' ambiente di sviluppo simile a quello delle console, non dev' essere lo stesso. Questo fa si che gran parte del lavoro svolto su una piattaforma sia facilmente portabile su un' altra piattaforma grazie a Mantle

mah, diciamo che non mi convinci affatto, e per i motivi esposti sono contento della precisazione Microsoft che per quanto mi riguarda ripeto capovolge la prospettiva che si aveva di mantle fino al post del blog di MS

per il resto rimango alla finestra per vedere gli sviluppi di questa cosa, di sicuro nelle prossime settimane si avranno ulteriori dettagli etc.

che poi per inciso ad un certo punto visto che amo giocare al pc potrei pure fregarmene dei principi e prendere una vga Amd con il valore aggiunto di Mantle, in futuro, ma ripeto non sarebbe comunque una buona cosa se ste api si diffondessero troppo o addirittura si imponessero come standard.

Free Gordon
15-10-2013, 11:08
Questo fa si che gran parte del lavoro svolto su una piattaforma sia facilmente portabile su un' altra piattaforma grazie a Mantle

Sinceramente a questo credo moooolto poco. :D

Se Mantle è scritto per GCN1.x e 2.x, non lo è per Kepler o per Maxwell. ;)

appleroof
15-10-2013, 11:09
Sinceramente a questo credo moooolto poco. :D

Se Mantle è scritto per GCN1.x e 2.x, non lo è per Kepler o per Maxwell. ;)

piattaforma lui intendeva da pc con hw amd a console e viceversa (cosa che per xboxone e wii appunto non è, per ps4 ancora non è chiaro).

Vul
15-10-2013, 11:14
Ha un Apu con sottosistema video basato su GCN. La medesima cosa per ps4.

Discorso differente per WiiU che invece monta una cpu multicore IBM oooe ed una gpu AMD basata su 5800.

Ma qual'è la fonte?
AMD parla specificamente di GCN come di una tecnologia implementata sulle sue GPU serie 7000 e serie R stop. Un APU rimane sempre una cpu con vga integrata (equivalente a qualcosa) ma non significa mica si porti appresso tutte le feature. E GCN ha a che vedere con l'architettura hardware e dell'utilizzo dell'hardware (shaders, consumi) delle gpu, con il numero di transistor integrabili a parità di processo produttivo. (edit: son comunque SoC quindi hanno comunque l'architettura gcn, dimenticate le righe sopra).

Comunque Mantle non è una feature rilevante su console, le console hanno già api ottimizzate, PS4 su OpenGL e kernel freebsd, la ONE ha una diversa versione di directx (ottimizzata per ambiente gaming) e un kernel più snello di win, il pc soffre sia di api non ottimizzate (directx) che di un kernel vecchio e poco funzionale (quello di windows).

Il punto è estremamente semplice: api di basso livello = codice più snello e più efficiente, più difficile da programmare. Api di alto livello = codice meno efficiente, per fare la stessa cosa (a volte) serve far fare alla macchina calcoli più complessi, ma più facile da programmare.

Fondamentalmente il kernel di windows limita il pc gaming facendo fare passaggi inutili ai programmi/giochi (del tipo informazione x, vai qui, poi memorizzati qui, poi vieni letta da y) mentre le console hanno kernel apposta fatti per un ambito di giochi per cui ad esempio le memorie vengono lette più efficacemente senza inutili giri gpu-cpu-gpu. Le api sono un discorso leggermente diverso e ha a che fare con come vengono scritti i giochi, non con l'efficienza della macchina, ma anche qui ci sono implicazioni di programming e interazione hardware. Fondamentalmente il funzionamento del kernel ha a che vedere con l'architettura di come funziona la macchina, le api hanno a che vedere con come la macchina viene guidata.

Son proprio curioso di cosa significherà mantle per il pc gaming e i suoi reali benefici, così come son curioso dei benefici futuri di Linux.

Vul
15-10-2013, 11:38
Comunque gira voce che entro 24 ore pioveranno recensioni. Da quel che risulta AMD non ha fatto annunci ufficiali sul prolungamento NDA da questo:

http://videocardz.com/images/2013/10/R9-290-launch-date.png

per cui oggi inizieranno a fioccare review secondo me a destra e manca.

Vul
15-10-2013, 11:39
Altro grafichetto:

http://cdn3.wccftech.com/wp-content/uploads/2013/09/AMD-Hawaii-R9-290X-GPU-Performance.jpg

Notare come in Firestrike titan fosse davanti ma poi nei giochi reali 290x è quasi sempre davanti.

In particolare 90 fps su BF 3 con tutto maxato e senza AA a 1600p (11% più grande di 1440p) sono veramente impressionanti.

maxmix65
15-10-2013, 11:57
Può essere una cosa cattiva per un lato e buona dall'altro...

Mi spiego, ti ricordi la GTX 480??? Scaldava a bestia, però se raffreddata bene saliva e pure parecchio... Chissà, magari Hawaii XT ha delle potenzialità ma è limitata dal dissipatore reference...

Inviato dal mio Nexus 4 now Free ('http://tapatalk.com/m?id=10')

Queste schede avranno una grossa potenzialita' in overclock con dissi custom o liquido..
Fidati ;)
Per le temp per le schede reference come tu ben sai non dipende solo dal dissipatore stock ..

mircocatta
15-10-2013, 12:01
dalla tabella sembra andare più di una titan consumando meno...ottimo direi!

comunque per mantle incomincia a complicarsi la storia, non ci resta che aspettare gli eventi futuri senza costruirsi castelli di sabbia
se poi l'intenzione è quella di fare un'api che consentedi fare facili conversioni in directx o api di altre piattaforme non vedo perchè non debbano implementarlo.. farebbero facili conversioni anche per pc in directx così da soddifare anche chi possiede nvidia, semplicemente su pc amd andranno di più perchè anzichè utilizzare directx probabilmente si potrà sfruttare direttamente l'api mantle

blaskoo
15-10-2013, 12:08
i waterblock ek per la 290x sono già in lista,ovviamente non disponibili,non male sta cosa

Free Gordon
15-10-2013, 12:15
Ma qual'è la fonte?


Si sa da una vita.. ;)
Le due console sono entrambe GCN, una con 12CU attivi, l'altra con 18.

appleroof
15-10-2013, 12:43
ancora più chiaro, dalla voce diretta di Amd.

http://i.imgur.com/eH5FD2j.png (http://imgur.com/eH5FD2j)

Luca T
15-10-2013, 12:47
Novità?

:(

Ale55andr0
15-10-2013, 12:49
ma non cambia di una virgola il discorso, è per PC (appunto) che gli effetti positivi o negativi si vedranno, mica sulle console, in sostanza quel che deve premere a noi è il vedere se chi convertirà i giochi console decidera o meno per il supporto, posto che a priori la base di entrambe le console è architettura AMD è questo non è certo uno svantaggio (per i rossi intendo)

wafa
15-10-2013, 12:49
Comunque gira voce che entro 24 ore pioveranno recensioni. Da quel che risulta AMD non ha fatto annunci ufficiali sul prolungamento NDA da questo:

http://videocardz.com/images/2013/10/R9-290-launch-date.png

per cui oggi inizieranno a fioccare review secondo me a destra e manca.

proprio non ci credete che oggi non è il giorno di scadenza dell'embargo, guarda ti faccio copia/incolla dell'email che AMD stessa ha mandato a TUTTI coloro che hanno firmato l'NDA:

Carissimo XYZ,

ti scrivo per segnalarti una precisazione relativa all’embargo sulle nuove AMD Radeon R9 290 e R9 290X – chiedendoti la cortesia di rispondere a questa mail confermandomi di averla ricevuta e letta e contattandomi nel caso tu abbia dubbi al riguardo.

Vorrei quindi precisare che, diversamente da quanto erroneamente suggerito da alcuni articoli disponibili su Internet, non c’è al momento alcuna indicazione ufficiale relativa alla data di rilascio o di pubblicazione di ulteriori informazioni relative alle AMD Radeon R9 290 e R9 290X.

Tutti i dettagli relativi alle AMD Radeon R9 290 e R9 290X (ad eccezione di quelli comunicati nel corso della webcast di presentazione) sono quindi in questo momento da considerare confidenziali in forza dell’NDA firmato precedentemente.

Ecco comunque la comunicazione ufficiale da parte di AMD:

//
290, 290X architectural discussions (including the new PowerTune feature), as well as the new XDMA CrossFire feature should only be discussed in the articles that go live with 290 and 290X, NDA lift to be determined.

We will be communicating the NDA lift date for Radeon R9 290 series soon.

appleroof
15-10-2013, 12:51
wafa posso chiederti quando ti è arrivata questa mail?

Ale55andr0
15-10-2013, 12:51
....comunque tornando ai bench non sono disposto a credere a nulla in bene o in male fino a quando non vedòo le review ufficiali, e per giunta di diverse testate :O

ertruffa
15-10-2013, 12:53
proprio non ci credete che oggi non è il giorno di scadenza dell'embargo, guarda ti faccio copia/incolla dell'email che AMD stessa ha mandato a TUTTI coloro che hanno firmato l'NDA:

Carissimo XYZ,

ti scrivo per segnalarti una precisazione relativa all’embargo sulle nuove AMD Radeon R9 290 e R9 290X – chiedendoti la cortesia di rispondere a questa mail confermandomi di averla ricevuta e letta e contattandomi nel caso tu abbia dubbi al riguardo.

Vorrei quindi precisare che, diversamente da quanto erroneamente suggerito da alcuni articoli disponibili su Internet, non c’è al momento alcuna indicazione ufficiale relativa alla data di rilascio o di pubblicazione di ulteriori informazioni relative alle AMD Radeon R9 290 e R9 290X.

Tutti i dettagli relativi alle AMD Radeon R9 290 e R9 290X (ad eccezione di quelli comunicati nel corso della webcast di presentazione) sono quindi in questo momento da considerare confidenziali in forza dell’NDA firmato precedentemente.

Ecco comunque la comunicazione ufficiale da parte di AMD:

//
290, 290X architectural discussions (including the new PowerTune feature), as well as the new XDMA CrossFire feature should only be discussed in the articles that go live with 290 and 290X, NDA lift to be determined.

We will be communicating the NDA lift date for Radeon R9 290 series soon.

si io ti credevo gia' prima, ora come data danno il 18, e anche vero che tu hai detto di non avre le vga(ti credo), quando tante altre testate che devono fare le review le vga gia' le hanno.infatti cominciano a girare un po' di test e foto della vga smontata, io dico che manca poco.

wafa
15-10-2013, 12:53
wafa posso chiederti quando ti è arrivata questa mail?

il 9 ottobre :)

appleroof
15-10-2013, 12:55
il 9 ottobre :)

grazie ;) .....quindi tra qualche giorno poteva essere pure il 18 :sofico:

wafa
15-10-2013, 12:56
si io ti credevo gia' prima, ora come data danno il 18, e anche vero che tu hai detto di non avre le vga(ti credo), quando tante altre testate che devono fare le review le vga gia' le hanno.infatti cominciano a girare un po' di test e foto della vga smontata, io dico che manca poco.

le mie vga sono in viaggio, prima si sa che le mandano alle testate più grandi come guru3d, anandtech, techpowerup & co.

il 18 non penso sia il giorno buono comunque :(

ertruffa
15-10-2013, 12:59
vabbe' ormai provo a resistere.....se puoi facci sapere se amd ti da sta ca... di data.:D

maurilio968
15-10-2013, 12:59
penso che su mantle si faccia volutamente confusione (forse per paura di ritrovarsi con una scheda top pagata 600 euro che sui giochi del 2014 va magari la metà di una scheda della concorrenza da 300 euro).
Premetto che una "svolta mantle" NON piace nemmeno a me però nella realtà è molto probabile: non posso sapere se mantle verrà adotatto in massa dagli sviluppatori però un paio di punti fermi che me lo fanno sospettare ci sono.

Fino ad ora lo sviluppo dei videogames sostiene un costo aggiuntivo dovuto al porting tra diverse piattaforme. Se però le console avranno tutte (quelle che contano cioè ps4 ed xbox one) lo stesso hardware video (AMD, GCN) e i pc equipaggiati con video amd GCN condividono lo stesso hardware (tutti quelli con schede dalla serie 7*** in poi) per una casa che sviluppa videogame è disponibile ora un UNICO ambiente di sviluppo MANTLE con api di basso livello molto più performante delle directx.

Ergo, faccio il gioco UNA volta e mi gira su console e pc senza sbattimenti per i porting. Enorme risparmio economico per lo sviluppatore.
Secondo vantaggio: siccome le api mantle sono molto più efficienti (a quanto dicono, poi è da vedere sul campo) permettono di spremere più a lungo l'harware che sulle nuove console dovrà durare anni.(lo abbiamo visto su ps3 dovre gli ultimi giochi usciti hanno una grafica nettamente migliore sullo stesso hardware di anni fa).

Perciò siccome installando i driver delle schede amd si potranno anche installare eventuali api mantle da mantenere parallelamente alle directx (per il resto dei software win non game) non vedo perchè gli sviluppatori dovrebbero sbattersi per fare anche delle versioni directx dei loro giochi.

Perchè sul mercato ci sono grosse fette di pc di videogiocatori con hardware nvidia? Per gli sviluppatori è più un problema di nvidia che loro e solo all'inzio (per il parco già installato). Per il futuro diranno compra una amd che problema c'è ? Quidni magari all'inizio (in un primo periodo di coesistenza mantle directx per i giochi) faranno anche delle versioni directx dello stesso gioco. Oppure no: in questo secondo caso (emulazione software da parte nvidia ?) probabilmente l'utente dovrà spendere il doppio (se compra una nvidia) per avere le stesse prestazioni. Dubito che una emulazione software di mantle su nvidia sarebbe più efficiente di un poting in directx.

Magari alcuni sviluppatori faranno il porting in directx ed altri no a seconda dei costi in più da sostenere che però con mantle su pc sarebbero secondo me sempre meno giustificabili.

Infine dubito che nvidia possa ribattere con successo con delle proprie api di basso livello perchè non ha hardware su console.

Ed è proprio questo il punto: i videogames sono guidati dal mercato console ed nvidia ne è fuori.

Questa situazione non mi piace per niente ed il rischio di ritrovarsi a breve con un monopolio amd nel comparto video è serio.

Vul
15-10-2013, 13:00
ancora più chiaro, dalla voce diretta di Amd.

http://i.imgur.com/eH5FD2j.png (http://imgur.com/eH5FD2j)

Anche perchè non avrebbe il minimo senso che ci fosse per console, le console hanno già un api ottimizzata di basso livello, era il pc quello che mancava di ottimizzazione. Son proprio curioso quando sarà patchato bf4 con mantle quanto saranno significative queste differenze prestazionali..

Vul
15-10-2013, 13:07
penso che su mantle si faccia volutamente confusione (forse per paura di ritrovarsi con una scheda top pagata 600 euro che sui giochi del 2014 va magari la metà di una scheda della concorrenza da 300 euro).
Premetto che una "svolta mantle" NON piace nemmeno a me però nella realtà è molto probabile: non posso sapere se mantle verrà adotatto in massa dagli sviluppatori però un paio di punti fermi che me lo fanno sospettare ci sono.

Fino ad ora lo sviluppo dei videogames sostiene un costo aggiuntivo dovuto al porting tra diverse piattaforme. Se però le console avranno tutte (quelle che contano cioè ps4 ed xbox one) lo stesso hardware video (AMD, GCN) e i pc equipaggiati con video amd GCN condividono lo stesso hardware (tutti quelli con schede dalla serie 7*** in poi) per una casa che sviluppa videogame è disponibile ora un UNICO ambiente di sviluppo MANTLE con api di basso livello molto più performante delle directx.

Ergo, faccio il gioco UNA volta e mi gira su console e pc senza sbattimenti per i porting. Enorme risparmio economico per lo sviluppatore.
Secondo vantaggio: siccome le api mantle sono molto più efficienti (a quanto dicono, poi è da vedere sul campo) permettono di spremere più a lungo l'harware che sulle nuove console dovrà durare anni.(lo abbiamo visto su ps3 dovre gli ultimi giochi usciti hanno una grafica nettamente migliore sullo stesso hardware di anni fa).

Perciò siccome installando i driver delle schede amd si potranno anche installare eventuali api mantle da mantenere parallelamente alle directx (per il resto dei software win non game) non vedo perchè gli sviluppatori dovrebbero sbattersi per fare anche delle versioni directx dei loro giochi.

Perchè sul mercato ci sono grosse fette di pc di videogiocatori con hardware nvidia? Per gli sviluppatori è più un problema di nvidia che loro. Magari all'inizio faranno anche delle versioni directx dello stesso gioco che richiderà all'utente di spendere il doppio (se compra una nvidia) per andare come le versioni mantle. Dubito che una emulazione software di mantle su nvidia sarebbe più efficiente di un poting in directx.

Magari alcuni sviluppatori faranno il porting in directx ed altri no a seconda dei costi in più da sostenere che però con mantle su pc sarebbero secondo me sempre meno giustificabili.

Infine dubito che nvidia possa ribattere con successo con delle proprie api di basso livello perchè non ha hardware su console.



Si ma tutto sto discorso ha dei problemi.
Punto primo le console avranno lo stesso hardware ma gli ambienti di sviluppo e le api sono molto diverse visto che PS4 ha api basate su OpenGL e Xbox One le ha basate su Directx, anche i Kernel delle due console sono differenti.

Punto secondo, Mantle non sarà disponibile su console visto che le console vengono progettate già con un kernel e api ottimizzate per l'hardware stesso (a differenza delle console dove ci sono praticamente solo le directx e il kernel windows). Il punto delle api introdotte da amd è quello di dare un alternativa a directx, un alternativa più hardware efficiente. Questo perchè l'ambiente di programmazione directx è facile da utilizzare ma poco efficiente a livello di prestazioni.

Punto terzo, voglio proprio vedere le differenze pratiche di mantle, perchè secondo me se ci sarà un incremento risibile di qualche punto % non è nulla che microsoft non potrebbe riprendere rilasciando una nuova versione di directx con librerie più efficienti (ora non ne ha bisogno son 15 anni che è seduta sugli allori).

Tra l'altro AMD ha già specificato che le API mantle avranno delle feature per convertire automaticamente i giochi in compatibilità directx (per chi volesse programmare il tutto su mantle e poi convertire).

Foglia Morta
15-10-2013, 13:08
ancora più chiaro, dalla voce diretta di Amd.

http://i.imgur.com/eH5FD2j.png (http://imgur.com/eH5FD2j)

quel messaggio su twitter dice la stessa cosa che ti ho ho già fatto leggere due volte :

“What Mantle creates for the PC is a development environment that’s *similar* to the consoles, which already offer low-level APIs, close-to-metal programming, easier development and more (vs. the complicated PC environment). By creating a more console-like developer environment, Mantle: improves time to market; reduces development costs; and allows for considerably more efficient rendering, improving performance for gamers. The console connection is made because next-gen uses Radeon, so much of the programming they’re doing for the consoles are already well-suited to a modern Radeon architecture on the desktop; that continuum is what allows Mantle to exist.”

ho fatto copia incolla di parole di AMD. se poi vuoi stravolgerne il significato...

Vul
15-10-2013, 13:12
Immagino in effetti che questa frase sia difficile da comprendere:

What Mantle creates for the PC is a development environment that’s *similar* to the consoles, which already offer low-level APIs

Mantle dovrebbe ottimizzare l'utilizzo dell'hardware da parte dei software che ne faranno uso (gioco) dando codice più macchina efficiente.

Le console hanno già le loro api molto efficienti (sicuramente più di Mantle) visto che sono state già scritte per sfruttare al massimo l'hardware a cui si riferiscono.

In questo caso siamo sempre noi del mondo pc a inseguire le console, lato ottimizzazione, le console non ci fanno nulla, siamo noi che rincorriamo un surrogato (ma poi bisogna vedere la realtà dei fatti come sarà e quale sarà la risposta directx).

maurilio968
15-10-2013, 13:12
ancora più chiaro, dalla voce diretta di Amd.

http://i.imgur.com/eH5FD2j.png (http://imgur.com/eH5FD2j)

questa è una conferma, non una smentita.

le api di basso livello AMD su console (tutte quelle che contano) ci sono già.
mantle fa usare le stesse api su pc EVITANDO allo sviluppatore di dover passare alle directx (con relativi costi economici).

Vul
15-10-2013, 13:13
questa è una conferma, non una smentita.

le api di basso livello AMD su console (tutte quelle che contano) ci sono già.
mantle fa usare le stesse api su pc EVITANDO allo sviluppatore di dover passare alle directx (con relativi costi economici).

Non è un fatto di costi. Mica si pagano le royalty per sviluppare in directx su pc.

appleroof
15-10-2013, 13:13
cut
Ergo, faccio il gioco UNA volta e mi gira su console e pc senza sbattimenti per i porting. Enorme risparmio economico per lo sviluppatore.
cut

se la xboxone supporta directX, e se le vga attuali sono directX (le nuove Amd pure 11.2), il risparmio è proprio nel continuare a sviluppare in directX, capirai, quasi scompare il concetto di porting. Devi avere invece persone dedicate a sviluppare in Mantle e farlo solo per le vga discrete Amd. Anche perchè attualmente nvidia possiede la fetta maggiore del mercato vga discrete, unite alle unità di xboxone che saranno vendute (e marginalmente di wii, non dimentichiamolo), gli equilibri di convenienza per gli sviluppatori non sono cos' a favore di mantle se ci pensi.

cut. Son proprio curioso quando sarà patchato bf4 con mantle quanto saranno significative queste differenze prestazionali..

bè su questo non ho dubbi che il boost sarà evidente, almeno così dovrebbe essere visto che parliamo di Api dedicate a sfruttare meglio l'hw amd, se così non fosse o se il boost fosse risibile, penso che sarebbe il peggior fail della storia videoludica, e non credo si sarebbero esposti tanto se non fossero sicuri del loro...

cmq ripeto vediamo lo sviluppo della cosa, sopratutto aspetto maggiori dettagli su mantle e sui vantaggi che porterebbero rispetto a dx (e magari che non vengano da Amd o da gente che con loro ha rapporti economici, ma possibilmente da sviluppatori terzi indipendenti)

questa è una conferma, non una smentita.

le api di basso livello AMD su console (tutte quelle che contano) ci sono già.
mantle fa usare le stesse api su pc EVITANDO allo sviluppatore di dover passare alle directx (con relativi costi economici).

non lo so , oggi tutti dicono che è una conferma, fino a ieri invece molti godevano del fatto che Amd avesse "imposto" Mantle sulle console e quindi poi su pc :boh:

Poi forse non hai letto la notizia che Microsoft ha affermato che xboxone supporta dx11.2 (un superset delle stesse), non mantle, quindi le api di basso livello di Amd non ci sono affatto.

francisco9751
15-10-2013, 13:15
Speriamo, magari non ci saranno più esclusive.. E non avrò la tentazione di prendere le console per un paio di giochi

Tapatalked from Nexus 4

maurilio968
15-10-2013, 13:17
Si ma tutto sto discorso ha dei problemi.

Tra l'altro AMD ha già specificato che le API mantle avranno delle feature per convertire automaticamente i giochi in compatibilità directx (per chi volesse programmare il tutto su mantle e poi convertire).

directx NON sono di basso livello.

se con api mantle già gira su pc con scheda amd perchè dovrei fare un porting meno efficiente in directx?

se anche il gioco esiste in versione mantle e directx visto che la prima è molto più efficiente della seconda come fa nvidia su directx a restare concorrenziale a amd su mantle ?

E' tutto in quel SE. Va visto sul campo.
Ma SE mantle è davvero così efficiente non vedo perchè non debba imporsi e non vedo attualmente come nvidia possa rispondere.

maurilio968
15-10-2013, 13:18
Non è un fatto di costi. Mica si pagano le royalty per sviluppare in directx su pc.

il tempo speso a convertire i giochi in varie piattaforme è una fetta consistente degli investimenti attuali inchi produce videogames. Non sono royalties, è tempo uomo-macchina che si paga.

Alodesign
15-10-2013, 13:25
Oggi mi è arrivato via email un bel volantino di un sito di vendita online, dove davano le 280x in spedizione il 18 se compravo oggi.
La cosa che più mi ha sorpreso era il prezzo di lancio, che (anche se ammetto non ho confrontato bene con le 7970) era di qualche decina di € inferiore.
Possibile che queste 280x che vanno quasi come una 7970 costino così meno?

O ci sarà poi un calo netto delle 7970?

IOWA
15-10-2013, 13:25
il tempo speso a convertire i giochi in varie piattaforme è una fetta consistente degli investimenti attuali inchi produce videogames. Non sono royalties, è tempo uomo-macchina che si paga.

Dovrebbe realizzare dei motori a codice unico capace di generare giochi multi piattaforma (il cry non è così?)

Free Gordon
15-10-2013, 13:29
dalla tabella sembra andare più di una titan consumando meno...ottimo direi!

Dubito molto che consumi meno... :D

Vul
15-10-2013, 13:30
bè su questo non ho dubbi che il boost sarà evidente, almeno così dovrebbe essere visto che parliamo di Api dedicate a sfruttare meglio l'hw amd, se così non fosse o se il boost fosse risibile, penso che sarebbe il peggior fail della storia videoludica, e non credo si sarebbero esposti tanto se non fossero sicuri del loro...


Io si che ho i miei dubbi, cioè ci credo in qualche miglioria (magari creata ad hoc insieme a dice siccome li lega un contratto), ma il kernel rimane sempre quello di windows. Ergo non è efficiente per il gaming e avremo le classiche limitazioni di informazioni che rimbalzano fra cache, cpu, ram, vram ecc.
Secondo me qualcosa dovrà andare un pò meglio, ma non ci si può aspettare il boost prestazionale dato da architetture chiuse con kernel ed api ad hoc per quella singola macchina.

Poi forse non hai letto la notizia che Microsoft ha affermato che xboxone supporta dx11.2 (un superset delle stesse), non mantle, quindi le api di basso livello di Amd non ci sono affatto.

Stai facendo confusione attenzione. Sia xbox one che ps4 hanno le loro api e kernel sviluppate da sony e microsoft. In queste console ci è finito hardware amd (soprattutto perchè nvidia se n'è tirata fuori). E' il pc che ha solo un api (directx) ferma da quasi 5 anni, che è sempre stata scarsamente ottimizzata. Ora AMD ha detto "basta, siamo stufi della nulla facenza di Microsoft che si adagia sugli allori anzichè lavorare sul migliorare l'efficienza del proprio software, quindi proponiamo un alternativa a directx per pc". Ma quest'alternativa di certo non serve alle console che ci nascono con le loro api a puntino per sfruttare l'hardware al massimo.

Cioè la lettura di questa frase non mi pare complicata (e poi abbandono l'argomento tanto se uno non capisce non capisce):

What Mantle creates for the PC is a development environment that’s *similar* to the consoles, which already offer low-level APIs

Mantle è un alternativa alle api directx su pc, non serve a una beneamata mazza alle console che hanno le loro api ad hoc sicuramente più efficienti di Mantle. Siamo noi che siamo fermi con le directx che fanno pena da 5 anni, che giochi che dovrebbero girare a un gozziliardo di fps faticano ad andare a risoluzioni/dettagli minori quando su console lo stesso gioco gira fluidamente (non so prendiamo un BF3 su una 7800gtx e un core duo e paragoniamolo con BF 3 su una 360 che ha lo stesso hardware). E ugualmente dubito che le console nuove che faranno girare una miriade di giochi in full hd e 60 fps, altri a 1080p scalato e magari 30 fps girerebbero ugualmente su Jaguar (risposta amd ad atom) e delle 7790 integrate. E' il pc che ha bisogno di mantle, non le console.

Vul
15-10-2013, 13:32
directx NON sono di basso livello.

se con api mantle già gira su pc con scheda amd perchè dovrei fare un porting meno efficiente in directx?


Console? Schede nvidia? Serie 6000, 5000 amd e tutte le versioni mobile che non sono basate su gcn?

mircocatta
15-10-2013, 13:33
Il punto delle api introdotte da amd è quello di dare un alternativa a directx, un alternativa più hardware efficiente. Questo perchè l'ambiente di programmazione directx è facile da utilizzare ma poco efficiente a livello di prestazioni.


Se fosse semplicemente questo mantle sarebbe morto ancor prima di entrare in campo

se l'unica motivazione per adottarlo fosse "più performance con schede amd" non fregherebbe a nessuna software house utilizzarle, anzi al contrario preferirebbero continuare a sviluppare su directx/opengl visto che avrebbe un utenza maggiore a cui vendere il proprio software (amd+nvidia)

mantle, per avere un senso, deve essere per forza qualcosa di più "ampio", e non credo che amd si metta a sviluppare e pubblicizzare qualcosa di così importante se poi non avrà successo

Vul
15-10-2013, 13:40
Se fosse semplicemente questo mantle sarebbe morto ancor prima di entrare in campo

se l'unica motivazione per adottarlo fosse "più performance con schede amd" non fregherebbe a nessuna software house utilizzarle, anzi al contrario preferirebbero continuare a sviluppare su directx/opengl visto che avrebbe un utenza maggiore a cui vendere il proprio software (amd+nvidia)

mantle, per avere un senso, deve essere per forza qualcosa di più "ampio", e non credo che amd si metta a sviluppare e pubblicizzare qualcosa di così importante se poi non avrà successo

Infatti siamo noi che diamo fin troppo spazio a Mantle in questa discussione, un API proprietaria (al momento) di AMD che per ora viene supportata da UNO sviluppatore e per motivi commerciali che lo legano con AMD.

Tra l'altro il "semplicemente questo" a me non sembra così poco. C'è un enorme differenza fra le prestazioni effettive di una console in ambito giochi e un pc con lo stesso hardware e questa difficoltà deriva da api e kernel dedicati ed ottimizzati su console, non vorresti lo stesso su pc?

Cavolo ma sono l'unico che si ricorda solo 3-4 anni fa avere una 460 e giocare agli stessi dettagli/risoluzioni di gente con console 3 volte meno potenti? Cavolo io con una 550 ti Arkham City mi girava a dettagli medio-bassi con cali di fps bruschissimi nelle stanze dell'enigmista a 1600 e avendo una PS3 vi assicuro che a livello visivo la differenza non era così grande, anzi. E avevo una macchina immensamente superiore alle console.

Le API e il kernel non sono mica poco ed è l'ora di liberarsi di microsoft una volta per tutte.

Inoltre AMD e Nvidia si scambiano moltissimi brevetti fra di loro così come fanno amd e intel, non è che Nvidia è preclusa da mantle a prescindere. Rimango del parere che Mantle sarà forse più utile per farci vedere una nuova versione di directx decente e più efficiente che altro.

dav1deser
15-10-2013, 13:41
se gk110 che è una mattonella da più di 550mm* non è una gpu particolarmente calda (non quanto gf100 almeno, in proporzione), ci sono buone speranze che Hawaii si possa comportare bene sotto questo punto di vista...l'unico dubbio potrebbe essere che, visto che mi pare di aver letto che per farlo così relativamente piccolo abbiano usato transistor ad alta densità (da confermare eh?) questa cosa possa in qualche modo influire appunto sul calore prodotto, boh...

Non è solo questione di dimensioni, se ipotizziamo che gk110 e Hawaii consumino circa uguale è ovvio che Hawaii essendo più piccolo risulterà più caldo, proprio perchè il calore è distribuito su di un'area inferiore.

Foglia Morta
15-10-2013, 13:43
Stai facendo confusione attenzione. Sia xbox one che ps4 hanno le loro api e kernel sviluppate da sony e microsoft. In queste console ci è finito hardware amd (soprattutto perchè nvidia se n'è tirata fuori). E' il pc che ha solo un api (directx) ferma da quasi 5 anni, che è sempre stata scarsamente ottimizzata. Ora AMD ha detto "basta, siamo stufi della nulla facenza di Microsoft che si adagia sugli allori anzichè lavorare sul migliorare l'efficienza del proprio software, quindi proponiamo un alternativa a directx per pc". Ma quest'alternativa di certo non serve alle console che ci nascono con le loro api a puntino per sfruttare l'hardware al massimo

Han detto che se ne sono tirati fuori dopo che i produttori hanno preso la decisione... prima invece il CEO diceva così:

Q: Do you think there will be another round of consoles coming?

A: Oh, no question about it.

Q: And can you predict when it will be in terms of how many years from now?

A: We will build one of them, right. And the reason for that is because the world doesn’t have enough engineering talent for anybody to build three of them at one time. It takes the entire livelihood of a computer graphics company to build one of them. And every single time they build one, my life is in danger. You build it once every five or seven years, but you have to build it all in a very short time. That’s because they wait and wait and then they say, ‘Can I have it next week?’

Read more at http://venturebeat.com/2011/03/04/qa-nvidia-chief-explains-his-strategy-for-winning-in-mobile-computing/#kemdJGV7gIGbqo4j.99

prima ( marzo 2011 , appena prima che Microsoft decidesse di andare su AMD ) nVidia dice sicura al 100% che farà l' hardware per una delle 3 console , la perde e per magia sono stati loro a non volerla.

Vul
15-10-2013, 13:46
Gli sviluppatori Sony o MIcrosoft hanno detto che lavorare con Nvidia era antipatico, era poco supportiva, voleva farsi pagare per tutto, mentre amd mandava gli ingegneri a gratis a supportare lo sviluppo delle console.

Non credo che la voce "royalty xbox vendute" fosse così rilevante nelle casse nvidia o sicuramente ci avrebbe messo più impegno.

Foglia Morta
15-10-2013, 13:48
Gli sviluppatori Sony o MIcrosoft hanno detto che lavorare con Nvidia era antipatico, era poco supportiva, voleva farsi pagare per tutto, mentre amd mandava gli ingegneri a gratis a supportare lo sviluppo delle console.

Non credo che la voce "royalty xbox vendute" fosse così rilevante nelle casse nvidia o sicuramente ci avrebbe messo più impegno.

si vede che ti fai le domande sbagliate ;)

mircocatta
15-10-2013, 13:49
Infatti siamo noi che diamo fin troppo spazio a Mantle in questa discussione, un API proprietaria (al momento) di AMD che per ora viene supportata da UNO sviluppatore e per motivi commerciali che lo legano con AMD.

Tra l'altro il "semplicemente questo" a me non sembra così poco. C'è un enorme differenza fra le prestazioni effettive di una console in ambito giochi e un pc con lo stesso hardware e questa difficoltà deriva da api e kernel dedicati ed ottimizzati su console, non vorresti lo stesso su pc?

Cavolo ma sono l'unico che si ricorda solo 3-4 anni fa avere una 460 e giocare agli stessi dettagli/risoluzioni di gente con console 3 volte meno potenti? Cavolo io con una 550 ti Arkham City mi girava a dettagli medio-bassi con cali di fps bruschissimi nelle stanze dell'enigmista a 1600 e avendo una PS3 vi assicuro che a livello visivo la differenza non era così grande, anzi. E avevo una macchina immensamente superiore alle console.

Le API e il kernel non sono mica poco ed è l'ora di liberarsi di microsoft una volta per tutte.

Inoltre AMD e Nvidia si scambiano moltissimi brevetti fra di loro così come fanno amd e intel, non è che Nvidia è preclusa da mantle a prescindere. Rimango del parere che Mantle sarà forse più utile per farci vedere una nuova versione di directx decente e più efficiente che altro.

ah lo so bene, difatti spero vivamente che mantle prenda piede

tibbs71
15-10-2013, 13:50
Oggi mi è arrivato via email un bel volantino di un sito di vendita online, dove davano le 280x in spedizione il 18 se compravo oggi.
La cosa che più mi ha sorpreso era il prezzo di lancio, che (anche se ammetto non ho confrontato bene con le 7970) era di qualche decina di € inferiore.
Possibile che queste 280x che vanno quasi come una 7970 costino così meno?

O ci sarà poi un calo netto delle 7970?

Dal nostro fornitore aziendale le 280x si trovano al prezzo delle 7950 e, a quanto pare, dovrebbero abbassarsi ancora. D'altra parte, come già detto un po' ovunque, sono solo delle 7970 (anzi, più precisamente sono quasi una 7970GE) rimarchiate, ergo VGA che hanno 2 anni di vita (un'eternità, in ambito informatico, almeno un tempo) sul groppone. In pratica le hanno degradate a fascia media per fare un nuovo chip e lasciare spazio per le 290/290x (le nuove proposte di fascia alta).

appleroof
15-10-2013, 14:00
Speriamo, magari non ci saranno più esclusive.. cut

bè no magari, pure io lo vorrei (esempio vedi RDR, gli Uncharted, GOW 2 e 3, adesso gta5 anche se spero e credo sia un'esclusiva temporanea) ...ma quelle dipendono dai soldi che scuciono Ms e Sony ai publisher, non dalle api usate :(

appleroof
15-10-2013, 14:11
cut
Mantle è un alternativa alle api directx su pc, non serve a una beneamata mazza alle console che hanno le loro api ad hoc sicuramente più efficienti di Mantle. cut

diciamo che la confusione regna sovrana, sopratutto visto che stiamo dicendo la stessa cosa senza capirci :asd:

1) il punto è che molti, partendo dal fatto che nuove console hanno hw amd, dicevano che le console avrebbero usato mantle come api, da qui era ovvio prevederne una diffusione enorme e veloce pure su pc (se programmi in mantle per xbox1 e ps4, contemporaneamente hai le versione pc).

2) Il tutto oggi è stato smentito almeno per quanto riguarda MS (che è ovvio usi Api proprietarie, ma ha detto che consisotno pur sempre in un superset di dx11.2, non sono qualcosa di completamente avulso dalle dx usate su pc*) ed io la ritengo una buona notizia (poi è ovvio che se le dx evolvessero maggiormente e/o le ogl lo stesso, sarebbe una notizia ancor amigliore), per i motivi che ho detto (poi altro che scambiarsi i brevetti, quelli si ammazzano piuttosto :asd: ).

Poi oh, mi pare di usare l'italiano, ho meno difficoltà a farmi capire sui forum stranieri con il mio inglese maccheronico :asd:




*tant'è: In discussing the future of Direct3D, Microsoft specifically mentions their general commitments to improving Direct3D alongside “bringing the lightweight runtime and tooling capabilities of the Xbox One Direct3D implementation to Windows,” http://www.anandtech.com/show/7420/microsoft-comments-on-state-of-direct3d-mantle-support-names-xbox-one-api-direct3d-11x

francisco9751
15-10-2013, 14:14
bè no magari, pure io lo vorrei (esempio vedi RDR, gli Uncharted, GOW 2 e 3, adesso gta5 anche se spero e credo sia un'esclusiva temporanea) ...ma quelle dipendono dai soldi che scuciono Ms e Sony ai publisher, non dalle api usate :(

si ma magari se il porting gli costa meno che di quanto gli costi ora..lo fanno..invece se gli costa x..e non sanno se i ricavi saranno abbastanza da coprire i costi del porting..contando anche che la pirateria mi pare sui pc sia più diffusa,anche perchè chi gioca su pc..spesso è più smanettone..intendevo in questo senso..

appleroof
15-10-2013, 14:28
si ma magari se il porting gli costa meno che di quanto gli costi ora..lo fanno..invece se gli costa x..e non sanno se i ricavi saranno abbastanza da coprire i costi del porting..contando anche che la pirateria mi pare sui pc sia più diffusa,anche perchè chi gioca su pc..spesso è più smanettone..intendevo in questo senso..

eh purtroppo che io sappia non è così semplice: MS e Sony li pagano affinchè non pubblichino su pc, quindi loro guadagnano dalla vendita dei giochi e in più dai soldi (o mancati pagamenti di royalties) di MS e Sony per avere l'esclusiva, quindi non c'entra nulla la difficoltà di fare porting o meno, o i costi per farlo o meno...semplicemente vengono pagati per non far uscire il gioco su pc in modo che chi voglia giocarci deve per forza prendere una console (ed ecco il ritorno dei soldi dati per l'esclusiva)

cmq, sempre sulla storia di oggi di mantle: http://www.anandtech.com/show/7420/microsoft-comments-on-state-of-direct3d-mantle-support-names-xbox-one-api-direct3d-11x

francisco9751
15-10-2013, 14:35
c'è anche questo

http://www.techpowerup.com/192552/amd-explains-why-mantle-doesnt-work-on-xbox-one.html

non so se è stato postato..comunque penso entro venerdì qualcosa si vedrà..di recensioni

pedra92
15-10-2013, 14:36
93°C :fagiano:

Inviato dal mio Nexus 4 now Free ('http://tapatalk.com/m?id=10')
Spero sia un bug di gpu-z, nell'articolo c'è scritto questo: Just so you know, the GPU-Z readings are wrong, altrimenti se fa 93 gradi o si liquida o chi la compra piu' :D

Giustaf
15-10-2013, 15:00
c'è anche questo

http://www.techpowerup.com/192552/amd-explains-why-mantle-doesnt-work-on-xbox-one.html

non so se è stato postato..comunque penso entro venerdì qualcosa si vedrà..di recensioni

Se fosse vero quanto riportato nell'articolo:
- Microsoft dichiara che mantle non sarà mai supportato da Xbox One
- amd ribatte dicendo che mantle non è per le console ma solo per il pc.

A sto punto mi chiedo, ma sto mantle, chi se lo in**la? :asd:

MuadDibb
15-10-2013, 15:04
Qualcosa si muove?? LINK (http://hdtechnology.net/hardware/schede-video/amd-radeon-r9-290x-si-mostra-ufficialmente-in-foto.html)

devil_mcry
15-10-2013, 15:07
Qualcosa si muove?? LINK (http://hdtechnology.net/hardware/schede-video/amd-radeon-r9-290x-si-mostra-ufficialmente-in-foto.html)

è OLD...

francisco9751
15-10-2013, 15:08
è OLD...

beh old è un parolone,è di ieri :O

enryco
15-10-2013, 15:12
se gk110 che è una mattonella da più di 550mm* non è una gpu particolarmente calda (non quanto gf100 almeno, in proporzione), ci sono buone speranze che Hawaii si possa comportare bene sotto questo punto di vista...l'unico dubbio potrebbe essere che, visto che mi pare di aver letto che per farlo così relativamente piccolo abbiano usato transistor ad alta densità (da confermare eh?) questa cosa possa in qualche modo influire appunto sul calore prodotto, boh...






basta fare 2 conti...titan ha 7080mil transistor in 561 mm2,quindi densità di 12,62

La 290x ha 6000 mil in una superficie di 436 mm2, quindi 13,76....quindi ha una densità maggiore di quasi il 10%...se poi la confrontiamo alla 7970 abbiamo una densità di 11,81 ovvero ha un aumento del 16%... Quindi imho a parità di dissipazione dovrebbe essere meno overcloccabile, nn mi pare ke il gnc2 apporti grosse modifiche in questo frangente...






Sent from my RM-825_eu_italy_244 using Tapatalk

Free Gordon
15-10-2013, 15:16
ancora più chiaro, dalla voce diretta di Amd

Personalmente non ho mai dubitato che fosse questa la strategia...
Su ONE ci sono API low-level di M$... e Sony usa LibGCM e PSGL...

IOWA
15-10-2013, 15:18
basta fare 2 conti...titan ha 7080mil transistor in 561 mm2,quindi densità di 12,62

La 290x ha 6000 mil in una superficie di 436 mm2, quindi 13,76....quindi ha una densità maggiore di quasi il 10%...se poi la confrontiamo alla 7970 abbiamo una densità di 11,81 ovvero ha un aumento del 16%... Quindi imho a parità di dissipazione dovrebbe essere meno overcloccabile, nn mi pare ke il gnc2 apporti grosse modifiche in questo frangente...

Sent from my RM-825_eu_italy_244 using Tapatalk

Unica soluzione= liquido (o Phase Change)!! :D

devil_mcry
15-10-2013, 15:20
beh old è un parolone,è di ieri :O

in questa fase è OLD in fretta XD
cmq mi sembrava fossero foto di 2 giorni fa

Vul
15-10-2013, 16:23
Dal nostro fornitore aziendale le 280x si trovano al prezzo delle 7950 e, a quanto pare, dovrebbero abbassarsi ancora. D'altra parte, come già detto un po' ovunque, sono solo delle 7970 (anzi, più precisamente sono quasi una 7970GE) rimarchiate, ergo VGA che hanno 2 anni di vita (un'eternità, in ambito informatico, almeno un tempo) sul groppone. In pratica le hanno degradate a fascia media per fare un nuovo chip e lasciare spazio per le 290/290x (le nuove proposte di fascia alta).

Attenzione, sono delle 7970 GE rimarchiate, non dimentichiamoci che la gpu delle 7970 e quella delle GE è diversa visto che per le GE si tratta di tahiti x2 (che sale meno è vero, ma lo fa con voltaggi molto inferiori = schede più durature e che consumano meno) mentre le 7970 montavano le tahiti.

Vul
15-10-2013, 16:27
Se fosse vero quanto riportato nell'articolo:
- Microsoft dichiara che mantle non sarà mai supportato da Xbox One
- amd ribatte dicendo che mantle non è per le console ma solo per il pc.

A sto punto mi chiedo, ma sto mantle, chi se lo in**la? :asd:

I giocatori pc?

Perchè dobbiamo portarci sto schifo di directx in eterno appresso e vedere pc che dovrebbero volare avere prestazioni simili a console la metà meno potenti?

basta fare 2 conti...titan ha 7080mil transistor in 561 mm2,quindi densità di 12,62

La 290x ha 6000 mil in una superficie di 436 mm2, quindi 13,76....quindi ha una densità maggiore di quasi il 10%...se poi la confrontiamo alla 7970 abbiamo una densità di 11,81 ovvero ha un aumento del 16%... Quindi imho a parità di dissipazione dovrebbe essere meno overcloccabile, nn mi pare ke il gnc2 apporti grosse modifiche in questo frangente...






Sent from my RM-825_eu_italy_244 using Tapatalk

I test di overclock preliminari mostrati (c'è un link qualche pagina fa) però mostrano come la 290x sia overclockabile quanto titan in termini di incrementi prestazionali %.

liberato87
15-10-2013, 16:35
http://www.xtremeshack.com/photos/20131015138184336173127.jpg

http://www.xtremeshack.com/photos/20131015138184336582385.jpg

confronto con il TAMARRISSSSSSIMO dissipatore reference della 780

Galder
15-10-2013, 16:46
http://www.xtremeshack.com/photos/20131015138184336173127.jpg

http://www.xtremeshack.com/photos/20131015138184336582385.jpg

confronto con il TAMARRISSSSSSIMO dissipatore reference della 780

struttura del dissipatore in alluminio vs modesta plastica della 290x....per l'estetica si più pure discutere ma per funzionalità il dissipatore della nvidia reference vale di più di quello amd...senza contare il casino che fa(quello amd)...

liberato87
15-10-2013, 16:47
struttura del dissipatore in alluminio vs modesta plastica della 290x....per l'estetica si più pure discutere ma per funzionalità il dissipatore della nvidia reference vale di più di quello amd...senza contare il casino che fa(quello amd)...

ahahha il mio post era ironico :sofico:
qualche post fa era stato usato questo aggettivo per il dissi reference titan-780 :D

se puoi edita il post e togli il link alle immagini, già io ho esagerato, ma averne 4 di fila è troppo

Pelvix
15-10-2013, 16:48
struttura del dissipatore in alluminio vs modesta plastica della 290x....per l'estetica si più pure discutere ma per funzionalità il dissipatore della nvidia reference vale di più di quello amd...senza contare il casino che fa(quello amd)...

Verissimo..

LurenZ87
15-10-2013, 16:50
cut

confronto con il TAMARRISSSSSSIMO dissipatore reference della 780

ci avevo visto bene, monta una ventola più grande della vecchia serie e se non sbaglio da 8cm... smuoverà un bel pò di aria, magari in maniera silenziosa...

struttura del dissipatore in alluminio vs modesta plastica della 290x....per l'estetica si più pure discutere ma per funzionalità il dissipatore della nvidia reference vale di più di quello amd...senza contare il casino che fa(quello amd)...

hanno cambiato sia la ventola che il vapor-chamber, quindi è tutto da vedere...

antonioslash
15-10-2013, 16:55
ahahha il mio post era ironico :sofico:
qualche post fa era stato usato questo aggettivo per il dissi reference titan-780 :D

se puoi edita il post e togli il link alle immagini, già io ho esagerato, ma averne 4 di fila è troppo

per tamarro intendevo quello amd .. avevo sbagliato a quotare :D
chiaramente non c'è confronto.. quello nvidia è superiore

Galder
15-10-2013, 16:57
ci avevo visto bene, monta una ventola più grande della vecchia serie e se non sbaglio da 8cm... smuoverà un bel pò di aria, magari in maniera silenziosa...



hanno cambiato sia la ventola che il vapor-chamber, quindi è tutto da vedere...

vedremo, ma mi da sempre l'idea di plastica....speriamo sia funzionale almeno

LurenZ87
15-10-2013, 16:59
vedremo, ma mi da sempre l'idea di plastica....speriamo sia funzionale almeno

la plastica è plastica ed il dissipatore reference di Nvidia lo conosco molto bene :D

spero sia funzionale, comunque nel mio case quello di AMD ci starebbe davvero bene :D

Vul
15-10-2013, 16:59
struttura del dissipatore in alluminio vs modesta plastica della 290x....per l'estetica si più pure discutere ma per funzionalità il dissipatore della nvidia reference vale di più di quello amd...senza contare il casino che fa(quello amd)...

edit

RazerX
15-10-2013, 17:00
Mai prezzo della 290 quanto dovrebbe essere? 500€?

Perchè volevo prendere la nuova generazione, ma se costa così tanto mi prendo semplicemente la 280

Vul
15-10-2013, 17:03
Mai prezzo della 290 quanto dovrebbe essere? 500€?

Perchè volevo prendere la nuova generazione, ma se costa così tanto mi prendo semplicemente la 280

Ma va, cerca di sfruttarlo quel monitor che hai :asd:

Cioè io trovo insensata la gente che gioca a 1080p e 60 hz e butta soldi su schede superiori a delle 770/7970 (patiti dell'informatica e dei numeri :asd: ) ma sul tuo monitorazzo salire a 780/290 è un altro paio di maniche.

Comunque si parlava di 450 dollari per le 290, quindi 400 euro (la fascia dove andranno a piazzare le 770ti probabilmente).

RazerX
15-10-2013, 17:05
Ma va, cerca di sfruttarlo quel monitor che hai :asd:

Cioè io trovo insensata la gente che gioca a 1080p e 60 hz e butta soldi su schede superiori a delle 770/7970 (patiti dell'informatica e dei numeri :asd: ) ma sul tuo monitorazzo salire a 780/290 è un altro paio di maniche.

Comunque si parlava di 450 dollari per le 290, quindi 400 euro (la fascia dove andranno a piazzare le 770ti probabilmente).

Se veramente costeranno 400€ allora prendo la 290 e annullo l'ordine della 280

Vul
15-10-2013, 17:05
Se veramente costeranno 400€ allora prendo la 290 e annullo l'ordine della 280

Al lancio probabilmente no, fra una mesata-due probabilmente.

RazerX
15-10-2013, 17:11
Al lancio probabilmente no, fra una mesata-due probabilmente.

Ho annullato l'ordine della 280. Effettivamente non ha senso ricomprarmi una scheda video nuova se poi devo limitarmi un'altra volta. Appena esce prendo la 290 :D

Vul
15-10-2013, 17:13
Secondo me ti conviene. Dovrebbe esserci un 20 % di prestazioni fra delle 7970 e delle 290 a 1440p, poi si scopre magari che con un filo di overclock raggiungono le 290x e quanto ti mangi le mani? :D

qboy
15-10-2013, 17:16
basta fare 2 conti...titan ha 7080mil transistor in 561 mm2,quindi densità di 12,62

La 290x ha 6000 mil in una superficie di 436 mm2, quindi 13,76....quindi ha una densità maggiore di quasi il 10%...se poi la confrontiamo alla 7970 abbiamo una densità di 11,81 ovvero ha un aumento del 16%... Quindi imho a parità di dissipazione dovrebbe essere meno overcloccabile, nn mi pare ke il gnc2 apporti grosse modifiche in questo frangente...
Sent from my RM-825_eu_italy_244 using Tapatalk
i transitor non sono gli stessi per amd e nvidia altrimenti non ci sarebba manco la concorrenza

<Masquerade>
15-10-2013, 17:39
http://diy.pconline.com.cn/363/3631256_3.html

LurenZ87
15-10-2013, 17:45
http://diy.pconline.com.cn/363/3631256_3.html

ma è una recensione???


sono commosso :cry: :cry: :cry:

bella Masquy :cincin:

Einhander
15-10-2013, 17:51
http://diy.pconline.com.cn/363/3631256_3.html

GG figliuolo!!! :D

:asd:

ertruffa
15-10-2013, 17:51
http://diy.pconline.com.cn/363/3631256_3.html

quindi hanno rotto nda:D
sembra andare come una titan, dipende dal gioco come si presumeva, ovviamente da confermare, a 600 ne vendono......

LurenZ87
15-10-2013, 17:54
quindi hanno rotto nda:D
sembra andare come una titan, dipende dal gioco come si presumeva, ovviamente da confermare, a 600 ne vendono......

a 2560x1440 andrà di più della GTX Titan :D :D :D

peccato per la temperatura... :fagiano:

inoltre dice che verrà presentata il 24 Ottobre :)

Il nabbo di turno
15-10-2013, 17:55
quindi hanno rotto nda:D
sembra andare come una titan, dipende dal gioco come si presumeva, ovviamente da confermare, a 600 ne vendono......

Di più della titan, ottimo :sofico:

ertruffa
15-10-2013, 18:00
a 2560x1440 andrà di più della GTX Titan :D :D :D

peccato per la temperatura... :fagiano:

inoltre dice che verrà presentata il 24 Ottobre :)

infatti al momento sembrerebbe il tallone d'achille, bisognerebbe aspettare le custom, sempre se le faranno, o la trattano come la titan.:O

<Masquerade>
15-10-2013, 18:04
infatti al momento sembrerebbe il tallone d'achille, bisognerebbe aspettare le custom, sempre se le faranno, o la trattano come la titan.:O
ma quindi in pratica te ertruff.... hai cambiato la titan per passare alla 780 non pentendotene (vista la esigua differenza), per tornare ai livelli di una titan, sostituendola e prendendo la 290x?
ma insomma alla fine cambia cambia cambia per girellare sempre in quel livello di performance, 10% + 10% -
se si conferma come da sta mini review.....

LurenZ87
15-10-2013, 18:05
infatti al momento sembrerebbe il tallone d'achille, bisognerebbe aspettare le custom, sempre se le faranno, o la trattano come la titan.:O

aspettiamo, anche perchè hanno usato FurMark che è poco indicativo, comunque se fosse confermato, le soluzioni a mio avviso potrebbero essere queste:

- Accelero Xtreme
- Liquid Pro con dissipatore originale

comunque in quelle condizioni se la uso per foldare mi esplode nel case :asd:

devil_mcry
15-10-2013, 18:06
a 2560x1440 andrà di più della GTX Titan :D :D :D

peccato per la temperatura... :fagiano:

inoltre dice che verrà presentata il 24 Ottobre :)

in realtà lo mette più come una domanda, anche se è possibile, tuttavia nel grafico a 1440p fa 1fps in più...

detto questo, se si prendono tutti i bench ci sono 2 a favore netto della Titan, 2 a favore netto della 290x, 2 a favore moderato della Titan e 2 pari

Presi in esamine i giochi, direi che va un pelino meno della Titan ma siamo li... Tuttavia è innegabile che la Titan ha un margine di Overclock nettamente superiore rispetto alla 290x, anche nell'irealistica ipotesi che la 290x raggiungesse i 1200mhz (cosa abbastanza improbabile)

non so...

Rebelderock
15-10-2013, 18:06
Di più della titan, ottimo :sofico:

A me non sembra :ciapet:

ertruffa
15-10-2013, 18:07
ma quindi in pratica te ertruff.... hai cambiato la titan per passare alla 780 non pentendotene (vista la esigua differenza), per tornare ai livelli di una titan, sostituendola e prendendo la 290x?
ma insomma alla fine cambia cambia cambia per girellare sempre in quel livello di performance, 10% + 10% -
se si conferma come da sta mini review.....

:D
diciamo che mi piace provare un po' tutte le vga, essendo il solo hobby che mi e' rimasto.
ovviamente non c'e' logica in tutto cio', ma solo passione, pero' devo dire che le temp. se sono quelle mi frenano parecchio, e aspettare le custom non mi va, visto che vorrei giocare bf4 da subito.
vediamo che dice il cervello.....

maxmix65
15-10-2013, 18:10
aspettiamo, anche perchè hanno usato FurMark che è poco indicativo, comunque se fosse confermato, le soluzioni a mio avviso potrebbero essere queste:

- Accelero Xtreme
- Liquid Pro con dissipatore originale

comunque in quelle condizioni se la uso per foldare mi esplode nel case :asd:

Come ti dicevo post fa' ci vuole un dissi custom
P.S. Adesso vediamo chi era per un consumo ridotto(cippone Nvidia)
la 290 consuma oltre 400W o sbaglio

LurenZ87
15-10-2013, 18:16
in realtà lo mette più come una domanda, anche se è possibile, tuttavia nel grafico a 1440p fa 1fps in più...

detto questo, se si prendono tutti i bench ci sono 2 a favore netto della Titan, 2 a favore netto della 290x, 2 a favore moderato della Titan e 2 pari

Presi in esamine i giochi, direi che va un pelino meno della Titan ma siamo li... Tuttavia è innegabile che la Titan ha un margine di Overclock nettamente superiore rispetto alla 290x, anche nell'irealistica ipotesi che la 290x raggiungesse i 1200mhz (cosa abbastanza improbabile)

non so...

questo è vero, ma visto le caratteristiche della vga io mi ci gioco le pxxxe :D

comunque per adesso anche se costasse 600€ sarei comunque molto dubbioso, almeno per quello che mi riguarda:

http://tpucdn.com/reviews/ASUS/R9_280X_Direct_Cu_II_TOP/images/perfrel_2560.gif

mettiamo che sia un +10% di prestazioni rispetto alla Titan (stima ottimistica), starebbe al 133% in quella tabella... per gli stessi soldi ci escono due di queste nella recensione che farebbero un 170% buono se non oltre...

vediamo prezzi e capacità di overclock della vga :O

The_SaN
15-10-2013, 18:18
Come ti dicevo post fa' ci vuole un dissi custom
P.S. Adesso vediamo chi era per un consumo ridotto(cippone Nvidia)
la 290 consuma oltre 400W o sbaglioFurmark non è uno scenario plausibile per i consumi (vedere recensione 280x Toxic di Anandtech)
E stiamo parlando dell'intero sistema, non della scheda singola.

sickofitall
15-10-2013, 18:20
Come ti dicevo post fa' ci vuole un dissi custom
P.S. Adesso vediamo chi era per un consumo ridotto(cippone Nvidia)
la 290 consuma oltre 400W o sbaglio

Sembra di rivivere gtx 480 vs 5870 ma a parti invertite :stordita:

AgonizedPhobos
15-10-2013, 18:23
Sembra di rivivere gtx 480 vs 5870 ma a parti invertite :stordita:

si vero,oppure anche che AMD abbia dovuto "fare gli straordinari",sudando 7 camicie per raggiungere la TITAN dopo quasi 9 mesi di ritardo.

shagrat1983
15-10-2013, 18:25
http://diy.pconline.com.cn/363/3631256_3.html

a giudicare da questi grafici la migliore vga qualita'/prezzo e' sicuramente la 780 senza dubbio:O

ertruffa
15-10-2013, 18:26
a giudicare da questi grafici la migliore vga qualita'/prezzo e' sicuramente la 780 senza dubbio:O

effettivamente ci sono custom che si trovano ormai sui 500

francisco9751
15-10-2013, 18:27
http://www.youtube.com/watch?v=WSquvwQKjjg&feature=youtu.be

penso che venerdì sia la fine dell nda

devil_mcry
15-10-2013, 18:28
questo è vero, ma visto le caratteristiche della vga io mi ci gioco le pxxxe :D

comunque per adesso anche se costasse 600€ sarei comunque molto dubbioso, almeno per quello che mi riguarda:

mettiamo che sia un +10% di prestazioni rispetto alla Titan (stima ottimistica), starebbe al 133% in quella tabella... per gli stessi soldi ci escono due di queste nella recensione che farebbero un 170% buono se non oltre...

vediamo prezzi e capacità di overclock della vga :O

se entriamo nel discorso 2 vs 1 la fascia media va quasi sempre a vincere ovviamente, ma ha problemi non indifferenti che non me la farebbe scegliere a me personalmente

io onestamente non mi sbilancio sui 1440p, non ci sono dati, ma a 1080p risulta un po' più lenta (difficile tirare fuori una percentuale ma i bench parlano chiaro) e sale meno in OC

questa seconda caratteristica la potrebbe portare al pari di una Titan anche se ha un bus di memoria e una banda nettamente a favore

devil_mcry
15-10-2013, 18:29
a giudicare da questi grafici la migliore vga qualita'/prezzo e' sicuramente la 780 senza dubbio:O

sicuro, OC to OC probabilmente a 1080p andrà come la 290x... alla fine è il best buy

maxmix65
15-10-2013, 18:29
effettivamente ci sono custom che si trovano ormai sui 500

Prevedo forti abbassamenti di prezzo all'arrivo delle r290x/r290 custom che usciranno con overlcock di fabbrica e si attesteranno supra Titan/ 780 lisce

LurenZ87
15-10-2013, 18:29
Come ti dicevo post fa' ci vuole un dissi custom
P.S. Adesso vediamo chi era per un consumo ridotto(cippone Nvidia)
la 290 consuma oltre 400W o sbaglio

Con FurMark non puoi fare un paragone equo, perchè:

- con le vga non ci arrivi mai a quei livelli
- le Nvidia hanno un sistema di protezione che non le fa andare al massimo con i programmi tipo FurMark e Kombustor

poi i 400W sono il consumo dell'intero sistema ;)

Sembra di rivivere gtx 480 vs 5870 ma a parti invertite :stordita:

dai piccolo pargolo, torna a gocare con la Asus GTX 780 delle meraviglie
(caxxo che scheda scuxata che hai preso, bella :D )

a giudicare da questi grafici la migliore vga qualita'/prezzo e' sicuramente la 780 senza dubbio:O

ma se non li conosciamo i prezzi come fai a dirlo??? :D

shagrat1983
15-10-2013, 18:31
sicuro, OC to OC probabilmente a 1080p andrà come la 290x... alla fine è il best buy

vediamo prima come andranno le 290 liscie e il loro prezzo... potrebbe essere quello insieme alla 780 il best buy:)

devil_mcry
15-10-2013, 18:32
Con FurMark non puoi fare un paragone equo, perchè:

- con le vga non ci arrivi mai a quei livelli
- le Nvidia hanno un sistema di protezione che non le fa andare al massimo con i programmi tipo FurMark e Kombustor

poi i 400W sono il consumo dell'intero sistema ;)



dai piccolo pargolo, torna a gocare con la Asus GTX 780 delle meraviglie
(caxxo che scheda scuxata che hai preso, bella :D )



ma se non li conosciamo i prezzi come fai a dirlo??? :D

beh non è proprio vero
http://hardware.hdblog.it/2013/10/09/msi-svela-il-prezzo-delle-radeon-r9-290x-ed-r9-290/

è una idea, ma 650€, seppur indicativi, sono molto di più dei 500 della 780

shagrat1983
15-10-2013, 18:35
la battaglia sulle vendite secondo me sara' tra 780 e 290

Vul
15-10-2013, 18:36
in realtà lo mette più come una domanda, anche se è possibile, tuttavia nel grafico a 1440p fa 1fps in più...

detto questo, se si prendono tutti i bench ci sono 2 a favore netto della Titan, 2 a favore netto della 290x, 2 a favore moderato della Titan e 2 pari

Presi in esamine i giochi, direi che va un pelino meno della Titan ma siamo li... Tuttavia è innegabile che la Titan ha un margine di Overclock nettamente superiore rispetto alla 290x, anche nell'irealistica ipotesi che la 290x raggiungesse i 1200mhz (cosa abbastanza improbabile)

non so...

Io ho visto grafici stamattina abbastanza diversi, li ho anche postati.

LurenZ87
15-10-2013, 18:38
beh non è proprio vero
http://hardware.hdblog.it/2013/10/09/msi-svela-il-prezzo-delle-radeon-r9-290x-ed-r9-290/

è una idea, ma 650€, seppur indicativi, sono molto di più dei 500 della 780

650€ è molto difficile che ce li spendo a questo giro...

Vul
15-10-2013, 18:39
stamattina c'erano questi di bench:
http://cdn3.wccftech.com/wp-content/uploads/2013/09/AMD-Hawaii-R9-290X-GPU-Performance.jpg

Comunque ricordo di aver postato un bench sull'oc e la 290x saliva quanto la titan (non di frequenze ma di prestazioni in game %, circa 10 % di gain per entrambe).

Vul
15-10-2013, 18:40
beh non è proprio vero
http://hardware.hdblog.it/2013/10/09/msi-svela-il-prezzo-delle-radeon-r9-290x-ed-r9-290/

è una idea, ma 650€, seppur indicativi, sono molto di più dei 500 della 780

Anche la 780 costa 650 di listino eh. I prezzi al retailer poi saranno da vedere.
Inoltre la 290x include bf4 premium che sono 100 euro di gioco.

antonioslash
15-10-2013, 18:41
ma se le temp sono queste mi domando chi è disposto a spendere sta cifra per avere un forno nel case :doh: il che ammazza ogni tentativo di oc oltretutto
credo di prendere la 780.. aspettiamo ancora qualche giorno va :asd:

Ale55andr0
15-10-2013, 18:43
l'ho già detto che fin quando non escono review ufficiali non credo a nulla? :asd:

Vul
15-10-2013, 18:48
infatti ha poco senso ci sono bench che dicono una cosa, altri che ne dicono un altra.

Meanwhile https://twitter.com/AMDRadeon

Ale55andr0
15-10-2013, 18:48
ma se le temp sono queste mi domando chi è disposto a spendere sta cifra per avere un forno nel case :doh: :


beh, la 8800gtx a 700 euri vendeva un botto uguale e quando la accendevo sentivo l'aria calda nelle gambe e puzza di non so cosa :asd: (case a terra)

francisco9751
15-10-2013, 18:50
ma se le temp sono queste mi domando chi è disposto a spendere sta cifra per avere un forno nel case :doh: il che ammazza ogni tentativo di oc oltretutto
credo di prendere la 780.. aspettiamo ancora qualche giorno va :asd:

abbiamo capito che ti piace sta 780..prendila e vai a giocare in pace :stordita:

cire92cry
15-10-2013, 19:12
Spero che amd non stia facendo l'errore di pompare troppo una vga per superare la titan. Aspettiamo il 18 e vediamo :)

devil_mcry
15-10-2013, 19:21
Io ho visto grafici stamattina abbastanza diversi, li ho anche postati.
stamattina c'erano questi di bench:
http://cdn3.wccftech.com/wp-content/uploads/2013/09/AMD-Hawaii-R9-290X-GPU-Performance.jpg

Comunque ricordo di aver postato un bench sull'oc e la 290x saliva quanto la titan (non di frequenze ma di prestazioni in game %, circa 10 % di gain per entrambe).

una tabellina con dati messi li di dubbia affidabilità...
questa almeno è una review, anche se parziale dato che mancano i test a 1440p

Anche la 780 costa 650 di listino eh. I prezzi al retailer poi saranno da vedere.
Inoltre la 290x include bf4 premium che sono 100 euro di gioco.


costava al lancio quasi 650, di recente (giugno) alcune news davano le gtx780 ribassate a 557, ed in effetti da allora il prezzo è calato ed oggi si trovano a partire da 500 i modelli non reference

inoltre quello è il prezzo di MSI, ma alcuni la mettono anche a 700€

maxmix65
15-10-2013, 19:31
Con FurMark non puoi fare un paragone equo, perchè:

- con le vga non ci arrivi mai a quei livelli
- le Nvidia hanno un sistema di protezione che non le fa andare al massimo con i programmi tipo FurMark e Kombustor

poi i 400W sono il consumo dell'intero sistema ;)



dai piccolo pargolo, torna a gocare con la Asus GTX 780 delle meraviglie
(caxxo che scheda scuxata che hai preso, bella :D )



ma se non li conosciamo i prezzi come fai a dirlo??? :D

Quindi a parita' di sistema la r9 290x consuma 62W in piu' almeno cosi mi pare di capire dal test cinese..
Quindi sta storia del cippone caloroso e che consuma un boato di Nvidia si ripete su Amd quindi chi parlava come di Nvidia come il male assoluto in questi parametri e elogiava Amd vediamo cosa dice ora ..
Io mi ricordo di varie persone qui dentro v mi ricordo bene;)

cire92cry
15-10-2013, 19:33
Quindi a parita' di sistema la r9 290x consuma 62W in piu' almeno cosi mi pare di capire dal test cinese..
Quindi sta storia del cippone caloroso e che consuma un boato di Nvidia si ripete su Amd quindi chi parlava come di Nvidia come il male assoluto in questi parametri e elogiava Amd vediamo cosa dice ora ..
Io mi ricordo di varie persone qui dentro v mi ricordo bene;)

Bisogna vedere nvidia è stata furba con quei bench per i consumi li limita automaticamente.

LurenZ87
15-10-2013, 19:38
Quindi a parita' di sistema la r9 290x consuma 62W in piu' almeno cosi mi pare di capire dal test cinese..
Quindi sta storia del cippone caloroso e che consuma un boato di Nvidia si ripete su Amd quindi chi parlava come di Nvidia come il male assoluto in questi parametri e elogiava Amd vediamo cosa dice ora ..
Io mi ricordo di varie persone qui dentro v mi ricordo bene;)

Ti ripeto, le Nvidia hanno un sistema che limita le proprie vga con i programmi di stress test, quindi non è reale quel dato, ne sui consumi e nemmeno sulle temperature :).

Inviato dal mio Nexus 4

Vul
15-10-2013, 19:42
una tabellina con dati messi li di dubbia affidabilità...
questa almeno è una review, anche se parziale dato che mancano i test a 1440p




costava al lancio quasi 650, di recente (giugno) alcune news davano le gtx780 ribassate a 557, ed in effetti da allora il prezzo è calato ed oggi si trovano a partire da 500 i modelli non reference

inoltre quello è il prezzo di MSI, ma alcuni la mettono anche a 700€

Quindi? Il prezzo di listino è sempre di 650 euro.

Anche quello delle 780 di listino è 400 e già al day 1 si trovavano a 360. Quindi non mischiamo prezzi di listino di prodotti non disponibili con prezzi retail di prodotti disponibili da un bel pò. Se MSI dice "650" a lancio è probabilissimo si troveranno sotto ai 600 già dal primo giorno.

The_SaN
15-10-2013, 19:44
Quindi a parita' di sistema la r9 290x consuma 62W in piu' almeno cosi mi pare di capire dal test cinese..
Quindi sta storia del cippone caloroso e che consuma un boato di Nvidia si ripete su Amd quindi chi parlava come di Nvidia come il male assoluto in questi parametri e elogiava Amd vediamo cosa dice ora ..
Io mi ricordo di varie persone qui dentro v mi ricordo bene;)Furmark non è un test attendibile per i consumi...(e 2)

devil_mcry
15-10-2013, 19:48
Quindi? Il prezzo di listino è sempre di 650 euro.

Anche quello delle 780 di listino è 400 e già al day 1 si trovavano a 360. Quindi non mischiamo prezzi di listino di prodotti non disponibili con prezzi retail di prodotti disponibili da un bel pò. Se MSI dice "650" a lancio è probabilissimo si troveranno sotto ai 600 già dal primo giorno.

no non hai capito. alcuni produttori hanno abbassato il prezzo di listino delle 780 a 557€

e da quel giorno i prezzi sono scesi di conseguenza

http://videocardz.com/42878/nvidia-geforce-gtx-780-now-available-for-557

°Phenom°
15-10-2013, 20:08
Furmark non è un test attendibile per i consumi...(e 2)

Quoto, con furmark, kombuster e compagnia bella le amd vengono tirate al limite, mentre nvidia come è già stato spiegato limita le vga su questi testi.
I consumi andranno visti in game ;)

appleroof
15-10-2013, 20:22
Quoto, con furmark, kombuster e compagnia bella le amd vengono tirate al limite, mentre nvidia come è già stato spiegato limita le vga su questi testi.
I consumi andranno visti in game ;)

veramente vanno in throttling entrambe, es.:

FurMark ended up being harder on the 7990 than we expected. Both NVIDIA and AMD throttle it of course, but we’ve never seen it throttled so hard as on the 7990.

http://www.anandtech.com/show/6915/amd-radeon-hd-7990-review-7990-gets-official/16

Che poi sia uno scenario poco indicativo della realtà è pacifico, analogamente ai bench vs. giochi per dire

Vul
15-10-2013, 20:42
no non hai capito. alcuni produttori hanno abbassato il prezzo di listino delle 780 a 557€

e da quel giorno i prezzi sono scesi di conseguenza

http://videocardz.com/42878/nvidia-geforce-gtx-780-now-available-for-557

Io ho capito benissimo invece, mi sa che tu hai un pò di problemi con l'inglese :P

Nella news parla semplicemente di quanto siano scesi i prezzi dai rivenditori e infatti linka uno shop online computerbase.de come se da noi linkassero prokoo dove la scheda era in vendita a 557.

Ti pare che esiste 557 o 641 come prezzi di listino, è ovvio che si tratti di prezzi al negoziante :muro:

Ci sono pure due screen presi da shop lì sotto, più chiaro di così si muore :asd:

Il prezzo consigliato/ufficiale dei produttori rimane sempre che hanno nei listini e nel sito ufficiale ma poi al dettaglio e nei shop online la realtà sarà ovviamente diversa.
Quindi il fatto che MSI annunci la 290x a 650 significa che è nella stessa fascia di prezzo della 780, ne più ne meno.

°Phenom°
15-10-2013, 20:54
veramente vanno in throttling entrambe, es.:

FurMark ended up being harder on the 7990 than we expected. Both NVIDIA and AMD throttle it of course, but we’ve never seen it throttled so hard as on the 7990.

http://www.anandtech.com/show/6915/amd-radeon-hd-7990-review-7990-gets-official/16

Che poi sia uno scenario poco indicativo della realtà è pacifico, analogamente ai bench vs. giochi per dire

Si ma per esempio come lo spieghi che una 770 in gaming consuma pochissimo meno di una 280X, ma invece se testiamo i consumi di una 280X su kombustor sono moltissimo più alti rispetto alla 770 sempre su kombustor? Appunto dico che sono test che lasciano il tempo che trovano, non vanno bene nemmno per la stabilità visto che si rischiano di danneggiare anche le vga alla lunga

Max775
15-10-2013, 20:54
Probabilmente inesatto, ma lol :sofico:

http://i.imgur.com/YQnAv1I.png

muppo
15-10-2013, 20:57
Probabilmente inesatto, ma lol :sofico:

http://i.imgur.com/YQnAv1I.png

sono indeciso se prendere un tri fire di queste o un nuovo appartamento.
ma veramente.

p.s. se i prezzi son questi e le prestazioni queste, non mi sembra tutta sta rivoluzione.
E poi cosa dicono a fare enthusiast videocards, not ultra enthusiast.

Vul
15-10-2013, 21:17
Sono 1000 dollari canadesi comunque 700 euro. Ed è pure un preorder di una scheda ancora da lanciare ufficialmente.

enryco
15-10-2013, 21:19
i transitor non sono gli stessi per amd e nvidia altrimenti non ci sarebba manco la concorrenza






come nn sono gli stessi??




E ke differenza c é tra un transistor and e uno Nvidia??





Sent from my RM-825_eu_italy_244 using Tapatalk

antonioslash
15-10-2013, 21:20
abbiamo capito che ti piace sta 780..prendila e vai a giocare in pace :stordita:

:asd: non mettermi pressione.. e non alimentare la scimmia tu ;)

appleroof
15-10-2013, 21:30
beh, la 8800gtx a 700 euri vendeva un botto uguale e quando la accendevo sentivo l'aria calda nelle gambe e puzza di non so cosa :asd: (case a terra)

Forse l'unica vga della storia (solo la 9800xt Ati si avvicina come esempio) che valeva ogni centesimo del suo prezzo, a meno che tu sei dimenticato dello scenario vga della sua uscita e per un paio di anni dopo...hai fallito esempio :asd:

(tra l'altro la pagai meno di 650 euro al dayone)

Si ma per esempio come lo spieghi che una 770 in gaming consuma pochissimo meno di una 280X, ma invece se testiamo i consumi di una 280X su kombustor sono moltissimo più alti rispetto alla 770 sempre su kombustor? Appunto dico che sono test che lasciano il tempo che trovano, non vanno bene nemmno per la stabilità visto che si rischiano di danneggiare anche le vga alla lunga

Certo certo, era per dire che non è corretto affermare che le Amd non vanno in protezione...tra l'altro temi pare che dalle 4000 via driver è stato introdotto un profilo conservativo quando viene avviato l'exe di furmark...

enryco
15-10-2013, 21:32
beh non è proprio vero
http://hardware.hdblog.it/2013/10/09/msi-svela-il-prezzo-delle-radeon-r9-290x-ed-r9-290/

è una idea, ma 650&euro;, seppur indicativi, sono molto di più dei 500 della 780






ciao, in realtà alcuni shop la danno in preordine a 590&euro;, é la sapphire 290x...mi fiderei piu di sti prezzi :)








Sent from my RM-825_eu_italy_244 using Tapatalk

Vul
15-10-2013, 21:45
Io ricordo 1 settimana fa che panicavate per alcunii 350 euro di preorder per la 280x, una settimana fa e mi ricordo dirvi si ma se sta a 300 di listino saranno di meno.

E di fatti c'è la sapphire dual x 280x a 250 euro :V

Dai su la scheda costerà dai 550 ai 600 per i modelli più reference all'uscita e 650 di listino mi pare assodato :asd:

liberato87
15-10-2013, 21:53
Inoltre la 290x include bf4 premium che sono 100 euro di gioco.

non mi pare che TUTTE le 290x includano bf4 premium in omaggio

appleroof
15-10-2013, 21:58
Prezzi Germania http://geizhals.de/?fs=r9+290x&in=

Vul
15-10-2013, 22:15
non mi pare che TUTTE le 290x includano bf4 premium in omaggio

fonte?

edit: hai ragione, è una serie limitata. vedremo cosa offriranno con la 290x.

kurtangle78
15-10-2013, 23:36
Sono curioso di vedere le prestazioni della 290 liscia che dovrebbe essere la diretta concorrente della gtx 780, se le prestazioni saranno vicino alla 290x, come succede per la 780 cn la titan , non so quanto appetibile sarà la versione X.

Inviato dal mio Nexus 4 con Tapatalk 2

Vul
15-10-2013, 23:39
Sono curioso di vedere le prestazioni della 290 liscia che dovrebbe essere la diretta concorrente della gtx 780, se le prestazioni saranno vicino alla 290x, come succede per la 780 cn la titan , non so quanto appetibile sarà la versione X.

Inviato dal mio Nexus 4 con Tapatalk 2

Teoricamente la 290x viene lanciata allo stesso prezzo della 780 di listino (650). Ci sono già numerosi preorder tra i 550 e i 590 (e un utente sul forum ne ha ordinate 2 a 595 mi sembra).

La 290 liscia dovrebbe andare nella fascia sub 500 euro.

kurtangle78
15-10-2013, 23:44
Teoricamente la 290x viene lanciata allo stesso prezzo della 780 di listino (650). Ci sono già numerosi preorder tra i 550 e i 590 (e un utente sul forum ne ha ordinate 2 a 595 mi sembra).

La 290 liscia dovrebbe andare nella fascia sub 500 euro.

Bisogna vedere l'effettiva differenza in gaming fra le due versioni in modo tale da sapere se la X vale i 90 euro in più

Inviato dal mio Nexus 4 con Tapatalk 2

Vul
15-10-2013, 23:57
eh qua non si sa nulla, alla fine è un misto di leak e speculazioni.

Free Gordon
16-10-2013, 00:19
si vero,oppure anche che AMD abbia dovuto "fare gli straordinari",sudando 7 camicie per raggiungere la TITAN dopo quasi 9 mesi di ritardo.

AMD non ha alcun interesse nel fare chipponi come Nvidia. ;)
E' da anni almeno 6 anni che ha questa politica.

Sono usciti adesso con un chip "grosso" ma cmq molto più piccolo di GK110 perchè era l'unica possibilità di salire in performance rispetto a Tahiti, dato che i 20nm si fanno attendere.

liberato87
16-10-2013, 00:25
AMD non ha alcun interesse nel fare chipponi come Nvidia. ;)
E' da anni almeno 6 anni che ha questa politica.


Gk104 era più piccolo di Tahiti



Sent from my iPad using Tapatalk

Free Gordon
16-10-2013, 00:27
Quindi sta storia del cippone caloroso e che consuma un boato di Nvidia si ripete su Amd quindi chi parlava come di Nvidia come il male assoluto in questi parametri e elogiava Amd vediamo cosa dice ora ..


Il consumo dipende molto dall'architettura e da altri parametri, tra cui la quantità di chip di memoria onbard...

Con Kepler Nvidia è riuscita a tenere a bada i consumi, cuttando le capacità nel computing... ;)
Con Fermi era andata nella direzione opposta e i consumi ne risentivano molto, ma del resto ha fatto un'architettura che rende molto bene anche oggi, anche in quel settore (mentre AMD con le VLIW -che avevano chip piccoli in proporzione ai flops- da quel lato fa pena).

Vul
16-10-2013, 00:28
Gk104 era più piccolo di Tahiti



Sent from my iPad using Tapatalk

gk104 è uscito parecchio dopo.

Comunque credevo che intendesse che AMD non è interessata alla fascia da 1000 euro, 290x si va a piazzare in una ben diversa fascia di prezzo.

Free Gordon
16-10-2013, 00:29
Forse l'unica vga della storia (solo la 9800xt Ati si avvicina come esempio) che valeva ogni centesimo del suo prezzo,


9700PRO, prego... :D

Vul
16-10-2013, 00:32
edit

Free Gordon
16-10-2013, 00:37
Gk104 era più piccolo di Tahiti


L'unico chippone degli ultimi anni infatti è Tahiti, ma perchè GCN nelle intenzioni è un'architettura fatta molto per il computing...e và/andrà integrata nel progetto Fusion/HSA.

Inoltre Nvidia segmenta sempre di più il mercato, facendo sempre 3mila versioni delle stesse archi, aggiungendo e togliendo...ha l'ossessione del primato! :D

Free Gordon
16-10-2013, 00:40
gk104 è uscito parecchio dopo.
Comunque credevo che intendesse che AMD non è interessata alla fascia da 1000 euro, 290x si va a piazzare in una ben diversa fascia di prezzo.

Ma no guarda,è una discussione che si era fatta con il buon Yoss anni fà e diceva che come regola, sopratutto da AMD in poi, non sarebbero più andati a fare chip grossi come la concorrente. Il motivo era che l'interesse si era spostato dal segmento enthusiast al segmento mainstream e sopratutto verso le APU, la vera scommessa di AMD (che si spera inizierà a dare i suoi frutti proprio quest'anno con Kaveri). ;)

elevul
16-10-2013, 00:57
Buono, andata pure la gt220. Ora sono con la intel integrata nel 2500k... :asd:
Audiosurf gira a Enhanced, però! :eek:

Speriamo che le nuove di Ati escano presto. :asd:

Vul
16-10-2013, 00:59
Credo che l'integrata del 2500k fosse meglio della 220 comunque.

Io con l'integrata del pentium g860 ho giocato a un bel pò di roba, ed è molto meno potente dell'hd4000 che hai tu mi pare.

Con la tua giochi senza problemi a CS:GO, GTA 4, Skyrim e un altro pò di giochi.

elevul
16-10-2013, 01:06
Credo che l'integrata del 2500k fosse meglio della 220 comunque.

Io con l'integrata del pentium g860 ho giocato a un bel pò di roba, ed è molto meno potente dell'hd4000 che hai tu mi pare.

Con la tua giochi senza problemi a CS:GO, GTA 4, Skyrim e un altro pò di giochi.

Nah, HD3000, non HD4000 purtroppo (che è molto più potente).
Quella di Haswell leggevo che è impressionante come prestazioni, ma purtroppo le integrate del 2500k/2600k non sono poi tanto buone come prestazioni. :(

Provato su Skyrim, e la gt220 mi dava un 40fps con tutte le opzioni grafiche al minimo (1080p), mentre l'integrata me ne da 18. :(

Vul
16-10-2013, 01:14
Nah, HD3000, non HD4000 purtroppo (che è molto più potente).
Quella di Haswell leggevo che è impressionante come prestazioni, ma purtroppo le integrate del 2500k/2600k non sono poi tanto buone come prestazioni. :(

Provato su Skyrim, e la gt220 mi dava un 40fps con tutte le opzioni grafiche al minimo (1080p), mentre l'integrata me ne da 18. :(

Qua c'è una lista di titoli mainstream:

http://www.intel.com/support/graphics/intelhdgraphics3000_2000/sb/CS-032052.htm

Di indie recenti ci son parecchi giochi belli che ho giocato con l'integrata, primo fra tutti mark of the ninja.
O giochi online come minecraft, terraria, League of Legends, Dota 2, Team Fortress 2.

Io posso dirti che il periodo senza vga mi son divertito veramente molto, fra alcuni giochi che non trovavo mai tempo di giocare e che lasciavo perdere per la grafica.

elevul
16-10-2013, 01:19
Qua c'è una lista di titoli mainstream:

http://www.intel.com/support/graphics/intelhdgraphics3000_2000/sb/CS-032052.htm

Di indie recenti ci son parecchi giochi belli che ho giocato con l'integrata, primo fra tutti mark of the ninja.
O giochi online come minecraft, terraria, League of Legends, Dota 2, Team Fortress 2.

Io posso dirti che il periodo senza vga mi son divertito veramente molto, fra alcuni giochi che non trovavo mai tempo di giocare e che lasciavo perdere per la grafica.

Nah, vabbé, per carità, aspetto, anche perché buona parte di quei giochi li avevo già giocati in passato. :D
Adesso ne sto approfittando per finire tutta la marea di film, telefilm e anime che ho accumulato e mai guardato... :asd:

Unica cosa che mi piace è che sembra che MadVR funzioni meglio su Intel, quindi posso tenere Lancoz+anti-ringing filter senza problemi di rallentamenti, cosa che non potevo fare sulla gt220 (problemi di supporto nei driver?). :D

La cosa interessante ora è il silenzio: prima sia la gtx560ti che la gt220 facevano un po di rumore mentre andavano, ora l'unico rumore che sento dal PC è il Caviar Blue mezzo rotto che tengo solo per cazzeggio. :asd:

devil_mcry
16-10-2013, 06:57
Io ho capito benissimo invece, mi sa che tu hai un pò di problemi con l'inglese :P

Nella news parla semplicemente di quanto siano scesi i prezzi dai rivenditori e infatti linka uno shop online computerbase.de come se da noi linkassero prokoo dove la scheda era in vendita a 557.

Ti pare che esiste 557 o 641 come prezzi di listino, è ovvio che si tratti di prezzi al negoziante :muro:

Ci sono pure due screen presi da shop lì sotto, più chiaro di così si muore :asd:

Il prezzo consigliato/ufficiale dei produttori rimane sempre che hanno nei listini e nel sito ufficiale ma poi al dettaglio e nei shop online la realtà sarà ovviamente diversa.
Quindi il fatto che MSI annunci la 290x a 650 significa che è nella stessa fascia di prezzo della 780, ne più ne meno.

il prezzo consigliato (che poi spesso è consigliato da nvidia e amd) non centra nulla con quello che attuano i produttori, che di solito seguono inizialmente

inoltre tu parli di taglio ufficiale dei prezzi, io di taglio da parte dei produttori (che poi sono loro a vendermi la scheda)

inoltre, MSI ad esempio, se guardi il prezzo di listino e lo street price è coerente, non ci sono 150 e in meno come vorresti far credere tu

la realtà è che da quel periodo i prezzi sono scesi di brutto, ora una 780 la trovi a 500e e sono persino modelli OC

l'altra girala cmq vuoi costa almeno il 20% in più (prendendo per buono i 590 di cui manca la fonte, perchè io l'ho vista anche a 700)

francisco9751
16-10-2013, 07:22
Ragazzi state parlando senza avere nulla di concreto..ormai mancano due giorni.. Inutile parlare sopratutto del prezzo anche perché di prezzi se ne sono viste di tutti i colori

Tapatalked from Nexus 4

Foglia Morta
16-10-2013, 07:58
Ragazzi state parlando senza avere nulla di concreto..ormai mancano due giorni.. Inutile parlare sopratutto del prezzo anche perché di prezzi se ne sono viste di tutti i colori

Tapatalked from Nexus 4

penso proprio che l' nda scadrà il 24 o il 25 , tra i commenti l' admin di guru3d ha detto "non questa settimana": http://www.guru3d.com/news_story/amd_explains_why_mantle_is_exclusive_to_pc_not_present_on_xbox_one.html

riguardo la promozione di BF4 c' è scritto che comincia il 25: http://sites.amd.com/us/Documents/AMD_Radeon_290X_Battlefield4_Limited_Ed.pdf

ertruffa
16-10-2013, 08:12
penso proprio che l' nda scadrà il 24 o il 25 , tra i commenti l' admin di guru3d ha detto "non questa settimana": http://www.guru3d.com/news_story/amd_explains_why_mantle_is_exclusive_to_pc_not_present_on_xbox_one.html

riguardo la promozione di BF4 c' è scritto che comincia il 25: http://sites.amd.com/us/Documents/AMD_Radeon_290X_Battlefield4_Limited_Ed.pdf

http://www.chiphell.com/thread-878739-1-1.html
pure qui dicono i l24

francisco9751
16-10-2013, 08:25
E 24 sia

Tapatalked from Nexus 4

muppo
16-10-2013, 09:04
certo che se i risultati son quelli del sito cinese, a parte metro LL imho è delusione totale, specie se il prezzo è cosi alto.
la 780, purtroppo, la pareggia in molti casi, basterà un modello custom di 780 per superarla tranquillamente.
Speriamo amd tenga conto di questo e la prezzi il giusto, ovvero sulla fascia delle 780, con la 290 liscia ancora più aggressiva.

francisco9751
16-10-2013, 09:07
Si ma io voglio i test a 1440p

Tapatalked from Nexus 4

ertruffa
16-10-2013, 09:13
certo che se i risultati son quelli del sito cinese, a parte metro LL imho è delusione totale, specie se il prezzo è cosi alto.
la 780, purtroppo, la pareggia in molti casi, basterà un modello custom di 780 per superarla tranquillamente.
Speriamo amd tenga conto di questo e la prezzi il giusto, ovvero sulla fascia delle 780, con la 290 liscia ancora più aggressiva.

in parte hai ragione, bisogna vedere quanto sale, quanto consumera' realmente e scaldera', il prezzo reale, poi tireremo le somme.ad oggi praticamente da una sola rece non mi convince:O

muppo
16-10-2013, 09:45
no, nemmeno a me, ora però i test cominciano ad arrivare un bel pò alla volta e i risultati sono in linea con una 780 custom oc. Ma se i prezzi che si vedono sono quelli visti in giro, o danno il bundles coi giochi e bf4, oppure non vedo nessun motivo di preferire l'una o l'altra (a parte i consumi ma anche le temp di esercizio a quanto pare...), se non per il costo finale..
Per quanto riguarda l'oc, anche qui se è vero che ci sarà un ~10% di margine, rimango un pò basito, le 780 si dimostrano anche li ottime in oc.
mah staremo a vedere, i prezzi però sono per ora fuori luogo soprattutto perche la scheda arriva un bel pò in ritardo rispetto la concorrenza e, anche se è tutto provvisorio e un commento troppo basato su semi rumors e semi test) non sta portando nulla di cosi speciale.
Magari se uno vuole il top del top e non gli interessa il bb ok, ma prestazioni/prezzo alla mano ora come ora .............:rolleyes:

francisco9751
16-10-2013, 09:53
A parità di prezzo per me il 1gb di vram fa tendere l'asticella verso la 290..ripeto "per me".

Tapatalked from Nexus 4

appleroof
16-10-2013, 09:55
A parità di prezzo per me il 1gb di vram fa tendere l'asticella verso la 290..ripeto "per me".

Tapatalked from Nexus 4

no vi prego non ricominciamo :D

p.s.: non ho approfondito, ma pare che le 2 abbiano diversi modi di allocare la memoria...:boh:

ertruffa
16-10-2013, 09:55
A parità di prezzo per me il 1gb di vram fa tendere l'asticella verso la 290..ripeto "per me".

Tapatalked from Nexus 4

hai visto, per me quella e' l'ultima cosa, prima vengono prestazioni generali, calore, rumore e prezzo. 1 gb di vram in piu' in questo caso con 1 solo monitor non cambia nulla anche a 2560*1600.

maurilio968
16-10-2013, 09:56
vedo che fioccano illazioni sui prezzi allora ne faccio una anche io.

la gtx 780 mediamente (trovaprezzi) oscilla tra 500 e 540 euro
la hd 7990 mediamente tra 550 e 600 euro

ora , se la 290x nelle prestazioni game sta tra una titan ed una hd 7990, anche contando l'effetto novità non potrà costare troppo di più di una 7990.

Altrimenti , restando in casa amd, uno prende la 7990, o no ?

Svanito l'effetto novità dovrebbe quindi assestarsi sul prezzo (se non sotto) della 7990, quindi tra 550 e 600 euro.

perciò io la vedo così

280x tra 270 e 300 euro
290 liscia tra 400 e 450 euro
290x tra 550 e 600 euro

questo se la 7990 resta comunque sopra come prestazioni alla 290x.

se invece la 290x dovesse costare 650 euro e più (quindi 100 euro in media più della 7990) o va apprezzabilmente meglio della 7990 (e secondo me solo in tal caso nvidia ritoccherà al ribasso i suoi prezzi) oppure mi sembra un tantino fuori mercato.

Vul
16-10-2013, 10:00
certo che se i risultati son quelli del sito cinese, a parte metro LL imho è delusione totale, specie se il prezzo è cosi alto.
la 780, purtroppo, la pareggia in molti casi, basterà un modello custom di 780 per superarla tranquillamente.
Speriamo amd tenga conto di questo e la prezzi il giusto, ovvero sulla fascia delle 780, con la 290 liscia ancora più aggressiva.

E' già piazzata sulla fascia di prezzo delle 780, il prezzo di listino è identico per le due schede.

Comunque io non farei tutto questo affidamento a quella review, ci sono tanti altri leak che presentano risultati ben differenti, insomma: aspettiamo review certe :D

miao84
16-10-2013, 10:00
in ottica futura, stavo pensando di fare un upgrade o con 290 liscia o con una prossima gtx 800 (860 ti/870 presumibilmente). Riguardo alla 290 ed ai suoi consumi, il mio alimentatore in firma potrebbe bastare (44A nei 12V)? Non vorrei cambiarlo di nuovo visto che l'ho preso da poco. Nel mentre dovrei passare anche al 3770K e quindi consumare meno rispetto al 2500K. che dite? :)

Vul
16-10-2013, 10:01
vedo che fioccano illazioni sui prezzi allora ne faccio una anche io.

la gtx 780 mediamente (trovaprezzi) oscilla tra 500 e 540 euro
la hd 7990 mediamente tra 550 e 600 euro

ora , se la 290x nelle prestazioni game sta tra una titan ed una hd 7990, anche contando l'effetto novità non potrà costare troppo di più di una 7990.

Altrimenti , restando in casa amd, uno prende la 7990, o no ?

Svanito l'effetto novità dovrebbe quindi assestarsi sul prezzo (se non sotto) della 7990, quindi tra 550 e 600 euro.

perciò io la vedo così

280x tra 270 e 300 euro
290 liscia tra 400 e 450 euro
290x tra 550 e 600 euro

questo se la 7990 resta comunque sopra come prestazioni alla 290x.

se invece la 290x dovesse costare 650 euro e più (quindi 100 euro in media più della 7990) o va apprezzabilmente meglio della 7990 (e secondo me solo in tal caso nvidia ritoccherà al ribasso i suoi prezzi) oppure mi sembra un tantino fuori mercato.

Il tuo ragionamento non fila. La titan costa più di una 690 anche se va il 40 % e oltre in meno.
Probabilmente la 290x costera come/più di una 7990.

vedo che fioccano illazioni sui prezzi allora ne faccio una anche io.

la gtx 780 mediamente (trovaprezzi) oscilla tra 500 e 540 euro
la hd 7990 mediamente tra 550 e 600 euro

ora , se la 290x nelle prestazioni game sta tra una titan ed una hd 7990, anche contando l'effetto novità non potrà costare troppo di più di una 7990.

Altrimenti , restando in casa amd, uno prende la 7990, o no ?

Svanito l'effetto novità dovrebbe quindi assestarsi sul prezzo (se non sotto) della 7990, quindi tra 550 e 600 euro.

perciò io la vedo così

280x tra 270 e 300 euro
290 liscia tra 400 e 450 euro
290x tra 550 e 600 euro

questo se la 7990 resta comunque sopra come prestazioni alla 290x.

se invece la 290x dovesse costare 650 euro e più (quindi 100 euro in media più della 7990) o va apprezzabilmente meglio della 7990 (e secondo me solo in tal caso nvidia ritoccherà al ribasso i suoi prezzi) oppure mi sembra un tantino fuori mercato.

Il tuo ragionamento non fila. La titan costa più di una 690 anche se va il 40 % e oltre in meno.
Probabilmente la 290x costera come/più di una 7990.

Vul
16-10-2013, 10:02
in ottica futura, stavo pensando di fare un upgrade o con 290 liscia o con una prossima gtx 800 (860 ti/870 presumibilmente). Riguardo alla 290 ed ai suoi consumi, il mio alimentatore in firma potrebbe bastare (44A nei 12V)? Non vorrei cambiarlo di nuovo visto che l'ho preso da poco. Nel mentre dovrei passare anche al 3770K e quindi consumare meno rispetto al 2500K. che dite? :)

Che secondo me l'alimentatore ti regge benissimo.

miao84
16-10-2013, 10:04
Che secondo me l'alimentatore ti regge benissimo.

lo spero, il fatto che sia 8+6 pin un po' mi preoccupava, ma in rete ho visto che potrebbe essere pure 6+6, immagino che ancora non ci sia certezza a riguardo.

maurilio968
16-10-2013, 10:06
Il tuo ragionamento non fila. La titan costa più di una 690 anche se va il 40 % e oltre in meno.
Probabilmente la 290x costera come/più di una 7990.



Il tuo ragionamento non fila. La titan costa più di una 690 anche se va il 40 % e oltre in meno.
Probabilmente la 290x costera come/più di una 7990.

la titan costa di più perchè ha features in più sfruttabili in altri contesti rispetto al gaming.

Io comunque faccio un confronto principalmente in casa amd; se la 290x andasse meno della 7990 non dovrebbe costare di più (poi possono prezzarla come gli pare ma
allora secondo me non sarebbe conveniente).

Vedremo se come consumi e temperature è tanto meglio della 7990 da giustificare un prezzo più alto (le altre features, incluso il tanto dibattuto mantle, girano anche sulla 7990).

francisco9751
16-10-2013, 10:07
La 7990 è un dual gpu della generazione precedente

Tapatalked from Nexus 4

cire92cry
16-10-2013, 10:10
vedo che fioccano illazioni sui prezzi allora ne faccio una anche io.

la gtx 780 mediamente (trovaprezzi) oscilla tra 500 e 540 euro
la hd 7990 mediamente tra 550 e 600 euro

ora , se la 290x nelle prestazioni game sta tra una titan ed una hd 7990, anche contando l'effetto novità non potrà costare troppo di più di una 7990.

Altrimenti , restando in casa amd, uno prende la 7990, o no ?

Svanito l'effetto novità dovrebbe quindi assestarsi sul prezzo (se non sotto) della 7990, quindi tra 550 e 600 euro.

perciò io la vedo così

280x tra 270 e 300 euro
290 liscia tra 400 e 450 euro
290x tra 550 e 600 euro

questo se la 7990 resta comunque sopra come prestazioni alla 290x.

se invece la 290x dovesse costare 650 euro e più (quindi 100 euro in media più della 7990) o va apprezzabilmente meglio della 7990 (e secondo me solo in tal caso nvidia ritoccherà al ribasso i suoi prezzi) oppure mi sembra un tantino fuori mercato.

Penso sia impossibile che la 290x vada meglio della 7990 dove il cross viene sfruttato alla fine la 7990 ha 4000 sp è dura superarla :D

maurilio968
16-10-2013, 10:17
Penso sia impossibile che la 290x vada meglio della 7990 dove il cross viene sfruttato alla fine la 7990 ha 4000 sp è dura superarla :D

lo penso anche io.

E' per questo che, passato il primo periodo di effetto novità, la metto nella fascia di prezzo 550-600 euro.

muppo
16-10-2013, 10:18
ma io sarei contento se mi vendono la 290x twin frozr allo stesso prezzo della 780..
il punto è che di questo non ne sono proprio sicuro.
Io capisco che è una novità, ma anche andasse un 5-10% in più di una 780 stock, se veramente il prezzo è ~100 (parlo di vendita non listino) allora se la possono tenere, la 780 in oc ha margine e molto, bisogna stare comunque a vedere, fatti sicuri ora come ora non ce ne sono, però i prezzi di vendita e di acquisto quelli già ci sono....600 imho sono veramente troppi se, e ripeto se, le prestazioni/consumi/temp sono quelle.
Come dicono qui sopra, che senso avrebbe allora non scegliere la 7990 a 550 euro?

maurilio968
16-10-2013, 10:23
La 7990 è un dual gpu della generazione precedente

Tapatalked from Nexus 4

e allora?

se va di più costa meno ed ha le stesse features conviene di più.

la 290x non è a 20nm, sostanzialmente l'architettura è la stessa: hanno pompato su tutto per salire in prestazioni.

Se guardo alla 290x è perchè voglio giocare almeno a 1440p o 1600p: se spendendo meno faccio sensibilmente più fps che mi frega se è di generazione precedente? Lato driver le cose sono migliorate tanto con i 13.11 (microstuttering nelle configurazioni cross, cali di framerate ecc.) quindi non vedo motivi per preferire la 290x se non va più di una 7990 o se non costa meno (o almeno uguale, ma in tal caso io non la prenderei in considerazione)

Vul
16-10-2013, 10:32
e allora?

se va di più ed ha le stesse features conviene di più.

la 290x non è a 20nm, sostanzialmente l'architettura è la stessa: hanno pompato su tutto per salire in prestazioni.

Se guardo alla 290x è perchè voglio giocare almeno a 1440p o 1600p: se spendendo meno faccio sensibilmente più fps che mi frega se è di generazione precedente? Lato driver le cose sono migliorate tanto con i 13.11 (microstuttering nelle configurazioni cross, cali di framerate ecc.) quindi non vedo motivi per preferire la 290x se non va più di una 7990 o se non costa meno (o almeno uguale, ma in tal caso io non la prenderei in considerazione)

Ti ho già risposto prima.
Anche la 690 è nettamente più veloce di una Titan (dal 40 al 60 %), ma una è una dual gpu, una è una gpu singola e costa di più. Non c'è solo l'aspetto delle prestazioni da considerare e i motivi son tanti. Io personalmente non scambierei una 7970 con una una 7990, figuriamoci una 290.

appleroof
16-10-2013, 10:41
Io credo che la Titan non vada affatto considerata perchè essendo stata prezzata in modo folle, che prescinde da qualsiasi logica finora seguita nel prezzare le vga sul mercato (tranne quella di approfittare il più possibile degli entusiasths), non può appunto essere presa a termine di paragone (poi ci ha provato pure Amd con la 7990, lanciata sui 1000 euro - e come prestazioni ci stava pure- ma ha avuto la sfiga che il caso stuttering è esploso porprio in quelle settimane e giustamente la vga non se la è filata nessuno)

il prezzo giusto quando è uscita per me era di massimo 750 euro "su strada", per le prestazioni e i 6 giga di vram e le -limitate rispetto a tesla- funzionalità DP per chi servono

Per cui lascerei proprio perdere quella vga e magari mi fermerei alla 780 come bench per il prezzo/prestazioni...

maurilio968
16-10-2013, 10:43
Ti ho già risposto prima.
Anche la 690 è nettamente più veloce di una Titan (dal 40 al 60 %), ma una è una dual gpu, una è una gpu singola e costa di più. Non c'è solo l'aspetto delle prestazioni da considerare e i motivi son tanti. Io personalmente non scambierei una 7970 con una una 7990, figuriamoci una 290.

si vede che non giochi a 1600p o più.

Mi sembra un concetto semplice: se giochi fino a 1080p basta una 280x o una gtx 770. Schede superiori a quella risoluzione sono sprecate.

Se giochi a 1600p o in multimonitor le cose cambiano; ci sono schede singole (non importa se 1 o 2 gpu) che consentono una buona esperienza di gioco a quelle risoluzioni ? SI, la hd 7990 opputre la gt 690.

La 290x che scheda singola si propone di essere ? AMD stessa la pone nella fascia si utilizzo che ho descritto sopra: allora o va più di una 7990 o deve costare meno.

E' sempre il mio ragionamento personale: poi chi vuole può spendere 650 euro per fare 120 fps a 1080p (quando bastano 300 euro per fare 60 fps) e farne solo 29 a 1600p oppure in multimonitor (a seconda dei giochi).

maurilio968
16-10-2013, 10:45
Io credo che la Titan non vada affatto considerata perchè essendo stata prezzata in modo folle, che prescinde da qualsiasi logica finora seguita nel prezzare le vga sul mercato (tranne quella di approfittare il più possibile degli entusiasths), non può appunto essere presa a termine di paragone (poi ci ha provato pure Amd con la 7990, lanciata sui 1000 euro - e come prestazioni ci stava pure- ma ha avuto la sfiga che il caso stuttering è esploso porprio in quelle settimane e giustamente la vga non se la è filata nessuno)

il prezzo giusto quando è uscita per me era di massimo 750 euro "su strada", per le prestazioni e i 6 giga di vram e le -limitate rispetto a tesla- funzionalità DP per chi servono

Per cui lascerei proprio perdere quella vga e magari mi fermerei alla 780 come bench per il prezzo/prestazioni...

infatti io lo ho scritto prima.

Restiamo in casa amd: con i driver 13.11 le 7990 vanno molto bene.
Vediamo la 290x come si pone rispetto alla 7990.

zla_Stobb
16-10-2013, 10:50
scusate ma della r9 280 liscia non si sa nulla ? tipo quando uscirá ?

obiwan-80
16-10-2013, 10:51
State lontani da qualsiasi soluzione multi gpu, crossfire.

appleroof
16-10-2013, 10:52
infatti io lo ho scritto prima.

Restiamo in casa amd: con i driver 13.11 le 7990 vanno molto bene.
Vediamo la 290x come si pone rispetto alla 7990.

mah cmq escluderei pure quella perchè è una dual....io la confronterei con la 7970ghz e con la gtx 780, poi senza sapere le prestazioni chissà...secondo quel poco che si è visto diciamo che se mettessero un MRSP di 650$ al lancio sarebbe già oro colato per gli acquirenti, secondo me, sotto quella cifra poi ovviamente è tutto di guadagnato per chi la compra...

Ale55andr0
16-10-2013, 10:53
e allora?

se va di più costa meno ed ha le stesse features conviene di più.



è una dual, non scala sempre e comunque

maurilio968
16-10-2013, 10:55
State lontani da qualsiasi soluzione multi gpu, crossfire.

e a 1600p (o peggio in multimonitor) come ci giochi?

maurilio968
16-10-2013, 10:56
è una dual, non scala sempre e comunque

lo so, ma quali sono le alternative a quelle risoluzioni di gioco ?

zla_Stobb
16-10-2013, 10:58
si vede che non giochi a 1600p o più.

Mi sembra un concetto semplice: se giochi fino a 1080p basta una 280x o una gtx 770. Schede superiori a quella risoluzione sono sprecate.

Se giochi a 1600p o in multimonitor le cose cambiano; ci sono schede singole (non importa se 1 o 2 gpu) che consentono una buona esperienza di gioco a quelle risoluzioni ? SI, la hd 7990 opputre la gt 690.

La 290x che scheda singola si propone di essere ? AMD stessa la pone nella fascia si utilizzo che ho descritto sopra: allora o va più di una 7990 o deve costare meno.

E' sempre il mio ragionamento personale: poi chi vuole può spendere 650 euro per fare 120 fps a 1080p (quando bastano 300 euro per fare 60 fps) e farne solo 29 a 1600p oppure in multimonitor (a seconda dei giochi).

secondo te con una 7950 + il mio i 5 2500k dovrei stare abbastanza bene a 1080 p ?

okorop
16-10-2013, 10:59
secondo te con una 7950 + il mio i 5 2500k dovrei stare abbastanza bene a 1080 p ?

Si andresti benone, appena presa la vga, overcloccata a 1050 1500 e va benissimo ;) a 180 euro con 3 giochi è un affare fidati!!!

liberato87
16-10-2013, 11:00
gk104 è uscito parecchio dopo.
Comunque credevo che intendesse che AMD non è interessata alla fascia da 1000 euro, 290x si va a piazzare in una ben diversa fascia di prezzo.

parecchio dopo è esagerato, visto che parliamo di 3 mesi (indipendentemente se è uscito 3 mesi prima, io parlo di vga sulla stessa fascia, della stessa generazione). io ho quotato e PRECISATO solo perchè l affermazione "sono 6 anni che amd non fa chipponi come fa nvidia" imho era sbagliata perchè appunto gk104 era più piccolo di tahiti.
poi se uno vuole approfondire e precisare meglio così, solo che siamo OT e parliamo di vga vecchie, quindi per me discorso chiuso.

questo perchè "storicamente" quando si parla di vga amd, magari anche se andavano un pò meno si diceva appunto che (vedi fermi) le vga nvidia sono chipponi, dei forni, e che consumano una cifra.
poi se nvidia tira fuori gk104, dicono "eh nvidia si fa i soldi, vende un chip più piccolo allo stesso prezzo di amd, sono dei ladri" :doh:

viceversa se è amd a tirare fuori vga con chip più grande , i consumi improvvisamente non contano più niente ("la corrente non costa niente") e le temperature idem (vabbè basta che ci monti un accelero) :D

ma io sarei contento se mi vendono la 290x twin frozr allo stesso prezzo della 780..
il punto è che di questo non ne sono proprio sicuro.
Io capisco che è una novità, ma anche andasse un 5-10% in più di una 780 stock, se veramente il prezzo è ~100 (parlo di vendita non listino) allora se la possono tenere, la 780 in oc ha margine e molto, bisogna stare comunque a vedere, fatti sicuri ora come ora non ce ne sono, però i prezzi di vendita e di acquisto quelli già ci sono....600 imho sono veramente troppi se, e ripeto se, le prestazioni/consumi/temp sono quelle.

quoto. io spero la mettano sui 500euro cosi si avrà un ribasso generale.
però sicuramente al day one la tireranno fuori a 650.
io penso che a 1440p andrà più della 780, andando a competere con le prestazioni della titan, costando di meno (anche in virtù dei 2gb in meno di memoria, dissi a occhio più economico ecc).

comunque io non credo che i bench definitivi siano questi.
è stato fatto parecchio hype.. anche se ripeto amd ha presentato la 290x come “Our Most Powerful GPU Yet”, non come la più potente in assoluto.

molto dipenderà dai margini di overclock, se i bench bene o mali sono quelli mostrati.
se salgono bene senza aumentare troppo i consumi sarà una bella sfida.
anche se ora come ora, almeno per quello che vedo io, le 780 salgono di più delle prime uscite (l asic è sensibilmente più alto, anche nel thread ora con le custom stanno tutti sull 80%, all inizio tutte le reference sul 60), quindi può darsi che nvidia sia avvantaggiata da avere un silicio più rodato.

se dobbiamo comparare 290x e 780, non capisco la 290 dove si va a piazzare. dato che la r280 se la vede con la 770 :mbe:

trnk28
16-10-2013, 11:03
vedo che fioccano illazioni sui prezzi allora ne faccio una anche io.

la gtx 780 mediamente (trovaprezzi) oscilla tra 500 e 540 euro
la hd 7990 mediamente tra 550 e 600 euro

ora , se la 290x nelle prestazioni game sta tra una titan ed una hd 7990, anche contando l'effetto novità non potrà costare troppo di più di una 7990.

Altrimenti , restando in casa amd, uno prende la 7990, o no ?

Svanito l'effetto novità dovrebbe quindi assestarsi sul prezzo (se non sotto) della 7990, quindi tra 550 e 600 euro.

perciò io la vedo così

280x tra 270 e 300 euro
290 liscia tra 400 e 450 euro
290x tra 550 e 600 euro

questo se la 7990 resta comunque sopra come prestazioni alla 290x.

se invece la 290x dovesse costare 650 euro e più (quindi 100 euro in media più della 7990) o va apprezzabilmente meglio della 7990 (e secondo me solo in tal caso nvidia ritoccherà al ribasso i suoi prezzi) oppure mi sembra un tantino fuori mercato.

Secondo me non è corretto paragonare schede video che seppur di fascia di prezzo simile hanno caratteristiche così diverse come essere a singolo o doppio chip. Se costano pari e vanno pari è molto meglio il singolo, meno rumore/temperature e consumi e nessun problema legato al crossfire

Catan
16-10-2013, 11:04
e a 1600p (o peggio in multimonitor) come ci giochi?

di base non ci giochi.
Il multimonitor ed il multi gpu non sono una categoria "core" del mercato gamers, sono una nicchia della nicchia.
E come nicchia mettere su un sistema multi monitor con un multi gpu, ha un costo / prestazioni decisamente basso.

con una 280x ci giochi a 1080p è vero, ma con la 290x ci giochi "meglio" considerando sempre che ciclo vitale uno vuole fare alla sua vga (se la tieni un'anno probabilmente i motori grafici da qui ad un anno hanno maggiori richieste e la 290x va ancora bene, magari la 280x arranca.)

Vul
16-10-2013, 11:05
Se va più di una Titan, 650 di listino è un prezzo assolutamente onesto.

29Leonardo
16-10-2013, 11:06
secondo te con una 7950 + il mio i 5 2500k dovrei stare abbastanza bene a 1080 p ?

se non esageri con i filtri vai alla grande.

maurilio968
16-10-2013, 11:07
se dobbiamo comparare 290x e 780, non capisco la 290 dove si va a piazzare. dato che la r280 se la vede con la 770 :mbe:

sempre per illazioni: a metà strada e come ho detto con un prezzo sui 400-450 euro.

Vul
16-10-2013, 11:09
di base non ci giochi.
Il multimonitor ed il multi gpu non sono una categoria "core" del mercato gamers, sono una nicchia della nicchia.
E come nicchia mettere su un sistema multi monitor con un multi gpu, ha un costo / prestazioni decisamente basso.

Esatto, io onestamente sto benissimo a 1080p, 60 hz.

con una 280x ci giochi a 1080p è vero, ma con la 290x ci giochi "meglio" considerando sempre che ciclo vitale uno vuole fare alla sua vga (se la tieni un'anno probabilmente i motori grafici da qui ad un anno hanno maggiori richieste e la 290x va ancora bene, magari la 280x arranca.)

Io non credo questo avverrà mai. Non sono i motori grafici a determianre la pesantezza dei giochi (o meglio lo sono ma quando progettati male, vedi lo schifo di motore di Arma 3 che è ancora quello di Operation Flashpoint che continuano a riciclare) quanto semplicemente quello che ci "infilano" dentro i videogiochi. Crysis 3 è peso semplicemente perchè a livello di dettaglio/illuminazione siamo a livelli veramente elevati (ma non tanto diversi da un ben più vecchio warhead).

Fondamentalmente io credo che sopra la 770, 280x ormai upgradare per 1080 e 60 hz sia insensato, è solo voglia di vedere numeretti e 0 differenze nei giochi. 5 anni fa chi avesse comprato una 5870 per giocare a 1366 ancora oggi giocherebbe con tutto ad ultra, battlefield 4 incluso, hitman absolution incluso, anzi lo farebbe probabilmente anche a1 680 considerato che BF4 gira ad ultra a quella res su una 5870 senza aa, persino Crysis 3 fa 24 fps medi maxato ad ultra con una 5870, vuoi non giocarci a 1366 o 1680?. Idem 770 e 280x ormai sono il limite a questa risoluzione. Senza nuove tecnologie, librerie da sfruttare, impantanati in directx 11 ormai c'è poco da upgradare secondo me tranne che per sfizio :D

maurilio968
16-10-2013, 11:15
Fondamentalmente io credo che sopra la 770, 280x ormai upgradare per 1080 e 60 hz sia insensato, è solo voglia di vedere numeretti e 0 differenze nei giochi. 5 anni fa chi avesse comprato una 5870 per giocare a 1366 ancora oggi giocherebbe con tutto ad ultra, battlefield 4 incluso, hitman absolution incluso, anzi lo farebbe probabilmente anche a1 680 considerato che BF4 gira ad ultra a quella res su una 5870 senza aa, persino Crysis 3 fa 24 fps medi maxato ad ultra con una 5870, vuoi non giocarci a 1366 o 1680?. Idem 770 e 280x ormai sono il limite a questa risoluzione. Senza nuove tecnologie, librerie da sfruttare, impantanati in directx 11 ormai c'è poco da upgradare secondo me tranne che per sfizio


proprio per questo facevo quelle illazioni sul rapporto prezzo-prestazioni della 290x.

Schede da 600 euro o più o consentono di giocare bene a 1600p e/o in multimonitor o sono inutili.

Serve un salto prestazionale che per ora non vedo, mentre intravedo prezzi ingiustificati.

maurilio968
16-10-2013, 11:37
di base non ci giochi.
Il multimonitor ed il multi gpu non sono una categoria "core" del mercato gamers, sono una nicchia della nicchia.
E come nicchia mettere su un sistema multi monitor con un multi gpu,ha un costo / prestazioni decisamente basso.


ne sei così sicuro? tre ips dell da 23 pollici full hd vengono 600 euro, una 7990 550 euro: in tutto 1150 euro.

poi per ora possono essere anche una nicchia, ma allora spiegami le 290x chi dovrebbe comprarle, ah già :



con una 280x ci giochi a 1080p è vero, ma con la 290x ci giochi "meglio" considerando sempre che ciclo vitale uno vuole fare alla sua vga (se la tieni un'anno probabilmente i motori grafici da qui ad un anno hanno maggiori richieste e la 290x va ancora bene, magari la 280x arranca.)

sul giocarci "meglio" non concordo, a 1080p la 290x è troppo sprecata

sulla longevità nemmeno: secondo te è meglio spedere mettiamo 650 euro subito e tenere una 290x per 4 anni e non spendere 300 adesso per una 280x e tra due anni altri 350 per una scheda che andrà in quel momento come-più della 290x ? Contando anche che la 280x l'hai rivenduta e qualcosa ci hai recuperato.

qboy
16-10-2013, 12:04
cut
sul giocarci "meglio" non concordo, a 1080p la 290x è troppo sprecata

sulla longevità nemmeno: secondo te è meglio spedere mettiamo 650 euro subito e tenere una 290x per 4 anni e non spendere 300 adesso per una 280x e tra due anni altri 350 per una scheda che andrà in quel momento come-più della 290x ? Contando anche che la 280x l'hai rivenduta e qualcosa ci hai recuperato.
sti discorsi si facevano esattamente anche con le 7970 che era sprecata per il full hd bla bla bla, eppure dall'uscita ad oggi le cose si sono dimostrate contrarie. la 7970 è perfetta per il fullhd e per ancora 2 annetti buoni non darà problemi nelle prestazioni. che poi un cross come me sia abbastanza inutile è vero ma li entriamo in hobby personali

damerin0
16-10-2013, 12:10
Il tuo ragionamento non fila. La titan costa più di una 690 anche se va il 40 % e oltre in meno.
Probabilmente la 290x costera come/più di una 7990.



Il tuo ragionamento non fila. La titan costa più di una 690 anche se va il 40 % e oltre in meno.
Probabilmente la 290x costera come/più di una 7990.

La titan 40% in meno di una 690??ma non farmi ridere!!

qboy
16-10-2013, 12:28
La titan 40% in meno di una 690??ma non farmi ridere!!

infatti, anche perchè messo cosi vorrebbe dire che la titan va come una gtx680 che è impossibile, un 5% massimo 10% nei titoli ottimizzato per lo sli si altrimenti NO

Einhander
16-10-2013, 12:35
la titan costa di più perchè ha features in più sfruttabili in altri contesti rispetto al gaming.

Io comunque faccio un confronto principalmente in casa amd; se la 290x andasse meno della 7990 non dovrebbe costare di più (poi possono prezzarla come gli pare ma
allora secondo me non sarebbe conveniente).

Vedremo se come consumi e temperature è tanto meglio della 7990 da giustificare un prezzo più alto (le altre features, incluso il tanto dibattuto mantle, girano anche sulla 7990).

La titan costa di piu' perche' nvidia sa' che ci sono nel mondo almeno 4000-5000 furbacchioni che la comprerebbero al day one, ma quali sarebbero ste mega-prestazioni in altri ambiti, visto che dove conta sul serio la potenza di elaborazione una banale 7970 liscia la devasta?

Non torniamo sul discorso del prezzo della titan che non e' ne in cielo ne in terra, che poi ci siano persone che sostengano il contrario e' obiettivamente opinabile e spesso dipende dal fatto che loro stessi ne hanno presa una o sono fanboy e quindi gioco forza tendono ad imporre la loro visione anche e soprattutto per questo.

Io non prenderei MAI la titan come metro di paragone a livello di prezzi, bensi la 780 come in effetti pare aver fatto anche amd.

E cmq sia per amd che nvidia cosa uno decide di prendere secondo me dovrebbe dipendere principalemente dal rapporto prezzo\prestazioni -in singola gpu- REALE non ufficiale, perche' noi prendiamo schede video con i prezzi degli shop non con quelli emanati dalle case costruttrici amd, nvidia o intel che siano.

E questo giochera' sicuramente a svantaggio di amd per un primo periodo, anche perche' nulla vieta ad nvidia di ritoccare anche leggermete i prezzi verso il basso (SALVO grosse sorprese lato prestazioni).

Cio' che invece non capisco e' il discorso delle versioni custom delle 780 in relazione alle amd 290x -cioe' se esce la versione toxc della 290x il discorso ritorna dinuovo al punto che semplicemente la 290x va di piu' niente di nuovo e in quel caso credo che il bundle dei giochi (e ci sara' sicuramente, magari non subito per spingere battlefield 4) e le reali prestazioni a seguito di recenzioni scritte in una lingua diversa da quella dei cerchi nel grano possano essere illuminanti.


P.s.: gk 104 era piu' piccolo ma nvidia sego' totalmente la parte gpgpu -che lei stessa per 3 generazioni aveva spinto come fosse la manna dal cielo- e quando l'ha messa sulla titan ha cmq tirato fuori una mattonella niente male in dimensioni del die, fermo restando appunto che salvo per il quantitativo di memoria in molti ambiti di gpgpu una singola 7970 la DEVASTA, se poi prendiamo due o tre di queste -per raggiungere il prezzo della titan- il discorso diventa ridicolo al limite del leggendario :asd:, quindi si amd ha fatto delle mattonelle con tahiti, ma nvidia quando ha inserito una parte gpgpu e quindi ha dato vita ad un chip completo di tutto come la controparte ha creato un mattonellone anche lei e l'ha piazzato ad un prezzo da folli.

Morale della favola, non mi pare che nvidia sia avanti ad amd nel modo di fare i chip in merito ai mm2\prestazioni a 360° del die, anzi passa in vantaggio solo quando taglia parti destinate ad altri ambiti che lei stessa ha spinto per generazioni come fossero il futuro, poi come per magia quando la concorrenza l'ha raggiunta e anche sorpassata, ha deciso che non era piu' importante -non so' perche' ma mi ricorda certe affermazioni fatte da essa prima e dopo aver perso il treno delle console :asd:)-