View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™
digieffe
15-10-2013, 00:59
l'architettura è la stessa di GNC, hanno aumentato il bus, le ram, le rops, le tmu e gli shader processors e come fa a essere una schifezza....penso che andrà sicuramente piu' della 280x OC Edition, 20-30% almeno
a livello di architettura hanno cambiato anche la gestione dell'indirizzamento.
ertruffa
15-10-2013, 06:04
non so se sono stati postati, io li metto
http://s14.postimg.org/o2pr7fvel/32a773700579431f8125c5ab1e323809.jpg (http://postimg.org/image/o2pr7fvel/)
http://s22.postimg.org/3rfbonngt/84751cec156f4c16936c3fb57cf595f1.jpg (http://postimg.org/image/3rfbonngt/)
mi interessa vedere nei giochi come va.:O
°Phenom°
15-10-2013, 07:05
Non si capisce piú nulla in alcuni test al fire strike va piú di titan, in altri meno :O
Inviato dal mio GT-I9300 con Tapatalk now Free ('http://tapatalk.com/m?id=10')
francisco9751
15-10-2013, 07:15
Su OC.NET ad un utente uno shop avrebbe spedito la 290x..vediamo che succede entro venerdì.. A sto punto non si più che pensare :/
Tapatalked from Nexus 4
ertruffa
15-10-2013, 07:24
Su OC.NET ad un utente uno shop avrebbe spedito la 290x..vediamo che succede entro venerdì.. A sto punto non si più che pensare :/
Tapatalked from Nexus 4
effettivamente, qui c'e' gente che deve fare la recensione e dice di non aver ricevuto ancora le vga, e shop che le spediscono, se fosse realmente cosi' amd sta perdendo il controllo, o al massimo domani devono uscire le recensioni.
°Phenom°
15-10-2013, 07:28
Appunto, quoto...
Inviato dal mio GT-I9300 con Tapatalk now Free ('http://tapatalk.com/m?id=10')
<Masquerade>
15-10-2013, 07:29
ma queste schede escono o no?
santo cielo quanto ci vuole ancora?
non capisco che problemi ha amd, perché la fa tanto lunga co ste 290 ???
francisco9751
15-10-2013, 07:35
L'attesa aumenta il desiderio :asd:
Comunque non è detto che i recensori non le hanno, magari non possono dire di averle.. Ma sicuramente le maggiori testate mondiali già le hanno..già due settimane fa si vedevano foto di VGA addirittura in crossfire..
Tapatalked from Nexus 4
mircocatta
15-10-2013, 07:54
Sarà bello il confronto tra titan ultra e r9 290xt2.....8 gb di ram :O impressionante come scheda video!!!!
Se una 290x è già più veloce, questa 290xt non la vede neanche con il binocolo
ha più tmu, più sp, il doppio di ram, e non so se avete letto bene il core..parte da 1200 (!!!!!) e arriva a 1450mhz in tubo mode :eek: :eek: :eek: :eek: :eek:
sa di fake anche a me questa 290xt..da che sito è preso lo screen?
°Phenom°
15-10-2013, 07:58
Se una 290x è già più veloce, questa 290xt non la vede neanche con il binocolo
ha più tmu, più sp, il doppio di ram, e non so se avete letto bene il core..parte da 1200 (!!!!!) e arriva a 1450mhz in tubo mode :eek: :eek: :eek: :eek: :eek:
A me sembra più che altro un gran fake questa xt2, con tutti quelli shader sempre a 28nm fare i 1450mhz sul core mi sembra impossibile, ammenochè in bundle non ti diano la tanica di azoto liquido con cui raffreddarla... :asd:
<Masquerade>
15-10-2013, 08:48
The Xbox One graphics API is “Direct3D 11.x” and the Xbox One hardware provides a superset of Direct3D 11.2 functionality. Other graphics APIs such as OpenGL and AMD’s Mantle are not available on Xbox One
http://blogs.windows.com/windows/b/appbuilder/archive/2013/10/14/raising-the-bar-with-direct3d.aspx
maxmix65
15-10-2013, 08:54
non so se sono stati postati, io li metto
http://s14.postimg.org/o2pr7fvel/32a773700579431f8125c5ab1e323809.jpg (http://postimg.org/image/o2pr7fvel/)
http://s22.postimg.org/3rfbonngt/84751cec156f4c16936c3fb57cf595f1.jpg (http://postimg.org/image/3rfbonngt/)
mi interessa vedere nei giochi come va.:O
Bella :D :D :D :D
Spero stavolta non dicano che sono fake
:D :D :D :D :D :D
°Phenom°
15-10-2013, 08:54
Come credevo riguardo a xbox one, microsoft non credo permetta di sostituire le proprie directx, imho secondo me la ps4 oltre ad avere vantaggi in termine hardware rispetto a xbox one, potrebbe anche sfruttare mantle in certi giochi per una maggiore ottimizzazione di essi, visto che alla fine sony potrebbe accettare tranquillamente queste api.
Inviato dal mio GT-I9300 con Tapatalk now Free ('http://tapatalk.com/m?id=10')
The Xbox One graphics API is “Direct3D 11.x” and the Xbox One hardware provides a superset of Direct3D 11.2 functionality. Other graphics APIs such as OpenGL and AMD’s Mantle are not available on Xbox One
http://blogs.windows.com/windows/b/appbuilder/archive/2013/10/14/raising-the-bar-with-direct3d.aspx
perchè la ONE non ha una scheda video, ma una apu
Come credevo riguardo a xbox one, microsoft non credo permetta di sostituire le proprie directx, imho secondo me la ps4 oltre ad avere vantaggi in termine hardware rispetto a xbox one, potrebbe anche sfruttare mantle in certi giochi per una maggiore ottimizzazione di essi, visto che alla fine sony potrebbe accettare tranquillamente queste api.
Inviato dal mio GT-I9300 con Tapatalk now Free ('http://tapatalk.com/m?id=10')
Dubito PS4 possa avere gcn, per i motivi sopraelencati. Sul sito AMD parla chiaramente di gcn come una feature delle sue gpu, non delle cpu/apu.
Tra l'altro dubito che servano api ottimizzate per le console, visto che di default le console utilizzano api differenti e kernel differenti gaming oriented (da cui deriva la fantomatica ottimizzazione). Le console hanno già api di basso livello, è una feature che manca sui pc questa, non sulle console. In particolare la One ha un kernel migliorato (ma si muove su api directx), mentre la PS4 dovrebbe avere anche api differenti oltre al kernel diverso basato su freebsd.
maxmix65
15-10-2013, 08:58
A me sembra più che altro un gran fake questa xt2, con tutti quelli shader sempre a 28nm fare i 1450mhz sul core mi sembra impossibile, ammenochè in bundle non ti diano la tanica di azoto liquido con cui raffreddarla... :asd:
Forse Amd la vende con un l'impianto a liquido all in one compreso ;)
ertruffa
15-10-2013, 09:04
Bella :D :D :D :D
Spero stavolta non dicano che sono fake
:D :D :D :D :D :D
secondo me le redazioni delle grande testate hanno le vga, aspettano solo che amd levi nda, speriamo che si sbrighino, ne ho le p.... piene.
maxmix65
15-10-2013, 09:10
http://uptiki.altervista.org/_altervista_ht/0oaybu3mb3ebytvqhng_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=0oaybu3mb3ebytvqhng.jpg)
ertruffa
15-10-2013, 09:11
http://videocardz.com/46741/radeon-r9-290x-pictured-close
forse il 18:D
Tutti sti rinvii sti misteri mi ricordano molto la presentazione di Fermi: speriamo in bene..
obiwan-80
15-10-2013, 09:26
Ma le 290 usciranno in contemporanea con le 290x?
ertruffa
15-10-2013, 09:28
Ma le 290 usciranno in contemporanea con le 290x?
si dice un po' dopo, credo una settimana di differenza.poi.....
<Masquerade>
15-10-2013, 09:47
http://www.chiphell.com/thread-878018-1-1.html
appleroof
15-10-2013, 09:49
su b3d dicono che i chip memoria hynix montati sulla 290x avrebbero bisogno di overvolt per salire in frequenza, perchè sarebbero modelli a 1,35v mentre ad sempio quelli della 270x sono a 1,55v....aggiungo che evidentemtne la scelta è legata al contenimento dei consumi (e pure il bus 512bit offre cmq banda sufficiente a freq. relativamente basse della mem)
per gli scoppiati delle frequenze e dei bench, non resta che aspettare le rxce per vedere se tramite qualche tool è possibile overvoltare le memorie, ammesso che il tutto sarà confermato
ertruffa
15-10-2013, 09:51
http://www.chiphell.com/thread-878018-1-1.html
dai ormai dovrebbe mancare poco, basta con sti 3dmark,voglio i giochi:D
qui hanno messo un po' tutto quell oche si e' visto ad oggi
http://videocardz.com/46785/amd-radeon-r9-290x-performance-charts-emerge
appleroof
15-10-2013, 09:55
The Xbox One graphics API is “Direct3D 11.x” and the Xbox One hardware provides a superset of Direct3D 11.2 functionality. Other graphics APIs such as OpenGL and AMD’s Mantle are not available on Xbox One
http://blogs.windows.com/windows/b/appbuilder/archive/2013/10/14/raising-the-bar-with-direct3d.aspx
ottimo, per quanto mi riguarda.
perchè la ONE non ha una scheda video, ma una apu
cut
.....e quindi? :mbe:
<Masquerade>
15-10-2013, 10:04
ottimo, per quanto mi riguarda.
è supportato solo dalla ps4, Xbox One e WiiU no.
bronzodiriace
15-10-2013, 10:05
perchè la ONE non ha una scheda video, ma una apu
Dubito PS4 possa avere gcn, per i motivi sopraelencati. Sul sito AMD parla chiaramente di gcn come una feature delle sue gpu, non delle cpu/apu.
Tra l'altro dubito che servano api ottimizzate per le console, visto che di default le console utilizzano api differenti e kernel differenti gaming oriented (da cui deriva la fantomatica ottimizzazione). Le console hanno già api di basso livello, è una feature che manca sui pc questa, non sulle console. In particolare la One ha un kernel migliorato (ma si muove su api directx), mentre la PS4 dovrebbe avere anche api differenti oltre al kernel diverso basato su freebsd.
Ha un Apu con sottosistema video basato su GCN. La medesima cosa per ps4.
Discorso differente per WiiU che invece monta una cpu multicore IBM oooe ed una gpu AMD basata su 5800.
appleroof
15-10-2013, 10:07
è supportato solo dalla ps4, Xbox One e WiiU no.
appunto, và benissimo per i motivi che ho detto 100 volte....solo una cosa: per PS4 si ha certezza che sia supportato?
edit: mi rispondo da solo Mantle appears to have much in common with the GNM API used in PlayStation 4, http://www.eurogamer.net/articles/digitalfoundry-could-amd-mantle-revolutionise-pc-gaming quindi non si ha certezza che siano la stessa cosa.
<Masquerade>
15-10-2013, 10:21
ed una gpu AMD basata su 5800.
addirittura?
appleroof
15-10-2013, 10:23
addirittura?
io sapevo che era equivalente ad una cape verde, cmq gcn...
maxmix65
15-10-2013, 10:24
:eek: :eek: :p :p :eek: :eek: :D :D
http://uptiki.altervista.org/_altervista_ht/4b5smz1gr97mnlrbw_thumb.jpg (http://uptiki.altervista.org/viewer.php?file=4b5smz1gr97mnlrbw.jpg)
<Masquerade>
15-10-2013, 10:27
io sapevo che era equivalente ad una cape verde, cmq gcn...
per capa verde non saprei...
ma io ero rimasto che era basata su rv770, ma sul livello di una 4670, con 320 stream processor.
Foglia Morta
15-10-2013, 10:27
è supportato solo dalla ps4, Xbox One e WiiU no.
Mantle non ha bisogno del supporto dei produttori di console perchè è AMD che ha progettato l' hardware delle console... quando gli sviluppatori programmano per le console gran parte del loro lavoro è automaticamente valido per altre piattaforme utilizzando Mantle ( e GCN quindi ).
“What Mantle creates for the PC is a development environment that’s *similar* to the consoles, which already offer low-level APIs, close-to-metal programming, easier development and more (vs. the complicated PC environment). By creating a more console-like developer environment, Mantle: improves time to market; reduces development costs; and allows for considerably more efficient rendering, improving performance for gamers. The console connection is made because next-gen uses Radeon, so much of the programming they’re doing for the consoles are already well-suited to a modern Radeon architecture on the desktop; that continuum is what allows Mantle to exist.”
http://images.anandtech.com/doci/7371/MantleHLSL_575px.jpg
appleroof
15-10-2013, 10:29
Mantle non ha bisogno del supporto dei produttori di console perchè è AMD che ha progettato l' hardware delle console... quando gli sviluppatori programmano per le console gran parte del loro lavoro è automaticamente valido per altre piattaforme utilizzando Mantle ( e GCN quindi ).
non capisco allora la precisazione esplicita di Microsoft, sostiene che xbox userà un superset di dx11.2 per i giochi, ossia che gli sviluppatori per programamre per xboxone useranno il superset dx11.2, non mantle. Se vorranno scrivere in mantle dovranno fare un'ulteriore versione del gioco con tale set di Api.
appleroof
15-10-2013, 10:31
per capa verde non saprei...
ma io ero rimasto che era basata su rv770, ma sul livello di una 4670, con 320 stream processor.
si hai ragione, non era crapa verde a rv770...
appleroof
15-10-2013, 10:35
non so se già detto, pare che il lancio sarà il 18:
Fresh news have just arrived. The launch is probably set for October 18th. We couldn’t confirm the launch date since distributors, manufacturers and reviewers have all slightly different information. So it’s either this date or a date closer to BF4 launch. Take it as you will.
http://videocardz.com/46741/radeon-r9-290x-pictured-close
LurenZ87
15-10-2013, 10:38
dai ormai dovrebbe mancare poco, basta con sti 3dmark,voglio i giochi:D
qui hanno messo un po' tutto quell oche si e' visto ad oggi
http://videocardz.com/46785/amd-radeon-r9-290x-performance-charts-emerge
93°C :fagiano:
Inviato dal mio Nexus 4 now Free ('http://tapatalk.com/m?id=10')
Foglia Morta
15-10-2013, 10:39
non capisco allora la precisazione esplicita di Microsoft, sostiene che xbox userà un superset di dx11.2 per i giochi, ossia che gli sviluppatori per programamre per xboxone useranno il superset dx11.2, non mantle. Se vorranno scrivere in mantle dovranno fare un'ulteriore versione del gioco con tale set di Api.
Non c'è bisogno che sia Microsoft a supportare Mantle perchè è AMD che ha reso Mantle compatibile con le DirectX HLSL . Ogni console ha le sue api di basso livello che sono fatte appositamente per GCN , Mantle è un altra api di basso livello che serve a portare gran parte del lavoro svolto sulle console sulle altre piattaforme con GCN. La nuova versione del gioco dev' essere fatta ma gran parte del lavoro non deve essere rifatto... ed è questo che lo rende conveniente e fattibile per gli sviluppatori , altrimenti i costi e i tempi di sviluppo non lo consentirebbero
edit: cMantle prende di mira gli engine che vengono usati nei giochi, sono quelli che devono essere fatti in versione mantle e il resto viene poi di conseguenza
ertruffa
15-10-2013, 10:41
93°C :fagiano:
Inviato dal mio Nexus 4 now Free ('http://tapatalk.com/m?id=10')
si visto, magari pero' con la vga al 100% e la ventola in auto, sicuramnete non e' buono come inizio....vediamo
appleroof
15-10-2013, 10:47
Non c'è bisogno che sia Microsoft a supportare Mantle perchè è AMD che ha reso Mantle compatibile con le DirectX HLSL . Ogni console ha le sue api di basso livello che sono fatte appositamente per GCN , Mantle è un altra api di basso livello che serve a portare gran parte del lavoro svolto sulle console sulle altre piattaforme con GCN. La nuova versione del gioco dev' essere fatta ma gran parte del lavoro non deve essere rifatto... ed è questo che lo rende conveniente e fattibile per gli sviluppatori , altrimenti i costi e i tempi di sviluppo non lo consentirebbero
questo è un altro paio di maniche, ma oltre a confermare quanto dicevo (per il neretto) si perde gran parte della convenienza che ci sarebbe stata se le console (adesso sappiamo di certo xboxone e wii, su ps4 non ho ancora capito) avessero avuto come unico set mantle, come veniva speculato all'inizio quando mantle è stato annunciato, cosa che avrebbe ribaltato la prospettiva: lo sviluppatore programmava con mantle e dopo per pc faceva la versione dx (o ogl) con ulteriore aggravio.
Comunque queste parole non lasciano spazio ad interpretazioni: Other graphics APIs such as OpenGL and AMD’s Mantle are not available on Xbox One. Se vuoi scrivere per xboxone, devi scrivere in dx (mi spiace per le ogl in realtà).
Insomma, è evidente che la precisazione di Microsoft non è fatta a caso, che poi è anche naturale che Microsoft non guardi con favore Mantle, essendo la presenza di Windows in ambito desktop consumer legata per il 90% se non 99% allo strapotere delle directx in ambito pc gaming. (edit: a parte ipotizzo anche una certa pressione di Intel ed Nvidia in questo senso, che ovviamente non hanno alcun interesse in mantle...)
bronzodiriace
15-10-2013, 10:49
questo è un altro paio di maniche, ma oltre a confermare quanto dicevo (per il neretto) si perde gran parte della convenienza che ci sarebbe stata se le console (adesso sappiamo di certo xboxone e wii, su ps4 non ho ancora capito) avessero avuto come unico set mantle, come veniva speculato all'inizio quando mantle è stato annunciato, cosa che avrebbe ribaltato la prospettiva: lo sviluppatore programmava con mantle e dopo per pc faceva la versione dx (o ogl) con ulteriore aggravio.
Comunque queste parole non lasciano spazio ad interpretazioni: Other graphics APIs such as OpenGL and AMD’s Mantle are not available on Xbox One. Se vuoi scrivere per xboxone, devi scrivere in dx (mi spiace per le ogl in realtà).
Insomma, è evidente che la precisazione di Microsoft non è fatta a caso, che poi è anche naturale che Microsoft non guardi con favore Mantle, essendo la presenza di Windows in ambito desktop consumer legata per il 90% se non 99% allo strapotere delle directx in ambito pc gaming.
Io credo che il modo di sviluppare su console non sia altro che Mantle.
Nel senso che AMD vuole portare il concetto di sviluppo in ambito console tramite le API Mantle.
Free Gordon
15-10-2013, 10:50
per capa verde non saprei...
ma io ero rimasto che era basata su rv770, ma sul livello di una 4670, con 320 stream processor.
Sì ;)
http://en.wikipedia.org/wiki/Latte_(graphics_chip)
Io credo che il modo di sviluppare su console non sia altro che Mantle.
Nel senso che AMD vuole portare il concetto di sviluppo in ambito console tramite le API Mantle.
quoto!!!
appleroof
15-10-2013, 10:53
Io credo che il modo di sviluppare su console non sia altro che Mantle.
Nel senso che AMD vuole portare il concetto di sviluppo in ambito console tramite le API Mantle.
raga, scusate se ribadisco: Other graphics APIs such as OpenGL and AMD’s Mantle are not available on Xbox One
quindi non si tratta di "io credo", ma di leggere le parole testuali...poi insisto, mantle è una iattura per i consumatori pc, piuttosto sarebbe il caso che potenziassero e migliorassero le directx o le ogl (ma MS le ha fatte fuori anni fà ormai, la speranza è in SteamOs in qualche modo..), e attenzione, sarebbe lo stesso se fosse nvidia a proporre una cosa del genere, spero si capisca che il mio parere prescinde dal fanboismo (ed oggettivamente infatti credo che chiunque non sia fanboy dovrebbe riconoscere che un set di api proprietario non è un bene per la concorrenza e quindi per il consumatore finale che non avrebbe più scelta hw nel caso si imponessero come standard).
LurenZ87
15-10-2013, 10:56
si visto, magari pero' con la vga al 100% e la ventola in auto, sicuramnete non e' buono come inizio....vediamo
Può essere una cosa cattiva per un lato e buona dall'altro...
Mi spiego, ti ricordi la GTX 480??? Scaldava a bestia, però se raffreddata bene saliva e pure parecchio... Chissà, magari Hawaii XT ha delle potenzialità ma è limitata dal dissipatore reference...
Inviato dal mio Nexus 4 now Free ('http://tapatalk.com/m?id=10')
Foglia Morta
15-10-2013, 10:58
questo è un altro paio di maniche, ma oltre a confermare quanto dicevo (per il neretto) si perde gran parte della convenienza che ci sarebbe stata se le console (adesso sappiamo di certo xboxone e wii, su ps4 non ho ancora capito) avessero avuto come unico set mantle, come veniva speculato all'inizio quando mantle è stato annunciato, cosa che avrebbe ribaltato la prospettiva: lo sviluppatore programmava con mantle e dopo per pc faceva la versione dx (o ogl) con ulteriore aggravio.
Comunque queste parole non lasciano spazio ad interpretazioni: Other graphics APIs such as OpenGL and AMD’s Mantle are not available on Xbox One. Se vuoi scrivere per xboxone, devi scrivere in dx (mi spiace per le ogl in realtà).
Insomma, è evidente che la precisazione di Microsoft non è fatta a caso, che poi è anche naturale che Microsoft non guardi con favore Mantle, essendo la presenza di Windows in ambito desktop consumer legata per il 90% se non 99% allo strapotere delle directx in ambito pc gaming. (edit: a parte ipotizzo anche una certa pressione di Intel ed Nvidia in questo senso, che ovviamente non hanno alcun interesse in mantle...)
non è un altro paio di maniche perchè chiarisce il motivo per cui esiste mantle , sanno benissimo gli sviluppatori con un ulteriore api porta ulteriore di lavoro e sono stati loro a volerlo perchè i vantaggi che ne derivano superano gli svantaggi , quello che ho quotato prima dice tutto: “What Mantle creates for the PC is a development environment that’s *similar* to the consoles, which already offer low-level APIs, close-to-metal programming, easier development and more (vs. the complicated PC environment). By creating a more console-like developer environment, Mantle: improves time to market; reduces development costs; and allows for considerably more efficient rendering, improving performance for gamers. The console connection is made because next-gen uses Radeon, so much of the programming they’re doing for the consoles are already well-suited to a modern Radeon architecture on the desktop; that continuum is what allows Mantle to exist.”
Mantle ricrea un' ambiente di sviluppo simile a quello delle console, non dev' essere lo stesso. Questo fa si che gran parte del lavoro svolto su una piattaforma sia facilmente portabile su un' altra piattaforma grazie a Mantle
appleroof
15-10-2013, 10:59
Può essere una cosa cattiva per un lato e buona dall'altro...
Mi spiego, ti ricordi la GTX 480??? Scaldava a bestia, però se raffreddata bene saliva e pure parecchio... Chissà, magari Hawaii XT ha delle potenzialità ma è limitata dal dissipatore reference...
Inviato dal mio Nexus 4 now Free ('http://tapatalk.com/m?id=10')
se gk110 che è una mattonella da più di 550mm* non è una gpu particolarmente calda (non quanto gf100 almeno, in proporzione), ci sono buone speranze che Hawaii si possa comportare bene sotto questo punto di vista...l'unico dubbio potrebbe essere che, visto che mi pare di aver letto che per farlo così relativamente piccolo abbiano usato transistor ad alta densità (da confermare eh?) questa cosa possa in qualche modo influire appunto sul calore prodotto, boh...
Free Gordon
15-10-2013, 11:05
quindi non si tratta di "io credo", ma di leggere le parole testuali...poi insisto, mantle è una iattura per i consumatori pc,.
Direi che è MOOOOOLTO prematuro dirlo ora.... :D
appleroof
15-10-2013, 11:05
non è un altro paio di maniche perchè chiarisce il motivo per cui esiste mantle , sanno benissimo gli sviluppatori con un ulteriore api porta ulteriore di lavoro e sono stati loro a volerlo perchè i vantaggi che ne derivano superano gli svantaggi , quello che ho quotato prima dice tutto: “What Mantle creates for the PC is a development environment that’s *similar* to the consoles, which already offer low-level APIs, close-to-metal programming, easier development and more (vs. the complicated PC environment). By creating a more console-like developer environment, Mantle: improves time to market; reduces development costs; and allows for considerably more efficient rendering, improving performance for gamers. The console connection is made because next-gen uses Radeon, so much of the programming they’re doing for the consoles are already well-suited to a modern Radeon architecture on the desktop; that continuum is what allows Mantle to exist.”
Mantle ricrea un' ambiente di sviluppo simile a quello delle console, non dev' essere lo stesso. Questo fa si che gran parte del lavoro svolto su una piattaforma sia facilmente portabile su un' altra piattaforma grazie a Mantle
mah, diciamo che non mi convinci affatto, e per i motivi esposti sono contento della precisazione Microsoft che per quanto mi riguarda ripeto capovolge la prospettiva che si aveva di mantle fino al post del blog di MS
per il resto rimango alla finestra per vedere gli sviluppi di questa cosa, di sicuro nelle prossime settimane si avranno ulteriori dettagli etc.
che poi per inciso ad un certo punto visto che amo giocare al pc potrei pure fregarmene dei principi e prendere una vga Amd con il valore aggiunto di Mantle, in futuro, ma ripeto non sarebbe comunque una buona cosa se ste api si diffondessero troppo o addirittura si imponessero come standard.
Free Gordon
15-10-2013, 11:08
Questo fa si che gran parte del lavoro svolto su una piattaforma sia facilmente portabile su un' altra piattaforma grazie a Mantle
Sinceramente a questo credo moooolto poco. :D
Se Mantle è scritto per GCN1.x e 2.x, non lo è per Kepler o per Maxwell. ;)
appleroof
15-10-2013, 11:09
Sinceramente a questo credo moooolto poco. :D
Se Mantle è scritto per GCN1.x e 2.x, non lo è per Kepler o per Maxwell. ;)
piattaforma lui intendeva da pc con hw amd a console e viceversa (cosa che per xboxone e wii appunto non è, per ps4 ancora non è chiaro).
Ha un Apu con sottosistema video basato su GCN. La medesima cosa per ps4.
Discorso differente per WiiU che invece monta una cpu multicore IBM oooe ed una gpu AMD basata su 5800.
Ma qual'è la fonte?
AMD parla specificamente di GCN come di una tecnologia implementata sulle sue GPU serie 7000 e serie R stop. Un APU rimane sempre una cpu con vga integrata (equivalente a qualcosa) ma non significa mica si porti appresso tutte le feature. E GCN ha a che vedere con l'architettura hardware e dell'utilizzo dell'hardware (shaders, consumi) delle gpu, con il numero di transistor integrabili a parità di processo produttivo. (edit: son comunque SoC quindi hanno comunque l'architettura gcn, dimenticate le righe sopra).
Comunque Mantle non è una feature rilevante su console, le console hanno già api ottimizzate, PS4 su OpenGL e kernel freebsd, la ONE ha una diversa versione di directx (ottimizzata per ambiente gaming) e un kernel più snello di win, il pc soffre sia di api non ottimizzate (directx) che di un kernel vecchio e poco funzionale (quello di windows).
Il punto è estremamente semplice: api di basso livello = codice più snello e più efficiente, più difficile da programmare. Api di alto livello = codice meno efficiente, per fare la stessa cosa (a volte) serve far fare alla macchina calcoli più complessi, ma più facile da programmare.
Fondamentalmente il kernel di windows limita il pc gaming facendo fare passaggi inutili ai programmi/giochi (del tipo informazione x, vai qui, poi memorizzati qui, poi vieni letta da y) mentre le console hanno kernel apposta fatti per un ambito di giochi per cui ad esempio le memorie vengono lette più efficacemente senza inutili giri gpu-cpu-gpu. Le api sono un discorso leggermente diverso e ha a che fare con come vengono scritti i giochi, non con l'efficienza della macchina, ma anche qui ci sono implicazioni di programming e interazione hardware. Fondamentalmente il funzionamento del kernel ha a che vedere con l'architettura di come funziona la macchina, le api hanno a che vedere con come la macchina viene guidata.
Son proprio curioso di cosa significherà mantle per il pc gaming e i suoi reali benefici, così come son curioso dei benefici futuri di Linux.
Comunque gira voce che entro 24 ore pioveranno recensioni. Da quel che risulta AMD non ha fatto annunci ufficiali sul prolungamento NDA da questo:
http://videocardz.com/images/2013/10/R9-290-launch-date.png
per cui oggi inizieranno a fioccare review secondo me a destra e manca.
Altro grafichetto:
http://cdn3.wccftech.com/wp-content/uploads/2013/09/AMD-Hawaii-R9-290X-GPU-Performance.jpg
Notare come in Firestrike titan fosse davanti ma poi nei giochi reali 290x è quasi sempre davanti.
In particolare 90 fps su BF 3 con tutto maxato e senza AA a 1600p (11% più grande di 1440p) sono veramente impressionanti.
maxmix65
15-10-2013, 11:57
Può essere una cosa cattiva per un lato e buona dall'altro...
Mi spiego, ti ricordi la GTX 480??? Scaldava a bestia, però se raffreddata bene saliva e pure parecchio... Chissà, magari Hawaii XT ha delle potenzialità ma è limitata dal dissipatore reference...
Inviato dal mio Nexus 4 now Free ('http://tapatalk.com/m?id=10')
Queste schede avranno una grossa potenzialita' in overclock con dissi custom o liquido..
Fidati ;)
Per le temp per le schede reference come tu ben sai non dipende solo dal dissipatore stock ..
mircocatta
15-10-2013, 12:01
dalla tabella sembra andare più di una titan consumando meno...ottimo direi!
comunque per mantle incomincia a complicarsi la storia, non ci resta che aspettare gli eventi futuri senza costruirsi castelli di sabbia
se poi l'intenzione è quella di fare un'api che consentedi fare facili conversioni in directx o api di altre piattaforme non vedo perchè non debbano implementarlo.. farebbero facili conversioni anche per pc in directx così da soddifare anche chi possiede nvidia, semplicemente su pc amd andranno di più perchè anzichè utilizzare directx probabilmente si potrà sfruttare direttamente l'api mantle
i waterblock ek per la 290x sono già in lista,ovviamente non disponibili,non male sta cosa
Free Gordon
15-10-2013, 12:15
Ma qual'è la fonte?
Si sa da una vita.. ;)
Le due console sono entrambe GCN, una con 12CU attivi, l'altra con 18.
appleroof
15-10-2013, 12:43
ancora più chiaro, dalla voce diretta di Amd.
http://i.imgur.com/eH5FD2j.png (http://imgur.com/eH5FD2j)
Ale55andr0
15-10-2013, 12:49
ma non cambia di una virgola il discorso, è per PC (appunto) che gli effetti positivi o negativi si vedranno, mica sulle console, in sostanza quel che deve premere a noi è il vedere se chi convertirà i giochi console decidera o meno per il supporto, posto che a priori la base di entrambe le console è architettura AMD è questo non è certo uno svantaggio (per i rossi intendo)
Comunque gira voce che entro 24 ore pioveranno recensioni. Da quel che risulta AMD non ha fatto annunci ufficiali sul prolungamento NDA da questo:
http://videocardz.com/images/2013/10/R9-290-launch-date.png
per cui oggi inizieranno a fioccare review secondo me a destra e manca.
proprio non ci credete che oggi non è il giorno di scadenza dell'embargo, guarda ti faccio copia/incolla dell'email che AMD stessa ha mandato a TUTTI coloro che hanno firmato l'NDA:
Carissimo XYZ,
ti scrivo per segnalarti una precisazione relativa all’embargo sulle nuove AMD Radeon R9 290 e R9 290X – chiedendoti la cortesia di rispondere a questa mail confermandomi di averla ricevuta e letta e contattandomi nel caso tu abbia dubbi al riguardo.
Vorrei quindi precisare che, diversamente da quanto erroneamente suggerito da alcuni articoli disponibili su Internet, non c’è al momento alcuna indicazione ufficiale relativa alla data di rilascio o di pubblicazione di ulteriori informazioni relative alle AMD Radeon R9 290 e R9 290X.
Tutti i dettagli relativi alle AMD Radeon R9 290 e R9 290X (ad eccezione di quelli comunicati nel corso della webcast di presentazione) sono quindi in questo momento da considerare confidenziali in forza dell’NDA firmato precedentemente.
Ecco comunque la comunicazione ufficiale da parte di AMD:
//
290, 290X architectural discussions (including the new PowerTune feature), as well as the new XDMA CrossFire feature should only be discussed in the articles that go live with 290 and 290X, NDA lift to be determined.
We will be communicating the NDA lift date for Radeon R9 290 series soon.
appleroof
15-10-2013, 12:51
wafa posso chiederti quando ti è arrivata questa mail?
Ale55andr0
15-10-2013, 12:51
....comunque tornando ai bench non sono disposto a credere a nulla in bene o in male fino a quando non vedòo le review ufficiali, e per giunta di diverse testate :O
ertruffa
15-10-2013, 12:53
proprio non ci credete che oggi non è il giorno di scadenza dell'embargo, guarda ti faccio copia/incolla dell'email che AMD stessa ha mandato a TUTTI coloro che hanno firmato l'NDA:
Carissimo XYZ,
ti scrivo per segnalarti una precisazione relativa all’embargo sulle nuove AMD Radeon R9 290 e R9 290X – chiedendoti la cortesia di rispondere a questa mail confermandomi di averla ricevuta e letta e contattandomi nel caso tu abbia dubbi al riguardo.
Vorrei quindi precisare che, diversamente da quanto erroneamente suggerito da alcuni articoli disponibili su Internet, non c’è al momento alcuna indicazione ufficiale relativa alla data di rilascio o di pubblicazione di ulteriori informazioni relative alle AMD Radeon R9 290 e R9 290X.
Tutti i dettagli relativi alle AMD Radeon R9 290 e R9 290X (ad eccezione di quelli comunicati nel corso della webcast di presentazione) sono quindi in questo momento da considerare confidenziali in forza dell’NDA firmato precedentemente.
Ecco comunque la comunicazione ufficiale da parte di AMD:
//
290, 290X architectural discussions (including the new PowerTune feature), as well as the new XDMA CrossFire feature should only be discussed in the articles that go live with 290 and 290X, NDA lift to be determined.
We will be communicating the NDA lift date for Radeon R9 290 series soon.
si io ti credevo gia' prima, ora come data danno il 18, e anche vero che tu hai detto di non avre le vga(ti credo), quando tante altre testate che devono fare le review le vga gia' le hanno.infatti cominciano a girare un po' di test e foto della vga smontata, io dico che manca poco.
wafa posso chiederti quando ti è arrivata questa mail?
il 9 ottobre :)
appleroof
15-10-2013, 12:55
il 9 ottobre :)
grazie ;) .....quindi tra qualche giorno poteva essere pure il 18 :sofico:
si io ti credevo gia' prima, ora come data danno il 18, e anche vero che tu hai detto di non avre le vga(ti credo), quando tante altre testate che devono fare le review le vga gia' le hanno.infatti cominciano a girare un po' di test e foto della vga smontata, io dico che manca poco.
le mie vga sono in viaggio, prima si sa che le mandano alle testate più grandi come guru3d, anandtech, techpowerup & co.
il 18 non penso sia il giorno buono comunque :(
ertruffa
15-10-2013, 12:59
vabbe' ormai provo a resistere.....se puoi facci sapere se amd ti da sta ca... di data.:D
maurilio968
15-10-2013, 12:59
penso che su mantle si faccia volutamente confusione (forse per paura di ritrovarsi con una scheda top pagata 600 euro che sui giochi del 2014 va magari la metà di una scheda della concorrenza da 300 euro).
Premetto che una "svolta mantle" NON piace nemmeno a me però nella realtà è molto probabile: non posso sapere se mantle verrà adotatto in massa dagli sviluppatori però un paio di punti fermi che me lo fanno sospettare ci sono.
Fino ad ora lo sviluppo dei videogames sostiene un costo aggiuntivo dovuto al porting tra diverse piattaforme. Se però le console avranno tutte (quelle che contano cioè ps4 ed xbox one) lo stesso hardware video (AMD, GCN) e i pc equipaggiati con video amd GCN condividono lo stesso hardware (tutti quelli con schede dalla serie 7*** in poi) per una casa che sviluppa videogame è disponibile ora un UNICO ambiente di sviluppo MANTLE con api di basso livello molto più performante delle directx.
Ergo, faccio il gioco UNA volta e mi gira su console e pc senza sbattimenti per i porting. Enorme risparmio economico per lo sviluppatore.
Secondo vantaggio: siccome le api mantle sono molto più efficienti (a quanto dicono, poi è da vedere sul campo) permettono di spremere più a lungo l'harware che sulle nuove console dovrà durare anni.(lo abbiamo visto su ps3 dovre gli ultimi giochi usciti hanno una grafica nettamente migliore sullo stesso hardware di anni fa).
Perciò siccome installando i driver delle schede amd si potranno anche installare eventuali api mantle da mantenere parallelamente alle directx (per il resto dei software win non game) non vedo perchè gli sviluppatori dovrebbero sbattersi per fare anche delle versioni directx dei loro giochi.
Perchè sul mercato ci sono grosse fette di pc di videogiocatori con hardware nvidia? Per gli sviluppatori è più un problema di nvidia che loro e solo all'inzio (per il parco già installato). Per il futuro diranno compra una amd che problema c'è ? Quidni magari all'inizio (in un primo periodo di coesistenza mantle directx per i giochi) faranno anche delle versioni directx dello stesso gioco. Oppure no: in questo secondo caso (emulazione software da parte nvidia ?) probabilmente l'utente dovrà spendere il doppio (se compra una nvidia) per avere le stesse prestazioni. Dubito che una emulazione software di mantle su nvidia sarebbe più efficiente di un poting in directx.
Magari alcuni sviluppatori faranno il porting in directx ed altri no a seconda dei costi in più da sostenere che però con mantle su pc sarebbero secondo me sempre meno giustificabili.
Infine dubito che nvidia possa ribattere con successo con delle proprie api di basso livello perchè non ha hardware su console.
Ed è proprio questo il punto: i videogames sono guidati dal mercato console ed nvidia ne è fuori.
Questa situazione non mi piace per niente ed il rischio di ritrovarsi a breve con un monopolio amd nel comparto video è serio.
ancora più chiaro, dalla voce diretta di Amd.
http://i.imgur.com/eH5FD2j.png (http://imgur.com/eH5FD2j)
Anche perchè non avrebbe il minimo senso che ci fosse per console, le console hanno già un api ottimizzata di basso livello, era il pc quello che mancava di ottimizzazione. Son proprio curioso quando sarà patchato bf4 con mantle quanto saranno significative queste differenze prestazionali..
penso che su mantle si faccia volutamente confusione (forse per paura di ritrovarsi con una scheda top pagata 600 euro che sui giochi del 2014 va magari la metà di una scheda della concorrenza da 300 euro).
Premetto che una "svolta mantle" NON piace nemmeno a me però nella realtà è molto probabile: non posso sapere se mantle verrà adotatto in massa dagli sviluppatori però un paio di punti fermi che me lo fanno sospettare ci sono.
Fino ad ora lo sviluppo dei videogames sostiene un costo aggiuntivo dovuto al porting tra diverse piattaforme. Se però le console avranno tutte (quelle che contano cioè ps4 ed xbox one) lo stesso hardware video (AMD, GCN) e i pc equipaggiati con video amd GCN condividono lo stesso hardware (tutti quelli con schede dalla serie 7*** in poi) per una casa che sviluppa videogame è disponibile ora un UNICO ambiente di sviluppo MANTLE con api di basso livello molto più performante delle directx.
Ergo, faccio il gioco UNA volta e mi gira su console e pc senza sbattimenti per i porting. Enorme risparmio economico per lo sviluppatore.
Secondo vantaggio: siccome le api mantle sono molto più efficienti (a quanto dicono, poi è da vedere sul campo) permettono di spremere più a lungo l'harware che sulle nuove console dovrà durare anni.(lo abbiamo visto su ps3 dovre gli ultimi giochi usciti hanno una grafica nettamente migliore sullo stesso hardware di anni fa).
Perciò siccome installando i driver delle schede amd si potranno anche installare eventuali api mantle da mantenere parallelamente alle directx (per il resto dei software win non game) non vedo perchè gli sviluppatori dovrebbero sbattersi per fare anche delle versioni directx dei loro giochi.
Perchè sul mercato ci sono grosse fette di pc di videogiocatori con hardware nvidia? Per gli sviluppatori è più un problema di nvidia che loro. Magari all'inizio faranno anche delle versioni directx dello stesso gioco che richiderà all'utente di spendere il doppio (se compra una nvidia) per andare come le versioni mantle. Dubito che una emulazione software di mantle su nvidia sarebbe più efficiente di un poting in directx.
Magari alcuni sviluppatori faranno il porting in directx ed altri no a seconda dei costi in più da sostenere che però con mantle su pc sarebbero secondo me sempre meno giustificabili.
Infine dubito che nvidia possa ribattere con successo con delle proprie api di basso livello perchè non ha hardware su console.
Si ma tutto sto discorso ha dei problemi.
Punto primo le console avranno lo stesso hardware ma gli ambienti di sviluppo e le api sono molto diverse visto che PS4 ha api basate su OpenGL e Xbox One le ha basate su Directx, anche i Kernel delle due console sono differenti.
Punto secondo, Mantle non sarà disponibile su console visto che le console vengono progettate già con un kernel e api ottimizzate per l'hardware stesso (a differenza delle console dove ci sono praticamente solo le directx e il kernel windows). Il punto delle api introdotte da amd è quello di dare un alternativa a directx, un alternativa più hardware efficiente. Questo perchè l'ambiente di programmazione directx è facile da utilizzare ma poco efficiente a livello di prestazioni.
Punto terzo, voglio proprio vedere le differenze pratiche di mantle, perchè secondo me se ci sarà un incremento risibile di qualche punto % non è nulla che microsoft non potrebbe riprendere rilasciando una nuova versione di directx con librerie più efficienti (ora non ne ha bisogno son 15 anni che è seduta sugli allori).
Tra l'altro AMD ha già specificato che le API mantle avranno delle feature per convertire automaticamente i giochi in compatibilità directx (per chi volesse programmare il tutto su mantle e poi convertire).
Foglia Morta
15-10-2013, 13:08
ancora più chiaro, dalla voce diretta di Amd.
http://i.imgur.com/eH5FD2j.png (http://imgur.com/eH5FD2j)
quel messaggio su twitter dice la stessa cosa che ti ho ho già fatto leggere due volte :
“What Mantle creates for the PC is a development environment that’s *similar* to the consoles, which already offer low-level APIs, close-to-metal programming, easier development and more (vs. the complicated PC environment). By creating a more console-like developer environment, Mantle: improves time to market; reduces development costs; and allows for considerably more efficient rendering, improving performance for gamers. The console connection is made because next-gen uses Radeon, so much of the programming they’re doing for the consoles are already well-suited to a modern Radeon architecture on the desktop; that continuum is what allows Mantle to exist.”
ho fatto copia incolla di parole di AMD. se poi vuoi stravolgerne il significato...
Immagino in effetti che questa frase sia difficile da comprendere:
What Mantle creates for the PC is a development environment that’s *similar* to the consoles, which already offer low-level APIs
Mantle dovrebbe ottimizzare l'utilizzo dell'hardware da parte dei software che ne faranno uso (gioco) dando codice più macchina efficiente.
Le console hanno già le loro api molto efficienti (sicuramente più di Mantle) visto che sono state già scritte per sfruttare al massimo l'hardware a cui si riferiscono.
In questo caso siamo sempre noi del mondo pc a inseguire le console, lato ottimizzazione, le console non ci fanno nulla, siamo noi che rincorriamo un surrogato (ma poi bisogna vedere la realtà dei fatti come sarà e quale sarà la risposta directx).
maurilio968
15-10-2013, 13:12
ancora più chiaro, dalla voce diretta di Amd.
http://i.imgur.com/eH5FD2j.png (http://imgur.com/eH5FD2j)
questa è una conferma, non una smentita.
le api di basso livello AMD su console (tutte quelle che contano) ci sono già.
mantle fa usare le stesse api su pc EVITANDO allo sviluppatore di dover passare alle directx (con relativi costi economici).
questa è una conferma, non una smentita.
le api di basso livello AMD su console (tutte quelle che contano) ci sono già.
mantle fa usare le stesse api su pc EVITANDO allo sviluppatore di dover passare alle directx (con relativi costi economici).
Non è un fatto di costi. Mica si pagano le royalty per sviluppare in directx su pc.
appleroof
15-10-2013, 13:13
cut
Ergo, faccio il gioco UNA volta e mi gira su console e pc senza sbattimenti per i porting. Enorme risparmio economico per lo sviluppatore.
cut
se la xboxone supporta directX, e se le vga attuali sono directX (le nuove Amd pure 11.2), il risparmio è proprio nel continuare a sviluppare in directX, capirai, quasi scompare il concetto di porting. Devi avere invece persone dedicate a sviluppare in Mantle e farlo solo per le vga discrete Amd. Anche perchè attualmente nvidia possiede la fetta maggiore del mercato vga discrete, unite alle unità di xboxone che saranno vendute (e marginalmente di wii, non dimentichiamolo), gli equilibri di convenienza per gli sviluppatori non sono cos' a favore di mantle se ci pensi.
cut. Son proprio curioso quando sarà patchato bf4 con mantle quanto saranno significative queste differenze prestazionali..
bè su questo non ho dubbi che il boost sarà evidente, almeno così dovrebbe essere visto che parliamo di Api dedicate a sfruttare meglio l'hw amd, se così non fosse o se il boost fosse risibile, penso che sarebbe il peggior fail della storia videoludica, e non credo si sarebbero esposti tanto se non fossero sicuri del loro...
cmq ripeto vediamo lo sviluppo della cosa, sopratutto aspetto maggiori dettagli su mantle e sui vantaggi che porterebbero rispetto a dx (e magari che non vengano da Amd o da gente che con loro ha rapporti economici, ma possibilmente da sviluppatori terzi indipendenti)
questa è una conferma, non una smentita.
le api di basso livello AMD su console (tutte quelle che contano) ci sono già.
mantle fa usare le stesse api su pc EVITANDO allo sviluppatore di dover passare alle directx (con relativi costi economici).
non lo so , oggi tutti dicono che è una conferma, fino a ieri invece molti godevano del fatto che Amd avesse "imposto" Mantle sulle console e quindi poi su pc :boh:
Poi forse non hai letto la notizia che Microsoft ha affermato che xboxone supporta dx11.2 (un superset delle stesse), non mantle, quindi le api di basso livello di Amd non ci sono affatto.
francisco9751
15-10-2013, 13:15
Speriamo, magari non ci saranno più esclusive.. E non avrò la tentazione di prendere le console per un paio di giochi
Tapatalked from Nexus 4
maurilio968
15-10-2013, 13:17
Si ma tutto sto discorso ha dei problemi.
Tra l'altro AMD ha già specificato che le API mantle avranno delle feature per convertire automaticamente i giochi in compatibilità directx (per chi volesse programmare il tutto su mantle e poi convertire).
directx NON sono di basso livello.
se con api mantle già gira su pc con scheda amd perchè dovrei fare un porting meno efficiente in directx?
se anche il gioco esiste in versione mantle e directx visto che la prima è molto più efficiente della seconda come fa nvidia su directx a restare concorrenziale a amd su mantle ?
E' tutto in quel SE. Va visto sul campo.
Ma SE mantle è davvero così efficiente non vedo perchè non debba imporsi e non vedo attualmente come nvidia possa rispondere.
maurilio968
15-10-2013, 13:18
Non è un fatto di costi. Mica si pagano le royalty per sviluppare in directx su pc.
il tempo speso a convertire i giochi in varie piattaforme è una fetta consistente degli investimenti attuali inchi produce videogames. Non sono royalties, è tempo uomo-macchina che si paga.
Alodesign
15-10-2013, 13:25
Oggi mi è arrivato via email un bel volantino di un sito di vendita online, dove davano le 280x in spedizione il 18 se compravo oggi.
La cosa che più mi ha sorpreso era il prezzo di lancio, che (anche se ammetto non ho confrontato bene con le 7970) era di qualche decina di € inferiore.
Possibile che queste 280x che vanno quasi come una 7970 costino così meno?
O ci sarà poi un calo netto delle 7970?
il tempo speso a convertire i giochi in varie piattaforme è una fetta consistente degli investimenti attuali inchi produce videogames. Non sono royalties, è tempo uomo-macchina che si paga.
Dovrebbe realizzare dei motori a codice unico capace di generare giochi multi piattaforma (il cry non è così?)
Free Gordon
15-10-2013, 13:29
dalla tabella sembra andare più di una titan consumando meno...ottimo direi!
Dubito molto che consumi meno... :D
bè su questo non ho dubbi che il boost sarà evidente, almeno così dovrebbe essere visto che parliamo di Api dedicate a sfruttare meglio l'hw amd, se così non fosse o se il boost fosse risibile, penso che sarebbe il peggior fail della storia videoludica, e non credo si sarebbero esposti tanto se non fossero sicuri del loro...
Io si che ho i miei dubbi, cioè ci credo in qualche miglioria (magari creata ad hoc insieme a dice siccome li lega un contratto), ma il kernel rimane sempre quello di windows. Ergo non è efficiente per il gaming e avremo le classiche limitazioni di informazioni che rimbalzano fra cache, cpu, ram, vram ecc.
Secondo me qualcosa dovrà andare un pò meglio, ma non ci si può aspettare il boost prestazionale dato da architetture chiuse con kernel ed api ad hoc per quella singola macchina.
Poi forse non hai letto la notizia che Microsoft ha affermato che xboxone supporta dx11.2 (un superset delle stesse), non mantle, quindi le api di basso livello di Amd non ci sono affatto.
Stai facendo confusione attenzione. Sia xbox one che ps4 hanno le loro api e kernel sviluppate da sony e microsoft. In queste console ci è finito hardware amd (soprattutto perchè nvidia se n'è tirata fuori). E' il pc che ha solo un api (directx) ferma da quasi 5 anni, che è sempre stata scarsamente ottimizzata. Ora AMD ha detto "basta, siamo stufi della nulla facenza di Microsoft che si adagia sugli allori anzichè lavorare sul migliorare l'efficienza del proprio software, quindi proponiamo un alternativa a directx per pc". Ma quest'alternativa di certo non serve alle console che ci nascono con le loro api a puntino per sfruttare l'hardware al massimo.
Cioè la lettura di questa frase non mi pare complicata (e poi abbandono l'argomento tanto se uno non capisce non capisce):
What Mantle creates for the PC is a development environment that’s *similar* to the consoles, which already offer low-level APIs
Mantle è un alternativa alle api directx su pc, non serve a una beneamata mazza alle console che hanno le loro api ad hoc sicuramente più efficienti di Mantle. Siamo noi che siamo fermi con le directx che fanno pena da 5 anni, che giochi che dovrebbero girare a un gozziliardo di fps faticano ad andare a risoluzioni/dettagli minori quando su console lo stesso gioco gira fluidamente (non so prendiamo un BF3 su una 7800gtx e un core duo e paragoniamolo con BF 3 su una 360 che ha lo stesso hardware). E ugualmente dubito che le console nuove che faranno girare una miriade di giochi in full hd e 60 fps, altri a 1080p scalato e magari 30 fps girerebbero ugualmente su Jaguar (risposta amd ad atom) e delle 7790 integrate. E' il pc che ha bisogno di mantle, non le console.
directx NON sono di basso livello.
se con api mantle già gira su pc con scheda amd perchè dovrei fare un porting meno efficiente in directx?
Console? Schede nvidia? Serie 6000, 5000 amd e tutte le versioni mobile che non sono basate su gcn?
mircocatta
15-10-2013, 13:33
Il punto delle api introdotte da amd è quello di dare un alternativa a directx, un alternativa più hardware efficiente. Questo perchè l'ambiente di programmazione directx è facile da utilizzare ma poco efficiente a livello di prestazioni.
Se fosse semplicemente questo mantle sarebbe morto ancor prima di entrare in campo
se l'unica motivazione per adottarlo fosse "più performance con schede amd" non fregherebbe a nessuna software house utilizzarle, anzi al contrario preferirebbero continuare a sviluppare su directx/opengl visto che avrebbe un utenza maggiore a cui vendere il proprio software (amd+nvidia)
mantle, per avere un senso, deve essere per forza qualcosa di più "ampio", e non credo che amd si metta a sviluppare e pubblicizzare qualcosa di così importante se poi non avrà successo
Se fosse semplicemente questo mantle sarebbe morto ancor prima di entrare in campo
se l'unica motivazione per adottarlo fosse "più performance con schede amd" non fregherebbe a nessuna software house utilizzarle, anzi al contrario preferirebbero continuare a sviluppare su directx/opengl visto che avrebbe un utenza maggiore a cui vendere il proprio software (amd+nvidia)
mantle, per avere un senso, deve essere per forza qualcosa di più "ampio", e non credo che amd si metta a sviluppare e pubblicizzare qualcosa di così importante se poi non avrà successo
Infatti siamo noi che diamo fin troppo spazio a Mantle in questa discussione, un API proprietaria (al momento) di AMD che per ora viene supportata da UNO sviluppatore e per motivi commerciali che lo legano con AMD.
Tra l'altro il "semplicemente questo" a me non sembra così poco. C'è un enorme differenza fra le prestazioni effettive di una console in ambito giochi e un pc con lo stesso hardware e questa difficoltà deriva da api e kernel dedicati ed ottimizzati su console, non vorresti lo stesso su pc?
Cavolo ma sono l'unico che si ricorda solo 3-4 anni fa avere una 460 e giocare agli stessi dettagli/risoluzioni di gente con console 3 volte meno potenti? Cavolo io con una 550 ti Arkham City mi girava a dettagli medio-bassi con cali di fps bruschissimi nelle stanze dell'enigmista a 1600 e avendo una PS3 vi assicuro che a livello visivo la differenza non era così grande, anzi. E avevo una macchina immensamente superiore alle console.
Le API e il kernel non sono mica poco ed è l'ora di liberarsi di microsoft una volta per tutte.
Inoltre AMD e Nvidia si scambiano moltissimi brevetti fra di loro così come fanno amd e intel, non è che Nvidia è preclusa da mantle a prescindere. Rimango del parere che Mantle sarà forse più utile per farci vedere una nuova versione di directx decente e più efficiente che altro.
dav1deser
15-10-2013, 13:41
se gk110 che è una mattonella da più di 550mm* non è una gpu particolarmente calda (non quanto gf100 almeno, in proporzione), ci sono buone speranze che Hawaii si possa comportare bene sotto questo punto di vista...l'unico dubbio potrebbe essere che, visto che mi pare di aver letto che per farlo così relativamente piccolo abbiano usato transistor ad alta densità (da confermare eh?) questa cosa possa in qualche modo influire appunto sul calore prodotto, boh...
Non è solo questione di dimensioni, se ipotizziamo che gk110 e Hawaii consumino circa uguale è ovvio che Hawaii essendo più piccolo risulterà più caldo, proprio perchè il calore è distribuito su di un'area inferiore.
Foglia Morta
15-10-2013, 13:43
Stai facendo confusione attenzione. Sia xbox one che ps4 hanno le loro api e kernel sviluppate da sony e microsoft. In queste console ci è finito hardware amd (soprattutto perchè nvidia se n'è tirata fuori). E' il pc che ha solo un api (directx) ferma da quasi 5 anni, che è sempre stata scarsamente ottimizzata. Ora AMD ha detto "basta, siamo stufi della nulla facenza di Microsoft che si adagia sugli allori anzichè lavorare sul migliorare l'efficienza del proprio software, quindi proponiamo un alternativa a directx per pc". Ma quest'alternativa di certo non serve alle console che ci nascono con le loro api a puntino per sfruttare l'hardware al massimo
Han detto che se ne sono tirati fuori dopo che i produttori hanno preso la decisione... prima invece il CEO diceva così:
Q: Do you think there will be another round of consoles coming?
A: Oh, no question about it.
Q: And can you predict when it will be in terms of how many years from now?
A: We will build one of them, right. And the reason for that is because the world doesn’t have enough engineering talent for anybody to build three of them at one time. It takes the entire livelihood of a computer graphics company to build one of them. And every single time they build one, my life is in danger. You build it once every five or seven years, but you have to build it all in a very short time. That’s because they wait and wait and then they say, ‘Can I have it next week?’
Read more at http://venturebeat.com/2011/03/04/qa-nvidia-chief-explains-his-strategy-for-winning-in-mobile-computing/#kemdJGV7gIGbqo4j.99
prima ( marzo 2011 , appena prima che Microsoft decidesse di andare su AMD ) nVidia dice sicura al 100% che farà l' hardware per una delle 3 console , la perde e per magia sono stati loro a non volerla.
Gli sviluppatori Sony o MIcrosoft hanno detto che lavorare con Nvidia era antipatico, era poco supportiva, voleva farsi pagare per tutto, mentre amd mandava gli ingegneri a gratis a supportare lo sviluppo delle console.
Non credo che la voce "royalty xbox vendute" fosse così rilevante nelle casse nvidia o sicuramente ci avrebbe messo più impegno.
Foglia Morta
15-10-2013, 13:48
Gli sviluppatori Sony o MIcrosoft hanno detto che lavorare con Nvidia era antipatico, era poco supportiva, voleva farsi pagare per tutto, mentre amd mandava gli ingegneri a gratis a supportare lo sviluppo delle console.
Non credo che la voce "royalty xbox vendute" fosse così rilevante nelle casse nvidia o sicuramente ci avrebbe messo più impegno.
si vede che ti fai le domande sbagliate ;)
mircocatta
15-10-2013, 13:49
Infatti siamo noi che diamo fin troppo spazio a Mantle in questa discussione, un API proprietaria (al momento) di AMD che per ora viene supportata da UNO sviluppatore e per motivi commerciali che lo legano con AMD.
Tra l'altro il "semplicemente questo" a me non sembra così poco. C'è un enorme differenza fra le prestazioni effettive di una console in ambito giochi e un pc con lo stesso hardware e questa difficoltà deriva da api e kernel dedicati ed ottimizzati su console, non vorresti lo stesso su pc?
Cavolo ma sono l'unico che si ricorda solo 3-4 anni fa avere una 460 e giocare agli stessi dettagli/risoluzioni di gente con console 3 volte meno potenti? Cavolo io con una 550 ti Arkham City mi girava a dettagli medio-bassi con cali di fps bruschissimi nelle stanze dell'enigmista a 1600 e avendo una PS3 vi assicuro che a livello visivo la differenza non era così grande, anzi. E avevo una macchina immensamente superiore alle console.
Le API e il kernel non sono mica poco ed è l'ora di liberarsi di microsoft una volta per tutte.
Inoltre AMD e Nvidia si scambiano moltissimi brevetti fra di loro così come fanno amd e intel, non è che Nvidia è preclusa da mantle a prescindere. Rimango del parere che Mantle sarà forse più utile per farci vedere una nuova versione di directx decente e più efficiente che altro.
ah lo so bene, difatti spero vivamente che mantle prenda piede
Oggi mi è arrivato via email un bel volantino di un sito di vendita online, dove davano le 280x in spedizione il 18 se compravo oggi.
La cosa che più mi ha sorpreso era il prezzo di lancio, che (anche se ammetto non ho confrontato bene con le 7970) era di qualche decina di € inferiore.
Possibile che queste 280x che vanno quasi come una 7970 costino così meno?
O ci sarà poi un calo netto delle 7970?
Dal nostro fornitore aziendale le 280x si trovano al prezzo delle 7950 e, a quanto pare, dovrebbero abbassarsi ancora. D'altra parte, come già detto un po' ovunque, sono solo delle 7970 (anzi, più precisamente sono quasi una 7970GE) rimarchiate, ergo VGA che hanno 2 anni di vita (un'eternità, in ambito informatico, almeno un tempo) sul groppone. In pratica le hanno degradate a fascia media per fare un nuovo chip e lasciare spazio per le 290/290x (le nuove proposte di fascia alta).
appleroof
15-10-2013, 14:00
Speriamo, magari non ci saranno più esclusive.. cut
bè no magari, pure io lo vorrei (esempio vedi RDR, gli Uncharted, GOW 2 e 3, adesso gta5 anche se spero e credo sia un'esclusiva temporanea) ...ma quelle dipendono dai soldi che scuciono Ms e Sony ai publisher, non dalle api usate :(
appleroof
15-10-2013, 14:11
cut
Mantle è un alternativa alle api directx su pc, non serve a una beneamata mazza alle console che hanno le loro api ad hoc sicuramente più efficienti di Mantle. cut
diciamo che la confusione regna sovrana, sopratutto visto che stiamo dicendo la stessa cosa senza capirci :asd:
1) il punto è che molti, partendo dal fatto che nuove console hanno hw amd, dicevano che le console avrebbero usato mantle come api, da qui era ovvio prevederne una diffusione enorme e veloce pure su pc (se programmi in mantle per xbox1 e ps4, contemporaneamente hai le versione pc).
2) Il tutto oggi è stato smentito almeno per quanto riguarda MS (che è ovvio usi Api proprietarie, ma ha detto che consisotno pur sempre in un superset di dx11.2, non sono qualcosa di completamente avulso dalle dx usate su pc*) ed io la ritengo una buona notizia (poi è ovvio che se le dx evolvessero maggiormente e/o le ogl lo stesso, sarebbe una notizia ancor amigliore), per i motivi che ho detto (poi altro che scambiarsi i brevetti, quelli si ammazzano piuttosto :asd: ).
Poi oh, mi pare di usare l'italiano, ho meno difficoltà a farmi capire sui forum stranieri con il mio inglese maccheronico :asd:
*tant'è: In discussing the future of Direct3D, Microsoft specifically mentions their general commitments to improving Direct3D alongside “bringing the lightweight runtime and tooling capabilities of the Xbox One Direct3D implementation to Windows,” http://www.anandtech.com/show/7420/microsoft-comments-on-state-of-direct3d-mantle-support-names-xbox-one-api-direct3d-11x
francisco9751
15-10-2013, 14:14
bè no magari, pure io lo vorrei (esempio vedi RDR, gli Uncharted, GOW 2 e 3, adesso gta5 anche se spero e credo sia un'esclusiva temporanea) ...ma quelle dipendono dai soldi che scuciono Ms e Sony ai publisher, non dalle api usate :(
si ma magari se il porting gli costa meno che di quanto gli costi ora..lo fanno..invece se gli costa x..e non sanno se i ricavi saranno abbastanza da coprire i costi del porting..contando anche che la pirateria mi pare sui pc sia più diffusa,anche perchè chi gioca su pc..spesso è più smanettone..intendevo in questo senso..
appleroof
15-10-2013, 14:28
si ma magari se il porting gli costa meno che di quanto gli costi ora..lo fanno..invece se gli costa x..e non sanno se i ricavi saranno abbastanza da coprire i costi del porting..contando anche che la pirateria mi pare sui pc sia più diffusa,anche perchè chi gioca su pc..spesso è più smanettone..intendevo in questo senso..
eh purtroppo che io sappia non è così semplice: MS e Sony li pagano affinchè non pubblichino su pc, quindi loro guadagnano dalla vendita dei giochi e in più dai soldi (o mancati pagamenti di royalties) di MS e Sony per avere l'esclusiva, quindi non c'entra nulla la difficoltà di fare porting o meno, o i costi per farlo o meno...semplicemente vengono pagati per non far uscire il gioco su pc in modo che chi voglia giocarci deve per forza prendere una console (ed ecco il ritorno dei soldi dati per l'esclusiva)
cmq, sempre sulla storia di oggi di mantle: http://www.anandtech.com/show/7420/microsoft-comments-on-state-of-direct3d-mantle-support-names-xbox-one-api-direct3d-11x
francisco9751
15-10-2013, 14:35
c'è anche questo
http://www.techpowerup.com/192552/amd-explains-why-mantle-doesnt-work-on-xbox-one.html
non so se è stato postato..comunque penso entro venerdì qualcosa si vedrà..di recensioni
93°C :fagiano:
Inviato dal mio Nexus 4 now Free ('http://tapatalk.com/m?id=10')
Spero sia un bug di gpu-z, nell'articolo c'è scritto questo: Just so you know, the GPU-Z readings are wrong, altrimenti se fa 93 gradi o si liquida o chi la compra piu' :D
c'è anche questo
http://www.techpowerup.com/192552/amd-explains-why-mantle-doesnt-work-on-xbox-one.html
non so se è stato postato..comunque penso entro venerdì qualcosa si vedrà..di recensioni
Se fosse vero quanto riportato nell'articolo:
- Microsoft dichiara che mantle non sarà mai supportato da Xbox One
- amd ribatte dicendo che mantle non è per le console ma solo per il pc.
A sto punto mi chiedo, ma sto mantle, chi se lo in**la? :asd:
MuadDibb
15-10-2013, 15:04
Qualcosa si muove?? LINK (http://hdtechnology.net/hardware/schede-video/amd-radeon-r9-290x-si-mostra-ufficialmente-in-foto.html)
devil_mcry
15-10-2013, 15:07
Qualcosa si muove?? LINK (http://hdtechnology.net/hardware/schede-video/amd-radeon-r9-290x-si-mostra-ufficialmente-in-foto.html)
è OLD...
francisco9751
15-10-2013, 15:08
è OLD...
beh old è un parolone,è di ieri :O
se gk110 che è una mattonella da più di 550mm* non è una gpu particolarmente calda (non quanto gf100 almeno, in proporzione), ci sono buone speranze che Hawaii si possa comportare bene sotto questo punto di vista...l'unico dubbio potrebbe essere che, visto che mi pare di aver letto che per farlo così relativamente piccolo abbiano usato transistor ad alta densità (da confermare eh?) questa cosa possa in qualche modo influire appunto sul calore prodotto, boh...
basta fare 2 conti...titan ha 7080mil transistor in 561 mm2,quindi densità di 12,62
La 290x ha 6000 mil in una superficie di 436 mm2, quindi 13,76....quindi ha una densità maggiore di quasi il 10%...se poi la confrontiamo alla 7970 abbiamo una densità di 11,81 ovvero ha un aumento del 16%... Quindi imho a parità di dissipazione dovrebbe essere meno overcloccabile, nn mi pare ke il gnc2 apporti grosse modifiche in questo frangente...
Sent from my RM-825_eu_italy_244 using Tapatalk
Free Gordon
15-10-2013, 15:16
ancora più chiaro, dalla voce diretta di Amd
Personalmente non ho mai dubitato che fosse questa la strategia...
Su ONE ci sono API low-level di M$... e Sony usa LibGCM e PSGL...
basta fare 2 conti...titan ha 7080mil transistor in 561 mm2,quindi densità di 12,62
La 290x ha 6000 mil in una superficie di 436 mm2, quindi 13,76....quindi ha una densità maggiore di quasi il 10%...se poi la confrontiamo alla 7970 abbiamo una densità di 11,81 ovvero ha un aumento del 16%... Quindi imho a parità di dissipazione dovrebbe essere meno overcloccabile, nn mi pare ke il gnc2 apporti grosse modifiche in questo frangente...
Sent from my RM-825_eu_italy_244 using Tapatalk
Unica soluzione= liquido (o Phase Change)!! :D
devil_mcry
15-10-2013, 15:20
beh old è un parolone,è di ieri :O
in questa fase è OLD in fretta XD
cmq mi sembrava fossero foto di 2 giorni fa
Dal nostro fornitore aziendale le 280x si trovano al prezzo delle 7950 e, a quanto pare, dovrebbero abbassarsi ancora. D'altra parte, come già detto un po' ovunque, sono solo delle 7970 (anzi, più precisamente sono quasi una 7970GE) rimarchiate, ergo VGA che hanno 2 anni di vita (un'eternità, in ambito informatico, almeno un tempo) sul groppone. In pratica le hanno degradate a fascia media per fare un nuovo chip e lasciare spazio per le 290/290x (le nuove proposte di fascia alta).
Attenzione, sono delle 7970 GE rimarchiate, non dimentichiamoci che la gpu delle 7970 e quella delle GE è diversa visto che per le GE si tratta di tahiti x2 (che sale meno è vero, ma lo fa con voltaggi molto inferiori = schede più durature e che consumano meno) mentre le 7970 montavano le tahiti.
Se fosse vero quanto riportato nell'articolo:
- Microsoft dichiara che mantle non sarà mai supportato da Xbox One
- amd ribatte dicendo che mantle non è per le console ma solo per il pc.
A sto punto mi chiedo, ma sto mantle, chi se lo in**la? :asd:
I giocatori pc?
Perchè dobbiamo portarci sto schifo di directx in eterno appresso e vedere pc che dovrebbero volare avere prestazioni simili a console la metà meno potenti?
basta fare 2 conti...titan ha 7080mil transistor in 561 mm2,quindi densità di 12,62
La 290x ha 6000 mil in una superficie di 436 mm2, quindi 13,76....quindi ha una densità maggiore di quasi il 10%...se poi la confrontiamo alla 7970 abbiamo una densità di 11,81 ovvero ha un aumento del 16%... Quindi imho a parità di dissipazione dovrebbe essere meno overcloccabile, nn mi pare ke il gnc2 apporti grosse modifiche in questo frangente...
Sent from my RM-825_eu_italy_244 using Tapatalk
I test di overclock preliminari mostrati (c'è un link qualche pagina fa) però mostrano come la 290x sia overclockabile quanto titan in termini di incrementi prestazionali %.
liberato87
15-10-2013, 16:35
http://www.xtremeshack.com/photos/20131015138184336173127.jpg
http://www.xtremeshack.com/photos/20131015138184336582385.jpg
confronto con il TAMARRISSSSSSIMO dissipatore reference della 780
http://www.xtremeshack.com/photos/20131015138184336173127.jpg
http://www.xtremeshack.com/photos/20131015138184336582385.jpg
confronto con il TAMARRISSSSSSIMO dissipatore reference della 780
struttura del dissipatore in alluminio vs modesta plastica della 290x....per l'estetica si più pure discutere ma per funzionalità il dissipatore della nvidia reference vale di più di quello amd...senza contare il casino che fa(quello amd)...
liberato87
15-10-2013, 16:47
struttura del dissipatore in alluminio vs modesta plastica della 290x....per l'estetica si più pure discutere ma per funzionalità il dissipatore della nvidia reference vale di più di quello amd...senza contare il casino che fa(quello amd)...
ahahha il mio post era ironico :sofico:
qualche post fa era stato usato questo aggettivo per il dissi reference titan-780 :D
se puoi edita il post e togli il link alle immagini, già io ho esagerato, ma averne 4 di fila è troppo
struttura del dissipatore in alluminio vs modesta plastica della 290x....per l'estetica si più pure discutere ma per funzionalità il dissipatore della nvidia reference vale di più di quello amd...senza contare il casino che fa(quello amd)...
Verissimo..
LurenZ87
15-10-2013, 16:50
cut
confronto con il TAMARRISSSSSSIMO dissipatore reference della 780
ci avevo visto bene, monta una ventola più grande della vecchia serie e se non sbaglio da 8cm... smuoverà un bel pò di aria, magari in maniera silenziosa...
struttura del dissipatore in alluminio vs modesta plastica della 290x....per l'estetica si più pure discutere ma per funzionalità il dissipatore della nvidia reference vale di più di quello amd...senza contare il casino che fa(quello amd)...
hanno cambiato sia la ventola che il vapor-chamber, quindi è tutto da vedere...
antonioslash
15-10-2013, 16:55
ahahha il mio post era ironico :sofico:
qualche post fa era stato usato questo aggettivo per il dissi reference titan-780 :D
se puoi edita il post e togli il link alle immagini, già io ho esagerato, ma averne 4 di fila è troppo
per tamarro intendevo quello amd .. avevo sbagliato a quotare :D
chiaramente non c'è confronto.. quello nvidia è superiore
ci avevo visto bene, monta una ventola più grande della vecchia serie e se non sbaglio da 8cm... smuoverà un bel pò di aria, magari in maniera silenziosa...
hanno cambiato sia la ventola che il vapor-chamber, quindi è tutto da vedere...
vedremo, ma mi da sempre l'idea di plastica....speriamo sia funzionale almeno
LurenZ87
15-10-2013, 16:59
vedremo, ma mi da sempre l'idea di plastica....speriamo sia funzionale almeno
la plastica è plastica ed il dissipatore reference di Nvidia lo conosco molto bene :D
spero sia funzionale, comunque nel mio case quello di AMD ci starebbe davvero bene :D
struttura del dissipatore in alluminio vs modesta plastica della 290x....per l'estetica si più pure discutere ma per funzionalità il dissipatore della nvidia reference vale di più di quello amd...senza contare il casino che fa(quello amd)...
edit
Mai prezzo della 290 quanto dovrebbe essere? 500€?
Perchè volevo prendere la nuova generazione, ma se costa così tanto mi prendo semplicemente la 280
Mai prezzo della 290 quanto dovrebbe essere? 500€?
Perchè volevo prendere la nuova generazione, ma se costa così tanto mi prendo semplicemente la 280
Ma va, cerca di sfruttarlo quel monitor che hai :asd:
Cioè io trovo insensata la gente che gioca a 1080p e 60 hz e butta soldi su schede superiori a delle 770/7970 (patiti dell'informatica e dei numeri :asd: ) ma sul tuo monitorazzo salire a 780/290 è un altro paio di maniche.
Comunque si parlava di 450 dollari per le 290, quindi 400 euro (la fascia dove andranno a piazzare le 770ti probabilmente).
Ma va, cerca di sfruttarlo quel monitor che hai :asd:
Cioè io trovo insensata la gente che gioca a 1080p e 60 hz e butta soldi su schede superiori a delle 770/7970 (patiti dell'informatica e dei numeri :asd: ) ma sul tuo monitorazzo salire a 780/290 è un altro paio di maniche.
Comunque si parlava di 450 dollari per le 290, quindi 400 euro (la fascia dove andranno a piazzare le 770ti probabilmente).
Se veramente costeranno 400€ allora prendo la 290 e annullo l'ordine della 280
Se veramente costeranno 400€ allora prendo la 290 e annullo l'ordine della 280
Al lancio probabilmente no, fra una mesata-due probabilmente.
Al lancio probabilmente no, fra una mesata-due probabilmente.
Ho annullato l'ordine della 280. Effettivamente non ha senso ricomprarmi una scheda video nuova se poi devo limitarmi un'altra volta. Appena esce prendo la 290 :D
Secondo me ti conviene. Dovrebbe esserci un 20 % di prestazioni fra delle 7970 e delle 290 a 1440p, poi si scopre magari che con un filo di overclock raggiungono le 290x e quanto ti mangi le mani? :D
basta fare 2 conti...titan ha 7080mil transistor in 561 mm2,quindi densità di 12,62
La 290x ha 6000 mil in una superficie di 436 mm2, quindi 13,76....quindi ha una densità maggiore di quasi il 10%...se poi la confrontiamo alla 7970 abbiamo una densità di 11,81 ovvero ha un aumento del 16%... Quindi imho a parità di dissipazione dovrebbe essere meno overcloccabile, nn mi pare ke il gnc2 apporti grosse modifiche in questo frangente...
Sent from my RM-825_eu_italy_244 using Tapatalk
i transitor non sono gli stessi per amd e nvidia altrimenti non ci sarebba manco la concorrenza
<Masquerade>
15-10-2013, 17:39
http://diy.pconline.com.cn/363/3631256_3.html
LurenZ87
15-10-2013, 17:45
http://diy.pconline.com.cn/363/3631256_3.html
ma è una recensione???
sono commosso :cry: :cry: :cry:
bella Masquy :cincin:
Einhander
15-10-2013, 17:51
http://diy.pconline.com.cn/363/3631256_3.html
GG figliuolo!!! :D
:asd:
ertruffa
15-10-2013, 17:51
http://diy.pconline.com.cn/363/3631256_3.html
quindi hanno rotto nda:D
sembra andare come una titan, dipende dal gioco come si presumeva, ovviamente da confermare, a 600 ne vendono......
LurenZ87
15-10-2013, 17:54
quindi hanno rotto nda:D
sembra andare come una titan, dipende dal gioco come si presumeva, ovviamente da confermare, a 600 ne vendono......
a 2560x1440 andrà di più della GTX Titan :D :D :D
peccato per la temperatura... :fagiano:
inoltre dice che verrà presentata il 24 Ottobre :)
Il nabbo di turno
15-10-2013, 17:55
quindi hanno rotto nda:D
sembra andare come una titan, dipende dal gioco come si presumeva, ovviamente da confermare, a 600 ne vendono......
Di più della titan, ottimo :sofico:
ertruffa
15-10-2013, 18:00
a 2560x1440 andrà di più della GTX Titan :D :D :D
peccato per la temperatura... :fagiano:
inoltre dice che verrà presentata il 24 Ottobre :)
infatti al momento sembrerebbe il tallone d'achille, bisognerebbe aspettare le custom, sempre se le faranno, o la trattano come la titan.:O
<Masquerade>
15-10-2013, 18:04
infatti al momento sembrerebbe il tallone d'achille, bisognerebbe aspettare le custom, sempre se le faranno, o la trattano come la titan.:O
ma quindi in pratica te ertruff.... hai cambiato la titan per passare alla 780 non pentendotene (vista la esigua differenza), per tornare ai livelli di una titan, sostituendola e prendendo la 290x?
ma insomma alla fine cambia cambia cambia per girellare sempre in quel livello di performance, 10% + 10% -
se si conferma come da sta mini review.....
LurenZ87
15-10-2013, 18:05
infatti al momento sembrerebbe il tallone d'achille, bisognerebbe aspettare le custom, sempre se le faranno, o la trattano come la titan.:O
aspettiamo, anche perchè hanno usato FurMark che è poco indicativo, comunque se fosse confermato, le soluzioni a mio avviso potrebbero essere queste:
- Accelero Xtreme
- Liquid Pro con dissipatore originale
comunque in quelle condizioni se la uso per foldare mi esplode nel case :asd:
devil_mcry
15-10-2013, 18:06
a 2560x1440 andrà di più della GTX Titan :D :D :D
peccato per la temperatura... :fagiano:
inoltre dice che verrà presentata il 24 Ottobre :)
in realtà lo mette più come una domanda, anche se è possibile, tuttavia nel grafico a 1440p fa 1fps in più...
detto questo, se si prendono tutti i bench ci sono 2 a favore netto della Titan, 2 a favore netto della 290x, 2 a favore moderato della Titan e 2 pari
Presi in esamine i giochi, direi che va un pelino meno della Titan ma siamo li... Tuttavia è innegabile che la Titan ha un margine di Overclock nettamente superiore rispetto alla 290x, anche nell'irealistica ipotesi che la 290x raggiungesse i 1200mhz (cosa abbastanza improbabile)
non so...
Rebelderock
15-10-2013, 18:06
Di più della titan, ottimo :sofico:
A me non sembra :ciapet:
ertruffa
15-10-2013, 18:07
ma quindi in pratica te ertruff.... hai cambiato la titan per passare alla 780 non pentendotene (vista la esigua differenza), per tornare ai livelli di una titan, sostituendola e prendendo la 290x?
ma insomma alla fine cambia cambia cambia per girellare sempre in quel livello di performance, 10% + 10% -
se si conferma come da sta mini review.....
:D
diciamo che mi piace provare un po' tutte le vga, essendo il solo hobby che mi e' rimasto.
ovviamente non c'e' logica in tutto cio', ma solo passione, pero' devo dire che le temp. se sono quelle mi frenano parecchio, e aspettare le custom non mi va, visto che vorrei giocare bf4 da subito.
vediamo che dice il cervello.....
maxmix65
15-10-2013, 18:10
aspettiamo, anche perchè hanno usato FurMark che è poco indicativo, comunque se fosse confermato, le soluzioni a mio avviso potrebbero essere queste:
- Accelero Xtreme
- Liquid Pro con dissipatore originale
comunque in quelle condizioni se la uso per foldare mi esplode nel case :asd:
Come ti dicevo post fa' ci vuole un dissi custom
P.S. Adesso vediamo chi era per un consumo ridotto(cippone Nvidia)
la 290 consuma oltre 400W o sbaglio
LurenZ87
15-10-2013, 18:16
in realtà lo mette più come una domanda, anche se è possibile, tuttavia nel grafico a 1440p fa 1fps in più...
detto questo, se si prendono tutti i bench ci sono 2 a favore netto della Titan, 2 a favore netto della 290x, 2 a favore moderato della Titan e 2 pari
Presi in esamine i giochi, direi che va un pelino meno della Titan ma siamo li... Tuttavia è innegabile che la Titan ha un margine di Overclock nettamente superiore rispetto alla 290x, anche nell'irealistica ipotesi che la 290x raggiungesse i 1200mhz (cosa abbastanza improbabile)
non so...
questo è vero, ma visto le caratteristiche della vga io mi ci gioco le pxxxe :D
comunque per adesso anche se costasse 600€ sarei comunque molto dubbioso, almeno per quello che mi riguarda:
http://tpucdn.com/reviews/ASUS/R9_280X_Direct_Cu_II_TOP/images/perfrel_2560.gif
mettiamo che sia un +10% di prestazioni rispetto alla Titan (stima ottimistica), starebbe al 133% in quella tabella... per gli stessi soldi ci escono due di queste nella recensione che farebbero un 170% buono se non oltre...
vediamo prezzi e capacità di overclock della vga :O
Come ti dicevo post fa' ci vuole un dissi custom
P.S. Adesso vediamo chi era per un consumo ridotto(cippone Nvidia)
la 290 consuma oltre 400W o sbaglioFurmark non è uno scenario plausibile per i consumi (vedere recensione 280x Toxic di Anandtech)
E stiamo parlando dell'intero sistema, non della scheda singola.
sickofitall
15-10-2013, 18:20
Come ti dicevo post fa' ci vuole un dissi custom
P.S. Adesso vediamo chi era per un consumo ridotto(cippone Nvidia)
la 290 consuma oltre 400W o sbaglio
Sembra di rivivere gtx 480 vs 5870 ma a parti invertite :stordita:
AgonizedPhobos
15-10-2013, 18:23
Sembra di rivivere gtx 480 vs 5870 ma a parti invertite :stordita:
si vero,oppure anche che AMD abbia dovuto "fare gli straordinari",sudando 7 camicie per raggiungere la TITAN dopo quasi 9 mesi di ritardo.
shagrat1983
15-10-2013, 18:25
http://diy.pconline.com.cn/363/3631256_3.html
a giudicare da questi grafici la migliore vga qualita'/prezzo e' sicuramente la 780 senza dubbio:O
ertruffa
15-10-2013, 18:26
a giudicare da questi grafici la migliore vga qualita'/prezzo e' sicuramente la 780 senza dubbio:O
effettivamente ci sono custom che si trovano ormai sui 500
francisco9751
15-10-2013, 18:27
http://www.youtube.com/watch?v=WSquvwQKjjg&feature=youtu.be
penso che venerdì sia la fine dell nda
devil_mcry
15-10-2013, 18:28
questo è vero, ma visto le caratteristiche della vga io mi ci gioco le pxxxe :D
comunque per adesso anche se costasse 600€ sarei comunque molto dubbioso, almeno per quello che mi riguarda:
mettiamo che sia un +10% di prestazioni rispetto alla Titan (stima ottimistica), starebbe al 133% in quella tabella... per gli stessi soldi ci escono due di queste nella recensione che farebbero un 170% buono se non oltre...
vediamo prezzi e capacità di overclock della vga :O
se entriamo nel discorso 2 vs 1 la fascia media va quasi sempre a vincere ovviamente, ma ha problemi non indifferenti che non me la farebbe scegliere a me personalmente
io onestamente non mi sbilancio sui 1440p, non ci sono dati, ma a 1080p risulta un po' più lenta (difficile tirare fuori una percentuale ma i bench parlano chiaro) e sale meno in OC
questa seconda caratteristica la potrebbe portare al pari di una Titan anche se ha un bus di memoria e una banda nettamente a favore
devil_mcry
15-10-2013, 18:29
a giudicare da questi grafici la migliore vga qualita'/prezzo e' sicuramente la 780 senza dubbio:O
sicuro, OC to OC probabilmente a 1080p andrà come la 290x... alla fine è il best buy
maxmix65
15-10-2013, 18:29
effettivamente ci sono custom che si trovano ormai sui 500
Prevedo forti abbassamenti di prezzo all'arrivo delle r290x/r290 custom che usciranno con overlcock di fabbrica e si attesteranno supra Titan/ 780 lisce
LurenZ87
15-10-2013, 18:29
Come ti dicevo post fa' ci vuole un dissi custom
P.S. Adesso vediamo chi era per un consumo ridotto(cippone Nvidia)
la 290 consuma oltre 400W o sbaglio
Con FurMark non puoi fare un paragone equo, perchè:
- con le vga non ci arrivi mai a quei livelli
- le Nvidia hanno un sistema di protezione che non le fa andare al massimo con i programmi tipo FurMark e Kombustor
poi i 400W sono il consumo dell'intero sistema ;)
Sembra di rivivere gtx 480 vs 5870 ma a parti invertite :stordita:
dai piccolo pargolo, torna a gocare con la Asus GTX 780 delle meraviglie
(caxxo che scheda scuxata che hai preso, bella :D )
a giudicare da questi grafici la migliore vga qualita'/prezzo e' sicuramente la 780 senza dubbio:O
ma se non li conosciamo i prezzi come fai a dirlo??? :D
shagrat1983
15-10-2013, 18:31
sicuro, OC to OC probabilmente a 1080p andrà come la 290x... alla fine è il best buy
vediamo prima come andranno le 290 liscie e il loro prezzo... potrebbe essere quello insieme alla 780 il best buy:)
devil_mcry
15-10-2013, 18:32
Con FurMark non puoi fare un paragone equo, perchè:
- con le vga non ci arrivi mai a quei livelli
- le Nvidia hanno un sistema di protezione che non le fa andare al massimo con i programmi tipo FurMark e Kombustor
poi i 400W sono il consumo dell'intero sistema ;)
dai piccolo pargolo, torna a gocare con la Asus GTX 780 delle meraviglie
(caxxo che scheda scuxata che hai preso, bella :D )
ma se non li conosciamo i prezzi come fai a dirlo??? :D
beh non è proprio vero
http://hardware.hdblog.it/2013/10/09/msi-svela-il-prezzo-delle-radeon-r9-290x-ed-r9-290/
è una idea, ma 650€, seppur indicativi, sono molto di più dei 500 della 780
shagrat1983
15-10-2013, 18:35
la battaglia sulle vendite secondo me sara' tra 780 e 290
in realtà lo mette più come una domanda, anche se è possibile, tuttavia nel grafico a 1440p fa 1fps in più...
detto questo, se si prendono tutti i bench ci sono 2 a favore netto della Titan, 2 a favore netto della 290x, 2 a favore moderato della Titan e 2 pari
Presi in esamine i giochi, direi che va un pelino meno della Titan ma siamo li... Tuttavia è innegabile che la Titan ha un margine di Overclock nettamente superiore rispetto alla 290x, anche nell'irealistica ipotesi che la 290x raggiungesse i 1200mhz (cosa abbastanza improbabile)
non so...
Io ho visto grafici stamattina abbastanza diversi, li ho anche postati.
LurenZ87
15-10-2013, 18:38
beh non è proprio vero
http://hardware.hdblog.it/2013/10/09/msi-svela-il-prezzo-delle-radeon-r9-290x-ed-r9-290/
è una idea, ma 650€, seppur indicativi, sono molto di più dei 500 della 780
650€ è molto difficile che ce li spendo a questo giro...
stamattina c'erano questi di bench:
http://cdn3.wccftech.com/wp-content/uploads/2013/09/AMD-Hawaii-R9-290X-GPU-Performance.jpg
Comunque ricordo di aver postato un bench sull'oc e la 290x saliva quanto la titan (non di frequenze ma di prestazioni in game %, circa 10 % di gain per entrambe).
beh non è proprio vero
http://hardware.hdblog.it/2013/10/09/msi-svela-il-prezzo-delle-radeon-r9-290x-ed-r9-290/
è una idea, ma 650€, seppur indicativi, sono molto di più dei 500 della 780
Anche la 780 costa 650 di listino eh. I prezzi al retailer poi saranno da vedere.
Inoltre la 290x include bf4 premium che sono 100 euro di gioco.
antonioslash
15-10-2013, 18:41
ma se le temp sono queste mi domando chi è disposto a spendere sta cifra per avere un forno nel case :doh: il che ammazza ogni tentativo di oc oltretutto
credo di prendere la 780.. aspettiamo ancora qualche giorno va :asd:
Ale55andr0
15-10-2013, 18:43
l'ho già detto che fin quando non escono review ufficiali non credo a nulla? :asd:
infatti ha poco senso ci sono bench che dicono una cosa, altri che ne dicono un altra.
Meanwhile https://twitter.com/AMDRadeon
Ale55andr0
15-10-2013, 18:48
ma se le temp sono queste mi domando chi è disposto a spendere sta cifra per avere un forno nel case :doh: :
beh, la 8800gtx a 700 euri vendeva un botto uguale e quando la accendevo sentivo l'aria calda nelle gambe e puzza di non so cosa :asd: (case a terra)
francisco9751
15-10-2013, 18:50
ma se le temp sono queste mi domando chi è disposto a spendere sta cifra per avere un forno nel case :doh: il che ammazza ogni tentativo di oc oltretutto
credo di prendere la 780.. aspettiamo ancora qualche giorno va :asd:
abbiamo capito che ti piace sta 780..prendila e vai a giocare in pace :stordita:
cire92cry
15-10-2013, 19:12
Spero che amd non stia facendo l'errore di pompare troppo una vga per superare la titan. Aspettiamo il 18 e vediamo :)
devil_mcry
15-10-2013, 19:21
Io ho visto grafici stamattina abbastanza diversi, li ho anche postati.
stamattina c'erano questi di bench:
http://cdn3.wccftech.com/wp-content/uploads/2013/09/AMD-Hawaii-R9-290X-GPU-Performance.jpg
Comunque ricordo di aver postato un bench sull'oc e la 290x saliva quanto la titan (non di frequenze ma di prestazioni in game %, circa 10 % di gain per entrambe).
una tabellina con dati messi li di dubbia affidabilità...
questa almeno è una review, anche se parziale dato che mancano i test a 1440p
Anche la 780 costa 650 di listino eh. I prezzi al retailer poi saranno da vedere.
Inoltre la 290x include bf4 premium che sono 100 euro di gioco.
costava al lancio quasi 650, di recente (giugno) alcune news davano le gtx780 ribassate a 557, ed in effetti da allora il prezzo è calato ed oggi si trovano a partire da 500 i modelli non reference
inoltre quello è il prezzo di MSI, ma alcuni la mettono anche a 700€
maxmix65
15-10-2013, 19:31
Con FurMark non puoi fare un paragone equo, perchè:
- con le vga non ci arrivi mai a quei livelli
- le Nvidia hanno un sistema di protezione che non le fa andare al massimo con i programmi tipo FurMark e Kombustor
poi i 400W sono il consumo dell'intero sistema ;)
dai piccolo pargolo, torna a gocare con la Asus GTX 780 delle meraviglie
(caxxo che scheda scuxata che hai preso, bella :D )
ma se non li conosciamo i prezzi come fai a dirlo??? :D
Quindi a parita' di sistema la r9 290x consuma 62W in piu' almeno cosi mi pare di capire dal test cinese..
Quindi sta storia del cippone caloroso e che consuma un boato di Nvidia si ripete su Amd quindi chi parlava come di Nvidia come il male assoluto in questi parametri e elogiava Amd vediamo cosa dice ora ..
Io mi ricordo di varie persone qui dentro v mi ricordo bene;)
cire92cry
15-10-2013, 19:33
Quindi a parita' di sistema la r9 290x consuma 62W in piu' almeno cosi mi pare di capire dal test cinese..
Quindi sta storia del cippone caloroso e che consuma un boato di Nvidia si ripete su Amd quindi chi parlava come di Nvidia come il male assoluto in questi parametri e elogiava Amd vediamo cosa dice ora ..
Io mi ricordo di varie persone qui dentro v mi ricordo bene;)
Bisogna vedere nvidia è stata furba con quei bench per i consumi li limita automaticamente.
LurenZ87
15-10-2013, 19:38
Quindi a parita' di sistema la r9 290x consuma 62W in piu' almeno cosi mi pare di capire dal test cinese..
Quindi sta storia del cippone caloroso e che consuma un boato di Nvidia si ripete su Amd quindi chi parlava come di Nvidia come il male assoluto in questi parametri e elogiava Amd vediamo cosa dice ora ..
Io mi ricordo di varie persone qui dentro v mi ricordo bene;)
Ti ripeto, le Nvidia hanno un sistema che limita le proprie vga con i programmi di stress test, quindi non è reale quel dato, ne sui consumi e nemmeno sulle temperature :).
Inviato dal mio Nexus 4
una tabellina con dati messi li di dubbia affidabilità...
questa almeno è una review, anche se parziale dato che mancano i test a 1440p
costava al lancio quasi 650, di recente (giugno) alcune news davano le gtx780 ribassate a 557, ed in effetti da allora il prezzo è calato ed oggi si trovano a partire da 500 i modelli non reference
inoltre quello è il prezzo di MSI, ma alcuni la mettono anche a 700€
Quindi? Il prezzo di listino è sempre di 650 euro.
Anche quello delle 780 di listino è 400 e già al day 1 si trovavano a 360. Quindi non mischiamo prezzi di listino di prodotti non disponibili con prezzi retail di prodotti disponibili da un bel pò. Se MSI dice "650" a lancio è probabilissimo si troveranno sotto ai 600 già dal primo giorno.
Quindi a parita' di sistema la r9 290x consuma 62W in piu' almeno cosi mi pare di capire dal test cinese..
Quindi sta storia del cippone caloroso e che consuma un boato di Nvidia si ripete su Amd quindi chi parlava come di Nvidia come il male assoluto in questi parametri e elogiava Amd vediamo cosa dice ora ..
Io mi ricordo di varie persone qui dentro v mi ricordo bene;)Furmark non è un test attendibile per i consumi...(e 2)
devil_mcry
15-10-2013, 19:48
Quindi? Il prezzo di listino è sempre di 650 euro.
Anche quello delle 780 di listino è 400 e già al day 1 si trovavano a 360. Quindi non mischiamo prezzi di listino di prodotti non disponibili con prezzi retail di prodotti disponibili da un bel pò. Se MSI dice "650" a lancio è probabilissimo si troveranno sotto ai 600 già dal primo giorno.
no non hai capito. alcuni produttori hanno abbassato il prezzo di listino delle 780 a 557€
e da quel giorno i prezzi sono scesi di conseguenza
http://videocardz.com/42878/nvidia-geforce-gtx-780-now-available-for-557
°Phenom°
15-10-2013, 20:08
Furmark non è un test attendibile per i consumi...(e 2)
Quoto, con furmark, kombuster e compagnia bella le amd vengono tirate al limite, mentre nvidia come è già stato spiegato limita le vga su questi testi.
I consumi andranno visti in game ;)
appleroof
15-10-2013, 20:22
Quoto, con furmark, kombuster e compagnia bella le amd vengono tirate al limite, mentre nvidia come è già stato spiegato limita le vga su questi testi.
I consumi andranno visti in game ;)
veramente vanno in throttling entrambe, es.:
FurMark ended up being harder on the 7990 than we expected. Both NVIDIA and AMD throttle it of course, but we’ve never seen it throttled so hard as on the 7990.
http://www.anandtech.com/show/6915/amd-radeon-hd-7990-review-7990-gets-official/16
Che poi sia uno scenario poco indicativo della realtà è pacifico, analogamente ai bench vs. giochi per dire
no non hai capito. alcuni produttori hanno abbassato il prezzo di listino delle 780 a 557€
e da quel giorno i prezzi sono scesi di conseguenza
http://videocardz.com/42878/nvidia-geforce-gtx-780-now-available-for-557
Io ho capito benissimo invece, mi sa che tu hai un pò di problemi con l'inglese :P
Nella news parla semplicemente di quanto siano scesi i prezzi dai rivenditori e infatti linka uno shop online computerbase.de come se da noi linkassero prokoo dove la scheda era in vendita a 557.
Ti pare che esiste 557 o 641 come prezzi di listino, è ovvio che si tratti di prezzi al negoziante :muro:
Ci sono pure due screen presi da shop lì sotto, più chiaro di così si muore :asd:
Il prezzo consigliato/ufficiale dei produttori rimane sempre che hanno nei listini e nel sito ufficiale ma poi al dettaglio e nei shop online la realtà sarà ovviamente diversa.
Quindi il fatto che MSI annunci la 290x a 650 significa che è nella stessa fascia di prezzo della 780, ne più ne meno.
°Phenom°
15-10-2013, 20:54
veramente vanno in throttling entrambe, es.:
FurMark ended up being harder on the 7990 than we expected. Both NVIDIA and AMD throttle it of course, but we’ve never seen it throttled so hard as on the 7990.
http://www.anandtech.com/show/6915/amd-radeon-hd-7990-review-7990-gets-official/16
Che poi sia uno scenario poco indicativo della realtà è pacifico, analogamente ai bench vs. giochi per dire
Si ma per esempio come lo spieghi che una 770 in gaming consuma pochissimo meno di una 280X, ma invece se testiamo i consumi di una 280X su kombustor sono moltissimo più alti rispetto alla 770 sempre su kombustor? Appunto dico che sono test che lasciano il tempo che trovano, non vanno bene nemmno per la stabilità visto che si rischiano di danneggiare anche le vga alla lunga
Probabilmente inesatto, ma lol :sofico:
http://i.imgur.com/YQnAv1I.png
Probabilmente inesatto, ma lol :sofico:
http://i.imgur.com/YQnAv1I.png
sono indeciso se prendere un tri fire di queste o un nuovo appartamento.
ma veramente.
p.s. se i prezzi son questi e le prestazioni queste, non mi sembra tutta sta rivoluzione.
E poi cosa dicono a fare enthusiast videocards, not ultra enthusiast.
Sono 1000 dollari canadesi comunque 700 euro. Ed è pure un preorder di una scheda ancora da lanciare ufficialmente.
i transitor non sono gli stessi per amd e nvidia altrimenti non ci sarebba manco la concorrenza
come nn sono gli stessi??
E ke differenza c é tra un transistor and e uno Nvidia??
Sent from my RM-825_eu_italy_244 using Tapatalk
antonioslash
15-10-2013, 21:20
abbiamo capito che ti piace sta 780..prendila e vai a giocare in pace :stordita:
:asd: non mettermi pressione.. e non alimentare la scimmia tu ;)
appleroof
15-10-2013, 21:30
beh, la 8800gtx a 700 euri vendeva un botto uguale e quando la accendevo sentivo l'aria calda nelle gambe e puzza di non so cosa :asd: (case a terra)
Forse l'unica vga della storia (solo la 9800xt Ati si avvicina come esempio) che valeva ogni centesimo del suo prezzo, a meno che tu sei dimenticato dello scenario vga della sua uscita e per un paio di anni dopo...hai fallito esempio :asd:
(tra l'altro la pagai meno di 650 euro al dayone)
Si ma per esempio come lo spieghi che una 770 in gaming consuma pochissimo meno di una 280X, ma invece se testiamo i consumi di una 280X su kombustor sono moltissimo più alti rispetto alla 770 sempre su kombustor? Appunto dico che sono test che lasciano il tempo che trovano, non vanno bene nemmno per la stabilità visto che si rischiano di danneggiare anche le vga alla lunga
Certo certo, era per dire che non è corretto affermare che le Amd non vanno in protezione...tra l'altro temi pare che dalle 4000 via driver è stato introdotto un profilo conservativo quando viene avviato l'exe di furmark...
beh non è proprio vero
http://hardware.hdblog.it/2013/10/09/msi-svela-il-prezzo-delle-radeon-r9-290x-ed-r9-290/
è una idea, ma 650€, seppur indicativi, sono molto di più dei 500 della 780
ciao, in realtà alcuni shop la danno in preordine a 590€, é la sapphire 290x...mi fiderei piu di sti prezzi :)
Sent from my RM-825_eu_italy_244 using Tapatalk
Io ricordo 1 settimana fa che panicavate per alcunii 350 euro di preorder per la 280x, una settimana fa e mi ricordo dirvi si ma se sta a 300 di listino saranno di meno.
E di fatti c'è la sapphire dual x 280x a 250 euro :V
Dai su la scheda costerà dai 550 ai 600 per i modelli più reference all'uscita e 650 di listino mi pare assodato :asd:
liberato87
15-10-2013, 21:53
Inoltre la 290x include bf4 premium che sono 100 euro di gioco.
non mi pare che TUTTE le 290x includano bf4 premium in omaggio
appleroof
15-10-2013, 21:58
Prezzi Germania http://geizhals.de/?fs=r9+290x&in=
non mi pare che TUTTE le 290x includano bf4 premium in omaggio
fonte?
edit: hai ragione, è una serie limitata. vedremo cosa offriranno con la 290x.
kurtangle78
15-10-2013, 23:36
Sono curioso di vedere le prestazioni della 290 liscia che dovrebbe essere la diretta concorrente della gtx 780, se le prestazioni saranno vicino alla 290x, come succede per la 780 cn la titan , non so quanto appetibile sarà la versione X.
Inviato dal mio Nexus 4 con Tapatalk 2
Sono curioso di vedere le prestazioni della 290 liscia che dovrebbe essere la diretta concorrente della gtx 780, se le prestazioni saranno vicino alla 290x, come succede per la 780 cn la titan , non so quanto appetibile sarà la versione X.
Inviato dal mio Nexus 4 con Tapatalk 2
Teoricamente la 290x viene lanciata allo stesso prezzo della 780 di listino (650). Ci sono già numerosi preorder tra i 550 e i 590 (e un utente sul forum ne ha ordinate 2 a 595 mi sembra).
La 290 liscia dovrebbe andare nella fascia sub 500 euro.
kurtangle78
15-10-2013, 23:44
Teoricamente la 290x viene lanciata allo stesso prezzo della 780 di listino (650). Ci sono già numerosi preorder tra i 550 e i 590 (e un utente sul forum ne ha ordinate 2 a 595 mi sembra).
La 290 liscia dovrebbe andare nella fascia sub 500 euro.
Bisogna vedere l'effettiva differenza in gaming fra le due versioni in modo tale da sapere se la X vale i 90 euro in più
Inviato dal mio Nexus 4 con Tapatalk 2
eh qua non si sa nulla, alla fine è un misto di leak e speculazioni.
Free Gordon
16-10-2013, 00:19
si vero,oppure anche che AMD abbia dovuto "fare gli straordinari",sudando 7 camicie per raggiungere la TITAN dopo quasi 9 mesi di ritardo.
AMD non ha alcun interesse nel fare chipponi come Nvidia. ;)
E' da anni almeno 6 anni che ha questa politica.
Sono usciti adesso con un chip "grosso" ma cmq molto più piccolo di GK110 perchè era l'unica possibilità di salire in performance rispetto a Tahiti, dato che i 20nm si fanno attendere.
liberato87
16-10-2013, 00:25
AMD non ha alcun interesse nel fare chipponi come Nvidia. ;)
E' da anni almeno 6 anni che ha questa politica.
Gk104 era più piccolo di Tahiti
Sent from my iPad using Tapatalk
Free Gordon
16-10-2013, 00:27
Quindi sta storia del cippone caloroso e che consuma un boato di Nvidia si ripete su Amd quindi chi parlava come di Nvidia come il male assoluto in questi parametri e elogiava Amd vediamo cosa dice ora ..
Il consumo dipende molto dall'architettura e da altri parametri, tra cui la quantità di chip di memoria onbard...
Con Kepler Nvidia è riuscita a tenere a bada i consumi, cuttando le capacità nel computing... ;)
Con Fermi era andata nella direzione opposta e i consumi ne risentivano molto, ma del resto ha fatto un'architettura che rende molto bene anche oggi, anche in quel settore (mentre AMD con le VLIW -che avevano chip piccoli in proporzione ai flops- da quel lato fa pena).
Gk104 era più piccolo di Tahiti
Sent from my iPad using Tapatalk
gk104 è uscito parecchio dopo.
Comunque credevo che intendesse che AMD non è interessata alla fascia da 1000 euro, 290x si va a piazzare in una ben diversa fascia di prezzo.
Free Gordon
16-10-2013, 00:29
Forse l'unica vga della storia (solo la 9800xt Ati si avvicina come esempio) che valeva ogni centesimo del suo prezzo,
9700PRO, prego... :D
Free Gordon
16-10-2013, 00:37
Gk104 era più piccolo di Tahiti
L'unico chippone degli ultimi anni infatti è Tahiti, ma perchè GCN nelle intenzioni è un'architettura fatta molto per il computing...e và/andrà integrata nel progetto Fusion/HSA.
Inoltre Nvidia segmenta sempre di più il mercato, facendo sempre 3mila versioni delle stesse archi, aggiungendo e togliendo...ha l'ossessione del primato! :D
Free Gordon
16-10-2013, 00:40
gk104 è uscito parecchio dopo.
Comunque credevo che intendesse che AMD non è interessata alla fascia da 1000 euro, 290x si va a piazzare in una ben diversa fascia di prezzo.
Ma no guarda,è una discussione che si era fatta con il buon Yoss anni fà e diceva che come regola, sopratutto da AMD in poi, non sarebbero più andati a fare chip grossi come la concorrente. Il motivo era che l'interesse si era spostato dal segmento enthusiast al segmento mainstream e sopratutto verso le APU, la vera scommessa di AMD (che si spera inizierà a dare i suoi frutti proprio quest'anno con Kaveri). ;)
Buono, andata pure la gt220. Ora sono con la intel integrata nel 2500k... :asd:
Audiosurf gira a Enhanced, però! :eek:
Speriamo che le nuove di Ati escano presto. :asd:
Credo che l'integrata del 2500k fosse meglio della 220 comunque.
Io con l'integrata del pentium g860 ho giocato a un bel pò di roba, ed è molto meno potente dell'hd4000 che hai tu mi pare.
Con la tua giochi senza problemi a CS:GO, GTA 4, Skyrim e un altro pò di giochi.
Credo che l'integrata del 2500k fosse meglio della 220 comunque.
Io con l'integrata del pentium g860 ho giocato a un bel pò di roba, ed è molto meno potente dell'hd4000 che hai tu mi pare.
Con la tua giochi senza problemi a CS:GO, GTA 4, Skyrim e un altro pò di giochi.
Nah, HD3000, non HD4000 purtroppo (che è molto più potente).
Quella di Haswell leggevo che è impressionante come prestazioni, ma purtroppo le integrate del 2500k/2600k non sono poi tanto buone come prestazioni. :(
Provato su Skyrim, e la gt220 mi dava un 40fps con tutte le opzioni grafiche al minimo (1080p), mentre l'integrata me ne da 18. :(
Nah, HD3000, non HD4000 purtroppo (che è molto più potente).
Quella di Haswell leggevo che è impressionante come prestazioni, ma purtroppo le integrate del 2500k/2600k non sono poi tanto buone come prestazioni. :(
Provato su Skyrim, e la gt220 mi dava un 40fps con tutte le opzioni grafiche al minimo (1080p), mentre l'integrata me ne da 18. :(
Qua c'è una lista di titoli mainstream:
http://www.intel.com/support/graphics/intelhdgraphics3000_2000/sb/CS-032052.htm
Di indie recenti ci son parecchi giochi belli che ho giocato con l'integrata, primo fra tutti mark of the ninja.
O giochi online come minecraft, terraria, League of Legends, Dota 2, Team Fortress 2.
Io posso dirti che il periodo senza vga mi son divertito veramente molto, fra alcuni giochi che non trovavo mai tempo di giocare e che lasciavo perdere per la grafica.
Qua c'è una lista di titoli mainstream:
http://www.intel.com/support/graphics/intelhdgraphics3000_2000/sb/CS-032052.htm
Di indie recenti ci son parecchi giochi belli che ho giocato con l'integrata, primo fra tutti mark of the ninja.
O giochi online come minecraft, terraria, League of Legends, Dota 2, Team Fortress 2.
Io posso dirti che il periodo senza vga mi son divertito veramente molto, fra alcuni giochi che non trovavo mai tempo di giocare e che lasciavo perdere per la grafica.
Nah, vabbé, per carità, aspetto, anche perché buona parte di quei giochi li avevo già giocati in passato. :D
Adesso ne sto approfittando per finire tutta la marea di film, telefilm e anime che ho accumulato e mai guardato... :asd:
Unica cosa che mi piace è che sembra che MadVR funzioni meglio su Intel, quindi posso tenere Lancoz+anti-ringing filter senza problemi di rallentamenti, cosa che non potevo fare sulla gt220 (problemi di supporto nei driver?). :D
La cosa interessante ora è il silenzio: prima sia la gtx560ti che la gt220 facevano un po di rumore mentre andavano, ora l'unico rumore che sento dal PC è il Caviar Blue mezzo rotto che tengo solo per cazzeggio. :asd:
devil_mcry
16-10-2013, 06:57
Io ho capito benissimo invece, mi sa che tu hai un pò di problemi con l'inglese :P
Nella news parla semplicemente di quanto siano scesi i prezzi dai rivenditori e infatti linka uno shop online computerbase.de come se da noi linkassero prokoo dove la scheda era in vendita a 557.
Ti pare che esiste 557 o 641 come prezzi di listino, è ovvio che si tratti di prezzi al negoziante :muro:
Ci sono pure due screen presi da shop lì sotto, più chiaro di così si muore :asd:
Il prezzo consigliato/ufficiale dei produttori rimane sempre che hanno nei listini e nel sito ufficiale ma poi al dettaglio e nei shop online la realtà sarà ovviamente diversa.
Quindi il fatto che MSI annunci la 290x a 650 significa che è nella stessa fascia di prezzo della 780, ne più ne meno.
il prezzo consigliato (che poi spesso è consigliato da nvidia e amd) non centra nulla con quello che attuano i produttori, che di solito seguono inizialmente
inoltre tu parli di taglio ufficiale dei prezzi, io di taglio da parte dei produttori (che poi sono loro a vendermi la scheda)
inoltre, MSI ad esempio, se guardi il prezzo di listino e lo street price è coerente, non ci sono 150 e in meno come vorresti far credere tu
la realtà è che da quel periodo i prezzi sono scesi di brutto, ora una 780 la trovi a 500e e sono persino modelli OC
l'altra girala cmq vuoi costa almeno il 20% in più (prendendo per buono i 590 di cui manca la fonte, perchè io l'ho vista anche a 700)
francisco9751
16-10-2013, 07:22
Ragazzi state parlando senza avere nulla di concreto..ormai mancano due giorni.. Inutile parlare sopratutto del prezzo anche perché di prezzi se ne sono viste di tutti i colori
Tapatalked from Nexus 4
Foglia Morta
16-10-2013, 07:58
Ragazzi state parlando senza avere nulla di concreto..ormai mancano due giorni.. Inutile parlare sopratutto del prezzo anche perché di prezzi se ne sono viste di tutti i colori
Tapatalked from Nexus 4
penso proprio che l' nda scadrà il 24 o il 25 , tra i commenti l' admin di guru3d ha detto "non questa settimana": http://www.guru3d.com/news_story/amd_explains_why_mantle_is_exclusive_to_pc_not_present_on_xbox_one.html
riguardo la promozione di BF4 c' è scritto che comincia il 25: http://sites.amd.com/us/Documents/AMD_Radeon_290X_Battlefield4_Limited_Ed.pdf
ertruffa
16-10-2013, 08:12
penso proprio che l' nda scadrà il 24 o il 25 , tra i commenti l' admin di guru3d ha detto "non questa settimana": http://www.guru3d.com/news_story/amd_explains_why_mantle_is_exclusive_to_pc_not_present_on_xbox_one.html
riguardo la promozione di BF4 c' è scritto che comincia il 25: http://sites.amd.com/us/Documents/AMD_Radeon_290X_Battlefield4_Limited_Ed.pdf
http://www.chiphell.com/thread-878739-1-1.html
pure qui dicono i l24
francisco9751
16-10-2013, 08:25
E 24 sia
Tapatalked from Nexus 4
certo che se i risultati son quelli del sito cinese, a parte metro LL imho è delusione totale, specie se il prezzo è cosi alto.
la 780, purtroppo, la pareggia in molti casi, basterà un modello custom di 780 per superarla tranquillamente.
Speriamo amd tenga conto di questo e la prezzi il giusto, ovvero sulla fascia delle 780, con la 290 liscia ancora più aggressiva.
francisco9751
16-10-2013, 09:07
Si ma io voglio i test a 1440p
Tapatalked from Nexus 4
ertruffa
16-10-2013, 09:13
certo che se i risultati son quelli del sito cinese, a parte metro LL imho è delusione totale, specie se il prezzo è cosi alto.
la 780, purtroppo, la pareggia in molti casi, basterà un modello custom di 780 per superarla tranquillamente.
Speriamo amd tenga conto di questo e la prezzi il giusto, ovvero sulla fascia delle 780, con la 290 liscia ancora più aggressiva.
in parte hai ragione, bisogna vedere quanto sale, quanto consumera' realmente e scaldera', il prezzo reale, poi tireremo le somme.ad oggi praticamente da una sola rece non mi convince:O
no, nemmeno a me, ora però i test cominciano ad arrivare un bel pò alla volta e i risultati sono in linea con una 780 custom oc. Ma se i prezzi che si vedono sono quelli visti in giro, o danno il bundles coi giochi e bf4, oppure non vedo nessun motivo di preferire l'una o l'altra (a parte i consumi ma anche le temp di esercizio a quanto pare...), se non per il costo finale..
Per quanto riguarda l'oc, anche qui se è vero che ci sarà un ~10% di margine, rimango un pò basito, le 780 si dimostrano anche li ottime in oc.
mah staremo a vedere, i prezzi però sono per ora fuori luogo soprattutto perche la scheda arriva un bel pò in ritardo rispetto la concorrenza e, anche se è tutto provvisorio e un commento troppo basato su semi rumors e semi test) non sta portando nulla di cosi speciale.
Magari se uno vuole il top del top e non gli interessa il bb ok, ma prestazioni/prezzo alla mano ora come ora .............:rolleyes:
francisco9751
16-10-2013, 09:53
A parità di prezzo per me il 1gb di vram fa tendere l'asticella verso la 290..ripeto "per me".
Tapatalked from Nexus 4
appleroof
16-10-2013, 09:55
A parità di prezzo per me il 1gb di vram fa tendere l'asticella verso la 290..ripeto "per me".
Tapatalked from Nexus 4
no vi prego non ricominciamo :D
p.s.: non ho approfondito, ma pare che le 2 abbiano diversi modi di allocare la memoria...:boh:
ertruffa
16-10-2013, 09:55
A parità di prezzo per me il 1gb di vram fa tendere l'asticella verso la 290..ripeto "per me".
Tapatalked from Nexus 4
hai visto, per me quella e' l'ultima cosa, prima vengono prestazioni generali, calore, rumore e prezzo. 1 gb di vram in piu' in questo caso con 1 solo monitor non cambia nulla anche a 2560*1600.
maurilio968
16-10-2013, 09:56
vedo che fioccano illazioni sui prezzi allora ne faccio una anche io.
la gtx 780 mediamente (trovaprezzi) oscilla tra 500 e 540 euro
la hd 7990 mediamente tra 550 e 600 euro
ora , se la 290x nelle prestazioni game sta tra una titan ed una hd 7990, anche contando l'effetto novità non potrà costare troppo di più di una 7990.
Altrimenti , restando in casa amd, uno prende la 7990, o no ?
Svanito l'effetto novità dovrebbe quindi assestarsi sul prezzo (se non sotto) della 7990, quindi tra 550 e 600 euro.
perciò io la vedo così
280x tra 270 e 300 euro
290 liscia tra 400 e 450 euro
290x tra 550 e 600 euro
questo se la 7990 resta comunque sopra come prestazioni alla 290x.
se invece la 290x dovesse costare 650 euro e più (quindi 100 euro in media più della 7990) o va apprezzabilmente meglio della 7990 (e secondo me solo in tal caso nvidia ritoccherà al ribasso i suoi prezzi) oppure mi sembra un tantino fuori mercato.
certo che se i risultati son quelli del sito cinese, a parte metro LL imho è delusione totale, specie se il prezzo è cosi alto.
la 780, purtroppo, la pareggia in molti casi, basterà un modello custom di 780 per superarla tranquillamente.
Speriamo amd tenga conto di questo e la prezzi il giusto, ovvero sulla fascia delle 780, con la 290 liscia ancora più aggressiva.
E' già piazzata sulla fascia di prezzo delle 780, il prezzo di listino è identico per le due schede.
Comunque io non farei tutto questo affidamento a quella review, ci sono tanti altri leak che presentano risultati ben differenti, insomma: aspettiamo review certe :D
in ottica futura, stavo pensando di fare un upgrade o con 290 liscia o con una prossima gtx 800 (860 ti/870 presumibilmente). Riguardo alla 290 ed ai suoi consumi, il mio alimentatore in firma potrebbe bastare (44A nei 12V)? Non vorrei cambiarlo di nuovo visto che l'ho preso da poco. Nel mentre dovrei passare anche al 3770K e quindi consumare meno rispetto al 2500K. che dite? :)
vedo che fioccano illazioni sui prezzi allora ne faccio una anche io.
la gtx 780 mediamente (trovaprezzi) oscilla tra 500 e 540 euro
la hd 7990 mediamente tra 550 e 600 euro
ora , se la 290x nelle prestazioni game sta tra una titan ed una hd 7990, anche contando l'effetto novità non potrà costare troppo di più di una 7990.
Altrimenti , restando in casa amd, uno prende la 7990, o no ?
Svanito l'effetto novità dovrebbe quindi assestarsi sul prezzo (se non sotto) della 7990, quindi tra 550 e 600 euro.
perciò io la vedo così
280x tra 270 e 300 euro
290 liscia tra 400 e 450 euro
290x tra 550 e 600 euro
questo se la 7990 resta comunque sopra come prestazioni alla 290x.
se invece la 290x dovesse costare 650 euro e più (quindi 100 euro in media più della 7990) o va apprezzabilmente meglio della 7990 (e secondo me solo in tal caso nvidia ritoccherà al ribasso i suoi prezzi) oppure mi sembra un tantino fuori mercato.
Il tuo ragionamento non fila. La titan costa più di una 690 anche se va il 40 % e oltre in meno.
Probabilmente la 290x costera come/più di una 7990.
vedo che fioccano illazioni sui prezzi allora ne faccio una anche io.
la gtx 780 mediamente (trovaprezzi) oscilla tra 500 e 540 euro
la hd 7990 mediamente tra 550 e 600 euro
ora , se la 290x nelle prestazioni game sta tra una titan ed una hd 7990, anche contando l'effetto novità non potrà costare troppo di più di una 7990.
Altrimenti , restando in casa amd, uno prende la 7990, o no ?
Svanito l'effetto novità dovrebbe quindi assestarsi sul prezzo (se non sotto) della 7990, quindi tra 550 e 600 euro.
perciò io la vedo così
280x tra 270 e 300 euro
290 liscia tra 400 e 450 euro
290x tra 550 e 600 euro
questo se la 7990 resta comunque sopra come prestazioni alla 290x.
se invece la 290x dovesse costare 650 euro e più (quindi 100 euro in media più della 7990) o va apprezzabilmente meglio della 7990 (e secondo me solo in tal caso nvidia ritoccherà al ribasso i suoi prezzi) oppure mi sembra un tantino fuori mercato.
Il tuo ragionamento non fila. La titan costa più di una 690 anche se va il 40 % e oltre in meno.
Probabilmente la 290x costera come/più di una 7990.
in ottica futura, stavo pensando di fare un upgrade o con 290 liscia o con una prossima gtx 800 (860 ti/870 presumibilmente). Riguardo alla 290 ed ai suoi consumi, il mio alimentatore in firma potrebbe bastare (44A nei 12V)? Non vorrei cambiarlo di nuovo visto che l'ho preso da poco. Nel mentre dovrei passare anche al 3770K e quindi consumare meno rispetto al 2500K. che dite? :)
Che secondo me l'alimentatore ti regge benissimo.
Che secondo me l'alimentatore ti regge benissimo.
lo spero, il fatto che sia 8+6 pin un po' mi preoccupava, ma in rete ho visto che potrebbe essere pure 6+6, immagino che ancora non ci sia certezza a riguardo.
maurilio968
16-10-2013, 10:06
Il tuo ragionamento non fila. La titan costa più di una 690 anche se va il 40 % e oltre in meno.
Probabilmente la 290x costera come/più di una 7990.
Il tuo ragionamento non fila. La titan costa più di una 690 anche se va il 40 % e oltre in meno.
Probabilmente la 290x costera come/più di una 7990.
la titan costa di più perchè ha features in più sfruttabili in altri contesti rispetto al gaming.
Io comunque faccio un confronto principalmente in casa amd; se la 290x andasse meno della 7990 non dovrebbe costare di più (poi possono prezzarla come gli pare ma
allora secondo me non sarebbe conveniente).
Vedremo se come consumi e temperature è tanto meglio della 7990 da giustificare un prezzo più alto (le altre features, incluso il tanto dibattuto mantle, girano anche sulla 7990).
francisco9751
16-10-2013, 10:07
La 7990 è un dual gpu della generazione precedente
Tapatalked from Nexus 4
cire92cry
16-10-2013, 10:10
vedo che fioccano illazioni sui prezzi allora ne faccio una anche io.
la gtx 780 mediamente (trovaprezzi) oscilla tra 500 e 540 euro
la hd 7990 mediamente tra 550 e 600 euro
ora , se la 290x nelle prestazioni game sta tra una titan ed una hd 7990, anche contando l'effetto novità non potrà costare troppo di più di una 7990.
Altrimenti , restando in casa amd, uno prende la 7990, o no ?
Svanito l'effetto novità dovrebbe quindi assestarsi sul prezzo (se non sotto) della 7990, quindi tra 550 e 600 euro.
perciò io la vedo così
280x tra 270 e 300 euro
290 liscia tra 400 e 450 euro
290x tra 550 e 600 euro
questo se la 7990 resta comunque sopra come prestazioni alla 290x.
se invece la 290x dovesse costare 650 euro e più (quindi 100 euro in media più della 7990) o va apprezzabilmente meglio della 7990 (e secondo me solo in tal caso nvidia ritoccherà al ribasso i suoi prezzi) oppure mi sembra un tantino fuori mercato.
Penso sia impossibile che la 290x vada meglio della 7990 dove il cross viene sfruttato alla fine la 7990 ha 4000 sp è dura superarla :D
maurilio968
16-10-2013, 10:17
Penso sia impossibile che la 290x vada meglio della 7990 dove il cross viene sfruttato alla fine la 7990 ha 4000 sp è dura superarla :D
lo penso anche io.
E' per questo che, passato il primo periodo di effetto novità, la metto nella fascia di prezzo 550-600 euro.
ma io sarei contento se mi vendono la 290x twin frozr allo stesso prezzo della 780..
il punto è che di questo non ne sono proprio sicuro.
Io capisco che è una novità, ma anche andasse un 5-10% in più di una 780 stock, se veramente il prezzo è ~100 (parlo di vendita non listino) allora se la possono tenere, la 780 in oc ha margine e molto, bisogna stare comunque a vedere, fatti sicuri ora come ora non ce ne sono, però i prezzi di vendita e di acquisto quelli già ci sono....600 imho sono veramente troppi se, e ripeto se, le prestazioni/consumi/temp sono quelle.
Come dicono qui sopra, che senso avrebbe allora non scegliere la 7990 a 550 euro?
maurilio968
16-10-2013, 10:23
La 7990 è un dual gpu della generazione precedente
Tapatalked from Nexus 4
e allora?
se va di più costa meno ed ha le stesse features conviene di più.
la 290x non è a 20nm, sostanzialmente l'architettura è la stessa: hanno pompato su tutto per salire in prestazioni.
Se guardo alla 290x è perchè voglio giocare almeno a 1440p o 1600p: se spendendo meno faccio sensibilmente più fps che mi frega se è di generazione precedente? Lato driver le cose sono migliorate tanto con i 13.11 (microstuttering nelle configurazioni cross, cali di framerate ecc.) quindi non vedo motivi per preferire la 290x se non va più di una 7990 o se non costa meno (o almeno uguale, ma in tal caso io non la prenderei in considerazione)
e allora?
se va di più ed ha le stesse features conviene di più.
la 290x non è a 20nm, sostanzialmente l'architettura è la stessa: hanno pompato su tutto per salire in prestazioni.
Se guardo alla 290x è perchè voglio giocare almeno a 1440p o 1600p: se spendendo meno faccio sensibilmente più fps che mi frega se è di generazione precedente? Lato driver le cose sono migliorate tanto con i 13.11 (microstuttering nelle configurazioni cross, cali di framerate ecc.) quindi non vedo motivi per preferire la 290x se non va più di una 7990 o se non costa meno (o almeno uguale, ma in tal caso io non la prenderei in considerazione)
Ti ho già risposto prima.
Anche la 690 è nettamente più veloce di una Titan (dal 40 al 60 %), ma una è una dual gpu, una è una gpu singola e costa di più. Non c'è solo l'aspetto delle prestazioni da considerare e i motivi son tanti. Io personalmente non scambierei una 7970 con una una 7990, figuriamoci una 290.
appleroof
16-10-2013, 10:41
Io credo che la Titan non vada affatto considerata perchè essendo stata prezzata in modo folle, che prescinde da qualsiasi logica finora seguita nel prezzare le vga sul mercato (tranne quella di approfittare il più possibile degli entusiasths), non può appunto essere presa a termine di paragone (poi ci ha provato pure Amd con la 7990, lanciata sui 1000 euro - e come prestazioni ci stava pure- ma ha avuto la sfiga che il caso stuttering è esploso porprio in quelle settimane e giustamente la vga non se la è filata nessuno)
il prezzo giusto quando è uscita per me era di massimo 750 euro "su strada", per le prestazioni e i 6 giga di vram e le -limitate rispetto a tesla- funzionalità DP per chi servono
Per cui lascerei proprio perdere quella vga e magari mi fermerei alla 780 come bench per il prezzo/prestazioni...
maurilio968
16-10-2013, 10:43
Ti ho già risposto prima.
Anche la 690 è nettamente più veloce di una Titan (dal 40 al 60 %), ma una è una dual gpu, una è una gpu singola e costa di più. Non c'è solo l'aspetto delle prestazioni da considerare e i motivi son tanti. Io personalmente non scambierei una 7970 con una una 7990, figuriamoci una 290.
si vede che non giochi a 1600p o più.
Mi sembra un concetto semplice: se giochi fino a 1080p basta una 280x o una gtx 770. Schede superiori a quella risoluzione sono sprecate.
Se giochi a 1600p o in multimonitor le cose cambiano; ci sono schede singole (non importa se 1 o 2 gpu) che consentono una buona esperienza di gioco a quelle risoluzioni ? SI, la hd 7990 opputre la gt 690.
La 290x che scheda singola si propone di essere ? AMD stessa la pone nella fascia si utilizzo che ho descritto sopra: allora o va più di una 7990 o deve costare meno.
E' sempre il mio ragionamento personale: poi chi vuole può spendere 650 euro per fare 120 fps a 1080p (quando bastano 300 euro per fare 60 fps) e farne solo 29 a 1600p oppure in multimonitor (a seconda dei giochi).
maurilio968
16-10-2013, 10:45
Io credo che la Titan non vada affatto considerata perchè essendo stata prezzata in modo folle, che prescinde da qualsiasi logica finora seguita nel prezzare le vga sul mercato (tranne quella di approfittare il più possibile degli entusiasths), non può appunto essere presa a termine di paragone (poi ci ha provato pure Amd con la 7990, lanciata sui 1000 euro - e come prestazioni ci stava pure- ma ha avuto la sfiga che il caso stuttering è esploso porprio in quelle settimane e giustamente la vga non se la è filata nessuno)
il prezzo giusto quando è uscita per me era di massimo 750 euro "su strada", per le prestazioni e i 6 giga di vram e le -limitate rispetto a tesla- funzionalità DP per chi servono
Per cui lascerei proprio perdere quella vga e magari mi fermerei alla 780 come bench per il prezzo/prestazioni...
infatti io lo ho scritto prima.
Restiamo in casa amd: con i driver 13.11 le 7990 vanno molto bene.
Vediamo la 290x come si pone rispetto alla 7990.
zla_Stobb
16-10-2013, 10:50
scusate ma della r9 280 liscia non si sa nulla ? tipo quando uscirá ?
obiwan-80
16-10-2013, 10:51
State lontani da qualsiasi soluzione multi gpu, crossfire.
appleroof
16-10-2013, 10:52
infatti io lo ho scritto prima.
Restiamo in casa amd: con i driver 13.11 le 7990 vanno molto bene.
Vediamo la 290x come si pone rispetto alla 7990.
mah cmq escluderei pure quella perchè è una dual....io la confronterei con la 7970ghz e con la gtx 780, poi senza sapere le prestazioni chissà...secondo quel poco che si è visto diciamo che se mettessero un MRSP di 650$ al lancio sarebbe già oro colato per gli acquirenti, secondo me, sotto quella cifra poi ovviamente è tutto di guadagnato per chi la compra...
Ale55andr0
16-10-2013, 10:53
e allora?
se va di più costa meno ed ha le stesse features conviene di più.
è una dual, non scala sempre e comunque
maurilio968
16-10-2013, 10:55
State lontani da qualsiasi soluzione multi gpu, crossfire.
e a 1600p (o peggio in multimonitor) come ci giochi?
maurilio968
16-10-2013, 10:56
è una dual, non scala sempre e comunque
lo so, ma quali sono le alternative a quelle risoluzioni di gioco ?
zla_Stobb
16-10-2013, 10:58
si vede che non giochi a 1600p o più.
Mi sembra un concetto semplice: se giochi fino a 1080p basta una 280x o una gtx 770. Schede superiori a quella risoluzione sono sprecate.
Se giochi a 1600p o in multimonitor le cose cambiano; ci sono schede singole (non importa se 1 o 2 gpu) che consentono una buona esperienza di gioco a quelle risoluzioni ? SI, la hd 7990 opputre la gt 690.
La 290x che scheda singola si propone di essere ? AMD stessa la pone nella fascia si utilizzo che ho descritto sopra: allora o va più di una 7990 o deve costare meno.
E' sempre il mio ragionamento personale: poi chi vuole può spendere 650 euro per fare 120 fps a 1080p (quando bastano 300 euro per fare 60 fps) e farne solo 29 a 1600p oppure in multimonitor (a seconda dei giochi).
secondo te con una 7950 + il mio i 5 2500k dovrei stare abbastanza bene a 1080 p ?
secondo te con una 7950 + il mio i 5 2500k dovrei stare abbastanza bene a 1080 p ?
Si andresti benone, appena presa la vga, overcloccata a 1050 1500 e va benissimo ;) a 180 euro con 3 giochi è un affare fidati!!!
liberato87
16-10-2013, 11:00
gk104 è uscito parecchio dopo.
Comunque credevo che intendesse che AMD non è interessata alla fascia da 1000 euro, 290x si va a piazzare in una ben diversa fascia di prezzo.
parecchio dopo è esagerato, visto che parliamo di 3 mesi (indipendentemente se è uscito 3 mesi prima, io parlo di vga sulla stessa fascia, della stessa generazione). io ho quotato e PRECISATO solo perchè l affermazione "sono 6 anni che amd non fa chipponi come fa nvidia" imho era sbagliata perchè appunto gk104 era più piccolo di tahiti.
poi se uno vuole approfondire e precisare meglio così, solo che siamo OT e parliamo di vga vecchie, quindi per me discorso chiuso.
questo perchè "storicamente" quando si parla di vga amd, magari anche se andavano un pò meno si diceva appunto che (vedi fermi) le vga nvidia sono chipponi, dei forni, e che consumano una cifra.
poi se nvidia tira fuori gk104, dicono "eh nvidia si fa i soldi, vende un chip più piccolo allo stesso prezzo di amd, sono dei ladri" :doh:
viceversa se è amd a tirare fuori vga con chip più grande , i consumi improvvisamente non contano più niente ("la corrente non costa niente") e le temperature idem (vabbè basta che ci monti un accelero) :D
ma io sarei contento se mi vendono la 290x twin frozr allo stesso prezzo della 780..
il punto è che di questo non ne sono proprio sicuro.
Io capisco che è una novità, ma anche andasse un 5-10% in più di una 780 stock, se veramente il prezzo è ~100 (parlo di vendita non listino) allora se la possono tenere, la 780 in oc ha margine e molto, bisogna stare comunque a vedere, fatti sicuri ora come ora non ce ne sono, però i prezzi di vendita e di acquisto quelli già ci sono....600 imho sono veramente troppi se, e ripeto se, le prestazioni/consumi/temp sono quelle.
quoto. io spero la mettano sui 500euro cosi si avrà un ribasso generale.
però sicuramente al day one la tireranno fuori a 650.
io penso che a 1440p andrà più della 780, andando a competere con le prestazioni della titan, costando di meno (anche in virtù dei 2gb in meno di memoria, dissi a occhio più economico ecc).
comunque io non credo che i bench definitivi siano questi.
è stato fatto parecchio hype.. anche se ripeto amd ha presentato la 290x come “Our Most Powerful GPU Yet”, non come la più potente in assoluto.
molto dipenderà dai margini di overclock, se i bench bene o mali sono quelli mostrati.
se salgono bene senza aumentare troppo i consumi sarà una bella sfida.
anche se ora come ora, almeno per quello che vedo io, le 780 salgono di più delle prime uscite (l asic è sensibilmente più alto, anche nel thread ora con le custom stanno tutti sull 80%, all inizio tutte le reference sul 60), quindi può darsi che nvidia sia avvantaggiata da avere un silicio più rodato.
se dobbiamo comparare 290x e 780, non capisco la 290 dove si va a piazzare. dato che la r280 se la vede con la 770 :mbe:
vedo che fioccano illazioni sui prezzi allora ne faccio una anche io.
la gtx 780 mediamente (trovaprezzi) oscilla tra 500 e 540 euro
la hd 7990 mediamente tra 550 e 600 euro
ora , se la 290x nelle prestazioni game sta tra una titan ed una hd 7990, anche contando l'effetto novità non potrà costare troppo di più di una 7990.
Altrimenti , restando in casa amd, uno prende la 7990, o no ?
Svanito l'effetto novità dovrebbe quindi assestarsi sul prezzo (se non sotto) della 7990, quindi tra 550 e 600 euro.
perciò io la vedo così
280x tra 270 e 300 euro
290 liscia tra 400 e 450 euro
290x tra 550 e 600 euro
questo se la 7990 resta comunque sopra come prestazioni alla 290x.
se invece la 290x dovesse costare 650 euro e più (quindi 100 euro in media più della 7990) o va apprezzabilmente meglio della 7990 (e secondo me solo in tal caso nvidia ritoccherà al ribasso i suoi prezzi) oppure mi sembra un tantino fuori mercato.
Secondo me non è corretto paragonare schede video che seppur di fascia di prezzo simile hanno caratteristiche così diverse come essere a singolo o doppio chip. Se costano pari e vanno pari è molto meglio il singolo, meno rumore/temperature e consumi e nessun problema legato al crossfire
e a 1600p (o peggio in multimonitor) come ci giochi?
di base non ci giochi.
Il multimonitor ed il multi gpu non sono una categoria "core" del mercato gamers, sono una nicchia della nicchia.
E come nicchia mettere su un sistema multi monitor con un multi gpu, ha un costo / prestazioni decisamente basso.
con una 280x ci giochi a 1080p è vero, ma con la 290x ci giochi "meglio" considerando sempre che ciclo vitale uno vuole fare alla sua vga (se la tieni un'anno probabilmente i motori grafici da qui ad un anno hanno maggiori richieste e la 290x va ancora bene, magari la 280x arranca.)
Se va più di una Titan, 650 di listino è un prezzo assolutamente onesto.
29Leonardo
16-10-2013, 11:06
secondo te con una 7950 + il mio i 5 2500k dovrei stare abbastanza bene a 1080 p ?
se non esageri con i filtri vai alla grande.
maurilio968
16-10-2013, 11:07
se dobbiamo comparare 290x e 780, non capisco la 290 dove si va a piazzare. dato che la r280 se la vede con la 770 :mbe:
sempre per illazioni: a metà strada e come ho detto con un prezzo sui 400-450 euro.
di base non ci giochi.
Il multimonitor ed il multi gpu non sono una categoria "core" del mercato gamers, sono una nicchia della nicchia.
E come nicchia mettere su un sistema multi monitor con un multi gpu, ha un costo / prestazioni decisamente basso.
Esatto, io onestamente sto benissimo a 1080p, 60 hz.
con una 280x ci giochi a 1080p è vero, ma con la 290x ci giochi "meglio" considerando sempre che ciclo vitale uno vuole fare alla sua vga (se la tieni un'anno probabilmente i motori grafici da qui ad un anno hanno maggiori richieste e la 290x va ancora bene, magari la 280x arranca.)
Io non credo questo avverrà mai. Non sono i motori grafici a determianre la pesantezza dei giochi (o meglio lo sono ma quando progettati male, vedi lo schifo di motore di Arma 3 che è ancora quello di Operation Flashpoint che continuano a riciclare) quanto semplicemente quello che ci "infilano" dentro i videogiochi. Crysis 3 è peso semplicemente perchè a livello di dettaglio/illuminazione siamo a livelli veramente elevati (ma non tanto diversi da un ben più vecchio warhead).
Fondamentalmente io credo che sopra la 770, 280x ormai upgradare per 1080 e 60 hz sia insensato, è solo voglia di vedere numeretti e 0 differenze nei giochi. 5 anni fa chi avesse comprato una 5870 per giocare a 1366 ancora oggi giocherebbe con tutto ad ultra, battlefield 4 incluso, hitman absolution incluso, anzi lo farebbe probabilmente anche a1 680 considerato che BF4 gira ad ultra a quella res su una 5870 senza aa, persino Crysis 3 fa 24 fps medi maxato ad ultra con una 5870, vuoi non giocarci a 1366 o 1680?. Idem 770 e 280x ormai sono il limite a questa risoluzione. Senza nuove tecnologie, librerie da sfruttare, impantanati in directx 11 ormai c'è poco da upgradare secondo me tranne che per sfizio :D
maurilio968
16-10-2013, 11:15
Fondamentalmente io credo che sopra la 770, 280x ormai upgradare per 1080 e 60 hz sia insensato, è solo voglia di vedere numeretti e 0 differenze nei giochi. 5 anni fa chi avesse comprato una 5870 per giocare a 1366 ancora oggi giocherebbe con tutto ad ultra, battlefield 4 incluso, hitman absolution incluso, anzi lo farebbe probabilmente anche a1 680 considerato che BF4 gira ad ultra a quella res su una 5870 senza aa, persino Crysis 3 fa 24 fps medi maxato ad ultra con una 5870, vuoi non giocarci a 1366 o 1680?. Idem 770 e 280x ormai sono il limite a questa risoluzione. Senza nuove tecnologie, librerie da sfruttare, impantanati in directx 11 ormai c'è poco da upgradare secondo me tranne che per sfizio
proprio per questo facevo quelle illazioni sul rapporto prezzo-prestazioni della 290x.
Schede da 600 euro o più o consentono di giocare bene a 1600p e/o in multimonitor o sono inutili.
Serve un salto prestazionale che per ora non vedo, mentre intravedo prezzi ingiustificati.
maurilio968
16-10-2013, 11:37
di base non ci giochi.
Il multimonitor ed il multi gpu non sono una categoria "core" del mercato gamers, sono una nicchia della nicchia.
E come nicchia mettere su un sistema multi monitor con un multi gpu,ha un costo / prestazioni decisamente basso.
ne sei così sicuro? tre ips dell da 23 pollici full hd vengono 600 euro, una 7990 550 euro: in tutto 1150 euro.
poi per ora possono essere anche una nicchia, ma allora spiegami le 290x chi dovrebbe comprarle, ah già :
con una 280x ci giochi a 1080p è vero, ma con la 290x ci giochi "meglio" considerando sempre che ciclo vitale uno vuole fare alla sua vga (se la tieni un'anno probabilmente i motori grafici da qui ad un anno hanno maggiori richieste e la 290x va ancora bene, magari la 280x arranca.)
sul giocarci "meglio" non concordo, a 1080p la 290x è troppo sprecata
sulla longevità nemmeno: secondo te è meglio spedere mettiamo 650 euro subito e tenere una 290x per 4 anni e non spendere 300 adesso per una 280x e tra due anni altri 350 per una scheda che andrà in quel momento come-più della 290x ? Contando anche che la 280x l'hai rivenduta e qualcosa ci hai recuperato.
cut
sul giocarci "meglio" non concordo, a 1080p la 290x è troppo sprecata
sulla longevità nemmeno: secondo te è meglio spedere mettiamo 650 euro subito e tenere una 290x per 4 anni e non spendere 300 adesso per una 280x e tra due anni altri 350 per una scheda che andrà in quel momento come-più della 290x ? Contando anche che la 280x l'hai rivenduta e qualcosa ci hai recuperato.
sti discorsi si facevano esattamente anche con le 7970 che era sprecata per il full hd bla bla bla, eppure dall'uscita ad oggi le cose si sono dimostrate contrarie. la 7970 è perfetta per il fullhd e per ancora 2 annetti buoni non darà problemi nelle prestazioni. che poi un cross come me sia abbastanza inutile è vero ma li entriamo in hobby personali
damerin0
16-10-2013, 12:10
Il tuo ragionamento non fila. La titan costa più di una 690 anche se va il 40 % e oltre in meno.
Probabilmente la 290x costera come/più di una 7990.
Il tuo ragionamento non fila. La titan costa più di una 690 anche se va il 40 % e oltre in meno.
Probabilmente la 290x costera come/più di una 7990.
La titan 40% in meno di una 690??ma non farmi ridere!!
La titan 40% in meno di una 690??ma non farmi ridere!!
infatti, anche perchè messo cosi vorrebbe dire che la titan va come una gtx680 che è impossibile, un 5% massimo 10% nei titoli ottimizzato per lo sli si altrimenti NO
Einhander
16-10-2013, 12:35
la titan costa di più perchè ha features in più sfruttabili in altri contesti rispetto al gaming.
Io comunque faccio un confronto principalmente in casa amd; se la 290x andasse meno della 7990 non dovrebbe costare di più (poi possono prezzarla come gli pare ma
allora secondo me non sarebbe conveniente).
Vedremo se come consumi e temperature è tanto meglio della 7990 da giustificare un prezzo più alto (le altre features, incluso il tanto dibattuto mantle, girano anche sulla 7990).
La titan costa di piu' perche' nvidia sa' che ci sono nel mondo almeno 4000-5000 furbacchioni che la comprerebbero al day one, ma quali sarebbero ste mega-prestazioni in altri ambiti, visto che dove conta sul serio la potenza di elaborazione una banale 7970 liscia la devasta?
Non torniamo sul discorso del prezzo della titan che non e' ne in cielo ne in terra, che poi ci siano persone che sostengano il contrario e' obiettivamente opinabile e spesso dipende dal fatto che loro stessi ne hanno presa una o sono fanboy e quindi gioco forza tendono ad imporre la loro visione anche e soprattutto per questo.
Io non prenderei MAI la titan come metro di paragone a livello di prezzi, bensi la 780 come in effetti pare aver fatto anche amd.
E cmq sia per amd che nvidia cosa uno decide di prendere secondo me dovrebbe dipendere principalemente dal rapporto prezzo\prestazioni -in singola gpu- REALE non ufficiale, perche' noi prendiamo schede video con i prezzi degli shop non con quelli emanati dalle case costruttrici amd, nvidia o intel che siano.
E questo giochera' sicuramente a svantaggio di amd per un primo periodo, anche perche' nulla vieta ad nvidia di ritoccare anche leggermete i prezzi verso il basso (SALVO grosse sorprese lato prestazioni).
Cio' che invece non capisco e' il discorso delle versioni custom delle 780 in relazione alle amd 290x -cioe' se esce la versione toxc della 290x il discorso ritorna dinuovo al punto che semplicemente la 290x va di piu' niente di nuovo e in quel caso credo che il bundle dei giochi (e ci sara' sicuramente, magari non subito per spingere battlefield 4) e le reali prestazioni a seguito di recenzioni scritte in una lingua diversa da quella dei cerchi nel grano possano essere illuminanti.
P.s.: gk 104 era piu' piccolo ma nvidia sego' totalmente la parte gpgpu -che lei stessa per 3 generazioni aveva spinto come fosse la manna dal cielo- e quando l'ha messa sulla titan ha cmq tirato fuori una mattonella niente male in dimensioni del die, fermo restando appunto che salvo per il quantitativo di memoria in molti ambiti di gpgpu una singola 7970 la DEVASTA, se poi prendiamo due o tre di queste -per raggiungere il prezzo della titan- il discorso diventa ridicolo al limite del leggendario :asd:, quindi si amd ha fatto delle mattonelle con tahiti, ma nvidia quando ha inserito una parte gpgpu e quindi ha dato vita ad un chip completo di tutto come la controparte ha creato un mattonellone anche lei e l'ha piazzato ad un prezzo da folli.
Morale della favola, non mi pare che nvidia sia avanti ad amd nel modo di fare i chip in merito ai mm2\prestazioni a 360° del die, anzi passa in vantaggio solo quando taglia parti destinate ad altri ambiti che lei stessa ha spinto per generazioni come fossero il futuro, poi come per magia quando la concorrenza l'ha raggiunta e anche sorpassata, ha deciso che non era piu' importante -non so' perche' ma mi ricorda certe affermazioni fatte da essa prima e dopo aver perso il treno delle console :asd:)-
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.