PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 [28] 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348

francisco9751
17-10-2013, 22:39
Sinceramente io non so manco cosa siano lol

Tapatalked from Nexus 4

Obrigado
17-10-2013, 22:41
il 90% delle titan va a 1006mhz di default

<Masquerade>
17-10-2013, 22:44
beh già a 1440 serve a poco..infatti io quando possibile lo levo sempre..a 4k è decisamente inutile..anzi attivarlo a quella risoluzione vuol dire..voler giocare male..

io dove posso ce lo infilo sempre l'aa,ed anche di qualità, se le prestazioni restano degne.
nei casi dove non posso, tipo con Crysis 1 al max.. sto bene anche con un FXAA forzato dal pannello driver, leggerissimo ed unito alla elevata risoluzione fa il suo dovere.
lo ritengo il miglior modo possibile per giocarlo con una gpu,con la potenza tipo la mia in firma, a 1440p.
FXAA+ very high + lo shader.pak che permette di abilitare il filtro AF 16x

Vul
17-10-2013, 22:45
il 90% delle titan va a 1006mhz di default

Quindi?

I paragoni vanno fatti sulle reference.

Le misure di oc sono tutt'altra cosa.
http://www.nvidia.it/object/geforce-gtx-titan-it.html#pdpContent=2

Se la maggior parte delle 780 e/o titan vengono vendute occate di default è legato a due fattori:
a) la fascia di prezzo a cui vengono vendute, non ci sono delle dannate club3d e powercolor in queste fasce di prezzo a fare le reference ma tutti modelli più o meno custom

b) reggono facilmente quelle frequenze evidentemente con minimo sforzo di voltaggi (che nvidia non incoraggia)

DukeIT
17-10-2013, 22:45
il 90% delle titan va a 1006mhz di defaultMa non la reference, il confronto è con quella.
Il confronto tra modelli "speciali" per entrambi i marchi (rossi e verdi), sarebbe altra prova, ma andrebbe appunto fatto con entrambi i modelli occati.

enryco
17-10-2013, 22:46
mah, non saprei, è sempre un GCN, non un passaggio ad una nuova architettura che rompe completamente gli schemi con la precedente come nel passaggio da 6970 a 7970, non credo ci si possa attendere chissà quali migliorie dai driver, eccezion fatta per mantle che voglio proprio vedere che differenza comporterà in BF4






quoto :)








Sent from my RM-825_eu_italy_244 using Tapatalk

francisco9751
17-10-2013, 22:47
io dove posso ce lo infilo sempre l'aa,ed anche di qualità, se le prestazioni restano degne.
nei casi dove non posso, tipo con Crysis 1 al max.. sto bene anche con un FXAA forzato dal pannello driver, leggerissimo ed unito alla elevata risoluzione fa il suo dovere.
lo ritengo il miglior modo possibile per giocarlo con una gpu,con la potenza tipo la mia in firma, a 1440p.
FXAA+ very high + lo shader.pak che permette di abilitare il filtro AF 16x

Beeh perché tu sei più smanettone di me,come ho detto prima non conosco tutte quelle sigle, e non voglio nemmeno saperle u.u sarà che io vengo da 15 anni di console e sinceramente non mi importa poi tanto della grafica ;) tant'e vero che me ne sto benissimo con una 7950@1440p..è solo la scimmia che mi ordina di cambiarla :D

Tapatalked from Nexus 4

Obrigado
17-10-2013, 22:48
ripeto

senza toccare nulla il 90% delle titan REFERENCE va a 1006mhz il restante 5% va a 1032mhz e il restante 5% va a 976mhz fino ad 80gradi


vul e duke!

lo devo ripere ancora?

o vi devo mandare una titan?

LurenZ87
17-10-2013, 22:49
Non avete capito, una GTX Titan ronza a 1Ghz di default grazie al Kepler Boost... Ora bisogna vedere se in quelle condizioni quelle sono le massime frequenze che hanno raggiunto o se sono state limitate a quella determinata frequenza.

Inviato dal mio Nexus 4

enryco
17-10-2013, 22:50
La frase intende solo 4k.

Per qualche motivo amd sembra sempre scalare meglio con le risoluzioni. Anche a 1440p ricordo nella recensione della 280x toxic batteva in qualche occasione anche la 780.

Secondo me sarà un 5 % più veloce in media di Titan, forse meno, intendo a 1440p e 1080p.






credo sia merito della ram intesa come banda...aumentando la risoluzione aumentano i dati da processare e diventa quindi fondamentale un bel flusso per far macinare la gpu








Sent from my RM-825_eu_italy_244 using tapatalck

Vul
17-10-2013, 22:51
Quindi?

Sai come vanno le 290x senza toccare nulla?

No.

Stai parlando di una fascia di prezzo da 1000 euro, è ovvio che i produttori fanno la rincorsa all'occatina più o meno rilevante.

Se parliamo di schede reference le paragoniamo con le reference.

Poi il giorno dopo avremo il benchmark che ci dirà che la 290x dopo 100 mhz esplode magari mentre la titan esce di fabbrica tranquillamente occata di 200 mhz.

Ma non ha niente a che vedere con delle reference. Anzi, quei grafici sono già ritoccati visto che non paragonano 290x con 780 o titan lisce.

Non avete capito, una GTX Titan ronza a 1Ghz di default grazie al Kepler Boost... Ora bisogna vedere se in quelle condizioni quelle sono le massime frequenze che hanno raggiunto o se sono state limitate a quella determinata frequenza.

Inviato dal mio Nexus 4

E le schede amd non hanno boost dinamico? :V

Me li aspettavo gli nvidia fanboys arrivare e gridare al boicotto :asd:

Obrigado
17-10-2013, 22:52
Quindi?

Sai come vanno le 290x senza toccare nulla?

No.

Stai parlando di una fascia di prezzo da 1000 euro, è ovvio che i produttori fanno la rincorsa all'occatina più o meno rilevante.

Se parliamo di schede reference le paragoniamo con le reference.

Poi il giorno dopo avremo il benchmark che ci dirà che la 290x dopo 100 mhz esplode magari mentre la titan esce di fabbrica tranquillamente occata di 200 mhz.

Ma non ha niente a che vedere con delle reference. Anzi, quei grafici sono già ritoccati visto che non paragonano 290x con 780 o titan lisce.
ma ci fai o ci sei?

lo devo ripetere ancora?

DukeIT
17-10-2013, 22:53
ripeto

senza toccare nulla il 90% delle titan REFERENCE va a 1006mhz il restante 5% va a 1032mhz e il restante 5% va a 976mhz fino ad 80gradi


vul e duke!

lo devo ripere ancora?

o vi devo mandare una titan?Vanno come il produttore le fa andare. Le specifiche reference non sono quelle.

LurenZ87
17-10-2013, 22:53
Quindi?

Sai come vanno le 290x senza toccare nulla?

No.

Stai parlando di una fascia di prezzo da 1000 euro, è ovvio che i produttori fanno la rincorsa all'occatina più o meno rilevante.

Se parliamo di schede reference le paragoniamo con le reference.

Poi il giorno dopo avremo il benchmark che ci dirà che la 290x dopo 100 mhz esplode magari mentre la titan esce di fabbrica tranquillamente occata di 200 mhz.

Ma non ha niente a che vedere con delle reference. Anzi, quei grafici sono già ritoccati visto che non paragonano 290x con 780 o titan lisce.

Sei di coccio...

Te lo ripeto, una GTX Titan reference arriva mediamente ad 1Ghz da sola ed a default e tiene quella frequenza in tutto l'arco della sessione 3D, poi oltre gli 80°C incomincia a ridurre le frequenze, stesso discorso per la GTX 780.

Inviato dal mio Nexus 4

Vul
17-10-2013, 22:54
ripeto

senza toccare nulla il 90% delle titan REFERENCE va a 1006mhz il restante 5% va a 1032mhz e il restante 5% va a 976mhz fino ad 80gradi


vul e duke!

lo devo ripere ancora?

o vi devo mandare una titan?

Le specifiche non sono quelle.

Se domani escono le 290x e girano tutte a 1300 mhz di default non sono comunque quelle le specifiche.

http://www.nvidia.it/object/geforce-gtx-titan-it.html#pdpContent=2
Sei di coccio...

Te lo ripeto, una GTX Titan reference arriva mediamente ad 1Ghz da sola ed a default e tiene quella frequenza in tutto l'arco della sessione 3D, poi oltre gli 80°C incomincia a ridurre le frequenze, stesso discorso per la GTX 780.

Inviato dal mio Nexus 4

Non sono di coccio sei tu che mi tiri in ballo il kepler boost.
C'è scritto in quei benchmark che lo hanno disattivato?

Anche le schede amd hanno boost dinamico (mi pare le 290x abbiano il dinamyc boost annunciato da nvidia 8 mesi fa) nelle applicazioni e non girano alle frequenze reference.

Giustaf
17-10-2013, 22:54
ripeto

senza toccare nulla il 90% delle titan REFERENCE va a 1006mhz il restante 5% va a 1032mhz e il restante 5% va a 976mhz fino ad 80gradi


vul e duke!

lo devo ripere ancora?

o vi devo mandare una titan?

io mi stupisco che le amd sono ancora ferme a frequenze fisse e non sappiano neanche cosa sia il boost! :asd:

<Masquerade>
17-10-2013, 22:55
effettivamente dovrebbero scrivere 1Ghz sulla Titan e 1,1Ghz buoni sulla GTX 780...

boostano uguali al max. fanno entrambe circa 1GHz

Obrigado
17-10-2013, 22:56
Vanno come il produttore le fa andare. Le specifiche reference non sono quelle.

assolutamente no!

la frequenza minima della titan di 876mhz le raggiunge solo a 100gradi!

fino a 80gradi sta sempre intorno ai 1000mhz


non c'entra nulla il produttore!

LurenZ87
17-10-2013, 22:57
io mi stupisco che le amd sono ancora ferme a frequenze fisse e non sappiano neanche cosa sia il boost! :asd:

Meglio, almeno quando overclocco la frequenza la scelgo io...


Inviato dal mio Nexus 4

enryco
17-10-2013, 22:57
Ma non la reference, il confronto è con quella.
Il confronto tra modelli "speciali" per entrambi i marchi (rossi e verdi), sarebbe altra prova, ma andrebbe appunto fatto con entrambi i modelli occati.









credo intendesse altro...ovvero dall introduzione del gpu bost o come si chiama parlare di frequenza diventa un casino...nel nostro caso ad esempio abbiamo una titan con frequenza minima di 850 mhz circa, ma in realtà viaggia a una media di 1000 mhz...credo ke il senso del post fosse questo.

Poi per complicare ulteriormente abbiamo un gpubost 2.0 ke dipende della temperatura....ovvero anke il clima influenza la velocità media...un casino





Sent from my RM-825_eu_italy_244 using Tapatalk

Vul
17-10-2013, 22:58
assolutamente no!

la frequenza minima della titan di 876mhz le raggiunge solo a 100gradi!

fino a 80gradi sta sempre intorno ai 1000mhz


non c'entra nulla il produttore!

La frequenza minima della Titan è di 836, non 876 comunque.

Il fatto che in game salga non vedo come sia rilevante, nel grafico non c'è scritto il contrario.
credo intendesse altro...ovvero dall introduzione del gpu bost o come si chiama parlare di frequenza diventa un casino...nel nostro caso ad esempio abbiamo una titan con frequenza minima di 850 mhz circa, ma in realtà viaggia a una media di 1000 mhz...credo ke il senso del post fosse questo.

Poi per complicare ulteriormente abbiamo un gpubost 2.0 ke dipende della temperatura....ovvero anke il clima influenza la velocità media...un casino





Sent from my RM-825_eu_italy_244 using Tapatalk

Si, ma il punto rimane, c'è scritto che viene per caso bloccata a 876 o che il kepler boost sia disattivato?

Secondo il vostro ragionamento uno può settare quello che gli pare, tanto poi è il kepler boost a far andare la scheda a quanto deve andare.

Ale55andr0
17-10-2013, 22:59
effettivamente dovrebbero scrivere 1Ghz sulla Titan e 1,1Ghz buoni sulla GTX 780...

appunto :O

(vabò diciamo 900 e rotti su titan)

Obrigado
17-10-2013, 22:59
capisco che siete degli heaters, ma io pur avendo nvidia nel case spesso le ati le provo e so come funzionano!

voi parlate di nvidia ma non sapete minimamente come funzionano...

eccheccacchio

Ale55andr0
17-10-2013, 23:00
capisco che siete degli heaters, ma io pur avendo nvidia nel case spesso le ati le provo e so come funzionano!

voi parlate di nvidia ma non sapete minimamente come funzionano...

eccheccacchio

Lurenz le conosce, e bene...

°Phenom°
17-10-2013, 23:00
Meglio, almeno quando overclocco la frequenza la scelgo io...


Inviato dal mio Nexus 4

Quoto, il boost dinamico non ha utilità, meglio la frequenza fissa e via ;)

Vul
17-10-2013, 23:01
capisco che siete degli heaters, ma io pur avendo nvidia nel case spesso le ati le provo e so come funzionano!

voi parlate di nvidia ma non sapete minimamente come funzionano...

eccheccacchio



Si ma tu hai fatto una puntualizzazione strana. Il fatto che lì ci sia scritto 800 o 400 o 900 mhz è irrilevante se è attivo il Kepler Boost. Ma dal post sembrava che implicaste che il Kepler Boost sia disattivo e fossero bloccate a 876 mhz.

Obrigado
17-10-2013, 23:01
Lurenz le conosce, e bene...

e infatti dice quello che dico io...

Giustaf
17-10-2013, 23:01
credo intendesse altro...ovvero dall introduzione del gpu bost o come si chiama parlare di frequenza diventa un casino...nel nostro caso ad esempio abbiamo una titan con frequenza minima di 850 mhz circa, ma in realtà viaggia a una media di 1000 mhz...credo ke il senso del post fosse questo.

Poi per complicare ulteriormente abbiamo un gpubost 2.0 ke dipende della temperatura....ovvero anke il clima influenza la velocità media...un casino

Sent from my RM-825_eu_italy_244 using Tapatalk

non è un casino...si chiama evoluzione! capita nel mondo hardware! ;)

LurenZ87
17-10-2013, 23:02
appunto :O

(vabò diciamo 900 e rotti su titan)

No, la mia boostava a 1Ghz e qualcosa, ma non ricordo quanto di preciso. In oc in determinati test reggeva 1250Mhz ma non sempre, però la tenevo a 1150Mhz fissi per evitare eventuali crash.

Inviato dal mio Nexus 4

DukeIT
17-10-2013, 23:03
credo intendesse altro...ovvero dall introduzione del gpu bost o come si chiama parlare di frequenza diventa un casino...nel nostro caso ad esempio abbiamo una titan con frequenza minima di 850 mhz circa, ma in realtà viaggia a una media di 1000 mhz...credo ke il senso del post fosse questo.
Grazie, avevo poi capito cosa intendeva.
In ogni caso le specifiche riportate nella recensione sono quelle fornite da Nvidia, evidentemente il recensore non ha fatto altro che un copia incolla, trattandosi di modelli su specifiche reference.

Obrigado
17-10-2013, 23:04
Si ma tu hai fatto una puntualizzazione strana. Il fatto che lì ci sia scritto 800 o 400 o 900 mhz è irrilevante se è attivo il Kepler Boost. Ma dal post sembrava che implicaste che il Kepler Boost sia disattivo e fossero bloccate a 876 mhz.

il bench specifico è stato commissionato da amd stessa oggi con 2 titoli specifici.

puo' darsi che amd abbia chiesto di tenere le nvidia alla frequenza minima default...

tutto è possibile...

LurenZ87
17-10-2013, 23:05
non è un casino...si chiama evoluzione! capita nel mondo hardware! ;)

Evoluzione???

LOL

Inviato dal mio Nexus 4

Ale55andr0
17-10-2013, 23:07
e infatti dice quello che dico io...

e io non ho detto il contrario, lasciando intendere che la frequenza effettiva non è certo 876mhz...ergo il confronto è nearly clock to clock sul core

enryco
17-10-2013, 23:07
Una domanda su questo bost...nel caso in cui ho un monitor a 60hz e la titan mi genera 70fps, si autodownclocka per generare 60fps e risparmiare quindi energia?

Vul
17-10-2013, 23:07
il bench specifico è stato commissionato da amd stessa oggi con 2 titoli specifici.

puo' darsi che amd abbia chiesto di tenere le nvidia alla frequenza minima default...

tutto è possibile...

Non credo. AMD non ha commissionato un bench, AMD ha semplicemente detto che quello era l'unico test che potevano pubblicare le persone che stanno sotto NDA. Qualsiasi testata giornalistica rischierebbe il linciaggio pubblicando test in malafede e alterati da quelle che sono le caratteristiche di una scheda senza contare il contraccolpo di immagine per AMD.

Obrigado
17-10-2013, 23:08
Una domanda su questo bost...nel caso in cui ho un monitor a 60hz e la titan mi genera 70fps, si autodownclocka per generare 60fps e risparmiare quindi energia?

si

francisco9751
17-10-2013, 23:08
il bench specifico è stato commissionato da amd stessa oggi con 2 titoli specifici.

puo' darsi che amd abbia chiesto di tenere le nvidia alla frequenza minima default...

tutto è possibile...

Povera nVidia, AMD è stata proprio cattiva.. Ma va va

Tapatalked from Nexus 4

Ale55andr0
17-10-2013, 23:09
il bench specifico è stato commissionato da amd stessa oggi con 2 titoli specifici.

puo' darsi che amd abbia chiesto di tenere le nvidia alla frequenza minima default...

tutto è possibile...


e magari di forzare i filtri dal pannello di controllo per rallentarla ulteriormente
tutto è possibile :D

Obrigado
17-10-2013, 23:11
Non credo. AMD non ha commissionato un bench, AMD ha semplicemente detto che quello era l'unico test che potevano pubblicare le persone che stanno sotto NDA. Qualsiasi testata giornalistica rischierebbe il linciaggio pubblicando test in malafede e alterati da quelle che sono le caratteristiche di una scheda senza contare il contraccolpo di immagine per AMD.

cerca bene sul web!!!

è stato commissionato per distogliere l'attenzione dall'evento che si è tenuto oggi in canada (the way is mean to be played 2013)

specificando ai recensori di farli a 4k con bioshok e tomb raider
http://videocardz.com/46912/official-amd-radeon-r9-290x-2160p-performance-geforce-gtx-780
trai tu le conclusioni..

nico88desmo
17-10-2013, 23:11
Se le specifiche della scheda R9 290x saranno quello indicate, ovvero 64 rops e 512 bit di bus, alla risoluzione 4k molto probabilmente starà davanti ad una gtx titan. Il punto è...di quanto? se la Titan fa 30 fps e la r9 290x è anche il 20% più veloce, significa che farà mediamente 36fps, ovvero ancora un framerate medio non valido per giocare decentemente.
Probabilmente la risoluzione 4k è ritenuta adatta da Amd per valutare le prestazioni della scheda rispetto alla concorrenza, anche se onestamente credo che sia la nuova Amd sia la Titan, non siano in grado di gestire singolarmente questa risoluzione.
Comunque ormai manca poco all'uscita delle recensioni ;)

Ale55andr0
17-10-2013, 23:11
No, la mia boostava a 1Ghz e qualcosa, ma non ricordo quanto di preciso. In oc in determinati test reggeva 1250Mhz ma non sempre, però la tenevo a 1150Mhz fissi per evitare eventuali crash.

Inviato dal mio Nexus 4

lo dicevo solo per tenere a riferimento uno scenario quanto più pessimistico possibile ;)

Giustaf
17-10-2013, 23:13
Evoluzione???

LOL

Inviato dal mio Nexus 4

io lo trovo estremamente comoda, guarda caso anche intel fa lo stesso con le sue cpu.
un tempo il qx9650 mi stava a 4Ghz anche quando scrivevo su word, ora il 3770k mi scende a 1.6Ghz con tensione sotto al volt.
La 680 fa lo stesso, in fifa14 mi sta a 800, poi a 970, e sale fino a 1100 in alcuni frangenti. Poi in bf3 va al massimo (boost + overclock) a 1300...per scendere di nuovo a 900 quando si è a fine round.

francisco9751
17-10-2013, 23:13
cerca bene sul web!!!

è stato commissionato per distogliere l'attenzione dall'evento che si è tenuto oggi in canada (the way is mean to be played 2013)

specificando ai recensori di farli a 4k con bioshok e tomb raider

trai tu le conclusioni..

Non è stato commissionato nulla...i recensori hanno le VGA già da un po... AMD in vista della conferenza nVidia, ha solo detto che chi aveva un monitor 4k poteva pubblicare quei due risultati..

Tapatalked from Nexus 4

Obrigado
17-10-2013, 23:14
e magari di forzare i filtri dal pannello di controllo per rallentarla ulteriormente
tutto è possibile :D

magari hanno benchato su vista a 32bit con il virus della polizia postale...

Obrigado
17-10-2013, 23:15
Non è stato commissionato nulla...i recensori hanno le VGA già da un po... AMD in vista della conferenza nVidia, ha solo detto che chi aveva un monitor 4k poteva pubblicare quei due risultati..

Tapatalked from Nexus 4

e perche' non crysis 3 o altro?

:asd:

DukeIT
17-10-2013, 23:15
cerca bene sul web!!!

è stato commissionato per distogliere l'attenzione dall'evento che si è tenuto oggi in canada (the way is mean to be played 2013)

specificando ai recensori di farli a 4k con bioshok e tomb raider
http://videocardz.com/46912/official-amd-radeon-r9-290x-2160p-performance-geforce-gtx-780
trai tu le conclusioni..Beh, ha puntualizzato solo titolo gioco e risoluzione, non può avere intimato di frenare le nVidia, sarebbe un autogoal clamoroso, visto che non rimarrebbe sicuramente segreto.

Vul
17-10-2013, 23:16
cerca bene sul web!!!

è stato commissionato per distogliere l'attenzione dall'evento che si è tenuto oggi in canada (the way is mean to be played 2013)

specificando ai recensori di farli a 4k con bioshok e tomb raider
http://videocardz.com/46912/official-amd-radeon-r9-290x-2160p-performance-geforce-gtx-780
trai tu le conclusioni..

Le ho tratte 4 pagine fa :

3-4 % in più di una Titan, su un test scelto da AMD stessa per introdurle preliminarmente ad una risoluzione decisa da AMD.

Non so se prenderlo come un buon segno o un cattivo segno, poichè la domanda sorge spontanea "E' solo un test isolato in cui va più di una Titan o è solo uno dei più significativi di un andamento generalizzato?"

francisco9751
17-10-2013, 23:17
e perche' non crysis 3 o altro?

:asd:

Ma che ne sappiamo noi??? Chiedi ad AMD.. Aspetta le recensioni e lo scopriremo..

Tapatalked from Nexus 4

<Masquerade>
17-10-2013, 23:17
e perche' non crysis 3 o altro?

:asd:

perché evidentemente il risultato era imbarazzante...

ma per entrambe le schede eh... :asd:

francisco9751
17-10-2013, 23:18
io lo trovo estremamente comoda, guarda caso anche intel fa lo stesso con le sue cpu.
un tempo il qx9650 mi stava a 4Ghz anche quando scrivevo su word, ora il 3770k mi scende a 1.6Ghz con tensione sotto al volt.
La 680 fa lo stesso, in fifa14 mi sta a 800, poi a 970, e sale fino a 1100 in alcuni frangenti. Poi in bf3 va al massimo (boost + overclock) a 1300...per scendere di nuovo a 900 quando si è a fine round.

CPU e GPU sono diverse e per la cronaca quando si USA word non è che le AMD stanno a 1ghz..scendono a 300..

Tapatalked from Nexus 4

Obrigado
17-10-2013, 23:18
Beh, ha puntualizzato solo titolo gioco e risoluzione, non può avere intimato di frenare le nVidia, sarebbe un autogoal clamoroso, visto che non rimarrebbe sicuramente segreto.

io non sto dicendo proprio quello, ma vedo una ricerca troppo meticolosa per dimostrare una superiorita' poco marcata..

tutto qui!

Vul
17-10-2013, 23:18
Beh, ha puntualizzato solo titolo gioco e risoluzione, non può avere intimato di frenare le nVidia, sarebbe un autogoal clamoroso, visto che non rimarrebbe sicuramente segreto.

No infatti, è impossibile che sia successo. Sarebbe uno smacco di immagine da cui amd non si riprenderebbe per tanto tempo e che le farebbe perdere milioni e milioni di $$ di credibilità persa (senza contare la grande pubblicità per nvidia gratis "hey guarda devono inventarsi i bench come vogliono loro e castrarci le schede per andare di più trololol").

Dai non è possibile, erano delle normalissime titan reference con tutto attivato su :cool:

Vul
17-10-2013, 23:20
perché evidentemente il risultato era imbarazzante...

ma per entrambe le schede eh... :asd:

"Hey guardate come facciamo 12 fps a 4k mentre titan ne fa 11" non è una gran pubblicità :asd:

E' un pò come se Mercedes dichiarasse di correre più di Ferrari dimostrando come nessuna delle due può decollare :asd:

Obrigado
17-10-2013, 23:20
No infatti, è impossibile che sia successo. Sarebbe uno smacco di immagine da cui amd non si riprenderebbe per tanto tempo e che le farebbe perdere milioni e milioni di $$ di credibilità persa (senza contare la grande pubblicità per nvidia gratis "hey guarda devono inventarsi i bench come vogliono loro e castrarci le schede per andare di più trololol").

Dai non è possibile, erano delle normalissime titan reference con tutto attivato su :cool:

lo spero..

LurenZ87
17-10-2013, 23:22
io lo trovo estremamente comoda, guarda caso anche intel fa lo stesso con le sue cpu.
un tempo il qx9650 mi stava a 4Ghz anche quando scrivevo su word, ora il 3770k mi scende a 1.6Ghz con tensione sotto al volt.
La 680 fa lo stesso, in fifa14 mi sta a 800, poi a 970, e sale fino a 1100 in alcuni frangenti. Poi in bf3 va al massimo (boost + overclock) a 1300...per scendere di nuovo a 900 quando si è a fine round.

Strano, è una funzione nuova questa del tuo i7 3770k, non ne avevo mai sentito parlare...

Comunque se provassi una Radeon (questo male assoluto), scopriresti che se hai il v-sync attivato si comporta ne più e ne meno come una GTX, l'unica differenza che invece di scendere di frequenza e di rimanere alta nell'uso, la frequenza rimane quella mentre l'uso diminuisce, poi se l'uso è particolarmente basso scende di frequenza. Però se decido impostare una determinata frequenza la imposto e basta, senza preoccuparmi della temperatura o di cercare lo step di boost massimo che la vga riesce a tenere.

Inviato dal mio Nexus 4

DukeIT
17-10-2013, 23:23
io non sto dicendo proprio quello, ma vedo una ricerca troppo meticolosa per dimostrare una superiorita' poco marcata..

tutto qui!Ma è normale pretattica prima dell'uscita delle VGA, è la stessa che faceva nVdia all'uscita della serie AMD 5***, quando essendo in ritardo faceva filtrare notizie sull'uscita imminente con prestazioni mirabolanti... poi sappiamo quanto in ritardo siano invece uscite e con prestazioni non esattamente miracolose.
AMD sta imparando, come è giusto che sia se è un marketing che rende, le vere prestazioni le vedremo con le varie recensioni.

Ale55andr0
17-10-2013, 23:23
io non sto dicendo proprio quello, ma vedo una ricerca troppo meticolosa per dimostrare una superiorita' poco marcata..

tutto qui!

se dici che la titan a 876mhz "è divertente" con annessa pic da raptus informatico i miei neuroni computano che stai dicendo proprio quello :stordita:. Se poi vai pure a dare degli hater....

Ale55andr0
17-10-2013, 23:25
perché evidentemente il risultato era imbarazzante...

ma per entrambe le schede eh... :asd:

lo era già in bioshock :asd:

il 4k sulla scrivania imho non ha senso, anche su un 27" i fonts sarebbero troppo piccoli e per nulla ergonomici

Vul
17-10-2013, 23:28
lo era già in bioshock :asd:

il 4k sulla scrivania imho non ha senso, anche su un 27" i fonts sarebbero troppo piccoli e per nulla ergonomici

Per quello puoi sempre scalare (ma ci vuole l'impegno anche lato software per fare font in definizione più elevata)

Comunque in bioshock fa 50 fps a dettagli medi e 30 fps con tutto attivato ad ultra:

http://videocardz.com/images/2013/10/59046.png

In termini di paragone 30 fps a 1080p con dof e tutto ad ultra li fa una 560 liscia.

Quindi le 290x sono le 560 dei 4k :asd:

milanok82
17-10-2013, 23:32
io non sto dicendo proprio quello, ma vedo una ricerca troppo meticolosa per dimostrare una superiorita' poco marcata..

tutto qui!

Ma non potrà mai andare molto più di una Titan,in alcuni giochi andrà poco meglio in altri poco meno,alla fine tirando le somme le vga si troveranno alla pari come prestazioni su per giù.Negli ultimi anni a parità di fascia delle due case le schede si equivalgono e penso sarà cosi per un bel pò.I pochi bench che sono usciti in giro lo confermano,quindi penso che non ci sia niente da nascondere e poco da dire quando usciranno le recensioni ufficiali,del tipo ad esempio che delusione mi aspettavo andava molto di più della titan.

Ale55andr0
17-10-2013, 23:37
.

Quindi le 290x sono le 560 dei 4k :asd:

ed hai dannatamente ragione, anche peggio considerando che bioshock infinite non è certo un mattonazzo, pensa che accade con un metro LL :asd:

i tempi, per il gaming ad alto livello in 4 k, sono del tutto prematuri

...ma a dire il vero, credo che non lo saranno mai (maturi) per chi gioca a 40cm dal monitor :fagiano:

°Phenom°
17-10-2013, 23:42
io lo trovo estremamente comoda, guarda caso anche intel fa lo stesso con le sue cpu.
un tempo il qx9650 mi stava a 4Ghz anche quando scrivevo su word, ora il 3770k mi scende a 1.6Ghz con tensione sotto al volt.
La 680 fa lo stesso, in fifa14 mi sta a 800, poi a 970, e sale fino a 1100 in alcuni frangenti. Poi in bf3 va al massimo (boost + overclock) a 1300...per scendere di nuovo a 900 quando si è a fine round.

Questo lo fa anche la mia 7970... in base al carico in gioco taglia le frequenze se il carico è basso (925mhz) se è ancora piú basso va a 535 o una cosa del genere. Dove serve potenza va all oc impostato da me, cioè 1200mhz. Quando è a riposo sta tipo a 200.. Stessa cosa per il mio vecchio phenom ii, a riposo scende fino a 800mhz, per poi in base al carico salire fini ad un massimo di 4.1ghz cioè il mio oc. Quello che si diceva, cioè che è meglio non avere il boost dinamico come nvidia, è perchè senza, si ha una gestione decisamete migliore delle frequenze in oc, sapendo che quando la scheda va al massimo tocca la frequenza impostata da noi e stop. Con nvidia invece non sappiamo mai qual'è la massima frequenza effettiva a cui va la vga..

Inviato dal mio GT-I9300 con Tapatalk

Vul
17-10-2013, 23:46
ed hai dannatamente ragione, anche peggio considerando che bioshock infinite non è certo un mattonazzo, pensa che accade con un metro LL :asd:

i tempi, per il gaming ad alto livello in 4 k, sono del tutto prematuri

...ma a dire il vero, credo che non lo saranno mai (maturi) per chi gioca a 40cm dal monitor :fagiano:

Su una delle prime comparison viste 6-7 pagine fa faceva 46 fps su Metro:LL però vallo a sapere com'era settato il gioco, dubito altamente fosse anche lontanamente maxato :asd:

Vul
17-10-2013, 23:47
Questo lo fa anche la mia 7970... in base al carico in gioco taglia le frequenze se il carico è basso (925mhz) se è ancora piú basso va a 535 o una cosa del genere. Dove serve potenza va all oc impostato da me, cioè 1200mhz. Quando è a riposo sta tipo a 200.. Stessa cosa per il mio vecchio phenom ii, a riposo scende fino a 800mhz, per poi in base al carico salire fini ad un massimo di 4.1ghz cioè il mio oc. Quello che si diceva, cioè che è meglio non avere il boost dinamico come nvidia, è perchè senza, si ha una gestione decisamete migliore delle frequenze in oc, sapendo che quando la scheda va al massimo tocca la frequenza impostata da noi e stop. Con nvidia invece non sappiamo mai qual'è la massima frequenza effettiva a cui va la vga..

Inviato dal mio GT-I9300 con Tapatalk

Si può monitorarla con una delle tante utility gpu no, stile gpuz che ti fa un grafico temperatura e frequenze in funzione dell'ultima mezz'ora.

okorop
17-10-2013, 23:49
Su una delle prime comparison viste 6-7 pagine fa faceva 46 fps su Metro:LL però vallo a sapere com'era settato il gioco, dubito altamente fosse anche lontanamente maxato :asd:

Metro LL come tutti i giochi Nvidia (tranne i 200 mila giochi unreal engine con physx e tre effetti in piu) son da giocare (vedi crysis 1, vedi metro, vedi sto altro metro e molti altri) non 1 ma 2 generazioni di schede video avanti, son fatti apposta male per far cambiare vga alla gente senno la titan se il gioco funzionasse anche con una vga da 300 euro a chi la venderebbero?
Con crysis mi hanno spennato e non andava in game ancora decentemente (i7 920@4 GHz sli di gtx285), non mi fregan piu ora :asd:

<Masquerade>
18-10-2013, 00:00
Con crysis mi hanno spennato e non andava in game ancora decentemente (i7 920@4 GHz sli di gtx285), non mi fregan piu ora :asd:

son giochi belli ma che richiedono config strapotenti.

Crysis per giocarlo decentemente a 1920x1080 FXAA a very high, c'è voluta una 580 occata @900mhz.
e tanto la battaglia finale faceva schifo come numero di fps. molto ballerini, e con picchi minimi bassi.

Vul
18-10-2013, 00:01
Metro LL come tutti i giochi Nvidia (tranne i 200 mila giochi unreal engine con physx e tre effetti in piu) son da giocare (vedi crysis 1, vedi metro, vedi sto altro metro e molti altri) non 1 ma 2 generazioni di schede video avanti, son fatti apposta male per far cambiare vga alla gente senno la titan se il gioco funzionasse anche con una vga da 300 euro a chi la venderebbero?

Sono fatti bene, non sono fatti proprio male, sono giochi che girano molto bene anche su hardware datato se abbassi dettagli. Come anche BF 3 che maxato risultava comunque una gatta da pelare anche per schede uscite nel 2013, ma non scordiamoci che girava anche su delle 8800 gtx..Io metro:ll l'ho giocato sull'acerozzo da 500 euro e ci facevo più fps che con arkham city, certo se mi azzardavo a mettere qualcosa su medio esplodeva. Diciamo che sono giochi che scalano molto bene in tutti i sensi "hai pc lento ti gira, hai pc veloce, c'è sempre un opzione che puoi mettere per distruggertelo".

Comunque è un bene che ci siano questi giochi, sennò era un casino. Già con tutti che si lamentano dei porting, levateci i Crysis e che scusa abbiamo per upgradare :D

Parliamoci francamente tolti Crysis 3/wardhead, Hitman Absolution e boh, ma quanti altri giochi vi vengono in mente che non riescano essere giocati decentemente anche con delle 670?

Tanto per fare un esempio con una 670 come la mia si fanno:
75 fps su Sleeping Dogs maxato
61 fps su Far Cry 3 maxato
74 fps su BF3 maxato ed MSAA
(tra l'altro io gioco ad ultra e fxaa anche a bf4 e ho solo un g860)


Gli unici giochi dove una 670 scende sotto i 60 fps medi (maxando tutto) sono:
-hitman absolution
-crysis warhead
-crysis 3
-metro last light

Poi boh, Crysis 3 maxato è bellissimo, c'è poco da fare. Peccato fosse un gioco brutto. Peccato perchè il multiplayer di Crysis aveva parecchio potenziale ma non ci hanno investito..

okorop
18-10-2013, 00:10
son giochi belli ma che richiedono config strapotenti.

Crysis per giocarlo decentemente a 1920x1080 FXAA a very high, c'è voluta una 580 occata @900mhz.
e tanto la battaglia finale faceva schifo come numero di fps. molto ballerini, e con picchi minimi bassi.
si configurazioni strapotenti di 5 anni dopo l'uscita del gioco :asd: :asd: :doh:



Comunque è un bene che ci siano questi giochi, sennò era un casino. Già con tutti che si lamentano dei porting, levateci i Crysis e che scusa abbiamo per upgradare :D



ma anche no, sono una presa in giro, ti dicono: compra la scheda ultra top che è l'unica che fa andare al top il tal gioco, si col cavolo....aspetta 3 generazioni intanto ti faccio spendere un sacco e poi magari dopo anni va...preferisco aspettare di giocarli decentemente con le schede che lo fanno andare al massimo.....per giocare alla cavolo ci son sempre le console....

Vul
18-10-2013, 01:26
Io non la vedo così.

Quei giochi non ti dicono "Hey se vuoi giocarmi DEVI comprare la fascia enthusiast o quella media fra 2-3 anni". Io Metro Last Light l'ho giocato su un:
http://www.notebookcheck.it/Acer-Aspire-5750G-2434G64Mnkk.69386.0.html

ed era anche piacevole da vedere nonostante i setting minimali, ma non è che non si giocava o la grafica sembrasse quella di doom.

E anche Crysis 3 l'ho giocato senza problemi con la 670 che è una scheda video da 200 euro in full hd ad high ed fxaa scendendo raramente sotto i 40 fps.

Anzi se non sbaglio girava anche con il lenovo dell'anno scorso di mio fratello (portatile fascia media):

http://www.youtube.com/watch?v=j4qKMBeiEv8

e questo tipo sta anche registrando e la grafica a me non pare brutta.

Ti sembra un gioco che ti costringe a cambiare un pc di fascia media degli ultimi 2-3 anni? No. Ti costringe a farlo se vuoi impostare tutto al stra massimo con tutti i filtri, magari salendo di risoluzione.

La cosa bella è che non solo questi giochi offrono una grafica decente a chi abbia sistemi un pò più datati ma offrono anche opzioni a sufficienza per spremere anche l'ultimo computer e così di fatto spostano la lancetta un pò più avanti. Mi chiedo, ma che senso avrebbe una nuova generazione di gpu senza hitman, senza crysis 3 o metro? Non ha senso.

E' normale e giusto che di tanto in tanto appaia il gioco che sposti la lancetta delle performance, della qualità grafica un pò più in là, software e hardware dovrebbero mordersi la coda in continuazione spingendo l'altro a fare sempre di più.

Vul
18-10-2013, 01:59
Bioshock Infinite, Tomb Raider test a dettagli ultra e tutti filtri attivati a 2560x1440 (non 4k):

GeForce GTX 780

BioShock
Min: 41
Max: 51
Tomb Raider
Min: 14
Max: 36


R9 290X

BioShock
Min: 47
Max: 61
Tomb Raider
Min: 15
Max: 40

La fonte è il reviewer di un sito molto importante (uno dei primi 5 al mondo tanto per restringere il campo) in maniera confidenziale quindi non citerò la fonte esatta visto che teoricamente è sotto nda.

Comunque direi che in Bioshock le differenze sono nette, in particolare 6 fps differenza nei minimi non è poco, parliamo di 12 % di differenza nei minimi, è tanto. In Tomb Raider le differenze sono negligibili.

Una cosa è sicura se in full hd possono sembrare troppo queste schede a 1440p sono ancora lontane dall'essere troppo se si vuole maxare tutto e sparare tutti i filtri.

suarez4152
18-10-2013, 02:15
dai bench in giro questa r9 290x non sembra un granché, dovrebbe andare quei 7-10fsp di media in piu risp alla gtx780. per quanto mi riguarda a 1080p la gigabyte gtx 770 oc w3 è il top. va di media 7fsp di meno risp alla 780 e costa sui 300€ ottimo!

Einhander
18-10-2013, 04:12
dai bench in giro questa r9 290x non sembra un granché, dovrebbe andare quei 7-10fsp di media in piu risp alla gtx780. per quanto mi riguarda a 1080p la gigabyte gtx 770 oc w3 è il top. va di media 7fsp di meno risp alla 780 e costa sui 300€ ottimo!

Stesso identico discorso vale per la 280x toxic di sapphire che si trova sempre intorno a quella cifra cercando in giro e va esattamente come la 770oc, ma parliamo di schede da 300 euro e dintorni, il vero punto interrogativo a parte sulla scheda top r290x e sulla diretta discendente la 290 che, salvo i primi giorni di sfruttamento dell'effetto novita', potrebbe essere l'equivalente della 7950 della precedente generazione.

ertruffa
18-10-2013, 05:36
e te pareva che già non si gridava al complotto, manco sono uscite, test pilotati.... aspettiamo i dannati test non pilotati e facciamo le valutazioni.. ma può essere che ogni volta che esce una scheda amd o nvidia che sia i fan delle opposte fazioni sono li già a smerdare il prodotto altrui? sembra quasi che qualcuno ci goda se fa schifo.... discussioni inutili che si fanno, sul nulla, ma sulla base del tifo.

infatti, la guerra su due test in 4k(che non ha nessuno), aspettiamo a vedere come va alle risoluzioni che usano il 99% delle persone, io lo sai con quale vga la confrontero'(prezzo-prestazioni):read: :D
che poi ci sono numeri, di chi era a montreal per nvidia e ha visto lo stand di amd, anche in 4k qua il risultato mi lascia perlplesso.
http://www.guru3d.com/news_story/amd_radeon_290x_makes_photo_and_benchmark_appearance_in_montreal.html
aspettiamo

Predator_1982
18-10-2013, 06:34
Ma non potrà mai andare molto più di una Titan,in alcuni giochi andrà poco meglio in altri poco meno,alla fine tirando le somme le vga si troveranno alla pari come prestazioni su per giù.Negli ultimi anni a parità di fascia delle due case le schede si equivalgono e penso sarà cosi per un bel pò.I pochi bench che sono usciti in giro lo confermano,quindi penso che non ci sia niente da nascondere e poco da dire quando usciranno le recensioni ufficiali,del tipo ad esempio che delusione mi aspettavo andava molto di più della titan.

è ovvio, forse qualcosa di più la si otterrà solo usando Mantle per ovvi motivi, ma del resto è anche piuttosto scontato..la Titan non è mica uno schedino da 4 soldi. Bisogna solo vedere come R290 sarà prezzato

francisco9751
18-10-2013, 06:56
Beh già andare come titan non è roba da poco

Tapatalked from Nexus 4

ertruffa
18-10-2013, 07:06
Beh già andare come titan non è roba da poco

Tapatalked from Nexus 4

quoto:O

francisco9751
18-10-2013, 07:32
dai bench in giro questa r9 290x non sembra un granché, dovrebbe andare quei 7-10fsp di media in piu risp alla gtx780. per quanto mi riguarda a 1080p la gigabyte gtx 770 oc w3 è il top. va di media 7fsp di meno risp alla 780 e costa sui 300€ ottimo!

Allora fatti uno SLI di 770 così freghi tutti e spendi quanto una singola scheda top :D


Tapatalked from Nexus 4

appleroof
18-10-2013, 08:19
divertente la titan a 876mhz

cut

può essere che abbiano messo la frequenza di base ma in realtà la scheda non fosse bloccata... poi quel sito in genere è serio :boh:

edit:

http://videocardz.com/images/2013/10/MSI-R9-290X-positioning.jpg

la Titan non viene nemmeno considerata cmq, non so se per le prestazioni o il prezzo :D cmq si sta delineando quello che mi aspettavo...

Raven
18-10-2013, 08:26
dai bench in giro questa r9 290x non sembra un granché,

Se andrà più veloce di 780/Titan costando di meno... beh... per me è granché! :D

ertruffa
18-10-2013, 08:29
Se andrà più veloce di 780/Titan costando di meno... beh... per me è granché! :D

sono d'accordo con te, al momento ho i soldi nella pay pronti, ma la paragonero' a quello che oggi offre il mercato, io vedo 780 custom a 530 che vanno ben oltre la titan stock, quello e' il mio rifrimento.:)

appleroof
18-10-2013, 08:29
Se andrà più veloce di 780/Titan costando di meno... beh... per me è granché! :D

According to multiple reports AMD is targeting its R9 290X against GTX 780, rather than a GTX TITAN as some of previous leaks could suggest.

http://videocardz.com/46912/official-amd-radeon-r9-290x-2160p-performance-geforce-gtx-780

poi boh...comunque non è male considerando i 28nm ma onestamente rimane il minimo che ci si aspettava...

p.s.: costando di meno di quale poi? No perchè tra 780 e Titan c'è di mezzo...una intera 770 quasi :sofico:

appleroof
18-10-2013, 08:34
un pò a latere ma non saprei dove postarlo, Amd comincia finalmente a riprendersi un pochetto finanziariamente, la parte del leone mi pare di capire sono le vendite di chip per le nuove console

Their graphics and visual solutions business unit saw revenues of $671 million, up 110% over the prior quarter, driven by AMD's semi-custom busness which include Sony's and Microsoft's next generation consoles

http://www.brightsideofnews.com/news/2013/10/17/amd-posts-first-profit-in-over-a-year.aspx

Raven
18-10-2013, 08:54
According to multiple reports AMD is targeting its R9 290X against GTX 780, rather than a GTX TITAN as some of previous leaks could suggest.

http://videocardz.com/46912/official-amd-radeon-r9-290x-2160p-performance-geforce-gtx-780

poi boh...comunque non è male considerando i 28nm ma onestamente rimane il minimo che ci si aspettava...


Io giudico una vga in base al prezzo... se mi supera la 780 o anche se va uguale, ma costa 100/150€ di meno, allora per me è ok!... posso capire che chi guarda alle max prestazioni indipendentemente dal resto possa rimanere "deluso"... ma è questione di punti di vista... :O

Fermo restando che comunque si devono sapere ancora prezzi e prestazioni, de 'ste schede! :D

Ale55andr0
18-10-2013, 09:00
Fermo restando che comunque si devono sapere ancora prezzi e prestazioni, de 'ste schede! :D

:asd:

comunque SE va più di 780 secondo lo schemino del sito tedesco (quello in cui la doppiava in sleeping dogs), entra in diretta competizione con titan

muppo
18-10-2013, 09:01
sono d'accordo con te, al momento ho i soldi nella pay pronti, ma la paragonero' a quello che oggi offre il mercato, io vedo 780 custom a 530 che vanno ben oltre la titan stock, quello e' il mio rifrimento.:)

esattamente quello che penso io.
Ora la palla resta nelle mani di amd e il prezzo.
Inutile che presentino benchmark a 4k che interessano veramente a pochissimi se non praticamente a nessuno qui (tranne forse eugonix e qualche altro per il multimonitor, resta da vedere quanto valido è eyefinity confrontato con il surround nvidia).
I benchmark a 1440 e 1080, prezzi e poi si decide.

appleroof
18-10-2013, 09:17
Io giudico una vga in base al prezzo... se mi supera la 780 o anche se va uguale, ma costa 100/150€ di meno, allora per me è ok!... posso capire che chi guarda alle max prestazioni indipendentemente dal resto possa rimanere "deluso"... ma è questione di punti di vista... :O

Fermo restando che comunque si devono sapere ancora prezzi e prestazioni, de 'ste schede! :D

ah ok, siccome avevi messo 780/Titan, cmq è ovviamente condivisibile quanto dici (poi si potrebbe inserire il solito discorso features/supporto ma apriamo la solita discussione dove ognuno rimane convinto del suo alla fine :D )

cmq la 780 si trova sui 500 ormai, seguendoti la 290x dovrebbe costare 350/400...mi sà che rimarrai deluso almeno lato prezzo :fagiano:

cire92cry
18-10-2013, 09:23
Quindi sappiamo quando scade l'NDA o è ancora incerto?

I test 4K sono test che hanno poco senso sono fatti solo per dire la scheda ce la fa anche li . Ma poi bisogna vedere a risoluzioni normali , se va come in queste anteprime va circa come la titan e Nvidia sicuramente tira fuori la titan ultra al solito prezzo, magari avremo un calo di prezzo delle vga attuali. Bisogna vedere le potenzialità in OC di questa 290x.

Sono veramente curioso delle recensioni ufficiali , certo che ci stanno mettendo un bel po a far scadere sto nda :(

appleroof
18-10-2013, 09:25
Quindi sappiamo quando scade l'NDA o è ancora incerto?

I test 4K sono test che hanno poco senso sono fatti solo per dire la scheda ce la fa anche li . Ma poi bisogna vedere a risoluzioni normali , se va come in queste anteprime va circa come la titan e Nvidia sicuramente tira fuori la titan ultra al solito prezzo, magari avremo un calo di prezzo delle vga attuali. Bisogna vedere le potenzialità in OC di questa 290x.

Sono veramente curioso delle recensioni ufficiali , certo che ci stanno mettendo un bel po a far scadere sto nda :(

si, è la moda adesso, come il 3d qualche annetto fà, ma imho prima di giocare bene con vga singola in 4k ci vogliono forse un paio di gen di vga....credo che il terreno ideale di queste vga sia il 1440p

francisco9751
18-10-2013, 09:30
Per il 4k ci vogliono i 14nm :D

Tapatalked from Nexus 4

cire92cry
18-10-2013, 09:30
si, è la moda adesso, come il 3d qualche annetto fà, ma imho prima di giocare bene con vga singola in 4k ci vogliono forse un paio di gen di vga....credo che il terreno ideale di queste vga sia il 1440p

Esattamente io gioco in 3D e la titan in FH e fa fatica in alcuni giochi :D Quindi per il 4K se ne parla fra qualche anno anche solo per vedere qualche monitor a prezzo "accettabile" .

appleroof
18-10-2013, 09:33
Esattamente io gioco in 3D e la titan in FH e fa fatica in alcuni giochi :D Quindi per il 4K se ne parla fra qualche anno anche solo per vedere qualche monitor a prezzo "accettabile" .

anche e sopratutto :D

°Phenom°
18-10-2013, 09:37
Come avevo detto anche io poco tempo fa, queste schede sono per giocare molto bene a 1440p/1600p o a 1080p/1200p con filtri a manetta, concordo che per ora in 4K (tralasciando anche il costo dei monitor) non vanno proprio benissimo anche scendendo a compromessi con i filtri.

Predator_1982
18-10-2013, 09:51
Sono veramente curioso delle recensioni ufficiali , certo che ci stanno mettendo un bel po a far scadere sto nda :(

leggo in firma che hai anche te una Titan...non penserai mica di cambiarla con la 290 :D :D :D

appleroof
18-10-2013, 09:54
chi ama bf4 e ha una vga dalla serie 7000 alle nuove, penso possa godere alla grande di queste parole:

As a company, we do not chase one or two percentage points of performance when we set our minds to a project as elaborate and historic as Mantle. While it remains too early to disclose performance figures, we expect you will be pleasantly surprised when Battlefield™ 4 is patched to support Mantle in December. And with a Mantle back-end baked into Frostbite™ 3 you can expect other games based on this engine to reap all of its benefits.

http://community.amd.com/community/amd-blogs/amd-gaming/blog/2013/10/17/the-four-core-principles-of-amd-s-mantle

cire92cry
18-10-2013, 09:58
leggo in firma che hai anche te una Titan...non penserai mica di cambiarla con la 290 :D :D :D

No la titan rimarrà nel mio case a lungo :) Però qui abbiamo tutti la passione per l'hardware e ogni novità, che sia di amd o nvidia, mi interessa molto. Vedere quali architetture vanno meglio in determinate situazioni rispetto ad altre mi piace :)

Per AMD mi piacerebbe una 290 o 290x l'unica cosa è che per ora sono vincolato a nvidia perchè uso molto il 3D vision , al prossimo cambio fra 2 anni circa vedrò.

obiwan-80
18-10-2013, 09:59
La 780 nel 4k penso sia svantaggiata rispetto a 290x, avendo 1 gb in meno di memoria a disposizione.

appleroof
18-10-2013, 10:01
qui la slide postata ieri ma in "uber mode" ( :asd: ) strano vedere come non solo non migliora, ma addirittura va peggio :confused:

http://plaza.fi/s/f/editor/images/20131017bench_r9.jpg

http://muropaketti.com/amdlta-esimakua-radeon-r9-290xn-suorituskyvysta-vs-geforce-gtx-780

Vul
18-10-2013, 10:02
Che possono significare tutto e niente queste parole.

Comunque a pagina precedente vi ho linkato TR e Bioshock Infinite a 2560x1440. Li ho presi da una persona che sta sotto NDA e li avete riccamente ignorati :asd:

Comunque io continuo a non capire i meravigliati. Si sapeva da un mese andasse come titan (in base ai giochi piu uno o piu l'altro) e che costava come una 780.
Qual'è la meraviglia?

Le uniche cose che non si sanno (e sono importanti) sono:
-temperature
-oc
-rumore

Non ci dimentichiamo che le prime 7970 basate su tahiti xt le occavi di quasi 400 mhz se avevi la scheda fortunella e 250 mhz erano la regola..

Vul
18-10-2013, 10:03
La 780 nel 4k penso sia svantaggiata rispetto a 290x, avendo 1 gb in meno di memoria a disposizione.

E soprattutto metà del bus.

appleroof
18-10-2013, 10:10
Che possono significare tutto e niente queste parole.

cut

se ti riferisci alle parole su bf4 e mantle, credo abbiano un solo significato, se non ti riferivi a quello cancella...

E soprattutto metà del bus.

non è metà...cmq è un insieme di fattori, ci metto pure il maggior numero di rops

francisco9751
18-10-2013, 10:10
Bioshock Infinite, Tomb Raider test a dettagli ultra e tutti filtri attivati a 2560x1440 (non 4k):

GeForce GTX 780

BioShock
Min: 41
Max: 51
Tomb Raider
Min: 14
Max: 36


R9 290X

BioShock
Min: 47
Max: 61
Tomb Raider
Min: 15
Max: 40

La fonte è il reviewer di un sito molto importante (uno dei primi 5 al mondo tanto per restringere il campo) in maniera confidenziale quindi non citerò la fonte esatta visto che teoricamente è sotto nda.

Comunque direi che in Bioshock le differenze sono nette, in particolare 6 fps differenza nei minimi non è poco, parliamo di 12 % di differenza nei minimi, è tanto. In Tomb Raider le differenze sono negligibili.

Una cosa è sicura se in full hd possono sembrare troppo queste schede a 1440p sono ancora lontane dall'essere troppo se si vuole maxare tutto e sparare tutti i filtri.

Questo?

Tapatalked from Nexus 4

Vul
18-10-2013, 10:12
Questo?

Tapatalked from Nexus 4

eggià

Free Gordon
18-10-2013, 10:16
Per qualche motivo amd sembra sempre scalare meglio con le risoluzioni. Anche a 1440p ricordo nella recensione della 280x toxic batteva in qualche occasione anche la 780.

beh, rispetto a GK104, Tahiti ha più banda e memoria, ecco perchè và meglio..

Free Gordon
18-10-2013, 10:17
batterle a 4k imho sarebbe utile quanto cercar di vender ghiaccio ai pinguini

L'ha detto Koduri nel summit alle Hawai, le nuove schede sono state create col focus sui 4k ;)

appleroof
18-10-2013, 10:20
beh, rispetto a GK104, Tahiti ha più banda e memoria, ecco perchè và meglio..

gtx 780 è GK110, stesso bus e stessa quantità di vram...credo semplicemente giochi che tradizionalmente favoriscono le gpu Amd

L'ha detto Koduri nel summit alle Hawai, le nuove schede sono state create col focus sui 4k ;)

marketing

Vul
18-10-2013, 10:30
beh, rispetto a GK104, Tahiti ha più banda e memoria, ecco perchè và meglio..

Solo che la 780 è gk110.

L'ha detto Koduri nel summit alle Hawai, le nuove schede sono state create col focus sui 4k ;)

Ma se non reggono nemmeno i 1440p se metti tutto al massimo, figuriamoci a 2160p.

Sicuramente i numeri che tira fuori la 290x sono interessanti a quella risoluzione ma con una community che non è ancora passata ai 1440p, 2160p suona come puro marketing. Per quando i monitor 4k saranno una realtà diffusa (ma anche 1440p) allora ci saranno schede 4 volte più veloci.

FroZen
18-10-2013, 10:33
Se le 290X prezzate come 780 faranno il botto (ma anche un cinquantello in più ci starebbe).............le 290 lisce :D

Tenendo conto anche del solito ricco bundle di giochi inclusi..........titan e 780oc sembravano inarrivabili sui 28nm e invece...gg AMD. E vediamo il CF 2.0 come si comporta, di quello sono veramente curioso....

NODREAMS
18-10-2013, 10:36
Per il 4K incominceremo a vedere qualcosa tra 2 anni...per il momento senza crossfire o sli di top di gamma sarebbe impossibile da gestire...e poi economicamente svantaggioso.

FroZen
18-10-2013, 10:37
Sicuramente i numeri che tira fuori la 290x sono interessanti a quella risoluzione ma con una community che non è ancora passata ai 1440p, 2160p suona come puro marketing. Per quando i monitor 4k saranno una realtà diffusa (ma anche 1440p) allora ci saranno schede 4 volte più veloci.

Esiste anche il multimonitor come scenario...che è ancora più probante anche solo di 3xfullHD....

maurilio968
18-10-2013, 10:39
per chi disprezza il 4k sui monitor pc: fatevi un po di calcoli numeri alla mano qui:

http://referencehometheater.com/2013/commentary/4k-calculator/

(per i dettagli sulla visone umana vedere questo link
http://science.howstuffworks.com/life/human-biology/eye7.htm
)

In sintesi il limite dell'occhio umano è 0,4 minuti di arco la media è circa 0,6 minuti di arco che corrisponde a 20/20 nella scala Snell
(vedi link precedente " if you have 20/20 vision your vision is "normal" -- a majority of people in the population can see what you can see at 20 feet.")

Bene ora consideriamo un 24 pollici visto a 60 cm (cioè 2 piedi: mettere 2', 0" in "Screen Distance") di distanza da un utente con visione normale (lasciare 20/20 in "Vision"):

il risultato è che un 24 pollici 4k guardato a 60 cm (2 piedi) offre un incremento qualitativo del 206% (4K vs 1080p Improvement) rispetto al 24 pollici 1080p
e la risoluzione ottimale consigliata in queste condizioni è 3241 x 1901 cioè praticamente il 4k.

Se guardate le conclusioni: a 60 cm un 24 pollici è due volte meglio a 4k rispetto a 1080p per un utente con visione normale
in tali condizioni i ppi sono il doppio per il 4k (182ppi contro 91) e un utente con vista normale è perfettamente in grado di percepire
e benficiare delle differenze che sono notevoli (abbiamo un 206%).

Se ripetiamo i calcoli con un 27 pollici 4k vediamo che 60 cm sono proprio la distanza ideale (4K vs 1080p Improvement: 288%)
mentre ad 1 metro (4K vs 1080p Improvement 72%) la risoluzione consigliata per un 27 è Ideal Resolution: 2506 x 1426 cioè praticamente 1440p
Ecco perchè i 27 attuali li fanno a 1440p.

E si spiega anche perchè lo step successivo al 1440p è il 4k e non risoluzioni intermedie (come detto da qualcuno).


Appurato quindi che a 4k su un 24 o a 1440p su un 27 pollici ponedosi tra 60cm ed 1 metro dal monitor
ho una esperienza di visione enormemente migliore rispetto al 1080p io non mi meraviglio affatto
dei test in 4k e 1440p per vga del calibro di gtx780, titan, 290x.

Queste schede hanno senso solo in tali scenari (e nel multimonitor) e fortunatamente nel 80-90% dei titoli
a 1440p ci si può giocare fluidi già adesso.

La domanda è: per i 4k ? Sia amd che nvidia nonchè i produttori di monitor è proprio ai 60fps su un 24 -27 pollici 4k che stanno puntando.
La mia speranza è che la 290x vada in 4k apprezzabilmente più delle titan e costi decisamente meno.
Vorrei vedere anche i test in 5760x1080 per il tri monitor.

Poi resterò nella nicchia...ma mi sa ancora per poco. Spero che già con le vga a 20nm si potrà giocare bene sul 4k e magari tra un 12-18 mesi vedremo
dei 24 pollici 4k già sotto i 1500 euro.


PS.

Paradossalmente è propio in ambito monitor pc su diagonali 24-27 pollici che il 4k ha senso.
E' nelle TV che non ha senso: se rifate i calcoli su un 55 pollici visto da due metri trovate che nessuno con
vista normale vedrebbe delle differenze rispetto al 1080p e che le dimensioni suggerite per apprezzare un 4k a due metri sono ben 134 pollici.
E non ditemi che qualcuno compra un 55 pollici per guardarlo a meno di 2 metri, figurarsi un 134 pollici a due metri ...sai il torcicollo.

cire92cry
18-10-2013, 11:00
per chi disprezza il 4k sui monitor pc: fatevi un po di calcoli numeri alla mano qui:

http://referencehometheater.com/2013/commentary/4k-calculator/

(per i dettagli sulla visone umana vedere questo link
http://science.howstuffworks.com/life/human-biology/eye7.htm
)

In sintesi il limite dell'occhio umano è 0,4 minuti di arco la media è circa 0,6 minuti di arco che corrisponde a 20/20 nella scala Snell
(vedi link precedente " if you have 20/20 vision your vision is "normal" -- a majority of people in the population can see what you can see at 20 feet.")

Bene ora consideriamo un 24 pollici visto a 60 cm (cioè 2 piedi: mettere 2', 0" in "Screen Distance") di distanza da un utente con visione normale (lasciare 20/20 in "Vision"):

il risultato è che un 24 pollici 4k guardato a 60 cm (2 piedi) offre un incremento qualitativo del 206% (4K vs 1080p Improvement) rispetto al 24 pollici 1080p
e la risoluzione ottimale consigliata in queste condizioni è 3241 x 1901 cioè praticamente il 4k.

Se guardate le conclusioni: a 60 cm un 24 pollici è due volte meglio a 4k rispetto a 1080p per un utente con visione normale
in tali condizioni i ppi sono il doppio per il 4k (182ppi contro 91) e un utente con vista normale è perfettamente in grado di percepire
e benficiare delle differenze che sono notevoli (abbiamo un 206%).

Se ripetiamo i calcoli con un 27 pollici 4k vediamo che 60 cm sono proprio la distanza ideale (4K vs 1080p Improvement: 288%)
mentre ad 1 metro la risoluzione consigliata per un 27 è Ideal Resolution: 2506 x 1426 cioè praticamente 1440p (4K vs 1080p Improvement 72%)
Ecco perchè i 27 attuali li fanno a 1440p.

E si spiega anche perchè lo step successivo al 1440p è il 4k e non risoluzioni intermedie (come detto da qualcuno).


Appurato quindi che a 4k su un 24 o a 1440p su un 27 pollici ponedosi tra 60cm ed 1 metro dal monitor
ho una esperienza di visione enormemente migliore rispetto al 1080p io non mi meraviglio affatto
dei test in 4k e 1440p per vga del calibro di gtx780, titan, 290x.

Queste schede hanno senso solo in tali scenari (e nel multimonitor) e fortunatamente nel 80-90% dei titoli
a 1440p ci si può giocare fluidi già adesso.

La domanda è: per i 4k ? Sia amd che nvidia nonchè i produttori di monitor è proprio ai 60fps su un 24 -27 pollici 4k che stanno puntando.
La mia speranza è che la 290x vada in 4k apprezzabilmente più delle titan e costi decisamente meno.
Vorrei vedere anche i test in 5760x1080 per il tri monitor.

Poi resterò nella nicchia...ma mi sa ancora per poco. Spero che già con le vga a 20nm si potrà giocare bene sul 4k e magari tra un 12-18 mesi vedremo
dei 24 pollici 4k già sotto i 1500 euro.


PS.

Paradossalmente è propio in ambito monitor pc su diagonali 24-27 pollici che il 4k ha senso.
E' nelle TV che non ha senso: se rifate i calcoli su un 55 pollici visto da due metri trovate che nessuno con
vista normale vedrebbe delle differenze rispetto al 1080p e che le dimensioni suggerite per apprezzare un 4k a due metri sono ben 134 pollici.
E non ditemi che qualcuno compra un 55 pollici per guardarlo a meno di 2 metri, figurarsi un 134 pollici a due metri ...sai il torcicollo.

Quoto non vedo l'ora del 4k sui monitor per pc però devo aspettare i 120 hz, non torno ai 60 ,quindi parecchio XD

Raven
18-10-2013, 11:00
cmq la 780 si trova sui 500 ormai, seguendoti la 290x dovrebbe costare 350/400...mi sà che rimarrai deluso almeno lato prezzo :fagiano:

Se cambierò la mia 7970Ghz (e sarebbe solo per "passione", visto che ormai non ho davvero più tempo per giocare) aspetterei al solito che le schede siano ultra-svalutate (next gen alle porte o già presentate)... quindi ho mooolto tempo per rifletterci e valutare bene! :p

Free Gordon
18-10-2013, 11:02
gtx 780 è GK110, stesso bus e stessa quantità di vram...credo semplicemente giochi che tradizionalmente favoriscono le gpu Amd
marketing

eh, sarà pure marketing, ma è così...
Hanno messo 64 rops per scalare meglio con la risoluzione eh...mica perchè gli piacciono le rop.. :D

appleroof
18-10-2013, 11:07
Se cambierò la mia 7970Ghz (e sarebbe solo per "passione", visto che ormai non ho davvero più tempo per giocare) aspetterei al solito che le schede siano ultra-svalutate (next gen alle porte o già presentate)... quindi ho mooolto tempo per rifletterci e valutare bene! :p

ottima strategia! ;) (anche perchè tutte tenderanno a svalutarsi :D )

eh, sarà pure marketing, ma è così...
Hanno messo 64 rops per scalare meglio con la risoluzione eh...mica perchè gli piacciono le rop.. :D

vabbè facciamo così: quando escono le reviews guardiamo se la 290x sarà in grado di far viaggiare ad un FR buono i giochi maxati in 4k :boh:

Duncan
18-10-2013, 11:08
Quoto non vedo l'ora del 4k sui monitor per pc però devo aspettare i 120 hz, non torno ai 60 ,quindi parecchio XD

bastano 4 290X :D

Free Gordon
18-10-2013, 11:09
Solo che la 780 è gk110.

Ma hanno bande/quantità di mem molto simili se non identiche (288GB/s entrambe e 3GB ;) ).
Quindi se ti avvicini ad uno scenario fillrate/memory bounded, il sottosistema di Tahiti si fà sentire. :)
Mi pare normale.


Ma se non reggono nemmeno i 1440p se metti tutto al massimo, figuriamoci a 2160p.
Sicuramente i numeri che tira fuori la 290x sono interessanti a quella risoluzione ma con una community che non è ancora passata ai 1440p, 2160p suona come puro marketing. Per quando i monitor 4k saranno una realtà diffusa (ma anche 1440p) allora ci saranno schede 4 volte più veloci.

beh, il focus è andato lì...sulla maggiore res... Se poi non si hanno i 60fps a UHD è fisiologico, non è successo mai nella storia e mai succederà che delle schede escono già carrozzate per tirare tutti i giochi alle massime risoluzioni, a quel frame rate. ;)

Nemmeno R300 e G80 ci sono riuscite e sono state le schede più azzeccate di tutta la storia.

Free Gordon
18-10-2013, 11:11
vabbè facciamo così: quando escono le reviews guardiamo se la 290x sarà in grado di far viaggiare ad un FR buono i giochi maxati in 4k :boh:

Questo c'entra poco col fatto che abbiano migliorato l'hw per supportare res più alte eh.. ;)
Mi pare semplice da capire, no? :D

appleroof
18-10-2013, 11:15
cut
beh, il focus è andato lì...sulla maggiore res... Se poi non si hanno i 60fps a UHD è fisiologico, non è successo mai nella storia e mai succederà che delle schede escono già carrozzate per tirare tutti i giochi alle massime risoluzioni, a quel frame rate. ;)

ma scusa allora non trai la conclusione che è solo marketing (sul quale pure nvidia sta convergendo eh?)? Se non lo fanno con i giochi odierni, figurati con quelli che verranno (almeno quelli senza mantle :D )


Nemmeno R300 e G80 ci sono riuscite e sono state le schede più azzeccate di tutta la storia.

un attimo, quella davvero fu un caso a sè, sia per la qualità della GPU in sè che per un insieme di fattori coincidenti: ricordo che presi contemporaneamente alla 8800gtx un monitor dell 27" 1920x1200 che all'epoca sembrava una risoluzione pazzesca, e anche con filtri la 88gtx rullava alla grande altrochè, davvero una goduria, e lo fece per anni poi...


Questo c'entra poco col fatto che abbiano migliorato l'hw per supportare res più alte eh.. ;)
Mi pare semplice da capire, no? :D

bè a 1440p mica non porta benefici attenzione...credo che a 1440p andrà ben meglio della 780 che a 1080p...

Vul
18-10-2013, 11:15
cut

Esperienza visiva nettamente migliore?
Si e no.

Non è che basta raddoppiare in eterno la densità pixel e la differenza risulta sempre così netta. Su un 24" a 60 cm non riesci a distinguere un pixel da quello vicino in full hd a meno che tu non sia ipermetrope. I singoli pixel non li distingui.

Sicuramente l'impatto differente si nota, ma non è così rilevante nè nettamente migliore. E se hai mai visto un macbook retina confrontato con un non retina da 13 pollici sai di cosa parlo.

In ogni caso la discussione 4k su queste schede non ha minimamente senso visto che ad oggi alle soglie del 2014:

-non esistono monitor 1440p sotto i 27 pollici e nessun produttore è interessato a produrli nei prossimi tempi (sembra che le risoluzioni siano importanti solo su televisori che vedi da 4 metri o su cellulari/tablet che vedi da 15 centimetri, ma non gliene frega a nessuno di ciò che sta in mezzo)

-una 290x non riesce neanche a tenere i 60 fps a 1440p sulla gran parte dei titoli che si benchano

Quindi, veramente di che parliamo? Di fuffa. Non siamo ancora di fronte a schede che giustifichino davvero un passaggio di risoluzione con tranquillità e futuribilità, figuriamoci i 4k dai.

ertruffa
18-10-2013, 11:35
http://videocardz.com/46929/official-amd-radeon-r9-290x-2160p-performance-17-games
sempre 4k:rolleyes:
a sto punto penso che in 1080p andranno uguali.

Foglia Morta
18-10-2013, 11:41
http://videocardz.com/46929/official-amd-radeon-r9-290x-2160p-performance-17-games
sempre 4k:rolleyes:
a sto punto penso che in 1080p andranno uguali.

gli stessi dati riportati dal sito tedesco linkato ieri , avevo fatto i calcoli e il 23,8% veniva escludendo sleeping dogs ( altrimenti sarebbe 31% circa )

ertruffa
18-10-2013, 11:42
gli stessi dati riportati dal sito tedesco linkato ieri , avevo fatto i calcoli e il 23,8% veniva escludendo sleeping dogs ( altrimenti sarebbe 31% circa )

a ok mi era sfuggito, pero' mi fa strano che escono solo bench in 4k.

maurilio968
18-10-2013, 11:43
Esperienza visiva nettamente migliore?
Si e no.

Non è che basta raddoppiare in eterno la densità pixel e la differenza risulta sempre così netta. Su un 24" a 60 cm non riesci a distinguere un pixel da quello vicino in full hd a meno che tu non sia ipermetrope. I singoli pixel non li distingui.

Sicuramente l'impatto differente si nota, ma non è così rilevante nè nettamente migliore. E se hai mai visto un macbook retina confrontato con un non retina da 13 pollici sai di cosa parlo.

In ogni caso la discussione 4k su queste schede non ha minimamente senso visto che ad oggi alle soglie del 2014:

-non esistono monitor 1440p sotto i 27 pollici e nessun produttore è interessato a produrli nei prossimi tempi (sembra che le risoluzioni siano importanti solo su televisori che vedi da 4 metri o su cellulari/tablet che vedi da 15 centimetri, ma non gliene frega a nessuno di ciò che sta in mezzo)

-una 290x non riesce neanche a tenere i 60 fps a 1440p sulla gran parte dei titoli che si benchano

Quindi, veramente di che parliamo? Di fuffa. Non siamo ancora di fronte a schede che giustifichino davvero un passaggio di risoluzione con tranquillità e futuribilità, figuriamoci i 4k dai.

hai già visto i bench a 1440p?

lo dico anche io che siamo agli inizi per alte res...ma bisogna pur cominciare o no?

ribadisco che non manca molto: secondo me con le vga a 20nm compariranno anche i monitor pc 24-27 pollici ad alta res.
Ora non li fanno perchè appunto mancano le vga.

Poi: un 13 retina l'ho visto e per me è nettamente meglio della versione non retina. Sempre per me giocare a 1440p su un 27 è nettamente meglio che giocare su un 27 a 1080p. E non sono ipermetrope.

Sul 4k inutile sulle tv concordo pienamente, vedi il ps del mio post, però quella sarà la strda per abbattere i costi ed avere prima del previsto un 24 pollici 4k.

maurilio968
18-10-2013, 11:45
a ok mi era sfuggito, pero' mi fa strano che escono solo bench in 4k.

rassegnatevi......ogni resistenza è inutile, sarete assimilati :p :D

appleroof
18-10-2013, 11:47
rassegnatevi......ogni resistenza è inutile, sarete assimilati :p :D

in questo momento ti immagino così:

http://www.startrek.com/legacy_media/images/200508/mov-008-locutus-with-queen/320x240.jpg

:D :D

maurilio968
18-10-2013, 11:49
in questo momento ti immagino così:

http://www.startrek.com/legacy_media/images/200508/mov-008-locutus-with-queen/320x240.jpg

:D :D

più o meno.....:D

Foglia Morta
18-10-2013, 11:58
Gli sviluppatori Sony o MIcrosoft hanno detto che lavorare con Nvidia era antipatico, era poco supportiva, voleva farsi pagare per tutto, mentre amd mandava gli ingegneri a gratis a supportare lo sviluppo delle console.

Non credo che la voce "royalty xbox vendute" fosse così rilevante nelle casse nvidia o sicuramente ci avrebbe messo più impegno.

ora che sono usciti i dati puoi rivedere questa tua opinione... tra x1 e ps4 hanno incassato oltre 350mln in 3 mesi

maurilio968
18-10-2013, 11:59
-una 290x non riesce neanche a tenere i 60 fps a 1440p sulla gran parte dei titoli che si benchano[/SIZE]

Quindi, veramente di che parliamo? Di fuffa. Non siamo ancora di fronte a schede che giustifichino davvero un passaggio di risoluzione con tranquillità e futuribilità, figuriamoci i 4k dai.

prendiamo una titan a 1440p

http://www.anandtech.com/bench/product/764


DiRT: Showdown - 2560x1440 - Ultra Quality + 4x MSAA + Adv. Lighting
67

Total War: Shogun 2 - 2560x1440 - Ultra Quality
57.8

Hitman: Absolution - 2560x1440 - Ultra
70.6

Sleeping Dogs - 2560x1440 - Ultra Quality + High AA
73

Crysis: Warhead - 2560x1440 - Enthusiast Quality + 4x MSAA
52.1

Far Cry 3 - 2560x1440 - Ultra Quality
61.2

Battlefield 3 - 2560x1440 - Ultra Quality + 4x MSAA
74.3

Civilization V - 2560x1440 - Maximum Quality + 4x MSAA
112.5

Bioshock Infinite - 2560x1440 - Ultra Quality + DDoF
68.6

Crysis 3 - 2560x1440 - High Quality + FXAA
58.6

mi sembra che i 60 fps sostanzialmente li tenga (anche se non sempre tutto max) e se la 290x va di più....


io direi che a 1440p già oggi ci siamo. e i 27 pollici 1440p di ottima qualità a 500-600 euro già ci sono.

Vul
18-10-2013, 12:09
prendiamo una titan a 1440p

http://www.anandtech.com/bench/product/764


DiRT: Showdown - 2560x1440 - Ultra Quality + 4x MSAA + Adv. Lighting
67

Total War: Shogun 2 - 2560x1440 - Ultra Quality
57.8

Hitman: Absolution - 2560x1440 - Ultra
70.6

Sleeping Dogs - 2560x1440 - Ultra Quality + High AA
73

Crysis: Warhead - 2560x1440 - Enthusiast Quality + 4x MSAA
52.1

Far Cry 3 - 2560x1440 - Ultra Quality
61.2

Battlefield 3 - 2560x1440 - Ultra Quality + 4x MSAA
74.3

Civilization V - 2560x1440 - Maximum Quality + 4x MSAA
112.5

Bioshock Infinite - 2560x1440 - Ultra Quality + DDoF
68.6

Crysis 3 - 2560x1440 - High Quality + FXAA
58.6

mi sembra che i 60 fps sostanzialmente li tenga (anche se non sempre tutto max) e se la 290x va di più....


io direi che a 1440p già oggi ci siamo. e i 27 pollici 1440p di ottima qualità a 500-600 euro già ci sono.

Queste le prestazioni che ho postato ieri della 290x:

GeForce GTX 780

BioShock
Min: 41
Max: 51
Tomb Raider
Min: 14
Max: 36


R9 290X

BioShock
Min: 47
Max: 61
Tomb Raider
Min: 15
Max: 40

Comunque i dati che presenti da anandtech mi sembrano un pò strani, come paragone ti lascio http://www.hwupgrade.it/articoli/skvideo/3541/nvidia-geforce-gtx-titan-l-analisi-prestazionale_9.html
http://www.techpowerup.com/reviews/Zotac/GeForce_GTX_Titan_Amp_Edition/15.html
http://www.hwupgrade.it/articoli/skvideo/3541/nvidia-geforce-gtx-titan-l-analisi-prestazionale_6.html
http://www.guru3d.com/articles_pages/geforce_gtx_titan_review,16.html

E notare come spesso non siano ad ultra/non ci sia aa o altre cose.

A me sembriamo ancora lontani da prestazioni SOLIDE e futuribili a 1440p. Senza considerare quanto dalla titan alla 780 alla 290x anche se a volte presentano framerate medi che sembrano strizzare l'occhio a 1440p poi di fatto abbiano dei framerate minimi lontanissimi dalla giocabilità (15 fps minimi su TR maxato a 1440p...?).

Free Gordon
18-10-2013, 12:15
un attimo, quella davvero fu un caso a sè, sia per la qualità della GPU in sè che per un insieme di fattori coincidenti: ricordo che presi contemporaneamente alla 8800gtx un monitor dell 27" 1920x1200 che all'epoca sembrava una risoluzione pazzesca, e anche con filtri la 88gtx rullava alla grande altrochè, davvero una goduria, e lo fece per anni poi...


Crysis non gira a very high su un G80 @60fps...ma nemmeno a 30.. :D

maurilio968
18-10-2013, 12:19
Queste le prestazioni che ho postato ieri della 290x:



R9 290X


Tomb Raider
Min: 15
Max: 40


A me sembriamo ancora lontani da prestazioni SOLIDE e futuribili a 1440p. Senza considerare quanto dalla titan alla 780 alla 290x anche se a volte presentano framerate medi che sembrano strizzare l'occhio a 1440p poi di fatto abbiano dei framerate minimi lontanissimi dalla giocabilità (15 fps minimi su TR maxato a 1440p...?).

prendiamo tomb raider allora: qui

http://videocardz.com/46929/official-amd-radeon-r9-290x-2160p-performance-17-games

prima riga: tomb raider fa 40fps a 4K, possibile faccia sempre 40 fps a 1440p?

aspetto le review ufficiali per i dati con filtri, maxato ecc. Vedremo.
Io scommetto che tomb raider a 1440p con la 290x te lo giochi bene....vediamo.

Poi forse (ma un forse bello grosso) scopriremo per il futuro che mantle ci mette del suo e per esempio la versione di bf4 MANTLE maxata fa 60fps fissi a 1440p ed è giocabile rinunciando a maxarlo a 4k.

Free Gordon
18-10-2013, 12:20
Quindi, veramente di che parliamo? Di fuffa. Non siamo ancora di fronte a schede che giustifichino davvero un passaggio di risoluzione con tranquillità e futuribilità, figuriamoci i 4k dai.

Beh questo è vero, anche la 1440p è una risoluzione che con Cryengine3, Unreal 4, frostbite 3 settati al massimo, sarà cmq sub 60fps su singola scheda. Ancora per diverso tempo. :)

Il problema è sempre lo stesso. Quando usciranno schede che li fanno andare così, ci saranno motori nuovi che nessuna gpu farà girare a quelle res/framerate :D

Ale55andr0
18-10-2013, 12:21
aspetto le review ufficiali.

this :read: ;)

Einhander
18-10-2013, 12:24
prendiamo una titan a 1440p

http://www.anandtech.com/bench/product/764


DiRT: Showdown - 2560x1440 - Ultra Quality + 4x MSAA + Adv. Lighting
67

Total War: Shogun 2 - 2560x1440 - Ultra Quality
57.8

Hitman: Absolution - 2560x1440 - Ultra
70.6

Sleeping Dogs - 2560x1440 - Ultra Quality + High AA
73

Crysis: Warhead - 2560x1440 - Enthusiast Quality + 4x MSAA
52.1

Far Cry 3 - 2560x1440 - Ultra Quality
61.2

Battlefield 3 - 2560x1440 - Ultra Quality + 4x MSAA
74.3

Civilization V - 2560x1440 - Maximum Quality + 4x MSAA
112.5

Bioshock Infinite - 2560x1440 - Ultra Quality + DDoF
68.6

Crysis 3 - 2560x1440 - High Quality + FXAA
58.6

mi sembra che i 60 fps sostanzialmente li tenga (anche se non sempre tutto max) e se la 290x va di più....


io direi che a 1440p già oggi ci siamo. e i 27 pollici 1440p di ottima qualità a 500-600 euro già ci sono.

Crossover e yamakasi molto meno intorno alla meta con dei signori pannelli, cmq il problema dei 4k sui monitor e' inesistente, in quanto ci si arrivera, passando ovviamente per i 1440\1600p in mezzo, date tempo al nuovo hardaware consolo di passare e verranno raggiunti, per chi dice che i 4k sono inutili, rispondo dicendo che probabilmente ci arriveremo prima sui tablet se continua cosi', ho un nexus dieci che hai i 1600p in 10", ora che si veda peggio rispetto ad un tablet come i 10" medi samsung e' una minki@ta strepitosa, quando leggi i font -anche massimizzati- si vedono cmq da dio per non parlare della risoluzione delle foto o quando lavori in grafica, ogni cavolo di pixel in PIU' e' sempre ben accetto.

Il full hd e' il nulla, ricordo a molti che gia' ai tempi dei crt eranod isponibili i 1600p su diversi monitor professionali quindi inr ealta' ci stiamo riallineando all'era pre-lcd : / -quando non si poteva andare piu' avanti con una tecnologia, ne abbiamo ricreata una con 3 vantaggi, MA hanno visto bene di ripartire da zero, cosi' sembra che il fullhd sia chissa che cosa, quando 10 anni fa con un crt medio 4\3 potevi avere la stessa se nn superiore densita' di pixels..

Quindi si direi che il 4K 'e il futuro e che sarebbe pure bene che prendesse piede MOLTO piu' velocemente del fullhd e credo che succedera'
ora il senso dei bench a quelle risoluzioni e' chiaro, amd non puo' sputt@narsi tutte le review e l'hype sulla pubblicazione di bench mainstreaming solo per rovinare la festa ad nvidia che ha compreso, finalmente, che i giochi INSIEME alle schede video spingono molto di piu' di un qualsiasi the way is meant to be castred : D

Vul
18-10-2013, 12:32
prendiamo tomb raider allora: qui

http://videocardz.com/46929/official-amd-radeon-r9-290x-2160p-performance-17-games

prima riga: tomb raider fa 40fps a 4K, possibile faccia sempre 40 fps a 1440p?

aspetto le review ufficiali per i dati con filtri, maxato ecc. Vedremo.
Io scommetto che tomb raider a 1440p con la 290x te lo giochi bene....vediamo.

Poi forse (ma un forse bello grosso) scopriremo che la versione di bf4 MANTLE maxata fa 60fps fissi a 1440p.

Fa 40 fps a 4k perchè non è maxato e non sono attivati tutti i filtri. Basta vedere bioshock pure con fps che si dimezzano a 4k appena alzano a very high.
Il dato a 1440p che ti sto dando io è ufficiale di una review che apparirà appena scade l'nda su uno dei siti principali di hw al mondo. Segnati i numeretti, ma ti posso spoilerare tranquillamente che la 290x non è una scheda sufficiente a giocare a 1440p se vuoi tutto al massimo, non lo è neanche lontanamente, così come non lo è Titan.

Tra l'altro BF 4 è il titolo meno interessante di tutti. Il salto grafico qualitativo e prestazionale da BF 3 è quasi inesistente e da quando hanno patchato c'è tanta gente che afferma di fare "tanti fps quanti ne faceva a bf 3 o giù di lì". Io gioco ad ultra in full hd e su ngi varia gente gioca ad ultra a 1440p i5 e 770 occate, quindi niente di trascendentale.

maurilio968
18-10-2013, 12:38
Fa 40 fps a 4k perchè non è maxato e non sono attivati tutti i filtri. Basta vedere bioshock pure con fps che si dimezzano a 4k appena alzano a very high.
Il dato a 1440p che ti sto dando io è ufficiale di una review che apparirà appena scade l'nda su uno dei siti principali di hw al mondo. Segnati i numeretti, ma ti posso spoilerare tranquillamente che la 290x non è una scheda sufficiente a giocare a 1440p se vuoi tutto al massimo, non lo è neanche lontanamente, così come non lo è Titan.



bene, se è così mi metto l'anima in pace :( e penso allo sli/cross anche per il 1440p. A questo punto aspetto le review con molto meno interesse.


Tra l'altro BF 4 è il titolo meno interessante di tutti. Il salto grafico qualitativo e prestazionale da BF 3 è quasi inesistente e da quando hanno patchato c'è tanta gente che afferma di fare "tanti fps quanti ne faceva a bf 3 o giù di lì". Io gioco ad ultra in full hd e su ngi varia gente gioca ad ultra a 1440p i5 e 770 occate, quindi niente di trascendentale.

ho citato quello perchè per ora è il primo ed il solo (a quanto io sappia) annunciato in versione mantle.

Free Gordon
18-10-2013, 12:40
Il full hd e' il nulla, ricordo a molti che gia' ai tempi dei crt eranod isponibili i 1600p su diversi monitor professionali


Presente :D
Proprietario del 24" Sony FW900 :D da 2500x1600 :)

Free Gordon
18-10-2013, 12:42
Tra l'altro BF 4 è il titolo meno interessante di tutti. Il salto grafico qualitativo e prestazionale da BF 3 è quasi inesistente e da quando hanno patchato c'è tanta gente che afferma di fare "tanti fps quanti ne faceva a bf 3 o giù di lì". Io gioco ad ultra in full hd e su ngi varia gente gioca ad ultra a 1440p i5 e 770 occate, quindi niente di trascendentale.

Probabilmente c'è stato un "console" downgrade.. :D

AkiraFudo
18-10-2013, 12:48
Quoto non vedo l'ora del 4k sui monitor per pc però devo aspettare i 120 hz, non torno ai 60 ,quindi parecchio XD


Se non sbaglio HDMI 2.0 (che praticamente ancora non esiste) supporta al massimo 4k 60hz... e scende in 3D a 24hz.

Prima di riuscire a sfruttare un ipotetico display 4k@120hz , ottimisticamente parlando, direi almeno un altro lustro di attesa..:D

appleroof
18-10-2013, 12:49
Crysis non gira a very high su un G80 @60fps...ma nemmeno a 30.. :D

:stordita:

FroZen
18-10-2013, 12:54
Mah, IMHO la vera e unica cosa che avrebbe senso per un gaming realistico rivoluzionario rispetto ad oggi saranno i visori alla oculus rift, non pannelli 4-8-16k che alla fine son sempre la solita roba........forse forse se li facessero curvi......

Fantomatico
18-10-2013, 12:59
Tra l'altro BF 4 è il titolo meno interessante di tutti. Il salto grafico qualitativo e prestazionale da BF 3 è quasi inesistente e da quando hanno patchato c'è tanta gente che afferma di fare "tanti fps quanti ne faceva a bf 3 o giù di lì". Io gioco ad ultra in full hd e su ngi varia gente gioca ad ultra a 1440p i5 e 770 occate, quindi niente di trascendentale.

Online è così, ma il motore tecnico va valutato nel SP per trarne una conclusione... e da quel che ho visto (se ti interessa ti mando il link in privato, per nn andare off topic) su un video dell' e3, qualità non compressa, il single è migliorato parecchio in proporzione da BF 3. Praticamente è il diretto concorrente di Crysis 3, se vi pare poco...

cire92cry
18-10-2013, 13:07
Online è così, ma il motore tecnico va valutato nel SP per trarne una conclusione... e da quel che ho visto (se ti interessa ti mando il link in privato, per nn andare off topic) su un video dell' e3, qualità non compressa, il single è migliorato parecchio in proporzione da BF 3. Praticamente è il diretto concorrente di Crysis 3, se vi pare poco...

Be odio crysis 3 per ora lo vedo lontano da ogni altro gioco la quantità di dettagli e particolari che ci sono nella campagna sp sono assurdi. E penso che per bf4 si siano impegnati per migliorare la grandezza delle mappe e la qualità generale ma non penso che riusciranno a eguagliare quello che ha fatto crytek con crysis 3 , ma penso sia normale le mappe di crysis 3 sono più piccole di quelle di bf4 :D . Poi sarò felicissimo di cambiare opinione se dice riesce a fare qualcosa di simile.

Se non sbaglio HDMI 2.0 (che praticamente ancora non esiste) supporta al massimo 4k 60hz... e scende in 3D a 24hz.

Prima di riuscire a sfruttare un ipotetico display 4k@120hz , ottimisticamente parlando, direi almeno un altro lustro di attesa..:D

Si infatti aspetterò :)

liberato87
18-10-2013, 13:47
Per il 4k ci vogliono i SOLDI :D
Tapatalked from Nexus 4

fixed :)

Se le 290X prezzate come 780 faranno il botto (ma anche un cinquantello in più ci starebbe).............le 290 lisce :D

Tenendo conto anche del solito ricco bundle di giochi inclusi..........titan e 780oc sembravano inarrivabili sui 28nm e invece...gg AMD. E vediamo il CF 2.0 come si comporta, di quello sono veramente curioso....

quoto.
aspettiamo le review ufficiali!
ho la sensazione che comunque per quanto riguarda il fullhd non ci saranno grosse soprese, mentre "a scalare" di risoluzione andranno meglio le nuove amd (cosa che sostenevo da quando ho visto le spec ufficiali).

in effetti la 290 potrebbe essere la scheda più interessante nel rapporto prezzo-prestazioni.

DukeIT
18-10-2013, 14:55
In attesa delle recensioni ufficiali, io ho paura che ci siamo illusi troppo e, quando sono troppo alte le aspettative, poi arriva la delusione e secondo me di questo dovrebbe tenerne conto AMD. Se la 290x non riuscirà a superare o, almeno, a competere con Titan, sia a livello di prestazioni che di consumi, molti grideranno al flop senza curarsi nemmeno del prezzo.
Io non mi aspetto grandi cose e, da certi segnali letti, penso che la 290x se la vedrà con la 780, nel qual caso mi aspetto però un prezzo decisamente inferiore. Se poi la 290x se la vedrà con Titan, tanto di guadagnato, resta il fatto che, con i prezzi al momento annunciati, a tutti viene spontaneo di paragonare la 290x con Titan, ed è l'unico dato che mi fa sperare in una VGA top.

Einhander
18-10-2013, 15:31
In attesa delle recensioni ufficiali, io ho paura che ci siamo illusi troppo e, quando sono troppo alte le aspettative, poi arriva la delusione e secondo me di questo dovrebbe tenerne conto AMD. Se la 290x non riuscirà a superare o, almeno, a competere con Titan, sia a livello di prestazioni che di consumi, molti grideranno al flop senza curarsi nemmeno del prezzo.
Io non mi aspetto grandi cose e, da certi segnali letti, penso che la 290x se la vedrà con la 780, nel qual caso mi aspetto però un prezzo decisamente inferiore. Se poi la 290x se la vedrà con Titan, tanto di guadagnato, resta il fatto che, con i prezzi al momento annunciati, a tutti viene spontaneo di paragonare la 290x con Titan, ed è l'unico dato che mi fa sperare in una VGA top.

Scusami io proprio non capisco sto ragionamento..

Allora se quando esce la 290x amd la piazza come prezzo ufficiale al pari della 780 perche' dovrebbe avere prezzi diversi o perche' uno si aspetta che competa con la titan quando il costo e' evidentemente allineato a quello della 780 -parlod i prezzi ufficiali poi sicuramente gli shop abbasserranno e non di poco-?

Su qualche shop americano si trova in pre-order a 550-600$ ed e' faciel pensare che salvo la prima week anche qua i prezzi saranno i medesimi con il classico porting 1:1, ma messa cosi' se va piu' della 780 significa che automaticamente se la gioca con la titan inq uanto la 780 e la titan non sono mica cosi' lontane, quindi che senso ha dire se la prezzano cosi' deve andare come la titan che cmq costa un terzo in piu'????

Boh non capisco...certe volte le aspettative non e' mica colpa di amd se uno se le crea eccessivamente fantasiose, che ti aspetti che esca la 290x, che vada piu' della titan e che costi pure 400-450$???? dai su cerchiamo di essere realisti
senza contare che se proprio bisogna prendere la 780 come riferimento -cosa che cmq ha fatto pure amd- gia' una 280x toxic le e' attaccata al c..o xD
e costa 350 euro, il 50% meno della 780....

Ovvio che poi ci saranno i modelli oc, custom e menate varie ma quelli si giudicheranno caso per caso, ora cio' che conta sono i dati ufficiali e i reference design

Duncan
18-10-2013, 15:36
Se costerà quanto una 780 andando di più darà una bella scossa al mercato... nvidia sarà costretta a riscalare tutti i prezzi di conseguenza, e si potranno prendere 780 ad almeno un 100 € meno di adesso... anche perchè la 290 liscia sarà li a metter altra pressione sui prezzi...

DukeIT
18-10-2013, 15:40
ma messa cosi' se va piu' della 780 significa che automaticamente se la gioca con la titan inq uanto la 780 e la titan non sono mica cosi' lontane, quindi che senso ha dire se la prezzano cosi' deve andare come la titan che cmq costa un terzo in piu'????
Ma lo stai dicendo proprio tu che le 780 e le Titan non sono poi così lontane come prestazioni, se dunque la 290x dovesse costare più delle 780 è logico aspettarsi prestazioni in linea o superiori alla Titan, in particolare se si considera le diverse politiche di prezzi delle due case (quando nVidia sfodera il pezzo top lo fa pagare molto, vedasi le 260/270 allora, o le Titan oggi, mentre AMD ci ha abituati a uscite clamorose come la 5870, per mesi top del mercato, a prezzi tutto sommato concorrenziali).
Non sarebbe anomalo che una VGA di prezzo superiore (ma anche uguale) alle 780 avesse prestazioni simili alle Titan, l'anomalia attualmente è proprio il prezzo delle Titan.

Tieni inoltre conto che la logica dell'evoluzione tecnologica dovrebbe portare ad un susseguirsi di prodotti tecnologicamente migliori allo stesso prezzo, quindi una VGA che esce adesso al prezzo delle 780 non dovrebbe stupire se fosse più veloce.

muppo
18-10-2013, 15:47
Scusami io proprio non capisco sto ragionamento..

Allora se quando esce la 290x amd la piazza come prezzo ufficiale al pari della 780 perche' dovrebbe avere prezzi diversi o perche' uno si aspetta che competa con la titan quando il costo e' evidentemente allineato a quello della 780 -parlod i prezzi ufficiali poi sicuramente gli shop abbasserranno e non di poco-?

Su qualche shop americano si trova in pre-order a 550-600$ ed e' faciel pensare che salvo la prima week anche qua i prezzi saranno i medesimi con il classico porting 1:1, ma messa cosi' se va piu' della 780 significa che automaticamente se la gioca con la titan inq uanto la 780 e la titan non sono mica cosi' lontane, quindi che senso ha dire se la prezzano cosi' deve andare come la titan che cmq costa un terzo in piu'????

Boh non capisco...certe volte le aspettative non e' mica colpa di amd se uno se le crea eccessivamente fantasiose, che ti aspetti che esca la 290x, che vada piu' della titan e che costi pure 400-450$???? dai su cerchiamo di essere realisti
senza contare che se proprio bisogna prendere la 780 come riferimento -cosa che cmq ha fatto pure amd- gia' una 280x toxic le e' attaccata al c..o xD
e costa 350 euro, il 50% meno della 780....

Ovvio che poi ci saranno i modelli oc, custom e menate varie ma quelli si giudicheranno caso per caso, ora cio' che conta sono i dati ufficiali e i reference design

beh non esageriamo, la toxic non sta per niente attaccata al **** a nessuno.
È sicuramente una buona scheda e costa (costerà più probabilmente) poco per quello che offre, ma a dire che sta attaccata ad una 780. Guardati su techpowerup la asus 280x dc2 top (che equivale suppergiù ad una toxic) bench per bench comparata ad una 770, tipo la windforce o la msi gaming. A parte un paio di giochi, le prende e bene direi. Da notare, tra l'altro che i bench della 280x sono fatti a 1080p mentre quelli della 770 (almeno la gb) sono a 1200p.
E la 770 è un bel 15-20% dietro una 780 quindi...

ertruffa
18-10-2013, 15:56
questo è poco ma sicuro :doh:

la titan per me non c'entra, ma la 780 si. le custom vanno una bomba e costano 500-530euro, se fosse stata nvidia a presentare una vga dopo un bel po' di tempo, che superava di poco la 780 a default, che scaldava come un fornelletto, che consumava di piu', sarei curioso di vedere i vostri commenti...(480 docet)

DukeIT
18-10-2013, 15:57
Beh, ma consumi e temperature non li conosciamo.

ertruffa
18-10-2013, 16:00
Beh, ma consumi e temperature non li conosciamo.

http://videocardz.com/46822/first-amd-radeon-r9-290x-1080p-performance-review-leaks
e' furmark, ma gia' ti puoi fare un'idea

Pelvix
18-10-2013, 16:11
la titan per me non c'entra, ma la 780 si. le custom vanno una bomba e costano 500-530euro, se fosse stata nvidia a presentare una vga dopo un bel po' di tempo, che superava di poco la 780 a default, che scaldava come un fornelletto, che consumava di piu', sarei curioso di vedere i vostri commenti...(480 docet)

Infatti la presentazione di sta vga sempre sempre più quelle che a suo tempo fece nvidia per Fermi (manca solo la vga farlocca): speriamo che i risultati siano diversi almeno, anche se non promette nulla di buono...

LurenZ87
18-10-2013, 16:14
ecco la spiegazione su cosa succede alla vga quando si seleziona il secondo bios "Performance Mode" :)

http://www.hwlegendshack.com/out.php/t7403_z3k82jj.jpg (http://www.hwlegendshack.com/out.php/i7403_z3k82jj.jpg)

scusate non ho resistito :asd:

PS: la "civetta" torna a farsi vedere... :asd: (chi seguiva il thread "aspettando GTX 480/470" se la ricorderà :D)

http://www.hwlegendshack.com/out.php/t7404_196452-1816023092943-2303251-n.jpg (http://www.hwlegendshack.com/out.php/i7404_196452-1816023092943-2303251-n.jpg)

:asd:

PS2: comunque le R9 280X continuano a scendere..

mikael84
18-10-2013, 16:19
http://videocardz.com/46822/first-amd-radeon-r9-290x-1080p-performance-review-leaks
e' furmark, ma gia' ti puoi fare un'idea

A vedere i grafici la 290x e'corsa al riparo aumentando le Rops. Considerando quasi tutte le 780 custom che vanno qualche punto percentuale in piu'della Titan, questa dovra'essere estremamente competitiva nel prezzo. Il vero Best sara'la 290:)

ertruffa
18-10-2013, 16:25
supposizioni, supposizioni..... la 480 consumava circa 120w in più della 5870 e 70w in più della dual gpu 5970 con prestazioni analoghe alla prima ed inferiori alla seconda... eh insomma non è proprio lo stesso se si confermano 30/40 w di differenza.

http://www.hwupgrade.it/articoli/skvideo/2411/nvidia-geforce-gtx-480-e-470-fermi-finalmente_8.html

aspettiamo le recensioni, il prezzo purtroppo ormai non lo fanno solo le prestazioni, lo fanno gli utenti che spendono 1000 euro ad occhi chiusi per avere una scheda che fa il 30% in più di un'altra che costa oltre il 50% in meno neanche per andare a scomodare i più convenienti, lato rapporto prezzo/prestazioni, competitor.

arre, parli sempre di titan in una situazione di mercato diverso, e come se ora la 290x andasse il 30% in piu' di titan, e amd la mettesse a 1200, non avrebbe avversari in singola e chi la vuole la paga altrimenti prende altro.
mi secca ripostare sempre gli stessi link, ma non sono supposizioni le mie, ma dati presi dalle review uscite-leaked prima, io dico solo che sembra similare alla situazione della 480 nvidia di un po' di tempo fa.
poi spero che quei dati siano sbagliati e che vada piu' della 780(custom),consumi e scaldi meno, ma non senbra cosi'.

devil_mcry
18-10-2013, 16:31
supposizioni, supposizioni..... la 480 consumava circa 120w in più della 5870 e 70w in più della dual gpu 5970 con prestazioni analoghe alla prima ed inferiori alla seconda... eh insomma non è proprio lo stesso se si confermano 30/40 w di differenza.

http://www.hwupgrade.it/articoli/skvideo/2411/nvidia-geforce-gtx-480-e-470-fermi-finalmente_8.html

aspettiamo le recensioni, il prezzo purtroppo ormai non lo fanno solo le prestazioni, lo fanno gli utenti che spendono 1000 euro ad occhi chiusi per avere una scheda che fa il 30% in più di un'altra che costa oltre il 50% in meno neanche per andare a scomodare i più convenienti, lato rapporto prezzo/prestazioni, competitor.

Si beh il parallelo con la gtx480 non è poi tanto errato
La 290x probabilmente va giusto qualche punto % in più della 780 (mi pare che tra la 780 e la Titan ci sia pochissimo, meno del 10%) visto che complessivamente in full HD è meno veloce

La 480 andava un 5-10% in più della 5870 e costava di piú, come la 290x sulla 780
L'unico fattore che le differenzia e che la 290x non consuma cosi tanto di più come la 480

Ad oggi se le prestazioni sono quelle (e visto che si parla di una review...) non ha senso preferire la 290x ad una 780

Da vedere la 290 che potrebbe essere interessante e più conveniente della 770... Ma questa costa mi pare 350e...

liberato87
18-10-2013, 16:41
ancora non presentate ufficialmente.. e già nuova concorrenza...

http://videocardz.com/46955/nvidia-announces-geforce-gtx-780-ti

ci vogliono far dannare a sto giro.. questo imho vuol dire che la 290x andrà MOOOLTO forte

cire92cry
18-10-2013, 16:41
Hanno presentato la 780 TI e sembra sia più veloce della titan probabilmente il gk110 full . Lo scontro si fa duro sono curioso !

LurenZ87
18-10-2013, 16:42
ancora non presentate ufficialmente.. e già nuova concorrenza...

http://videocardz.com/46955/nvidia-announces-geforce-gtx-780-ti

ci vogliono far dannare a sto giro

e l'attesa si fa infinita :muro:

obiwan-80
18-10-2013, 16:50
Sono stufo di aspettare, e ora che la situazione e prezzi si stabilizzera' ne passera' ancora...intanto mi sa che mi prendo una 7970 usata e poi ci pensiamo.

LurenZ87
18-10-2013, 16:53
Sono stufo di aspettare, e ora che la situazione e prezzi si stabilizzera' ne passera' ancora...intanto mi sa che mi prendo una 7970 usata e poi ci pensiamo.

misà che faccio la stessa cosa :fagiano:

Ale55andr0
18-10-2013, 16:56
no problem, uscirà la 290XT con 3072sp e 192tmu :O



















:asd:

Vul
18-10-2013, 16:57
Se la 780ti vuole essere il competitor significa che si piazzerà a 650 euro.

Ergo taglio di prezzi per le 780.

Secondo me sta r9 290x di amd è una signora scheda, specie a risoluzioni elevate..però diciamocelo francamente..Se arrivi 8 mesi dopo la concorrenza vieni preso a bastonate. Per 8 mesi in quella fascia di prezzo ha venduto solo nvidia. E ora che escono le 290x nvidia può permettersi di abbassare i prezzi di 780 e di vendere 780ti a 650. Forse nvidia avrà rincordo amd per un annetto e la sua 7970 in fascia medio-alta, però ora amd sta in una brutta situazione.

Certo, va detto pure che il vantaggio è tutto nostro, visto che ci pioveranno presto 290, 780 ben sotto i 500 euro e fra qualche mesetto...chissà :D

obiwan-80
18-10-2013, 17:00
Mi sa che adesso che invidia ha annunciato la 780ti, amd non fara' piu' uscire la 290x ma annuncera' un'ipotetica 290xt per contrastare invidia.:D

Ale55andr0
18-10-2013, 17:01
Mi sa che adesso che invidia ha annunciato la 780ti, amd non fara' piu' uscire la 290x ma annuncera' un'ipotetica 290xt per contrastare invidia.:D

old, già detto più su :O




:asd:

francisco9751
18-10-2013, 17:01
Però presentare una scheda top dopo sei mesi della 780 lo trovo scorretto :/

Tapatalked from Nexus 4

devil_mcry
18-10-2013, 17:01
Mi sa che adesso che invidia ha annunciato la 780ti, amd non fara' piu' uscire la 290x ma annuncera' un'ipotetica 290xt per contrastare invidia.:D
sempre se ha ancora unità da attivare nella gpu

il gk110 della titan aveva un modulo spento per quello hanno potuto tirare fuori la 780 Ti senno se la prendevano nel ****** perchè era da rifare da capo la gpu...

sickofitall
18-10-2013, 17:03
Se la 780ti vuole essere il competitor significa che si piazzerà a 650 euro.

Ergo taglio di prezzi per le 780.

:D

Magari la 780 a 450€, la 290x sui 550/600 e la 780Ti sulle 650€

devil_mcry
18-10-2013, 17:04
Se la 780ti vuole essere il competitor significa che si piazzerà a 650 euro.

Ergo taglio di prezzi per le 780.

Secondo me sta r9 290x di amd è una signora scheda, specie a risoluzioni elevate..però diciamocelo francamente..Se arrivi 8 mesi dopo la concorrenza vieni preso a bastonate. Per 8 mesi in quella fascia di prezzo ha venduto solo nvidia. E ora che escono le 290x nvidia può permettersi di abbassare i prezzi di 780 e di vendere 780ti a 650. Forse nvidia avrà rincordo amd per un annetto e la sua 7970 in fascia medio-alta, però ora amd sta in una brutta situazione.

Certo, va detto pure che il vantaggio è tutto nostro, visto che ci pioveranno presto 290, 780 ben sotto i 500 euro e fra qualche mesetto...chissà :D

no, basta che piazzano la Titan al prezzo della 290x e la 780 Ti al prezzo della Titan e hanno fatto scacco matto

Vul
18-10-2013, 17:05
Sono l'unico che si chiede come faranno a produrre una scheda che sarà una via di mezzo fra 780 e titan, considerato quanto 780 di fabbrica viaggiono più delle titan? :V

Comunque speravo in 770ti ad essere sincero, non in 780 ti.

Un gk110 sotto i 400 era quello in cui speravo.

cire92cry
18-10-2013, 17:07
Però presentare una scheda top dopo sei mesi della 780 lo trovo scorretto :/

Tapatalked from Nexus 4

Massi alla fine uno che ha una 780/titan e anche 7970 alla fine non ha motivo di cambiare alla fine si parla di un po di fps in più , poi be questo in generale ci sono altre situazioni particolari in cui ha senso fare l'upgrade ( parlando della 7970 non delle altre 2 XD ) ^^
Sono l'unico che si chiede come faranno a produrre una scheda che sarà una via di mezzo fra 780 e titan, considerato quanto 780 di fabbrica viaggiono più delle titan? :V

Comunque speravo in 770ti ad essere sincero, non in 780 ti.

Un gk110 sotto i 400 era quello in cui speravo.


Hanno detto che la 780 ti sarà la più veloce che hanno mai fatto :) il prezzo è un punto di domanda...

DukeIT
18-10-2013, 17:07
no, basta che piazzano la Titan al prezzo della 290x e la 780 Ti al prezzo della Titan e hanno fatto scacco matto
Se diminuiscono il prezzo della top e mettono la loro "seconda" al prezzo della top, più che scacco matto, li portano in manicomio :)

Vul
18-10-2013, 17:08
no, basta che piazzano la Titan al prezzo della 290x e la 780 Ti al prezzo della Titan e hanno fatto scacco matto

Non credo avverrà. La titan è la loro scheda da 1000 euro e non si schioderà dal quel prezzo ufficialmente.
La Titan si vuole piazzare in una fascia di prezzo/prestazioni in cui non ha concorrenti, quindi è più probabile che la ritirino (un pò come la fascia enthusiast intel, che non si schioda da quei prezzi, indipendentemente da come va la fascia alta del mercato consumer). Questo è legato a motivi di immagine. Perchè il fatto che Nvidia abbia una scheda inarrivabile per amd a 1000 euro significa vendere anche tante 770/760 in più.

Poi se la 780ti è la scheda anti 290x è la scheda da 650 nvidia.

Se la piazzano al prezzo della titan non è l'anti 290x.

cire92cry
18-10-2013, 17:09
Non credo avverrà. La titan è la loro scheda da 1000 euro e non si schioderà dal quel prezzo ufficialmente.
La Titan si vuole piazzare in una fascia di prezzo/prestazioni in cui non ha concorrenti, quindi è più probabile che la ritirino (un pò come la fascia enthusiast intel, che non si schioda da quei prezzi, indipendentemente da come va la fascia alta del mercato consumer).

Poi se la 780ti è la scheda anti 290x è la scheda da 650 nvidia.

Se la piazzano al prezzo della titan non è l'anti 290x.

Dipende tutto dalle prestazioni reali della 290x ma per ora non abbiamo molto di certo.

appleroof
18-10-2013, 17:09
Sono l'unico che si chiede come faranno a produrre una scheda che sarà una via di mezzo fra 780 e titan, considerato quanto 780 di fabbrica viaggiono più delle titan? :V

cut

basta mandare in eol la titan, più facile che abbassarla di prezzo e fare una figura peggiore.

Vul
18-10-2013, 17:13
Dipende tutto dalle prestazioni reali della 290x ma per ora non abbiamo molto di certo.

Mah, a me sembra che ormai di carne al fuoco ce ne sia anche troppa, i giochi son fatti. Poi conosco anche qualche risultatino spoileratomi insieme a quelli di ieri e riassumendoli:

2160p: 290x>Titan>780
1440p: Titan/290x(dipende dal gioco)>780
1080p: Titan>290x>780

In più AMD scalda e consuma di più (secondo i cinesi), ma va anche detto che è Furmark quindi ha ben poca utilità. Credo ci sia poco da fare ormai la 290x non risulta certo una delusione, ma arrivati a questo punto solo 20-30 euro in meno con la 780ti lanciata a 650, solo costare un 10% in meno o ottime prestazioni in oc possono convincermi ad acquistare amd (e un eventuale bontà di mantle).

Al momento, se costassero uguale ad una 780ti ipotetica che vada come una titan le ragioni per comprare amd sarebbero ridotte a: andamento specifico di alcuni giochi di maggior interesse, mantle, multimonitor. Chi gioca a 1080p o 1440p preferirà nvidia a parità di prezzo.

LurenZ87
18-10-2013, 17:13
io la butto lì...

per me AMD voleva distrarre il pubblico proprio per via di quella vga, e sono convinto che sia ne più e ne meno una GTX Titan con frequenze superiori e 3Gb di vram, il tutto allo stesso street price (perchè ricordiamoci che non conosciamo nemmeno quello delle rosse) della R9-290X.

imho lo scenario che avremo sarà questo:

R9 290X vs GTX 780Ti

R9 290 vs GTX 780

devil_mcry
18-10-2013, 17:16
tra la titan e la 780 c'è un buco non indifferente
possono abbassare la Titan senza noia

cmq della 780 Ti leggo che dovrebbe avere 2688 cuda cores, come la Titan, stessa configurazione di memoria

forse avrà la gpu di default meno spinta in termini di MHz(ma da qualche parte prima ho letto che avrà più cuda cores di Titan) ma in ogni caso è al massimo una Titan downcloccata

Vul
18-10-2013, 17:17
io la butto lì...

per me AMD voleva distrarre il pubblico proprio per via di quella vga, e sono convinto che sia ne più e ne meno una GTX Titan con frequenze superiori e 3Gb di vram, il tutto allo stesso street price (perchè ricordiamoci che non conosciamo nemmeno quello delle rosse) della R9-290X.

imho lo scenario che avremo sarà questo:

R9 290X vs GTX 780Ti

R9 290 vs GTX 780

Si ma se le prestazioni son quelle 780ti vs 290x è sostanzialmente un replay (in termini di differenze %) di 770 vs 280x con la 770 che vince nella maggior parte dei giochi e perde solo al salire di risoluzioni/multimonitor e vince anche in consumi.

francisco9751
18-10-2013, 17:19
Ma AMD oggi non doveva mostrare qualcosa?? Si sa a che ora?

Tapatalked from Nexus 4

FroZen
18-10-2013, 17:24
Che ritorno economico avrebbe nvidia nel vendere un gk110 full a 1000$ mettiamo piuttosto che una full tesla da mi pare più di 300$? Per un....mmm...+10% sulla nuova diretta concorrente in ambito gaming quando basterebbe abbassare l'MSRP della titan già in commercio rendondola più appettibile? Le prestazioni già ci sono,a meno che la 290X vada piu di quanto gira nei forum di "bimbominkia con le mani impiastricciate di nutella"(cit.)® ....

cire92cry
18-10-2013, 17:25
tra la titan e la 780 c'è un buco non indifferente
possono abbassare la Titan senza noia

cmq della 780 Ti leggo che dovrebbe avere 2688 cuda cores, come la Titan, stessa configurazione di memoria

forse avrà la gpu di default meno spinta in termini di MHz(ma da qualche parte prima ho letto che avrà più cuda cores di Titan) ma in ogni caso è al massimo una Titan downcloccata


Hum se non ho capito male ( non mastico bene l'inglese XD ) la 780 TI dovrebbe essere la vga più veloce da loro creata , e visto che nelle quadro/tesla il GK110 full è realtà per me sarà quello.

Mah, a me sembra che ormai di carne al fuoco ce ne sia anche troppa, i giochi son fatti. Poi conosco anche qualche risultatino spoileratomi insieme a quelli di ieri e riassumendoli:

2160p: 290x>Titan>780
1440p: Titan/290x(dipende dal gioco)>780
1080p: Titan>290x>780

In più AMD scalda e consuma di più (secondo i cinesi), ma va anche detto che è Furmark quindi ha ben poca utilità. Credo ci sia poco da fare ormai la 290x non risulta certo una delusione, ma arrivati a questo punto solo 20-30 euro in meno con la 780ti lanciata a 650, solo costare un 10% in meno o ottime prestazioni in oc possono convincermi ad acquistare amd (e un eventuale bontà di mantle).

Al momento, se costassero uguale ad una 780ti ipotetica che vada come una titan le ragioni per comprare amd sarebbero ridotte a: andamento specifico di alcuni giochi di maggior interesse, mantle, multimonitor. Chi gioca a 1080p o 1440p preferirà nvidia a parità di prezzo.

Si be sono ovviamente tengo a precisare che tutte le soluzioni che stanno uscendo e che sono uscite 780/titan/290x/290/780Ti sono ottime schede alla fine scegliere una o l'altra cambia non molto l'esperienza in game ma per vari motivi ogni utente deve scegliere ciò che gli interessa.

The_SaN
18-10-2013, 17:40
http://videocardz.com/46822/first-amd-radeon-r9-290x-1080p-performance-review-leaks
e' furmark, ma gia' ti puoi fare un'ideaAridaje con Furmark.
È già stato spiegato (pure da me non so quante volte) che non serve come parametro.
Certo che vi attaccate a tutto pur di far valere la vostra opinione :stordita:

http://images.anandtech.com/graphs/graph7406/58753.png

http://images.anandtech.com/graphs/graph7406/58754.png

ertruffa
18-10-2013, 17:46
Aridaje con Furmark.
È già stato spiegato (pure da me non so quante volte) che non serve come parametro.
Certo che vi attaccate a tutto pur di far valere la vostra opinione :stordita:


infatti ho sottolineato che era furmark e che serviva a farsi un'idea, come tu stesso vedi la 280x toxic, gia' consuma in game piu' della 780, fai tu, secondo me la 290x consumera' un po di piu' della 780..........staremo a vedere.

The_SaN
18-10-2013, 17:50
infatti ho sottolineato che era furmark e che serviva a farsi un'idea, come tu stesso vedi la 280x toxic, gia' consuma in game piu' della 780, fai tu, secondo me la 290x consumera' un po di piu' della 780..........staremo a vedere.La Toxic fa quei valori perchè pesantemente overclockata e overvoltata.

In gaming la 280x reference consuma uguale alla 770, in Furmark ci sono 46W di differenza.
Con la 780 invece sono 30W in meno durante il gaming e consuma uguale sotto Furmark.

Non mi sembra serva a farsi un'idea.

ertruffa
18-10-2013, 17:52
La Toxic fa quei valori perchè pesantemente overclockata e overvoltata.

In gaming la 280x reference consuma uguale alla 770, in Furmark ci sono 46W di differenza.
Con la 780 invece sono 30W in meno durante il gaming e consuma uguale sotto Furmark.

Non mi sembra serva a farsi un'idea.

ok vedremo.

Einhander
18-10-2013, 18:12
beh non esageriamo, la toxic non sta per niente attaccata al **** a nessuno.
È sicuramente una buona scheda e costa (costerà più probabilmente) poco per quello che offre, ma a dire che sta attaccata ad una 780. Guardati su techpowerup la asus 280x dc2 top (che equivale suppergiù ad una toxic) bench per bench comparata ad una 770, tipo la windforce o la msi gaming. A parte un paio di giochi, le prende e bene direi. Da notare, tra l'altro che i bench della 280x sono fatti a 1080p mentre quelli della 770 (almeno la gb) sono a 1200p.
E la 770 è un bel 15-20% dietro una 780 quindi...


Ma anche no :asd:

http://www.hwupgrade.it/articoli/skvideo/3800/radeon-r9-280x-le-soluzioni-msi-e-sapphire_index.html

il discorso era riferito al costo, non alle prestazini pure, si diceva che il costo della 290x deve essere piu' basso della 780 anche andando di piu' -cosi' ho fatto l'esempio della toxic- e' logico che potrebbe essere cosi', ma potrebbe ANCHE essere lo stesso prezzo ed andare di piu' e sarebbe conveniente anche perche' a quel punto la titan sarebbe ad un passo e\o raggiunta e il costo sarebbe cmq molto piu' basso, ora e' ovvio che amd non puo' stabilire il costo basandosi su quella ladrata che e' la titan, mi pare piu' che normale, come mi pare altresi' normale che prezzare la 290x come la 780 -magari avendo prestazioni maggiori- e' di per se gia' conveniente per amd.

Poi possono sempre fare il colpaccio e prezzarla meno, ma in una prima fase la vedo dura....

muppo
18-10-2013, 18:26
Ma anche no :asd:

http://www.hwupgrade.it/articoli/skvideo/3800/radeon-r9-280x-le-soluzioni-msi-e-sapphire_index.html

infatti, secondo te la 280x è una scheda per il 1440p?

che sia buona non c'è dubbio, ma resta dietro , per la fascia a cui è destinata, ad una 780 senza se e senza ma.
D'altronde basta una 770 custom qualsiasi per ridefinire la 280x toxic, ovvero nel 1080p , pure io stavo pensando a farmi un cross di 280x ma qui qualcuno mi ha fatto desistere (mi serve per il 1440p a 120hz e comunque dopo aver valutato le prestazioni della 280x a 1080p un pò di margine a favore delle 770 resta comunque specie se i benchmark non restano sui giochi dove comunque amd va meglio ), ma preferisco attendere le 290 in quanto saranno non dico a livelli sli/cross di 280/770, ma vicine, però restando sulla singola scheda.
Ora non fraintendere, sul 1080p adesso come adesso il bb credo sia proprio la 280x, ma guardare i benchmark di hwupgrade ....a 1440p, poi, senza tra l'altro tralasciare quali giochi siano testati..

Einhander
18-10-2013, 18:44
infatti, secondo te la 280x è una scheda per il 1440p?

che sia buona non c'è dubbio, ma resta dietro , per la fascia a cui è destinata, ad una 780 senza se e senza ma.
D'altronde basta una 770 custom qualsiasi per ridefinire la 280x toxic, ovvero nel 1080p , pure io stavo pensando a farmi un cross di 280x ma qui qualcuno mi ha fatto desistere (mi serve per il 1440p a 120hz e comunque dopo aver valutato le prestazioni della 280x a 1080p un pò di margine a favore delle 770 resta comunque specie se i benchmark non restano sui giochi dove comunque amd va meglio ), ma preferisco attendere le 290 in quanto saranno non dico a livelli sli/cross di 280/770, ma vicine, però restando sulla singola scheda.
Ora non fraintendere, sul 1080p adesso come adesso il bb credo sia proprio la 280x, ma guardare i benchmark di hwupgrade ....a 1440p, poi, senza tra l'altro tralasciare quali giochi siano testati..

concordo con te sia chiaro, semplicemente avevo letto da poco la review della 280x su hwupgrade -m aanche quella di kitguru e altri-e il 20% di stacco a 1080p con la 780 non lo vedevo da nessuna parte, poi ovvio che la 780 si occa ecc ecc, ma costa anche molto di piu' e il discorso era nato proprio con la 780 non con la 770 -imho molto piu' sensato come acquisto ora come ora - cmq per i prezzisono intorno ai 320 euro entrambe -intendo la 770 windforce per fare un esempio e la toxic- e in base a quello che vedo dalle frequenze rispetto alle originali dovrebbero andare uguale con giochi in cui prevale una e altri in cui si scambiano di posto, l'unica cosa certa e' che la 780 quei 150 euro in piu' non li vale proprio in relazione a queste due proposte..

Cmq sono molto curioso di vedere le prestazioni del nuovo crossfire -nella speranza che siano migliori-

Vul
18-10-2013, 18:47
infatti, secondo te la 280x è una scheda per il 1440p?

che sia buona non c'è dubbio, ma resta dietro , per la fascia a cui è destinata, ad una 780 senza se e senza ma.


Si, eccome.

Fa circa il 9 % in meno di una 780 in Crysis 3
9 % su Far Cry 3
2 % in meno su Tomb Raider
2 % in meno su Grid
ed è addirittura più veloce in Metro.

Non ci giocherai maxando tutto a 1440p, ma se invece di ultra metti very high e anzichè msaa metti fxaa la scheda vola (e non mi venite a dire della differenza abissale che si vede fra msaa ed fxaa a 1440p perpiacere).
E questo perchè stiamo considerando il massimo dei giochi esigenti, in condizioni più generali si può giocare tranquillamente con una Toxic con tutto maxato.

Sono assolutamente d'accordo che tirando la 780 ci sarà una differenza netta, ma per me una scheda che di default va quasi come una che costa 220 euro in più di default è una signora scheda.

obiwan-80
18-10-2013, 19:14
Sono d'accordo con vul, se uno non punta ad avere i 60 fissi e lascia spento l'antialiasing che a 1440p e' solo uno spreco, una 7970 o 280x e' piu' che sufficiente, certo una 290 assicura piu' longevita', pero' anche gli sghei contano...

The_SaN
18-10-2013, 19:25
Io sono dell'idea che le schede si guardano a default. (default, reference è un'altra cosa)
L'overclock è una caratteristica in più, che va presa in considerazione solo se si ritiene importante.
Quindi sì, la Toxic è molto conveniente, più della 780.
E sì ancora, se si vuole overclockare e si hanno i soldi in più, puoi considerare la 780.

muppo
18-10-2013, 19:46
concordo con te sia chiaro, semplicemente avevo letto da poco la review della 280x su hwupgrade -m aanche quella di kitguru e altri-e il 20% di stacco a 1080p con la 780 non lo vedevo da nessuna parte, poi ovvio che la 780 si occa ecc ecc, ma costa anche molto di piu' e il discorso era nato proprio con la 780 non con la 770 -imho molto piu' sensato come acquisto ora come ora - cmq per i prezzisono intorno ai 320 euro entrambe -intendo la 770 windforce per fare un esempio e la toxic- e in base a quello che vedo dalle frequenze rispetto alle originali dovrebbero andare uguale con giochi in cui prevale una e altri in cui si scambiano di posto, l'unica cosa certa e' che la 780 quei 150 euro in piu' non li vale proprio in relazione a queste due proposte..

Cmq sono molto curioso di vedere le prestazioni del nuovo crossfire -nella speranza che siano migliori-

nono, sono d'accordissimo, la 780 è ed è sempre stata per me overprice. Come lo fu la 7970 al suo debutto, un 15% in più di una 770, che costa mediamente 200 euro in meno (la 2gb), 500 euri non li vale.
Poi ovvio dipende sempre da che angolazione vedi le cose e come utilizzi l'hardware che devi avere.
Cmq la shappire 280x che sta a 250 è ora come ora senza dubbio la scelta migliore per giocare a 1080p.
Ma 320 euro per una sapphire toxic, per me al momento sono troppi, ma come fatto notare da vul, scenderà in fretta appena l'effetto (per modo di dire..) novità sarà sparito.
Io avrei preso un crossfire di 280x se qualcuno non mi avesse fatto notare i problemi che ha avuto e che effettivamente pare ci siano, ecco perchè attendo con più fervore l'uscita dei benchmark delle 290.


Si, eccome.

Fa circa il 9 % in meno di una 780 in Crysis 3
9 % su Far Cry 3
2 % in meno su Tomb Raider
2 % in meno su Grid
ed è addirittura più veloce in Metro.

Non ci giocherai maxando tutto a 1440p, ma se invece di ultra metti very high e anzichè msaa metti fxaa la scheda vola (e non mi venite a dire della differenza abissale che si vede fra msaa ed fxaa a 1440p perpiacere).
E questo perchè stiamo considerando il massimo dei giochi esigenti, in condizioni più generali si può giocare tranquillamente con una Toxic con tutto maxato.

Sono assolutamente d'accordo che tirando la 780 ci sarà una differenza netta, ma per me una scheda che di default va quasi come una che costa 220 euro in più di default è una signora scheda.

Vul stai confrontando i giochi dove le AMD vanno meglio, manca solo tomb raider...

visto che la toxic è la versione più oc delle 280x, mi sembra logico confrontarla con una delle versioni oc della 780, giusto per avere un valore delle prestazioni più reale, nel senso che, visto che al giorno d'oggi l'oc ha la sua rilevanza, schede oc vs schede oc. (tralasciando ovviamente il fattore soldo che poi sta ad ognuno di noi dare il giusto valore ai soldi che si spendono).
traggo questo da techpowerup visto che è uno dei pochi siti che mi compara tutti i giochi (e non quelli che fan comodo, anche se magari uno si prende una scheda per giocare solo al multi di bf3 per esempio) e sembra non sia di parte come qualche altro , prendo come comparazione una 770 reference:


1080P asus dc2 top 280x :1% più veloce della 770 reference
1080P MSI 780 Lightning :20% più veloce della 770 reference

1600P asus dc2 top 280x :6% più veloce della 770 reference
1600P MSI 780 Lightning :25% più veloce della 770 reference

quindi si può dire che il 20% di prestazione tra le due schede sia grossomodo il reale valore in campo, sia a 1080P che 1440p.
una 770 custom costa grossomodo 320 euro, la toxic 280x mi sembra di aver capito gli stessi soldi.
La 770 custom è un 8-10% circa più veloce (vado ad occhio) delle reference quindi mi sembra che se devo spendere 320 euro per una scheda
sceglierei la 770 per il 1080p e la 280x per il 1440p. Se ho più budget prendo la 780 (ovviamente non si considerano le 290).
Però. c'è un però, a 250 si trovano le 280x shappire che , con 70 euro di meno sul groppone, si pappano come rapporto prezzo/prestazione le 770.

L'unico peccato è che in cross a quanto pare fan cacare le amd, spero risolvano, altrimenti avrei già preso un cross di 280x per il 1440p 120hz.

liberato87
18-10-2013, 22:21
Che ritorno economico avrebbe nvidia nel vendere un gk110 full a 1000$ mettiamo piuttosto che una full tesla da mi pare più di 300$? Per un....mmm...+10% sulla nuova diretta concorrente in ambito gaming quando basterebbe abbassare l'MSRP della titan già in commercio rendondola più appettibile? Le prestazioni già ci sono,a meno che la 290X vada piu di quanto gira nei forum di "bimbominkia con le mani impiastricciate di nutella"(cit.)® ....

nvidia ha semplicemente tirato fuori la scheda per accontentare tutti (lato verde)

- la titan è potentissima, costa uno sfracelo ed ha 6gb di vram che sono "inutili".
- la 780 è meno potente ma con un overclock raggiunge le prestazioni di una titan, ha 3gb che bastano e avanzano e conviene di più della Titan
- 780ti : una 780 con più cuda probabilmente (se poi sarà una Titan occata...) , occata e con 3gb di vram

la titan può tranquillamente uscire di scena tanto ha svolto egregiamente il suo ruolo, e sicuramente aveva già perso parecchio appeal da quando è uscita la 780 (apparte chi beneficia di 6gb di ram e dei cuda in più del gk110).
può uscire quindi "a testa alta" senza deprezzarsi, restando una scheda mitica (come le inculate di chi l ha comprata al dayone dicendo che sarebbe stata la scheda più potente fino ai 20nm).

la 780 se scende di prezzo diventa ancora più interessante. e chissà, magari amd sarà costretta ad abbassare anche lei i listini. a tutto vantaggio nostro.

io comunque la vedo come una cosa già in cantiere da tempo.. sapevano già le prestazioni e i punti di forza di una 290x e per non lasciare campo libero ad amd in un periodo prezioso dell'anno, ha tirato fuori questa scheda, più utile di una Titan ultra (inutile riaffermare il primato con schede da 1000euro, meglio vendere e non far vendere troppo amd). e poi comunque non esce casualmente ora che comunque l hype per la r290 e 290x sta al massimo.. secondo voi è casuale che ieri commentavamo i bench ottimi a 4k della 290x e oggi nvidia annuncia la 780ti? sapete quanti indecisi attenderanno (giustamente, anche se fosse stato a parti inverse)??

Free Gordon
19-10-2013, 10:16
Curioso di vedere cosa farà AMD per contrastare Nvidia G-sync! :)

E' un'ottima idea quella di Nvidia secondo me! ^_^

idkfa
19-10-2013, 10:36
Curioso di vedere cosa farà AMD per contrastare Nvidia G-sync! :)

E' un'ottima idea quella di Nvidia secondo me! ^_^

Codice altamente ottimizzato e programmato a basso livello grazie a librerie Mantle. Permettono di importare il lavoro già fatto per console con più velocità e a costi minori.

Se questa non è una rivoluzione... :O

EDIT: Comunque suggerisco a tutti i fanboy di una o l'altra fazione, di aspettare la conferenza in cui si spiegherà meglio cosa è Mantle. Poi magari verificare personalmente sul campo, e non in una tech demo, la tecnologia G-sync.

Meglio aspettare dicembre per sparare sentenze!

Vul
19-10-2013, 11:53
Curioso di vedere cosa farà AMD per contrastare Nvidia G-sync! :)

E' un'ottima idea quella di Nvidia secondo me! ^_^

Come ho scritto nell'altro thread bisognerebbe vedere esattamente con recensioni esterne e non da presentazioni fatte ad hoc cosa sia il gsync perchè attualmente non è niente di nuovo rispetto al vsync adattativo che nvidia ha implementato nei driver più di un anno fa:

http://www.geforce.com/hardware/technology/adaptive-vsync/technology

Però onestamente il fatto che in tutto questo tempo AMD non sia riuscita ad introdurre un vsync adattativo (ovvero che si disattivi sotto la frequenza di refresh del monitor) onde evitare stutter è un pò preoccupante e sarebbe molto più rilevante che non riciclare EAX come True Audio secondo me.

liberato87
19-10-2013, 12:27
Come ho scritto nell'altro thread bisognerebbe vedere esattamente con recensioni esterne e non da presentazioni fatte ad hoc cosa sia il gsync perchè attualmente non è niente di nuovo rispetto al vsync adattativo che nvidia ha implementato nei driver più di un anno fa:

http://www.geforce.com/hardware/technology/adaptive-vsync/technology

proprio perchè ancora se ne sa poco, come fai a dire che sia la stessa cosa??

l adaptive vsync è appunto implementato nel driver e si attiva dal pannello di controllo nvidia.
qui si parla di un modulo hardware aggiuntivo che via hardware sincronizza il refresh del monitor alla vga.
mi sembra che si tratti di due cose decisamente diverse, cambia proprio l approccio.

aspettiamo prima di sparare sentenze. come fai a dire "è la stessa cosa"? vuoi dire che il modulo che ci mettono è in realtà "finto"? :D

[Luce Nera] Raptor
19-10-2013, 12:36
proprio perchè ancora se ne sa poco, come fai a dire che sia la stessa cosa??

l adaptive vsync è appunto implementato nel driver e si attiva dal pannello di controllo nvidia.
qui si parla di un modulo hardware aggiuntivo che via hardware sincronizza il refresh del monitor alla vga.
mi sembra che si tratti di due cose decisamente diverse, cambia proprio l approccio.

aspettiamo prima di sparare sentenze. come fai a dire "è la stessa cosa"? vuoi dire che il modulo che ci mettono è in realtà "finto"? :D


Sbaglio o questo è un thread amd?

francisco9751
19-10-2013, 12:41
Lo trovo poco pratico...proprio perche è qualcosa di hardware e bisogna moddare il monitor

Tapatalked from Nexus 4

liberato87
19-10-2013, 12:46
Raptor;40137925']Sbaglio o questo è un thread amd?

http://media.tumblr.com/tumblr_lxg9k1aMIe1r1ixtf.jpg

ho replicato a un post che ne parlava..
poi per precisione non è neanche un thread "amd" è il thread delle nuove radeon quindi trovo più in topic parlare "per dovere di cronaca" di eventuali contromosse che di 280x già uscite :D

[Luce Nera] Raptor
19-10-2013, 13:04
http://media.tumblr.com/tumblr_lxg9k1aMIe1r1ixtf.jpg

ho replicato a un post che ne parlava..
poi per precisione non è neanche un thread "amd" è il thread delle nuove radeon quindi trovo più in topic parlare "per dovere di cronaca" di eventuali contromosse che di 280x già uscite :D

nn mi ha preso il multiquote, so benissimo che rispondevi ad un post, ma sinceramente delle contromosse che fa o farà nvidia proprio non mi interessa, sono più curioso di sapere su quello che non è ancora uscito, come questo xt2 che è trapelato (dalla fonte incerta) da una tabella
e visti i margini probabili quanto ipotetici della r9 290x xt sarei curioso di avere notizie a riguardo.

Vul
19-10-2013, 13:06
proprio perchè ancora se ne sa poco, come fai a dire che sia la stessa cosa??

l adaptive vsync è appunto implementato nel driver e si attiva dal pannello di controllo nvidia.
qui si parla di un modulo hardware aggiuntivo che via hardware sincronizza il refresh del monitor alla vga.
mi sembra che si tratti di due cose decisamente diverse, cambia proprio l approccio.

aspettiamo prima di sparare sentenze. come fai a dire "è la stessa cosa"? vuoi dire che il modulo che ci mettono è in realtà "finto"? :D

Mi spiego meglio. Vsync e TB (in coppia) servono ad evitare il tearing, il fenomeno per cui in un interfallo di refresh del monitor arriva il segnale corrispondente da più di un immagine dalla scheda video. Per cui quando la scheda video manda più frame di quelli che il monitor è in grado di visualizzare si può assistere a casuali immagini date dalla sovrapposizione di due immagini diverse.

esempio:

http://extreme.pcgameshardware.de/attachments/238181d1276487449-ist-tearing-und-hat-es-mit-v-sync-zutun-screen-tearing-001.jpg

Il numero di tear (sovrapposizioni) che possono essere presenti è dato dal numero di frame generati + 1/frequenza di refresh del monitor, e ad esempio l'immagine precedente su un monitor da 60 hz è causata da un flusso ad almeno 120.1 fps.

Ma il tearing non è un fenomeno presente e apprezzabile se gli fps generati sono inferiori alla frequenza di refresh del monitor, in quanto la scheda video impiega più tempo a generare un immagine di quanto il monitor ci metta a refresharle.

Quello che succede quando si ha vsync attivo però e gli fps scendono sotto i 60 è lo stuttering. Poichè la scheda video è impostata per mandare al monitor un numero di frame pari a 60 (no matter what) ogni secondo, ma non è in grado di generarli quello che fa è andare a 30 fps e mandare coppie dello stesso screen. Per cui avviene quell'effetto che avrete notate in bf3 in movimenti bruschi/esplosioni con vsync attivo per cui anche se siete scesi a solo a 50 fps l'esperienza vi sembra scattosa è perchè anche se la scheda sta generando facciamo 57 fps, il monitor sta ricevendo copie doppie dello stesso screen con il risultato di avere quei scattini.

Quindi fino ad ora vsync off/on è stata l'eterna lotta fra tearing e stuttering.

Tuttavia la tecnologia vsync adattivo cosa fa? Disattiva semplicemente il vsync quando i frame generati sono meno di quelli della frequenza del monitor con il risultato che il vsync adattivo è in grado di portare benefici sia derivanti del vsync quando si va a più di 60 fps (se il monitor è da 60hz) sia quelli derivanti dal vsync off quando si va a meno di 60 fps.

Ora, se mi hai seguito fino ad ora hai già capito come si risolve questo discorso: il gsync non adatta semplicemente la frequenza del monitor in maniera dinamica agli fps generati dalla gpu o meglio lo fa ma questo cosa significa in pratica: che il tuo monitor se stai facendo meno fps di quanti ne supporta il monitor non sta refreshando al massimo della velocità l'immagine ma lo sta facendo insieme alla gpu, ma come è ovvio concludere a livello visivo non cambia assolutamente niente.

Facciamo il caso in cui un monitor da 10 hertz sta ricevendo un segnale inferiore ai 10 fps (facciamo 3,3 fps) per praticità di esempioe facciamo l'esempio del vsync adattivo (quindi no vsync visto che si disattiva) e del gsync.

Monitor senza gsync: *********X

Monitor con gsync:
*********X

Quello che si vede all'atto pratico nel ridurre la frequenza del monitor non è nulla. La differenza dov'è? Nella teoria, poichè di fatto gli screen sono identici ma il monitor non lo sa e li riproduce ugualemente.

Nel prossimo esempio quindi vediamo la differenza fra gsync e non gsync a livello pratico/teorico, il numero indica screen 1, screen 2, screen 3. L'esempio è sempre a 3,3 fps.

Monitor senza gsync:
12345678910

Monitor con gsync:
11144477710

Quello che cambia fra gsync e no gsync quando si fanno pochi fps è fondamentamentalmente che nel primo caso la scheda video dice al monitor: disegna frame 1, disegna frame 2 uguale all'1, disegna frame 3 uguale all'1, disegna frame 4, disegna frame 4 uguale al 5, disegna frame 6 uguale al 4, disegna frame 7, disegna frame 8 uguale al 7, disegna frame 9 uguale al 7, disegna frame 10

Nel secondo caso (con gsync), ciò che avviene è che la gpu dice al monitor:
disegna frame 1 e fallo durare il triplo, disegna frame 4 e fallo durare il triplo, disegna frame 7 e fermati per un tempo triplo, disegna frame 10

Ma quello che si vede all'atto pratico è sempre questo:
*********X

Perchè visivamente non cambia nulla fra 3 identici frame da 100 ms (sto facendo l'esempio a 10 hz/10 fps) e 1 frame singolo da 300 ms.

Ora la parte divertente: su un monitor da 144 hz per avere tearing bisogna fare più di 144 fps e difficilmente verrebbe notato a meno di movimenti ultra bruschi (perchè anche se due frame si sovrappongono in 6 ms circa sullo schermo non è cambiato praticamente nulla a meno di un giro di 360 gradi ultra veloce) quindi il vsync non si mette a 144 hz poichè il tearing è impossibile da vedere e le scie sono molto poco presenti (anche se queste sono legate alla reattività del monitor) ma lo stuttering non è presente, perchè non c'è vsync! Ed è per questo che i gamer di giochi veloci online puntano monitor con frequenze elevate perchè risolvono i problemi di tearing e stuttering alzando la frequenza del monitor, abbassando i dettagli e facendo semplicemente il doppio di fps con un monitor che ne rappresenta il doppio.

Spero che ora sia chiaro perchè la frequenza il gsync de facto, visivamente non comporti alcuna differenza dal vsync adattivo e come il gsync sia l'ennesima trovata pubblicitaria per vendere schede video spacciando per necessità esigenze limitate alle quali si era già risposto con il vsync adattivo.

Detto questo, AMD dovrebbe introdurre un vsync adattivo, che lo stuttering di AMD è palese anche fuori benchmark.

liberato87
19-10-2013, 13:10
Raptor;40138099']nn mi ha preso il multiquote, so benissimo che rispondevi ad un post, ma sinceramente delle contromosse che fa o farà nvidia proprio non mi interessa, sono più curioso di sapere su quello che non è ancora uscito, come questo xt2 che è trapelato (dalla fonte incerta) da una tabella
e visti i margini probabili quanto ipotetici della r9 290x xt sarei curioso di avere notizie a riguardo.

hai ragione, sorry :)

LurenZ87
19-10-2013, 13:12
Un altro paio di giorni e finisce tutto questo macello...

Inviato dal mio Nexus 4

Ale55andr0
19-10-2013, 13:20
Raptor;40138099']sono più curioso di sapere su quello che non è ancora uscito, come questo xt2 che è trapelato (dalla fonte incerta) da una tabella
.

farà la fine della presunta 7980 2304sp sul documento sapphire :asd:

appleroof
19-10-2013, 13:28
cut

io mi chiedo solo perchè delle vere e proprie leggende della storia dei videogames si siano dichiarate entusiaste del g-sync, così come praticamente tutti i giornalisti presenti in sala abbiano commentato positivamente la feature ( a caso: The remarkable reality is that Nvidia has finally consigned screen-tear and judder to the past - we approached the technology with all the scepticism in the world, but having seen it in action, it genuinely works. There are compromises, but the fact is that the choice presented to the gamer here is a no-brainer: while noticeable, the ghosting didn't unduly impact the experience and side-by-side with the juddering/tearing traditional set-up, the improvement was revelatory. http://www.eurogamer.net/articles/digitalfoundry-nvidia-g-sync-the-end-of-screen-tear-in-pc-gaming )

se fosse una immensa bugia, gente di questo calibro o è in malafede o ne capisce meno di vul.

scusate l'ot, chiudo qui.

qboy
19-10-2013, 13:32
io mi chiedo solo perchè delle vere e proprie leggende della storia dei videogames si siano dichiarate entusiaste del g-sync, così come praticamente tutti i giornalisti presenti in sala abbiano commentato positivamente la feature ( a caso: The remarkable reality is that Nvidia has finally consigned screen-tear and judder to the past - we approached the technology with all the scepticism in the world, but having seen it in action, it genuinely works. There are compromises, but the fact is that the choice presented to the gamer here is a no-brainer: while noticeable, the ghosting didn't unduly impact the experience and side-by-side with the juddering/tearing traditional set-up, the improvement was revelatory. http://www.eurogamer.net/articles/digitalfoundry-nvidia-g-sync-the-end-of-screen-tear-in-pc-gaming )

se fosse una immensa bugia, gente di questo calibro o è in malafede o ne capisce meno di vul.

scusate l'ot, chiudo qui.
se mi danno 5k € dichiaro anche io che sono gay alla stampa o che il papa è un trans :rolleyes:

Ale55andr0
19-10-2013, 13:32
ok, abbiamo capito, d'ora in poi dormiremo sogni tranquilli visto che eravo tutti afflitti dal tearing nei nostri incubi e che non sappiamo come siamo potuti sopravvivere sino ad ora, nvidia fuck yeah!!! bene, ok, possiamo tornare in topic? :stordita:

Vul
19-10-2013, 13:37
se fosse una immensa bugia, gente di questo calibro o è in malafede o ne capisce meno di vul. oppure sono dipendenti di nvidia come john carmack.

scusate l'ot, chiudo qui.

fixed.

Per lo steso motivo per cui leggende del calcio cercano di convincerti sul perchè le nike con il gel nel plantare siano la soluzione rivoluzionaria per fare joggin.

Fine ot, anche da parte mia.

appleroof
19-10-2013, 13:40
fixed.

Per lo steso motivo per cui leggende del calcio cercano di convincerti sul perchè le nike con il gel nel plantare siano la soluzione rivoluzionaria per fare joggin.

Fine ot, anche da parte mia.

:rotfl: anche Andersson (quello che è pagato da Amd per mantle) è dipendente nvidia? :ahahah:


toh, torniamo in topic prima che gli animi diventino rossi di rabbia:

http://www.spaziogames.it/notizie_videogiochi/console_pc/185425/carmack-sweeney-e-andersson-si-esprimono-su-mantle-le-nuove-api-di-amd.aspx

muppo
19-10-2013, 13:41
fixed.

Per lo steso motivo per cui leggende del calcio cercano di convincerti sul perchè le nike con il gel nel plantare siano la soluzione rivoluzionaria per fare joggin.

Fine ot, anche da parte mia.

beh a dire il vero, sono molto morbide e leggere e farci jogging è un piacere :D

Vul
19-10-2013, 13:43
Scusa nel link che hai postato ne Sweeney ne Anderson hanno fatto alcuna dichiarazione sul gsync.

Ale55andr0
19-10-2013, 13:45
cioè dovremmo dar retta a carmack aka motori verdi e al fondatore di epic games idem con patate? :asd:

appleroof
19-10-2013, 13:46
Scusa nel link che hai postato ne Sweeney ne Anderson hanno fatto alcuna dichiarazione sul gsync.

erano le altre leggende (Andersson un pò meno ok) cui mi riferivo che erano presenti ieri oltre al dipendente nvidia ( :asd: ), a dichiararsi entusiasti del gsync

ora chiudiamola davvero qui, casomai leggi bene i link che ti postano...;)


cioè dovremmo dar retta a carmack aka motori verdi e al fondatore di epic games idem con patate? :asd:

colui che ha anche apprezzato mantle, o cmq non è stato critico verso esso? :doh:

....Andersson come lo giudichi (ti ricordo solo che è della DICE, quella di bf4 e mantle)?

francisco9751
19-10-2013, 13:48
Ma chissene frega delle leggende??? Per me è una cagata pazzesca.. Già che è un pezzo hardware e da moddare il monitor per me resterà sullo scaffale per sempre.

Tapatalked from Nexus 4

Ale55andr0
19-10-2013, 13:54
erano le altre leggende (Andersson un pò meno ok) cui mi riferivo che erano presenti ieri oltre al dipendente nvidia ( :asd: ), a dichiararsi entusiasti del gsync

ora chiudiamola davvero qui, casomai leggi bene i link che ti postano...;)




colui che ha anche apprezzato mantle, o cmq non è stato critico verso esso? :doh:

....Andersson come lo giudichi (ti ricordo solo che è della DICE, quella di bf4 e mantle)?

carmack ha detto che non lo userebbe, dai non farmi il furbacchione :D

Piccola parantesi personale: per me carmack ha smesso di essere leggenda da quando ci ha propinato quella caccola fumate di rage e si è dato ai cellulari, chiusa parentesi.

Andersson non fa testo proprio perchè è coinvolto ma nel suo caso è OVVIO, ma gli altri li ho tirati fuori perchè volevi porli come esempio per nulla di parte e imparziale ed entusiasti di g-sync :asd:
se vuoi un parere agnostico devi vedere cosa ne pensano gli sviluppatori che non hanno nulla a che spartire con nessuna delle due case ;) questa risposta purtroppo per noi potrà darcela solo il tempo, sotto forma di fatti, siano essi quindi un buon supporto a mantle o viceversa

appleroof
19-10-2013, 14:03
carmack ha detto che non lo userebbe, dai non farmi il furbacchione :D

Piccola parantesi personale: per me carmack ha smesso di essere leggenda da quando ci ha propinato quella caccola fumate di rage e si è dato ai cellulari, chiusa parentesi.

Andersson non fa testo proprio perchè è coinvolto ma nel suo caso è OVVIO, ma gli altri li ho tirati fuori perchè volevi porli come esempio per nulla di parte e imparziale ed entusiasti di g-sync :asd:
se vuoi un parere agnostico devi vedere cosa ne pensano gli sviluppatori che non hanno nulla a che spartire con nessuna delle due case ;) questa risposta purtroppo per noi potrà darcela solo il tempo, sotto forma di fatti, siano essi quindi un buon supporto a mantle o viceversa

faccio ordine: il link l'ho riportato solo perchè d'interesse per il topic perchè riportava l'opinione di 3 grandi protagonisti del mercato su mantle

la mia risposta su Andersson era su un altro piano, ossia per confutare la tua tesi sul fatto che Carmack e Sweeney fossero a libro paga nvidia (qui si potrebbe aprire un altro thread), allora ti ribattevo "come mi spieghi allora la presenza di Andersson a supportare il g-sync e definirlo come una grande svolta, visto che a differenza dei due è senz'altro legato a doppie mani in questo periodo ad Amd, per lo sviluppo di bf4, in generale frostbite3, e mantle?".

Cmq in effetti arrivati a questo livello la discussione è solo flame e non interessante, con questo post che chiarisce cosa intendevo chiudo davvero qui sull'argomento.

LurenZ87
19-10-2013, 14:04
Notizie relative allo scaling delle R9 290X in Crossfire :)

http://videocardz.com/46990/amd-radeon-r9-290x-crossfire-performance-leaks

:)

PS: finitela con gli OT, grazie.

Inviato dal mio Nexus 4

okorop
19-10-2013, 14:07
Notizie relative allo scaling delle R9 290X in Crossfire :)

http://videocardz.com/46990/amd-radeon-r9-290x-crossfire-performance-leaks


Interessanti come performance l'80% sulla maggior parte e in alcuni casi il 90-95%, sarebbe pero' meglio vedere anche bench a 1440p visto che monitor da 3840×2160 non li hanno proprio tutti....

Ale55andr0
19-10-2013, 14:08
Notizie relative allo scaling delle R9 290X in Crossfire :)

http://videocardz.com/46990/amd-radeon-r9-290x-crossfire-performance-leaks

:)

PS: finitela con gli OT, grazie.

Inviato dal mio Nexus 4

Interessante, sempre sopra un + 80% (nei titoli testati...)
io comunque resto del'idea che con le configurazioni multi gpu si è troppo dipendenti dai capricci del software e che non garantiscono i risultati sperati sempre e comunque. Preferisco sempre la single "uberpowa"

FroZen
19-10-2013, 14:43
Interessante, sempre sopra un + 80% (nei titoli testati...)
io comunque resto del'idea che con le configurazioni multi gpu si è troppo dipendenti dai capricci del software e che non garantiscono i risultati sperati sempre e comunque. Preferisco sempre la single "uberpowa"

Latenze?!?!

FroZen
19-10-2013, 14:44
"Battlefield 4 3840×2160 4xMSAA 36,8"

:eek: :eek:

quasi 6 fps alla 780...

ps: notare che la uber mode non fa guadagnare una pippa anzi in certi tioli si perde infinitesiamalmente :asd: mah!

Vul
19-10-2013, 15:05
interessante è leggere che mantle venga definito una iattura perchè proprietario (e non lo è) e gsync la manna dal cielo (fermo restando che personalmente la definisco un'ottima soluzione)...

L'eterna lotta fra apple e samsung riproposta in salsa schede video.

Vul
19-10-2013, 15:07
Latenze?!?!

E' un problema che dovrebbe sparire con questa generazione di crossfire che non faranno più utilizzo del bridge.

Ale55andr0
19-10-2013, 15:13
"Battlefield 4 3840×2160 4xMSAA 36,8"

:eek: :eek:

quasi 6 fps alla 780...

ps: notare che la uber mode non fa guadagnare una pippa anzi in certi tioli si perde infinitesiamalmente :asd: mah!

Delfino curioso... ma BF4 in quel test si giovava già di mantle, magari in verisone non definitiva, o c'è ancora da aspettarsi miglioramenti con la patch a dicembre?

Free Gordon
19-10-2013, 15:50
Un altro paio di giorni e finisce tutto questo macello...

Inviato dal mio Nexus 4


perchè? :D

Free Gordon
19-10-2013, 16:00
Sweeney è verde da sempre (quì si cade proprio nella faziosità estrema :D ), Carmack è più agnostico rispetto alla piattaforma....almeno a livello etico; anche se in passato ha avuto $ da Nvidia e ha fatto motori che espressamente si appoggiavano a features proprietarie nvidia :p e Andersson oggi è pagato da Mantle/AMD di sicuro.

La sostanza è pressappoco questa quì...

The_SaN
19-10-2013, 16:33
Delfino curioso... ma BF4 in quel test si giovava già di mantle, magari in verisone non definitiva, o c'è ancora da aspettarsi miglioramenti con la patch a dicembre?Di Mantle su BF4 si dovrebbe parlare solo a Dicembre, quindi presumo sia su DX.

Vul
19-10-2013, 16:59
Comunque avete sorpassato il mio commento precedente.

Avete notato senza utilizzare bridge che improvement il crossfire?

Felle
19-10-2013, 17:36
Prezzo R9 290x http://www.nvidiazone.it/news/reader.php?objid=20235 :mbe: €1138

LurenZ87
19-10-2013, 17:45
spagina un pò, ma è uno spasso :asd:

http://videocardz.com/images/2013/10/AMD-Radeon-R9-290X-vs-GeForce-GTX-780-TI.jpg

:D

FroZen
19-10-2013, 18:05
Delfino curioso... ma BF4 in quel test si giovava già di mantle, magari in verisone non definitiva, o c'è ancora da aspettarsi miglioramenti con la patch a dicembre?

Ehm è già bello se hanno usato la versione definitiva al lancio.....:D

FroZen
19-10-2013, 18:07
spagina un pò, ma è uno spasso :asd:

:D

Lol mi aspetto la versione mantellizzata di battlefieldfriends :asd:

bilbobaghins
19-10-2013, 19:12
interessanti


http://pc-gaming.it/nvidia-montreal-2013-fan-chiede-opinioni-mantle/
http://pc-gaming.it/john-carmack-le-estensioni-opengl-nvidia-mantle-8gbs-console-saranno-cambiamento-significativo/

Free Gordon
19-10-2013, 19:29
Detto questo, AMD dovrebbe introdurre un vsync adattivo, che lo stuttering di AMD è palese anche fuori benchmark.

eh, speriamo che sveglino... ;) magari con la serie R9...

Io non uso vsync e gioco su un TV al plasma ma difficilmente settando i giochi con imp. medio/alte @1080p, faccio più di 60fps...

Vul
19-10-2013, 19:51
eh, speriamo che sveglino... ;) magari con la serie R9...

Io non uso vsync e gioco su un TV al plasma ma difficilmente settando i giochi con imp. medio/alte @1080p, faccio più di 60fps...

Senza vsync non dovresti avere stuttering...

The_SaN
19-10-2013, 20:07
Comunque avete sorpassato il mio commento precedente.

Avete notato senza utilizzare bridge che improvement il crossfire?Bisogna anche dire che 2160p è il caso più favorevole ad un crossfire, perchè non hai la limitazione del processore.
Sarebbe interessante vedere CF 7970 vs CF 290x alla stessa risoluzione per vedere se davvero c'è l'incremento.

The_SaN
19-10-2013, 20:11
Senza vsync non dovresti avere stuttering...Lo stuttering non è prerogativa del v-sync, può anche essere causato dal driver, che per qualche motivo fa variare istantaneamente la quantità di frames renderizzati.

Vul
19-10-2013, 21:26
Lo stuttering non è prerogativa del v-sync, può anche essere causato dal driver, che per qualche motivo fa variare istantaneamente la quantità di frames renderizzati.

E allora è semplicemente un problema di frame time no?

The_SaN
19-10-2013, 21:31
E allora è semplicemente un problema di frame time no?Anche. Un'altro problema che avevo visto è "l'intrusione" di alcuni programmi real-time che salivano troppo di priorità facendo variare istantaneamente i frames.

Vul
19-10-2013, 21:40
Anche. Un'altro problema che avevo visto è "l'intrusione" di alcuni programmi real-time che salivano troppo di priorità facendo variare istantaneamente i frames.

Mi hai ricordato giusto giusto di cosa si parlava ieri/l'altro ieri a proposito dello stutter su BF3 sulla discussione delle 560 ti:

http://www.hwupgrade.it/forum/showpost.php?p=40130752&postcount=10553

IOWA
20-10-2013, 09:56
crossfire a 4k, molti bench e scheda singola vs gtx780:

http://www.hardware-360.com/amd-r9-290x-crossfire-performance-leaked/

Ale55andr0
20-10-2013, 10:20
:old:

kurtangle78
20-10-2013, 11:07
crossfire a 4k, molti bench e scheda singola vs gtx780:

http://www.hardware-360.com/amd-r9-290x-crossfire-performance-leaked/

Li abbiamo già visti giorni fa, a me interessano i test a 1080.

appleroof
20-10-2013, 12:03
oltre Hawaii: http://www.xbitlabs.com/news/other/display/20131017231002_AMD_to_Tape_Out_First_20nm_14nm_FinFET_Chips_Within_Next_Two_Quarters.html

LurenZ87
20-10-2013, 12:05
oltre Hawaii: http://www.xbitlabs.com/news/other/display/20131017231002_AMD_to_Tape_Out_First_20nm_14nm_FinFET_Chips_Within_Next_Two_Quarters.html

:mano:

MuadDibb
20-10-2013, 15:27
Link... (http://hdtechnology.net/hardware/schede-video/radeon-r9-290x-vs-geforce-gtx-titan-ecco-i-primi-benchmark.html)

http://hdtechnology.net/wp-content/uploads/2013/10/AMD-R9-290X-Overclocking.jpg

Ale55andr0
20-10-2013, 15:34
edit doppio