PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove VGA AMD Radeon™


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 [49] 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346

magnusll
17-05-2015, 10:15
Per quanto riguarda la longevita' o "le schede che migliorano nel tempo" vorrei far notare che il problema non e' l' hardware (che ovviamente su una certa scheda rimane sempre lo stesso) bensi' l' ottimizzazione dei driver per i nuovi giochi.

Siccome la maggior parte dei giochi e' scritta abbastanza a cazzo per tutto quel che riguarda il motore di rendering, sia Nvidia che AMD sono costrette a rilasciare nuovi driver con casi speciali ed eccezioni specifiche praticamente per ogni nuovo gioco tripla A che esce sul mercato.

Ecco li' quindi che se una delle due (o entrambe) non si sforzano ad aggiungere il supporto specifico per un certo gioco su un modello di scheda vecchio, quella scheda "improvvisamente" avra' un comportamento nettamente peggiore di un' altra scheda magari molto meno potente a livello hardware ma che ha avuto tutte le sue belle eccezioni e casi speciali inclusi nel nuovo driver.

Il nabbo di turno
17-05-2015, 10:39
Ma scusate eh, kepler sempre indietro dove? La 290 e 290x sono uscite dopo titan e 780 e sono sempre andate di più , dai grafici linkati io vedo comunque davanti la 780ti...e non vedo dove sta il problema.
Mentre Maxwell continua ad andare meglio....piuttosto fa pensare la 7970 li in mezzo...qui non avete capito che a furia di rebrand vendono le stesse schede a prezzi sempre uguali prendendo i soldi di chi si fa seghe mentali per 2 centesimi al mese di corrente in più che spende.
Io finché vedo le nuove tecnologie andare di più rispetto a quelle precedenti (la fascia medio bassa non la guardo neanche perché imho sono robe inutili che servono solo a fregare soldi) sono tranquillo.

Sono sempre andate di più?Imho la 290 era tra la 780 e la titan, poi nvidia ha fatto la 780 a 1ghz per pareggiare i conti.
Mentre la 290x era tra il 5% e il 10% più lenta rispetto alla 780 ti, ora invece gli è leggermente davanti.
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_780_Ti/images/perfrel_2560.gif

http://tpucdn.com/reviews/Gigabyte/GTX_960_OC/images/perfrel_2560.gif

Il nabbo di turno
17-05-2015, 10:57
Senza contare che rispetto a prima, maxwell sta proprio prendendo il largo rispetto a kepler
http://tpucdn.com/reviews/NVIDIA/GeForce_GTX_980/images/perfrel_2560.gif

http://tpucdn.com/reviews/Gigabyte/GTX_960_OC/images/perfrel_2560.gif

Korn
17-05-2015, 11:28
fatemi capire nvidia azzoppa intenzionalmente le schede della generazione precendente per vendere le nuove?

FroZen
17-05-2015, 11:33
Diciamo che non fanno nulla x non far risaltare la serie in corso...

Catan
17-05-2015, 11:56
ed è una tristezza, visto che agli albori nvidia, con i suoi driver unificati, ha sempre cavalcato l'onda che anche le vga vecchie avevano dei benefici con i driver nuovi pensati per generazioni nuove.

Cmq in assoluto, credo che la vita media giusta di una vga sia sui 2 anni...poi dopo un'annetto di lento declino e poi è buona solo per qualche muletto;)

hrossi
17-05-2015, 12:03
fatemi capire nvidia azzoppa intenzionalmente le schede della generazione precendente per vendere le nuove?

Credo che qualsiasi società di profitto smetta intenzionalmente di migliorare il prodotto della precedente generazione, altrimenti come fa a venderti il nuovo, a quel prezzo? :D

Hermes

Korn
17-05-2015, 12:37
forse mi sono espresso male, intendevo se le ultime release di driver facciano andare più lentamente rispetto a prima

appleroof
17-05-2015, 13:51
forse mi sono espresso male, intendevo se le ultime release di driver facciano andare più lentamente rispetto a prima

No, Maxwell è più recente e ha più margini di miglioramento, solo che invece di tre anni li raggiunge in pochi mesi :eek: :D

enricoa
17-05-2015, 15:29
forse mi sono espresso male, intendevo se le ultime release di driver facciano andare più lentamente rispetto a prima

non credo
semmai avendo 2 generazioni diverse
la serie 700 è un attimino messa da parte mentre incrementano prestazionalmente la serie 900
sicuramente usciranno, anche se più diradate nel tempo, versioni con ottimizzazioni anche per kepler

e l'anno prossimo si ricomincia con pascal vs maxwell
:D

trovo (opinione personale) l'approccio amd più interessante
per longevità

FroZen
17-05-2015, 15:56
No, Maxwell è più recente e ha più margini di miglioramento, solo che invece di tre anni li raggiunge in pochi mesi :eek: :D

7970 è da fine 2013 che rullano rispetto a 680.... Idem hawaii dopo sei mesi è bello che sfuttato.... Ormai è un po che hawaii con core di 150 200 mhz in meno sono li se nn avanti rispetto a kepler full... Nn a caso hai una 980...

Il nabbo di turno
17-05-2015, 16:20
No, Maxwell è più recente e ha più margini di miglioramento, solo che invece di tre anni li raggiunge in pochi mesi :eek: :D

Pochi mesi?Alla faccia del durello mattutino, maxwell c'è da più di un anno...

appleroof
17-05-2015, 16:26
7970 è da fine 2013 che rullano rispetto a 680.... Idem hawaii dopo sei mesi è bello che sfuttato.... Ormai è un po che hawaii con core di 150 200 mhz in meno sono li se nn avanti rispetto a kepler full... Nn a caso hai una 980...

Un vero concentrato... Rispondo solo sull'ultima parte, la 980 c'è l'ho perché cambio scheda spesso, sennò avrei ancora la 7950 che oggi rullerebbe di almeno un 50% in più grazie alla maturazione in botti di rovere


Pochi mesi?Alla faccia del durello mattutino, maxwell c'è da più di un anno...

Il durello pomeridiano deve essere ancora più forte...

In that respect Maxwell 2 is almost a half-generational update on its own, as it implements a number of new features that were not present in Maxwell 1. This means Maxwell 2 is bringing some new features that we need to cover, but it also means that the GM204 based GTX 900 series is feature differentiated from the GTX 600/700 series in a way that the earlier GTX 750 series was not.

www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/4

A questi aspetti tecnici aggiungo che non credo che l'impegno a scrivere driver per una scheda di fascia bassa sia uguale a quello che scriverli per le flagship, nelle barrette dei bench sono queste che fanno la figura, infine tu stesso postavi bench di Maxwell dicendo che rispetto agli inizi ha preso il volo su Kepler (cosa della quale tra l'altro sono ovviamente strasoddisfatto :D)

Cmq il Nabbo di turno, amd rulez e bona qui, non c'è problema :mano:

Il nabbo di turno
17-05-2015, 16:57
http://www.reddit.com/r/pcgaming/comments/366iqs/nvidia_gameworks_project_cars_and_why_we_should/

Ci aggiungerei un bitch please!

Il nabbo di turno
17-05-2015, 17:00
Un vero concentrato... Rispondo solo sull'ultima parte, la 980 c'è l'ho perché cambio scheda spesso, sennò avrei ancora la 7950 che oggi rullerebbe di almeno un 50% in più grazie alla maturazione in botti di rovere




Il durello pomeridiano deve essere ancora più forte...

In that respect Maxwell 2 is almost a half-generational update on its own, as it implements a number of new features that were not present in Maxwell 1. This means Maxwell 2 is bringing some new features that we need to cover, but it also means that the GM204 based GTX 900 series is feature differentiated from the GTX 600/700 series in a way that the earlier GTX 750 series was not.

www.anandtech.com/show/8526/nvidia-geforce-gtx-980-review/4

A questi aspetti tecnici aggiungo che non credo che l'impegno a scrivere driver per una scheda di fascia bassa sia uguale a quello che scriverli per le flagship, nelle barrette dei bench sono queste che fanno la figura, infine tu stesso postavi bench di Maxwell dicendo che rispetto agli inizi ha preso il volo su Kepler (cosa della quale tra l'altro sono ovviamente strasoddisfatto :D)

Cmq il Nabbo di turno, amd rulez e bona qui, non c'è problema :mano:
Si dai, è un update in stile gcn 1->gcn 1.1, nulla di rivoluzionario, imho avranno fatto qualche aggiustatina per le dx 12, ma il risultato era quello fin dall'inizio, il grosso dell'architettura c'era già con la 750 di febbraio 2014.
Quella review è di maggio 2015, ben un anno e tre mesi, alla faccia dei pochi mesi.
Imho la 750 è servita ad nvidia per spianare il terreno e per testare sul campo l'architettura, nulla di più.
Non è che sia tutta un'altra architettura come da kepler a maxwell.

Comunque anche te con nvidia non scherzi eh, ci dai giù forte a dargli i soldini, mentre io scelgo ciò che è REALMENTE vale i suoi soldi.

jumpboy8
17-05-2015, 18:18
http://www.reddit.com/r/pcgaming/comments/366iqs/nvidia_gameworks_project_cars_and_why_we_should/

Ci aggiungerei un bitch please!
Questo post contiene una marea di stronzate, in particolare questa:

"To be exact under DX12, Project Cars AMD performance increases by a minimum of 20% and peaks at +50% performance. The game is a true DX11 title. But just running under DX12 with it's less reliance on the CPU allows for massive performance gains."

Project CARS non ha alcun renderer DX12, anche su Windows 10 il renderer utilizzato è quello DirectX 11, pertanto tutto quel post non ha senso.

Il nabbo di turno
17-05-2015, 18:29
Questo post contiene una marea di stronzate, in particolare questa:

"To be exact under DX12, Project Cars AMD performance increases by a minimum of 20% and peaks at +50% performance. The game is a true DX11 title. But just running under DX12 with it's less reliance on the CPU allows for massive performance gains."

Project CARS non ha alcun renderer DX12, anche su Windows 10 il renderer utilizzato è quello DirectX 11, pertanto tutto quel post non ha senso.

Mi sembra che abbia detto che è un dx 12 mascherato da dx 11, anche se non si spiega come possa essere.

Raven
17-05-2015, 18:40
almeno un 50% in più grazie alla maturazione in botti di rovere

... ho lollato! :O


:sofico:

devil_mcry
17-05-2015, 18:49
7970 è da fine 2013 che rullano rispetto a 680.... Idem hawaii dopo sei mesi è bello che sfuttato.... Ormai è un po che hawaii con core di 150 200 mhz in meno sono li se nn avanti rispetto a kepler full... Nn a caso hai una 980...

In realtà sono i modelli da 3GB che hanno preso terreno rispetto alle 680, infatti anche dai grafici le 280x 2GB sono rimaste più o meno sempre li.

Non solo, già all'epoca (680vs7970) nVidia averva un rapporto prestazionale a favore delle risoluzioni più basse, AMD recuperava un po' sul 1440p, oggi la cosa è inevitabilmente aumentata.

Come la 290x, se guardate tutti i bench in giro per la rete, o la review di Anandtech, o i bench di confronto sul tubo, in FHD è più lenta della 970, è uguale a 1440p ed è più veloce in 4k (credo qui sopratutto per le RAM), anche se nessuna delle due è ovviamente sufficiente per giocare bene.

Io questo andamento lo ricordo da sempre su nVidia, mi sa che anche a suo tempo con le Fermi la storia era uguale.

Oggi comunque 2GB di RAM sono troppi pochi anche in FHD, le schede con 2GB soffrono tutte...

Vul
17-05-2015, 21:37
Mi sembra che abbia detto che è un dx 12 mascherato da dx 11, anche se non si spiega come possa essere.

E' abbastanza chiaro invece il post.

Il gioco è stato sviluppato per utilizzare una marea la fisica, in particolare physx.

AMD, teoricamente, se avesse accesso al codice del gioco, potrebbe scaricare parte dei calcoli della fisica sulla gpu (notoriamente molto più veloci delle cpu) invece così viene scaricato tutto sulla cpu in caso di amd.

Poichè DX 12, come mantle, diminuiscono di gran lunga il numero delle draw call fra cpu e gpu, la cpu risulterebbe molto più libera in DX 12 per fare i calcoli relativi alla fisica di project cars e dovrebbe dialogare molto meno con la gpu.

DX 12 è la patch Mantle per scaricare la cpu di migliaia di processi inutili che fa dialogando con la cpu.

Non introduce chissà che novità, shader, ssao, ecc.

Ciò che Nvidia ha fatto con Project Cars non è ottimizzare il gioco per le proprie schede video ma fare in modo, a tutti i costi, che la concorrenza andasse infinitamente più lenta.

Oirasor_84
17-05-2015, 22:36
E' abbastanza chiaro invece il post.

Il gioco è stato sviluppato per utilizzare una marea la fisica, in particolare physx.

AMD, teoricamente, se avesse accesso al codice del gioco, potrebbe scaricare parte dei calcoli della fisica sulla gpu (notoriamente molto più veloci delle cpu) invece così viene scaricato tutto sulla cpu in caso di amd.

Poichè DX 12, come mantle, diminuiscono di gran lunga il numero delle draw call fra cpu e gpu, la cpu risulterebbe molto più libera in DX 12 per fare i calcoli relativi alla fisica di project cars e dovrebbe dialogare molto meno con la gpu.

DX 12 è la patch Mantle per scaricare la cpu di migliaia di processi inutili che fa dialogando con la cpu.

Non introduce chissà che novità, shader, ssao, ecc.

Ciò che Nvidia ha fatto con Project Cars non è ottimizzare il gioco per le proprie schede video ma fare in modo, a tutti i costi, che la concorrenza andasse infinitamente più lenta.
Ma sei pazzo se lo scrivi nel thread di project cars ti danno del complottista

Albi80
17-05-2015, 22:41
Se penso che ho gettato via 50 euro per sto project cars .... e non certo per le performance sul mio sistema. Adesso si aggiunge pure sto fatto.

Inviato dal mio SM-N910F

The_SaN
17-05-2015, 22:44
Ma sei pazzo se lo scrivi nel thread di project cars ti danno del complottistaImpossibile. Gli sviluppatori hanno detto di non aver ricevuto un centesimo da nVidia. Quindi sì, siete complottisti.





:asd:

Radeon80
17-05-2015, 23:00
Avevo intenzione di prendere Project Cars dopo che AMD avesse rilasciato il driver che dovrebbe ottimizzare le prestazione della sue GPU,ma dopo che ho letto tale articolo sull'ennesima porcata di Nvidia ho deciso che lo lascierò sulla scaffale.
Tanto come giochi di guida già posseggo Assetto Corsa e Dirt Rally che almeno girano bene.

Vul
17-05-2015, 23:01
Ma sei pazzo se lo scrivi nel thread di project cars ti danno del complottista

Vabbè ma credo sia lampante che il gioco è fatto apposta per far andare le schede nvidia molto più veloci senza alcun motivo apparente.

E' anche risaputo che tra la beta e la release gli sviluppatori hanno incrementato ulteriormente l'utilizzo di physx.

Per rallentare ulteriormente le vga amd? booh

Free Gordon
17-05-2015, 23:04
Perdonami, ma che senso ha paragonare il prezzo al debutto della 780ti con quello attuale della 290x ... O prendi per entrambe il prezzo attuale o per entrambe il prezzo al debutto ;)

Parlavo di prezzi all'origine infatti, ora le 290x si trovano a meno di 300..

Free Gordon
17-05-2015, 23:08
In realtà sono i modelli da 3GB che hanno preso terreno rispetto alle 680, infatti anche dai grafici le 280x 2GB sono rimaste più o meno sempre li.

Hmmm..la 280x da 2GB? :D

Oirasor_84
17-05-2015, 23:51
Vabbè ma credo sia lampante che il gioco è fatto apposta per far andare le schede nvidia molto più veloci senza alcun motivo apparente.

E' anche risaputo che tra la beta e la release gli sviluppatori hanno incrementato ulteriormente l'utilizzo di physx.

Per rallentare ulteriormente le vga amd? booh
Si la penso anche io così ho cercato infatti di scrivere nel thread di project cars qui sul forum, ma sono stato assalito dai fanboy mi sa che le mazzette a sto punto li prendono gli utenti no le software house :D Ora comunque amd tirerà fuori un driver per sto gioco, a quanto ho capito c'è anche un limite di drawcall impostate via driver o qualcosa del genere che avevo letto su anandtech nei test fatti con le dx12 ,ecco qui http://www.anandtech.com/show/9112/exploring-dx12-3dmark-api-overhead-feature-test/3

ste-87
18-05-2015, 00:56
sarà anche vero, strano che AMD non abbia smentito queste informazioni:

“We’ve provided AMD with 20 keys for game testing as they work on the driver side. But you only have to look at the lesser hardware in the consoles to see how optimised we are on AMD based chips.
We’re reaching out to AMD with all of our efforts. We’ve provided them 20 keys as I say. They were invited to work with us for years, looking through company mails the last I can see they (AMD) talked to us was October of last year.

tradotto:

"ad AMD sono state fornite 20 chiavi per testare il gioco per tempo. [...] Li abbiamo invitati per anni a lavorare con noi, guardando le mail della compagnia, l'ultima volta che vedo che AMD ha parlato con noi è ottobre dello scorso anno."

Se poi adesso AMD risolve con dei driver appositi, confermerebbe a logica che il problema si è generato solo a causa loro per negligenza nel seguire quel titolo mentre nvidia ha partecipato molto durante lo sviluppo, o pensate che magicamente avranno accesso a physx o elimineranno tutta la fisica che che ci gira intorno? :mbe:

Vul
18-05-2015, 01:15
sarà anche vero, strano che AMD non abbia smentito queste informazioni:

“We’ve provided AMD with 20 keys for game testing as they work on the driver side. But you only have to look at the lesser hardware in the consoles to see how optimised we are on AMD based chips.
We’re reaching out to AMD with all of our efforts. We’ve provided them 20 keys as I say. They were invited to work with us for years, looking through company mails the last I can see they (AMD) talked to us was October of last year.

tradotto:

"ad AMD sono state fornite 20 chiavi per testare il gioco per tempo. [...] Li abbiamo invitati per anni a lavorare con noi, guardando le mail della compagnia, l'ultima volta che vedo che AMD ha parlato con noi è ottobre dello scorso anno."

Se poi adesso AMD risolve con dei driver appositi, confermerebbe a logica che il problema si è generato solo a causa loro per negligenza nel seguire quel titolo mentre nvidia ha partecipato molto durante lo sviluppo, o pensate che magicamente avranno accesso a physx o elimineranno tutta la fisica che che ci gira intorno? :mbe:

Con le key del gioco non ci fai nulla se non hai accesso al codice. PhysX è integrato e parte portante del gioco e non si può disattivare.

Catan
18-05-2015, 08:38
se non ci fossero tecnologie proprietarie, non ci dovrebbero essere strette interazioni tra software house e case di hw, visto che le dx sono quelle, sia per hw sia sw.
Se sei onesto, ci può stare che amd non ti risponda, tu fai il gioco scegliendo il motore fisico che più ti piace (physix, havok , te lo scrivi tu), ma dai l'opportunità di attivarlo o disattivarlo in game.
Questi semplicemente se ne sono impippati, si sono risentiti perchè amd non parlava con loro, so corsi da nvidia a piangere, e nvidia ha preso la palla al balzo dicendogli "usa physics non sbloccabile da menu".

Cioè amd può aver anche peccato di supponenza, non parlando con la sw house, ma non puoi aver peccato di negligenza, se no che fai? diventi uno sviluppatore sw ed inizi a seguire passo passo ogni sw house tripla A e gli dici "fai il gioco pensando alla mia archidettura?" e chi sei nvidia?

Quello che trovo osceno è il physics via gpu non disabilitabile per non fare il benchmark a parità di fisica sulla cpu. Poi la gente lo sa, che c'è physics sopra e con le nvidia e physics abilitato via gpu la cosa va meglio e gli acquirenti sceglieranno di conseguenza.

Già il colpaccio nvidia lo ha fatto con la sw house che ha scelto physics come motore, il poter disabilitare l'accelerazione via gpu invece la trovo tanto una ripicchina della sw house perchè "amd è cattiva non mi risponde alle email"...

FroZen
18-05-2015, 08:41
Lol aspettate un mese e ve lo comprate anche a un prezzo migliore.... Oppure mettendo win10 e andra alla grande gia adesso su amd :asd:

FroZen
18-05-2015, 08:43
Physx è il cancro del gaming pc


Raven, segna :O

mircocatta
18-05-2015, 09:02
physx su Pcars c'è ed è abilitato solo su CPU e non su gpu, quindi in teoria non c'è differenza tra amd e nvidia

ma per togliere ogni dubbio se volete stasera disabilito lo sli, dedico la seconda vga al physx (forzandolo su gpu da driver per stare "sicuri") poi vediamo se ingame l'utilizzo della seconda gpu si schioda o meno dallo 0%

Ali3n77
18-05-2015, 09:04
physx su Pcars c'è ed è abilitato solo su CPU e non su gpu, quindi in teoria non c'è differenza tra amd e nvidia

ma per togliere ogni dubbio se volete stasera disabilito lo sli, dedico la seconda vga al physx forzandolo su gpu da driver poi vediamo se ingame l'utilizzo della seconda gpu si schioda o meno dallo 0%

Questa sarebbe una prova davvero interessante ! :)
Fai sapere i risultati plz ! ;)

hrossi
18-05-2015, 09:06
Se sei onesto, ci può stare che amd non ti risponda, tu fai il gioco scegliendo il motore fisico che più ti piace (physix, havok , te lo scrivi tu), ma dai l'opportunità di attivarlo o disattivarlo in game.
Questi semplicemente se ne sono impippati, si sono risentiti perchè amd non parlava con loro, so corsi da nvidia a piangere, e nvidia ha preso la palla al balzo dicendogli "usa physics non sbloccabile da menu".

Ma che sia attivabile o disattivabile, bloccabile o sbloccabile non è che cambi molto. Se hai una scheda che non supporta physx allora frega zero che sia bloccato su ON nel menu, non c'è l'hardware quindi non funzionerà.
Non sto difendendo nVidia o quelli di Pcars, semplicemente se c'è una feature proprietaria in un gioco e tu hai l'altra marca di vga quella feature che sia o meno disattivabile ti cambia nulla. :D
Cos'era un Tomb Raider con il TressFx di Amd? Se avevi una nVidia non funzionava, che fosse o meno opzionabile dal menu.

Che poi ci siano accordi commerciali tra molte software house e uno dei due competitor va accettato, non c'è obbligo di supportare allo stesso modo chi paga e chi no. Non ci fa piacere ma tant'è, nessuno ha vietato ad Amd di stringere accordi a sua volta. :boh:
Certo che se poi ti vien fuori un titolo come The Sabotuer, sviluppato in collaborazione con Ati ma che dava problemi solo su schede Ati. :doh:
O se magari i benchmark vengono alterati da driver specifici per prevalere sulla concorrenza.
http://www.geek.com/games/futuremark-confirms-nvidia-is-cheating-in-benchmark-553361/
http://techreport.com/review/5226/further-nvidia-optimizations-for-3dmark03
:cry:

Hermes

mircocatta
18-05-2015, 09:10
Ma che sia attivabile o disattivabile, bloccabile o sbloccabile non è che cambi molto. Se hai una scheda che non supporta physx allora frega zero che sia bloccato su ON nel menu, non c'è l'hardware quindi non funzionerà.


Hermes

non è così: se hai physx su ON senza vga nvidia questo switcha direttamente sulla cpu

il punto è che da quel che ho letto in giro physx su pcars è ON ma funziona solo sulle cpu anche se si possiede una gpu physx ready

Cos'era un Tomb Raider con il TressFx di Amd? Se avevi una nVidia non funzionava, che fosse o meno opzionabile dal menu.

eh ma allora lo fai apposta, parli senza aver provato con mano

tressfx sia su nvidia che amd ti faceva i bei capelli, su nvidia però ammazzava il framerate mentre su amd no..però a prescindere da ciò, era disattivabile, essendo solo un effetto aggiuntivo

hrossi
18-05-2015, 09:12
Sì e quindi a maggior ragione avere una scheda Amd non è pregiudiziale rispetto ad averne una nVidia in questo caso. :D

Hermes

Vul
18-05-2015, 09:13
non è così: se hai physx su ON senza vga nvidia questo switcha direttamente sulla cpu

il punto è che da quel che ho letto in giro physx su pcars è ON ma funziona solo sulle cpu anche se si possiede una gpu physx ready

Scusa ma logica vuole che se fosse così non ci sarebbe motivo per cui le schede nvidia vadano il doppio di quelle amd.

E' ovvio che physx è attivo, il gioco ci è disegnato intorno, ed è ovvio che scarichi gran parte dei calcoli sulla gpu, motivo per cui su nvidia va gozzilioni di volte più veloce.

maurilio968
18-05-2015, 09:14
http://www.bitsandchips.it/8-gaming/5586-the-witcher-3-impossibile-ottimizzare-gli-effetti-hairworks-per-le-gpu-amd

Cito:

Avendo abbracciato completamente il pacchetto di sviluppo GameWorks di NVIDIA, la casa polacca si trova costretta a sottostare completamente alla volontà della casa del camaleonte (qualcuno potrebbe dire “a prostrarsi”), in quanto molte parti del codice di gioco sono scritte da sviluppatori esterni a CD Project. Sfruttare la tecnologia di NVIDIA, infatti, significa non essere più padroni a casa propria, come si suol dire. Nell'EULA di GameWorks, leggiamo, relativamente al codice del SDK:

In addition, you may not and shall not permit others to:

I. modify, reproduce, de-compile, reverse engineer or translate the NVIDIA GameWorks SDK; or
II. distribute or transfer the NVIDIA GameWorks SDK other than as part of the NVIDIA GameWorks Application.

HairWorks, facente parte del pacchetto GameWorks, rientra nelle limitazioni della EULA, e questo significa che AMD non può consultare il codice di gioco per ottimizzare i driver Catalyst per questa feature. La stessa situazione si può applicare con qualsiasi altro gioco basato su GameWorks, come il recente Project CARS. Una situazione completamente agli antipodi rispetto a quella cui si ritrova NVIDIA nel caso si utilizza la tecnologia TressFX di AMD, la quale invece è a libero accesso. Come è possibile osservare da questa recensione
http://www.pcgameshardware.de/AMD-Radeon-Grafikkarte-255597/Tests/Tomb-Raider-PC-Grafikkarten-Benchmarks-1058878/

di PC Games Hardware, prestigiosa testata tedesca, l'impatto prestazionale su schede AMD e NVIDIA è esattamente identico.

NVIDIA, in questo momento, sta cercando di sfruttare il proprio market share, pari ai ¾ del mercato delle schede video discrete, così da crearsi un ecosistema chiuso con cui ghettizzare AMD (ma non distruggere, per varie motivazioni), sia per mantenere elevati margini sulle schede video sia per spingere le vendite delle schede video più recenti (cosa vista, ad esempio, con Asssassin's Creed: Unity: le GTX680 e GTX690 ridotte a schede di fascia bassa

http://www.bitsandchips.it/gaming/8-gaming/4970-gtx680-buona-solo-per-giocare-a-dettagli-bassissimi-con-ac-unity

).

smoicol
18-05-2015, 09:17
Scusa ma logica vuole che se fosse così non ci sarebbe motivo per cui le schede nvidia vadano il doppio di quelle amd.

E' ovvio che physx è attivo, il gioco ci è disegnato intorno, ed è ovvio che scarichi gran parte dei calcoli sulla gpu, motivo per cui su nvidia va gozzilioni di volte più veloce.

ok, però amd non ha lavorato per niente su pcars, mentre nvidia qualcosa ha fatto, non lo dico io, ma gli stessi programmatori di pcars, che poi fisica o non amd non può andare molto meno di nvidia, non è proprio tecnicamente possibile, si aspettino driver nuovi e poi si valuta.

mircocatta
18-05-2015, 09:18
Scusa ma logica vuole che se fosse così non ci sarebbe motivo per cui le schede nvidia vadano il doppio di quelle amd. si, talmente costruito attorno che il supporto è arrivato a metà 2013 quando il gioco è in beta giocabile dal 2011

E' ovvio che physx è attivo, il gioco ci è disegnato intorno, ed è ovvio che scarichi gran parte dei calcoli sulla gpu, motivo per cui su nvidia va gozzilioni di volte più veloce.

sono tutte tue congetture, stasera se vuoi faccio la prova e ci togliamo il dubbio


per quanto riguarda il divario prestazionale aspetto di vedere i nuovi driver amd per capire meglio la situazione, se davvero fosse a causa del pyshx mi stupire del fatto che amd abbia taciuto fin'ora sul fatto

Ale55andr0
18-05-2015, 09:20
Physx è il cancro del gaming pc


Raven, segna :O

mai quanto le console

Il nabbo di turno
18-05-2015, 09:21
ok, però amd non ha lavorato per niente su pcars, mentre nvidia qualcosa ha fatto, non lo dico io, ma gli stessi programmatori di pcars, che poi fisica o non amd non può andare molto meno di nvidia, non è proprio tecnicamente possibile, si aspettino driver nuovi e poi si valuta.
E' proprio questo il fatto, Nvidia ci ha lavorato, non amd.

hrossi
18-05-2015, 09:21
Cito:

Grazie per le informazioni. :mano:

Avendo abbracciato completamente il pacchetto di sviluppo GameWorks di NVIDIA, la casa polacca si trova costretta a sottostare completamente alla volontà della casa del camaleonte (qualcuno potrebbe dire “a prostrarsi”)...

Ma CDP, come tanti altri hanno fatto una libera scelta dettata da un ritorno economico. La colpa, se vogliamo definirla tale, è delle software house che vanno dove gli conviene o di Amd che non stringe accordi con loro? :cry:
Dai, speriamo davvero che tra un mesetto le 390x siano questo miracolo che ci auguriamo tutti. :D

Hermes

Ale55andr0
18-05-2015, 09:22
tressfx sia su nvidia che amd ti faceva i bei capelli, su nvidia però ammazzava il framerate mentre su amd no..però a prescindere da ciò, era disattivabile, essendo solo un effetto aggiuntivo


tress fx su nvidia NON pesa quanto physx su sistemi AMD, basta vedere i bench su tr2013 eh...a men che parli del gioco APPENA uscito, ma già poche settimane dopo la situazione era migliorata tanot che il tressfx è godibile s qualsivoglia vga in proporzione lineare con la sua potenza

mircocatta
18-05-2015, 09:30
guardate, vi tolgo il dubbio subito, da quel che leggo forzare il physix su gpu o cpu non cambia un caxxo

http://forum.wmdportal.com/showthread.php?22035-NO-PhysX-in-pCARS-can-be-forced-to-run-on-Nvidia-GPU

ci hanno aperto un thread apposito sul loro forum


non so se c'è un modo per forzarlo sulla gpu tramite qualche setting particolare, ma quello che interessa a me è che tutti i test fatti fin'ora siano stati fatti a driver default, con pshyx su CPU, e che quindi non sia quello ad aver influito sulla differenza tra AMD e nvidia

mircocatta
18-05-2015, 09:33
tress fx su nvidia NON pesa quanto physx su sistemi AMD, basta vedere i bench su tr2013 eh...a men che parli del gioco APPENA uscito, ma già poche settimane dopo la situazione era migliorata tanot che il tressfx è godibile s qualsivoglia vga in proporzione lineare con la sua potenza

lo so lo so, il vantaggio di tressfx è proprio quello: nvidia a potuto lavorarci sopra per migliorare la propria situazione

amd con phsyx non può

DakmorNoland
18-05-2015, 09:56
Avendo abbracciato completamente il pacchetto di sviluppo GameWorks di NVIDIA, la casa polacca si trova costretta a sottostare completamente alla volontà della casa del camaleonte (qualcuno potrebbe dire “a prostrarsi”), in quanto molte parti del codice di gioco sono scritte da sviluppatori esterni a CD Project. Sfruttare la tecnologia di NVIDIA, infatti, significa non essere più padroni a casa propria, come si suol dire. Nell'EULA di GameWorks, leggiamo, relativamente al codice del SDK:


NVIDIA, in questo momento, sta cercando di sfruttare il proprio market share, pari ai ¾ del mercato delle schede video discrete, così da crearsi un ecosistema chiuso con cui ghettizzare AMD (ma non distruggere, per varie motivazioni), sia per mantenere elevati margini sulle schede video sia per spingere le vendite delle schede video più recenti (cosa vista, ad esempio, con Asssassin's Creed: Unity: le GTX680 e GTX690 ridotte a schede di fascia bassa



Ora sì mi vergogno di aver comprato una scheda nvidia.... Mai più! Questa è Mafia legalizzata...

siluro85
18-05-2015, 10:50
Ora sì mi vergogno di aver comprato una scheda nvidia.... Mai più! Questa è Mafia legalizzata...
Ma no, è colpa di amd...

Raven
18-05-2015, 10:56
Physx è il cancro del gaming pc


Raven, segna :O

... sto perdendo il conto!... :O

J9AnGe
18-05-2015, 11:00
Ok ho una scheda AMD , il gioco gira male? bon te lo lascio sullo scaffale e non lo compro apposto problema risolto :) , tanto ce ne sono molti altri di game .

siluro85
18-05-2015, 11:04
Va beh ma se aspetti quel gioco perché segui la saga? Perché sei un appassionato del genere ed è il top? È il ragionamento che di base fa nvidia.... ti rendo ingocabili alcuni giochi e ti "costringo" a comprare le mie gpu...

Vul
18-05-2015, 11:16
ok, però amd non ha lavorato per niente su pcars, mentre nvidia qualcosa ha fatto, non lo dico io, ma gli stessi programmatori di pcars, che poi fisica o non amd non può andare molto meno di nvidia, non è proprio tecnicamente possibile, si aspettino driver nuovi e poi si valuta.

nvidia ha supportato economicamente i developer, è diverso.

Ale55andr0
18-05-2015, 11:16
https://www.youtube.com/watch?v=1fUGFmmikn4

PC Ultra vs PS4 ... ambient occlusion mi pare addirittura migliore su PS4... ma il PC non era Master Race? :D

ps.

https://www.youtube.com/watch?v=O2mJaYQhaYc

PC Low vs Ultra :D

dovresti aggiornarti in merito, sai la patch ha cambiato qualcosina e non a favore delle scatocesse... :read: non aggiungo altro :fuck: (che poi il gioco resti downgradato rispetto a quanto promesso è altro discorso, per il quale si deve comunque ringraziare sempre le scatocesse visto che la cosa è chiaramente dovuta a non farle sfigurare)

Gundam1973
18-05-2015, 11:17
quante seghe mentali...è meglio verde...è meglio rosso.....consuma di meno....consuma di piu....scalda di meno....scalda di piu....vanno bene i driver....non vanno bene i driver.....costa di piu...costa di meno....subito mature....o che maturano in botti di rovere....

Io continuo a non capire...perche continuare a scrivere/parlare.....

Per non saper ne leggere ne scrivere.....io continuo a comprare le schede video che, in base al mio utilizzo, mi danno le prestazioni che mi servono in rapporto al budget disponibile e bon....accendo il pc e gioco.

Se poi c'è da abbassare/togliere un filtro...lo faccio!

Mah saro strano io.... :D

Vul
18-05-2015, 11:20
Comunque i settings low versus ultra di The Witcher 3 non sono profondamente diversi.

Il che è un buon segno, CDP è riuscita a fare un ottimo gioco che giri bene anche su vecchio hardware (un pò come altri giochi come Far Cry o Tomb Raider che sono piacevolissimi anche abbassando dettagli e filtri).

Il punto è vedere la scalabilità.

In ogni caso immagino che dopo il rilascio del gioco lavoreranno su un enhanced edition che si spera sarà gratis per i possessori del gioco come per TW1 e TW2.

Anche se le definitive edition di Sleeping Dogs e Tomb Raider sono a pagamento e anche CDP ora si fa pagare season pass e dlc che prima erano gratis.

Vul
18-05-2015, 11:22
quante seghe mentali...è meglio verde...è meglio rosso.....consuma di meno....consuma di piu....scalda di meno....scalda di piu....vanno bene i driver....non vanno bene i driver.....costa di piu...costa di meno....subito mature....o che maturano in botti di rovere....

Io continuo a non capire...perche continuare a scrivere/parlare.....

Per non saper ne leggere ne scrivere.....io continuo a comprare le schede video che, in base al mio utilizzo, mi danno le prestazioni che mi servono in rapporto al budget disponibile e bon....accendo il pc e gioco.

Se poi c'è da abbassare/togliere un filtro...lo faccio!

Mah saro strano io.... :D

Ma sei matto? C'è gente che se non maxa ogni singolo filtro ed effetto per quanto neanche notino la differenza si sente male :rolleyes:

Perchè mettere FXAA anzichè MSAA quando posso benissimo comprare una titanx?

Ale55andr0
18-05-2015, 11:42
Ma sei matto? C'è gente che se non maxa ogni singolo filtro ed effetto per quanto neanche notino la differenza si sente male :rolleyes:

Perchè mettere FXAA anzichè MSAA quando posso benissimo comprare una titanx?

anche tu però dai...vuoi paragonare un fxxa al mssa4x? :stordita:

mircocatta
18-05-2015, 11:44
anche tu però dai...vuoi paragonare un fxxa al mssa4x? :stordita:

beh su un fullhd 27 pollici ovvio che c'è differenza, ma su un 1440p 27 pollici già un fxaa risulta quasi indifferente dall'msaa, ovvio se ti metti a fissare lo schermo con una immagine statica la differenza la noti, ma ingame...

DakmorNoland
18-05-2015, 11:45
anche tu però dai...vuoi paragonare un fxxa al mssa4x? :stordita:

Beh ad esempio in Far Cry 4 era meglio SMAA di MSAA 4x o di TXAA 4x.... :muro: Vogliamo parlarne? E pensare che l'ho giocato tutto con TXAA 4x inutilmente!!

Vul
18-05-2015, 11:46
Va che in game manco la vedi la differenza a momenti. Devi giocare su dei monitor spropositati per la risoluzione.

Ricordo un bel video su youtube, mi pare di digital foundry dove dovevano ingrandire le immagini gozzilioni di volte perchè si notassero le differenze tra i vari tipi di AA.

Io mi ci sono messo a fare i vari test, ma io fra le varie tipologie di AA poi in azione e le varie tecnologie di ombra le differenze proprio fatico a vederle.

Migliorassero artwork, animazioni e texture piuttosto.

In ogni caso il miglior AA è una risoluzione elevata. :read:

Meglio 1440p senza AA che 1080p con MS4X.

Datemi un 1440p sotto i 25", possibilmente VA che gli IPS non mi piacciono a 120hz e non cambio monitor fino al 2022.

Ale55andr0
18-05-2015, 11:48
Beh ad esempio in Far Cry 4 era meglio SMAA di MSAA 4x o di TXAA 4x.... :muro: Vogliamo parlarne? E pensare che l'ho giocato tutto con TXAA 4x inutilmente!!

per me no, ho giocato e finito fc4 e preferivo nettamente msaa 4x, smaa per me è qualcosa di osceno, si vedono sempre i bordi dei poligoni che si muovono, come un righello in sovrimpressione che si ridisegna sovrapponendosi all'altro, una cosa che mi da un fastidio della madonna

Ale55andr0
18-05-2015, 11:49
Meglio 1440p senza AA che 1080p con MS4X.



dissento anche qui, ma ognuno ha la sua vista e i suoi gusti :)

CiccoMan
18-05-2015, 11:51
Perché farsi tutti questi problemi? Basta comprare due schede video, una AMD è una nVidia e cambiarle a seconda del gioco 😁

PS . Prima che qualcuno cominci il linciaggio, ero ironico ...

DakmorNoland
18-05-2015, 11:51
per me no, ho giocato e finito fc4 e preferivo nettamente msaa 4x, smaa per me è qualcosa di osceno, si vedono sempre i bordi dei poligoni che si muovono, come un righello in sovrimpressione che si ridisegna sovrapponendosi all'altro, una cosa che mi da un fastidio della madonna

Che??? Guarda che gioco su un TV 40" 1080p, vedo pure gli artefatti nei poligoni sui giochi PS3 tanto è dettagliato sto schermo, però tu sul tuo monitor avresti visto cose... mah vabbè...

Calcola che io manco l'avevo provato l'SMAA perchè mi son detto, sarà il solito schifo, poi un utente in gamba qui sul forum, mi ha consigliato di provarlo e lui sosteneva avesse la miglior resa. Beh aveva ragione! Calcola che ero partito prevenuto quindi...

Magari è qualcosa che non va sul tuo pannello, non saprei... :boh:

FroZen
18-05-2015, 11:52
Smaa lo evito sempre....alla fine ho sempre usato il vecchio msaa o fxaa in alternativa... De gustibus.... Cmq meglio avere piu scelte che non averle affatto...

DakmorNoland
18-05-2015, 11:54
Smaa lo evito sempre....alla fine ho sempre usato il vecchio msaa o fxaa in alternativa... De gustibus.... Cmq meglio avere piu scelte che non averle affatto...

Di solito vale quello che dici, ma su Far Cry 4 no! Perchè evidentemente hanno fatto copia/incolla da console, quindi per un motivo o per l'altro l'SMAA è quello che rende meglio, li ho provati tutti! :p

Vul
18-05-2015, 12:08
dissento anche qui, ma ognuno ha la sua vista e i suoi gusti :)

Non credo sia un fatto di gusti.

Compito dell'AA è quello di compensare i difetti derivanti dal rappresentare un immagine ad alta risoluzione a bassa risoluzione.

Il motivo per cui ti serve l'AA è proprio perchè la densità di pixel del tuo schermo non è elevata a sufficienza.

A parità di dimensioni dello schermo 1440p ha quasi il doppio dei pixel.

Ciò che dici è un controsenso.

Se riscaliamo un immagine a 4k a 1080p (fondamentalmente l'ms4x), ma se sullo stesso schermo raddoppiamo la densità visiva il colpo d'occhio è nettamente diverso e la necessità di AA nulla.

Cosa fai quando l'msaa non ti regge? Imposti la risoluzione del monitor a 1600x900 e aumenti l'aa?

Scommettiamo che visivamente i difetti si vedranno ancora di più? :asd:

Il nabbo di turno
18-05-2015, 12:58
sarà anche vero, strano che AMD non abbia smentito queste informazioni:

“We’ve provided AMD with 20 keys for game testing as they work on the driver side. But you only have to look at the lesser hardware in the consoles to see how optimised we are on AMD based chips.
We’re reaching out to AMD with all of our efforts. We’ve provided them 20 keys as I say. They were invited to work with us for years, looking through company mails the last I can see they (AMD) talked to us was October of last year.

tradotto:

"ad AMD sono state fornite 20 chiavi per testare il gioco per tempo. [...] Li abbiamo invitati per anni a lavorare con noi, guardando le mail della compagnia, l'ultima volta che vedo che AMD ha parlato con noi è ottobre dello scorso anno."

Se poi adesso AMD risolve con dei driver appositi, confermerebbe a logica che il problema si è generato solo a causa loro per negligenza nel seguire quel titolo mentre nvidia ha partecipato molto durante lo sviluppo, o pensate che magicamente avranno accesso a physx o elimineranno tutta la fisica che che ci gira intorno? :mbe:
E cosa ci fanno con le key?Ci giocano in ufficio? :mbe:

hrossi
18-05-2015, 13:01
Perché farsi tutti questi problemi? Basta comprare due schede video, una AMD è una nVidia e cambiarle a seconda del gioco 😁

PS . Prima che qualcuno cominci il linciaggio, ero ironico ...

Con w10 e le dx12 pare che non serva neanche cambiarle. :asd:

Hermes

Il nabbo di turno
18-05-2015, 13:06
Con w10 e le dx12 pare che non serva neanche cambiarle. :asd:

Hermes

Io non credo, perchè una delle due marche qualcosa per avvantaggiarsi lo farà sicuramente...

devil_mcry
18-05-2015, 13:09
Con w10 e le dx12 pare che non serva neanche cambiarle. :asd:

Hermes

Non sarebbe poi tanto diverso da quello che fanno alcuni con le console, che le comprano entrambe per via delle esclusive... Con W10 e DX12 potrebbe avere davvero senso per la prima volta avere entrambe i brand nel PC.

Non fosse che tra le due GPU e un alimentatore adeguato partono un casino di soldi io lo farei

Obrigado
18-05-2015, 13:22
incipit) Non credo sia un fatto di gusti.

1) Compito dell'AA è quello di compensare i difetti derivanti dal rappresentare un immagine ad alta risoluzione a bassa risoluzione.

2)Il motivo per cui ti serve l'AA è proprio perchè la densità di pixel del tuo schermo non è elevata a sufficienza.

3)A parità di dimensioni dello schermo 1440p ha quasi il doppio dei pixel.

4)Ciò che dici è un controsenso.

5)Se riscaliamo un immagine a 4k a 1080p (fondamentalmente l'ms4x), ma se sullo stesso schermo raddoppiamo la densità visiva il colpo d'occhio è nettamente diverso e la necessità di AA nulla.

6)Cosa fai quando l'msaa non ti regge? Imposti la risoluzione del monitor a 1600x900 e aumenti l'aa?

7)Scommettiamo che visivamente i difetti si vedranno ancora di più? :asd:

incipit) ma anche no... gli occhi e le percezioni di molti sono fasulle

1) definizione troppo generica e deviante per descrivere l'anti aliasing

2) esatto

3) si ma di solito chi compra un 1440p lo prende da 27" quindi il discorso cambia e da possessore di 27" 1440p l'AA e' necessario (SEMPRE)

4) no

5) l'msaa 4x non e' la stessa cosa del downsampling (aka DSR)
-l'msaa ha implementazioni selettive sugli edges dei modelli e non su tutta al scena.
-il multisampling/DSR 4x(rispetto ai 1080p) renderizzano tutto il frame al quadruplo
PS: forse solo le prime iterazioni di msaa4x di 3dfx il rendering era al quadruplo (ma erano i tempi dei 640x480)

6) si attivano AA post process (tipo fxaa o SMAA) leggeri e adatti a mascherare le scalettature

7) e' tutto relativo... distanza visione/scaler/motore grafico etc.

Vul
18-05-2015, 13:28
1) definizione troppo generica e deviante per descrivere l'anti aliasing

In che modo lo sarebbe?

3) si ma di solito chi compra un 1440p lo prende da 27" quindi il discorso cambia e da possessore di 27" 1440p l'AA e' necessario (SEMPRE)

Di solito, non mi è chiaro perchè un utente non possa volere un 1440p o un 4k su pannelli minori.

Non capisco le risoluzioni elevate sono prerogativa di cellulari tablet e pannelli giganti?

Io gioco su un 1080p da 24" e i singoli pixel li distinguo eccome, ben venga il 1440p su un monitor da 23/24 da gaming, me lo compro subito.

Certo rimane il solito discorso del "in windows non si capisce niente ed è tutto sballato" ma lì è colpa di microsoft non del monitor a risoluzione elevata. Perchè io ho visto un 13" retina da 1440p, 10 pollici in meno di un 23" e la risoluzione elevata la gestisce perfettamente ed è bellissimo da vedere e non riesco assolutamente a distinguere i pixel.

5) l'msaa 4x non e' la stessa cosa del downsampling (aka DSR)
-l'msaa ha implementazioni selettive sugli edges dei modelli e non su tutta al scena.
-il multisampling/DSR 4x(rispetto ai 1080p) renderizzano tutto il frame al quadruplo
PS: forse solo le prime iterazioni di msaa4x di 3dfx il rendering era al quadruplo (ma erano i tempi dei 640x480)

Grazie dell'info, ma sempre downsampling è o sbaglio, anche se selettivo?

6) si attivano AA post process (tipo fxaa o SMAA) leggeri e adatti a mascherare le scalettature


Non su hwupgrade, si cambia scheda video :asd: (com'è giusto che sia su un forum di hardware).

Obrigado
18-05-2015, 13:34
Piccola correzzione.

msaa - e' selettivo (solo edges)

fsaa(full scene anti aliasing) (nei giorni nostri chiamata ssaa) - e' su tutta la scena (ed e' pesante come un dsr)

Ale55andr0
18-05-2015, 13:57
aggiornami :cool:
sono tutt'occhi...




caspio vuoi che ti cerco io i link? :fagiano: la patch 1 rende superiore la grafica su PC con comparative fatte da sito di review tedesco. Se ti va di cercarti le info fallo te, io ho altro da fare :asd:

J9AnGe
18-05-2015, 14:56
Di solito vale quello che dici, ma su Far Cry 4 no! Perchè evidentemente hanno fatto copia/incolla da console, quindi per un motivo o per l'altro l'SMAA è quello che rende meglio, li ho provati tutti! :p

ho giocato molto a FC4 , se metti SMAA l'arma e' sfuocata invece i nemici con il cannocchiale li vedi limpidi , invece se metti MSAA gia da 2x vedi l'arma limpida ed anche il resto del terreno/vegetazione ma se usi il cannocchiale vedi i nemici come se avessi la vista di una talpa :asd: , insomma e' scritto male dai ce' poco da dire , provare per credere :)

Il nabbo di turno
18-05-2015, 15:34
Ed eccoci qua :D
http://www.bitsandchips.it/8-gaming/5588-gameworks-in-the-witcher-3-come-ridare-nuova-linfa-alle-gpu-hawaii

Ale55andr0
18-05-2015, 15:43
Non credo sia un fatto di gusti.




senza polemica alcuna so benissimo a cosa serve l'AA e so benissimo cos'è la densità dei pixel che compongono una immagine considerando l'area e il numero di pixel che la riempiono :)

Ripeto, in generale, a ME smaa fa CAGARE, e non per antipatia preconcetta ma come RESA VISIVA, e, ripeto preferisco MILLE volte il 1080p con un buon aa (no smaa/fxaa!) che il 1440 senza, per gli stessi motivi di cui sopra: resa visiva ai MIEI occhi. Non potrei essere più chiaro di cosi e non so come altro portela :boh:. Chiudo qua ;)

Catan
18-05-2015, 15:46
Ma che sia attivabile o disattivabile, bloccabile o sbloccabile non è che cambi molto. Se hai una scheda che non supporta physx allora frega zero che sia bloccato su ON nel menu, non c'è l'hardware quindi non funzionerà.
Non sto difendendo nVidia o quelli di Pcars, semplicemente se c'è una feature proprietaria in un gioco e tu hai l'altra marca di vga quella feature che sia o meno disattivabile ti cambia nulla. :D
Cos'era un Tomb Raider con il TressFx di Amd? Se avevi una nVidia non funzionava, che fosse o meno opzionabile dal menu.

Che poi ci siano accordi commerciali tra molte software house e uno dei due competitor va accettato, non c'è obbligo di supportare allo stesso modo chi paga e chi no. Non ci fa piacere ma tant'è, nessuno ha vietato ad Amd di stringere accordi a sua volta. :boh:
Certo che se poi ti vien fuori un titolo come The Sabotuer, sviluppato in collaborazione con Ati ma che dava problemi solo su schede Ati. :doh:
O se magari i benchmark vengono alterati da driver specifici per prevalere sulla concorrenza.
http://www.geek.com/games/futuremark-confirms-nvidia-is-cheating-in-benchmark-553361/
http://techreport.com/review/5226/further-nvidia-optimizations-for-3dmark03
:cry:

Hermes



Ai fini dei benchmark per le "testate" e per gli utenti, ha senso poter disabilitare il supporto gpu a physics ance su schede nvidia, in modo da fare il dobbio confronto, amd vs nvidia a parità di physics su cpu e nvidia con physics accelerato con gpu e senza accelerazione su gpu ma su cpu.

Poi tanto l'utente finale che vuole giocare al top a questo gioco sa che si deve comprare la nvidia per avere piu fps per l'accelerazione gpu del motore fisico. Chi invece non piace sta politica non compra il gioco e chi invece non gli e ne frega na mazza si tiene la sua ati, ci gioca con fps decenti e amen.

Probabilmente ste scelte so sempre controproducenti visto che ti tagli cmq una fetta di persone che hanno una diversa vga. Insomma nvidia deve darti parecchi soldi per accettare una cosa del genere, se lo fai perchè amd non ti manda le email, stai fuori come un balcone.

Snickers
18-05-2015, 15:48
Comunque direi che il rebrand di hawaii, fatto come detto da hwup non sembra nemmeno male... Alla fine 8GB per tutte e chip ram migliori

Ale55andr0
18-05-2015, 15:53
Comunque direi che il rebrand di hawaii, fatto come detto da hwup non sembra nemmeno male... Alla fine 8GB per tutte e chip ram migliori

se al prezzo giusto infatti per me una simil 290x 8gb 1050/6000 def sarebbe una scheduzza davvero bellina...MA purchè non sia lei la top di gamma, cioè voglio vedere ANCHE una gpu nuova e di fascia più alta senno c'è da "shitstormalli" abbestia :asd:

Il nabbo di turno
18-05-2015, 16:16
https://forums.geforce.com/default/topic/831639/geforce-700-600-series/nvidia-is-deliberately-downgrading-kepler-gpus-performance-in-favor-of-maxwell-/post/4529999/#4529999

Apple where are you :boh:

appleroof
18-05-2015, 16:20
... ho lollato! :O


:sofico:

http://i.imgur.com/fad1O0i.jpg (http://imgur.com/fad1O0i)


:D :D io so come spendere i miei soldi! :read:

Con le key del gioco non ci fai nulla se non hai accesso al codice. PhysX è integrato e parte portante del gioco e non si può disattivare.


"Non mi sembra che fornire il codice sorgente di una propria tecnologia sia una pratica ricorrente nella nostra industria: non lo fanno neanche i produttori di middleware o gli sviluppatori di videogiochi. Solitamente i giochi vengono ottimizzati sulla base delle build binarie, non del codice sorgente".

http://www.gamemag.it/news/nvidia-di-nuovo-sotto-attacco-per-l-implementazione-di-gameworks-in-the-witcher-3_57287.html

sarà anche un PR ma è un insider fà una dichiarazione pubblica su un tema preciso, salvo smentite altrettanto tecniche tendo a credere più a lui che ad un utente di un forum per quanto informato o tecnico ...a meno che le due cose coincidano forse :D

OEidolon
18-05-2015, 16:28
https://forums.geforce.com/default/topic/831639/geforce-700-600-series/nvidia-is-deliberately-downgrading-kepler-gpus-performance-in-favor-of-maxwell-/post/4529999/#4529999

Apple where are you :boh:

vabbè questo lo salvo tra i preferiti così al prossimo che rompe i coglioni sui driver amd glielo linko :asd:

Dimonios
18-05-2015, 16:30
vabbè questo lo salvo tra i preferiti così al prossimo che rompe i coglioni sui driver amd glielo linko :asd:

Ti conviene salvarlo, i moderatori del forum di NVIDIA solitamente questo tipo di messaggi li cancellano.

Raven
18-05-2015, 16:47
https://forums.geforce.com/default/topic/831639/geforce-700-600-series/nvidia-is-deliberately-downgrading-kepler-gpus-performance-in-favor-of-maxwell-/post/4529999/#4529999

Apple where are you :boh:

Può semplicemente essere che le varie generazioni nvidia siano diverse tra loro a tal punto da richiedere specifiche ottimizzazioni (e naturalmente le kepler non vengono al primo posto, ora)... forse è solo sufficiente aspettare un po'... ;)

Almeno questo è un (piccolo) punto a favore di AMD, che, lavorando comunque sempre sulla stessa architettura di base (GCN), bene o male riesce a "riversare" aggiornamenti e tweak di performance anche sulle vecchie generazioni...

appleroof
18-05-2015, 16:55
https://forums.geforce.com/default/topic/831639/geforce-700-600-series/nvidia-is-deliberately-downgrading-kepler-gpus-performance-in-favor-of-maxwell-/post/4529999/#4529999

Apple where are you :boh:

credo di capire che ti riferisci a me, una segnalazione di 1 utente cui non funziona il DSR (può sempre usare il downsampling che è la stessa cosa e si fà da anni in ambiente nvidia) e che ha non meglio specificate minori perfomance non la prendo ancora come una prova

edit, ah, pensavo di essere su " thread ufficiale misteri: scopriamo le magagne nvidia" invece che su "aspettando le nuove amd" scusate :p

Il nabbo di turno
18-05-2015, 17:01
credo di capire che ti riferisci a me, una segnalazione di 1 utente cui non funziona il DSR (può sempre usare il downsampling che è la stessa cosa e si fà da anni in ambiente nvidia) e che ha non meglio specificate minori perfomance non la prendo ancora come una prova

edit, ah, pensavo di essere su " thread ufficiale misteri: scopriamo le magagne nvidia" invece che su "aspettando le nuove amd" scusate :p

Fai 2, visto che anche l'altro con la 780 ha confermato, e non mi sembra normale che il dsr si disabiliti in stile "puff".

appleroof
18-05-2015, 17:03
Fai 2, visto che anche l'altro con la 780 ha confermato, e non mi sembra normale che il dsr si disabiliti in stile "puff".

non lo so, se limiti la cosa a pochi casi può essere dovuta a problemi del proprio pc, capita da sempre ed è la croce/delizia dei pc, se invece escono fuori migliaia di casi e/o direttamente nvidia (in questo caso) riconosce il problema allora ok, ma sarebbe appunto una issue come ne capitano a tutti i produttori, o gli altri sono infallibili?

chiudo veramente OT.

Il nabbo di turno
18-05-2015, 17:09
non lo so, se limiti la cosa a pochi casi può essere dovuta a problemi del proprio pc, capita da sempre ed è la croce/delizia dei pc, se invece escono fuori migliaia di casi e/o direttamente nvidia (in questo caso) riconosce il problema allora ok, ma sarebbe appunto una issue come ne capitano a tutti i produttori, o gli altri sono infallibili?

chiudo veramente OT.

Ah di, project cars azzoppa le kepler, la 780 ti scivola sempre più in basso rispetto alla 290x e alla 980, ma si dai, facciamo finta di nulla...

Ora possiamo dire chiuso OT.

appleroof
18-05-2015, 17:14
edit và

Ale55andr0
18-05-2015, 17:33
edit và

:asd:

Raven
18-05-2015, 17:34
Ah di, project cars azzoppa le kepler, la 780 ti scivola sempre più in basso rispetto alla 290x e alla 980, ma si dai, facciamo finta di nulla...

Ora possiamo dire chiuso OT.

Può semplicemente essere che le varie generazioni nvidia siano diverse tra loro a tal punto da richiedere specifiche ottimizzazioni (e naturalmente le kepler non vengono al primo posto, ora)... forse è solo sufficiente aspettare un po'... ;)


... e se lo dico io!... :sofico:


(poi, oh... se fra 2 mesi le cose non sono cambiate, allora ok! http://digilander.libero.it/arosati76/mrgreen.gif )

devil_mcry
18-05-2015, 18:04
di AC Unity ci si è già dimenticati :stordita:

Ora possiamo dire chiuso OT :read:
Ma AC Unity questo?

http://www.anandtech.com/show/8738/benchmarked-assassins-creed-unity/2

Che ha che non va la 780?

devil_mcry
18-05-2015, 18:41
andava male sulla serie 600...
http://gamegpu.ru/action-/-fps-/-tps/assassin-s-creed-unity-test-gpu.html
quest'anno hanno scalato di una gen avanti cioè la serie 700 già in due giochi...
già uno dovrebbe essere di troppo, siamo a 3 in due anni e con gen diverse... ma nvidia fa supporto fino alla serie 400... dice lei...

Ma scusa a me a vedere quel grafico non pare andassero tanto male le 600 li

A 1080P la 670 e la 680 vanno come dovrebbero andare sia in relazione alla 770 che alle AMD (anzi, persino troppo perchè la 670 non sono sicuro fosse più veloce di una 7970 3GB. Anche vedere la 760 attaccata alla 670 è coerente dato che di fatto sono molto simili (la 760 è una 760 un pelo castrata mi pare).

A 1440p o comunque ad AA elevati perderono terreno per colpa dei 2GB di RAM ma rimangono sempre più o meno coerenti con la loro posizione attesa... (sono vicine rispettivamente alle 7950 e alle 7970).

Cosa ci sarebbe che non torna li?

sgrinfia
18-05-2015, 20:22
Mà secondo me, non è che le Invidia vanno peggio nel tempo......mi sembrano uguali a quando sono uscite le prestazioni.
Semmai le Radeon nel tempo migliorano , del resto Amd a sempre fatto prodotti con potenzialità non subito espresse.

Obrigado
18-05-2015, 20:30
Mà secondo me, non è che le Invidia vanno peggio nel tempo......mi sembrano uguali a quando sono uscite le prestazioni.
Semmai le Radeon nel tempo migliorano , del resto Amd a sempre fatto prodotti con potenzialità non subito espresse.

si, come no!

appena escono vanno il 10/15% meno delle top verdi.

poi dopo 6/12 mesi si rifanno i confronti delle rosse con i driver nuovi, ma con i risultati delle verdi nelle review di 12 mesi prima!


poi sai com'e'.... le verdi non aumentano le performance col tempo... ma calano...!!!


comprate in 2 decadi 2 rosse e vi mettete a parlare di confronti e pretendete di essere visti come imparziali...

ahaahhaahhahaa

Obrigado
18-05-2015, 20:36
Ah di, project cars azzoppa le kepler, la 780 ti scivola sempre più in basso rispetto alla 290x e alla 980, ma si dai, facciamo finta di nulla...

Ora possiamo dire chiuso OT.

ma parli per sentito dire?

no perche' io ho una titan nel secondo pc(prima una r9 290) e gioco a project cars dal 2011.

Vul
18-05-2015, 20:43
si, come no!

appena escono vanno il 10/15% meno delle top verdi.

poi dopo 6/12 mesi si rifanno i confronti delle rosse con i driver nuovi, ma con i risultati delle verdi nelle review di 12 mesi prima!


poi sai com'e'.... le verdi non aumentano le performance col tempo... ma calano...!!!


comprate in 2 decadi 2 rosse e vi mettete a parlare di confronti e pretendete di essere visti come imparziali...

ahaahhaahhahaa

e certo, infatti the witcher 3, project cars, gta 5 li testano tutti con i driver di un anno fa.

Anzi, prendono la loro copia del gioco e vanno indietro nel tempo a testarli.

Ma pensate prima di premere "invia risposta"?

Vul
18-05-2015, 20:45
ma parli per sentito dire?

no perche' io ho una titan nel secondo pc(prima una r9 290) e gioco a project cars dal 2011.


ll che non toglie che su maxwell giri molto meglio che sulla tua titan da 1000 euro. Una 960 ti sta di poco o nulla dietro.

°Phenom°
18-05-2015, 21:02
Comunque a me non gira male project, lo tengo in downsamplig a 2560x1600 tutto maxato ed msaa e sta dai 50 ai 60 fps tranne che alla partenza. Essendo un gioco di guida abbastanza simulativo sinceramente preferisco perdere una decina di frame, ma downsamplarlo, invece che tenerlo a 60 fps ma a 1920x1200, dato che soggettivamente non noto la differenza in fluidità con il mio g27 in questa tipologia di giochi.

Aggiungo:

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Simulator-Project_CARS_2015-test-pc_1920.jpg

A me non sembra nemmeno guardando i bench che vada poi così male sto gioco, con tutto che è nvidia ready, oh, sarà che ho rifatto solo una decina di volte la prima gara per calibrare il volante, magari in altri circuiti/condizioni meteo la situazione peggiora.

OEidolon
18-05-2015, 21:05
e certo, infatti the witcher 3, project cars, gta 5 li testano tutti con i driver di un anno fa.

Anzi, prendono la loro copia del gioco e vanno indietro nel tempo a testarli.

Ma pensate prima di premere "invia risposta"?

ma su, tranquillo, a chi non ha ancora diritto di voto devi lasciare questa esuberanza! non ti fa sentire più giovane? non ti fa ripensare a quando avevi tutte le verità in tasca, a quando parlavi per assoluti, a quando dovevi tornare a casa a mezzanotte...aaaaah che spensieratezza :asd:

jok3r87
18-05-2015, 21:12
incipit) ma anche no... gli occhi e le percezioni di molti sono fasulle

1) definizione troppo generica e deviante per descrivere l'anti aliasing

2) esatto

3) si ma di solito chi compra un 1440p lo prende da 27" quindi il discorso cambia e da possessore di 27" 1440p l'AA e' necessario (SEMPRE)

4) no

5) l'msaa 4x non e' la stessa cosa del downsampling (aka DSR)
-l'msaa ha implementazioni selettive sugli edges dei modelli e non su tutta al scena.
-il multisampling/DSR 4x(rispetto ai 1080p) renderizzano tutto il frame al quadruplo
PS: forse solo le prime iterazioni di msaa4x di 3dfx il rendering era al quadruplo (ma erano i tempi dei 640x480)

6) si attivano AA post process (tipo fxaa o SMAA) leggeri e adatti a mascherare le scalettature

7) e' tutto relativo... distanza visione/scaler/motore grafico etc.

Con effetto sfocatura annesso.

Oirasor_84
18-05-2015, 21:29
Comunque a me non gira male project, lo tengo in downsamplig a 2560x1600 tutto maxato ed msaa e sta dai 50 ai 60 fps tranne che alla partenza. Essendo un gioco di guida abbastanza simulativo sinceramente preferisco perdere una decina di frame, ma downsamplarlo, invece che tenerlo a 60 fps ma a 1920x1200, dato che soggettivamente non noto la differenza in fluidità con il mio g27 in questa tipologia di giochi.

Aggiungo:

http://gamegpu.ru/images/remote/http--www.gamegpu.ru-images-stories-Test_GPU-Simulator-Project_CARS_2015-test-pc_1920.jpg

A me non sembra nemmeno guardando i bench che vada poi così male sto gioco, con tutto che è nvidia ready, oh, sarà che ho rifatto solo una decina di volte la prima gara per calibrare il volante, magari in altri circuiti/condizioni meteo la situazione peggiora. Prova montecarlo con la pioggia e 20 car in pista e fammi sapere.

°Phenom°
18-05-2015, 21:37
Prova montecarlo con la pioggia e 20 car in pista e fammi sapere.

Dai, così mi hai proprio sradicato, ero leggermente positivo :asd:
Domani provo comunque :stordita:

FroZen
18-05-2015, 21:44
Appunto, il problema principale è la pioggia.... L erba di bob invece ammerda pure le verdi, killer setting...

elijahk
18-05-2015, 21:47
http://wccftech.com/amd-introducing-300-series-carrizo-lineup-june-3-computex-comprehensive-details-coming/

Oirasor_84
18-05-2015, 22:28
Dai, così mi hai proprio sradicato, ero leggermente positivo :asd:
Domani provo comunque :stordita:
Anche io alla prima prova son rimasto soddisfatto addirittura ero partito sparato di vsr a 1440p:D ,dopo un paio di prove mi son detto cavolo proviamo la pioggia vediamo com'è graficamente,non l'avessi mai fatto, alla partenza 19fps
http://cloud-4.steamusercontent.com/ugc/27356421801806422/82F5E30E6720E9D1D723664E44F55E51FCBE26EB/

Appunto, il problema principale è la pioggia.... L erba di bob invece ammerda pure le verdi, killer setting...
Ma non è che hanno implementato qualche nuova features che riguarda l'erba tipo stile "tressfx perchè io valgo" perchè gia su gta5 da molto alto ad ultra ti ruba tipo 10fps senza alcuna differenza :D Ai tempi di doom 3 erano le ombre il killer setting adesso c'è l'erba

milanok82
18-05-2015, 23:16
Può semplicemente essere che le varie generazioni nvidia siano diverse tra loro a tal punto da richiedere specifiche ottimizzazioni (e naturalmente le kepler non vengono al primo posto, ora)... forse è solo sufficiente aspettare un po'... ;)

Almeno questo è un (piccolo) punto a favore di AMD, che, lavorando comunque sempre sulla stessa architettura di base (GCN), bene o male riesce a "riversare" aggiornamenti e tweak di performance anche sulle vecchie generazioni...

Invece secondo me è fatto di proposito per spingere l'utenza a orientarsi verso la nuova architettura e quindi a comprare una nuova scheda video,sfruttando il fatto che sanno che i nerd vanno in panico subito e la scheda video la cambiano al volo.

Il nabbo di turno
19-05-2015, 09:12
e certo, infatti the witcher 3, project cars, gta 5 li testano tutti con i driver di un anno fa.

Anzi, prendono la loro copia del gioco e vanno indietro nel tempo a testarli.

Ma pensate prima di premere "invia risposta"?
Guarda che intendevo rispetto alla 980 e alla 290x.

MrBrillio
19-05-2015, 10:31
Fudzilla e quindi è da prendere con le pinze....speriamo :D

http://www.fudzilla.com/news/graphics/37790-amd-fiji-aims-at-849-retail-price

:eek:

devil_mcry
19-05-2015, 10:42
ma davvero non ti ricordi l'enorme polemica sul sito ufficiale nvidia tra gli utenti che scrivevano oltre che per le texture anche per le scarse prestazioni delle 670 680 e soprattutto 690?...in alcuni casi sono stati pure cancellati certi posto... la 690 è imbarazzante, hanno lasciato una scheda di quella portata e costo a scadere così in modo misero...

Onestamente no, hai il link? Comunque non sono mai andato sul sito nvidia se non per vedere quale driver è meglio usare con un determinato gioco, ma in generale non sto troppo a leggere su un forum, preferisco guardare i test anche perchè se chiedo un parere è inevitabile che sia di parte, basta vedere cosa capita nella sezione CPU (in GPU sono sempre entrato nei thread specifici e in quelli aspettando... infatti ora sono iscritto qui, su quello nvidia, sul thread delle 970 e delle 290x perchè stavo valutando tra una di quelle due).


Comunque da quei bench che hai linkato le prestazioni sono coerenti. Cioè, sono allineate con quelle che erano le performance al lancio rispetto ai modelli
AMD da 2GB e lo sono in relazione ai modelli da 3GB. Io per quanto vale ho notato che ormai 2GB in FHD non sono più sufficienti con tutti i giochi ormai...

okorop
19-05-2015, 10:45
Fudzilla e quindi è da prendere con le pinze....speriamo :D

http://www.fudzilla.com/news/graphics/37790-amd-fiji-aims-at-849-retail-price

:eek:

che prezzi :O si è tornati a qualche anno fa: per prendere una vga top bisognava spendere mezzo stipendio o giu di li......

°Phenom°
19-05-2015, 12:43
Fudzilla e quindi è da prendere con le pinze....speriamo :D

http://www.fudzilla.com/news/graphics/37790-amd-fiji-aims-at-849-retail-price

:eek:
Male! Quasi 1000 euro per un vga sono improponibili fosse vero, speriamo che poi lo street price sia migliore

sgrinfia
19-05-2015, 12:49
si, come no!

appena escono vanno il 10/15% meno delle top verdi.

poi dopo 6/12 mesi si rifanno i confronti delle rosse con i driver nuovi, ma con i risultati delle verdi nelle review di 12 mesi prima!


poi sai com'e'.... le verdi non aumentano le performance col tempo... ma calano...!!!


comprate in 2 decadi 2 rosse e vi mettete a parlare di confronti e pretendete di essere visti come imparziali...

ahaahhaahhahaa

Ma infatti io non ho detto che calano , ho detto che rimangono quelle di partenza come prestazioni, (che tra l'altro sono elevate).
E su le Radeon ho detto che col tempo e affinamento driver ,aumentano le prestazioni iniziali . non vedo cosa ho detto di male.:confused: :wtf:

Vul
19-05-2015, 12:57
se chiedono 850 al lancio significa che sono abbastanza fiduciosi di essere più veloci di 980ti

hrossi
19-05-2015, 12:58
Fudzilla e quindi è da prendere con le pinze....speriamo :D

http://www.fudzilla.com/news/graphics/37790-amd-fiji-aims-at-849-retail-price

:eek:

Speriamo che abbiano cannato di brutto sul prezzo, ho capito male io o le prime saranno da 4Gb, e le vogliono far costare 849$??? :eekk:
Dai, sarà una fudzillata galattica. :sperem:

Hermes

maurilio968
19-05-2015, 13:06
visto che se ne è parlato tanto:

Project Cars Physics - THE Future of racing !

https://www.youtube.com/watch?feature=player_embedded&v=cZLbf2hbvvc

LOL!

Slightly Mad Studios: Project CARS non è un titolo GameWorks

http://www.bitsandchips.it/8-gaming/5591-slightly-mad-studios-project-cars-non-e-un-titolo-gameworks

maurilio968
19-05-2015, 13:09
Speriamo che abbiano cannato di brutto sul prezzo, ho capito male io o le prime saranno da 4Gb, e le vogliono far costare 849$??? :eekk:
Dai, sarà una fudzillata galattica. :sperem:

Hermes

Speriamo.

mircocatta
19-05-2015, 13:14
visto che se ne è parlato tanto:

Project Cars Physics - THE Future of racing !

https://www.youtube.com/watch?feature=player_embedded&v=cZLbf2hbvvc

LOL!


oddio ahahahahahhahahahahahahahahahahahahahahahahahahahahahahahahah

FroZen
19-05-2015, 13:16
:asd:

Ho la sensazione che appena escono ste 390 un sacco di kepler finiscono sul mercatino....si ok, costeranno ma verranno consegnate in eleganti botti di rovere x la stagionatura dei driver ( cit. :asd: )

FroZen
19-05-2015, 13:19
visto che se ne è parlato tanto:

Project Cars Physics - THE Future of racing !

https://www.youtube.com/watch?feature=player_embedded&v=cZLbf2hbvvc

LOL!


"That was probably caused by cold tires" mi ha fatto ribaltare :asd:

Il nabbo di turno
19-05-2015, 13:21
:asd:

Ho la sensazione che appena escono ste 390 un sacco di kepler finiscono sul mercatino....si ok, costeranno ma verranno consegnate in eleganti botti di rovere x la stagionatura dei driver ( cit. :asd: )

Il vino è diventato aceto mentre stagionavano...

devil_mcry
19-05-2015, 14:09
ecco la carrellata con alcuni post salvati in screen prima della cancellazione

http://www.bitsandchips.it/chi-scrive-per-bits-and-chips/8-gaming/4970-gtx680-buona-solo-per-giocare-a-dettagli-bassissimi-con-ac-unity

:stordita:

c'è anche da dire che il gioco fa pena in se

Ma onestamente mi sa che è il gioco ad andare male. Comunque dai bench di gamegpu.ru sicuramente non è giocabile con le 670/680, ma per dire a 1080P senza AA la 670 va meglio di una 7970 3GB, e con AA la 680 va uguale mentre va un pelo peggio a 1440p senza AA.

In ogni caso un gioco quel gioco va piano anche sulle 970/980. La 980 va quasi il doppio di una 680 e nei bench è così... Davvero un capolavoro fatto col culo :D

Catan
19-05-2015, 15:05
senza polemica alcuna so benissimo a cosa serve l'AA e so benissimo cos'è la densità dei pixel che compongono una immagine considerando l'area e il numero di pixel che la riempiono :)

Ripeto, in generale, a ME smaa fa CAGARE, e non per antipatia preconcetta ma come RESA VISIVA, e, ripeto preferisco MILLE volte il 1080p con un buon aa (no smaa/fxaa!) che il 1440 senza, per gli stessi motivi di cui sopra: resa visiva ai MIEI occhi. Non potrei essere più chiaro di cosi e non so come altro portela :boh:. Chiudo qua ;)

come non quotarti...il vero aa è solo il supersampling...

ss 4x su un 1080 e uno va da dio e se hai la fortuna di un 1440p ti basta anche un ss 2x per ottenere una resa visiva da paura.

Poi potremmo fare 1000 discussioni se è meglio un 1440p con ss2x o un 1080p con ss4x a parità di performances...

Se la scheda ti regge, un 1440p con un supersampling a 4x e che vuoi di più dalla vita?

(Magari un AF 8-16X fatto come dio comanda e non che impapocchia le texture in lontananza, una volta quando le recensioni erano serie l'analisi del filtro AF era una pietra fondamentale, adesso se ne fregano tutti, solo io ho notato un peggioramento del filtro AF da 4 o 5 anni a questa parte?)

devil_mcry
19-05-2015, 15:12
Una volta l'analisi del AF la facevano anche perchè era la novità (e impattava le performance tantissimo come lo faceva l'AA nei primi tempi).

Anche con l'AA all'inizio c'erano confronti, analisi etc, oggi giorno si fa un bench solo per vedere quanto si siede in 4x la vga... Ma è anche comprensibile, a suo tempo c'erano poche implementazioni di AA (Matrox forse aveva il suo diverso ma nVidia e ATI erano uguali), ora tra MSAA, SSAA, MLAA, FXAA, TXAA e forse altri c'è da diventare scemi... se dovessero fare una review come la facevano una volta (quando confrontavano ancora direct3d vs opengl vs glide) ci sarebbe da diventar scemi a leggerle e a scriverle :D

Comunque secondo me secondo me l'AF non è cambiato molto ultimamente, non negli ultimi 4-5 anni

Catan
19-05-2015, 16:05
se sai leggere non è un problema (e do per scontato che il grado di alfabetizzazione sia sufficiente), se ti piace fare il giornalista vero e non il recensore improvvisato e amatoriale, non ti pesa scrivere di più ne provare più cose (credo che prima ci fosse il gusto nerdacchione a provarsi 1000 versioni di aa in recensione fare le foto e le comparative).
Purtroppo se l'aria tira verso le "recensioni" miti e leggende scritte con pochi parole per far fronte all'attenzione che cala dopo 5 minuti...tanto vale smettere di scrivere rece e piazzare subito il grafico dei benchmark, cosi la gente legge il numeretto, gli viene la scimmia e se compra quella con numeretto più grosso.
Capisco che ormai è impossibile "catturare" con foto esempi di AA adattivi (il temporal antialisiang è praticamente impossibile da vedere con foto statiche), però insomma il fatto di avere più scelte di AA è un pro per la scheda e l'utente finale, se il recensore è "pigro" e gli pesa fa lo stesso benchmark 4 volte con 4 setting differenti...credo proprio che siamo davanti al cane che si morde la coda...recensore pigro o improvvisato che non ha voglia di scrivere o fare che genera pubblico pigro e non legge, o pubblico ignorante e pigro a cui piace vedere solo il numero che "genere" recensioni approssimative?

devil_mcry
19-05-2015, 16:39
se sai leggere non è un problema (e do per scontato che il grado di alfabetizzazione sia sufficiente), se ti piace fare il giornalista vero e non il recensore improvvisato e amatoriale, non ti pesa scrivere di più ne provare più cose (credo che prima ci fosse il gusto nerdacchione a provarsi 1000 versioni di aa in recensione fare le foto e le comparative).
Purtroppo se l'aria tira verso le "recensioni" miti e leggende scritte con pochi parole per far fronte all'attenzione che cala dopo 5 minuti...tanto vale smettere di scrivere rece e piazzare subito il grafico dei benchmark, cosi la gente legge il numeretto, gli viene la scimmia e se compra quella con numeretto più grosso.
Capisco che ormai è impossibile "catturare" con foto esempi di AA adattivi (il temporal antialisiang è praticamente impossibile da vedere con foto statiche), però insomma il fatto di avere più scelte di AA è un pro per la scheda e l'utente finale, se il recensore è "pigro" e gli pesa fa lo stesso benchmark 4 volte con 4 setting differenti...credo proprio che siamo davanti al cane che si morde la coda...recensore pigro o improvvisato che non ha voglia di scrivere o fare che genera pubblico pigro e non legge, o pubblico ignorante e pigro a cui piace vedere solo il numero che "genere" recensioni approssimative?

Non centra niente il recensore pigro, è il trend del mercato che sta cambiando e c'è poco da fare. I PR che offrono sample (non solo giochi) per recensioni ormai tendono a prediligere gli youtuber che danno un'informazione take away senza pretese, certi brand storici non offrono più sample se non agli youtuber.

E per i giochi è facilmente comprensibile, il video del gamplay messo su youtube attira di più e ha più impatto sul giocatore piuttosto di una recensione scritta, perchè vedi il gameplay, vedi realmente il gioco com'è e puoi capire meglio se ti piace o no, la grafica non è in fondo tutto.

Quindi lato giochi un'analisi su come il gioco è tecnicamente fatto ha ormai poco spessore sia perchè il trend è cambiato sia perchè non è nemmeno negli interessi dei produttori (tra i confronti ps4-pc, le polemiche sulle soluzioni tecniche usate, i bug, etc) preferiscono i gameplay sul tubo che vendono di più.

Lato VGA invece la cosa è molto più semplice, quello su cui oggi si punta quando si recensisce una GPU e la consistenza dei frame (intesa come latenza) tanto che hanno messo su sistemi interi per valutarla. Ma d'altra parte, quando viene preparata una nuova soluzione tecnica questa ha il suo articolo a se e questo è sempre stato così.

Le review da sempre (anche se prendi quelle di 12-15 anni fa) sulle VGA hanno sempre analizzato aspetti che erano il cavallo di battaglia del momento in termini di performance. Prima l'AF (ma inteso sopratutto come impatto prestazionale) circa 15 anni fa, poi l'AA una dozzina di anni fa, sul multigpu 7-8 anni fino ad oggi con il frame latency. Anche quando si parlava di AF e AA c'era a volte un'immagine di un gioco giusto per far capire di cosa si parlava, io ricordo ad esempio la riga di centro strada di Viper Racing, che mi era rimasto impresso, ma si parla del 98...

Se valuti le performance grafiche non ti interessa come il motore grafico del singolo gioco si comporti e a quel punto ci sono le review tecniche che analizzano le gpu con FCAT, bench in multiGPU e non e via dicendo, oppure i video da 5 minuti sul tubo.

E' come se oggi una review si mettesse ad analizzare il grado di un filtro passa basso di un RAMDAC di una vga... a nessuno interesserebbe eppure nei primi anni 2000 qualcuno lo faceva.

Radeon80
19-05-2015, 19:35
http://www.hwupgrade.it/articoli/skvideo/4365/hbm-le-memorie-veloci-ed-efficienti-per-le-gpu-del-futuro_index.html

ecco un articolo che parla di come funzionano le memoria hbm che equipaggiera' Fiji.

MaBru
19-05-2015, 19:50
Ma al posto di un rebrand di hawaii non si vociferava di un full tonga?

Il nabbo di turno
19-05-2015, 19:57
Ma al posto di un rebrand di hawaii non si vociferava di un full tonga?

Si presume sarà la 380x, mentre 390 e 390x saranno granada(hawaii migliorato), e le nuove fijii avranno nuovi nomi.

MaBru
19-05-2015, 20:15
Ma granada non è un'isola:stordita:

devil_mcry
19-05-2015, 20:18
Ma al posto di un rebrand di hawaii non si vociferava di un full tonga?

Full Tonga ci sarà ma nella fascia mid

In pratica dovrebbe essere qualcosa del genere

Fijii nell'equivalente di una 390x e 390, Hawaii nell'equivalente di una 380x e 380 e Tonga full nell'equivalente di una 370x

Questo per dare un'idea del target prestazionale / di prezzo, probabilmente saranno con dei 5 in mezzo e altre cose

C'è questo rumor http://www.tomshw.it/news/radeon-r9-390x-il-60-piu-veloce-della-r9-290x-in-4k-64853 dove dice che la top si chiamerà 390x

Nomi a parte comunque le schede sono quelle.

AkiraFudo
19-05-2015, 21:37
Infatti è Grenada non Granada ed è la rivisitazione di Hawaii (R9 380x)

Catan
19-05-2015, 22:57
Non centra niente il recensore pigro, è il trend del mercato che sta cambiando e c'è poco da fare. I PR che offrono sample (non solo giochi) per recensioni ormai tendono a prediligere gli youtuber che danno un'informazione take away senza pretese, certi brand storici non offrono più sample se non agli youtuber.

E per i giochi è facilmente comprensibile, il video del gamplay messo su youtube attira di più e ha più impatto sul giocatore piuttosto di una recensione scritta, perchè vedi il gameplay, vedi realmente il gioco com'è e puoi capire meglio se ti piace o no, la grafica non è in fondo tutto.

Quindi lato giochi un'analisi su come il gioco è tecnicamente fatto ha ormai poco spessore sia perchè il trend è cambiato sia perchè non è nemmeno negli interessi dei produttori (tra i confronti ps4-pc, le polemiche sulle soluzioni tecniche usate, i bug, etc) preferiscono i gameplay sul tubo che vendono di più.

Lato VGA invece la cosa è molto più semplice, quello su cui oggi si punta quando si recensisce una GPU e la consistenza dei frame (intesa come latenza) tanto che hanno messo su sistemi interi per valutarla. Ma d'altra parte, quando viene preparata una nuova soluzione tecnica questa ha il suo articolo a se e questo è sempre stato così.

Le review da sempre (anche se prendi quelle di 12-15 anni fa) sulle VGA hanno sempre analizzato aspetti che erano il cavallo di battaglia del momento in termini di performance. Prima l'AF (ma inteso sopratutto come impatto prestazionale) circa 15 anni fa, poi l'AA una dozzina di anni fa, sul multigpu 7-8 anni fino ad oggi con il frame latency. Anche quando si parlava di AF e AA c'era a volte un'immagine di un gioco giusto per far capire di cosa si parlava, io ricordo ad esempio la riga di centro strada di Viper Racing, che mi era rimasto impresso, ma si parla del 98...

Se valuti le performance grafiche non ti interessa come il motore grafico del singolo gioco si comporti e a quel punto ci sono le review tecniche che analizzano le gpu con FCAT, bench in multiGPU e non e via dicendo, oppure i video da 5 minuti sul tubo.

E' come se oggi una review si mettesse ad analizzare il grado di un filtro passa basso di un RAMDAC di una vga... a nessuno interesserebbe eppure nei primi anni 2000 qualcuno lo faceva.

e' un sistema che non riesco a capire, mi pare che "dealfabetizzi" l'utente finale. Noi siamo tutta gente nata con l'esplosione delle gpu, sappiamo quello che sappiamo perchè qualcuno ci ha "istruito" con articoli pazzeschi e tecnici.
La review di youtube lascia il tempo che trova, ma è sempre il solito discorso, la gente si è impigrita perchè ha youtube e quindi tak il bimbominchia fa la review su youtube per altri bimbiminkia e quindi i le ditte che fanno vga preferiscono dare a loro o youtube nasce perchè la gente si è impigrita e quindi è il modo più diretto per arrivare a tanti zombie?

Una cosa che si è anche persa è illustrare che hw si va a comprare, ultimamente in italia si mostra pochissimo la vga smontata del dissipatore, non si mostrano ne le ram, che marca montano o che latenze hanno. Credo che ormai da noi manco si facci più.

(che ne so magari so le case che regalano i samples che vietano lo smontaggio del dissipatore)

Se vuoi vedere una vga nuda tocca andare ormai su techpower up...

Anche però non capisco, non riesco a condividere il fatto che le case "non danno i samples", possono anche darne di meno, il fatto di avere meno vga da provare, non dovrebbe inficiare sul fatto che una recensione sia approfondita e nerdacchiona, forse con meno vga da recensire, si può spendere più tempo per fare test, e sopratutto su siti "amatoriali" o "semi amatoriali" non credo che ci sia tutta sta necessità di uscire al dayone con un prodotto che è scadente perchè "lo youtuber di turno" ha già fatto uscire la rece in cui mostra un video con fraps^^

Sicuramente la possibilità di caricare video è uno strumento importante per le rece, si potrebbero tranquillamente caricare spezzoni di gioco che mostrano "come" i vari aa impattano sul gioco sia come fps sia come qualità cosi magari si riesce anche a vedere gli AA adattivi o i temporal.

Insomma sarà che il tempo passa, ma le rece che leggevo a 20 anni, mi sembra davvero una spanna sopra a quelle che leggo adesso a 30.


Cioè tra di noi se pariamo di ssaa , msaa, di af e altre cose, lo sappiamo perchè qualcuno ci ha istruito, se prendi uno che 16 anni adesso che se avvicina al mondo vga come abbiamo fatto noi illo tempore, sa solo di "ho maxato tutto" (che cazz hai maxato che manco sai che hai toccato xd?)

Vul
20-05-2015, 01:13
ma come fate a lamentarvi della carenza di benchmark che ce ne sono a dozzine per ogni singolo modello. non ci so mai stati cosi tanti bench e review come negli anni 2010..

che poi la gente prima di comprare si va comunque a vedere grafici e articoli a fondo.

tra l'altro, visto che parlate di youtube, ci sono canali come digital foundry che sono semplicemente ottimi.

Dove ti rendi conto che una scheda che va il 10 % più veloce fa 33 fps quando l'altra ne fa trenta o 65 quando l'altra ne fa 60, quando qua sui grafici stiamo ancora a dibattere senza poi avere una reale idea delle performance in game.

mircocatta
20-05-2015, 08:24
stavo leggendo l'articolo sulle HBM

ma quindi, avremo un die che raggruppa GPU e memorie unico o sbaglio?

Raven
20-05-2015, 08:37
Credo che ormai da noi manco si facci più.


..speriamo che l'impronta del mio waterblock copri interamente questi die!

http://pad.mymovies.it/cinemanews/2009/12639/fantozzi.jpg

:D

bronzodiriace
20-05-2015, 08:46
Non riesco a trovare il nesso tra la bandwith offerta dalle HBM ed il fatto che siano 4gb di memoria video effettivi.


http://www.neogaf.com/forum/showthread.php?t=1048473


Mi riferisco alle dichiarazioni AMD sui 4gigi

mircocatta
20-05-2015, 09:00
http://pad.mymovies.it/cinemanews/2009/12639/fantozzi.jpg

:D
ahahha e per fortuna non hai visto l'altra castroneria che ho scritto sulla frase precedente!!! :ciapet: :ciapet: :ciapet:

bronzodiriace
20-05-2015, 09:01
ahahha e per fortuna non hai visto l'altra castroneria che ho scritto sulla frase precedente!!! :ciapet: :ciapet: :ciapet:

quello che tu vedrai ad occhio è sempre il die ;)

FroZen
20-05-2015, 09:05
Le vga con hbm saranno grosse la meta delle attuali e il fullcover coprira tutto come gli attuali ma risultera molto piu piccolo..... Allo stesso prezzo obviously :asd:

Cmq si penso che costeranno parecchio soprattutto se con 8 gigi....

mircocatta
20-05-2015, 09:07
comunque effettivamente non vedo perchè avere più di 4gb di memoria ora..

è vero ci sono giochi che saturano 3gb, ma all'atto pratico in quei giochi non vedo un divario che aumenta tra una 780ti e una 980 superando quella soglia..anche perchè al 99% dei casi si tratta di allocamento memoria e non di memoria effettivamente in uso (assassin creed, ryse, watch dogs, farcry4).. 10% di differenza c'era prima dei 3gb e 10% rimane anche oltre i 3gb
senza contare che essendo a ridosso a un nuovo processo produttivo queste ultime 28nm sono esperimenti quasi usa e getta... le prossime vga, hbm o meno, asfalteranno queste full maxwell/fiji, per cui avere 8gb e non sfruttarli perchè si correrà presto al cambio non ha molto senso

l'unica pecca e che se vuoi vendere devi fare colpo anche con i numeri dei gb di vram... molti eviteranno l'acquisto se non avrà 8gb di memoria, anche se effetivamente non la useranno mai


ps: si, sto cercando di convincermi che le fiji siano appetibili anche in versione 4gb :asd:

devil_mcry
20-05-2015, 09:14
Le vga con hbm saranno grosse la meta delle attuali e il fullcover coprira tutto come gli attuali ma risultera molto piu piccolo..... Allo stesso prezzo obviously :asd:

Cmq si penso che costeranno parecchio soprattutto se con 8 gigi....

Il fatto è che guardando quelle memorie sono si velocissime (sopratutto in merito al clock, immagino puntino alla parallelizzazione) ma temo siano davvero care.

Sulle nuove VGA con quei dati immagino che overcloccare le RAM sarà totalmente inutile

mircocatta
20-05-2015, 09:15
Le vga con hbm saranno grosse la meta delle attuali e il fullcover coprira tutto come gli attuali ma risultera molto piu piccolo..... Allo stesso prezzo obviously :asd:

Cmq si penso che costeranno parecchio soprattutto se con 8 gigi....

io però ho un only gpu quindi se il die diventa enorme perchè ci devono far stare anche le memorie sotto diventa un'arma a doppio taglio...o mi sta tutto sotto il waterblock e quindi ho due piccioni con una fava, oppure il mio only gpu diventa inutilizzabile

devil_mcry
20-05-2015, 09:18
io però ho un only gpu quindi se il die diventa enorme perchè ci devono far stare anche le memorie sotto diventa un'arma a doppio taglio...o mi sta tutto sotto il waterblock e quindi ho due piccioni con una fava, oppure il mio only gpu diventa inutilizzabile

Ma non sono sicuro che il DIE diventa enorme, se ho capito bene sono "on package" non "on DIE" ma potrei sbagliarmi

Comunque con le ultime news credo proprio che butteranno fiji full poco sotto al prezzo della Titan X e l'altro poco sotto al prezzo della 980Ti, con il remake della 290x potenziato poco a metà tra 970 e 980 (più che altro visto gli 8gb di memoria non possono farla pagare tanto poco, anche se poi di fatto rimane una 290x overcloccata con RAM più veloci)

hrossi
20-05-2015, 09:22
Vero, dalle slide sembrerebbe che il nuovo die comprendente le hbm sia leggermente più grande del vecchio. Ma si tratta di slide, come quella sui processori zen con un aumento Ipc del 40% che sulla slide però, righello alla mano, sembra del 200%. :asd: Anzi. :doh: :D
Aspettiamo di vederlo dal vivo, che delle slide di Amd sappiamo ormai da parecchio tempo che c'è poco da fidarsi. :cry:

Hermes

FroZen
20-05-2015, 09:29
I chip ram sono intorno al die sul cosiddetto interposer che li collega alla gpu....

Raga la strada è questa ormai....hbm sono le nuove ddr.... Percui salutate i vari wb only gpu fullcover etc etc

Una 390 liscia 4gb hbm mi farebbe gola non poco...

mircocatta
20-05-2015, 09:33
il punto è che amd ha sempre lasciato il die della gpu scoperto senza fare come nvidia/intel che sopra al chip monta un HIS protettivo

certo, se coprono il tutto (gpu+memorie) con un HIS unico e i fori su pcb rimarranno uguali alle attuali allora zero problemi, ci monto direttamente il waterblock sopra.
anche se l'impronta del waterblock non coprisse interamente l'his poco importa siccome esternamente, se non ho capito male, ci sono le memorie mentre la gpu sta nel centro

mircocatta
20-05-2015, 09:38
I chip ram sono intorno al die sul cosiddetto interposer che li collega alla gpu....

Raga la strada è questa ormai....hbm sono le nuove ddr.... Percui salutate i vari wb only gpu fullcover etc etc

Una 390 liscia 4gb hbm mi farebbe gola non poco...

fa gola si ma se poi il 90% dei giochi ti esce gameworks o monitor solo gsync va a finire che della potenza della gpu ti ci spazzi il :ciapet:

hrossi
20-05-2015, 09:44
certo, se coprono il tutto (gpu+memorie) con un HIS unico e i fori su pcb rimarranno uguali alle attuali allora zero problemi, ci monto direttamente il waterblock sopra.
anche se l'impronta del waterblock non coprisse interamente l'his poco importa siccome esternamente, se non ho capito male, ci sono le memorie mentre la gpu sta nel centro

Credo che i fori non siano uguali ma come capita spesso verranno messi in vendita degli adattatori, almeno all'inizio (ovvero per un anno o più) per poi passare ai soli wb con la nuova sagomatura. ;)

Hermes

MrBrillio
20-05-2015, 09:56
comunque effettivamente non vedo perchè avere più di 4gb di memoria ora..

ps: si, sto cercando di convincermi che le fiji siano appetibili anche in versione 4gb :asd:

Io boh non saprei davvero...cioè già oggi ci sono giochi che vanno oltre i 4giga di Vram allocata in 4K, e se contiamo che bene o male in futuro andremo tutti a parare su quella risoluzione imho per una VGA che esce ora ne vorrei almeno 6...che poi tutto di un colpo ora gli 8Gb sono inutili? E le varie 290x uscite con quel quantitativo di memoria che cos'erano?
Ok i 12 Gb delle Titan X sono inutili, ma 4 mi sembrano un po' pochini per una scheda che esce sul mercato come king of the hill :asd: in 4K

http://www.tomshw.it/data/images/8/7/5/1/65bc990f708a642fe0092899790b0db72.jpg

Cioè, per quello qualche post fa chiedevo se eventulamente con le HBM il consumo di memoria in game fosse diverso..o se quantomeno hanno in serbo qualche modo per far sì che il superamento del quantitativo montato sulla vga, non abbatta le prestazoni in game :confused:
Boh ci sono parecchi dubbi da chiarire, ma in ogni caso sono davvero curioso di scoprire cosa offriranno le nuove AMD.

Catan
20-05-2015, 09:56
be sul lato waterblock se la struttura resterà quelle delle slide, con ram in prossimità del die della gpu, si ritornerà ai dissipatori only gpu semplicemente più larghi...o se volete dei "full cover" molto piccoli 8x8 al massimo.

Poi dipende sempre dalla sezione di alimentazione, se le vga le avranno dissipate bene uno si può prende l'only gpu, se no faranno dei full cover un po ridotti in area che coprono zona alimentazione e la zona gpu+ram.

Raven
20-05-2015, 10:01
http://www.tomshw.it/data/images/8/7/5/1/65bc990f708a642fe0092899790b0db72.jpg


Bello il grafico che mostra barre alte il triplo passando da 1 a 1.6! :asd:

Sulla ram concordo... per una "top" che si prefigge di poter raggiungere (a risoluzione "uber") una discreta fluidità (almeno in crossfire!), 4gb secondo me non sono appettibili...

(se si resta in singola e si punta al fullHD maxata e con filtri, allora invece ok, ci stanno)

Catan
20-05-2015, 10:05
ma come fate a lamentarvi della carenza di benchmark che ce ne sono a dozzine per ogni singolo modello. non ci so mai stati cosi tanti bench e review come negli anni 2010..

che poi la gente prima di comprare si va comunque a vedere grafici e articoli a fondo.

tra l'altro, visto che parlate di youtube, ci sono canali come digital foundry che sono semplicemente ottimi.

Dove ti rendi conto che una scheda che va il 10 % più veloce fa 33 fps quando l'altra ne fa trenta o 65 quando l'altra ne fa 60, quando qua sui grafici stiamo ancora a dibattere senza poi avere una reale idea delle performance in game.

l'eccessiva frammentazione e il fatto che la tecnologia è diventa user friendly ha portato prima al fatto che ogni smanettore si aprisse il suo sito (e capisco che uno smanettone non può comprarsi ogni vga da testare e recensire sul suo sito), poi si è passato ad un sistema di comunicazione più veloce, quello orale con la diffusione tramite canali telematici come youtube. (Sicuramente scrivere una recensione è un'operazione più difficile e lunga, sotto il processo creativo e di cura, che non una video recensione).
La comunicazione veloce purtroppo fa si che anche chi scrive deve "standardizzarsi" in recensioni veloci, e giocoforza bisogna scardare alcuni punti ed alcuni test che prima erano significativi, lo sarebbero ancora adesso, ma non vengono più fatti.

Quindi la frammentazione e l'accessibilità è diventata alla portata di tutti e le recensioni sono uscite fuori come funghi un pò di tutti. Questo però ha spostato tutto verso delle "quick review" che spesso sono grossolane, fanno salire la scimmia a quelli malati di "numerettismo" e per quelli che vogliono qualcosa di più, restano sempre i soliti 2 o 3 siti, che purtroppo anche loro si stanno spostando verso le "quick review" per acquisire nuovi utenti o lettori (considerando che i lettori pro sono il loro zoccolo duro ed è difficile che li perdano).

maurilio968
20-05-2015, 10:07
sembra che AMD stia covando qualche tipo di risposta tecnologica a Nvidia GameWorks. In futuro avremo giochi esclusivi per hardware AMD o Nvidia?

http://www.tomshw.it/news/e-se-amd-stesse-preparando-un-proprio-gameworks-66433

devil_mcry
20-05-2015, 10:07
Cmq vorrei fare una piccola osservazione :P

Guardate i 4 giochi presi, uno ottimizzato per AMD in modo assoluto (TB), uno Mantle (BF4), uno che gira meglio su AMD anche se non so se è strettamente ottimizzato per esso (AI) mentre di FC4 non so come sia stato sviluppato ma dove mi pare cambi abbastanza poco tra i due brand...

Comunque se quei numeri sono rispettati, buttando un occhio è più o meno lo stesso incremento che c'è tra una 290x e una titan x, questo mi continua a far pensare che il rumors dei 899$ sia sensato

Free Gordon
20-05-2015, 10:09
http://www.tomshw.it/data/images/8/7/5/1/65bc990f708a642fe0092899790b0db72.jpg
Boh ci sono parecchi dubbi da chiarire, ma in ogni caso sono davvero curioso di scoprire cosa offriranno le nuove AMD.

Con questi valori sarebbe in tutti e 4 i giochi un pochino davanti alla TitanX..
Ma di pochissimi frames.

Se la piazzano a 699$ ha senso, di più iniziera ad essere qualcosa di poco conto a livello di vendite imho.

ps.
Con una 390 liscia superiore alla 980, a 549$.

Catan
20-05-2015, 10:16
Io boh non saprei davvero...cioè già oggi ci sono giochi che vanno oltre i 4giga di Vram allocata in 4K, e se contiamo che bene o male in futuro andremo tutti a parare su quella risoluzione imho per una VGA che esce ora ne vorrei almeno 6...che poi tutto di un colpo ora gli 8Gb sono inutili? E le varie 290x uscite con quel quantitativo di memoria che cos'erano?
Ok i 12 Gb delle Titan X sono inutili, ma 4 mi sembrano un po' pochini per una scheda che esce sul mercato come king of the hill :asd: in 4K

http://www.tomshw.it/data/images/8/7/5/1/65bc990f708a642fe0092899790b0db72.jpg

Cioè, per quello qualche post fa chiedevo se eventulamente con le HBM il consumo di memoria in game fosse diverso..o se quantomeno hanno in serbo qualche modo per far sì che il superamento del quantitativo montato sulla vga, non abbatta le prestazoni in game :confused:
Boh ci sono parecchi dubbi da chiarire, ma in ogni caso sono davvero curioso di scoprire cosa offriranno le nuove AMD.

il 60% medio in più a 4k non è male. Sarebbe utile vedere il valore assoluto anche (tra 10 e 16 c'è poca differenza).
Sicuramente la banda passante mostruosa aiuta, se il memory controller non ti fa da collo di bottiglia, quindi quello che ti avanza lo devi mette nel framebuffer. Diciamo manca il punto fondamentale, l'efficienza dell'mc con le hbm. Se mc è in grado di stare al passo con la mole di dati che possono essere scambiati è probabile che ancora 4gb, per questa prima generazione con le hbm siano ancora sufficienti. Sicuramente tra un'anno e mezzo, con l'erede di fiji.

Questo potrebbe fare il paio con il rumors su tom's, dove hawaii potrebbe essere proposto in dual gpu e con quantitativi di ram più elevati (con el gddr5, fare vga da 8gb di ram si può ed è stato fatto, a sto punto una dual gpu con hawaii full e 16gb di ram) con nomi diversi.

Relegando a fijii il fatto di essere la single gpu più veloce e che faccia da pilota per la prima generazione di vga con hbm e 4gb.

Certo a sto punto perchè non uscirsene con una flagship dual fijii con 8gb di ram...

Insomma ci stanno un pò di dubbi che fino alla presentazione di porteremo avanti.

MrBrillio
20-05-2015, 10:19
Ma quelle slide non vogliono dire nulla ragazzi...se le vga attuali fanno petare in 4k le 390x potrebbero far petare un po' meno...cioè mettono sti super incrementi su risoluzioni dove le vga vanno da schifo...e se quindi uno ora fa 20fps con una 290x anche con un incremento del 100% il gioco sarebbe poco godibile.
Ormai è puro marketing e di indicativo fino ad eventuali review non ci sarà nulla...sarebbe bello per tutti avere VGA davvero performanti con risoluzioni del genere, ma la vedo dura che AMD (ma anche Nvidia) cali subito gli assi che ha nella manica per offire un prodotto così tanto superiore...oh poi come sempre io spero di essere smentito :fagiano:
Tanto come diceva Mirco bisogna fare i conti con le ottimizzazioni e vedere i giochi che ci interessano con quali vanno meglio....

mircocatta
20-05-2015, 10:35
Io boh non saprei davvero...cioè già oggi ci sono giochi che vanno oltre i 4giga di Vram allocata in 4K, e se contiamo che bene o male in futuro andremo tutti a parare su quella risoluzione imho per una VGA che esce ora ne vorrei almeno 6...che poi tutto di un colpo ora gli 8Gb sono inutili? E le varie 290x uscite con quel quantitativo di memoria che cos'erano?
Ok i 12 Gb delle Titan X sono inutili, ma 4 mi sembrano un po' pochini per una scheda che esce sul mercato come king of the hill :asd: in 4K


Cioè, per quello qualche post fa chiedevo se eventulamente con le HBM il consumo di memoria in game fosse diverso..o se quantomeno hanno in serbo qualche modo per far sì che il superamento del quantitativo montato sulla vga, non abbatta le prestazoni in game :confused:
Boh ci sono parecchi dubbi da chiarire, ma in ogni caso sono davvero curioso di scoprire cosa offriranno le nuove AMD.

Il punto è che i giochi che fin'ora hanno superato i 3 gb di vram in realtà è tutta memoria allocata

sulla 780ti si ferma a 3gb sulle maxwell va oltre perchè appunto ce ne sono montati di più

ma prestazionalmente tra la 780ti e 980 c'è sempre un 5-10% che sia sotto i 3gb di vram usata o che sia sopra..
the witcher 3 sta sotto i 3 gb anche in 4k se non ho capito male, per esempio

hrossi
20-05-2015, 10:40
Io boh non saprei davvero...cioè già oggi ci sono giochi che vanno oltre i 4giga di Vram allocata in 4K, e se contiamo che bene o male in futuro andremo tutti a parare su quella risoluzione imho per una VGA che esce ora ne vorrei almeno 6...che poi tutto di un colpo ora gli 8Gb sono inutili? E le varie 290x uscite con quel quantitativo di memoria che cos'erano?
Ok i 12 Gb delle Titan X sono inutili, ma 4 mi sembrano un po' pochini per una scheda che esce sul mercato come king of the hill :asd: in 4K

Concordo, dato l'aumento di risoluzione dei monitor le schede video in uscita a metà 2015 dovrebbero essere dotate di 6 o 8 gb a seconda del bus, non meno. :mano:

Per il grafico, ma siamo sicuri che non sia il solito grafico con bench e specifiche basate sul nulla? :mbe:

Hermes

MrBrillio
20-05-2015, 10:41
Sarebbe da provare Shadow of Mordor su una 780 o una 780ti, quello era già sui 4 e passa in 1440p con le texture in ultra :)
Il casino sta nella poca ottimizzazione che mettono i programmatori...non penso che si facciano troppe pippe mentali per il consumo di vram delle schede che faranno girare i loro giochi.

mircocatta
20-05-2015, 10:49
Con questi valori sarebbe in tutti e 4 i giochi un pochino davanti alla TitanX..
Ma di pochissimi frames.

Se la piazzano a 699$ ha senso, di più iniziera ad essere qualcosa di poco conto a livello di vendite imho.

ps.
Con una 390 liscia superiore alla 980, a 549$.

di poco? la titan X è mediamente il 45% in più della 290x
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan_X/29.html

quel grafico mostra una media del 55% in più rispetto alla 290x, ci sarebbe un 10% e non so se quel grafico di techpowerup mostra la 290X in versione uber o silent


Sarebbe da provare Shadow of Mordor su una 780 o una 780ti, quello era già sui 4 e passa in 1440p con le texture in ultra :)
Il casino sta nella poca ottimizzazione che mettono i programmatori...non penso che si facciano troppe pippe mentali per il consumo di vram delle schede che faranno girare i loro giochi.

guarda il grafico di techpowerup
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan_X/29.html
e vedi le differenze tra fullhd e 4k...la distanza tra una titanX e una 980/780 o addirittura una 7970 3gb non varia al variare della res,il che vuol dire che la vram non incide neanche in 4k... e nel test abbiamo watch dogs, facry4, shadow of mordor, ryse..tutti giochi che "usano" oltre i 3/4gb..se li hai...


incomincio a pensare che tutti i giochi che sforano i 3gb sia solo una questione di memoria allocata..la occupa perchè c'è, ma non perchè viene usata....a questo punto tanto vale una vga 3gb, l'importante è che la vram sia veloce (ricordare il caso 970..che superando i 3,5gb tutta la memoria si rallenta)

MrBrillio
20-05-2015, 10:57
guarda il grafico di techpowerup
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan_X/29.html
e vedi le differenze tra fullhd e 4k...la distanza tra una titanX e una 980/780 o addirittura una 7970 3gb non varia al variare della res,il che vuol dire che la vram non incide neanche in 4k... e nel test abbiamo watch dogs, facry4, shadow of mordor, ryse..tutti giochi che "usano" oltre i 3/4gb..se li hai...


No aspe, io non parlo di quantità fps che gestisce la vga, ma di come li gestisce..se sfori la quantità di vram che hai inizi a stutterare.

FroZen
20-05-2015, 11:21
Wolfenstein maxato a 2560 mi ALLOCAVA 4,2gb di vram... Avessi avuto una 3gb ne avrei visti 3,1 e non avrei avuto stuttering scommetto, lo stuttering interviene se il gioco realmente usa e non solo alloca...

La 290x ref va dal 50% in meno in fullhd fino a un meno 40% in 4k rispetto alla titan x, ovvero hawaii scala meglio alle alte risoluzioni ( e si sa da quasi due anni) anche rispetto a maxwell..

Dimonios
20-05-2015, 11:27
guarda il grafico di techpowerup
https://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan_X/29.html
e vedi le differenze tra fullhd e 4k...la distanza tra una titanX e una 980/780 o addirittura una 7970 3gb non varia al variare della res,il che vuol dire che la vram non incide neanche in 4k... e nel test abbiamo watch dogs, facry4, shadow of mordor, ryse..tutti giochi che "usano" oltre i 3/4gb..se li hai...


incomincio a pensare che tutti i giochi che sforano i 3gb sia solo una questione di memoria allocata..la occupa perchè c'è, ma non perchè viene usata....a questo punto tanto vale una vga 3gb, l'importante è che la vram sia veloce (ricordare il caso 970..che superando i 3,5gb tutta la memoria si rallenta)

Dipende sempre dai giochi. ;)

Qui la differenza tra 4GB e 8GB si sente a 5760x1080 (= 3 monitor FullHD): http://www.bitsandchips.it/enterprise-business/9-hardware/4939-sapphire-r9-290x-vapor-x-con-8gb-di-memoria-video-onboard

http://www.bitsandchips.it/images/2014/11/06/8gb/triple/3.png

http://www.bitsandchips.it/images/2014/11/06/8gb/triple/5.png

Heimdallr
20-05-2015, 13:08
Concordo, dato l'aumento di risoluzione dei monitor le schede video in uscita a metà 2015 dovrebbero essere dotate di 6 o 8 gb a seconda del bus, non meno. :mano:

Per il grafico, ma siamo sicuri che non sia il solito grafico con bench e specifiche basate sul nulla? :mbe:

Hermes

scusate ma di che aumento di risoluzione parlate?
A leggere qua dentro sembra che giochino tutti in 4K, vorrei sapere in quanti di quelli che vogliono 8GB hanno un monitori 4K.
La gente comincia ora a passare a 1440p e comunque stanno ancora quasi tutti a 1080p.

mircocatta
20-05-2015, 13:16
Dipende sempre dai giochi. ;)

Qui la differenza tra 4GB e 8GB si sente a 5760x1080 (= 3 monitor FullHD): http://www.bitsandchips.it/enterprise-business/9-hardware/4939-sapphire-r9-290x-vapor-x-con-8gb-di-memoria-video-onboard

http://www.bitsandchips.it/images/2014/11/06/8gb/triple/3.png

http://www.bitsandchips.it/images/2014/11/06/8gb/triple/5.png

vero, ma è ingiocabile per entrambe le schede :asd: e lo sarebbe anche con una titanX direi

°Phenom°
20-05-2015, 13:26
Per me andrebbe più che bene anche 4gb, tanto dovrei passare ad un 2560x1440 freesync, ed i giochi che tengo attualmente in downsampling a 2560x1600 non mi danno alcun tipo di problema

hrossi
20-05-2015, 13:29
scusate ma di che aumento di risoluzione parlate?
A leggere qua dentro sembra che giochino tutti in 4K, vorrei sapere in quanti di quelli che vogliono 8GB hanno un monitori 4K.
La gente comincia ora a passare a 1440p e comunque stanno ancora quasi tutti a 1080p.

Pensa che io sono ancora under HD, e non intendo FHD ma proprio HD, però quest'estate se tutto va bene cambio totalmente macchina (e6850 + 8800gt) e passo ad un 27" wqhd. Una scheda 6/8 giggi a seconda del bus non mi dispiacerebbe, specie considerando quanto male siano ottimizzati i giochi odierni. :D

Hermes

Dimonios
20-05-2015, 13:30
vero, ma è ingiocabile per entrambe le schede :asd: e lo sarebbe anche con una titanX direi

Sono schede da utilizzare in CF o SLI, mica singole. :D

Heimdallr
20-05-2015, 13:35
Pensa che io sono ancora under HD, e non intendo FHD ma proprio HD, però quest'estate se tutto va bene cambio totalmente macchina (e6850 + 8800gt) e passo ad un 27" wqhd. Una scheda 6/8 giggi a seconda del bus non mi dispiacerebbe, specie considerando quanto male siano ottimizzati i giochi odierni. :D

Hermes

Si per carità, se posso avere 6/8GB tanto meglio, ma se la fanno da 4GB e ci risparmio qualche euro a comprarla per me è meglio.
Anche io sono su un 27'' 1440p e non sento proprio il bisogno di avere pià di 4GB, tanto in 4K mi dovrei comprare 3 schede video per giocare bene :D

Il nabbo di turno
20-05-2015, 13:37
La cosa che mi stupisce e allo stesso tempo mi inquieta è il consumo della vram.
http://www.techpowerup.com/reviews/Performance_Analysis/The_Witcher_3/3.html
Il problema è che anche se si ha un consumo non esagerato, le performance in full hd sono deludenti, sia per nvidia che per amd.

MrBrillio
20-05-2015, 14:08
Si per carità, se posso avere 6/8GB tanto meglio, ma se la fanno da 4GB e ci risparmio qualche euro a comprarla per me è meglio.
Anche io sono su un 27'' 1440p e non sento proprio il bisogno di avere pià di 4GB, tanto in 4K mi dovrei comprare 3 schede video per giocare bene :D

Beh è una scheda di fascia enthusiast la 390X, e come tale si propone come scheda 4k ready (è la stessa AMD a sponsorizzarla così eh..anche se sbandierano sta risoluzione dal rilascio della 290x), probabilmente verrà acquistata da un sacco di gente che ha già dei pannelli del genere o che sta per fare il "salto".
Io in primis sto per passare ad un'eventuale 3440x1440, e avere una bella AMD che regga quella risoluzione senza batter ciglio mi riporterebbe in rosso in tempo zero.
Poi condivido a pieno quello che dici dicendo che molti ora stanno passando ai 2k e la maggior parte usa ancora il fullhd, ma è semplicemente una questione di potenza che manca a gestire pannelli del genere, ci fosse una bestiola che piloti tranquillamente 2K e 4K probabilmente farebbe aumentare anche le vendite di quei monitor senza star li a mettere in conto uno sli/cf per giocarci bene.

devil_mcry
20-05-2015, 14:22
Secondo me ad oggi non c'è nessuna VGA realmente 4K ready. Anche la Titan X in 4K non arriva quasi mai a fare 60fps medi su giochi nemmeno troppo recenti.

Credo che ci vorrà ancora 1-2 generazioni di VGA per avere una scheda davvero 4K ready

Raven
20-05-2015, 14:29
avere una bella AMD che regga quella risoluzione
senza batter ciglio mi riporterebbe in rosso in tempo zero.

:mbe:

Goditi per un po' la titan x, vah, prima di pensare già a cambiarla (con una 390x, poi?!?!)... ;)

MrBrillio
20-05-2015, 14:41
:mbe:

Goditi per un po' la titan x, vah, prima di pensare già a cambiarla (con una 390x, poi?!?!)... ;)

Ma ovviamente ci penserò su 1000 volte...dipende tutto dai monitor 21:9 che usciranno con gsync/freesync :stordita:
Ormai il cambio per qualcosa di simile lo evito, ma se il prezzo delle AMD dovesse essere davvero basso (seeee come no) converebbe farsi un CF di quelle piuttosto che uno SLi di Titan X in previsione della maggior risoluzione....anche se personalmente ragazzi sto provicchiando un po' il dsr con la titanozza e gira bene senza inutili filtri..quindi potrei per assurdo essere già a posto così fino a Pascal :D

Moreno Morello
20-05-2015, 14:46
Quali tra le nuove amd che usciranno a giugno saranno sulla fascia dei 350 euro?

devil_mcry
20-05-2015, 14:47
Quali tra le nuove amd che usciranno a giugno saranno sulla fascia dei 350 euro?

Quelle che già adesso sono su quella fascia :D

L'equivalente delle 290x

Moreno Morello
20-05-2015, 14:50
Quelle che già adesso sono su quella fascia :D

L'equivalente delle 290x

Sarebbe? La 380x?

FroZen
20-05-2015, 14:50
Ma poi ha senso con monitor async avere sta fissa per i 60?

mircocatta
20-05-2015, 14:58
Ma poi ha senso con monitor async avere sta fissa per i 60?

infatti
meglio 90-60-90

davo30
20-05-2015, 16:29
scusate ma di che aumento di risoluzione parlate?
A leggere qua dentro sembra che giochino tutti in 4K, vorrei sapere in quanti di quelli che vogliono 8GB hanno un monitori 4K.
La gente comincia ora a passare a 1440p e comunque stanno ancora quasi tutti a 1080p.

Quotone grosso come una casa!

Raven
20-05-2015, 17:45
http://www.ocaholic.ch/modules/news/article.php?storyid=12470

http://forum.tgmonline.it/images/smilies/crasd.gif

devil_mcry
20-05-2015, 18:00
http://www.ocaholic.ch/modules/news/article.php?storyid=12470

http://forum.tgmonline.it/images/smilies/crasd.gif

Io dico solo che, al di la del fatto che tutti i siti rimpallano lo stesso rumor, se fosse vero (e credo che sia quantomeno ragionevole, per tante ragioni, a partire dal chippone per finire alle RAM esotiche) la situazione è una merda, si è tornati a 15-20 anni fa quasi quando le GPU costavano qualcosa come 1 milione e 600 mila lire (cifra che ricordo per una Geffo 256 DDR)

FroZen
20-05-2015, 18:11
Basta non comprarle :fagiano:

Il nabbo di turno
20-05-2015, 18:13
Io dico solo che, al di la del fatto che tutti i siti rimpallano lo stesso rumor, se fosse vero (e credo che sia quantomeno ragionevole, per tante ragioni, a partire dal chippone per finire alle RAM esotiche) la situazione è una merda, si è tornati a 15-20 anni fa quasi quando le GPU costavano qualcosa come 1 milione e 600 mila lire (cifra che ricordo per una Geffo 256 DDR)

Mai udito parole più vere!!

devil_mcry
20-05-2015, 18:18
Basta non comprarle :fagiano:

Io di certo non le compro, trovo assurdo spendere 1000+€ in una GPU come in una CPU, però è un problema perchè tra una cosa e l'altra hanno rallentato di brutto il tutto il settore delle GPU.

Con nVidia che ora usa la GPU di fascia media (XY4) per una gen e il chippone (XY0) per l'altra e AMD che ribrandizza la vecchia GEN (alcune per due) e propone CHIP sempre più grossi perchè fondamentalmente quella è l'architettura, non la cambiano, e quello è l'unico modo per salire di performance (ma più un DIE è grosso in mm^2 più costa) la strada ha preso una brutta piega.

Se ora lo fanno per causa di forze maggiore (il PP nuovo non c'è), domani lo faranno per mangiare più soldi possibile

FroZen
20-05-2015, 19:21
Bhe.... Chi ha fissato il tetto dei 999$ in campo gpu gaming si sa chi è.... Un competitor sta sotto quel tetto... Se no non sarebbe un competitor ma il leader...

Il nabbo di turno
20-05-2015, 19:24
Se anche AMD alza così i prezzi, siamo rovinati :eek:

Oltretutto a quella cifra dovrebbe mettere la versione da 8GB, e non da 4GB, utili o meno che siano...

Ci pensa già la 980 ad essere sovraprezzata, dato che ci sono versioni da 800 euro, ma un po' in generale le Nvidia...

Vedremo almeno le prestazioni, per capirne il reale valore ;)

Se vende possono pure tenerla a quel prezzo, meglio per loro.
L'errore è stato preferire da parte degli utenti una 980 ad una 970, una 290x ad una 290, una 780 ti rispetto ad una 780...

°Phenom°
20-05-2015, 19:31
Sicuramente se non avrá un prezzo onesto puó rimanere li dov'é anche per me, giá basta nvidia con la sua politica truffaldina, ci si mette anche amd, stiamo apposto :asd:

francisco9751
20-05-2015, 19:33
beh ragazzi se una 390 costa cosi ha anche un suo perché..nuova tecnologia..devono rientrare di anni di costi di ricerca e sviluppo(7anni)..non possono mica regalarle..a maggior ragione se nvidia ha la topgamma a 1200 euro

Tapatalked by LG G3

°Phenom°
20-05-2015, 20:19
Brutta cosa simpatizzare per le verdi visto le inc**ate che propina da un paio di anni a questa parte :asd:

Il nabbo di turno
20-05-2015, 20:25
Brutta cosa simpatizzare per le verdi visto le inc**ate che propina da un paio di anni a questa parte :asd:

Più che altro, l'ipocrisia di certi che si ostinavano a non vedere il problema e tirare avanti come se nulla fosse...

enricoa
20-05-2015, 20:48
Se anche AMD alza così i prezzi, siamo rovinati :eek:

Oltretutto a quella cifra dovrebbe mettere la versione da 8GB, e non da 4GB, utili o meno che siano...

Vedremo almeno le prestazioni, per capirne il reale valore ;)

direi di non fasciarsi la testa prima dell'uscita (oramai manca poco)

e considererei prezzi elevati magari per una dual tipo la 295x
e di lì a scendere

Free Gordon
20-05-2015, 23:08
Le dual potrebbero iniziare ad avere senso dall'autunno un poi, se queste benedette dx12 saranno introdotte a forza, essendo le schede degli ultimi 3 praticamente tutte compatibili....
Magari ci sono già diversi giochi in sviluppo sulla base delle 12...boh vedrem.
Se funzionano per davvero, vedremo le case sviluppare solo più chip piccoli, da duplicare/quadruplicare opportunamente per far salire le prestazioni :oink:

sgrinfia
21-05-2015, 07:19
beh ragazzi se una 390 costa cosi ha anche un suo perché..nuova tecnologia..devono rientrare di anni di costi di ricerca e sviluppo(7anni)..non possono mica regalarle..a maggior ragione se nvidia ha la topgamma a 1200 euro

Tapatalked by LG G3

E 'mica li dobbiamo pagarli noi i loro anni di sviluppo .:asd:

francisco9751
21-05-2015, 08:53
E 'mica li dobbiamo pagarli noi i loro anni di sviluppo .:asd:

non ho mica detto che dobbiamo pagarli nuovi..ma da sempre la tecnologia nuova si paga..ricordo gli ssd per esempio..poi boh..tutti felici di regalare 1200 euro ad nvidia..se ne esce AMD con un nuovo tipo di memoria..e gpu pare performante..ma tutti a far polemica :rolleyes:

ilcose
21-05-2015, 09:21
non ho mica detto che dobbiamo pagarli nuovi..ma da sempre la tecnologia nuova si paga..ricordo gli ssd per esempio..poi boh..tutti felici di regalare 1200 euro ad nvidia..se ne esce AMD con un nuovo tipo di memoria..e gpu pare performante..ma tutti a far polemica :rolleyes:

E' il solito discorso che la gente si abitua in un certo modo. Guarda con i nexus di google. AMD ha sempre venduto gpu alla pari o poco sotto la concorrenza ma con rapporto qualita' prezzo ottimo, ora se ne esce con una (speriamo) gpu della madonna con memorie nuovissime e giustamente questa costera' di piu ma la gente vuole i prezzi di prima.

Poi sono ancora tutte speculazioni in ogni caso sia le performance che i prezzi...

Inviato dal mio SM-T805 utilizzando Tapatalk

Raven
21-05-2015, 10:01
non ho mica detto che dobbiamo pagarli nuovi..ma da sempre la tecnologia nuova si paga..ricordo gli ssd per esempio..poi boh..tutti felici di regalare 1200 euro ad nvidia..se ne esce AMD con un nuovo tipo di memoria..e gpu pare performante..ma tutti a far polemica :rolleyes:

Si fa polemica mica perché vogliamo schede rosse (bleahh!!) ma perché se amd tiene prezzi alti, nvidia non abbasserà di sicuro i suoi! :cry:



:sofico:

mircocatta
21-05-2015, 10:11
1000€ per una scheda che forse andrà più di una titan X ? non vedo dove sia il problema

devil_mcry
21-05-2015, 10:17
Comunque se la metteranno a 859 dollari o 899 non costerà solo 1000€ :D

La Titan X è prezzata 999$ e si trova sui 1300... con il cambio basso e l'IVA i prezzi sono salati

mircocatta
21-05-2015, 10:42
Comunque se la metteranno a 859 dollari o 899 non costerà solo 1000€ :D

La Titan X è prezzata 999$ e si trova sui 1300... con il cambio basso e l'IVA i prezzi sono salati
mah, io la titan X la vedo anche sotto i 1000€

secondo me inizialmente saremo sui 930€ per poi scendere sui 859€ a breve!

se invece si trovasse a meno di 800€...la pazzia la faccio e svendo il mio sli di 970 in barba a pcars e hairworks :sofico:

FroZen
21-05-2015, 10:44
Vabbè se non è 900 sara 850, non cambia molto.....

Trokji
21-05-2015, 10:45
Se scatterà l'ulteriore scatto sull'IVA non sarà finita. Di buono c'è che rispetto a qualche tempo fa anche con schede di fascia media si riesce a mandare decentemente la maggior parte dei giochi, certo bisogna rinunciare a risuluzioni hyper ed a filtri. Visto oggi su amazon e le 970 sono salite di decine di euro.. in confronto le schede di AMD adesso sono convenienti, ma non tanto perché siano diminuite particolarmente ma perché sono restate vicine ai prezzi iniziali

devil_mcry
21-05-2015, 10:57
Se scatterà l'ulteriore scatto sull'IVA non sarà finita. Di buono c'è che rispetto a qualche tempo fa anche con schede di fascia media si riesce a mandare decentemente la maggior parte dei giochi, certo bisogna rinunciare a risuluzioni hyper ed a filtri. Visto oggi su amazon e le 970 sono salite di decine di euro.. in confronto le schede di AMD adesso sono convenienti, ma non tanto perché siano diminuite particolarmente ma perché sono restate vicine ai prezzi iniziali

In realtà se giochi a 1080p/1440p conviene la 970 sia per prezzo che per prestazioni rispetto alla 290x. Costa meno e a 1080p è più veloce (a 1440p sono in media uguale).

Le 290x costano praticamente 20€ in media in più delle 970, con 350e su amazon prendi un modello overcloccato di fascia alta per le 970, mentre l'equivalente AMD (vapor x, tri-x o altre) costano di più su Amazon e anche fuori non cambia molto.

Comunque è vero, fortunatamente (ma ormai è da anni) che prendendo una vga sulla fascia dei 300-350€ giochi a tutto maxato subito (eccetto le solite eccezioni) e sei a posto per 2 annetti

Vul
21-05-2015, 11:37
Con questi valori sarebbe in tutti e 4 i giochi un pochino davanti alla TitanX..
Ma di pochissimi frames.

Se la piazzano a 699$ ha senso, di più iniziera ad essere qualcosa di poco conto a livello di vendite imho.

ps.
Con una 390 liscia superiore alla 980, a 549$.

e certo, titan x a 1200, tutti a fare la fila. ma se la 390x va di più e costa più di 700 è un fail.

che mentalità.

Vul
21-05-2015, 11:47
Mai udito parole più vere!!

si ma il paragone è senza senso.

all'epoca le schede video costavano tanto di default e le differenze erano abissali.

Ora la gente spende 7-800 ero di bonus per schede che vanno il 40 % più in veloce.

La fascia ultra enthusiast all'epoca non esisteva.

Io personalmente compro come se le schede oltre i 5-600 euro non esistessero.

Non portano tecnologie nuove o chissà che altro.

Prendono la stessa architettura che usano sulle schede di fascia normale (anche costosa) e ne fanno un chip il 50 % più grande mettendoci una ram spropositata e ci sono i fessi che se le comprano consci che tanto 4 mesi dopo le stesse performance le hanno a metà del prezzo.

Tra l'altro considerando l'andazzo di amd e nvidia ad abbandonare le ex ultra top di gamma in balia di se stesse e neanche supportarle più adeguatamente ormai non c'è neanche più la scusa del future proof neanche per 2-3 annetti.

mircocatta
21-05-2015, 11:51
In realtà se giochi a 1080p/1440p conviene la 970 sia per prezzo che per prestazioni rispetto alla 290x. Costa meno e a 1080p è più veloce (a 1440p sono in media uguale).

Le 290x costano praticamente 20€ in media in più delle 970, con 350e su amazon prendi un modello overcloccato di fascia alta per le 970, mentre l'equivalente AMD (vapor x, tri-x o altre) costano di più su Amazon e anche fuori non cambia molto.

Comunque è vero, fortunatamente (ma ormai è da anni) che prendendo una vga sulla fascia dei 300-350€ giochi a tutto maxato subito (eccetto le solite eccezioni) e sei a posto per 2 annetti

una 290x trix (339€ eprice, a livello amazon quasi) costa meno di una 970 msi eh (370€ su amazon)..

devil_mcry
21-05-2015, 12:01
una 290x trix (339€ eprice, a livello amazon quasi) costa meno di una 970 msi eh (370€ su amazon)..

Su Eprice veniva 349 ieri, oggi hanno abbassato i prezzi, non lo sapevo. Il problema però è che quel modello è liscio, su Amazon prendi a 355 la Gigabyte G1 che oltre ad essere uno dei modelli più spinti, è un'ottima scheda dal punto di vista tecnico (infatti su questo forum mi sa che comprano quasi solo la G1), mentre altro ieri a 342 si prendeva la Strix che anche quella è un modello OC e rulla bene (visto che si parla di offerte)

FroZen
21-05-2015, 12:22
I modelli oc hanno maggior senso con nvidia x via del bios modificato con tdp maggiorati, su amd basta muovere una slide.... le reference nvidia sono inadatte ad oc daily mentre su amd vabbè è come se non esistessero :asd: non sarei tranquillo sapendo che ho 500mb a 22gb di banda sulla 970.... Al solito oggi vanno bene tra sei mesi si iniziano a disattivare le famose "feature" (chi ha detto hairworks?! Cough cough)...sperando poi di beccare la versione giusta dei driver settimanali di nvidia :asd:

devil_mcry
21-05-2015, 12:29
I modelli oc hanno maggior senso con nvidia x via del bios modificato con tdp maggiorati, su amd basta muovere una slide.... le reference nvidia sono inadatte ad oc daily mentre su amd vabbè è come se non esistessero :asd: non sarei tranquillo sapendo che ho 500mb a 22gb di banda sulla 970.... Al solito oggi vanno bene tra sei mesi si iniziano a disattivare le famose "feature" (chi ha detto hairworks?! Cough cough)...sperando poi di beccare la versione giusta dei driver settimanali di nvidia :asd:

In realtà basta flashare il BIOS e metti cosa vuoi, cosa che facevo anche su AMD, mentre per le schede in se sulle 290x ne puoi prendere 2-3 modelli mentre invece le 970 tranne 2-3 modelli vanno tutte bene.

Per i driver, io non sono un fanatico del cambio continuo, ma se dobbiamo parlare di driver imho per quanto nVidia non sia perfetta su AMD c'è ne da dire... Hanno fatto tanto marketing sugli omega e poi http://www.tweaktown.com/tweakipedia/64/amd-catalyst-omega-performance-analysis-radeon-r9-290x-1080p/index.html

Non c'è tanto da ridere... Per la RAM è vero che non ha 4GB veri, è anche vero che quando ci sono 4GB di RAM usata ste schede (970 o 290x) fanno 20-30fps quindi...

Il nabbo di turno
21-05-2015, 13:00
Comunque se la metteranno a 859 dollari o 899 non costerà solo 1000€ :D

La Titan X è prezzata 999$ e si trova sui 1300... con il cambio basso e l'IVA i prezzi sono salati

La titan x su amazon con 1100 euro la prendo, più di 1000 per la radeon no di sicuro.
Comunque se costa 800/900 euro con soli 4gb di vram, sono il primo a dargli contro, per il semplice fatto che 4gb di vram in 4k non bastano con certi titoli.

Vul
21-05-2015, 13:02
La titan x su amazon con 1100 euro la prendo, più di 1000 per la radeon no di sicuro.


Ovvio, neanche sai come va ma a prescindere non la prendi.

Ma perchè frequentate questa discussione?

Comunque se la metteranno a 859 dollari o 899 non costerà solo 1000€ :D

La Titan X è prezzata 999$ e si trova sui 1300... con il cambio basso e l'IVA i prezzi sono salati


Infatti si trova anche a meno di 1000 la titan x.

FroZen
21-05-2015, 13:11
Gli omega a detta di tutti sono i migliori ad oggi anche perche gli unici a parte i due beta di aprile e l'imminente che arriva x tw3 e pcars :asd: ... basta guardare review delle titan x dove ci sono le rosse con omega o 15.4 .... Cmq tu hai una maxwell ora, la mia frecciatina ai driver nvidia era riferito alke ex top di gamma kepler sulle quali santa clara ci sta defecando sopra...su amd mai moddato un bios, mai sentita l esigenza...

appleroof
21-05-2015, 13:22
E 'mica li dobbiamo pagarli noi i loro anni di sviluppo .:asd:

E chi la paga? La ricerca e sviluppo è una parte consistente delle spese di un' azienda ancor più quando tecnologica, è vitale perché senza di essa non avremmo prodotti sempre più sofisticati ed evoluti, e più un'azienda investe in quello più è probabile che riceva risultati positivi in termini di efficacia dei propri prodotti (a volte anche se la ricerca in sé fallisce parte di essa può essere utile per un altro prodotto/servizio etc)

È chiaro che i soldi per investire in r&s li prende perlopiù dai propri guadagni, quindi tipicamente quota parte del prezzo dei prodotti o meglio del margine di guadagno sui prodotti

Questo in generale per tutto dalle cpu alle vga alle ram etc, quondi non riferito a Titan e al di là se è vero o meno che la 390x costerà quanto vociferato, solo per dire che francisco9751diceva una cosa secondo do me sostanzialmente giusta

Il nabbo di turno
21-05-2015, 13:22
Ovvio, neanche sai come va ma a prescindere non la prendi.

Ma perchè frequentate questa discussione?


Mica ho detto che non la prendo se costa 1000 euro, ho detto che la titan x si trova a 1100 euro, e se il prezzo di 850 dollari fosse confermato, non supererebbe comunque i 1000 euro.

devil_mcry
21-05-2015, 13:26
Gli omega a detta di tutti sono i migliori ad oggi anche perche gli unici a parte i due beta di aprile e l'imminente che arriva x tw3 e pcars :asd: ... basta guardare review delle titan x dove ci sono le rosse con omega o 15.4 .... Cmq tu hai una maxwell ora, la mia frecciatina ai driver nvidia era riferito alke ex top di gamma kepler sulle quali santa clara ci sta defecando sopra...su amd mai moddato un bios, mai sentita l esigenza...

Boh io come ti dicevo non aggiorno spesso i driver (anzi rimango sempre indietro di diversi mesi e lo faccio solo quando un gioco nuovo va particolarmente male e in quel caso è sempre servito) però in generale non mi sono mai trovato malissimo.

Per il BIOS io invece l'ho sempre flashato :D. Di solito provo via sw l'OC che voglio poi mi faccio il BIOS moddato e via :P

devil_mcry
21-05-2015, 13:29
Ovvio, neanche sai come va ma a prescindere non la prendi.

Ma perchè frequentate questa discussione?




Infatti si trova anche a meno di 1000 la titan x.

Infatti ci sono solo 2 negozi di cui uno sconosciuto e uno da evitare che la vendono sotto i 1000, lo stesso sconosciuto la mette a 1010 e poi partono subito a 1100-1150 mentre i negozi più seri sono sui 1200

°Phenom°
21-05-2015, 13:41
e certo, titan x a 1200, tutti a fare la fila. ma se la 390x va di più e costa più di 700 è un fail.

che mentalità.

Non hai capito il senso, ad esempio per me spendere 1000 e passa euro per una gpu é una cosa inconcepibile a prescindere che sia nvidia, amd o pincopallino, visto che non ho mai speso più di 500 euro per una vga perché giá é pure troppo per un componente hardware che invecchia e si svaluta così in fretta. Poi che nvidia venda schede così sovraprezzate é perche conosce bene i suoi polli, ma della gente che le compra a me non frega nulla, ognuno é libero libero di fare ció che vuole, con le dovute conseguenze che ció ha portato in questo mercato. Io personalmente pur non avendo problemi economici, per principio non mi faccio infinocchiare e prendere per il culo quando mi sparano schede come titan x, titan z e tutte ste porcate varie, che costano un occhio della testa e poi un paio di mesi dopo vengono superate da schede che costano quasi la metá. Ovviamente questo vale anche per amd, se mi tira una vga a quasi 900 euro se la puó tenere ammenocché non doppi le performance delle schede attuali, quindi cosa impossibile.
Comunque si, la 390x per me sará un fail a quasi 1k di euro, come lo é a maggior raggione la titan x.

Ludus
21-05-2015, 13:42
Gli omega a detta di tutti sono i migliori ad oggi anche perche gli unici a parte i due beta di aprile e l'imminente che arriva x tw3 e pcars :asd: ... basta guardare review delle titan x dove ci sono le rosse con omega o 15.4 .... Cmq tu hai una maxwell ora, la mia frecciatina ai driver nvidia era riferito alke ex top di gamma kepler sulle quali santa clara ci sta defecando sopra...su amd mai moddato un bios, mai sentita l esigenza...

ma questi driver nuovi per pcars e tw3 quando cavolo escono ?? è da 3 giorni che dovevano uscire e ancora niente..

amd dovrebbe comunque imparare a far uscire i driver in coincidenza dei titoli tripla A e non dopo..

°Phenom°
21-05-2015, 13:50
Quelli per gta sono usciti subito, probabilmente per pc cars e tw3 essendo giochi nvidia, amd ci sta mettendo più del previsto a cercare di ottimizzare il possibile

sgrinfia
21-05-2015, 13:51
Ragazzi non per farvi i conti in tasca per carità , ognuno con i propri soldi ci fa quello che vuole però , 1000 euro ,850 euro .dai ma chi li do a Invidia ? ad Amd ? , ma che state fuori come i balconi :doh: , Ma con 1000 euro lo sai quante pizze e ciulatine ci scappano.........:asd: :asd:

Vul
21-05-2015, 13:57
Ma ognuno ha diversi budget e si diverte in maniera differente. Siamo su hwupgrade in fondo.

Però discorsi tipo "ho speso 1000 euro per una titan ora una 970 va più veloce e costa 300 euro un anno dopo vergogna nvidia" non li posso proprio vedere.

Come se fosse una novità che il valore delle schede più costose le prendi e più brutalmente cala.

Chi si fosse comprato una 7970 4 anni fa a 300 euro circa anncora oggi la piazzerebbe a 170 circa.

Ma chi si fosse comprato le titan, 780ti, 290x, specie al lancio?

Il future proof non è mai esistito. Ben vengano persone che spendano 1000 euro per una scheda video se se lo possono permettere.

Heimdallr
21-05-2015, 13:57
Ragazzi non per farvi i conti in tasca per carità , ognuno con i propri soldi ci fa quello che vuole però , 1000 euro ,850 euro .dai ma chi li do a Invidia ? ad Amd ? , ma che state fuori come i balconi :doh: , Ma con 1000 euro lo sai quante pizze e ciulatine ci scappano.........:asd: :asd:

Premetto che io per la prossima scheda vorrei spendere massimo 450€ e di sicuro non arrivo a 800-1000€, alla fine c'è gente con la passione e compra anche sapendo che economicamente non è vantaggioso.
C'è chi spende migliaia di euro per lo stereo in macchina, magari per tanti qua dentro è più stupido quello :sofico:

Il nabbo di turno
21-05-2015, 13:59
Mah, io più di 200 euro non ne spenderei...

magnusll
21-05-2015, 14:02
Però discorsi tipo "ho speso 1000 euro per una titan ora una 970 va più veloce e costa 300 euro un anno dopo vergogna nvidia" non li posso proprio vedere.


Non facciamo finta di non capire please... qua l' incazzatura che gira non e' dovuta alla normale obsolescenza ma a quella che appare come una manovra specificamente mirata a far invecchiare le schede anche prima del solito mediante mancata ottimizzazione driver / implementazione di "feature" mirate appositamente a mettere le schede di passata generazione col culo per terra senza nessun miglioramento grafico effettivo (vedasi la storia dell' Hairworks che setta automaticamente la tassellazione a palla uccidendo le Kepler mentre paradossalmente le AMD vecchie vanno meglio perche' puoi limitare la tassellazione direttamente da driver).

Va bene tutto ma una Titan che va come una 960 non e' giustificabile tramite normale obsolescenza.

sgrinfia
21-05-2015, 14:03
Premetto che io per la prossima scheda vorrei spendere massimo 450€ e di sicuro non arrivo a 800-1000€, alla fine c'è gente con la passione e compra anche sapendo che economicamente non è vantaggioso.
C'è chi spende migliaia di euro per lo stereo in macchina, magari per tanti qua dentro è più stupido quello :sofico:

L uomo vive di passioni....si ma ci vuole anche un pizzico di etjca.

°Phenom°
21-05-2015, 14:12
Ma infatti ho detto che ognuno puó fare ció che vuole, ed é giusto sia così, ma poi é inutile lamentarsi dei prezzi spropositati quando siamo noi stessi utenti a decidere il mercato ed andare sempre a finire in questi discorsi. Comunque la mia risposta era al fatto che Vul diceva che amd se fa prezzi alti la gente si lamenta mentre se fa lo stesso nvidia nessuno parla. É così semplicemente perché per chi acquista solo nvidia, sa giá che i prezzi saranno più alti rispetto al vero valore, mentre chi acquista amd ovviamente non é abituato generalmente a una cosa del genere, però mica si é forzati ad acquistare, se vuoi la prendi, sennó la lasci, dov 'é il problema.

FroZen
21-05-2015, 15:33
ma questi driver nuovi per pcars e tw3 quando cavolo escono ?? è da 3 giorni che dovevano uscire e ancora niente..

amd dovrebbe comunque imparare a far uscire i driver in coincidenza dei titoli tripla A e non dopo..

Tw3 va bene sulle amd, l unica cosa a cui stare attenti è l'hairworks che si puó twekkare via ccc come ho postato nel thread tecnico... Pcars invece deve essere fixata la pioggia e x quello ci vuole un driver (cmq dicono che su win10 giri molto meglio).... Sono tutti titoli twimtbp x cui amd ci puo lavorare da dopo l uscita, un po' come nvidia dovette fare con il tressfx di TR....

Pelvix
21-05-2015, 15:40
Tw3 va bene sulle amd, l unica cosa a cui stare attenti è l'hairworks che si puó twekkare via ccc come ho postato nel thread tecnico... Pcars invece deve essere fixata la pioggia e x quello ci vuole un driver (cmq dicono che su win10 giri molto meglio).... Sono tutti titoli twimtbp x cui amd ci puo lavorare da dopo l uscita, un po' come nvidia dovette fare con il tressfx di TR....

non ho capito cosa bisogna fare :help:

Heimdallr
21-05-2015, 15:43
L uomo vive di passioni....si ma ci vuole anche un pizzico di etjca.

Parlare di etica mi pare fuori luogo in questo caso, utilizzerei la parola giudizio piuttosto.

Compulsion
21-05-2015, 16:02
Non hai capito il senso, ad esempio per me spendere 1000 e passa euro per una gpu é una cosa inconcepibile a prescindere che sia nvidia, amd o pincopallino, visto che non ho mai speso più di 500 euro per una vga perché giá é pure troppo per un componente hardware che invecchia e si svaluta così in fretta. Poi che nvidia venda schede così sovraprezzate é perche conosce bene i suoi polli, ma della gente che le compra a me non frega nulla, ognuno é libero libero di fare ció che vuole, con le dovute conseguenze che ció ha portato in questo mercato. Io personalmente pur non avendo problemi economici, per principio non mi faccio infinocchiare e prendere per il culo quando mi sparano schede come titan x, titan z e tutte ste porcate varie, che costano un occhio della testa e poi un paio di mesi dopo vengono superate da schede che costano quasi la metá. Ovviamente questo vale anche per amd, se mi tira una vga a quasi 900 euro se la puó tenere ammenocché non doppi le performance delle schede attuali, quindi cosa impossibile.
Comunque si, la 390x per me sará un fail a quasi 1k di euro, come lo é a maggior raggione la titan x.

io da oggi ho un nuovo idolo ;)

poveri polli, son tanto buoni :D

FroZen
21-05-2015, 16:08
non ho capito cosa bisogna fare :help:

Intendi per ridurre la tessellazione del hairshit?! Ti crei un profilo nel ccc personalizzato per il gioco puntando al exe, e modifichi l'ultima voce sulla tessellazione mettendo in override a 4 o 8 in base alle prestazioni e al effetto che vuoi ottenere e poi te ne dimentichi...

hrossi
21-05-2015, 17:33
non ho capito cosa bisogna fare :help:

http://s2.postimg.org/eb7qxzxgl/witcher_3_ccc_01_7273cb7173ab06cc5ea772bb805dd8f.jpg (http://postimg.org/image/eb7qxzxgl/)

Cliccaci sopra per vederlo a dimensione ingrandita. :D

Hermes

Vul
21-05-2015, 17:43
Non facciamo finta di non capire please... qua l' incazzatura che gira non e' dovuta alla normale obsolescenza ma a quella che appare come una manovra specificamente mirata a far invecchiare le schede anche prima del solito mediante mancata ottimizzazione driver / implementazione di "feature" mirate appositamente a mettere le schede di passata generazione col culo per terra senza nessun miglioramento grafico effettivo (vedasi la storia dell' Hairworks che setta automaticamente la tassellazione a palla uccidendo le Kepler mentre paradossalmente le AMD vecchie vanno meglio perche' puoi limitare la tassellazione direttamente da driver).

Va bene tutto ma una Titan che va come una 960 non e' giustificabile tramite normale obsolescenza.

d'accordissimo, infatti dopo 10 anni salto direttamente su amd.

a meno che non rebrandizzi nuovamente pitcairn, hawaii e tahiti allora lì mi vedono con il binocolo finchè non offrono qualcosa di nuovo in fascia media.

poi personalmente mi serve una single slot da mettere sul mini itx ma tranne (UN) modello di 750ti sembra non esserci nulla.

Una volta mi pare ci fosse una 7850 single slot, ma son passati 3 anni..

Il nabbo di turno
21-05-2015, 17:47
d'accordissimo, infatti dopo 10 anni salto direttamente su amd.

a meno che non rebrandizzi nuovamente pitcairn, hawaii e tahiti allora lì mi vedono con il binocolo finchè non offrono qualcosa di nuovo in fascia media.

poi personalmente mi serve una single slot da mettere sul mini itx ma tranne (UN) modello di 750ti sembra non esserci nulla.

Una volta mi pare ci fosse una 7850 single slot, ma son passati 3 anni..

Tahiti no di sicuro, forse pitcairn per la 360x, ma già parlano di migliorare hawaii, ci sarà tonga xt e la tonga pro verrà ottimizzata con clock più alti.
Rivoluzioni grosse non ce ne saranno, ma mi aspetto almeno qualche piccolo refresh architetturale per stare al passo con i tempi.

°Phenom°
21-05-2015, 18:08
Purtroppo un rinnovo completo di tutta la gamma si vedrà solo con le r400 e i 16nm

devil_mcry
21-05-2015, 18:13
d'accordissimo, infatti dopo 10 anni salto direttamente su amd.

a meno che non rebrandizzi nuovamente pitcairn, hawaii e tahiti allora lì mi vedono con il binocolo finchè non offrono qualcosa di nuovo in fascia media.

poi personalmente mi serve una single slot da mettere sul mini itx ma tranne (UN) modello di 750ti sembra non esserci nulla.

Una volta mi pare ci fosse una 7850 single slot, ma son passati 3 anni..

Praticamente... Le GPU saranno di sicuro Hawaii per i modelli di fascia medio alta, probabilmente costeranno a metà tra le attuali 4gb e 8gb (le nuove saranno 8gb) con un po' di OC sulla GPU (quei soliti 50MHz)

Verrà usato di nuovo pitcairn e bonaire per la fascia medio bassa e Tonga, questo forse sarà full ma non è detto.

Solo le due fiji saranno gpu nuove se te punti sulla fascia 200€ probabilmente ti becchi di nuovo un rebrand (probabilmente Tonga)

devil_mcry
21-05-2015, 18:13
Purtroppo un rinnovo completo di tutta la gamma si vedrà solo con le r400 e i 16nm

Ma secondo me nemmeno li, vuoi non rebrandizzare almeno una volta fiji? In ricordo dei vecchi tempi XD

Il nabbo di turno
21-05-2015, 18:20
Imho, se amd non scazza fiji, ne vedrò di gente che cambia la 780/780 ti per una 390...
E sarebbe anche ora di mischiare un po' le carte in tavola, visto che certi dicono che amd ha problemi di driver, quando l'ultima ati/amd che hanno avuto risaliva al 15-18.

°Phenom°
21-05-2015, 18:46
Ma secondo me nemmeno li, vuoi non rebrandizzare almeno una volta fiji? In ricordo dei vecchi tempi XD
Guarda non credo sai, per il fatto del cambio pp più che altro

devil_mcry
21-05-2015, 18:53
Guarda non credo sai, per il fatto del cambio pp più che altro

Stavo scherzando in realtà, comunque non lo so, anche io a spanne direi così ma hanno già fatto serie miste con schede di diverso pp quindi boh.

Secondo me tutto si gioca sul discorso performance/watt... Se le schede nuove avranno la stessa architettura sicuramente fiji verrà ribrandizzato perchè aumentare gli shaders a numeri assurdi (oltre i 4K di fiji, che sono già tanti) implicherà comunque GPU grosse e 14nm o meno, che consumeranno.

Se invece le nuove GPU saranno di architettura diversa allora non penso ci saranno rebrand

psychok9
21-05-2015, 18:53
Guardando cosa succede se anche la fascia media ricevere le nuove architetture (vedi nVidia), forse non è male che le "precedenti" schede video, scalino di fascia!
290X > 380X ecc
Almeno non hanno scuse per abbandonare l'ottimizzazione dei driver con i nuovi titoli... :read:

FroZen
21-05-2015, 21:13
Pare sia quasi certo che le hbm 1 possono avere al max 4gb....lanceranno una dual puntando dulle dx12 x la memoria unificata da 8gb totali...

Vul
21-05-2015, 21:26
Ma secondo me nemmeno li, vuoi non rebrandizzare almeno una volta fiji? In ricordo dei vecchi tempi XD

Beh, se lo fanno a 14 nm non mi lamento di certo.

devil_mcry
21-05-2015, 21:30
Beh, se lo fanno a 14 nm non mi lamento di certo.

Non sarebbe un rebrand se fosse un die-shrink :D