PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 [114] 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

Ren
08-07-2016, 21:44
:rolleyes:

in casa nvidia sicuramente....

Nemmeno hai capito cosa volevo dire che già ti girato perchè ti ho toccato la squadra del cuore...:muro:

Legolas84
08-07-2016, 21:44
Al di là del marketing puro e semplice (e quì ci possono stare tutti i proclami del mondo), l'azienda che più in assoluto ha cercato di inc.ulare gli avversari e anche gli utenti purtroppo, è da sempre Nvidia...

Anche AMD l'ha fatto ovviamente, ma con un fattore x/10 rispetto ad Nvidia.

La storia è piena delle furbate di Nvidia, chi si ricorda ad es. dei 3dmark tarocchi..? :asd:

L'ultima è stata la panzana dell'errata comunicazione di marketing interna sui 3.5GB di ram sulla 970.. :asd:

Ma ce n'è una sfilza così eh.

Nvidia fa proprio schifo, da sempre.

Ciò non toglie che abbia fatto e faccia ancora schede migliori di AMD, a seconda del caso (per dire una 980Ti è meglio di una FuryX.. ma preferirei una 380X a una 960)

Guarda che la realtà è che tutti fanno porcate. Le ha fatte anche ATi quando non era ancora AMD.

R300 era un grandissimo chip per il tempo che si beveva sia NV25 che NV30 ma il driver per rimarcare la cosa aveva dei "Filtering Tricks" che, parole dell'epoca: "reduce the amount of work done".

In particolare:

- Reduce Trilinear to Bilinear Filter
- reduce LOD (Use a smaller mipmap)

Questo solo per dire che tutti si sono macchiati di porcate in larga misura.

Bisogna solo avere l'onestà intellettuale di ammetterlo e vederlo.

Quando compro una NVIDIA so benissimo a che tipo di azienda sto dando i miei soldi, ma so anche che per i miei standard non c'è attualmente nulla di meglio.

L'unica che ricordo come onesta è 3dfx, ma all'epoca ero ragazzo e ogni volta che si parlava di 3dfx mi illuminavo, quindi forse ho un ricordo distorto :asd:

Ren
08-07-2016, 21:54
Questo credo sia il GROSSO problema di GCN...come architettura pure graphics..

In AMD devono scegliere. O continuare a rincorrere Fusion... (con pochi o nulli risultati per ora), o dare una sterzata forte in una direzione più specialistica.
Sennò coi consumi non ne escono..

Non serve GCN per portare avanti HSA. Possono benissimo cambiare architettura, ma poi devono spendere tanti soldi in supporto driver, dato che non possono utilizzare le ottimizzazioni(gratis) console.

AMD ha già scelto di spendere poco o niente in Polaris.

Come vedi entrano soldi solo da accordi esclusivi di SOC dove ricevi in regalo CPU o GPU. (console e cinesi)

Se Zen non spacca addio AMD...:muro:

Vul
08-07-2016, 22:01
mee too :eek:

e questo sarebbe il periodo del cambio...bella roba per quelli come me, estorsioni da un lato e fermacarte dall'altro :muro:

Boh, io passo da una 670 da 4gb di cui sono soddisfattissimo pagata 350 euro a una scheda che andrà più del doppio a 250 o meno, non ho molto da lamentarmi (480 o 1060 indifferente..)

Darrosquall
08-07-2016, 22:02
Sì, è vero... :asd: fra 2 o 3 anni..
@1080p DX12

http://imgur.com/BjWJE4T

almeno hai la decenza di non citare, quella che ormai è la BIBBIA, ovvero Ashes of singularity, il gioco più citato e meno giocato della storia :asd:

Gatto, il problema è che in D12 ci sono 3 4 giochi in tutto adesso, e non dico 3 4 giochi a caso, sono 3 4 giochi per davvero :asd:

NODREAMS
08-07-2016, 22:07
Ragazzi, ma la 1080Ti quando dovrebbe uscire?

Vul
08-07-2016, 22:07
almeno hai la decenza di non citare, quella che ormai è la BIBBIA, ovvero Ashes of singularity, il gioco più citato e meno giocato della storia :asd:

Gatto, il problema è che in D12 ci sono 3 4 giochi in tutto adesso, e non dico 3 4 giochi a caso, sono 3 4 giochi per davvero :asd:

Il supporto a vulkan e dx12 è inesorabilmente destinato ad aumentare, non diminuire.

Chi compra una gpu senza l'intenzione di cambiarla tra 9 mesi la vede diversamente da voi hardware enthusiasts.

Ren
08-07-2016, 22:08
Ragazzi, ma la 1080Ti quando dovrebbe uscire?

Tieni pronti più di 1000 euro...:sofico:

egounix
08-07-2016, 22:09
Tieniti pronti più di 1000 euro...:sofico:

Da quel che ho sentito oltre ai soldi vogliono anche una garanzia reale e una personale, quindi se hai casa e un fideiussore stai a posto, altrimenti la 1080ti non te la fanno manco vedere stampata su un volantino :ciapet:

Ren
08-07-2016, 22:11
Da quel che ho sentito oltre ai soldi vogliono anche una garanzia reale e una personale, quindi se hai casa e un fideiussore stai a posto, altrimenti la 1080ti non te la fanno manco vedere stampata su un volantino :ciapet:

:sofico:

http://www.paesaggimutanti.it/files/images/Rene-vendesi.jpg

appleroof
08-07-2016, 22:12
almeno hai la decenza di non citare, quella che ormai è la BIBBIA, ovvero Ashes of singularity, il gioco più citato e meno giocato della storia :asd:

Gatto, il problema è che in D12 ci sono 3 4 giochi in tutto adesso, e non dico 3 4 giochi a caso, sono 3 4 giochi per davvero :asd:

Warhammer, altro titolo sponsorizzato amd (ma i suoi fan sono immuni al marketing), tra l'altro lessi su guru3d che il bench di quel gioco mette l'mlaa (aa di casa amd) non escludibile

Ragazzi, ma la 1080Ti quando dovrebbe uscire?

Per ora i rumors dicono primi 2017

Da quel che ho sentito oltre ai soldi vogliono anche una garanzia reale e una personale, quindi se hai casa e un fideiussore stai a posto, altrimenti la 1080ti non te la fanno manco vedere stampata su un volantino :ciapet:

:asd:

Free Gordon
08-07-2016, 22:15
almeno hai la decenza di non citare, quella che ormai è la BIBBIA, ovvero Ashes of singularity, il gioco più citato e meno giocato della storia :asd:
Gatto, il problema è che in D12 ci sono 3 4 giochi in tutto adesso, e non dico 3 4 giochi a caso, sono 3 4 giochi per davvero :asd:


Ma AoS è un benchmark, non lo prendo manco in considerazione..

Eri tu che parlavi di 2 o 3 anni. ;)

Una 970 che và il 18% in meno di una 390 diretta concorrente (che ricordiamoci è pur sempre una 290 che non throttla, leggermente clockata più in alto... :asd:) cioè una GCN1.1 con architettura di 2 anni più vecchia della 970, in un gioco con un engine tra i più nuovi che esistano...beh, non è un bel risultato da parte di Maxwell.

Che poi la 970 consumi 80W in meno della 390 è un plus niente male eh.. :) ma non facciamo discorsi massimalisti sulle architetture se per ora non si sa manco cosa è dx12 e che cosa no, quanto sono efficaci gli ACE ecc ecc ecc... :read:

Free Gordon
08-07-2016, 22:18
R300 era un grandissimo chip per il tempo che si beveva sia NV25 che NV30 ma il driver per rimarcare la cosa aveva dei "Filtering Tricks" che, parole dell'epoca: "reduce the amount of work done".
In particolare:
- Reduce Trilinear to Bilinear Filter
- reduce LOD (Use a smaller mipmap)
Questo solo per dire che tutti si sono macchiati di porcate in larga misura.

:asd: ripeto, stai guardando la pagliuzza per non vedere la trave..il discorso non cambia.

Lunar Wolf
08-07-2016, 22:19
Nemmeno hai capito cosa volevo dire che già ti girato perchè ti ho toccato la squadra del cuore...:muro:
Mi dispiace ma non ho squadre nel cuore...

... Magari non avrò capito cosa volevi dire ma parlate tutti in codice...

appleroof
08-07-2016, 22:23
Ma AoS è un benchmark, non lo prendo manco in considerazione..

Eri tu che parlavi di 2 o 3 anni. ;)

Una 970 che và il 18% in meno di una 390 diretta concorrente (che ricordiamoci è pur sempre una 290 che non throttla, leggermente clockata più in alto... :asd:) cioè una GCN1.1 con architettura di 2 anni più vecchia della 970 , in un gioco con un engine tra i più nuovi che esistano...beh, non è un bel risultato da parte di Maxwell.

Che poi la 970 consumi 80W in meno della 390 è un plus niente male eh.. :) ma non facciamo discorsi massimalisti sulle architetture se per ora non si sa manco cosa è dx12 e che cosa no, quanto sono efficaci gli ACE ecc ecc ecc... :read:

Sostanzialmente la stessa di polaris...

Sull'engine di nuova gen, sarà pure ma.... http://www.amd.com/en-us/markets/game/featured/total-war-warhammer

Legolas84
08-07-2016, 22:30
:asd: ripeto, stai guardando la pagliuzza per non vedere la trave..il discorso non cambia.

Sto solo dicendo che tutti farebbero qualsiasi cosa per spillarci i nostri soldi e con qualsiasi mezzo. Non dipende dal marchio, e nella natura di tutte le aziende... sono tutte uguali.

egounix
08-07-2016, 22:39
Ma come xxx si fa a guardare la pagliuzza senza vedere la trave, dico, anche se metto a fuoco solo la pagliuzza... Caxxxx brucia!!!!... La trave la intravedo lo stessso... Ah ma tu... Ma tu... Volevi dire se guardo la pagliuzza girato di schiena.... Non vedo pa trave!!!!

Ren
08-07-2016, 22:43
Ma come xxx si fa a guardare la pagliuzza senza vedere la trave, dico, anche se metto a fuoco solo la pagliuzza... Caxxxx brucia!!!!... La trave la intravedo lo stessso... Ah ma tu... Ma tu... Volevi dire se guardo la pagliuzza girato di schiena.... Non vedo pa trave!!!!

Insomma, tipo così...:ciapet:

http://www.informarexresistere.fr/wp-content/uploads/2012/10/pagliuzza.jpg

Darrosquall
08-07-2016, 22:53
Tra l'altro, io ho il problema che i giochi tendo pure a giocarli, e so che i benchmark di creative assembly non rispecchiano MAI le performance reali in gioco. Roba che un gioco ti fa 60 fps nel bench e poi fatica a tenere i 30 con gli eserciti schierati...

Sì, sicuramente in futuro aumenteranno i giochi D12 nativi, ma fra quanto? Ancora per la fine di questo 2016 e almeno metà anno prossimo, è tutto pensato con architettura D11 in testa, e quindi io non penso al futuro prossimo che più prossimo non si può quando compro una scheda video...

mikael84
08-07-2016, 23:42
Io personalmente ho sempre comprato nvidia, ma essendo uno che cambia tutto il pc ogni 4 anni, il supporto che offre nvidia alle proprie vecchie gen è penoso.

Passiamo da un +30% da una gen all'altra alla release che diventa presto +50,60 addiritturà 100 % (guardate kepler versus fermi...).

Con AMD questa cosa non avviene per cui sono fermamente convinto di comprare una 480 custom o una 490 a questa botta (anche perchè parliamoci chiaro 480 giochi a 1080p a tutto davvero maxato, e io con una vetusta 670 non mi lamento).

107 fps ad arkham knight, 70 a bf4, 42 crysis 3, 90 a fallout 4, 60 far cry, 67 gta 5, 60 hitman, 62 rise of tomb raider e parlo di roba tutta maxata ultra con filtri e super filtri.

Un filo di oc e ulteriori migliorie software questa scheda ti dura finchè non passi a monitor 120hz o 1440p (dove comunque se la caverebbe benissimo abbassando qualche dettaglio invisibile ma performance killer).

Detto questo, non capisco il perchè dover fare queste lotte per i brand, mi pare assurdo e triste.

Infatti, però hai demolito nvidia :D per un problema dovuto all'architettura a dipendenze di Kepler.
Questo non significa che Maxwell sarà castrato essendo 1/1 in linea architetturale almeno.
Lo stesso problema di kepler l'aveva la vliw.
http://www.tomshw.it/files/2011/12/immagini/35098/demo-wavefront-queue_t.jpg

Con GCN lo sheduler hardware assegna i wavefront ai vettori, eliminando le dipendenze.
Pascal e maxwell schedulano allo stesso istante i 4 blocchi da 32, senza lasciarne in coda.:)

domenico88
08-07-2016, 23:53
Infatti, però hai demolito nvidia :D per un problema dovuto all'architettura a dipendenze di Kepler.
Questo non significa che Maxwell sarà castrato essendo 1/1 in linea architetturale almeno.
Lo stesso problema di kepler l'aveva la vliw.
http://www.tomshw.it/files/2011/12/immagini/35098/demo-wavefront-queue_t.jpg

Con GCN lo sheduler hardware assegna i wavefront ai vettori, eliminando le dipendenze.
Pascal e maxwell schedulano allo stesso istante i 4 blocchi da 32, senza lasciarne in coda.:)

Alla faccia, scusa la curiosita ma le wavefront sarebbero vettori dati (AAA-BBB-CCC) con le relative dipendenze sui dati, quindi lo scheduler deciderebbe la priorita` per l esecuzione delle operazion?

egounix
08-07-2016, 23:54
Insomma, tipo così...:ciapet:

http://www.informarexresistere.fr/wp-content/uploads/2012/10/pagliuzza.jpg

Ahhh l'asso di bastoni! Era una vita che lo cercavo! Ecco chi se l'è incxxxx

mikael84
09-07-2016, 00:10
Alla faccia, scusa la curiosita ma le wavefront sarebbero vettori dati (AAA-BBB-CCC) con le relative dipendenze sui dati, quindi lo scheduler deciderebbe la priorita` per l esecuzione delle operazion?

Qua parliamo di SIMD vliw 16x4,
16
16 dipendenza
16 dipendenza
16

Wavefront è il set d'istruzioni.
Se il blocco 2/3 non partono assieme, il blocco 3 deve spettare che il blocco 2 finisca.
Risultato, 16 ALU a riposo.

Le unità vettoriali hanno uno scheduler che le programma sempre in maniera indipendente.

CU 1
Vettore 1 =16 ALU
Vettore 2= 16 ALU
Vettore 3 =16 ALU
Vettore 4 =16 ALU

CU 2 lo stesso


Kepler è
192 cc per SMX
sub SMX da 96
32+32+32 /32+32+32

4 chiamate

Sub SMX 1/96
32+32
32 in coda

Sub SMX 2/96
32+32
32 in coda.

Maxwell e pascal sono
4x32
ogni blocco è in rapporto 4/1 tra SFU e Load store.
32cc/8 sfu/8 ls 16,5k registri

appleroof
09-07-2016, 09:06
Infatti, però hai demolito nvidia :D per un problema dovuto all'architettura a dipendenze di Kepler.
Questo non significa che Maxwell sarà castrato essendo 1/1 in linea architetturale almeno.
Lo stesso problema di kepler l'aveva la vliw.
http://www.tomshw.it/files/2011/12/immagini/35098/demo-wavefront-queue_t.jpg



Con GCN lo sheduler hardware assegna i wavefront ai vettori, eliminando le dipendenze.
Pascal e maxwell schedulano allo stesso istante i 4 blocchi da 32, senza lasciarne in coda.:)

Mike dovremmo metterlo in evidenza questo post, così forse risolviamo la questione una volta per tutte :D

P. S. : sai l'enorme stima che ho per te e la tua preparazione tecnica, ma siccome tebdo a farmi un'opinione da solo (con tutti i limiti tecnici che ho) non sono ancora convinto al 100% che nvidia non supporti in hw l'async compute, sia pure con implementazione diversa da amd che ha ripreso pari pari le console, almeno leggendo gli articoli tecnici che riesco a trovare (anand e hwfr per ora, guarderò casomai su techreport) non concludono nemmeno loro, speriamo ne escano altri, anandtech non ha mai fatto la rece di gp104 (sta cosa è stranissima) speriamo che faccia almeno quella di gp106 e forse in quella occasione ne capirò di più


Ahhh l'asso di bastoni! Era una vita che lo cercavo! Ecco chi se l'è incxxxx

:asd:

Gilbo_33
09-07-2016, 09:15
Tra l'altro, io ho il problema che i giochi tendo pure a giocarli, e so che i benchmark di creative assembly non rispecchiano MAI le performance reali in gioco. Roba che un gioco ti fa 60 fps nel bench e poi fatica a tenere i 30 con gli eserciti schierati...

Sì, sicuramente in futuro aumenteranno i giochi D12 nativi, ma fra quanto? Ancora per la fine di questo 2016 e almeno metà anno prossimo, è tutto pensato con architettura D11 in testa, e quindi io non penso al futuro prossimo che più prossimo non si può quando compro una scheda video...
Inb4 Deus Ex nuovo e Battlefield 1.

Inviato da Mobile

Gigibian
09-07-2016, 11:39
Se le 1060 costerrano 284 euro le versioni custom, come scritto oggi da hwu.. Costano meno delle custom delle 480(sapphire ha annunciato la nitro a 300 euri). E vanno in 10% in più (valore atteso). Se fosse confermato sto scenario purtroppo AMD non sarebbe competiriva neanche in questo segmento. :muro:
Rivoglio una nuova 4870! :/

OvErClOck82
09-07-2016, 11:54
Se le 1060 costerrano 284 euro le versioni custom, come scritto oggi da hwu.. Costano meno delle custom delle 480(sapphire ha annunciato la nitro a 300 euri). E vanno in 10% in più (valore atteso). Se fosse confermato sto scenario purtroppo AMD non sarebbe competiriva neanche in questo segmento. :muro:
Rivoglio una nuova 4870! :/

per la concorrenza sarebbe una gran cosa, ma penso sia un sogno bello grosso, almeno nei primi mesi

deadbeef
09-07-2016, 12:20
Visto l'andazzo con le 1070 e 1080, è un SE bello grosso

Lunar Wolf
09-07-2016, 12:25
Se le 1060 costerrano 284 euro le versioni custom, come scritto oggi da hwu.. Costano meno delle custom delle 480(sapphire ha annunciato la nitro a 300 euri). E vanno in 10% in più (valore atteso). Se fosse confermato sto scenario purtroppo AMD non sarebbe competiriva neanche in questo segmento. :muro:
Rivoglio una nuova 4870! :/
Mmm... Secondo me 350 o qualcosina di più.

Per velocità non sappiamo ancora ma l'unica certezza sarà più efficiente rispetto alla 480.

Vul
09-07-2016, 12:48
Infatti, però hai demolito nvidia :D per un problema dovuto all'architettura a dipendenze di Kepler.


Nono, il punto è diverso.

Quando comprai la 670 andava più di una 7970.

Ora la mia 670 va spesso e volentieri meno di una 7850 su qualsiasi cosa rilasciata negli ultimi 2 anni.

Mio fratello scelse una 780 anzichè una 290.

Ora spesso e volentieri una 290 sta anche avanti a una 780ti su una miriade di giochi.

La cosa successe anche con fermi, cavolo la 5870 nel muletto è ancora rispettabilissima, ma la mia vecchia gtx 470?

Stendiamo un velo pietoso.

Capisci che essendo uno che compra gpu ogni 3-4 anni non mi fido di nvidia.

Vul
09-07-2016, 12:56
Se le 1060 costerrano 284 euro le versioni custom, come scritto oggi da hwu.. Costano meno delle custom delle 480(sapphire ha annunciato la nitro a 300 euri). E vanno in 10% in più (valore atteso). Se fosse confermato sto scenario purtroppo AMD non sarebbe competiriva neanche in questo segmento. :muro:
Rivoglio una nuova 4870! :/

In quel caso caleranno i prezzi amd, non vedo di che preoccuparsi.

Ovvio che ora come ora, fra assenza custom e volumi bassi non si può decidere molto.

sonnet
09-07-2016, 14:59
Io personalmente ho sempre comprato nvidia, ma essendo uno che cambia tutto il pc ogni 4 anni, il supporto che offre nvidia alle proprie vecchie gen è penoso.

Passiamo da un +30% da una gen all'altra alla release che diventa presto +50,60 addiritturà 100 % (guardate kepler versus fermi...).

Con AMD questa cosa non avviene per cui sono fermamente convinto di comprare una 480 custom o una 490 a questa botta (anche perchè parliamoci chiaro 480 giochi a 1080p a tutto davvero maxato, e io con una vetusta 670 non mi lamento).

107 fps ad arkham knight, 70 a bf4, 42 crysis 3, 90 a fallout 4, 60 far cry, 67 gta 5, 60 hitman, 62 rise of tomb raider e parlo di roba tutta maxata ultra con filtri e super filtri.

Un filo di oc e ulteriori migliorie software questa scheda ti dura finchè non passi a monitor 120hz o 1440p (dove comunque se la caverebbe benissimo abbassando qualche dettaglio invisibile ma performance killer).

Detto questo, non capisco il perchè dover fare queste lotte per i brand, mi pare assurdo e triste.

Io rimasi scottato quando presi la 7900 gt, anziche' prendere l'equivalente ati
http://www.anandtech.com/show/1967/2
All'inizio l'archiettura nvidia sembrava ottima , poi gia' dopo un anno cominciava a mostrare i suoi limiti anche peggio di kepler.

Al di la' della questione driver, le architetture ati sono quasi sempre state piu' future proof di Nvidia.

Lunar Wolf
09-07-2016, 15:12
In quel caso caleranno i prezzi amd, non vedo di che preoccuparsi.

Ovvio che ora come ora, fra assenza custom e volumi bassi non si può decidere molto.
Secondo me questa 1060 ci stava ma spero che esca veramente e non come le sorelle maggiori ma li la colpa è di tmsc che non riesce a soddisfare la domanda.

Una limatina di prezzi a rosse e verdi ci sta tutta... Portarsi a casa una rossa o verde con max 250€ che vanno o andranno con un piccolo supporto come una vecchia 980 non credo che ci faccia schifo, almeno per me che gioco in full HD sarà il top.

Ren
09-07-2016, 15:31
Io rimasi scottato quando presi la 7900 gt, anziche' prendere l'equivalente ati
http://www.anandtech.com/show/1967/2
All'inizio l'archiettura nvidia sembrava ottima , poi gia' dopo un anno cominciava a mostrare i suoi limiti anche peggio di kepler.

Con la 8800 hanno fatto un cambio di architettura epocale, che ti aspettavi il supporto driver per il caro estinto...;)

Quando fiutate cambi di architettura degli shader, dovete disfarvene o esserne consapevoli...:sofico:

https://cdn.meme.am/instances/53416420.jpg

mikael84
09-07-2016, 15:42
Mike dovremmo metterlo in evidenza questo post, così forse risolviamo la questione una volta per tutte :D

P. S. : sai l'enorme stima che ho per te e la tua preparazione tecnica, ma siccome tebdo a farmi un'opinione da solo (con tutti i limiti tecnici che ho) non sono ancora convinto al 100% che nvidia non supporti in hw l'async compute, sia pure con implementazione diversa da amd che ha ripreso pari pari le console, almeno leggendo gli articoli tecnici che riesco a trovare (anand e hwfr per ora, guarderò casomai su techreport) non concludono nemmeno loro, speriamo ne escano altri, anandtech non ha mai fatto la rece di gp104 (sta cosa è stranissima) speriamo che faccia almeno quella di gp106 e forse in quella occasione ne capirò di più




:asd:

Fai benissimo Apple per carità, è giusto che un utente esperto come te si faccia un'idea personale.
Tutto quello che fa Pascal si chiama Preemption, con i discorsi già fatti su lavoro, SM e latenze.
AMD ha veri e propri motori asincroni chiamati ACE, sull'architettura.
Ogni ACE gestisce 8 code chiamate rispettivamente 0-7 e calcolano dei dati parallelamente agli shader normali.

Questo non significa che AMD sia nettamente superiore, in quanto come ben sai sono architetture diverse.

Se devi gestire 10000 shader
7500 le gestiscono le unità grafiche, 2500 lavorano in parallelo (ad esempio), ed il tutto è automatico perchè basato su hardware.

Ripeto, sono diverse architetture ed nvidia non ha il problema drawcall, quindi un confronto diretto a numeri e incalcolabile.
Ecco perchè dopo le solite pappardelle su ogni sito tecnico, la finisci con dei vuoti e con la non convinzione.

Ricordiamoci che AMD ne trae maggior vantaggio perchè il driver dx11 non è in grado di sfruttare bene il multi thread delle CPU e tale chip dev'essere sempre collegata ad una CPU potente.

mikael84
09-07-2016, 16:04
Nono, il punto è diverso.

Quando comprai la 670 andava più di una 7970.

Ora la mia 670 va spesso e volentieri meno di una 7850 su qualsiasi cosa rilasciata negli ultimi 2 anni.

Mio fratello scelse una 780 anzichè una 290.

Ora spesso e volentieri una 290 sta anche avanti a una 780ti su una miriade di giochi.

La cosa successe anche con fermi, cavolo la 5870 nel muletto è ancora rispettabilissima, ma la mia vecchia gtx 470?

Stendiamo un velo pietoso.

Capisci che essendo uno che compra gpu ogni 3-4 anni non mi fido di nvidia.

La 670 è nettamente inferiore alla 7970, solo che AMD ha fatto un'ingresso disastroso inizialmente.
Per 2 anni è stata una scheda migliore e con latenze nettamente migliori, andava in SLI benissimo, AMD ha tirato fuori il frame pacing dopo quasi 2 anni, tanto che le 7990 le volevano ritirare dal mercato (quella a casa mia si chiama praticamente truffa, vendi un'oggetto a peso d'oro che non funziona bene o spesso niente).
Te lo dice uno che ha avuto 2 7970 e 7950 e kepler 6xx series l'ha saltato.

Ora Kepler ha problemi di dipendenze e ovviamente lasciata allo sbando, questo è vero, non ti vado contro.
Fermi lo stesso schedula a 16 blocchi, in maniera totalmente differente.

Questo è un handicap del cambiare sempre architettura, cosa che GCN ora non fa ma si porta dietro alcuni limiti...
Il primitive discard sulla 290/390 non andrà ad esempio.

Tra tutte le ragioni che puoi avere, il supporto è stato tralasciato è vero ma vorrei ricordare che Pascal e maxwell sono uguali e che il driver azzoppante (come molti danno per sicuro) già di agosto lascia il tempo che trova.;)

deadbeef
09-07-2016, 16:07
Con la 8800 hanno fatto un cambio di architettura epocale, che ti aspettavi il supporto driver per il caro estinto...;)

Quando fiutate cambi di architettura degli shader, dovete disfarvene o esserne consapevoli...:sofico:


Beh lì fu nettamente diverso, prima del G80 non esistevano i cuda core. La patch per tomb raider che aggiunge il supporto all'AC solo per Pascal forse potrebbe far suonare qualche campanello d'allarme

Raven
09-07-2016, 16:15
Fai benissimo Apple per carità, è giusto che un utente esperto come te si faccia un'idea personale.
Tutto quello che fa Pascal si chiama Preemption, con i discorsi già fatti su lavoro, SM e latenze.
AMD ha veri e propri motori asincroni chiamati ACE, sull'architettura.
Ogni ACE gestisce 8 code chiamate rispettivamente 0-7 e calcolano dei dati parallelamente agli shader normali.

Questo non significa che AMD sia nettamente superiore, in quanto come ben sai sono architetture diverse.


oddio... anche se lo significasse (relativamente agli ACE) non sarebbe la fine del mondo, eh... il buon apple dovrà farsene una ragione! :O Almeno una lasciamolela, ad amd, porella! :asd:

Ren
09-07-2016, 16:19
La patch per tomb raider che aggiunge il supporto all'AC solo per Pascal forse potrebbe far suonare qualche campanello d'allarme

:confused:

deadbeef
09-07-2016, 16:22
:confused:

- Utilizzo di Asynchronous Compute su schede AMD GCN 1.1 e Nvidia Pascal

no maxwell, no party, ovviamente vale anche per gcn > 1.1

mikael84
09-07-2016, 16:44
oddio... anche se lo significasse (relativamente agli ACE) non sarebbe la fine del mondo, eh... il buon apple dovrà farsene una ragione! :O Almeno una lasciamolela, ad amd, porella! :asd:

Nel dubbio per AMD backface culling e l'ammazzi sempre:D

Scherzo Raven, il fattore hardware è un dato positivo, vediamo con i primi giochi seri nativi come andranno le cose.
Io tanto per ora non cambio ne per l'una ne per l'altra.:fagiano:

Hadar
09-07-2016, 16:51
Nel dubbio per AMD backface culling e l'ammazzi sempre:D

Scherzo Raven, il fattore hardware è un dato positivo, vediamo con i primi giochi seri nativi come andranno le cose.
Io tanto per ora non cambio ne per l'una ne per l'altra.:fagiano:

Ma se con Pascal non hanno avuto il tempo di implementare via hw sto async, con volta secondo te avremo un full support per ste benedette dx12(q1 2018(?))?

Uno che prende Pascal a questo punto deve essere consapevole di dover cambiare quasi necessariamente con Volta..
Ma il mio timore è: siamo sicuri che Volta abbia finalmente tutto?:confused:

Vul
09-07-2016, 17:14
La 670 è nettamente inferiore alla 7970, solo che AMD ha fatto un'ingresso disastroso inizialmente.
Per 2 anni è stata una scheda migliore e con latenze nettamente migliori, andava in SLI benissimo, AMD ha tirato fuori il frame pacing dopo quasi 2 anni, tanto che le 7990 le volevano ritirare dal mercato (quella a casa mia si chiama praticamente truffa, vendi un'oggetto a peso d'oro che non funziona bene o spesso niente).
Te lo dice uno che ha avuto 2 7970 e 7950 e kepler 6xx series l'ha saltato.

Ora Kepler ha problemi di dipendenze e ovviamente lasciata allo sbando, questo è vero, non ti vado contro.
Fermi lo stesso schedula a 16 blocchi, in maniera totalmente differente.

Questo è un handicap del cambiare sempre architettura, cosa che GCN ora non fa ma si porta dietro alcuni limiti...
Il primitive discard sulla 290/390 non andrà ad esempio.

Tra tutte le ragioni che puoi avere, il supporto è stato tralasciato è vero ma vorrei ricordare che Pascal e maxwell sono uguali e che il driver azzoppante (come molti danno per sicuro) già di agosto lascia il tempo che trova.;)

Scusa ma a me sembrano discorsi che, per quanto giusti, lasciano il tempo che trovano. Inoltre possedendo anche una 5870, non gcn quindi, posso tranquillamente dirti che il confronto con le architetture di allora nvidia è disastroso per Nvidia.

Per dirti una 480 era più veloce sia in bf3 che bc2 di una 5870.

La cosa bella è che la 750ti, quando rilasciata, andava bene o male come una 480, qualcosa in meno (15 % circa) ora fa circa il 20 % in più su giochi neanche troppo recenti come battlefield 4.

A me non interessa tanto giustificare il perchè e il come.

Io so che le mie vecchie schede nvidia e quella attuale sono passate dall'andare quanto e più la concorrenza ad andare la metà su qualsiasi titolo rilasciato negli anni successivi.

Quindi dico che a me che cambio gpu ogni 3-4 anni circa prendere Nvidia, per esperienza, non conviene.

Non è una campagna anti nvidia, semplicemente da utente che segue l'hardware e non ha intenzione di cambiare gpu ogni anno (come molti qui, o due anni), AMD per ora mi è sempre sembrata più affidabile.

Se poi la cosa dovesse cambiare, pace.

Ren
09-07-2016, 17:23
Scusa ma a me sembrano discorsi che, per quanto giusti, lasciano il tempo che trovano. Inoltre possedendo anche una 5870, non gcn quindi, posso tranquillamente dirti che il confronto con le architetture di allora nvidia è disastroso per Nvidia.

Per dirti una 480 era più veloce sia in bf3 che bc2 di una 5870.

Io so che le mie vecchie schede nvidia e quella attuale sono passate dall'andare quanto e più la concorrenza ad andare la metà su qualsiasi titolo rilasciato negli anni successivi.

Il primo bench che ho trovato su bf4:O . (purtroppo i dati sono pochi su altri giochi)

Non mi sembra così nera la situazione...

http://www.pcgameshardware.de/screenshots/original/2013/10/Battlefield-4-Final-Day-1-Benchmark-Ultra-DX11-1080p-FXAA-pcgh.png

Ale55andr0
09-07-2016, 17:34
Scrivo questo perché chi legge sappia realmente come stanno le cose dopo post tecnici ben argomentati; il resto sono tutte considerazioni personali ;)


le sue non sono considerazioni personali, ma esperienza diretta su hardware che possiede, hai voja pubblicare pipponi tecnici (qui non c'entra mikael84 eh, parlo in generale), se no uno dovrebbe dar retta "all'articolo tecnico" che dice che la mia auto fai i venti a litro e poi su strada, nella vita reale, ne fa la metà ma siccome lo dice l'articolo allora ok, aPPosto così...
...poi però quando si parla di bench tutti a dire "no meglio l'esperienza diretta mia e degli altri utenti che non l'articlo pubblicato sul sito xyz" :D
Comunque ci sono "articoli tecnici" in cui le 280/7970 oggi in certi giochi vanno più delle 780 o addirittura della titan, cosa che al lancio non era ovviamente (ma manco lontanamente) e che non si spiega certo con la sola differenza di architettura, per cui stante anche la non conformità dei risultati dei "test tecnici" di più parti uno ovviamente ha sacrosanto diritto di vedere e decidere cosa va per lui o meno in base ai fatti da lui toccati con mano, non al pontificio di tizio e caio (ancora una volta parlo in generale, non di mikael84 :read:)

mikael84
09-07-2016, 18:00
Scusa ma a me sembrano discorsi che, per quanto giusti, lasciano il tempo che trovano. Inoltre possedendo anche una 5870, non gcn quindi, posso tranquillamente dirti che il confronto con le architetture di allora nvidia è disastroso per Nvidia.

Per dirti una 480 era più veloce sia in bf3 che bc2 di una 5870.

La cosa bella è che la 750ti, quando rilasciata, andava bene o male come una 480, qualcosa in meno (15 % circa) ora fa circa il 20 % in più su giochi neanche troppo recenti come battlefield 4.

A me non interessa tanto giustificare il perchè e il come.

Io so che le mie vecchie schede nvidia e quella attuale sono passate dall'andare quanto e più la concorrenza ad andare la metà su qualsiasi titolo rilasciato negli anni successivi.

Quindi dico che a me che cambio gpu ogni 3-4 anni circa prendere Nvidia, per esperienza, non conviene.

Non è una campagna anti nvidia, semplicemente da utente che segue l'hardware e non ha intenzione di cambiare gpu ogni anno (come molti qui, o due anni), AMD per ora mi è sempre sembrata più affidabile.

Se poi la cosa dovesse cambiare, pace.

Si infatti, ti ripeto una 580 oggi potrebbe andare anche la metà per i blocchi da 16, ma io parlo sempre in senso tecnico e su kepler ne ho parlato ormai decine di volte.
Nessuno dice che nvidia fa bene a lasciare le schede allo sbando e nello stesso tempo viliw non è uguale a kepler o fermi.

Visto che tu hai ancora vecchie fermi e vliw5 come la 5870, riesci a postare un qualche bench integrato di un gioco o valori di FPS su BF4?
Metti tutto su ultra o alto e fai due screen, allo stesso punto, magari uno complesso, oppure traccia tutto con gpu-z.;)

nico88desmo
09-07-2016, 18:04
Una domanda per mikael84: è vero che fra Maxwell e Pascal GP104 l'architettura è pressochè indentica; tuttavia non si può dire lo stesso se si parla di Pascal GP100; dal whitepaper nvidia vedo che ciascun SM avrà 64 SP (al posto di 128), la dimensione dei registri raddoppia a parità di SP, il blocco instruction cache sarà assegnato alla metà degli SP; teoricamente quindi, deduco che ogni SM sarà più ottimizzato rispetto a GP104.

Ora, lato driver, credi che non si ripeta una situazione simile a quello che è successo fra GK110 e GM200, se si considera GP104 (GM200) e GP100?

Crysis90
09-07-2016, 18:12
Una domanda per mikael84: è vero che fra Maxwell e Pascal GP104 l'architettura è pressochè indentica; tuttavia non si può dire lo stesso se si parla di Pascal GP100; dal whitepaper nvidia vedo che ciascun SM avrà 64 SP (al posto di 128), la dimensione dei registri raddoppia a parità di SP, il blocco instruction cache sarà assegnato alla metà degli SP; teoricamente quindi, deduco che ogni SM sarà più ottimizzato rispetto a GP104.

Ora, lato driver, credi che non si ripeta una situazione simile a quello che è successo fra GK110 e GM200, se si considera GP104 (GM200) e GP100?

Se l'architettura fosse veramente stata identica, con "solo" il 25% di Shader in più rispetto a GM204, GP104 non avrebbe mai potuto andare il doppio.
MAI.
Non può essere solo merito del PP e delle frequenze. :O

mikael84
09-07-2016, 18:22
Una domanda per mikael84: è vero che fra Maxwell e Pascal GP104 l'architettura è pressochè indentica; tuttavia non si può dire lo stesso se si parla di Pascal GP100; dal whitepaper nvidia vedo che ciascun SM avrà 64 SP (al posto di 128), la dimensione dei registri raddoppia a parità di SP, il blocco instruction cache sarà assegnato alla metà degli SP; teoricamente quindi, deduco che ogni SM sarà più ottimizzato rispetto a GP104.

Ora, lato driver, credi che non si ripeta una situazione simile a quello che è successo fra GK110 e GM200, se si considera GP104 (GM200) e GP100?

Quella versione noi giocatori non la vedremo è destinata al compute Tesla.
GP104 è basato su SMM uguali a Maxwell che schedulano 32cc ed i relativi LS/SFU.

GP102 o GP100 gaming sarà 30 SMM max non 60 SM su 30 TPC.
Il TPC serve per legare due SM nel quale verrà collocato il polymorph engine.

I registri ed i 2 SM sono strutturati affinchè ogni cuda possa accede a 1024 istruzioni contemporaneamente sgravando la cache (contro i 512 di maxwell e GP104), migliorando la latenza.
Anche i file di registro sono stati aumentati a 256kb per SM per un totale di 15mb su 4mb l2.

Gli SM o micro SM sono strutturati a 96 elementi, un FP64 ogni FP32(2X fp16)

Tutta roba legata al compute pure, non a caso Tesla sarà l'unica ad adottare il sistema nvlink.

GP102 o GP100, aggiungerà altri 10 SMM al max, nulla di più rispetto al GP104.

Crysis90
09-07-2016, 18:25
Infatti non va il doppio, basta che guardi le differenze dalla 980ti ;)

Ho paragonato GP104 a GM204.
Il primo va il doppio del secondo. ;)

Ale55andr0
09-07-2016, 18:27
Infatti Vul ha menzionato schede con architetture e quindi funzionamenti diversi che sono state sicuramente penalizzate, in quanto i driver vengono scritti per le nuove...




si ma ha anche menzionato la 5870 che non è mica una gcn e che a suo dire, in funzione del contesto attuale rulla ancora in un "certo modo". D'accordo poi sul resto, specie il discorso rebrand. E' positivo e negativo a un tempo: negativo perchè non puoi evolverti molto lato prestazioni ed efficenza in termini di microarchitettura vera e propria, positivo che invecchi molto meno le varie generazioni a livello comerciale e di supporto, e hai pure una piattaforma installata che è riferimento sul mercato console e quindi forse non ti conviene spostarti più di tanto. Ancora però è troppo presto per capire se è una mossa vincente o meno visto che ci stanno multipiatta e remaster legati ai vecchi motori di precedente generazine, potrà essere un epic win o un fail totale (o magari nessuno dei due :asd: ), quantomeno chi compra OGGI (in futuro non si sa) una AMD sa che compra con un minimo di lungimiranza...poi bisogna anche vedere le esigenze specifiche, ad esempio chi cerca ben altro del target prestazionale di una 480 non ha scelta, o si svena o si attacca (presente :D ). Quantomeno c'è una variabile in meno a pesare sulla scelta: la ram. Ora lo standard è 8gb e li propongono entrambe, senza la scelta de "meglio 2gb oggi o 3/4 domani?" :D

mikael84
09-07-2016, 18:36
Se l'architettura fosse veramente stata identica, con "solo" il 25% di Shader in più rispetto a GM204, GP104 non avrebbe mai potuto andare il doppio.
MAI.
Non può essere solo merito del PP e delle frequenze. :O

In media sta sopra il 60/65% default ma una lavora a 1200 l'altra a 1800 medio:fagiano:
La 1070 sta sopra il 40% circa ed ha quasi gli stessi shader.

Cmq per chi è scettico, se trova differenze, me lo faccia notare
http://www.tomshw.it/files/2014/09/immagini_contenuti/59235/gm204-smm-diagram_t.jpg

http://www.tomshw.it/data/thumbs/5/6/5/9/geforce-gtx-1080-sm-diagram-final-4a2cec758ce29cd7a86ab1590cabac99b.jpg

Kepler e fermi
http://media.bestofmicro.com/I/Z/331163/original/sm-to-smx-comparison.png

deadbeef
09-07-2016, 18:42
e ci siamo persi per strada anche le gddr5x a 10gbit vs gddr5 a 8.

Nel diagramma architetturale maxwell mi sembra più prematurata a destra come se fosse warp antani

mikael84
09-07-2016, 18:55
si ma ha anche menzionato la 5870 che non è mica una gcn e che a suo dire, in funzione del contesto attuale rulla ancora in un "certo modo". D'accordo poi sul resto, specie il discorso rebrand. E' positivo e negativo a un tempo: negativo perchè non puoi evolverti molto lato prestazioni ed efficenza in termini di microarchitettura vera e propria, positivo che invecchi molto meno le varie generazioni a livello comerciale e di supporto, e hai pure una piattaforma installata che è riferimento sul mercato console e quindi forse non ti conviene spostarti più di tanto. Ancora però è troppo presto per capire se è una mossa vincente o meno visto che ci stanno multipiatta e remaster legati ai vecchi motori di precedente generazine, potrà essere un epic win o un fail totale (o magari nessuno dei due :asd: ), quantomeno chi compra OGGI (in futuro non si sa) una AMD sa che compra con un minimo di lungimiranza...poi bisogna anche vedere le esigenze specifiche, ad esempio chi cerca ben altro del target prestazionale di una 480 non ha scelta, o si svena o si attacca (presente :D ). Quantomeno c'è una variabile in meno a pesare sulla scelta: la ram. Ora lo standard è 8gb e li propongono entrambe, senza la scelta de "meglio 2gb oggi o 3/4 domani?" :D


Vorrei vedere una 5870 o fermi full giocare bene a 60fps o anche con qualche dettaglio in meno, oggi come oggi.

Darrosquall
09-07-2016, 19:04
Il primo bench che ho trovato su bf4:O . (purtroppo i dati sono pochi su altri giochi)

Non mi sembra così nera la situazione...

http://www.pcgameshardware.de/screenshots/original/2013/10/Battlefield-4-Final-Day-1-Benchmark-Ultra-DX11-1080p-FXAA-pcgh.png

no dai, i bench...mi avevano convinto che oggi una 670 va meno della x800 :asd:

Ren
09-07-2016, 19:09
no dai, i bench...mi avevano convinto che oggi una 670 va meno della x800 :asd:

aveva scritto(poi editato) che la 480 gli faceva 19frame contro i 40 della 5870 con bf4, sono andato ad indagare...:sofico:

Niente Guinness World Record per nvidia, sorry...:sofico:

traider
09-07-2016, 19:20
Ho appena regalato a mio cugino una AMD hd5850 ( 15 euro a un mercatino ), lo overcloccata , e si gioca bene a 60fps a pes2016 ( 1920x1080 ) dettagli bassi , Word of warcraft 89 fps a 1920x1080 dettagli medi , a doom 1280x1024 dettagli bassi 30 fps :D .

Ren
09-07-2016, 19:25
Ho appena regalato a mio cugino una AMD hd5850 ( 15 euro a un mercatino ), lo overcloccata , e si gioca bene a 60fps a pes2016 ( 1920x1080 ) dettagli bassi , Word of warcraft 89 fps a 1920x1080 dettagli medi , a doom 1280x1024 dettagli bassi 30 fps :D .

Guarda io mi sono giocato dark soul 3 dettagli medio/bassi con una gtx460 1gb 890mhz:cool: . Sono imprecazioni, ehm soddisfazioni...:sofico:

Crysis90
09-07-2016, 19:29
Cmq per chi è scettico, se trova differenze, me lo faccia notare
http://www.tomshw.it/files/2014/09/immagini_contenuti/59235/gm204-smm-diagram_t.jpg

http://www.tomshw.it/data/thumbs/5/6/5/9/geforce-gtx-1080-sm-diagram-final-4a2cec758ce29cd7a86ab1590cabac99b.jpg

Kepler e fermi
http://media.bestofmicro.com/I/Z/331163/original/sm-to-smx-comparison.png

Ma secondo voi le differenze tra un'architettura e l'altra le vanno a sbandierare pubblicamente a destra e a manca???
I segreti se li tengono per sé, non serve a nulla guardare sti diagrammi.
Altrimenti saremmo in grado tutti di fare gli ingegneri, basterebbe aumentare sempre qualche Shader, aumentare le frequenze e "giocare" ad organizzare i Cluster in questi diagrammetti. :O
Le vere differenze (innovazioni) tra un'architettura e l'altra sono segreto industriale (know-how).
Non vengono certo a dirle a noi. ;)
IMHO.

mikael84
09-07-2016, 19:32
Guarda io mi sono giocato dark soul 3 dettagli medio/bassi con una gtx460 1gb 890mhz:cool: . Sono imprecazioni, ehm soddisfazioni...:sofico:

Con la 6950 low setting e 1080p, confronta:)
https://www.youtube.com/watch?v=qhKdVGEqXHw

Dark souls 3 270x
https://www.youtube.com/watch?v=H9KsFGeb-x4

Ren
09-07-2016, 19:37
Ma secondo voi le differenze tra un'architettura e l'altra le vanno a sbandierare pubblicamente a destra e a manca???
I segreti se li tengono per sé, non serve a nulla guardare sti diagrammi.
Altrimenti saremmo in grado tutti di fare gli ingegneri, basterebbe aumentare sempre qualche Shader, aumentare le frequenze e "giocare" ad organizzare i Cluster in questi diagrammetti. :O
Le vere differenze (innovazioni) tra un'architettura e l'altra sono segreto industriale (know-how).
Non vengono certo a dirle a noi. ;)
IMHO.

Spesso le scelte tecniche vengono fuori in presentazione o su articoli tecnici di summit/fiere. Ti mostrano parte della teoria(non è poco), mica l'implementazione...:ciapet:

Ren
09-07-2016, 19:48
Con la 6950 low setting e 1080p, confronta:)
https://www.youtube.com/watch?v=qhKdVGEqXHw

Dark souls 3 270x
https://www.youtube.com/watch?v=H9KsFGeb-x4

Una chiavica con continui cali di framerate, credo causa della poca ram. (720p nelle zone più affollate:p )

Bisogna dire che al tempo il gioco dava problemi anche su gpu moderne.

Crysis90
09-07-2016, 19:49
Ti mostrano parte della teoria(non è poco), mica l'implementazione...:ciapet:

Ti mostrano (forse) al massimo il 50% di quello che c'è dietro.
Fidati. Tutto il resto è segreto industriale. ;)

Ren
09-07-2016, 19:51
Ti mostrano forse al massimo il 50% di quello che c'è dietro.
Fidati. Tutto il resto è segreto industriale. ;)

Volevi forse il codice in Verilog...:D

Ubro92
09-07-2016, 19:53
Vorrei vedere una 5870 o fermi full giocare bene a 60fps o anche con qualche dettaglio in meno, oggi come oggi.

Ti appendi... Cioè giochi grossi come Crysis 3, Shadow of Mordor, TW3 li giochi si con un frame che si aggira intorno ai 60 ma sia a 1920x1080 che 2560x1080 devi settare tutto al minimo, solo le texture si puo osare qualcosina...

Anche TW2 al massimo non gira o per meglio dire gira ma a 25-35 fps...

Potenza teorica simile a 7850/R7 270x ma in game va meno di una 260x...

Per una scheda di 7 anni nulla da dire ma non mi pare questo gran miracolo anzi rispetto ad una 470/480 le prende di brutto sul tesselation...

mikael84
09-07-2016, 20:00
Ma secondo voi le differenze tra un'architettura e l'altra le vanno a sbandierare pubblicamente a destra e a manca???
I segreti se li tengono per sé, non serve a nulla guardare sti diagrammi.
Altrimenti saremmo in grado tutti di fare gli ingegneri, basterebbe aumentare sempre qualche Shader, aumentare le frequenze e "giocare" ad organizzare i Cluster in questi diagrammetti. :O
Le vere differenze (innovazioni) tra un'architettura e l'altra sono segreto industriale (know-how).
Non vengono certo a dirle a noi. ;)
IMHO.

Dai diagrammi e funzionamento vedi molte cose, non tutto, il minimo necessario:)
Però dalle prove in campo, puoi vedere che Pascal oltre ad avere il diagramma uguale (chiamiamolo così), performa pure peggio a pari clock rispetto a Maxwell
http://seekingalpha.com/instablog/45056646-clarence-spurr/4884330-pascal-new-king

Tralasciando l'ingegneria più complessa, il quadro per fare 2+2 ce l'hai.:)

Crysis90
09-07-2016, 20:05
Volevi forse il codice in Verilog...:D

Nono, io parlo proprio di differenze a livello hardware.
Ognuno ha i suoi segretucci che si tiene stretto stretto per sè. ;)

traider
09-07-2016, 20:09
Guarda io mi sono giocato dark soul 3 dettagli medio/bassi con una gtx460 1gb 890mhz:cool: . Sono imprecazioni, ehm soddisfazioni...:sofico:

Mitico :asd: .

Ren
09-07-2016, 20:15
Mitico :asd: .

Ho evitato il vomito giusto perchè giocavo da 3metri sul sessantino.:asd:

parcher
10-07-2016, 09:11
Dai diagrammi e funzionamento vedi molte cose, non tutto, il minimo necessario:)
Però dalle prove in campo, puoi vedere che Pascal oltre ad avere il diagramma uguale (chiamiamolo così), performa pure peggio a pari clock rispetto a Maxwell
http://seekingalpha.com/instablog/45056646-clarence-spurr/4884330-pascal-new-king

Tralasciando l'ingegneria più complessa, il quadro per fare 2+2 ce l'hai.:)
I numeri sono inconfutabili non ci piove; Il blogger alla fine dell'articolo fa delle ipotesi, interessanti, ma tali restano, mentre i videogamer corrono a comprare pascal (nonostante il prezzo) perché con un chip della metà di Maxwell, anche se tirato, fanno mediamente dai 10 ai 35 FPS in più nei giochi che è quello che a noi interessa alla fine.

Inviato dal mio A0001 utilizzando Tapatalk

appleroof
10-07-2016, 10:03
oddio... anche se lo significasse (relativamente agli ACE) non sarebbe la fine del mondo, eh... il buon apple dovrà farsene una ragione! :O Almeno una lasciamolela, ad amd, porella! :asd:

eccone un altro....che tu ci creda o no è solo curiosità tecnica per andare a capire a fondo come funzionano le gpu, ed evitare di farsi convinzioni superficiali (mi passi il termine Hadar, senza offesa) come questa:

Ma se con Pascal non hanno avuto il tempo di implementare via hw sto async, con volta secondo te avremo un full support per ste benedette dx12(q1 2018(?))?

cut

che significa aver abboccato al marketing

appleroof
10-07-2016, 10:50
per i mitx, da zotac

http://cdn.videocardz.com/1/2016/07/ZOTAC-GeForce-GTX-1060-Mini-6GB-3-900x618.jpg

http://videocardz.com/62073/zotac-geforce-gtx-1060-amp-and-mini-detailed

dice che ci saranno versioni da 3gb, quindi la 1050 sarà su gp107 credo...

lagreca.g
10-07-2016, 11:14
Ma si è capito se i prezzi consigliati da nvidia sono per la versione da 3 o da 6gb?

Inviato dal mio LG-D802 utilizzando Tapatalk

Raven
10-07-2016, 11:22
eccone un altro....

... ormai usciamo dalle f*****e pareti! :eek:


http://webgrafica.mrwebmaster.it/store/gif-animate/film-e-tv/alien/1.gif

.Hellraiser.
10-07-2016, 11:45
dice che ci saranno versioni da 3gb, quindi la 1050 sarà su gp107 credo...

perché arrivi a questa conclusione?

Gigibian
10-07-2016, 12:14
Volevi forse il codice in Verilog...:D
Perché da quando nelle schede video sono presenti FPGA?

mikael84
10-07-2016, 12:51
per i mitx, da zotac


dice che ci saranno versioni da 3gb, quindi la 1050 sarà su gp107 credo...

Una 1050 su GP106 per ora è prevista (1024cc/32 rop's /128bit /4gb), diretta concorrente della RX470 (256st in meno della 480).

A meno che non lasciano il bus, decurtano altri 2 SMM e lasciano 3gb.
Potrebbero fare anche più modelli di 1050, uno basato su GP106, inizio anno prossimo su GP107.

Una volta che AMD lancia la 460, penso che Nvidia lanci anche il GP107, magari anticipando se è il caso.

appleroof
10-07-2016, 12:58
perché arrivi a questa conclusione?

avevo letto che non ci sarebbero state 1060 con 3gb di vram e presumevo quindi che la 1050 sarebbe stata su gp106 con 3gb....ma visto che su quel link parlano di 1060 con 3gb pensavo che per distanziare bene le schede la 1050 sarebbe stata su gp107, tutto qui :D

Una 1050 su GP106 per ora è prevista (1024cc/32 rop's /128bit /4gb), diretta concorrente della RX470 (256st in meno della 480).

A meno che non lasciano il bus, decurtano altri 2 SMM e lasciano 3gb.
Potrebbero fare anche più modelli di 1050, uno basato su GP106, inizio anno prossimo su GP107.

Una volta che AMD lancia la 460, penso che Nvidia lanci anche il GP107, magari anticipando se è il caso.

si, magari una 1050ti su gp106 castrato e una 1050 su gp107, mah, vedremo :fagiano:

appleroof
10-07-2016, 13:36
ma rimediare una 1060 FE qui in Italia é proprio utopia?

forse sul sito nvidia da quanto ho capito....ma se le custom costeranno meno meglio quelle, ste FE non le ho proprio capite, avrebbero avuto un senso solo se fossero costate meno delle custom

Ubro92
10-07-2016, 14:19
forse sul sito nvidia da quanto ho capito....ma se le custom costeranno meno meglio quelle, ste FE non le ho proprio capite, avrebbero avuto un senso solo se fossero costate meno delle custom

Non so, io credo che le FE siano prodotte in serie limitata e stiano a rappresentare l'esclusiva cioè avere la scheda da subito dopo la presentazione senza attendere partner di terze parti e quindi con relativo sovrapprezzo...

E l'unico senso che posso dare, perchè altri logici non ne trovo....

Darrosquall
10-07-2016, 14:29
forse sul sito nvidia da quanto ho capito....ma se le custom costeranno meno meglio quelle, ste FE non le ho proprio capite, avrebbero avuto un senso solo se fossero costate meno delle custom

bassa disponibilità iniziale, alziamo il prezzo di altri 50 dollari che tanto i poll...gli appassionati se le comprano lo stesso :asd:

mikael84
10-07-2016, 15:27
avevo letto che non ci sarebbero state 1060 con 3gb di vram e presumevo quindi che la 1050 sarebbe stata su gp106 con 3gb....ma visto che su quel link parlano di 1060 con 3gb pensavo che per distanziare bene le schede la 1050 sarebbe stata su gp107, tutto qui :D



si, magari una 1050ti su gp106 castrato e una 1050 su gp107, mah, vedremo :fagiano:

In scaletta su GP107 è prevista una 1040 non 1050, 640cc prestazioni da 960, diretta rivale della 460 P11 di AMD, ma non penso che Nvidia ora che si deve confrontare con tale AMD la nomini 1040.
E' la diretta sostituta della 750ti/750:)
Se la nomina 1040 sulle 150 euro è la fine:D

Vul
10-07-2016, 15:55
...che vuoi che ti dica, continua a credere che amd con la forza lavoro e i soldi che si ritrova(va), abbia iniziato lo sviluppo di mantle prima che microsoft lo facesse per le dx12


A meno che tu non porti una singola evidenza a supporto del contrario (una), non i tuoi ragionamenti, questo è ciò che è successo.

mikael84
10-07-2016, 16:59
La 1060 in hardware
http://cdn.videocardz.com/1/2016/07/NVIDIA-GeForce-GTX-1060-Official_GP106-GPU-Block-Diagram-731x900.png

http://videocardz.com/62086/nvidia-geforce-gtx-1060-rumors-part-5-full-specs-2-0-ghz-overclocking

Crysis90
10-07-2016, 22:25
Sul fatto che i 16 nm di TSMC siano più maturi dei 14 nm di GloFo penso ci siano ben pochi dubbi

http://wccftech.com/nvidia-geforce-gtx-1060-final-specifications/

RX480 - OC massimo 1.500 mhz
GTX 1060 - OC massimo 2.000 Mhz

Un bel 25% sulle frequenze massime di funzionamento del chip.
Tanta roba.
Secondo me la sfortuna recente di AMD è stata anche quella di abbandonare un partner fornitore TOP come TSMC per affidarsi a questo spin-off che non riesce a garantisce lo stesso rapporto qualità/prestazioni sul silicio.

siluro85
10-07-2016, 22:30
La freq massima dipende forse più dall'architettura che dal silicio...

Ale55andr0
10-07-2016, 22:54
Sul fatto che i 16 nm di TSMC siano più maturi dei 14 nm di GloFo penso ci siano ben pochi dubbi

http://wccftech.com/nvidia-geforce-gtx-1060-final-specifications/

RX480 - OC massimo 1.500 mhz
GTX 1060 - OC massimo 2.000 Mhz




sono due architetture diverse, gia a pari nm le nvidia salivano di più e delle nuove ho sentito parlare di "pipeline lunghe" quindi sono proprio fatte per raggiungere clock alti puntando forse un filo meno sull'ipc (dove mi pare che clock to clock faccia meglio maxwell)

paolox86
11-07-2016, 09:34
La freq massima dipende forse più dall'architettura che dal silicio...



Si infatti, ricordatevi anche quando Intel aveva i processori netburst che salivano fino a 4 ghz e amd invece arrivava massimo a 2,4 ghz. Eppure garantivano prestazioni migliori

el-mejo
11-07-2016, 10:19
fammi capire, invece a supporto della tesi che vuole amd ad aver iniziato prima lo sviluppo di api low level quale sarebbe: il marketing amd?



non devi guardare i mhz massimi tra loro, ma le % di guadagno massimo rispetto alla vecchia generazione. contiamo 1150 per la 390 e 1500 per la 980:
per la 480 si parla anche di 1600mhz.

+450 mhz su 1150 sono +39% di clock.
+600 mhz su 1500 sono +33% di clock.

come vedi al cambio di processo hanno preso più o meno lo stesso guadagno di clock sia amd che nvidia considerando poi che hanno architetture diverse, la cosa a favore di nvidia saranno ancora le perf/watt anche clockando vicino al OC massimo, in media la 1060 clockerà sui 1850~1900 in boost 3, ma il "problema" saranno che relativamente quindi i 2000mhz saranno poca roba +5~7% di OC.

mediamente quindi la 480 non credo avrà problemi ad avere le perf della 1060, anche in OC, ma consumerà sensibilmente di più e da qui mi aspetto prezzi più bassi.

nvidia ha una architettura più efficiente di quella amd a prescindere dal processo, questo perché è meno eterogenea e più specializzata; facendo un confronto in stile cpu la gcn di amd può essere paragonata alla x86 mentre la maxwell/pascal alla arm.

Infatti Con GCn 1.4 Amd ha aumentato di molto le prestazioni gpgpu, forse a scapito di un efficenza energetica minore generale: https://techaltar.com/amd-rx-480-gpu-review/2/
Su un test ha prestazioni simili alla gtx 980,in un altro si avvicina alla Titan mentre nell'ultimo resta ultima.

Sarà interessante vedere un test con le nuove pascal, pare che queste ultime siano limitate in FP16, utili nelle reti neurali e intelligenze artificiali per intenderci: con quest'ultimo tipo di calcoli dovrebbero arrivare a sviluppare 10tflops.

A proposito di Pascal, mi sapete dire se queste unità FP16 sono state castrate via driver/laser oppure la limitazione ha sede progettuale per risparmiare transistor e relativi consumi, similmente alle unità fp64 di Maxwell?

.Hellraiser.
11-07-2016, 11:33
La 1060 in hardware
http://cdn.videocardz.com/1/2016/07/NVIDIA-GeForce-GTX-1060-Official_GP106-GPU-Block-Diagram-731x900.png

http://videocardz.com/62086/nvidia-geforce-gtx-1060-rumors-part-5-full-specs-2-0-ghz-overclocking

perchè 6 memory controller? non doveva avere 128bit la 1060?

Crysis90
11-07-2016, 11:44
non doveva avere 128bit la 1060?

No. Il bus è a 192 bit.

Amorph
11-07-2016, 11:52
No. Il bus è a 192 bit.

ma non si potevano attaccare solo una coppia di controller per ogni blocco di gpc?:confused:

mikael84
11-07-2016, 11:57
perchè 6 memory controller? non doveva avere 128bit la 1060?

Hanno deciso di collegare un 192bit per non limitarla troppo in banda, ma lo schema è sempre simile.

1280cc /32 rop's /192bit

PS: le memorie sono HBM perchè è lo schema completo
https://abload.de/img/gp106j5s9n.png



Sono 5 TPC x 2 GPC / 1280cc
Le rop's sono segnate 48 per collegare il canale ram, ma le accessibili sono 32.
16 rop's a raster processabili, quindi su 2 raster 32.

1 GPC = 64 bit 16 rop's ( 32"2 bit 2"8 rop's)

Preciso che la 1060 ha realmente 48 rop's, e la renderizzazione bloccata a 32, le memorizzabili sono 48, ma a sto punto serva a nulla

mikael84
11-07-2016, 12:12
ma non si potevano attaccare solo una coppia di controller per ogni blocco di gpc?:confused:

Teoricamente è la soluzione ideale, perchè mantieni pure un'accesso rop's costante, ma se vuoi collegare più canali devi utilizzare alcune strategie.
E' stato così sulla 780/780ti e Titan ad esempio.
48 rop's disegnate (i raster erano da 8) e 384bit (6 memori su 8 rop's).

780 48 rop's
http://www.tomshw.it/files/2013/05/immagini_contenuti/45965/gk110-block-diagram_t.jpg

rop's accessibili 32, perchè 4 raster da 8 attivi, 6 canali ram
http://www.hardware.fr/medias/photos_news/00/41/IMG0041330.gif

appleroof
11-07-2016, 14:06
http://www.guru3d.com/news-story/palit-released-geforce-gtx-1060-jetstream-series.html

Palit JS, boost a 1847mhz

traider
11-07-2016, 16:36
Le recensioni della gtx 1060 per che giorno sono date ? .

squigly
11-07-2016, 16:40
occhio che se uno vuole liquidare la 1060 purtroppo non sarà possibile

notizia tratta da oc3d posto il link :

http://overclock3d.net/articles/gpu_displays/the_gtx_1060_s_reference_pcb_will_not_be_suitable_for_water_cooling/1

come non sarà possibile fare sli con le 1060 3gb!!!!

egounix
11-07-2016, 16:50
occhio che se uno vuole liquidare la 1060 purtroppo non sarà possibile

notizia tratta da oc3d posto il link :

http://overclock3d.net/articles/gpu_displays/the_gtx_1060_s_reference_pcb_will_not_be_suitable_for_water_cooling/1

come non sarà possibile fare sli con le 1060 3gb!!!!

Bella merxxxx... Credo spunteranno comunque cavi appositi.


Non ho mica capito qual è il problema

Sent from my Sboron™ using Tapatalk


Il problema è che il 6 pin è sul dissipatore, non sul pcb.

Cioè:
- rx 480 esce con un "problema" legato all'alimentazione, risolvono via driver
- 1060 fe senza il 6pin, aggirabile magari via cavo moddato

Gg amd... Gg nvidia... Mabaffanculo

traider
11-07-2016, 17:04
Le recensioni della gtx 1060 per che giorno sono date ? .

Mi rispondo da solo , 19 luglio .

Prezzi:

Serbian Dinar – RSD 34,999
Czech Koruna – CZK 7,599
Danish Krone – DKK 2,199
Euro – EUR 234 (excluding VAT)
Germany – EUR 279
France – EUR 279
British Pound – GBP 239
Hungarian Forint – HUF 92,399
Norwegian Krone – NOK 2,799
Polish Zloty – PLN 1,279
Romanian New Lei – RON 1,279
Russian Rouble – RON 18,999
Indian Rupee – INR 22,999
Swedish Krona – SEK 2,899
Turkish Lira – TRY 1,030
South African Rand – ZAR 4,699
Switzerland – CHF 274
UAE – AED 1,100

.

maxmix65
11-07-2016, 17:11
Io ho trovato questa gtx 1060 custom a 317+iva
https://s32.postimg.org/r0ctyz98h/gr6yugy.jpg (https://postimg.org/image/r0ctyz98h/)

killeragosta90
11-07-2016, 17:23
occhio che se uno vuole liquidare la 1060 purtroppo non sarà possibile

notizia tratta da oc3d posto il link :

http://overclock3d.net/articles/gpu_displays/the_gtx_1060_s_reference_pcb_will_not_be_suitable_for_water_cooling/1

come non sarà possibile fare sli con le 1060 3gb!!!!

Va bè, ma che problema è? (intendo quello del WB)

Quanti avrebbero avuto intenzione di mettere sotto liquido una scheda (low cost....più o meno) come la 1060?? :stordita:

Seriamente, anche fosse il WB costerebbe un terzo della scheda...a che pro visto che si pronosticano consumi irrisori, per dissipare quei watt basterà e avanzerà una custom economica...

E aggiungo che chi spende 400-500 euro di impianto a liquido non punta di certo a questa categoria di schede. :)

egounix
11-07-2016, 17:56
Va bè, ma che problema è? (intendo quello del WB)

Quanti avrebbero avuto intenzione di mettere sotto liquido una scheda (low cost....più o meno) come la 1060?? :stordita:

Seriamente, anche fosse il WB costerebbe un terzo della scheda...a che pro visto che si pronosticano consumi irrisori, per dissipare quei watt basterà e avanzerà una custom economica...

E aggiungo che chi spende 400-500 euro di impianto a liquido non punta di certo a questa categoria di schede. :)

Chi come me vuole aggiornare il muletto sì... Ho il gpu only, svito pa 750 e metto un'altra gpu... Ma senza il 6 pin... Ndo vo? :asd:

Vul
11-07-2016, 18:53
fammi capire, invece a supporto della tesi che vuole amd ad aver iniziato prima lo sviluppo di api low level quale sarebbe: il marketing amd?



Che frase senza senso la tua.

Sia Microsoft che AMD hanno scritto numerose api low level per le rispettive console, e l'han fatto anche insieme.

egounix
11-07-2016, 19:07
Ebbasta co sto mantle.
Ebbasta co ste api.
Ebbasta co sto low level.

Stasera "citti mil" come dice gaetano sansone, cioè "cheat meal".

FroZen
11-07-2016, 19:49
Bhe oddio

Guarda come va vulkan su doom

Aggratisse diciamo

egounix
11-07-2016, 19:54
Bhe oddio

Guarda come va vulkan su doom

Aggratisse diciamo

#mobbasta

#vistoadesso

killeragosta90
11-07-2016, 20:17
Chi come me vuole aggiornare il muletto sì... Ho il gpu only, svito pa 750 e metto un'altra gpu... Ma senza il 6 pin... Ndo vo? :asd:

Tu sei l'eccezzione. :O :p

muppo
11-07-2016, 20:47
Tu sei l'eccezzione. :O :p

no beh un mulo mtax con una 480 o 1060 col gpu only ed enzotech qua e la lo sto tirando su pure io

egounix
11-07-2016, 20:57
Tu sei l'eccezzione. :O :p

Che cara!!! :* :flower:

no beh un mulo mtax con una 480 o 1060 col gpu only ed enzotech qua e la lo sto tirando su pure io

Infatti, i muli da guerra sono il futuro, costano la metà e sono già ottimizzati... Più di quello non vanno :asd:

Vul
11-07-2016, 20:57
1060 vs 480, firestrike:

http://www.3dmark.com/compare/fs/9202637/fs/9188962#

Potrebbe essere fake.

mikael84
11-07-2016, 20:58
Chi come me vuole aggiornare il muletto sì... Ho il gpu only, svito pa 750 e metto un'altra gpu... Ma senza il 6 pin... Ndo vo? :asd:

Non si può vedere quel mulo, visto che spesso devasterebbe il PC principale.:D

mikael84
11-07-2016, 21:06
1060 vs 480, firestrike:

http://www.3dmark.com/compare/fs/9202637/fs/9188962#

Potrebbe essere fake.

Non so la 480, mi pare di averla vista a 1500 x 9000 sulle 15k giusti, se quelli sono valori in OC 1350 x 8800, non è male.

La 1060 vi posso garantire che stock è così.

traider
11-07-2016, 21:41
1060 vs 480, firestrike:

http://www.3dmark.com/compare/fs/9202637/fs/9188962#

Potrebbe essere fake.

Fakessimi! .

The_SaN
11-07-2016, 21:43
Va bè, ma che problema è? (intendo quello del WB)

Quanti avrebbero avuto intenzione di mettere sotto liquido una scheda (low cost....più o meno) come la 1060?? :stordita:

Seriamente, anche fosse il WB costerebbe un terzo della scheda...a che pro visto che si pronosticano consumi irrisori, per dissipare quei watt basterà e avanzerà una custom economica...

E aggiungo che chi spende 400-500 euro di impianto a liquido non punta di certo a questa categoria di schede. :)

Io avevo liquidato la 5850 (stesso prezzo) con un waterblock universale. :ciapet:

Vul
11-07-2016, 21:47
Fakessimi! .

In base a?

The_SaN
11-07-2016, 21:50
In base a?

La 1060 va di meno :O

Raven
11-07-2016, 21:54
La 1060 vi posso garantire che stock è così.

Fakessimi! .


:O ...

traider
11-07-2016, 22:06
La 1060 che và meno alla 480 è impossibile :D .

appleroof
11-07-2016, 22:45
:O ...

... :winner:

La 1060 che và meno alla 480 è impossibile :D .

Perchè, probabilmente se la combatteranno gioco più gioco meno credo...

mikael84
11-07-2016, 23:16
La 1060 che và meno alla 480 è impossibile :D .

La 1060 è giusta, la 480 era data per 11893 di base, quelli sono valori OC, anche la 1060 con le ram belle occate e + 100 sul core con meno downclock prende tanti bei punticcini.

Cmq dai sono schede più o meno equivalenti, frame più frame meno:)

Free Gordon
12-07-2016, 00:39
Se sono davvero equivalenti (parlo di schede custom con OC daily in media..), la 1060 dovrà scendere un pò col prezzo, imho..

mikael84
12-07-2016, 00:57
Se sono davvero equivalenti (parlo di schede custom con OC daily in media..), la 1060 dovrà scendere un pò col prezzo, imho..

Difficile che i prezzi finali si basino solo sulle medie generali ma sicuramente dovremmo vedere medie di 300 per entrambi, dopo un pò di assestamento.
Bastano per nvidia le varie Palit/gainward Pny o le TUL AMD/XFX

Rodig
12-07-2016, 10:53
La 1060 che và meno alla 480 è impossibile :D .
Primi confronti:
http://videocardz.com/62122/nvidia-geforce-gtx-1060-official-performance-leaked

Goofy Goober
12-07-2016, 10:57
che prezzi sta 1060 :fagiano:
più delle 970OC

traider
12-07-2016, 13:40
Primi confronti:
http://videocardz.com/62122/nvidia-geforce-gtx-1060-official-performance-leaked

Come immaginavo :) , Indeciso tra la 1070 o la 1060 , se mi mettono la 1060 custom il 20 luglio a 275 euro non ho dubbi , e ci tiro fino a volta , o appena si abbassano i prezzi della 1080 dopo che esce big pascal :D :D .

Crysis90
12-07-2016, 13:51
Primi confronti:
http://videocardz.com/62122/nvidia-geforce-gtx-1060-official-performance-leaked

Se, e dico SE, le performance sono queste

http://i.imgur.com/QA4XC3A.png
http://i.imgur.com/O4YiGFJ.png
http://i.imgur.com/kLIQ9jB.png
http://i.imgur.com/FBtHa0R.png
http://i.imgur.com/oOfTqLd.png

impossibile che costi meno della RX 480. ;)
Certo è che AMD a sto giro ha veramente preso degli sberloni esagerati.
Comunque aspettiamo il 19/07 per le review ufficiali.

CiccoMan
12-07-2016, 13:56
Ci sono novità riguardo la 1080TI? Si sa se verrà presentata insieme alla Titan P?

:)

Crysis90
12-07-2016, 14:00
Ci sono novità riguardo la 1080TI? Si sa se verrà presentata insieme alla Titan P?

:)

Ad ora nessuna Novità.
L'ultimo rumor è quello di qualche giorno fa che "parlava" di una presentazione ad Agosto in concomitanza col Gamescom 2016. ;)
Ma per ora tutte chiacchiere.

appleroof
12-07-2016, 14:22
Se, e dico SE, le performance sono queste

Cut

impossibile che costi meno della RX 480. ;)
Certo è che AMD a sto giro ha veramente preso degli sberloni esagerati.
Comunque aspettiamo il 19/07 per le review ufficiali.

Cavolo non mi aspettavo un divario del genere pensavo fossero mediamente più vicine..

appleroof
12-07-2016, 14:23
Ci sono novità riguardo la 1080TI? Si sa se verrà presentata insieme alla Titan P?

:)

Ma sei hai appena preso la 1080 amp :D

CiccoMan
12-07-2016, 14:28
Ma sei hai appena preso la 1080 amp :D

Fatti gli affari tuoi :Prrr: :D

Voglio anche la TI perchè mi è tornata la scimmia del liquido e mi piacerebbe fare un bel loop cpu+vga... Siccome con la zotac ci sono poche speranze, levo le 2 980 sull'altro pc, metto una 1080ti founders o comunque una con fullcover di facile reperibilità e faccio il loop :D

Crysis90
12-07-2016, 14:30
Cavolo non mi aspettavo un divario del genere pensavo fossero mediamente più vicine..

Da prendere con le pinze, eh.
Vediamo le review ufficiali del 19/07.

Legolas84
12-07-2016, 14:32
Io aspetto techpowerup e hwupgrade come al solito sperando non sia davvero che la 1060 non distacchi così la 480...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Legolas84
12-07-2016, 14:33
Ho messo un non di troppo e non riesco a editare con tapatalk... Scusate :p

Inviato dal mio ONE A2003 utilizzando Tapatalk

Crysis90
12-07-2016, 14:40
Io aspetto techpowerup e hwupgrade come al solito sperando non sia davvero che la 1060 non distacchi così la 480...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Quelle slides sono prese da un documento ufficiale che NVidia ha inviato alle testate per le review della 1060, perciò ci sta che quelle siano le condizioni di vantaggio migliori possibili verso la RX 480 e che nei test "reali" di chi fa le review le differenze siano più risicate. ;)

appleroof
12-07-2016, 14:40
Fatti gli affari tuoi :Prrr: :D

Voglio anche la TI perchè mi è tornata la scimmia del liquido e mi piacerebbe fare un bel loop cpu+vga... Siccome con la zotac ci sono poche speranze, levo le 2 980 sull'altro pc, metto una 1080ti founders o comunque una con fullcover di facile reperibilità e faccio il loop :D

:D metti su una render farm così :sofico:

Comunque allo stato dei rumors per la 1080ti se ne parla per i primi 2017 :fagiano:

Da prendere con le pinze, eh.
Vediamo le review ufficiali del 19/07.

Si certo :p

deadbeef
12-07-2016, 14:55
nel dubbio fail e sberloni

fraussantin
12-07-2016, 15:00
Se, e dico SE, le performance sono queste

http://i.imgur.com/QA4XC3A.png
http://i.imgur.com/O4YiGFJ.png
http://i.imgur.com/kLIQ9jB.png
http://i.imgur.com/FBtHa0R.png
http://i.imgur.com/oOfTqLd.png

impossibile che costi meno della RX 480. ;)
Certo è che AMD a sto giro ha veramente preso degli sberloni esagerati.
Comunque aspettiamo il 19/07 per le review ufficiali.
Boia , se è vero questo , dubito che le custom le prezzeranno sotto i 300.

50 euro in più minimo li valgono tutti.

Cmq non darei troppo credito ai leak ..

Legolas84
12-07-2016, 15:08
Ma no infatti. Aspettiamo le review dei siti autorevoli e speriamo siano il più possibile allineate...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Ale55andr0
12-07-2016, 15:08
io si, perchè gli ultimi leak della 480 dicevano che era una vga che andava grossomodo come le vecchie, cosa poi confutata, ergo se questi danno la 1060 davanti non mi stupirei fossero veri, poi non vedo come non crederci, esce dopo e nvidia ha tutto il tempo di "tarare" i clock per piazzarsi davanti, no n sarebbe nemmeno la prima volta mi pare

Gilbo_33
12-07-2016, 15:17
Boia , se è vero questo , dubito che le custom le prezzeranno sotto i 300.

50 euro in più minimo li valgono tutti.

Cmq non darei troppo credito ai leak ..
Ma come, la 480 a 260 euro no perché c'era la 970 Zotac brutta a 225 con 4gb di ram in meno, e ora la 1060 a 350 euro reference si anche se c'è una xfx 390x a 40 euro meno con 2gb di ram in più?

La coerenza.

E, intendiamoci, per me meglio una 1060 (di sicuro non a 350, 300 mi pare più giusto) di una 390x - così come 480 > 970.

Inviato da Mobile

OvErClOck82
12-07-2016, 15:19
Ma come, la 480 a 260 euro no perché c'era la 970 Zotac brutta a 225 con 4gb di ram in meno, e ora la 1060 a 350 euro reference si anche se c'è una xfx 390x a 40 euro meno con 2gb di ram in più?

La coerenza.

E, intendiamoci, per me meglio una 1060 (di sicuro non a 350, 300 mi pare più giusto) di una 390x - così come 480 > 970.

Inviato da Mobile

avevi dubbi ? :asd:

fraussantin
12-07-2016, 15:36
Ma come, la 480 a 260 euro no perché c'era la 970 Zotac brutta a 225 con 4gb di ram in meno, e ora la 1060 a 350 euro reference si anche se c'è una xfx 390x a 40 euro meno con 2gb di ram in più?

La coerenza.

E, intendiamoci, per me meglio una 1060 (di sicuro non a 350, 300 mi pare più giusto) di una 390x - così come 480 > 970.

Inviato da Mobile
Toh mi mancava il fanboy che si reinterpreta tutto a modo suo.

Certo che fra amd e i suoi fanboy non so chi ama di più prendere le "sberle".

Ps cmq la xfx 390x a 260 euro è presa bene.

Ma dove ?


Sulle amazzoni sta a 320 .. A quel prezzo salterei .
Da negozielli strani pure visto che xfx come garanzie a volte ha fatto storie.

Gilbo_33
12-07-2016, 15:46
Toh mi mancava il fanboy che si reinterpreta tutto a modo suo.

Certo che fra amd e i suoi fanboy non so chi ama di più prendere le "sberle".

Ps cmq la xfx 390x a 260 euro è presa bene.

Ma dove ?


Sulle amazzoni sta a 320 .. A quel prezzo salterei .
Da negozielli strani pure visto che xfx come garanzie a volte ha fatto storie.
Vabbè, vedo che tra la mia firma, le cifre messe a confronto e la mia precisazione hai capito tutto :asd:

Inviato da Mobile

fraussantin
12-07-2016, 15:51
Vabbè, vedo che tra la mia firma, le cifre messe a confronto e la mia precisazione hai capito tutto :asd:

Inviato da Mobile
La firma da tapatalk non la.vedo e sinceramente manco me ne importa.

Tu te ne esci con 350 euro quando io scrivo non sotto i 300 .

Ho detto che SE fossero veri meriterebbe 50 euro in più , non che costerà 350 euro . ( anche se purtroppo è possibile) .

E non ho scritto da nessuna parte che la 390x non è presa male a 50 euro meno.

Anzi consigliavo una 390 al posto della 480 quando costava 50 euro meno.


Ma boh se non sei fanboy allora siamo al delirio assoluto.

Cmq chiudo qui perche avete rotto.



Ps e la.970 io la.consigliavo solo a prezzi molto inferiori rispetto alla 480 , quanto stava a 290 euro .

Perchè evitando i negozietti strani dove la gente normale non compra i prezzi erano quelli .

OvErClOck82
12-07-2016, 15:56
La firma da tapatalk non la.vedo e sinceramente manco me ne importa.

Tu te ne esci con 350 euro quando io scrivo non sotto i 300 .

Ho detto che SE fossero veri meriterebbe 50 euro in più , non che costerà 350 euro . ( anche se purtroppo è possibile) .

E non ho scritto da nessuna parte che la 390x non è presa male a 50 euro meno.

Anzi consigliavo una 390 al posto della 480 quando costava 50 euro meno.


Ma boh se non sei fanboy allora siamo al delirio assoluto.

Cmq chiudo qui perche avete rotto.



Ps e la.970 io la.consigliavo solo a prezzi molto inferiori rispetto alla 480 , quanto stava a 290 euro .

Perchè evitando i negozietti strani dove la gente normale non compra i prezzi erano quelli .
non so se c'è da vantarsi di questo discorso eh :asd:

fraussantin
12-07-2016, 15:59
non so se c'è da vantarsi di questo discorso eh :asd:
Boh...


Tu non credi che se nvidia esce con quella vga e quelle prestazioni a 300 euro in custom , amd non debba calare a 250 euro ( ita ufficiale) per vendere?

Io credo che diversamente gli scaffali si tingerebbero di rosso.

Il problema sai quale sarà? Che nvidia alzerà il prezzo . E sarà" cartello" .

Gilbo_33
12-07-2016, 16:01
Nein.
Dal tuo post dubitavi potesse essere sotto i 300, ma che a quel punto valeva 50 euro in più in base ai Leak. Da qui i 350 euro (e, insomma, l'italiano non è un opinione), e se li vale vuol dire che è un buon acquisto considerato il mercato.
Ricordo tuoi post di la in cui suggerivi la 970 al posto della 480, da qui la critica sulla coerenza.

Poi, insomma, se parli di 260 euro per la 390x, di 390x presa bene a 320 euro e al contempo di 1060 che vale 350euro, mi sa che sei un po' confuso e le "sberle" ti piace tirartele da solo :asd:

Quindi chiudo anche io.



Inviato da Mobile

Mparlav
12-07-2016, 16:02
Zotac GTX 1060 versione mini ITX a 260$ (1506-1708 MHz):
https://www.sabrepc.com/zotac-zt-p10600a-10l-geforce-gtx-1060-graphics-card.html

versione AMP a 280$ (1556-1771 MHz):
https://www.sabrepc.com/zotac-zt-p10600b-10m-geforce-gtx-1060-amp-graphics-card.html

La Gigabyte GTX 1060 G1 Gaming (connettore 8 pin si vede in altre foto):
http://cdn.videocardz.com/1/2016/07/Gigabyte-GeForce-GTX-1060-G1-Gaming-5.jpg

Hadar
12-07-2016, 16:05
hai dimenticato le pacche sulle spalle

comunque amd ha appena confermato che vega non uscirà prima del Q1 2017. mah, le hbm2 sempre più una necessità?





Link/fonte?

nessuno29
12-07-2016, 16:09
Se, e dico SE, le performance sono queste


impossibile che costi meno della RX 480. ;)
Certo è che AMD a sto giro ha veramente preso degli sberloni esagerati.
Comunque aspettiamo il 19/07 per le review ufficiali.

Perchè le testate si ostinano a provare questi dinosauri?Servono test con engine nuovi!basta bf3 basta crysis basta metro e che diamine.....

Legolas84
12-07-2016, 16:11
Testoni.. Non è il luogo adatto! Tornate di la.
Bravo ;)

Inviato dal mio ONE A2003 utilizzando Tapatalk

Goofy Goober
12-07-2016, 16:11
Perchè le testate si ostinano a provare questi dinosauri?Servono test con engine nuovi!basta bf3 basta crysis basta metro e che diamine.....

Perchè se smettono di usare di botto tutti i vecchi i titoli con cui si testano le schede, le classifiche comparative delle schede video saranno vuote, dato che perdono tutti i dati di riferimento dei test effettuati con i vecchi modelli...
E non sono in tanti quelli che ri-eseguono i test di ogni singola gpu degli ultimi 5-6 anni per portarli a riferimento confrontate con quelle attuali.

E ti prego ora non dire che non importa a nessuno di confrontare le attuali gpu con quelle uscite qualche anno fa.

fraussantin
12-07-2016, 16:15
Nein.
Dal tuo post dubitavi potesse essere sotto i 300, ma che a quel punto valeva 50 euro in più in base ai Leak. Da qui i 350 euro (e, insomma, l'italiano non è un opinione), e se li vale vuol dire che è un buon acquisto considerato il mercato.
Ricordo tuoi post di la in cui suggerivi la 970 al posto della 480, da qui la critica sulla coerenza.

Poi, insomma, se parli di 260 euro per la 390x, di 390x presa bene a 320 euro e al contempo di 1060 che vale 350euro, mi sa che sei un po' confuso e le "sberle" ti piace tirartele da solo :asd:

Quindi chiudo anche io.



Inviato da Mobile
No non hai capito un tubo di quello che ho detto o forse non lo vuoi capire.

Cmq per fare chiarezza :


1060 difficilmente sotto i 300 ( chiaro?)
1060 forse sui 350 e inculata per tutti( ovvio)


390x presa bene a 260 ( tu hai detto 40 euro meno , io scritto 300)


Ma la 390x costa 320 e è una fregatura.

Se hai qualche altro dubbio mandami un magari te lo spiego per telefono XD
;)

OvErClOck82
12-07-2016, 16:18
Testoni.. Non è il luogo adatto! Tornate di la.

ma io sarei pure interessato alla 1060 se avrà prestazioni (probabile) e prezzi (mai nella vita) onesti eh, solo che leggere la costante mancanza di obbiettività di certi soggetti mi diverte un sacco :asd:

appleroof
12-07-2016, 16:22
Zotac GTX 1060 versione mini ITX a 260$ (1506-1708 MHz):
https://www.sabrepc.com/zotac-zt-p10600a-10l-geforce-gtx-1060-graphics-card.html

versione AMP a 280$ (1556-1771 MHz):
https://www.sabrepc.com/zotac-zt-p10600b-10m-geforce-gtx-1060-amp-graphics-card.html

La Gigabyte GTX 1060 G1 Gaming (connettore 8 pin si vede in altre foto):
[]

Interessante, tocca vedere le prestazioni definitive

Gilbo_33
12-07-2016, 16:24
Perchè se smettono di usare di botto tutti i vecchi i titoli con cui si testano le schede, le classifiche comparative delle schede video saranno vuote, dato che perdono tutti i dati di riferimento dei test effettuati con i vecchi modelli...
E non sono in tanti quelli che ri-eseguono i test di ogni singola gpu degli ultimi 5-6 anni per portarli a riferimento confrontate con quelle attuali.

E ti prego ora non dire che non importa a nessuno di confrontare le attuali gpu con quelle uscite qualche anno fa.
Su questo hai perfettamente ragione. Infatti credo anche io che per avere un campione di confronto adeguato togliere giochi utilizzati da sempre (o comunque da un certo lasso di tempo a questa parte) è controproducente.
Però per dovere di completezza per me è ragionevole distinguere la fetta di giochi recenti da quelli più preistorici, per avere un quadro più specifico sulle potenzialitàattuali di una vga, e nelle recensioni non viene mai fatta questa distinzione (e parlo in generale, al di là di Nvidia vs AMD).
Preciso che questa è una piccola critica al giornalismo specializzato in generale, che di miglioramenti potrebbe farne a pacchi.

Altro esempio, solo alcuni siti riportano statistiche come fps per dollari (il che fa capire come ad esempio schede come la 1060/480 sono dei best buy rispetto alla 960/380, dato che all'uscita queste ultime giocavi a una media sotto i 50fps, mentre con le 480 stai sopra i 60 (e la 1060 probabilmente andrà anche di più).

Ma sono un po' ot mi sa...





Inviato da Mobile

Mparlav
12-07-2016, 16:25
Ho riportato il prezzo della Zotac GTX 1060 AMP a 280$
A titolo di confronto una reference RX 480 la vendono a 270$, quindi il prezzo della custom è tutt'altro che elevato e minore dei 300$ paventati da qualcuno.
O se si preferisce la Zotac GTX 1070 AMP la vendono a 470$ (in Italia si trova a 470 euro ivata).

Quindi le GTX 1060 custom, se non ci sono particolari problemi di fornitura, si assesteranno intorno ai 260-280 euro ivate (le Zotac AMP non sono le custom più economiche, ma sono nella media)

appleroof
12-07-2016, 16:28
Ho riportato il prezzo della Zotac GTX 1060 AMP a 280$
A titolo di confronto una reference RX 480 la vendono a 270$, quindi il prezzo della custom è tutt'altro che elevato e minore dei 300$ paventati da qualcuno.
O se si preferisce la Zotac GTX 1070 AMP la vendono a 470$ (in Italia si trova a 470 euro ivata).

Quindi le GTX 1060 custom, se non ci sono particolari problemi di fornitura, si assesteranno intorno ai 260-280 euro ivate (le Zotac AMP non sono le custom più economiche, ma sono nella media)

il che dovrebbe dire molto anche delle prestazioni medie della vga, a rigore

Gilbo_33
12-07-2016, 16:29
Ho riportato il prezzo della Zotac GTX 1060 AMP a 280$
A titolo di confronto una reference RX 480 la vendono a 270$, quindi il prezzo della custom è tutt'altro che elevato e minore dei 300$ paventati da qualcuno.
O se si preferisce la Zotac GTX 1070 AMP la vendono a 470$ (in Italia si trova a 470 euro ivata).

Quindi le GTX 1060 custom, se non ci sono particolari problemi di fornitura, si assesteranno intorno ai 260-280 euro ivate (le Zotac AMP non sono le custom più economiche, ma sono nella media)
Veramente le reference 4gb sono a 199$, 239$ per le 8gb. Attualmente, mercato americano, disponibili.

Inviato da Mobile

Goofy Goober
12-07-2016, 16:30
ma che testate, è la suite bench della guida di nvidia per confrontare e testare la 1060! :read:

http://videocardz.com/62138/nvidia-geforce-gtx-1060-reviewers-guide-leaked

una guida assurda.

ma che puttanata è, c'è già la tabella dei risultati a raffronto della RX480 in fondo :asd:
in una guida "ufficiale" di Nvidia per chi recensisce una 1060 :asd:

my god e in quella della 1080 che ci hanno messo? una 9600Pro per sentirsi più fighi? :sofico:

È tipo il test più utile, SOPRATTUTTO nel mercato mainstream, quindi chi non fa i test in quel modo semplicemente non sa lavorare.


Non intendevo dire che ci sono recensori che fanno i test con schede recenti e postano solo i risultati di queste a confronto, ma che ci son siti che non ri-eseguono i test di tutte le gpu degli ultimi anni ogni volta che recensiscono un modello nuovo o un modello custom di una gpu...

Perchè?
O per il tempo o perchè banalmente non hanno da parte tutti i modelli testati precedentementi di tutte le schede video...

Per questo ritengo sia importante mantenere anche giochi vecchiotti in suite di test, perchè altrimenti tutto il database pregresso finirebbe buttato nel cesso in fase di raffronto prestazionale.

Su questo hai perfettamente ragione. Infatti credo anche io che per avere un campione di confronto adeguato togliere giochi utilizzati da sempre (o comunque da un certo lasso di tempo a questa parte) è controproducente.
Però per dovere di completezza per me è ragionevole distinguere la fetta di giochi recenti da quelli più preistorici, per avere un quadro più specifico sulle potenzialitàattuali di una vga, e nelle recensioni non viene mai fatta questa distinzione (e parlo in generale, al di là di Nvidia vs AMD).
Preciso che questa è una piccola critica al giornalismo specializzato in generale, che di miglioramenti potrebbe farne a pacchi.

Altro esempio, solo alcuni siti riportano statistiche come fps per dollari (il che fa capire come ad esempio schede come la 1060/480 sono dei best buy rispetto alla 960/380, dato che all'uscita queste ultime giocavi a una media sotto i 50fps, mentre con le 480 stai sopra i 60 (e la 1060 probabilmente andrà anche di più).


Per me è fondamentale che ci siano i test con raffronti a gpu vecchie di un paio di generazioni, perchè non sta scritto da nessuna parte che tutti cambiano scheda ad ogni nuova uscita sul mercato.

appleroof
12-07-2016, 16:34
pare che quei bench postati prima siano della reviewers guide

questo e altro* nella lollosa riproduzione qui: http://videocardz.com/62138/nvidia-geforce-gtx-1060-reviewers-guide-leaked

*per esempio in un passaggio dicono che sarà un hard launch con disponibilità immediata....

Mparlav
12-07-2016, 16:34
Interessante, tocca vedere le prestazioni definitive

Secondo "l'oste" :) siamo tranquillamente sopra la GTX 980.
Ma manca una settimana ormai, tanto vale aspettare le recensioni.

OvErClOck82
12-07-2016, 16:36
epica la guida :rotfl:

Mparlav
12-07-2016, 16:37
Veramente le reference 4gb sono a 199$, 239$ per le 8gb. Attualmente, mercato americano, disponibili.

Inviato da Mobile

Ho riportati i prezzi dallo stesso sito per un motivo ben preciso: è un metro più oggettivo per i prezzi, più utile della semplice conversione valutarie.
Perchè se quel sito, sparasse alto su prodotto, potrebbe farlo anche per la GTX 1060 AMP.

In pratica, se trovi da newegg una GTX 1070 AMP o una RX 480 ad un prezzo inferiore di 20-30$, è molto probabile che ci troverai anche la GTX 1060 AMP.

appleroof
12-07-2016, 16:40
http://i.imgur.com/rNzyJMi.jpg

http://wccftech.com/nvidia-gtx-1060-performance-benchmarks-leak/


p.s.: scusate ma come cavolo si fa a ridimensionare da imgur? E' cambiata l'interfaccia e sarò impedito io ma non trovo le opzioni :stordita:

Goofy Goober
12-07-2016, 16:46
La fisica va meglio a non overclockare? O.o

quel risultato è dato dalla CPU (infatti non cambia quasi tra i 3 test), non dalla GPU.

Gilbo_33
12-07-2016, 16:52
http://i.imgur.com/rNzyJMi.jpg

http://wccftech.com/nvidia-gtx-1060-performance-benchmarks-leak/


p.s.: scusate ma come cavolo si fa a ridimensionare da imgur? E' cambiata l'interfaccia e sarò impedito io ma non trovo le opzioni :stordita:
Insomma, dall'altro firestrike leakato abbiamo capito che una 480 toccata va di più di una 1060 stock, da questo che una 1060 occata va di più di una 480 stock. Vanno uguali, che faccio lascio?

Inviato da Mobile

Goofy Goober
12-07-2016, 16:55
Insomma, dall'altro firestrike leakato abbiamo capito che una 480 toccata va di più di una 1060 stock, da questo che una 1060 occata va di più di una 480 stock. Vanno uguali, che faccio lascio?


Raddoppia!

The Pein
12-07-2016, 16:56
bello vedere la 1060 occata contro la rx480 a default...popoponcipo: vuoi vincere facile? :sofico:

Gilbo_33
12-07-2016, 17:05
bello vedere la 1060 occata contro la rx480 a default...popoponcipo: vuoi vincere facile? :sofico:
Va beh, anche nell'altro la 480 era occata:
http://www.3dmark.com/compare/fs/9202637/fs/9188962#

Con la differenza che, stando alle 1070/1080, una 1060 a 2160mhz potrebbe aver murato, le 480 si sa per certo che possono salire di più di 1350mhz.

Comunque per me si equivarranno, sarà il prezzo (o il marketing) a determinare il successo dell'una o dell'altra.
Raddoppia!
Signora Longari, che fa, mi cade sull'uccello?

Inviato da Mobile

Gilbo_33
12-07-2016, 17:16
Ho riportati i prezzi dallo stesso sito per un motivo ben preciso: è un metro più oggettivo per i prezzi, più utile della semplice conversione valutarie.
Perchè se quel sito, sparasse alto su prodotto, potrebbe farlo anche per la GTX 1060 AMP.

In pratica, se trovi da newegg una GTX 1070 AMP o una RX 480 ad un prezzo inferiore di 20-30$, è molto probabile che ci troverai anche la GTX 1060 AMP.
Mi era sfuggito che il confronto era sullo stesso sito. Se così fosse (1060 amp a 280 euro) ben venga!

Anche se uno street price di 249$ ammerigano, dove il VAT è tra lo 0 e il 10%, non fa ben sperare...

Inviato da Mobile

Gilbo_33
12-07-2016, 18:34
Che tra l'altro (scusate il doppio post), le frequenze di quell'AMP non sono un po' bassine?
1550~ con boost a 1750~ per una custom contro i 1708mhz indicati sul sito Nvidia per la reference. C'è qualquadra che non cosa...

EDIT: mea culpa, 1708mhz è il boost

A questo punto, stando al Leak firestrike di sopra, una 480 a 1350 sta sopra a una 1060 occata a 1911mhz.

Mparlav
12-07-2016, 18:39
Probabilmente hanno previsto anche una AMP Extreme, con un ulteriore manciata di MHz.

Mparlav
12-07-2016, 18:51
Qui ci sono altre custom:
http://videocardz.com/62127/nvidia-geforce-gtx-1060-available-for-preorder
Asus Strix, PNY ed altri 2 modelli di Zotac "superiori" alla AMP in prevendità.

mikael84
12-07-2016, 18:54
1060 3gb, forse con qualche SMM in meno.

http://videocardz.com/62182/nvidia-geforce-gtx-1060-3gb-to-feature-1152-cuda-cores

Hadar
12-07-2016, 18:56
1060 3gb, forse con qualche SMM in meno.

http://videocardz.com/62182/nvidia-geforce-gtx-1060-3gb-to-feature-1152-cuda-cores

Ha senso chiamarla 1060? :confused:

Lunar Wolf
12-07-2016, 18:58
Ho riportato il prezzo della Zotac GTX 1060 AMP a 280$
A titolo di confronto una reference RX 480 la vendono a 270$, quindi il prezzo della custom è tutt'altro che elevato e minore dei 300$ paventati da qualcuno.
O se si preferisce la Zotac GTX 1070 AMP la vendono a 470$ (in Italia si trova a 470 euro ivata).

Quindi le GTX 1060 custom, se non ci sono particolari problemi di fornitura, si assesteranno intorno ai 260-280 euro ivate (le Zotac AMP non sono le custom più economiche, ma sono nella media)
La 1060 direi 320/350 la troveremo

mikael84
12-07-2016, 19:02
Ha senso chiamarla 1060? :confused:

No, stanno solo cercando di rimanere collegati ai 192bit. Per schede di questo calibro un 128bit è limitante.

Gilbo_33
12-07-2016, 19:08
Qui ci sono altre custom:
http://videocardz.com/62127/nvidia-geforce-gtx-1060-available-for-preorder
Asus Strix, PNY ed altri 2 modelli di Zotac "superiori" alla AMP in prevendità.
Sto guardando il sito lì, la sciabolapc, e non per sminuire il tuo ragionamento sui prezzi che fa ben sperare per le 1060, però vorrei far notare che hanno ancora vga in vendita tipo la 9800m a 188$, o la 5850 a 314$, o la 570 a 288$ :asd:

Alfa89
12-07-2016, 20:49
Anche se andasse più di una RX 480, tutto dipende a che prezzo verrà venduta. Ovviamente intendo tra un paio di mesi, perchè sicuramente le prime settimane saranno inavvicinabili.
In questa fascia di mercato un 50€ in più si fa sentire. Almeno, per me si :D

Gilbo_33
12-07-2016, 20:59
Anche se andasse più di una RX 480, tutto dipende a che prezzo verrà venduta. Ovviamente intendo tra un paio di mesi, perchè sicuramente le prime settimane saranno inavvicinabili.
In questa fascia di mercato un 50€ in più si fa sentire. Almeno, per me si :D
Ma immagino almeno per tutti.

Inviato da Mobile

ste-87
12-07-2016, 23:50
Io son sempre disponibile a prendermi una 980 reference a 200 se qualcuno se ne vuol disfare, eh :>

Sent from Tapatalk

addirittura 200€, fai 150€ e ci stai pure rimettendo :D

Bi7hazard
13-07-2016, 02:16
Come è possibile che nessuno si sia accorto del topic concorrente riguardante la 480? Con il rilascio dei nuovi driver la 480 si avvicina addirittura alla 1070 (almeno a doom2016)

Io resto piuttosto scettico che dei semplici driver facciano una differenza così marcata

Inviato dal mio MI 3W utilizzando Tapatalk

Kostanz77
13-07-2016, 02:53
Come è possibile che nessuno si sia accorto del topic concorrente riguardante la 480? Con il rilascio dei nuovi driver la 480 si avvicina addirittura alla 1070 (almeno a doom2016)

Io resto piuttosto scettico che dei semplici driver facciano una differenza così marcata

Inviato dal mio MI 3W utilizzando Tapatalk



Mi sembra strano......la 1070 dovrebbe asfaltare la RX 480, sono due fasce di schede completamente diverse.


Inviato dal mio iPhone 6S utilizzando Tapatalk

Ale55andr0
13-07-2016, 03:00
Come è possibile che nessuno si sia accorto del topic concorrente riguardante la 480? Con il rilascio dei nuovi driver la 480 si avvicina addirittura alla 1070 (almeno a doom2016)

Io resto piuttosto scettico che dei semplici driver facciano una differenza così marcata

Inviato dal mio MI 3W utilizzando Tapatalk

con vulkan :read:

bepman
13-07-2016, 08:05
ma a nessuno pare strano che ti diano la lista dei giochi da testare? e che ti diano anche già i risultati?

Mparlav
13-07-2016, 08:48
Sto guardando il sito lì, la sciabolapc, e non per sminuire il tuo ragionamento sui prezzi che fa ben sperare per le 1060, però vorrei far notare che hanno ancora vga in vendita tipo la 9800m a 188$, o la 5850 a 314$, o la 570 a 288$ :asd:

Fondi di magazzino con listino non aggiornato a quei prezzi?
E dove sarebbe la novità :D

In ogni caso, rimanderei ogni discorso sui prezzi: il 19/7 escono le recensioni ed i prodotti online e già m'immagino i commenti di chi vedrà qualche scheda a 330 euro gridando allo scandalo :D

Me ne vado in ferie,quando ho tempo mi leggo le recensioni ed i test d'overclock delle varie custom, ed a settembre riguardo i prezzi :)

Mparlav
13-07-2016, 09:01
ma a nessuno pare strano che ti diano la lista dei giochi da testare? e che ti diano anche già i risultati?

No, è già accaduto.
La differenza la fanno quei siti che accettano ciecamente quelle modalità di test per non compromettere il loro rapporto col produttore in futuro al lancio di ogni nuovo prodotto e quelli che la rispettano MA aggiungono anche del loro, una roba tipo Hitman DX12 e Doom Vulkan.

Ci sono siti che preferiscono perdersi la prima sfornata di schede reference al dayone e testare a modo loro dopo qualche giorno, usando quelle in commercio e sul quale Nvidia non può aprire bocca.
Il punto è che per una GTX 1060, basterebbe aspettare 1-2 giorni.
Ma un recensore come avrebbe potuto permettersi di aspettare 10-15 giorni con le GTX 1070/1080?

bepman
13-07-2016, 09:36
No, è già accaduto.
La differenza la fanno quei siti che accettano ciecamente quelle modalità di test per non compromettere il loro rapporto col produttore in futuro al lancio di ogni nuovo prodotto e quelli che la rispettano MA aggiungono anche del loro, una roba tipo Hitman DX12 e Doom Vulkan.

Ci sono siti che preferiscono perdersi la prima sfornata di schede reference al dayone e testare a modo loro dopo qualche giorno, usando quelle in commercio e sul quale Nvidia non può aprire bocca.
Il punto è che per una GTX 1060, basterebbe aspettare 1-2 giorni.
Ma un recensore come avrebbe potuto permettersi di aspettare 10-15 giorni con le GTX 1070/1080?

ed infatti con le 1070/1080 hanno ottenuto che nessuno le testasse al d1 contro la 980ti occata. non so, magari succede la stessa cosa dal lato dei rossi, ma non mi sembra una bella pratica perché poi chi ci smena se le recensioni sono fasate siamo sempre noi

Legolas84
13-07-2016, 10:20
Ragazzi dai avete stufato davvero tanto sembrate bambini piagnucoloni...

1. Chiunque si intenda un minimo di questo settore sa che le review guide esistono dai tempi di 3dfx per tutti i marchi e per tutti i prodotti. Servono tra le altre cose per presentare i risultati attesi in modo che se una testata dovesse registrare valori di molto diversi avrebbe un campanello di allarme per vedere se c'è qualche malfunzionamento sui test che sta conducendo. E ripeto vale ovviamente per tutti i marchi e tutti i prodotti.

2. I test in overclock sono assolutamente stati fatti, certo se siete poco informati non è colpa di nessuno, se volete un aiuto sono postati nel secondo post del thread ufficiale delle 1080...

Cavolo siete una manciata di utenti ma riuscite davvero a creare scompiglio...

Inviato dal mio ONE A2003 utilizzando Tapatalk

appleroof
13-07-2016, 10:29
Ragazzi dai avete stufato davvero tanto sembrate bambini piagnucoloni...

1. Chiunque si intenda un minimo di questo settore sa che le review guide esistono dai tempi di 3dfx per tutti i marchi e per tutti i prodotti. Servono tra le altre cose per presentare i risultati attesi in modo che se una testata dovesse registrare valori di molto diversi avrebbe un campanello di allarme per vedere se c'è qualche malfunzionamento sui test che sta conducendo. E ripeto vale ovviamente per tutti i marchi e tutti i prodotti.

2. I test in overclock sono assolutamente stati fatti, certo se siete poco informati non è colpa di nessuno, se volete un aiuto sono postati nel secondo post del thread ufficiale delle 1080...



No, gomblotto :asd:

Free Gordon
13-07-2016, 10:43
Gombloddo di sicuro.
Il Gombloddo è il succo del marketing...proprio in senso lato. ;)

appleroof
13-07-2016, 11:11
Non capisco perché non chiamarla 1050

http://www.hwupgrade.it/news/skvideo/geforce-gtx-1060-in-arrivo-ad-agosto-una-versione-da-3-gbytes_63607.html

Legolas84
13-07-2016, 11:16
Ma perché AMD non ha messo dei siti in blacklist? :asd:

È ridicolo il vostro essere di parte e il non rendervi conto di come tutte le aziende si comportano allo stesso modo...

Qui non si difende NVIDIA si cerca solo di spiegarvi come vanno realmente le cose... Ma voi preferite invece puntare il dito contro una sola azienda senza rendervi conto (per dolo o per colpa) di come invece siano realmente le cose.
Ma in quasi 15 anni di presenza su questo forum non sono nuovo a presenze del genere...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Legolas84
13-07-2016, 11:23
Tra l'altro dite anche una marea di falsità e insistete... Piangete che secondo voi qui abbiamo già deciso che la 1060 è meglio della 480 quando sono pagine che diciamo di aspettare le review, piangete che non hanno testato la 980ti Vs 1080 in overclock e vi si dice invece che lo hanno fatto dicendovi anche dove andare a vedere e niente...

Bo...

Inviato dal mio ONE A2003 utilizzando Tapatalk

mikael84
13-07-2016, 11:32
Se lo fanno non sembra che funzioni granché, su questo sito la 480 l'hanno testata con una 970 OC che costava il doppio alimentando il mantra "è meglio la 970 che costa uguale e va di più"

Le 970 sono tutte custom e lavorano sui 1300 in media, di reference non se ne trovano. Le uniche a valori bassi sono le platicose o mini itx.
Stessa cosa con la 7950, che debuttava a 800 mhz, e tutte le testate dopo un pò hanno deciso di testare solo la 925mhz, visto che le 800 sono scomparse.

appleroof
13-07-2016, 11:55
Probabilmente perché così sempra più veloce, insomma banalmente "motivi di marketing".

In ogni caso avendo tagli di ram diversi si distinguono in modo banale, non mi sembra un gran problema, mi sembrò peggio non chiamare GTX265 la 216cc :>

E in ogni caso l'analfabetismo funzionale dilagante fa si che al mediaworld ci va gente che associa il numerone sulla RAM video (o sulla dimensione dell'HDD) a "va di più", quindi se per una volta è così davvero tanto meglio :asd:

Si ma questa non ha (avrebbe) solo 3gb ma anche meno sp, insomma è ben diversa, mi aspetto abbia un nome commerciale diverso oppure solo i 3gb ma resto delle specifiche uguali alla 6gb

OvErClOck82
13-07-2016, 11:57
Banale marketing per gonzi..al grido "Tanto i 6gb sono inutili" molti prenderanno la versione 3gb che tanto è comunque una 1060


Inviato dal mio iPhone utilizzando Tapatalk

mikael84
13-07-2016, 12:07
già, ma anche 1050ti ci stava benissimo, la 1050 dovrebbe essere sui 1024cc.

Il problema qua nasce tutto dal bus.
La 1050 dovrebbe essere 1024/32 rop's e 128bit, ma il problema è che i 128 bit frenano le alu che richiederebbero un'ampiezza di banda superiore.
Non credo però che Nvidia a sto punto rilasci 3 schede su tale fascia, quindi utilizzerà il 128bit per il GP107 che sfiderà la 460.
128gb/s per 640 elementi bastano (gtx 960)


hanno fatto bene secondo me infatti, e del resto è e rimane una review di una scheda reference, vedremo le custom ed i prezzi.

Questa non è proprio una scelta redazionale ma Nvidia ha deciso di andare quasi solo di custom (reference almeno qua non se ne sono mai viste, se non fuori targate Manli).
Chiaramente spetta all'utente capire la review e saperla interpretare.
Anche la prima review ufficiale di hwu era basata appunto su una custom.
http://www.hwupgrade.it/articoli/skvideo/4158/asus-geforce-gtx-970-strix-maxwell-alla-seconda-prova_index.html

Ale55andr0
13-07-2016, 12:08
sarebbe na ladrata bella e buona chiamare una scheda con meno cu con lo stesso nome della 1060 :rolleyes:

Legolas84
13-07-2016, 12:09
sarebbe na ladrata bella e buona chiamare una scheda con meno cu con lo stesso nome della 1060 :rolleyes:
Si quoto, sarebbe abbastanza una furbata che potrebbe danneggiare i clienti meno attenti.

Secondo me la cosa migliore sarebbe chiamarla 1050 se devono decurtare un cluster...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Malek86
13-07-2016, 12:48
Si quoto, sarebbe abbastanza una furbata che potrebbe danneggiare i clienti meno attenti.

Secondo me la cosa migliore sarebbe chiamarla 1050 se devono decurtare un cluster...

Inviato dal mio ONE A2003 utilizzando Tapatalk

Non sarebbe una novità. Soprattutto nelle schede di fascia bassa, ci sono robe tipo la GT730 che francamente mi fanno rabbrividire.

Predator_1982
13-07-2016, 12:52
ma che voi sappiate, la gpu delle 1060/1070 è la stessa identica della 1080 con i vari cluster elettronicamente interrotti oppure si tratta di processori a se stanti?

Predator_1982
13-07-2016, 12:59
La GPU sulla 1070 è la stessa che trovi culla 1080 con alcune cose disabilitate (e affiancata da memoria GDDR5 invece che GDDR5X): GP104

La GPU sulla 1060 dovrebbe essere un'altra GPU: GP106

ok, pensavo che cambiando la tipologia di memoria cambiasse anche il front-end della gpu e di conseguenza, l'intero chip.

Ren
13-07-2016, 14:48
Si ma questa non ha (avrebbe) solo 3gb ma anche meno sp, insomma è ben diversa, mi aspetto abbia un nome commerciale diverso oppure solo i 3gb ma resto delle specifiche uguali alla 6gb

Se vogliono consumare meno, devono per forza usare le 8gigabit/20nm Samsung. Questo significa 6GB(32bitx6) hardware che diventano 3GB via bios.

Stessa solfa della RX480 4GB.

Vediamo se nvidia è più furba...:sofico:

Ren
13-07-2016, 15:13
Guarda mamma, non sono(quasi) cpu limited nemmeno con i3-2100/gtx1080...:sofico:

http://gamegpu.com/images/stories/Test_GPU/Action/DOOM/test/vulkan/doom_proz_o.jpghttp://gamegpu.com/images/stories/Test_GPU/Action/DOOM/test/vulkan/doom_proz_v.jpg

mikael84
13-07-2016, 15:49
Si ma questa non ha (avrebbe) solo 3gb ma anche meno sp, insomma è ben diversa, mi aspetto abbia un nome commerciale diverso oppure solo i 3gb ma resto delle specifiche uguali alla 6gb

Nvidia ha già fatto di queste cose a stesso nome, ricordi la 460 768mb con 2 canali rop's/banda in meno.
Si chiamava la 460 768mb.:) , più una 460 SE con meno cuda.:fagiano:

mikael84
13-07-2016, 16:26
E la 260 216cc dove la metti? A me sembrava peggio quel caso, non c'era nemmeno la differenza di ram a marcare una chiara differenza, ma solo una 260 e una 260 216cc (se non sei nel loop che ne sai se 216 vuol dire meglio o peggio?)

Sent from Tapatalk

Quella portava il nome come 260 216cc ma erano nuove produzioni a core più piccoli 55nm.
Era la stessa scheda con un cluster da 24 cc (3x8) a 55nm e bus a 448bit.
Certo avrebbero dovuto chiamarla 265, in quanto la 285 venne rinominata così, mentre la 275 era una 285 con il bus a 448.

Questo anche con la 8800gts 90nm, in seguito soppiantata dalla 8800gts 512mb, la scheda che dopo divenne 9800gtx con le memorie samsung e 9800gtx+ (modello oc)

egounix
13-07-2016, 16:34
Guarda mamma, non sono(quasi) cpu limited nemmeno con i3-2100/gtx1080...:sofico:

http://gamegpu.com/images/stories/Test_GPU/Action/DOOM/test/vulkan/doom_proz_o.jpghttp://gamegpu.com/images/stories/Test_GPU/Action/DOOM/test/vulkan/doom_proz_v.jpg

SpetaCulo!!!!! Posso mette uno sli di 1080ti sul mio i3!!!! Evvaiiii yeahhhhh!!! :asd: :p

appleroof
13-07-2016, 16:43
Nvidia ha già fatto di queste cose a stesso nome, ricordi la 460 768mb con 2 canali rop's/banda in meno.
Si chiamava la 460 768mb.:) , più una 460 SE con meno cuda.:fagiano:

Forse non mi sono spiegato, se fai una 1060 3gb ed una identica con 6gb ok, basta l'indicazipne dieno ram (come la 480 4/8gb) se fai una 1060 con 3gb e anche meno sp come dicono i rumors allora sarebbe il caso di cambiare nome commerciale (che so, 1050, 1050ti quello che vuoi) secondo me

Se ricordo bene la 460 768 si differenziava dalla 1gb solo per la ram minore, ma gli sp erano gli stessi

Ren
13-07-2016, 16:46
Forse non mi sono spiegato, se fai una 1060 3gb ed una identica con 6gb ok, basta l'indicazipne dieno ram (come la 480 4/8gb) se fai una 1060 con 3gb e anche meno sp come dicono i rumors allora sarebbe il caso di cambiare nome commerciale (che so, 1050, 1050ti quello che vuoi) secondo me

Se ricordo bene la 460 768 si differenziava dalla 1gb solo per la ram minore, ma gli sp erano gli stessi

Dal reparto marketing mi suggeriscono 1060 "mini"...:sofico: (sto trollando)

460 768mb aveva il bus/rops azzoppate.

Ren
13-07-2016, 16:50
SpetaCulo!!!!! Posso mette uno sli di 1080ti sul mio i3!!!! Evvaiiii yeahhhhh!!! :asd: :p

This is the powa:sofico:

Con le DX12/vulkan il mio 920 spegnerà le dieci candeline (è un gomblotto anti-aggiornamento) :oink:

mikael84
13-07-2016, 16:53
SpetaCulo!!!!! Posso mette uno sli di 1080ti sul mio i3!!!! Evvaiiii yeahhhhh!!! :asd: :p

:asd:
Ci sta, ma i colori sbiaditi?:p

Forse non mi sono spiegato, se fai una 1060 3gb ed una identica con 6gb ok, basta l'indicazipne dieno ram (come la 480 4/8gb) se fai una 1060 con 3gb e anche meno sp come dicono i rumors allora sarebbe il caso di cambiare nome commerciale (che so, 1050, 1050ti quello che vuoi) secondo me

Se ricordo bene la 460 768 si differenziava dalla 1gb solo per la ram minore, ma gli sp erano gli stessi

Si ti ho capito, la 460 perdeva unità come 8 rop's, oltre alla banda, quindi era già decurtata di suo, non era un 460 a tutti gli effetti.
Sarebbe stato corretto 1060 SE o 1050TI ma nvidia non è la prima volta che fa confusione con le sigle (vedi 8800gts).
Anche se per uno poco preparato quella da 3gb è una 1060 a tutti gli effetti, quindi è in parte ingannevole.

Ren
13-07-2016, 16:55
:asd:
Ci sta, ma i colori sbiaditi?:p

Mo pretendi troppo, in bianco e nero va benissimo...:p

appleroof
13-07-2016, 16:55
460 768mb aveva il bus/rops azzoppate.

si adesso ricordo, era 196 vs. 256 per via del taglio di memoria

appleroof
13-07-2016, 16:58
:asd:
Ci sta, ma i colori sbiaditi?:p

fosse solo quello, la coscienza poi lo farebbe dormire di notte? :D


Si ti ho capito, la 460 perdeva unità come 8 rop's, oltre alla banda, quindi era già decurtata di suo, non era un 460 a tutti gli effetti.
Sarebbe stato corretto 1060 SE o 1050TI ma nvidia non è la prima volta che fa confusione con le sigle (vedi 8800gts).
Anche se per uno poco preparato quella da 3gb è una 1060 a tutti gli effetti, quindi è in parte ingannevole.

boh, vediamo per ora solo rumors in fondo

CrapaDiLegno
13-07-2016, 17:06
Difficile stimare con certezza il perchè di quel design, sopratutto perchè tutto non ritorna con le ram. Potrebbe essere anche una sorta di riciclo.




Sono 32 e 48 sulla 1070;)
https://abload.de/img/ropsgtx1060fyje7.png

1709 x32 =55 g.pixel
I GPC sono 3 collegati ma in uno non ci processi nulla.:)

Poi se si inventano qualcos'altro non saprei.

Se ci pensi Nvidia la rilascia a 48 rop's non 32, quindi si presume che un 3° GPC sia per forza collegato :D

Speriamo non legga Frozen perchè non gli piace il sistema rop's di Nvidia

Scusa non ho seguito la discussione, ma mi è stato segnalato questo post.
Da dove deduci che ogni GPC abbia il proprio controller di memoria dedicato?
Il MC collega tutti GPC in maniera uniforme soddisfacendo le loro richieste e usando tutta la banda. Se è come dici tu 2 GPC non potrebbero mai usare la banda messa a disposizione di un bus a 192bit.

Inoltre come spieghi il GM200 che ha 5 GPC e 6 canali di memoria per un totale di 384bit? Anche lí rops buttate? Banda non sfruttata?

La tua associazione GPC - canale di memoria è equivalente a dire che ogni core in una CPU ha il suo canale... Voglio vederti collegare 18 core alla memoria in quella maniera....

P. S: il problema del GP100 era proprio dovuto al crossbar tra GPC e memory controller da cui ogni GPC può accedere a qualsiasi indirizzo e prelevare qualsiasi quantità di dati a piena banda (se il crossbar funziona, of course).

mikael84
13-07-2016, 17:27
Scusa non ho seguito la discussione, ma mi è stato segnalato questo post.
Da dove deduci che ogni GPC abbia il proprio controller di memoria dedicato?
Il MC collega tutti GPC in maniera uniforme soddisfacendo le loro richieste e usando tutta la banda. Se è come dici tu 2 GPC non potrebbero mai usare la banda messa a disposizione di un bus a 192bit.

Inoltre come spieghi il GM200 che ha 5 GPC e 6 canali di memoria per un totale di 384bit? Anche lí rops buttate? Banda non sfruttata?

La tua associazione GPC - canale di memoria è equivalente a dire che ogni core in una CPU ha il suo canale... Voglio vederti collegare 18 core alla memoria in quella maniera....

P. S: il problema del GP100 era proprio dovuto al crossbar tra GPC e memory controller da cui ogni GPC può accedere a qualsiasi indirizzo e prelevare qualsiasi quantità di dati a piena banda (se il crossbar funziona, of course).

GM200 ha 6 GPC ma 4 SMM collegati ad un raster da 16 per GPC.
GM200

1 GPC 512cc
16 rop's-512kb l2
8 rop's (32b)- 256kb l2

6 GPC
96 rop's- 3072 l2

La 980ti o 970 perdono rispettivamente 8 rops (4x2) e 12 rop's (3x4)
http://techreport.com/r.x/geforce-gtx-980ti/b3d-pixel-fill.gif

La 1060 sarà collegata così clicca.
http://www.hwupgrade.it/forum/showpost.php?p=43850989&postcount=29232

Ovviamente non puoi sfruttare 48 rop's, o meglio 48 sono memorizzate ma elaborative solo ed esclusivamente 32.
2 GPC da 20 rop's, legati al raster da 16.
Quindi sono 48 vere ma elaborative 32.

Questo succedeva anche con la 780 o 780ti, all'epoca i raster erano bloccati a 8 pixel, quindi una 780ti da 5 raster, aveva 48 rop's collegate, 60 memorizzate (15x4) ma elaborate solo 40 per i raster (8x5).

La 780 invece 48 disegnate per collegamento, ma 48 memorizzate e 32 elaborate. Qua puoi vedere un'esempio fatto da me.
http://www.tomshw.it/files/2013/05/immagini_contenuti/45965/gk110-block-diagram_t.jpg

https://abload.de/img/rops780005yqd4.png


Stessa cosa succederà alla 1060


1700 (base boost) x 32 /55g g.pixel int.8

mikael84
13-07-2016, 17:36
This is the powa:sofico:

Con le DX12/vulkan il mio 920 spegnerà le dieci candeline (è un gomblotto anti-aggiornamento) :oink:

Bella CPU fresca dopo 1,3v:p , almeno l'oc era divertente, tutto legato al bclk ed ai vari moltiplicatori.
180 "20 = 3,6 facili:fagiano:
Fine ot

Ren
13-07-2016, 17:59
Bella CPU fresca dopo 1,3v:p , almeno l'oc era divertente, tutto legato al bclk ed ai vari moltiplicatori.
180 "20 = 3,6 facili:fagiano:
Fine ot

Tanto per quello che serve nei giochi, va benissimo cloccato sui 3.6.;)

Non pretendo framerate sopra i 60. Anzi quasi quasi piazzo uno steamlink in salotto ed amen...

fine Ot parte seconda:D

appleroof
13-07-2016, 22:12
http://wccftech.com/geforce-gtx-1060-aots-dx12-benchmarks/

Legolas84
13-07-2016, 22:47
http://wccftech.com/geforce-gtx-1060-aots-dx12-benchmarks/


Apple, ma le review quando dovrebbero uscire?

Crysis90
13-07-2016, 23:46
Apple, ma le review quando dovrebbero uscire?

19 Luglio. ;)

Legolas84
14-07-2016, 01:29
Ottimo ;)

Inviato dal mio ONE A2003 utilizzando Tapatalk

tecnoman
14-07-2016, 08:10
Fatti gli affari tuoi :Prrr: :D

Voglio anche la TI perchè mi è tornata la scimmia del liquido e mi piacerebbe fare un bel loop cpu+vga... Siccome con la zotac ci sono poche speranze, levo le 2 980 sull'altro pc, metto una 1080ti founders o comunque una con fullcover di facile reperibilità e faccio il loop :D

lol la tua firma!







ps
Ma ai bambini africani qualche panino glielo lanci?

egounix
14-07-2016, 13:09
:asd:
Ci sta, ma i colori sbiaditi?:p



Si ti ho capito, la 460 perdeva unità come 8 rop's, oltre alla banda, quindi era già decurtata di suo, non era un 460 a tutti gli effetti.
Sarebbe stato corretto 1060 SE o 1050TI ma nvidia non è la prima volta che fa confusione con le sigle (vedi 8800gts).
Anche se per uno poco preparato quella da 3gb è una 1060 a tutti gli effetti, quindi è in parte ingannevole.

#checcolorisbiaditi?
Ah dici quelli di nvidia?
Beh amd è anni avanti con i colori!
Mannaggia a me quando ce so cascato... Vedi cosa ho scatenato! :asd:

È che se dico qualcosa io di sbagliato... Tutti ci credono... Quando dico cose giuste, mai nessuno che mi ascolta :cry:

Ma le/gli shemale sono donne con il battacchio, o uomini con le puppe?
Chiedo, perchè c'è della roba in giro da paura, meglio della xxxx :asd:

Mparlav
14-07-2016, 13:17
Secondo Tweaktown, niente GTX 1060 3GB, ma una GTX 1050 3GB a dicembre:
http://www.tweaktown.com/news/52996/nvidia-culls-geforce-gtx-1060-3gb-arrive-1050-december/index.html

"We have had an industry insider tell us that NVIDIA has decided against releasing the 3GB variant of the GeForce GTX 1060, and instead it is all steam ahead with the standard 6GB variant. This makes sense, as releasing a mid-range card with 3GB of VRAM that's meant to be a competitor against AMD's Radeon RX 480 which comes in 4GB and 8GB flavors doesn't make much sense.

Our source added that NVIDIA will instead release the GeForce GTX 1050 in December with 3GB of RAM, which makes much more sense. We should see these plans materialize very quickly, as soon as NVIDIA confirms the existence of its GeForce GTX 1050, which shouldn't be too far away now."

appleroof
14-07-2016, 13:21
Secondo Tweaktown, niente GTX 1060 3GB, ma una GTX 1050 3GB a dicembre:
http://www.tweaktown.com/news/52996/nvidia-culls-geforce-gtx-1060-3gb-arrive-1050-december/index.html

"We have had an industry insider tell us that NVIDIA has decided against releasing the 3GB variant of the GeForce GTX 1060, and instead it is all steam ahead with the standard 6GB variant. This makes sense, as releasing a mid-range card with 3GB of VRAM that's meant to be a competitor against AMD's Radeon RX 480 which comes in 4GB and 8GB flavors doesn't make much sense.

Our source added that NVIDIA will instead release the GeForce GTX 1050 in December with 3GB of RAM, which makes much more sense. We should see these plans materialize very quickly, as soon as NVIDIA confirms the existence of its GeForce GTX 1050, which shouldn't be too far away now."

:cool:

Amph
14-07-2016, 13:51
un po off topic, ma Volta che processo produttivo userà? sempre 16nm?

-Maxx-
14-07-2016, 14:12
Secondo Tweaktown, niente GTX 1060 3GB, ma una GTX 1050 3GB a dicembre:
http://www.tweaktown.com/news/52996/nvidia-culls-geforce-gtx-1060-3gb-arrive-1050-december/index.html

"We have had an industry insider tell us that NVIDIA has decided against releasing the 3GB variant of the GeForce GTX 1060, and instead it is all steam ahead with the standard 6GB variant. This makes sense, as releasing a mid-range card with 3GB of VRAM that's meant to be a competitor against AMD's Radeon RX 480 which comes in 4GB and 8GB flavors doesn't make much sense.

Our source added that NVIDIA will instead release the GeForce GTX 1050 in December with 3GB of RAM, which makes much more sense. We should see these plans materialize very quickly, as soon as NVIDIA confirms the existence of its GeForce GTX 1050, which shouldn't be too far away now."

Questo sarebbe uno scenario decisamente più ragionevole di quello prospettato qualche giorno fa :cool:

illidan2000
14-07-2016, 14:14
un po off topic, ma Volta che processo produttivo userà? sempre 16nm?

a meno di miracoli... ci hanno messo 5 anni a cambiare da 28 a 16nm! (2011 con le 580 fino ad oggi)

appleroof
14-07-2016, 14:25
un po off topic, ma Volta che processo produttivo userà? sempre 16nm?

Dovrebbe usare i 10nm, ma come dice Illidan non si può dire con certezza..

Vul
14-07-2016, 14:34
Che prestazioni possiamo aspettarci, 960?

Goofy Goober
14-07-2016, 14:45
a meno di miracoli... ci hanno messo 5 anni a cambiare da 28 a 16nm! (2011 con le 580 fino ad oggi)

Dovrebbe usare i 10nm, ma come dice Illidan non si può dire con certezza..

sembrerebbe strano anche a me che non facciano almeno 2 serie a 16nm.

mikael84
14-07-2016, 14:45
#checcolorisbiaditi?
Ah dici quelli di nvidia?
Beh amd è anni avanti con i colori!
Mannaggia a me quando ce so cascato... Vedi cosa ho scatenato! :asd:

È che se dico qualcosa io di sbagliato... Tutti ci credono... Quando dico cose giuste, mai nessuno che mi ascolta :cry:

Ma le/gli shemale sono donne con il battacchio, o uomini con le puppe?
Chiedo, perchè c'è della roba in giro da paura, meglio della xxxx :asd:

Noi uomini duri continuiamo a giocare a colori spenti, scialbi opachi, praticamente in bianco e nero con il monoscopio in basso a destra.:p
Cmq su TN 6 bit le nvidia, almeno su dvi sono davvero quel che dipingono ma su pannelli ips la differenza è nulla, provato sia 290/7970 che 780 e varie. La stessa cosa non si poteva dire su un tv monitor 6 bit, dove le nvidia erano realmente spente.:)




un po off topic, ma Volta che processo produttivo userà? sempre 16nm?

7nm
doppio flops per watt, + 30% circa di clock.
In linea di massima una 2080 processerà circa 15/16 tf in virgola mobile


Che prestazioni possiamo aspettarci, 960?

970-480.
La 960 sarà in linea con GP107 ed un GPC
640cc/16 rop's collegato ad un 128bit.

egounix
14-07-2016, 14:48
Noi uomini duri continuiamo a giocare a colori spenti, scialbi opachi, praticamente in bianco e nero con il monoscopio in basso a destra.:p
Cmq su TN 6 bit le nvidia, almeno su dvi sono davvero quel che dipingono ma su pannelli ips la differenza è nulla, provato sia 290/7970 che 780 e varie. La stessa cosa non si poteva dire su un tv monitor 6 bit, dove le nvidia erano realmente spente.:)






7nm
doppio flops per watt, + 30% circa di clock.
In linea di massima una 2080 processerà circa 15/16 tf in virgola mobile

Enfatti sull'alienware l'nvidia fa defecare, sul VA 4k ax800 e sull'ips lg appena connetto in hdmi o dp le 780, viene fuori un bel logo acceso con dei colori mai visti... Il logo c'ha scritto tipo 3 lettere... A... M...D... Chi lo conosce... Bho!?

appleroof
14-07-2016, 14:57
sembrerebbe strano anche a me che non facciano almeno 2 serie a 16nm.

Bè se non ricordo male una volta nvidia non lanciava mai una nuova architettura con pp nuovo perché fu scottata dalla serie fx5000, ma poi le coae erano cambiate, maxwell sarebbe dovuto essere a 20nm poi cancellati da tmsc

Più che altro vedo che tranne Intel gli altri trovano sempre più difficoltà man mano che si procede nella miniaturizzazione per cui non credo sia assurdo escludere che Volta sarà a 16nm piuttosto che 10nm :fagiano:

mikael84
14-07-2016, 15:06
Enfatti sull'alienware l'nvidia fa defecare, sul VA 4k ax800 e sull'ips lg appena connetto in hdmi o dp le 780, viene fuori un bel logo acceso con dei colori mai visti... Il logo c'ha scritto tipo 3 lettere... A... M...D... Chi lo conosce... Bho!?

Esatto, erano le tue domande di rito. Non facevano neppure in tempo a scartare la scheda che ..... e i colori? Tali e quali perchè?:p
Io ho provato le 290/7970 su tale pannello e non cambia una mazza.
Su TN 6 bit però succede questo
https://www.youtube.com/watch?v=qR3ewLMbywY


sembrerebbe strano anche a me che non facciano almeno 2 serie a 16nm.

Pascal può essere migliorato notevolmente, via raster, via SMM e via clock. Visto che utilizzano sul core resistenze ad ampia caduta per farle murare. Kingpin è la prima cosa che ha sistemato, sono 3 affianco al core.
La 4870 ad esempio non saliva nulla, mentre la 4890 è stata totalmente sistemata elettricamente.
Un GF110 2,0 secondo me è possibile e Volta lo vedo lontano, perchè Nvidia ha sempre mantenuto le proporzioni via roadmap ed ora come ora di una scheda flops doppio per watt, sopratutto sulla FP64 se ne fa poco, visto che non ha lanciato neppure la tesla 16nm :)

Crysis90
14-07-2016, 19:33
un po off topic, ma Volta che processo produttivo userà? sempre 16nm?

Dovrebbe usare i 10nm, ma come dice Illidan non si può dire con certezza..



7nm
doppio flops per watt, + 30% circa di clock.
In linea di massima una 2080 processerà circa 15/16 tf in virgola mobile



http://www.fudzilla.com/news/graphics/41122-nvidia-volta-is-16nm-finfet

:O :O

"Io ve l'avevo detto!" cit.


:asd: :asd: :asd:

Da 2 mesi a questa parte le sto azzeccando TUTTE. :Prrr: :Prrr: :Prrr: :Prrr: :read:

Vul
14-07-2016, 19:35
970-480.
La 960 sarà in linea con GP107 ed un GPC
640cc/16 rop's collegato ad un 128bit.

Se la 1060, dai calcoli, va come una 480 su per giu, la 1050 pure..?

appleroof
14-07-2016, 21:21
http://www.fudzilla.com/news/graphics/41122-nvidia-volta-is-16nm-finfet

:O :O

"Io ve l'avevo detto!" cit.


:asd: :asd: :asd:

Da 2 mesi a questa parte le sto azzeccando TUTTE. :Prrr: :Prrr: :Prrr: :Prrr: :read:

Mandami piemme con la prossima sestina del superenalotto allora :D

mikael84
14-07-2016, 21:23
Se la 1060, dai calcoli, va come una 480 su per giu, la 1050 pure..?

A cavallo tra 970 o 980, poco meno la 1060 (perde solo 128cc ma nessuna rop's). Diciamo che è la diretta della 480 4gb

Crysis90
14-07-2016, 21:52
Mandami piemme con la prossima sestina del superenalotto allora :D

:D :D :Prrr: :Prrr: :sbonk: :sbonk:

IMHO i 7 nm a lato GPU ancora sono lontani almeno 2 anni. ;)

Hadar
14-07-2016, 22:16
:D :D :Prrr: :Prrr: :sbonk: :sbonk:

IMHO i 7 nm a lato GPU ancora sono lontani almeno 2 anni. ;)
Ma quando arriveranno alle minime dimensioni, che minc**a si inventeranno?

fraussantin
14-07-2016, 22:46
Ma quando arriveranno alle minime dimensioni, che minc**a si inventeranno?

già mi pare ci siamo vicini , semplicemente cambieranno materiale .

si inventeranno qualcosa di completamente sintetico o organico.

siluro85
14-07-2016, 22:47
:D :D :Prrr: :Prrr: :sbonk: :sbonk:

IMHO i 7 nm a lato GPU ancora sono lontani almeno 2 anni. ;)
2 anni i 7 nm? Sei alquanto ottimista...dai 28 ai 16/14 sono passati 5 anni circa ed hanno ancora problemi di rese..

killeragosta90
14-07-2016, 23:33
per non fare cross posting, ho postato questo nel thread amd

http://www.hwupgrade.it/forum/showpost.php?p=43860543&postcount=32250

Cavolo, queste spiega molte cose! Mi pare molto strano passi così inosservata in questo thread... :confused:

jok3r87
14-07-2016, 23:53
Cavolo, queste spiega molte cose! Mi pare molto strano passi così inosservata in questo thread... :confused:
L'unica cosa che spiega è la differenza di risultati della fury x nelle due review prese ad esempio.

Inviato dal mio SM-G920F utilizzando Tapatalk

Legolas84
15-07-2016, 00:47
Cavolo, queste spiega molte cose! Mi pare molto strano passi così inosservata in questo thread... :confused:

Penso che venga ignorata soprattutto perchè quel sito è pesantemente di parte, e si capisce anche da come viene messa la notizia. ;)

Comunque, a parte quanto scritto su quel sitarello, NVIDIA ha davvero dei problemi con Vulkan e Doom, infatti gira meglio in OpenGL (e la qualità grafica è la stessa). Siamo in attesa di Fix.