PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 [176] 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

traider
21-09-2018, 12:10
Quando fanno uscire le 2070 ? , Nvidia #escile .

DJurassic
21-09-2018, 12:17
stessa mia situazione... ma il mio monitor va a 90hz senza scanlines;
mi aspetto che Metro e Cyberpunk siano più pesanti di Tomb Raider; e forse anche il nuovo assassin's creed.
Sono pure io dubbioso, da possessore di 1080ti

Il mio fortunatamente non ha questo problema nemmeno a 100hz. Ma ne ho dovuti cambiare 5 prima di trovare quello giusto :stordita:

popomer
21-09-2018, 12:29
arrivata stamani la 2080 di asus

Kostanz77
21-09-2018, 13:07
arrivata stamani la 2080 di asus



Presa dove?


Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro

popomer
21-09-2018, 13:43
Presa dove?


Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro

next tramite amazone,spedita ieri, arrivata stamani

Giovamas
21-09-2018, 14:29
arrivata stamani la 2080 di asus

wow.. presa dove? la strix?

djmatrix619
21-09-2018, 14:31
Che differenza c'é tra la GIGABYTE Windforce e la Gaming? Sempre la solita questione della sigla? A e non A ?

aeN_13
21-09-2018, 14:38
Che differenza c'é tra la GIGABYTE Windforce e la Gaming? Sempre la solita questione della sigla? A e non A ?

Credo che la windforce sia 2 slot mentre la gaming 2.5, visto che non scaldano poco ste schede la windforce la eviterei.

Chip non A si applicano solo alle blower con frequenze stock, credo che entrambe le gigabyte siano occate leggermente quindi sono A sicuro.

mikael84
21-09-2018, 14:39
tanti con la 1080ti salteranno ste schede sovraprezzate

Nvidia sta volta l'hai fatta fuori dal vaso (spero che le vendite siano nettamente inferiori a pascal)
vediamo se si ritorna a prezzi piu "giusti"

Amd è la tua chance :asd:
summon "vegaTI da 7nm" :ciapet:

Purtroppo la RT pesa molto:)
Un TPC Pascal pesa 7,1 mmq (3 x P.E)
Un TPC Turing pesa 11,5/12,5 circa (parte del valore è compreso tra nvlink).

Turing aggiunge 241mmq, ovvero + 47% di spazio, per INT/RT/Tensor ed l2.:)

Arrow0309
21-09-2018, 14:43
Purtroppo la RT pesa molto:)
Un TPC Pascal pesa 7,1 mmq (3 x P.E)
Un TPC Turing pesa 11,5/12,5 circa (parte del valore è compreso tra nvlink).

Turing aggiunge 241mmq, ovvero + 47% di spazio, per INT/RT/Tensor ed l2.:)
Ecco uno qui da me (UK) che andrà di shunt mode.
A quanto pare non scherza, dopo aver fritta una Titan V ora si sta preparando bene. :D

https://www.overclock.net/forum/69-nvidia/1706276-official-nvidia-rtx-2080-ti-owner-s-club-85.html#post27633144

djmatrix619
21-09-2018, 14:46
Credo che la windforce sia 2 slot mentre la gaming 2.5, visto che non scaldano poco ste schede la windforce la eviterei.

Chip non A si applicano solo alle blower con frequenze stock, credo che entrambe le gigabyte siano occate leggermente quindi sono A sicuro.

Ah ecco.
Penso sia lo stesso anche per gli altri modelli, bene o male vedo che un po' tutti hanno 2 versioni.. overclockate quasi allo stesso modo. Capisco.

Io ho un SSD sul secondo slot PCI... e non lo posso piú usare se compro una scheda da piú di due slot... che due maroni.

Bisogna rifare tutto.... meglio stare calmi. Domani é il mio compleanno e non voglio fare danni al mio portafoglio..... so giá come andrá a finire... :asd:

Arrow0309
21-09-2018, 14:55
Ah ecco.
Penso sia lo stesso anche per gli altri modelli, bene o male vedo che un po' tutti hanno 2 versioni.. overclockate quasi allo stesso modo. Capisco.

Io ho un SSD sul secondo slot PCI... e non lo posso piú usare se compro una scheda da piú di due slot... che due maroni.

Bisogna rifare tutto.... meglio stare calmi. Domani é il mio compleanno e non voglio fare danni al mio portafoglio..... so giá come andrá a finire... :asd:

Cheers mate! :cincin:

mikael84
21-09-2018, 14:55
Ecco uno qui da me (UK) che andrà di shunt mode.
A quanto pare non scherza, dopo aver fritta una Titan V ora si sta preparando bene. :D

https://www.overclock.net/forum/69-nvidia/1706276-official-nvidia-rtx-2080-ti-owner-s-club-85.html#post27633144

E' un pazzo quello:p Lascia perdere, ho visto anche un bench di Vince, mi pare si sia fermato a 2400 via azoto.
Piuttosto, si vedono Micron passare da 14 a 16 gb/s, molto valide queste ddr6 dual 16b

PlayerGiocatore
21-09-2018, 15:37
allora ci ho preso XD, a logica su ultra tenterà di mantenere i settaggi massimi e avrà una soglia minima di qualità sotto la quale non potrà scendere; in questi casi io sono per l impostazione manuale dei settaggi, disattiva il dinamico e li metti tu su ultra etc.. anche perchè i forza non sono pesantissimi

Tipo, mi fai un esempio?

Con impostazione ULTRA su Dynamic render quality a seconda delle situazioni di gioco troppo pesanti scala un pò per non forzare troppo la scheda?

gionnip
21-09-2018, 15:43
come volevasi dimostrare spuntano i primi truffatori su amazon che abbassano pesantemento il prezzo,mi da fastidio che poi ti devi giustificare per il prezzo con i clienti e mi sballa anche i grafici di keepa!

Arrow0309
21-09-2018, 15:53
E' un pazzo quello:p Lascia perdere, ho visto anche un bench di Vince, mi pare si sia fermato a 2400 via azoto.
Piuttosto, si vedono Micron passare da 14 a 16 gb/s, molto valide queste ddr6 dual 16b

Ma certamente, non la tocco manco di un capello
Liquidata a dovere a confido nella bontà del cippino. :D
Spero di aver di nuovo :ciapet: :p
Sono stato buono, saltando ben due Titan. :asd:

djmatrix619
21-09-2018, 16:13
Cheers mate! :cincin:

:cincin:

Thunder-74
21-09-2018, 16:14
come volevasi dimostrare spuntano i primi truffatori su amazon che abbassano pesantemento il prezzo,mi da fastidio che poi ti devi giustificare per il prezzo con i clienti e mi sballa anche i grafici di keepa!


Io li segnalo, ma Amazon non fa nulla per evitarli. Tutti chiedono un contatto via email e pagamento fuori piattaforma. Basta questa discriminante ad Amazon per toglierli dai cogl..ni...


Inviato dal mio iPhone X utilizzando Tapatalk

gionnip
21-09-2018, 16:17
Io li segnalo, ma Amazon non fa nulla per evitarli. Tutti chiedono un contatto via email e pagamento fuori piattaforma. Basta questa discriminante ad Amazon per toglierli dai cogl..ni...


Inviato dal mio iPhone X utilizzando Tapatalk

con il 900d mi avevano falsato il grafico e per poco non perdevo la promozione,stanno rompendo le scatole,ora hanno iniziato con le 2080,è uno del settore ha messo solo 2080!

techsaskia
21-09-2018, 16:18
ma perchè le EVGA RTX 2080 Ti XC Dual Slot semplici semplici dovrebbero costare 1463€ su eprice?

ma che malattia tiene questo mercato?

djmatrix619
21-09-2018, 16:21
ma perchè le EVGA RTX 2080 Ti XC Dual Slot semplici semplici dovrebbero costare 1463€ su eprice?

ma che malattia tiene questo mercato?

Anche la ASUS DUAL su certi negozi viene """"POCHISSIMO""""" e su altri addirittura piú delle altre.. :asd:

gionnip
21-09-2018, 16:21
Attenzione il venditore si chiama "Cat's tools" su amazon non comprate!

Thunder-74
21-09-2018, 16:42
Attenzione il venditore si chiama "Cat's tools" su amazon non comprate!



In generale, mai pagare fuori dalla piattaforma.


Inviato dal mio iPhone X utilizzando Tapatalk

djmatrix619
21-09-2018, 16:48
In generale, mai pagare fuori dalla piattaforma.

Quoto thunder.

Per caritá, ci sono anche quelli seri che ti aiutano anche piú di Amazon se possibile, ma la maggior parte hanno delle condizioni assurde ed Amazon puó coprire fino ad un certo punto, ma poi si va alla grazia del venditore di terze parti. Meglio pagare qualcosina in piú ed avere il supporto di Amazon.

popomer
21-09-2018, 17:08
Strix o Dual?

dual,l'ho montata,i punteggi sono tripli rispetto allaf mia r9 390,sono soddisfatto:D

l'unica cosa e' che ho dovuto tagliare una traversina di quelle dietro tra slot e slot, finiva sulla display port

Thunder-74
21-09-2018, 18:02
Mi sembrava fare capitan ovvip dire una cosa del genere :stordita:

Per una volta meglio rivestire i panni di capitan ovvio, che far regalare qualche centone a sti maledetti... penso sempre che ci possa essere qualche ragazzo giovane un po' ingenuo, che magari sogna di avere una 2080... la trova a 550 euro e ci si fionda senza pensarci su... Fecero una puntata di Striscia la Notizia in merito e tanta gente c'era cascata, oppure cerca su YT, ne troverai tanti ;)

Arrow0309
21-09-2018, 18:33
ma perchè le EVGA RTX 2080 Ti XC Dual Slot semplici semplici dovrebbero costare 1463€ su eprice?

ma che malattia tiene questo mercato?
Semplice, perché sono finite già sul sito EVGA (la gente e' proprio pazza di comprare cosi' anche malgrado le prestazioni insoddisfacenti) :doh:

Mi pare avevi il preorder al prezzo di prima, 1300 e spicci, che fine ha fatto? :fagiano:

amon.akira
21-09-2018, 19:41
Tipo, mi fai un esempio?

Con impostazione ULTRA su Dynamic render quality a seconda delle situazioni di gioco troppo pesanti scala un pò per non forzare troppo la scheda?

si scala per non far calare i fotogrammi, cmq siamo ot... questo è il topic per sconsigliare le rtx, chiedi nel topic di forza horizon 4, sicuramente chi ha il gioco ne saprà di piu :P

Kostanz77
21-09-2018, 19:53
questo è il topic per sconsigliare le rtx P

😂




Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro

Telstar
21-09-2018, 21:16
Si sa quando usciranno i test delle 2070? C'è un nda anche su quelle o mancano solo le schede per ora?

SPARTANO93
21-09-2018, 21:27
Si sa quando usciranno i test delle 2070? C'è un nda anche su quelle o mancano solo le schede per ora?Spero entro fine ottorbe, aspetto anche io con impazienza 😁

Inviato dal mio SM-G930F utilizzando Tapatalk

Tody
21-09-2018, 21:59
Si sa quando usciranno i test delle 2070? C'è un nda anche su quelle o mancano solo le schede per ora?
Spero entro fine ottorbe, aspetto anche io con impazienza 😁

Stavo aspettando pure io ma i test sulle 2080 non mi hanno lasciato dubbi sinceramente, a fatica superano le 1080ti e sicuramente le 2070 saranno un bel po' sotto le 2080 quindi conviene comprarsi una 1080ti usata visto che delle 2070 si sa solo il prezzo e sono 650 fottuti € :mad:
Personalmente io ho preso una 1070 usata giusto oggi e aspetto un paio di annetti con il pc che comunque è tutto da aggiornare.

ps. Telstar chiedi a qualcuno che è più esperto temo che una 2070 stia stretta su quella config :(

techsaskia
21-09-2018, 23:11
Semplice, perché sono finite già sul sito EVGA (la gente e' proprio pazza di comprare cosi' anche malgrado le prestazioni insoddisfacenti) :doh:

Mi pare avevi il preorder al prezzo di prima, 1300 e spicci, che fine ha fatto? :fagiano:

Te l'ho detto, sono troppo vecchio per buttare i soldi in cose poco convenienti che non mi soddisfano e soprattutto credo fermamente che la storia di vendere prodotti non finiti deve finire.

Telstar
21-09-2018, 23:39
sicuramente le 2070 saranno un bel po' sotto le 2080 quindi conviene comprarsi una 1080ti usata visto che delle 2070 si sa solo il prezzo e sono 650 fottuti € :mad:
Personalmente io ho preso una 1070 usata giusto oggi e aspetto un paio di annetti con il pc che comunque è tutto da aggiornare.

Sì, il confronto che devo vedere a livello di prestazioni è con la 1080.


ps. Telstar chiedi a qualcuno che è più esperto temo che una 2070 stia stretta su quella config :(

Io devo decidere tra una 1080 (probabilmente usata) o una 2070 nuova. A 1440p 60hz ci sto ampiamente. La Ti non mi serve e non voglio i consumi suoi né quelli della 2080.
Il resto della configurazione lo aggiorno dopo Natale (9900k, 16gb, optane). Il monitor no perché quello che voglio io costa troppo e non è ancora uscito, ma cmq sarà 1440p o 1600p 21:9, sempre meno pesante del 4k.

mikael84
21-09-2018, 23:48
Stavo aspettando pure io ma i test sulle 2080 non mi hanno lasciato dubbi sinceramente, a fatica superano le 1080ti e sicuramente le 2070 saranno un bel po' sotto le 2080 quindi conviene comprarsi una 1080ti usata visto che delle 2070 si sa solo il prezzo e sono 650 fottuti € :mad:
Personalmente io ho preso una 1070 usata giusto oggi e aspetto un paio di annetti con il pc che comunque è tutto da aggiornare.

ps. Telstar chiedi a qualcuno che è più esperto temo che una 2070 stia stretta su quella config :(

-15%;)

SPARTANO93
22-09-2018, 07:44
-15%;)Se è veramente un -15% la prendo, se è oltre il 20% vado di 1080ti

Inviato dal mio SM-G930F utilizzando Tapatalk

The_SaN
22-09-2018, 08:26
-15%;)

Immaginavo (e speravo) qualcosa del genere. Potrebbe essere la scheda più conveniente del lotto.

Ubro92
22-09-2018, 08:35
Se è veramente un -15% la prendo, se è oltre il 20% vado di 1080ti

Inviato dal mio SM-G930F utilizzando Tapatalk

Considera però che i driver sono quelli del day one, turing presenta diverse modifiche rispetto Pascal, è probabile che nelle prossime release driver la differenza possa ridursi tra le due GPU.

A pari costo direi sempre di prendere la scheda con architettura più recente, discorso diverso se la 1080ti costasse meno in quel caso il risparmio in relazione alle prestazioni è più che giustificato.

The_SaN
22-09-2018, 08:38
Considera però che i driver sono quelli del day one, turing presenta diverse modifiche rispetto Pascal, è probabile che nelle prossime release driver la differenza possa ridursi tra le due GPU.

A pari costo direi sempre di prendere la scheda con architettura più recente, discorso diverso se la 1080ti costasse meno in quel caso il risparmio in relazione alle prestazioni è più che giustificato.

Più che i driver (che comunque un 10% durante la vita della gpu te lo danno) secondo me i prossimi giochi mostreranno la vera forza di Turing.
E mi aspetto pure Vega in grande spolvero.

Ubro92
22-09-2018, 08:48
Più che i driver (che comunque un 10% durante la vita della gpu te lo danno) secondo me i prossimi giochi mostreranno la vera forza di Turing.
E mi aspetto pure Vega in grande spolvero.

Dipende sempre dagli engine, probabile che i soliti TriplaA facciano notare la differenza, ma per il resto a parte una miglior ottimizzazione delle risorse come prestazioni in se direi che siamo lì...

La vera differenza sta nel prezzo, se con la 1080ti si risparmia alla fine hai un ottimo chip, ma a pari costo meglio l'architettura nuova a mani basse...

SPARTANO93
22-09-2018, 10:47
Dipende sempre dagli engine, probabile che i soliti TriplaA facciano notare la differenza, ma per il resto a parte una miglior ottimizzazione delle risorse come prestazioni in se direi che siamo lì...

La vera differenza sta nel prezzo, se con la 1080ti si risparmia alla fine hai un ottimo chip, ma a pari costo meglio l'architettura nuova a mani basse...Per adesso le 1080ti nuove mi sembra che faticano a scendere di prezzo, si vedrà tra 1 mese o 2 ,se non calano le 2070 un po' meno costeranno

Inviato dal mio SM-G930F utilizzando Tapatalk

TigerTank
22-09-2018, 11:12
Considera però che i driver sono quelli del day one, turing presenta diverse modifiche rispetto Pascal, è probabile che nelle prossime release driver la differenza possa ridursi tra le due GPU.

A pari costo direi sempre di prendere la scheda con architettura più recente, discorso diverso se la 1080ti costasse meno in quel caso il risparmio in relazione alle prestazioni è più che giustificato.

Esatto, motivo per cui non ho preso una 1080Ti usata.
Aspetto di vedere all'opera le 2070...per questo giro me la faccio bastare. Tanto i 4K non mi interesseranno finchè quelli da gaming costeranno una fucilata assurda e imho non me la sento di spendere tanto per una 2080 o 2080Ti...se l'RT probabilmente arriverà a "maturazione" quando già si parlerà di serie 3000.

Inoltre, se il DLSS è così promettente come dicono, avvantaggerà pure la 2070 su 1440p.

Andy1111
22-09-2018, 13:02
Ho trovato questo video magari vi interessa

https://www.youtube.com/watch?v=V7g0UP0mZcQ

Telstar
22-09-2018, 14:02
Esatto, motivo per cui non ho preso una 1080Ti usata.
Aspetto di vedere all'opera le 2070...per questo giro me la faccio bastare. Tanto i 4K non mi interesseranno finchè quelli da gaming costeranno una fucilata assurda e imho non me la sento di spendere tanto per una 2080 o 2080Ti...se l'RT probabilmente arriverà a "maturazione" quando già si parlerà di serie 3000.

Inoltre, se il DLSS è così promettente come dicono, avvantaggerà pure la 2070 su 1440p.

Sostanzialmente la stessa cosa che penso io (con la differenza che una 1080 a me bastava, e posso sempre prenderla nuova o usata se le prestazioni non mi convincono del tutto).
Però credo che saranno valide, e sì il DLSS uno dei punti di forza della nuova architettura. Speriamo che i consumi siano allineati o inferiori alle 1080. Anche l'uscita ritardata fa propendere verso il best buy.

DJurassic
22-09-2018, 14:41
Ho trovato questo video magari vi interessa

https://www.youtube.com/watch?v=V7g0UP0mZcQ

Non ho ben capito la differenza visiva che c'è tra le 2 schermate. Una è chiara da far schifo e l'altra è al contrario molto più bella.

EDIT: Mi sono risposto da solo. Il bench fatto con la 2080Ti è stato postato da IGN ed è stato fatto molto probabilmente con un altra configurazione e con valori diversi di contrasto e illuminazione. LINK (https://www.youtube.com/watch?v=X5CrHwlCItg).

Poi è stato importato da quell'utente che l'ha schiaffato nel suo video. Che senso avrebbe mostrare il gioco su 2 config diverse facendo una comparison?

DJurassic
22-09-2018, 14:58
Al tizio con la birra in mano sono anche cresciuti i capelli e gli è apparsa la giocca... sto RTX è fantastico :asd:

Ma a parte quello non si può prendere un video fatto con chissà quale config e impiantarlo di sana pianta in un altro facendo un raffronto. Ma che cazzo di comparison è? :doh:

amon.akira
22-09-2018, 16:48
ma se è la piu potente :sofico:

Liberato
22-09-2018, 17:38
rega qualcuno a 2080ti o no

Arrow0309
22-09-2018, 17:54
rega qualcuno a 2080ti o no

Certo, in America: :p

https://www.overclock.net/forum/attachment.php?attachmentid=219566&d=1537589961

https://www.overclock.net/forum/69-nvidia/1706276-official-nvidia-rtx-2080-ti-owner-s-club-89.html

techsaskia
22-09-2018, 17:55
Ho trovato questo video magari vi interessa

https://www.youtube.com/watch?v=V7g0UP0mZcQ

non ho capito perchè con RTX il framerate è più alto e senza è così basso

aeN_13
22-09-2018, 18:08
non ho capito perchè con RTX il framerate è più alto e senza è così basso

Non é con rtx, é un bench di una 1080Ti strix vs un bench di ign di una 2080Ti...

Arrow0309
22-09-2018, 18:22
Non é con rtx, é un bench di una 1080Ti strix vs un bench di ign di una 2080Ti...

Quoto, pure l'AA e' sempre il TAA, ma sto DLSS?

A. Me rtx sembra solo più scuro comunque.

Anche a me

Scusa aspetta... fa solo 10 fps in più?

E infatti

illidan2000
22-09-2018, 18:22
Scusa aspetta... fa solo 10 fps in più?

È il 25%, se lo calcoli su 40fps

DJurassic
22-09-2018, 18:51
A. Me rtx sembra solo più scuro comunque.

Scusa aspetta... fa solo 10 fps in più?

Ah ma allora avevo ragione a credere che non avevi capito manco di che cosa si stesse trattando prima :asd:

Non e' RTX. E' un comunissimo video registrato con una gamma e un contrasto decenti al contrario di quelli usati dal tizio che ha preso il video di IGN per farci poi il rapporto con la 1080Ti. L'RTX in TR ancora non esiste, per RTX si intende la serie Turing punto e basta ma è logico che fare certe comparison fuori di testa manda i meno attenti in crisi esistenziali.

Non é con rtx, é un bench di una 1080Ti strix vs un bench di ign di una 2080Ti...

Ecco. Esattamente. Ma chissà in quanti ci saranno cascati. :sofico:

aeN_13
22-09-2018, 19:12
Poi che quel video é fatto coi piedi (ha fatto il bench con la sua 1080Ti e ha messo di fianco un'altro video di ign della 2080Ti, quindi setup e situazioni completamente diverse), e di solito la differenza in SotTR é maggiore (si vede anche dalla recensione di hwu (https://www.hwupgrade.it/articoli/skvideo/5259/nvidia-geforce-rtx-2080-e-rtx-2080ti-founder-s-edition-test-e-prestazioni_3.html))

Non c'é comunque niente di strano nei ~10fps di differenza. Se la 1080Ti ne fa 40 sono il 25% che é tranquillamente in linea con il delta vs la 2080Ti...

E' abbastanza elementare, se poi volete solo creare discussioni inutili e "LA 2080Ti FA SOLO 10 FPS IN PIU'!1!!" fate pure.

albero77
22-09-2018, 21:17
Poi che quel video é fatto coi piedi (ha fatto il bench con la sua 1080Ti e ha messo di fianco un'altro video di ign della 2080Ti, quindi setup e situazioni completamente diverse), e di solito la differenza in SotTR é maggiore (si vede anche dalla recensione di hwu (https://www.hwupgrade.it/articoli/skvideo/5259/nvidia-geforce-rtx-2080-e-rtx-2080ti-founder-s-edition-test-e-prestazioni_3.html))

Non c'é comunque niente di strano nei ~10fps di differenza. Se la 1080Ti ne fa 40 sono il 25% che é tranquillamente in linea con il delta vs la 2080Ti...

E' abbastanza elementare, se poi volete solo creare discussioni inutili e "LA 2080Ti FA SOLO 10 FPS IN PIU'!1!!" fate pure.Quoto tra le altre cose la cpu non viene sfruttata quasi per niente nemmeno a 1080p...É proprio il gioco fatto male!

Inviato dal mio SM-G935F utilizzando Tapatalk

kiwivda
22-09-2018, 21:40
Se calcoli sono 700€ di differenza per giocare a 56 fps avg invece che 48 :stordita:

beh 87,50 € a frame, buono! per giocare a 144 ci vanno 7700€ :D

APPL-idia the way it's meant to payed!

LOL

techsaskia
22-09-2018, 22:12
sono più le schede che trovo tra i 1450 che quelle che trovo a 1300€
sono proprio fuori di melone

Lunar Wolf
22-09-2018, 22:45
Daje che per natale iniziano gli sconti...

Oggi mi è arrivata la mail dal fornitore... Ivata l'asus 2080 liscia costa 909... Col 7% di sconto... La ti in arrivo.

DJurassic
22-09-2018, 23:21
beh 87,50 € a frame, buono! per giocare a 144 ci vanno 7700€ :D

APPL-idia the way it's meant to payed!

LOL

:ciapet:

Tody
23-09-2018, 00:23
-15%;)

Mi auguro che sia così poca la differenza, resta comunque un 10% in meno di una 1080ti con enormi dubbi su rtx e il solo dlss a dare qualche speranza :mc:
Non ho seguito molto in quegli anni perchè ero soddisfattissimo della 980 giocando in fhd 60hz ma ho letto un po' ovunque che la 1070 era paragonabile ad una 980ti e costava 200€ in meno:

Kaio2
23-09-2018, 09:07
Ma adesso questo topic si trasforma automaticamente per le prossime rtx serie 30? :D

TigerTank
23-09-2018, 09:48
Ma adesso questo topic si trasforma automaticamente per le prossime rtx serie 30? :D

2070 ed eventuale titan :D

SPARTANO93
23-09-2018, 10:53
Mi auguro che sia così poca la differenza, resta comunque un 10% in meno di una 1080ti con enormi dubbi su rtx e il solo dlss a dare qualche speranza :mc:
Non ho seguito molto in quegli anni perchè ero soddisfattissimo della 980 giocando in fhd 60hz ma ho letto un po' ovunque che la 1070 era paragonabile ad una 980ti e costava 200€ in meno:La 1070 andava meglio della 980ti e costava di meno, la 2070 andrà meno della 1080ti e costerà circa uguale, sto giro è andata così, però oramai avevo deciso di fare l'upgrade e lo farò lo stesso...

Inviato dal mio SM-G930F utilizzando Tapatalk

Vul
23-09-2018, 10:55
Scusate, ma insomma quanto overclockano queste Turing?

Meglio o peggio di Pascal?

E con che consumi?

Chi mi fa un riassunto conciso e preciso :asd:?

nessuno29
23-09-2018, 10:58
La 1070 andava meglio della 980ti e costava di meno, la 2070 andrà meno della 1080ti e costerà circa uguale, sto giro è andata così, però oramai avevo deciso di fare l'upgrade e lo farò lo stesso...

Inviato dal mio SM-G930F utilizzando Tapatalk

Andrà sensibilmente meno della 1080ti...costando uguale probabilmente.

Appena 2304 cuda (ed una parte rt insufficiente).

nessuno29
23-09-2018, 11:00
Scusate, ma insomma quanto overclockano queste Turing?

Meglio o peggio di Pascal?

E con che consumi?

Chi mi fa un riassunto conciso e preciso :asd:?

Cloccano simile,al momento però c'è solo evga precision come software.

Il nuovo oc mi fa davvero schifo preferisco quello manuale sinceramente altrimenti che gusto c'è? Similmente ai ryzen.

I consumi sono astronomici se si esce anche di poco dai valori di riferimento.

Tra una reference nvidia ed una msi duke(se non erro) ci passano 80watt a default.

Simedan1985
23-09-2018, 11:50
Da tutto quello che sto leggendo in questi giorni , le nuove schede "non hanno colpito nel cuore" per una serie di motivi.

Penso che l'anno prossimo ci sarà un ricollocamento di queste attuali nuove proposte.

aeN_13
23-09-2018, 12:43
Guarda che dalla recensione di hwupgrade la 1080ti fa 42 fps e la 2080ti ne fa 57... non sono poi così diversi.

42 -> 52 +23%
42 -> 57 +35%

C'è una bella differenza

TigerTank
23-09-2018, 12:45
La 1070 andava meglio della 980ti e costava di meno, la 2070 andrà meno della 1080ti e costerà circa uguale, sto giro è andata così, però oramai avevo deciso di fare l'upgrade e lo farò lo stesso...

Inviato dal mio SM-G930F utilizzando Tapatalk

Andrà sensibilmente meno della 1080ti...costando uguale probabilmente.

Appena 2304 cuda (ed una parte rt insufficiente).


Circa la 2070 credo che dipenderà anche dal DLSS, se è ottimizzato per la nuova generazione di sicuro permetterà prestazioni probabilmente superiori alla 1080Ti.
E' ancora tutto da vedere ma imho mi sa che resta l'unica opzione "logica" per chi vuole l'ultima novità disponibile ma non è interessato al 4K o può rimandarlo tranquillamente a tempi migliori.
2080 e 2080Ti hanno deluso per il prezzo in rapporto alle prestazioni, o per le prestazioni in rapporto al prezzo, dipende dal punto di vista. Inoltre il DLSS non basta a compensare la cosa mentre l'RT si sa già che sarà in alto mare per un bel pezzo.
Inoltre la 2080Ti, a fronte del prezzo alto perchè lanciata subito, subirà una bella mazzata quando uscirà la 3070. Non è come la Titan che è più binario a sè.

Telstar
23-09-2018, 12:48
Circa la 2070 credo che dipenderà anche dal DLSS, se è ottimizzato per la nuova generazione di sicuro permetterà prestazioni probabilmente superiori alla 1080Ti.

This. E mi aspetto anche consumi minori rispetto alla 1080ti.

nessuno29
23-09-2018, 12:54
Circa la 2070 credo che dipenderà anche dal DLSS, se è ottimizzato per la nuova generazione di sicuro permetterà prestazioni probabilmente superiori alla 1080Ti.

Sicuramente si avvicinerà tantissimo alla ti anche superandola,ma non si può comunque porre tutta la fiducia su una tecnologia che ancora ha tutto da dimostrare...Specialmente utilizzando il dlss1x che riduce la risoluzione nativa...

Sembrano i discorsi di chi compra AMD :D dove c'è sempre la tecnologia rivoluzionaria che ribalta la situazione

Cioè una scheda che va molto meno della 1080ti probabilmente pur costando uguale.

aeN_13
23-09-2018, 14:21
In game che differenza c'è?
Assolutamente nulla.

Ah, non c'è differenza tra fare 42 fps di media o 57? O anche tra 52 e 57? :rolleyes:

Penso sia molto più percettibile quello piuttosto che la differenza tra 100 e 135, ma vabbe.

Gello
23-09-2018, 14:39
In game che differenza c'è?
Assolutamente nulla.

Frametime e input lag questi sconosciuti...

Legolas84
23-09-2018, 14:57
le basi.....

techsaskia
23-09-2018, 14:59
La 1070 andava meglio della 980ti e costava di meno, la 2070 andrà meno della 1080ti e costerà circa uguale, sto giro è andata così, però oramai avevo deciso di fare l'upgrade e lo farò lo stesso...

Inviato dal mio SM-G930F utilizzando Tapatalk

io continuo a dire che il trend è stato stravolto...

le 2070 hanno le performance delle 1060 con il prezzo delle 1080.
le 2080 hanno le performance delle 1070 con il prezzo delle 1080Ti
le 2080Ti hanno le performance delle 1080 con il prezzo delle Titan

non è una singola incul@t@, ma doppia :D

Ale55andr0
23-09-2018, 15:04
io continuo a dire che il trend è stato stravolto...

le 2070 hanno le performance delle 1060 con il prezzo delle 1080.
le 2080 hanno le performance delle 1070 con il prezzo delle 1080Ti
le 2080Ti hanno le performance delle 1080 con il prezzo delle Titan

non è una singola incul@t@, ma doppia :D

mi sono perso, non so la 2070 ma la 2080 va un + 10% della 1080ti, cioè la ex top di gamma e le 2080ti vanno un 35% più delle 1080ti, il trend è stato stravolto solo sui prezzi in relazione alla nomenclatura, mica sulle prestazioni effettive

techsaskia
23-09-2018, 15:05
Circa la 2070 credo che dipenderà anche dal DLSS, se è ottimizzato per la nuova generazione di sicuro permetterà prestazioni probabilmente superiori alla 1080Ti.

per me è sbagliato proprio il concetto che il DLSS concederà performance superiori. il DLSS non aumenta le performance.
il DLSS da la possibilità di fare antialias ad un costo minore ma diciamocela tutta, su schede nate per il 4K l'antialias è una tecnica sempre meno importante.
per aumentare le performance, il DLSS renderizza a risoluzione più bassa, quindi non è che aumenta le performance, diminuisce la qualità.
abbiamo sempre sbeffeggiato i giocatori console per il checkerboard rendering e adesso facciamo la stessa cosa :doh:

Ale55andr0
23-09-2018, 15:08
per me è sbagliato proprio il concetto che il DLSS concederà performance superiori. il DLSS non aumenta le performance.
il DLSS da la possibilità di fare antialias ad un costo minore ma diciamocela tutta, su schede nate per il 4K l'antialias è una tecnica sempre meno importante.
per aumentare le performance, il DLSS renderizza a risoluzione più bassa, quindi non è che aumenta le performance, diminuisce la qualità.
abbiamo sempre sbeffeggiato i giocatori console per il checkerboard rendering e adesso facciamo la stessa cosa :doh:

qui quoto in toto (che strana frase vista per iscritto :D)

techsaskia
23-09-2018, 15:09
mi sono perso, non so la 2070 ma la 2080 va un + 10% della 1080ti, cioè la ex top di gamma e le 2080ti vanno un 35% più delle 1080ti, il trend è stato stravolto solo sui prezzi in relazione alla nomenclatura, mica sulle prestazioni effettive

la 2080 da tutti i test che ho visto io, e ne ho visti tanti, va circa l'1% in + della 1080Ti. ci sono alcuni test dove addirittura è dietro.
non so che test hai visto tu ma io in media vedo un aumento prestazionale dell'1% in 4K rispetto alla 1080Ti e teniamo conto che ci sono pure 3GB di memoria video in meno che a breve diventeranno probabilmente un fattore limitante.

se guardiamo una generazione indietro, le 1070 andavano l'1-5% in + delle 980Ti, le 1080 davano un 35% in più delle 980Ti e le 1080Ti l'80% in più delle 980Ti.

insomma, prezzi più alti, crescita minore rispetto alla precedente generazione.

techsaskia
23-09-2018, 15:12
qui quoto in toto (che strana frase vista per iscritto :D)

che poi si dice che a volte serve fare un passo indietro per farne uno in avanti,
ho capito, ma il passo indietro se permetti non lo vorrei pagare più caro degli ultimi passi avanti :D
maledetto giacchetta nera, se sapeste gli accidenti che gli sto mandando :sofico:

Ale55andr0
23-09-2018, 15:14
la 2080 da tutti i test che ho visto io, e ne ho visti tanti, va circa l'1% in +.
non so che test hai visto tu ma io in media vedo un aumento prestazionale dell'1% in 4K rispetto alla 1080Ti e teniamo conto che ci sono pure 3GB di memoria video in meno che a breve diventeranno probabilmente un fattore limitante.

se guardiamo una generazione indietro, le 1070 andavano l'1/5% in + delle 980Ti, le 1080 davano un 35% in più delle 980Ti e le 1080Ti l'80% in più delle 980Ti.

insomma, prezzi più alti, crescita minore rispetto alla precedente generazione.


mi sono appoggiato a questo:

https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_Founders_Edition/33.html

che poi si, 10% è un arrotondamento in eccesso, diciamo un 5-6%, ma è davanti, non uguale. Non so le altre review ma sono loro il mio sito di riferimento. Che poi non scordiamo che è l'erede della 1080 non della ti, ed è quella che doveva battere e lo fa di larga misura non scordando che sta praticamente su simile pp...

Kostanz77
23-09-2018, 15:16
aspettate i nuovi giochi e li vedremo il reale potenziale e poi vediamo......


Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro

AceGranger
23-09-2018, 15:17
la 2080 da tutti i test che ho visto io, e ne ho visti tanti, va circa l'1% in + della 1080Ti. ci sono alcuni test dove addirittura è dietro.
non so che test hai visto tu ma io in media vedo un aumento prestazionale dell'1% in 4K rispetto alla 1080Ti e teniamo conto che ci sono pure 3GB di memoria video in meno che a breve diventeranno probabilmente un fattore limitante.

se guardiamo una generazione indietro, le 1070 andavano l'1-5% in + delle 980Ti, le 1080 davano un 35% in più delle 980Ti e le 1080Ti l'80% in più delle 980Ti.

insomma, prezzi più alti, crescita minore rispetto alla precedente generazione.

la verita sta nel mezzo fra quello che dice lui e quello che dici tu:

quelli di 3D Center hanno fatto la media di 25 siti di recensioni e in 4K la 2080 FE va il 6,5% in piu della 1080Ti, mentre la 2080Ti FE va il 35% in piu.

techsaskia
23-09-2018, 15:22
la verita sta nel mezzo fra quello che dice lui e quello che dici tu:

quelli di 3D Center hanno fatto la media di 25 siti di recensioni e in 4K la 2080 FE va il 6,5% in piu della 1080Ti, mentre la 2080Ti FE va il 35% in piu.

vabbè 5% in + è a malapena visibile a occhio nudo.
sfido chiunque a vedere la differenza di 5% nel framerate...
quando usciranno i giochi pensati a partire dal 4K con texture 4K "vere" ne riparliamo... la 2080 è uno scandalo. 900€ e passa per una scheda che va quanto una scheda di un anno e mezzo fa con 3GB meno di VRAM.
raytracing sto paio di maroni. ok, ho finito di lamentarmi, perdonate lo sfogo. :D

Ale55andr0
23-09-2018, 15:24
aspettate i nuovi giochi e li vedremo il reale potenziale e poi vediamo......


ta frase lasciamola per le gpu aemmedì, okkei? :D





....scherzo..ma anche no :asd:

AceGranger
23-09-2018, 15:27
vabbè 5% in + è a malapena visibile a occhio nudo.
sfido chiunque a vedere la differenza di 5% nel framerate...
quando usciranno i giochi pensati a partire dal 4K con texture 4K "vere" ne riparliamo... la 2080 è uno scandalo. 800€ per una scheda che va quanto una scheda di un anno e mezzo fa con 3GB meno di VRAM.
raytracing sto paio di maroni. ok, ho finito di lamentarmi, perdonate lo sfogo. :D


hai piu probabilita di avere il DLSS.

beatl
23-09-2018, 15:32
vabbè 5% in + è a malapena visibile a occhio nudo.
sfido chiunque a vedere la differenza di 5% nel framerate...
quando usciranno i giochi pensati a partire dal 4K con texture 4K "vere" ne riparliamo... la 2080 è uno scandalo. 900€ e passa per una scheda che va quanto una scheda di un anno e mezzo fa con 3GB meno di VRAM.
raytracing sto paio di maroni. ok, ho finito di lamentarmi, perdonate lo sfogo. :D

In questo ti do pienamente ragione ...

The_SaN
23-09-2018, 15:33
vabbè 5% in + è a malapena visibile a occhio nudo.
sfido chiunque a vedere la differenza di 5% nel framerate...
quando usciranno i giochi pensati a partire dal 4K con texture 4K "vere" ne riparliamo... la 2080 è uno scandalo. 900€ e passa per una scheda che va quanto una scheda di un anno e mezzo fa con 3GB meno di VRAM.
raytracing sto paio di maroni. ok, ho finito di lamentarmi, perdonate lo sfogo. :D

Ma è proprio per questo che la 2070 potrebbe essere appetibile.
Se tutto va come dovrebbe ci sarà solamente il 15% di differenza tra la 2080 e la 2070. Noteresti questo circa 10% in meno da una 1080ti?
Magari lo recuperi in OC, magari con i giochi con engine DX12. Ed inoltre hai DLSS e RT (che comunque a quanto pare potrà essere settato con uno slider)

Per ora non mi sbilancio troppo, aspetto che esca e poi decido tra la 2070 e una 1080ti.

Gello
23-09-2018, 15:36
Ti stupirà sapere che sono legati al framerate.

"In game che differenza c'è?
Assolutamente nulla. "

Deciditi, non e' cosi' complicato, ripasserei le basi ecco...

stop81
23-09-2018, 15:38
Ma è proprio per questo che la 2070 potrebbe essere appetibile.
Se tutto va come dovrebbe ci sarà solamente il 15% di differenza tra la 2080 e la 2070. Noteresti questo circa 10% in meno da una 1080ti?
Magari lo recuperi in OC, magari con i giochi con engine DX12. Ed inoltre hai DLSS e RT (che comunque a quanto pare potrà essere settato con uno slider)

Per ora non mi sbilancio troppo, aspetto che esca e poi decido tra la 2070 e una 1080ti.

Esattamente quello che farò anche io :D

Kostanz77
23-09-2018, 15:41
No infatti non è complicato se la differenza di framerate è irrilevante lo è anche la differenza di frametime e inputlag.

Io le conosco le" basi" e tu?

Perché da quello che scrivi non mi sembra.



boni, state boni....😂


Inviato dal mio iPhone XS MAX utilizzando Tapatalk Pro

nessuno29
23-09-2018, 15:50
Ma è proprio per questo che la 2070 potrebbe essere appetibile.
Se tutto va come dovrebbe ci sarà solamente il 15% di differenza tra la 2080 e la 2070. Noteresti questo circa 10% in meno da una 1080ti?
Magari lo recuperi in OC, magari con i giochi con engine DX12. Ed inoltre hai DLSS e RT (che comunque a quanto pare potrà essere settato con uno slider)

Per ora non mi sbilancio troppo, aspetto che esca e poi decido tra la 2070 e una 1080ti.

Io dico +10% dalla gtx 1080,vediamo chi vincerà :D

SPARTANO93
23-09-2018, 15:56
Esattamente quello che farò anche io :DIo ho già avuto tentazioni dalla 1080ti ma per togliermi ogni dubbio sto cercando di aspettare come voi 😅

Inviato dal mio SM-G930F utilizzando Tapatalk

Gello
23-09-2018, 16:08
No infatti non è complicato se la differenza di framerate è irrilevante lo è anche la differenza di frametime e inputlag.
Io le conosco le" basi" e tu?
Perché da quello che scrivi non mi sembra.

Infatti non lo e'... Ma e' tempo perso perche' dopo 20k messaggi dovresti averlo capito da solo...

techsaskia
23-09-2018, 16:10
dai ragà qua abbiamo già tanto da arrabbiarci contro giacchetta nera non ci arrabbiamo tra di noi. siamo sulla stessa barca con il sedere rotto. :D

Gello
23-09-2018, 16:11
dai ragà qua abbiamo già tanto da arrabbiarci contro giacchetta nera non ci arrabbiamo tra di noi. siamo sulla stessa barca con il sedere rotto. :D

Arrabbiarsi ? Per cosa ?

Gello
23-09-2018, 16:19
Poi si puo' anche tornare col mantra dei "sopra i 30fps e' tutto inutile" come negli anni '90, il forum e' quello giusto...

bagnino89
23-09-2018, 16:36
Cmq tempo 6 mesi e tra fisiologico piccolo calo di prezzo e vat player magari la 2080 si trova a 650€.

Troppo ottimista? :D

Non che 650€ sia un prezzone eh, ma se non altro vedere 1080ti oggi sul mercatino vendersi tranquillamente a 600€ mi da fastidio :ODirei di sì, pure la 1080 costava un botto all'uscita, per vederla sui 500 EUR è dovuta uscire la 1080 Ti, che ne ha assunto il prezzo. Praticamente Nvidia si è voluta fare concorrenza interna.

Peccato che a questo giro la Ti sia uscita insieme alla 2080 liscia :asd:

Arrow0309
23-09-2018, 16:53
per me è sbagliato proprio il concetto che il DLSS concederà performance superiori. il DLSS non aumenta le performance.
il DLSS da la possibilità di fare antialias ad un costo minore ma diciamocela tutta, su schede nate per il 4K l'antialias è una tecnica sempre meno importante.
per aumentare le performance, il DLSS renderizza a risoluzione più bassa, quindi non è che aumenta le performance, diminuisce la qualità.
abbiamo sempre sbeffeggiato i giocatori console per il checkerboard rendering e adesso facciamo la stessa cosa :doh:

Per me sto dlss e' ancora da provare come qualità ma se mi convince e' un grande si.
Perché?
Perché l'ho sempre usato e non si può al mondo che ti fai la ammiraglia 2080 ti OC e non usi l'AA. Anche in 4K (su TV da 50") certamente e senza dubbio.

Direi di sì, pure la 1080 costava un botto all'uscita, per vederla sui 500 EUR è dovuta uscire la 1080 Ti, che ne ha assunto il prezzo. Praticamente Nvidia si è voluta fare concorrenza interna.

Peccato che a questo giro la Ti sia uscita insieme alla 2080 liscia :asd:

Ahhahhahahhahahah, lol :D
La ti subito ha un costo non indifferente.
E ormai le Titan scordiamoceli, dopo la V il trend e' quello di una scimmia aliena contro quale e' di un'importanza vitale vincere :D

techsaskia
23-09-2018, 16:54
Per me sto dlss e' ancora da provare come qualità ma se mi convince e' un grande si.
Perché?
Perché l'ho sempre usato e non si può al mondo che ti fai la ammiraglia 2080 ti OC e non usi l'AA. Anche in 4K (su TV da 50") certamente e senza dubbio.



Ahhahhahahhahahah, lol :D
La ti subito ha un costo non indifferente.
E ormai le Titan scordiamoceli, dopo la V il trend e' quello di una scimmia aliena contro quale e' di un'importanza vitale vincere :D

per giocare sulle TV da 50 pollici ci sono le console, fatti la console e gioca da consollaro con il pad.
i veri PC gamer giocano in 4K sul monitor 27, senza AA e con mouse e tastiera seduti composti alla scrivania.

nOOb! :sofico: :sofico: :sofico:

dai concedimela, sto scherzando non volermi male

bronzodiriace
23-09-2018, 16:57
Ma è proprio per questo che la 2070 potrebbe essere appetibile.
Se tutto va come dovrebbe ci sarà solamente il 15% di differenza tra la 2080 e la 2070. Noteresti questo circa 10% in meno da una 1080ti?
Magari lo recuperi in OC, magari con i giochi con engine DX12. Ed inoltre hai DLSS e RT (che comunque a quanto pare potrà essere settato con uno slider)

Per ora non mi sbilancio troppo, aspetto che esca e poi decido tra la 2070 e una 1080ti.Sinceramente non mi trovo con la scelta. Avrei il dubbio tra 1080ti e 2080ti ma tra una 2070 ed una 1080ti assolutamente no. Quest 'ultima mi darebbe molte più certezze.

Inviato dal mio ASUS_Z00ED utilizzando Tapatalk

Arrow0309
23-09-2018, 17:08
per giocare sulle TV da 50 pollici ci sono le console, fatti la console e gioca da consollaro con il pad.
i veri PC gamer giocano in 4K sul monitor 27, senza AA e con mouse e tastiera seduti composti alla scrivania.

nOOb! :sofico: :sofico: :sofico:

dai concedimela, sto scherzando non volermi male

Mi e' durato 3 giorni contati il Predator XB271HK (27", 4K, gsync pure).
Non mi ha convinto.
Nemmeno un Samsung Qled 32" (niente gsync) non mi ha convinto.
Monitor finiti. :D

49"-55"-65" QLED (OLED) 4K 10 bit HDR is the Way!

:sofico: :sofico: :sofico:

Ovv niente competitivi, per quelli ancora un buon IPS da 120hz/144hz/165hz ;) ;)

techsaskia
23-09-2018, 17:14
Mi e' durato 3 giorni contati il Predator XB271HK (27", 4K, gsync pure).
Non mi ha convinto.
Nemmeno un Samsung Qled 32" (niente gsync) non mi ha convinto.
Monitor finiti. :D

49"-55"-65" QLED (OLED) 4K 10 bit HDR is the Way!

:sofico: :sofico: :sofico:

Ovv niente competitivi, per quelli ancora un buon IPS da 120hz/144hz/165hz ;) ;)

ma va la...
ormai se proprio lo vuoi grosso vai di Ultrawide e se invece lo vuoi buono vai di PG27UQ o X27...
non è escluso che i prossimi Acer XB273K siano da aggiungere alla lista dei monitor wow.

Ale55andr0
23-09-2018, 17:16
per giocare sulle TV da 50 pollici ci sono le console, fatti la console e gioca da consollaro con il pad.
i veri PC gamer giocano in 4K sul monitor 27, senza AA e con mouse e tastiera seduti composti alla scrivania.

nOOb! :sofico: :sofico: :sofico:

dai concedimela, sto scherzando non volermi male

stavi andando bene, poi mi sei caduto sull'AA :O

Arrow0309
23-09-2018, 17:20
ma va la...
ormai se proprio lo vuoi grosso vai di Ultrawide e se invece lo vuoi buono vai di PG27UQ o X27...
non è escluso che i prossimi Acer XB273K siano da aggiungere alla lista dei monitor wow.

C'e' l'ho l'ultrawide. :sofico:
Al 27" non ci torno facile, certo il nuovo XB273K mi deve straconvincere per quello ma anche col prezzo (oltre ai 144hz RGB 10 bit impossibili).
La vedo improbabile.

Dai, ma come c@zzo si fa a meno? :doh:

https://www.reddit.com/r/ultrawidemasterrace/

Thunder-74
23-09-2018, 17:21
A mio avviso nutrite troppa fiducia nella 2070... tralasciando le features di Turing, le 2080/2080ti non fanno gridare al miracolo, al punto da chiedersi se meglio acquistare la 1080ti, immagino la 2070. Capisco quelli che vengono da una 970/1060, ma gli altri no.... spero di essere smentito e che lo svilutto dei drivers e supporto nuovi games, sia a favore di Turing. Ovviamente di questo ne gioverebbero tutti i modelli Turing.

E poi succede questo da domani:
Esclusivo: ecco quanto NVIDIA RTX MSRP sarà interessato dalle tariffe

LINK (https://wccftech.com/exclusive-nvidia-rtx-msrp-tariffs/)

ilcose
23-09-2018, 17:50
Poi si puo' anche tornare col mantra dei "sopra i 30fps e' tutto inutile" come negli anni '90, il forum e' quello giusto...25fps...25. L'occhio umano non percepisce più di 25fps, mi cadi tu sulle basi :asd:

Tornando in tema dlss oggi ho visto questo, non so se fosse stato già postato. Beh dal 4k puro siamo lontani con dlss1x, ma ho visto AA postprocess fare ben piu danni a un'immagine nativa del dlss (sto appunto giocando a dragon age inquisition e l'AA post process è terrificante...). Anche se ora sono curioso di vedere la stessa comparativa con 1080p/1440p upscalato normalmente e dlss.

https://youtu.be/iSGpDMK6xxQ

Inviato dal mio ZTE A2017G utilizzando Tapatalk

Arrow0309
23-09-2018, 18:16
A mio avviso nutrite troppa fiducia nella 2070... tralasciando le features di Turing, le 2080/2080ti non fanno gridare al miracolo, al punto da chiedersi se meglio acquistare la 1080ti, immagino la 2070. Capisco quelli che vengono da una 970/1060, ma gli altri no.... spero di essere smentito e che lo svilutto dei drivers e supporto nuovi games, sia a favore di Turing. Ovviamente di questo ne gioverebbero tutti i modelli Turing.

E poi succede questo da domani:
Esclusivo: ecco quanto NVIDIA RTX MSRP sarà interessato dalle tariffe

LINK (https://wccftech.com/exclusive-nvidia-rtx-msrp-tariffs/)

Meno male che ho fatto, non mi serve più niente per ora. :fagiano:

claudiostef
23-09-2018, 18:32
io continuo a dire che il trend è stato stravolto...

le 2070 hanno le performance delle 1060 con il prezzo delle 1080.
le 2080 hanno le performance delle 1070 con il prezzo delle 1080Ti
le 2080Ti hanno le performance delle 1080 con il prezzo delle Titan

non è una singola incul@t@, ma doppia :D
:read: :read:
si questo e il riassunto di nvidia

Thunder-74
23-09-2018, 18:34
Meno male che ho fatto, non mi serve più niente per ora. :fagiano:


Io invece incomincio ad averne le OO piene è veramente tra una fresca ed un’altra, mi passa la voglia di questo hobby...


Inviato dal mio iPhone X utilizzando Tapatalk

nessuno29
23-09-2018, 19:55
Come fate a dare tanta fiducia al dlss1x io non sò...capisco il 2x ma l'1x hai si una guadagno di prestazioni ma solo perchè fa upscaling da una risoluzione inferiore console style...abominevole.

maxmix65
23-09-2018, 19:56
A mio avviso nutrite troppa fiducia nella 2070... tralasciando le features di Turing, le 2080/2080ti non fanno gridare al miracolo, al punto da chiedersi se meglio acquistare la 1080ti, immagino la 2070. Capisco quelli che vengono da una 970/1060, ma gli altri no.... spero di essere smentito e che lo svilutto dei drivers e supporto nuovi games, sia a favore di Turing. Ovviamente di questo ne gioverebbero tutti i modelli Turing.

E poi succede questo da domani:
Esclusivo: ecco quanto NVIDIA RTX MSRP sarà interessato dalle tariffe

LINK (https://wccftech.com/exclusive-nvidia-rtx-msrp-tariffs/)

Chi deve comprare compri adesso perche' come si sparge la notizia vedrete che aumentano anche i componenti in magazzino anche se non interessati da questi aumenti

Biscottoman
23-09-2018, 20:12
ragazzi volevo chiedervi cosa pensaste riguardo al "problema" del power limit di queste 2080ti che tende a limitare di molto il potenziale di oc delle schede e il cui incremento risulta davvero basso per alcuni modelli di custom (il massimo raggiungibile sembra sia un incremento del 30% con il nuovo bios delle evga, mentre sulla FE si parla del 23% e su alcune custom come le msi siamo ridotti al 11%)

Gello
23-09-2018, 20:14
25fps...25. L'occhio umano non percepisce più di 25fps, mi cadi tu sulle basi :asd:
[cut]

:asd: :asd:

ilcose
23-09-2018, 20:17
Ma non è che vi divertite a capire le cose al contrario? :asd:
Se 42 fps sono pochi non è che 52 diventano tanti.

Cosa centrano i 30 e 25?
Mah derive deliranti.Tra 44 e 57 fps la fluidità cambia eh. E ho pure FS, sto appunto giocando Dragon Age inquisition che in alcuni punti scende attorno ai 44 fps e la differenza con i 57/60 fps la trovo abbastanza percepibile.

Poi ognuno ha sensibilità diversa eh, ma dire che non cambia nulla mi sembra eccessivo.

Inviato dal mio SM-G960F utilizzando Tapatalk

TigerTank
23-09-2018, 20:24
A mio avviso nutrite troppa fiducia nella 2070... tralasciando le features di Turing, le 2080/2080ti non fanno gridare al miracolo, al punto da chiedersi se meglio acquistare la 1080ti, immagino la 2070. Capisco quelli che vengono da una 970/1060, ma gli altri no.... spero di essere smentito e che lo svilutto dei drivers e supporto nuovi games, sia a favore di Turing. Ovviamente di questo ne gioverebbero tutti i modelli Turing.

E poi succede questo da domani:
Esclusivo: ecco quanto NVIDIA RTX MSRP sarà interessato dalle tariffe

LINK (https://wccftech.com/exclusive-nvidia-rtx-msrp-tariffs/)

Sicuramente si avvicinerà tantissimo alla ti anche superandola,ma non si può comunque porre tutta la fiducia su una tecnologia che ancora ha tutto da dimostrare...Specialmente utilizzando il dlss1x che riduce la risoluzione nativa...

Sembrano i discorsi di chi compra AMD :D dove c'è sempre la tecnologia rivoluzionaria che ribalta la situazione

Cioè una scheda che va molto meno della 1080ti probabilmente pur costando uguale.

Come puoi aspettarti una 2070 con prestazioni superiori alla 1080ti se in molti giochi manco la 2080 la passa?

per me è sbagliato proprio il concetto che il DLSS concederà performance superiori. il DLSS non aumenta le performance.
il DLSS da la possibilità di fare antialias ad un costo minore ma diciamocela tutta, su schede nate per il 4K l'antialias è una tecnica sempre meno importante.
per aumentare le performance, il DLSS renderizza a risoluzione più bassa, quindi non è che aumenta le performance, diminuisce la qualità.
abbiamo sempre sbeffeggiato i giocatori console per il checkerboard rendering e adesso facciamo la stessa cosa :doh:

Calma ragazzi, io stesso ho scritto che "è ancora tutto da vedere". La mia era solo un'ipotesi e la resa effettiva del DLSS la vedremo man mano, soprattutto con i giochi che arriveranno.
Circa la fiducia nella 2070...non è solo questione di performance...ma visti gli eventi attuali e la bellissima notizia riportata da Thunder(mi astengo dal dire cosa ne penso di Trump o mi bannerebbero per terminologia inappropriata)...forse diventerà davvero l'unica eventualmente da considerare tra tutte le Turing... :asd:
Che disastro...secondo me chi ha venduto la 1080Ti ha fatto un'enorme fesseria. Di questo passo quella scheda, soprattutto se si ha avuto la fortuna di pagarla pure meno di 700€, sarà da tenere stretta fino alla serie 3000.
Tanti saluti all'RT beta, a queste schede salasso e alla 4K 144Hz...che tanto resterà proibitiva ancora per un bel pezzo.

aeN_13
23-09-2018, 20:24
ragazzi volevo chiedervi cosa pensaste riguardo al "problema" del power limit di queste 2080ti che tende a limitare di molto il potenziale di oc delle schede e il cui incremento risulta davvero basso per alcuni modelli di custom (il massimo raggiungibile sembra sia un incremento del 30% con il nuovo bios delle evga, mentre sulla FE si parla del 23% e su alcune custom come le msi siamo ridotti al 11%)

La Trio ha giá di default il PL a +50W, per questo si puó alzare ulteriormente solo del 10%.

Strano che lo stesso limite ce l'abbia anche la Duke visto che ha il PL a default, con solo il +10% arriva anche sotto la FE.

https://img.techpowerup.org/180922/86il87sp6y.jpg

Alla fine le Ti arrivano tutte a un massimo di 320-330W, cambia poco tra brand.

Thunder-74
23-09-2018, 20:44
Calma ragazzi, io stesso ho scritto che "è ancora tutto da vedere". La mia era solo un'ipotesi e la resa effettiva del DLSS la vedremo man mano, soprattutto con i giochi che arriveranno.
Circa la fiducia nella 2070...non è solo questione di performance...ma visti gli eventi attuali e la bellissima notizia riportata da Thunder(mi astengo dal dire cosa ne penso di Trump o mi bannerebbero per terminologia inappropriata)...forse diventerà davvero l'unica eventualmente da considerare tra tutte le Turing... :asd:
Che disastro...secondo me chi ha venduto la 1080Ti ha fatto un'enorme fesseria. Di questo passo quella scheda, soprattutto se si ha avuto la fortuna di pagarla pure meno di 700€, sarà da tenere stretta fino alla serie 3000.
Tanti saluti all'RT beta, a queste schede salasso e alla 4K 144Hz...che tanto resterà proibitiva ancora per un bel pezzo.



Tiger ho capito il tuo pensiero, però veramente credo sia opportuno per noi se vogliamo ritornare ad una singola, prendere una 1080ti e amen Turing.
La 2070 solo per il dlss... perché il RT non credo che riesca ad essere presentabile su di essa... ok che hanno detto che questo potrà essere impostato su low/med/max, ma sinceramente preferisco non averlo che non poterlo usare ...
per ora prendo tempo e seguo le tue scelte perché so che sei una persona intelligente ;)


Inviato dal mio iPhone X utilizzando Tapatalk

ilcose
23-09-2018, 21:08
Si certo che cambia e anche con freesync lo vedi, senza però anche a 57 hai microstuttering.
E poi parlavamo di frame medi, se sono medi vuol dire che in alcuni punti scenderà ulteriormente.

Ma poi non sono gli fps il problema, perchè sappiamo bene che quei bench sono fatti con le impostazioni a ultra o simili, quindi per avere un buon framerate basta abbassare qualche settaggio di quelli che esano un sacco e hanno una resa grafica risibile e si è a posto.
Ma questo si può fare anche con la 1080ti senza bisogno della 2080ti no?

Che poi non è la 2080ti in se il problema, ci sta che la generazione dopo vada un 30% in più con nuove features, quello che non ci sta è che costi il doppio.Beh di il costo è un altro discorso. Costa come una titan e lì c è poco da girarci intorno.

Senza Sync adattivo trovo più difficile anche io percepire la fluidità a causa del microstuttering.

Inviato dal mio SM-G960F utilizzando Tapatalk

Arrow0309
23-09-2018, 21:31
La Trio ha giá di default il PL a +50W, per questo si puó alzare ulteriormente solo del 10%.

Strano che lo stesso limite ce l'abbia anche la Duke visto che ha il PL a default, con solo il +10% arriva anche sotto la FE.

https://img.techpowerup.org/180922/86il87sp6y.jpg

Alla fine le Ti arrivano tutte a un massimo di 320-330W, cambia poco tra brand.

Azzz, cosi' poco la mia Duke? :eek:

techsaskia
23-09-2018, 21:54
Azzz, cosi' poco la mia Duke? :eek:

Annulla di nuovo l'ordine

Thunder-74
23-09-2018, 22:04
Azzz, cosi' poco la mia Duke? :eek:



Per ora la migliore sembra essere la Strix... aspettando le EVGA FTW3


Inviato dal mio iPhone X utilizzando Tapatalk

Arrow0309
23-09-2018, 22:12
Annulla di nuovo l'ordine

A me non sembra cosi' male la Duke, l'oc poi e' anche una lotteria ma tieni conto che al liquido e con po di :ciapet: cambiano le cose ;)

https://www.techpowerup.com/forums/threads/msi-geforce-rtx-2080-ti-duke-11-gb.247724/

Per ora la migliore sembra essere la Strix... aspettando le EVGA FTW3

Inviato dal mio iPhone X utilizzando Tapatalk

A che costo?
E non ci sono wb per ora, forse usciranno ma più in la.
La Duke se non basta come watts max in PL maxato gli posso sempre flashare il bios della FE.

Thunder-74
23-09-2018, 22:27
A me non sembra cosi' male la Duke, l'oc poi e' anche una lotteria ma tieni conto che al liquido e con po di :ciapet: cambiano le cose ;)



https://www.techpowerup.com/forums/threads/msi-geforce-rtx-2080-ti-duke-11-gb.247724/







A che costo?

E non ci sono wb per ora, forse usciranno ma più in la.

La Duke se non basta come watts max in PL maxato gli posso sempre flashare il bios della FE.


Ma si, tanto mi sembra che stanno tutte lì come oc.


Inviato dal mio iPhone X utilizzando Tapatalk

DJurassic
23-09-2018, 22:31
Io invece incomincio ad averne le OO piene è veramente tra una fresca ed un’altra, mi passa la voglia di questo hobby...


Inviato dal mio iPhone X utilizzando Tapatalk

Ma no perchè dici così? Lasciamo che si facciano la guerra sul niente e nel frattempo stiamo al balcone a vedere che succederà da qui a qualche mese. Un PC ce l'hai, giocare puoi giocare, non vedo quale sia il problema. Dopotutto hai una 980Ti quindi non stai proprio con il culo per terra.

Se ti convince compri, altrimenti aspetti. Io così ho sempre fatto e non me ne è mai andata male una. Le uniche occasioni dove un pò mi girano i coglioni sono quando vedo certe talentuose SH sviluppare solo esclusive per quella console quando vorrei avere il piacere di dargli i miei soldi e giocare un qualche loro titolo come si deve senza elemosinare in frame rate o risoluzione o dettagli. Peccato.

Ma per il resto vento in poppa e goditi la traversata ;)

scorpion73
23-09-2018, 23:06
Personalmente attendo di vedere qualche test con i giochi in RT prima di fare qualsiasi mossa che potrebbe risultare azzardata.
Senza RT al momento giocando a 1440p la mia 1080ti va alla grande e non ho nessuna esigenza di cambiamento perché gioco tutto al max (come effetti, dell'AA sinceramente mi importa poco o nulla).

La scelta ricadrebbe comunque fra EVGA dual slot e FE nel caso in cui decidessi di cambiare.

Mi tira sinceramente di più al momento il 9900k, ma anche li' voglio vedere i prezzi: con il mio 6700k gioco a tutto benissimo quindi non mi impiccherò per l'upgrade. Vedremo se i prezzi saranno normali, altrimenti si aspetta....

Thunder-74
24-09-2018, 05:57
Ma no perchè dici così? Lasciamo che si facciano la guerra sul niente e nel frattempo stiamo al balcone a vedere che succederà da qui a qualche mese. Un PC ce l'hai, giocare puoi giocare, non vedo quale sia il problema. Dopotutto hai una 980Ti quindi non stai proprio con il culo per terra.

Se ti convince compri, altrimenti aspetti. Io così ho sempre fatto e non me ne è mai andata male una. Le uniche occasioni dove un pò mi girano i coglioni sono quando vedo certe talentuose SH sviluppare solo esclusive per quella console quando vorrei avere il piacere di dargli i miei soldi e giocare un qualche loro titolo come si deve senza elemosinare in frame rate o risoluzione o dettagli. Peccato.

Ma per il resto vento in poppa e goditi la traversata ;)



Assolutamente si, la voglia di cambiare è più dettata dalla scimmia che dalla necessità. Non devo neanche rincorrere i 100/144 frames. Discorso esclusive console, dici bene. Io ho preso a 150 euro una ps4 da un amico. Giusto per le esclusive appunto.


Inviato dal mio iPhone X utilizzando Tapatalk

TigerTank
24-09-2018, 06:58
Tiger ho capito il tuo pensiero, però veramente credo sia opportuno per noi se vogliamo ritornare ad una singola, prendere una 1080ti e amen Turing.
La 2070 solo per il dlss... perché il RT non credo che riesca ad essere presentabile su di essa... ok che hanno detto che questo potrà essere impostato su low/med/max, ma sinceramente preferisco non averlo che non poterlo usare ...
per ora prendo tempo e seguo le tue scelte perché so che sei una persona intelligente ;)


Figurati Thunder, è solo quello che penso io nel mio piccolo. Diciamo solo che vorrei prima vedere il quadro completo e poi decidere cosa fare. Tanto comunque non stando in 4K e non essendo uno che rincorre l'ultimo titolo uscito(anzi...ho vari arretrati :asd:), non ho fretta. RT incluso che comunque per ora non è che mi abbia strabiliato al punto da dire "è irrinunciabile".
Abbiamo giocato finora senza...e di giochi belli ce ne sono stati a iosa. Anzi...belli pure senza altre mattonate mostruose come le ombre avanzate e simili :D
Quando poi sarà maturo e ottimizzato, allora il discorso cambierà.
Più che altro voglio vedere come si comportano le 2070 come consumi effettivi, temperature e rumorosità, perchè devo dire che con le attuali 1070 mi sono trovato benone...e non ho nemmeno sentito il bisogno di metterle a liquido.

kiwivda
24-09-2018, 07:14
Me se alla gente piace buttare i soldi e farsi in:ciapet: da nVidia problemi loro.
Negli acquisti di qualsiasi prodotto o servizio, c'è una sola regola che non va mai messa da parte:

PRIMA VEDERE CAMMELLO, POI PAGARE MONETA!

Chi fa diversamente é fesso. Il pre order è il nuovo bancomat del marketing.

IMHO EH...

illidan2000
24-09-2018, 08:20
La Trio ha giá di default il PL a +50W, per questo si puó alzare ulteriormente solo del 10%.

Strano che lo stesso limite ce l'abbia anche la Duke visto che ha il PL a default, con solo il +10% arriva anche sotto la FE.

https://img.techpowerup.org/180922/86il87sp6y.jpg

Alla fine le Ti arrivano tutte a un massimo di 320-330W, cambia poco tra brand.
ma avete notato pure voi che le gigabyte 2080ti non le ha recensite nessuno? Non ci stanno proprio in giro eh...?

traider
24-09-2018, 08:43
Ma le 2070 cè una data d'uscita ? .

Vul
24-09-2018, 09:03
Credo fine ottobre.

Comunque se dovete comprare una gpu, fatelo pure adesso senza aspettare fantomatici 10 e 7nm che non arriveranno ancora per molti anni e che comunque sono solo marketing che ormai non ha più nulla a che fare con la geometria di un transistor da secoli.

GF ha cancellato i suoi 7nm, Intel ancora per i prossimi 2 anni non ha alcun chip commerciale (reale) a 10 nm. TSMC ha il nodo più evoluto al momento ma costerà caro e difficilmente lo vedremo sulle gpu con la fila che ci sarà nei prossimi anni. E no, neanche questo è un vero 7nm.

Ci stiamo avvicinando al punto in cui ottimizzare i processi di produzione è diventato troppo costoso.

Pensare che i 10nm dovevano arrivare nel 2015. Mah.

Thunder-74
24-09-2018, 09:11
non so se già postata...
Recensione EVGA 2080Ti XC ULTRA
tri-slot e 75 gradi... non voglio pensare la versione dual-slot

cosa positiva Power Limit +30%

LINK (https://elchapuzasinformatico.com/2018/09/evga-geforce-rtx-2080-ti-xc-ultra-review/#embalaje-y-accesorios)

TigerTank
24-09-2018, 09:12
Credo fine ottobre.

Comunque se dovete comprare una gpu, fatelo pure adesso senza aspettare fantomatici 10 e 7nm che non arriveranno ancora per molti anni e che comunque sono solo marketing che ormai non ha più nulla a che fare con la geometria di un transistor da secoli.

GF ha cancellato i suoi 7nm, Intel ancora per i prossimi 2 anni non ha alcun chip commerciale (reale) a 10 nm. TSMC ha il nodo più evoluto al momento ma costerà caro e difficilmente lo vedremo sulle gpu con la fila che ci sarà nei prossimi anni. E no, neanche questo è un vero 7nm.

Ci stiamo avvicinando al punto in cui ottimizzare i processi di produzione è diventato troppo costoso.

Pensare che i 10nm dovevano arrivare nel 2015. Mah.

Comprare adesso vorrebbe comunque dire giustificare i prezzi assurdi attuali...a fronte di features ancora in alto mare...
Manca pure il supporto di base a windows...che ancora dev'essere implementato ad ottobre :D

Comunque fosse come dici tu, il lancio anticipato della Ti(con relativo rialzo assurdo di tutte le fasce) non avrebbe senso. A meno che già appunto la 2080 non sia in grado di gestire degnamente l'RT di prima generazione, rendendosi dunque necessario il lancio anticipato della Ti.
Inoltre se le 2070 costeranno davvero oltre le 600€ e staranno sotto, altro che RT....tanto vale tenersi/comprare una 1080Ti.

Dov'è Growan che qualche settimana fà si è pigliato una 1080Ti FTW usata a 500€ o poco più? :D

Arrow0309
24-09-2018, 09:29
Comprare adesso vorrebbe comunque dire giustificare i prezzi assurdi attuali...a fronte di features ancora in alto mare...
Manca pure il supporto di base a windows...che ancora dev'essere implementato ad ottobre :D

Comunque fosse come dici tu, il lancio anticipato della Ti(con relativo rialzo assurdo di tutte le fasce) non avrebbe senso. A meno che già appunto la 2080 non sia in grado di gestire degnamente l'RT di prima generazione, rendendosi dunque necessario il lancio anticipato della Ti.
Inoltre se le 2070 costeranno davvero oltre le 600€ e staranno sotto, altro che RT....tanto vale tenersi/comprare una 1080Ti.

Dov'è Growan che qualche settimana fà si è pigliato una 1080Ti FTW usata a 500€ o poco più? :D

Ha finito col forum, ora se la sta godendo. :D

Arrow0309
24-09-2018, 09:33
@AceGranger hai visto che roba? :eek:

https://www.phoronix.com/scan.php?page=article&item=nvidia-rtx2080ti-compute&num=1

scorpion73
24-09-2018, 10:59
non so se già postata...
Recensione EVGA 2080Ti XC ULTRA
tri-slot e 75 gradi... non voglio pensare la versione dual-slot

cosa positiva Power Limit +30%

LINK (https://elchapuzasinformatico.com/2018/09/evga-geforce-rtx-2080-ti-xc-ultra-review/#embalaje-y-accesorios)

Ecco questa per me è non è una buona notizia perché se i test in RT mi soddisfacevano la dual slot era la mia candidata non potendo permettermi una vga tri slot per motivi di spazio.
A sto punto però la lascio li perché se la tri slot fa cosi' la dual slot ci cuoci la bistecca....

A sto punto o FE o EVGA Hybrid....

Thunder-74
24-09-2018, 11:19
ecco come occare decentemente le vostre 2080... :asd: :asd:


VIDEO (https://www.youtube.com/watch?v=9_G7tWAh5ms)

amon.akira
24-09-2018, 11:41
ancora con sto rt beta lol

non è che esce dalla beta nel momento in cui ce lo possiamo permettere

sennò anche il 4k è beta, il gsync è beta, i 144hz so beta, l oled è beta e lo saranno finchè chi ha tot budget non lo potrà usare comodamente.

Thunder-74
24-09-2018, 11:46
Che saldature fatte da cani :nono:

Hahahah veramente fatte con la zampa da porco...

Spider-Mans
24-09-2018, 11:47
Che disastro...secondo me chi ha venduto la 1080Ti ha fatto un'enorme fesseria. Di questo passo quella scheda, soprattutto se si ha avuto la fortuna di pagarla pure meno di 700€, sarà da tenere stretta fino alla serie 3000.
.

quello che faro io
1080ti pagata 700 euro pre boom prezzi a dicembre
non vado a spendere il doppio per un misero 35% se va bene in piu per la 2080ti
ovviamente misero riferito al rapporto prezzo prestazioni... costassero 800-900 euro avrei ovviamente upgradato

e del ray tracing in fullhd ....mi frega zero :asd: ..visto che gioco a 4k e non torno alla preistoria risolutiva perche nvidia ha anticipato rtx come propaganda per vendere ste schede sovraprezzate

sta volta nvidia non mi ha convinto per nulla

avvisatemi quando annunceranno le 7nm fra un anno .... :D

magnusll
24-09-2018, 11:49
Da tutto quello che sto leggendo in questi giorni , le nuove schede "non hanno colpito nel cuore" per una serie di motivi.


Al cuore no, pero' un' altra parte l' hanno colpita in pieno :asd:

amon.akira
24-09-2018, 11:49
avvisatemi quando annunceranno le 7nm fra un anno .... :D

ti mando pm dormi tranquillo :ronf:

Spider-Mans
24-09-2018, 11:57
ti mando pm dormi tranquillo :ronf:

grazie caro :sofico:

Al cuore no, pero' un' altra parte l' hanno colpita in pieno :asd:al portafoglio ? :ciapet:

amon.akira
24-09-2018, 12:35
Ma nemmeno per idea.

Puoi comprare un monitor 4K.
Puoi comprare un monitor G.Sync.
Puoi comprare un monitor 144Hz.
Puoi comprare un monitor OLED.

Non puoi comprare un gioco RT, perché non ne esistono.

ahah vuoi che moro :sofico:

The_SaN
24-09-2018, 12:54
Ma nemmeno per idea.

Puoi comprare un monitor 4K.
Puoi comprare un monitor G.Sync.
Puoi comprare un monitor 144Hz.
Puoi comprare un monitor OLED.

Non puoi comprare un gioco RT, perché non ne esistono.

Touché

Arrow0309
24-09-2018, 13:09
https://www.eurogamer.net/articles/digitalfoundry-2018-09-21-rtx-2080-vs-gtx-1080-ti-benchmarks-performance-features-7001

Telstar
24-09-2018, 13:10
GF ha cancellato i suoi 7nm, Intel ancora per i prossimi 2 anni non ha alcun chip commerciale (reale) a 10 nm. TSMC ha il nodo più evoluto al momento ma costerà caro e difficilmente lo vedremo sulle gpu con la fila che ci sarà nei prossimi anni. E no, neanche questo è un vero 7nm.

Ci stiamo avvicinando al punto in cui ottimizzare i processi di produzione è diventato troppo costoso.

Giusto per precisare ma i 10nm di Intel equivalgono ai 7nm di TSMC.

Thunder-74
24-09-2018, 13:12
interessante ....

MSI Gaming OSD App offers an optimized mode for RTX Ray-tracing..


LINK (https://www.guru3d.com/news-story/msi-gaming-osd-app-offers-an-optimized-mode-for-rtx-ray-tracing-in-october.html)

AceGranger
24-09-2018, 13:24
@AceGranger hai visto che roba? :eek:

https://www.phoronix.com/scan.php?page=article&item=nvidia-rtx2080ti-compute&num=1

ha un guadagno del 35-50% come i giochi DX12; i casi migliori sono quelli dove vengono usate di piu le unita INT.
il bello arrivera con le prossime patch dei motori di render ( CUDA ) che sfrutteranno gli RT Core :D

comunque a quanto leggevo, attualmente i giochi RT che usciranno avrano l'RT implementato a parte, "al di fuori" del game engine; in seguito invece arrivera l'integrazione totale.

credo che a regime, le 2080Ti non dovrebbero avere problemi a gestire anche risoluzioni e fps superiori a quelli visti fin oad ora.

Ecco:

ed è esattamente cosi :asd:


nello spechviewperf i software pro hanno gli stessi guadagni dei giochi

AceGranger
24-09-2018, 13:33
Lo specviewperf, utilissimo nelle gare d'appalto e rappresentativo di nessun workload reale :asd:

sono gli fps delle viewport registrati muovendo scene dai poligoni definiti.

quello che ho sempre visto nello specviewperf poi me lo sono ritrovato veramente nel software ( Autocad, 3DMax e Maya ); danno abbastanza bene l'idea del numero di poligoni che è in grado di gestire una determinata GPU, e hanno esattamente la stessa valenza di un bench di tempo di render GPGPU.

Thunder-74
24-09-2018, 18:16
Prestazioni HDR Nvidia RTX 2080 Ti G-Sync: un aggiornamento rivoluzionario su Pascal

https://overclock3d.net/gfx/articles/2018/09/24115339743l.jpg

LINK (https://www.overclock3d.net/news/gpu_displays/nvidia_rtx_2080_ti_g-sync_hdr_performance_-_a_revolutionary_upgrade_over_pascal/1)


INOLTRE:
Video di uno Sli di 2080ti LINK (https://www.youtube.com/watch?v=cbvFb0IHTg0&t=610s)

FroZen
24-09-2018, 18:26
Fammi capire :O

se metti gsynche e hdr come vorrebbe mamma nvidia per i suoi uber bfg la titan diventa 'na 1080? :O

ammazza che innovatori oh, so' proprio tosti :O

techsaskia
24-09-2018, 18:39
Prestazioni HDR Nvidia RTX 2080 Ti G-Sync: un aggiornamento rivoluzionario su Pascal

https://overclock3d.net/gfx/articles/2018/09/24115339743l.jpg

LINK (https://www.overclock3d.net/news/gpu_displays/nvidia_rtx_2080_ti_g-sync_hdr_performance_-_a_revolutionary_upgrade_over_pascal/1)


INOLTRE:
Video di uno Sli di 2080ti LINK (https://www.youtube.com/watch?v=cbvFb0IHTg0&t=610s)

il video completo qui
https://www.youtube.com/watch?v=ce84bFUUT_A&index=2&list=WL

interessante, almeno un altro piccolo miglioramento che certamente non contribuisce a giustificare i prezzi ma lameno meglio di niente.

amon.akira
24-09-2018, 19:37
Fammi capire :O

se metti gsynche e hdr come vorrebbe mamma nvidia per i suoi uber bfg la titan diventa 'na 1080? :O

ammazza che innovatori oh, so' proprio tosti :O

At this time it is unknown what this new product is, with some suggesting that AMD plans to remake their Polaris Architecture on GlobalFoundries 12nm node, offering an expected performance uplift of around 15%. In theory, this will be enough to allow a hypothetical RX 680 (12nm RX 580) to comfortably outperform Nvidia's GTX 1060 6GB in modern gaming title.

un piccolo passo per l uomo, un grande passo per l umanità :sofico:

AceGranger
24-09-2018, 20:10
Fammi capire :O

se metti gsynche e hdr come vorrebbe mamma nvidia per i suoi uber bfg la titan diventa 'na 1080? :O

ammazza che innovatori oh, so' proprio tosti :O

che è tutto grasso che cola contando che la concorrenza quando accendi tutto restituisce fps da epilessia :asd:

Vul
24-09-2018, 21:06
Giusto per precisare ma i 10nm di Intel equivalgono ai 7nm di TSMC.

I secondi esistono ;)

9900k saranno lanciati sempre a 14nm, mentre TSMC ha già consegnato decine di milioni di A12 7nm ad Apple.

In ogni caso nessuno di questi ha geometrie paventate dai nomi. Sono ancora bene o male tutti processi 20nm finfet ottimizzati.

Intel non ha alcun vero nodo da 10 nm e non lo avrà fino al 2021, sempre che ce la fanno (ormai sono 3 anni in ritardo e tutte le info dicono che non ce la faranno). Ti ricordo che la prossima gen di Xeon, nel 2020, sarà lanciata sempre a 14nm.

Arrow0309
24-09-2018, 21:07
At this time it is unknown what this new product is, with some suggesting that AMD plans to remake their Polaris Architecture on GlobalFoundries 12nm node, offering an expected performance uplift of around 15%. In theory, this will be enough to allow a hypothetical RX 680 (12nm RX 580) to comfortably outperform Nvidia's GTX 1060 6GB in modern gaming title.

un piccolo passo per l uomo, un grande passo per l umanità :sofico:

:asd: :rotfl: :asd: :rotfl: :asd: :rotfl:

Vul
24-09-2018, 21:09
Comprare adesso vorrebbe comunque dire giustificare i prezzi assurdi attuali...a fronte di features ancora in alto mare...
Manca pure il supporto di base a windows...che ancora dev'essere implementato ad ottobre :D

Comunque fosse come dici tu, il lancio anticipato della Ti(con relativo rialzo assurdo di tutte le fasce) non avrebbe senso. A meno che già appunto la 2080 non sia in grado di gestire degnamente l'RT di prima generazione, rendendosi dunque necessario il lancio anticipato della Ti.
Inoltre se le 2070 costeranno davvero oltre le 600€ e staranno sotto, altro che RT....tanto vale tenersi/comprare una 1080Ti.

Dov'è Growan che qualche settimana fà si è pigliato una 1080Ti FTW usata a 500€ o poco più? :D

Stavolta non c'è un vero e proprio chip full, la Titan di riferimento non è Turing ma Volta. Non stanno aspettando di avere scarti di Titan per lanciare le Ti.

Inoltre c'è anche il fattore marketing. Te lo immagini il lancio di turing senza la 2080ti? Con la 2080 a volte anche più lenta di 2080ti in certi giochi?

Ma che figura ci faceva Nvidia.

Serviva la flagship per vendere anche le altre.

DJurassic
24-09-2018, 21:17
Stavolta non c'è un vero e proprio chip full, la Titan di riferimento non è Turing ma Volta. Non stanno aspettando di avere scarti di Titan per lanciare le Ti.

Inoltre c'è anche il fattore marketing. Te lo immagini il lancio di turing senza la 2080ti? Con la 2080 a volte anche più lenta di 1080ti in certi giochi?

Ma che figura ci faceva Nvidia.

Serviva la flagship per vendere anche le altre.

fixed ;)

amon.akira
24-09-2018, 21:32
https://www.guru3d.com/news-story/hdr-benchmarks-perf-impact-on-amd-(-2)-vs-nvidia-(-10)-12-games-at-4k-hdr.html

ottimo, in hdr una 1080 fa come una vega 64 sdr/hdr consumando la metà...dimostra che era un cesso in sdr o che che era uber in hdr? :sofico:

AceGranger
24-09-2018, 21:33
https://www.guru3d.com/news-story/hdr-benchmarks-perf-impact-on-amd-(-2)-vs-nvidia-(-10)-12-games-at-4k-hdr.html

ti pare che abbia scritto che la 1080 sia migliore ? non è che postando un'altra GPU che va male in 4K allora miracolosamente vanno entrambe bene :asd:

Vega 64 era e rimane nella fascia della 1080, solo che una è la TOP gamma, l'altra era la 3 in lista e fra poco diventarà la 6; non ce la fa la Titan Xp a essere una GPU da "4K ready" figuriamoci VEGA.

amon.akira
24-09-2018, 21:46
non fa male, non fa male :sofico:

AceGranger
24-09-2018, 22:05
Mi piace quando triggerate perché non vi piace quello che leggete e partite subito con la guerra preventiva.

Bush sarebbe fiero di voi :asd:

fino ad ora non ho proprio letto nulla che non mi piaccia

ho solo visto cose che si sapevano gia con un differenza dell'8% :asd:

Arrow0309
25-09-2018, 08:21
https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/7.html

NVLINK non per tutti se non si ha un hedt.

techsaskia
25-09-2018, 08:29
https://www.techpowerup.com/reviews/NVIDIA/GeForce_RTX_2080_Ti_PCI-Express_Scaling/7.html

NVLINK non per tutti se non si ha un hedt.

Io l'ho sempre detto che I mainstream vanno bene solo per la singola scheda con pochi dischi

techsaskia
25-09-2018, 08:58
L'articolo dice che tra pcie 3.0 x16 e pcie 3.0 x8 la differenza di prestazioni è del 2-3% questo vuol dire che se metto due 2080ti in sli al massimo perdo il 2-3%
Ma se c'è NVLINK io mi aspetto serva a qualcosa e vada a ridurre l'utilizzo del bus pcie per le comunicazioni tra una scheda e l'altra.

Secondo me non basta questa prova per dire che uno sli di 2080ti richiedono due connessioni x16 perchè ci sono troppe differenze difficili da quantificare.

sullo stesso sistema, sul mio 5930K per intenderci, con le 980Ti in SLI perdo già il 2% passando da 8x a 16x, quindi diciamo che hanno scoperto l'acqua calda.
ormai le schede saturano il PCIE3 8x, questo è assodato.

Thunder-74
25-09-2018, 09:29
sullo stesso sistema, sul mio 5930K per intenderci, con le 980Ti in SLI perdo già il 2% passando da 8x a 16x, quindi diciamo che hanno scoperto l'acqua calda.
ormai le schede saturano il PCIE3 8x, questo è assodato.



Si ma il 2/3% è qualcosa di ridicolo e non percepibile ad occhio nudo...


Inviato dal mio iPhone X utilizzando Tapatalk

techsaskia
25-09-2018, 09:35
Si ma il 2/3% è qualcosa di ridicolo e non percepibile ad occhio nudo...


Inviato dal mio iPhone X utilizzando Tapatalk

Si ma è l'inizio della fine del PCIe 3 8x.

techsaskia
25-09-2018, 09:40
La Asus blower a 1400€.
Meritano di fallire

techsaskia
25-09-2018, 09:45
Con l'introduzione dell'NVlink mi sembra tutto l'opposto di quello che hai detto.

Nvlink non c'entra niente.
Le schede tra loro non comunicavano nemmeno prima tramite bus.
Il collo di bottiglia è bella comunicazione con la cpu che avviene necessariamente tramite slot pci

Thunder-74
25-09-2018, 09:47
Si ma è l'inizio della fine del PCIe 3 8x.



Prossimo anno uscirà il pcie 4 e come recita l’articolo, questo permetterà di non avere nessuna riduzione sui main stream con pcie 4 8x... vga permettendo


Inviato dal mio iPhone X utilizzando Tapatalk

techsaskia
25-09-2018, 09:53
Prossimo anno uscirà il pcie 4 e come recita l’articolo, questo permetterà di non avere nessuna riduzione sui main stream con pcie 4 8x... vga permettendo


Inviato dal mio iPhone X utilizzando Tapatalk

su AMD esce il PCIE4, su Intel mi sa che dovete aspettare il 2020 :D

X-ray guru
25-09-2018, 15:09
Il collo di bottiglia è bella comunicazione con la cpu che avviene necessariamente tramite slot pci

Esatto, a meno che ci sia un bridge NVLink anche sulla motherboard.

SPARTANO93
25-09-2018, 17:03
La 2070 arriverà il 17 ottobre

Inviato dal mio SM-G930F utilizzando Tapatalk

Thunder-74
25-09-2018, 18:30
https://cdn.videocardz.com/1/2018/09/NVIDIA-GeForce-RTX-2070-Launch-date-768x1139.jpg

LINK (https://videocardz.com/newz/nvidia-geforce-rtx-2070-to-be-available-on-october-17th)

traider
25-09-2018, 18:57
La 2070 arriverà il 17 ottobre

Inviato dal mio SM-G930F utilizzando Tapatalk

Ottimo! .

TigerTank
25-09-2018, 19:07
http://i.imgur.com/DQ20Cofm.jpg (https://imgur.com/DQ20Cof)

http://i.imgur.com/ifKyUE7m.jpg (https://imgur.com/ifKyUE7)

La 2070 non ha connettori supplementari e spero non abbia il pcb delle gtx970... :D
Lol....600€ per una schedina.

ste-87
25-09-2018, 19:22
600€....siamo passati dalla fascia dei 350-400€ a questo :doh: spero ci si fiondino davvero in tanti come stanno facendo con 2080 e 2080ti...così le prossime le fan pagare 600€ per la xx60 o meglio ancora per una xx50ti e il resto a salire :sofico:

Vul
25-09-2018, 19:23
600€ :doh: spero ci si fiondino davvero in tanti come stanno facendo con 2080 e 2080ti...così le prossime le fan pagare 600€ per la xx60 o meglio ancora per una xx50ti e il resto a salire :sofico:

Come se andasse a nostro vantaggio...

Ormai si può solo che sperare in AMD e Intel per il 2020, il che significa "stamo freschi" se questo è il futuro delle gpu...

SPARTANO93
25-09-2018, 19:43
http://i.imgur.com/DQ20Cofm.jpg (https://imgur.com/DQ20Cof)

http://i.imgur.com/ifKyUE7m.jpg (https://imgur.com/ifKyUE7)

La 2070 non ha connettori supplementari e spero non abbia il pcb delle gtx970... :D
Lol....600€ per una schedina.La 2070 founders edition ha un connettore da 8 pin, quella standard non ne ha, le Asus hanno invece per tutti i modelli 6+8 pin, per le altre custom non ho cercato però sicuramente avranno tutte i connettori di alimentazione.
Per questo io valuterò solo le custom infatti.
La 2070 pura di Nvidia è pure minuscola, roba da case piccolini 😄

Inviato dal mio SM-G930F utilizzando Tapatalk

aeN_13
25-09-2018, 19:53
Il connettore ce l'hanno tutte, è solo messo davanti invece che di lato.

Davvero pensate che sia possibile che una gpu con le specs della 2070 non abbia bisogno di connettori esterni?? :O

TigerTank
25-09-2018, 20:02
La 2070 founders edition ha un connettore da 8 pin, quella standard non ne ha, le Asus hanno invece per tutti i modelli 6+8 pin, per le altre custom non ho cercato però sicuramente avranno tutte i connettori di alimentazione.
Per questo io valuterò solo le custom infatti.
La 2070 pura di Nvidia è pure minuscola, roba da case piccolini ��

Inviato dal mio SM-G930F utilizzando Tapatalk

Grazie :D
SOno curioso di vedere il pcb nudo e crudo.

Il connettore ce l'hanno tutte, è solo messo davanti invece che di lato.

Davvero pensate che sia possibile che una gpu con le specs della 2070 non abbia bisogno di connettori esterni?? :O

Eh infatti avevo il dubbio e ho chiesto. :D
Comunque mah...riduce l'ingombro del pcb in lunghezza ma se si hanno cavi dell'alimentatore un pelino rigidi il vantaggio si annulla. Per il prezzo a cui le propongono potevano pure farle sullo stesso pcb delle 2080 :sofico:

SPARTANO93
25-09-2018, 20:08
Il connettore ce l'hanno tutte, è solo messo davanti invece che di lato.

Davvero pensate che sia possibile che una gpu con le specs della 2070 non abbia bisogno di connettori esterni?? :OMi sembrava strano infatti, solo che dal sito Nvidia ripetono lo specifiche identiche sia nella colonna della founders che nella colonna della versione standard e poi in fondo 8 pin è scritto solo nella colonna della founders per questo mi sono fatto ingannare, in effetti le schede madri tramite il PCI Express dovrebbero dare massimo 75w ��
@Bivvoz: ho fatto una confusione tremenda vedendo le 2 colonne sul sito nvidia e ora credo di aver capito dove mi ero perso, il sito nvidia vende solo la 2070 founders edition e l'altra colonna quella che io chiamavo scheda standard indica solo le specifiche di riferimento senza oc. Quindi riassumendo le 2070 custom potrebbero avere un connettore da 8 pin, oppure due da 6 pin oppure come nel caso delle asus due connettori(6+8), scusate per la confusione che avevo fatto :(
Inviato dal mio SM-G930F utilizzando Tapatalk

aeN_13
25-09-2018, 20:32
Mi sembrava strano infatti, solo che dal sito Nvidia ripetono lo specifiche identiche sia nella colonna della founders che nella colonna della versione standard e poi in fondo 8 pin è scritto solo nella colonna della founders per questo mi sono fatto ingannare, in effetti le schede madri tramite il PCI Express dovrebbero dare massimo 75w ��
@Bivvoz: ho fatto una confusione tremenda vedendo le 2 colonne sul sito nvidia e ora credo di aver capito dove mi ero perso, il sito nvidia vende solo la 2070 founders edition e l'altra colonna quella che io chiamavo scheda standard indica solo le specifiche di riferimento senza oc. Quindi riassumendo le 2070 custom potrebbero avere un connettore da 8 pin, oppure due da 6 pin oppure come nel caso delle asus due connettori(6+8), scusate per la confusione che avevo fatto :(
Inviato dal mio SM-G930F utilizzando Tapatalk

Tranquillo :D

Certo che se nvidia avesse fatto davvero una scheda con prestazioni del genere senza bisogno di connettori esterni, il prezzo sarebbe stato quasi giustificato :asd:

XEV
25-09-2018, 21:11
600€....siamo passati dalla fascia dei 350-400€ a questo :doh: spero ci si fiondino davvero in tanti come stanno facendo con 2080 e 2080ti...così le prossime le fan pagare 600€ per la xx60 o meglio ancora per una xx50ti e il resto a salire :sofico:

550 euro la 580 lightning. Bei tempi

ste-87
25-09-2018, 21:45
Come se andasse a nostro vantaggio...

Ormai si può solo che sperare in AMD e Intel per il 2020, il che significa "stamo freschi" se questo è il futuro delle gpu...

era sarcasmo...scusate l'uscita, benchè la scimmia sia morta (causa prezzi) pochi giorni dopo la conferenza in streaming, quando sono finito sul thread per tenermi aggiornato vista la passione, leggere di queste xx70 a 600€ mi ha dato un senso profondo di nausea, specialmente pensando che per molti potrebbero pure sembrare vantaggiose come prezzo visti gli attuali 8-900 per una 2080 e 1300 della TI che comunque sembrano molto richieste

In AMD e intel sinceramente non ci provo neanche a sperarci, l'unica cosa che spero attualmente è che i consumatori non diano un così facile tacito consenso ad un rialzo dei prezzi così marcato, in quel caso dubito ci sia modo di tornare a cifre vagamente umane in futuro...e per "vagamente umane" non intendo regalate, ma almeno sulla linea dei prezzi di kepler/maxwell/pascal

fine OT, promesso :fagiano:

mikael84
25-09-2018, 23:13
600€....siamo passati dalla fascia dei 350-400€ a questo :doh: spero ci si fiondino davvero in tanti come stanno facendo con 2080 e 2080ti...così le prossime le fan pagare 600€ per la xx60 o meglio ancora per una xx50ti e il resto a salire :sofico:

La 2060 non sarà neppure così malvagia, se utilizza i 14 gb/s (che vedo probabili al 99%) di BW, si difenderà bene.
Il ratio sarà lo stesso, identico, dove lo scaling non conta molto, salvo titoli a favore della Turing.
La 2070 rispetto alla 2080, parte in vantaggio rispetto alla 1070 vs 1080.
Tra queste due passava il 20%, tra Turing meno, le ALU passano al 27% vs 33% e BW uguale, prima non era così, 256/320gb/s.
Se ipotizziamo un probabile + 15 della 2080 sulla 2070, la 2080 si posizionerebbe circa un -7 dalla 1080ti, ma con vari titoli a favore, dove potrebbe fare la differenza.

La 2060 potrebbe essere una via di mezzo tra 1070/1070ti/Vega56.
con i titoli a favore potrebbe superare la 1080 tranquillamente.

Ormai anche la x60 può dire la sua, figuriamoci con i 7nm, dove avrà sicuramente anche la RT:p

FroZen
26-09-2018, 07:55
Come se andasse a nostro vantaggio...

Ormai si può solo che sperare in AMD e Intel per il 2020, il che significa "stamo freschi" se questo è il futuro delle gpu...

Ho già una gpu quindi menestrafotto :sofico:

TigerTank
26-09-2018, 08:09
La 2060 non sarà neppure così malvagia, se utilizza i 14 gb/s (che vedo probabili al 99%) di BW, si difenderà bene.
Il ratio sarà lo stesso, identico, dove lo scaling non conta molto, salvo titoli a favore della Turing.
La 2070 rispetto alla 2080, parte in vantaggio rispetto alla 1070 vs 1080.
Tra queste due passava il 20%, tra Turing meno, le ALU passano al 27% vs 33% e BW uguale, prima non era così, 256/320gb/s.
Se ipotizziamo un probabile + 15 della 2080 sulla 2070, la 2080 si posizionerebbe circa un -7 dalla 1080ti, ma con vari titoli a favore, dove potrebbe fare la differenza.


Speriamo Mike...perchè a vederla la 2070 sembra una schedina risicata, a fronte dei 600€ richiesti :asd:
Con nemmeno 100€ in più l'anno scorso c'è stato chi è riuscito a prendere una 1080Ti.

Ubro92
26-09-2018, 09:47
Speriamo Mike...perchè a vederla la 2070 sembra una schedina risicata, a fronte dei 600€ richiesti :asd:
Con nemmeno 100€ in più l'anno scorso c'è stato chi è riuscito a prendere una 1080Ti.

Io credo di tenermi la 980ti, la mia scimmia è completamente morta a questo giro, i prezzi stanno aumentando per qualunque componente, ram, cpu, vga, persino i monitor stanno facendo gli alti e bassi... :cry:

Spero che il mercato nei prossimi mesi si stabilizzi...

mikael84
26-09-2018, 11:13
Speriamo Mike...perchè a vederla la 2070 sembra una schedina risicata, a fronte dei 600€ richiesti :asd:
Con nemmeno 100€ in più l'anno scorso c'è stato chi è riuscito a prendere una 1080Ti.

La 2070 alla fine è la metà esatta della 2080ti, più il canale per avere i 256 bit e senza nvlink. :)

Custode
26-09-2018, 12:45
Io credo di tenermi la 980ti, la mia scimmia è completamente morta a questo giro, i prezzi stanno aumentando per qualunque componente, ram, cpu, vga, persino i monitor stanno facendo gli alti e bassi... :cry:

Spero che il mercato nei prossimi mesi si stabilizzi...

Quoto -anche io possessore di una stupenda 980Ti-
Avevo messo da parte 800 Euro circa per una 2080Ti o al limite una 2080 liscia decente.

Non mi aspettavo nè un simile livello di prezzi, assurdi, nè prestazioni così inutili per la 2080 -RTX e DLSS sono uno inutilizzabile se non a risoluzioni ridicole per una scheda da 850 Euro, l'altro una incognita in divenire che attualmente offre solo tante promesse sulla carta e nulla più-.

Ho avuto la possibilità, 4 mesi fa, di potermi prendere una 1080Ti nuova di pacca a 649 Euro, mi son detto, ma no, male che va mi prendo la 1180 o 2080 liscia o come vorranno chiamarla.
Ancora mi stra maledico per non averlo fatto.

Fotuna riesco a recuperare una MSI 1080 a prezzo quasi regalato da un amico.
Che per inciso, potenza bruta parlando, offre un incremento prestazionale sulla 980 Ti anche più sostenuto di quanto una scheda venduta a 1300 Euro oggi non offra sulla sua diretta antecedente.

Bah...

TigerTank
26-09-2018, 12:57
Più che altro stiamo pagando il prezzo del monopòlio...ci fosse stato un minimo di concorrenza non avrebbero fatto un lancio così pessimo.
Schede troppo costose, quasi un paper launch con tanto di 2080Ti rimandate già 2 volte, nuove features hyperate alla grande ma immature/ancora non disponibili, visto che manca pure il supporto in windows.
In pratica come se lanciassero una nuova versione di console ma non ci fosse nemmeno un titolo nuovo da provare per le nuove features introdotte :asd:
Ma....aspettare ottobre per lanciarle, no?

bagnino89
26-09-2018, 13:51
Ma....aspettare ottobre per lanciarle, no?

Secondo me Tiger queste schede dovevano uscire, in realtà, più di qualche mese fa, ma a causa dei ritardi delle GDDR6 sono arrivate solo ora. E' solo una congettura, ma secondo me i 7 nm sono più vicini di quanto non vogliano far credere.

mikael84
26-09-2018, 14:18
Viste le specifiche, come pensavo, 1080ti in mezzo tra 2080 e 2070, credo che la 2070 ci vada vicino alla 1080ti, -10% mediamente esagerando

Si più o meno dovremmo essere li.

Se la 2070 è esattamente la metà della 2080ti come può andare solo il 30% in meno?

Non è del tutto la metà, visto che aggiunge il collegamento ai 256 bit, ciò significa che la BW teorica passa da 336 gb/s a 448 gb/s (la stessa della 2080).
Il chip di calcolo è la metà.

La differenza cmq, sarà ben oltre il 30%, già TPU ha calcolato 40% tra 1080ti/2080ti, e la 2070 minimo rimarrà un 7/10% sotto la TI.
Leva su per giù un 15% dalla 2080;)

Da ricordare che la 2080ti non è neppure full.
Dimezzato:
2176cc/44 rop's, contro 2304/48 rop's in calcolo, tralasciando la BW.

illidan2000
26-09-2018, 15:35
Secondo me Tiger queste schede dovevano uscire, in realtà, più di qualche mese fa, ma a causa dei ritardi delle GDDR6 sono arrivate solo ora. E' solo una congettura, ma secondo me i 7 nm sono più vicini di quanto non vogliano far credere.

e il supporto directx di windows
La 2060 non sarà neppure così malvagia, se utilizza i 14 gb/s (che vedo probabili al 99%) di BW, si difenderà bene.
Il ratio sarà lo stesso, identico, dove lo scaling non conta molto, salvo titoli a favore della Turing.
La 2070 rispetto alla 2080, parte in vantaggio rispetto alla 1070 vs 1080.
Tra queste due passava il 20%, tra Turing meno, le ALU passano al 27% vs 33% e BW uguale, prima non era così, 256/320gb/s.
Se ipotizziamo un probabile + 15 della 2080 sulla 2070, la 2080 si posizionerebbe circa un -7 dalla 1080ti, ma con vari titoli a favore, dove potrebbe fare la differenza.

La 2060 potrebbe essere una via di mezzo tra 1070/1070ti/Vega56.
con i titoli a favore potrebbe superare la 1080 tranquillamente.

Ormai anche la x60 può dire la sua, figuriamoci con i 7nm, dove avrà sicuramente anche la RT:p
ma la prezzeranno allo stesso modo della 1070ti ...

megamitch
26-09-2018, 18:01
.
In pratica come se lanciassero una nuova versione di console ma non ci fosse nemmeno un titolo nuovo da provare per le nuove features introdotte :asd:
Ma....aspettare ottobre per lanciarle, no?

Beh ma questo che c'entra? Se ti interessa compra quando esce un titolo che la sfrutta, mica devi comprare per forza oggi, no?

Inviato dal mio Moto Z2 Play utilizzando Tapatalk

TigerTank
26-09-2018, 18:17
Beh ma questo che c'entra? Se ti interessa compra quando esce un titolo che la sfrutta, mica devi comprare per forza oggi, no?


Ma quello che faccio io non c'entra nulla, parlavo appunto in generale.
In particolare le TI sono già state rinviate 2 volte e non ci sono approvvigionamenti :)
E' un lancio un pò travagliato.

Secondo me Tiger queste schede dovevano uscire, in realtà, più di qualche mese fa, ma a causa dei ritardi delle GDDR6 sono arrivate solo ora. E' solo una congettura, ma secondo me i 7 nm sono più vicini di quanto non vogliano far credere.

Non saprei...vedremo, anche perchè se amd non partorisse qualcosa di valido, nvidia potrà tranquillamente prendersi i tempi che vuole. Chi glielo impedisce?....

bagnino89
26-09-2018, 20:24
Non saprei...vedremo, anche perchè se amd non partorisse qualcosa di valido, nvidia potrà tranquillamente prendersi i tempi che vuole. Chi glielo impedisce?....

Nessuno, infatti come ho già detto qualche giorno fa spero che AMD arrivi con Navi a 7 nm il prima possibile, con tanta potenza bruta senza scimmiottare RT/DLSS... Ma sogno troppo

amon.akira
26-09-2018, 23:56
Beh ma questo che c'entra? Se ti interessa compra quando esce un titolo che la sfrutta, mica devi comprare per forza oggi, no?

Inviato dal mio Moto Z2 Play utilizzando Tapatalk

infatti, e cmq sempre meglio di una ps2 con fantavision all epoca :D

The_SaN
27-09-2018, 08:32
Alcune voci vogliono PS5 con unità dedicate al RT e visto che PS5 = Navi...

RTN - Ray Tracing Next

bagnino89
27-09-2018, 08:43
Alcune voci vogliono PS5 con unità dedicate al RT e visto che PS5 = Navi...

E come faranno le scatolette col tanto, decantato 4K? Upscaleranno in 4K RT partendo dal 720p :asd:

AceGranger
27-09-2018, 08:56
E come faranno le scatolette col tanto, decantato 4K? Upscaleranno in 4K RT partendo dal 720p :asd:

le prestazioni viste fino ad ora nelle preview credo siamo molto lontane da quello ottenibile veramente con quegli RT core;
leggendo le dichiarazioni di alcuni sviluppatori, mi pare di aver capito che attualmente il RT viene implementato "all'esterno" del game engine per poi assemblare i pass finali, perchè non sono ancora disponibili versioni con RT nativo; il che non è un sistema efficiente, ma è l'unica via percorribile fino all'integrazione del nuovo sistema all'interno dei vari game engine; senza contare che i giochi visti fino ad ora non sono stati creati pensando al RT.

Anche meno unita RT, ma implementate correttamente nei game engine, permetteranno di avere prestazioni nettamente migliori ai primi esempi visti fino ad ora.

bagnino89
27-09-2018, 09:07
Stiamo parlando di tutto un altro mondo.
Prima di tutto non sono richiesti 60 fps a tutti i costi, secondo la PS4 va alla grande con il 4K CB dando un discreto framerate.
Io sono convinto che la PS5 con Navi potrebbe tranquillamente restituire un 4K CB con effetti RT a 30 fps e magari spingersi a 60 fps in alcune situazioni.
Inoltre ricordiamoci che il livello di dettaglio, effetti, ecc. delle console non è allo stesso livello dei giochi pc su ultra ma si avvicina più al medium.

Io dico solo questo e poi non parlo più. Ho visto con i miei stessi occhi TW3 girare sulla PS4 Pro di un mio amico, ci ho giocato personalmente per un po'. Beh, non avevo FRAPS per esserne sicuro, ma secondo me non ci arrivava a 30 FPS. Era allucinante...

Per me possono fare quello che vogliono, ma è inutile pompare il marketing e fare i falsi ambiziosi quando sotto il cofano la cavalleria non c'è: si può ottimizzare quanto si vuole, ma la verità è che l'hardware delle attuali console top di gamma è decisamente mediocre - specie lato CPU - e le prestazioni sono quelle che sono, ovvero scarse.

Per me farebbero più bella figura a garantire un onesto 1080p vero a 60 FPS ovunque, piuttosto che sbandierare 'sto maledetto finto 4K superupscalato che poi gira a 25 FPS di media.

Ma il marketing è il marketing.

E comunque per me sì, nell'anno domini 2018 - quasi 2019 - i 60 FPS costanti dovrebbero essere ormai garantiti.

The_SaN
27-09-2018, 09:07
le prestazioni viste fino ad ora nelle preview credo siamo molto lontane da quello ottenibile veramente con quegli RT core;
leggendo le dichiarazioni di alcuni sviluppatori, mi pare di aver capito che attualmente il RT viene implementato "all'esterno" del game engine per poi assemblare i pass finali, perchè non sono ancora disponibili versioni con RT nativo; il che non è un sistema efficiente, ma è l'unica via percorribile fino all'integrazione del nuovo sistema all'interno dei vari game engine; senza contare che i giochi visti fino ad ora non sono stati creati pensando al RT.

Anche meno unita RT, ma implementate correttamente nei game engine, permetteranno di avere prestazioni nettamente migliori ai primi esempi visti fino ad ora.

Oltre al fatto che nei PC la quantità di raggi gestiti dovrebbe essere modificabile tramite slider. Nelle console sicuramente bilancerebbero bene le cose.

AceGranger
27-09-2018, 09:20
Oltre al fatto che nei PC la quantità di raggi gestiti dovrebbe essere modificabile tramite slider. Nelle console sicuramente bilancerebbero bene le cose.

anche; quella è un'altra cosa che ha frenato gli FPS nei primi video, dove i raggi erano usati sempre al massimo;
e non si sono ancora viste implementazioni di RT + DLSS che è il motivo principale per il quale è stato introdotto il DLSS.

bagnino89
27-09-2018, 09:43
QFT

Considerando che su questo forum c'è si sente limitato da un 6700K sono piuttosto sicuro che 8 core jaguar siano un bel tappo alle prestazioni complessive delle attuali console. Probabilmente sostituendo quei core con dei core Zen le prestazioni raddoppierebbero senza toccare altro :D

Infatti ci sono svariati test che provano che in certi casi la CPU fa da collo di bottiglia alla GPU di Pro e One X... Hai voglia a raggiungere i 60 FPS :doh:

amon.akira
28-09-2018, 10:46
Il fatto che abbia il nome che finisce con 70 e che ci siano due schede più potenti non ne fa una fascia "media" perchè comunque ha le dimensioni di una 1080ti e costa quasi altrettanto.
Comunque la apu della xbox1x è da 360mm2 e una gpu del genere occuperebbe praticamente tutto lo spazio disponibile.
Penso sarà un po' più piccola della 2070 la gpu delle prossime console.
Del resto quella attuale è più simile ad una 580 e quindi ad una 1060 come capacità, probabile che la prossima sia simile ad una 2060.

lessi dei rumors un po di tempo fa che c era la volontà di tornare con le gpu discrete nelle console, secondo me converrebbe e spero lo facciano.

amon.akira
28-09-2018, 11:30
se lo fanno o non lo fanno lo vedremo...secondo me saranno quasi obbligati a farlo, invece sul fatto che converrebbe la mia era una risposta da consumatore, la tua da amministratore amd :)

Liberato
28-09-2018, 11:57
Ciao rega ieri sera ho montato la scheda in firma , fatto tutti i benc possibili incremento del 30 percento come posso postare i benc non ricordo temperatura ma 65 gradi in full le ventole fino a 50 non partono premetto ieri stesso con il mio amico tecnico abbiamo messo a metallo liquido il processore grafico le temperature originali non le so ,per il momento in regime normale temperatura max40 in full continuato per 2 ore 60 65 gradi max dimenticavo tutto in default senza ovovercloccare la VGA

nessuno29
28-09-2018, 13:32
Ciao rega ieri sera ho montato la scheda in firma , fatto tutti i benc possibili incremento del 30 percento come posso postare i benc non ricordo temperatura ma 65 gradi in full le ventole fino a 50 non partono premetto ieri stesso con il mio amico tecnico abbiamo messo a metallo liquido il processore grafico le temperature originali non le so ,per il momento in regime normale temperatura max40 in full continuato per 2 ore 60 65 gradi max dimenticavo tutto in default senza ovovercloccare la VGA

che casso ho letto ahahahaha

djmatrix619
28-09-2018, 13:40
:rotfl:

VanCleef
28-09-2018, 13:40
che casso ho letto ahahahaha

Si è proprio "liberato"!!!

Arrow0309
28-09-2018, 13:53
Ciao rega ieri sera ho montato la scheda in firma , fatto tutti i benc possibili incremento del 30 percento come posso postare i benc non ricordo temperatura ma 65 gradi in full le ventole fino a 50 non partono premetto ieri stesso con il mio amico tecnico abbiamo messo a metallo liquido il processore grafico le temperature originali non le so ,per il momento in regime normale temperatura max40 in full continuato per 2 ore 60 65 gradi max dimenticavo tutto in default senza ovovercloccare la VGA

Hmmmm, vedo che il dissi (classico) ha la base in rame ma non nichelata, io non l'avrei consigliato il metallo liquido.

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47408-zotac-gaming-geforce-rtx-2080-ti-amp-im-test.html?start=2

https://cdn01.hardwareluxx.de/razuna/assets/1/71FA5F8DEED545A998862ECF13FD1DB0/img/D60E392AD075463D8C9616527B4BFEB0/ZOTAC-GeForceRTX2080Ti-AMPEdition-16_D60E392AD075463D8C9616527B4BFEB0.jpg

E stessa rece tedesca la dava a 62° max full load a pasta termica siliconica

Liberato
28-09-2018, 14:05
Raga io sono una persona educata non prendo mai per il culo nessuno , se voi trattate la gente così non va bene portare rispetto grazie

Liberato
28-09-2018, 14:09
Secondo me il metallo liquido ha senso solo per gente che fa overclock estremo, non per uso quotidiano.

Il metallo liquido si mette sul nikel e rame , comunque non e la prima volta su Zotac anche sulle 1080Ti amo che avevo prima , ragazzi lo so perché sono un amico stretto di Sannino penso che sia il fatto suo

FroZen
28-09-2018, 14:46
Il metallo liquido si mette sul nikel e rame , comunque non e la prima volta su Zotac anche sulle 1080Ti amo che avevo prima , ragazzi lo so perché sono un amico stretto di Sannino penso che sia il fatto suo

uuuu

è nato un amore :smack:

Vul
28-09-2018, 14:46
una volta era facile, fascia media era quel chip che costava il giusto e ti dava molto, è sempre stato quello delle prestazioni/prezzo il migliore, ma allo stesso tempo era il chip di mezzo, la stessa nVidia una volta quando aveva i chipponi compute invece faceva la x60 tagliando il chip top, poi da kepler ha diviso tutto e ha fatto chip dedicati quindi i medi erano piccoli, oggi invece nVidia ha un po' rifatto come prima e cioè un chip medio grande, ma con la differenza che è nativo da 450mmq e che sopra ce ne sono altri 2!
se guardi la scaletta dei chip è come fosse il vecchio terzo cut x80/x70/x60ti di una volta.

Una volta con 3-400 euro facevi un upgrade.

Volenti o nolenti è dal 2013 che a 300 euro ci troviamo le prestazioni di una 290 o poco più.

Arrow0309
28-09-2018, 14:47
Raga io sono una persona educata non prendo mai per il culo nessuno , se voi trattate la gente così non va bene portare rispetto grazie

Non ho capito se te lo sei preso con me oppure con Bivvoz.
Cmq, io ho detto solo che non l'avrei consigliato (visti anche i prezzi ora delle ti) non che non si può tranquillamente fare.
Io l'ho sempre usato il metallo liquido, sempre sulle cpu deliddate (uso Coollaboratory Liquid Pro od Ultra e mai Thermal Grizzly Konductonaut che è il più ricco in Gallium).
L'ho pure usato sulle vga quando stavo ad aria 4 volte, una sola volta direttamente sul rame con una Sapphire HD7970 Dual X che però ho venduto presto senza più smontare. Ovv al liquido non ha senso viste le temp basse. Ma l'ho usato lo stesso sui wb (cpu), l'ultima volta sul rame di un (secondo) EK Supremacy Evo ho giurato di non metterlo più per ragioni che conosci a quanto pare.

Il metallo liquido si mette sul nikel e rame , comunque non e la prima volta su Zotac anche sulle 1080Ti amo che avevo prima , ragazzi lo so perché sono un amico stretto di Sannino penso che sia il fatto suo

Che c'entra rsannino? Io pure lo ammiro e lo seguo su Facebook ma non l'ho più visto da anni qui sul forum.
È tornando al metallo liquido sul rame e rame nichelato ecco cosa fa il Gallium:

Quoto:
"Gallium loves to alloy with other metals; even with copper the metal ions will migrate in to the copper metal, gradually creating a copper-gallium alloy that is grey-silverish in color.

What makes this happen much faster is the electrochemical potential of the two metals. This is the same principle that makes an old fashioned lead-zinc battery function. Two metals in contact create an electrical potential and current will flow. One will oxidize (corrode) and the ions will move other to the other metal where there is a reduction (or plating) effect. Electrochemically speaking, the most negative metal will sacrifice itself by corroding away to build up a layer on top of the positive metal.

Electrochemically speaking, gallium has a potential of -0.53 volts and copper has a potential of +0.334 volts. The difference between the two metals is going to create a "battery" with a potential of 0.864 volts.

Actually having the IHS plated with nickel is a good thing, it has a galvanic potential of -0.3 volts, much closer to liquid metal so the corrosion between the CPU IHS and the liquid metal is almost nil."

https://www.reddit.com/r/overclocking/comments/6tqps8/why_you_should_not_use_liquid_metal_on_copper_or/

Liberato
28-09-2018, 14:56
uuuu

è nato un amore :smack:

Se sta scherzando ok ho capito che sei un capiscione , non capita anche a te , oppure sei perfetto Comunque e un forum a circuito chiuso , in modo di che alcuni possono mettere a risalto le performance di prendere per il culo Lo faccio presente ai moderatori subito io parlo di tutto altro e voi pensate prendere in giro la gente

X-ray guru
28-09-2018, 15:04
Per favore rileggi prima di postare. A un madrelingua italiano vengono le convulsioni a leggere cosa hai scritto, oltre a capirci poco. :)

SPARTANO93
28-09-2018, 18:56
Secondo voi quale modello di rtx 2070 converrà prendere? Avete già qualche idea voi ? Io avendo un case che non permette di mettere schede video più lunghe di 29cm potrei puntare ad una Asus dual, ad una msi ventus o una evga xc, ci sono altre marche da prendere in considerazione? Poi quale tra queste basandosi anche sulle rispettive versioni della 2080 potrebbe essere la miglior scelta? Grazie .
Magari sarebbe bello sapere quali schede dissipano bene il calore sui vrm e quali no oltre alle classiche temperature della gpu in se .

Inviato dal mio SM-G930F utilizzando Tapatalk

Ale55andr0
28-09-2018, 19:12
Se sta scherzando ok ho capito che sei un capiscione , non capita anche a te , oppure sei perfetto Comunque e un forum a circuito chiuso , in modo di che alcuni possono mettere a risalto le performance di prendere per il culo Lo faccio presente ai moderatori subito io parlo di tutto altro e voi pensate prendere in giro la gente

Ora provaci anche in italiano :fagiano:


Scherzo eh :D :stordita:

Lunar Wolf
28-09-2018, 19:30
Per favore rileggi prima di postare. A un madrelingua italiano vengono le convulsioni a leggere cosa hai scritto, oltre a capirci poco. :)Chi te lo dice che che non è un italiano? Conosco certi del sud che ad ogni telefono si parla in quella maniera... Senza offesa ovvio eh.. Meglio precisare...

nessuno29
28-09-2018, 19:57
Chi te lo dice che che non è un italiano? Conosco certi del sud che ad ogni telefono si parla in quella maniera... Senza offesa ovvio eh.. Meglio precisare...

Questi che conosci ti hanno contagiato :D:D:D

djmatrix619
28-09-2018, 20:00
Chi te lo dice che che non è un italiano? Conosco certi del sud che ad ogni telefono si parla in quella maniera... Senza offesa ovvio eh.. Meglio precisare...

Beh, come anche io conosco molti del nord che parlano anche peggio di quel che riporti tu. ;) Quasi un'altra lingua.

SPARTANO93
28-09-2018, 20:46
Secondo me scalderà relativamente poco e quindi non sarà necessario dotarle di dissipatori costosi, un po' come succede anche con la 1060 adesso.

Io prenderei quella che costa meno, da un rivenditore che mi dà la garanzia di essere ancora in giro fra due anni.Io ci spero :)

Inviato dal mio SM-G930F utilizzando Tapatalk

Ubro92
28-09-2018, 21:01
Per la 2070 credo che i consumi/temperature non differiscano molto da una 1080 attuale anche le prestazioni penso sia realistico un +30% da 1080, quindi nulla di ingestibile o che richieda dissipatori ad alto valore ingegneristico...

Ciò che eviterei sono i dissipatori "bara" più che per le temperature per una questione di silenziosità...

SPARTANO93
28-09-2018, 21:37
Io spero in un 15% in meno della 2080

Inviato dal mio SM-G930F utilizzando Tapatalk

Ubro92
28-09-2018, 21:44
Quindi una 2070 va quanto una 2080? O.o

1. La 2080 rispetto la 1080ti guadagna a seconda del titolo un +5/10% che è un guadagno potremmo dire inesistente vorrebbe dire 5-10 fps in più su 100 ma le % hanno il loro fascino.

2. La 1080ti ha circa il 40% di unità in più della 1080, realisticamente a pari clock va circa un 35% in più, poi dipende dall'engine e dallo scaling...

3. La 2070 rispetto la 2080 ha circa il 25% di unità in meno, ma ha latenze migliori e bus a 256bit il che dovrebbe porla circa il 15-20% meno di una 2080...

Quindi se una 2070 va un 15-20% meno di una 2080 significa che rispetto la 1080ti perde circa il 10%; e il 10% meno di una 1080ti è praticamente un 30% da 1080 considerando che persino le latenze della 2070 sono migliori della 1080 per come è strutturato il chip...

Poi l'approssimazione può sempre avere un margine di errore dato che ogni engine scala in modo diverso a seconda dell'architettura e anche delle eventuali migliorie driver ma in linea di massima le prestazioni sono queste...

M4to
28-09-2018, 22:57
io ho confrontato una 2080 fe e una ftw3 e una amp extreme, a parte vulkan,
la TI sta quasi sempre davanti (se non sempre), per me le turing non hanno proprio senso di esistere a parte il fatto dell'rtx e del 4k.

TigerTank
29-09-2018, 09:09
io ho confrontato una 2080 fe e una ftw3 e una amp extreme, a parte vulkan,
la TI sta quasi sempre davanti (se non sempre), per me le turing non hanno proprio senso di esistere a parte il fatto dell'rtx e del 4k.

Paradossalmente nonostante il costo la 2080Ti è l'unica che abbia un senso in quanto a maggiore forza bruta su 4K. Per il resto la più sensata resta la 1080Ti, anche perchè potrebbe pure essere che questa non sia idonea all'RT, perdendoci un sacco rispetto alle Turing. Ma se prima generazione di RT significa 1080p a 60fps a fatica con la 2080Ti, il tutto diventa trascurabile :D

Cioè sviluppano due chip diversi per una differenza del 10% fra i due? Mi sembra folle.

Marketing...evidentemente non potevano aspettare il nuovo pp per presentare qualcosa di nuovo. Poi che certe vga si sovrappongano è normale...non potevano lanciare solo la 2080Ti, anche perchè molti potenziali clienti vengono da schede più vecchie delle pascal.

Ubro92
29-09-2018, 10:07
l'hai visto il video postato sul thread aspettando di tomb raider?
2080 fa di media a stock +35% su 1080 e +4% su 1080ti, con clock stock più alti delle pascal di quasi 100mhz...
quindi la 2070 è impossibile che faccia +30% su 1080, come avevo stimato sarà già un lusso se farà +15/20%, quindi circa -10% dalla 1080ti.

Inviato dal mio MIX utilizzando Tapatalk

Se fosse cosi allora tra 1080 e 1080ti c'è meno del 30% di differenza e mi sembra poco considerando che parliamo di 2560cc VS 3584cc ed è più probabile ci sia qualche problema nell'engine più che nell'architettura delle GPU...

Ubro92
29-09-2018, 10:22
ma infatti, per quello dico che è già tanto se 2070 sta a -15/20% da 2080...
beh considera che 2080 è 6 gpc, quindi il gigathread la vede come se fosse una 6gpc, ma poi pusha poco perché ha poche alu, rops e banda rispetto alla 2070, quest'ultima a sua volta ha la stessa banda...
effettivamente è strano progettare un chip poco più grande della 2070 per andare così poco di più.

Inviato dal mio MIX utilizzando Tapatalk

Ma ogni GPC ha 4 TPC anzichè 6, il che dovrebbe per ogni GPC ridurre i consumi, probabilmente era l'approccio migliore sui 12nm per non sforare il TDP per una x80 inoltre in questo modo anche il distacco da 2080ti è maggiore spaziando maggiormente le proposte...

Arrow0309
29-09-2018, 10:34
Paradossalmente nonostante il costo la 2080Ti è l'unica che abbia un senso in quanto a maggiore forza bruta su 4K. Per il resto la più sensata resta la 1080Ti, anche perchè potrebbe pure essere che questa non sia idonea all'RT, perdendoci un sacco rispetto alle Turing. Ma se prima generazione di RT significa 1080p a 60fps a fatica con la 2080Ti, il tutto diventa trascurabile :D

... ...


Vuol dire che sarò di nuovo pioniere sui nuovi realmi.
"I'm doing my part!" :p

Ubro92
29-09-2018, 10:40
ma guarda che è così, in tomb raider nuovo la 1080ti fa +30% sulla 1080... vai nel thread rtx, hanno postato un video bench
valori medi:
1080 62fps a 1850mhz
1080ti 81fps +30% a 1830mhz
2080 84fps +35% (+4%) a 1930mhz

Inviato dal mio MIX utilizzando Tapatalk

Stavo occhiando alcuni video ti riferivi questo (https://www.youtube.com/watch?v=7Pw91W5g3fo) video?

Da quello che sto vedendo sembra che sia proprio l'engine in problema, su TW3 (stesso bencher) tra 1080 e 2080 si arriva a fps anche superiori al 40-45% in più...

https://www.youtube.com/watch?v=bXybwGRhm2g

Per me ci sono molti(troppi) engine che scalano male e prediligono per lo più clock su core/memorie maggiori più che pompaggio HW, il che spiega il perchè di turing anzichè volta e l'assenza di un 8 GPC a 512bit (fisicamente possibile), ma dato che parliamo di titoli appena usciti quasi sicuramente fixeranno la cosa con patch e qualche fix nelle prossime release driver

mikael84
29-09-2018, 11:23
Si ok, tutto bello, ma se la 2080 va +30% rispetto alla 1080 come fa la 2070 a fare lo stesso +30%?

Non è proprio 30, ma si arriva al 40% medio, già in 1440p

https://i.postimg.cc/Wbjk8F5D/2080.png

https://tpucdn.com/reviews/Palit/GeForce_RTX_2080_Super_Jetstream/images/relative-performance_2560-1440.png

Ciò che veramente cambia è lo scaling non lineare, alcuni giochi stanno a 30%, altri a 35%, alcuni a 50%,

Cioè sviluppano due chip diversi per una differenza del 10% fra i due? Mi sembra folle.

10% no, ma 15/20% si.
Praticamente è come se fosse una 1070 ritagliata a parte, rispetto la 1080.
La 1080 sta un 20% sopra la 1070.

La 1080 rispetto alla 1070 ha un vantaggio di 33% sulle ALU, 33 sulle rop's, 25% sulla BW teorica (scaling totale pratico 20%).

La 2080 invece partirà da un vantaggio sulle ALU del 27%, 33 sulle rop's, e stessa BW della 2080, quindi quel 20% tenderà a ridursi in base al gioco in questione. ;)

mikael84
29-09-2018, 12:06
Il punto è che la 1070 e la 1080 sono un solo chip, queste due no.

E' diverso, la 2080 è stata scritta in 6 GPC da 512cc più relativa parte nvlink.
Laserando un GPC, come la 1070, ti ritroveresti con lo stesso schema, ma con ben 2560 cc su 3072 (la 2080 ne ha uno laserato).
Di conseguenza ti ritroveresti una 2070 quasi alla pari della 2080, più nvlink, ed addirittura tutte le rop's della 2080 attive.

Per farla andare in linea con la 2070 attuale, dovresti laserare 1 GPC, laserare 2 TPC del 5° GPC e la parte nvlink.
Già quel chip è un colabrodo, visto che ha due raster bloccati, 2 canali ram assenti, e 2mb di cache uguale.

Sinceramente non si poteva vedere un chip così.:p sarebbe da folli.

Dalla 2070 si può ricavare una 2060TI, una simil 1080 (anche poco più) con RT.

M4to
29-09-2018, 12:40
Paradossalmente nonostante il costo la 2080Ti è l'unica che abbia un senso in quanto a maggiore forza bruta su 4K. Per il resto la più sensata resta la 1080Ti, anche perchè potrebbe pure essere che questa non sia idonea all'RT, perdendoci un sacco rispetto alle Turing. Ma se prima generazione di RT significa 1080p a 60fps a fatica con la 2080Ti, il tutto diventa trascurabile :D



Marketing...evidentemente non potevano aspettare il nuovo pp per presentare qualcosa di nuovo. Poi che certe vga si sovrappongano è normale...non potevano lanciare solo la 2080Ti, anche perchè molti potenziali clienti vengono da schede più vecchie delle pascal.

esattamente, la 2080 e le 2070 (probabilmente) sono le piu inutili delle schede, vanno come le vecchie e a parte l'rtx non offrono niente in piu, l'rtx poi se gia arranca con una 2080ti in fhd, a cosa serve?
Per me è un lancio fallimentare sotto quasi ogni punto di vista, anche energetico. Il dlss poi è un contentino, quello che trovo assurdo è che abbiano usato chip cosi enormi per avere le stesse prestazioni delle precedenti con costi fuori ogni logica.
la 2080 avrebbe senso al massimo a 549$ e la 2080TI a 749$, dopo 1 anno e mezzo (dalle ex TI) e quanti, 2 e passa dalle 1080, mi aspettavo MOLTO di piu.
Gia il fatto che le FE2080 siano occate e che le aib spinte offrono l'1-3% in piu, stanno davanti con vulkan e basta mentre in molti giochi sorprendentemente perdono.

Ubro92
29-09-2018, 13:00
ma anche no, utilizzare più gpc e tagliare tcp è l'esatto opposto, i consumi in questo modo sono più elevati che nel fare un 4gpc con 6tpc, probabilmente è un esperimento per avere d'ora in avanti e quindi coi 7nm la x80 sempre 6 gpc e la x70 al prossimo giro ne avrà 4 e la x80ti 8, riuscendo a chiudere il gpc con 8tpc e 32rops, in pratica un maxwell doppio per singolo gpc, più la parte RT, TC e Int

Inviato dal mio MIX utilizzando Tapatalk

Il singolo GPC da 4TPC non può certo avere i consumi di uno stesso GPC con 6TPC, parliamo di una riduzione del 33% delle unità per ogni GPC...

Se per assurdo supponiamo che un GPC formato da 6tpc abbia un consumo di 60w, la variante con 4TPC ne consuma circa 40w quindi nel peggiore dei casi avresti consumi analoghi, ma dato che turing mi sembra avere qualche problema nello scaling, è probabile che spalmando l'architettura su 6 GPC è più semplice contenere il tdp...

mikael84
29-09-2018, 15:06
esattamente, la 2080 e le 2070 (probabilmente) sono le piu inutili delle schede, vanno come le vecchie e a parte l'rtx non offrono niente in piu, l'rtx poi se gia arranca con una 2080ti in fhd, a cosa serve?
Per me è un lancio fallimentare sotto quasi ogni punto di vista, anche energetico. Il dlss poi è un contentino, quello che trovo assurdo è che abbiano usato chip cosi enormi per avere le stesse prestazioni delle precedenti con costi fuori ogni logica.
la 2080 avrebbe senso al massimo a 549$ e la 2080TI a 749$, dopo 1 anno e mezzo (dalle ex TI) e quanti, 2 e passa dalle 1080, mi aspettavo MOLTO di piu.
Gia il fatto che le FE2080 siano occate e che le aib spinte offrono l'1-3% in piu, stanno davanti con vulkan e basta mentre in molti giochi sorprendentemente perdono.

Senza cambio di PP, si è arrivati a costruire padelloni enormi, con relativi costi che aumentano non poco, ad oggi una 2070 equivale ad una 1080ti circa, con un PP più costoso.
Certo ad nVidia costano meno, ma aumentano in proporzione.
Ad esempio, maxwell GM204 era un chip da 398mmq con un minimo di concorrenza, contro GK110, un chip HPC castrato da 550mmq, e nonostante tutto, i prezzi erano simili per noi, con prestazioni inizialmente molto simili.

Ora la 2080, costa di più produrlo, RT come innovazione, e senza problemi di concorrenza.
I 314 mmq forse li troverai sulla 2060:)
1080ti, chip cut 471mmq (la full costava 1300, versione titan xp), la 2080 ha un die da 545mmq.

Inoltre siamo arrivati ad un punto in cui, per consumi, colli di bottiglia, non puoi aumentare di troppo le ALU.

Pure io lo trovo sbagliato, ma ora come ora, è difficile che nVidia faccia sconti.:)


Il singolo GPC da 4TPC non può certo avere i consumi di uno stesso GPC con 6TPC, parliamo di una riduzione del 33% delle unità per ogni GPC...

Se per assurdo supponiamo che un GPC formato da 6tpc abbia un consumo di 60w, la variante con 4TPC ne consuma circa 40w quindi nel peggiore dei casi avresti consumi analoghi, ma dato che turing mi sembra avere qualche problema nello scaling, è probabile che spalmando l'architettura su 6 GPC è più semplice contenere il tdp...


Un TPC in linea di massima se il chip è tarato a 260 watt, si assesta sui 7 watt, se calcoliamo i 4 pixel prodotti.
La 2080 però non perde solo 2 TPC per GPC, ma 32 rop's / 128bit e 2mb l2 di cache.

Se la 2080 fosse costruita su 4 GPC a 7/7,3w per TPC non supererebbe i 180watt a clock però inferiori.:)

Ubro92
29-09-2018, 16:47
Un TPC in linea di massima se il chip è tarato a 260 watt, si assesta sui 7 watt, se calcoliamo i 4 pixel prodotti.
La 2080 però non perde solo 2 TPC per GPC, ma 32 rop's / 128bit e 2mb l2 di cache.

Se la 2080 fosse costruita su 4 GPC a 7/7,3w per TPC non supererebbe i 180watt a clock però inferiori.:)

Ma 180w per 4GPC significa cloccarle davvero molto basse o abbassando molto le tensioni, un tdp del genere è da aspettarsi per le 2070, per com'è clockata attualmente una 2080 se fosse costruita su 4gpc tenendo a mente tutta l'elettronica di contorno comunque non andrebbe mai sotto i 200w non dissimile dai 215w su 6GPC e molto dipende sempre anche dall'engine e di come accede a tutte le risorse, stiamo sempre considerando casi ideali dove tutto gira al massimo in ogni condizione, e francamente sono curioso di vedere un confronto tra 2070 e 2080ti per capire quanto turing scali con l'incremento HW delle unità...

Inoltre la 2080ti non rientra per nulla nei 250w di tdp dichiarati in tutte le review ha un consumo medio di circa 280w e i valori di picco raggiungono soglie di 380w con clock reference.

mikael84
29-09-2018, 17:13
Ma 180w per 4GPC significa cloccarle davvero molto basse o abbassando molto le tensioni, un tdp del genere è da aspettarsi per le 2070, per com'è clockata attualmente una 2080 se fosse costruita su 4gpc tenendo a mente tutta l'elettronica di contorno comunque non andrebbe mai sotto i 200w non dissimile dai 215w su 6GPC e molto dipende sempre anche dall'engine e di come accede a tutte le risorse, stiamo sempre considerando casi ideali dove tutto gira al massimo in ogni condizione, e francamente sono curioso di vedere un confronto tra 2070 e 2080ti per capire quanto turing scali con l'incremento HW delle unità...

Inoltre la 2080ti non rientra per nulla nei 250w di tdp dichiarati in tutte le review ha un consumo medio di circa 280w e i valori di picco raggiungono soglie di 380w con clock reference.

Infatti parliamo di valori veramente base, chiaro che occandole o aumentando il PL i consumi schizzano.
Questo succede in tutte le condizioni.

La 2080 rispetto alla 2080ti consuma meno, non solo per i TPC, ma perchè rispetto a quest'ultima, non ha completo accesso ai 2 GPC, gli mancano 32 rop's, 128bit e 2mb di l2.

A 225 una 2080 a 4 GPC equivarrebbe ad una 2080ti a 340watt all'incirca, che in linea di massima è il valore di una 2080 stock, poi chiaro è tutto calibrato bene a default dalla casa.

SPARTANO93
29-09-2018, 17:28
Ma i consumi di picco per la 2070 a quanto potrebbero arrivare? Spero che non avrò problemi con il mio alimentatore xfx da 550w

Inviato dal mio SM-G930F utilizzando Tapatalk

Telstar
30-09-2018, 14:31
Ma i consumi di picco per la 2070 a quanto potrebbero arrivare? Spero che non avrò problemi con il mio alimentatore xfx da 550w

Dovrebbero essere allineati a quelli della 1080, quindi con 550W buoni dovresti stare tranquillo. Aspetta i test cmq.

Luca T
30-09-2018, 16:05
Ragazzi garanzia MSI si invalida se si liquida?

Amorph
30-09-2018, 17:01
Ragazzi garanzia MSI si invalida se si liquida?

basta svitare la vite con una pinzetta e il sigillo resta integro

Luca T
30-09-2018, 17:57
Si, hanno i sigilli sulle viti le msi 😩

Thanks

basta svitare la vite con una pinzetta e il sigillo resta integro

Troppo sbattimento tantovale ne prendo un'altra!

Le Zotac hanno i sigilli? (Mai prese il servizio graranzia è valido?