PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 [172] 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

Thunder-74
11-09-2018, 21:42
Amon, secondo te quindi è una scheda che potrà lasciare il segno... su questo che nutro dei dubbi.. la vedo più un necessario crocevia, ma solo apripista per una futura generazione . Ora la mia situazione è la seguente. Ho uno Sli che tutto sommato mi godo da 3 anni e sul 90% dei titoli da me giocati, sono riuscito a sfruttare con rese pari o poco più superiori di una 1080ti. Fortunato? Forse...Questo mi ha fatto desistere dal prendere la 1080ti, aspettando una 2080ti che potesse farmi fare un salto si prestazioni corposo. Ora è vero che non abbiamo visto recensioni ufficiali, ma dalle info raccolte, mi trovo davanti una scheda che, non sfrutterei in RT visto che a 1080p non intendo tornare; rispetto ad il mio Sli otterrei un incremento che tutto sommato non so se giustificare a fronte di una spesa di 1500€ (vga+wb)... ripeto questo mio ragionamento si basa su un’ottima esperienza in Sli e su informazioni ufficiose della 2080ti... comunque ciò non toglie che la scheda che hanno proposto è davvero una bella rivoluzione, ma non so se per le mie esigenze possa essere adatta . Spero vivamente di essere smentito ...


Inviato dal mio iPhone X utilizzando Tapatalk

amon.akira
11-09-2018, 22:28
Amon, secondo te quindi è una scheda che potrà lasciare il segno... su questo che nutro dei dubbi.. la vedo più un necessario crocevia, ma solo apripista per una futura generazione . Ora la mia situazione è la seguente. Ho uno Sli che tutto sommato mi godo da 3 anni e sul 90% dei titoli da me giocati, sono riuscito a sfruttare con rese pari o poco più superiori di una 1080ti. Fortunato? Forse...Questo mi ha fatto desistere dal prendere la 1080ti, aspettando una 2080ti che potesse farmi fare un salto si prestazioni corposo. Ora è vero che non abbiamo visto recensioni ufficiali, ma dalle info raccolte, mi trovo davanti una scheda che, non sfrutterei in RT visto che a 1080p non intendo tornare; rispetto ad il mio Sli otterrei un incremento che tutto sommato non so se giustificare a fronte di una spesa di 1500€ (vga+wb)... ripeto questo mio ragionamento si basa su un’ottima esperienza in Sli e su informazioni ufficiose della 2080ti... comunque ciò non toglie che la scheda che hanno proposto è davvero una bella rivoluzione, ma non so se per le mie esigenze possa essere adatta . Spero vivamente di essere smentito ...


Inviato dal mio iPhone X utilizzando Tapatalk

certo legittimo, le prestazioni ci sono e sicuramente piu che il prezzo ti ferma il non poter usare l rt.

quindi se proprio vuoi passare a singola scheda ti conviene quando si assesterà come prezzo o come hai detto aspetti direttamente la prossima.

aeN_13
11-09-2018, 23:03
https://videocardz.com/77895/the-new-features-of-nvidia-turing-architecture

Piccola anteprima della presentazione dell'architettura Turing prevista per il 14 settembre.

C'è anche la conferma che la 2070 è un TU106 full (445 mm2, poco meno di GP102 della 1080Ti)

Thunder-74
11-09-2018, 23:03
certo legittimo, le prestazioni ci sono e sicuramente piu che il prezzo ti ferma il non poter usare l rt.



quindi se proprio vuoi passare a singola scheda ti conviene quando si assesterà come prezzo o come hai detto aspetti direttamente la prossima.



Chiaro...


Inviato dal mio iPhone X utilizzando Tapatalk

mikael84
11-09-2018, 23:44
https://twitter.com/VideoCardz/status/1039486182240006144

Ma qui non si capisce una sega, ma nvidia quando ha intenzione di dire due paroline sulla roadmap?

Allora mettiamo il puntino sulle i.
Alcuni mi hanno scritto via PM.
Oggi, è uscita una rivisitazione delle fasce effettive che mi lascia un tantino interdetto.

1) Sugli SM, tutto da previsione. Tutto preso in pieno, 4 cicli, 4 sub warp, 1 RT, 4 tensor, 1024 istruzioni per ciclo, 8 LDS
Di questo ne ho parlato sempre.
2 RT per SMM/TPC (0,66mrays)
https://cdn.videocardz.com/1/2018/09/TURING-SM-293x400.jpg


Su Videocardz, e rumors nuovi, io vedo, brutti segnali.

1) GT102, 6 GPC, 6 TPC ( 8 rop's per GPC perse per via del raster bloccato).
6 canali ram e 384bit.

2) GT104, viene lasciata la base del GT102 (Titan), ma vengono levati 2 canali di collegamento necessari (scempio, non funzionano così i GPC, ma sono andati in crisi mistica per proporzioni):muro:
Quindi abbiamo, gli stessi 6 GPC del GT 102, ma i TPC scesi a 4. Bene, ottima proporzione rop's, ma persi 192 gb/s di ram.
Potevano chiudere il chip con 12 gb e 672gb/s, distruggendo di fatto la 1080ti, ma andavano ad aumentare l'area di circa 100mmq2:muro:

3)GT106 Solo una volta nVidia ha adottato numero dispari di GPC (con la 780/780ti)
Praticamente, la x70 non sarà più uno scarto del GT104 ma un chip a se.
https://cdn.videocardz.com/1/2018/09/NVIDIA-TURING-TU106-1000x337.jpg

In linea di massima, viene tagliato in 2 il GT102
3 GPC (125mmq2 x3) più un collegamento per i 256 bit.

La 2070, potrebbe essere davvero ottimale, perderebbe poco dalla 2080, in più migliorerebbe in latenze, ed avrebbe la stessa banda della 2080.



-------------

Dai primi chip, la 2080 mi sembra scandalosa, ingegneristicamente parlando.
Rop's mantenute, e 2 canali buttati per dimensioni.
Potevano aspettare i 7nm, se hanno fatto questa accozzaglia i 7nm sono in alto mare;)

mikael84
11-09-2018, 23:48
Potrebbe essere che la parte tensor/rt non sia così modulare da consentire facilmente dei tagli.

Devi solo diminuire la dimensione degli SMM, levare i tensor ed il modulo RT, tutto l'altro viene schedulato senza problemi:)
I problemi, seri di nVidia stanno cominciando a notarsi, per adottare una buona BW, è stata costretta ad un'ampio utilizzo di compressione, ancora più severo, rispetto a Pascal, e per di più, devi inventarsi i collegamenti a vuoto.
Sul GT104, mancano 2 canali ram.
A sto giro, cominciano a vedersi i limiti per dimensioni.

AceGranger
12-09-2018, 00:11
Dai primi chip, la 2080 mi sembra scandalosa, ingegneristicamente parlando.
Rop's mantenute, e 2 canali buttati per dimensioni.
Potevano aspettare i 7nm, se hanno fatto questa accozzaglia i 7nm sono in alto mare;)

dopo la news con le Pascal ancora in commercio per un periodo per via delle scorte, inizio a pensare anche io che prima del Q1 2020 non vedremo i 7nm :(

mikael84
12-09-2018, 00:24
dopo la news con le Pascal ancora in commercio per un periodo per via delle scorte, inizio a pensare anche io che prima del Q1 2020 non vedremo i 7nm :(

Esatto, che poi siamo incasinati anche via ram, hynix e Micron sono ancora ferme a 14 gb/s max e con i vecchi MC, solo le quadro hanno adottato MC da 2gb (16/32gb) Samsung.
Attualmente siamo a solo 14gb/s x 1,35v, valore tra l'altro appena raggiunto, altrimenti si partiva da 12gb/ tranne Samsung.
Per le 7nm, bisogna che tutte producano a pieno regime le 2gb e con valori impensabili, come 18 gb/s, altrimenti, rischi di partire con canali inventati che occupano tanto spazio.

Insomma non lo vedo molto vicino il prossimo PP, se non in chiave Tesla, dove le HBM da 1,2tb/s verranno montate anche su AMD FP64.:)

Tody
12-09-2018, 05:17
La 2070, potrebbe essere davvero ottimale, perderebbe poco dalla 2080, in più migliorerebbe in latenze, ed avrebbe la stessa banda della 2080.


Grazie della dritta :)
Paragonandola alla 1080ti visto il prezzo che dovrebbe essere simile come se la caverebbe senza l'utilizzo dei Ray Tracing Core?

Felice2
12-09-2018, 05:32
Salve ragazzi,
sapete se qualche altro produttore (oltre a EVGA che ha aggiornato il sito poco fa) ha definito le frequenze di funzionamento normale e in boost delle proprie 2080ti?
Sono molto curioso di vedere le differenze con le FE.

gexxx
12-09-2018, 06:25
Mi iscrivo

Arrow0309
12-09-2018, 06:46
Devi solo diminuire la dimensione degli SMM, levare i tensor ed il modulo RT, tutto l'altro viene schedulato senza problemi:)
I problemi, seri di nVidia stanno cominciando a notarsi, per adottare una buona BW, è stata costretta ad un'ampio utilizzo di compressione, ancora più severo, rispetto a Pascal, e per di più, devi inventarsi i collegamenti a vuoto.
Sul GT104, mancano 2 canali ram.
A sto giro, cominciano a vedersi i limiti per dimensioni.

https://videocardz.com/77895/the-new-features-of-nvidia-turing-architecture

TigerTank
12-09-2018, 07:47
Amon, secondo te quindi è una scheda che potrà lasciare il segno... su questo che nutro dei dubbi.. la vedo più un necessario crocevia, ma solo apripista per una futura generazione . Ora la mia situazione è la seguente. Ho uno Sli che tutto sommato mi godo da 3 anni e sul 90% dei titoli da me giocati, sono riuscito a sfruttare con rese pari o poco più superiori di una 1080ti. Fortunato? Forse...Questo mi ha fatto desistere dal prendere la 1080ti, aspettando una 2080ti che potesse farmi fare un salto si prestazioni corposo. Ora è vero che non abbiamo visto recensioni ufficiali, ma dalle info raccolte, mi trovo davanti una scheda che, non sfrutterei in RT visto che a 1080p non intendo tornare; rispetto ad il mio Sli otterrei un incremento che tutto sommato non so se giustificare a fronte di una spesa di 1500€ (vga+wb)... ripeto questo mio ragionamento si basa su un’ottima esperienza in Sli e su informazioni ufficiose della 2080ti... comunque ciò non toglie che la scheda che hanno proposto è davvero una bella rivoluzione, ma non so se per le mie esigenze possa essere adatta . Spero vivamente di essere smentito ...


E' lo stesso ragionamento per cui al momento ho ancora le 2 1070 nel case.
In questo momento oltre a WOT sto giocando pure a Mad Max(che avevo in arretrato) e nonostante non sia stato un titolo hyperato o non abbia una grafica all'ultimo grido(ma comunque buona e a me piace il genere), lo Sli gira che è una meraviglia e mi sta praticamente sempre o quasi a 144 fps.

Io reputo queste 2000 una transizione di ripiego perchè devono mettere a mercato qualcosa ma ancora mancano i 7nm, per cui 700-800€ di Ti ci sarebbero potuti stare per ritornare ad una singola in grande stile, ma sinceramente 1200-1300 sono troppi.
A questo punto attendo di vedere le 2070 restando su 1440p e poi si valuteranno le 3000 + 4K da gaming.

Thunder-74
12-09-2018, 08:07
E' lo stesso ragionamento per cui al momento ho ancora le 2 1070 nel case.
In questo momento oltre a WOT sto giocando pure a Mad Max(che avevo in arretrato) e nonostante non sia stato un titolo hyperato o non abbia una grafica all'ultimo grido(ma comunque buona e a me piace il genere), lo Sli gira che è una meraviglia e mi sta praticamente sempre o quasi a 144 fps.

Io reputo queste 2000 una transizione di ripiego perchè devono mettere a mercato qualcosa ma ancora mancano i 7nm, per cui 700-800€ di Ti ci sarebbero potuti stare per ritornare ad una singola in grande stile, ma sinceramente 1200-1300 sono troppi.
A questo punto attendo di vedere le 2070 restando su 1440p e poi si valuteranno le 3000 + 4K da gaming.

Mmm... non so... preferirei stare fermo che prendere una 2070 o 2080...


Inviato dal mio iPhone X utilizzando Tapatalk

AceGranger
12-09-2018, 08:18
Ho visto oggi com'è organizzata la gpu internamente e che ci sono 4 tensor e 1 RT per SM, prima ero convinto che RT e Tensor fossero una cosa separata.
Altrimenti non avrei scritto quel post :)

Però scusa, a questo punto se dalla 2060 a scendere non hanno Tensor e RT è proprio un'architettura differente?

P.S: Ma se aumenta la compressione rispetto a pascal avrà colori ancora più scialbi? :O

ancora con questa cagata dei colori scialbi, oltretutto associata a vanvera alla compressione ?:asd: è, e sara sempre, una compressione lossless, è come affermare che zippando un word e riaprendolo perdi i caratteri

i colori è una scelta di gestione del profilo colore nel driver del gioco.

Ubro92
12-09-2018, 08:32
Se la 2080 ha subito realmente questo trattamento, mi viene da pensare che le rese di turing siano davvero pessime...

Ma tra tutte le soluzioni la 2070 rimane la più interessante, latenze praticamente dimezzate rispetto una 1080ti e probabilmente le prestazioni non saranno cosi distanti.

Mi chiedo però, chi ha già schede come 1080/1080ti quanto nel concreto valga la pena aggiornare...

A primo impatto da questi nuovi rumors mi sembra che l'architettura sia decisamente castrata dal pp, con palesi compromessi per stare nei 12nm, però attendiamo, tra qualche giorno avremo modo di vedere sul campo 2070/2080, forse i 6 gpc della 2080 trovano un loro senso nel calcolo RT ma senza test è difficile fare previsioni non conoscendo neanche turing nei dettagli...

FroZen
12-09-2018, 08:47
Review spostate al 19 sembra :O

Avrete poco tempo per decidere di annullare o meno il preorder :stordita: come diceva quel tale con le orecchie a sventola e gli occhiali? :fagiano:

AceGranger
12-09-2018, 08:56
Pensavo si capisse dalla faccina che era una battuta.
Ogni tanto spolvera il tuo senso dell'umorismo, la vita è triste senza.

con quella faccina è un po il senso dell'umorismo inglese :fagiano:

FroZen
12-09-2018, 09:00
Pensavo si capisse dalla faccina che era una battuta.
Ogni tanto spolvera il tuo senso dell'umorismo, la vita è triste senza.

P.S: comunque non è il driver del gioco, anche in windows sono leggermente calibrate diverse le nvidia e le amd.
Ma questo di base, poi ognuno se le calibra come vuole.
Mi chiedo poi come influiscano i monitor, probabilmente i monitor li calibrano o per nvidia o per amd o una via di mezzo.

con quella faccina è un po il senso dell'umorismo inglese :fagiano:

Bivvoz devi capire che usando una nvidia sul suo monitor la faccina non c'era




:asd:

:smack:

Arrow0309
12-09-2018, 09:09
con quella faccina è un po il senso dell'umorismo inglese :fagiano:

Quoto, ci ero cascato anch'io. :asd:

AceGranger
12-09-2018, 09:17
Bivvoz devi capire che usando una nvidia sul suo monitor la faccina non c'era

:asd:

:smack:



ho una Vega FE :asd: purtroppo :sofico:

Arrow0309
12-09-2018, 09:30
Finalmente, non male. :cool:

https://www.overclock3d.net/news/gpu_displays/evga_reveals_the_clock_speeds_of_their_rtx_2080_and_rtx_2080_ti_xc_gaming_gpus/1

Chissà le FTW3 e superiori (Hydro Cooper) che oc avranno

techsaskia
12-09-2018, 09:33
Io mi sa che dopo l'entusiasmo iniziale per Threadripper 2 aspetterò Threadripper 3 :D
voglio troppo l'octa channel sulle memorie e pci gen 4, nel frattempo la mia RTX2080Ti dovrà accontentarsi di un 5930K @ 4.2GHz... speriamo di non limitarla "troppo" anche se con RTX on mi sa che il problema non si presenterà :D

techsaskia
12-09-2018, 09:36
Mi immagino già l'espressione schifata della 2080ti quando scoprirà di dover lavorare con un 5930K :asd:

poraccia :sofico:

fabietto27
12-09-2018, 09:40
Amon, secondo te quindi è una scheda che potrà lasciare il segno... su questo che nutro dei dubbi.. la vedo più un necessario crocevia, ma solo apripista per una futura generazione . Ora la mia situazione è la seguente. Ho uno Sli che tutto sommato mi godo da 3 anni e sul 90% dei titoli da me giocati, sono riuscito a sfruttare con rese pari o poco più superiori di una 1080ti. Fortunato? Forse...Questo mi ha fatto desistere dal prendere la 1080ti, aspettando una 2080ti che potesse farmi fare un salto si prestazioni corposo. Ora è vero che non abbiamo visto recensioni ufficiali, ma dalle info raccolte, mi trovo davanti una scheda che, non sfrutterei in RT visto che a 1080p non intendo tornare; rispetto ad il mio Sli otterrei un incremento che tutto sommato non so se giustificare a fronte di una spesa di 1500€ (vga+wb)... ripeto questo mio ragionamento si basa su un’ottima esperienza in Sli e su informazioni ufficiose della 2080ti... comunque ciò non toglie che la scheda che hanno proposto è davvero una bella rivoluzione, ma non so se per le mie esigenze possa essere adatta . Spero vivamente di essere smentito ...


Inviato dal mio iPhone X utilizzando Tapatalk

Piano B....Fra un pò con gli stessi soldi di una 2080ti rischi di fare uno sli di 1080Ti che è comunque tanta roba.Io non mi metto a discutere Sli morto si/no
Per esperienza visto che ne ho avuti diversi richiede solo di saper pastrugnare coi profili e non voler giocare al day One,ma poi una soluzione si trova.Utenti tipo Tiger con Sli di Pascal non hanno mai lamentato rogne particolari e sono utenti corretti che nel momento in cui le rogne ci fossero le evidenziano,non si nasconderebbero per non sputtanare una loro scelta hardware.

edit_user_name_here
12-09-2018, 09:45
In più troverebbe il gradimento di quelli che causa OCD non vogliono un chip cut :>

Vedi che il disturbo ossessivo compulsivo ho persone che hanno sto problema non è altro che essere precisi nelle cose un po eccessivamente tipo mettere apposto un cassetto se è fuori posto o essere precisi in altro :D non è che vogliono essere precisi anche negli acquisti :asd:

Forse ce li abbiamo anche noi un po ste cose e non ce ne accorgiamo :D non è che siamo tutti perfetti.



Comunque volevo dirvi che su eprice ci sta lo sconto di 100 euro su 1000 euro e 50 su meno di 1000.



Edit: Poi c'è anche l'ossessione compulsivo sugli acquisti e forse intendevi dire quella variante ma è diversa come cosa :D molto importante capire le differenze lol.

Arrow0309
12-09-2018, 10:00
Azzo, tutti a compra le Giga 2080 ti windforce oc a 1169 :Prrr:

illidan2000
12-09-2018, 10:39
Mi immagino già l'espressione schifata della 2080ti quando scoprirà di dover lavorare con un 5930K :asd:

pensa col mio 5820k e ram 2400...

edit_user_name_here
12-09-2018, 10:48
Tipo mia moglie che quando stende usa solo mollette dello stesso colore :asd:

:D


Comunque io sono indeciso se ordinarla, anche se posso sempre annullarlo, ma volevo la evga tri slot sinceramente.Boh vedremo in serata :)

Il nabbo di turno
12-09-2018, 10:49
Allora mettiamo il puntino sulle i.
Alcuni mi hanno scritto via PM.
Oggi, è uscita una rivisitazione delle fasce effettive che mi lascia un tantino interdetto.



In linea di massima, viene tagliato in 2 il GT102
3 GPC (125mmq2 x3) più un collegamento per i 256 bit.

La 2070, potrebbe essere davvero ottimale, perderebbe poco dalla 2080, in più migliorerebbe in latenze, ed avrebbe la stessa banda della 2080.


Il fatto che comunque gt106 sia la metà di gt102 comunque regge come spiegazione del fatto che la 2070 avrà un chip 106(che è molto cicciotto eh), e sempre come hai detto, sarebbe un chip molto bilanciato, forse anche troppo nei confronti di gt104.

Si, praticamente penso che quando i 7nm arriveranno, vedremo questi chip in die shrink, con tutto quello che ne consegue(dimensioni del die, consumi, frequenze ecc...).

Praticamente nvidia ci ha spoilerato già la gen dopo, in maniera simile a maxwell->pascal.

Black"SLI"jack
12-09-2018, 10:50
Azzo, tutti a compra le Giga 2080 ti windforce oc a 1169 :Prrr:

prenotata adesso :D

pagamento al ritiro. se poi vedo che le rece non mi convincono, annullo l'ordine :D

tanto pcb reference, quindi i wb sono già tutti presentati. probabile che riprenda un phanteks rispetto al solito ek.

ilcose
12-09-2018, 10:55
pensa col mio 5820k e ram 2400...Stessa situazione....ma RAM 2666, a 3ghz non boota più da un anno e mezzo.

Per la piatta aspetto ryzen 2 per decidere che fare non ho fretta.

Inviato dal mio ZTE A2017G utilizzando Tapatalk

Il nabbo di turno
12-09-2018, 11:04
Gt 106 ha pure 64 rops, mica pizza e fichi...

edit_user_name_here
12-09-2018, 11:05
Non so se ce li abbiano tutti questi problemi, ma io scherzo sempre con gli amici americani sul fatto che soffro di CDO e non di OCD, perché OCD non è in ordine alfabetico.

L'incompletezza del chip può sicuramente disturbare nel contesto quanto avere marche spaiate di hardware (che so, mobo ASUS e vga MSI, cosa che appunto io non farei mai :asd: ). E' una compulsiva ricerca di ordine e completezza e non è ovviamente davvero OCD, ma lo chiamiamo tutti OCD perché è più comodo per capire rapidamente di cosa stiamo parlando :)

Di cose tecniche di hardware non ci capisco molto, come già dicevo sono più un appassionato di videogiochi, ma vabbe :D cmq era giusto per chiarire che ci sono veramente casi del genere.Non che siano una cosa grave, eccetto per qualche eccezione che ora non sto a spiegare, ma molte persone potrebbero avercelo e neanche se ne accorgono.Con questo voglio dire che scherzare va bene ma bisogna pure sapere a cosa ci si scherza :asd: magari potrebbe essere una cosa non piacevole insomma se incontri uno che ha questi problemi :) intendo che scherzare su uno che ha problemi del genere non è proprio bellissimo(intendo se la persona con cui scherzi ce li ha veramente).

Arrow0309
12-09-2018, 11:21
prenotata adesso :D

pagamento al ritiro. se poi vedo che le rece non mi convincono, annullo l'ordine :D

tanto pcb reference, quindi i wb sono già tutti presentati. probabile che riprenda un phanteks rispetto al solito ek.

:cincin: :cincin:

Ti seguirò presto. ;)
Lato wb non so, a me piace un sacco il nuovo EK Vector con il top nero e la scritta Geforce RTX e il logo EK (verde). :cool:
Non ho capito se l'illuminazione verde del logo e scritta c'è su tutti i Vector o solo sui RGB.
Cmq un RGB nickel costa un botto. :O

Ubro92
12-09-2018, 11:30
Gt 106 ha pure 64 rops, mica pizza e fichi...

Dovrebbero essere 64 memorizzate ma solo "48" accessibili.

Il nabbo di turno
12-09-2018, 11:37
Dovrebbero essere 64 memorizzate ma solo "48" accessibili.

Non lo so se internamente sono state tagliate, non mi sorprenderei eh...

Black"SLI"jack
12-09-2018, 11:37
Ma dove le trovarte le giga a 1169? :sofico:

eprice, con codice sconto di 100 euro :D

ringraziamo Annihilator_86 che ha segnalato gli sconti. ero dubbioso se facevano fare l'ordine. ma è andato.

scorpion73
12-09-2018, 11:48
Schede esaurite... mamma mia oh... e che è fortuna che costavano un botto...

Black"SLI"jack
12-09-2018, 11:51
la mia si potrebbe pure liberare. nel caso in cui le rece non siano "buone"

Ubro92
12-09-2018, 11:53
Non lo so se internamente sono state tagliate, non mi sorprenderei eh...

In linea teorica è lo stesso trattamento della 1060 e della 1070 (se fosse stampata a parte).

Per avere 8GB di vram con 3GPC hanno necessariamente dovuto estendere il collegamento a 256bit, ma è un collegamento vuoto non ci sono unità che possano elaborare 64 rops.

Anche la 1070 aveva 48 rops ma 64 memorizzate, però la 1070M con 2048cc accedendo al 4° rasterizzatore ha accesso a 52 rops su 64...

Sarebbe stato interessante però se a questo punto avrebbero esteso a tutte il bus, tanto il chip sempre grosso rimane, e grosso per grosso...:fagiano:

In linea teorica una 2080 con 384bit avrebbe avuto molto più senso, e una 2080ti con 512bit o (448bit cut) sarebbe stato un bel chippone con una BW intorno ai 784/896 gb/s e con ben 14/16GB di vram ma sarebbe arrivata a quasi 890mm2 :fagiano:

Quindi come già dicevo nvidia è andata al compromesso, probabilmente per la 2070 essendo un chip decisamente più piccoli è stato possibile ottenere più in proporzione rientrando nei costi rispetto a 2080/2080ti che invece sono più ai limiti del pp

scorpion73
12-09-2018, 11:58
Ma che differenza c'è fra la Gaming OC e la Windforce OC?

Sapete se la Gaming è dual slot o 2,5 slot?

Arrow0309
12-09-2018, 12:01
Ma che differenza c'è fra la Gaming OC e la Windforce OC?

Sapete se la Gaming è dual slot o 2,5 slot?

Guardando il cooling configurator di EK (wubbo 2080ti Vector) c'è solo la Windforce OC compatible quindi ha design reference mentre la Gaming potrebbe avere un design custom.
La Wf è 2 slot e la Gaming 2.5 slot.

sandrigno
12-09-2018, 12:07
Mi pare di capire che la 2070 sia la più sensata, secondo voi può raggiungere le prestazioni di una 1080Ti?

AceGranger
12-09-2018, 12:08
per chi di voi ha esperienze pratiche di SLI, meglio puntare al blower o la soluzione biventola FE non dovrebbe creare problemi ?

Ubro92
12-09-2018, 12:10
Ma che differenza c'è fra la Gaming OC e la Windforce OC?

Sapete se la Gaming è dual slot o 2,5 slot?

Dai rendering sul sito ufficiale delle schede guardando la pacchetta, direi confermato che la Winforce rientra nei 2 slot mentre la Gaming OC risulta leggermente più alta e probabilmente richiede 2.5 slot.

https://static.gigabyte.com/Product/3/6708/2018082011474182_big.png
https://static.gigabyte.com/Product/3/6707/2018082011230987_big.png

Arrow0309
12-09-2018, 12:21
La scheda sotto nello sli é più calda di 5-7 gradi. Fine delle differenze...

Lascia stare il blower che poi non le eivendi neanche morto.

Inviato dal mio SM-G960F utilizzando Tapatalk
Semmai più fresca.

scorpion73
12-09-2018, 12:23
Dai rendering sul sito ufficiale delle schede guardando la pacchetta, direi confermato che la Winforce rientra nei 2 slot mentre la Gaming OC risulta leggermente più alta e probabilmente richiede 2.5 slot.

https://static.gigabyte.com/Product/3/6708/2018082011474182_big.png
https://static.gigabyte.com/Product/3/6707/2018082011230987_big.png

Peccato. 2,5 slot non entra nel 250d....
Mi hanno fottuto la Windforce mentre cambiavo quell'accidenti di pick&pay che me lo resetta sempre a quello che gli pare a lui, maledetto sito del cavolo....
Quando ho confermato mi ha detto che era esaurita e l'ho mandato a quel paese...

FroZen
12-09-2018, 12:47
Gt 106 ha pure 64 rops, mica pizza e fichi...

un'altra vittima delle schede "tecniche" nvidia

anche la 970 aveva 4gb di vram :ciapet:

FroZen
12-09-2018, 12:49
Mi pare di capire che la 2070 sia la più sensata, secondo voi può raggiungere le prestazioni di una 1080Ti?

no

techsaskia
12-09-2018, 13:00
La scheda sotto nello sli é più calda di 5-7 gradi. Fine delle differenze...

Lascia stare il blower che poi non le eivendi neanche morto.

Inviato dal mio SM-G960F utilizzando Tapatalk

la più calda è quella sopra e le differenze possono essere abbondantemente sopra i 10°c.

TigerTank
12-09-2018, 13:06
Mmm... non so... preferirei stare fermo che prendere una 2070 o 2080...


Intanto vediamo le recensioni, poi si vedrà che fare.

Piano B....Fra un pò con gli stessi soldi di una 2080ti rischi di fare uno sli di 1080Ti che è comunque tanta roba.Io non mi metto a discutere Sli morto si/no
Per esperienza visto che ne ho avuti diversi richiede solo di saper pastrugnare coi profili e non voler giocare al day One,ma poi una soluzione si trova.Utenti tipo Tiger con Sli di Pascal non hanno mai lamentato rogne particolari e sono utenti corretti che nel momento in cui le rogne ci fossero le evidenziano,non si nasconderebbero per non sputtanare una loro scelta hardware.

Dipende dalle situazioni, lo Sli di gtx780 ai tempi lo vendetti per la disperazione e passai ad una 780Ti al lancio. Con queste 1070 ci sono stati dei momenti no tipo con i primi titoli "patchati alle dx12" che era meglio giocare ancora in dx11(tipo The Division) mentre con altri, tipo i Far Cry, tutto benone.
In ogni caso...se parliamo di sli preferirei tornare ad una singola potente ma ste ultime Ti sono un salasso.
E poi si vedrà come evolverà l'NVlink, se sarà cosa da ambito professionale o anche in ambito gaming introdurrà un nuovo step evolutivo al multigpu....dipendentemente dalle restrizioni che imporrà Nvidia(tipo non dotare le x70 del supporto). Il fatto è che Nvidia le proprie tecnologie proprietarie se le fa pagare alla grande.

AMDisBACK
12-09-2018, 13:14
per chi di voi ha esperienze pratiche di SLI, meglio puntare al blower o la soluzione biventola FE non dovrebbe creare problemi ?

Ciao, io ho avuto fino a venerdì scorso 2 1080ti Asus Turbo in SLI.
Nessun problema di temperature e/o rumore come leggevo qui 12 mesi fa.
Per fortuna non mi sono fidato di chi non ne aveva mai provata una.
Ho preordinato la 2080ti Asus Turbo su epr…
Se anche queste saranno ottime come le 1080ti ne prenderò una seconda a Natale.
Se hai domande preferisco pm.

Emiliano

AceGranger
12-09-2018, 13:23
Ciao, io ho avuto fino a venerdì scorso 2 1080ti Asus Turbo in SLI.
Nessun problema di temperature e/o rumore come leggevo qui 12 mesi fa.
Per fortuna non mi sono fidato di chi non ne aveva mai provata una.
Ho preordinato la 2080ti Asus Turbo su epr…
Se anche queste saranno ottime come le 1080ti ne prenderò una seconda a Natale.
Se hai domande preferisco pm.

Emiliano

perfetto quindi Blower.

non appena avro notizie certe su mio software vedro il dafarsi e magari ti contattero :)

Jeetkundo
12-09-2018, 13:25
La windforce OC 2080ti pare quasi regalata à 1169 euro :D aspettiamo le recensioni fiduciosi

Sent from my MI 6 using Tapatalk

edit_user_name_here
12-09-2018, 13:32
La windforce OC 2080ti pare quasi regalata à 1169 euro :D aspettiamo le recensioni fiduciosi

Sent from my MI 6 using Tapatalk

:asd:

Telstar
12-09-2018, 13:35
Mi pare di capire che la 2070 sia la più sensata, secondo voi può raggiungere le prestazioni di una 1080Ti?

No, ma se supera quelle della 1080, ha più senso che prendere quest'ultima (nuova o usata).
Sto aspettando ovviamente le recensioni.

Giovamas
12-09-2018, 13:40
LOL finite, bastano 100 euro meno per invogliare:D potere del Marketing selvaggio, da Merxa a deliziosa Nutella in 2 secondi

questo ed il fatto che se ritiri al p&p non anticipi nulla e valuti le recensioni.

Black"SLI"jack
12-09-2018, 13:50
proprio per via del ritiro al p&p e il pagamento al ritiro, mi ha fatto propendere per il pre-order da loro.

io sto aspettando cmq le rece per capire dove di va a parare con la Ti. infatti non ero partito con il pre-order da nessuna parte, nemmeno su amazon dove ho un buono da 150 euro da poter spendere.

poi se le rece dimostrano un prodotto che non corrisponde alle attese, annullo l'ordine, non ci rimetto un centesimo e resto con quello che ho adesso.

edit_user_name_here
12-09-2018, 13:51
Cmq c'è ancora disponibile quella a tre slot della gigabyte anche se costa 50 euro in più ma a me interessava a tre slot quasi quasi :D

Black"SLI"jack
12-09-2018, 13:54
in ottica liquid cooling, meglio risparmiare pure quei 50 euro da riversare poi sul waterblock. le due schede non credo abbiano lo stesso pcb, dato che ek ad esempio il wb reference lo da compatibile solo con la wind oc.

sandrigno
12-09-2018, 13:54
https://www.reddit.com/r/nvidia/comments/9f1eak/leaked_turning_whitepaper_summary_with_full_rtx/

Secondo me con un po' di sano OC supera la 1080Ti

bizzy89
12-09-2018, 14:15
Io mi sto seriamente stufando di aspettare

appleroof
12-09-2018, 14:36
La 2070, potrebbe essere davvero ottimale, perderebbe poco dalla 2080, in più migliorerebbe in latenze, ed avrebbe la stessa banda della 2080.



Ottimo :cool:

edit_user_name_here
12-09-2018, 14:37
Io mi sto seriamente stufando di aspettare

Se vuoi vieni a casa mia che ti do da fare alcune cose da passare il tempo :D ovviamente scherzo.Ti capisco :)

Più che altro sono proprio indeciso se preordinare e nel caso annullare.

FroZen
12-09-2018, 15:01
LOL finite, bastano 100 euro meno per invogliare:D potere del Marketing selvaggio, da Merxa a deliziosa Nutella in 2 secondi

:eek:

tutte e 10?

Black"SLI"jack
12-09-2018, 15:01
in configurazioni sli/xfire, il problema delle temp le ha in genere la scheda che è posizionata sopra, in quanto se prende anche il calore prodotto dall'altra scheda. per questo in genere in configurazione sli/xfire, si cerca di avere maggiore spazio possibile tra le due vga e se possibile utilizzare una ventola per immettere aria fresca tra le due vga.

personalmente prima di rifare uno sli/xfire ad aria, me ne sto con singola scheda. già passato con sli di 6800gt, 7800gt e 8800gtx. dalle 480 in poi solo liquido.

FroZen
12-09-2018, 15:05
in configurazioni sli/xfire, il problema delle temp le ha in genere la scheda che è posizionata sopra, in quanto se prende anche il calore prodotto dall'altra scheda. per questo in genere in configurazione sli/xfire, si cerca di avere maggiore spazio possibile tra le due vga e se possibile utilizzare una ventola per immettere aria fresca tra le due vga.

personalmente prima di rifare uno sli/xfire ad aria, me ne sto con singola scheda. già passato con sli di 6800gt, 7800gt e 8800gtx. dalle 480 in poi solo liquido.

un silverstone raven e passa la paura (ah guarda caso ne vendo uno :asd: )

Black"SLI"jack
12-09-2018, 15:22
un silverstone raven e passa la paura (ah guarda caso ne vendo uno :asd: )

tranquillo non è il mio caso. ormai non uso più case convenzionali da tempo, e liquidando pure mouse e tastiera (ci manca poco), preferisco avere i rad completamente all'aria aperta per non avere alcun tipo di problema di flussi d'aria.

bizzy89
12-09-2018, 15:38
Se vuoi vieni a casa mia che ti do da fare alcune cose da passare il tempo :D ovviamente scherzo.Ti capisco :)

Più che altro sono proprio indeciso se preordinare e nel caso annullare.
Annullato mi sono stufato, non riesco a stare senza GPU, mi son preso una aorus sul Ware House di Amazon a 550, se non mi soddisfa le le review la tengo sennò la rimando indietro.

mikael84
12-09-2018, 15:43
Grazie della dritta :)
Paragonandola alla 1080ti visto il prezzo che dovrebbe essere simile come se la caverebbe senza l'utilizzo dei Ray Tracing Core?

Potenza bruta probabile, -10%, la differenza la faranno i vari giochi.
Alcuni potrebbero andare di pari passi, altri no.:)

LOL quindi la 2080 ha 512cc (più la laserazione di un sm) per gpc contro i 768cc per gpc delle 2070/2080ti fa molto ridere sta cosa, la 2070 ha la SKU FULL a sto giro:D certo però che declassata a 106 fa ridere, in pratica se ho ben capito quel chip doveva essere un 192 bit e 6b di vram, ma hanno lo stesso configurato a 256bit per portare gli 8gb di ram totali, avendo solo vram mc con 1gb, la 2080 invece avendo 6 gpc poteva collegarsi a 352bit (non cito i possibili 384bit e 12gb poichè avrebbe cannibalizzato la 2080ti) come la ti, portando la vram a 11gb, ma ci sarebbe voluto più spazio e quindi nvidia ha tagliato tutto LOL, fa proprio impressione vedere come siano intervenuti su 2080, l'hanno massacrata.

GG la 2080 più castrata e strana della storia, manco il chip della 780 era cosi menomato :sofico:


Detto questo e visto che ormai ti sei inquadrato per bene L'SM turing, Mike secondo te quanto potrebbe migliorare l'efficienza dei cuda rispetto a pascal? il 50% sbandierato da nvidia potrebbe essere vero su scenari favorevoli?

Inoltre, secondo te è possibile che tra 1080ti e 2080ti ci passi 40-50% in 4k? e magari sotto vulkan o giochi favorevoli dx12 si superi pure il 50%?

Grazie

Si sono scenari che possono realizzarsi tranquillamente, il problema potrebbe verificarsi dai clock impostati.
La 2080ti ha lo stesso ratio che scorre tra 1080 e 1080ti, quindi lo scaling potrebbe essere simile, dove in certi frangenti ti ritrovi +30/35%, ma in OC e pari clock, un altro 6/8% potresti tiralo fuori.
Bisogna vedere quanto spingono e in che condizioni le 2080ti.:)

I cuda sono molto più efficienti, ma rispetto a tutte le generazioni, ora hai due colli di bottigllia che non scalano, come Geometria e rop's, è probabile quindi che alcuni giochi non diano il massimo, come te lo può dare un wolfenstein, Sniper, dove si fa pesante uso di shader

Ho visto oggi com'è organizzata la gpu internamente e che ci sono 4 tensor e 1 RT per SM, prima ero convinto che RT e Tensor fossero una cosa separata.
Altrimenti non avrei scritto quel post :)

Però scusa, a questo punto se dalla 2060 a scendere non hanno Tensor e RT è proprio un'architettura differente?


No, vai a diminuire solo la dimensione degli SMM, tutto il resto è uguale.
Se un SMM con RT ti pesa 10/12mmq, uno spoglio te ne peserà 8, tutto qua.


In più troverebbe il gradimento di quelli che causa OCD non vogliono un chip cut :>

Con questa serie si parte già in cut purtroppo:p
Cmq grossi cut da fare GPU inferiori è impossibile a sto giro. Anche una 2070ti, mi pare di difficile realizzo.
Rimane misteriosa la TU06, in quanto decisamente troppo grossa per avere 445mmq, a conti fatti, questo mi fa pensare, ad un qualcosa di laserato (nvlink).


Mi chiedo poi come influiscano i monitor, probabilmente i monitor li calibrano o per nvidia o per amd o una via di mezzo.

Il problema sono proprio i monitor, se hai TN/MVA/VA, consiglio proprio di non montarla una nVidia, a meno che non ti regoli con i contrasti.
Ho da poco preso un 4k MVA e l'ho paragonato ad un AH IPS bypassato che utilizzavo ultimamente, la differenza purtroppo sta nel pannello, uno è brillante e lucente, l'altro spento. Unica soluzione è sparare il contrasto, AMD rende molto meglio anche su pannelli scadenti.
Su AH IPS, addirittura vedevo più brillante nVidia rispetto le AMD.
Su TN nvidia è meglio evitarla

Gt 106 ha pure 64 rops, mica pizza e fichi...

64 rop's, però solo 48 utilizzabili, i raster sono 3 x16.
16 rop's sono per collegamento.

L'apice dello schifo l'hanno toccato con la 2080, con 6 raster attivi, elabori solo 60 rop's 832 rop's inesistenti per via dei collegamenti cancellati, ed un raster visto un TPC laserato cala da 16 a 12:)

edit_user_name_here
12-09-2018, 16:15
Annullato mi sono stufato, non riesco a stare senza GPU, mi son preso una aorus sul Ware House di Amazon a 550, se non mi soddisfa le le review la tengo sennò la rimando indietro.

Io l'ho ordinata proprio ora nel caso annullo.Ho preso la tri slot però.

Arrow0309
12-09-2018, 16:16
Cmq c'è ancora disponibile quella a tre slot della gigabyte anche se costa 50 euro in più ma a me interessava a tre slot quasi quasi :D
La Gaming è anche 4 anni di garanzia se la registri entro 30 giorni.

techsaskia
12-09-2018, 16:28
Boh, tutto può essere, immagino che le esperienze possano variare in base a case, configurazioni e ventolame vario.

Questo cmq l'ho appena fatto con due Sapphire Nitro 580 stock, che hanno un TDP bello abbondante, durante il mining (carico 100% costante). Sta minando anche la CPU (che però è dissipata con un AIO e poco influisce sul bilancio termico del case). Il case è un Corsair da 50 euro con le due ventole che arrivavano insieme allo stesso, una davanti e una dietro da 120. L'AIO un DeepCool da 70 euro messo top in espulsione. Insomma, niente di che.

Nel concreto quello che succede è che la scheda in posizione sfigata deve alzare le ventole per mettersi in pari.

https://i.imgur.com/W2xQkN3.png

Non consiglierei di usare delle schede blower per un sistema gaming...

il mining scalda la metà, se vedi hai le schede sotto i 130W di TDP.
due schede da 250W in TDP si friggono in SLI con i blower.

io faccio SLI praticamente da sempre, ho saltato solo le 1080Ti e ogni volta che ho preso dei blower ho sempre cambiato scheda.

le schede divenano rumorosissime e sono sempre costantemente limitate dalla temperatura.
il brutto dello SLI (senza DX12 SFR) è che se una scheda trottla per via della temperatura (e quella in alto stai tranquillo che trottla pure a case aperto) anche l'altra si adegua alle stesse frequenze.

techsaskia
12-09-2018, 16:36
Il problema sono proprio i monitor, se hai TN/MVA/VA, consiglio proprio di non montarla una nVidia, a meno che non ti regoli con i contrasti.
Ho da poco preso un 4k MVA e l'ho paragonato ad un AH IPS bypassato che utilizzavo ultimamente, la differenza purtroppo sta nel pannello, uno è brillante e lucente, l'altro spento. Unica soluzione è sparare il contrasto, AMD rende molto meglio anche su pannelli scadenti.
Su AH IPS, addirittura vedevo più brillante nVidia rispetto le AMD.
Su TN nvidia è meglio evitarla


Chiunque tenga un minimo al colore non può far a meno di un colorimetro, in quel caso la LUT della scheda grafica viene pilotata dal profilo creato dal colorimetro.
Alcuni giochi non riescono ancora a leggere i profili ICC ma da quando ho windows 10 vedo che i giochi ereditano il profilo impostato in windows.
Il top sarebbe avere un monitor calibrabile in hardware in modo da correggere la LUT direttamente sul monitor senza lasciare l'amaro compito alla VGA, purtroppo non c'è un solo monitor gaming capace di una funzione così basilare per me.
io da quando ho iniziato a calibrare i monitor mi sono reso conto di quanto mi sono perso negli anni precedenti.
il monitor è bello i primi 6 mesi come arriva a casa calibrato di fabbrica, già dopo 6 mesi il bilanciamento del bianco cambia, cambiando completamente tutto il resto.
non ce ne accorgiamo perchè il monitor cambia lentamente e gradualmente, ma vedendo il monitor prima e dopo la calibrazione è tutta un'altra storia.

DarkNiko
12-09-2018, 16:40
Ho sempre pensato che non avrei mai visto la schermata di un programma di mining in background su questo forum ma devo ricredermi.

Senza offesa ma questa tecnica andrebbe bandita ovunque. E' una delle principali cause dell'impennata dei prezzi delle VGA e non venitemi a dire che uno delle proprie schede ci fa quello che vuole in quanto proprie, perché esiste sempre un limite a tutto. A chi pratica queste tecniche rivolgo solo l'invito di cercare di guadagnare nella vita in modo più onesto e dignitoso.

Scusate l'off-topic e lo sfogo personale. :(

techsaskia
12-09-2018, 16:45
Ho sempre pensato che non avrei mai visto la schermata di un programma di mining in background su questo forum ma devo ricredermi.

Senza offesa ma questa tecnica andrebbe bandita ovunque. E' una delle principali cause dell'impennata dei prezzi delle VGA e non venitemi a dire che uno delle proprie schede ci fa quello che vuole in quanto proprie, perché esiste sempre un limite a tutto. A chi pratica queste tecniche rivolgo solo l'invito di cercare di guadagnare nella vita in modo più onesto e dignitoso.

Scusate l'off-topic e lo sfogo personale. :(

seppur io non abbia mai fatto mining credo che l'impennata dei prezzi sia solo una scusa per i polli.
il fenomeno mining è sceso per via della perdita di interesse delle persone che vedono guadagni sempre più difficili. a me risulta che una Ti a 1400€ non si era mai vista eppure adesso le base stanno a quasi 1300€.

e poi è come hai detto, uno le sue GPU le usa come gli pare, il mining non è nè disonesto nè un qualcosa di non dignitoso.
la dignità l'anno persa i produttori di GPU non i miner.

edit_user_name_here
12-09-2018, 16:45
La Gaming è anche 4 anni di garanzia se la registri entro 30 giorni.

Grazie ma se la registro poi non posso più mandarla in garanzia ad eprice giusto?Tanto ho notato che le schede grafiche i primi 2 anni danno le maggiore noie.Anche se non è escludo dopo ovviamente :)


Ho sempre pensato che non avrei mai visto la schermata di un programma di mining in background su questo forum ma devo ricredermi.

Senza offesa ma questa tecnica andrebbe bandita ovunque. E' una delle principali cause dell'impennata dei prezzi delle VGA e non venitemi a dire che uno delle proprie schede ci fa quello che vuole in quanto proprie, perché esiste sempre un limite a tutto. A chi pratica queste tecniche rivolgo solo l'invito di cercare di guadagnare nella vita in modo più onesto e dignitoso.

Scusate l'off-topic e lo sfogo personale. :(

Non è detto che se uno usa il mining abbia anche un lavoro onesto e dignitoso :)

Poi posso capire lo stress di pagare di più le schede grafiche.

Ubro92
12-09-2018, 17:40
Con questa serie si parte già in cut purtroppo:p
Cmq grossi cut da fare GPU inferiori è impossibile a sto giro. Anche una 2070ti, mi pare di difficile realizzo.
Rimane misteriosa la TU06, in quanto decisamente troppo grossa per avere 445mmq, a conti fatti, questo mi fa pensare, ad un qualcosa di laserato (nvlink).

Ma una 2070ti vorrebbe dire 2080 fallate, e per com'è strutturata internamente, qualunque cut ulteriore toccherebbe davvero il fondo...

Semmai sarebbe ipotizzabile una 2060ti in futuro, con 2048cc ma senza supporto alla RT...

Comunque i 445mq sono dati dal collegamento a 256bit, se nvidia avesse mantenuto un bus a 192bit le dimensioni sarebbero state di circa 380mmq quindi non lontanissime da quelle di una 1080, ma francamente meglio questo approccio, avere un BW maggiore lo preferisco di netto senza contare il taglio di memoria che sarebbe declassato a 6GB...

L'apice dello schifo l'hanno toccato con la 2080, con 6 raster attivi, elabori solo 60 rop's 832 rop's inesistenti per via dei collegamenti cancellati, ed un raster visto un TPC laserato cala da 16 a 12:)

Infatti è la 2080 la vera incognita, mi chiedo le ragioni tecniche di questa scelta... Gli ingegneri non sono stupidi se hanno usato questo approccio qualche vantaggio deve portarlo forse per massimizzare le rese :confused:

Ma a questo giro direi che l'ideale è puntare a 2070 o 2080ti, la 2080 sembra prendere il peggio delle due soluzioni, almeno apparentemente, ed è meglio attendere qualche review dettagliata con prove sul campo...

Il nabbo di turno
12-09-2018, 18:12
64 rop's, però solo 48 utilizzabili, i raster sono 3 x16.
16 rop's sono per collegamento.

L'apice dello schifo l'hanno toccato con la 2080, con 6 raster attivi, elabori solo 60 rop's 832 rop's inesistenti per via dei collegamenti cancellati, ed un raster visto un TPC laserato cala da 16 a 12:)

Immaginavo che avessero tagliato anche li, pace, alle fine è veramente un mezzo gt102 in tutto e per tutto.

thunderforce83
12-09-2018, 18:45
Potenza bruta probabile, -10%, la differenza la faranno i vari giochi.
Alcuni potrebbero andare di pari passi, altri no.:)



Si sono scenari che possono realizzarsi tranquillamente, il problema potrebbe verificarsi dai clock impostati.
La 2080ti ha lo stesso ratio che scorre tra 1080 e 1080ti, quindi lo scaling potrebbe essere simile, dove in certi frangenti ti ritrovi +30/35%, ma in OC e pari clock, un altro 6/8% potresti tiralo fuori.
Bisogna vedere quanto spingono e in che condizioni le 2080ti.:)

I cuda sono molto più efficienti, ma rispetto a tutte le generazioni, ora hai due colli di bottigllia che non scalano, come Geometria e rop's, è probabile quindi che alcuni giochi non diano il massimo, come te lo può dare un wolfenstein, Sniper, dove si fa pesante uso di shader



No, vai a diminuire solo la dimensione degli SMM, tutto il resto è uguale.
Se un SMM con RT ti pesa 10/12mmq, uno spoglio te ne peserà 8, tutto qua.




Con questa serie si parte già in cut purtroppo:p
Cmq grossi cut da fare GPU inferiori è impossibile a sto giro. Anche una 2070ti, mi pare di difficile realizzo.
Rimane misteriosa la TU06, in quanto decisamente troppo grossa per avere 445mmq, a conti fatti, questo mi fa pensare, ad un qualcosa di laserato (nvlink).



Il problema sono proprio i monitor, se hai TN/MVA/VA, consiglio proprio di non montarla una nVidia, a meno che non ti regoli con i contrasti.
Ho da poco preso un 4k MVA e l'ho paragonato ad un AH IPS bypassato che utilizzavo ultimamente, la differenza purtroppo sta nel pannello, uno è brillante e lucente, l'altro spento. Unica soluzione è sparare il contrasto, AMD rende molto meglio anche su pannelli scadenti.
Su AH IPS, addirittura vedevo più brillante nVidia rispetto le AMD.
Su TN nvidia è meglio evitarla



64 rop's, però solo 48 utilizzabili, i raster sono 3 x16.
16 rop's sono per collegamento.

L'apice dello schifo l'hanno toccato con la 2080, con 6 raster attivi, elabori solo 60 rop's 832 rop's inesistenti per via dei collegamenti cancellati, ed un raster visto un TPC laserato cala da 16 a 12:)

grazie per snocciolare il cuore delle prossime gpu e orientarci sui prossimi acquisti da fare :)
alla fine credo veramente che nvidia sia messa male con il nodo 12nm e nell attesa dei 7nm il meglio che hanno potuto fare gli ingegneri sia questo...alla fine conviene vedere se questo nuovo nvlink sia piu' efficace e magari se c'e' convenienza nel prendere due 2070 e farle lavorare insieme oppure se conviene andare di 2080ti e stop...questi 200dolla per la 2080 se storpiata a questi livelli forse veramente non vale la pena spendere...iniziamo a farci dei calcoli e aspettiamo le future recensioni che ormai usciranno tra una settimana spero:)

edit_user_name_here
12-09-2018, 18:51
grazie per snocciolare il cuore delle prossime gpu e orientarci sui prossimi acquisti da fare :)
alla fine credo veramente che nvidia sia messa male con il nodo 12nm e nell attesa dei 7nm il meglio che hanno potuto fare gli ingegneri sia questo...alla fine conviene vedere se questo nuovo nvlink sia piu' efficace e magari se c'e' convenienza nel prendere due 2070 e farle lavorare insieme oppure se conviene andare di 2080ti e stop...questi 200dolla per la 2080 se storpiata a questi livelli forse veramente non vale la pena spendere...iniziamo a farci dei calcoli e aspettiamo le future recensioni che ormai usciranno tra una settimana spero:)

Che io sappia due 2070 non funziona in nvlink.Mi spiace rovinarti il sogno :D

wulff73
12-09-2018, 18:53
magari se c'e' convenienza nel prendere due 2070 e farle lavorare insieme oppure se conviene andare di 2080ti e stop

Se non ricordo male farai fatica a far lavorare insieme due 2070...lo SLI Nvidia l'ha reso possibile solo dalla 2080 in su.

thunderforce83
12-09-2018, 18:54
Che io sappia due 2070 non funziona in nvlink.Mi spiace rovinarti il sogno :D

i miei sogni sono altri:D
vediamo se conviene mettere due 2080 storpiate e se si guadagna qualcosa in termine di prestazioni rispetto alla singola 2080ti allora:)

amon.akira
12-09-2018, 19:12
Che io sappia due 2070 non funziona in nvlink.Mi spiace rovinarti il sogno :D

Se non ricordo male farai fatica a far lavorare insieme due 2070...lo SLI Nvidia l'ha reso possibile solo dalla 2080 in su.

ricordate bene, nvlink solo su 2080 e 2080ti :)

però se dovesse lavorare bene potrebbe convenire una coppia di 2080, sopratutto in RT

thunderforce83
12-09-2018, 19:22
ricordate bene, nvlink solo su 2080 e 2080ti :)

però se dovesse lavorare bene potrebbe convenire una coppia di 2080, sopratutto in RT

Vedremo amico mio:)

edit_user_name_here
12-09-2018, 19:35
Beh si due 2080 non so come andranno ma io stavolta non rischio perchè non so se funzionerà il gsync e poi vorrei consumare di meno stavolta.

Se nel caso non basta in rt diminuisco qualche dettaglio ed aspetto la nuove :)

TigerTank
12-09-2018, 20:08
Mi pare di capire che la 2070 sia la più sensata, secondo voi può raggiungere le prestazioni di una 1080Ti?

Lo vedremo con le recensioni, è una cosa che interessa anche a me :)

ricordate bene, nvlink solo su 2080 e 2080ti :)

però se dovesse lavorare bene potrebbe convenire una coppia di 2080, sopratutto in RT

Già, davvero molto conveniente come situazione. 1800€ di schede(senza contare il liquido se sono dei forni) + altre 85€ per il ponticello...per un RT "beta" che da quanto trapelato finora inizialmente sarà un mattonazzo da paura.
Secondo me tanto vale "fregarsene" dell'RT fino alle 3000, e pigliarne una sola di queste nuove. :D
Già costano un botto, comprarne 2 per l'RT...secondo me sarebbe un errore madornale. Poi ci credo che Nvidia continua a pompare i prezzi :sofico:

Thunder-74
12-09-2018, 20:39
nVIDIA DLSS offre un enorme aumento delle prestazioni a 4K in Dauntless

https://cdn.wccftech.com/wp-content/uploads/2018/09/dauntless_big_owl-1030x579.jpg

....
Puoi spiegare la tua implementazione di NVIDIA DLSS in Dauntless? È stato facile farlo funzionare?

Facile potrebbe non essere la parola giusta, ma facile non è la cosa più importante per noi. Farlo nel modo giusto e ad alta qualità. Con questo in mente, nVidia è stata un ottimo partner con cui lavorare. I nostri due team di ingegneri hanno collaborato per massimizzare realmente la tecnologia e l'opportunità.

Migliora la qualità dell'immagine rispetto al TAA? Che tipo di miglioramento delle prestazioni hai visto dopo averlo abilitato?

Abbiamo visto un enorme aumento delle prestazioni sui display 4K. Ci stiamo ancora lavorando e scoprendo gli aumenti delle prestazioni, ma i test iniziali sono stati molto promettenti.



LINK (https://wccftech.com/nvidia-dlss-huge-boost-4k-dauntless/)

Arrow0309
12-09-2018, 20:57
Beh si due 2080 non so come andranno ma io stavolta non rischio perchè non so se funzionerà il gsync e poi vorrei consumare di meno stavolta.

Se nel caso non basta in rt diminuisco qualche dettaglio ed aspetto la nuove :)

Quoto e faro' lo stesso.
Senza gsync non posso più guardare a niente, manco sulla TV 4K Qled :D

edit_user_name_here
12-09-2018, 21:01
Quoto e faro' lo stesso.
Senza gsync non posso più guardare a niente, manco sulla TV 4K Qled :D

Dillo a me che sono andato avanti senza v sync 2 anni per non avere il lag :D

TigerTank
12-09-2018, 21:05
@Thunder: In 4K? Mah....secondo me questo filtro come resa-prestazioni avrebbe più senso su 1440p o su fullHD...
Su 4K...magari pure da 28", non credo serva qualcosa che vada oltre una semplice spolveratina di smaa, o sbaglio? :D
Comunque ben venga un nuovo filtro da provare, speriamo non blurri troppo.

edit_user_name_here
12-09-2018, 21:08
@Thunder: In 4K? Mah....secondo me questo filtro come resa-prestazioni avrebbe più senso su 1440p o su fullHD...
Su 4K...magari pure da 28", non credo serva qualcosa che vada oltre una semplice spolveratina di smaa, o sbaglio? :D
Comunque ben venga un nuovo filtro da provare, speriamo non blurri troppo.

Questo filtro mi pare che ci sia già in gta e rainbowsix siege e ghost recon wildlands se non sbaglio.Aspetta vi dico come si chiama cosi mi dice se è quello :)


Edit: Render scaling?Se è cosi ci stanno già forse verrà sfruttato quello che sarebbe un aumento di risoluzione senza cambiare risoluzione da come lo capisco io.

sertopica
12-09-2018, 21:15
Questo filtro mi pare che ci sia già in gta e rainbowsix siege e ghost recon wildlands se non sbaglio.Aspetta vi dico come si chiama cosi mi dice se è quello :)


Edit: Render scaling?Se è cosi ci stanno già forse verrà sfruttato quello che sarebbe un aumento di risoluzione senza cambiare risoluzione da come lo capisco io.

Quello e' tutt'altra cosa, il render scaling e' una specie di supersampling che ti permette di renderizzare l'immagine ad una risoluzione superiore a quella del tuo monitor.

Thunder-74
12-09-2018, 21:16
@Thunder: In 4K? Mah....secondo me questo filtro come resa-prestazioni avrebbe più senso su 1440p o su fullHD...
Su 4K...magari pure da 28", non credo serva qualcosa che vada oltre una semplice spolveratina di smaa, o sbaglio? :D
Comunque ben venga un nuovo filtro da provare, speriamo non blurri troppo.

E' il titolo dell'articolo, non è farina del mio sacco :fagiano:

Boh, mi sembra tutto "sciapo" .... (momento pessimistico...)

appleroof
12-09-2018, 21:22
nVIDIA DLSS offre un enorme aumento delle prestazioni a 4K in Dauntless


....
Puoi spiegare la tua implementazione di NVIDIA DLSS in Dauntless? È stato facile farlo funzionare?

Facile potrebbe non essere la parola giusta, ma facile non è la cosa più importante per noi. Farlo nel modo giusto e ad alta qualità. Con questo in mente, nVidia è stata un ottimo partner con cui lavorare. I nostri due team di ingegneri hanno collaborato per massimizzare realmente la tecnologia e l'opportunità.

Migliora la qualità dell'immagine rispetto al TAA? Che tipo di miglioramento delle prestazioni hai visto dopo averlo abilitato?

Abbiamo visto un enorme aumento delle prestazioni sui display 4K. Ci stiamo ancora lavorando e scoprendo gli aumenti delle prestazioni, ma i test iniziali sono stati molto promettenti.



LINK (https://wccftech.com/nvidia-dlss-huge-boost-4k-dauntless/)

Se ho capito bene, si tratta di un nuovo AA che lavora tramite i TC, quindi con unità dedicate, quindi in teoria dovrebbe essere molto molto performante (rispetto ad altri aa) . Se così fosse, speriamo sia anche efficace nella resa estetica e si diffonda in molti giochi

amon.akira
12-09-2018, 21:53
Lo vedremo con le recensioni, è una cosa che interessa anche a me :)



Già, davvero molto conveniente come situazione. 1800€ di schede(senza contare il liquido se sono dei forni) + altre 85€ per il ponticello...per un RT "beta" che da quanto trapelato finora inizialmente sarà un mattonazzo da paura.
Secondo me tanto vale "fregarsene" dell'RT fino alle 3000, e pigliarne una sola di queste nuove. :D
Già costano un botto, comprarne 2 per l'RT...secondo me sarebbe un errore madornale. Poi ci credo che Nvidia continua a pompare i prezzi :sofico:

se sono forni a 210watt non oso immaginare quelle a 250watt lol

il liquido te lo puoi anche risparmiare, vedi sopra.

il prezzo conveniente è riferito a chi spende già tanto per la 2080ti, ovvio che se sei fuori budget qualsiasi prestazione in piu ti risulta sconveniente.

RT beta sembra quasi sia buggata e malfunzionante, invece è piu dettata dal prezzo che dall applicazione sul campo, non vedo errori in ciò che hanno mostrato (metro,atomic heart,assetto corsa,tomb raider...), stanno tunizzando le performance. Non facciamo dell RT l uva della situazione, se per un motivo o per un altro non ci possiamo arrivare.

tu ci arriverai con la serie 3000, chi invece sta nel budget dei 300euro ti dirà che anche la serie 3000 è beta e aspetta la 4000...tutto relativo :)

Thunder-74
12-09-2018, 22:06
Se ho capito bene, si tratta di un nuovo AA che lavora tramite i TC, quindi con unità dedicate, quindi in teoria dovrebbe essere molto molto performante (rispetto ad altri aa) . Se così fosse, speriamo sia anche efficace nella resa estetica e si diffonda in molti giochi

si, solamente che per "istruire" i TC , non è possibile da parte della Software House implementare in autonomia tale feature nel gioco, ma deve fornire ogni volta il gioco in fase di sviluppo a nVidia, che con il loro super computer DGX SATURNV, lo "patcha" ad hoc.

edit_user_name_here
12-09-2018, 22:28
Quello e' tutt'altra cosa, il render scaling e' una specie di supersampling che ti permette di renderizzare l'immagine ad una risoluzione superiore a quella del tuo monitor.

Io avevo capito che proprio quello fa la scheda dunque ho capito male io?

thunderforce83
12-09-2018, 22:37
se sono forni a 210watt non oso immaginare quelle a 250watt lol

il liquido te lo puoi anche risparmiare, vedi sopra.

il prezzo conveniente è riferito a chi spende già tanto per la 2080ti, ovvio che se sei fuori budget qualsiasi prestazione in piu ti risulta sconveniente.

RT beta sembra quasi sia buggata e malfunzionante, invece è piu dettata dal prezzo che dall applicazione sul campo, non vedo errori in ciò che hanno mostrato (metro,atomic heart,assetto corsa,tomb raider...), stanno tunizzando le performance. Non facciamo dell RT l uva della situazione, se per un motivo o per un altro non ci possiamo arrivare.

tu ci arriverai con la serie 3000, chi invece sta nel budget dei 300euro ti dirà che anche la serie 3000 è beta e aspetta la 4000...tutto relativo :)

infatti le 2080 ad aria si potranno tenere a patto di avere una bella bestia di dissipatore da 3 slot...le 2080ti o le liquidi o la vedo durissima...a meno che qualche casa produttrice cacci qualcosa di veramente raffinato e mastodontico ad aria...ma siamo veramente al limite delle possibilita' del raffreddamento convenzionale ad aria a 260watt...

mikael84
12-09-2018, 23:32
Ma una 2070ti vorrebbe dire 2080 fallate, e per com'è strutturata internamente, qualunque cut ulteriore toccherebbe davvero il fondo...

Semmai sarebbe ipotizzabile una 2060ti in futuro, con 2048cc ma senza supporto alla RT...

Comunque i 445mq sono dati dal collegamento a 256bit, se nvidia avesse mantenuto un bus a 192bit le dimensioni sarebbero state di circa 380mmq quindi non lontanissime da quelle di una 1080, ma francamente meglio questo approccio, avere un BW maggiore lo preferisco di netto senza contare il taglio di memoria che sarebbe declassato a 6GB...



Infatti è la 2080 la vera incognita, mi chiedo le ragioni tecniche di questa scelta... Gli ingegneri non sono stupidi se hanno usato questo approccio qualche vantaggio deve portarlo forse per massimizzare le rese :confused:

Ma a questo giro direi che l'ideale è puntare a 2070 o 2080ti, la 2080 sembra prendere il peggio delle due soluzioni, almeno apparentemente, ed è meglio attendere qualche review dettagliata con prove sul campo...

No, a sto giro, il TU06 è troppo gigante.
43mmq collegano un canale aggiuntivo con Pascal, con Turing cambiano 512kb per GPC a livello di l2, quindi possiamo pensare a 50 o qualcosa in più via collegamento.
GT102, diviso per 6 fa 125 mmq per GPC, di conseguenza paghi un canale circa 70mmq2, impensabile.
Ora veniamo al punto, GT102 ha anche la parte Nvlink che occupa die, supponiamo un misero 30mmq, passeremmo a 120mmq per GPC, 85mmq2 di collegamento.
I conti non tornano, è come se TU06 avesse di base nvlink, per poi tagliarla al seguito.:fagiano:
Teoricamente dovrebbe essere un chip da 410mmq max, non 450:)

-----
Riguardo GT104 non c'è alcun vantaggio, perdi in latenze, le RT valgono a livello di SMS, però ora si spiegano i consumi, T104 è alla fine un x02 tagliuzzato.
Se nVidia calibrava il GPC da 41 a 45 watt, ora la musica non cambia, perchè a livello di GPC è scesa a 35 watt + PL
Ora si capisce la scelta del chip 1x8/1x6 (sono 6 GPC anche se tagliuzzati)



Immaginavo che avessero tagliato anche li, pace, alle fine è veramente un mezzo gt102 in tutto e per tutto.

Non proprio, mantiene un canale aggiuntivo, che misteriosamente costa un botto. Con 30mmq minimo, facevi una 4 GPC con 3072cc:)

grazie per snocciolare il cuore delle prossime gpu e orientarci sui prossimi acquisti da fare :)
alla fine credo veramente che nvidia sia messa male con il nodo 12nm e nell attesa dei 7nm il meglio che hanno potuto fare gli ingegneri sia questo...alla fine conviene vedere se questo nuovo nvlink sia piu' efficace e magari se c'e' convenienza nel prendere due 2070 e farle lavorare insieme oppure se conviene andare di 2080ti e stop...questi 200dolla per la 2080 se storpiata a questi livelli forse veramente non vale la pena spendere...iniziamo a farci dei calcoli e aspettiamo le future recensioni che ormai usciranno tra una settimana spero:)

La 2080 è un vero e proprio scempio a livello ingegneristico, mai visto nVidia cadere così in basso. Certo le prestazioni le offre ed ok, ci sta, non che la scheda sia male in prestazioni.
Rendiamoci conto che la 2080 ha due raster bloccati e 32 rop's fisiche non sfruttate, perde in latenze, uscita poligonale sicuramente scadente, e gigathread che deve fare i miracoli nelle varie pipeline.
Un chip così necessità di molto clock, altrimenti è più probabile che vari thread restano in idle.:)

appleroof
13-09-2018, 05:35
si, solamente che per "istruire" i TC , non è possibile da parte della Software House implementare in autonomia tale feature nel gioco, ma deve fornire ogni volta il gioco in fase di sviluppo a nVidia, che con il loro super computer DGX SATURNV, lo "patcha" ad hoc.

Allora la vedo più dura si possa diffondere massicciamente...

Arrow0309
13-09-2018, 06:36
No, a sto giro, il TU06 è troppo gigante.
43mmq collegano un canale aggiuntivo con Pascal, con Turing cambiano 512kb per GPC a livello di l2, quindi possiamo pensare a 50 o qualcosa in più via collegamento.
GT102, diviso per 6 fa 125 mmq per GPC, di conseguenza paghi un canale circa 70mmq2, impensabile.
Ora veniamo al punto, GT102 ha anche la parte Nvlink che occupa die, supponiamo un misero 30mmq, passeremmo a 120mmq per GPC, 85mmq2 di collegamento.
I conti non tornano, è come se TU06 avesse di base nvlink, per poi tagliarla al seguito.:fagiano:
Teoricamente dovrebbe essere un chip da 410mmq max, non 450:)

-----
Riguardo GT104 non c'è alcun vantaggio, perdi in latenze, le RT valgono a livello di SMS, però ora si spiegano i consumi, T104 è alla fine un x02 tagliuzzato.
Se nVidia calibrava il GPC da 41 a 45 watt, ora la musica non cambia, perchè a livello di GPC è scesa a 35 watt + PL
Ora si capisce la scelta del chip 1x8/1x6 (sono 6 GPC anche se tagliuzzati)





Non proprio, mantiene un canale aggiuntivo, che misteriosamente costa un botto. Con 30mmq minimo, facevi una 4 GPC con 3072cc:)



La 2080 è un vero e proprio scempio a livello ingegneristico, mai visto nVidia cadere così in basso. Certo le prestazioni le offre ed ok, ci sta, non che la scheda sia male in prestazioni.
Rendiamoci conto che la 2080 ha due raster bloccati e 32 rop's fisiche non sfruttate, perde in latenze, uscita poligonale sicuramente scadente, e gigathread che deve fare i miracoli nelle varie pipeline.
Un chip così necessità di molto clock, altrimenti è più probabile che vari thread restano in idle.:)

Quindi la scelta e' una sola, dai, la 2080 ti.
Asportiamo pure il secondo rene e via :O

Giovamas
13-09-2018, 06:43
Quindi la scelta e' una sola, dai, la 2080 ti.
:O

mi sa di si. dopo avere letto i giudizi di Mike di ieri mi sa proprio di si. con la nostra cpu farebbe scintille. mi preoccupa la dissipazione io non liquido. comunque ho annullato ieri sera tardi il pre ordine della 2080 e pre ordinato la ti in attesa dei bench e delle opinioni qua sul thread. ho venduto bene la mia ed il 6700k che avevo ammortizzando la spesa comunque folle.

DarkNiko
13-09-2018, 08:04
Chiedo umilmente scusa per il mio precedente sfogo riguardo al mining.

Buona giornata a tutti. :)

sertopica
13-09-2018, 08:16
Io avevo capito che proprio quello fa la scheda dunque ho capito male io?
Questo e' un AA "intelligente" nel senso che il codice del gioco viene spedito a nvidia, dato in pasto alla IA che analizzera' la scena e passera' il filtro solo dove necessario risparmiando moltissime risorse. Si tratta si' di un supersampling, ma al contrario di quello tradizionale e' selettivo e non applicato all'intera scena a schermo, proprio grazie ai tensor cores che imparano, grazie ad un database di immagini interno, quali seghettature smussare. Questo e' quello che ho capito io perlomeno.

sertopica
13-09-2018, 08:41
Come detto sopra è un upscaler quindi si applica a tutta la scena a schermo.
La IA però interpreta le immagini e cerca di migliorarle in modo attivo.
Capito, grazie per aver chiarificato. In attesa di informazioni piu' dettagliate... :D

Ubro92
13-09-2018, 08:42
No, a sto giro, il TU06 è troppo gigante.
43mmq collegano un canale aggiuntivo con Pascal, con Turing cambiano 512kb per GPC a livello di l2, quindi possiamo pensare a 50 o qualcosa in più via collegamento.
GT102, diviso per 6 fa 125 mmq per GPC, di conseguenza paghi un canale circa 70mmq2, impensabile.
Ora veniamo al punto, GT102 ha anche la parte Nvlink che occupa die, supponiamo un misero 30mmq, passeremmo a 120mmq per GPC, 85mmq2 di collegamento.
I conti non tornano, è come se TU06 avesse di base nvlink, per poi tagliarla al seguito.:fagiano:
Teoricamente dovrebbe essere un chip da 410mmq max, non 450:)

Secondo me i conti non tornano perchè non si conosce nei dettagli l'architettura turing e lo spazio occupato dai tensor core, per questo probabilmente l'area di TU106 è maggiore, poi non si esclude che probabilmente il collegamento nvlink sia presente ma semplicemente non sia abilitato per questioni marketing (non sarebbe neanche strano)...

Riguardo GT104 non c'è alcun vantaggio, perdi in latenze, le RT valgono a livello di SMS, però ora si spiegano i consumi, T104 è alla fine un x02 tagliuzzato.
Se nVidia calibrava il GPC da 41 a 45 watt, ora la musica non cambia, perchè a livello di GPC è scesa a 35 watt + PL
Ora si capisce la scelta del chip 1x8/1x6 (sono 6 GPC anche se tagliuzzati)

Non proprio, mantiene un canale aggiuntivo, che misteriosamente costa un botto. Con 30mmq minimo, facevi una 4 GPC con 3072cc:)


La 2080 è un vero e proprio scempio a livello ingegneristico, mai visto nVidia cadere così in basso. Certo le prestazioni le offre ed ok, ci sta, non che la scheda sia male in prestazioni.
Rendiamoci conto che la 2080 ha due raster bloccati e 32 rop's fisiche non sfruttate, perde in latenze, uscita poligonale sicuramente scadente, e gigathread che deve fare i miracoli nelle varie pipeline.
Un chip così necessità di molto clock, altrimenti è più probabile che vari thread restano in idle.:)

la 2080 io non riesco a catalogarla, penso che in termini di latenze sia ai livelli di una 980ti, solo che mantenere un bus a 256bit con 6gpc praticamente hanno stravolto anche i rapporti e non so quanto questa cosa inciderà...

Se avessero mantenuto almeno un bus a 384bit sarebbe stata più interessante sopratutto con 3072 unità abilitate.

Io penso che a questo giro i rapporti dei consumi siano ben diversi da Maxwell/Pascal, probabilmente ogni gpc arriva a consumare 55-60w (considerando anche i tensor core), il che significa che una 2070 con 3 gpc arriva a circa 165-180w paralleli a una 1080, ma fare un analogo 4GPC avrebbe portato i consumi a quasi 220-240w, probabilmente uno schema a 6GPC con 4tpc ognuno abbassa i consumi per ogni GPC a circa 35w e quindi portando la gpu a circa 210w in più disabilitando un tpc, si guadagnano ulteriori 7-9w restando vicini ai 200w (un approccio che sacrifica le latenze per migliorare prestazioni e consumi)...

Seguendo questo ragionamento la 2080ti sarà una scheda che di base avrà un clock in turbo decisamente strozzato e in OC arriverà in scioltezza a 320-350w, e per oc più spinti penso superi il muro dei 400w, non dissimile da GK110/GM200 che erano chipponi ai limiti dei 28nm, e qui oltre al chippone abbiamo anche i tensor core da far rientrare nei 12nm.

Tody
13-09-2018, 08:59
adesso non è per fare il puntiglioso ma questa scheda aggiunge due tipi di TC, uno per il Ray Tracing in tempo reale che si potrà usare solp in FullHD e l'altro per per il DLSS che migliora le prestazioni in 4k.
In pratica a seconda del monitor che si ha una tipologia di TC non viene sfruttata? :mbe:

AceGranger
13-09-2018, 09:01
No, shadow of the tomb raider sfrutta DLSS, inoltre ci sono giochi già esistenti tipo FFXV o pubg che lo supportano

Broad Game Adoption of DLSS
Games that will use DLSS include the following, with more to come:

Ark: Survival Evolved from Studio Wildcard
Atomic Heart from Mundfish
Dauntless from Phoenix Labs
Final Fantasy XV from Square Enix
Fractured Lands from Unbroken Studios
Hitman 2 from IO Interactive/Warner Bros.
Islands of Nyne from Define Human Studios
Justice from NetEase
JX3 from Kingsoft
Mechwarrior 5: Mercenaries from Piranha Games
PlayerUnknown’s Battlegrounds from PUBG Corp.
Remnant: From the Ashes from Arc Games
Serious Sam 4: Planet Badass from Croteam/Devolver Digital
Shadow of the Tomb Raider from Square Enix/Eidos-Montréal/Crystal Dynamics/Nixxes
The Forge Arena from Freezing Raccoon Studios
We Happy Few from Compulsion Games / Gearbox


serviranno delle patch, sono gia uscite ?


adesso non è per fare il puntiglioso ma questa scheda aggiunge due tipi di TC, uno per il Ray Tracing in tempo reale che si potrà usare solp in FullHD e l'altro per per il DLSS che migliora le prestazioni in 4k.
In pratica a seconda del monitor che si ha una tipologia di TC non viene sfruttata? :mbe:


i tensor servono per svariate cose compreso il DLSS, gli RT core per il raytracing e il tracciamento sonoro; si puo anche usare RT e DLSS insieme.

Tody
13-09-2018, 09:17
i tensor servono per svariate cose compreso il DLSS, gli RT core per il raytracing e il tracciamento sonoro; si puo anche usare RT e DLSS insieme.

Il Ray Tracing usa gli RT core per il RT e i TC per il denoise, quindi in quel caso li sfrutti entrambi.
P.S: alcuni giochi avranno sia il RT che il DLSS, non so però se possono essere usati contemporaneamente e sopratutto con che risultati.

Ok, Questo l'ho capito!
però sembra non avere senso usare il Ray Tracing in 4k per il crollo delle prestazioni mentre ha senso usare il DLSS in fullHD ?
considerando che la peggior scheda con i TC è potente quasi come una 1080TI...

mi ero perso quello del sonoro, potrebbe essere interessante :)

TigerTank
13-09-2018, 10:35
Quel filtro ha proprio senso in 4K perchè renderizzando a risoluzione più bassa e upscalando ha un bel boost rispetto al 4K non DLSS.

Vedremo un pò, dai. Tanto al di là dell'hype iniziale(come lo fu per il DSR) i giochi non mentiranno nel dimostrare la reale resa ed efficacia.
Pure il dsr sembrava qualcosa di miracoloso ma in realtà poi spesso non ci si avvicinava minimamente al 4K nativo e pure io spesso e volentieri l'ho lasciato perdere perchè mi dava come la sensazione che rendesse il tutto pure più "laggoso".

se sono forni a 210watt non oso immaginare quelle a 250watt lol

il liquido te lo puoi anche risparmiare, vedi sopra.

il prezzo conveniente è riferito a chi spende già tanto per la 2080ti, ovvio che se sei fuori budget qualsiasi prestazione in piu ti risulta sconveniente.

RT beta sembra quasi sia buggata e malfunzionante, invece è piu dettata dal prezzo che dall applicazione sul campo, non vedo errori in ciò che hanno mostrato (metro,atomic heart,assetto corsa,tomb raider...), stanno tunizzando le performance. Non facciamo dell RT l uva della situazione, se per un motivo o per un altro non ci possiamo arrivare.

tu ci arriverai con la serie 3000, chi invece sta nel budget dei 300euro ti dirà che anche la serie 3000 è beta e aspetta la 4000...tutto relativo :)

Ma che uva o budget...secondo me c'è gente che si sta lasciando già un pò troppo accecare da sto RT dopo aver visto giusto qualche demo in croce. Poi non stupiamoci se Nvidia alza sempre più i prezzi se c'è gente già disposta a piazzare nel case 2 schede del genere:


La 2080 è un vero e proprio scempio a livello ingegneristico, mai visto nVidia cadere così in basso. Certo le prestazioni le offre ed ok, ci sta, non che la scheda sia male in prestazioni.
Rendiamoci conto che la 2080 ha due raster bloccati e 32 rop's fisiche non sfruttate, perde in latenze, uscita poligonale sicuramente scadente, e gigathread che deve fare i miracoli nelle varie pipeline.
Un chip così necessità di molto clock, altrimenti è più probabile che vari thread restano in idle.:)

per un uva di cui non sa ancora nulla circa il sapore. :D
A qusto punto cento volte meglio una 2080TI che arrivare a quasi 2000€ per 2 2080 di cui quella sopra sicuramente scalderà un botto ad aria. Non credo sia solo per sport che a questo giro sfornino delle triple slot. Vedremo che diranno i test pratici reali ;)

Allora la vedo più dura si possa diffondere massicciamente...
Purtroppo è il solito classico delle tecnologie proprietarie di Nvidia e relative restrizioni. Magari alla fine verrà fuori che nel complesso il meglio resta sempre risoluzione nativa su schermo con una buona densità di pixel + spolveratina di smaa da reshade. O restare ad oltranza su 1440p rinviando i 4K per gaming più in là.
Spero di sbagliarmi, purtroppo le tecniche AA nvidia(mfaa, txaa,dsr) finora non è che mi abbiano sempre entusiasmato. Troppo blurrose e a volte laggose.
Vedremo come sarà il futuro ATAA.

AceGranger
13-09-2018, 10:45
Ok, Questo l'ho capito!
però sembra non avere senso usare il Ray Tracing in 4k per il crollo delle prestazioni mentre ha senso usare il DLSS in fullHD ?
considerando che la peggior scheda con i TC è potente quasi come una 1080TI...

mi ero perso quello del sonoro, potrebbe essere interessante :)

l'RT in 4K ti serviranno 2 GPU come al tempo all'uscita del 4K o del 1440p dove ti servivano 2 GPU top gamma per usarli.


secondo me, ottimizzando a dovere la 2080Ti riuscira a gestire il 1440p in RT; i primi giochi che usciranno in RT non so se saranno molto ottimizzati, perchè il loro sviluppo è partito almeno un anno fa e cambiare le cose in corsa non è mai come partire gia sapendo quello che si deve fare.

edit_user_name_here
13-09-2018, 10:48
Capito, grazie per aver chiarificato. In attesa di informazioni piu' dettagliate... :D

Infatti anche io le aspetto però, se è come dico io, sarebbe interessante :)


CUT



Ma che uva o budget...secondo me c'è gente che si sta lasciando già un pò troppo accecare da sto RT dopo aver visto giusto qualche demo in croce. Poi non stupiamoci se Nvidia alza sempre più i prezzi se c'è gente già disposta a piazzare nel case 2 schede del genere:



CUT

Infatti non mi stupisco.L'importante che la gente sia contenta del prodotto il resto lo lascio a chi mugugna :D

TigerTank
13-09-2018, 11:00
Infatti non mi stupisco.L'importante che la gente sia contenta del prodotto il resto lo lascio a chi mugugna :D

Tranquillo, che più che mugugnare....rido :D
Già capitato spesso in passato di vedere persone partire in slancio con 2 x80 per poi pentirsi in un secondo tempo, lamentarsi e ritornare alla scheda singola :asd:
Perlomeno lì c'era la scusante che la Ti usciva quasi un anno dopo.

Ubro92
13-09-2018, 11:07
Ma che uva o budget...secondo me c'è gente che si sta lasciando già un pò troppo accecare da sto RT dopo aver visto giusto qualche demo in croce. Poi non stupiamoci se Nvidia alza sempre più i prezzi se c'è gente già disposta a piazzare nel case 2 schede del genere:

Sono dell'idea che è ancora tutto in fase embrionale, anche se ci sono giochi che sfruttano il RT parliamo di sviluppi iniziali non credo che i titoli che usciranno siano cosi ottimizzati penso che ci vorranno diverse patch e bug fix prima di un esperienza di gioco buona.

Stesso discorso per i driver, da quando in qua i driver del day one sono anche solo decenti?

Per me, per avere un idea oggettiva dei chip bisogna attendere almeno periodo natalizio dove a livello software ci sarà una buona maturità.

Per ora le review sono interessanti per capire lo scaling della gpu e le differenze dalla precedente gen, oltre al discorso consumi/temperature e clock massimi raggiungibili...

Ma non è che siano chip disastrosi, se si pensa di aggiornare da 1080ti a 2080ti non credo minimamente si rimarrà delusi anzi...

Il discorso semmai lo limiterei a chi vuole passare da 1080ti a 2080 dove effettivamente i vantaggi non credo siano così marcati in relazione alla spesa...

La RT in questa gen la vedo molto come trampolino di lancio, in modo che nelle prossime gen a 7nm si abbia già un'ottima base di sviluppo sia HW che SW.

edit_user_name_here
13-09-2018, 11:10
Tranquillo, che più che mugugnare....rido :D
Già capitato spesso in passato di vedere persone partire in slancio con 2 x80 per poi pentirsi in un secondo tempo, lamntarsi e ritornare alla scheda singola :asd:
Perlomeno lì c'era la scusante che la Ti usciva quasi un anno dopo.

Secondo me uscirà anche qui una scheda con più vram ma non sarà molto più veloce.Dunque non conviene aspettare.Più che altro io l'ho comperata dato che avevo necessità di ritornare ad una scheda e comprare una 1080 ti mi rogna :D dunque preferisco questa anche se pago di più.Poi io preferisco sempre nuovo e non usato.

Insomma questa scheda di sicuro poi ne comprerò un altra quando usciranno le nvidia a 7nm, per quando sarà, e la vecchia la do a mio fratello che sta ancora al full hd che per lui è perfetta :) per il resto mi interessa a me per ora che mi sono stufato di non usare il gsync nel monitor e bassi fps in certe condizioni nonostante lo sli :)


Per il resto ti lascio ridere dai :D permettimi di permetterti :asd:

Ubro92
13-09-2018, 11:15
Secondo me uscirà anche qui una scheda con più vram ma non sarà molto più veloce.Dunque non conviene aspettare.Più che altro io l'ho comperata dato che avevo necessità di ritornare ad una scheda e comprare una 1080 ti mi rogna :D dunque preferisco questa anche se pago di più.Poi io preferisco sempre nuovo e non usato.

Insomma questa scheda di sicuro poi ne comprerò un altra quando usciranno le nvidia a 7nm, per quando sarà, e la vecchia la do a mio fratello che sta ancora al full hd che per lui è perfetta :) per il resto mi interessa a me per ora che mi sono stufato di non usare il gsync nel monitor e bassi fps in certe condizioni nonostante lo sli :)


Per il resto ti lascio ridere dai :D permettimi di permetterti :asd:

C'è sempre la Titan che potrebbe adoperare i nuovi moduli con maggiore densità e velocità quindi 24GB GDDR6 16gb/s e con bus a 384bit (768 gb/s)...
Ma non credo che te la regalino :sofico:

edit_user_name_here
13-09-2018, 11:20
C'è sempre la Titan che potrebbe adoperare i nuovi moduli con maggiore densità e velocità quindi 24GB GDDR6 16gb/s e con bus a 384bit (768 gb/s)...
Ma non credo che te la regalino :sofico:

Ecco appunto mi ero dimenticato anche del prezzo oltre tutto :D già mi immagino, per allora, gente che dirà sul prezzo anche per quella :asd: a me fa un po sorridere sta cosa dei gelosi, hater o altro però dopo un po rompe lol.

Vabbe comunque secondo me faranno una 16 gb perchè una 24 mi pare troppo concorrenziale con la quadro che c'è già :) ma secondo me andrà poco di più e non converrà per il prezzo.Ma tanto questa schede sono temporanee da come la vedo io e tutti la cambieranno con i 7nm penso :)

AceGranger
13-09-2018, 11:22
C'è sempre la Titan che potrebbe adoperare i nuovi moduli con maggiore densità e velocità quindi 24GB GDDR6 16gb/s e con bus a 384bit (768 gb/s)...
Ma non credo che te la regalino :sofico:

alla fine i leak si sono rivelati tutti veri, ( le JPG con le GPU con i codici ) e li la Titan era data per 12 Gb, quindi al 99,99999% ho idea che rimarranno a 12.

24Gb, con nVlink andrebbero ad insidiare le Quadro, nutro poche speranze di vederla con quel quantitativo

TigerTank
13-09-2018, 11:27
Sono dell'idea che è ancora tutto in fase embrionale, anche se ci sono giochi che sfruttano il RT parliamo di sviluppi iniziali non credo che i titoli che usciranno siano cosi ottimizzati penso che ci vorranno diverse patch e bug fix prima di un esperienza di gioco buona.

Stesso discorso per i driver, da quando in qua i driver del day one sono anche solo decenti?

Per me, per avere un idea oggettiva dei chip bisogna attendere almeno periodo natalizio dove a livello software ci sarà una buona maturità.

Per ora le review sono interessanti per capire lo scaling della gpu e le differenze dalla precedente gen, oltre al discorso consumi/temperature e clock massimi raggiungibili...

Ma non è che siano chip disastrosi, se si pensa di aggiornare da 1080ti a 2080ti non credo minimamente si rimarrà delusi anzi...

Il discorso semmai lo limiterei a chi vuole passare da 1080ti a 2080 dove effettivamente i vantaggi non credo siano così marcati in relazione alla spesa...

La RT in questa gen la vedo molto come trampolino di lancio, in modo che nelle prossime gen a 7nm si abbia già un'ottima base di sviluppo sia HW che SW.

Esatto :)

Secondo me uscirà anche qui una scheda con più vram ma non sarà molto più veloce.Dunque non conviene aspettare.Più che altro io l'ho comperata dato che avevo necessità di ritornare ad una scheda e comprare una 1080 ti mi rogna :D dunque preferisco questa anche se pago di più.Poi io preferisco sempre nuovo e non usato.

Insomma questa scheda di sicuro poi ne comprerò un altra quando usciranno le nvidia a 7nm, per quando sarà, e la vecchia la do a mio fratello che sta ancora al full hd che per lui è perfetta :) per il resto mi interessa a me per ora che mi sono stufato di non usare il gsync nel monitor e bassi fps in certe condizioni nonostante lo sli :)


Per il resto ti lascio ridere dai :D permettimi di permetterti :asd:

Ma nel tuo caso hai fatto benone e pure per me è così visto che appunto ho soppresso la scimmia dl sostituire le mie con una 1080Ti per tornare ad una singola perchè ormai voglio prima vedere le nuove in azione, ddr6 a parte.
Il discorso del "ridere" era riferito al lanciarsi a prendere direttamente 2 2080 senza ancora saperne a sufficienza circa le novità :D
Io la chiamo sempre "fase dei miracoli", poi escono le recensioni attendibili e le cose si ridimensionano un poco.

techsaskia
13-09-2018, 11:28
Secondo me il brand Titan lo terranno per qualcosa di oltre il gaming, come la Titan V.
Magari l'anno prossimo esce la Titan T (nome di fantasia da Turing) a 7nm a millemila dollari, ma non sarà una cosa da gaming così come non lo è la Titan V.

il costo delle schede è aumentato di oltre il 60% tra le 1080Ti e le 2080Ti.
mi aspetto che queste schede mantengano il loro valore nel tempo per almeno un anno e mezzo.
se già a natale 2019 vedremo le 2080 SuperTitanEdition svalutando le Ti con me hanno chiuso. ultima possibilità a nvidia, poi passo ad AMD o vanno peggio o meglio ne farò una questione di bandiera e non più di performance.

edit_user_name_here
13-09-2018, 11:28
Aspettare conviene sempre...
...ma non si può aspettare per sempre.

Ad esempio, se nVIDIA stessa non ti avesse costretto ad aspettare, avresti comprato due 2080 da mettere in nvSLI. Poi adesso è saltato fuori che la 2080 non è esattamente un gioiello di ingegneria, ma tu ormai avresti avuto le schede nel case...

Purtroppo no avrei aspettato la ti perchè non ho l'alimentatore adatto per due 2080 :D

Comunque io avevo già preventivato di aspettare perchè, tempo fa, volevo prendere una nuova scheda grafica ma non mi andava di prendere una 1080 ti :)

Ubro92
13-09-2018, 11:37
alla fine i leak si sono rivelati tutti veri, ( le JPG con le GPU con i codici ) e li la Titan era data per 12 Gb, quindi al 99,99999% ho idea che rimarranno a 12.

24Gb, con nVlink andrebbero ad insidiare le Quadro, nutro poche speranze di vederla con quel quantitativo

Stessa idea, anche se le quadro hanno un mercato a se, anche i driver differenziano, quindi potrebbe insediare in molteplici ambiti ma neanche tanto dipende dallo scenario di utilizzo, ma 24gb sono da ritenersi poco probabili, al massimo potremmo vedere dei nuovi moduli a 16gb/s, ma anche questi li escluderei oramai dalla titan è oggettivamente lecito aspettarsi semplicemente il chip full senza castrazioni.

TigerTank
13-09-2018, 11:39
Ecco appunto mi ero dimenticato anche del prezzo oltre tutto :D già mi immagino, per allora, gente che dirà sul prezzo anche per quella :asd: a me fa un po sorridere sta cosa dei gelosi, hater o altro però dopo un po rompe lol.

Vabbe comunque secondo me faranno una 16 gb perchè una 24 mi pare troppo concorrenziale con la quadro che c'è già :) ma secondo me andrà poco di più e non converrà per il prezzo.Ma tanto questa schede sono temporanee da come la vedo io e tutti la cambieranno con i 7nm penso :)

La Titan è una cosa a sè, è più una scheda d'elite...potrebbero anche farcirla di HBM2 e prezzarla a 2500€ ma poco importa. Se c'è chi la vuole, bene, altrimenti chissene importa :D
La Titan ideale secondo me è quella scheda buona per giocare ma che possa essere utile a chi ci vorrebbe lavorare senza dover spendere le cifre ben più alte per quelle pro. Se non ricordo male la prima Titan fu esattamente così.

edit_user_name_here
13-09-2018, 11:43
La Titan è una cosa a sè, è più una scheda d'elite...potrebbero anche farcirla di HBM2 e prezzarla a 2500€ ma poco importa. Se c'è chi la vuole, bene, altrimenti chissene importa :D
La Titan ideale secondo me è quella scheda buona per giocare ma che possa essere utile a chi ci vorrebbe lavorare senza dover spendere le cifre ben più alte per quelle pro. Se non ricordo male la prima Titan fu esattamente così.

Si lo so che sono semi professionali infatti non è escluso che un giorno potrei anche lavorare in questo ambito se riesco :D ma questo è un altro discorso :)

AceGranger
13-09-2018, 11:52
il costo delle schede è aumentato di oltre il 60% tra le 1080Ti e le 2080Ti.
mi aspetto che queste schede mantengano il loro valore nel tempo per almeno un anno e mezzo.
se già a natale 2019 vedremo le 2080 SuperTitanEdition svalutando le Ti con me hanno chiuso. ultima possibilità a nvidia, poi passo ad AMD o vanno peggio o meglio ne farò una questione di bandiera e non più di performance.

ma aspettare un minimo per vedere la situazione no ?

Ubro92
13-09-2018, 11:55
Ecco appunto mi ero dimenticato anche del prezzo oltre tutto :D già mi immagino, per allora, gente che dirà sul prezzo anche per quella :asd: a me fa un po sorridere sta cosa dei gelosi, hater o altro però dopo un po rompe lol.

Vabbe comunque secondo me faranno una 16 gb perchè una 24 mi pare troppo concorrenziale con la quadro che c'è già :) ma secondo me andrà poco di più e non converrà per il prezzo.Ma tanto questa schede sono temporanee da come la vedo io e tutti la cambieranno con i 7nm penso :)

Per avere 16GB dovresti estendere il chip a 512bit e diventerebbe un bel padellone e ti porteresti dietro un bel pò di roba non utilizzabile quindi lo vedo anche meno probabile di 24GB utilizzando semplicemente dei nuovi moduli con maggiore densità...

Ma è un discorso veramente di nicchia, la titan sarà sempre un chip con un mercato a sè e come hanno già fatto notare altri potrebbe anche entrare in un settore diverso da quello visto con la Titan XP, e quindi rappresentare solo un evoluzione dell'attuale Titan V con HBM2...

AceGranger
13-09-2018, 11:56
Stessa idea, anche se le quadro hanno un mercato a se, anche i driver differenziano, quindi potrebbe insediare in molteplici ambiti ma neanche tanto dipende dallo scenario di utilizzo, ma 24gb sono da ritenersi poco probabili, al massimo potremmo vedere dei nuovi moduli a 16gb/s, ma anche questi li escluderei oramai dalla titan è oggettivamente lecito aspettarsi semplicemente il chip full senza castrazioni.

si hanno ambiti dove i driver la fanno da padrone, ma anche ambiti come il rendering dove i driver non hanno differenze e dove le GeForce vanno benissimo, pero li le Quadro hanno sempre mantenuto il vantaggio della Vram ( un vantaggio vincolante nel caos dei render ), e di queste RTX in quell'ambito fidati che ne venderanno un bel po.

amon.akira
13-09-2018, 12:28
Infatti non mi stupisco.L'importante che la gente sia contenta del prodotto il resto lo lascio a chi mugugna :D

ahah quanta bile stanno producendo ste Ti e "sto RT" dal prezzo inarrivabile :D

edit_user_name_here
13-09-2018, 12:50
Esatto :)



Ma nel tuo caso hai fatto benone e pure per me è così visto che appunto ho soppresso la scimmia dl sostituire le mie con una 1080Ti per tornare ad una singola perchè ormai voglio prima vedere le nuove in azione, ddr6 a parte.
Il discorso del "ridere" era riferito al lanciarsi a prendere direttamente 2 2080 senza ancora saperne a sufficienza circa le novità :D
Io la chiamo sempre "fase dei miracoli", poi escono le recensioni attendibili e le cose si ridimensionano un poco.

Ah scusa non avevo visto questo post scritto pochi secondi prima :D grazie :)


ahah quanta bile stanno producendo ste Ti e "sto RT" dal prezzo inarrivabile :D

:D

Thunder-74
13-09-2018, 14:40
Sempre DLSS.. riporto un articolo tradotto...

Nvidia costruisce lo slancio DLSS, rivela 9 nuovi giochi abilitati per RTX

La tecnologia DLSS (Deep Learning Super Sampling) di Nvidia è forse la più grande innovazione inclusa nella serie RTX della serie di schede grafiche di Turing, almeno al di fuori dell'accelerazione di Ray Tracing.

In effetti, DLSS consente alle schede grafiche Nvidia RTX di giocare a risoluzioni più elevate con una minore quantità di prestazioni computazionali, l'upscaling delle immagini con un algoritmo artificiale per offrire livelli di qualità dell'immagine simili a una presentazione di risoluzione nativa. In breve, questa tecnologia consente ai giochi supportati di funzionare più velocemente con le schede grafiche abilitate per Nvidia RTX, rendendo il gameplay ad alto frame rate ad alte risoluzioni più facilmente realizzabile che mai.

Finora Nvidia ha annunciato che sedici giochi supporteranno la tecnologia DLSS dell'azienda, ma ora possiamo aggiungere altri nove giochi alla lista, tra cui lo SCUM di Devolver Digital, The Walking Dead di Overkill e Hellblade Senua's Sacrifice di Ninja Theory. Tutti i titoli nuovi a questa lista avranno "Nuovi aggiunti" elencati accanto al nome del gioco. Nessun gioco supporta DLSS al momento della scrittura, i titoli elencati di seguito hanno accettato di supportare il DLSS, con i giochi di lancio che aggiungono il supporto tramite future patch / aggiornamenti.

- Ark: Survival Evolved
- Atomic Heart
- Darksiders III - Appena aggiunto
- Dauntless
- Deliver Us The Moon: Fortuna - Appena aggiunto
- Final Fantasy XV
- Terre fratturate
- Hellblade: Senua's Sacrifice - Appena aggiunto
- Hitman 2
- Islands of Nyne
- Justice
- JX3
- KINETIK - Appena aggiunto
- Mechwarrior 5: Mercenaries
- Outpost Zero - Appena aggiunto
- Overkill's The Walking Dead - Appena aggiunto
- Player Unknown's Battlegrounds
- Remnant: From the Ashes
- SCUM - Appena aggiunto
- Serious Sam 4: Planet Badass
- Shadow of the Tomb Raider
- Stormdivers - Appena aggiunto
- The Forge Arena
- We Happy Few

I giochi abilitati RTX possono offrire supporto per Ray Tracing, DLSS o entrambi, con i seguenti giochi che pianificano di fornire supporto per Ray Tracing in tempo reale in futuro.


- Assetto Corsa Competizione
- Atomic Heart
- Battlefield V
- Control
- Arruolato
- Justice
- JX3
- MechWarrior 5: Mercenaries
- Metro Exodus
- ProjectDH
- Shadow of the Tomb Raider


FONTE (https://www.overclock3d.net/news/software/nvidia_builds_dlss_momentum_reveals_9_new_rtx_enabled_games/1)

Thunder-74
13-09-2018, 14:56
Quindi è come dicevo io, al day1 non c'è modo di testare le nuove funzioni per chi fa le recensioni.

si... quello che vorrei capire, perchè dall'articolo e dallo slide proposto da nVidia così sembra, è che l'attivazione del DLSS darebbe modo alla GPU di alleggerirsi di parte dei calcoli, ottenendo un boost nei frames e questo anche se si paragonasse il titolo con DLSS e senza alcun AA.
Rimane solamente capire di quanto va a degradare la qualità visiva, perchè alla fine mi sembra che la tecnica adottata è del tutto simile all'upscale usato nelle console. Ho il timore che la resa migliore sarà su monitor 4k. Su un FHD si vedranno magagne, visto che si parte da una res più bassa per emulare il FHD... a 1440p spero sia accettabile.... tutte mie congetture, sia chiaro...

scorpion73
13-09-2018, 15:01
Ma Tomb Raider esce domani già abilitato per RTX o sarà rilasciata una patch successivamente? Altrimenti potrebbero usare quello insieme alle tech demo di Battlefield...

mikael84
13-09-2018, 15:22
Secondo me i conti non tornano perchè non si conosce nei dettagli l'architettura turing e lo spazio occupato dai tensor core, per questo probabilmente l'area di TU106 è maggiore, poi non si esclude che probabilmente il collegamento nvlink sia presente ma semplicemente non sia abilitato per questioni marketing (non sarebbe neanche strano)...

E' la cosa più semplice.
754/6=125mmq/GPC
però devi calcolare una parte di chip dedicata ad NVlink, probabile 30mmq, e ti ritrovi con GPC da 120.
GLI SMm sono da circa 11,5, uguali a TU06;)



la 2080 io non riesco a catalogarla, penso che in termini di latenze sia ai livelli di una 980ti, solo che mantenere un bus a 256bit con 6gpc praticamente hanno stravolto anche i rapporti e non so quanto questa cosa inciderà...

Se avessero mantenuto almeno un bus a 384bit sarebbe stata più interessante sopratutto con 3072 unità abilitate.

Internamente meglio, grazie ai cicli dimezzati, lo scheduler è molto molto semplificato, e purtroppo collegare 2 canali ram, gli sarebbero costati 100/110mmq, ok che all'utenza media poco importa, però ti saresti trovato con 12gb, meglio della TI e costi più elevati, oltre che BW superiore alla 2080ti :p
Io l'avrei fatta completamente a 4 GPC, meno risorse, meno latenze e 3072cc facili (migliori rese).
Tanto a livello di RT non cambia nulla, decidono gli SMm.


Io penso che a questo giro i rapporti dei consumi siano ben diversi da Maxwell/Pascal, probabilmente ogni gpc arriva a consumare 55-60w (considerando anche i tensor core), il che significa che una 2070 con 3 gpc arriva a circa 165-180w paralleli a una 1080, ma fare un analogo 4GPC avrebbe portato i consumi a quasi 220-240w, probabilmente uno schema a 6GPC con 4tpc ognuno abbassa i consumi per ogni GPC a circa 35w e quindi portando la gpu a circa 210w in più disabilitando un tpc, si guadagnano ulteriori 7-9w restando vicini ai 200w (un approccio che sacrifica le latenze per migliorare prestazioni e consumi)...

Seguendo questo ragionamento la 2080ti sarà una scheda che di base avrà un clock in turbo decisamente strozzato e in OC arriverà in scioltezza a 320-350w, e per oc più spinti penso superi il muro dei 400w, non dissimile da GK110/GM200 che erano chipponi ai limiti dei 28nm, e qui oltre al chippone abbiamo anche i tensor core da far rientrare nei 12nm.

I rapporti cambiano in quanto TU04 passa a 6 GPC, e cambia anche il rapporto dei consumi in quanto ne devi alimentare 6 e non 4, ecco che lo schema a 4 era la soluzione migliore.
nVidia ultimamente tra canali a vuoto, raster bloccati, limita le proprie schede e questo non deve mai succedere.
TU04 deve funzionare con 96 rop's e 384bit, così è tarpato, poi magari su bench notiamo che l'accesso finale è a 60 rop's per via del TPC che combacia con il raster.

La 2070 diciamo che è giusta, 3x45/50 più canale di collegamento e tanti transistor in più.
La 2080ti è calibrata stock a 43, in OC il valore aumenterà pesantemente.
A 50w/GPC dovrebbe tenere clock simil 2070.
Meglio scegliere una custom con buon TDP, ma il 2x8 di base mi fa sperare in PL molto elevati.

mikael84
13-09-2018, 15:25
alla fine i leak si sono rivelati tutti veri, ( le JPG con le GPU con i codici ) e li la Titan era data per 12 Gb, quindi al 99,99999% ho idea che rimarranno a 12.

24Gb, con nVlink andrebbero ad insidiare le Quadro, nutro poche speranze di vederla con quel quantitativo

Fai anche 100% :)
Sempre se esce.
Attualmente solo Samsung produce il doppio MC, le altre sono indietro di tanto.

AceGranger
13-09-2018, 15:38
Non è un'operazione free ma penso che sia quasi free. L'incognita è appunto la qualità, però se al day1 ci sono 0 titoli che usano questa tecnica non c'è modo di valutarlo.

essendo fatta dai Tensor la si puo intendere come "free", cosi i CUDA possono lavorare su altro.

Thunder-74
13-09-2018, 15:51
essendo fatta dai Tensor la si puo intendere come "free", cosi i CUDA possono lavorare su altro.



Se la qualità sarà accettabile, potrebbe essere veramente un bel boost gradito


Inviato dal mio iPhone X utilizzando Tapatalk

thunderforce83
13-09-2018, 16:16
comincia a trapelare qualche bella notizia:D
https://www.pcworld.com/article/3306197/components-graphics/geforce-rtx-2080-ti-performance-4k-60.html

techsaskia
13-09-2018, 16:20
Ma Tomb Raider esce domani già abilitato per RTX o sarà rilasciata una patch successivamente? Altrimenti potrebbero usare quello insieme alle tech demo di Battlefield...

la patch per RT arriverà dopo, si parlava di un mese...

techsaskia
13-09-2018, 16:22
comincia a trapelare qualche bella notizia:D
https://www.pcworld.com/article/3306197/components-graphics/geforce-rtx-2080-ti-performance-4k-60.html

dove sta la bella notizia?
la 2080 costa come la 1080Ti al lancio e tiene meno VRAM, ci mancherebbe solo che andasse più lenta...

aeN_13
13-09-2018, 16:52
comincia a trapelare qualche bella notizia:D
https://www.pcworld.com/article/3306197/components-graphics/geforce-rtx-2080-ti-performance-4k-60.html

Non capisco il motivo, ma il grafico dei 4k60 con il confronto delle gpu è photoshoppato. La 2080 e la 2080Ti sono state abbassate e avvicinate tra loro.

Il grafico ufficiale è qui (slide 11): https://s22.q4cdn.com/364334381/files/doc_presentations/2018/09/JHH_GTCJapan2018_FINAL.pdf

Thunder-74
13-09-2018, 17:14
Non capisco il motivo, ma il grafico dei 4k60 con il confronto delle gpu è photoshoppato. La 2080 e la 2080Ti sono state abbassate e avvicinate tra loro.

Il grafico ufficiale è qui (slide 11): https://s22.q4cdn.com/364334381/files/doc_presentations/2018/09/JHH_GTCJapan2018_FINAL.pdf

oltretutto in uno sulla linea dei 60 frames, ha su scritto 4k...


https://i.imgur.com/fR6JUMO.jpg

https://i.imgur.com/TxZKVIr.jpg

techsaskia
13-09-2018, 17:23
ma le founders non le rimettono in stock?

aeN_13
13-09-2018, 17:26
La tua teoria quindi è che quelli ritengano che i fan verdi siano dei ritardati che se togli la dicitura 4K dalla riga non capiscono più che si tratta di 4K nonostante sia scritto sotto a caratteri cubitali?

Fosse solo quello non ci sarebbe mica problema, ma hanno chiaramente spostato anche le schede, sia rispetto alla linea dei 60fps sia relativamente tra loro.

ma le founders non le rimettono in stock?

Gli ultimi pre orders prima del sold out sembra avessero già una data di consegna prevista a novembre, mi sa che bisognerà aspettare parecchio per le FE.

Gello
13-09-2018, 17:40
Ma come si fanno a commentare grafici senza numeri? Sembra Arkanoid

aeN_13
13-09-2018, 17:48
Ma come si fanno a commentare grafici senza numeri? Sembra Arkanoid

Che siano grafici inutili e chiaramenti fatti dal reparto marketing non c'è dubbio

amon.akira
13-09-2018, 18:02
Per quanto sia di scarsissima rilevanza quel grafico non vi è venuto in mente che forse è stata Nvidia stessa a modificarlo?
Non so quale sia stato fatto prima ma forse poi le prestazioni si sono rivelate leggermente diverse e hanno corretto.

certo è modulare, domani lo aggiorneranno perchè esce un altro gioco che lo sbilancia in su o in giu :sofico:

sgrinfia
13-09-2018, 18:26
Sti grafici sono una presa per il c..o, ma non avete notato niente di strano ?:muro:

ilcose
13-09-2018, 18:30
si... quello che vorrei capire, perchè dall'articolo e dallo slide proposto da nVidia così sembra, è che l'attivazione del DLSS darebbe modo alla GPU di alleggerirsi di parte dei calcoli, ottenendo un boost nei frames e questo anche se si paragonasse il titolo con DLSS e senza alcun AA.
Rimane solamente capire di quanto va a degradare la qualità visiva, perchè alla fine mi sembra che la tecnica adottata è del tutto simile all'upscale usato nelle console. Ho il timore che la resa migliore sarà su monitor 4k. Su un FHD si vedranno magagne, visto che si parte da una res più bassa per emulare il FHD... a 1440p spero sia accettabile.... tutte mie congetture, sia chiaro...



E con l’ultrawide come funziona? Mi seccherebbe non poco non poterla utilizzare....


Inviato dal mio iPad utilizzando Tapatalk

thunderforce83
13-09-2018, 18:41
certo è modulare, domani lo aggiorneranno perchè esce un altro gioco che lo sbilancia in su o in giu :sofico:

ahahahahha:D :sofico:
dai raga e state tranquilli...fatele uscire ste schede prima di martoriarle..se non c era nvidia stavamo ancora a 720x480 forse :)

ilcose
13-09-2018, 18:51
Mai capitato di aggiornate un documento?
Sembra di parlare degli alieni ma aggiornare un documento è una cosa normalissima.
Non dico che sia andata così veramente, ma sarebbe una cosa normalissima.



E lo aggiorni rinominando in GTX le tue stesse gpu che si chiamano RTX? Oltre che modificare le prestazioni di gpu uscire da più di un anno di cui dovresti già essere certo delle prestazioni. La sagra dei ritardati al marketing avrebbero :asd:


Inviato dal mio iPad utilizzando Tapatalk

TigerTank
13-09-2018, 20:00
Io in primis aspetto quei video che postano su youtube, dove pigliano gioco X, Y e Z e fanno le comparative in parallelo tra più schede con framerates in vista. :)

edit_user_name_here
13-09-2018, 20:06
Ma ora con le nuove regole europee possono fare le recensioni sulle schede?Mi sta venendo sto dubbio.

edit_user_name_here
13-09-2018, 20:58
wut?

Non hai sentito le regole sul copyright?Io avevo sentito che se fai una recensione, poi non so se hanno cambiato qualcosa all'ultimo momento, e se ne parli male potrebbero denunciarti.Ora non so come funziona ma cosi avevo sentito e bisogna essere forse anche autorizzati.

Ho forse capito qualcosa male io?

Ale55andr0
13-09-2018, 22:27
Non hai sentito le regole sul copyright?Io avevo sentito che se fai una recensione, poi non so se hanno cambiato qualcosa all'ultimo momento, e se ne parli male potrebbero denunciarti.Ora non so come funziona ma cosi avevo sentito e bisogna essere forse anche autorizzati.

Ho forse capito qualcosa male io?

mmm.... e che c'entrano i diritti d'autore con la recensione di un prodotto di elettronica :mbe:

Thunder-74
13-09-2018, 23:00
NVIDIA afferma che GeForce RTX 2080 è 'costruito per overclock'



Le serie NVIDIA GeForce RTX offrono una migliore erogazione di potenza. Un VRM di qualità superiore ha fornito più spazio per l'overclocking. Apparentemente, questo ha permesso a NVIDIA di aumentare il limite del TDP, che dovrebbe ora essere di circa 55 W (~ 20 W in più rispetto a GTX 1080).



https://uploads.tapatalk-cdn.com/20180913/6f53b3c0616d1f237d772e71b81c1129.jpeg
https://uploads.tapatalk-cdn.com/20180913/df64903fd7cb0a554f1e0ddadf79c28a.jpeg



l'acustica e dissipazione del calore della nuova RTX Founders Edition dual-fan. NVIDIA afferma che il loro nuovo design sarà 5 volte più silenzioso e 20-15C più freddo del predecessore.

https://uploads.tapatalk-cdn.com/20180913/6a3806ac731f3f5fe633a2e6dcea89e8.jpeg



FONTE (https://videocardz.com/newz/nvidia-claims-geforce-rtx-2080-is-built-to-overclock)





Inviato dal mio iPad utilizzando Tapatalk

thunderforce83
13-09-2018, 23:46
NVIDIA afferma che GeForce RTX 2080 è 'costruito per overclock'



Le serie NVIDIA GeForce RTX offrono una migliore erogazione di potenza. Un VRM di qualità superiore ha fornito più spazio per l'overclocking. Apparentemente, questo ha permesso a NVIDIA di aumentare il limite del TDP, che dovrebbe ora essere di circa 55 W (~ 20 W in più rispetto a GTX 1080).



https://uploads.tapatalk-cdn.com/20180913/6f53b3c0616d1f237d772e71b81c1129.jpeg
https://uploads.tapatalk-cdn.com/20180913/df64903fd7cb0a554f1e0ddadf79c28a.jpeg



l'acustica e dissipazione del calore della nuova RTX Founders Edition dual-fan. NVIDIA afferma che il loro nuovo design sarà 5 volte più silenzioso e 20-15C più freddo del predecessore.

https://uploads.tapatalk-cdn.com/20180913/6a3806ac731f3f5fe633a2e6dcea89e8.jpeg



FONTE (https://videocardz.com/newz/nvidia-claims-geforce-rtx-2080-is-built-to-overclock)





Inviato dal mio iPad utilizzando TapatalkAltre belle notizie😍aaaaa... Adoro nvidia. Come farei senza di lei😍💋😂

Inviato dal mio H8296 utilizzando Tapatalk

TigerTank
14-09-2018, 07:59
NVIDIA afferma che GeForce RTX 2080 è 'costruito per overclock'


Le serie NVIDIA GeForce RTX offrono una migliore erogazione di potenza. Un VRM di qualità superiore ha fornito più spazio per l'overclocking. Apparentemente, questo ha permesso a NVIDIA di aumentare il limite del TDP, che dovrebbe ora essere di circa 55 W (~ 20 W in più rispetto a GTX 1080).


l'acustica e dissipazione del calore della nuova RTX Founders Edition dual-fan. NVIDIA afferma che il loro nuovo design sarà 5 volte più silenzioso e 20-15C più freddo del predecessore.



Ahahah certo che dovrebbero prendere il Nobel per il marketing, saprebbero vendere pure il ghiaccio agli eschimesi.

Circa l'overclock...vedremo nel concreto perchè magari l'overvolt non conta nulla di nuovo, salgono con il solito margine di frequenza e poi tagliano abbestia con le protezioni...ma chiaro che ormai "overclock" è una cosa che attira potenziali acquirenti.
In ogni caso è una buona cosa che già a livello reference partano con un bel numero di fasi, cosa che secondo me sminuisce la necessità di andare su modelli custom, soprattutto se ancor più costosi(salvo necessità o preferenze particolari).

Circa la temperatura...di sicuro il dual fan è meglio del blower in quanto a minor rumorosità...ma bisognerebbe completare la frase dicendo che renderebbe 15-20°C in meno a parità di dB, cioè alzando comunque le ventole di brutto. :D
E vedremo se ci sarà davvero tutta questa differenza.
In ogni caso a me il design biventola piace, senza fronzoli pacchiani e ci voleva che finalmente andassero oltre il classico blower.

Thunder-74
14-09-2018, 08:29
Ahahah certo che dovrebbero prendere il Nobel per il marketing, saprebbero vendere pure il ghiaccio agli eschimesi.

Circa l'overclock...vedremo nel concreto perchè magari l'overvolt non conta nulla di nuovo, salgono con il solito margine di frequenza e poi tagliano abbestia con le protezioni...ma chiaro che ormai "overclock" è una cosa che attira potenziali acquirenti.
In ogni caso è una buona cosa che già a livello reference partano con un bel numero di fasi, cosa che secondo me sminuisce la necessità di andare su modelli custom, soprattutto se ancor più costosi(salvo necessità o preferenze particolari).

Circa la temperatura...di sicuro il dual fan è meglio del blower in quanto a minor rumorosità...ma bisognerebbe completare la frase dicendo che renderebbe 15-20°C in meno a parità di dB, cioè alzando comunque le ventole di brutto. :D
E vedremo se ci sarà davvero tutta questa differenza.
In ogni caso a me il design biventola piace, senza fronzoli pacchiani e ci voleva che finalmente andassero oltre il classico blower.



Vedremo Tiger. Per ora se dovessi prenderne una , andrei su evga...


Inviato dal mio iPhone X utilizzando Tapatalk

edit_user_name_here
14-09-2018, 08:38
Io intendevo su youtube chi li recensisce non ha problemi?Avevo sentito vari youtube parlarne al riguardo(oltre ai siti ovviamente).

Vedremo :)

Alodesign
14-09-2018, 10:16
Vabbè mi compro una 1080ti mini. A parte l'Rt tutta sta potenza in più non mi serve

sertopica
14-09-2018, 10:19
A sto giro stanno facendo una campagna di marketing sfrenata, poi con quei grafici.... :stordita: Peccato che l'embargo sia slittato, sono proprio curioso.

Arrow0309
14-09-2018, 10:22
Vedremo Tiger. Per ora se dovessi prenderne una , andrei su evga...


Inviato dal mio iPhone X utilizzando Tapatalk

Io ho fatto e messo pure una pietra sopra, i soldi sono volati.
- Palit 2080ti Gaming Pro OC (£1119) in arrivo il 20 settembre (dice Ebuyer.uk)
- EK Vector Nickel Acetal nero RGB e backplate nera (£170 da Scan.uk).

Il wb pure come preorder ma lo danno come "overdue" già dal 10 settembre (chissà che altri ritardi ci saranno).

Dovrei essere a posto per il fine mese o anche prima (spero).

bizzy89
14-09-2018, 10:28
Io ho fatto e messo pure una pietra sopra, i soldi sono volati.
- Palit 2080ti Gaming Pro OC (£1119) in arrivo il 20 settembre (dice Ebuyer.uk)
- EK Vector Nickel Acetal nero RGB e backplate nera (£170 da Scan.uk).

Il wb pure come preorder ma lo danno come "overdue" già dal 10 settembre (chissà che altri ritardi ci saranno).

Dovrei essere a posto per il fine mese o anche prima (spero).

non riesco a capire questi qui non sanno nulla delle disponibilita', ebayer come faccia a darle in uscita per il 20, mistero della fede. Io aspetto un pelo sono bloccato ancora a causa del loro refund che non arriva, mi hanno mandato l'invoice su paypal due giorni fa ma i soldi ancora non sono accreditati sul mio conto lloyds

TigerTank
14-09-2018, 10:45
Vedremo Tiger. Per ora se dovessi prenderne una , andrei su evga...


Idem.
Comunque stamattina ho notato che EVGA sta facendo delle promozioni per "svuotare i magazzini", mettendo in combo vga e alimentatori.
Ad esempio 1080Ti SC2 + Supernova 1300 G2 a 770€. Considerato che quel bestione di ali vale sulle 250€, la 1080Ti viene sulle 500€ nuova.

EDIT: anzi meno perchè è incluso anche il powerlink(30€).

Questo lo hanno detto anche per le Founders precedenti e sappiamo com'è finita.

:D
Sempre così, chiaro che parole come "overclock" ormai sono termini strategici :)

Thunder-74
14-09-2018, 10:57
Idem.
Comunque stamattina ho notato che EVGA sta facendo delle promozioni per "svuotare i magazzini", mettendo in combo vga e alimentatori.
Ad esempio 1080Ti SC2 + Supernova 1300 G2 a 770€. Considerato che quel bestione di ali vale sulle 250€, la 1080Ti viene sulle 500€ nuova.

EDIT: anzi meno perchè è incluso anche il powerlink(30€).



:D
Sempre così, chiaro che parole come "overclock" ormai sono termini strategici :)

Ottima offerta direi...


EDIT
Scusate l'ot, ... Il nuovo Tomb Raider gira meglio in DX12 che in DX11 . Queste le performances a 2560x1440:

DX12

https://i.imgur.com/Wxo3q3w.jpg

DX11

https://i.imgur.com/aGwOCTV.jpg


Altra cosa, guardate come si diventa CPU Limited con un quad core in DX12.... Qui a 1080p

DX11

https://i.imgur.com/IiCYzCe.jpg


DX12

https://i.imgur.com/bKZ5zHq.jpg


Inviato dal mio iPhone X utilizzando Tapatalk

Thunder-74
14-09-2018, 11:23
Io negli anni ho capito solo che eviterei di guardare i bench di GameGPU.

Questo mi torna molto di più e mi sembra più completa come analisi.
https://www.computerbase.de/2018-09/shadow-of-the-tomb-raider-benchmark/2/#diagramm-sottr-mit-finalen-treibern-und-patch-2560-1440

Sembra che in FULLHD ci sia qualche vantaggio in DX12 e secondo me è dovuto ad un minor peso sulla CPU perchè già salendo a 1440p tra DX12 e DX11 non cambia assolutamente nulla, ani va meglio in DX11
Noto però che in DX12 migliorano i minimi, io userei comunque quelle perchè preferisco un framerate più stabile rispetto a dei massimi più alti.

Meno carico sulla CPU in DX12, non direi... anzi.

bagnino89
14-09-2018, 11:45
Meno carico sulla CPU in DX12, non direi... anzi.

Secondo me è giusto che in DX12 la CPU venga spremuta di più, si usano meglio i thread per avere meno collo di bottiglia.

Thunder-74
14-09-2018, 11:47
Secondo me è giusto che in DX12 la CPU venga spremuta di più, si usano meglio i thread per avere meno collo di bottiglia.



Esatto, è proprio ciò che capita.


Inviato dal mio iPhone X utilizzando Tapatalk

edit_user_name_here
14-09-2018, 11:49
Ottima offerta direi...


EDIT
Scusate l'ot, ... Il nuovo Tomb Raider gira meglio in DX12 che in DX11 . Queste le performances a 2560x1440:

CUT


Inviato dal mio iPhone X utilizzando Tapatalk

Dunque io che ho un six core sono apposto a 3,6 ghz? :)


Edit: Fixato quote.

traider
14-09-2018, 11:55
Ottima offerta direi...


EDIT
Scusate l'ot, ... Il nuovo Tomb Raider gira meglio in DX12 che in DX11 . Queste le performances a 2560x1440:

DX12


DX11




Altra cosa, guardate come si diventa CPU Limited con un quad core in DX12.... Qui a 1080p

DX11




DX12



Ottimo post grazie , veramente interessante , mi ritrovo anche perfettamente in linea con gli fps a 2560x1440 , sia con i5 8400 e gtx 1070 , che con i7 8700k e gtx 1080ti .

bizzy89
14-09-2018, 12:02
Io negli anni ho capito solo che eviterei di guardare i bench di GameGPU.

Questo mi torna molto di più e mi sembra più completa come analisi.
https://www.computerbase.de/2018-09/shadow-of-the-tomb-raider-benchmark/2/#diagramm-sottr-mit-finalen-treibern-und-patch-2560-1440

Sembra che in FULLHD ci sia qualche vantaggio in DX12 e secondo me è dovuto ad un minor peso sulla CPU perchè già salendo a 1440p tra DX12 e DX11 non cambia assolutamente nulla, ani va meglio in DX11
Noto però che in DX12 migliorano i minimi, io userei comunque quelle perchè preferisco un framerate più stabile rispetto a dei massimi più alti.

io mi ci sono sempre trovato bene, trovando risultati sempre molti simili

TigerTank
14-09-2018, 12:08
Secondo me è giusto che in DX12 la CPU venga spremuta di più, si usano meglio i thread per avere meno collo di bottiglia.

Direi cosa buona(e finalmente!) e giusta come ritorno di investimento nelle cpu :)
Sarebbe anche ora che le dx12 inizino ad esprimere il loro vero potenziale.

Fa anche un po' ridere che la reference sia overclockata. Cioè, è la reference, overclockata rispetto a cosa? :asd:

Magari non abbiamo ancora visto qualche modello "plasticoso" con frequenze più basse. Pure la blower ha le stesse frequenze? :D

Arrow0309
14-09-2018, 12:13
Direi cosa buona(e finalmente!) e giusta come ritorno di investimento nelle cpu :)
Sarebbe anche ora che le dx12 inizino ad esprimere il loro vero potenziale.



Magari non abbiamo ancora visto qualche modello "plasticoso" con frequenze più basse. Pure la blower ha le stesse frequenze? :D

La Palit che ho preso io (Gaming Pro OC) ha il pcb reference ma oc (leggermente superiore) come la FE (1650 vs 1635).
La sorella Gaming Pro liscia, presumo sempre pcb reference, lo ha a 1575
Quindi si, le reference hanno clock inferiori direi.

CrazyDog
14-09-2018, 12:24
ma sulle rtx la porta usb 3.1 a cosa serve di preciso?

edit_user_name_here
14-09-2018, 12:38
ma sulle rtx la porta usb 3.1 a cosa serve di preciso?

Mi avevano detto per la realtà virtuale.Poi non so.

Thunder-74
14-09-2018, 12:40
ma sulle rtx la porta usb 3.1 a cosa serve di preciso?



VR


Inviato dal mio iPhone X utilizzando Tapatalk

CrazyDog
14-09-2018, 12:41
grazie immaginavo che servisse per quello:)

edit_user_name_here
14-09-2018, 12:46
VR


Inviato dal mio iPhone X utilizzando Tapatalk

Infatti allora mi ricordavo bene :D dunque thunder tu sai quando escono le news sulla scheda oggi?

Il nabbo di turno
14-09-2018, 12:47
https://videocardz.com/newz/nvidia-geforce-rtx-2080-3dmark-time-spy-and-fire-strike-scores-leak

Un po' di leaks quah?:O

Thunder-74
14-09-2018, 13:06
Infatti allora mi ricordavo bene :D dunque thunder tu sai quando escono le news sulla scheda oggi?

no, ma come esce qualche cosa, la troveremo sicuramente qui :)

Thunder-74
14-09-2018, 13:10
Non sono entusiasta, speravo poco di più.

concordo...

edit_user_name_here
14-09-2018, 13:10
no, ma come esce qualche cosa, la troveremo sicuramente qui :)

Pensavo che mi avevi messo in ignore list perchè, oltre ad averti scritto qui prima, ti ho scritto un po di messaggi in privato anche per altre faccende :D

Thunder-74
14-09-2018, 13:13
Pensavo che mi avevi messo in ignore list perchè, oltre ad averti scritto qui prima, ti ho scritto un po di messaggi in privato anche per altre faccende :D

perdonami, non mi sono arrivate le notifiche...

edit_user_name_here
14-09-2018, 13:16
perdonami, non mi sono arrivate le notifiche...

Scusami tu e che sono un po frettoloso a volte precipitoso e dunque penso male dato che oggi un utente mi ha dato buca nei messaggi privati e mi ha messo in ignore perchè si scocciava aiutarmi lol, che poi scrive anche qui ma raramente, e dunque partivo già male per questo motivo.


Ma ti dico nei messaggi privati poi :D ma anche perchè ti avevo chiesto se un six core può bastare per queste dx 12.Nel messaggio di prima qui sul thread :)

CrazyDog
14-09-2018, 13:16
le recensioni escono oggi 14 settembre?

edit_user_name_here
14-09-2018, 13:17
le recensioni escono oggi 14 settembre?

Solo per le caratteristiche della scheda ma per il resto ci vuole fino al 19 per i test veri e proprio ufficiali :)

amon.akira
14-09-2018, 13:18
le recensioni escono oggi 14 settembre?

19 sia per 2080 che 2080ti, 1giorno prima del dayone

CrazyDog
14-09-2018, 13:22
Solo per le caratteristiche della scheda ma per il resto ci vuole fino al 19 per i test veri e proprio ufficiali :)

19 sia per 2080 che 2080ti, 1giorno prima del dayone

non so perchè ero sicuro fosse oggi la data delle recensioni invece è il 19, grazie

Thunder-74
14-09-2018, 13:23
Scusami tu e che sono un po frettoloso a volte precipitoso e dunque penso male dato che oggi un utente mi ha dato buca nei messaggi privati e mi ha messo in ignore perchè si scocciava aiutarmi lol, che poi scrive anche qui ma raramente, e dunque partivo già male per questo motivo.


Ma ti dico nei messaggi privati poi :D ma anche perchè ti avevo chiesto se un six core può bastare per queste dx 12.Nel messaggio di prima qui sul thread :)

per la CPU, direi che oggi un esacore/12 threads rappresenta una scelta corretta per il gaming. Magari un domani verranno sfruttati a dovere gli octacore/16 threads.

edit_user_name_here
14-09-2018, 13:25
non so perchè ero sicuro fosse oggi la data delle recensioni invece è il 19, grazie

E si c'è stata un po di confusione ti capisco :)


per la CPU, direi che oggi un esacore/12 threads rappresenta una scelta corretta per il gaming. Magari un domani verranno sfruttati a dovere gli octacore/16 threads.

Anche in 4k?

TigerTank
14-09-2018, 13:26
19 sia per 2080 che 2080ti, 1giorno prima del dayone

Che rottura però, io vorrei vedere anche la 2070. La posticipano perchè avrà un rapporto prezzo-prestazioni migliore rispetto alla 2080? :D

CrazyDog
14-09-2018, 13:28
Che rottura però, io vorrei vedere anche la 2070. La posticipano perchè avrà un rapporto prezzo-prestazioni migliore rispetto alla 2080? :D

quindi la 2070 la presenteranno successivamente a 2080-2080ti?

amon.akira
14-09-2018, 13:31
Che rottura però, io vorrei vedere anche la 2070. La posticipano perchè avrà un rapporto prezzo-prestazioni migliore rispetto alla 2080? :D

sicuramente sarà la fascia piu equilibrata, ma avendo il dayone fissato al 20ottobre all inizio potrebbe trovarsi con prezzi altini e far preferire una 2080 prima che si assesti anche lei come prezzo.

TigerTank
14-09-2018, 13:31
quindi la 2070 la presenteranno successivamente a 2080-2080ti?

Ho paura di sì....a differenza delle 2 sorellone non ve n'è traccia, ne su trovaprezzi e neppure sui motori europei tipo Geizhals (https://geizhals.eu/nvidia-geforce-rtx-2070-founders-edition-900-1g160-2550-000-a1870926.html).

sicuramente sarà la fascia piu equilibrata, ma avendo il dayone fissato al 20ottobre all inizio potrebbe trovarsi con prezzi altini e far preferire una 2080 prima che si assesti anche lei come prezzo.

Eh già, solita tattica. Da un lato questo e dall'altro di sicuro maggiori utili dalla Ti in quanto presentata come fascia top subito e non un 8-10 mesi dopo come "sovrapposizione" di fascia di prezzo-lancio delle x80.
Quindi 20 ottobre, grazie!

sandrigno
14-09-2018, 13:39
Scusate ma quei bench della 2080 sono stati fatti con i primissimi driver per queste schede (4xx.), la serie 10xx ha driver ultra ottimizzati...

aeN_13
14-09-2018, 13:44
I driver per le review li hanno rilsciati stamattina, tutti i leak da oggi fino al 19 stanno usando i driver ufficiali.

Dai primi risultati la 2080 a "stock" (se le frequenze riportate sono giuste, è a +75mhz core dalla FE) va come una 1080Ti oc a ~2000Mhz

https://www.3dmark.com/compare/spy/4404946

amon.akira
14-09-2018, 13:47
Eh già, solita tattica. Da un lato questo e dall'altro di sicuro maggiori utili dalla Ti in quanto presentata come fascia top subito e non un 8-10 mesi dopo come "sovrapposizione" di fascia di prezzo-lancio delle x80.
Quindi 20 ottobre, grazie!

la bastardata piu che altro è stata il segare l nvlink dalla 2070

amon.akira
14-09-2018, 13:53
secondo me sottovalutate i clock, queste staranno almeno +100mhz rispetto alle pascal

amon.akira
14-09-2018, 13:56
In che senso? intendi che abbiano più margini di oc?

yes se con una 1070 e 1080 avevamo "oc medi" di 2050mhz qui me li aspetto almeno 2150 e cosi ci becchi già un ulteriore +5%

razor820
14-09-2018, 14:04
Se uno prende una 2080 dal sito nvidia e sostituisce il dissipatore con un waterblock perde la garanzia?

razor820
14-09-2018, 14:09
Teoricamente, sì.

Di fatto pare che se rimonti decentemente il vecchio dissipatore non facciano problemi, stando al feedback degli utenti sui forum.Sinceramente non mi fido dei 15-20 gradi in meno del precedente modello.. tanto vale aspettare le custom

Thunder-74
14-09-2018, 14:15
E si c'è stata un po di confusione ti capisco :)




Anche in 4k?

a maggior ragione.

Il nabbo di turno
14-09-2018, 14:21
Il nvidia scanner è molto carina come feature, e dovrebbe arrivare anche su maxwell e pascal...

Telstar
14-09-2018, 14:27
Che rottura però, io vorrei vedere anche la 2070. La posticipano perchè avrà un rapporto prezzo-prestazioni migliore rispetto alla 2080? :D

Se lo fanno, sarà SICURAMENTE per quello. Il mining di ETH è crollato quindi non avremo prezzi fermi/in salita come l'ultima volta. Quindi aspettare è la cosa migliore.

maxmix65
14-09-2018, 14:29
Qui ne ha qualcuna da scartare
https://www.youtube.com/watch?v=SlmK2rWGDyM

Il nabbo di turno
14-09-2018, 14:34
Buono a sapersi e quando dovrebbe essere disponibile? :D

Nella prossima puntata...

mikael84
14-09-2018, 14:36
Si lo penso anch'io, credo che abbiano più margine di oc, speriamo.
Almeno si riesce ad estrapolare qualcosa in più, anche se guardando bene le FE hanno OC a sto giro (+90mhz) mentre le pascal FE viaggiano senza OC, vedremo nel dettaglio i chip al loro limite, da li si potranno fare delle medie accurate, se prendono i 2.2ghz incrementeranno sempre più delle pascal.

Il problema sono i padelloni, questo PP potrebbe anche garantire un 10% sul clock, salvo non siano piombate.
La tensione di base è molto più elevata, probabile che alcuni chip possano undervoltare tanto nel caso.

Il maggior IPC si tiene combinando le INT32 con le FP32, quindi meglio spremere ogni mhz.

devil_mcry
14-09-2018, 14:37
Non vedo l'ora di prendere la 2080 Ti :|

Thunder-74
14-09-2018, 14:38
Comunque per chi si chiede come potrà girare il nuovo Tomb raider maxato senza RT ...
in Sli di 1080ti (con schede al 80% circa ) in DX12, i frames medi sono di 84 a 2560x1440

VIDEO (https://www.youtube.com/watch?v=kuJnuaehq3s)

detto questo, chissà se una 2080 riesce a stare sui 60 frames :fagiano:

bagnino89
14-09-2018, 14:41
Comunque per chi si chiede come potrà girare il nuovo Tomb raider maxato senza RT ...
in Sli di 1080ti (con schede al 80% circa ) in DX12, i frames medi sono di 84 a 2560x1440

VIDEO (https://www.youtube.com/watch?v=kuJnuaehq3s)

detto, questo chissà se una 2080 riesce a stare sui 60 frames :fagiano:Leggero dai :asd:

razor820
14-09-2018, 14:58
Comunque per chi si chiede come potrà girare il nuovo Tomb raider maxato senza RT ...
in Sli di 1080ti (con schede al 80% circa ) in DX12, i frames medi sono di 84 a 2560x1440

VIDEO (https://www.youtube.com/watch?v=kuJnuaehq3s)

detto questo, chissà se una 2080 riesce a stare sui 60 frames :fagiano:What? Penso che allora lo sli non fa per questo gioco. Io tutto maxato con una 1080 ho quel frame rate.. minimo mi arriva 55 fps

Thunder-74
14-09-2018, 15:05
Ma in SLI non ci dice molto perchè dipende quanto scala.

Dai bench postati qualche pagina fa era intorno ai 60fps in 1440p con la 1080.



What? Penso che allora lo sli non fa per questo gioco. Io tutto maxato con una 1080 ho quel frame rate.. minimo mi arriva 55 fps



Ok allora scala male lo Sli o forse lo ha forzato lui senza un profilo studiato ad hoc. Se prendo il gioco provo..


Inviato dal mio iPhone X utilizzando Tapatalk

Simedan1985
14-09-2018, 15:09
Comunque per chi si chiede come potrà girare il nuovo Tomb raider maxato senza RT ...
in Sli di 1080ti (con schede al 80% circa ) in DX12, i frames medi sono di 84 a 2560x1440

VIDEO (https://www.youtube.com/watch?v=kuJnuaehq3s)

detto questo, chissà se una 2080 riesce a stare sui 60 frames :fagiano:

Che mattone , che poi scusatemi ma la grafica di questo gioco vi sta lasciando a bocca aperta?? A me sinceramente per nulla .

Come si chiamava il nuovo titolo di Crytek?? Spero in qualcosa di innovativo da parte loro!!

FroZen
14-09-2018, 15:26
Che mattone , che poi scusatemi ma la grafica di questo gioco vi sta lasciando a bocca aperta?? A me sinceramente per nulla .

Come si chiamava il nuovo titolo di Crytek?? Spero in qualcosa di innovativo da parte loro!!

Hunt showdown, solo per temerari :O

Anche se al momento è il gameplay più che la grafica ad essere originale, e per fortuna!!!!!! :read:

sgrinfia
14-09-2018, 15:28
Che mattone , che poi scusatemi ma la grafica di questo gioco vi sta lasciando a bocca aperta?? A me sinceramente per nulla .

Come si chiamava il nuovo titolo di Crytek?? Spero in qualcosa di innovativo da parte loro!!

Bella grafica ma da bocca chiusa, simile agli ultimi Tomb raider .

Thunder-74
14-09-2018, 15:30
Che mattone , che poi scusatemi ma la grafica di questo gioco vi sta lasciando a bocca aperta?? A me sinceramente per nulla .



Come si chiamava il nuovo titolo di Crytek?? Spero in qualcosa di innovativo da parte loro!!



Deve avere qualche problema quel tipo, perché in questo video fanno stessi frames medi con Sli di 1080ti, ma in 4K

https://youtu.be/aL_3Qv9Qf1A



Inviato dal mio iPhone X utilizzando Tapatalk

maxmix65
14-09-2018, 15:34
Qui altre info interessanti
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47269-die-turing-architektur-mit-rtx-ray-tracing-und-den-neuen-shader-funktionen.html?start=8

Thunder-74
14-09-2018, 15:55
PRIMA REVIEW


LINK (https://www.guru3d.com/articles-pages/nvidia-turing-geforce-2080-(ti)-architecture-review,1.html)


...... senza bench...

appleroof
14-09-2018, 15:57
PRIMA REVIEW


LINK (https://www.guru3d.com/articles-pages/nvidia-turing-geforce-2080-(ti)-architecture-review,1.html)

:eek:

appleroof
14-09-2018, 15:59
...... senza bench...

:asd:

maxmix65
14-09-2018, 16:04
Anche qui molto interessante
https://pclab.pl/art78760-2.html

appleroof
14-09-2018, 16:06
Mamma mia però che gpu complesse, chissà i costi per progettarle e produrle :O :asd:

maxmix65
14-09-2018, 16:09
Dalle foto su Guru3d sulla Msi Trio ci sta anche la staffa di supporto penso per non farla flettere..pesera' parecchio

Alodesign
14-09-2018, 16:11
Mamma mia però che gpu complesse, chissà i costi per progettarle e produrle :O :asd:

Dovranno pur far qualcosa sti ingegnIeri.

Thunder-74
14-09-2018, 16:16
Diciamo che le nuove RTX sono un ibrido tra il mondo Gaming e quello professional ... chissà se i TC possono essere sfruttati anche in ambito CAD/Ray tracing ...

Probabilmente solo le future quadro...

Inviato dal mio iPhone X utilizzando Tapatalk

aeN_13
14-09-2018, 16:22
Dalle foto su Guru3d sulla Msi Trio ci sta anche la staffa di supporto penso per non farla flettere..pesera' parecchio

Il peso è già riportato nelle specifiche (https://it.msi.com/Graphics-card/GeForce-RTX-2080-Ti-GAMING-X-TRIO/Specification): 1870 g

Ale55andr0
14-09-2018, 16:25
la 2070 considerando i cuda core pare deludente, ok ha più banda di una 1080 che era un limite ma quei numeri per una gpu da 600 cartoni mi fanno raccapriccio. Io immaginavo un bel chip 3072/192/96 con 12gigi a 384bit come 2080, manco quello. Tirchi a dir poco sulla carta, cut per tutti e mattoni per un rtx ingestibile per tutto cio che non è una 2080ti

X-ray guru
14-09-2018, 16:26
Mamma mia però che gpu complesse, chissà i costi per progettarle e produrle :O :asd:

Progettarle di sicuro, per produrle si usa sempre lo stesso metodo delle precedenti. :)

AceGranger
14-09-2018, 16:28
Diciamo che le nuove RTX sono un ibrido tra il mondo Gaming e quello professional ... chissà se i TC possono essere sfruttati anche in ambito CAD/Ray tracing ...

Probabilmente solo le future quadro...

Inviato dal mio iPhone X utilizzando Tapatalk

si, perchè i Tensor Core si occuperanno di fare il De-Noise.

fra l'altro gli RT core andranno ad accelerare anche il render GPGPU "classico" progressivo, e non solo quello Real Time

maxmix65
14-09-2018, 16:29
Comunque dal commento del video che riguarda overclock automatico Nvidia postato da hardwaredeluxx si parla di 2150mhz sulla rtx 2080Ti reference

The_SaN
14-09-2018, 16:32
Comunque dal commento del video che riguarda overclock automatico Nvidia postato da hardwaredeluxx si parla di 2150mhz sulla rtx 2080Ti reference

Non male...chissà i "chippini" se riusciranno a spingere oltre.

Thunder-74
14-09-2018, 16:32
Comunque dal commento del video che riguarda overclock automatico Nvidia postato da hardwaredeluxx si parla di 2150mhz sulla rtx 2080Ti reference


Non male... bisogna vedere se le custom serie sapranno fare di meglio ...


Inviato dal mio iPhone X utilizzando Tapatalk

Thunder-74
14-09-2018, 16:34
si, perchè i Tensor Core si occuperanno di fare il De-Noise.

fra l'altro gli RT core andranno ad accelerare anche il render GPGPU "classico" progressivo, e non solo quello Real Time



Ok, però credo che saranno supportate solo le quadro via drivers...


Inviato dal mio iPhone X utilizzando Tapatalk

AceGranger
14-09-2018, 16:35
Ok, però credo che saranno supportate solo le quadro via drivers...


Inviato dal mio iPhone X utilizzando Tapatalk

no no, è quello il bello :D

i motori professionali comunque si baseranno sulle DXR, quindi funzioneranno anche le GeForce

https://www.chaosgroup.com/blog/what-does-the-new-nvidia-rtx-hardware-mean-for-ray-tracing-gpu-rendering-v-ray

qui poi citano espressamente le 2080 e 2080Ti per usare pure l'nVlink :D

"Until now, the technology has only been available on professional Quadro and Tesla cards, but with the release of the RTX series, NVLink is also available on gaming GPUs - specifically on the GeForce RTX 2080 and GeForce RTX 2080 Ti. Connecting two cards with NVLink requires a special NVLink connector, which is sold separately."

Giovamas
14-09-2018, 16:38
Non male... bisogna vedere se le custom serie sapranno fare di meglio ...


Inviato dal mio iPhone X utilizzando Tapatalk

ripeto.. a me spaventano i tre connettori della Trio.

ilcose
14-09-2018, 16:43
Dalle foto su Guru3d sulla Msi Trio ci sta anche la staffa di supporto penso per non farla flettere..pesera' parecchioGuru ha la trio? Mi ci fiondo appena arrivo a casa!

Inviato dal mio ZTE A2017G utilizzando Tapatalk

Thunder-74
14-09-2018, 16:44
ripeto.. a me spaventano i tre connettori della Trio.


A me no :)

no no, è quello il bello :D



i motori professionali comunque si baseranno sulle DXR, quindi funzioneranno anche le GeForce



https://www.chaosgroup.com/blog/what-does-the-new-nvidia-rtx-hardware-mean-for-ray-tracing-gpu-rendering-v-ray



qui poi citano espressamente le 2080 e 2080Ti per usare pure l'nVlink :D



"Until now, the technology has only been available on professional Quadro and Tesla cards, but with the release of the RTX series, NVLink is also available on gaming GPUs - specifically on the GeForce RTX 2080 and GeForce RTX 2080 Ti. Connecting two cards with NVLink requires a special NVLink connector, which is sold separately."


Ottima cosa



Inviato dal mio iPhone X utilizzando Tapatalk

Giovamas
14-09-2018, 17:09
A me no :)






Inviato dal mio iPhone X utilizzando Tapatalk

io l'ho ordinata.. spero vivamente che non sia un forno :) :sofico:

Giovamas
14-09-2018, 17:12
Guru ha la trio? Mi ci fiondo appena arrivo a casa!

Inviato dal mio ZTE A2017G utilizzando Tapatalk

si qua (e vedi anche la staffa)

https://www.guru3d.com/articles_pages/nvidia_turing_geforce_2080_(ti)_architecture_review,11.html

Thunder-74
14-09-2018, 17:25
io l'ho ordinata.. spero vivamente che non sia un forno :) :sofico:

Ha un dissipatore generoso. Il fatto che abbia tre connettori, potrebbe darti la possibilità di occare di più (sperando che Turing non sia come Pascal e Maxwell), non per forza essere più energivora ;)

edit_user_name_here
14-09-2018, 17:30
a maggior ragione.

Io pensavo che in 4k la cpu lavorasse meno ma comunque grazie :)

FroZen
14-09-2018, 17:38
Ha un dissipatore generoso. Il fatto che abbia tre connettori, potrebbe darti la possibilità di occare di più (sperando che Turing non sia come Pascal e Maxwell), non per forza essere più energivora ;)

probabilmente sarà ancora peggio a meno di shuntare

TigerTank
14-09-2018, 17:39
Comunque dal commento del video che riguarda overclock automatico Nvidia postato da hardwaredeluxx si parla di 2150mhz sulla rtx 2080Ti reference

Non male... bisogna vedere se le custom serie sapranno fare di meglio ...


Più che altro bisogna vedere i relativi incrementi di prestazioni e di framerate in base al plus di frequenza impostabile :)
Se fanno come le pascal, oltre un tot. la resa calava e overcloccare oltre inficiando magari la stabilità, non conveniva/conviene.
E ovviamente anche i sistemi di taglio temp e pl.

Dalle foto su Guru3d sulla Msi Trio ci sta anche la staffa di supporto penso per non farla flettere..pesera' parecchio

E slot PCI-E rinforzati sulla mobo :sofico:

TigerTank
14-09-2018, 17:46
Ok quindi da questo punto di vista niente di nuovo. Continueremo ad avere i soliti profili SLI che arrivano quando gli sviluppatori hanno finito di risolvere i bug più seri del gioco (tre mesi dopo il lancio quindi) e amen.

Con un ponticello proprietario che a questo giro piazzano a ben 85€ :D

edit_user_name_here
14-09-2018, 17:46
Sul DLSS:



Non è un upscaling quindi...

Fondamentalmente renderizzi normalmente, poi l'AI trainata dal supercomputer ritocca l'immagine per farla assomigliare il più possibile a quello che sarebbe se fosse stata passata per un filtro supersampling 64x (lol).

Non male, ma molto meno rivoluzionario di quanto avrebbe potuto essere se fosse stato un upscale di qualità del 2k in 4k.

Anche su hwupgrade hanno dato notizia ma l'articolo è uno dei più lunghi mai visto non ce la faccio a leggerlo senza che gli occhi partono :D

Thunder-74
14-09-2018, 17:48
Io pensavo che in 4k la cpu lavorasse meno ma comunque grazie :)
si intendevo che in 4k si è meno CPU Limited, quindi a maggior ragione puoi stare tranquillo

Più che altro bisogna vedere i relativi incrementi di prestazioni e di framerate in base al plus di frequenza impostabile :)
Se fanno come le pascal, oltre un tot. la resa calava e overcloccare oltre inficiando magari la stabilità, non conveniva/conviene.
E ovviamente anche i sistemi di taglio temp e pl.



E slot PCI-E rinforzati sulla mobo :sofico:

si infatti l'ho menzionato nel successivo post. Diciamo che mangari per quanto riguarda temp e PL, la Trio potrebbe essere una buona scelta... tutto da scoprire.

TigerTank
14-09-2018, 17:51
si infatti l'ho menzionato nel successivo post. Diciamo che mangari per quanto riguarda temp e PL, la Trio potrebbe essere una buona scelta... tutto da scoprire.

Esatto :)

Comunque...forse ho capito male ma usare il DLSS vorrà dire che saremo praticamente "supervisionati" da una specie di Skynet che farà da elaboratore grafico? Non è che magari tramite quello ci infileranno telemetrie e altre cosine di analisi(che ora si disattivano con Autoruns64)? :D

edit_user_name_here
14-09-2018, 17:59
si intendevo che in 4k si è meno CPU Limited, quindi a maggior ragione puoi stare tranquillo



si infatti l'ho menzionato nel successivo post. Diciamo che mangari per quanto riguarda temp e PL, la Trio potrebbe essere una buona scelta... tutto da scoprire.

Grazie per il chiarimento :D cmq ho visto che queste schede parlano anche del 8k nel display port.