PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 [188] 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

mikael84
17-05-2020, 16:52
Ora non puoi appoggiarti al solo pp, e le nuove ampere si è parlato di un miglioramento nell'ipc pari al 20% e un raddoppio totale dei tensor core e non mi sembra poco...

Ci sono quei tensor core estremamente giganti, bisogna vedere se li metteranno interi.
Sono pari a 8 partizioni FP16, contro le 4 di Turing (di cui una sola lasciata per x116)

Con Turing, nVidia ha barato, ha dimezzato i tensor, ed ha riportato il valore di Volta, ma non è così.
Tutto visibile via SM, ma ha dichiarato il 2x.

Ad esempio, la 2080ti, ha 272 tensor, che sono gli stessi dichiarati ad una 2060 super.
https://images.anandtech.com/graphs/graph13346/100943.png


Se mettono i tensor di Ampere, abbiamo un raddoppio completo, come da formula del mio calcolo.
Questo ruberà spazio e svariati transistor anche ai chip piccoli:)

razor820
17-05-2020, 16:54
Che farà oltre 30 fps in 4K lo possiamo escludere già a priori se abbiano fatto o no delle strategie pro Xbox.. Anche perché se useranno il solito motore degli ac, che già faticava reggere i 60fps in 2k con una 2080....
Tranne che stravolgeranno e uscirà un nuovo engine grafico, ma dubito conoscendo i Franco-canadesi

parcher
17-05-2020, 16:58
La cosa assurda è che consumerebbe come la 5700 xt, andando quanto? 2.5 volte? Terrificante se fosse vero.

Aggiungi, costando anche il triplo cosi a naso, terrificante anche quello ...;)

Gello
17-05-2020, 17:11
Aggiungi, costando anche il triplo cosi a naso, terrificante anche quello ...;)

Come ogni cosa verra' prezzata al massimo ottenibile senza sacrificare i volumi, non mi sembra astruso come concetto :)

PS adesso si potrebbe anche tornare IT volendo, coi vostri tostapane Sony e Ok il prezzo e' giusto.... :sofico:

parcher
17-05-2020, 17:17
Come ogni cosa verra' prezzata al massimo ottenibile senza sacrificare i volumi, non mi sembra astruso come concetto :)



sul "verrà prezzata al massimo" mi e' passato un brivido lungo la schiena :D

mai avuto una in vita mia, di tostapane Sony :help:

razor820
17-05-2020, 17:19
Se non ne hai avuto mai in vita tua è grave...
Non dirlo almeno.. E te lo dice uno che ne ha spesi a migliaia sulle gpu nvidia negli ultimi 5 anni

Andy1111
17-05-2020, 17:20
Dipende da quanto supererà la 2070, ipotizziamo un 50%. Se almeno l'xbox (no RT) arriverà ai livelli di una 2080, la 3070 supererà le console di quanto, di un 25% scarso? Non è che ci sarebbe da strapparsi i capelli e da vantarsi di chissà quale superiorità, rispetto a una "scatoletta".

Sempre se la 3070 e la 3060 verranno fatte coi 7 tsmc oppure con gli 8 samsung


Se mettono i tensor di Ampere, abbiamo un raddoppio completo, come da formula del mio calcolo.
Questo ruberà spazio e svariati transistor anche ai chip piccoli:)

e un bel po di WATT

Ton90maz
17-05-2020, 17:41
cioè dici che la 3070 farà 35fps su assassin valhalla? perchè su serie x ubisoft ha detto che girerà a 30fps e conoscendo il modus operandi delle console non saranno per nulla stabili, quindi aspettati anche i 20fps :asd:Potrebbe farne anche 25, perché? Non si sa nulla del gioco, neanche a che risoluzione e frame rate va su console. Non ho capito il punto. Anzi, forse l'ho capito ma spero di aver frainteso.

Si ma infatti anche la ps4 e X box s dovevano fare il miracolo poi sappiamo tutti come è andata la storia...Non promettevano alcun miracolo... ancora si fanno i paragoni con console che venivano sventrate da schede video da 200 euro, con la cpu roito e l'hard disk della chicco? :rolleyes:

mikael84
17-05-2020, 17:56
e un bel po di WATT

Per forza di cose si, quindi per rientrare nel TDP abbassa il clock quanto serve;)
Ma non è detto che siano quelli.
Alla fine di 336 tensor da 380 TF FP16 te ne fai poco, se con Turing stai sui 50.
Mandandoli a mezzo ratio ti ritroveresti quasi un 4x, più che suffciente.

Ton90maz
17-05-2020, 17:58
Purtroppo il progreso tecnologico viene sempre tarato al ribasso per salvare capra e cavoli, non bisogna mai scontentare nessuno in una sorte di politcally correctness tecnologico.
Tecnologie ottime e disponibili scartate per non tagliare fuori gli oltranzisti e non scontentare le "minoranze".

Tanto per fare un paragone, nei giochi che usavano il physx con hardware dedicato il risultato c'era. Ad oggi nuovi motori grafici implementano effetti similari senza l'ausilio di HW dedicato ma senza però raggiungere appieno quei livelli. Con il RT clonazzo di AMD a partire dalle sue nuove scatolette con hardware liofilizzato ed a seguire coi suoi fallimentari fermacarte di seconda generazione sarà la stessa cosa.Non riesco a immaginare da dove entrerebbero i soldi, se si sviluppasse solo per la manciata di dispositivi che già coi fermacarte e le scatolette costa l'ira di dio, figuriamoci senza.

Bisogna sempre mantenere un equilibrio, solo in tempi di competizione o di guerra si hanno salti tecnologici evidenti ed io preferisco la competizione, quindi spero che amd ci stupisca ancora. Se volesse nvidia applicherebbe una tattica aggressiva sui prezzi e farebbe fuori amd nel settore. Ma visto che l'antitrust non lo permette come giusto che sia, per salvare capre e cavoli ci ritroviamo con schede che costano il 50%in più.

IMHOMi sembra tutto molto strano. Tra l'altro invidia stessa, con turing e il nodo di svantaggio, nemmeno era nelle condizioni di farlo, visto che ha dei padelloni grossi il doppio e forse anche più costosi dei chippini amd. Ma in ogni caso, era quella che perdeva più soldi. Invece così, prezzi gonfiati e tutti felici e contenti (tranne i consumatori).

Predator_1982
17-05-2020, 18:55
Bisogna sempre mantenere un equilibrio, solo in tempi di competizione o di guerra si hanno salti tecnologici evidenti ed io preferisco la competizione, quindi spero che amd ci stupisca ancora. Se volesse nvidia applicherebbe una tattica aggressiva sui prezzi e farebbe fuori amd nel settore. Ma visto che l'antitrust non lo permette come giusto che sia, per salvare capre e cavoli ci ritroviamo con schede che costano il 50%in più.

IMHO

Qualunque società che investe suon di miliardi, soprattutto per sviluppare una nuova architettura, non può permettersi di sotto prezzare un prodotto solo per far fuori un concorrente, soprattutto con prodotti di tale complessità. AMD, in ogni caso, ha già dimostrato in ambito CPU di avere le potenzialità per capovolgere uno scenario considerato statico da anni, non mi sorprenderebbe vedere negli anni una svolta anche lato GPU. In ogni caso, da utente finale che bada alla propria tasca, sceglierò sempre il prodotto che più mi convince (dopo 10 anni di Cpu Intel non ho esitato a investire sui ryzen 3xxx)

Gello
17-05-2020, 19:21
Purtroppo AMD non ha le risorse per competere per far scatenare una guerra dei prezzi (che comunque non farebbe comodo a nessuno), Nvidia e' sempre piu' un colosso, fra qualche anno il gaming non sara' nemmeno il loro core business (e gia' adesso lo e' solo per il fatturato).

Lato CPU come hai detto si ha questo scenario per un lustro di staticita' del settore e fondamentalmente perche' Intel non ha ragione per fare bagarre su una (per loro) minuscola fetta di mercato, gia' stanno faticando a soddisfare la domanda del mercato.

A prescindere da questo la guerra dei prezzi ce la possiamo scordare, non fa comodo a nessuno e sappiamo quanto questa industria sia impenetrabile per nuovi players.

Si tagliano segmenti di mercato facendoci credere in una competizione che in realta' non esiste.

Acme
17-05-2020, 19:51
Qualunque società che investe suon di miliardi, soprattutto per sviluppare una nuova architettura, non può permettersi di sotto prezzare un prodotto solo per far fuori un concorrente, soprattutto con prodotti di tale complessità. AMD, in ogni caso, ha già dimostrato in ambito CPU di avere le potenzialità per capovolgere uno scenario considerato statico da anni, non mi sorprenderebbe vedere negli anni una svolta anche lato GPU. In ogni caso, da utente finale che bada alla propria tasca, sceglierò sempre il prodotto che più mi convince (dopo 10 anni di Cpu Intel non ho esitato a investire sui ryzen 3xxx)

Tu parli di sotto prezzare e io di sovra prezzare.
Se la 2060 avesse avuto un avversaria sarebbe uscita al suo prezzo cioè 200/250 e probabilmente già in versione S, ma a quel prezzo vendevano la 580 con prestazioni nettamente inferiori, quindi hanno alzato i prezzi, riciclato la 1060 e creato una nuova fascia, chiamali scemi. In questo modo amd ha potuto ancora vendere qualche scheda aspettando navi, mantenendo un minimo di markeshare.
Speriamo che questa cosa non si ripeti in futuro, senza concorrenza seria a rimetterci sarà sempre il consumatore.

IMHO

maxmix65
17-05-2020, 21:42
edit sbagliato 3d

Ale55andr0
18-05-2020, 13:53
La cosa assurda è che consumerebbe come la 5700 xt, andando quanto?2.5 volte?Terrificante se fosse vero.

per AMD, e per il portafoglio.

Ui uill sii

mikael84
18-05-2020, 14:36
La cosa assurda è che consumerebbe come la 5700 xt, andando quanto?2.5 volte?Terrificante se fosse vero.

2,5 no ma un 2x si. Cmq RDNA2 sarà certamente migliore in rapporto.
Io di terrificante vedo gente che paragona una Tesla HPC con warp che possono eseguire il mondo simultaneamente ad un chip gaming, questa è la cosa davvero terrificante.:eek:

ninja750
18-05-2020, 14:38
e per il portafoglio.


bah in questo thread sembra che nessuno badi a quello

Gello
18-05-2020, 15:14
bah in questo thread sembra che nessuno badi a quello

Cattivoni!

AceGranger
18-05-2020, 15:32
2,5 no ma un 2x si. Cmq RDNA2 sarà certamente migliore in rapporto.
Io di terrificante vedo gente che paragona una Tesla HPC con warp che possono eseguire il mondo simultaneamente ad un chip gaming, questa è la cosa davvero terrificante.:eek:


gia, o senza minimamente calcolare l'enormità di TDP riservato per 12 nVLink da 600Gb/s... quando, per esempio, l'Infinity Fabric di AMD sono solo 190 GB/s, o la banda delle HBM delle Instinct è 1000 Gb/s....

Predator_1982
18-05-2020, 15:50
bah in questo thread sembra che nessuno badi a quello

mi stupirebbe notare il contrario, considerando che qui si punta come minimo alle top di gamma :D

Telstar
18-05-2020, 16:22
Ma come si fa a parlare di prezzi overprezzati su schede non ancora uscite e che vedranno la luce nel 2021?

Perché sono 5 anni che nvidia sovraprezza tutto.

mikael84
18-05-2020, 18:03
gia, o senza minimamente calcolare l'enormità di TDP riservato per 12 nVLink da 600Gb/s... quando, per esempio, l'Infinity Fabric di AMD sono solo 190 GB/s, o la banda delle HBM delle Instinct è 1000 Gb/s....

Conta solo la FP32 a clock base e si è arrivati al limite, con il clock che regredisce.:p
Ovviamente l'nvlink da 600gb/s su 12 canali.
-7200cc disponibili, 2 sono ridondanti, ma 8196 totali.
- 48gb di ram su un bus da 6144st totali a quasi 2tb/s (sono in ddr6 768bit)
-48mb di cache totali posizionati che collegano i canali con 192 rop's
Il warp può eseguire contemporaneamente FP32/FP64 e Tensor core.
-l1 quasi doppia rispetto ai chip gaming per SM, per un totale di 24mb
-file di registro esteso a 27mb

Tensor core con ratio 4x da 64x a 256x fp16
FP16 con tensor 316tf - 624tf sparsity
FP64 che arriva a 20tf via tensor
INT8 a 624 tops 2x sparsity

Modalità mista TF32/FP16 mix precision, cambiando la virgola mobile, ovvero abbassando la mantissa da 23 a 10 bit.
Bloat16: esponente ad 8 bit e mantissa scesa a 7 + segno 16 bit.


Ecco che questo mi sembra un chiaro scenario per GPU gaming.:p

-

AceGranger
18-05-2020, 19:21
Conta solo la FP32 a clock base e si è arrivati al limite, con il clock che regredisce.:p
Ovviamente l'nvlink da 600gb/s su 12 canali.
-7200cc disponibili, 2 sono ridondanti, ma 8196 totali.
- 48gb di ram su un bus da 6144st totali a quasi 2tb/s (sono in ddr6 768bit)
-48mb di cache totali posizionati che collegano i canali con 160 rop's
Il warp può eseguire contemporaneamente FP32/FP64 e Tensor core.
-l1 quasi doppia rispetto ai chip gaming per SM, per un totale di 24mb
-file di registro esteso a 27mb

Tensor core con ratio 4x da 64x a 256x fp16
FP16 con tensor 316tf - 624tf sparsity
FP64 che arriva a 20tf via tensor
INT8 a 624 tops 2x sparsity

Modalità mista TF32/FP16 mix precision, cambiando la virgola mobile, ovvero abbassando la mantissa da 23 a 10 bit.
Bloat16: esponente ad 8 bit e mantissa scesa a 7 + segno 16 bit.


Ecco che questo mi sembra un chiaro scenario per GPU gaming.:p

-

come die size quanto occupa l'attuale collegamento HBM ? e invece quanto occupera l'ipotetico 384 bit delle 3080Ti ?

Acme
18-05-2020, 20:28
2,5 no ma un 2x si. Cmq RDNA2 sarà certamente migliore in rapporto.
Io di terrificante vedo gente che paragona una Tesla HPC con warp che possono eseguire il mondo simultaneamente ad un chip gaming, questa è la cosa davvero terrificante.:eek:

È da quando sono state presentate che lo facciamo notare, ma loro vedono solo
19,5tf a 400w.
Non c'è peggior sordo di chi non vuol ascoltare.

IMHO

devAngnew
18-05-2020, 22:41
Perché sono 5 anni che nvidia sovraprezza tutto.

:O

mikael84
18-05-2020, 23:19
come die size quanto occupa l'attuale collegamento HBM ? e invece quanto occupera l'ipotetico 384 bit delle 3080Ti ?

Non conosco gli mm2 precisi delle nuove, però ti posso confermare al 100% che i 384bit della 2080ti pesano 322mm2.
Tra i collegamenti ci sono 96 rop's, 6mb l2 ed nvlink.
Un canale da 64 bit necessita di 1,5mtransistor.

Con turing ti ritroveresti 644mm2 di collegamenti, al quale andrebbe aggiunto l'nvlink ben maggiorato e 4 volte la cache l2.
Praticamente tutto Turing servirebbe per i soli collegamenti.:)

È da quando sono state presentate che lo facciamo notare, ma loro vedono solo
19,5tf a 400w.
Non c'è peggior sordo di chi non vuol ascoltare.

IMHO

Chi dice questo, purtroppo, non ha neppure la base della microarchitettura.
Alcuni Parlano di rapporti tra Pascal e Maxwell come raffronti, e proprio li che casca l'asino di chi non sa l'ABC.

Nurabsa
19-05-2020, 10:38
cut
Tanto per fare un paragone, nei giochi che usavano il physx con hardware dedicato il risultato c'era. Ad oggi nuovi motori grafici implementano effetti similari senza l'ausilio di HW dedicato ma senza però raggiungere appieno quei livelli. Con il RT clonazzo di AMD a partire dalle sue nuove scatolette con hardware liofilizzato ed a seguire coi suoi fallimentari fermacarte di seconda generazione sarà la stessa cosa.

tutt'oggi con immensa soddisfazione uso giochi physx e non posso non notare che vanno tutti in 4k con aa4/8x (trasparenze).
Al contrario havok 2x massimo dipende dal titolo anche filtri off.

La riflessione parte spontanea l hardware ha risorse da vendere altro che paragoni con le console.
Le gpu di punta da maxwell in su sono potenzialmente anni luce avanti. Sono i signori programmatori a fare il bello ed in cattivo tempo.

Predator_1982
19-05-2020, 11:38
Le gpu di punta da maxwell in su sono potenzialmente anni luce avanti. Sono i signori programmatori a fare il bello ed in cattivo tempo.

Fondamentalmente la penso come te, il problema è che spesso fanno il bello e cattivo tempo anche in accordo con i produttori di GPU che magari finanziano anche lo sviluppo di un titolo (usati come trampolini di lancio anche di nuove schede video).

A differenza di una console, che non puoi far cambiare ogni anno alla gente e con un hw non rimpiazzabile che costringe all'ottimizzazione, nel mondo pc devono sempre trovare il modo di giustificare il cambio di un componente.

Il raytracing (che secondo me è un passo fondamentale nell'evoluzione grafica verso il foto realismo) è stato il modo migliore per incentivare nuovamente il lavoro di incremento di potenza computazionale sulle GPU e, di conseguenza, la "necessità" di cambiarle per far fronte alla complessità dei nuovi motori grafici, così come anche il puntare a risoluzioni di gioco sempre più spinte o al VR.

Poi ovvio, che ben venga il progresso, diversamente saremmo ancora fermi alla grafica di Duke Nukem 3d

ninja750
19-05-2020, 13:23
Il raytracing (che secondo me è un passo fondamentale nell'evoluzione grafica verso il foto realismo) è stato il modo migliore per incentivare nuovamente il lavoro di incremento di potenza computazionale sulle GPU

e prima di quello, il 4K

dopo verrà l'8K e ci sentiremo barboni se la nostra vga digerisce a malapena il 4k

ricordo ai tempi che si dichiarava la pace dei sensi il giorno in cui avremo avuto hardware abbordabile per giocare tutto maxato in full hd

quando avremo hardware 8k con rt a 60fps sono sicuro che rispolvereranno idee stile physx :asd:

FroZen
19-05-2020, 13:25
Le esigenze che abbiamo ce le imponiamo noi il 90% delle volte, quindi...

Ubro92
19-05-2020, 13:28
Le esigenze che abbiamo ce le imponiamo noi il 90% delle volte, quindi...

C'è gente che dice di trovarsi bene a giocare con notebook con MX250 o Vega 8 e altri che con la 2080ti non riescono a tirare su pacman :sofico:

MrBrillio
19-05-2020, 14:26
e prima di quello, il 4K

dopo verrà l'8K e ci sentiremo barboni se la nostra vga digerisce a malapena il 4k

ricordo ai tempi che si dichiarava la pace dei sensi il giorno in cui avremo avuto hardware abbordabile per giocare tutto maxato in full hd

quando avremo hardware 8k con rt a 60fps sono sicuro che rispolvereranno idee stile physx :asd:

Io sinceramente con il 3440x1440 ho trovato la pace dei sensi..forse anche per quello son riuscito a tenermi la 1080Ti fino ad adesso. Però...adesso ho messo nel mirino i 49" 5120x1440 e quindi "tocca" salire di qualcosina :D

Ubro92
19-05-2020, 14:31
Io sinceramente con il 3440x1440 ho trovato la pace dei sensi..forse anche per quello son riuscito a tenermi la 1080Ti fino ad adesso. Però...adesso ho messo nel mirino i 49" 5120x1440 e quindi "tocca" salire di qualcosina :D

C'è da dire che pesa comunque meno del 4K, secondo me ti conviene prenderti un visore, non so quanto convenga allargarti ancora :fagiano:

euscar
19-05-2020, 14:31
E avanti con il consumismo :asd:

La pace dei sensi si raggiunge con il giusto compromesso.
Di certo non inseguendo sempre il top ...

... non sto dicendo che è sbagliato, ognuno ha il diritto di inseguire i propri desideri e spendere quello che vuole, ma mettiamo la cosa sul giusto piatto della bilancia ;)

MrBrillio
19-05-2020, 14:42
C'è da dire che pesa comunque meno del 4K, secondo me ti conviene prenderti un visore, non so quanto convenga allargarti ancora :fagiano:

Già preso il Quest, ma il 49" mi attrae un sacco soprattutto per i SIM e la produttività (anche se il 34" va già benone eh), però c'è il G9 di Samsung in arrivo che mi fa sbavare ogni volta che lo vedo :eek:

E avanti con il consumismo :asd:
La pace dei sensi si raggiunge con il giusto compromesso.
Di certo non inseguendo sempre il top ...
... non sto dicendo che è sbagliato, ognuno ha il diritto di inseguire i propri desideri e spendere quello che vuole, ma mettiamo la cosa sul giusto piatto della bilancia ;)

Ma infatti il 4K lato PC lo sto saltando a piè pari in favore di qualcosa di più immersivo ;)
Il 4K lo rilego alla TV con scatolette annesse, ma per PC prediligo avere più fps e un risultato diverso rispetto al mattonazzo del 4K. Tant'è che probabilmente anche una 3080 potrebbe bastarmi in futuro.

mattxx88
19-05-2020, 15:25
https://www.guru3d.com/news-story/nvidia-drops-tesla-branding-in-favor-to-tesla-(the-car-manufacturer).html

addio al brand Tesla sulle gpu??

mikael84
19-05-2020, 15:50
https://www.guru3d.com/news-story/nvidia-drops-tesla-branding-in-favor-to-tesla-(the-car-manufacturer).html

addio al brand Tesla sulle gpu??

Si l'ho notato pure io, nvidia non la chiama Tesla
https://i.postimg.cc/bJgw4gQj/tesla.png

L'ultima Tesla è la T4 (2070 super praticamente) con ddr5x

FroZen
19-05-2020, 15:51
La A sta per Arcturus, giusto? :ciapet:

mattxx88
19-05-2020, 16:01
La A sta per Arcturus, giusto? :ciapet:

lol

mikael84
19-05-2020, 16:01
La A sta per Arcturus, giusto? :ciapet:

Si, Polaris, Vega e Arcturus:O

mattxx88
19-05-2020, 16:02
Si l'ho notato pure io, nvidia non la chiama Tesla
https://i.postimg.cc/bJgw4gQj/tesla.png

L'ultima Tesla è la T4 (2070 super praticamente) con ddr5x

io fatalità un pò di tempo fa mi chiedevo come facessero a coesistere i due "brand" ed ecco, cambiato nome

mikael84
21-05-2020, 15:31
io fatalità un pò di tempo fa mi chiedevo come facessero a coesistere i due "brand" ed ecco, cambiato nome

Va beh. ormai nvidia quei chip te li mette in ogni dove, dalle quadro, anche alle gaming.:)
Per me rimane il chip HPC e basta.:p

Certo che se questo chip lo adatti al gaming/quadro, lo devi realmente devastare.
https://i.postimg.cc/XNdzSkGD/esa.png

argez
22-05-2020, 11:14
C'è un rumor in giro che il pcb sia "itx" o cmq particolarmente compatto e che abbia un power consumption molto alto (più di 250w?). Anche nell'eventualità che fosse vero potrebbero coesistere le due cose?

Gello
22-05-2020, 11:45
Lol tralasciando che PCB itx non esiste, non sai che le dimensioni non contano ? :wtf: :D

supersalam
04-06-2020, 07:53
e prima di quello, il 4K

dopo verrà l'8K e ci sentiremo barboni se la nostra vga digerisce a malapena il 4k

ricordo ai tempi che si dichiarava la pace dei sensi il giorno in cui avremo avuto hardware abbordabile per giocare tutto maxato in full hd

quando avremo hardware 8k con rt a 60fps sono sicuro che rispolvereranno idee stile physx :asd:Credo che all'8k ci si arriverà inizialmente solo tramite scaling in machine learning.
E comunque prevedo nei prossimi anni un incremento considerevole del cloud gaming lato PC.

Inviato dal mio SM-G930F utilizzando Tapatalk

OrazioOC
06-06-2020, 09:14
https://videocardz.com/newz/nvidia-geforce-rtx-3080-pictured

E andiamo! :D

fraussantin
06-06-2020, 09:29
https://videocardz.com/newz/nvidia-geforce-rtx-3080-pictured



E andiamo! :DE senza dubbio un prototipo , ma la linea finale potrebbe essere simile .

Non capisco il senso di una ventola sola come quella. Non è sagomata come le blower. Ma non è posizionata sulla GPU ma a monte di tutto come Una blower..

Andy1111
06-06-2020, 09:58
E senza dubbio un prototipo , ma la linea finale potrebbe essere simile .

Non capisco il senso di una ventola sola come quella. Non è sagomata come le blower. Ma non è posizionata sulla GPU ma a monte di tutto come Una blower..

sono due una è sotto

Il design è davvero unico, entrambi i fan sono posizionati sui lati opposti della scheda spingendo l'aria in diverse direzioni.

fraussantin
06-06-2020, 10:02
sono due una è sotto

vero ero al cellulare non avevo notato la cosa :

il pcb è cortissimo allora.. boh strana davvero come cosa..

Crysis90
06-06-2020, 13:29
https://i.imgur.com/dPjuM39.jpg

E andiamo! :D

https://i.imgur.com/KsLt6ne.jpg

OrazioOC
06-06-2020, 13:39
Come prototipo non è neanche brutto, e quelle vapor chamber verranno coperte dalla plastica del dissipatore, il risultato finale potrebbe essere veramente interessante.:D

Ubro92
06-06-2020, 13:50
Come design estetico a me non dispiace, forse solo il design della ventola in vista è un pò da rivedere.

Curioso di vedere anche le performance nei bench, ma tanto credo che andremo tutti sulle classiche custom, e per chi liquida opta per la prima barbon edition al prezzo inferiore che trova :fagiano:

fraussantin
06-06-2020, 13:56
Certo per chi mette in verticale la gpu la farebbe diventare un ottima aspirapolvere per il fondo del case :asd:

Forse devo farci l'occhio , ma con i classici 2 ventoloni affiancati sempre con quel doppio nido d'ape forse mi sarebbe piaciuta di più.

Aspettiamo e vediamo l'efficenza.


La foto da uno strano effetto ottico non si capisce bene quanto è spesso il dietro della scheda rispetto all'attacco pcie.

Quello pellicolato immagino sia alluminio.

Andy1111
06-06-2020, 14:01
Nuovo leak sulla 3080

NIVIDIA’s RTX 3080 Getting Spec Upgrade? Might Ship With GA 102-200 And 4352 CUDA Cores

https://wccftech.com/nividias-rtx-3080-getting-spec-upgrade-might-ship-with-ga-102-200-and-4352-cuda-cores/

10GB vRAM

15 TFLOPs

At a conservative clock speed of just 1.75GHz

Ale55andr0
06-06-2020, 14:21
manco gli 11giga di una 1080ti di quasi 4 anni fa? :rolleyes:

mikael84
06-06-2020, 14:33
manco gli 11giga di una 1080ti di quasi 4 anni fa? :rolleyes:

Da quello che è emerso da qualche giorno, hanno cancellato il GA103, e storpiato il GA102 per questo chip.
Praticamente hanno laserato (se fosse confermato), 2 partizioni cache e 16 rop's.
In linea di massima dovrebbe essere così: 4352cc/ 80 rop's/ 10gb a 320bit.

La doppia densità difficilmente la metteranno. La 2080ti da 11gb arriva a 50watt già così.

Nuovo leak sulla 3080

NIVIDIA’s RTX 3080 Getting Spec Upgrade? Might Ship With GA 102-200 And 4352 CUDA Cores

https://wccftech.com/nividias-rtx-3080-getting-spec-upgrade-might-ship-with-ga-102-200-and-4352-cuda-cores/

10GB vRAM

15 TFLOPs

At a conservative clock speed of just 1.75GHz

Della cancellazione del GA103 (3080), se ne parla da tempo, quindi la 3080 su GA102 storpiato ci può stare, ma attenzioni ai particolari, come le ddr6 da 21gb/s. Questo è una fesseria assurda.:)

Ubro92
06-06-2020, 14:36
Quindi mi sembra di capire che 3080 e 3080ti condivideranno lo stesso chip.

Così come 3070 e 3060, in sostanza siamo tornati alla gerarchia di Kepler.



Inviato dal mio Redmi Note 4 utilizzando Tapatalk

mikael84
06-06-2020, 15:02
Quindi mi sembra di capire che 3080 e 3080ti condivideranno lo stesso chip.

Così come 3070 e 3060, in sostanza siamo tornati alla gerarchia di Kepler.



Inviato dal mio Redmi Note 4 utilizzando Tapatalk

Potrebbe essere in parte reale, rese pessime, e probabilmente anche paura dell'avversario.
Però i 21 gb/s, sono una trollata, magari a 18 ci arrivano pure, ma non certo a 21.
Mi sembra la stessa scena delle ddrx5 a 14gb/s.:p

Ale55andr0
06-06-2020, 15:03
Da quello che è emerso da qualche giorno, hanno cancellato il GA103, e storpiato il GA102 per questo chip.
Praticamente hanno laserato (se fosse confermato), 2 partizioni cache e 16 rop's.
In linea di massima dovrebbe essere così: 4352cc/ 80 rop's/ 10gb a 320bit.

La doppia densità difficilmente la metteranno. La 2080ti da 11gb arriva a 50watt già così.



non riesco a capire se stai cercando di consolarmi o cosa :asd:

mikael84
06-06-2020, 15:07
non riesco a capire se stai cercando di consolarmi o cosa :asd:

In parole povere, dovrai spendere 800/1000 euro al lancio, per un chip (non devastato, ma storpiato) con 10gb di ram e qualche sorta di HBCC.:p
Nvidia raramente sbaglia le stime, se fosse confermato, big navi dovrebbe andare quanto questo rottame.
https://i.postimg.cc/4KzyRhMM/ga102.png (https://postimg.cc/4KzyRhMM)

Ale55andr0
06-06-2020, 15:17
tranquillo, non c'ho una lira :D

Ton90maz
06-06-2020, 15:42
In parole povere, dovrai spendere 800/1000 euro al lancio, per un chip (non devastato, ma storpiato) con 10gb di ram e qualche sorta di HBCC.:p
Nvidia raramente sbaglia le stime, se fosse confermato, big navi dovrebbe andare quanto questo rottame.
https://i.postimg.cc/4KzyRhMM/ga102.png (https://postimg.cc/4KzyRhMM)Beh, il cinese ha totalmente cannato con le console :asd:

Jeetkundo
06-06-2020, 15:46
In parole povere, dovrai spendere 800/1000 euro al lancio, per un chip (non devastato, ma storpiato) con 10gb di ram e qualche sorta di HBCC.:p
Nvidia raramente sbaglia le stime, se fosse confermato, big navi dovrebbe andare quanto questo rottame.
https://i.postimg.cc/4KzyRhMM/ga102.png (https://postimg.cc/4KzyRhMM)Ma in parole povere stai dicendo che non sarà un granché questa 3080 e bisognerà puntare sulla Ti o su Amd? Parlo in ottica di chi aveva una 2080ti come me.

Inviato dal mio LYA-L09 utilizzando Tapatalk

Gello
06-06-2020, 15:55
Ma in parole povere stai dicendo che non sarà un granché questa 3080 e bisognerà puntare sulla Ti o su Amd? Parlo in ottica di chi aveva una 2080ti come me.

Inviato dal mio LYA-L09 utilizzando Tapatalk

In parole povere bisogna aspettare le spec ufficiali (tralasciando il fatto che da 2080ti l'upgrade "sensato" e' cmq univoco)

fraussantin
06-06-2020, 16:04
Non diamo troppo credito ai leak ancora non sappiamo nulla ..
Però una cosa è certa se 3080 e 3080ti saranno il solito chip con cut diversi , avremo in seguito ( fra 1 anno?) Una 3090 col chip pieno a 2000euro.

Sarà l'ennesima strategia "riciclata" e di moda per alzare i prezzi senza farsene accorgere.

ultimate trip
06-06-2020, 16:38
Se è così si tengono pure queste. Vado avanti tranquillamente con la 1080ti 😁

no dai la 1080ti non ce la fa più....non dirmi così :)

mikael84
06-06-2020, 16:42
Beh, il cinese ha totalmente cannato con le console :asd:

Ti riferisci a questo?
https://www.eurogamer.it/articles/2019-12-24-news-videogiochi-nvidia-geforce-rtx-2080-piu-potenti-gpu-console-next-gen

Beh non è tanto campato in aria, come riportato qua..:)

Ma in parole povere stai dicendo che non sarà un granché questa 3080 e bisognerà puntare sulla Ti o su Amd? Parlo in ottica di chi aveva una 2080ti come me.

Inviato dal mio LYA-L09 utilizzando Tapatalk

No tutt'altro, è che come si mormorava da tempo, la 3080 doveva avere un chip suo, invece, da qualche giorno viene associata al chip della 3080ti/90, ma in versione molto devastata.
Così come viene proposta, è una 2080ti, a cui bisognerà vedere il clock nuovo, l'IPC (la l1 e la l2 aumenteranno quasi sicuro, quindi ci sarà un'aumento per clock) e quello delle ram, se a 18gb/s, supererà il valore della Titan attuale.

Inoltre dovrebbe aumentare significativamente la compressione dati, tralasciata su turing, se pur sbandierata (anzi ha subito perdite).

La 3080ti o 3090, avrà il chip quasi full, con 12gb di ram e sino a 5376cc.:)

In parole povere bisogna aspettare le spec ufficiali (tralasciando il fatto che da 2080ti l'upgrade "sensato" e' cmq univoco)

Questo è sicuro:)
Da notare le memorie da 21 gb/s.:p

Non tutto sarà fake, l'IPC l1 ci sarà sicuramente, già visto in ampere HPC, come la l2, considerando che il RT necessita come il pane della l2.
Anche i tensor core sono una bella rogna, ma dovrebbero essere quelli, o azzoppati, con specifiche analoghe (come turing/volta).
Da vedere anche le load store, se ancora dimezzate, ed il livello di compressione.:)

no dai la 1080ti non ce la fa più....non dirmi così :)

L'unica TI che non ho preso, si è rivelata un best.
Da considerare che boosta mediamente meno delle 2080 (soli 1650 in review), ed ha un potenziale in OC spaventoso. In alcuni giochi supera il 20%.

ultimate trip
06-06-2020, 16:50
Sarà guasta la tua. La mia va benissimo 😂

sto giocando control, un po' fatica. spero nelle 3000 per un bel salto...poi vedremo

ultimate trip
06-06-2020, 17:06
Ti riferisci a questo?
https://www.eurogamer.it/articles/2019-12-24-news-videogiochi-nvidia-geforce-rtx-2080-piu-potenti-gpu-console-next-gen

...

L'unica TI che non ho preso, si è rivelata un best.
Da considerare che boosta mediamente meno delle 2080 (soli 1650 in review), ed ha un potenziale in OC spaventoso. In alcuni giochi supera il 20%.

io le ho messo l'ARCTIC Accelero Hybrid III e sta a 2ghz sui 60 gradi. alcune arrivano a 2,1 avevo letto.
non mi lamento delle performance, ovvio manca il RT, spero solo che dopo 3 anni spendendo 800/1000€ si prenda qualcosa di nettamente meglio lato raster, spero 1.8/2x

mircocatta
06-06-2020, 17:18
io le ho messo l'ARCTIC Accelero Hybrid III e sta a 2ghz sui 60 gradi. alcune arrivano a 2,1 avevo letto.
non mi lamento delle performance, ovvio manca il RT, spero solo che dopo 3 anni spendendo 800/1000€ si prenda qualcosa di nettamente meglio lato raster, spero 1.8/2x

non credo, saremo sull'1,5-1.6

ultimate trip
06-06-2020, 17:29
non credo, saremo sull'1,5-1.6

Mh...bene ma non benissimo :D

mikael84
06-06-2020, 17:52
io le ho messo l'ARCTIC Accelero Hybrid III e sta a 2ghz sui 60 gradi. alcune arrivano a 2,1 avevo letto.

Mediamente si, con il bios xoc, hanno superato anche i 2,2.:)


non mi lamento delle performance, ovvio manca il RT, spero solo che dopo 3 anni spendendo 800/1000€ si prenda qualcosa di nettamente meglio lato raster, spero 1.8/2x

1,8 almeno, ci arriverà la 3080ti/3090 in media, poi dipenderà dai giochi.

Ubro92
06-06-2020, 18:06
Potrebbe essere in parte reale, rese pessime, e probabilmente anche paura dell'avversario.
Però i 21 gb/s, sono una trollata, magari a 18 ci arrivano pure, ma non certo a 21.
Mi sembra la stessa scena delle ddrx5 a 14gb/s.:p

E' già tanto se montano i chip da 18Gbps, 21 penso che non li prendi manco in OC.

amon.akira
06-06-2020, 18:07
[QUOTE=ultimate trip;46821430]io le ho messo l'ARCTIC Accelero Hybrid III e sta a 2ghz sui 60 gradi. alcune arrivano a 2,1 avevo letto.

Mediamente si, con il bios xoc, hanno superato anche i 2,2.:)



1,8 almeno, ci arriverà la 3080ti/3090 in media, poi dipenderà dai giochi.

sarà na magra consolazione da retrogaming, visto che usciranno sempre piu titoli rt e li dovremmo essere 8x con la 3080ti/3090

mikael84
06-06-2020, 18:16
E' già tanto se montano i chip da 18Gbps, 21 penso che non li prendi manco in OC.

Infatti. Addirittura per ora gli unici accertati sono i 16 gb/s.

OrazioOC
06-06-2020, 18:40
Questa è una nuova gtx 780, nè più nè meno.
Se sarà veramente così, questo è uno scarto di uno scarto di un altro scarto.:rolleyes:

E non sarà neanche economico.

mikael84
06-06-2020, 19:00
sarà na magra consolazione da retrogaming, visto che usciranno sempre piu titoli rt e li dovremmo essere 8x con la 3080ti/3090


Chissà cosa si inventa JHH alla presentazione.:D

Questa è una nuova gtx 780, nè più nè meno.
Se sarà veramente così, questo è uno scarto di uno scarto di un altro scarto.:rolleyes:

E non sarà neanche economico.

Questa è peggio, la 780 sarebbe la Titan RTX in rapporto.:p

OrazioOC
06-06-2020, 19:03
Questa è peggio, la 780 sarebbe la Titan RTX in rapporto.:p

L'unico merito che avrebbe un chip del genere, è indicare che potenzialmente amd ha qualcosa di più veloce del classico chip 104, finalmente visto che sono passati 5 anni dalla fury x che era l'unica che poteva giocarsela contro un chip 102.
Ma per il resto, poca vram, chip molto menomato, tdp che potrebbe tranquillamente partire con 250w già di base, non è che mi faccia impazzire insomma.

Certo che già così la 2080 ti viene battuta brutalmente anche solo in raster, per non parlare del ray tracing.

OrazioOC
06-06-2020, 19:12
https://www.vortez.net/news_story/nvidia_gtx_1080_spotted.html

Io penso che nulla accada per caso, nel 2016 il primo spotted della 1080 è avvenuto a metà aprile, per poi lanciarla ufficialmente un mese dopo, può anche darsi che non aspettino settembre per lanciarla.

The_SaN
06-06-2020, 19:40
Questa è peggio, la 780 sarebbe la Titan RTX in rapporto.:p

Ma questa 3080 in versione Ti smontata come si comporterebbe rispetto al
GA103 cancellato? Almeno in linea con quello che ti aspettavi.

Potrebbe significare che Big Navi è un po' più veloce di quanto avessero previsto?

fraussantin
06-06-2020, 19:53
GA103 cancellato?

Cancellato fa anche un po' strano . Prob non è neanche mai esistito quel progetto

NAP.
06-06-2020, 20:05
se e' uscito questo leak vuol dire che ci siamo entro settembre avremo presentazione e data d'uscita

mikael84
06-06-2020, 23:27
L'unico merito che avrebbe un chip del genere, è indicare che potenzialmente amd ha qualcosa di più veloce del classico chip 104, finalmente visto che sono passati 5 anni dalla fury x che era l'unica che poteva giocarsela contro un chip 102.
Ma per il resto, poca vram, chip molto menomato, tdp che potrebbe tranquillamente partire con 250w già di base, non è che mi faccia impazzire insomma.

Certo che già così la 2080 ti viene battuta brutalmente anche solo in raster, per non parlare del ray tracing.



Ma questa 3080 in versione Ti smontata come si comporterebbe rispetto al
GA103 cancellato? Almeno in linea con quello che ti aspettavi.

Potrebbe significare che Big Navi è un po' più veloce di quanto avessero previsto?

Da cell, non mi ero accorto di questa immagine
https://cdn.videocardz.com/1/2020/06/NVIDIA-GeForce-RTX-3080-3D-Model-850x579.png

Questo è un chip a 256bit, dopo le gddr6 a 21gb/s, io che sto pure a perderci tempo.:sofico: :muro:
Spero, e lo dico veramente che non arrivino mai a laserare 4 partizioni cache.

Per rispondere a te The_san. Generalmente nvidia nelle fasi tock, usa il TPC per GPC, quindi 3840cc x 6 GPC x clock x Ipc (l1/l2/lds, compressione.
Il GA103 ci poteva stare (magari chiamato GA104)

C'è un particolare, il TU104, fisicamente ha due collegamenti assenti, il chip è predisposto per i 384bit di base.
Con questo chip mi aspettavo almeno un altro collegamento in più, per evitare di essere monco.
Su 6 raster, 2 non elaborano pixel, uno scempio.

Spero, e dico spero, che non siano arrivati a laserare 4 partizioni cache, perchè sarebbe pazzesco, e che sia tutto un fake, come i 21 gb/s di ram.:)

Cancellato fa anche un po' strano . Prob non è neanche mai esistito quel progetto

Ho visto il design è spero vivamente sia un fake.:rolleyes:
Cmq i chip si possono scrivere e cancellare prima di andare in fonderia.
Perdi molto tempo per il codice, organizzazione micro architettura.
Se si è arrivati ad un place and route non è un problema.:)

fraussantin
06-06-2020, 23:45
Da cell, non mi ero accorto di questa immagine
https://cdn.videocardz.com/1/2020/06/NVIDIA-GeForce-RTX-3080-3D-Model-850x579.png

Questo è un chip a 256bit, dopo le gddr6 a 21gb/s, io che sto pure a perderci tempo.:sofico: :muro:


l'avevo persa anche io in un primo momento sempre per colpa del telefono XD

andando a cercare la fonte citata da videocardz ho trovato questo post
https://i.postimg.cc/rygZcHvs/screenshot-220.jpg

e il disegno non è ufficiale , ma fatto da qualche utente col CAD o robe simili.

quindi i banchi di ram non è detto che siano quelli. anche perchè è verosimile credere che la fonte sia un operatore che ha scartato il pacco e ha fatto quelle foto di nascosto , non è logico che sia anche in possesso delle bozze.

Nurabsa
07-06-2020, 09:21
non ho capito se le ventole lavorano in pushpull, solo immissione o solo estrazione.
Anche perche le geometrie del radiante cambiano una design nato per push va male in pull. provato sulla mia
Ad ogni modo interessante qualcosa di diverso innovativo

fraussantin
07-06-2020, 13:11
non ho capito se le ventole lavorano in pushpull, solo immissione o solo estrazione.
Anche perche le geometrie del radiante cambiano una design nato per push va male in pull. provato sulla mia
Ad ogni modo interessante qualcosa di diverso innovativoA me sembrano entrambe montate in push.. ovviamente in verso opposto

Thunder-74
07-06-2020, 14:17
se ci fate caso le due ventole sono differenti. Una sembra più votata ad una maggior pressione statica, grazie alle pale più inclinate, l'altra più per un flow classico

mikael84
07-06-2020, 14:26
l'avevo persa anche io in un primo momento sempre per colpa del telefono XD

andando a cercare la fonte citata da videocardz ho trovato questo post


e il disegno non è ufficiale , ma fatto da qualche utente col CAD o robe simili.

quindi i banchi di ram non è detto che siano quelli. anche perchè è verosimile credere che la fonte sia un operatore che ha scartato il pacco e ha fatto quelle foto di nascosto , non è logico che sia anche in possesso delle bozze.

Aaaha ecco:D
Prendendo per buono il bus a 320bit, la 2080ti la passa tranquillamente, in parte per IPC, in parte per i clock sicuramente maggiorati.
Probabilmente sarà l'anti RDNA2 su stima.

Il GA103 sarebbe stato meglio ma con molto più clock, in quanto più "snello" ma più povero di shader (3840 vs 4352).

Ton90maz
07-06-2020, 15:38
Ti riferisci a questo?
https://www.eurogamer.it/articles/2019-12-24-news-videogiochi-nvidia-geforce-rtx-2080-piu-potenti-gpu-console-next-gen

Beh non è tanto campato in aria, come riportato qua..:) .A parte che la superiorità della 2080 non è poi così sicura. Il problema è che coso parlava della superiorità della 2080, mentre presentava le versioni max q :asd:

Telstar
07-06-2020, 15:51
mah io spero solo che la 3070 sia sufficiente per cyberpunk 2077 maxato in wqhd altrimenti salto questa gen a piè pari.

Gello
07-06-2020, 16:12
mah io spero solo che la 3070 sia sufficiente per cyberpunk 2077 maxato in wqhd altrimenti salto questa gen a piè pari.

Prematuro parlarne adesso ma maxato dubito fortemente...

Ubro92
07-06-2020, 16:20
mah io spero solo che la 3070 sia sufficiente per cyberpunk 2077 maxato in wqhd altrimenti salto questa gen a piè pari.

Il REDengine 4 ha il supporto nativo al Ray Tracing, considerando che Ampere avrà il doppio dei tensor core delle attuali turing, rispetto la tua 2070 lo stacco potrebbe essere decisamente marcato.

Bisogna attendere annunci più concreti e le prove, ma ho la sensazione che con RT attivo sarà fondamentale Ampere, e forse 2080/2080ti sono il minimo sindacale per tirarlo su.

mikael84
07-06-2020, 16:26
A parte che la superiorità della 2080 non è poi così sicura.

Una 2080 a 2050, produce mediamente lo stesso ratio del botolo, ed a +1000 di ram un ratio simile, ma compressione migliore.
Li però non viene specificata quale console, perchè se paragonata ad una ps5, la superiorità è evidente, con il botolo è ben diverso, potrebbe anche essere superata, sopratutto in RT.:)


Il problema è che coso parlava della superiorità della 2080, mentre presentava le versioni max q :asd:

Beh, quello è un altro discorso, e non viene riportata in quella fonte. una max q è troppo vaga, perchè in base al portatile si spazia tra 2060/2060super/Oc.:)

Ton90maz
08-06-2020, 12:56
Una 2080 a 2050, produce mediamente lo stesso ratio del botolo, ed a +1000 di ram un ratio simile, ma compressione migliore.
Li però non viene specificata quale console, perchè se paragonata ad una ps5, la superiorità è evidente, con il botolo è ben diverso, potrebbe anche essere superata, sopratutto in RT.:)



Beh, quello è un altro discorso, e non viene riportata in quella fonte. una max q è troppo vaga, perchè in base al portatile si spazia tra 2060/2060super/Oc.:)

In RT penso anch'io che il botolo non c'arrivi, visto l'evidente poco silicio tumorale. In rasterizzazione vedremo.


Se vai a vedere il video originale fa "ecco la strafiga 2080 max q, va come li fanno sottili i piccì, meno 2 chili rispetto al coso con la 980M" e sulla slide c'era 2080 > next consoles o qualcosa di simile.

mikael84
08-06-2020, 15:16
In RT penso anch'io che il botolo non c'arrivi, visto l'evidente poco silicio tumorale. In rasterizzazione vedremo.

Purtroppo non si conosce nulla, se non i CU un pelo più grandi, io in realtà spero che il botolo sia superiore in RT, perchè dovrebbe essere base RDNA2.
In raster, che dirti, il botolo può pure essere leggermente più veloce, anche se ormai il confronto non avrà più senso, con le 3060 e 70 al debutto.


Se vai a vedere il video originale fa "ecco la strafiga 2080 max q, va come li fanno sottili i piccì, meno 2 chili rispetto al coso con la 980M" e sulla slide c'era 2080 > next consoles o qualcosa di simile.

Allora stava trollando:sofico: :sofico:

OrazioOC
09-06-2020, 09:19
https://videocardz.com/newz/nvidia-geforce-rtx-3080-cooler-could-cost-up-to-150-usd-alone

Altra puntata di spetteguless :asd:.

Thunder-74
09-06-2020, 09:28
https://videocardz.com/newz/nvidia-geforce-rtx-3080-cooler-could-cost-up-to-150-usd-alone

Altra puntata di spetteguless :asd:.


320w di default per una 3080... Azzopé ...


Inviato dal mio iPad utilizzando Tapatalk

TigerTank
09-06-2020, 09:29
Naaaaaa, a parte i dati tecnici molto discutibili... figuriamoci se Nvidia rinuncia al suo cavallo di battaglia circa le sue Founders Edition...la Vapor Chamber.
E poi ventole in quel modo(con tanta gente che mette la vga in verticale) e pcb diviso in 2? Sarebbe un invito a lasciarle a scaffale e prendere delle custom "classiche" :sofico:

Per non parlare del liquidare una situazione del genere :asd:

MrBrillio
09-06-2020, 10:28
Per non parlare del liquidare una situazione del genere :asd:

Si va per immersione diretta ahahahhahaha
Già vedo i vari produttori di wb che si sfregano le mani a tirare fuori una soluzione del genere :D

Giovamas
09-06-2020, 10:29
un po' che manco dal forum ma vedo che iniziano le novità. bene :) intanto ciao a tutti e spero che stiate bene

MrBrillio
09-06-2020, 10:35
un po' che manco dal forum ma vedo che iniziano le novità. bene :) intanto ciao a tutti e spero che stiate bene

Ciao Giova...eh quando c'è odore di nuove VGA e soldi da spendere si torna tutti all'ovile :D

scorpion73
09-06-2020, 10:37
Boh, tutta quella parete dissipante mi fa pensare ad un chip-fornetto sullo stile Turing... però il PCB corto in genere è indice di una sezione di alimentazione non proprio divoratrice di corrente....
due cose che si contrappongono una con l'altra...

Thunder-74
09-06-2020, 10:40
Si va per immersione diretta ahahahhahaha
Già vedo i vari produttori di wb che si sfregano le mani a tirare fuori una soluzione del genere :D

Avremo un WB a sandwich... ma sai che non mi dispiacerebbe... inoltre se il PCB è corto,sarebbe anche molto compatta una versione liquid.

TigerTank
09-06-2020, 10:41
Si va per immersione diretta ahahahhahaha
Già vedo i vari produttori di wb che si sfregano le mani a tirare fuori una soluzione del genere :D

Vero :D

un po' che manco dal forum ma vedo che iniziano le novità. bene :) intanto ciao a tutti e spero che stiate bene
Ciao! Eheheh pure il monitor in arrivo non scherza :cool:

Boh, tutta quella parete dissipante mi fa pensare ad un chip-fornetto sullo stile Turing... però il PCB corto in genere è indice di una sezione di alimentazione non proprio divoratrice di corrente....
due cose che si contrappongono una con l'altra...

Più che pcb corto...dal link sopra sembrerebbe pcb doppio...con uno secondario dedicato all'alimentazione. Mah...
Comunque al momento mi parrebbero tutte supposizioni...chissà che quelli di Nvidia non si stiano facendo grasse risate :D

Thunder-74
09-06-2020, 10:46
hahahahahaha

Il dispositivo di raffreddamento di riferimento di prossima generazione di NVIDIA costa $ 150 da solo, per essere presente in tre SKU


LINK (https://www.techpowerup.com/268278/nvidias-next-gen-reference-cooler-costs-usd-150-by-itself-to-feature-in-three-skus)


Se fosse vero, meglio prendere direttamente un modello con WB

scorpion73
09-06-2020, 10:46
Vero :D

Più che pcb corto...dal link sopra sembrerebbe pcb doppio...con uno secondario dedicato all'alimentazione. Mah...
Comunque al momento mi parrebbero tutte supposizioni...chissà che quelli di Nvidia non si stiano facendo grasse risate :D

Può essere, però il deisgn è innovativo, su quello penso che nessuno possa obiettare...
certo una ventola sul retro sul mio mini itx ce la vedo proprio dura ... :D

scorpion73
09-06-2020, 10:48
hahahahahaha

Il dispositivo di raffreddamento di riferimento di prossima generazione di NVIDIA costa $ 150 da solo, per essere presente in tre SKU


LINK (https://www.techpowerup.com/268278/nvidias-next-gen-reference-cooler-costs-usd-150-by-itself-to-feature-in-three-skus)


Se fosse vero, meglio prendere direttamente un modello con WB

Più che altro se fosse vero ti prezzano le founders come le Hybrid.... :D
un nonsense...

MrBrillio
09-06-2020, 10:53
Avremo un WB a sandwich... ma sai che non mi dispiacerebbe... inoltre se il PCB è corto,sarebbe anche molto compatta una versione liquid.

Eh sarebbe un casino per configurazioni multigpu :stordita:
Io se le ritirano fuori quasi quasi ci ricasco :D
Però vero..effettivamente sarebbe figo vedere una VGA liquidata in quel modo!
Certo che per la questione prezzo a leggere ste news vien male già da ora...

ninja750
09-06-2020, 11:01
320w di default per una 3080... Azzopé ...


dai è un fake..

Giovamas
09-06-2020, 11:24
tanto io andrò di custom sia come sia, MSI o Asus. e questa volta ho buoni propositi.. 3080 (senza Ti :D )

mikael84
09-06-2020, 14:51
Naaaaaa, a parte i dati tecnici molto discutibili... figuriamoci se Nvidia rinuncia al suo cavallo di battaglia circa le sue Founders Edition...la Vapor Chamber.
E poi ventole in quel modo(con tanta gente che mette la vga in verticale) e pcb diviso in 2? Sarebbe un invito a lasciarle a scaffale e prendere delle custom "classiche" :sofico:

Per non parlare del liquidare una situazione del genere :asd:

Nah Tiger, la verità è che ad nvidia non gliene sbatte più di tanto delle gaming:) :sofico:
Ormai nvidia guarda completamente al pro. Anche qua, ci ritroveremmo un nvlink ben maggiorato (4 o addirittura 8 canali), Tensor completi (272) di A100 (pari a 8 partizioni fp16).
Potenza di picco: 278,52 FP16 560tf sparsity, contro i 50tf di una 2080ti.
potenza di picco: 1114 sulle iNT4 (valore di ben oltre 10 volte quello del botolo di AMD)
TF: con mantissa abbassata ed esponente ad 8bit.
RT core advanced, probabilmente maggiorati.
L1 maggiorata
L2 che potrebbe essere almeno il doppio (12mb) o addirittura 24mb.
cache registri maggiorata.

E dire che con Kepler, dava fastidio la FP64 di default.:sofico:

un po' che manco dal forum ma vedo che iniziano le novità. bene :) intanto ciao a tutti e spero che stiate bene

Ciao caro, felice risentirti, preparando per il chippone :D

Giovamas
09-06-2020, 15:27
Ciao caro, felice risentirti, preparando per il chippone :D

idem :) comunque ho sempre letto ciò che scrivi con interesse. riguardo il chippone.. beh se usciranno insieme difficilmente resisterò alla scimmia della Ti.. comunque vediamo credo che manca poco ormai mi sa

Thunder-74
09-06-2020, 17:01
idem :) comunque ho sempre letto ciò che scrivi con interesse. riguardo il chippone.. beh se usciranno insieme difficilmente resisterò alla scimmia della Ti.. comunque vediamo credo che manca poco ormai mi sa

Caro amico di Montevarchi :) ... sicuramente giorni caldi per speculare un po' sulle prossime "Verdi" . Per settembre saremo un po' più poveri... :fagiano:

Giovamas
09-06-2020, 17:51
Caro amico di Montevarchi :) ... sicuramente giorni caldi per speculare un po' sulle prossime "Verdi" . Per settembre saremo un po' più poveri... :fagiano:

uè thunder! ciao! di sicuro lo saremo :) :D e francamente dopo un periodo orrendo non vedo l'ora

TigerTank
09-06-2020, 20:24
Nah Tiger, la verità è che ad nvidia non gliene sbatte più di tanto delle gaming:) :sofico:
Ormai nvidia guarda completamente al pro. Anche qua, ci ritroveremmo un nvlink ben maggiorato (4 o addirittura 8 canali), Tensor completi (272) di A100 (pari a 8 partizioni fp16).
Potenza di picco: 278,52 FP16 560tf sparsity, contro i 50tf di una 2080ti.
potenza di picco: 1114 sulle iNT4 (valore di ben oltre 10 volte quello del botolo di AMD)
TF: con mantissa abbassata ed esponente ad 8bit.
RT core advanced, probabilmente maggiorati.
L1 maggiorata
L2 che potrebbe essere almeno il doppio (12mb) o addirittura 24mb.
cache registri maggiorata.

E dire che con Kepler, dava fastidio la FP64 di default.:sofico:


Quindi in pratica, lato gaming invece di un Fast&Furious abbiamo un Cut&Devasto? :sofico:

Ale55andr0
09-06-2020, 20:58
https://wccftech.com/nvidia-rtx-3090-graphics-card/

scorpion73
09-06-2020, 21:13
Bah. dico quello che ho detto sul thread AMD.
Se una scheda fa 350W di TDP ed è a 7nm, è una merdaccia come consumi.
Poi sarà una bestia di potenza, ma questo consumo è veramente da pazzi.

fraussantin
09-06-2020, 21:26
https://wccftech.com/nvidia-rtx-3090-graphics-card/È una photoshoppata e fatta male.

Hanno preso la 3080 e ci hanno tolto il pezzettino facendola diventare un 9. È la solita , con le solite pellicole celesti con le stesse imperfezioni e le solite bolle solo un po' più strette perchè hanno dato contrasto. https://uploads.tapatalk-cdn.com/20200609/331a50330955c1ad25357f821eafd96e.jpghttps://uploads.tapatalk-cdn.com/20200609/82e2e4dae002d626b580cfc2f9c02fbc.jpg
Non hanno cambiato neanche il numero di serie..

Mi ci voglio mettere io a farle ste cagate. dopo se ho tempo mi invento un leak
Col cerotto automatico le faccio meglio . https://uploads.tapatalk-cdn.com/20200609/e30e6c325daf89d335b4324c4f80a0dc.jpg

AceGranger
09-06-2020, 21:30
Bah. dico quello che ho detto sul thread AMD.
Se una scheda fa 350W di TDP ed è a 7nm, è una merdaccia come consumi.
Poi sarà una bestia di potenza, ma questo consumo è veramente da pazzi.


seguendo lo stesso ragionamento allora i Threadripper dovrebbero essere pessime CPU visto il TDP elevato per una CPu e per giunta a 7nm...


se saranno buone o meno lo diranno le prestazioni, quello che conta è l'efficienza.

fraussantin
09-06-2020, 21:44
seguendo lo stesso ragionamento allora i Threadripper dovrebbero essere pessime CPU visto il TDP elevato per una CPu e per giunta a 7nm...


se saranno buone o meno lo diranno le prestazioni, quello che conta è l'efficienza.Cmq dubito che abbiamo veramente fatto una GPU da 350 w ad aria per gaming.
La Radeon 7 ne aveva 300 e faceva un fracasso infernale.

Vedremo quando uscirà.

Ale55andr0
09-06-2020, 22:01
Bah. dico quello che ho detto sul thread AMD.
Se una scheda fa 350W di TDP ed è a 7nm, è una merdaccia come consumi.
Poi sarà una bestia di potenza, ma questo consumo è veramente da pazzi.

tutto è relativo: se a 350w andasse il triplo di una 2080ti (esempio a caso) sarebbe in realtà efficentissima in relazione alle prestazioni

AceGranger
09-06-2020, 22:10
Cmq dubito che abbiamo veramente fatto una GPU da 350 w ad aria per gaming.
La Radeon 7 ne aveva 300 e faceva un fracasso infernale.

Vedremo quando uscirà.

eh bho, dipende da che chip butteranno fuori;

non sono in grado di stimare il chip con i rapporti CUDA/ddr6, ma se facessero una bestia con CUDA simili alla TESLA e con RT maggiorati, mi andrebbero piu che bene quei Watt :sofico:

scorpion73
09-06-2020, 22:44
tutto è relativo: se a 350w andasse il triplo di una 2080ti (esempio a caso) sarebbe in realtà efficentissima in relazione alle prestazioni

Si ho capito ma con quel TDP o fracassa le orecchie col rumore delle ventole o ci cuoci un uovo sopra...

scorpion73
09-06-2020, 22:47
seguendo lo stesso ragionamento allora i Threadripper dovrebbero essere pessime CPU visto il TDP elevato per una CPu e per giunta a 7nm...


se saranno buone o meno lo diranno le prestazioni, quello che conta è l'efficienza.

A me le CPU con TDP elevato non mi sembrano gioielli di tecnologia.
Ma qui il discorso è che è la prima CPU con quel processo produttivo, dovrebbe dissipare di meno.
Io ste cose, chiunque le faccia, sinceramente mi fanno cagare, che ti devo dire?
Meglio una CPU un po' meno potente, ma che non mi funga da termosifone...
Poi puoi raffreddarla anche col liquido, ma chi non ha un custom loop ad aria è sempre un casino.
E vale anche per intel, tanto per essere chiari, incluso il mio 9900k

AceGranger
09-06-2020, 23:01
A me le CPU con TDP elevato non mi sembrano gioielli di tecnologia.
Ma qui il discorso è che è la prima CPU con quel processo produttivo, dovrebbe dissipare di meno.
Io ste cose, chiunque le faccia, sinceramente mi fanno cagare, che ti devo dire?
Meglio una CPU un po' meno potente, ma che non mi funga da termosifone...
Poi puoi raffreddarla anche col liquido, ma chi non ha un custom loop ad aria è sempre un casino.
E vale anche per intel, tanto per essere chiari, incluso il mio 9900k

Ognuno è libero di pensarla come gli pare, ma parlare di TDP e consumi senza paragonarli a prestazioni e quindi efficienza sono discorsi senza senso; a maggior ragione su un sito di tecnologia come questo.

Un po come andare a parlare di terrapiattismo sul sito della NASA :Prrr:

mikael84
09-06-2020, 23:19
idem :) comunque ho sempre letto ciò che scrivi con interesse. riguardo il chippone.. beh se usciranno insieme difficilmente resisterò alla scimmia della Ti.. comunque vediamo credo che manca poco ormai mi sa

Ha rese scarse, molto sarà preso dal chip HPC. Qua dipenderà molto dal prezzo, stando ai rumors saranno tutte basate sul chippone. Bisogna vedere come verranno tarate, se sul +20% o meno.:)
Il chip full lo lasceranno per la Titan da 24gb:)

Quindi in pratica, lato gaming invece di un Fast&Furious abbiamo un Cut&Devasto? :sofico:

No qua non è davastazione, è storpiamento, ancora peggio. JHH doveva pur passare i mesi di pandemia a fare qualcosa:sofico:
Si scherza ovviamente, il chip 3080 potrebbe essere davvero devastato, però, di certo non sarà da buttare, anzi:p Avrà l'nvlink della Titan per dire.

Se pensi che con l'INT 4 il botolo "new gen" di AMD, potrebbe dedicare parte della potenza ai personaggi (picco 96, ma quelle unità dovranno fare di tutto, tutta roba emulata), mentre la 3080 potrebbe fornire oltre 1000 tops singole.:p

The_SaN
09-06-2020, 23:23
A me le CPU con TDP elevato non mi sembrano gioielli di tecnologia.
Ma qui il discorso è che è la prima CPU con quel processo produttivo, dovrebbe dissipare di meno.
Io ste cose, chiunque le faccia, sinceramente mi fanno cagare, che ti devo dire?
Meglio una CPU un po' meno potente, ma che non mi funga da termosifone...
Poi puoi raffreddarla anche col liquido, ma chi non ha un custom loop ad aria è sempre un casino.
E vale anche per intel, tanto per essere chiari, incluso il mio 9900k

Il problema del 9900k non è il consumo in generale, ma il fatto che non sia giustificato da prestazioni all'altezza in multithread. Lato efficienza prende delle bastonate assurde.
Un Threadripper 3970x/3990x consuma tantissimo in termini assoluti, ma è un gioiellino.

mikael84
09-06-2020, 23:31
Cmq dubito che abbiamo veramente fatto una GPU da 350 w ad aria per gaming.
La Radeon 7 ne aveva 300 e faceva un fracasso infernale.

Vedremo quando uscirà.

350 watt nel rumor è dedicato al chip top con doppia densità. Le 2080ti hanno dimostrato di sforare i 50watt per 11gb. Ad 8gb si oscilla tra i 30 ed i 40watt in base all'OC.

tutto è relativo: se a 350w andasse il triplo di una 2080ti (esempio a caso) sarebbe in realtà efficentissima in relazione alle prestazioni

Bisogna vedere come spendi i transistor. 1 tensor new gen, uguale a 64fp 32 in peso.
8 tensor per TPC = 512 cc fp32 + 128 cc fp32 di calcolo classico, + 128 INT32.:)

Tutto facile quando fai solo FP32, e dopo emuli il tutto. :D

Free Gordon
10-06-2020, 01:17
https://wccftech.com/nvidia-rtx-3090-graphics-card/


Se la 3080 è il GA102, potrebbe voler dire che Nvidia ha paura di RDNA2.. :D



Se pensi che con l'INT 4 il botolo "new gen" di AMD, potrebbe dedicare parte della potenza ai personaggi (picco 96, ma quelle unità dovranno fare di tutto, tutta roba emulata), mentre la 3080 potrebbe fornire oltre 1000 tops singole.:p

La 3080 se è davvero il GA102 è già fail per le dimensioni...altro che 1000 tops.. :sofico:
Il botolo è 360mmq tutto, il GA 102 che bestia sarà???
Significa che hanno rese orrende per quel chip dinosaurico e da qualche parte i pezzi che non fanno una Titan intera devono metterli... (anche se coi prezzi che avranno, dubito che ci sarà tutta sta gente vogliosa di comprarsi una Titan RTX 3090)

parcher
10-06-2020, 05:48
😲

https://multiplayer.it/notizie/nvidia-rtx-3080-prezzo-probitivo-solo-dissipatore-costa-150-dollari.html

Inviato dal mio RNE-L21 utilizzando Tapatalk

fraussantin
10-06-2020, 06:51
😲

https://multiplayer.it/notizie/nvidia-rtx-3080-prezzo-probitivo-solo-dissipatore-costa-150-dollari.html

Inviato dal mio RNE-L21 utilizzando TapatalkFigurati .. 150 dollari per un po' di alluminio piegato con 4 pipe e 2 ventole..

Finchè si parla di prezzi al pubblico di dissipatori sovrapprezzati ci sta tutto , ma Nvidia non paga di certo 150 dollari quella roba.

Ampere costerà tanto , troppo , ma non per il dissipatore.

Ale55andr0
10-06-2020, 07:54
Se la 3080 è il GA102, potrebbe voler dire che Nvidia ha paura di RDNA2.. :D



e sarebbe cosa buona, ma ci credo quando lo vedrò

Ale55andr0
10-06-2020, 07:57
Ampere costerà tanto , troppo , ma non per il dissipatore.

si vedrà, certo che se costerà un botto, consumerà un botto ecc dovrà avere prestazioni nettamente superiori alla concorrenza per non uscirne male. Ma mi suona strano, del resto a 12nm pur con chipponi nvidia non è che consumasse l'ira di dio, anzi, quindi com'è che con la nuova gen e pp dovremmo immaginare un simile scenario?

fraussantin
10-06-2020, 08:10
si vedrà, certo che se costerà un botto, consumerà un botto ecc dovrà avere prestazioni nettamente superiori alla concorrenza per non uscirne male. Ma mi suona strano, del resto a 12nm pur con chipponi nvidia non è che consumasse l'ira di dio, anzi, quindi com'è che con la nuova gen e pp dovremmo immaginare un simile scenario?L'unico motivo è un pessimo 8nm Samsung.

Cmq sono tutti leak molto incerti e alcuni fantasiosi eccetto la prima foto della 3080 che almeno zoommandola sembra vera. ( L'ho controllata più volte nei dettagli se é un fake ci hanno speso veramente un sacco di soldi e tempo )

Ritornando al dissipatore non capisco il senso di fare andare a pescare aria in alto(calda) alla seconda ventola.

Io l'avrei messa sotto a fianco dell'altra lasciando lo stesso il PCB a rondine e la griglia aperta ma sopra creando un airflow verticale verso l'alto che è il verso dell'aria calda .

Cosí abbiamo la prima ventola che spinge verso la gpu , l'aria si sposta ai lati vs destra uscendo dalle lamette a V sale in alto perche calda e arriva in zona CPU da li viene ripescata dalla seconda ventola che la ributta sotto e la fa ri pescare alla prima ventola .

Mah non sono un ingegnere , ma mi sembra una roba basilare..

Ha senso invece se la metti in verticale.

kiwivda
10-06-2020, 08:37
Ritornando al dissipatore non capisco il senso di fare andare a pescare aria in alto(calda) alla seconda ventola.


Secondo me il dissipatore del leak potrebbe essere quello di una dual GPU, d'altronde la serie xx90 è sempre stata dual, 3Dfx Voodoo2, 7950 GX2, 9800 GX2, 295, 590, 690, Titan Z.

i chip potrebbero essere sui due lati opposti raffreddati uno per ventola.

fraussantin
10-06-2020, 08:48
Secondo me il dissipatore del leak potrebbe essere quello di una dual GPU, d'altronde la serie xx90 è sempre stata dual, 3Dfx Voodoo2, 7950 GX2, 9800 GX2, 295, 590, 690, Titan Z.

i chip potrebbero essere sui due lati opposti raffreddati uno per ventola.

mmm non c'è spazio a sufficenza dietro per farci stare un chip e raffreddarlo, ma neppure davanti visto il pcb corto , oltretutto quella è una 3080 , la foto della 3090 è una fotoshoppata .

boh !

MrBrillio
10-06-2020, 08:54
Secondo me il dissipatore del leak potrebbe essere quello di una dual GPU, d'altronde la serie xx90 è sempre stata dual, 3Dfx Voodoo2, 7950 GX2, 9800 GX2, 295, 590, 690, Titan Z.

i chip potrebbero essere sui due lati opposti raffreddati uno per ventola.

Magari!!! Dalla 690 che sogno di prenderne una ahhahahahah :D

kiwivda
10-06-2020, 08:54
mmm non c'è spazio a sufficenza dietro per farci stare un chip e raffreddarlo, ma neppure davanti visto il pcb corto , oltretutto quella è una 3080 , la foto della 3090 è una fotoshoppata .

boh !

E se non fosse una dual con GA102 ma con il GA103/4?

kiwivda
10-06-2020, 08:57
Magari!!! Dalla 690 che sogno di prenderne una ahhahahahah :D

Io ho avuto solo la GTX 590, era un fornello da 540W, mi ricordo consumi alla presa di 900W per l'intero sistema, infatti è durata 2 anni, poi è esplosa durante una partita a Assassin Creed II a 105° con scoppiettio e fumello dal case, forse ho ancora le foto dei vrm fusi. :D :D venne poi la 780Ti.

ninja750
10-06-2020, 09:27
Ampere costerà tanto , troppo , ma non per il dissipatore.

per i mm2?

Io ho avuto solo la GTX 590, era un fornello da 540W, mi ricordo consumi alla presa di 900W per l'intero sistema, infatti è durata 2 anni, poi è esplosa durante una partita a Assassin Creed II a 105° con scoppiettio e fumello dal case, forse ho ancora le foto dei vrm fusi. :D :D venne poi la 780Ti.

non è saltato nient'altro nel pc? solo la vga? :eek:

certo fa pensare che la 590 con DUE chip costava 700€ mentre oggi una 2080ti con uno solo ben 1200€

TigerTank
10-06-2020, 09:35
Io mi pongo la soglia psicologica delle 800€ di spesa massima(salvo eccezioni irrinunciabili) perchè le vga hanno un ciclo di vita troppo breve per investirci di più. Le TI purtroppo temo siano ormai definitivamente oltre tale soglia per cui spero ci rientrino almeno le x80, ovviamente dando per scontato che abbiano più di 8GB di vram.
Tanto il mio prossimo step sarebbe un futuro 21:9 4K da gaming per cui credo che la prossima generazione la utilizzerò sul monitor attuale.

AceGranger
10-06-2020, 09:36
L'unico motivo è un pessimo 8nm Samsung.

Cmq sono tutti leak molto incerti e alcuni fantasiosi eccetto la prima foto della 3080 che almeno zoommandola sembra vera. ( L'ho controllata più volte nei dettagli se é un fake ci hanno speso veramente un sacco di soldi e tempo )

Ritornando al dissipatore non capisco il senso di fare andare a pescare aria in alto(calda) alla seconda ventola.

Io l'avrei messa sotto a fianco dell'altra lasciando lo stesso il PCB a rondine e la griglia aperta ma sopra creando un airflow verticale verso l'alto che è il verso dell'aria calda .

Cosí abbiamo la prima ventola che spinge verso la gpu , l'aria si sposta ai lati vs destra uscendo dalle lamette a V sale in alto perche calda e arriva in zona CPU da li viene ripescata dalla seconda ventola che la ributta sotto e la fa ri pescare alla prima ventola .

Mah non sono un ingegnere , ma mi sembra una roba basilare..

Ha senso invece se la metti in verticale.


si, in teoria sarebbe cosi naturalmente, ma in un case alla fine hai sempre delle ventole in immissione e in estrazione e la forza "naturale" dell'aria a salire per la differenza di densita è infinitamente inferiore a quella delle ventole, quindi alla fine l'aria andra dove i flussi delle ventole la dirigono.

fraussantin
10-06-2020, 09:39
si, in teoria sarebbe cosi naturalmente, ma in un case alla fine hai sempre delle ventole in immissione e in estrazione e la forza "naturale" dell'aria a salire per la differenza di densita è infinitamente inferiore a quella delle ventole, quindi alla fine l'aria andra dove i flussi delle ventole la dirigono.

il punto è che le ventole della gpu la fanno girare in cerchio. non ha senso

TigerTank
10-06-2020, 09:44
il punto è che le ventole della gpu la fanno girare in cerchio. non ha senso

A meno che entrambe le ventole siano in immissione(una per il pcb e l'altra per il pcb di alimentazione sull'altro lato) e l'aria poi venga espulsa come al solito dalle feritoie posteriori....
In ogni caso con un design del genere, la vga potrebbe arrivare ad occupare 3 slot o quasi invece dei soliti 2. Come le custom maggiorate.

AceGranger
10-06-2020, 09:59
il punto è che le ventole della gpu la fanno girare in cerchio. non ha senso

si, è sicuramente un po strana come soluzione, ma presumo che abbiano fatto dei test prima di metterla in commercio; spero almeno :asd:

fraussantin
10-06-2020, 10:47
si, è sicuramente un po strana come soluzione, ma presumo che abbiano fatto dei test prima di metterla in commercio; spero almeno :asd:
beh non è in commercio XD sono prototipi
A meno che entrambe le ventole siano in immissione(una per il pcb e l'altra per il pcb di alimentazione sull'altro lato) e l'aria poi venga espulsa come al solito dalle feritoie posteriori....
In ogni caso con un design del genere, la vga potrebbe arrivare ad occupare 3 slot o quasi invece dei soliti 2. Come le custom maggiorate.

potrebbe essere che ci sia un altro pcb di alimentazione separato , ma mi pare molto strano e cmq dovrebbe essere capovolto. boh.. vedremo

MrBrillio
10-06-2020, 10:56
https://videocardz.com/newz/nvidia-geforce-rtx-3080-heatsink-leaked

Altro leak dove si vede il dissipatore smontato :D
Che roba strana...

mattxx88
10-06-2020, 11:05
ci credo che costerà un bordello, va che lavorazioni gli han fatto

mi chiedo quand'è che venderanno pcb nudi e uno poi gli piazza ciò che vuole

Ubro92
10-06-2020, 11:12
https://videocardz.com/newz/nvidia-geforce-rtx-3080-heatsink-leaked

Altro leak dove si vede il dissipatore smontato :D
Che roba strana...

Certo che è un bel pezzo di metallo! I rinforzini al PCIe saranno d'obbligo XD

Acme
10-06-2020, 11:33
https://www.tweaktown.com/news/73035/nvidia-geforce-rtx-3090-rumors-up-to-60-90-faster-than-2080-ti/amp.html

Thunder-74
10-06-2020, 11:48
ci credo che costerà un bordello, va che lavorazioni gli han fatto

mi chiedo quand'è che venderanno pcb nudi e uno poi gli piazza ciò che vuole

lo aveva fatto la cinese Colorful sulla 2080... magari incominciassero a farlo tutti

LINK (https://videocardz.com/newz/colorful-offers-geforce-rtx-2080-without-cooling-solution)

OrazioOC
10-06-2020, 12:03
https://www.tweaktown.com/news/73035/nvidia-geforce-rtx-3090-rumors-up-to-60-90-faster-than-2080-ti/amp.html

Sti leak fatti da utenti weaboo lasciamoli sui reddit perfavore :asd:.

fraussantin
10-06-2020, 12:06
lo aveva fatto la cinese Colorful sulla 2080... magari incominciassero a farlo tutti



LINK (https://videocardz.com/newz/colorful-offers-geforce-rtx-2080-without-cooling-solution)Ma quanto costava realmente in meno?

Giovamas
10-06-2020, 12:17
Io mi pongo la soglia psicologica delle 800€ di spesa massima(salvo eccezioni irrinunciabili) perchè le vga hanno un ciclo di vita troppo breve per investirci di più. Le TI purtroppo temo siano ormai definitivamente oltre tale soglia per cui spero ci rientrino almeno le x80, ovviamente dando per scontato che abbiano più di 8GB di vram.
Tanto il mio prossimo step sarebbe un futuro 21:9 4K da gaming per cui credo che la prossima generazione la utilizzerò sul monitor attuale.

si va di 3080 custom mi sa purchè siano 10Gb... anche se onestamente un pensiero alla Ti ce lo farò. vediamo che prezzi ci saranno

Thunder-74
10-06-2020, 12:21
Ma quanto costava realmente in meno?

non ho idea. La Colorful non è una marca che viene venduta in Europa.
Già che possa stare 100 euro in meno, se uno deve liquidare, va bene. Ovviamente era un PC reference, ma solo così potrebbe essere, altrimenti fai prima a venderla con il suo WB.

MrBrillio
10-06-2020, 12:29
non ho idea. La Colorful non è una marca che viene venduta in Europa.
Già che possa stare 100 euro in meno, se uno deve liquidare, va bene. Ovviamente era un PC reference, ma solo così potrebbe essere, altrimenti fai prima a venderla con il suo WB.

Ma son l'unico che ogni volta che ha liquidato è andato di EVGA per evitare casini con la garanzia? :mbe:

fraussantin
10-06-2020, 12:29
non ho idea. La Colorful non è una marca che viene venduta in Europa.

Già che possa stare 100 euro in meno, se uno deve liquidare, va bene. Ovviamente era un PC reference, ma solo così potrebbe essere, altrimenti fai prima a venderla con il suo WB.Non penso che in fase di produzione possa costare 100 euro un pezzo di plastica una ventola e un dissipatore in metallo di una blower.

Alla fine costerebbe poco meno e forse è per quello che non la fa nessuno.

Acme
10-06-2020, 12:30
Sti leak fatti da utenti weaboo lasciamoli sui reddit perfavore :asd:.
E certo, è più affidabile quello che da la 3080 con le stesse specifiche della 2080ti e 60w in più con 10% di prestazioni superiori a 7nm contro 12nm.
Sempre di leak si tratta, che le dia videocardz o pinco pallino cambia poco.

IMHO

XEV
10-06-2020, 12:34
Io mi pongo la soglia psicologica delle 800€ di spesa massima(salvo eccezioni irrinunciabili) perchè le vga hanno un ciclo di vita troppo breve per investirci di più. Le TI purtroppo temo siano ormai definitivamente oltre tale soglia per cui spero ci rientrino almeno le x80, ovviamente dando per scontato che abbiano più di 8GB di vram.
Tanto il mio prossimo step sarebbe un futuro 21:9 4K da gaming per cui credo che la prossima generazione la utilizzerò sul monitor attuale.

pure io tiger, ma sinceramente questa volta vorrei anche liquidarla, quindi 800 con tutto il fullcover... però vorrei andare anche sul usato, se non si trova troppo tardi dall'uscita; la + scema vga purchè abbia pcb reference

OrazioOC
10-06-2020, 12:43
E certo, è più affidabile quello che da la 3080 con le stesse specifiche della 2080ti e 60w in più con 10% di prestazioni superiori a 7nm contro 12nm.
Sempre di leak si tratta, che le dia videocardz o pinco pallino cambia poco.

IMHO

Videocardz ha una sua fonte, non è uno che leakka a caso, wccftech è da lasciar perdere, ma ancora più di loro canalini di youtube tipo morelawisdead, adoredtv, coreteks e altri loro compagni di merende che invece di cercarsi un lavoro vero fanno sti bait basati sul nulla.:rolleyes:

Acme
10-06-2020, 13:34
Videocardz ha una sua fonte, non è uno che leakka a caso, wccftech è da lasciar perdere, ma ancora più di loro canalini di youtube tipo morelawisdead, adoredtv, coreteks e altri loro compagni di merende che invece di cercarsi un lavoro vero fanno sti bait basati sul nulla.:rolleyes:

Guarda caso è la stessa fonte di questa notizia che hai postato tu.
https://videocardz.com/newz/nvidia-geforce-rtx-3080-cooler-could-cost-up-to-150-usd-alone

Igorslab.de

https://www.tweaktown.com/news/73071/geforce-rtx-3090-rumor-24gb-gddr6x-would-annihilate-2080-ti/index.html

Come dicevo sono rumors e come tali vanno prese. Fintanto nvidia non presenterà le schede son solo speculazioni.
Prima dell'uscita di turing ci aspettavamo la 1180/volta senza ray tracing.

IMHO

Telstar
10-06-2020, 13:37
Io mi pongo la soglia psicologica delle 800€ di spesa massima(salvo eccezioni irrinunciabili) perchè le vga hanno un ciclo di vita troppo breve per investirci di più.

Per lo stesso motivo ho una soglia di 600€, il che mi obbliga alla xx70 e normalmente salto una generazione su due. Fintanto che ho il monitor che ho, mi basta e avanza, ma quando passerò al 38" simil-4k saranno dolori.

TigerTank
10-06-2020, 13:59
pure io tiger, ma sinceramente questa volta vorrei anche liquidarla, quindi 800 con tutto il fullcover... però vorrei andare anche sul usato, se non si trova troppo tardi dall'uscita; la + scema vga purchè abbia pcb reference

Io difficilmente liquiderò ancora la vga tranne che le custom di mio interesse fossero costose quanto una reference + fullcover.
Ma a vedere queste nuove strane Nvidia forse sarà difficile :D
Comunque bisognerà vedere in primis quanto e come saranno blindate/castrate a livello di tagli da temperature e margini vari di PL. Le solite cose insomma :)
Certo è che se fosse vera la storia di un pcb dedicato di alimentazione...si potrebbe ben sperare in un certo margine di potenza.

Per lo stesso motivo ho una soglia di 600€, il che mi obbliga alla xx70 e normalmente salto una generazione su due. Fintanto che ho il monitor che ho, mi basta e avanza, ma quando passerò al 38" simil-4k saranno dolori.

Sì infatti, anche per questo motivo penso di farmi la prossima generazione su monitor attuale(comunque gran cosa per giocare), in modo da avere margine. Perchè il "4K da gaming" sarà bello esoso ancora per un bel pezzo tra peso della risoluzione + frequenza e anche il costo del gsync ultimate. Sinceramente essendo abituato al gsync nativo, difficilmente riuscirei a passare al gsync compatibile.

MrBrillio
10-06-2020, 14:13
Ma alla fine cosa cambia tra gsync normale e ultimate? Solo per la presenza di HDR o c'è dietro dell'altro?
Che poi l'HDR sui monitor lascia il tempo che trova come qualità :cry:

OrazioOC
10-06-2020, 14:27
Guarda caso è la stessa fonte di questa notizia che hai postato tu.
https://videocardz.com/newz/nvidia-geforce-rtx-3080-cooler-could-cost-up-to-150-usd-alone

Igorslab.de

https://www.tweaktown.com/news/73071/geforce-rtx-3090-rumor-24gb-gddr6x-would-annihilate-2080-ti/index.html

Come dicevo sono rumors e come tali vanno prese. Fintanto nvidia non presenterà le schede son solo speculazioni.
Prima dell'uscita di turing ci aspettavamo la 1180/volta senza ray tracing.

IMHO
Pensavo ti riferissi al video dentro tweaktown che riporta le "ipotetiche performance della 3090" che nesusno aveva mai sentito nominare prima.

mikael84
10-06-2020, 14:36
La 3080 se è davvero il GA102 è già fail per le dimensioni...altro che 1000 tops.. :sofico:
Il botolo è 360mmq tutto, il GA 102 che bestia sarà???
Significa che hanno rese orrende per quel chip dinosaurico e da qualche parte i pezzi che non fanno una Titan intera devono metterli... (anche se coi prezzi che avranno, dubito che ci sarà tutta sta gente vogliosa di comprarsi una Titan RTX 3090)

Il botolo non mi pare abbia tensor così capaci, da fare 1000 ed oltre tops a 2ghz e 2000 sparsity, con FP32 ed INT in parallelo.:asd:
Il picco è 90, ma non può utilizzarli completamente, deve emulare tutto.

Nvidia purtroppo per noi gamers è interessata molto al pro (dove mi pare stia guadagnando) ed al RT (questo è un bene se sfruttato), di conseguenza non concentra tutto sul raster.;)

Con i 7nm per ora abbiamo visto un 829 a 54(mtransitor) e rese non buone, e la controparte a 251mm2 a (10mtransistor) per solo raster, che con le custom sta mediamente a 270watt.

Acme
10-06-2020, 14:36
Pensavo ti riferissi al video dentro tweaktown che riporta le "ipotetiche performance della 3090" che nesusno aveva mai sentito nominare prima.
No, scusami tu ho sbagliato io a postare il link.
Quello giusto è quest'ultimo.
Chiedo venia.

TigerTank
10-06-2020, 14:42
Ma alla fine cosa cambia tra gsync normale e ultimate? Solo per la presenza di HDR o c'è dietro dell'altro?
Che poi l'HDR sui monitor lascia il tempo che trova come qualità :cry:

https://pctempo.com/wp-content/uploads/2019/10/FreeSync-e%20-G-Sync-6.jpg

Ma costa un botto di soldi e ha la ventola di raffreddamento(con casi di eccessiva rumorosità).
Vedremo come evolverà la questione VRR in parallelo alle nuove vga...ma per ora il gsync ultimate imho è ben poco conveniente :D

mikael84
10-06-2020, 14:47
Pensavo ti riferissi al video dentro tweaktown che riporta le "ipotetiche performance della 3090" che nesusno aveva mai sentito nominare prima.

Per la velocità effettiva, bisognerà vedere sopratutto il clock.
I 7nm permettono sino al 30% di boost, lavorando pure elettricamente. Tuttavia non parliamo di scaling 1:1, quindi è tutto da vedere.
I clock saranno sicuramente influenzati da tutti i transistor per l1/l2,tensor doppi.

RDNA AMD e Turing puntano molto sulla l1, che su Ampere sarà più alta. Inoltre anche la l2 sarà ampliata non poco, anche per ottimizzare la compressione e velocizzare il RT.:)


Io mi pongo la soglia psicologica delle 800€ di spesa massima(salvo eccezioni irrinunciabili) perchè le vga hanno un ciclo di vita troppo breve per investirci di più. Le TI purtroppo temo siano ormai definitivamente oltre tale soglia per cui spero ci rientrino almeno le x80, ovviamente dando per scontato che abbiano più di 8GB di vram.
Tanto il mio prossimo step sarebbe un futuro 21:9 4K da gaming per cui credo che la prossima generazione la utilizzerò sul monitor attuale.

La soglia psicologica.:p della scimmia.:p
E'il portafogli il problema.:p

Cmq, se il chip sarà quello, 10gb li avrà. 8 dalla 3070 in giù, che salvo smentite dovrebbe essere il chip in raster della 2080s bello pompato.:)

OrazioOC
10-06-2020, 14:58
Per la velocità effettiva, bisognerà vedere sopratutto il clock.
I 7nm permettono sino al 30% di boost, lavorando pure elettricamente. Tuttavia non parliamo di scaling 1:1, quindi è tutto da vedere.
I clock saranno sicuramente influenzati da tutti i transistor per l1/l2,tensor doppi.

RDNA AMD e Turing puntano molto sulla l1, che su Ampere sarà più alta. Inoltre anche la l2 sarà ampliata non poco, anche per ottimizzare la compressione e velocizzare il RT.:)

Il problema è che non è neanche detto che sia a 7nm, se fosse a 8nm ci potremmo ritrovare altri padelloni stile turing o comunque non tanto più piccoli di essa.
Certo che qui si sa' un pochettino di più che di rdna2, li si che si brancola nel buio.:rolleyes:

MrBrillio
10-06-2020, 15:14
Ma costa un botto di soldi e ha la ventola di raffreddamento(con casi di eccessiva rumorosità).
Vedremo come evolverà la questione VRR in parallelo alle nuove vga...ma per ora il gsync ultimate imho è ben poco conveniente :D

Ho dato un'occhiata...ma son fuori? Cioè mi compro un Oled e lo tengo li da usare come secondario piuttosto :D

mikael84
10-06-2020, 15:20
Il problema è che non è neanche detto che sia a 7nm, se fosse a 8nm ci potremmo ritrovare altri padelloni stile turing o comunque non tanto più piccoli di essa.
Certo che qui si sa' un pochettino di più che di rdna2, li si che si brancola nel buio.:rolleyes:

Dovrebbero essere 7nm lisci come Ampere GA100.
In ogni caso il padellone verrà fuori cmq.
Considera che Turing base con 7 GPC sarebbe da 826mm2.
A questo, aggiungi la l1, e probabilmente i tensor maggiorati di ampere. Il TPC passerebbe da 10,89 a 12,55 + l1, + cache registri.
I collegamenti rop's/l2 avranno più cache l2 (2 o 3x).
Nvlink maggiorato, la 3080, dovrebbe condividere il big chip.
Da vedere anche il RT core, modifiche al Polymorph engine, al raster, al gigathread (modificato su Ampere HPC).:)

Samsung, magari mi sbaglio, ma probabilmente verrà utilizzato per i chippini.

MrBrillio
10-06-2020, 15:35
Dovrebbero essere 7nm lisci come Ampere GA100.
In ogni caso il padellone verrà fuori cmq.
Considera che Turing base con 7 GPC sarebbe da 826mm2.
A questo, aggiungi la l1, e probabilmente i tensor maggiorati di ampere. Il TPC passerebbe da 10,89 a 12,55 + l1, + cache registri.
I collegamenti rop's/l2 avranno più cache l2 (2 o 3x).
Nvlink maggiorato, la 3080, dovrebbe condividere il big chip.
Da vedere anche il RT core, modifiche al Polymorph engine, al raster, al gigathread (modificato su Ampere HPC).:)

Samsung, magari mi sbaglio, ma probabilmente verrà utilizzato per i chippini.

Mikael ma per te quella soluzione di raffreddamento è dettata dal fatto che ci troveremo di fronte a un fornellino? Quindi può essere vero il rumor dei 320W di TDP?

mikael84
10-06-2020, 15:46
Mikael ma per te quella soluzione di raffreddamento è dettata dal fatto che ci troveremo di fronte a un fornellino? Quindi può essere vero il rumor dei 320W di TDP?

Teoricamente potrebbe, però attenzione il TDP di 320 è per il big chip (3080ti/3090), quindi di riflesso lo prende anche la 3080 (magari la tirano più in clock).
Un pò come la 2080 super che ha lo stesso TDP della 2080ti di base.
Ricorda molto Kepler, dove la 780 è stata l'unica a condividere il big chip.:)

OrazioOC
10-06-2020, 16:47
Dovrebbero essere 7nm lisci come Ampere GA100.
In ogni caso il padellone verrà fuori cmq.
Considera che Turing base con 7 GPC sarebbe da 826mm2.
A questo, aggiungi la l1, e probabilmente i tensor maggiorati di ampere. Il TPC passerebbe da 10,89 a 12,55 + l1, + cache registri.
I collegamenti rop's/l2 avranno più cache l2 (2 o 3x).
Nvlink maggiorato, la 3080, dovrebbe condividere il big chip.
Da vedere anche il RT core, modifiche al Polymorph engine, al raster, al gigathread (modificato su Ampere HPC).:)

Samsung, magari mi sbaglio, ma probabilmente verrà utilizzato per i chippini.

Infatti l'optimum sarebbe lasciare a samsung tutto quello che c'è sotto a GA104 e dare un silicio valido come per le gpu come quello che ha in mano da un annetto amd.
Turing sui quei 7nm farebbe faville, nella stessa die size ci metterebbero l'80% in più di transistors, un chip dalle dimensioni di tu106 potrebbe tenere testa a tu102 senza problemi.

SPARTANO93
10-06-2020, 16:59
Ho l'impressione che dovrò cambiare anche il mio alimentatore da 550w per passare dalla gtx 1080 alle rtx 3070/3080 ...

Inviato dal mio SM-G973F utilizzando Tapatalk

albero77
10-06-2020, 17:22
https://www.pcgamer.com/nvidia-rtx-3080-image/

Avanti così fino a settembre:)

nessuno29
10-06-2020, 18:22
https://www.pcgamer.com/nvidia-rtx-3080-image/

Avanti così fino a settembre:)

Ma cosa vedono di colossal in quel dissipatore i vari giornalisti?

4 heatpipe e neanche così tanto alluminio.. come descriveranno mai allora un artic o qualche buon custom :D:D:D

fraussantin
10-06-2020, 18:29
Ma cosa vedono di colossal in quel dissipatore i vari giornalisti?



4 heatpipe e neanche così tanto alluminio.. come descriveranno mai allora un artic o qualche buon custom :D:D:DInfatti , non capisco dove vedano 150 dollari di costo.

In cina con 150 dollari te ne fanno a pacchi di quelli.

The_SaN
10-06-2020, 18:38
Infatti , non capisco dove vedano 150 dollari di costo.

In cina con 150 dollari te ne fanno a pacchi di quelli.

Il falegname poi non ne parliamo :D
Scherzi a parte, pure quello delle attuali Founders è bello caro...ok è carino e ben fatto, ma prende sonore legnate da qualsiasi dissipatore serio.
La mia XC Ultra è un ammasso di metallo old style, ma ha ben altre prestazioni termiche.

mikael84
10-06-2020, 18:49
Infatti l'optimum sarebbe lasciare a samsung tutto quello che c'è sotto a GA104 e dare un silicio valido come per le gpu come quello che ha in mano da un annetto amd.
Turing sui quei 7nm farebbe faville, nella stessa die size ci metterebbero l'80% in più di transistors, un chip dalle dimensioni di tu106 potrebbe tenere testa a tu102 senza problemi.

GA104, se sarà quello dei rumors, sarà un buon chip. inoltre avrà sicuramente alcune varianti.

Giovamas
10-06-2020, 19:08
https://www.pcgamer.com/nvidia-rtx-3080-image/

Avanti così fino a settembre:)

speriamo prima dai :D comunque i leak si stanno facendo incessanti

OrazioOC
10-06-2020, 19:15
GA104, se sarà quello dei rumors, sarà un buon chip. inoltre avrà sicuramente alcune varianti.

Infatti ci potrebbe benissimo essere una 3060 super con 2560 cc, anche perchè la 3060 liscia così mormorata è praticamente una 960, una scheda leggerina nel tdp ma che non avrà chissà quali performance.

La mia curiosità sarà nella bassa/mobile, perchè se vuoi portare il ray tracing anche li, il chip 107 per forza di cose dovrà integrare delle unità rt.

bagnino89
10-06-2020, 19:22
Sì ma una 3080 con soli 10 GB? Siamo tirchietti con la memoria... Non sarebbe ora di passare ad almeno 16 GB per le top di gamma?

Inviato dal mio Pixel 3a utilizzando Tapatalk

Ubro92
10-06-2020, 19:27
Sì ma una 3080 con soli 10 GB? Siamo tirchietti con la memoria... Non sarebbe ora di passare ad almeno 16 GB per le top di gamma?

Inviato dal mio Pixel 3a utilizzando Tapatalk

Per mettere 16GB dovrebbero proporre un bus a 256bit anzichè 320bit e mettere memorie a doppia densità per la 3080...

E non credo ci convenga...

Altrimenti con memorie a doppia densità lasciando il chip com'è arriviamo a 20GB che forse in questa gen sono tantini e vorranno prima levarsi di torno le scorte delle vecchie vram.

fraussantin
10-06-2020, 19:36
Per mettere 16GB dovrebbero proporre un bus a 256bit anzichè 320bit e mettere memorie a doppia densità per la 3080...

E non credo ci convenga...

Altrimenti con memorie a doppia densità lasciando il chip com'è arriviamo a 20GB che forse in questa gen sono tantini e vorranno prima levarsi di torno le scorte delle vecchie vram.Di certo conviene ad Nvidia così fra 2 anni saranno da cambiare per quel motivo.

Poi sia chiaro bastano anche 8 giga , basta non maxare le texture..
Ma con le cifre che chiederanno ... Qualcuno potrebbe storcere il naso , o quanto meno scegliere amd che sicuramente metter@ 16 giga su quella fascia di prezzo.

Ubro92
10-06-2020, 19:37
Di certo conviene ad Nvidia così fra 2 anni saranno da cambiare per quel motivo.

Poi sia chiaro bastano anche 8 giga , basta non maxare le texture..
Ma con le cifre che chiederanno ... Qualcuno potrebbe storcere il naso , o quanto meno scegliere amd che sicuramente metter@ 16 giga su quella fascia di prezzo.

In realtà io le texture è la prima cosa che maxo in un titolo persino sulle MX dei notebook... :sofico:
Tutta questa vram è utile in futuro quando e se inizieranno a introdurre texture in 4K/8K di default nei titoli.

E credo che con le nuove console che hanno molta vram e dischi nvme è fattibilissimo che diventi pian piano norma.

bagnino89
10-06-2020, 19:45
In realtà io le texture è la prima cosa che maxo in un titolo persino sulle MX dei notebook... :sofico:
Tutta questa vram è utile in futuro quando e se inizieranno a introdurre texture in 4K/8K di default nei titoli.

E credo che con le nuove console che hanno molta vram e dischi nvme è fattibilissimo che diventi pian piano norma.Infatti. La VRAM è importante... Personalmente dopo 4 anni mi sarei aspettato un raddoppio a parità di fascia.

Sti RT e Tensor hanno sconvolto tutto... Io voglio la brutalità in raster!

Inviato dal mio Pixel 3a utilizzando Tapatalk

fraussantin
10-06-2020, 19:47
In realtà io le texture è la prima cosa che maxo in un titolo persino sulle MX dei notebook... :sofico:
Tutta questa vram è utile in futuro quando e se inizieranno a introdurre texture in 4K/8K di default nei titoli.

E credo che con le nuove console che hanno molta vram e dischi nvme è fattibilissimo che diventi pian piano norma.Anche io prediligo le texture HD , ma con un limite , quelle estreme che saturano gli 8 giga spesso sono uguali o simili a quelle subito sotto .
( Fc5 e ff15 in 2k)

Resta il fatto che le nuove console avranno moltissima RAM e prob molti giochi la useranno.
Vero che sembra ci sia una tecnologia nuova che usa anche altra memoria .
Ma è da vedere se funzionerà in tutti i giochi e come.
Secondo me 10 giga a 900\1000 euro saranno un bel dubbio in fase di acquisto per molti.
Soprattutto per chi viene dalla 1080ti

AceGranger
10-06-2020, 19:53
Infatti. La VRAM è importante... Personalmente dopo 4 anni mi sarei aspettato un raddoppio a parità di fascia.

Sti RT e Tensor hanno sconvolto tutto... Io voglio la brutalità in raster!

Inviato dal mio Pixel 3a utilizzando Tapatalk

fra un po non ti servira piu la brutalita raster, e prima o poi si doveva iniziare questo passaggio.

Ale55andr0
10-06-2020, 20:07
Infatti. La VRAM è importante... Personalmente dopo 4 anni mi sarei aspettato un raddoppio a parità di fascia.

Sti RT e Tensor hanno sconvolto tutto fracassato i maroni... Io voglio la brutalità in raster!

Inviato dal mio Pixel 3a utilizzando Tapatalk

fixed :read:

bagnino89
10-06-2020, 20:30
fra un po non ti servira piu la brutalita raster, e prima o poi si doveva iniziare questo passaggio.

D'accordo, ma non voglio fare da beta tester per Black Leather Jacket... Quando il ray tracing sarà un paradigma di programmazione universalmente accettato, usato nel 90% dei giochi ab initio (e non come effettini messi lì così giusto per ridurre ad 1/3 gli FPS), allora valuterò gli RT core.

Ma mi sembra una strada ancora molto in salita, qua ancora in pochi usano le DX12, buonanotte... Pagare caro per avere silicio inutilizzato, francamente mi infastidisce un pochino. Questo approccio ibrido mi sa di grossa presa per il ciapet.

Da questo punto di vista preferisco la strategia di AMD, poi però si fanno del male da soli con driver colabrodo, memorie a palla con monitor sopra i 60 Hz, crash, black screen... Aiuto.

fixed :read:

Hai ragione! Con la scusa di usare quintali di silicio, le GPU di Nvidia hanno raggiunto prezzi folli.

Secondo me 10 giga a 900\1000 euro saranno un bel dubbio in fase di acquisto per molti.
Soprattutto per chi viene dalla 1080ti

Ma anche dalla 1080 come me, eh... Ti pare normale, dopo 4 anni (QUATTRO, un'era biblica per l'informatica), avere solo 2 GB in più? Fino a poco fa, ad ogni generazione si raddoppiava, più o meno...

AceGranger
10-06-2020, 20:40
D'accordo, ma non voglio fare da beta tester per Black Leather Jacket... Quando il ray tracing sarà un paradigma di programmazione universalmente accettato, usato nel 90% dei giochi ab initio (e non come effettini messi lì così giusto per ridurre ad 1/3 gli FPS), allora valuterò gli RT core.

Ma mi sembra una strada ancora molto in salita, qua ancora in pochi usano le DX12, buonanotte... Pagare caro per avere silicio inutilizzato, francamente mi infastidisce un pochino. Questo approccio ibrido mi sa di grossa presa per il ciapet.


per esserlo deve esserci; non puoi programmare su un hardware inesistente; sarebbe stato uguale anche se fosse arrivato fra 3 anni.

è molto meglio che sia gia arrivato perchè prima arriva e prima si arrivera a "all'universalita".

quello che c'è c'è, ognuno valuta un po come crede, nessuno punta la pistola alla testa per acqusitare le GPU ;), non veodo dove sia la presa in giro.

OrazioOC
10-06-2020, 21:11
Il confronto die size amd vs nvidia lascia il tempo che trova, con i 7nm non dovrebbe essere difficile far saltar fuori una simil 2070/super in meno di 300 mm^2 con tanto di unità rt.

mikael84
10-06-2020, 23:28
Infatti ci potrebbe benissimo essere una 3060 super con 2560 cc, anche perchè la 3060 liscia così mormorata è praticamente una 960, una scheda leggerina nel tdp ma che non avrà chissà quali performance.

La mia curiosità sarà nella bassa/mobile, perchè se vuoi portare il ray tracing anche li, il chip 107 per forza di cose dovrà integrare delle unità rt.

Si molto probabilmente ci tireranno fuori una 3060 da li. Bisogna però vedere le rese, potrebbero esserci sorprese.
il chip può scendere da 3072cc a 2048cc, senza perdere rop's e banda (memoria), come per scarse rese, farci un piccolo colabrodo, stile 2060.:)

Sì ma una 3080 con soli 10 GB? Siamo tirchietti con la memoria... Non sarebbe ora di passare ad almeno 16 GB per le top di gamma?

Inviato dal mio Pixel 3a utilizzando Tapatalk

Su un bus da 320, ci metti o 10 o 20, ma nvidia quel taglio lo lascerà sicuramente alla quadro.:)
Con questo chip nvidia ci farà 4 quadro.

Sinceramente, pensavo (è tutto da dire veramente), che una minima possibilità ci fosse, perchè Micron ha pronte le memorie a doppia densità da 16 gb/s.
Non è da escludere un refresh in stile kepler.:)

Per mettere 16GB dovrebbero proporre un bus a 256bit anzichè 320bit e mettere memorie a doppia densità per la 3080...

E non credo ci convenga...

Altrimenti con memorie a doppia densità lasciando il chip com'è arriviamo a 20GB che forse in questa gen sono tantini e vorranno prima levarsi di torno le scorte delle vecchie vram.

Con micron pronta, nvidia pare proprio voler risaltare le quadro.
E' vero che certi tagli di memoria impattano sul TDP, ma per quanto dichiarato...:p

Il confronto die size amd vs nvidia lascia il tempo che trova, con i 7nm non dovrebbe essere difficile far saltar fuori una simil 2070/super in meno di 300 mm^2 con tanto di unità rt.

Il problema è che una è solo raster.:)
Inoltre quel chip emula tutto, anche la serie TU106, utilizza parte dei tensor per fare FP16.:)

Free Gordon
11-06-2020, 00:46
L'unico motivo è un pessimo 8nm Samsung.


No dai..... :asd:

Attendiamo e prepariamo i pop-corn.

Free Gordon
11-06-2020, 01:23
cut Con i 7nm per ora abbiamo visto un 829 a 54(mtransitor) e rese non buone, cut

appunto... è imparagonabile....
E' una padella assurda.

Se il GA102 fosse già 600mmq.. non sarebbe cmq un gran risultato, praticamente è al limite delle rese già all'inizio (dipenderà poi quanto dureranno sti 7np).

Certo che dipende poi dalle performance...ma schede del genere a che prezzi vuole piazzarle Nvidia??? :mad:
Va' bene nel PRO, non ci sono limiti di prezzo praticamente...ma lato gaming non può tirare troppo la corda eh... :read:

Free Gordon
11-06-2020, 01:30
Da questo punto di vista preferisco la strategia di AMD, poi però si fanno del male da soli con driver colabrodo, memorie a palla con monitor sopra i 60 Hz, crash, black screen... Aiuto.

... e poi ti svegli tutto bagnato. :asd:

No dai, ancora co sta storia dei driver... :help:

bagnino89
11-06-2020, 07:47
... e poi ti svegli tutto bagnato. :asd:

No dai, ancora co sta storia dei driver... :help:

Vatti a leggere i thread di Vega, delle 5700 e persino di Polaris, poi mi dici.

Edit. Te lo faccio io il favore:

https://www.hwupgrade.it/forum/showpost.php?p=46803632&postcount=29965
https://www.hwupgrade.it/forum/showpost.php?p=46800699&postcount=29964
https://www.hwupgrade.it/forum/showpost.php?p=46810937&postcount=29970
https://www.hwupgrade.it/forum/showpost.php?p=46814999&postcount=29980
https://www.hwupgrade.it/forum/showpost.php?p=46815358&postcount=29983
https://www.hwupgrade.it/forum/showpost.php?p=46823768&postcount=29999
https://www.hwupgrade.it/forum/showpost.php?p=46825338&postcount=30004
https://www.hwupgrade.it/forum/showpost.php?p=46823006&postcount=7746
https://www.hwupgrade.it/forum/showpost.php?p=46823364&postcount=7753
https://www.hwupgrade.it/forum/showpost.php?p=46794614&postcount=15201
https://www.hwupgrade.it/forum/showpost.php?p=46783834&postcount=15172
https://www.hwupgrade.it/forum/showpost.php?p=46789683&postcount=15187

E questi sono solo i più recenti, e solo di questo forum... Sui thread Nvidia, non leggo tutti questi casini.

Ancora (anno del signore 2020), con i monitor a refresh rate superiore a 60 Hz, le memorie della GPU vanno a palla, con GPU in idle che arriva a 40-50 °C... Ti pare normale? Quando si danno una svegliata?

fraussantin
11-06-2020, 08:09
Vatti a cut a?

E meno male che erano i driver . Con la nitro abbiamo sudato freddo.. perchè sembrava veramente rotta..

Vedersi spengere la scheda o il PC dal nulla in game o sul desktop , son cose preoccupanti..

PS gli ho fatto anche cambiare alimentatore .. per niente.

bagnino89
11-06-2020, 08:29
E meno male che erano i driver . Con la nitro abbiamo sudato freddo.. perchè sembrava veramente rotta..

Vedersi spengere la scheda o il PC dal nulla in game o sul desktop , son cose preoccupanti..

PS gli ho fatto anche cambiare alimentatore .. per niente.

Questi problemi le schede AMD se li portano dietro da ANNI... All'epoca avevo una 7870, black screen random (scheda completamente a defualt, eh); sostituita con un'altra, idem con patate. Inaccettabile.

Chiudo OT.

ninja750
11-06-2020, 08:31
Sì ma una 3080 con soli 10 GB? Siamo tirchietti con la memoria... Non sarebbe ora di passare ad almeno 16 GB per le top di gamma?

Per mettere 16GB dovrebbero proporre un bus a 256bit anzichè 320bit e mettere memorie a doppia densità per la 3080...

E non credo ci convenga...

Altrimenti con memorie a doppia densità lasciando il chip com'è arriviamo a 20GB che forse in questa gen sono tantini e vorranno prima levarsi di torno le scorte delle vecchie vram.

Di certo conviene ad Nvidia così fra 2 anni saranno da cambiare per quel motivo.

Poi sia chiaro bastano anche 8 giga , basta non maxare le texture..
Ma con le cifre che chiederanno ... Qualcuno potrebbe storcere il naso , o quanto meno scegliere amd che sicuramente metter@ 16 giga su quella fascia di prezzo.

Infatti. La VRAM è importante... Personalmente dopo 4 anni mi sarei aspettato un raddoppio a parità di fascia.

Anche io prediligo le texture HD , ma con un limite , quelle estreme che saturano gli 8 giga spesso sono uguali o simili a quelle subito sotto .
( Fc5 e ff15 in 2k)

Resta il fatto che le nuove console avranno moltissima RAM e prob molti giochi la useranno.
Vero che sembra ci sia una tecnologia nuova che usa anche altra memoria .
Ma è da vedere se funzionerà in tutti i giochi e come.
Secondo me 10 giga a 900\1000 euro saranno un bel dubbio in fase di acquisto per molti.
Soprattutto per chi viene dalla 1080ti


Ma anche dalla 1080 come me, eh... Ti pare normale, dopo 4 anni (QUATTRO, un'era biblica per l'informatica), avere solo 2 GB in più? Fino a poco fa, ad ogni generazione si raddoppiava, più o meno...


Su un bus da 320, ci metti o 10 o 20, ma nvidia quel taglio lo lascerà sicuramente alla quadro.:)

riguardo la questione vram: ma è veramente necessario OGGI andare oltre gli 8/10gb? capisco per quelli che in qualche gioco in 4K scaricano i pack artworks del modder di turno ma per il resto non mi pare di vedere tutti i giorni schede da 8gb saturate, specialmente 1080P e 1440P sono solo una aggiunta di costi per chi le schede le compra.. hanno senso solo per quelle uber top dove il 4K dovrebbe veramente essere gestibile a 360° non certo una 3060 o 3070 dove il prezzo conta

Ale55andr0
11-06-2020, 08:39
Questi problemi le schede AMD se li portano dietro da ANNI... All'epoca avevo una 7870, black screen random (scheda completamente a defualt, eh); sostituita con un'altra, idem con patate. Inaccettabile.

Chiudo OT.

7970. Mai avuto problemi. Passato a 290. Idem con Patate. Più che altro ho aspettato una vita per avere il DSR

Ale55andr0
11-06-2020, 08:43
riguardo la questione vram: ma è veramente necessario OGGI andare oltre gli 8/10gb? capisco per quelli che in qualche gioco in 4K scaricano i pack artworks del modder di turno ma per il resto non mi pare di vedere tutti i giorni schede da 8gb saturate, specialmente 1080P e 1440P sono solo una aggiunta di costi per chi le schede le compra.. hanno senso solo per quelle uber top dove il 4K dovrebbe veramente essere gestibile a 360° non certo una 3060 o 3070 dove il prezzo conta

no, le nuove scatolette hanno 16gb per tutto, dei quali circa 3 presi per il SO e il resto per i giochi, ma incluso il codice base mica tutti destinati alla gpu... Ergo una vga da 10gb sarà sufficiente salvo inettitudini varie nell'ottimizzazione

Ale55andr0
11-06-2020, 08:49
Io però con la 5770-7970-290 ho sempre avuto problemi di black screen su desktop per esempio

:boh:

fraussantin
11-06-2020, 08:49
riguardo la questione vram: ma è veramente necessario OGGI andare oltre gli 8/10gb? capisco per quelli che in qualche gioco in 4K scaricano i pack artworks del modder di turno ma per il resto non mi pare di vedere tutti i giorni schede da 8gb saturate, specialmente 1080P e 1440P sono solo una aggiunta di costi per chi le schede le compra.. hanno senso solo per quelle uber top dove il 4K dovrebbe veramente essere gestibile a 360° non certo una 3060 o 3070 dove il prezzo conta

Come ho detto su mi sono capitati 2 giochi in 2k che mi saturavano la vram , ma nei prossimi anni potrebbero essere di piú.

Nulla di necessario , basta un step sotto e su un 27" non si nota quasi niente ..

Non é come 5 anni fa dove cambiava il mondo con le texture..

Adesso mi interessa piú spingere con illuminazione e occlusione. Quelle fanno in tanti giochi la differenza.

Se mi vendessero una 3080 a 599 euro non starei a discutere.. ci si passa sopra.

fraussantin
11-06-2020, 08:51
no, le nuove scatolette hanno 16gb per tutto, dei quali circa 3 presi per il SO e il resto per i giochi, ma incluso il codice base mica tutti destinati alla gpu... Ergo una vga da 10gb sarà sufficiente salvo inettitudini varie nell'ottimizzazioneTi sei scordato l'ssd per le texture :asd:

Scherzi a parte anche invidia dovrebbe implementare una roba simile .

Ma ho paura che impatterà sulle prestazioni . Cosa che alle console non frega nulla visti i 30fps e l'input lag da pausa caffé !

Ale55andr0
11-06-2020, 09:04
Ti sei scordato l'ssd per le texture :asd:


ah già :asd:

bagnino89
11-06-2020, 09:29
riguardo la questione vram: ma è veramente necessario OGGI andare oltre gli 8/10gb? capisco per quelli che in qualche gioco in 4K scaricano i pack artworks del modder di turno ma per il resto non mi pare di vedere tutti i giorni schede da 8gb saturate, specialmente 1080P e 1440P sono solo una aggiunta di costi per chi le schede le compra.. hanno senso solo per quelle uber top dove il 4K dovrebbe veramente essere gestibile a 360° non certo una 3060 o 3070 dove il prezzo conta

Per me sì, è una questione di evoluzione tecnologica... Più che altro, considerando i prezzi folli a cui vengono vendute queste schede.

7970. Mai avuto problemi. Passato a 290. Idem con Patate. Più che altro ho aspettato una vita per avere il DSR

Ti è andata bene, con le 290 ho letto di pianti amari notevoli...

Io però con la 5770-7970-290 ho sempre avuto problemi di black screen su desktop per esempio

CVD.

Se mi vendessero una 3080 a 599 euro non starei a discutere.. ci si passa sopra.

Ah beh, in quel caso anche io. Ma penso sia già tanto se si troverà una 3070 a quel prezzo :asd:

fraussantin
11-06-2020, 10:52
7970. Mai avuto problemi. Passato a 290. Idem con Patate. Più che altro ho aspettato una vita per avere il DSRSulle navi era un problema di selezione ( imho). Gente che dopo averne cambiate 3 del solito modello ha trovato quella he non lo faceva. Poi con i driver di gennaio tutto si ê placato evidentemente hanno sistemato I boost o qualche voltaggio o vuoi sapere cosa.
Cmq c'é stato un bagno di sangue su Amazon nel periodo pre-natale.. fra offerte assurde e resi..

Per il resto é una bella scheda nulla da dire .

Edit : giusto per non passare dal solito fanboy anche Nvidia con Turing ha avuto i suoi problemi, per via di saldature fatte a minchia lotti interi sono scoppiati nei primi mesi. Son cose che capitano.
Io ci sono passato con le 8600m di un vecchio portatile.. ai tempi si infornavano come pizze xD..
anzi mi iscrissi qui proprio per chiedere consigli sulla cottura , era il lontano 2009

Nurabsa
11-06-2020, 10:56
tempo fa lessi anche di utenti canadian credo che si ritrovarono -a detta loro- la scheda esplosa nel case senza aver fatto nulla.
Sostituita in garanzia e prontamente ri bruciata da questi poveretti che la rimontavano nello stesso psu. casamadre ingrata!

Tutto puo essere coincidenza stavano parlando della mia stessa scheda.
Fatti due conti problemi di silicio sicuro, qualcosa deve essere andato storto nel nodo o durante il processo produttivo o meglio nell assemblaggio delle fasi,
ma non della vga dell utente

OrazioOC
11-06-2020, 11:11
tempo fa lessi anche di utenti canadian credo che si ritrovarono -a detta loro- la scheda esplosa nel case senza aver fatto nulla.
Sostituita in garanzia e prontamente ri bruciata da questi poveretti che la rimontavano nello stesso psu. casamadre ingrata!

Tutto puo essere coincidenza stavano parlando della mia stessa scheda.
Fatti due conti problemi di silicio sicuro, qualcosa deve essere andato storto nel nodo o durante il processo produttivo o meglio nell assemblaggio delle fasi,
ma non della vga dell utente

Il problema però sembra molto più presente sulla 5700 xt che non sulle 5600/5500 xt, può essere che abbiano problemi con quel chip.

Gello
11-06-2020, 11:16
Ci sono i negazionisti dell'olocausto, figuriamoci se non ci sono fanboy AMD che dicono di non aver mai avuto problemi coi drivers.

mikael84
11-06-2020, 11:27
appunto... è imparagonabile....
E' una padella assurda.

Se il GA102 fosse già 600mmq.. non sarebbe cmq un gran risultato, praticamente è al limite delle rese già all'inizio (dipenderà poi quanto dureranno sti 7np).

Certo che dipende poi dalle performance...ma schede del genere a che prezzi vuole piazzarle Nvidia??? :mad:
Va' bene nel PRO, non ci sono limiti di prezzo praticamente...ma lato gaming non può tirare troppo la corda eh... :read:

La quadro di quella serie viene venduta a 2000 euro. Lo scarto dello scarto troveranno il modo per prezzarlo nei limiti.;)

Vatti a leggere i thread di Vega, delle 5700 e persino di Polaris, poi mi dici.

Edit. Te lo faccio io il favore:

https://www.hwupgrade.it/forum/showpost.php?p=46803632&postcount=29965
https://www.hwupgrade.it/forum/showpost.php?p=46800699&postcount=29964
https://www.hwupgrade.it/forum/showpost.php?p=46810937&postcount=29970
https://www.hwupgrade.it/forum/showpost.php?p=46814999&postcount=29980
https://www.hwupgrade.it/forum/showpost.php?p=46815358&postcount=29983
https://www.hwupgrade.it/forum/showpost.php?p=46823768&postcount=29999
https://www.hwupgrade.it/forum/showpost.php?p=46825338&postcount=30004
https://www.hwupgrade.it/forum/showpost.php?p=46823006&postcount=7746
https://www.hwupgrade.it/forum/showpost.php?p=46823364&postcount=7753
https://www.hwupgrade.it/forum/showpost.php?p=46794614&postcount=15201
https://www.hwupgrade.it/forum/showpost.php?p=46783834&postcount=15172
https://www.hwupgrade.it/forum/showpost.php?p=46789683&postcount=15187

E questi sono solo i più recenti, e solo di questo forum... Sui thread Nvidia, non leggo tutti questi casini.

Ancora (anno del signore 2020), con i monitor a refresh rate superiore a 60 Hz, le memorie della GPU vanno a palla, con GPU in idle che arriva a 40-50 °C... Ti pare normale? Quando si danno una svegliata?

Sono arrivato al quinto link e mi sono fermato. Pazzesco, in alcuni si sfiora la fusione del nocciolo. Preoccupante, considerando che dovrebbe rilasciare nel breve un chip piuttosto costoso.

Acme
11-06-2020, 11:34
Quindi può essere vero il rumor dei 320W di TDP?

Tutto può essere ma sono piuttosto dubbioso su quel dato. Dopotutto nvidia non ha dichiarato le specifiche, tanto meno i consumi e poi la 3080 consumerebbe quanto la 3080ti. Credo più probabile che quel 320w sia il potere dissipante di quella soluzione di raffreddamento.

IMHO

bagnino89
11-06-2020, 11:34
Ci sono i negazionisti dell'olocausto, figuriamoci se non ci sono fanboy AMD che dicono di non aver mai avuto problemi coi drivers.

Ma soprattutto quelli che minimizzano: "che vuoi che sia un black screen?" :asd:

mikael84
11-06-2020, 11:40
Tutto può essere ma sono piuttosto dubbioso su quel dato. Dopotutto nvidia non ha dichiarato le specifiche, tanto meno i consumi e poi la 3080 consumerebbe quanto la 3080ti. Credo più probabile che quel 320w sia il potere dissipante di quella soluzione di raffreddamento.

IMHO

Probabile pure che gli abbiano lasciato di base lo stesso TDP, essendo basata sullo stesso chip.
Non a caso, come la Titan RTX, il chip full che monta la doppia densità ha 30 watt di tdp in più.
Ovviamente queste sono speculazioni e per tali prendiamole, anche se analizzando il GA100...:)

Ci sono i negazionisti dell'olocausto, figuriamoci se non ci sono fanboy AMD che dicono di non aver mai avuto problemi coi drivers.

Ma soprattutto quelli che minimizzano: "che vuoi che sia un black screen?" :asd:

Ancora che penso a questo, pazzesco. Meno male che era niente di grave.

https://www.hwupgrade.it/forum/showpost.php?p=46815358&postcount=29983

mattxx88
11-06-2020, 11:40
Ci sono i negazionisti dell'olocausto, figuriamoci se non ci sono fanboy AMD che dicono di non aver mai avuto problemi coi drivers.

Mi è andato di traverso il boccone
:rotfl: :rotfl: :rotfl:

ninja750
11-06-2020, 11:49
Ci sono i negazionisti dell'olocausto, figuriamoci se non ci sono fanboy AMD che dicono di non aver mai avuto problemi coi drivers.

i problemi ci sono basta come con windows non fiondarsi ad aggiornare appena esce una nuova release, in questo modo sono passato da x1950 -> hd4870 -> r9380 -> rx580 senza grossi patemi d'animo, es adesso sono ancora con driver 2019 e zero problemi.. sarei masochista ad insistere con amd ci fossero problemi conclamati e irrisolvibili

i fanboy sono quelli che sostengono che nvidia non ha mai avuto problemi di driver.. ci sono e ci saranno sempre ambo le parti

FroZen
11-06-2020, 11:52
È un mondo bellissimo

Sui thread nvidia si parla dei problemi driver amd

Sui thread amd si parla dei problemi driver nvidia

Fortuna che entrerà anche intel cosi si parlerà dei problemi driver amd e nvidia anche nel forum cpu :asd:

OrazioOC
11-06-2020, 11:53
i problemi ci sono basta come con windows non fiondarsi ad aggiornare appena esce una nuova release, in questo modo sono passato da x1950 -> hd4870 -> r9380 -> rx580 senza grossi patemi d'animo, es adesso sono ancora con driver 2019 e zero problemi.. sarei masochista ad insistere con amd ci fossero problemi conclamati e irrisolvibili

i fanboy sono quelli che sostengono che nvidia non ha mai avuto problemi di driver.. ci sono e ci saranno sempre ambo le parti

Si ma qui non è che parliamo di problemi con hardware "vecchio" e driver nuovi, qui i problemi ci sono stati con il nuovo hardware al lancio.
Che vuoi dirgli a sti poveracci, di montare i catalyst?:rolleyes:

mikael84
11-06-2020, 11:54
riguardo la questione vram: ma è veramente necessario OGGI andare oltre gli 8/10gb? capisco per quelli che in qualche gioco in 4K scaricano i pack artworks del modder di turno ma per il resto non mi pare di vedere tutti i giorni schede da 8gb saturate, specialmente 1080P e 1440P sono solo una aggiunta di costi per chi le schede le compra.. hanno senso solo per quelle uber top dove il 4K dovrebbe veramente essere gestibile a 360° non certo una 3060 o 3070 dove il prezzo conta

Bisogna pure guardare il futuro, con la ram contata, prima o poi ti ritrovi qualche compromesso. Kepler insegna. sopratutto a cambio gen.

Acme
11-06-2020, 11:55
Probabile pure che gli abbiano lasciato di base lo stesso TDP, essendo basata sullo stesso chip.
Non a caso, come la Titan RTX, il chip full che monta la doppia densità ha 30 watt di tdp in più.
Ovviamente queste sono speculazioni e per tali prendiamole, anche se analizzando il GA100...:)

https://www.igorslab.de/en/350-watts-for-nvidias-new-top-of-the-line-geforce-rtx-3090-ampere-model-explained-chip-area-calculated-and-boards-compared/
Questo articolo potrebbe "dissipare" il dubbio su i consumi.
Visto che siamo a speculare, quanti mld di transistor ti aspetti in GA102.

Gello
11-06-2020, 11:57
:D :sofico:

No faide per carita', lo so che dopo 6 mesi/un anno un driver stabile quasi in tutto riescono a farlo pure loro... (su x570 stanno ancora aspettando)

fraussantin
11-06-2020, 12:01
:D :sofico:



No faide per carita', lo so che dopo 6 mesi/un anno un driver stabile quasi in tutto riescono a farlo pure loro... (su x570 stanno ancora aspettando)No dai le x570 dopo il tormento iniziale ora vanno bene. Ma da novembre con 1004.

Per il resto si dovevano mettermi in bundle blasphemous come gioco..

Riccardo_1
11-06-2020, 12:21
Sarà già stato detto nelle 2000 pagine di discussione ma...

Dal white paper ampere si vede chiaramente che il GA100 sono in sostanza due chip uniti tra loro (addirittura con cache L2 separata).

Il GA102 sarà il GA100 tagliato a metà, con buona parte dei FP64 cores rimossi? 4096 CUDA cores, 64 SMs, un chip intorno a 400mm2? E la RTX 3060 non potrebbe essere 1/4 del GA100, con 2046 cuda cores e un chip da 200mm2? La 3070 e la 3050 sarebbero varianti laserate del chip superiore, la 3090 sarebbe una variante laserata del GA100.

Fucilatemi se ho ragliato stupidate :D

Ton90maz
11-06-2020, 12:58
riguardo la questione vram: ma è veramente necessario OGGI andare oltre gli 8/10gb? capisco per quelli che in qualche gioco in 4K scaricano i pack artworks del modder di turno ma per il resto non mi pare di vedere tutti i giorni schede da 8gb saturate, specialmente 1080P e 1440P sono solo una aggiunta di costi per chi le schede le compra.. hanno senso solo per quelle uber top dove il 4K dovrebbe veramente essere gestibile a 360° non certo una 3060 o 3070 dove il prezzo conta

Mah, quando i giochi effettivamente utilizzavano 1 o 2 GB su 3 si diceva che 3 GB bastavano, poi si è visto com'è andata a finire :asd:
Oggi ci sono una miriade di giochi che già eccedono 8 GB e molto prima del cambio generazionale, chissà come invecchieranno queste schede :oink:

Andy1111
11-06-2020, 14:50
Certo che leggere certe cose sempre dai soliti fa veramente ridere, tutti hanno i loro difetti e i loro pregi poco ma sicuro, forse con l'età la memoria fa brutti scherzi, ci si dimentica del mega lotto fallato di 2080 TI , 2070 e di alcune 2080 che ha riportato in voga un grande gioco Space Invaders , non serve mettere link questo forum, youtube e tutta internet ne è piena, ma forse per alcuni è tutto nella norma, e chi le ha fabbricate e vendute è stata furba a cercare di fare finta di nulla e minimizzare.
Amd non è senza colpe sicuramente sui driver, poteva fare meglio e prima, ma non esageriamo, ho una sapphire 5850 toxic che ancora fa il suo sporco lavoro in un vecchio pc , una Sapphire R9 270X regalata diversi anni fa per il pc di mio fratello e ancora funziona senza problemi, una Sapphire R9 290 Vapor-X OC che ha macinato nel mio pc per due anni poi rimessa nella scatola ancora funzionante, sostituita da una Vega che uso ormai da oltre 2 anni con cui gioco faccio video senza grossi problemi, poi sicuramente capita quel driver che da problemi o qualche aggiornamento di windows che incasina qualcosa nei driver, e non ditemi che è impossibile perchè è successo e non solo a me.

Ma poi spiegatemi se ste navi fanno tanto schifo coi driver che vanno malissimo sto tizio come fa a giocare a molti giochi senza problemi?! e la tiene anche in oc bello spinto 2100 e 1850 le memorie a liquido?! è un prestigiatore.

https://www.youtube.com/channel/UCQM-tp1cm_3dCpB-hqrGHLQ

mikael84
11-06-2020, 15:09
https://www.igorslab.de/en/350-watts-for-nvidias-new-top-of-the-line-geforce-rtx-3090-ampere-model-explained-chip-area-calculated-and-boards-compared/
Questo articolo potrebbe "dissipare" il dubbio su i consumi.
Visto che siamo a speculare, quanti mld di transistor ti aspetti in GA102.

Non ho letto l'articolo, sta sera lo guardo con calma:)
Cmq, per i transistor non è facile, perchè da pro/gaming ad HPC, cambia notevolmente la parte della l2/l1 e dei collegamenti (in ddr6 sarebbero 768bit).
Inoltre a livello interno raddoppiano pure le load store.
Nel gaming, vengono lasciate solo 4 FP64 per SM, però aggiungono i polymorph engine e gli RT core.

Diciamo che a stima, potremmo essere sui 40/45mtransistor, considerando che la l2, dovrebbe almeno raddoppiare sino a 12mb, però non è neppure da scartare un simile approccio in cui il collegamento rop's/l2, venga strutturato simil HPC, cioè 16 rop's/4mb (24mb totali).

Sui consumi è da vedere, così pare abbiano sparato 45watt a per raster, contro i 41 di turing.

Sarà già stato detto nelle 2000 pagine di discussione ma...

Dal white paper ampere si vede chiaramente che il GA100 sono in sostanza due chip uniti tra loro (addirittura con cache L2 separata).

Il GA102 sarà il GA100 tagliato a metà, con buona parte dei FP64 cores rimossi? 4096 CUDA cores, 64 SMs, un chip intorno a 400mm2? E la RTX 3060 non potrebbe essere 1/4 del GA100, con 2046 cuda cores e un chip da 200mm2? La 3070 e la 3050 sarebbero varianti laserate del chip superiore, la 3090 sarebbe una variante laserata del GA100.

Fucilatemi se ho ragliato stupidate :D

Vai spalle al muro.:D Si scherza.:)
Il chip gaming sarà diverso, dovrebbe essere questo.
https://cdn.wccftech.com/wp-content/uploads/2020/03/NVIDIA-GA102-GPU-Configuration-GeForce-RTX-3080-Ti-Graphics-Card-1480x937.jpg

Le unita di calcolo del chip HPC non vanno bene, o sono una schifezza per il gaming. In primis perdi varie primitive, e dovrebbe rasterizzare a 32, con ampia banda.

Si utilizzerà un turing pompato.:)

La 3070 dovrebbe essere un chip simil 2080s, pompato di cache, clock (bisognerà vedere quanto), tensor e via.

Kostanz77
11-06-2020, 15:18
Mah, quando i giochi effettivamente utilizzavano 1 o 2 GB su 3 si diceva che 3 GB bastavano, poi si è visto com'è andata a finire :asd:

Oggi ci sono una miriade di giochi che già eccedono 8 GB e molto prima del cambio generazionale, chissà come invecchieranno queste schede :oink:



COD satura gli 11GB della mia 2080Ti


Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro

majinbu7
11-06-2020, 15:57
Ragazzi la volete una buona notizia? Segnatelo
Qui da noi la 3080 avrà un prezzo di 900€ , e a quel punto per me se la possono tranquillamente tenere:asd:

Giovamas
11-06-2020, 16:01
Ma soprattutto quelli che minimizzano: "che vuoi che sia un black screen?" :asd:

la mia ultima AMD è stata la 5850 e da allora solo nvidia. quindi sui driver non saprei cosa dire e non mi pronuncio. chi dice però cosa vuoi che sia.. beh non ha mai provato l'emozione di crashare quando un boss stile nameless king o sister freide è sceso al 10% degli HP:D

Ubro92
11-06-2020, 16:28
Bisogna pure guardare il futuro, con la ram contata, prima o poi ti ritrovi qualche compromesso. Kepler insegna. sopratutto a cambio gen.

Si ma dipende anche dall'architettura, un amico ha la prima titan kepler quella con 2688cc e nei giochi moderni non è che sia questo chè, i 6GB di vram non ne migliorano di molto la situazione rispetto una 780ti da 3GB, in alcuni ambiti le prende pure da una 1050ti...

La vram non è tutto... Bisogna analizzare il chip nel complesso.

OrazioOC
11-06-2020, 16:41
Si ma dipende anche dall'architettura, un amico ha la prima titan kepler quella con 2688cc e nei giochi moderni non è che sia questo chè, i 6GB di vram non ne migliorano di molto la situazione rispetto una 780ti da 3GB, in alcuni ambiti le prende pure da una 1050ti...

La vram non è tutto... Bisogna analizzare il chip nel complesso.

Kepler è invecchiato malissimo e non ci piove, ma maxwell comunque dice ancora la sua, idem pascal.
Non è che le radeon con 2gb facciano miracoli contro le dirette concorrenti dell'epoca.
Una r9 285 è grossomodo nel range di performance di una 960 :asd:.

TigerTank
11-06-2020, 17:51
COD satura gli 11GB della mia 2080Ti


Satura o alloca?

mikael84
11-06-2020, 18:18
Si ma dipende anche dall'architettura, un amico ha la prima titan kepler quella con 2688cc e nei giochi moderni non è che sia questo chè, i 6GB di vram non ne migliorano di molto la situazione rispetto una 780ti da 3GB, in alcuni ambiti le prende pure da una 1050ti...

La vram non è tutto... Bisogna analizzare il chip nel complesso.

Kepler è morta per ben altro, al giorno d'oggi, salvo gli unreal engine, è un rottame (di 7 anni).
Dipendenze, collegamenti a vuoto, pixel rate osceni, (pascal e hawaii stravolsero tutto qua), BW effettiva, poco più della metà rispetto la teorica e tanti altri fattori più interni, che comportavano anche incostanza del frame.
Ai tempi, andava molto bene, anzi era una vera cannonata in OC ed in SLI, dove c'era il pieno supporto.
E' morta peggio, però per via della ram, i vari AC unity, fc4 l'avevano messa ko, tanto che molti (compreso me) , passarono a Maxwell mid.

Al debutto di Kepler, però, c'erano solo soluzioni a conchiglia, la ram da 512mb arrivò l'anno successivo.

Ora come ora, tralasciando l'NVcache, stare li risicati con la ram non è certo ottimale, considerando i prezzi, se magari pensiamo ad una 3070 da 8gb come una simil 2080ti...

La doppia densità porta consumi e ram esagerata, che rimarrebbe inutilizzata.
Creare bus più grandi, troppo spazio di die... insomma non è il massimo.

Satura o alloca?

COD perde il pelo ma non il vizio.:p

OrazioOC
11-06-2020, 18:24
COD satura gli 11GB della mia 2080Ti


Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro

E' pessimo come ottimizzazione, e su warzone fa ancora peggio, ho una 1660 liscia, anche con le texture low si prende quei 5gb di vram, e la qualità grafica è stata anche impoverita rispetto al gioco di base.
Mi fa ripensare a BF3 nel 2011 quanto fosse avanti.:rolleyes:

thunderforce83
11-06-2020, 18:44
Kepler è morta per ben altro, al giorno d'oggi, salvo gli unreal engine, è un rottame (di 7 anni).
Dipendenze, collegamenti a vuoto, pixel rate osceni, (pascal e hawaii stravolsero tutto qua), BW effettiva, poco più della metà rispetto la teorica e tanti altri fattori più interni, che comportavano anche incostanza del frame.
Ai tempi, andava molto bene, anzi era una vera cannonata in OC ed in SLI, dove c'era il pieno supporto.
E' morta peggio, però per via della ram, i vari AC unity, fc4 l'avevano messa ko, tanto che molti (compreso me) , passarono a Maxwell mid.

Al debutto di Kepler, però, c'erano solo soluzioni a conchiglia, la ram da 512mb arrivò l'anno successivo.

Ora come ora, tralasciando l'NVcache, stare li risicati con la ram non è certo ottimale, considerando i prezzi, se magari pensiamo ad una 3070 da 8gb come una simil 2080ti...

La doppia densità porta consumi e ram esagerata, che rimarrebbe inutilizzata.
Creare bus più grandi, troppo spazio di die... insomma non è il massimo.



COD perde il pelo ma non il vizio.:p

dopo una bella pausa leggo con piacere che quasi ci siamo al lancio delle nuove, o cosi' pare almeno:)
ma leggevo qua e la, non ho capito bene...ci sara' 3090,3080ti e 3080 senza la 3070 al debutto?? insomma abbiamo informazioni reali oppure ancora nulla di ufficialmente ufficioso diciamo :)

FreeMan
11-06-2020, 19:37
È un mondo bellissimo

Sui thread nvidia si parla dei problemi driver amd

Sui thread amd si parla dei problemi driver nvidia

Fortuna che entrerà anche intel cosi si parlerà dei problemi driver amd e nvidia anche nel forum cpu :asd:

STOP OT!!

>bYeZ<

mikael84
11-06-2020, 23:13
dopo una bella pausa leggo con piacere che quasi ci siamo al lancio delle nuove, o cosi' pare almeno:)
ma leggevo qua e la, non ho capito bene...ci sara' 3090,3080ti e 3080 senza la 3070 al debutto?? insomma abbiamo informazioni reali oppure ancora nulla di ufficialmente ufficioso diciamo :)

In linea di massima i chip sembrano quelli speculati, con l'eccezione del GA103.:)
GA104 dovrebbe essere quello speculato, mentre la 3080, pare essere uno scarto degli scarti di GA102.
Titan: 5376cc /24gb
3090/3080ti: non si conoscono i cc puri, ma dovrebbe avere una partizione cache laserata (quindi 11gb, come la 2080ti).
3080: 4352cc e 10gb di ram, una sorta di 2080ti pompata.:)

OrazioOC
11-06-2020, 23:16
In linea di massima i chip sembrano quelli speculati, con l'eccezione del GA103.:)
GA104 dovrebbe essere quello speculato, mentre la 3080, pare essere uno scarto degli scarti di GA102.
Titan: 5376cc /24gb
3090/3080ti: non si conoscono i cc puri, ma dovrebbe avere una partizione cache laserata (quindi 11gb, come la 2080ti).
3080: 4352cc e 10gb di ram, una sorta di 2080ti pompata.:)

Una titan così potrebbe rubare parecchi clienti alle quadro, quei 24gb farebbero molta gola in ambito professionale.:sofico:
A sto punto conviene quasi droppare il brand titan e puntare sulla 3090 come top desktop.

mikael84
11-06-2020, 23:27
Una titan così potrebbe rubare parecchi clienti alle quadro, quei 24gb farebbero molta gola in ambito professionale.:sofico:
A sto punto conviene quasi droppare il brand titan e puntare sulla 3090 come top desktop.

Mah... alla fine è lo stesso passo di turing, titan che costa 2500 euro, dove ti fanno ben pagare il chip full e la doppia densità:) Non cambierebbe di molto.
A chi serve una quadro, prende quella, nvidia alla fine sta dedicandosi praticamente a loro e di riflesso alle gaming, che sono gli scarti.:)

Free Gordon
12-06-2020, 01:09
Vatti a leggere i thread di Vega, delle 5700 e persino di Polaris, poi mi dici.
Edit. Te lo faccio io il favore:


Si può fare la stessa cosa con le Nvidia.
Su PC i problemi di driver sono una cosa "normale" e sono dovuti all'enorme varietà di configurazioni e software presenti.

Ho 43 anni ed è dai primi anni 90 che lavoro sui pc e ne ho viste di tutti i colori da entrambe le parti, non è certamente una prerogativa solo di AMD.. :fagiano:

Free Gordon
12-06-2020, 01:18
È un mondo bellissimo

:asd:

mircocatta
12-06-2020, 09:11
sia amd che nvidia dovevano presenziare al computex o sbaglio? forse è a causa del suo annullamento che ha portato a questa "accelerazione" di info da ambe le parti?

Nurabsa
12-06-2020, 09:42
puo capitare di avere rogne non ne faccio una questione verde o rossa.
Voglio anche credere che -casualmente- ho la stessa scheda da 5 anni che va come un rolex. driver aggiornati quando serve, una volta l anno.

Qui siamo tutti navigati credo non ci siano 20enni.
Sappiamo bene che le nostre vga quindi i pc sono accessi grazie all ACDC -qualcuno starà pensado a brian johnson ne sono certo-

A quegli amici canadesi solo dopo 2 vga nuove bruciate è venuto in mente "forse ho problemi di conversione a 110"
In generale nei forum andrebbe ricordato alle nuove leve con la vga bruciata che gli elettroni non vanno in ordine sparso come nel villaggio dei puffi.

Riccardo_1
12-06-2020, 10:16
In linea di massima i chip sembrano quelli speculati, con l'eccezione del GA103.:)
GA104 dovrebbe essere quello speculato, mentre la 3080, pare essere uno scarto degli scarti di GA102.
Titan: 5376cc /24gb
3090/3080ti: non si conoscono i cc puri, ma dovrebbe avere una partizione cache laserata (quindi 11gb, come la 2080ti).
3080: 4352cc e 10gb di ram, una sorta di 2080ti pompata.:)

Sempre per chi non ha letto le 2000 pagine di discussione..... piccolo riassunto dei chip speculati? Grazie :D

thunderforce83
12-06-2020, 14:10
In linea di massima i chip sembrano quelli speculati, con l'eccezione del GA103.:)
GA104 dovrebbe essere quello speculato, mentre la 3080, pare essere uno scarto degli scarti di GA102.
Titan: 5376cc /24gb
3090/3080ti: non si conoscono i cc puri, ma dovrebbe avere una partizione cache laserata (quindi 11gb, come la 2080ti).
3080: 4352cc e 10gb di ram, una sorta di 2080ti pompata.:)

non vedo l'ora di capire le specifiche reali dei chip: cuda core,tensor, la reale banda di queste nuove gddr6x e le frequenze massime raggiungibili dalle memorie ai chip...insomma sicuramente un bel salto rispetto alla passata generazione. la cosa che non capisco e' la vicinanza dei nomi dei chip tra le varie nomenclature, ga102 per tutte e addirittura un tdp uguale tra 3080 e 3080ti:confused:
insomma il dissipatore lo sappiamo come sara'...forse il migliore mai uscito per le nvidia reference ma ci sono tanti dubbi, il costo credo che salira' di un bel po', credo che a sto giro gia' la 3080si avvicinera' ai 999dollari o da quelle parti, una bella batosta per chi sperava di mettere nel case le nuove schede ad un prezzo migliorato rispetto alla passata generazione.

NAP.
12-06-2020, 14:29
Considerando quanto è penosa la grafica delle nuove console già chi ha una 2080 può campare tranquillamente fino ad hopper, immaginarsi comprare una 3080ti

Giovamas
12-06-2020, 14:36
Qui siamo tutti navigati credo non ci siano 20enni.
Sappiamo bene che le nostre vga quindi i pc sono accessi grazie all ACDC -qualcuno starà pensado a brian johnson ne sono certo-



IO!!! (anche se sono fan di Ross The Boss... )
comunque il computex è saltato.. secondo me a breve saranno presentate. vado a sensazione ovviamente ma la 1080 fu presentata un mesetto dopo le prime foto 'leak' :)