PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 [200] 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467

thunderforce83
21-08-2020, 20:10
Non mi sembra dicano nulla di nuovo, un riassunto di notizie e foto giá viste.

il fatto che i sensor core sono adibiti alla compressione intelligente delle texture io non l avevo letta da nessuna parte:) comunque si, un sunto di tutti i rumor diciamo..credo che la settimana prossima sara' anche peggio:p

redbaron
21-08-2020, 20:29
il fatto che i sensor core sono adibiti alla compressione intelligente delle texture io non l avevo letta da nessuna parte:) comunque si, un sunto di tutti i rumor diciamo..credo che la settimana prossima sara' anche peggio:p

Poco o nulla per ora :mc:

thunderforce83
21-08-2020, 20:56
Poco o nulla per ora :mc:

mi sa tanto che le persone che hanno per le mani i segreti commerciali di nvidia sono veramente pochissimi, e sono bravi a conservarli...chapeau;)

Ubro92
21-08-2020, 21:05
mi sa tanto che le persone che hanno per le mani i segreti commerciali di nvidia sono veramente pochissimi, e sono bravi a conservarli...chapeau;)

Più che altro vogliono conservare anche il posto :sofico:

thunderforce83
21-08-2020, 21:09
Più che altro vogliono conservare anche il posto :sofico:

esattamente...se esce qualcosa sono caXXi giganti poi:D :sofico:

si parla di interessi milionari...mica patatine:D

thunderforce83
21-08-2020, 21:29
https://videocardz.com/newz/nvidia-geforce-rtx-3090-graphics-card-pictured

mostro enorme

una belva...ma facile che sara' proprio questa, visto le potenze in gioco:D :sofico:

Marscorpion
21-08-2020, 21:31
https://videocardz.com/newz/nvidia-geforce-rtx-3090-graphics-card-pictured

mostro enorme

Cavolo è enorme! Io ho un case ITX e posso installare solo vga a 2 slot..... Quindi la founders edition me la sono già giocata; spero che la 3080 sia a 2 slot.

fraussantin
21-08-2020, 21:34
Cut ho visto male le foto

Kostanz77
21-08-2020, 21:34
una belva...ma facile che sara' proprio questa, visto le potenze in gioco:D :sofico:



ed è facile pure che qui da noi la prezzano più di 2000 euro


Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro

Ubro92
21-08-2020, 21:34
https://videocardz.com/newz/nvidia-geforce-rtx-3090-graphics-card-pictured

mostro enorme

Ben 2.5 slot e dimensioni belle corpose.
Mi sa che nel bundle dovranno mettere anche un supporto in fibra di carbonio.

Secondo me molti partner come EVGA e Gigabyte si divertiranno con le versioni con AIO preinstallato :fagiano:

Spytek
21-08-2020, 21:38
Con le soluzioni Aio le 2000 euro sono assicurate :D
Comunque sono sempre leak anche se la potenza da dissipare è veramente alta.

amon.akira
21-08-2020, 21:39
https://videocardz.com/newz/nvidia-geforce-rtx-3090-graphics-card-pictured

mostro enorme

ora ho capito il concorso Gainward in cui dicevano "indovinate quanto pesa" :asd:

amon.akira
21-08-2020, 21:43
LOL magari é un mock-up fatto con stampante 3d.


Comunque IMHO é reale, e questo fa capire che i 350w di tdp ci siano tutti (purtroppo):cry: :cry:

Mi dispiace, ma esteicamente non é questa gran cosa, il 3 slot l'ho sempre detestato, molto piú eleganti le turing FE

350w con la mano fuori al finestrino, su strada ce ne vogliono 500 :sofico:

Ubro92
21-08-2020, 21:45
350w con la mano fuori al finestrino, su strada ce ne vogliono 500 :sofico:

Perfetta anche per l'inverno, si risparmia il gas :fagiano:

amon.akira
21-08-2020, 21:58
ora ci ho fatto caso, ma la ventola sopra è in pull...quindi butta l aria calda da sopra che va verso la cpu

fraussantin
21-08-2020, 21:59
Preparatevi al 12 pin LOL

LoL perché il problema estetico era metterci un triplo slot da 8 :asd:


ora ci ho fatto caso, ma la ventola sopra è in pull...quindi butta l aria calda da sopra che va verso la cpu

Beh ha senso. L'aria calda sale sempre meglio convogliarla dove vuol andare. ( Ci andrebbe cmq)


Piú che altro non ho capito cosa sono quelle bozze sulla ventola ( non sembra pellicola) e perché la scritta 3090 sul backplate é stata brasata..

Crysis90
21-08-2020, 22:03
LOL magari é un mock-up fatto con stampante 3d.


Comunque IMHO é reale, e questo fa capire che i 350w di tdp ci siano tutti (purtroppo):cry: :cry:

Mi dispiace, ma esteicamente non é questa gran cosa, il 3 slot l'ho sempre detestato, molto piú eleganti le turing FE.

Preparatevi al 12 pin LOL

https://i.imgur.com/z5AbcKN.jpg

Questa mattonella PAZZESCA scalderà e consumerà come una centrale nucleare.

Ci sarà sicuramente tanta potenza, ma voglio vedere le recensioni con le T° e i consumi. :asd: :asd:

Prezzi da fuori di testa poi, 1499 dollari diventano tranquillamente 1600 euro in Italia.

Intanto mi tengo strettissima la mia 2080 Ti. :vicini:

redbaron
21-08-2020, 22:08
https://media.giphy.com/media/raBbE1fizfZGE/giphy.gif
2080 vs 3090

amon.akira
21-08-2020, 22:08
LoL perché il problema estetico era metterci un triplo slot da 8 :asd:
Beh ha senso. L'aria calda sale sempre meglio convogliarla dove vuol andare. ( Ci andrebbe cmq)

vere entrambe :P

evidentemente l utilizzo degli 8nm aka 10 e rdna2 alle porte con il suo 7+ avrà costretto jhh a tirarle al massimo a default, quindi ci sarà zero margine imho out of box

redbaron
21-08-2020, 22:12
Piú che altro non ho capito cosa sono quelle bozze sulla ventola ( non sembra pellicola) e perché la scritta 3090 sul backplate é stata brasata..

Sono sample riconoscibili, vanno per forza photoshoppati un po’

terranux
21-08-2020, 22:14
Il big bamboo é fuori:D :D :D

Rtx 3090 Black JHH mamba 500w edition..

Questo é pazzo che spendo 1600 euro per sto cesso, ma forse forse 3080, ma anche quella 320 di tdp li avrá..

Piú di 1000 euro non investo in sti cessi..:D :D

cessi? sono dei mostri.

oZonoRobotics
21-08-2020, 22:15
cessi? sono dei mostri.

esteticamente non si può dire sia bella come le 2000 (secondo me) poi ovvio che visti i prezzi delle custom uno la piglia comunque reference per "risparmiare"...

redbaron
21-08-2020, 22:21
Le custom stavolta rischiano di andare davvero fuori mercato col prezzo

amon.akira
21-08-2020, 22:24
Si dei mostri, che consumeranno e scalderanno come dei reattori nucleari..

350w per fare +40% in raster, pessimo, hanno criticato 2080ti che con 260w faceva +40% rispetto a 1080ti, vedi te..

Se fa solo +40% sono dei cessi, altroché.

Continuo a sostenerlo, ste schede andavano stampate a 7nm+, quel pp fa cag@re.

quoto, max 3080 a sto giro senz altro

Ale55andr0
21-08-2020, 22:28
Le custom stavolta rischiano di andare davvero fuori mercato col prezzo

le altre invece no :asd:

redbaron
21-08-2020, 22:28
https://uploads.disquscdn.com/images/d50bdd981ecb33fae0128df8e2bb6c7db70cd91a99f20c1ba6de13b2b08e2e97.jpg

TigerTank
21-08-2020, 22:32
Poveri slot PCI, vanno rinforzati con barre di titanio :sofico:
Io comunque il 3-slot lo sospettavo...si confermerebbe appunto il dissipatore a panino e magari anche il doppio pcb interno. Vedremo...io aspetto soprattutto il tizio di Gamers Nexus che la smonterà/scardinerà per bene in video :sofico:

redbaron
21-08-2020, 22:34
le altre invece no :asd:

:asd:

TigerTank
21-08-2020, 22:37
Si dei mostri, che consumeranno e scalderanno come dei reattori nucleari..

350w per fare +40% in raster, pessimo, hanno criticato 2080ti che con 260w faceva +40% rispetto a 1080ti, vedi te..

Se fa solo +40% sono dei cessi, altroché.

Continuo a sostenerlo, ste schede andavano stampate a 7nm+, quel pp fa cag@re.

Auguriamoci di non ritornare ai tempi di Fermi...in quel caso presi una AMD :asd:

redbaron
21-08-2020, 22:41
https://wccftech.com/nvidia-rtx-3000-series-rumored-pricing-rtx-3090-for-1399-rtx-3080-for-799-rtx-3070-for-599-and-rtx-3060-for-399/

The_SaN
21-08-2020, 22:47
Vabbè il fatto che sia triple slot non mi fa affatto impressione, pure la mia 2080 lo è. Però ammazza se è grossa :asd:
Vedo difficile però che le custom ad aria possano fare meglio, è un fo**uto ammasso di metallo e ventole.

Quanto ai prezzi, ormai da 700 a 2000 abbiamo visto tutte le possibilità a scaletti di 100, quindi UFFICIALMENTE qualcuno potrà vantarsi di averci preso :O

Crysis90
21-08-2020, 22:47
cessi? sono dei mostri.

https://i.imgur.com/iE4HiPS.jpg

Eh si.
In tutti i sensi.

:asd: :asd:

redbaron
21-08-2020, 22:52
Ottimo se confermati i799$ per 3080, la vedo giá nel case, senza spendere un becco di un centesimo.

Si però senza guadagnare un becco di fps :asd:

TigerTank
21-08-2020, 22:53
Bisognerebbe lasciargliele li, tutte quante...

Questa é roba da die shrink immediato, non si possono vedere, ci vuole proprio faccia da cul@ per piazzarle a 1600 euro, solo JHH ha quel potere..

Quasi quasi mi pento di aver venduto la 2080ti

Ottimo se confermati i799$ per 3080, la vedo giá nel case, senza spendere un becco di un centesimo.

Ahahahah cavolo sei passato agli opposti in un quarto d'ora :sofico:

amon.akira
21-08-2020, 22:54
Ottimo se confermati i799$ per 3080, la vedo giá nel case, senza spendere un becco di un centesimo.

per 150dollari in piu non la prendi la versione da 20gb (se la mettono)?

Ahahahah cavolo sei passato agli opposti in un quarto d'ora :sofico:

vabbe è la norma nel pre lancio si sa :D

scorpion73
21-08-2020, 23:11
Si però senza guadagnare un becco di fps :asd:

Sai non è detto.

In raster secondo me vai un 10% in più, mentre in RT la 2080ti verrà secondo me distrutta dalla 3080.

Se guardi anche soloi i cuda sono gli stessi della vecchia generazione.
Forse i clock saranno minori ma ci devi contare la nuova architettura.

devAngnew
21-08-2020, 23:13
Mi sa che conviene aspettare 1 anno e avremo la versione super a 7nm... :sofico:

amon.akira
21-08-2020, 23:16
Sai non è detto.

In raster secondo me vai un 10% in più, mentre in RT la 2080ti verrà secondo me distrutta dalla 3080.

Se guardi anche soloi i cuda sono gli stessi della vecchia generazione.
Forse i clock saranno minori ma ci devi contare la nuova architettura.

no 3080 vs 2080ti clock minore nn esiste...anzi in quel 20% ce clock/ipc/banda in raster...in rt se ne va

scorpion73
21-08-2020, 23:22
Si ma infatti a sto giro secondo me la cosa migliore da fare è prendersi la 3080.

La 3090 è troppo grossa, oh ma quello pè tutto radiatore eh, mi ricorda le fermi con le pipeline fuori dal blocco dissipante e il radiatore fuori carcassa che scottava come un assassino.
Sapete quanto consumerà e scalderà quella roba lì?

Io vado di 3080 per il mio PC principale e di 3070 per quello dove avevo la 2080 liscia che ho venduto.
E direi che me la cavo con pochi soldi.
Se poi esce la 3070ti posso al limite valutare quella al posto della 3070.

redbaron
21-08-2020, 23:23
Sai non è detto.

In raster secondo me vai un 10% in più, mentre in RT la 2080ti verrà secondo me distrutta dalla 3080.

Se guardi anche soloi i cuda sono gli stessi della vecchia generazione.
Forse i clock saranno minori ma ci devi contare la nuova architettura.

Si la mia era una battuta , vedremo i primi bench cosa ci diranno

scorpion73
21-08-2020, 23:27
Quindi:
- 3080 a 950€
- 3070 a 729€
- 3090 a 1700€

O tutte e 3 100 euro di meno, ma comunque secondo me i prezzi da noi saranno questi.

maxmix65
21-08-2020, 23:27
Ottimo se confermati i799$ per 3080, la vedo giá nel case, senza spendere un becco di un centesimo.

a quel prezzo si ci sta' ma con performance superiore alla 2080ti la vedo difficile..
Oppure avra' qualche software particolare che gli fa' fare in certe condizioni quel 20% in piu' della 2080ti..
Tipo boost 4.0 5.0 e ottimizzazioni delle compressioni etc...

maxmix65
21-08-2020, 23:28
Quindi:
- 3080 a 950€
- 3070 a 729€
- 3090 a 1700€

O tutte e 3 100 euro di meno, ma comunque secondo me i prezzi da noi saranno questi.

Certo che la 3070 a quel prezzo mamma mia dovrebbe essere sulle 399-450
Asticella ancora piu' in altooo

ferro10
21-08-2020, 23:30
Certo che la 3070 a quel prezzo mamma mia dovrebbe essere sulle 399-450

Asticella ancora piu' in altoooAnche a me il prezzo della 3070 a 700€ è decisamente alto.. Secondo me sarà sui 500/550€

Inviato dal mio ELE-L29 utilizzando Tapatalk

Andy1111
21-08-2020, 23:31
https://wccftech.com/nvidia-rtx-3000-series-rumored-pricing-rtx-3090-for-1399-rtx-3080-for-799-rtx-3070-for-599-and-rtx-3060-for-399/

se questi sono i prezzi è un furto.

la 3070 a 599$ al cambio ora sono 507,84€ con iva 619.56€ e da noi saranno 650/700€ :mad:

anche la 3060 412.7€ quindi 430/450€ da noi

scorpion73
21-08-2020, 23:31
a quel prezzo si ci sta' ma con performance superiore alla 2080ti la vedo difficile..
Oppure avra' qualche software particolare che gli fa' fare in certe condizioni quel 20% in piu' della 2080ti..
Tipo boost 4.0 5.0 e ottimizzazioni delle compressioni etc...

Scusa abbi pazienza ma come fai a vederla difficile io invece la vedo molto probabile.
Ha gli stessi cuda, però ha una architettura nuova più efficiente e, su questo ha ragione amon, non vedo perché dovrebbe avere clock inferiori... o anche li avesse saranno di poco e secondo me non bastano..
La 2080 va in media un 10% in più della 1080ti avendo molti meno cuda cores...

mikael84
21-08-2020, 23:31
Amd è da tanto che non fa due chip distinti, uno high end desktop e uno pro, quel chip non conterrà solo roba adibita alle performance pure in raster.

AMD ha sempre fatto GPU tutto fare per performance pure in calcoli ridondanti.
Emulando SFU ed LDS.
Ogni cosa che fa AMD è emulata, come le FP64 (2xfp32) o il BVH in RT.
A sto giro pare tirare fuori una per calcoli a bassa precisione MI100 (che nvidia supera già con le 2080ti e umilierà con ampere, anche gaming), in stile Vega, ed una super navi che pare avere un chip da 505mm2 con ovviamente acceleratori RT.

Nvidia con questo PP ne esce malissimo, aumenta i GPC, non aumenta i clock nettamente (anzi, prende un mezzo nodo, che schiantava 200mhz prima), e monta memoria PAM4 da 20/24gb.
La 2080ti arrivava a 50 watt sulle ram, in gddr6 a basso clock con soli 11gb.
Queste gddr6x quadruplicano il ratio WCK e doppiano la densità.
Il tutto, perchè le gddr6 hanno fallito.
Purtroppo se non sali di bus, ti devi inventare qualcosa.;)

scorpion73
21-08-2020, 23:32
se questi sono i prezzi è un furto.

la 3070 a 599$ al cambio ora sono 507,84€ con iva 619.56€ e da noi saranno 650/700€ :mad:

anche la 3060 412.7€ quindi 430/450€ da noi

Magari fosse, ma per me il cambio è 1:1 a cui aggiungere l'IVA

OrazioOC
21-08-2020, 23:34
https://wccftech.com/nvidia-rtx-3000-series-rumored-pricing-rtx-3090-for-1399-rtx-3080-for-799-rtx-3070-for-599-and-rtx-3060-for-399/

Grossomodo, i prezzi saranno questi. ;)

mikael84
21-08-2020, 23:51
Sai non è detto.

In raster secondo me vai un 10% in più, mentre in RT la 2080ti verrà secondo me distrutta dalla 3080.

Se guardi anche soloi i cuda sono gli stessi della vecchia generazione.
Forse i clock saranno minori ma ci devi contare la nuova architettura.

Si senza clock, non vai molto lontano, però già via BW, è come se dai + 1800 da msi afterburner alle ram, e l'overclock è molto vantaggioso, perchè in pratica sposta il doppio del bus.
La l1 sarà superiore, già introdotta con turing, ma non alla stessa velocità. Più aumenti la grandezza, più aumenti la banda e vai a dimezzare i cicli. Non a caso Turing con troppi gruppi di calcolo non rende benissimo, rispetto a TU104. Migliorare l'efficienza è obbligo.
Con 96kb come turing, dovevi sacrificare la cache load store con la l1 dati, ora non più, puoi eseguirle alla stessa misura.
https://developer.nvidia.com/blog/wp-content/uploads/2017/05/image13.png

la l2 sarà raddoppiata e sgravata dalla l1.
Aumenterà la compressione BW.

Purtroppo, a salto nodo, senza clock, vanifichi tutto, e ti devi "arrangiare".:)

amon.akira
21-08-2020, 23:52
Sembra che il triplo slot sia esclusiva solo della 3090, la 3080 dovrebbe essere una dual slot classica.

(Menomale per me, fa proprio cag@re quella vista)

Inviato dal mio SM-A715F utilizzando Tapatalk

si i primi leak del dissi era la 3080 ed era dual slot

Arrow0309
22-08-2020, 00:31
ora ci ho fatto caso, ma la ventola sopra è in pull...quindi butta l aria calda da sopra che va verso la cpu

Io la vedo sempre in push :fagiano:

amon.akira
22-08-2020, 01:29
Io la vedo sempre in push :fagiano:

vedo le pale al contrario boo forse mi si incrociano gli occhi :P

lostsf
22-08-2020, 02:47
https://videocardz.com/newz/nvidia-geforce-rtx-3090-graphics-card-pictured:muro: è enorme spero la 3080 non sia grossa come questa

G80
22-08-2020, 05:28
Si senza clock, non vai molto lontano, però già via BW, è come se dai + 1800 da msi afterburner alle ram, e l'overclock è molto vantaggioso, perchè in pratica sposta il doppio del bus.
La l1 sarà superiore, già introdotta con turing, ma non alla stessa velocità. Più aumenti la grandezza, più aumenti la banda e vai a dimezzare i cicli. Non a caso Turing con troppi gruppi di calcolo non rende benissimo, rispetto a TU104. Migliorare l'efficienza è obbligo.
Con 96kb come turing, dovevi sacrificare la cache load store con la l1 dati, ora non più, puoi eseguirle alla stessa misura.
https://developer.nvidia.com/blog/wp-content/uploads/2017/05/image13.png

la l2 sarà raddoppiata e sgravata dalla l1.
Aumenterà la compressione BW.

Purtroppo, a salto nodo, senza clock, vanifichi tutto, e ti devi "arrangiare".:)

Funzionava cosi' anche per Fermi giusto? Ricordo che unificarono l1 e shared memory per avere un accesso assai più veloce.

Saetta_McQueen
22-08-2020, 06:55
Foto 3090

:sofico:


https://www.guru3d.com/news-story/photos-of-flagship-geforce-rtx-3090-ampere-surface.html

Mirko/
22-08-2020, 06:56
Edit

fraussantin
22-08-2020, 07:14
Ho un dell s2716dg 2k 144hz , e acer predator XN253QX.

Quindi direi entrambi due monitor eccellenti per il gaming.



Rispetto la tua opinione, ma come c’è chi dice che non c’è differenza, c’è anche chi la nota.

Ma a me quello che dicono gli altri non mi interessa,

L’importante è che io mi godo il prodotto, se non avessi notato differenza avrei fatto il reso del 240hz.



Comunque ripeto io lo uso praticamente solo per unreal tournament, per un gioco del genere (fps arena frenetico) ti assicuro, ti giuro posso scommetterci la mamma, che anche tu noteresti la differenza, è più fluido!

Poi non sto dicendo che se passi dal 144hz al 240hz diventi piu forte, sto dicendo che A ME, in questo gioco, avendo gia raggiunto una skill limite e conoscendo ogni particolare del gioco (ci gioco da 16 anni) mi ha permesso di avere quel qualcosa in piu che prima non avevo, anche se si tratta dell’1%.



Ma skill o non skill, la differenza sulla fluidità si vede, maremma cane ti inviterei a casa mia per ahahha.



E io guarda lo dico, a tutti gli altri giochi, gioco sul 2k, tipo su cod, preferisco la maggior risoluzione.. anche perché a 250fps non ci arrivo io mi fermo a 165 fps e nei giochi in un primo momento non ci vedevo differenze oltre i 90 , poi con tempo mi sono abituato e adesso si vedono a come.
Ma nei giochi , sul desktop sul mouse e sullo scrolling si vedono e come.

Mi ha detto che a 240+ non si nota tearing é vero? Anche senza raggiungere i 240 ma lasciando il monitor libero ( no Sync)

Perché potrebbe essere il vero vantaggio dell'alto refrash disattivando vsync e gsync.

Giovamas
22-08-2020, 07:35
io ancora non vendo.. tanto è da un bel po' che l'ho ed aspetto i prezzi ufficiali.. non mi pronuncio su cosa prendo, ma non voglio fare un side grade:)

Crysis90
22-08-2020, 07:53
Grossomodo, i prezzi saranno questi. ;)

Per quanto mi riguarda, la strategia di JHH è chiara: monetizzare al massimo con la 3090 sfruttando l'effetto "wow" delle performances e la scimmia della gente, cavalcando magari l'onda Cyberpunk 2077.
Poi tra qualche mese (Maggio-Giugno 2021) lanciare la 3080 Ti, un pò per coprire quel buco nel listino prezzi che si creerebbe tra 3080 e 3090 e coprire un pò tutte le fasce di prezzo, un pò per "accontentare" quelli che (giustamente) non vogliono vendere un rene per una top di gamma. :O

scorpion73
22-08-2020, 08:06
Infatti almeno io al momento mi fermo con una 3080 + 3070 (me ne occorrono due) e poi dopo con calma aspetto la 3090 versione 12GB, che sarà probabilmente la futura 3080ti

Se la 3070 non avrà il chip full ti dico che prendo solo una 3080 e aspetto anche li' che esca la 3070ti e intanto vado avanti con la TitanX Pascal che si sta comportando benissimo.

oZonoRobotics
22-08-2020, 08:14
Per quanto mi riguarda, la strategia di JHH è chiara: monetizzare al massimo con la 3090 sfruttando l'effetto "wow" delle performances e la scimmia della gente, cavalcando magari l'onda Cyberpunk 2077.
Poi tra qualche mese (Maggio-Giugno 2021) lanciare la 3080 Ti, un pò per coprire quel buco nel listino prezzi che si creerebbe tra 3080 e 3090 e coprire un pò tutte le fasce di prezzo, un pò per "accontentare" quelli che (giustamente) non vogliono vendere un rene per una top di gamma. :O

se tra 3080 e 3090 ci passa un 20% non vedo dove potrebbero collocarla a livello di prestazioni...

Thunder-74
22-08-2020, 08:24
Se la 3090 avrà 24gb e costerà 1499 dollari, mi aspetto il faccino di JHH contrito e la sua vocina dire che sono bravi a proporre una scheda del genere ad un costo nettamente inferiore rispetto alla precedente Titan...


Inviato dal mio iPhone X utilizzando Tapatalk

maxmix65
22-08-2020, 08:33
Scusa abbi pazienza ma come fai a vederla difficile io invece la vedo molto probabile.
Ha gli stessi cuda, però ha una architettura nuova più efficiente e, su questo ha ragione amon, non vedo perché dovrebbe avere clock inferiori... o anche li avesse saranno di poco e secondo me non bastano..
La 2080 va in media un 10% in più della 1080ti avendo molti meno cuda cores...

Ma hai letto i miei posto precedenti??
Ho definito la 3080 = BBG Best Buy Galattico
Nel senso che se costasse cosi' 799$ e va' piu' della 2080ti di un 20% e' la scheda che venderanno a vagonate
Appunto ci credo poco pero' spero di sbagliarmi...

argez
22-08-2020, 08:33
se tra 3080 e 3090 ci passa un 20% non vedo dove potrebbero collocarla a livello di prestazioni...

Può anche semplicemente darsi che abbiano tolto la sigla "TI".
Lasceranno i nomi normali, 3070-80-90, e poi quando faranno il refresh metteranno la dicitura super. L'ultima generazione con i nomi è stata un macello:

1660/TI e poi la super che va meno della TI.
2060 e poi la super che va di più
2070 e poi la super che va di più
2080/TI e poi la super che va meno della TI.

Troppi e senza un filo logico.

pakal77
22-08-2020, 08:39
come lo vedette un upgrade dalla 2070 liscia alla 3080 ? :D

Che la somma scimmia sia sempre con voi

Kingdemon
22-08-2020, 08:43
Però 800 dindini per una x70.. sono tanti, troppi.

Spero che i prezzi che circolano siano sbagliati

pakal77
22-08-2020, 08:47
Considerando l'evento il primo settembre secondo voi quando si vedranno le prime 3080 custom su amazzonia?

https://i.postimg.cc/N5Zv9XZL/bali-region-6aem2-T560.jpg (https://postimg.cc/N5Zv9XZL)

Giovamas
22-08-2020, 08:49
Può anche semplicemente darsi che abbiano tolto la sigla "TI".
Lasceranno i nomi normali, 3070-80-90, e poi quando faranno il refresh metteranno la dicitura super. L'ultima generazione con i nomi è stata un macello:


o magari se ne escono con una 3080ti stile 780ti con buona pace di chi aveva preso la Titan di allora. in tal caso vorrei aspettare questa

@ pakal avevo letto un articolo in guru3d di subito disponibili. ma non credo

Thunder-74
22-08-2020, 08:57
Può anche semplicemente darsi che abbiano tolto la sigla "TI".
Lasceranno i nomi normali, 3070-80-90, e poi quando faranno il refresh metteranno la dicitura super. L'ultima generazione con i nomi è stata un macello:

1660/TI e poi la super che va meno della TI.
2060 e poi la super che va di più
2070 e poi la super che va di più
2080/TI e poi la super che va meno della TI.

Troppi e senza un filo logico.


Io il senso lo trovo ...
Liscia - super - TI .... questo è l ordine di potenza del singolo modello. Dove esiste la Ti (che sta per Titanium) quello è il modello più performante . Non capisco la difficoltà . Che poi l immissione in corsa sul mercato di varianti Super faccia incavolare i possessori di modelli lisci, sono il primo a dirlo ...


Inviato dal mio iPhone X utilizzando Tapatalk

Arrow0309
22-08-2020, 09:38
https://www.tweaktown.com/news/74625/nvidia-geforce-rtx-3080-10gb-gddr6x-on-founders-10-20gb-for-custom/index.html?utm_source=dlvr.it&utm_medium=facebook

Questo parla di una velocità mostruosa della 3090 :eek:
Se così fosse la 3080 che aspetto (10 gig, la meno costosa) sarà cmq grasso che colla :D

Giovamas
22-08-2020, 09:46
https://www.tweaktown.com/news/74625/nvidia-geforce-rtx-3080-10gb-gddr6x-on-founders-10-20gb-for-custom/index.html?utm_source=dlvr.it&utm_medium=facebook

Questo parla di una velocità mostruosa della 3090 :eek:
Se così fosse la 3080 che aspetto (10 gig, la meno costosa) sarà cmq grasso che colla :D

prendi quindi la 3080 mate?

Arrow0309
22-08-2020, 09:51
prendi quindi la 3080 mate?
Yes mate :p
Ho deciso (con la 2080 Super) di rimanere sempre nella fascia xx80 e se possibile ad aria :cool:
Tanto cambiamo sempre :asd:

Ubro92
22-08-2020, 09:58
Può anche semplicemente darsi che abbiano tolto la sigla "TI".
Lasceranno i nomi normali, 3070-80-90, e poi quando faranno il refresh metteranno la dicitura super. L'ultima generazione con i nomi è stata un macello:

1660/TI e poi la super che va meno della TI.
2060 e poi la super che va di più
2070 e poi la super che va di più
2080/TI e poi la super che va meno della TI.

Troppi e senza un filo logico.

Il filo logico c'è, la 1660 è nata per riciclare le GDDR5 e assolto lo scopo l'hanno tolta da mezzo e riempito i buchi precendenti riciclando i TU116 fallati in 1650s, e introducendo la 1660s migliore della versione liscia e distacco praticamente impercettibile dalla TI che è un chip full.

La 2060 Super, è nata per offrire una x70 sotto i 400€ dato che a distanza di un anno anche le rese sono migliorate e hanno sfruttato la cosa, di certo non potevano chiamarla 2070 Bum.

La 2070s è uno scarto della 2080 liscia, e migliorando le rese hanno potuto presentare anche la 2080s completamente full.

L'unico chip immutato è stato la 2080ti, data anche l'assenza di concorrenza non aveva senso proporre qualcosa di superiore.

oZonoRobotics
22-08-2020, 10:04
Io il senso lo trovo ...
Liscia - super - TI .... questo è l ordine di potenza del singolo modello. Dove esiste la Ti (che sta per Titanium) quello è il modello più performante . Non capisco la difficoltà.

son d'accordissimo


Che poi l immissione in corsa sul mercato di varianti Super faccia incavolare i possessori di modelli lisci, sono il primo a dirlo ...


Inviato dal mio iPhone X utilizzando Tapatalk



fa incavolare ma fino ad un certo punto, se prendo oggi una scheda che va 100% e tra 1 anno esce una scheda che va 105% non è che mi incavolo, (alla fine è un 5% in più) io la scheda l'ho usata per un anno e la userò per un altro anno, mentre chi ha preso la super la usa per un anno solo... (ammesso e non concesso che si cambi ogni generazione) dopo sono d'accordo pure io che ammazza il prezzo del'usato (ulteriormente) anche se in realtà sappiamo che se compri una scheda costosa oggi e la tieni fino alla prossima gen ti vale 1/3 o 1/4 comunque...

nel caso lanciassero un refresh a 7nm mi peserebbe perchè parliamo di tutta un'altra scheda... ma avevo già chiesto proprio in questo thread e mi era stato risposto che non sarebbe possibile... anche se forse a questo mondo niente è impossibile :P

fraussantin
22-08-2020, 10:05
son d'accordissimo











fa incavolare ma fino ad un certo punto, se prendo oggi una scheda che va 100% e tra 1 anno esce una scheda che va 105% non è che mi incavolo, (alla fine è un 5% in più) io la scheda l'ho usata per un anno e la userò per un altro anno, mentre chi ha preso la super la usa per un anno solo... (ammesso e non concesso che si cambi ogni generazione) dopo sono d'accordo pure io che ammazza il prezzo del'usato (ulteriormente) anche se in realtà sappiamo che compri una scheda oggi e la tieni fino alla prossima gen, vale 1/3 o 1/4 comunque...



nel caso lanciassero un refresh a 7nm mi peserebbe perchè parliamo di tutta un'altra scheda... ma avevo già chiesto proprio in questo thread e mi era stato risposto che non sarebbe possibile... anche se forse a questo mondo niente è impossibile :PSe poi va il 5% in piú e costa il 10% in piú uno si incavola ancora meno xD

oZonoRobotics
22-08-2020, 10:18
Se poi va il 5% in piú e costa il 10% in piú uno si incavola ancora meno xD

ma anche costasse 10% in meno, noi abbiamo sempre pagato di più per avere prima il rapporto prestazioni/prezzo (che nvidia pesa con il contagocce) che due anni dopo diventano la fascia media... fare un pc di fascia alta non è un buon investimento a lungo termine... (questo è noto) però secondo me è meglio piangere sui soldi "buttati" piuttosto che ridere con il portafoglio pieno giocando su una console :P (sono un ex consolaro, pc dal 2003 ma solo pc appena dal 2013)

Thunder-74
22-08-2020, 10:27
Discorso della super, non è per le performances, perché se sei accorto di fps con la 2080, non è che con la 2080s risolvi.. in fatto è che la liscia viene tolta dal mercato e perde valore in modo repentino dopo meno di un anno... solo questo.


Inviato dal mio iPad utilizzando Tapatalk

mircocatta
22-08-2020, 10:27
edit

Visto il design e l'imponenza a sto giro le custom ad aria faranno be poco meglio rispetto a queste FE, l'unica é L'aio, se non si vuole liquidare.

Mai come a sto giro un impianto a liquido sará quasi fondamentale.

da possessore di un buon impianto a liquido, se le premesse sono queste, ci sto ben alla larga da 3080 e 3090.
capisco consumi del genere in caso di OC, ma default anche no :D

Ale55andr0
22-08-2020, 10:27
Bisognerebbe lasciargliele li, tutte quante...

Questa é roba da die shrink immediato, non si possono vedere, ci vuole proprio faccia da cul@ per piazzarle a 1600 euro, solo JHH ha quel potere..

Quasi quasi mi pento di aver venduto la 2080ti

basta farlo :)

Arrow0309
22-08-2020, 10:33
https://wccftech.com/nvidia-rtx-3000-series-rumored-pricing-rtx-3090-for-1399-rtx-3080-for-799-rtx-3070-for-599-and-rtx-3060-for-399/

mircocatta
22-08-2020, 10:34
Esatto, la penso come te, a default una top di gamma deve stare sui 250/260w di tdp da specifica, oltre fa cag@re a prescindere.

Si vede proprio che non avevano alternative, se stavano bassi con il tdp, queste schede non andavano un caxxo, la base é turing, sono solo forti in RT, ma in raster se non aumenti cosi tanto il tdp stai fermo con le prestazioni...

beh, lato consumatore non c'è che esserne contenti, se fanno un passo falso magari è la volta buona che la concorrenza recupera un po riportando il mercato in condizioni "migliori"

Arrow0309
22-08-2020, 10:35
Esatto, la penso come te, a default una top di gamma deve stare sui 250/260w di tdp da specifica, oltre fa cag@re a prescindere.

Si vede proprio che non avevano alternative, se stavano bassi con il tdp, queste schede non andavano un caxxo, la base é turing, sono solo forti in RT, ma in raster se non aumenti cosi tanto il tdp stai fermo con le prestazioni...
Io gioco decentemente con la 2080 S in oc moderato e max 64°
Non vedo perché la 3080 dovesse fare più schifo

Thunder-74
22-08-2020, 10:36
Esatto, la penso come te, a default una top di gamma deve stare sui 250/260w di tdp da specifica, oltre fa cag@re a prescindere.

Si vede proprio che non avevano alternative, se stavano bassi con il tdp, queste schede non andavano un caxxo, la base é turing, sono solo forti in RT, ma in raster se non aumenti cosi tanto il tdp stai fermo con le prestazioni...


Sarà fondamentale analizzare le prime review su consumi effettivi e temp. Capisco la voglia di prenderle al d1, ma io aspetterei per vedere l andazzo ...


Inviato dal mio iPad utilizzando Tapatalk

mircocatta
22-08-2020, 10:38
Sarà fondamentale analizzare le prime review su consumi effettivi e temp. Capisco la voglia di prenderle al d1, ma io aspetterei per vedere l andazzo ...


Inviato dal mio iPad utilizzando Tapatalk

e sarà anche importante vedere review dove testano le schede oltre 20 minuti, non con bench da 2 minuti e via, c'è tanta puzza di thermal throttling, sempre se i leak dei giorni scorsi sono veritieri

ho come l'impressione che anche a questo giro non vedremo il sensore delle tjunction sulle verdi :asd:

Thunder-74
22-08-2020, 10:43
e sarà anche importante vedere review dove testano le schede oltre 20 minuti, non con bench da 2 minuti e via, c'è tanta puzza di thermal throttling, sempre se i leak dei giorni scorsi sono veritieri

ho come l'impressione che anche a questo giro non vedremo il sensore delle tjunction sulle verdi :asd:


Dovesse succedere, vedremmo secondo me un shrink nel 2021...


Inviato dal mio iPad utilizzando Tapatalk

Telstar
22-08-2020, 10:45
Secondo me molto validi restano anche Guru3D e TechpowerUp.
Sicuramente non scendono troppo sui particolari, ma se devo guardarmi ogni volta 30 minuti di videorecensione di Steve che si fa i pipponi mentali, mi do una pistolata alla tempia e faccio prima. :asd:

Io preferisco leggere. CMQ guru3d sono anni che è mooolto scaduto.
CMQ per confrontare benchmark e FPS va bene tutto.

Acme
22-08-2020, 10:46
https://www.zotac.com/il/news/zotac-announces-first-mini-pc-workstation-powered-10th-gen-processor-and-nvidia-quadro-rtx

Sembra che ci saranno ancora schede da 6gb, quindi bus da 192bit.
Anche se si parla di una quadro su un minipc potrebbe essere la futura 3060.

mircocatta
22-08-2020, 10:47
Stiamo parlando di schede da 350w di tdp, vedrai che per la top 3090 il tdp sará quello, la 2080s ha un tdp di 250w dove gira pure larga, se condieriamo che tu102 su 2080ti ha 260w, ma vabbé se proprio bisogna essere sinceri é castrata....

Anch'io stavo bene con la 2080ti, in undervolt a 0,85 1950 avevo temp sui 60 gradi....ma queste saranno ben altra cosa, consumeranno di piú, altrimenti non si sarebbero mai sbattuti nel fare un dissipatore cosí enorme..

La 3080 (a questo punto é quella che prenderó) sará dual slot..

Sono chip nati su di un pp non adeguato, un pó come le cpu intel..

Il 7nm+ di tmsc avrebbe permesso piú clock, minori consumi e die piú piccoli..
ma per la 3080 non si parlava di tbp di 320watt? non è che sta molto lontana dalla sorella maggiore

Telstar
22-08-2020, 10:51
Dovesse succedere, vedremmo secondo me un shrink nel 2021...


Sono mesi che lo dico che ci sarà il refresh. :)

mircocatta
22-08-2020, 10:54
Anche lei consumerá parecchio infatti, l'ho scritto sopra, il tdp sará poco minore ma similare, sono entrambe su GA102. magari avrá un clock piú stabile e correggendola in UV si potrebbe limare qualcosa.

La 3090 mette solo paura a stock, figuriamoci fare oc (inutile) queste sono schede che se dai ov ti sparano 500w e oltre.:D :D

oddio, se davvero la 3080 avrà un dissipatore più piccolo la vedo difficile anzi, al contrario, sarà più stabile la 3090 nel caso

DuttZ
22-08-2020, 10:54
Fanno 5kg, che faccio, lascio?
È mostruosamente grande.https://uploads.tapatalk-cdn.com/20200822/e8554aea15257d3524a215f52c2d1a2c.jpg

Inviato dal mio LM-G710 utilizzando Tapatalk

Acme
22-08-2020, 10:55
ma per la 3080 non si parlava di tbp di 320watt? non è che sta molto lontana dalla sorella maggiore
Sì, ma penso sia la versione a 20gb, quella da 10 dovrebbe consumare 50w in meno.

Arrow0309
22-08-2020, 11:04
Stiamo parlando di schede da 350w di tdp, vedrai che per la top 3090 il tdp sará quello, la 2080s ha un tdp di 250w dove gira pure larga, se condieriamo che tu102 su 2080ti ha 260w, ma vabbé se proprio bisogna essere sinceri é castrata....

Anch'io stavo bene con la 2080ti, in undervolt a 0,85 1950 avevo temp sui 60 gradi ed ero ben distante dal tetto del tdp a 260w....ma sono modifiche dell'utente e non rientrano nelle specifiche della casa madre.

Queste saranno ben altra cosa, consumeranno di piú, altrimenti non si sarebbero mai sbattuti nel fare un dissipatore cosí enorme, con vrm corazzati pazzeschi (stando ai leak)

La 3080 (a questo punto é quella che prenderó) sará dual slot, mi aspetto un tdp minore anche se similare, avendo stesso chip.

Sono chip nati su di un pp non adeguato, un pó come le cpu intel..

Il 7nm+ di tmsc avrebbe permesso piú clock, minori consumi e die piú piccoli..
D'accordo
No, la 2080ti sempre al liquido (cambiati due wb) ma la 2080 Super Strix (sui 310w pl maxato mi sembra) riesco a gesrirla bene ad aria.
Ovv parlavo della 3080 anch'io che non credo sali oltre ai 300W.

Ale55andr0
22-08-2020, 11:07
https://wccftech.com/nvidia-rtx-3000-series-rumored-pricing-rtx-3090-for-1399-rtx-3080-for-799-rtx-3070-for-599-and-rtx-3060-for-399/

ormai la fascia del 250-300 è diventata da 400 :rolleyes:. Spero amd non faccia cartello ma la vedo dura. Sino a che non ci svegliamo faranno il bello e cattivo tempo

AceGranger
22-08-2020, 11:25
https://www.zotac.com/il/news/zotac-announces-first-mini-pc-workstation-powered-10th-gen-processor-and-nvidia-quadro-rtx

Sembra che ci saranno ancora schede da 6gb, quindi bus da 192bit.
Anche se si parla di una quadro su un minipc potrebbe essere la futura 3060.

la QUADRO 3000 è Turing e attualmente in produzione, non è la serie nuova :stordita:

è solo la nomenclatura Quadro RTX 3000,4000,5000 6000 e 8000; mentra la T1000 e T2000 sono senza RTX.

è una versione mobile basata su TU106 ( 2070 )

https://www.notebookcheck.it/NVIDIA-Quadro-RTX-3000-Laptop.449951.0.html

mikael84
22-08-2020, 11:33
Funzionava cosi' anche per Fermi giusto? Ricordo che unificarono l1 e shared memory per avere un accesso assai più veloce.

Esatto, fermi e kepler.:)

Crysis90
22-08-2020, 11:45
Invece secondo me la 3090 fará proprio cag@re, separata da appena un 15% in gaming dalla sorella minore 3080,

Non penso proprio che ci sarà solo un 15% di differenza.
JHH non è così stupido.

Ale55andr0
22-08-2020, 11:55
Non penso proprio che ci sarà solo un 15% di differenza.
JHH non è così stupido.

mica le fa lui le schede

fr4nc3sco
22-08-2020, 11:55
Non penso proprio che ci sarà solo un 15% di differenza.
JHH non è così stupido.

be credo pure io altrimenti non avrebbe senso un solco cosi ampio sui prezzi... sembra proprio se saranno reali che si siano lasciati lo spazio per una fascia intermedia in caso di necessità

mikael84
22-08-2020, 12:02
son d'accordissimo





fa incavolare ma fino ad un certo punto, se prendo oggi una scheda che va 100% e tra 1 anno esce una scheda che va 105% non è che mi incavolo, (alla fine è un 5% in più) io la scheda l'ho usata per un anno e la userò per un altro anno, mentre chi ha preso la super la usa per un anno solo... (ammesso e non concesso che si cambi ogni generazione) dopo sono d'accordo pure io che ammazza il prezzo del'usato (ulteriormente) anche se in realtà sappiamo che se compri una scheda costosa oggi e la tieni fino alla prossima gen ti vale 1/3 o 1/4 comunque...

nel caso lanciassero un refresh a 7nm mi peserebbe perchè parliamo di tutta un'altra scheda... ma avevo già chiesto proprio in questo thread e mi era stato risposto che non sarebbe possibile... anche se forse a questo mondo niente è impossibile :P

Lo sia che se JHH shrinkava a 7nm turing, l'anno scorso, Ampere non sarebbe servito a nulla, se non per il RT.:p
L'anno prossimo Intel ed nvidia probabilmente lanceranno Hopper HPC, il primo chip MCM.

Andare sui 7nm, potrebbe creare seri problemi ad hopper, considerando che le prestazioni sono tutte pianificate a tavolino.
Quindi, se Hopper sarà devastante, e GA102 una vera schifezza, tutto può essere.
Pensa però, come detto su, che a 7nm la 2080ti sarebbe andata più forte della 3080.:)

be credo pure io altrimenti non avrebbe senso un solco cosi ampio sui prezzi... sembra proprio se saranno reali che si siano lasciati lo spazio per una fascia intermedia in caso di necessità

Probabilmente sta aspettando la mossa di AMD.
Purtroppo non c'è molta manovra, la differenza è sulla banda, e su un 20% di ALU massimo (che quasi mai si traduce in + 20 perf).
Possono però fare come la 2080ti e 1080ti, abbattendo il bus e perdendo una piccola percentuale, oppure giocare con le ram.

Thunder-74
22-08-2020, 12:10
be credo pure io altrimenti non avrebbe senso un solco cosi ampio sui prezzi... sembra proprio se saranno reali che si siano lasciati lo spazio per una fascia intermedia in caso di necessità


Il solco è lecito se la 3080 FE ha 10gb e la 3090 FE ha 24gb


Inviato dal mio iPhone X utilizzando Tapatalk

OrazioOC
22-08-2020, 12:28
Il "solco" lo vediamo anche oggi, tra 2080s 759 euro e 2080ti 1279 euro, ci stanno ben 520 euro, eppure in performance non ci passa mica il 30%..


Il gioco di nvidia é chiaro, piazza la top a livelli di prezzi assurdi, e la semi top x80 bella distanziata..

Tanto ormai le x80 hanno preso la fascia prezzo delle x80ti di un tempo, va bene cosi+ per loro, ormai le top sono in una fascia di prezzo a se stante, tanto chi vuole anche quel 15% capace che si venda pure la madre..

Poi vallo a spiegare che un 15% non cambia la giocabilitá, dove affondi con una, l'altra la segue a ruota, una fa 50 fps l'altra 57..

Questo vale 400-500-600 euro di differenza? a mio parere anche NO.

Infatti la 3090 non bisogna considerarla, è quel plus rispetto alla 3080 che non tutti riescono a giustificare, anche a livelli alti.

Crysis90
22-08-2020, 12:29
Probabilmente sta aspettando la mossa di AMD.


Nella migliore delle ipotesi, AMD potrà rivaleggiare con la 3080.
Sopra quella fascia, JHH può fare ciò che vuole perchè non ci sarà alcuna concorrenza.

In base alle specifiche dei leak

Per quanto riguarda le specifiche, con un 20% in più di SP, la 3090 dovrebbe andare tranquillamente più di un 15% sopra la 3080.

Per quanto riguarda i leak, beh, sono leak.
Appunto.
E' tutta fuffa finchè non escono le recensioni con i numeri ufficiali.

mikael84
22-08-2020, 12:30
Il solco è lecito se la 3080 FE ha 10gb e la 3090 FE ha 24gb


Inviato dal mio iPhone X utilizzando Tapatalk

Ora aspetterà Lisa e farà cartello sopra.
Se la 3080 avrà 10gb, basta fare una versione da 11gb o 12gb (magari 11 per abbassare un pelo le prestazioni).

Mi pare di vedere che ci sarà solo una 3070 inizialmente, quindi una nuova 2080 liscia, ed anche qua, aspetterà Lisa x il full chip.

Dai thunder, prendi la 3090 al D1, così mi fai vedere il consumo di quei moduli ram. JHH aspetta.
Se già la 2080ti arrivava a 50 senza OC con 11gb.

Nella migliore delle ipotesi, AMD potrà rivaleggiare con la 3080.
Sopra quella fascia, JHH può fare ciò che vuole perchè non ci sarà alcuna concorrenza.



JHH ha sempre il pro, li AMD non può nulla.
Inoltre ci sarà anche la carta RT.
Il valore raster è simbolico a sto giro.

Mirko/
22-08-2020, 12:34
Sono costretto a rispondere , scusate l’ot.

Il mio occhio è allenato credimi e ti confermo che se noti differenze così evidenti sicuramente il 144hz che hai non ha prestazioni eccellenti , diversamente le prestazioni sono pressoché identiche, vai sereno.
Se hai dubbi sul mio occhio ti posso mettere in contatto con qualche professionista che si alza la mattina e di mestiere gioca a fps, e ti dirà le stesse cose che ti dico io .
A parità di tempo di risposta e input lag e fps , parità che evidentemente tra i 2 pannelli che stai confrontando non c’è , le differenze sono impercettibili per chiunque , anche per Superman, stiamo parlando di aria fritta.
L’ideale sarebbe anche che tu facessi un confronto a pari risoluzione in modo da avere gli stessi fps in entrambi i panelli , dopo esserti assicurati però che il tuo 240 e il tuo 144 abbiamo alla massima frequenza il medesimo input lag e tempo di risposta , diversamente il test vale come il 2 di picche con sotto bastoni.

Quando fate i confronti prima di dare giudizi analizzate le prestazioni dei pannelli che confrontate perché diversamente si rischia di tirare conclusioni errate .

Discorso diverso invece per gli fps , più ne fai meglio è indipendentemente dagli hz , ma se ti metto davanti 2 pannelli con prestazioni identiche , uno a 144 e uno a 240 e giriamo in game a 300 fps se ti accorgi della differenza mi taglio una gamba.
Ti anticipo dicendoti che questo test è già stato fatto è si trova da qualche parte il filmato intero su YouTube , nessun pro è riuscito ad indovinare in prova in cieco qual’era il 240hz, direi che questo dovrebbe bastare per farsi un idea di come stanno le cose.
Al momento ho due schermi 240hz in casa per cui non c è l’ho con i 240hz se è questo che stai pensando .
Fine ot (non replicherò più in questo thread in relazione a questo argomento , se siete interessati ad approfondire apriamo un thread dedicato).
Chiedo scusa
Io ho un dell s2716dg 144hz e un acer predator XN253QX 240hz, quindi non proprio scarsini come monitor :D
Li ho uno accanto all’altro, quindi posso confrontare con due click.
Avrei potuto fare il reso, ma invece sono soddisfatto dell’acquisto, era proprio quello che cercavo.
La gente puó dire quello che gli pare, c’è chi dice in un modo e chi in un altro,
Ho amici consolari che non vedono differenza dalla tv 50hz a un monitor 144 per esempio.. IO la differenza la noto. L’effetto placebo non è infinito.
Detto questo, forse mi sono spiegato male.
La differenza che io noto è riguardo alla FLUIDITÀ, col 240 hai una esperienza leggermente migliorata rispetto al 144hz, sei più immerso nel gioco.
Ovviamente dipende da che tipo di gioco usi.

Io non voglio assolutamente dire che se passi al 240hz diventi piu forte, anzi io i 240hz non li consiglierei proprio.
Sono monitor sovraprezzati, che valgono la metà di quello che offrono.
Ma costano tanto solo perché sono monitor di nicchia pensati proprio per un numero ristretto di player, e ovviamente usati dai professionisti (facendoti credere che diventi forte come loro, ma ovviamente non centra un cazzo)
Sono monitor che sfrutti solo in determinati giochi, dove riesci a macinare 250fps+, pensati per chi in modo competitivo (professionisti o semplicemente chi fa coppe e tornei)
Perché ad alti livelli, anche una piccolissima frazione di secondo fa la differenza e avere maggiore fluidità, anche se poca, ti cambia il mondo.
Non sono monitor per un player medio.,
Ti ripeto io gioco da 16 anni ad unreal tournament 2004, dove ormai conosco ogni singolo dettaglio, la mia skill era al limite, grazie alla fluidità del 240 hz ho avuto quell’1% in più di miglioramento, riesco ad aver maggiore controllo delle azioni ecc.
È come se dai una scarpa tecnica da corsa a uno sprinter professionista e a uno che fa jogging 3 volte alla settimana, ovvio che il pro la sfrutta meglio..

Un 240hz è ideale per un fps arena come unreal, ti assicuro che pure tu vedresti la differenza (in fluidità).
Io l’ho provato pure su COD, e sono tornato immediatamente sul 2k 144hz...
Praticamente uso il 240hz solo per unreal tournament e cs go, e per tutto il resto uso il 2k.
Si sono un coglione che butta soldi lo so :D

Ps: datti un’occhiata a questo fragmovie https://youtu.be/Leqjjq-mVqA
E dimmi che non trarresti vantaggio da un 240hz su un gioco del genere !! ;)

TigerTank
22-08-2020, 12:41
Il "solco" lo vediamo anche oggi, tra 2080s 759 euro e 2080ti 1279 euro, ci stanno ben 520 euro, eppure in performance non ci passa mica il 30%..

La 2080 liscia costava 869, con 2080s hanno migliorato ancor di piu il rapporto perf/price rispetto alla 2080ti, dando ancor di piú luce alla fascia semi top.


Il gioco di nvidia é chiaro, piazza la top a livelli di prezzi assurdi, e la semi top x80 bella distanziata..

Tanto ormai le x80 hanno preso la fascia prezzo delle x80ti di un tempo, va bene cosi+ per loro, ormai le top sono in una fascia di prezzo a se stante, tanto chi vuole anche quel 15% capace che si venda pure la madre..

Poi vallo a spiegare che un 15% non cambia la giocabilitá, dove affondi con una, l'altra la segue a ruota, una fa 50 fps l'altra 57..

Questo vale 400-500-600 euro di differenza? a mio parere anche NO.

Anche di più...io la mia attuale custom e maggiorata la pagai 770€ su amazon...quando c'erano Ti custom da 1300-1400€. Alcune Ti più blasonate toccavano addirittura il doppio.
La 3090 sarà sicuramente tanta roba ma restando su 3440x1440 ad oltranza invece che passare ad una 4K da gaming, il mio target primario di interesse saranno o la 3080 o anche la 3070Ti. Dipenderà tutto dalle prestazioni che vedrò su 3440x1440 o anche 3840x1600. E dalla combinazione RT+DLSS.
Le ammiraglie ormai con turing hanno raggiunto un costo spropositato in rapporto alla durata di vita per un appassionato e credo proprio che la cosa si ripeterà nelle prossime generazioni. In pratica non avremo più le "Ti" che uscivano l'anno dopo al costo quasi allineato o giusto poco più rispetto a quello delle x80 al lancio.

Acme
22-08-2020, 13:28
la QUADRO 3000 è Turing e attualmente in produzione, non è la serie nuova :stordita:

è solo la nomenclatura Quadro RTX 3000,4000,5000 6000 e 8000; mentra la T1000 e T2000 sono senza RTX.

è una versione mobile basata su TU106 ( 2070 )

https://www.notebookcheck.it/NVIDIA-Quadro-RTX-3000-Laptop.449951.0.html
Meno male, 6gb a questo giro me le aspetto per le 3050.
THX Ace

scorpion73
22-08-2020, 13:54
Anche di più...io la mia attuale custom e maggiorata la pagai 770€ su amazon...quando c'erano Ti custom da 1300-1400€. Alcune Ti più blasonate toccavano addirittura il doppio.
La 3090 sarà sicuramente tanta roba ma restando su 3440x1440 ad oltranza invece che passare ad una 4K da gaming, il mio target primario di interesse saranno o la 3080 o anche la 3070Ti. Dipenderà tutto dalle prestazioni che vedrò su 3440x1440 o anche 3840x1600. E dalla combinazione RT+DLSS.
Le ammiraglie ormai con turing hanno raggiunto un costo spropositato in rapporto alla durata di vita per un appassionato e credo proprio che la cosa si ripeterà nelle prossime generazioni. In pratica non avremo più le "Ti" che uscivano l'anno dopo al costo quasi allineato o giusto poco più rispetto a quello delle x80 al lancio.

Si purtroppo è così, ma per fortuna le prestazioni delle non ti sono comunque ragguardevoli anche sui chip Gx104 e ti permettono di giocare in QHD bene.
In ogni caso la 3080 è sempre GA102.. e sono straconvinto che l'anno prossimo esce la 3080ti con 12 GB di RAM e chip pari alla 3090 normale

Thunder-74
22-08-2020, 14:02
Ora aspetterà Lisa e farà cartello sopra.
Se la 3080 avrà 10gb, basta fare una versione da 11gb o 12gb (magari 11 per abbassare un pelo le prestazioni).

Mi pare di vedere che ci sarà solo una 3070 inizialmente, quindi una nuova 2080 liscia, ed anche qua, aspetterà Lisa x il full chip.

Dai thunder, prendi la 3090 al D1, così mi fai vedere il consumo di quei moduli ram. JHH aspetta.
Se già la 2080ti arrivava a 50 senza OC con 11gb.



JHH ha sempre il pro, li AMD non può nulla.
Inoltre ci sarà anche la carta RT.
Il valore raster è simbolico a sto giro.

hahahah no Mike, al D1 mai!!! oltretutto sto trattando per acquistare casa, quindi Ampere slitta :fagiano:

Ubro92
22-08-2020, 14:40
Meno male, 6gb a questo giro me le aspetto per le 3050.
THX Ace

Probabile che li avrà la 3050ti, basandosi sul cut dalla 3060, e quindi lasciando il bus a 192bit (trattamento simile alla 1660 liscia)

La 3050 non avrebbe senso, essendo una entry level e dato il suo target rimarrà a 128bit e max 4GB di vram cercando di farla rientrare nei 75w senza connettori ausiliari.

Anche di più...io la mia attuale custom e maggiorata la pagai 770€ su amazon...quando c'erano Ti custom da 1300-1400€. Alcune Ti più blasonate toccavano addirittura il doppio.
La 3090 sarà sicuramente tanta roba ma restando su 3440x1440 ad oltranza invece che passare ad una 4K da gaming, il mio target primario di interesse saranno o la 3080 o anche la 3070Ti. Dipenderà tutto dalle prestazioni che vedrò su 3440x1440 o anche 3840x1600. E dalla combinazione RT+DLSS.
Le ammiraglie ormai con turing hanno raggiunto un costo spropositato in rapporto alla durata di vita per un appassionato e credo proprio che la cosa si ripeterà nelle prossime generazioni. In pratica non avremo più le "Ti" che uscivano l'anno dopo al costo quasi allineato o giusto poco più rispetto a quello delle x80 al lancio.

Ma lo scopo delle TI è sempre stato quello di contrastare la concorrenza, su kepler in origine erano previste solo la 780 (2304cc) e la titan (2688cc), poi quando AMD tirò fuori le 290 e 290x, ha dovuto selezionarsi i chip e offrire 780ti e Titan completamente sbloccate (2880cc).
Ma oggi le Ti fanno solo da facciata, nella realtà si fanno concorrenza da sole e questo andamento dalla 980ti a oggi non ha fatto altro che peggiorare.

mikael84
22-08-2020, 15:06
dici ga103? non so può essere ma i rumors oggi come oggi alla fine si rivelano sempre veritieri, la 3090 come new entry all inizio sembrava improbabile e ora è quasi certa, le 21gbps erano impossibili e so uscite

Impossibili no, basta raddoppiare l'ampiezza dei dati e puoi lanciare anche le 40/80 gb/s.:p
Impossibili si, le Gddr6 hanno fallito.:)


lo slot 12pin anche quello alla fine ci sarà penso e il cerchio è chiuso :D

Attualmente non è uno standard, strano che tutti i brand non ne siano a conoscenza.
Tuttavia, tutto può essere. A 6 Ampere un cavo simile trasposta 432watt teorici. Una GPU da 350watt si troverebbe quasi senza PL, con un 2x8.


Meno male, 6gb a questo giro me le aspetto per le 3050.
THX Ace

Cmq, se introdurranno la compressione via tensor, cambia tutto. Una 6gb potrebbe rendere come una da 8, allocando anche meno spazzatura.:)

hahahah no Mike, al D1 mai!!! oltretutto sto trattando per acquistare casa, quindi Ampere slitta :fagiano:

Anche JHH sta cercando una villa nuova.:sofico:
Cmq thunder, seriamente, già se hai ben altre spese, aspetta. Son convinto che l'occasione si troverà sempre.
Sinceramente questo PP, è una presa in giro.;)

SinapsiTXT
22-08-2020, 15:46
Vedo che qui siamo tutti scimmiati per la 3080 :D sapete per caso se le proposte custom usciranno insieme alla versione reference? EVGA ha fatto trapelare qualcosa?

Thunder-74
22-08-2020, 15:51
cut...

Anche JHH sta cercando una villa nuova.:sofico:
Cmq thunder, seriamente, già se hai ben altre spese, aspetta. Son convinto che l'occasione si troverà sempre.
Sinceramente questo PP, è una presa in giro.;)

Anche in tempi più "facili" di spesa, avrei aspettato comunque. Prima di tutto perché adoro leggermi vagonate di recezioni dei vari modelli prima dell'acquisto e poi attendo sempre le versioni custom tra le quali quelle con WB. Inoltre, visto Turing, voglio vedere prima l'affidabilità ed evitare brutte sorprese con modelli lanciati in corsa per fare lo sgambetto al competitor.

Altra cosa.... valutare eventuale costo dei modelli 3080 da 10gb e 20gb..

D1 no...

Ton90maz
22-08-2020, 17:38
Cmq, se introdurranno la compressione via tensor, cambia tutto. Una 6gb potrebbe rendere come una da 8, allocando anche meno spazzatura.:)



O magari va come una da 6.2 e la compressione via bassa manovalanza è lì perchè "oh ragazzi, c'abbiamo 3 quintali di silicio tumorale che non sappiamo come usare" :asd:

Kostanz77
22-08-2020, 18:21
in attesa della 3080 mi accontento della schedina appena arrivata 😀


Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro

Kostanz77
22-08-2020, 18:23
AZZ... bellina peró:D :D :D



😂


Inviato dal mio iPhone 11 PRO utilizzando Tapatalk Pro

mikael84
22-08-2020, 18:49
Anche in tempi più "facili" di spesa, avrei aspettato comunque. Prima di tutto perché adoro leggermi vagonate di recezioni dei vari modelli prima dell'acquisto e poi attendo sempre le versioni custom tra le quali quelle con WB. Inoltre, visto Turing, voglio vedere prima l'affidabilità ed evitare brutte sorprese con modelli lanciati in corsa per fare lo sgambetto al competitor.

Altra cosa.... valutare eventuale costo dei modelli 3080 da 10gb e 20gb..

D1 no...

Fai benissimo, pure io più avanti mi cercherò qualche 3070ti. Con calma, molta calma.:)
Nel mentre, osserverò il progetto MCM.

O magari va come una da 6.2 e la compressione via bassa manovalanza è lì perchè "oh ragazzi, c'abbiamo 3 quintali di silicio tumorale che non sappiamo come usare" :asd:

I soli tensor occupano 60mm2 ed 1,4mtransistor su un TU102, non mezzo chip.:p
Purtroppo nvidia utilizzando i tensor, ha deciso di non splittare le fp32 (come fa AMD o GP100), quindi gli usa pure per FP16 classiche, non a caso nelle 1660 sono tensor tagliuzzati.

Il problema di questi chip, almeno nell'uso raster sono i PP.
I tensor cmq, con Ampere avranno sempre più un ruolo, tanto in quella specie di PP di samsung non è che potevi occupare lo spazio tensor per mettere un'altro GPC. Anzi lo potevi fare, ma a 2100 ci volevano custom con 4x8 pin.:asd:

FreeMan
22-08-2020, 19:27
STOP OT!!!

:muro:

>bYeZ<

Sono costretto a rispondere , scusate l’ot.

Il mio occhio è allenato credimi e ti confermo che se noti differenze così evidenti sicuramente il 144hz che hai non ha prestazioni eccellenti , diversamente le prestazioni sono pressoché identiche, vai sereno.
Se hai dubbi sul mio occhio ti posso mettere in contatto con qualche professionista che si alza la mattina e di mestiere gioca a fps, e ti dirà le stesse cose che ti dico io .
A parità di tempo di risposta e input lag e fps , parità che evidentemente tra i 2 pannelli che stai confrontando non c’è , le differenze sono impercettibili per chiunque , anche per Superman, stiamo parlando di aria fritta.
L’ideale sarebbe anche che tu facessi un confronto a pari risoluzione in modo da avere gli stessi fps in entrambi i panelli , dopo esserti assicurati però che il tuo 240 e il tuo 144 abbiamo alla massima frequenza il medesimo input lag e tempo di risposta , diversamente il test vale come il 2 di picche con sotto bastoni.

Quando fate i confronti prima di dare giudizi analizzate le prestazioni dei pannelli che confrontate perché diversamente si rischia di tirare conclusioni errate .

Discorso diverso invece per gli fps , più ne fai meglio è indipendentemente dagli hz , ma se ti metto davanti 2 pannelli con prestazioni identiche , uno a 144 e uno a 240 e giriamo in game a 300 fps se ti accorgi della differenza mi taglio una gamba.
Ti anticipo dicendoti che questo test è già stato fatto è si trova da qualche parte il filmato intero su YouTube , nessun pro è riuscito ad indovinare in prova in cieco qual’era il 240hz, direi che questo dovrebbe bastare per farsi un idea di come stanno le cose.
Al momento ho due schermi 240hz in casa per cui non c è l’ho con i 240hz se è questo che stai pensando .
Fine ot (non replicherò più in questo thread in relazione a questo argomento , se siete interessati ad approfondire apriamo un thread dedicato).
Chiedo scusa

Slide non basta essere bravi a un giochino per avere percezioni sensoriali migliori degli altri, questo vale sia per te che per i pro, se per te i 240 non fanno differenza non vuol dire che sia una legge dell'Universo.

Ricorda che c'e' gente che non vede grossa differenza fra 60 e 120.

Che poi il gap percepito sia fisicamente minore rispetto che il salto standard da 60 a 144 non ci piove.

Inutile continuarla a menare che e' un discorso pure OT (io gioco a 1440p @144 perche' lo trovo il miglior compromesso/resa ma la differenza eccome se si nota).

Edit: Aggiungo completamente invece d'accordo sull'avere un "edge" nel giocare a 240 vs 144, assolutamente zero a meno di essere alieni.

Ma chi la nota ,non solo la differenza , ma l’edge sulla skill?
Due utenti qui sul forum che giocano a livello amatoriale , stiamo scherzando?

Un player con rapporto K/D di 3 su 144 resterà a 3 anche su 240, non vedrà la Madonna con il passaggio tra i 2, idem per un player con K/D di 0.7.
È alquanto probabile , per non dire certo che ci sia un incremento della skill nel passaggio da 60 a 144 , dato che qui la differenza è lampante, da lì in poi è lana caprina e guarda che non sto badandomi esclusivamente sul mio giudizio da amatore , ma su quello dato da professionisti, ora capisco avere autostima e credere in se stessi , ma un minimo di peso diamolo a sti benedetti cristiani che passano la vita davanti a un videogioco , qualcosa ci capiranno , suvvia.
Chiudo qui , ognuno creda in ciò che vuole , l’importante è essere sodisfatti, se vogliamo scambiarci opinioni e punti di vista apriamo un thread dedicato all’argomento, io ci sono.
Peace

io mi fermo a 165 fps e nei giochi in un primo momento non ci vedevo differenze oltre i 90 , poi con tempo mi sono abituato e adesso si vedono a come.
Ma nei giochi , sul desktop sul mouse e sullo scrolling si vedono e come.

Mi ha detto che a 240+ non si nota tearing é vero? Anche senza raggiungere i 240 ma lasciando il monitor libero ( no Sync)

Perché potrebbe essere il vero vantaggio dell'alto refrash disattivando vsync e gsync.

Io ho un dell s2716dg 144hz e un acer predator XN253QX 240hz, quindi non proprio scarsini come monitor :D
Li ho uno accanto all’altro, quindi posso confrontare con due click.
Avrei potuto fare il reso, ma invece sono soddisfatto dell’acquisto, era proprio quello che cercavo.
La gente puó dire quello che gli pare, c’è chi dice in un modo e chi in un altro,
Ho amici consolari che non vedono differenza dalla tv 50hz a un monitor 144 per esempio.. IO la differenza la noto. L’effetto placebo non è infinito.
Detto questo, forse mi sono spiegato male.
La differenza che io noto è riguardo alla FLUIDITÀ, col 240 hai una esperienza leggermente migliorata rispetto al 144hz, sei più immerso nel gioco.
Ovviamente dipende da che tipo di gioco usi.

Io non voglio assolutamente dire che se passi al 240hz diventi piu forte, anzi io i 240hz non li consiglierei proprio.
Sono monitor sovraprezzati, che valgono la metà di quello che offrono.
Ma costano tanto solo perché sono monitor di nicchia pensati proprio per un numero ristretto di player, e ovviamente usati dai professionisti (facendoti credere che diventi forte come loro, ma ovviamente non centra un cazzo)
Sono monitor che sfrutti solo in determinati giochi, dove riesci a macinare 250fps+, pensati per chi in modo competitivo (professionisti o semplicemente chi fa coppe e tornei)
Perché ad alti livelli, anche una piccolissima frazione di secondo fa la differenza e avere maggiore fluidità, anche se poca, ti cambia il mondo.
Non sono monitor per un player medio.,
Ti ripeto io gioco da 16 anni ad unreal tournament 2004, dove ormai conosco ogni singolo dettaglio, la mia skill era al limite, grazie alla fluidità del 240 hz ho avuto quell’1% in più di miglioramento, riesco ad aver maggiore controllo delle azioni ecc.
È come se dai una scarpa tecnica da corsa a uno sprinter professionista e a uno che fa jogging 3 volte alla settimana, ovvio che il pro la sfrutta meglio..

Un 240hz è ideale per un fps arena come unreal, ti assicuro che pure tu vedresti la differenza (in fluidità).
Io l’ho provato pure su COD, e sono tornato immediatamente sul 2k 144hz...
Praticamente uso il 240hz solo per unreal tournament e cs go, e per tutto il resto uso il 2k.
Si sono un coglione che butta soldi lo so :D

Ps: datti un’occhiata a questo fragmovie https://youtu.be/Leqjjq-mVqA
E dimmi che non trarresti vantaggio da un 240hz su un gioco del genere !! ;)

slide1965 , Gello , fraussantin e Mirko/ sospesi 5gg per continuato OT

>bYeZ<

MrBrillio
22-08-2020, 21:06
LOL quoto:D :D

Schede da "PRO" imbavagliate e date in pasto al mercato del gaming per quei 2-3 giochi RTX ON LOL, quando uno é furbo, é furbo..

Tra un pó con un DIE ci piastrello il bagno..

Con il fatto che le nuove console supporteranno il raytracing, lo troveremo in moltissime produzioni future ;)
Per me che vengo da una 1080ti non c'è storia... Acquisto a occhi chiusi. Top se non sarà costosa quanto un rene, altrimenti la 3080 è via con un sorriso.

D4N!3L3
22-08-2020, 21:18
Mi par di capire quindi che i modelli Ti non si vedranno subito, giusto?

MrBrillio
22-08-2020, 21:41
Ma dite che le mie speranze di tornare ad un multigpu che funzioni "bene" sono belle che sotterrate? Vedremo mai tornare in auge sistemi del genere che rendano e non siano solo soldi sprecati? :cry:

The_SaN
22-08-2020, 21:49
Mi par di capire quindi che i modelli Ti non si vedranno subito, giusto?

Se la 3090 avrà ram doppia, probabilmente vorranno monetizzare con quella ed avere solo la 3080 nella fascia alta. Con la 3080ti (chip da 3090 con metà ram) a seguire, con il mercato assestato.

The_SaN
22-08-2020, 21:51
Ma dite che le mie speranze di tornare ad un multigpu che funzioni "bene" sono belle che sotterrate? Vedremo mai tornare in auge sistemi del genere che rendano e non siano solo soldi sprecati? :cry:

Teoricamente OGGI il multigpu dovrebbe scalare meglio rispetto ai vari SLI/Crossfire, è tutto previsto nelle API di basso livello, tra l'altro con GPU diverse.

Il problema è il lavoro della madonna il costo e la complessità di fare un engine fatto per bene che sfrutti appieno DX12/Vulkan, cosa che ad oggi ancora non abbiamo visto.

Ubro92
22-08-2020, 22:36
Considerando il costo della singola, pensare a 2 é molto utopistico...

Non é così strano che con i titoli di ora ci si investa poco nel cross/sli...

Poi molti titoli hanno scadenze risicate, e non é raro che i bug vengano corretti solo post uscita del gioco dopo diverse patch, anche i dev alla fine devono finalizzare i giochi, e già chi prende GPU da 600/800/1000++ &euro; rappresenta la nicchia, figuriamoci chi ne investe addirittura il doppio.

Forse in futuro incrementando la potenza nelle integrate nelle CPU probabilmente ci sarà una sorta di modalità ibrida per sfruttare la fisica o effetti specifici da GPU secondarie, in stile physx o Lucid Virtu ma a basso livello e mantenendo basse latenze, questo probabilmente avrebbe molto più senso.




Inviato dal mio Redmi Note 4 utilizzando Tapatalk

The_SaN
22-08-2020, 22:59
Considerando il costo della singola, pensare a 2 é molto utopistico...

Non é così strano che con i titoli di ora ci si investa poco nel cross/sli...

Poi molti titoli hanno scadenze risicate, e non é raro che i bug vengano corretti solo post uscita del gioco dopo diverse patch, anche i dev alla fine devono finalizzare i giochi, e già chi prende GPU da 600/800/1000++ &euro; rappresenta la nicchia, figuriamoci chi ne investe addirittura il doppio.

Forse in futuro incrementando la potenza nelle integrate nelle CPU probabilmente ci sarà una sorta di modalità ibrida per sfruttare la fisica o effetti specifici da GPU secondarie, in stile physx o Lucid Virtu ma a basso livello e mantenendo basse latenze, questo probabilmente avrebbe molto più senso.




Inviato dal mio Redmi Note 4 utilizzando Tapatalk

Se gli engine fossero davvero pensati per DX12 una 3090 24GB a 1500 euro non la comprerebbe nessuno, dato che con 2 3080 spenderesti quasi uguale, avresti comunque 20GB di framebuffer condiviso e molta potenza in più.

Sarebbe un discorso analogo a quello che molti fanno oggi tra 2080ti NVLink e quadro.

Purtroppo oggi il 99,9% dei titoli sono basati su engine dell'anteguerra con qualche spruzzatina di novità, roba pensata per CPU da tablet con una HD7850. E non cambierà una mazza, avremo roba un po' aggiornata con le nuove uscite, ma continueremo a vedere engine di melma in multigpu, dato che le console sono il carro trainante.

mikael84
22-08-2020, 23:19
Ma dite che le mie speranze di tornare ad un multigpu che funzioni "bene" sono belle che sotterrate? Vedremo mai tornare in auge sistemi del genere che rendano e non siano solo soldi sprecati? :cry:

SLI, ora nvlink, come lo conoscevi non c'è più. Ora con il basso livello va molto meglio, ma il supporto è basso. Eppure alcuni titoli sembrano andare bene.
Questo utente aveva 2 2080 in nvlink, con una lista di giochi, come RDR2
https://www.hwupgrade.it/forum/showpost.php?p=46533729&postcount=23642

Si trova facilmente perchè fu l'unico, a provare nvlink.

Giovamas
23-08-2020, 07:11
Se la 3090 avrà ram doppia, probabilmente vorranno monetizzare con quella ed avere solo la 3080 nella fascia alta. Con la 3080ti (chip da 3090 con metà ram) a seguire, con il mercato assestato.

mia stessa opinione. allora in tal caso si aspetta..

redbaron
23-08-2020, 08:32
Se la 3090 avrà ram doppia, probabilmente vorranno monetizzare con quella ed avere solo la 3080 nella fascia alta. Con la 3080ti (chip da 3090 con metà ram) a seguire, con il mercato assestato.

Bisogna aspettare i benchmark per capire se cӎ un gap per inserire prestazionalmente una 3080ti. Non si sa nulla al momento sulla vera distanza tra 3090 e 3080.

Giovamas
23-08-2020, 08:38
Bisogna aspettare i benchmark per capire se cӎ un gap per inserire prestazionalmente una 3080ti. Non si sa nulla al momento sulla vera distanza tra 3090 e 3080.

esatto quoto:) . da vedere se c'è spazio per una 3080ti, gap prestazionale e vedere se la 3080 sarà upgrade o side grade rispetto alla mia

Thunder-74
23-08-2020, 08:43
Bisogna aspettare i benchmark per capire se cӎ un gap per inserire prestazionalmente una 3080ti. Non si sa nulla al momento sulla vera distanza tra 3090 e 3080.


Però potremmo assistere al lancio di una 3090 da 12gb nel 2021, magari ad un prezzo più vicino a quello di lancio della 3080 e quest ultima subire una riduzione di prezzo, come avveniva in passato con le Ti.


Inviato dal mio iPad utilizzando Tapatalk

arkantos91
23-08-2020, 08:48
Certo che la nuova flagship se confermato il tdp da 300+ w scalderà da paura.... già la mia 2080ti non scherza in full ed ho un case/areazione ottimale...


Inviato dal mio iPhone utilizzando Tapatalk

Ubro92
23-08-2020, 08:51
Però potremmo assistere al lancio di una 3090 da 12gb nel 2021, magari ad un prezzo più vicino a quello di lancio della 3080 e quest ultima subire una riduzione di prezzo, come avveniva in passato con le Ti.


Inviato dal mio iPad utilizzando Tapatalk

Non lo so, ho la sensazione che non ci saranno TI, ma tutto verrà rimarchiato in Super a tempo debito.
Tra un annetto potrebbero fare la 3080 Super con qualche TPC sbloccato a 352/384bit, e una 3070 Super derivata da chip ulteriormente fallati della 3080 liscia.

zetalife
23-08-2020, 10:11
secondo voi una 3070 quanto potrebbe costare al lancio?

redbaron
23-08-2020, 10:11
https://videocardz.com/newz/seasonic-confirms-nvidia-rtx-30-series-12-pin-adapter

Azzzz

Marscorpion
23-08-2020, 10:17
https://videocardz.com/newz/seasonic-confirms-nvidia-rtx-30-series-12-pin-adapter

Azzzz

Speriamo sia solo per la 3090.
Ci ho messo una vita a farmi tutti i cavi dell'ali sleevati su misura e mo devo mettermi un adattatore in bella vista magari con quei bei cavi gialli, rossi ecc. A quanto leggo dovrebbe essere solo sulle founders.....
Senza contare che ho un case ITX che può ospitare solo vga a 2 slot e questi mi fanno la serie 3000 a tre slot. Cominciamo propio male!

Spytek
23-08-2020, 10:21
https://videocardz.com/newz/seasonic-confirms-nvidia-rtx-30-series-12-pin-adapter

Azzzz
Che obbrobrio :muro:

Ale55andr0
23-08-2020, 10:23
https://wccftech.com/nvidia-geforce-rtx-30-series-ampere-gaming-graphics-cards-12-pin-power-connector/


spè spè spè, ma che è sta pèresa per il culo? e poi se adattatore ci deve esse DEVE fornirlo nvidia incluso nella dotazione della vga

mattxx88
23-08-2020, 10:23
Speriamo sia solo per la 3090.
Ci ho messo una vita a farmi tutti i cavi dell'ali sleevati su misura e mo devo mettermi un adattatore in bella vista magari con quei bei cavi gialli, rossi ecc. A quanto leggo dovrebbe essere solo sulle founders.....

Esattamente, DC

TigerTank
23-08-2020, 10:39
https://videocardz.com/newz/seasonic-confirms-nvidia-rtx-30-series-12-pin-adapter

Azzzz

Che obbrobrio :muro:

Ahahahah ci mancherebbe solo che oltre al costo della vga toccherebbe pure comprare un adattatore a parte perchè non in bundle. Se poi parliamo di marche come Seasonic e simili, chissà a quanto lo prezzeranno. :D
Spero anch'io sia solo prerogativa dell'ammiraglia e che dalla 3080 in giù abbiano ancora connettori normali. O almeno le custom il solito 2x8. :stordita:

Spytek
23-08-2020, 10:54
Ahahahah ci mancherebbe solo che oltre al costo della vga toccherebbe pure comprare un adattatore a parte perchè non in bundle. Se poi parliamo di marche come Seasonic e simili, chissà a quanto lo prezzeranno. :D
Spero anch'io sia solo prerogativa dell'ammiraglia e che dalla 3080 in giù abbiano ancora connettori normali. O almeno le custom il solito 2x8. :stordita:
Sono quasi sicuro lo inseriranno nel bundle delle schede.
E spero riguardi la 3090 che scarterei a priori.
Resta il fatto che l’adattatore è un cesso!
L’ho detto in precedenza?? :rolleyes:

Raven
23-08-2020, 11:01
Che poi a che minchia serve?.... non potevano fare le solite 2 porte da 8 pin e bon, visto che ci vanno collegate quelle, all'adattatore?...

Ale55andr0
23-08-2020, 11:10
Maledetti dovete crep@re...

sia mai che gliele lasciate sullo scaffale però :D

Andy1111
23-08-2020, 11:20
Che poi a che minchia serve?.... non potevano fare le solite 2 porte da 8 pin e bon, visto che ci vanno collegate quelle, all'adattatore?...
Perchè ora intanto lo introducono, poi magari la prossima volta te lo fanno diventare uno standard, spero di sbagliare ma non mi stupirebbe che sto cavo da 12 ci sia su tutte le Founders con GA102

mikael84
23-08-2020, 11:35
Ahahahah ci mancherebbe solo che oltre al costo della vga toccherebbe pure comprare un adattatore a parte perchè non in bundle. Se poi parliamo di marche come Seasonic e simili, chissà a quanto lo prezzeranno. :D
Spero anch'io sia solo prerogativa dell'ammiraglia e che dalla 3080 in giù abbiano ancora connettori normali. O almeno le custom il solito 2x8. :stordita:

Nvidia ha fatto un casino a sto giro per via di sto PP.
Quell'adattatore non è in specifica, ha standard diversi, non è un normale 2x8 pin.
Praticamente a 6 ampere porta 432 watt teorici (magari verrà settato a 400) contro i 300w (anch'essi in parte teorici) + pci express.
In pratica porta a 475-500watt il tutto.

Attualmente è stato utilizzato solo in test da nvidia, e la cosa dovrà essere gestita dai produttori di ALI probabilmente.:)

amon.akira
23-08-2020, 11:42
Nvidia ha fatto un casino a sto giro per via di sto PP.
Quell'adattatore non è in specifica, ha standard diversi, non è un normale 2x8 pin.
Praticamente a 6 pin porta 432 watt teorici (magari verrà settato a 400) contro i 300w (anch'essi in parte teorici) + pci express.
In pratica porta a 475-500watt il tutto.

Attualmente è stato utilizzato solo in test da nvidia, e la cosa dovrà essere gestita dai produttori di ALI probabilmente.:)

dici ga103? non so può essere ma i rumors oggi come oggi alla fine si rivelano sempre veritieri, la 3090 come new entry all inizio sembrava improbabile e ora è quasi certa, le 21gbps erano impossibili e so uscite, lo slot 12pin anche quello alla fine ci sarà penso e il cerchio è chiuso :D

:stordita:

Arrow0309
23-08-2020, 11:45
https://videocardz.com/newz/seasonic-confirms-nvidia-rtx-30-series-12-pin-adapter

Azzzz

"It is recommended to use a power supply rated 850 W or higher with this cable."

Quindi se lo mettono su tutte le FE, anche sulla 3080 bisogna capire che il requisito minimo sara' 850W? :eekk:
Io non ho problemi (e punto sulla 3080) ma LOL

mikael84
23-08-2020, 11:46
:stordita:

Si a sto giro ci hanno preso, quasi su tutto, e tutto senza standard.
Ovviamente te lo dissi ieri, che 350watt, non potevano stare senza PL e strozzati, qualcosa JHH si doveva inventare, per evitare di mettere un 3x8pin (quel cavo alla fine quello è con meno spazio):) :)
https://www.hwupgrade.it/forum/showpost.php?p=46932072&postcount=50476

Ora, speriamo che i primi SM rilasciati siano veri, e probabilmente i valori RT che ho stimato sono veri. :D

Ale55andr0
23-08-2020, 11:49
Si a sto giro ci hanno preso, quasi su tutto, e tutto senza standard.
Ovviamente te lo dissi ieri, che 350watt, non potevano stare senza PL e strozzati, qualcosa JHH si doveva inventare, per evitare di mettere un 3x8pin (quel cavo alla fine quello è con meno spazio):) :)
https://www.hwupgrade.it/forum/showpost.php?p=46932072&postcount=50476

a sto giro per quanto mi riguarda l'hanno globalmente e ampiamente fatta fuori dal vaso

amon.akira
23-08-2020, 11:51
Si a sto giro ci hanno preso, quasi su tutto, e tutto senza standard.
Ovviamente te lo dissi ieri, che 350watt, non potevano stare senza PL e strozzati, qualcosa JHH si doveva inventare, per evitare di mettere un 3x8pin (quel cavo alla fine quello è con meno spazio):) :)
https://www.hwupgrade.it/forum/showpost.php?p=46932072&postcount=50476

che schifo però...praticamente a pari watt in raster quanto recupera su una 2080ti la 3080 10%? in rt arriviamo al 50% altro che 2x 45tf to 67tf

Arrow0309
23-08-2020, 11:54
Si a sto giro ci hanno preso, quasi su tutto, e tutto senza standard.
Ovviamente te lo dissi ieri, che 350watt, non potevano stare senza PL e strozzati, qualcosa JHH si doveva inventare, per evitare di mettere un 3x8pin (quel cavo alla fine quello è con meno spazio):) :)
https://www.hwupgrade.it/forum/showpost.php?p=46932072&postcount=50476

Ma sulla 3080 FE ci starebbe un 8pin +6pin no?
In fondo mica e' una versione multifase Ultra overcloccata abbestia :O
Cosi' gli AIB potranno proporre il classico 2x 8pin su quasi tutte le 3080 e inferiori.

Ma ho il dubbio che non la fanno cosi' neanche la 3080 :fagiano:

OT:
Se qualcuno sta cercando di acquistare un buon ali che aspetti, fra un po' ci saranno a centinaia sul mercatino :asd:

amon.akira
23-08-2020, 11:55
Ma sulla 3080 FE ci starebbe un 8pin +6pin no?
In fondo mica e' una versione multifase Ultra overcloccata abbestia :O
Cosi' gli AIB potranno proporre il classico 2x 8pin su quasi tutte le 3080 e inferiori.

Ma ho il dubbio che non la fanno cosi' neanche la 3080 :fagiano:

2x 8pin anche la 3080 se ha tdp 320w altrimenti che fai lasci pl 0%?

Arrow0309
23-08-2020, 11:59
2x 8pin anche la 3080 se ha tdp 320w altrimenti che fai lasci pl 0%?

Come 320W?
Che va a 380 in pl maxato? :eek: :doh:

AkiraFudo
23-08-2020, 11:59
FE per Fancoil Edition

che sia una nuova gloriosa Geforce FX5800?

https://i.postimg.cc/NMtCJkMc/new-novideo-fancoil-unit2.png

speriamoche a sto giro AMD ne approffitti e non si butti la zappa sui piedi come solo lei sa fare

Andy1111
23-08-2020, 12:01
2x 8pin anche la 3080 se ha tdp 320w altrimenti che fai lasci pl 0%?

Se fosse 320W la 3080 con 2 x 8 pin + pci express hai al massimo 375W, a me fa pensare che ste schede abbiano dei picchi di consumi importanti , parlando di GA102 speriamo che qualche review sia molto accurata e avere un quadro più completo.

amon.akira
23-08-2020, 12:06
Se fosse 320W la 3080 con 2 x 8 pin + pci express hai al massimo 375W, a me fa pensare che ste schede abbiano dei picchi di consumi importanti , parlando di GA102 speriamo che qualche review sia molto accurata e avere un quadro più completo.

sicuramente imho a 350w max magari la 20gb la tieni a 2100mhz, cosa che con una 2080ti magari ci volevano 400+

se 10gb magari anche a 320w con curva in uv, almeno spero ^^'

Thunder-74
23-08-2020, 12:08
Si a sto giro ci hanno preso, quasi su tutto, e tutto senza standard.
Ovviamente te lo dissi ieri, che 350watt, non potevano stare senza PL e strozzati, qualcosa JHH si doveva inventare, per evitare di mettere un 3x8pin (quel cavo alla fine quello è con meno spazio):) :)
https://www.hwupgrade.it/forum/showpost.php?p=46932072&postcount=50476

Ora, speriamo che i primi SM rilasciati siano veri, e probabilmente i valori RT che ho stimato sono veri. :D


E a questo giro c ho preso anch io quando dicevo che molti avranno dovuto cambiare ali e qualcuno avrebbe valutato un custom loop :fagiano:

FE per Fancoil Edition

che sia una nuova gloriosa Geforce FX5800?

https://i.postimg.cc/NMtCJkMc/new-novideo-fancoil-unit2.png

speriamoche a sto giro AMD ne approffitti e non si butti la zappa sui piedi come solo lei sa fare

Questa è fantastica hahahahahahah

Inviato dal mio iPhone X utilizzando Tapatalk

maxmix65
23-08-2020, 12:09
"It is recommended to use a power supply rated 850 W or higher with this cable."

Quindi se lo mettono su tutte le FE, anche sulla 3080 bisogna capire che il requisito minimo sara' 850W? :eekk:
Io non ho problemi (e punto sulla 3080) ma LOL

E pensare che su vari canali Telegram mi rompevano le palle quando gli dicevo di acquistare a parita' di costi /componenti l'alimentatore con piu' watt possibile ahahaha
Ora vediamo che si inventano.... gente che consiglia un 500- 550w seasonic o altra marca top rispetto ad un gold di ottima fattura 750w-850w allo stesso prezzo del 550w

Thunder-74
23-08-2020, 12:11
E pensare che su vari canali Telegram mi rompevano le palle quando gli dicevo di acquistare a parita' di costi /componenti l'alimentatore con piu' watt possibile ahahaha
Ora vediamo che si inventano.... gente che consiglia un 500- 550w seasonic o altra marca top rispetto ad un gold di ottima fattura 750w-850w allo stesso prezzo del 550w


Io ho sempre sostenuto di stare larghi e lavorare al 50 x 100 del carico massimo ... concorso con te


Inviato dal mio iPhone X utilizzando Tapatalk

maxmix65
23-08-2020, 12:21
Io ho sempre sostenuto di stare larghi e lavorare al 50 x 100 del carico massimo ... concorso con te


Inviato dal mio iPhone X utilizzando Tapatalk

a partita' di prezzo-qualita' prendo sempre quello piu' potente..
Infatti a casa ho due 1000w ed un 1200w

mikael84
23-08-2020, 12:23
che schifo però...praticamente a pari watt in raster quanto recupera su una 2080ti la 3080 10%? in rt arriviamo al 50% altro che 2x 45tf to 67tf

la 2080ti FE a medie di 1740 circa su 4k, senza toccarla, la 3080 è da vedere a 260watt circa.
Tieni presente che il chip, sarà denso di cache (almeno 12mb)

Sul RT, se come dici, era tutto giusto, lo devono essere anche i miei calcoli. Quindi, si in questo caso 50% tra 2080ti e 3080, ma oltre il 100% tra 2080 liscia e 3080:)
Devo declassare in parte la 3070ti, che a soli 2ghz starebbe sulle 48/50.
Avevo tirato 2,2.
Questo dovrebbe essere anche il riferimento per RDNA2, non la 2080.




Ma sulla 3080 FE ci starebbe un 8pin +6pin no?
In fondo mica e' una versione multifase Ultra overcloccata abbestia :O
Cosi' gli AIB potranno proporre il classico 2x 8pin su quasi tutte le 3080 e inferiori.

Ma ho il dubbio che non la fanno cosi' neanche la 3080 :fagiano:

OT:
Se qualcuno sta cercando di acquistare un buon ali che aspetti, fra un po' ci saranno a centinaia sul mercatino :asd:

La 3080 FE, è una 3090 tagliuzzata, martoriata, devastata, ma sempre si basa su quel chip, quindi prepara l'adattatore da 400watt.:sofico:

Andy1111
23-08-2020, 12:24
Io ho sempre sostenuto di stare larghi e lavorare al 50 x 100 del carico massimo ... concorso con te


Inviato dal mio iPhone X utilizzando Tapatalk

che poi nel calcolo dell'ali si dovrebbe inserire anche i consumi di ventole del case e lucine varie se le hanno

Spytek
23-08-2020, 12:30
Visto che il chip è lo stesso,gli costa troppo non castrarla?:D

mikael84
23-08-2020, 12:34
E a questo giro c ho preso anch io quando dicevo che molti avranno dovuto cambiare ali e qualcuno avrebbe valutato un custom loop :fagiano:



Hai visto perchè odiavo questo PP.:p
Beh, cambiare no, ma sicuramente ALI di 10 anni fa, seppur potenti, andranno rivisti. Chi ha dei 1000 di buona qualità, si compra il cavetto e via.

Come avevo detto in un altro post, con forti carichi visibili solo all'oscilloscopio, c'è il rischio che alcuni crolli possano spegnere il PC (vari crolli sotto 11,4v), perchè quei crolli fanno impazzire i condensatori.

Sul custom loop si, con un 20% di PL sei a 420watt, ed ovviamente non ci sarà spazio per custom low cost (della serie almeno), ma solo premium, AIO o via dicendo.:)

maxmix65
23-08-2020, 12:48
Hai visto perchè odiavo questo PP.:p
Beh, cambiare no, ma sicuramente ALI di 10 anni fa, seppur potenti, andranno rivisti. Chi ha dei 1000 di buona qualità, si compra il cavetto e via.

Come avevo detto in un altro post, con forti carichi visibili solo all'oscilloscopio, c'è il rischio che alcuni crolli possano spegnere il PC (vari crolli sotto 11,4v), perchè quei crolli fanno impazzire i condensatori.

Sul custom loop si, con un 20% di PL sei a 420watt, ed ovviamente non ci sarà spazio per custom low cost (della serie almeno), ma solo premium, AIO o via dicendo.:)

Io ho questo cooler master silent pro 1000w gold (anche se vecchiotto)
ci tenevo 3 gtx 570 supercloccate e cpu cloccata e si e' spento solo a 1295w hahaah
non penso abbia problemi con una 3000

TigerTank
23-08-2020, 13:12
Sono quasi sicuro lo inseriranno nel bundle delle schede.
E spero riguardi la 3090 che scarterei a priori.
Resta il fatto che l’adattatore è un cesso!
L’ho detto in precedenza?? :rolleyes:

Che poi magari lo devi comprare lo stesso perchè quello incluso non c'entra nulla con il kit di cavi sleevati che usi o peggio...ne mettono senza cavi sleevati :D

Nvidia ha fatto un casino a sto giro per via di sto PP.
Quell'adattatore non è in specifica, ha standard diversi, non è un normale 2x8 pin.
Praticamente a 6 ampere porta 432 watt teorici (magari verrà settato a 400) contro i 300w (anch'essi in parte teorici) + pci express.
In pratica porta a 475-500watt il tutto.

Attualmente è stato utilizzato solo in test da nvidia, e la cosa dovrà essere gestita dai produttori di ALI probabilmente.:)

Veramente...da vedere assolutamente il quadro completo e augurandoci che le custom(o anche le references dei modelli inferiori) mantengano le solite connessioni.
Dover ricorrere ad un adattatore o peggio che venisse consigliato un alimentatore ottimizzato con connettore nativo non esisterebbe proprio. L'ali lo cambio solo quando quello che già possiedo inizia ad avere problemi.

FE per Fancoil Edition

che sia una nuova gloriosa Geforce FX5800?

https://i.postimg.cc/NMtCJkMc/new-novideo-fancoil-unit2.png

speriamoche a sto giro AMD ne approffitti e non si butti la zappa sui piedi come solo lei sa fare

Stupenda, mi ricorda un pò il ventolone delle mia pompa di calore casalinga :sofico:

OvErClOck82
23-08-2020, 13:19
io mi gioco una palla (tanto ne ho 3) che ANCHE a sto giro nvidia gli caca in testa a AMD, ma non solo in prestazioni, proprio per il solito motivo, pigli una amd, sei convinto di essere pure furbo perchè hai speso meno e hai pari prestazioni (da quello che hai visto su internette) ma al tempo stesso cominci a bruciarti il culo per quella sensazione del perchè non fanno tutti così se è tanto semplice. Arivi a casa, attacchi la vga e accendi il pc. Installi i driver e ti disisnstalla i driver del chipset, e non te ne eaccorgi, quindi installi i driver video e crasha per la prima settimana. poi quando non crasha fa un rumore infernale, gli oem fanno a gara a fare le schede peggiori per amd, tutte no scempio di plastica e metalli, era meglio fare bibratori. alla fine vai al bar e te dicono, come va la nuova amd? e te ne torni a casa con la coda tra le spalle e manco ubriaco, agiocare a scaldare la stanza con i benchmark sulla tua nuova AMD.

Che schifoFa male il caldo eh ? :asd:

Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk

Jeetkundo
23-08-2020, 13:28
Io ho un Corsair 850w 80plus gold, spero che basti per una 3080... mi pare assurdo dover comprare un 1000w, così arriviamo a consumi da stufette elettriche (quelle con la luce arancione) che si usano d'inverno :D

Inviato dal mio LYA-L09 utilizzando Tapatalk

Acme
23-08-2020, 13:36
FE per Fancoil Edition

che sia una nuova gloriosa Geforce FX5800?

https://i.postimg.cc/NMtCJkMc/new-novideo-fancoil-unit2.png

speriamoche a sto giro AMD ne approffitti e non si butti la zappa sui piedi come solo lei sa fare

Bella la foto, ma il paragone è improprio.
La 5800 era pessima a prescindere del consumo con prestazioni imbarazzanti confronto ad ATI, la 3090 probabilmente resterà al vertice della categoria per almeno 2 anni.

IMHO

Acme
23-08-2020, 13:46
ti basta pure l'LC power da 650W che consigliano nel thread delle configurazioni complete, su una 5700XD che consuma come le troie di satana. Una cosa che più schifo non poteva fare ad esempio era la mia 5700XD red devil, ventole fatte con gli ombrellini del Bloody Mary, sapevano da pomodoro anche, non ti dico. Sembrava ti stessero tagliando i capelli con il rasoio elettrico, prtaticamente giocavi dal parrucchiere.
Invidia non fa schifo come con le altre là, non temete nache se consuma 600watt va come una scheda da 600w e ciaone marea marrone

Grazie, mi hai strappato un sorriso col tuo commento colorito.

maxmix65
23-08-2020, 13:55
Vi state massacrando la testa, basterá giocare con le curve in uv e 400w non li vedrete mai, cosi come con 2080ti.

Una volte trovato lo sweet spot con questo pp (0.9v??) risparmierete parecchi watt.


Chi overvlocca e da uv su queste schede in faily use (da pascal in poi) é meglio che cambi passione..
Sulla Lightining ci andavo vicino fidati

Epeorus
23-08-2020, 13:57
Che poi a che minchia serve?.... non potevano fare le solite 2 porte da 8 pin e bon, visto che ci vanno collegate quelle, all'adattatore?...

Si, ma nell'articolo c'è anche scritto che quell'adattatore servirà solo per le FE mentre le customizzate continueranno ad utilizzare quelli da 8 e 6 pin....

maxmix65
23-08-2020, 14:11
Si, ma nell'articolo c'è anche scritto che quell'adattatore servirà solo per le FE mentre le customizzate continueranno ad utilizzare quelli da 8 e 6 pin....

Si ma penso che con un 550w anche se di marca ci fai poco e sai quanti ce l'hanno:D

thunderforce83
23-08-2020, 14:13
ti basta pure l'LC power da 650W che consigliano nel thread delle configurazioni complete, su una 5700XD che consuma come le troie di satana. Una cosa che più schifo non poteva fare ad esempio era la mia 5700XD red devil, ventole fatte con gli ombrellini del Bloody Mary, sapevano da pomodoro anche, non ti dico. Sembrava ti stessero tagliando i capelli con il rasoio elettrico, prtaticamente giocavi dal parrucchiere.
Invidia non fa schifo come con le altre là, non temete nache se consuma 600watt va come una scheda da 600w e ciaone marea marrone

con questo hai massacrato tutte le convinzioni di molti seguaci amd:D
purtroppo e' vero, a sto giro ampere secondo me fara' amplaine e distruggera' tutte le schede amd dala 3070 in su,nonostante un PP molto meno vantaggioso...sono anni che amd e' morta e sepolta e purtroppo per noi non esiste concorrenza,sono d'accordo con te, ma vediamo cosa tira fuori adesso...sara' la volta buona che si redime dalle figuracce fatte in questi anni? vedremo:)

Epeorus
23-08-2020, 14:15
Si ma penso che con un 550w anche se di marca ci fai poco e sai quanti ce l'hanno:D

Io ho un seasonic gold da 750 watt, per la 3070/ti dovrebbe bastare....:D

Ale55andr0
23-08-2020, 14:29
Fa male il caldo eh ? :asd:

Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk

Basta segnalare ;)

Spytek
23-08-2020, 14:31
con questo hai massacrato tutte le convinzioni di molti seguaci amd:D
purtroppo e' vero, a sto giro ampere secondo me fara' amplaine e distruggera' tutte le schede amd dala 3070 in su,nonostante un PP molto meno vantaggioso...sono anni che amd e' morta e sepolta e purtroppo per noi non esiste concorrenza,sono d'accordo con te, ma vediamo cosa tira fuori adesso...sara' la volta buona che si redime dalle figuracce fatte in questi anni? vedremo:)
Mi auguro che non faccia come Vega,altrimenti occorrerà aspettare Intel come nuova concorrenza...

mikael84
23-08-2020, 14:45
Io ho questo cooler master silent pro 1000w gold (anche se vecchiotto)
ci tenevo 3 gtx 570 supercloccate e cpu cloccata e si e' spento solo a 1295w hahaah
non penso abbia problemi con una 3000

Stai tranquillo, ma non significa nulla.
Dipende tutto dalla salute dei condensatori secondari.
Se questi hanno perso efficienza, puoi avere anche 3 kw, che se non riescono a gestire continue e martellanti oscillazioni sotto 11,4v, il PC ti si spegne.
Potrebbe essere un problema anche per chi ha le singole linee.

Ovviamente, non farti problemi.;)



Veramente...da vedere assolutamente il quadro completo e augurandoci che le custom(o anche le references dei modelli inferiori) mantengano le solite connessioni.
Dover ricorrere ad un adattatore o peggio che venisse consigliato un alimentatore ottimizzato con connettore nativo non esisterebbe proprio. L'ali lo cambio solo quando quello che già possiedo inizia ad avere problemi.



Caro Tiger, ti do due info.:p
La specifica è test nvidia, ora sta agli ALI. I nuovi magari lo integrano o te lo inviano.
I cavi, se li devi comprare tu, non sono tanto economici.
Quelli economici, sono gli AWG20. e sono quelli standard da 0,81 e non possono trasportare oltre 2/4 A, altrimenti le alte temperature gli squagliano.

Questo 12 pin equivale ad un 3x8 pin praticamente, in quanto, non adotta quello standard, ma cavi più spessi da 1,29 capaci di 6/8 A, ed a costi, sono ben superiori.:)


Vi state massacrando la testa, basterá giocare con le curve in uv e 400w non li vedrete mai, cosi come con 2080ti.

Una volte trovato lo sweet spot con questo pp (0.9v??) risparmierete parecchi watt.



Samsung di base parte con 0,05v in più;)

scorpion73
23-08-2020, 15:00
FE per Fancoil Edition

che sia una nuova gloriosa Geforce FX5800?

https://i.postimg.cc/NMtCJkMc/new-novideo-fancoil-unit2.png

speriamoche a sto giro AMD ne approffitti e non si butti la zappa sui piedi come solo lei sa fare

3090 Full JHH Black Jacket Edition :asd: :asd:

thunderforce83
23-08-2020, 15:03
Mi auguro che non faccia come Vega,altrimenti occorrerà aspettare Intel come nuova concorrenza...

esattamente...un tostapane dietro l'altro..schede che manco come muletto vanno bene che consumano uno sfacelo:D ma d'altronde amd con le cifre ridicole che investe su ricerca e sviluppo rispetto a nvidia e con quei 4 ingegneri magari pure vecchi e stanchi e' normale che sta facendo pena da anni ed anni...


speriamo su intel,su huawei, su babbo natale...speriamo bene che qui tra poco per la prossima 4070 tocchera' cacciare 1000 euro:D

NAP.
23-08-2020, 15:12
Io credo sia tutto rapportato, chi compra una scheda da 1500 euro non lo fa certo per badare ai consumi, e chi compra una scheda da 1500 euro può anche permettersi consumi maggiori sulla bolletta elettrica, è ridicolo scegliere il top delle performance e aspettarsi di consumare quanto una mid range è un controsenso. L'unica cosa da vedere è il prezzo in relazione alle performance, la 2080ti è stata troppo sbilanciata in tal senso, rispetto alla 2080 liscia aveva un prezzo troppo più alto rispetto a quest'ultima per un guadagno di prestazioni non certo in linea, si spera che a sto giro il rapporto sia migliore così che abbia più senso scegliere tra l'una e l'altra, quando mi sono trovato a decidere tra le 2 ho ritenuto che l'impresa di prendere la 2080ti non valesse la spesa rispetto alla 2080 liscia ed ho optato per quest'ultima, anche perché io non compro mai giochi nuovi a prezzo pieno, li compro semore e solo quando scendono a 10euro o giù di li, quindi prevalentemente giochi vecchi, vediamo davvero i guadagni che avrà Ampere rispetto a Turing, io al 60% upgrado all'arrivo di Hopper, ritengo abbia più senso

NAP.
23-08-2020, 15:17
esattamente...un tostapane dietro l'altro..schede che manco come muletto vanno bene che consumano uno sfacelo:D ma d'altronde amd con le cifre ridicole che investe su ricerca e sviluppo rispetto a nvidia e con quei 4 ingegneri magari pure vecchi e stanchi e' normale che sta facendo pena da anni ed anni...





speriamo su intel,su huawei, su babbo natale...speriamo bene che qui tra poco per la prossima 4070 tocchera' cacciare 1000 euro:DIo non la vedrei così drastica, con RDNA AMD sta iniziando un nuovo percorso di avvicinamento, ci sono buoni margini che la porteranno vicino a nVidia nei orossimi anni secondo me, così come sta avvenendo nel settore CPU, ci è voluto Zen2 ma la gente sta incominciando ad orientarsi verao AMD molto più di prima e potrebbe ritagliarsi la sua fetta anche nel settore GPU, il futuro si prospetta molto interessante in questo settore vista anche l'entrata di Intel, staremo a vedere

thunderforce83
23-08-2020, 15:25
Io non la vedrei così drastica, con RDNA AMD sta iniziando un nuovo percorso di avvicinamento, ci sono buoni margini che la porteranno vicino a nVidia nei orossimi anni secondo me, così come sta avvenendo nel settore CPU, ci è voluto Zen2 ma la gente sta incominciando ad orientarsi verao AMD molto più di prima e potrebbe ritagliarsi la sua fetta anche nel settore GPU, il futuro si prospetta molto interessante in questo settore vista anche l'entrata di Intel, staremo a vedere

ma infatti vedremo dai...dico solo che e' dalla mia vecchia r390 che avevo che amd ha cacciato uno schifo dietro l'altro..prezzato carissimo e un vero cesso a performance...se ci penso nvidia ha veramente messo la sesta e strasuperata e stracciata amd su tutti i fronti...adesso vedremo,sono sempre speranzoso in una amd competitiva e che riprende terreno, ma se vedo il gap che ha con nvidia non saprei...comuque ci speriamo tutti perche' serve concorrenza altrimenti jhh oltre alla giacca di pelle umana si fara' pure pantaloni scarpe e cappello :D :sofico:

mircocatta
23-08-2020, 15:30
troppo divertente questo thread

FaTcLA
23-08-2020, 15:30
ma infatti vedremo dai...dico solo che e' dalla mia vecchia r390 che avevo che amd ha cacciato uno schifo dietro l'altro..prezzato carissimo e un vero cesso a performance...se ci penso nvidia ha veramente messo la sesta e strasuperata e stracciata amd su tutti i fronti...

Oltre al bianco e nero a questo mondo esistono molte sfumature di grigio ;)

NAP.
23-08-2020, 15:43
ma infatti vedremo dai...dico solo che e' dalla mia vecchia r390 che avevo che amd ha cacciato uno schifo dietro l'altro..prezzato carissimo e un vero cesso a performance...se ci penso nvidia ha veramente messo la sesta e strasuperata e stracciata amd su tutti i fronti...adesso vedremo,sono sempre speranzoso in una amd competitiva e che riprende terreno, ma se vedo il gap che ha con nvidia non saprei...comuque ci speriamo tutti perche' serve concorrenza altrimenti jhh oltre alla giacca di pelle umana si fara' pure pantaloni scarpe e cappello :D :sofico:
Lo spero anche io, parli con uno che prima era fan Ati, l'ultima scheda pero' l'ho avuta nel 2012, una HD7970 (top di gamma pagata 472Euro :cry: bei tempi sigh)

Andy1111
23-08-2020, 16:32
edit

redbaron
23-08-2020, 16:37
Sono ore che se ne parla ;)

Andy1111
23-08-2020, 16:46
Sono ore che se ne parla ;)

vero scusa mi era sfuggito

OrazioOC
23-08-2020, 16:46
ma infatti vedremo dai...dico solo che e' dalla mia vecchia r390 che avevo che amd ha cacciato uno schifo dietro l'altro..prezzato carissimo e un vero cesso a performance...se ci penso nvidia ha veramente messo la sesta e strasuperata e stracciata amd su tutti i fronti...adesso vedremo,sono sempre speranzoso in una amd competitiva e che riprende terreno, ma se vedo il gap che ha con nvidia non saprei...comuque ci speriamo tutti perche' serve concorrenza altrimenti jhh oltre alla giacca di pelle umana si fara' pure pantaloni scarpe e cappello :D :sofico:

C'è un motivo se la 970 è stata stravenduta, la concorrente diretta c'era ma tolta la vram era peggiore in tutto.

Spytek
23-08-2020, 16:47
Ma è marketing per far guadagnare anche alle case costruttrici degli alimentatori?
Dai,non si possono vedere tre connettori a 8 pin.
Nvidia,abbassa il processo produttivo che le bistecchiere le vogliamo evitare :D

TigerTank
23-08-2020, 16:54
Caro Tiger, ti do due info.:p
La specifica è test nvidia, ora sta agli ALI. I nuovi magari lo integrano o te lo inviano.
I cavi, se li devi comprare tu, non sono tanto economici.
Quelli economici, sono gli AWG20. e sono quelli standard da 0,81 e non possono trasportare oltre 2/4 A, altrimenti le alte temperature gli squagliano.

Questo 12 pin equivale ad un 3x8 pin praticamente, in quanto, non adotta quello standard, ma cavi più spessi da 1,29 capaci di 6/8 A, ed a costi, sono ben superiori.:)


Siamo a posto!
Già che ci siamo, per sicurezza alziamo eventualmente il limite del contratto energetico di casa(io ho già la 4,5kW) :asd: :ciapet:

devAngnew
23-08-2020, 16:57
Ma è marketing per far guadagnare anche alle case costruttrici degli alimentatori?
Dai,non si possono vedere tre connettori a 8 pin.
Nvidia,abbassa il processo produttivo che le bistecchiere le vogliamo evitare :D

Ma perché parlate di 3 connettori da 8 se nell'immagine il nuovo connettore da 12 ne usa 2 da 8 PIN :rolleyes:

NAP.
23-08-2020, 17:00
Ma perché parlate di 3 connettori da 8 se nell'immagine il nuovo connettore da 12 ne usa 2 da 8 PIN :rolleyes:

sinceramente tanto clamore per nulla e' semplicemente una soluzione per ridurre lo spazio sul pcb ma alla fine il power draw e' sempre di 2 da 8 pin

Giovamas
23-08-2020, 17:03
"It is recommended to use a power supply rated 850 W or higher with this cable."

Quindi se lo mettono su tutte le FE, anche sulla 3080 bisogna capire che il requisito minimo sara' 850W? :eekk:
Io non ho problemi (e punto sulla 3080) ma LOL

neppure io ma è assurda questa cosa---:rolleyes:

Andy1111
23-08-2020, 17:05
sinceramente tanto clamore per nulla e' semplicemente una soluzione per ridurre lo spazio sul pcb ma alla fine il power draw e' sempre di 2 da 8 pin

non è proprio così

https://www.hwupgrade.it/forum/showpost.php?p=46933275&postcount=50547

https://www.hwupgrade.it/forum/showpost.php?p=46933107&postcount=50529

https://www.hwupgrade.it/forum/showpost.php?p=46933034&postcount=50513

Praticamente a 6 ampere porta 432 watt teorici (magari verrà settato a 400) contro i 300w (anch'essi in parte teorici) + pci express.
In pratica porta a 475-500watt il tutto.

mikael84
23-08-2020, 17:12
Siamo a posto!
Già che ci siamo, per sicurezza alziamo eventualmente il limite del contratto energetico di casa(io ho già la 4,5kW) :asd: :ciapet:

Da una vita ce l'ho, ma per i climatizzatori.:p

Ma perché parlate di 3 connettori da 8 se nell'immagine il nuovo connettore da 12 ne usa 2 da 8 PIN :rolleyes:

sinceramente tanto clamore per nulla e' semplicemente una soluzione per ridurre lo spazio sul pcb ma alla fine il power draw e' sempre di 2 da 8 pin

L'ho detto prima, non sono i cavi standard 2x8pin AWG20 da 2/4A.
I cavi da 6 ed 8pin tradizionali sono a bassa specifica per evitare surriscaldamenti.

Questo cavo è stato strutturato per trasportare più Ampere, e può essere tarato a 6 Ampere 432watt, 8A 576 e 612 a 8,5A.
Verrà tarato a 400w circa su 432, senza che surriscaldi.

Con i cavi standard se il PL è il 20%, vai a 420watt, troppo per due connettori da 8 standard.

Thunder-74
23-08-2020, 17:14
sinceramente tanto clamore per nulla e' semplicemente una soluzione per ridurre lo spazio sul pcb ma alla fine il power draw e' sempre di 2 da 8 pin


In realtà no. Due cavi da 8 pin portano 300w (in realtà qualcosa di più , 300 in sicurezza) . Il connettore da 12pin può arrivare fino a 648w teorici (9A x sei pin da 12v) . Inoltre sulle custom ci sarebbero difatti tre connettori da 8 pin come era emerso dal pcb pubblicato, quindi 450w . Non vorrei che quel adattatore sia molto sollecitato in caso di oc. Io preferirei una custom con 3 connettori da 8

https://www.lafabbricadelpc.net/un-nuovo-connettore-da-12-pin-per-le-gpu-ampere/

Inviato dal mio iPhone X utilizzando Tapatalk

OrazioOC
23-08-2020, 17:16
Siamo a posto!
Già che ci siamo, per sicurezza alziamo eventualmente il limite del contratto energetico di casa(io ho già la 4,5kW) :asd: :ciapet:

Nvidia sta semplicemente dicendo tra le righe alla gente "Compra la 3080 se vuoi il top ma non te la senti".:rolleyes:

amon.akira
23-08-2020, 17:17
https://pbs.twimg.com/media/EgG193GWkAEO4y-?format=jpg&name=large

NVIDIA 12-Pin PCIe Molex Micro-Fit 3.0 (above) vs 2x 8-Pin (below)

sembra sia anche piu piccolo

Spytek
23-08-2020, 17:18
Quindi 3 connettori a 8 pin obbligati su Pcb perchè si superano le 300w di assorbimento?

Spytek
23-08-2020, 17:19
Ma perché parlate di 3 connettori da 8 se nell'immagine il nuovo connettore da 12 ne usa 2 da 8 PIN :rolleyes:
Perchè parlavo dei connettori su Pcb,non dell’adattatore.

mikael84
23-08-2020, 17:31
In realtà no. Due cavi da 8 pin portano 300w (in realtà qualcosa di più , 300 in sicurezza) . Il connettore da 12pin può arrivare fino a 648w teorici (9A x sei pin da 12v) . Inoltre sulle custom ci sarebbero difatti tre connettori da 8 pin come era emerso dal pcb pubblicato, quindi 450w . Non vorrei che quel adattatore sia molto sollecitato in caso di oc. Io preferirei una custom con 3 connettori da 8

https://www.lafabbricadelpc.net/un-nuovo-connettore-da-12-pin-per-le-gpu-ampere/

Inviato dal mio iPhone X utilizzando Tapatalk

E' strutturato apposta, attualmente si usano i cavi più piccoli come standard da 0.81, ma a questi cavi gli hanno abbassato "l'amperaggio", perchè a tot gradi riscaldano.
Quindi le GPU con 3 x 8 pin devono ben ripartire questi cavetti, magari con tot fasi a connettore.
Generalmente sono 2 x 144w.

Però esistono vari cavi di diametro più grande, che possono trasportare più ampere, come quelli da 1,2 o 1,29.
in questi cavi, riesci a far passare meglio gli ampere.

6 Ampere non è tanto, sono 216watt per connettore da 8.:)

Thunder-74
23-08-2020, 17:35
E' strutturato apposta, attualmente si usano i cavi più piccoli come standard da 0.81, ma a questi cavi gli hanno abbassato "l'amperaggio", perchè a tot gradi riscaldano.
Quindi le GPU con 3 x 8 pin devono ben ripartire questi cavetti, magari con tot fasi a connettore.
Generalmente sono 2 x 144w.

Però esistono vari cavi di diametro più grande, che possono trasportare più ampere, come quelli da 1,2 o 1,29.
in questi cavi, riesci a far passare meglio gli ampere.

6 Ampere non è tanto, sono 216watt per connettore da 8.:)


Scusa Mike non ho capito.. il connettore porta 6 cavi da 12v x 9A ... teorici 648W... dici che non porteranno 9A come si vocifera ?


Inviato dal mio iPhone X utilizzando Tapatalk

FrancoBit
23-08-2020, 17:38
Be' scusate però se sta storia del connettore sarà vera mi suona un po' come una c@ppella di Nvidia. Io sto alla finestra e vedrò un po' le vostre impressioni prima di sgangiare i dané, questo è certo. Azzo ho tutti i cavi cable mod belli belli cheddiamine. Con l'alimentatore sono giusto giusto -.-

Inviato dal mio Mi 9 SE utilizzando Tapatalk

Spytek
23-08-2020, 17:42
6 Ampere non è tanto, sono 216watt per connettore da 8.:)
Quindi se si disponesse del cavo con corretta sezione si riuscirebbero a trasportare 12A su due connettori da 8 pin e 512W teorici?
Dal momento che i cavi degli alimentatori attuali sono di piccola sezione,Nvidia ha pensato “bene” di ripartire il carico utilizzando 3 connettori da 8 pin con utilizzo dell’adattatore?

FrancoBit
23-08-2020, 17:44
Aggiungo soltanto che in questo caso il nome dei nuovi modelli "ampere" spiega benissimo le caratteristiche delle nuove schede

Inviato dal mio Mi 9 SE utilizzando Tapatalk

Thunder-74
23-08-2020, 17:45
Aggiungo soltanto che in questo caso il nome dei nuovi modelli "ampere" spiega benissimo le caratteristiche delle nuove schede

Inviato dal mio Mi 9 SE utilizzando Tapatalk


Sarà sicuramente un meme


Inviato dal mio iPhone X utilizzando Tapatalk

mikael84
23-08-2020, 18:01
Scusa Mike non ho capito.. il connettore porta 6 cavi da 12v x 9A ... teorici 648W... dici che non porteranno 9A come si vocifera ?


Inviato dal mio iPhone X utilizzando Tapatalk

Un cavo può trasportare molti A, il problema è che surriscaldano.
Questo cavo può portare 9A, però bisogna vedere a che condizioni, quindi verrà tarato a 6A.
Con i classici dopo 2/4A da 0,81, dopo tot A surriscaldano, altrimenti un cavo da 8 pin puoi farci passare anche 360watt.

Ad esempio il cavo da 6 a 2 ampere da specifica AWG porta 72watt (75 dichiarato), ma le GPU a livello di fasi vengono strutturate per allocargli pochissima corrente, per evitare di farlo surriscaldare.

Quindi se si disponesse del cavo con corretta sezione si riuscirebbero a trasportare 12A su due connettori da 8 pin e 512W teorici?
Dal momento che i cavi degli alimentatori attuali sono di piccola sezione,Nvidia ha pensato “bene” di ripartire il carico utilizzando 3 connettori da 8 pin con utilizzo dell’adattatore?

Si, solo che i classici cavi surriscaldano.
E' come se fossero 3 cavi da 4Ampere.:)

NAP.
23-08-2020, 18:04
Vabbe' si e' capito, fortunatamente io sono "pronto" visto che ho un 850 platinum, ma tanto 1500£ per una 3090 non li spendo, specie dopo i 6 mesi di covid che mi hanno ridotto il salario all'osso

devAngnew
23-08-2020, 18:07
Appurato che queste ampere faranno rimpiangere le GTX 480 :sofico: resta da confermare la presenza del traversal chip e siamo a posto :asd:

Spytek
23-08-2020, 18:17
Appunto,sicuro si chiamano Ampere e non Fermi Ampere? :asd:

Thunder-74
23-08-2020, 18:18
Un cavo può trasportare molti A, il problema è che surriscaldano.
Questo cavo può portare 9A, però bisogna vedere a che condizioni, quindi verrà tarato a 6A.
Con i classici dopo 2/4A da 0,81, dopo tot A surriscaldano, altrimenti un cavo da 8 pin puoi farci passare anche 360watt.

Ad esempio il cavo da 6 a 2 ampere da specifica AWG porta 72watt (75 dichiarato), ma le GPU a livello di fasi vengono strutturate per allocargli pochissima corrente, per evitare di farlo surriscaldare.



Si, solo che i classici cavi surriscaldano.
E' come se fossero 3 cavi da 4Ampere.:)


Ok , quindi dal connettore a 12pin, potremmo attenderci un erogazione di 432w se bloccato a 6A, del tutto in linea con 3 connettori da 8 pin... io andrò di custom, se dovessi mai optare per una 3090 :fagiano:


Inviato dal mio iPad utilizzando Tapatalk

Spytek
23-08-2020, 18:23
io andrò di custom, se dovessi mai optare per una 3090 :fagiano:
Ma a questo punto anche le 3090 Custom avrebbero 3 connettori da 8 Pin...
Stando a quello che si è scritto nei post precedenti ,la ripartizione del carico di A è dovuto alla bassa sezione dei cavi degli attuali alimentatori che scalderebbero troppo;di qui la ripartizione del carico su 3 connettori posti sul Pcb della scheda.

Ubro92
23-08-2020, 18:24
Post turing penso che nvidia farà un preordine con l'anticipo di 2 anni sui 5nm per evitare che amd faccia razzia di tutta la produzione :fagiano:

Gli 8nm hanno dato una bella batosta...

Sarebbe il colmo se AMD non proponesse nulla di valido in concorrenza alla 3080 con un PP di vantaggio.

Andy1111
23-08-2020, 18:30
Post turing penso che nvidia farà un preordine con l'anticipo di 2 anni sui 5nm per evitare che amd faccia razzia di tutta la produzione :fagiano:

Gli 8nm hanno dato una bella batosta...

Sarebbe il colmo se AMD non proponesse nulla di valido in concorrenza alla 3080 con un PP di vantaggio.

Veramente l'ha già fatto insieme ad amd e anche intel per le vga

https://wccftech.com/tsmc-5nm-products-leaked-amd-zen-4-cpus-rdna3-gpus-nvidia-hopper-and-potentially-an-intel-xe-gpu/

Ubro92
23-08-2020, 18:32
Veramente l'ha già fatto insieme ad amd e anche intel per le vga

https://wccftech.com/tsmc-5nm-products-leaked-amd-zen-4-cpus-rdna3-gpus-nvidia-hopper-and-potentially-an-intel-xe-gpu/

Ottimo :sofico:

ilcose
23-08-2020, 18:38
Veramente l'ha già fatto insieme ad amd e anche intel per le vga

https://wccftech.com/tsmc-5nm-products-leaked-amd-zen-4-cpus-rdna3-gpus-nvidia-hopper-and-potentially-an-intel-xe-gpu/


Mamma mia che salto che sarà Ampere->Hopper.... MCM + 5nm. Povera 3090. 1500 e passa euro vanno in fumo come nulla.


Inviato dal mio iPad utilizzando Tapatalk

Ton90maz
23-08-2020, 18:48
C'è un motivo se la 970 è stata stravenduta, la concorrente diretta c'era ma tolta la vram era peggiore in tutto.Finchè non era venuto fuori il freesync e la 970 te la potevi tirare sulla dentiera. Anche con l'apertura delle nobilissima al freesync era rimasta esclusa.
Ma era migliore in... a pensarci bene in niente, a parte i consumi (che appena arriva ampere magicamente non conteranno più)

Mamma mia che salto che sarà Ampere->Hopper.... MCM + 5nm. Povera 3090. 1500 e passa euro vanno in fumo come nulla.


Inviato dal mio iPad utilizzando TapatalkCon turing abbiamo scherzato, mo beccatevi ampere, le schede definitive per il rt e il 4K. Spendete 1500 euro tranquilli.

Ah no scusate, intendevamo dire hopper. La vera generazione per cui è meglio spendere 1500-1800 euro.

Ah scusate, mo pure oppio è un catorcio, ora che i giochi sono tarati per girare a 1800-2160p dinamici e 30 fps su serie x (e col rt al minimo). Però state tranquilli, la next next next a 2000 euro sarà la generazione definitiva.





I soli tensor occupano 60mm2 ed 1,4mtransistor su un TU102, non mezzo chip.:p
Purtroppo nvidia utilizzando i tensor, ha deciso di non splittare le fp32 (come fa AMD o GP100), quindi gli usa pure per FP16 classiche, non a caso nelle 1660 sono tensor tagliuzzati.

Il problema di questi chip, almeno nell'uso raster sono i PP.
I tensor cmq, con Ampere avranno sempre più un ruolo, tanto in quella specie di PP di samsung non è che potevi occupare lo spazio tensor per mettere un'altro GPC. Anzi lo potevi fare, ma a 2100 ci volevano custom con 4x8 pin.:asd:Non è comunque trascurabile, ma non erano 90? Più 90 per la parte a bassa manovalanza stile turing lite?

mikael84
23-08-2020, 18:56
Appurato che queste ampere faranno rimpiangere le GTX 480 :sofico: resta da confermare la presenza del traversal chip e siamo a posto :asd:

Ecco questo ancora manca all'appello:p , e sono 3mtransistor, quasi una 1050ti.

Appunto,sicuro si chiamano Ampere e non Fermi Ampere? :asd:

Fermi l'hanno dovuto risistemare tramite le varie dispersioni dei transistor. GF110 non era male.
GF100, uno schifo (sopratutto il ref), ma a certi consumi neppure su furmark senza protezioni ci arrivava.:)

Ok , quindi dal connettore a 12pin, potremmo attenderci un erogazione di 432w se bloccato a 6A, del tutto in linea con 3 connettori da 8 pin... io andrò di custom, se dovessi mai optare per una 3090 :fagiano:


Inviato dal mio iPad utilizzando Tapatalk

Esatto, cambiano praticamente i teorici, 450 su 3x8 (ma son 432) e 432, che magari lo tareranno come 400.:)
Questo è da vedere, ma son dettagli.
Anche a 475 totali più pci express (anche questi teorici), ne hai di manovra...

ferro10
23-08-2020, 19:00
Finchè non era venuto fuori il freesync e la 970 te la potevi tirare sulla dentiera. Anche con l'apertura delle nobilissima al freesync era rimasta esclusa.

Ma era migliore in... a pensarci bene in niente, a parte i consumi (che appena arriva ampere magicamente non conteranno più

Bhe la 970 è invecchiata molto bene e ancora oggi in full HD è una scheda più che dignitosa.

La 970 consumava e scaldava decisamente meno della controparte amd a parità di prestazioni quindi è giusto che sia stata una gpu molto richiesta.



Inviato dal mio ELE-L29 utilizzando Tapatalk

mikael84
23-08-2020, 19:05
Mamma mia che salto che sarà Ampere->Hopper.... MCM + 5nm. Povera 3090. 1500 e passa euro vanno in fumo come nulla.


Inviato dal mio iPad utilizzando Tapatalk

A 5nm già turing sarebbe stato devastante.:)
Con MCM nvidia era in alto mare, ma se affinato può essere tanta roba (una piccola rivoluzione).
Potresti avere già 4608cc con una 4070.
4 stack piccolissimi.

Salvo non trovare qualche altro PP tarocco come questo.



Non è comunque trascurabile, ma non erano 90? Più 90 per la parte a bassa manovalanza stile turing lite?

85 contando tensor ed RT core (669/668mm2 con le fp32 splittate).
Altrimenti 70mm2 con i tensor riciclati in parte per fare FP16 (gtx 1660)
2,1/2,2mtransistor in raster che dormono.

Thunder-74
23-08-2020, 19:17
Ma a questo punto anche le 3090 Custom avrebbero 3 connettori da 8 Pin...
Stando a quello che si è scritto nei post precedenti ,la ripartizione del carico di A è dovuto alla bassa sezione dei cavi degli attuali alimentatori che scalderebbero troppo;di qui la ripartizione del carico su 3 connettori posti sul Pcb della scheda.


Esatto, meglio avere 3 connettori da 8 pin, che un adattatore da 12pin a due da 8pin :)


Inviato dal mio iPad utilizzando Tapatalk

Arrow0309
23-08-2020, 19:23
Esatto, meglio avere 3 connettori da 8 pin, che un adattatore da 12pin a due da 8pin :)


Inviato dal mio iPad utilizzando Tapatalk

Se serve tutta quella potenza ovviamente (3090 only)
Ma anche un 12pin se uno può cambiare l'ali.

NAP.
23-08-2020, 19:28
Cmq se davvero ha un tdp così alto credo che la 3090 avrà prestazioni quasi al raddoppio sulla 2080ti, non credete? Il fatto dello schedone enorne è cge nvidia si è trovata spiazzata dal non poterla produrre a 7nm e di lì ne è uscito sto mostro enorme ma credo che architetturalmente la scheda sia rimasta come pianificato, solo più grossa e con più power draw. Sono curioso di vedere le prestazioni ma mi sa che salto e aspetto hopper dove ci sarà la vera rivoluzione e ik Raytracing a portata di tutti

Thunder-74
23-08-2020, 19:36
Se serve tutta quella potenza ovviamente (3090 only)
Ma anche un 12pin se uno può cambiare l'ali.


Certo, il mio era un ragionamento fatto tenendo in considerazione l Ali attuale. Se uno deve cambiarlo, meglio aspettare un modello compatibile con questo attacco. Che poi è da vedere se anche lato psu avrà i 12 pin , ma credo di sì .

@NAP il consumo maggiore della 3090 sarà frutto anche dei 14gb in più rispetto alla 3080. Fra 8 giorni sapremo...


Inviato dal mio iPad utilizzando Tapatalk

Spytek
23-08-2020, 19:44
Cioè 8 giorni e sappiamo solo che sarà grande come una pietra di tufo?? :asd:

Thunder-74
23-08-2020, 19:59
Cioè 8 giorni e sappiamo solo che sarà grande come una pietra di tufo?? :asd:


Quello lo sappiamo già :)


Inviato dal mio iPad utilizzando Tapatalk

paolox86
23-08-2020, 20:12
Quello lo sappiamo già :)


Inviato dal mio iPad utilizzando Tapatalk


Mah, così gigante e di nome 3090... non è che ci rivogano una GA-104 x 2??

oZonoRobotics
23-08-2020, 20:24
Mamma mia che salto che sarà Ampere->Hopper.... MCM + 5nm. Povera 3090. 1500 e passa euro vanno in fumo come nulla.


Inviato dal mio iPad utilizzando Tapatalk

penso che l'unica differenza con il passato sia il prezzo delle vga perchè per il resto succede ad ogni generazione! e son sicuro che la prima generazione farà schifo e avrà tutti i problemi del mondo come tutte le prime generazioni di qualsiasi prodotto.


Cioè 8 giorni e sappiamo solo che sarà grande come una pietra di tufo?? :asd:

8 giorni e.... https://i.postimg.cc/SJL2GqRw/118006429-318535479395714-1670486851296685001-n.jpg (https://postimg.cc/SJL2GqRw)

Ubro92
23-08-2020, 20:40
Sai che scandalo:O :O :O 3 bei 8 pin su una founders, quindi un KPE (qualora ci fosse) avrá 2*12 pin LOL....

Si é passati dal singolo 8 pin della 1080 FE, al 12 pin (3x8) della 3080, come cambia il mondo XD é tutto questo perché hanno deciso di rifilare questi testoni di schede da pro (dei poveri) a tutti... ben prezzolate ovviamente..


LOL, qui siamo agli antipodi riguardo al pp, una bagnarola questo 8nm.


ecco rtx 3090 in unasu performance

https://www.youtube.com/watch?v=BLdXfFsgvkE&t=568s

ah, no scusate é la meno energivora Fermi..

Ci vuole coraggio per mangiarsi quell'uovo...

Comunque con queste schede é come avere fermi su 55nm, mentre Pascal é praticamente agli antipodi visto che ha fatto un radicale salto da 28nm a 16nm...

Inviato dal mio Redmi Note 4 utilizzando Tapatalk

TigerTank
23-08-2020, 20:41
Quello lo sappiamo già :)


Allora ci ho visto giusto a fare spazio nel case sostituendo la combo pompa+vaschetta accanto alla vga con una soluzione nei vani anteriori :sofico:
Ho giocato d'anticipo :asd:

Sai che scandalo:O :O :O 3 bei 8 pin su una founders, quindi un KPE (qualora ci fosse) avrá 2*12 pin LOL....

Si é passati dal singolo 8 pin della 1080 FE, al 12 pin (3x8) della 3080, come cambia il mondo XD é tutto questo perché hanno deciso di rifilare questi testoni di schede da pro (dei poveri) a tutti... ben prezzolate ovviamente..


LOL, qui siamo agli antipodi riguardo al pp, una bagnarola questo 8nm.


ecco rtx 3090 in unasu performance

https://www.youtube.com/watch?v=BLdXfFsgvkE&t=568s

ah, no scusate é la meno energivora Fermi..

Mal che vada si va di 3070. Prestazioni raster allineate ad una 2080 o un pizzico di più ma tutto un altro pianeta ad RT :asd:

Telstar
23-08-2020, 21:09
E pensare che su vari canali Telegram mi rompevano le palle quando gli dicevo di acquistare a parita' di costi /componenti l'alimentatore con piu' watt possibile ahahaha

Anche a me! Io da anni che sto largo con un buon 850W single rail che non ho intenzione di cambiare finché funziona.

Telstar
23-08-2020, 21:13
Io ho un Corsair 850w 80plus gold, spero che basti per una 3080... mi pare assurdo dover comprare un 1000w, così arriviamo a consumi da stufette elettriche (quelle con la luce arancione) che si usano d'inverno :D

Di che serie? Se AX(i) o HX(i) puoi stare tranquillo.
I consumi esatti della 3080 non si sanno ancora, ma se saranno superiori o anche solo pari alla 2080ti se la possono tenere in scaffale.

Telstar
23-08-2020, 21:18
Siamo a posto!
Già che ci siamo, per sicurezza alziamo eventualmente il limite del contratto energetico di casa(io ho già la 4,5kW) :asd: :ciapet:

:D :D :D
Io da 6Kw, ma per il piano a induzione che uso senza limitatori.

ultimate trip
23-08-2020, 21:18
Di che serie? Se AX(i) o HX(i) puoi stare tranquillo.
I consumi esatti della 3080 non si sanno ancora, ma se saranno superiori o anche solo pari alla 2080ti se la possono tenere in scaffale.

secondo te con l'ax 760 si comincia a stare un po' stretti con la 3080?

Telstar
23-08-2020, 21:24
secondo te con l'ax 760 si comincia a stare un po' stretti con la 3080?

No, secondo me ce la fa alla grande salvo una cpu intel htpe (e non è il tuo caso). Però io aspetterei i test o quantomeno le specifiche ufficiali.

TigerTank
23-08-2020, 21:28
Tiger io vengo da 2080ti, almeno la 3080 al vorrei dentro il mio case:sofico:

Sì era giusto una battuta per restare eventualmente entro connessioni di alimentazione "classiche" :sofico:

:D :D :D
Io da 6Kw, ma per il piano a induzione che uso senza limitatori.

Scherzi a parte speriamo di non tornare a questi tempi :D

https://logout.hu/dl/upc/2010-03/41989_grillforce.jpg

Spytek
23-08-2020, 21:39
Sai che scandalo:O :O :O 3 bei 8 pin su una founders, quindi un KPE (qualora ci fosse) avrá 2*12 pin LOL....

Si é passati dal singolo 8 pin della 1080 FE, al 12 pin (3x8) della 3080, come cambia il mondo XD é tutto questo perché hanno deciso di rifilare questi testoni di schede da pro (dei poveri) a tutti... ben prezzolate ovviamente..
.
Verissimo :asd:
Sti chipponi castrati che consumano pure uno sproposito :asd:
Certo che l’Hype è alle stelle :D
Ma a quando i primi bench? :D

ferro10
23-08-2020, 23:11
secondo te con l'ax 760 si comincia a stare un po' stretti con la 3080?Dipende dal resto del sistema ma sicuramente con un 750w sei tranquillo

Inviato dal mio ELE-L29 utilizzando Tapatalk

mikael84
23-08-2020, 23:21
Mal che vada si va di 3070. Prestazioni raster allineate ad una 2080 o un pizzico di più ma tutto un altro pianeta ad RT :asd:

Vai di più anche in raster.:)
in RT si, ma non aspettarti di devastare la 2080ti.:)
Via RT, la differenza shader si sente.

Tu però devi prendere almeno la 3080.

amon.akira
23-08-2020, 23:33
Vai di più anche in raster.:)
in RT si, ma non aspettarti di devastare la 2080ti.:)
Via RT, la differenza shader si sente.

Tu però devi prendere almeno la 3080.

alla fine una buona 2080ti custom se la gioca con una buona 3070/ti custom che costerà almeno 650€/700€ in caso di strix e simili ma con 8gb, quindi le 2080ti possono farsi altri 2anni di tutto rispetto

mikael84
24-08-2020, 00:00
alla fine una buona 2080ti custom se la gioca con una buona 3070/ti custom che costerà almeno 650€/700€ in caso di strix e simili ma con 8gb, quindi le 2080ti possono farsi altri 2anni di tutto rispetto

Si, alla fine torniamo li, ma forse anche come consumi. Probabilmente non ci sarà nvlink, ma ci sarà come la 2070, che è presente nei collegamenti, ma non attivo.
Inoltre pare non esserci inizialmente una 3070 super/ti misterx, o come la chiameranno.
i clock non aiutano.

Dovrebbe rimanere la differenza tensor, e qua abbiamo due strade:
-Mettere quelli di Ampere (devastanti, in DLSS sarebbero troppo potenti se sfruttati con 4 o 8x in ST)
-Raddoppiarli, come dicevano i primi rumor, quindi 2x (quelli di volta, e potrebbero essere utilizzati anche i base, quindi 368 vs 272).

Coprocessor, se mai ci sarà, lo escludo, senza nvlink.

caccapupu91
24-08-2020, 00:03
riporto qui qualcosa di interessante ritrovato su reddit di cui non ho capito nulla, penso sia la densità dei transistor e il modo in cui vengono "stampati?" D: vedere il numerino dei 5nm mi fa quasi passare la voglia delle 3xxx :asd:

1 TSMC’s 5nm EUV (RDNA3, ZEN4) 171.3
2 TSMC’s 7nm+ EUV (RDNA2?, ZEN3) 115.8
4 Intel’s 10nm 100.8*
5 TSMC’s 7nm (Mobile) 96.5
6 Samsung’s 7nm EUV 95.3
7 TSMC’s 7nm (HPC) (Ampere?) (RDNA1) 66.7
8 Samsung’s 8nm (Ampere?) 61.2
9 TSMC’s 10nm 60.3
10 Samsung’s 10nm 51.8
11 Intel’s 14nm 43.5
12 Nvidia's Turing 34-38
13 GlobalFoundries 12nm 36.7
14 TSMC’s 12nm 33.8
15 Samsung / GlobalFoundries 14nm (GCN5.0/GP107) 32.5
16 TSMC’s 16nm (Pascal) 28.2

amon.akira
24-08-2020, 00:46
si è la densità e la differenza tra rdna2 e ampere è mostruosa :D

jhh ha sopperito con i watt XD

mikael84
24-08-2020, 01:04
riporto qui qualcosa di interessante ritrovato su reddit di cui non ho capito nulla, penso sia la densità dei transistor e il modo in cui vengono "stampati?" D: vedere il numerino dei 5nm mi fa quasi passare la voglia delle 3xxx :asd:

1 TSMC’s 5nm EUV (RDNA3, ZEN4) 171.3
2 TSMC’s 7nm+ EUV (RDNA2?, ZEN3) 115.8
4 Intel’s 10nm 100.8*
5 TSMC’s 7nm (Mobile) 96.5
6 Samsung’s 7nm EUV 95.3
7 TSMC’s 7nm (HPC) (Ampere?) (RDNA1) 66.7
8 Samsung’s 8nm (Ampere?) 61.2
9 TSMC’s 10nm 60.3
10 Samsung’s 10nm 51.8
11 Intel’s 14nm 43.5
12 Nvidia's Turing 34-38
13 GlobalFoundries 12nm 36.7
14 TSMC’s 12nm 33.8
15 Samsung / GlobalFoundries 14nm (GCN5.0/GP107) 32.5
16 TSMC’s 16nm (Pascal) 28.2

Si, quella di samsung 8nm è giusta, ma lasciano il tempo che trovano.:)
La gtx 1080 p 22,9mt, la 1080ti 25
La 2080ti 25mt
Navi a 7nm a 41
Ampere che è densa di cache, arriva a 65.

The_SaN
24-08-2020, 01:11
riporto qui qualcosa di interessante ritrovato su reddit di cui non ho capito nulla, penso sia la densità dei transistor e il modo in cui vengono "stampati?" D: vedere il numerino dei 5nm mi fa quasi passare la voglia delle 3xxx :asd:

1 TSMC’s 5nm EUV (RDNA3, ZEN4) 171.3
2 TSMC’s 7nm+ EUV (RDNA2?, ZEN3) 115.8
4 Intel’s 10nm 100.8*
5 TSMC’s 7nm (Mobile) 96.5
6 Samsung’s 7nm EUV 95.3
7 TSMC’s 7nm (HPC) (Ampere?) (RDNA1) 66.7
8 Samsung’s 8nm (Ampere?) 61.2
9 TSMC’s 10nm 60.3
10 Samsung’s 10nm 51.8
11 Intel’s 14nm 43.5
12 Nvidia's Turing 34-38
13 GlobalFoundries 12nm 36.7
14 TSMC’s 12nm 33.8
15 Samsung / GlobalFoundries 14nm (GCN5.0/GP107) 32.5
16 TSMC’s 16nm (Pascal) 28.2

Si è la densità. La differenza è mostruosa, però dipende anche da come è composto il chip.

Predator_1982
24-08-2020, 06:56
Sì era giusto una battuta per restare eventualmente entro connessioni di alimentazione "classiche" :sofico:



Scherzi a parte speriamo di non tornare a questi tempi :D

https://logout.hu/dl/upc/2010-03/41989_grillforce.jpg

e speriamo si...se dovessero essere da questo punto di vista le nuove "Fermi" per me scaffale 100%...sono ancora traumatizzato dalle temperature, calore e rumorosità raggiunte da quella serie. Mi sembrerebbe però alquanto strano considerando che già con Turing, hanno prestato molta attenzione a temperature e rumorosità del prodotto.

La 2080 FE mi ha abituato troppo bene in tal senso.

Io, a questo giro, punterei alla 3080, vedremo un po' cosa diranno le prime recensioni..:rolleyes:

Spytek
24-08-2020, 07:25
Ricordo solo che avevo due Gtx 480 in Sli : la prima con punte di 92° e la seconda toccava i 100° :eek: :eek:

Giovamas
24-08-2020, 07:47
Vai di più anche in raster.:)
in RT si, ma non aspettarti di devastare la 2080ti.:)
Via RT, la differenza shader si sente.

Tu però devi prendere almeno la 3080.

io aspetto i prezzi e le tue opinioni. ma il 3080 continuo a vederlo come sidegrade felice di sbagliarmi:)