PDA

View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 [191] 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 356 357 358 359 360 361 362 363 364 365 366 367 368 369 370 371 372 373 374 375 376 377 378 379 380 381 382 383 384 385 386 387 388 389 390 391 392 393 394 395 396 397 398 399 400 401 402 403 404 405 406 407 408 409 410 411 412 413 414 415 416 417 418 419 420 421 422 423 424 425 426 427 428 429 430 431 432 433 434 435 436 437 438 439 440 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466

NAP.
30-06-2020, 20:34
vorrei chiedere una cortesia a voi ragazzi se mi potete aiutare con questo problema che sto avendo, guardate questo screenshot preso da resident evil 7 che sto giocando in questo momento con reshade

https://i1.lensdump.com/i/jnXYOT.png

Sapreste dirmi che visualizzate? alcuni dicono che vedono tutto nero, altri che sembra piatto e senza colori, voi che vedete?

da cosa dipende questo? io lo visualizzo correttamente sul mio schermo

kiwivda
30-06-2020, 21:07
vorrei chiedere una cortesia a voi ragazzi se mi potete aiutare con questo problema che sto avendo, guardate questo screenshot preso da resident evil 7 che sto giocando in questo momento con reshade

https://i1.lensdump.com/i/jnXYOT.png

Sapreste dirmi che visualizzate? alcuni dicono che vedono tutto nero, altri che sembra piatto e senza colori, voi che vedete?

da cosa dipende questo? io lo visualizzo correttamente sul mio schermo

Sembra desaturata e con molto black crush o troppo contrasto.

TigerTank
30-06-2020, 21:29
Sembra desaturata e con molto black crush o troppo contrasto.

Idem, la vedo anch'io così.
Comunque circa il reshade, gli screenshots vanno fatti da reshade altrimenti che io ricordi con afterburner o simili gli effetti di quest'ultimo non si vedono. ;)

NAP.
30-06-2020, 21:32
scusate innanzitutto a tutti ho sbagliuato topic credevo di essere in quello della 2080/ti continuamo di la scusate

TigerTank
30-06-2020, 23:01
Dai che ora arriva anche Intel via MCM.

Questo è per HPC, ma il modello a 2, potrebbe già giocarsela con una 3080/ti. Il problema è che si parla del 2021, con Ampere per ora sola.
Nvidia dovrebbe passare al MCM con Hopper, il monolitico per rese comincia a diventare un problema.

https://i.postimg.cc/yN2p9CzR/mcm.png

Speriamo bene...ci vorrebbe proprio l'ingresso di un terzo "concorrente" nel mondo delle vga. Con Nvidia che si è accaparrata la fascia alta e AMD che si è evoluta tanto nei processori e si "accontenta" della fascia media...non c'è alcuna concorrenza.

scusate innanzitutto a tutti ho sbagliuato topic credevo di essere in quello della 2080/ti continuamo di la scusate

Anch'io, vedendo anche la risposta di Kiwivda :asd:

ninja750
01-07-2020, 09:54
Dai che ora arriva anche Intel via MCM.


https://www.3dfxzone.it/public/files/3dfx_voodoo2_pcb_small.jpg

voodoo2 sarebbe stata catalogabile come mcm?

Acme
01-07-2020, 12:38
Dai che ora arriva anche Intel via MCM.

Questo è per HPC, ma il modello a 2, potrebbe già giocarsela con una 3080/ti. Il problema è che si parla del 2021, con Ampere per ora sola.
Nvidia dovrebbe passare al MCM con Hopper, il monolitico per rese comincia a diventare un problema.

https://i.postimg.cc/yN2p9CzR/mcm.png

Sembrerebbe che AMD sia già pronta con la serie MI100/200 ad approcciare la prima soluzione MCM.

https://www.igorslab.de/en/even-bigger-navi-chip-first-indication-of-a-possible-multi-chip-package/

mikael84
01-07-2020, 14:23
Interessante ;)

La cosa che più mi incuriosisce sarà la gestione della cache e la velocità di comunicazione del bus utilizzato per i moduli mcm.
Lato computazionale credo che sia più facile espandere la cosa... però se non gli si da da mangiare alle varie unità, siamo punto e a capo ;)

Il problema è proprio lato gaming. Sul calcolo puro e ridondante è un tantino diverso.
Diciamo che ci sarebbe tanto da dire su questo chip, ma è troppo prematuro fare un topi apposito.
mi incuriosisce molto Hopper, anche l'HPC.

Speriamo bene...ci vorrebbe proprio l'ingresso di un terzo "concorrente" nel mondo delle vga. Con Nvidia che si è accaparrata la fascia alta e AMD che si è evoluta tanto nei processori e si "accontenta" della fascia media...non c'è alcuna concorrenza.




Esatto, conosco la micro architettura Intel, ed ha le possibilità di fare bene nelle varie fasce, però temo minimo un 2022 con tutte le architetture sul MCM:)
Ampere partirà sola, ed in seguito qualcosa tirerà fuori AMD, anche se ancora non è chiaro che intenzioni avrà.

https://www.3dfxzone.it/public/files/3dfx_voodoo2_pcb_small.jpg

voodoo2 sarebbe stata catalogabile come mcm?

no

Sembrerebbe che AMD sia già pronta con la serie MI100/200 ad approcciare la prima soluzione MCM.

https://www.igorslab.de/en/even-bigger-navi-chip-first-indication-of-a-possible-multi-chip-package/

Bisogna vedere se non sia una dual GPU tradizionale.:)

Thunder-74
01-07-2020, 16:54
Mike, ma di Navi 31 "cicciato" fuori spulciando il nuovo SO di Apple Big Sur?

Spytek
01-07-2020, 19:15
Buonasera ragazzi.
Sbaglio o non vedo nulla di nuovo all’orizzonte?
Un vero peccato perchè anche una 2080 Ti fatica a mantenere i 60 fps con tutti i giochi in 4K.
Non essendoci concorrenza nella gamma alta...
Bei tempi quando Ati e Nvidia si contendevano lo scettro e bei tempi quando le console erano diversi step dietro :(

thunderforce83
01-07-2020, 19:19
Buonasera ragazzi.
Sbaglio o non vedo nulla di nuovo all’orizzonte?
Un vero peccato perchè anche una 2080 Ti fatica a mantenere i 60 fps con tutti i giochi in 4K.
Non essendoci concorrenza nella gamma alta...
Bei tempi quando Ati e Nvidia si contendevano lo scettro e bei tempi quando le console erano diversi step dietro :(

adesso e' cambiato che le console non sono piu' diversi step indietro, ma almeno dieci step indietro rispetto, alle attuali schede:)

Spytek
01-07-2020, 19:31
Credo che il gap che c’era in passato non sia lo stesso di quello attuale specie con l’uscita della Play 5 a fine anno.
Il 4K è piuttosto esoso in termini di richiesta Gpu ed è un vero peccato che se si vuole il top occorra ripiegare su una 2080Ti dal costo poibitivo ( non dimentichiamoci che giusto qualche annetto fa,non 5 o 10 anni fa,le schede video Top non superavano le 650-700 euro) e ora si arriva anche a sborsare dai 1200-1350 senza garanzia di raggiungere i 60 fps con filtri al max e questo giusto perchè ,come scritto sopra,non c’è concorrenza sulla fascia enthusiast!
Se permettete,la passione per l’hardware sfuma in tal senso...

Spytek
01-07-2020, 19:58
Speriamo bene...ci vorrebbe proprio l'ingresso di un terzo "concorrente" nel mondo delle vga. Con Nvidia che si è accaparrata la fascia alta e AMD che si è evoluta tanto nei processori e si "accontenta" della fascia media...non c'è alcuna concorrenza
Il reparto gaming Pc è stato “spodestato” dalle consolle ed è da considerarsi come un settore di nicchia purtroppo.
La vedo dura un terzo concorrente disposto ad investire nella ricerca e nello sviluppo in tale settore.

TigerTank
01-07-2020, 20:46
Il reparto gaming Pc è stato “spodestato” dalle consolle ed è da considerarsi come un settore di nicchia purtroppo.
La vedo dura un terzo concorrente disposto ad investire nella ricerca e nello sviluppo in tale settore.

No, più che altro il pc mantiene certe esclusive per quel che riguarda lo smanettare e la pesantezza grafica ma è anche diventato molto più costoso di prima. Poi putrtoppo è vero che il più dei giochi nascono da un'origine comune con le consoles e su pc approdano come porting farciti di effetti. Alcuni ben realizzati, altri purtroppo mal realizzati, con relative mancate ottimizzazioni per sfruttare al meglio l'hardware dei pc. IMHO.

mircocatta
01-07-2020, 20:47
Il reparto gaming Pc è stato “spodestato” dalle consolle ed è da considerarsi come un settore di nicchia purtroppo.
La vedo dura un terzo concorrente disposto ad investire nella ricerca e nello sviluppo in tale settore.

ma guarda che non è una speranza del buon tiger, ma è quasi una certezza che intel entrerà nel mercato

per quanto riguarda le console, si, a questo giro fanno un bel salto in avanti, tant'è che la xbox monterà una gpu che attualmente amd non raggiunge neanche a desktop (sarà a 12tf, comunque sopra il livello della rtx2080FE che in game boosta a 1900mhz=11,1tf), però non ha senso venire a lamentarsi ora che non c'è concorrenza, si sa da mesi che le nuove uscite saranno a fine anno e fino ad allora bisognerà aspettare


poi vabè, io personalmente non ci vedo niente di negativo anzi, probabilmente e finalmente vedremo una vera next gen a livello software (giochi) grazie al salto che faranno le console, era anche ora

fraussantin
01-07-2020, 21:00
Il reparto gaming Pc è stato “spodestato” dalle consolle ed è da considerarsi come un settore di nicchia purtroppo.

La vedo dura un terzo concorrente disposto ad investire nella ricerca e nello sviluppo in tale settore.Intel arriverà secondo me e avrà un buon prodotto , il problema è che non ci farà risparmiare.
Userà altri sistemi per imporsi sul mercato e questo non ci piacerà.

Guarda per esempio le CPU, nonostante amd abbia una buona alternativa , dia più core su ogni fascia , ha avuto il coraggio di prezzare il 10900k 700\750 euro in Italia quando un 3900 con 2 core in più ne costa 400.

No Intel non sará concorrenziale. ( Imho)

Acme
01-07-2020, 21:16
Bisogna vedere se non sia una dual GPU tradizionale.:)

È quello che ho pensato anch'io, però la speranza che si muova qualcosa nei meandri di AMD rimane.

Telstar
01-07-2020, 21:20
Intel arriverà secondo me e avrà un buon prodotto , il problema è che non ci farà risparmiare.
Userà altri sistemi per imporsi sul mercato e questo non ci piacerà.

Non condivido le tue previsioni. Secondo me invece sarà prezzata in modo molto aggressivo.
Gli "altri sistemi" servono solo per OEM e aziende.

Amorph
01-07-2020, 21:32
Intel arriverà secondo me e avrà un buon prodotto , il problema è che non ci farà risparmiare.
Userà altri sistemi per imporsi sul mercato e questo non ci piacerà.

Guarda per esempio le CPU, nonostante amd abbia una buona alternativa , dia più core su ogni fascia , ha avuto il coraggio di prezzare il 10900k 700\750 euro in Italia quando un 3900 con 2 core in più ne costa 400.

No Intel non sará concorrenziale. ( Imho)

a me di intel preoccupano i driver grafici :stordita:

galebar74
02-07-2020, 07:18
Il reparto gaming Pc è stato “spodestato” dalle consolle ed è da considerarsi come un settore di nicchia purtroppo.
La vedo dura un terzo concorrente disposto ad investire nella ricerca e nello sviluppo in tale settore.

Poi un gioco come PUBG vende 54 milioni di copie (solo su PC) e devi sommare metà delle esclusive cinematografiche di Sony per arrivare a quel numero. :doh:

Nurabsa
02-07-2020, 08:10
Dai che ora arriva anche Intel via MCM.

Questo è per HPC, ma il modello a 2, potrebbe già giocarsela con una 3080/ti. Il problema è che si parla del 2021, con Ampere per ora sola.
Nvidia dovrebbe passare al MCM con Hopper, il monolitico per rese comincia a diventare un problema.

in ambito cpu con il package in configurazione multi-chip module di haswell ult i 22 sembrano preistoria.
Oggi con l evoluzione del pp potrebbero fare molto meglio sulle gpu magari migliorando l anello di comunicazione.
D altra parte la longevità del soc 2036 è dovuta anche alla -non da poco- possibilità di intervenire su questo particolare bus per clock e latenze.

a me di intel preoccupano i driver grafici :stordita:

e siamo alle dolenti note
per quel poco che ho avuto a che fare sono veramente pessimi nelle IGD
Da rivedere interfaccia caricamento features

Spytek
02-07-2020, 08:20
No, più che altro il pc mantiene certe esclusive per quel che riguarda lo smanettare e la pesantezza grafica ma è anche diventato molto più costoso di prima. Poi putrtoppo è vero che il più dei giochi nascono da un'origine comune con le consoles e su pc approdano come porting farciti di effetti. Alcuni ben realizzati, altri purtroppo mal realizzati, con relative mancate ottimizzazioni per sfruttare al meglio l'hardware dei pc. IMHO.
Si Tiger,il problema si pone in particolar modo con il 4K e non esiste sul mercato una scheda grafica capace di sostenere i 60 fps tutto maxato in piena disinvoltura.
Si "ripiega" in una 2080Ti e che Nvidia,complice anche del mining passato,ha fatto lievitare i prezzi a dismisura passando dai canonici 650-700,a cui si era abituati non molto tempo fa per prendere la scheda grafica di punta, ai 1200 euro circa.
E ribadisco,nemmeno una scheda che riesca a tenere fissi i 60 fps con tutti i titoli!

però non ha senso venire a lamentarsi ora che non c'è concorrenza
La mia è a una considerazione personale.
E' da tempo che sulla fascia Top non c'è concorrenza e Nvidia ne ha approfittato alla grande.
E' naturale che non si è obbligati ad acquistarla,ma è un duro colpo per l'appassionato. (non è questione di potersela permettere o meno ma è per principio).

Intel arriverà secondo me e avrà un buon prodotto , il problema è che non ci farà risparmiare.
)
Non credo,dovrà prima trovare la sua posizione nel mercato delle schede grafiche ed avere un supporto driver maturo.
Sarà controproducente inserirsi in tale contesto con prezzi elevati.

Predator_1982
02-07-2020, 10:10
E' naturale che non si è obbligati ad acquistarla,ma è un duro colpo per l'appassionato. (non è questione di potersela permettere o meno ma è per principio).

io invece credo che tutto quanto si possa sintetizzare così: la top di gamma devi potertela permettere, prestazioni al top con prezzi al top (soprattutto nell'attuale scenario di mercato), anche perché non è di certo su quelle schede che l'azienda basa la sua principale fonte di fatturato. Motivo per il quale, se aumenta ancora il prezzo e ne vende 1000 invece che 2000, non è un grosso problema.

Il ritorno di immagine è ciò che davvero serve, far si che sulla bocca di tutti circoli la voce che Nvidia è la migliore...per non parlare del fatto che è evidente che il core business dei verdi sia da tutt'altra parte adesso.

La maggior parte dei gamers normali (gente strappata al mondo console), grasso che cola se ha ancora una scheda grafica GTX 1xxx magari comprata pure di seconda mano.

Ubro92
02-07-2020, 10:22
e siamo alle dolenti note
per quel poco che ho avuto a che fare sono veramente pessimi nelle IGD
Da rivedere interfaccia caricamento features

In realtà è già da più di un anno che intel sta rivendo la struttura dei driver, è ha anche da tempo introdotto il nuovo pannello di controllo scaricabile sullo store di Microsoft.

Le maggiori novità sicuramente si vedranno con l'uscita delle GPU dedicate o con le prossime IGP Gen12, attualmente tralasciando le Iris Pro si fa poco con le classiche IGP.

Spytek
02-07-2020, 10:39
io invece credo che tutto quanto si possa sintetizzare così: la top di gamma devi potertela permettere, prestazioni al top con prezzi al top (soprattutto nell'attuale scenario di mercato),
Questo vale in linea generale per tutti i prodotti di punta sul mercato ma se l'appassionato al marchio Nvidia, che ha avuto sempre il top, si ritrova a passare dai canonici 650-700 euro ai 1200 euro circa, un minimo di indignazione la prova comunque.
E' non è un discorso che si risolve con il potersela permettere o meno oppure che non è un bene di prima necessità ma di correttezza verso l'acquirente.
Senza contare il fatto che una 2080Ti (lo so,l'ho ripetuto 50 volte) non è in grado di fornire i 60 fps con tutti i titoli se non con ovvi compromessi.

Vul
02-07-2020, 11:12
Questo discorso dei prezzi lascia il tempo che trova.

a) le gpu moderne sono mediamente molto più grandi di quelle del passato. Maggiori dimensioni = rese molto minori = prezzi molto superiori

b) il costo di sviluppo cresce quasi esponenzialmente passando da nodo a nodo. progettare un chip a 40nm (dal prototipo alla messa in produzione) costava circa 40 milioni di dollari, a 7 nm siamo a 300 milioni per chip

c) il costo dei wafer cresce molto. un chip di pari dimensioni a 7nm costa oltre il doppio di uno a 28nm. E' inutile dire che il passaggio da 28 a 7nm è teorico (non stai davvero riducendo le dimensioni dei transistors di un quarto).

d) il mercato è molto piu segmentato e differente da prima che si lanciavano 3/4 tagli e la fascia enthusiasts non esisteva. Anche a livello cpu, il mercato hedt non vedeva certo cpu da 3000-4000 euro, ormai normalità nell'ultimo decennio.

e) mettendo in conto l'inflazione, i costi sono poco maggiori di quelli passati, spesso piu bassi

f) le differenze reali fra gpu e gpu sono molto ma molto inferiori che in passato. Una volta compravi una gpu e due anni dopo te la sbattevi in faccia. Chi ha comprato 10 anni fa una 7970 gioca piu che tranquillo tutt'ora a 1080p.

g) le differenze grafiche sono spesso inesistenti. I giochi una volta avevano pochi filtri e settings sotto. Ora siamo in presenza di varie tecnologie che tagliano gli fps di un terzo da sole portando a vantaggi grafici reali pressapoco che inesistenti. Una volta fra un gioco in low e un gioco in high c'era un abisso di differenza, oggi giorno anche giocare in low porta a grafica piuttosto piacevole. Giocare a mid piuttosto che high o ultra in particolare ti può togliere anche il 60/70 % di fps senza però comportare una differenza visiva comparabile, e spesso alcune tecnologie fanno piu danni che migliorie.

h) una volta c'era piu competizione. AMD non riesce a star dietro ad Nvidia, che può tranquillamente fare come Intel nell'ultima decade, fare incrementi minori di quanto potrebbe e continuare a macinare $$ con sforzi minimi. Purtroppo non c'è piu battaglia da radeon 5000 o radeon 290. Polaris è stato un barlume di miglioria a livello competitivo, ma solo in fascia media/medio-bassa. Anche Navi, con tutta la buona volontà, è comunque una gpu relativamente poco competitiva con Nvidia e prezzata pressapoco uguale.

Il problema dei prezzi, semmai, sta nella scarsa crescita del rapporto performance/prezzo.

Una volta passavano due anni e prendevi gpu che allo stesso prezzo andavano il 60% in piu. Oggi, soprattutto in fascia sub 300 euro, si sta fermi per tanti anni prima di prendere qualcosa che davvero ti dia boost prestazionali rispetto alla scheda da 250 euro che ti eri comprato qualche anno prima.

Oggigiorno, prendere una gpu che costa piu o meno lo stesso ti porta a differenze fra il 20 e il 50%, ma nell'arco di 3-4 anni a volte.

Ergo, smettetela di dire "gne gne gne voglio la top ma costa troppo".

Costano tanto perchè la gente le compra, se nessuno le comprasse tranquillo che costavano meno. Il prezzo dipende dal rapporto fra domanda e offerta, evidentemente richiesta per gpu da 1000+ euro esiste.

Costano molto piu di una volta perchè quel segmento una volta non esisteva o era rilegato alle gpu dual chip come le 690, segmento oggi non esistente.

Prendere gpu di medie dimensioni da 700 euro pure ormai è diventato lo standard da pascal in poi (300 mm^2 lanciati tra i 500 e gli 800 euro) eppure vi siete messi in fila a 90 per comprarle.

Ma, almeno, con il salto ai 16nm il boost prestazionale da 50% circa c'era. Diverso il discorso passando da pascal a turing, dove l'unico vero boost è fra le versioni ti. Un passaggio molto costoso tra l'altro.

Per concludere, le gpu costano il giusto, la gente le compra a quel prezzo e quindi fanno bene a chiedere quei soldi. Se le sparano a 3000 euro e la gente le compra fanno bene a chiedere quei soldi. Sono società che devono fare profitto per i propri investitori, non vendere a margini "etici" decisi dalla gente nei forum e reddit.

Se pensate costino troppo, non le comprate.

Nurabsa
02-07-2020, 11:52
In realtà è già da più di un anno che intel sta rivendo la struttura dei driver, è ha anche da tempo introdotto il nuovo pannello di controllo scaricabile sullo store di Microsoft.

Le maggiori novità sicuramente si vedranno con l'uscita delle GPU dedicate o con le prossime IGP Gen12, attualmente tralasciando le Iris Pro si fa poco con le classiche IGP.

si come dicevo la mia esperienza nasce e finisce con l integrata di un 1840 haswell.
Meglio cosi resta da capire un domani se possono seriamente dare del filo da torcere a nvpanel -che potrebbe essere piu curato e specifico nei dettagli-

Questo vale in linea generale per tutti i prodotti di punta sul mercato ma se l'appassionato al marchio Nvidia, che ha avuto sempre il top, si ritrova a passare dai canonici 650-700 euro ai 1200 euro circa, un minimo di indignazione la prova comunque.
E' non è un discorso che si risolve con il potersela permettere o meno oppure che non è un bene di prima necessità ma di correttezza verso l'acquirente.
Senza contare il fatto che una 2080Ti (lo so,l'ho ripetuto 50 volte) non è in grado di fornire i 60 fps con tutti i titoli se non con ovvi compromessi.

sono sfuggiti di mano chiaramente i prezzi.
con 900€ prendevi la multifase dei sogni. adesso tre zeri stile quadro sembra roba da studio di architettura. Invece si gioca.

Anche leggendo la pappardella di vul fosse tutto cosi lineare tanti mmq tanto salato il prezzo, gm200 dall alto dei suoi 601 doveva costare come la 2080ti perche costosissimo alle fonderie.
Su alcune cose condivido con meno frenesia comprarivendi sicuramente non ci sarebbero prezzi da sultanato.

Thunder-74
02-07-2020, 11:54
Presunta nuova STRIX 3080ti

https://cdn.wccftech.com/wp-content/uploads/2020/07/ASUS-GeForce-RTX-3080-Ti-Graphics-Card_NVIDIA-GeForce-RTX-30-Series_Ampere-GPU_1-1030x611.jpg

LINK (https://videocardz.com/newz/asus-geforce-rtx-3080-ti-rog-strix-leaked)

thunderforce83
02-07-2020, 12:09
Questo discorso dei prezzi lascia il tempo che trova.

a) le gpu moderne sono mediamente molto più grandi di quelle del passato. Maggiori dimensioni = rese molto minori = prezzi molto superiori

b) il costo di sviluppo cresce quasi esponenzialmente passando da nodo a nodo. progettare un chip a 40nm (dal prototipo alla messa in produzione) costava circa 40 milioni di dollari, a 7 nm siamo a 300 milioni per chip

c) il costo dei wafer cresce molto. un chip di pari dimensioni a 7nm costa oltre il doppio di uno a 28nm. E' inutile dire che il passaggio da 28 a 7nm è teorico (non stai davvero riducendo le dimensioni dei transistors di un quarto).

d) il mercato è molto piu segmentato e differente da prima che si lanciavano 3/4 tagli e la fascia enthusiasts non esisteva. Anche a livello cpu, il mercato hedt non vedeva certo cpu da 3000-4000 euro, ormai normalità nell'ultimo decennio.

e) mettendo in conto l'inflazione, i costi sono poco maggiori di quelli passati, spesso piu bassi

f) le differenze reali fra gpu e gpu sono molto ma molto inferiori che in passato. Una volta compravi una gpu e due anni dopo te la sbattevi in faccia. Chi ha comprato 10 anni fa una 7970 gioca piu che tranquillo tutt'ora a 1080p.

g) le differenze grafiche sono spesso inesistenti. I giochi una volta avevano pochi filtri e settings sotto. Ora siamo in presenza di varie tecnologie che tagliano gli fps di un terzo da sole portando a vantaggi grafici reali pressapoco che inesistenti. Una volta fra un gioco in low e un gioco in high c'era un abisso di differenza, oggi giorno anche giocare in low porta a grafica piuttosto piacevole. Giocare a mid piuttosto che high o ultra in particolare ti può togliere anche il 60/70 % di fps senza però comportare una differenza visiva comparabile, e spesso alcune tecnologie fanno piu danni che migliorie.

h) una volta c'era piu competizione. AMD non riesce a star dietro ad Nvidia, che può tranquillamente fare come Intel nell'ultima decade, fare incrementi minori di quanto potrebbe e continuare a macinare $$ con sforzi minimi. Purtroppo non c'è piu battaglia da radeon 5000 o radeon 290. Polaris è stato un barlume di miglioria a livello competitivo, ma solo in fascia media/medio-bassa. Anche Navi, con tutta la buona volontà, è comunque una gpu relativamente poco competitiva con Nvidia e prezzata pressapoco uguale.

Il problema dei prezzi, semmai, sta nella scarsa crescita del rapporto performance/prezzo.

Una volta passavano due anni e prendevi gpu che allo stesso prezzo andavano il 60% in piu. Oggi, soprattutto in fascia sub 300 euro, si sta fermi per tanti anni prima di prendere qualcosa che davvero ti dia boost prestazionali rispetto alla scheda da 250 euro che ti eri comprato qualche anno prima.

Oggigiorno, prendere una gpu che costa piu o meno lo stesso ti porta a differenze fra il 20 e il 50%, ma nell'arco di 3-4 anni a volte.

Ergo, smettetela di dire "gne gne gne voglio la top ma costa troppo".

Costano tanto perchè la gente le compra, se nessuno le comprasse tranquillo che costavano meno. Il prezzo dipende dal rapporto fra domanda e offerta, evidentemente richiesta per gpu da 1000+ euro esiste.

Costano molto piu di una volta perchè quel segmento una volta non esisteva o era rilegato alle gpu dual chip come le 690, segmento oggi non esistente.

Prendere gpu di medie dimensioni da 700 euro pure ormai è diventato lo standard da pascal in poi (300 mm^2 lanciati tra i 500 e gli 800 euro) eppure vi siete messi in fila a 90 per comprarle.

Ma, almeno, con il salto ai 16nm il boost prestazionale da 50% circa c'era. Diverso il discorso passando da pascal a turing, dove l'unico vero boost è fra le versioni ti. Un passaggio molto costoso tra l'altro.

Per concludere, le gpu costano il giusto, la gente le compra a quel prezzo e quindi fanno bene a chiedere quei soldi. Se le sparano a 3000 euro e la gente le compra fanno bene a chiedere quei soldi. Sono società che devono fare profitto per i propri investitori, non vendere a margini "etici" decisi dalla gente nei forum e reddit.

Se pensate costino troppo, non le comprate.
quoto in pieno, e speriamo che sia chiaro na volta per tutte sto fatto del prezzo:doh:
Presunta nuova STRIX 3080ti

https://cdn.wccftech.com/wp-content/uploads/2020/07/ASUS-GeForce-RTX-3080-Ti-Graphics-Card_NVIDIA-GeForce-RTX-30-Series_Ampere-GPU_1-1030x611.jpg

LINK (https://videocardz.com/newz/asus-geforce-rtx-3080-ti-rog-strix-leaked)

molto interessante veramente, sembrerebbe reale e fattibile. Forse il lancio sara' piu' vicino del previsto?

Thunder-74
02-07-2020, 12:14
cut..
molto interessante veramente, sembrerebbe reale e fattibile. Forse il lancio sara' piu' vicino del previsto?

Spero che possano essere lanciate contestualmente a quelle reference.

TigerTank
02-07-2020, 12:55
Presunta nuova STRIX 3080ti

https://cdn.wccftech.com/wp-content/uploads/2020/07/ASUS-GeForce-RTX-3080-Ti-Graphics-Card_NVIDIA-GeForce-RTX-30-Series_Ampere-GPU_1-1030x611.jpg

LINK (https://videocardz.com/newz/asus-geforce-rtx-3080-ti-rog-strix-leaked)

Secondo me è un falso.
Quelle scritte hanno una grafica un pò strana.
Per "ROG Strix" sembra abbiano usato molto male la feature di photoshop per deformare e inclinare i testi :D

O magari è un concept di dissipatore presentato realmente all'interno di Asus e qualcuno si è divertito ad aggiungere le scritte :D

thunderforce83
02-07-2020, 13:39
Spero che possano essere lanciate contestualmente a quelle reference.
purtroppo credo che almeno un mesetto di vendite esclusive nvidia con il suo sito lo fara' di certo, dobbiamo solo sperare che questa volta non sia un lancio disastroso come fu' per turing...

Secondo me è un falso.
Quelle scritte hanno una grafica un pò strana.
Per "ROG Strix" sembrano abbiano usato molto male la feature di photoshop per deformare e inclinare i testi :D

O magari è un concept di dissipatore presentato realmente all'interno di Asus e qualcuno si è divertito ad aggiungere le scritte :D
effettivamente con tutti i rumor e l attesa dagli appassionati di tutto il mondo tantissimi si daranno al fake d'autore per le varie pagine di clicca e guadagna:D

Spytek
02-07-2020, 13:42
Questo discorso dei prezzi lascia il tempo che trova.
Come anche quanto da te sostenuto.

b) il costo di sviluppo cresce quasi esponenzialmente passando da nodo a nodo. progettare un chip a 40nm (dal prototipo alla messa in produzione) costava circa 40 milioni di dollari, a 7 nm siamo a 300 milioni per chip
c) il costo dei wafer cresce molto. un chip di pari dimensioni a 7nm costa oltre il doppio di uno a 28nm. E' inutile dire che il passaggio da 28 a 7nm è teorico (non stai davvero riducendo le dimensioni dei transistors di un quarto).
Ogni cambio di architettura e tecnologia ha comportato ingenti investimenti economici,sviluppo e progettazione ad Nvidia e non concordo affatto su quanto sostieni sopra e che giustificano minimamente il raddoppio del prezzo per i modelli Top cui eravamo abituati a vedere.
I motivi devono essere rintracciati altrove e li ho anche scritto poc'anzi.

f) Una volta compravi una gpu e due anni dopo te la sbattevi in faccia. Chi ha comprato 10 anni fa una 7970 gioca piu che tranquillo tutt'ora a 1080p.
E quindi?
Stai parlando di una risoluzione che oramai appartiene al giurassico ed è per chi non ha molte pretese visto che il 4K rappresenta il massimo cui si voglia aspirare in ambito videoludico ed il confronto con il 1080p è imbarazzante.
Pur sforzandomi non capisco il senso di questo tuo post...


Ergo, smettetela di dire "gne gne gne voglio la top ma costa troppo".
Ho argomentato in diverse occasioni il mio punto di vista e spiace sentire queste banalizzazioni e luoghi comuni.
Senza contare che ogni tanto emerge il difensore di turno che prontamente interviene legittimando le politiche discutibili di un'azienda produttrice e di cui,francamente,ne ignoro i motivi.


Costano tanto perchè la gente le compra, se nessuno le comprasse tranquillo che costavano meno. Il prezzo dipende dal rapporto fra domanda e offerta, evidentemente richiesta per gpu da 1000+ euro esiste.
Io la vedo diversamente e che Nvidia,contando il proprio fatturato sulla fascia media,ha poco interesse a vendere il proprio modello di punta.
Ma poi quante richieste potrebbero esserci per per una 2080Ti ?
Principio economico domanda-offerta per una 2080 Ti ?? :asd:
Per caso hai una 2080 Ti?


Per concludere, le gpu costano il giusto, la gente le compra a quel prezzo e quindi fanno bene a chiedere quei soldi. Se le sparano a 3000 euro e la gente le compra fanno bene a chiedere quei soldi. Sono società che devono fare profitto per i propri investitori, non vendere a margini "etici" decisi dalla gente nei forum e reddit.
Grazie per averci illustrato i principi cardini delle società,del profitto,degli sponsor e delle leggi del mercato.

Se pensate costino troppo, non le comprate.
Anche qui è dovuto un caloroso ringraziamento per i consigli e perle di saggezza che non ne potevamo fare a meno....

TigerTank
02-07-2020, 13:45
effettivamente con tutti i rumor e l attesa dagli appassionati di tutto il mondo tantissimi si daranno al fake d'autore per le varie pagine di clicca e guadagna:D

Sì anche secondo me :D
Io penso sia la presentazione interna del dissipatore, ci sono anche quelle "indicazioni" tramite linee bianche che vanno alla ventola e ai 2 materiali differenti del dissipatore. Forse appunto una presentazione sulla composizione di tale dissipatore(ventole, corpo in plastica e finiture metalliche) che magari sarà effettivamente quello della linea Strix delle Ampère.
Ma le scritte imho sono "amatoriali" al 100% :D

Spytek
02-07-2020, 13:46
Anche leggendo la pappardella di vul fosse tutto cosi lineare tanti mmq tanto salato il prezzo, gm200 dall alto dei suoi 601 doveva costare come la 2080ti perche costosissimo alle fonderie.
.
Infatti,Vul si è sentito di scrivere il romanzo e bla bla bla senza aver colto minimamente il senso del mio discorso e riconducendo il tutto a sterili lamentele.
Troverà sicuramente qualche adepto che la penserà come lui :asd:

Giovamas
02-07-2020, 14:18
Secondo me è un falso.
Quelle scritte hanno una grafica un pò strana.
Per "ROG Strix" sembra abbiano usato molto male la feature di photoshop per deformare e inclinare i testi :D

O magari è un concept di dissipatore presentato realmente all'interno di Asus e qualcuno si è divertito ad aggiungere le scritte :D

anche secondo me.. curioso di sapere cosa ne pensa Mike

FrancoBit
02-07-2020, 14:31
Presunta nuova STRIX 3080ti

https://cdn.wccftech.com/wp-content/uploads/2020/07/ASUS-GeForce-RTX-3080-Ti-Graphics-Card_NVIDIA-GeForce-RTX-30-Series_Ampere-GPU_1-1030x611.jpg

LINK (https://videocardz.com/newz/asus-geforce-rtx-3080-ti-rog-strix-leaked)

Facevano notare su altri siti che è sicuramente un fake. Soprattutto per quanto riguarda le dimensioni, guardate la testa del tizio. E poi spiegatemi come faccio a infilare nel case una scheda così spropositatamente ENORME :sofico:

Thunder-74
02-07-2020, 15:00
Facevano notare su altri siti che è sicuramente un fake. Soprattutto per quanto riguarda le dimensioni, guardate la testa del tizio. E poi spiegatemi come faccio a infilare nel case una scheda così spropositatamente ENORME :sofico:

hahaha come ventole, praticamente hanno preso 3 mulini :sofico:

https://i.pinimg.com/564x/b9/f3/a8/b9f3a89be0628a275380922288d90070.jpg

Spytek
02-07-2020, 15:00
Poi un gioco come PUBG vende 54 milioni di copie (solo su PC) e devi sommare metà delle esclusive cinematografiche di Sony per arrivare a quel numero. :doh:
Che ci giochi anche con sk grafica di 20 anni fa.
Un solo gioco non fa testo,poi se vogliamo confrontare le vendite dei giochi delle console con quelle del Pc accomodiamoci pure senza dover tirare in ballo necessariamente i titoli più ostici...

spey
02-07-2020, 17:38
Che ci giochi anche con sk grafica di 20 anni fa.
Un solo gioco non fa testo,poi se vogliamo confrontare le vendite dei giochi delle console con quelle del Pc accomodiamoci pure senza dover tirare in ballo necessariamente i titoli più ostici...

Scheda di 20 anni fa con quel capolavoro di ottimizzazione qual'e' PUBG?

Nice try, ritenta....:D :D

amon.akira
02-07-2020, 17:43
che palle, compratevi la ps5 e andate su multiplayer...le gpu top gamma costano, cazzo da asus per la z390 strix vi fate fregare, da samsung per gli ssd pro di 1tb non ne parliamo...poi arriva nvidia che se vai a vedere in quella firma ha il miglior rapporto qualità/prezzo è vi brucia...capisco che è già arrossato ma basta o perlomeno editate le firme, fate la sparata e poi la rimettete piu in la.

x il resto quoto vul al 99% :D

Telstar
02-07-2020, 18:17
g) le differenze grafiche sono spesso inesistenti. I giochi una volta avevano pochi filtri e settings sotto. Ora siamo in presenza di varie tecnologie che tagliano gli fps di un terzo da sole portando a vantaggi grafici reali pressapoco che inesistenti. Una volta fra un gioco in low e un gioco in high c'era un abisso di differenza, oggi giorno anche giocare in low porta a grafica piuttosto piacevole. Giocare a mid piuttosto che high o ultra in particolare ti può togliere anche il 60/70 % di fps senza però comportare una differenza visiva comparabile, e spesso alcune tecnologie fanno piu danni che migliorie.

Il raytracing non è una differenza da poco.

Spytek
02-07-2020, 18:52
Scheda di 20 anni fa con quel capolavoro di ottimizzazione qual'e' PUBG?

Nice try, ritenta....:D :D
Capolavoro di ottimizzazione e anche graficamente parlando?
Dai ritenta tu,next time :D

che palle, compratevi la ps5 e andate su multiplayer..

Ma perchè non la compri tu la Ps5 e vai tu su multiplayer??
MA sei venuto o ti hanno mandato??

da asus per la z390 strix vi fate fregare, da samsung per gli ssd pro di 1tb non ne parliamo..

Z390 Strix una fregatura?
I tuoi post mi fanno preoccupare...
Gli SSd Pro li ho pagati quanto gli Evo quindi nessuna fregatura.
Piuttosto mi chiedo perchè tu ti senta in dovere di intervenire e criticare la mia firma creando inutili flames :rolleyes:

poi arriva nvidia che se vai a vedere in quella firma ha il miglior rapporto qualità/prezzo è vi brucia...capisco che è già arrossato ma basta o perlomeno editate le firme, fate la sparata e poi la rimettete piu in la.

Questo post si commenta da solo :rolleyes:
Che problema hai?

FreeMan
02-07-2020, 19:17
FINITELA!!!

>bYeZ<

mikael84
03-07-2020, 00:17
Mike, ma di Navi 31 "cicciato" fuori spulciando il nuovo SO di Apple Big Sur?

ho letto di sfuggita, pare indicare una qualche GPU AMD R3, di 3° generazione. Dalle slide sarà la prossima micro-archi AMD (magari MCM), ma ancora non si conosce nulla neppure sulla 2, se non un pef/watt ipotetico.



È quello che ho pensato anch'io, però la speranza che si muova qualcosa nei meandri di AMD rimane.

Si, penso sopratutto su RDNA3, tra Intel presa per l'HPC, ed Hopper che potrebbe sempre essere solo HPC momentaneamente. Ora come ora, penso più ad una soluzione dual classic.
Il bello del MCM sta nel raggruppare vari core.

in ambito cpu con il package in configurazione multi-chip module di haswell ult i 22 sembrano preistoria.
Oggi con l evoluzione del pp potrebbero fare molto meglio sulle gpu magari migliorando l anello di comunicazione.
D altra parte la longevità del soc 2036 è dovuta anche alla -non da poco- possibilità di intervenire su questo particolare bus per clock e latenze.




Il problema del MCM, sta proprio nel gaming, per via delle latenze non nel ridondante.:)
Considerando che i gli HPC, hanno quantità industriali di BW per pararellizzazione.
Intel ha optato per grosse cache tra die, nvidia, non avendo accesso diretto alla l2 unificato, pensava di adottare una grossa l1,5 da ponte per reperire i 32 cicli tra WGM 1/2/3/4.:)

anche secondo me.. curioso di sapere cosa ne pensa Mike

Mah, i vari PCB ancora non sono usciti allo scoperto, i dettagli lasciano a desiderare, e le custom vengono presentate poco prima del debutto a lavori ultimati.:)
Per ora, aspettiamo.:)

galebar74
03-07-2020, 07:10
Scheda di 20 anni fa con quel capolavoro di ottimizzazione qual'e' PUBG?

Nice try, ritenta....:D :D

Ora é in fissa per la PS5, non ci si ragiona più. :(

Thunder-74
03-07-2020, 07:45
GPU NVIDIA GeForce "Ampere" basate su Samsung 8nm anziché su TSMC 7nm?

La prossima famiglia di GPU GeForce "Ampere" di NVIDIA sarà costruita quasi interamente sul processo di fabbricazione del silicio a 8 nanometri di Samsung che deriva dal suo nodo da 10 nm; piuttosto che il processo a 7 nm di TSMC, secondo kopite7kimi, una fonte con un alto tasso di hit con le voci NVIDIA in passato. Il nodo di fabbricazione del silicio 8LPP di Samsung è un'estensione del nodo 10LPP (10 nm) dell'azienda. Entrambi hanno lo stesso passo delle alette, ma si riducono le aree del passo del gate (in calo del 6%) con una densità del transistor di oltre 61 milioni / mm². Apparentemente l'intero stack di prodotti di fascia alta di NVIDIA, incluso il silicio GA102 che alimenta almeno tre SKU di fascia alta di consumo, dovrebbe essere basato su Samsung 8LPP.

FONTE (https://www.techpowerup.com/269347/nvidia-geforce-ampere-gpus-built-on-samsung-8nm-instead-of-tsmc-7nm)

amon.akira
03-07-2020, 08:56
questo spiegherebbe l alto tdp

fraussantin
03-07-2020, 09:05
GPU NVIDIA GeForce "Ampere" basate su Samsung 8nm anziché su TSMC 7nm?



La prossima famiglia di GPU GeForce "Ampere" di NVIDIA sarà costruita quasi interamente sul processo di fabbricazione del silicio a 8 nanometri di Samsung che deriva dal suo nodo da 10 nm; piuttosto che il processo a 7 nm di TSMC, secondo kopite7kimi, una fonte con un alto tasso di hit con le voci NVIDIA in passato. Il nodo di fabbricazione del silicio 8LPP di Samsung è un'estensione del nodo 10LPP (10 nm) dell'azienda. Entrambi hanno lo stesso passo delle alette, ma si riducono le aree del passo del gate (in calo del 6%) con una densità del transistor di oltre 61 milioni / mm². Apparentemente l'intero stack di prodotti di fascia alta di NVIDIA, incluso il silicio GA102 che alimenta almeno tre SKU di fascia alta di consumo, dovrebbe essere basato su Samsung 8LPP.



FONTE (https://www.techpowerup.com/269347/nvidia-geforce-ampere-gpus-built-on-samsung-8nm-instead-of-tsmc-7nm)Ma costava tanto di più il 7nm tsmc oppure sono scelte legate all'architettura?

mircocatta
03-07-2020, 10:18
Ma costava tanto di più il 7nm tsmc oppure sono scelte legate all'architettura?

o forse amd ha intasato di ordini tsmc :asd: tra cpu ryzen, gpu desktop, ps5 e xbox (di cui faranno 2 chip) è probabile che non ci fosse abbastanza spazio per la lineup di nvidia:stordita:

devAngnew
03-07-2020, 10:26
o forse amd ha intasato di ordini tsmc :asd: tra gpu desktop, ps5 e xbox (di cui faranno 2 chip) è probabile che non ci fosse abbastanza spazio per la lineup di nvidia:stordita:

Credo semplicemente che il rapporto costi su rese sia migliore con samsung. :D

Thunder-74
03-07-2020, 10:49
o forse amd ha intasato di ordini tsmc :asd: tra gpu desktop, ps5 e xbox (di cui faranno 2 chip) è probabile che non ci fosse abbastanza spazio per la lineup di nvidia:stordita:

probabilissimo. AMD si è mossa molto prima rispetto a nVidia

fraussantin
03-07-2020, 10:57
o forse amd ha intasato di ordini tsmc :asd: tra gpu desktop, ps5 e xbox (di cui faranno 2 chip) è probabile che non ci fosse abbastanza spazio per la lineup di nvidia:stordita:È probabile , ma anche un po' strano visto che Nvidia si serve da tsmc da sempre.
E che ampere è in programma da tanto.

O ci sono dei problemi a livello di architettura , rese e frequenze o veramente tsmc vista la richiesta sulle CPU ha alzato il prezzo.

mircocatta
03-07-2020, 11:38
ma non è che si scopra chissà che, visto che mesi fa giravano già queste voci :stordita:

Andy1111
03-07-2020, 12:04
https://www.hwupgrade.it/news/skvideo/nvidia-l-ombra-di-amd-sulle-scelte-produttive-attuali-e-future_89126.html

Qua c'è una bella spiegazione, e a quanto pare ha cercato di fare la furba e gli è andata male, ecco il ripiego agli 8 samsung e la prenotazione fatta poco tempo fa per i 5 TSMC

thunderforce83
03-07-2020, 12:19
Qualsiasi processo produttivo adottera' nvidia sicuramente sara' sempre meglio di amd, che in ambito gpu ci ha abituato alla corsa ai processi produttivi migliori, per poi fare sempre letteralmnte e puntualmente schifo dal punto energetico e prestazionale rispetto alla controparte nvidia, c'e' poco da fare, se investi poco e niente in architetture e ricerca aevoglia a prenotare gli ordinativi sui PP piu' avanzati, se hai un chip di m....a manco i 3nm possono salvarti :D

comunque non dico niente, vedremo questa nuova architettura di amd e speriamo che sia per lo meno competitiva sulla fascia media.che riesca a comprare una rossa almeno per il mio prossimo muletto,kissa'

VanCleef
03-07-2020, 12:30
qualsiasi processo produttivo adottera' nvidia dicuramente sara' sempre meglio di amd
:sofico: sicuramente... sempre... sono paroloni :D

Telstar
03-07-2020, 12:59
purtroppo i fanboysti rossi non capiscono che come performance per watt nvidia è almeno 2 step avanti. Quindi può permettersi un pp poco ottimizzato come gli 8nm di samsung.

fraussantin
03-07-2020, 13:18
purtroppo i fanboysti rossi non capiscono che come performance per watt nvidia è almeno 2 step avanti. Quindi può permettersi un pp poco ottimizzato come gli 8nm di samsung.

nvidia può permettersi quello che vuole, ormai è come la apple che si è permessa di cambiare piattaforma chiudendosi ancora di più a guscio.

Amd però potrebbe darsi una svegliata , se non adesso ( anche se ci spero un po ), con la prossima gen

Adesso è a posto con le cpu almeno per 2 anni , le console prima di 3 anni non dovrebbero rompergli le scatole con upgrade a prezzi folli , quindi è il momento di spingere sulle GPU e spingere con una architettura modulare, l'unica chance che ha per essere competitiva contro nvidia che ha clientela che spende cifre assurde ed è bloccata con i monitor gsync.

lo ha capito perfino quella capocciona di intel.

OrazioOC
03-07-2020, 13:32
purtroppo i fanboysti rossi non capiscono che come performance per watt nvidia è almeno 2 step avanti. Quindi può permettersi un pp poco ottimizzato come gli 8nm di samsung.

Con buona pace di chi fa confronti tra polaris e navi, scordandosi dell'80% in più di transistors di quest'ultima a parità di die size.:rolleyes:

P.S ma quindi il leak della 3080 ti asus strix è fondato?

argez
03-07-2020, 13:45
qualsiasi processo produttivo adottera' nvidia dicuramente sara' sempre meglio di amd, che in ambito gpu ci ha abituato nella corsa ai processi produttivi migliori per poi fare sempre letteralmnte e puntualmente schifo dal punto energetico e prestazionale rispetto alla controparte nvidia, c'e' poco da fare, se investi poco e niente in architetture e ricerca aevoglia a prenotare gli ordinativi sui PP piu' avanzati, se hai un chip di m....a manco i 3nm possono salvarti :D

comunque non dico niente, vedremo questa nuova architettura di amd e speriamo che sia per lo meno competitiva sulla fascia media.che riesca a comprare una rossa almeno per il mio prossimo muletto,kissa'

purtroppo i fanboysti rossi non capiscono che come performance per watt nvidia è almeno 2 step avanti. Quindi può permettersi un pp poco ottimizzato come gli 8nm di samsung.

Forse siete rimasti alle vega/VII, perchè già con rdna c'è stato un quasi pareggio con la diretta concorrenza dal punto di vista performance per watt.

OrazioOC
03-07-2020, 13:52
Forse siete rimasti alle vega/VII, perchè già con rdna c'è stato un quasi pareggio con la diretta concorrenza dal punto di vista performance per watt.

https://tpucdn.com/review/amd-radeon-rx-5700-xt/images/performance-per-watt_1920-1080.png
Sembra più la risposta a pascal, speriamo si riprendano con rdna 2 altrimenti con ampere la forbice aumenterà ancora.:rolleyes:

mikael84
03-07-2020, 14:30
GPU NVIDIA GeForce "Ampere" basate su Samsung 8nm anziché su TSMC 7nm?

La prossima famiglia di GPU GeForce "Ampere" di NVIDIA sarà costruita quasi interamente sul processo di fabbricazione del silicio a 8 nanometri di Samsung che deriva dal suo nodo da 10 nm; piuttosto che il processo a 7 nm di TSMC, secondo kopite7kimi, una fonte con un alto tasso di hit con le voci NVIDIA in passato. Il nodo di fabbricazione del silicio 8LPP di Samsung è un'estensione del nodo 10LPP (10 nm) dell'azienda. Entrambi hanno lo stesso passo delle alette, ma si riducono le aree del passo del gate (in calo del 6%) con una densità del transistor di oltre 61 milioni / mm². Apparentemente l'intero stack di prodotti di fascia alta di NVIDIA, incluso il silicio GA102 che alimenta almeno tre SKU di fascia alta di consumo, dovrebbe essere basato su Samsung 8LPP.

FONTE (https://www.techpowerup.com/269347/nvidia-geforce-ampere-gpus-built-on-samsung-8nm-instead-of-tsmc-7nm)

I 14 LPP di samsung visti sulle schede di fascia molto bassa, 1050ti, non erano male, densità di 25mt/mm2, superiore alle 1080/60, e pari alle 1080ti, ma li è stato svolto un lavoro sulle pipe, dove il GPC è passato da 1,8mt a 2 per clockare meglio.
Il rapporto è perfettamente identico alle turing.

I chip delle 1050ti erano solitamente tarati a 75w, lo si vede da furmark (malgrado il 6 pin).
Clockavano a 1800/1820 a 1,1v (più tensione), ma non abbiamo prove su chipponi.
Il 20% sbandierato potrebbe portare pure un boost di 2150 a 1,1v o meno per via del PP, ed ovviamente downclock per vari fattori. Ovviamente bisogna vedere il rapporto elettrico di nvidia.

Con questi nm, si partirà da 590 in su.
Se aggiungessimo il solo GPC, avremmo un chip a 12nm di 826mm2.

Con buona pace di chi fa confronti tra polaris e navi, scordandosi dell'80% in più di transistors di quest'ultima a parità di die size.:rolleyes:

P.S ma quindi il leak della 3080 ti asus strix è fondato?

Si, navi se prendiamo un classico database TPU, guadagna il 76%, con l'80% dei transistor. Quindi non è un miracolo.

Crysis90
03-07-2020, 14:31
GPU NVIDIA GeForce "Ampere" basate su Samsung 8nm anziché su TSMC 7nm?


Vabè non penso che cambi dal giorno alla notte.

AceGranger
03-07-2020, 14:35
Forse siete rimasti alle vega/VII, perchè già con rdna c'è stato un quasi pareggio con la diretta concorrenza dal punto di vista performance per watt.

stanno su un nodo di vantaggio... RDNA è ancora un'architettura inefficiente.


una 5700XT ha prestazioni in linea con una 2070; ha un numero di transistor simili ma la 2070 in quei transistor ne ha un 10% riservati per l'RT;

RDNA necessita di piu transistor e un nodo di vantaggio per avere pari prestazioni ed efficienza con Turing.

mikael84
03-07-2020, 14:45
Vabè non penso che cambi dal giorno alla notte.

Dal giorno alla notte no, però è sempre uno svantaggio, parliamo dei 10nm leggermente pompati.:)

Cmq, ancora non è detto nulla.

amon.akira
03-07-2020, 14:45
Forse siete rimasti alle vega/VII, perchè già con rdna c'è stato un quasi pareggio con la diretta concorrenza dal punto di vista performance per watt.

quasi pareggio è vero, ma 7nm vs 12nm....se pareggi con un salto di nodo significa che perdi in arch, con rdna2 penso che ci andrà molto vicino

Vul
03-07-2020, 14:55
ma quando dovrebbe uscire ampere si sa?

Crysis90
03-07-2020, 14:57
ma quando dovrebbe uscire ampere si sa?

Settembre.

mikael84
03-07-2020, 15:11
stanno su un nodo di vantaggio... RDNA è ancora un'architettura inefficiente.


una 5700XT ha prestazioni in linea con una 2070; ha un numero di transistor simili ma la 2070 in quei transistor ne ha un 10% riservati per l'RT;

RDNA necessita di piu transistor e un nodo di vantaggio per avere pari prestazioni ed efficienza con Turing.

La 2070 ha pure nvlink ma non accessibile, però lo ha, il chip nei collegamenti ha dimensioni leggermente superiori a quelli della TI, malgrado gli stessi 6 TPC x GPC e 72mm2 a raster di calcolo.

Per transistor sono 3,1mt a GPC per la TI, e 1,5mt di collegamento. La 2070 ha paradossalmente 9,3mt + 1,5 di collegamento a vuoto, che significano che in quel chip c'è un connettore non usufruibile e 16 rop's non usufruibili, in quanto un raster non c'è.:)

DJurassic
03-07-2020, 15:26
Il reparto gaming Pc è stato “spodestato” dalle consolle ed è da considerarsi come un settore di nicchia purtroppo.
La vedo dura un terzo concorrente disposto ad investire nella ricerca e nello sviluppo in tale settore.

Per fortuna che ogni tanto c'è qualcuno che rimette in onda questa supercazzola. Quasi quasi mi stavo preoccupando. :asd:

Telstar
03-07-2020, 15:28
nvidia può permettersi quello che vuole, ormai è come la apple che si è permessa di cambiare piattaforma chiudendosi ancora di più a guscio.

Non mi sembra, proprio 6 mesi fa l'architettura gsync è diventata più aperta con l'introduzione della modalità "gsync compatible" e il supporto al VRR vesa. Di fatto il 99% dei nuovi monitor di fascia alta supportano ora solo questa modalità (e freesync premium lato amd). I moduli gsync 2.0 necessari per l'ultimate ci sono solo sui modelli di monitor più estremi che compra solo chi butta soldi sulle titan.

Sicuramente sia AMD che intel devono darsi una mossa, ché la concorrenza fa solo bene al mercato. A me però non sembra che nvidia si sia adagiata sugli allori quanto intel, le prestazioni delle gpu continuano a salire secondo la legge di Moore. Siamo vicini ma non siamo ancora arrivati al punto di avere miglioramenti incrementali di pochi punti come per le cpu.

Giovamas
03-07-2020, 15:42
Settembre.

ci sta. quindi secondo te per custom serie? Msi Zotac Asus Evga.. sicuramente un mesetto o due di founders prima del via libera a mio avviso. comunque a questo giro non vendo prima di avere visto come gira il tutto

fraussantin
03-07-2020, 15:55
Non mi sembra, proprio 6 mesi fa l'architettura gsync è diventata più aperta con l'introduzione della modalità "gsync compatible" e il supporto al VRR vesa. Di fatto il 99% dei nuovi monitor di fascia alta supportano ora solo questa modalità (e freesync premium lato amd). I moduli gsync 2.0 necessari per l'ultimate ci sono solo sui modelli di monitor più estremi che compra solo chi butta soldi sulle titan.



Sicuramente sia AMD che intel devono darsi una mossa, ché la concorrenza fa solo bene al mercato. A me però non sembra che nvidia si sia adagiata sugli allori quanto intel, le prestazioni delle gpu continuano a salire secondo la legge di Moore. Siamo vicini ma non siamo ancora arrivati al punto di avere miglioramenti incrementali di pochi punti come per le cpu.

L'architettura g Sync è blindata come prima
Nvidia ha solo aperto le porte a tutti gli utenti rossi che avevano un monitor freesync.
Chi ha un monitor gsync con amd non può farci nulla se non sbloccare il frame rate al massimo e sperare di non vedere tearing ( Che dice sui 240hz non si vede , io sul 144 lo vedo )
O mettere vsync
Il gsync esiste sempre,ed a prezzi più proibitivi di prima.

mikael84
03-07-2020, 16:05
ci sta. quindi secondo te per custom serie? Msi Zotac Asus Evga.. sicuramente un mesetto o due di founders prima del via libera a mio avviso. comunque a questo giro non vendo prima di avere visto come gira il tutto

Fai bene, le disponibilità iniziali saranno limitate sicuramente sui big chip, ed a prezzi folli. Se fanno come turing poi...
Io consiglio, considerando che nel q4 dovrebbe uscire AMD e le 3070 con GA104 di vedere il mercato posizionarsi.:)

majinbu7
03-07-2020, 16:12
Qualsiasi processo produttivo adottera' nvidia sicuramente sara' sempre meglio di amd, che in ambito gpu ci ha abituato alla corsa ai processi produttivi migliori, per poi fare sempre letteralmnte e puntualmente schifo dal punto energetico e prestazionale rispetto alla controparte nvidia, c'e' poco da fare, se investi poco e niente in architetture e ricerca aevoglia a prenotare gli ordinativi sui PP piu' avanzati, se hai un chip di m....a manco i 3nm possono salvarti :D

comunque non dico niente, vedremo questa nuova architettura di amd e speriamo che sia per lo meno competitiva sulla fascia media.che riesca a comprare una rossa almeno per il mio prossimo muletto,kissa'

purtroppo i fanboysti rossi non capiscono che come performance per watt nvidia è almeno 2 step avanti. Quindi può permettersi un pp poco ottimizzato come gli 8nm di samsung.

Ragazzi però i vostri sembrano più post da tifosi da stadio che altro....a questo giro AMD potrebbe (e c'è veramente da sperarlo, visto l'andazzo) stupirci con un buon prodotto dal rapporto prezzo/prestazioni/consumi , non arriverà a competere nella fascia 3080TI o 3090 che dir si voglia, ma dalla 3080 in giù potrà dire finalmente la sua.

OvErClOck82
03-07-2020, 16:38
Ragazzi però i vostri sembrano più post da tifosi da stadio che altro....a questo giro AMD potrebbe (e c'è veramente da sperarlo, visto l'andazzo) stupirci con un buon prodotto dal rapporto prezzo/prestazioni/consumi , non arriverà a competere nella fascia 3080TI o 3090 che dir si voglia, ma dalla 3080 in giù potrà dire finalmente la sua.

sembrano ? :stordita:

mircocatta
03-07-2020, 16:42
stanno su un nodo di vantaggio... RDNA è ancora un'architettura inefficiente.


una 5700XT ha prestazioni in linea con una 2070; ha un numero di transistor simili ma la 2070 in quei transistor ne ha un 10% riservati per l'RT;

RDNA necessita di piu transistor e un nodo di vantaggio per avere pari prestazioni ed efficienza con Turing.

si, qui parliamo come se ci fossero differenze esorbitanti, ma alla fine la differenza è, si e no, il 3% per perf/transistor (togliendo quel 10% RT)

domanda da fare @mikael, ma il fatto che amd comunque metta 10.300 milioni di transistor in 250mm2 è un plauso o è tutto grazie solo ai 7nm?

Telstar
03-07-2020, 16:45
Ragazzi però i vostri sembrano più post da tifosi da stadio che altro....

a questo giro AMD potrebbe (e c'è veramente da sperarlo, visto l'andazzo) stupirci con un buon prodotto dal rapporto prezzo/prestazioni/consumi , non arriverà a competere nella fascia 3080TI o 3090 che dir si voglia, ma dalla 3080 in giù potrà dire finalmente la sua.

Io ho detto la pura verità, se per te sembra tifoseria, amen. Edit: ok solo 1 step avanti, mi era sfuggito RDNA1.

Magari amd o intel o pincopallo fa uscire una vga ammazzagiganti: io sono il primo a gioire.
Ma le tue previsioni mi sembrano moooolto ottimistiche.

Telstar
03-07-2020, 16:47
si, qui parliamo come se ci fossero differenze esorbitanti, ma alla fine la differenza è, si e no, il 3% per perf/transistor (togliendo quel 10% RT)

un tanto al kilo? :D

Telstar
03-07-2020, 16:51
L'architettura g Sync è blindata come prima
Nvidia ha solo aperto le porte a tutti gli utenti rossi che avevano un monitor freesync.

L'architettura è blindata ok, ma cosa impporta? rileggiti tutto quello che ho scritto prima.
Il punto non sono quelli che AVEVANO un monitor freesync, ma quelli che compreranno (da 6 mesi a questa parte)un monitor ad alto refresh e VFR (praticamente la totalità dei gamer).

AceGranger
03-07-2020, 16:58
si, qui parliamo come se ci fossero differenze esorbitanti, ma alla fine la differenza è, si e no, il 3% per perf/transistor (togliendo quel 10% RT)


Se parliamo di Raster Turing ottiene le medesime prestazioni con il 10% di transistor in meno.


domanda da fare @mikael, ma il fatto che amd comunque metta 10.300 milioni di transistor in 250mm2 è un plauso o è tutto grazie solo ai 7nm?

i transistor sono uguali per tutti.

le prendessi la 2070 e la portassi sui 7nm sarebbe grande come la 5700X, ma consumerebbe molto meno.

mikael84
03-07-2020, 17:21
si, qui parliamo come se ci fossero differenze esorbitanti, ma alla fine la differenza è, si e no, il 3% per perf/transistor (togliendo quel 10% RT)

Il 10% inteso sempre come trasposizione di tu106 vs tu116. In quest'ultima hanno lasciato una parte dei tensor core per fare FP16, quindi i tensor non sono del tutto disabilitati.
AMD come anche GP100 utilizzano le fp32 splittate in 2


domanda da fare @mikael, ma il fatto che amd comunque metta 10.300 milioni di transistor in 250mm2 è un plauso o è tutto grazie solo ai 7nm?

Merito quasi tutto del PP. Migliora un tantino rispetto a Vega, ma se analizziamo il rapporto transistor/mm2, ti verrebbe un die da 410mm2.
Tieni presente però, che con il vecchio PP, stavi tra i 1350/1500 non 1900 ed oltre.
La 5700 a 1500 rispetto alla 590 tocca appena il 40%. Aumentando i DCU, e portandoli pari a quelli della 5700xt, stavi poco sopra quel valore.
Alla fine ti ritrovavi nelle medie simil vega64.:)

---
Si poteva fare prima di vega64? No, per l'assenza di ddr6, che costringeva sempre a mettere HBM.:)
Vega64 era più flessibile per via del miglior rapporto fp64/INT8 etc.

fraussantin
03-07-2020, 17:25
L'architettura è blindata ok, ma cosa impporta? rileggiti tutto quello che ho scritto prima.
Il punto non sono quelli che AVEVANO un monitor freesync, ma quelli che compreranno (da 6 mesi a questa parte)un monitor ad alto refresh e VFR (praticamente la totalità dei gamer).

e cosa gli frega ad nvidia scusa? sempre ti puoi comprare una gpu verde a caro prezzo.

thunderforce83
03-07-2020, 17:42
Forse siete rimasti alle vega/VII, perchè già con rdna c'è stato un quasi pareggio con la diretta concorrenza dal punto di vista performance per watt.

Ragazzi però i vostri sembrano più post da tifosi da stadio che altro....a questo giro AMD potrebbe (e c'è veramente da sperarlo, visto l'andazzo) stupirci con un buon prodotto dal rapporto prezzo/prestazioni/consumi , non arriverà a competere nella fascia 3080TI o 3090 che dir si voglia, ma dalla 3080 in giù potrà dire finalmente la sua.

sembrano ? :stordita:

va bene ragazzi, amd e' sempre la migliore,sempre e comunque,non sbaglia mai un colpo,la mia ultima scheda amd fu' r390, compro nvidia da diversi anni solo perche' mi sono fatto fregare e non ho capito niente...;) :sofico:
va' meglio cosi'?

Giovamas
03-07-2020, 17:55
Mah, i vari PCB ancora non sono usciti allo scoperto, i dettagli lasciano a desiderare, e le custom vengono presentate poco prima del debutto a lavori ultimati.:)
Per ora, aspettiamo.:)

grazie Mike :)

OvErClOck82
03-07-2020, 17:59
va bene ragazzi, amd e' sempre la migliore,sempre e comunque,non sbaglia mai un colpo,la mia ultima scheda amd fu' r390, compro nvidia da diversi anni solo perche' mi sono fatto fregare e non ho capito niente...;) :sofico:
va' meglio cosi'?

discorso illogico... nessuno ha mai cercato di convincerti del contrario, poiché TUTTI sanno quanto nVidia sia avanti a livello di architettura e di efficienza... il problema è che ti esprimi in ogni singolo post come farebbe un 16enne che flamma tutto il giorno sui forum :asd:

mikael84
03-07-2020, 18:42
Se parliamo di Raster Turing ottiene le medesime prestazioni con il 10% di transistor in meno.



i transistor sono uguali per tutti.

le prendessi la 2070 e la portassi sui 7nm sarebbe grande come la 5700X, ma consumerebbe molto meno.

Per rendere l'idea 110 watt circa, una 2080ti FE 160/165watt:sofico:
Bel vantaggio

argez
03-07-2020, 20:11
Adesso i confronti quando torna comodo si fanno con schede che non esistono? Bene a sapersi.

Vendo nonne carretto al miglior offerente.

thunderforce83
03-07-2020, 20:46
discorso illogico... nessuno ha mai cercato di convincerti del contrario, poiché TUTTI sanno quanto nVidia sia avanti a livello di architettura e di efficienza... il problema è che ti esprimi in ogni singolo post come farebbe un 16enne che flamma tutto il giorno sui forum :asd:

Mi perdoni se sono un sedicenne in erba, per fortuna abbiamo gente come lei che e' posata ed autoritaria:) grazie per la perla di saggezza,faro' sicuramente una profonda autocritica sulla sua riflessione elevata e di grande spessore,le auguro una buona serata.

AceGranger
03-07-2020, 20:57
Adesso i confronti quando torna comodo si fanno con schede che non esistono? Bene a sapersi.

Vendo nonne carretto al miglior offerente.

si fanno confronti ipotetici per far comprendere meglio le differenze architetturali esistenti.

amon.akira
03-07-2020, 22:43
Adesso i confronti quando torna comodo si fanno con schede che non esistono? Bene a sapersi.


giustamente dopo che si ignorano quelli reali dicendo amd e nvidia alla pari sul perf/watt nonostante il 7nm vs 12nm, figuriamoci quelli ipotetici...:asd:

OvErClOck82
04-07-2020, 01:00
Mi perdoni se sono un sedicenne in erba, per fortuna abbiamo gente come lei che e' posata ed autoritaria:) grazie per la perla di saggezza,faro' sicuramente una profonda autocritica sulla sua riflessione elevata e di grande spessore,le auguro una buona serata.Guarda che a me non viene in tasca nulla eh :asd: hai già beccato svariate sospensioni, se sei contento così io non ci metto bocca.



Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk

thunderforce83
04-07-2020, 01:25
Guarda che a me non viene in tasca nulla eh :asd: hai già beccato svariate sospensioni, se sei contento così io non ci metto bocca.



Inviato dal mio Redmi Note 8 Pro utilizzando Tapatalk

Grazie infinite per ricordare a questo povero sedicenne vecchio questi inconvenevoli, noto la massima espressione della sua anima nel contare le mie sospensioni, sicuramente e' una persona molto attenta ed erudita, grazie ancora :) le auguro una serena notte:)

Spytek
04-07-2020, 07:14
Per fortuna che ogni tanto c'è qualcuno che rimette in onda questa supercazzola. Quasi quasi mi stavo preoccupando. :asd:
E c’è anche chi risponde con un’altrettante supercazzola.
Quasi quasi mi stavo preoccupando anche io :asd:

Spytek
04-07-2020, 07:31
Ragazzi però i vostri sembrano più post da tifosi da stadio che altro....a questo giro AMD potrebbe (e c'è veramente da sperarlo, visto l'andazzo) stupirci con un buon prodotto dal rapporto prezzo/prestazioni/consumi
Molti non capiscono o fingono di non capire che la mancanza di concorrenza è deleteria per l’acquirente finale.
E ho la vaga impressione che a molti stia benissimo che Nvidia immetta sul mercato un modello di punta ad un prezzo spropositato rispetto al target abituale.
Se Amd decidesse di essere competitiva sulla fascia alta se ne vedrebbero delle belle e lo dico da acquirente non da fanboy Nvidia o Amd.

mircocatta
04-07-2020, 10:04
Molti non capiscono o fingono di non capire che la mancanza di concorrenza è deleteria per l’acquirente finale.
E ho la vaga impressione che a molti stia benissimo che Nvidia immetta sul mercato un modello di punta ad un prezzo spropositato rispetto al target abituale.
Se Amd decidesse di essere competitiva sulla fascia alta se ne vedrebbero delle belle e lo dico da acquirente non da fanboy Nvidia o Amd.

giustissimo, ma l'anno buono per lamentarsi era il 2019, quando navi fu fatto solo su un chippetto da 250mmq e non su tagli superiori, il contropiede di nvidia con l'RT ha imho inciso molto, amd probabilmente non era ancora pronta a fare chip con RT integrato (come a suo tempo non lo fu con gli shader unificati del g80 se non ricordo male) percui ha preferito fare solo un chip che potesse coprire la piu ampia fetta di mercato (cioè quella media e bassa)
da li abbiamo saputo che big navi con RT era previsto nel 2020, ora siamo a pochi mesi d'attesa quindi è inutile lamentarsi, la "concorrenza" verrà smossa da qui a poco, basta aspettare
checché dicano i guru, se amd mi parla di +50% perf watt significa che puntano ad avere una scheda da 210w (fascia media) con prestazioni pari a 2080ti, ma nulla vieta di pensare che a questo giro sfornerà anche schede da 290watt (come ha poi sempre fatto, tranne con rdna1), con prestazioni conseguentemente superiori ad una 2080ti... raggiungerà così anche una 3080ti? e chi lo sa, sinceramente non mi interessa, basta che sia concorrenziale e non piazzata ad un prezzo assurdo per far cartello con le verdi (e qui è il rischio più grosso, visto che è già stato fatto cartello con rdna1)

dal canto mio non mi costa nulla aspettare, ho appena venduto la 1080ti e resto alla porta per vedere quello che verrà offerto entro fine anno, ma io sono un caso a parte, sono "fortunato" nel non trovare interessante nessun titolo in uscita, sto diventando davvero esigente :asd:

Spytek
04-07-2020, 11:01
ma l'anno buono per lamentarsi era il 2019, quando navi fu fatto solo su un chippetto da 250mmq e non su tagli superiori,
E mi sono lamentato anche nel 2019.:D
Scherzi a parte,ci si sarebbe aspettati di più da Amd per poter competere sulla fascia alta piuttosto che ricoprire solo quella medio/bassa.
In realtà la 5700Xt si posizionerebbe sulla fascia medio/alta ma troppo distante da una 2080Ti,come anche i prezzi chiaramente.

il contropiede di nvidia con l'RT ha imho inciso molto, amd probabilmente non era ancora pronta a fare chip con RT integrato (come a suo tempo non lo fu con gli shader unificati del g80 se non ricordo male) percui ha preferito fare solo un chip che potesse coprire la piu ampia fetta di mercato (cioè quella media e bassa)
da li abbiamo saputo che big navi con RT era previsto nel 2020, ora siamo a pochi mesi d'attesa quindi è inutile lamentarsi, la "concorrenza" verrà smossa da qui a poco, basta aspettare
Appunto,ci si aspetta da Amd che possa smuovere un po le acque ma è da tempo che ci si rimane con l'amaro in bocca.
E ti parla uno che è dai tempi dalla Ati X900 Xt PE che è passato ad Nvidia e resterò sempre fedele al marchio.

, basta che sia concorrenziale e non piazzata ad un prezzo assurdo per far cartello con le verdi (e qui è il rischio più grosso, visto che è già stato fatto cartello con rdna1)
Esatto ma il punto è capire se effettivamente Amd disponga delle tecnologie e potenza di calcolo per poter competere ad armi pari (come lo era in passato Ati) con Nvidia oppure mostra e mostrerà ancora il totale disinteresse per la fascia alta perchè i margini di guadagno nel segmento medio e basso le danno quella tranquillità di posizionamento del mercato "scegliendo"volutamente di non andare oltre.

Vul
04-07-2020, 13:03
boh io ancora non ho compreso tutta quest'esaltazione dell'rt.

L'antialiasing che offre mi pare una mezza ciofeca (forse piu` dettato dal software che dall'hardware, non lo so). L'alternativa amd sembra far molto meglio sia qualitativamente che a livello di performance.

Di utilizzi decenti di ray tracing ancora ne devo vedere e sono limitati a risoluzioni ed fps ridicoli.

Tutto questo costa un bel po' di $$ e dimensione del chip.

Si sa qualcosa sulle migliore del comparto rt in ampere?

parcher
04-07-2020, 13:45
boh io ancora non ho compreso tutta quest'esaltazione dell'rt.


A chi lo dici.. ho ceduto da poco una 5700XT, venivo dalla 1080TI.. ho saltato a piè pari Turing, sono in attesa delle novità da entrambi i fronti.. per me, come sempre, priorità al rapporto qualità prezzo, ma resto nel dubbio se abbandonare 2k per il 4k, lo step includerebbe la spesa del monitor di un certo livello..

Inviato dal mio RNE-L21 utilizzando Tapatalk

Free Gordon
04-07-2020, 13:48
questo spiegherebbe l alto tdp

ahi ahi ahi.. Vega Globalfoundries incoming? :asd:

Free Gordon
04-07-2020, 13:56
Qualsiasi processo produttivo adottera' nvidia sicuramente sara' sempre meglio di amd, che in ambito gpu ci ha abituato alla corsa ai processi produttivi migliori, per poi fare sempre letteralmnte e puntualmente schifo dal punto energetico e prestazionale rispetto alla controparte nvidia -CUT-'


A parte che ATI è dai 28nm che è a pari con Nvidia come PP... (Turing a parte)

Fino a quando è stata avanti di un mezzo nodo o prima ancora (R300), era sempre stata meglio come performance/watt... :asd:

Hai la memoria corta :D

Free Gordon
04-07-2020, 13:58
Forse siete rimasti alle vega/VII, perchè già con rdna c'è stato un quasi pareggio con la diretta concorrenza dal punto di vista performance per watt.

Performace/CU
Performance/frequenze
Ma non perf/watt, non ancora con Navi.


Ma vediamo con RDNA2 e i 7nm cosa succede. :sofico:

mikael84
04-07-2020, 14:34
@free Gordon, usa il multiquote, altrimenti diventa una chat.

Nurabsa
05-07-2020, 10:15
cut
Il problema del MCM, sta proprio nel gaming, per via delle latenze non nel ridondante.:)
Considerando che i gli HPC, hanno quantità industriali di BW per pararellizzazione.
Intel ha optato per grosse cache tra die, nvidia, non avendo accesso diretto alla l2 unificato, pensava di adottare una grossa l1,5 da ponte per reperire i 32 cicli tra WGM 1/2/3/4.:)

siamo sempre li quanto tempo ci impiega lungo in tragitto?
probabile un approccio condiviso stile l3 giusto concettualmente perche con le latenze di intel ci fai solo cpu - e comincia a stare stretta pure li-
Magari vedremo lievitare la l1 oppure quancosa di piu ingegnoso sulla l2 max2.0

Molti non capiscono o fingono di non capire che la mancanza di concorrenza è deleteria per l’acquirente finale.
E ho la vaga impressione che a molti stia benissimo che Nvidia immetta sul mercato un modello di punta ad un prezzo spropositato rispetto al target abituale.
Se Amd decidesse di essere competitiva sulla fascia alta se ne vedrebbero delle belle e lo dico da acquirente non da fanboy Nvidia o Amd.

secondo me parte il mega cartellone altro che amd buona e ati -rip- ci vuol bene.
Fantavga:
Di certo resta che se fanno una top stite 3080ti -che umilia la verde- al giusto tariffario 650/700..Lo dico mi vendo passo ai rossi

Thunder-74
05-07-2020, 12:02
Come dissi , fare cartello a AMD non converrebbe neanche se presentasse una vga di pari prestazioni ... se vuole aumentare quote di mercato , deve per forza essere più competitiva sui prezzi di nVidia, come ha fatto con Ryzen . Ditemi voi quanti acquirenti nVidia passerebbero ad AMD in una condizione di parità costo/prestazioni ... io credo nessuno, che motivo avrebbero. Il problema è che Ampere uscirà prima di una proposta AMD degna di nota ... vedremo


Inviato dal mio iPhone X utilizzando Tapatalk

mircocatta
05-07-2020, 12:12
Come dissi , fare cartello a AMD non converrebbe neanche se presentasse una vga di pari prestazioni ... se vuole aumentare quote di mercato , deve per forza essere più competitiva sui prezzi di nVidia, come ha fatto con Ryzen . Ditemi voi quanti acquirenti nVidia passerebbero ad AMD in una condizione di parità costo/prestazioni ... io credo nessuno, che motivo avrebbero. Il problema è che Ampere uscirà prima di una proposta AMD degna di nota ... vedremo


Inviato dal mio iPhone X utilizzando Tapatalk

lo dissi settimane fa: se ampere esce prima lo farà ai prezzi che vogliono loro, e quando amd uscirà con le sue proposte farà come rdna1: si piazzerà li a 100€ in meno, facendo cartello


l'unica nostra arma per fare abbassare il prezzo è non comprare più hardware pc e comprare una console che tutto sommato si presenteranno bene a una cifra che rasenterà il 50% di una sola vga desktop, ma ovviamente sarà impossibile :asd:

OrazioOC
05-07-2020, 12:20
Come dissi , fare cartello a AMD non converrebbe neanche se presentasse una vga di pari prestazioni ... se vuole aumentare quote di mercato , deve per forza essere più competitiva sui prezzi di nVidia, come ha fatto con Ryzen . Ditemi voi quanti acquirenti nVidia passerebbero ad AMD in una condizione di parità costo/prestazioni ... io credo nessuno, che motivo avrebbero. Il problema è che Ampere uscirà prima di una proposta AMD degna di nota ... vedremo


Inviato dal mio iPhone X utilizzando Tapatalk

La clientela bisogna anche mantenersela, mi ricordo il vuoto di due anni tra la fury x e la vega 64, che fece passare molti possessori di vecchie top di gamma amd ad nvidia(gente che aveva 7970/290/390 è passata alle 1070/1080 in assenza di una concorrente amd), ma idem adesso, per sostituire una vega 56/64, non passi alla 5700 xt o vega 7, passi ad una 2080/ti/super.
Invece nvidia offre di gen in gen upgrade tutto sommato ragionevoli lato performance, una 1080 ti è un'ottima scheda ma di certo non è come avere una 2080 super/ti soprattutto con le ultime uscite.

fraussantin
05-07-2020, 12:35
Come dissi , fare cartello a AMD non converrebbe neanche se presentasse una vga di pari prestazioni ... se vuole aumentare quote di mercato , deve per forza essere più competitiva sui prezzi di nVidia, come ha fatto con Ryzen . Ditemi voi quanti acquirenti nVidia passerebbero ad AMD in una condizione di parità costo/prestazioni ... io credo nessuno, che motivo avrebbero. Il problema è che Ampere uscirà prima di una proposta AMD degna di nota ... vedremo


Con i ryzen è stata ancora più furba..
Non solo ha seguito Intel nella corsa ad alzare i prezzi , ma ci ha messo il dazio anche sul chipset.
Ma se lo può permettere. Perchè Intel di sua volta ha rilanciato aumentando anche lei il costo delle mobo.
Addirittura aveva anche provato a fare fuori i chipset vecchi x470 b450 ma gli si è rivolta mezza community.. e ha fatto il passettino indietro.

Secondo me sulle GPU AMD offrirà 16 giga di RAM e userà quella cosa per tenere il prezzo allineato con Nvidia ( un po' meno ma non tanto).
E non sarebbe niente di nuovo.

spey
05-07-2020, 12:57
Con i ryzen è stata ancora più furba..
Non solo ha seguito Intel nella corsa ad alzare i prezzi , ma ci ha messo il dazio anche sul chipset.
Ma se lo può permettere. Perchè Intel di sua volta ha rilanciato aumentando anche lei il costo delle mobo.
Addirittura aveva anche provato a fare fuori i chipset vecchi x470 b450 ma gli si è rivolta mezza community.. e ha fatto il passettino indietro.

Secondo me sulle GPU AMD offrirà 16 giga di RAM e userà quella cosa per tenere il prezzo allineato con Nvidia ( un po' meno ma non tanto).
E non sarebbe niente di nuovo.

E cosi' la tanto amata AMD si dimostrera' per quello che e' sempre stata, una multinazionale come tante che guarda solo ai numerini, cioe' a noi.:D

Telstar
05-07-2020, 12:58
e cosa gli frega ad nvidia scusa? sempre ti puoi comprare una gpu verde a caro prezzo.

nvidia non ha bisogno di spingere gsync (il modulo) come una volta, poiché resterà solo su alcuni monitor top.

Telstar
05-07-2020, 13:00
l'unica nostra arma per fare abbassare il prezzo è non comprare più hardware pc e comprare una console che tutto sommato si presenteranno bene a una cifra che rasenterà il 50% di una sola vga desktop, ma ovviamente sarà impossibile :asd:

l'unica speranza è intel. Ha le capacità sia tecniche che economiche per fare concorrenza sui prezzi. Ammesso di volerlo ;)

fraussantin
05-07-2020, 13:16
l'unica speranza è intel. Ha le capacità sia tecniche che economiche per fare concorrenza sui prezzi. Ammesso di volerlo ;)Non ammazzerà mai il mercato con i prezzi.

Non è da lei farlo.

OrazioOC
05-07-2020, 13:22
l'unica speranza è intel. Ha le capacità sia tecniche che economiche per fare concorrenza sui prezzi. Ammesso di volerlo ;)

:rotfl: :rotfl: :rotfl:

Chi ha avuto sottomano le ultime intel hd, sà quanto i driver siano acerbi, e anche il progetto alla base è quello che è.
Un conto è confrontarsi con delle integrate amd che hanno evidenti problemi di bandwith, un altro con delle dedicate che contano centinaia di gbps di banda passante.
Basta vedere anche qualche confronto nei leak della dg1, scheda che non riesce neanche a superare una 1050 2gb 4 anni dopo la sua uscita, nonostante siano schede di fascia entrylevel.
Per non parlare poi dell'incognita silicio, sarebbe già ottimo che le producano da samsung con il loro fake 7nm, figuriamoci con i 14nm delle cpu lake.:rolleyes:

Per i prossimi anni, sarà ancora amd vs nvidia, sperando che amd questa volta si degni di coprire almeno 3/4 della lineup della concorrente.:rolleyes:

Spytek
05-07-2020, 13:36
l'unica speranza è intel. Ha le capacità sia tecniche che economiche per fare concorrenza sui prezzi. Ammesso di volerlo ;)
Sicuramente ma dovrebbe avere anche un supporto driver maturo e performante alle spalle una volta deciso di competere sul mercato delle sk grafiche.
E su quest’ultimo aspetto la vedo dura e occorrerà tempo e fasi di sviluppo.

Crysis90
05-07-2020, 14:04
l'unica nostra arma per fare abbassare il prezzo è non comprare più hardware pc e comprare una console

Bannatelo subito. :read: :banned:

mircocatta
05-07-2020, 14:09
E cosi' la tanto amata AMD si dimostrera' per quello che e' sempre stata, una multinazionale come tante che guarda solo ai numerini, cioe' a noi.:D

Maccome, non è una Onlus che DEVE svendere le sue GPU per permettere a noi altri di prendere una rtx in sconto? :(

Bannatelo subito. :read: :banned:

:Prrr:

mikael84
05-07-2020, 15:32
Secondo me sulle GPU AMD offrirà 16 giga di RAM e userà quella cosa per tenere il prezzo allineato con Nvidia ( un po' meno ma non tanto).
E non sarebbe niente di nuovo.

Il problema di AMD, oltre allo scaling è rappresentato dal collo di bottiglia rop's/bw.
I big chip probabilmente avranno 16gb di HBM con costi molto elevati.
Se si decide di fare un 384bit ddr6, si ritroverà con dei colli di bottiglia in 4k.
Inoltre AMD per il tipo di controller non può utilizzare memorie occate, ma solo rettificate.

parcher
05-07-2020, 16:03
E cosi' la tanto amata AMD si dimostrera' per quello che e' sempre stata, una multinazionale come tante che guarda solo ai numerini, cioe' a noi.:DÈ un'azienda, non una ONLUS.. ognuno porta l'acqua al suo Mulino come può. 😉

Inviato dal mio RNE-L21 utilizzando Tapatalk

thunderforce83
05-07-2020, 17:03
Come dissi , fare cartello a AMD non converrebbe neanche se presentasse una vga di pari prestazioni ... se vuole aumentare quote di mercato , deve per forza essere più competitiva sui prezzi di nVidia, come ha fatto con Ryzen . Ditemi voi quanti acquirenti nVidia passerebbero ad AMD in una condizione di parità costo/prestazioni ... io credo nessuno, che motivo avrebbero. Il problema è che Ampere uscirà prima di una proposta AMD degna di nota ... vedremo


Inviato dal mio iPhone X utilizzando Tapatalk
nessuno esatto.vaglielo a dire a quelli che pensano ancora che amd possa diventare competitiva lato gpu:doh:
La clientela bisogna anche mantenersela, mi ricordo il vuoto di due anni tra la fury x e la vega 64, che fece passare molti possessori di vecchie top di gamma amd ad nvidia(gente che aveva 7970/290/390 è passata alle 1070/1080 in assenza di una concorrente amd), ma idem adesso, per sostituire una vega 56/64, non passi alla 5700 xt o vega 7, passi ad una 2080/ti/super.
Invece nvidia offre di gen in gen upgrade tutto sommato ragionevoli lato performance, una 1080 ti è un'ottima scheda ma di certo non è come avere una 2080 super/ti soprattutto con le ultime uscite.
Decisamente.tantissimi hanno fatto questo salto, me compreso...:sofico:

TigerTank
05-07-2020, 17:55
Da aggiungere anche che il freesync premium compatibile con nvidia, in generale mi sa che ha dato più vantaggi a quest'ultima che ad amd...
Molta gente ha trovato un punto di incontro tra uno schermo gsync-compatibile(in alternativa ad un gsync nativo più costoso) e appunto una scheda nvidia.

fraussantin
06-07-2020, 05:09
https://multiplayer.it/notizie/death-stranding-gira-pc-oltre-100-fps-4k-rtx-2080-ti-dlss-20.html

Non ho capito se ha il raytracing o no questo gioco.

nessuno29
06-07-2020, 07:15
https://multiplayer.it/notizie/death-stranding-gira-pc-oltre-100-fps-4k-rtx-2080-ti-dlss-20.html

Non ho capito se ha il raytracing o no questo gioco.

Ha il dlss 2.0, ma non sfrutta rtx, sono separate le due cose.

Nurabsa
06-07-2020, 09:55
verdi rosse e blu sono tre big americane leader mondiali del settore.
Preferivo l Ontario una canadese nel gruppo sempre meglio che niente ma sappiamo tutti come andata.

Trainano l economia a stelle e strisce sono l orgoglio di quella nazione insieme a tante altre molto famose. Non aspettiamoci miracoli o lotte fratricida
A livello mondiale tolta l uk con arm -che ha sfondato sul mobile- per il resto l europa non saprebbe mettere insieme nemmeno i transistor per uno z80

majinbu7
06-07-2020, 11:29
va bene ragazzi, amd e' sempre la migliore,sempre e comunque,non sbaglia mai un colpo,la mia ultima scheda amd fu' r390, compro nvidia da diversi anni solo perche' mi sono fatto fregare e non ho capito niente...;) :sofico:
va' meglio cosi'?

Scusa ma cosa vorresti dimostrare con questo post dai toni decisamente infantili?
Magari la prossima volta rileggi bene il mio post e rifletti prima di rispondere , o non quotarmi ;)

Molti non capiscono o fingono di non capire che la mancanza di concorrenza è deleteria per l’acquirente finale.
E ho la vaga impressione che a molti stia benissimo che Nvidia immetta sul mercato un modello di punta ad un prezzo spropositato rispetto al target abituale.
Se Amd decidesse di essere competitiva sulla fascia alta se ne vedrebbero delle belle e lo dico da acquirente non da fanboy Nvidia o Amd.

Esattamente così, oppure provano un certo piacere a vedersi spillare sempre più soldi...non si capisce ...bah :doh:

DarkNiko
06-07-2020, 11:38
Rispondo come è stato risposto a me tantissime altre volte.

Nessuno vi obbliga a sborsare migliaia di euro, non è il thread delle scelte morali, se sia giusto o sbagliato spendere simili cifre, etc etc.

Se NVidia vende le sue schede ai prezzi che vuole, evidentemente è perché ci sono tanti utenti, utOnti, polli, fessi, chiamateli come volete, che le comprano.

Se poi vogliamo boicottare NVidia, nessuno dovrebbe più acquistare nulla finché non si scende alla soglia di prezzi desiderata. Ma pensate che davvero ciò potrà mai accadere senza una vera concorrenza ?

thunderforce83
06-07-2020, 12:09
Scusa ma cosa vorresti dimostrare con questo post dai toni decisamente infantili?
Magari la prossima volta rileggi bene il mio post e rifletti prima di rispondere , o non quotarmi ;)


Hai ragione tu...amd tornera' competitiva e gli asini voleranno:p

Thunder-74
06-07-2020, 13:36
Rispondo come è stato risposto a me tantissime altre volte.

Nessuno vi obbliga a sborsare migliaia di euro, non è il thread delle scelte morali, se sia giusto o sbagliato spendere simili cifre, etc etc.

Se NVidia vende le sue schede ai prezzi che vuole, evidentemente è perché ci sono tanti utenti, utOnti, polli, fessi, chiamateli come volete, che le comprano.

Se poi vogliamo boicottare NVidia, nessuno dovrebbe più acquistare nulla finché non si scende alla soglia di prezzi desiderata. Ma pensate che davvero ciò potrà mai accadere senza una vera concorrenza ?

Quoto la parte in neretto. Possiamo fare riflessioni su quanto la concorrenza vada ad influire i prezzi... di certo non scopriamo l'acqua calda.... ma alla fine si parla di prodotti non indispensabili . Se si è disposti a comprare bene, altrimenti amen... discorso polli, utonti ecc, anche no. Ognuno fa quello che vuole e non credo, vista la tipologia del tutto "lusso" del prodotto in oggetto, si debba porre la domanda se è bene comprare o fare "Class Action" per far abbassare i prezzi... Alla fine sembra .... voglio il Ferrari e me la prendo con chi la compra a prezzo pieno, perchè la vorrei comprare anch'io, ma a meno... fosse un prodotto che si trova nel "paniere"...
Quindi, sperare nella concorrenza ci sta, ma criticare chi vuole comprare, no...

DarkNiko
06-07-2020, 14:02
discorso polli, utonti ecc, anche no. Ognuno fa quello che vuole e non credo, vista la tipologia del tutto "lusso" del prodotto in oggetto, si debba porre la domanda se è bene comprare o fare "Class Action" per far abbassare i prezzi... Alla fine sembra .... voglio il Ferrari e me la prendo con chi la compra a prezzo pieno, perchè la vorrei comprare anch'io, ma a meno... fosse un prodotto che si trova nel "paniere"...
Quindi, sperare nella concorrenza ci sta, ma criticare chi vuole comprare, no...

Non sono del tutto d'accordo. La Ferrari è da sempre una macchina pensata al "lusso" e le cifre che devi sborsare mantengono il medesimo ordine di grandezza e la vettura il suo valore.

Con le VGA il paragone con la Ferrari non è proprio azzeccatissimo, perché non c'è ragione per la quale una top di gamma che fino a pochi anni fa veniva prezzata sui 500-700 € (ed era già una esagerazione), adesso arrivi a costare 2 se non 3 volte tanto. Eppure, il processo produttivo è molto più raffinato, i consumi ridotti (almeno sulla carta) ma i costi più che raddoppiati.

Quindi qualcosa che stona c'è. Ma per il resto vale più o meno il discorso fatto sopra.

fraussantin
06-07-2020, 14:29
Non sono del tutto d'accordo. La Ferrari è da sempre una macchina pensata al "lusso" e le cifre che devi sborsare mantengono il medesimo ordine di grandezza e la vettura il suo valore.

Con le VGA il paragone con la Ferrari non è proprio azzeccatissimo, perché non c'è ragione per la quale una top di gamma che fino a pochi anni fa veniva prezzata sui 500-700 &euro; (ed era già una esagerazione), adesso arrivi a costare 2 se non 3 volte tanto. Eppure, il processo produttivo è molto più raffinato, i consumi ridotti (almeno sulla carta) ma i costi più che raddoppiati.

Quindi qualcosa che stona c'è. Ma per il resto vale più o meno il discorso fatto sopra.Il problema per quanto mi riguarda non é che la Ferrari costa troppo e sempre di piú , é che una panda di mer*a rifinita e accessoriata come un cassone di 20 anni fa costa un sacco di soldi.

Lo stesso é per le GPU . Se la titan Costa 3000 euro mi frega meno di 0 .

Mi scoccia pagare una x106 piena 500 euro.

Ma tant'é che se vuoi l'automobile 10k ( minimo) devi cacciare , e lo stesso vale per il PC
Gli stipendi invece almeno da noi sono diminuiti in proporzione soprattutto per colpa dei contratti di lavoro di mer*a Che vengono fatti.

majinbu7
06-07-2020, 14:31
Hai ragione tu...amd tornera' competitiva e gli asini voleranno:p

Ultima volta che ti rispondo perchè a quanto pare sei uno al quale va molto bene questa situazione di monopolio Nvidia che sovraprezza le VGA . Non ho mai detto che AMD tornerà competitiva, bensì c'è da SPERARLO , in un normale regime di mercato con una buona concorrenza, i prezzi tendono ad abbassarsi , pensa ci guadagneresti pure tu con l'acquisto della prossima top Nvidia se la top AMD fosse competitiva, perchè costringerebbe la casa di Santa Clara a darsi una regolata sui prezzi (a meno che le due signorine sopra citate non si mettano a fare un bel cartello) ;)

DarkNiko
06-07-2020, 14:37
Il problema per quanto mi riguarda non é che la Ferrari costa troppo e sempre di piú , é che una panda di mer*a rifinita e accessoriata come un cassone di 20 anni fa costa un sacco di soldi.

Lo stesso é per le GPU . Se la titan Costa 3000 euro mi frega meno di 0 .

Mi scoccia pagare una x106 piena 500 euro.

Ma tant'é che se vuoi l'automobile 10k ( minimo) devi cacciare , e lo stesso vale per il PC
Gli stipendi invece almeno da noi sono diminuiti in proporzione soprattutto per colpa dei contratti di lavoro di mer*a Che vengono fatti.

Ma infatti, vedi, ho una VGA in firma, serie Maxwell, acquistata nel lontano (tecnologicamente parlando) Maggio del 2015 e ancora rulla, quindi nessuno ci obbliga a spendere centinaia di euro per dei "bidoni di M....", così come nessuno ci obbliga a dover per forza cambiare o comprare.

Capisco magari chi invece ha necessità di farlo e si trova, suo malgrado, costretto a spendere di più che in passato. Comunque, evitiamo di fare i paragoni con gli stipendi, siamo palesemente off-topic e si rischia solo di creare flame polemici (anche se condivido il tuo pensiero). :)

thunderforce83
06-07-2020, 14:59
Ultima volta che ti rispondo perchè a quanto pare sei uno al quale va molto bene questa situazione di monopolio Nvidia che sovraprezza le VGA . Non ho mai detto che AMD tornerà competitiva, bensì c'è da SPERARLO , in un normale regime di mercato con una buona concorrenza, i prezzi tendono ad abbassarsi , pensa ci guadagneresti pure tu con l'acquisto della prossima top Nvidia se la top AMD fosse competitiva, perchè costringerebbe la casa di Santa Clara a darsi una regolata sui prezzi (a meno che le due signorine sopra citate non si mettano a fare un bel cartello) ;)

io lo spero piu' di te che ci sia concorrenza ma vedendo le ultime vicissitudini la vedo improbabile...sinceramente ripongo piu' speranze su intel che su amd per una buona concorrenza. Non arrabbiarti, non e' mia intenzione offendere o prendere in giro, semplicemente tiro fuori un po' di sarcasmo:)

mikael84
06-07-2020, 15:13
:rotfl: :rotfl: :rotfl:

Chi ha avuto sottomano le ultime intel hd, sà quanto i driver siano acerbi, e anche il progetto alla base è quello che è.
Un conto è confrontarsi con delle integrate amd che hanno evidenti problemi di bandwith, un altro con delle dedicate che contano centinaia di gbps di banda passante.
Basta vedere anche qualche confronto nei leak della dg1, scheda che non riesce neanche a superare una 1050 2gb 4 anni dopo la sua uscita, nonostante siano schede di fascia entrylevel.
Per non parlare poi dell'incognita silicio, sarebbe già ottimo che le producano da samsung con il loro fake 7nm, figuriamoci con i 14nm delle cpu lake.:rolleyes:

Per i prossimi anni, sarà ancora amd vs nvidia, sperando che amd questa volta si degni di coprire almeno 3/4 della lineup della concorrente.:rolleyes:

Attenzione a giudicare da quella GPU estremamente low, che non è neppure il raster massimo su 16.
Io ho visto il progetto MCM intel e non è così male.
Qua parliamo di 768 core a clock molto bassi, ma il progetto finale, può contare su 8196 shader su 300watt e 16000 su HPC 500watt.
L'unico problema è che per ora Ampere sarà sola, forse vedremmo le soluzioni Intel allinearsi ad Hopper.:)


Ultima volta che ti rispondo perchè a quanto pare sei uno al quale va molto bene questa situazione di monopolio Nvidia che sovraprezza le VGA . Non ho mai detto che AMD tornerà competitiva, bensì c'è da SPERARLO , in un normale regime di mercato con una buona concorrenza, i prezzi tendono ad abbassarsi , pensa ci guadagneresti pure tu con l'acquisto della prossima top Nvidia se la top AMD fosse competitiva, perchè costringerebbe la casa di Santa Clara a darsi una regolata sui prezzi (a meno che le due signorine sopra citate non si mettano a fare un bel cartello) ;)

Sicuramente sarà così, sui chip AMD c'è l'incognita HBM e grossi bus, con costi annessi ben superiori. Con le ddr6 rischiano di perdere prestazioni sopratutto in 4k, fascia a cui è rivolta.
Con il precedente cartello, abbiamo visto chippini da 250mm2 (410 in confronto ad nvidia), prezzati tra i 399/449$.
Sono convinto di una pura battaglia big navi vs 3080, non a caso nvidia ha deciso di puntare su GA102, probabilmente si aspetta una buona soluzione dell'avversario.

A sto giro, però ci sono anche altri parametri da guardare, non solo raster.

Thunder-74
06-07-2020, 15:36
Non sono del tutto d'accordo. La Ferrari è da sempre una macchina pensata al "lusso" e le cifre che devi sborsare mantengono il medesimo ordine di grandezza e la vettura il suo valore.

Con le VGA il paragone con la Ferrari non è proprio azzeccatissimo, perché non c'è ragione per la quale una top di gamma che fino a pochi anni fa veniva prezzata sui 500-700 € (ed era già una esagerazione), adesso arrivi a costare 2 se non 3 volte tanto. Eppure, il processo produttivo è molto più raffinato, i consumi ridotti (almeno sulla carta) ma i costi più che raddoppiati.

Quindi qualcosa che stona c'è. Ma per il resto vale più o meno il discorso fatto sopra.

Comunque Niko, non tralasciamo il fatto che ora nVidia ti vende una mattonella di GPU con la 2080ti. Questo per dire che la percentuale di resa diminuisce drasticamente per wafer. Nel prezzo pagato c'è anche questo. Il processo viene raffinato se rimane lo stesso per vari anni come intel ha fatto con i 14nm. nVidia è passata dai 16 di Pascal ai 12 con Turing e ora si va agli 8 Samsung. Sono stati PP nuovi e di raffinato non so...

mattxx88
06-07-2020, 15:38
(a meno che le due signorine sopra citate non si mettano a fare un bel cartello) ;)

Mi ha anticipato mikael, ma anche per me sarà cosi

ho come il sentore che spartirsi le varie fasce comodi ad entrambe
d'altronde un duopolio non è tanto meglio di un mono

mikael84
06-07-2020, 15:57
Comunque Niko, non tralasciamo il fatto che ora nVidia ti vende una mattonella di GPU con la 2080ti. Questo per dire che la percentuale di resa diminuisce drasticamente per wafer. Nel prezzo pagato c'è anche questo. Il processo viene raffinato se rimane lo stesso per vari anni come intel ha fatto con i 14nm. nVidia è passata dai 16 di Pascal ai 12 con Turing e ora si va agli 8 Samsung. Sono stati PP nuovi e di raffinato non so...

Verissimo. Siamo andati molto vicini a die da tesla, per rendere l'idea. Senza considerare che nvidia, sulle high punta tantissimo ai pro. Per gamer che non la comprano, ne trovi altri che vanno a coppie per il pro.
Ampere sarà ancora rivolta di più ai pro, con un'occhio al gamer e non viceversa.

amon.akira
06-07-2020, 16:42
Se NVidia vende le sue schede ai prezzi che vuole, evidentemente è perché ci sono tanti utenti, utOnti, polli, fessi, chiamateli come volete, che le comprano.


vengono fuori dalle fottute pareti (cit), mi verrebbe quasi da sperare che aumentino ancora i prezzi cosi si sentirà esplodere la milza da qua :asd:

nn voglio essere ripetitivo, ma guardacaso a chi è che brucia se ci fate caso...a chi ha tutti i componenti top in firma, cioè essere chiamato fesso da chi ha una titan...ovvero il fesso/pollo/utonto x eccellenza se vogliamo usare le sue parole :sofico:

che poi è da ridere che il prezzo giusto sia 500-700 praticamente tarato x le proprie tasche, incurante di chi vorrebbe magari 300-400 per le top o meno a sto punto.

secondo me nn si lamenta che la 2080ti costi 1300euro visto che la titan costava uguale, ma che volendosi prendere la titan ora ci vogliono 2400euro :)

poi coi paraocchi, nn importa se è 754mm , se te la danno subito e nn un anno dopo, se introduce innovazioni, se ad ogni pp i costi salgono, se debutta con nuove memorie....niente vogliono tutto a 500euro che sennó finiscono i soldi x le mobo da 400 e le cpu da 800 con le quali fai +1fps

spero che lo facciate solo con nvidia, perchè se rosicate cosi x ogni singolo oggetto che nn potete acquistare vivete proprio male.

vi sta facendo male la pcmasterrace

majinbu7
06-07-2020, 17:01
vengono fuori dalle fottute pareti (cit), mi verrebbe quasi da sperare che aumentino ancora i prezzi cosi si sentirà esplodere la milza da qua :asd:

nn voglio essere ripetitivo, ma guardacaso a chi è che brucia se ci fate caso...a chi ha tutti i componenti top in firma, cioè essere chiamato fesso da chi ha una titan...ovvero il fesso/pollo/utonto x eccellenza se vogliamo usare le sue parole :sofico:

che poi è da ridere che il prezzo giusto sia 500-700 praticamente tarato x le proprie tasche, incurante di chi vorrebbe magari 300-400 per le top o meno a sto punto.

secondo me nn si lamenta che la 2080ti costi 1300euro visto che la titan costava uguale, ma che volendosi prendere la titan ora ci vogliono 2400euro :)

poi coi paraocchi, nn importa se è 754mm , se te la danno subito e nn un anno dopo, se introduce innovazioni, se ad ogni pp i costi salgono, se debutta con nuove memorie....niente vogliono tutto a 500euro che sennó finiscono i soldi x le mobo da 400 e le cpu da 800 con le quali fai +1fps

spero che lo facciate solo con nvidia, perchè se rosicate cosi x ogni singolo oggetto che nn potete acquistare vivete proprio male.

vi sta facendo male la pcmasterrace

:doh: :doh: :doh: :doh: :doh:
Eh vabbè...meno male che c'è molta gente facoltosa come te in giro :doh: :doh: :doh:

OrazioOC
06-07-2020, 17:47
L'aumento dei prezzi se non è certo poco ci manca, se pensate che nvidia venda una 3080 che superi la 2080 ti a molto meno sbagliate.
Non penso neanche che il target della 3070 possa considerarsi da performance simili alla 2080 ti, alla metà del prezzo o comunque a molto meno, come fece la 1070 nei confronti della 980 ti.

Non ve la potete permettere? pazienza, comprate schede usate, di fascia inferiore, console, stadia, giocate con lo smartphone ecc...
Questo è un passatempo come tanti altri.

euscar
06-07-2020, 17:54
L'aumento dei prezzi se non è certo poco ci manca, se pensate che nvidia venda una 3080 che superi la 2080 ti a molto meno sbagliate.
Non penso neanche che il target della 3070 possa considerarsi da performance simili alla 2080 ti, alla metà del prezzo o comunque a molto meno, come fece la 1070 nei confronti della 980 ti.

Non ve la potete permettere? pazienza, comprate schede usate, di fascia inferiore, console, stadia, giocate con lo smartphone ecc...
Questo è un passatempo come tanti altri.

Quoto :mano:

Onestamente mi sono stufato di leggere qui dentro continui post sui presunti prezzi di vendita delle future schede... mi sa che abbandono il thread fino al prossimo autunno :ops:

amon.akira
06-07-2020, 17:54
:doh: :doh: :doh: :doh: :doh:
Eh vabbè...meno male che c'è molta gente facoltosa come te in giro :doh: :doh: :doh:

nn so se stai facendo una figura migliore ad andare nel thread delle 2080ti e concordare con chi chiama fessi e polli i relativi utenti... perchè io criticavo quel comportamento e tu lo difendi evidentemente la pensi uguale

edit
ok è il thread del sto rosicando...ehm aspettando nvidia...vabbe il discorso non cambia :D

amon.akira
06-07-2020, 18:11
Spero che ad Ottobre si trovino (soprattutto la ROG :Perfido:), così cambierò la 2060 Super, e se quella che vorrei non costasse almeno 1500 euro, non la comprerei :sofico:

questo è lo spirito giusto :sofico:

Thunder-74
06-07-2020, 18:42
L'aumento dei prezzi se non è certo poco ci manca, se pensate che nvidia venda una 3080 che superi la 2080 ti a molto meno sbagliate.
Non penso neanche che il target della 3070 possa considerarsi da performance simili alla 2080 ti, alla metà del prezzo o comunque a molto meno, come fece la 1070 nei confronti della 980 ti.

Non ve la potete permettere? pazienza, comprate schede usate, di fascia inferiore, console, stadia, giocate con lo smartphone ecc...
Questo è un passatempo come tanti altri.

Questa è una bastardata hahahahahah

Acme
06-07-2020, 18:42
Questo discorso sui prezzi lo facciamo ogniqualvolta ci sia un nuovo prodotto all'orizzonte ma probabilmente se i prezzi rimangono alti è perché anche la domanda è alta.
È una legge di mercato.
Guardando al mio piccolo e al mio portafoglio mi aspetterei prestazioni da 2080s in raster e 2080ti in rt se non qualcosa meglio, nella fascia dei 300/400€ che sarebbe un buon prodotto per prezzo prestazioni e un buon upgrade per chi come me ha schede di 2/3gen fa.
Forse mi aspetto troppo ma staremo a vedere visto che probabilmente anche amd potrà dire la sua a questo giro.

IMHO

OrazioOC
06-07-2020, 18:44
Questa è una bastardata hahahahahah

Hai ragione, c'è il geforce now. :D

Thunder-74
06-07-2020, 18:49
Hai ragione, c'è il geforce now. :D

:asd: :asd:

Spytek
06-07-2020, 21:21
Con le VGA il paragone con la Ferrari non è proprio azzeccatissimo,

Concordo,il paragone è insensato e poco attinente.

Non ho mai detto che AMD tornerà competitiva, bensì c'è da SPERARLO , in un normale regime di mercato con una buona concorrenza, i prezzi tendono ad abbassarsi , pensa ci guadagneresti pure tu con l'acquisto della prossima top Nvidia se la top AMD fosse competitiva, perchè
La logica imporrebbe che chiunque ne beneficerebbe se un prodotto sul mercato venisse venduto ad un prezzo concorrenziale e non fa eccezione nemmeno per le persone facoltose.
Francamente ignoro il motivo per cui qualcuno si senta in dovere di intervenire ed ergersi ad estremo difensore di Nvidia e dalla politica dei prezzi adottata come,allo stesso tempo,resto interdetto circa la visione restrittiva e la mancanza di apertura mentale dimostrata in alcuni interventi.:rolleyes:

mi verrebbe quasi da sperare che aumentino ancora i prezzi cosi si sentirà esplodere la milza da qua
La milza può anche esplodere a chi acquista un prodotto dal prezzo discutibile e qualcuno glielo fa notare....
In fondo quando si è sicuri di un acquisto importante non necessariamente ci si deve sentire in diritto di sminuire il parere altrui mettendo in campo tutta una serie di congetture e stereotipi che non hanno fondamento,nè tanto meno dimostrare nulla perchè si rischierebbe di rafforzare la convinzione al proprio interlocutore di essere stato effettivamente "spennato"....
se pensate che nvidia venda una 3080 che superi la 2080 ti a molto meno sbagliate.
Per quale motivo?
Nvidia potrebbe presentare una 3080 con prestazioni analoghe all'attuale 2080Ti (con prezzo intorno alle 750-800 euro) e una 3080Ti che si discosti del 35% come performance rispetto alla prima. (con prezzo intorno alle 1300 euro)

Non ve la potete permettere? pazienza, comprate schede usate, di fascia inferiore, console, stadia, giocate con lo smartphone ecc...
Si presume che in un forum tecnico si debbano mettere in campo argomentazioni di un certo spessore e ragionamenti ponderati piuttosto che sterili interventi di natura polemica che non apportano alcun contributo alla comunità.

OrazioOC
06-07-2020, 21:38
Per quale motivo?
Nvidia potrebbe presentare una 3080 con prestazioni analoghe all'attuale 2080Ti (con prezzo intorno alle 750-800 euro) e una 3080Ti che si discosti del 35% come performance rispetto alla prima. (con prezzo intorno alle 1300 euro)

Perchè la 2080 di listino costa come la 1080 ti andando poco meglio, nulla vieta a nvidia di rifare lo stesso, la storia insegna.


Si presume che in un forum tecnico si debbano mettere in campo argomentazioni di un certo spessore e ragionamenti ponderati piuttosto che sterili interventi di natura polemica che non apportano alcun contributo alla comunità.
Perchè lamentarsi dei prezzi alti invece è sinonimo di ragionamenti ponderati e interventi di rillievo?:D
Nessuno ti obbliga a comprarla, così come nessuno ti obbliga a seguire il thread se non sei veramente interessato ad una di queste schede, e ce ne sono diversi che tra una lamentela e un risolino dimostrano di non avere nessun interesse nelle rtx 3000.

Thunder-74
06-07-2020, 21:41
Paragonare la vga top di gamma ad una Ferrari, aveva il solo scopo di dire che sono prodotti non necessari per vivere...
a questo mondo esistono tante cose che possono piacere, ma che non è detto che di possano avere . Alla fine ognuno sa quanto può spendere per una passione/hobby . Se nel passato si era abituati a spendere una certa cifra per la top di gamma e oggi le cose sono cambiate , facciamocene una ragione . Tanti sono convinti che nVidia vuole fare la gargarozzona , ma...
Non prendere in considerazione che ora i chip sono grossi come un campo da calcio e che la produzione di chip , per definizione , vive di scarti che aumentano all aumentare della complessità del PP e della dimensione del chip stesso: più grandi sono i chip e meno ne escono dal singolo wafer e già questo determina un aumento prezzo, in più le impurità del silicio comprometteranno più chip sfornati in rapporto, visto che la probabilità di produrre una mattonella enorme prima di imperfezioni, diminuisce ...
Inoltre con Turing nVidia ha farcito ste gpu di Tensor Core , RT core che di perse rappresentano sia un costo R&S che in features non presenti in nessun prodotto sul mercato...
mi dite che volete che faccia nVidia?
Personalmente ho preso una 2080 invece della Ti perché ho ritenuto l aumento di costo sproporzionato rispetto all aumento di performances . Su questo si può ragionare . Tutti liberi di decidere se il rapporto costo/prestazioni sono congrue , ma per il resto non rovinatevi la vita se il top costa troppo... se è troppo avete una soluzione , se non è troppo ne avete un altra ... le soluzioni si intuiscono....


Inviato dal mio iPhone X utilizzando Tapatalk

Spytek
06-07-2020, 22:02
Perchè la 2080 di listino costa come la 1080 ti andando poco meglio, nulla vieta a nvidia di rifare lo stesso, la storia insegna.
Veramente la storia insegna che il listino della 1080 Ti era intorno alle 650 euro e causa del mining è stato addirittura superata la soglia fisiologica dei 1000 euro dai rivenditori. (fino ai 1200 euro)
Tale aumento ha permesso a Nvidia,forte della mancanza di concorrenza,di spostare il target per la top di gamma a 1300 euro,l'attuale 2080 Ti.

Perchè lamentarsi dei prezzi alti invece è sinonimo di ragionamenti ponderati e interventi di rillievo?:D
La mia presunta "lamentela",etichettata da te e da pochi altri come tale, è stata sufficientemente argomentata nei precedenti post ed è inutile riscrivere tutto,basta rileggere con maggiore attenzione.
Non condividi e non sei d'accordo?
Liberissimo di farlo ma non siamo al bar;certi interventi devono essere fatti con compostezza e moderazione,ma tant'è :rolleyes:

Nessuno ti obbliga a comprarla, così come nessuno ti obbliga a seguire il thread se non sei veramente interessato ad una di queste schede, e ce ne sono diversi che tra una lamentela e un risolino dimostrano di non avere nessun interesse nelle rtx 3000.
MA certo che nessuno mi obbliga ad acquistarla e ti pare che mi sarei servito del tuo consiglio per acquistarla o per cercare qualcosa di più conveniente nel mercatino?
Ma il tuo interesse in tutto questo?

amon.akira
06-07-2020, 22:18
La milza può anche esplodere a chi acquista un prodotto dal prezzo discutibile e qualcuno glielo fa notare....
In fondo quando si è sicuri di un acquisto importante non necessariamente ci si deve sentire in diritto di sminuire il parere altrui mettendo in campo tutta una serie di congetture e stereotipi che non hanno fondamento,nè tanto meno dimostrare nulla perchè si rischierebbe di rafforzare la convinzione al proprio interlocutore di essere stato effettivamente "spennato"....


si però se mi vieni a dare del pollo/fesso con l iphone in mano (esempio, cambia iphone con componenti top in firma, si sa che il top non tiene mai il rapporto qualità/prezzo) sei un po ridicolo.

che sia 5930k, raid ssd samsung pro, z390 strix, 24tb storage, ampli yamaha...insomma mica vengo a dirti che sei un pollo e che potresti spendere meglio i tuoi soldi...a te serve spazio hd ti compri 50tera, a me servono 10fps in piu mi prendo la 2080ti...ho speso meno io e mi sento dire pure che sono fesso...va bene criticare i prezzi, ma insultare praticamente tutti gli utenti che comprano una scheda top gamma solo perchè vi brucia non mi sembra il massimo.


in grassetto
quindi non è vero che il costo dei pp aumenta man mano?non è vero che 754mm è la gpu gaming piu grande mai creata? non è vero che è stata innovativa per il rendering raytracing? non è vero che ti è stata venduta 1anno prima a differenza della 1080ti e delle altre Ti?

OrazioOC
06-07-2020, 22:21
Veramente la storia insegna che il listino della 1080 Ti era intorno alle 650 euro e causa del mining è stato addirittura superata la soglia fisiologica dei 1000 euro dai rivenditori. (fino ai 1200 euro)
Tale aumento ha permesso a Nvidia,forte della mancanza di concorrenza,di spostare il target per la top di gamma a 1300 euro,l'attuale 2080 Ti.

Ma lol, il mining, cosa centra il mining adesso?:rolleyes:
Il mining è stato un fenomeno temporaneo, durato parecchi mesi ma non è stata quella la causa degli aumenti dei prezzi delle gpu.
Anche perchè il mining aveva condizionato diverse fasce e soprattutto di più le amd, le rx 580 nel 2017 si trovavano a 400 euro, ma finito il mining pochi mesi dopo era acquistabile tranquillamente a 200.
L'aumento dei prezzi soprattutto per nvidia in certe fasce è data da fattori come nessuna alternativa amd(neanche la 2070 aveva un'alternativa valida a 500 euro fino all'arrivo della 5700 xt 9 mesi dopo), chip particolarmente grandi(gp102 della 1080ti/titan xp è grosso quanto tu106 della 2070) ed esclusività del ray tracing.

Ampere avrà molte migliorie rispetto a turing, ray tracing migliorato, nuovo silicio e quindi performance decisamente migliori a parità di die size, consumi inferiori e performance possibilmente soddisfacenti in 4k anche con gpu di fascia medio/alta.


La mia presunta "lamentela",etichettata da te e da pochi altri come tale, è stata sufficientemente argomentata nei precedenti post ed è inutile riscrivere tutto,basta rileggere con maggiore attenzione.
Non condividi e non sei d'accordo?
Liberissimo di farlo ma non siamo al bar;certi interventi devono essere fatti con compostezza e moderazione,ma tant'è :rolleyes:

Va benissimo, ma sei pregato a tua volta di non causare flame inutili e di intervenire se interessato alla serie 3000, invece di lamentarsi degli ipotetici prezzi.
Sono hardware che hanno un costo e che sono presi da gente che sà come sfruttarli, chiunque vuole comprare questo tipo di hardware è disposto a spendere cifre importanti, e di certo non sarà il centone in più o in meno a dissuadere molti utenti qui dentro dall'acquisto.


MA certo che nessuno mi obbliga ad acquistarla e ti pare che mi sarei servito del tuo consiglio per acquistarla o per cercare qualcosa di più conveniente nel mercatino?
Ma il tuo interesse in tutto questo?
Il thread si chiama aspettando le nuove vga nvidia, vedete voi se dovete continuare con i flame sui prezzi dando contro a chi ve lo fa notare.:rolleyes:

amon.akira
06-07-2020, 22:25
Veramente la storia insegna che il listino della 1080 Ti era intorno alle 650 euro e causa del mining è stato addirittura superata la soglia fisiologica dei 1000 euro dai rivenditori. (fino ai 1200 euro)
Tale aumento ha permesso a Nvidia,forte della mancanza di concorrenza,di spostare il target per la top di gamma a 1300 euro,l'attuale 2080 Ti.


la top gamma di cui blateri, la 1080ti è 471mm, già la 2080 è 545mm quindi vedi la ciccia non il nome, dirai eh ma vanno quasi uguale, questo perchè non calcoli il raytracing che se ti frega o non ti frega a noi non ci interessa visto che in rt va tipo il 300% piu della 1080ti, che poi se nvidia ha sbagliato a puntare sul raytracing ce lo dirà la storia...a me sembra abbia c entrato visto che sia le console che le gpu amd hanno seguito a ruota.

Spytek
06-07-2020, 22:36
Personalmente ho preso una 2080 invece della Ti perché ho ritenuto l aumento di costo sproporzionato rispetto all aumento di performances . Su questo si può ragionare
E' esattamente uno dei punti principali di questa debacle.
Una scheda top di gamma che non riesce a garantire i comuni 60 fps in 4K con tutti i titoli e venduta a 1300 euro.
Ed è un dato di fatto,non mi invento nulla.

a questo mondo esistono tante cose che possono piacere, ma che non è detto che di possano avere . Alla fine ognuno sa quanto può spendere per una passione/hobby .
Oppure che si fanno scelte oculate,come la tua,che ti spingono a non acquistare la 2080Ti perchè si ritiene che non offra un ottimo rapporto prezzo/prestazioni lungi dal voler fare solo un discorso relativo alla propria disponibilità economica e che non prenda in seria considerazione i fattori di cui prima.
.
Non prendere in considerazione che ora i chip sono grossi come un campo da calcio e che la produzione di chip , per definizione , vive di scarti che aumentano all aumentare della complessità del PP e della dimensione del chip stesso: più grandi sono i chip e meno ne escono dal singolo wafer e già questo determina un aumento prezzo, in più le impurità del silicio comprometteranno più chip sfornati in rapporto, visto che la probabilità di produrre una mattonella enorme prima di imperfezioni, diminuisce ...
Inoltre con Turing nVidia ha farcito ste gpu di Tensor Core , RT core che di perse rappresentano sia un costo R&S che in features non presenti in nessun prodotto sul mercato...
mi dite che volete che faccia nVidia?
Perchè ogni cambio di architettura ha comportato grossi investimenti economici in sviluppo e ricerca ad Nvidia senza,necessariamente, spostare il prezzo della top di gamma a quasi il doppio dal target abituale.
E ripeto,l'impennata dei prezzi è da ricercare nel mining di qualche anno fa e alla mancanza di concorrenza,non tanto nei costi di produzione.

Thunder-74
06-07-2020, 23:15
E' esattamente uno dei punti principali di questa debacle.
Una scheda top di gamma che non riesce a garantire i comuni 60 fps in 4K con tutti i titoli e venduta a 1300 euro.
Ed è un dato di fatto,non mi invento nulla.

Oppure che si fanno scelte oculate,come la tua,che ti spingono a non acquistare la 2080Ti perchè si ritiene che non offra un ottimo rapporto prezzo/prestazioni lungi dal voler fare solo un discorso relativo alla propria disponibilità economica e che non prenda in seria considerazione i fattori di cui prima.
.
Perchè ogni cambio di architettura ha comportato grossi investimenti economici in sviluppo e ricerca ad Nvidia senza,necessariamente, spostare il prezzo della top di gamma a quasi il doppio dal target abituale.
E ripeto,l'impennata dei prezzi è da ricercare nel mining di qualche anno fa e alla mancanza di concorrenza,non tanto nei costi di produzione.


Io ho riportato il mio punto di vista, ma ci sono persone che possono volere il massimo indipendente dalla convenienza , per quello dico che ognuno sa quanto poter spendere per il suo hobby.
Il mining in effetti ha contribuito all aumento. Non lo nego. Probabilmente lo ha fatto in due modi. Il primo è stato che nVidia si è trovata di colpo con una giacenza enorme di Pascal nel momento che il mining si fermò. Ritardò l immissione nel mercato di Turing, ma comunque la sovrapposizione fu inevitabile. Secondo , immagino quella date avanzata , è che a forza di sentir parlare di 1080ti a 1000 euro, è stato facile cavalcare l onda con Turing... non lo so, può darsi, ma la cosa di base però non cambia.... Turing è un taglio netto con tutto ciò che eravamo abituati a vedere. Ha portato con se tante novità a livello progettuale. Quindi non trovo corretto paragonare il passato con il presente . Se nVidia avesse dovuto mantenere i costi classici di 600/700 per una top , probabilmente avrebbe dovuto presentare una vga senza Ray tracing o tensor core . Io personalmente sono contento che abbia proposto Turing come lo conosciamo , perché per innovare , bisogna iniziare da qualche parte anche se inizialmente è difficoltoso diffondere le novità .
Ho visto come il dlss siamo migliorato enormemente con la versione 2.0 e sicuramente darà modo di poter godere dei prossimi titoli in RT, ottenendo più fps , senza compromettere la qualità visiva.
Sinceramente mi entusiasmo per questo, e per questo sono disposto a spendere, diversamente terrei una vga per più generazioni. Questo per dire che siamo in un ambito di passione/hobby che ognuno vive come vuole e non è corretto giudicare se fa bene o male . La milza non esplode a chi è disposto a spendere per un oggetto, senza dover compromettere la sua stabilità economica. Lo fa, poi magari può anche pentirsene... io personalmente mi sono pentito più di aver dato fiducia a persone che non lo meritavano, che aver buttato del denaro in gingilli, ma questo è un altro discorso .... ;)


Inviato dal mio iPhone X utilizzando Tapatalk

Spytek
06-07-2020, 23:20
Ma lol, il mining, cosa centra il mining adesso?:rolleyes:
Il mining è stato un fenomeno temporaneo, durato parecchi mesi ma non è stata quella la causa degli aumenti dei prezzi delle gpu.
Vorrei ricordarti che inizialmente la 1080Ti era stata immessa sul mercato a 650 euro e a causa del mining,che limitò disponibilità sugli scaffali,portò l'asticella del prezzo a oltre 1000 euro con punte di 1200 euro.
E,fino a prova contraria,sono convinto che Nvidia,mosso dalla propensione per gli acquirenti ad acquistare una top di gamma a quel prezzo, abbia voluto applicare lo stesso prezzo alle future top di gamma.
Da qui una 2080 Ti al prezzo di 1300 euro,un prezzo decisamente elevato rispetto a quello praticato per le passate top di gamma cui eravamo abituati a vedere.
L'avrò scritto 3-4 volte nei miei precedenti interventi...

Anche perchè il mining aveva condizionato diverse fasce e soprattutto di più le amd, le rx 580 nel 2017 si trovavano a 400 euro, ma finito il mining pochi mesi dopo era acquistabile tranquillamente a 200.
Io non ho parlato delle altre fasce ma solo quella alta.

Ampere avrà molte migliorie rispetto a turing, ray tracing migliorato, nuovo silicio e quindi performance decisamente migliori a parità di die size, consumi inferiori e performance possibilmente soddisfacenti in 4k anche con gpu di fascia medio/alta.
E quindi?
Ad ogni cambio di architettura sono stati ben evidenti le migliori performance e features rispetto a quelle passate.

Va benissimo, ma sei pregato a tua volta di non causare flame inutili e di intervenire se interessato alla serie 3000, invece di lamentarsi degli ipotetici prezzi.
Non è mio intento creare flame,piuttosto difendo le mie idee e concetti.
Visto che parli di flames,ti invito a rileggere il tuo precedente post e francamente fa sorridere il tuoi invito a non polemizzare :

Non ve la potete permettere? pazienza, comprate schede usate, di fascia inferiore, console, stadia, giocate con lo smartphone ecc...

Questo è un passatempo come tanti altri.
Sono hardware che hanno un costo e che sono presi da gente che sà come sfruttarli, chiunque vuole comprare questo tipo di hardware è disposto a spendere cifre importanti, e di certo non sarà il centone in più o in meno a dissuadere molti utenti qui dentro dall'acquisto.
E fuorviante quanto scritto da te.

Il thread si chiama aspettando le nuove vga nvidia, vedete voi se dovete continuare con i flame sui prezzi dando contro a chi ve lo fa notare.:rolleyes:
Ma infatti,il tutto era partito dalla mia domanda iniziale sul cosa ci fosse all'orizzonte da parte di Nvidia con la speranza,nutrita da molti di noi,che ci fosse concorrenza da parte di Amd sulla fascia alta evidenziando la questione dei prezzi della 2080Ti.
Purtroppo la discussione è degenerata perchè,come scritto poco sopra,c'è stato chi si è sentito in dovere di intervenire,come te del resto,difendendo la politica dei prezzi di Nvidia e mettendola inutilmente sul personale.
Evidentemente il thread è stato in qualche modo monopolizzato dai soliti utenti che si ergono a paladini nel difendere Nvidia.

The_SaN
06-07-2020, 23:20
Perchè ogni cambio di architettura ha comportato grossi investimenti economici in sviluppo e ricerca ad Nvidia senza,necessariamente, spostare il prezzo della top di gamma a quasi il doppio dal target abituale.
E ripeto,l'impennata dei prezzi è da ricercare nel mining di qualche anno fa e alla mancanza di concorrenza,non tanto nei costi di produzione.

Insomma...se guardi il die size i costi sono aumentati eccome. Per non parlare del costo dei wafer, che stanno diventando sempre più complessi a causa delle nuove litografie.

Diciamo che ciccia da bruciare ce n'è, ma non così tanta...

amon.akira
06-07-2020, 23:29
Io ho riportato il mio punto di vista, ma ci sono persone che possono volere il massimo indipendente dalla convenienza , per quello dico che ognuno sa quanto poter spendere per il suo hobby.
Il mining in effetti ha contribuito all aumento. Non lo nego. Probabilmente lo ha fatto in due modi. Il primo è stato che nVidia si è trovata di colpo con una giacenza enorme di Pascal nel momento che il mining si fermò. Ritardò l immissione nel mercato di Turing, ma comunque la sovrapposizione di inevitabile. Secondo , immagino quella date avanzata , è che a forza di sentir parlare di 1080ti a 1000 euro, è stato facile cavalcare l onda con Turing... non lo so, può darsi, ma la cosa di base però non cambia.... Turing è un taglio netto con tutto ciò che eravamo abituati a vedere. Ha portato con se tante novità a livello progettuale. Quando non trovo corretto paragonare il passato con il presente . Se nVidia avesse dovuto mantenere i costi classici di 600/700 per una top , probabilmente avrebbe dovuto presentare una vga senza Ray tracing o tensor core . Io personalmente sono contento che abbia proposto Turing come lo conosciamo , perché per innovare , bisogna iniziare da qualche parte anche se inizialmente è difficoltoso diffondere le novità .
Ho visto come il dlss siamo migliorato enormemente con la versione 2.0 e sicuramente darà modo di poter godere dei prossimi titoli in RT, ottenendo più fps , senza compromettere la qualità visiva.
Sinceramente mi entusiasmo per questo e per questo sono disposto a spendere, diversamente terrei una vga per più generazioni. Questo per dire che siamo in un ambito di passione/hobby che ognuno lo vive come vuole e non è corretto giudicare se fa bene i male . La milza non esplode a chi è disposto a spendere per un oggetto , senza dover compromettere la sua stabilità economica. Lo fa, poi magari può anche pentirsene... io personalmente mi sono pentito più di aver dato fiducia a persone che non lo meritavano, che aver buttato del denaro in gingilli, ma questo è un altro discorso .... ;)


Inviato dal mio iPhone X utilizzando Tapatalk

quoto e ovviamente questa è la risposta perfetta, ma siccome sono entrati a gamba tesa...ho risposto per le rime, anche se sicuramente tra 2giorni spunterà qualche altro genio...pensa che già mi prendevano in giro quando scrissi "2080ti incoming" in firma e poi alcuni di quelli so finiti con l rtx in firma e addirittura prima di me :sofico:

Spytek
06-07-2020, 23:52
Io ho riportato il mio punto di vista, ma ci sono persone che possono volere il massimo indipendente dalla convenienza , per quello dico che ognuno sa quanto poter spendere per il suo hobby.
Concordo,ma non si discute sulle scelte personali e ognuno spende i propri soldi come vuole.
Ma essendo in un forum in cui si discute civilmente non capisco perchè alcune considerazioni possano smuovere l'animo di qualcuno nonostante io abbia argomentato a sufficienza lungi da voler scatenare alcune esternazioni infantili...

Quando non trovo corretto paragonare il passato con il presente . Se nVidia avesse dovuto mantenere i costi classici di 600/700 per una top , probabilmente avrebbe dovuto presentare una vga senza Ray tracing o tensor core . Io personalmente sono contento che abbia proposto Turing come lo conosciamo , perché per innovare , bisogna iniziare da qualche parte anche se inizialmente è difficoltoso diffondere le novità .
Ripeto,ogni nuova architettura è stata foriera di novità e features rispetto a quelle passate senza dover necessariamente raddoppiare il prezzo.
E se vogliamo essere più precisi,qui parliamo di potenza di calcolo in più per una 2080 Ti,non di features presenti nell'intera serie Touring...
Per la cronaca il Ray tracing è praticamente useless in 4K in termini di fps
si però se mi vieni a dare del pollo/fesso con l iphone in mano (esempio, cambia iphone con componenti top in firma, si sa che il top non tiene mai il rapporto qualità/prezzo) sei un po ridicolo.

che sia 5930k, raid ssd samsung pro, z390 strix, 24tb storage, ampli yamaha...insomma mica vengo a dirti che sei un pollo e che potresti spendere meglio i tuoi soldi...a te serve spazio hd ti compri 50tera, a me servono 10fps in piu mi prendo la 2080ti...ho speso meno io e mi sento dire pure che sono fesso...va bene criticare i prezzi, ma insultare praticamente tutti gli utenti che comprano una scheda top gamma solo perchè vi brucia non mi sembra il massimo.
Ennesimo intervento inutile ma ormai è prassi consolidata da parte tua.
E sarebbe altrettanto inutile e spreco di energia rispondere ulteriormente.

Spytek
07-07-2020, 00:21
Insomma...se guardi il die size i costi sono aumentati eccome. Per non parlare del costo dei wafer, che stanno diventando sempre più complessi a causa delle nuove litografie.

Diciamo che ciccia da bruciare ce n'è, ma non così tanta...
Nessuno dice che non siano aumentati i costi di produzione per i "chipponi".
Ma quando si passò,ad esempio, all'architettura Fermi della 480 con Pci-ex 2.0 alla Kepler 690 con dual chip e Pci-ex 3.0 non mi risulta che quest'ultima sia quasi raddoppiata di prezzo o sbaglio?

The_SaN
07-07-2020, 04:24
Nessuno dice che non siano aumentati i costi di produzione per i "chipponi".
Ma quando si passò,ad esempio, all'architettura Fermi della 480 con Pci-ex 2.0 alla Kepler 690 con dual chip e Pci-ex 3.0 non mi risulta che quest'ultima sia quasi raddoppiata di prezzo o sbaglio?

Ripeto, il die size.
Una GTX480 aveva un chip da 529mm² mentre la GTX690 2 chip da 294mm². Come silicio costa di più la Fermi, e nemmeno poco. Poi certo, c'è altro nella scheda.

Praticamente (tralasciando il costo crescente dei wafer) la scheda che più assomiglia alla GTX480 è la RTX2070s e non mi pare che i prezzi siano così distanti.
Stendo un velo pietoso sulla 2080s, ma la 2080ti ha un'altro livello di complessità. Si può limare, ma non troppo...

Thunder-74
07-07-2020, 07:32
Concordo,ma non si discute sulle scelte personali e ognuno spende i propri soldi come vuole.
Ma essendo in un forum in cui si discute civilmente non capisco perchè alcune considerazioni possano smuovere l'animo di qualcuno nonostante io abbia argomentato a sufficienza lungi da voler scatenare alcune esternazioni infantili...

Ripeto,ogni nuova architettura è stata foriera di novità e features rispetto a quelle passate senza dover necessariamente raddoppiare il prezzo.
E se vogliamo essere più precisi,qui parliamo di potenza di calcolo in più per una 2080 Ti,non di features presenti nell'intera serie Touring...
Per la cronaca il Ray tracing è praticamente useless in 4K in termini di fps

Ennesimo intervento inutile ma ormai è prassi consolidata da parte tua.
E sarebbe altrettanto inutile e spreco di energia rispondere ulteriormente.

Io redo che si possa discutere di tutto, scambiarsi idee... il forum nasce anche per questo... magari l'errore sta nel catalogare chi compra indipendentemente dal prezzo, come pollo o stupido. E' vero che se c'è un target di riferimento disposto a spendere certe cifre, la casa produttrice farà leva su di essa, ma del resto è utopico pensare di controllare l'intera massa interessata per modificare la domanda. Inoltre credo che ci sarebbero delle difficoltà a soddisfare la stessa domanda di 2080ti, se questa costasse 500 euro per un discorso di quantità prodotta per un chip complesso. Faccio un esempio che fa riflettere anche su certe economie.. Durante il Lockdown la richiesta da parte della China di CPU intel si ridusse notevolmente, questo paradossalmente fu un bene per la intel stessa, poiché si trovava in shortage.
Per un'azienda quotata in borsa, il mancato soddisfacimento della domanda, porta ad un ribasso delle azioni. Non ricordo ora quanti punti percentuali hanno evitato di perdere... Questo per dire che, alla fine, per certi prodotti, non è detto che sia meglio abbassare il prezzo, ridurre quindi il margine per venderne di più.
Discorso 4k... qui siamo in una rincorsa continua... facciamo due passi avanti e uno indietro, perchè i giochi diventano nel tempo sempre più esosi e il RT certo non era stato presentato con Turing, per girare a tale res.
Ricordo quando uscì la 1080ti e si prendeva per pazzi chi l'acquistava per giocare in FullHD, oggi, con alcuni titoli, il discorso si ridimensiona.
Ampere permetterà di godere del RT in 4k in modo più agevole, magari grazie anche all'uso del DLSS. Come uscirà Cyberpunk vedremo Turing in ginocchio .. Qui c'è tanto marketing... verrà usato come gancio per vendere Ampere e non mi stupirei se il titolo sarebbe potuto girare meglio...

OrazioOC
07-07-2020, 08:06
Vorrei ricordarti che inizialmente la 1080Ti era stata immessa sul mercato a 650 euro e a causa del mining,che limitò disponibilità sugli scaffali,portò l'asticella del prezzo a oltre 1000 euro con punte di 1200 euro.
E,fino a prova contraria,sono convinto che Nvidia,mosso dalla propensione per gli acquirenti ad acquistare una top di gamma a quel prezzo, abbia voluto applicare lo stesso prezzo alle future top di gamma.
Da qui una 2080 Ti al prezzo di 1300 euro,un prezzo decisamente elevato rispetto a quello praticato per le passate top di gamma cui eravamo abituati a vedere.
L'avrò scritto 3-4 volte nei miei precedenti interventi...



Guarda che la fascia alta ha toccato picchi allucinanti così come quella media, la 580 era un esempio che andava di pari passo con quello delle 1080/ti, idem vega 64.
Solo che vega 64 a settembre non aveva come concorrente la 1080, ma la 2070, e a mining finito non ci sono stati santi che tenevano per farla stare sopra i 500 euro.
Mentre la 1080 ti è andata direttamente in Eol, e quando una scheda va' in Eol finisce per costare di più anche della diretta sostituta.:rolleyes:
Il prezzo di listino aumentato è dovuta in gran parte ai motivi che avevo citato, se poi vogliamo raccontare favole o dipingere un produttore che sta dominando il settore come la strega cattiva non è un problema mio.
E torno a ripeterti che se non giustifichi questi prezzi, non sei tenuto a comprarla o a lamentarti dei possibili aumenti dei prezzi, dipingendo chi te lo fa notare come "paladino di nvidia".

mircocatta
07-07-2020, 08:37
Ricordo quando uscì la 1080ti e si prendeva per pazzi chi l'acquistava per giocare in FullHD, oggi, con alcuni titoli, il discorso si ridimensiona.


cos

non mi sembra
https://www.techpowerup.com/review/asus-radeon-rx-5700-xt-tuf-evo/27.html

giù le mani dalla 1080ti :O :asd:

fraussantin
07-07-2020, 08:43
Io

Ricordo quando uscì la 1080ti e si prendeva per pazzi chi l'acquistava per giocare in FullHD, oggi, con alcuni titoli, il discorso si ridimensiona.

...

Chi si è preso la 1080ti per il 1080p ad altro refresh se l'è goduta e se la continuerà a godere per altri 2 anni minimo

A 650 euro non è che è stato un affare , di più...

Ma veramente costava questi soldi?

Perchè io mi ricordo la 1080liscia a 650.

FrancoBit
07-07-2020, 09:02
Trapela qualcosa su WccFtech in merito alle specs:

https://wccftech.com/nvidia-geforce-rtx-3070-ti-rtx-3070-ampere-gaming-gpu-specs-rumor/

Ale55andr0
07-07-2020, 09:11
8gb? che è uno scherzo?

oZonoRobotics
07-07-2020, 09:26
8gb? che è uno scherzo?

all'inizio scrivono 8gb ma alla fine dell'articolo dicono 3080ti 12gb/3080 10gb/3070 8gb

per un attimo son restato male pure io :P

ninja750
07-07-2020, 09:33
sarebbero filologicamente corretti: una sola vera scheda nuova (in fatto di performance) mentre il resto una sovrapposizione di fasce

una 3070=2080s a 500 euro non sarebbe malvagia

Thunder-74
07-07-2020, 09:38
cos

non mi sembra
https://www.techpowerup.com/review/asus-radeon-rx-5700-xt-tuf-evo/27.html

giù le mani dalla 1080ti :O :asd:

Chi si è preso la 1080ti per il 1080p ad altro refresh se l'è goduta e se la continuerà a godere per altri 2 anni minimo

A 650 euro non è che è stato un affare , di più...

Ma veramente costava questi soldi?

Perchè io mi ricordo la 1080liscia a 650.

scusate, non ho specificato... per me giocare su PC vul dire stare sopra ai 60 fps :fagiano: . Quindi il discorso della 1080ti che prende senso oggi l'uso in FHD, è legato alla possibilità di sfruttare pannelli da 144hz maxando.... ovvio.

majinbu7
07-07-2020, 09:52
si però se mi vieni a dare del pollo/fesso con l iphone in mano (esempio, cambia iphone con componenti top in firma, si sa che il top non tiene mai il rapporto qualità/prezzo) sei un po ridicolo.

che sia 5930k, raid ssd samsung pro, z390 strix, 24tb storage, ampli yamaha...insomma mica vengo a dirti che sei un pollo e che potresti spendere meglio i tuoi soldi...a te serve spazio hd ti compri 50tera, a me servono 10fps in piu mi prendo la 2080ti...ho speso meno io e mi sento dire pure che sono fesso...va bene criticare i prezzi, ma insultare praticamente tutti gli utenti che comprano una scheda top gamma solo perchè vi brucia non mi sembra il massimo.


in grassetto
quindi non è vero che il costo dei pp aumenta man mano?non è vero che 754mm è la gpu gaming piu grande mai creata? non è vero che è stata innovativa per il rendering raytracing? non è vero che ti è stata venduta 1anno prima a differenza della 1080ti e delle altre Ti?


Vedi di rientrare nei ranghi e mollarla li con sta storia del non potete permettervela, esplosioni di milza ecc... perchè prima di tutto ne io ne spytek mi sembra che abbiamo dato dei polli/fessi a nessuno...una persona i suoi soldi li spende come meglio crede..Però io sono del parere che le nuove top di gamma Nvidia costano troppo, e siccome gioco col pc da eoni e mi piacerebbe fare un'upgrade con la prossima gen, mi farebbe piacere che i prezzi tornino a valori più umani, come qualche anno fa , se poi così non sarà, guarderò in casa AMD e se nemmeno li mi convincerà...amen e vorrà dire che risparmierò un pò di soldi.

Spytek
07-07-2020, 10:04
assomiglia alla GTX480 è la RTX2070s e non mi pare che i prezzi siano così distanti.
Ma non si possono paragonare perchè la Gtx 480 apparteneva alla fascia alta mentre l'attuale 2070S a quella media.

ma la 2080ti ha un'altro livello di complessità. Si può limare, ma non troppo...
Ad ogni cambio generazionale,con conseguente cambio architettura,ha comportato maggiori complessità.
Anche i miglioramenti dei processi produttivi nei chip erano presenti all'epoca e tutte le features connesse.
E non è che Nvidia investiva molto meno in passato specie di fronte alla concorrenza di Ati... ma tant'è...il motivo è solo del die size o nell'Rt...

Il prezzo di listino aumentato è dovuta in gran parte ai motivi che avevo citato, se poi vogliamo raccontare favole o dipingere un produttore che sta dominando il settore come la strega cattiva non è un problema mio.
E menomale...sembra l'esatto contrario.

E torno a ripeterti che se non giustifichi questi prezzi, non sei tenuto a comprarla o a lamentarti dei possibili aumenti dei prezzi, dipingendo chi te lo fa notare come "paladino di nvidia".
Ancora con la storia della lamentela?
Cercherò,per l'ennesima volta,di circostanziare ulteriormente i motivi della mia presunta lamentela (detta da chi non vuole capire,evita di leggere e interviene per difendere il proprio acquisto perchè si sente essere chiamato pollo :rolleyes: )
Da acquirente con monitor 4K mi ritroverei di fronte ad una 2080Ti che:
1) Non non riesce a tenere stabili i normali 60 fps con tutti i titoli e che mi obbliga ad ovviare a compromessi nella regolazione dei settaggi
2) Tecnologia RT che,come è scritto poco sopra,è useless in 4K per il crollo drastico degli Fps ( senza contare il problema di cui al punto 1).
Inoltre è acerba come features in fase di sviluppo,non è presente o non rende in tutti i giochi (es Shadow of Tombraider che sembra un upscaling riuscito male e balza agli occhi solo mancanza di capacità di calcolo e fludità nel gioco mentre la si attiva...)
Poco importa se la 2080 Ti è "future proof";in fondo se l'RT avrà successo ci saranno sk grafiche di gran lunga più potenti rispetto alla 2080Ti che garantiranno una resa ottimale e migliore fluidità.
Non dimentichiamo che l'Rt è sempre un'incognita!
3)Viene venduta a 1300 euro per i motivi che avrò scritto almeno una decina di volte ma si tende a foraggiare tale politica di prezzo da Nvidia giustificando il tutto per i soli costi di produzione e non anche,e sopratutto, per altri fattori.

E torno a ripeterti che se non giustifichi questi prezzi, non sei tenuto a comprarla o a lamentarti dei possibili aumenti dei prezzi, dipingendo chi te lo fa notare come "paladino di nvidia".
Come dovrei interpretare chi entra a spada tratta nel forum con frasi flammatiche del tipo "Se non potete permetterla" o "andate sul mercatino a cercare qualcosa di più congruo per le vostre tasche" o "Sono hardware che hanno un costo e che sono presi da gente che sà come sfruttarl"?
Ma cosa significa "gente che sa come sfruttarli"?? :asd: :asd:
Tecnicamente i pannelli 4K non sono sfruttati a dovere con una 2080 Ti,se non con i dovuti compromessi,quindi di che stiamo parlando?
Mamma mia quante castroneria che stò leggendo :rolleyes:

E' vero che se c'è un target di riferimento disposto a spendere certe cifre, la casa produttrice farà leva su di essa, ma del resto è utopico pensare di controllare l'intera massa interessata per modificare la domanda.
Credo che questo target di riferimento si assottiglierà ulteriormente dopo l'uscite delle nuove consolle a fine anno che permetteranno di giocare ad un framerate ben più alto dei canonici 30 fps in 4K.
E non lo scrivo per polemizzare e francamente,da appassionato di Pc,la cosa mi irrita di non poco!

fraussantin
07-07-2020, 10:08
8gb? che è uno scherzo?
https://i.postimg.cc/6QRcsSnt/screenshot-244.jpg



cmq sono fandonie

Thunder-74
07-07-2020, 10:35
https://i.postimg.cc/6QRcsSnt/screenshot-244.jpg



cmq sono fandonie


Perché 8 giga sulla 3070/ti ci può stare .


Inviato dal mio iPhone X utilizzando Tapatalk

ninja750
07-07-2020, 10:52
Perché 8 giga sulla 3070/ti ci può stare .


si ma poi come li giustificano i 650€? con rt 2.0?

Thunder-74
07-07-2020, 10:58
si ma poi come li giustificano i 650€? con rt 2.0?

li giustificano con una GPU totalmente nuova (nel PP) ... la 3070TI dovrebbe avere le GDDR6X (oltretutto c'è un errore perchè la banda non può essere la medesima della versione liscia che monta le GDDR6 lisce, dove essere 448 GB/s sulla 3070)

DarkNiko
07-07-2020, 11:13
Comunque Niko, non tralasciamo il fatto che ora nVidia ti vende una mattonella di GPU con la 2080ti. Questo per dire che la percentuale di resa diminuisce drasticamente per wafer. Nel prezzo pagato c'è anche questo. Il processo viene raffinato se rimane lo stesso per vari anni come intel ha fatto con i 14nm. nVidia è passata dai 16 di Pascal ai 12 con Turing e ora si va agli 8 Samsung. Sono stati PP nuovi e di raffinato non so...

Intendevo dire che di solito si punta a offrire qualcosa di più raffinato, nel senso di migliore, ma a prezzi più contenuti. E' evidente che non è così per molte cose, VGA in primis.

vengono fuori dalle fottute pareti (cit), mi verrebbe quasi da sperare che aumentino ancora i prezzi cosi si sentirà esplodere la milza da qua :asd:

nn voglio essere ripetitivo, ma guardacaso a chi è che brucia se ci fate caso...a chi ha tutti i componenti top in firma, cioè essere chiamato fesso da chi ha una titan...ovvero il fesso/pollo/utonto x eccellenza se vogliamo usare le sue parole :sofico:



Temo di essere stato frainteso. Non intendevo offendere nessuno, solo che agli occhi di molti (ed era questo il senso iniziale del discorso), spendere 1000 euro (e mi tengo basso) per una 2080Ti e ancora di più per la futura 3080 (o come si chiamerà) appare una scelta discutibile e spesso molti chiamano "fessi" gli utenti che pur di avere la top di gamma sotto al "cofano" spenderebbero anche cifre ritenute folli, tutto qui.

La Titan che leggi in firma è serie Maxwell, risalente al 2015 e pagata circa 1000€, una pazzia, sono il primo a riconoscerlo, avrei potuto e dovuto accontentarmi serenamente di una 980Ti, però alla fine sono 5 anni di onorato servizio per cui l'ho vista come un utile e buono investimento.


che poi è da ridere che il prezzo giusto sia 500-700 praticamente tarato x le proprie tasche, incurante di chi vorrebbe magari 300-400 per le top o meno a sto punto.

secondo me nn si lamenta che la 2080ti costi 1300euro visto che la titan costava uguale, ma che volendosi prendere la titan ora ci vogliono 2400euro :)

poi coi paraocchi, nn importa se è 754mm , se te la danno subito e nn un anno dopo, se introduce innovazioni, se ad ogni pp i costi salgono, se debutta con nuove memorie....niente vogliono tutto a 500euro che sennó finiscono i soldi x le mobo da 400 e le cpu da 800 con le quali fai +1fps

spero che lo facciate solo con nvidia, perchè se rosicate cosi x ogni singolo oggetto che nn potete acquistare vivete proprio male.

vi sta facendo male la pcmasterrace

Non capisco questo tuo intervento. Nessuno fa un discorso di "taratura" del prezzo sulla base delle proprie possibilità, non a caso ho scritto nei post precedenti che non c'è alcuno che obbliga l'utenza a dover acquistare per forza queste schede o a questi prezzi, così come chiunque deve sentirsi libero di spendere i propri soldi come meglio ritiene più opportuno.

La considerazione che facevo (ed è solo un paragone) è che mentre prima per una top di gamma si spendevano dai 500 ai 700 euro e si gridava allo scandalo, adesso occorrono cifre più che raddoppiate. Se poi sia ancora più scandaloso lo lascio giudicare ad altri, visto che ho già espresso il mio pensiero.

Ma non c'è alcun rosicamento e non capisco perché da una conversazione pacifica bisogna sempre buttarla in polemica condita da falsa ironia. Non pensi che dovresti argomentare meglio i tuoi interventi? :rolleyes:

fraussantin
07-07-2020, 11:16
Perché 8 giga sulla 3070/ti ci può stare .


Inviato dal mio iPhone X utilizzando TapatalkMa non ha senso fare uscire subito la ti secondo me.

Poi i cuda sulle versioni cut è normale che siano identici a Turing mod superiore? Ma quel sito mi pare che se le invento certe cose

Per i giga di RAM purtroppo mi sa che saranno quelli.

Thunder-74
07-07-2020, 11:21
Ma non ha senso fare uscire subito la ti secondo me.

Poi i cuda sulle versioni cut è normale che siano identici a Turing mod superiore? Ma quel sito mi pare che se le invento certe cose

Per i giga di RAM purtroppo mi sa che saranno quelli.


Partendo dal fatto che il sito è rinomato per sparare numeri e notizie tanto per fare traffico, poi sarà da vedere se effettivamente usciranno tutte insieme . Non credo che difatti sarà così ... sarebbe troppo bello avere la possibilità di valutare il parco vga da subito. Non mi è cambiata la vita , ma sono onesto a dire che mi ha ridurlo veder uscire la 2080S ... più che altro per la svalutazione subita ...


Inviato dal mio iPhone X utilizzando Tapatalk

mikael84
07-07-2020, 11:25
8gb? che è uno scherzo?

La 3070 avrà un 256bit e dovrebbe tallonare la 2080ti o poco meno in raster, e superarla agevolmente in rt.
Dipende da quanto clockerà.

sarebbero filologicamente corretti: una sola vera scheda nuova (in fatto di performance) mentre il resto una sovrapposizione di fasce

una 3070=2080s a 500 euro non sarebbe malvagia

non è uno shrink, il chip sarà identico in cuda e bus, ma sicuramente clockerà qualcosa in più, con possibile aumento IPC sulla l1/l2, compressione etc.





cmq sono fandonie

I chip saranno quelli, l'unica cosa che non esiste è la ram delle 3080ti/3080.
Attualmente abbiamo i 16gb/s su micron e samsung e 18 rambus, ma non se la fila nessuno.
Nvidia ha fatto contratto principalmente con micron.
I 512gb/s della 3070 potrebbero essere reali.

Partendo dal fatto che il sito è rinomato per sparare numeri e notizie tanto per fare traffico, poi sarà da vedere se effettivamente usciranno tutte insieme . Non credo che difatti sarà così ... sarebbe troppo bello avere la possibilità di valutare il parco vga da subito. Non mi è cambiata la vita , ma sono onesto a dire che mi ha ridurlo veder uscire la 2080S ... più che altro per la svalutazione subita ...


Inviato dal mio iPhone X utilizzando Tapatalk

La 3070 dovrebbe debuttare in linea con AMD nel q4. Qualche mese dopo la 3060 (fine anno/inizio 2021).

Raven
07-07-2020, 12:16
Ricordo quando uscì la 1080ti e si prendeva per pazzi chi l'acquistava per giocare in FullHD, oggi, con alcuni titoli, il discorso si ridimensiona.

Quando lo dissi, all'epoca, che la 1080ti era la scheda perfetta per il fullHD, venni ricoperto di insulti... :O

Nurabsa
07-07-2020, 12:28
anno 2013 gk110b 384bit 780ti 561mmq kepler 1.0 - 7mil di trans. processo litografico 28
+28% performance dalla 590 + 35% performance sulla 680

anno 2015 gm200a1 384bit 980ti 601mmq maxwell 2.0 - 8mil di trans. processo litografico 28
+22% performance sul chip precedente

anno 2017 gp102a1 352bit 1080ti 471mmq pascal 1.0 - 16mil di trans. processo litografico 16
+40% performance sul chip precedente

anno 2018 tu102a1 352bit 2080ti 754mmq turing 1.0 - 18.6mil di trans.processo litografico 12
+21% performance sul chip precedente

anno 2020 ga102 384bit 3080ti 700mmq ampere 1.0 - 45mil di trans. processo litografico 8?
performance sul chip precedente?

Al netto delle opinioni su base numerica credo che seguendo il ragionamento piu silicio=logico aumento di prezzo ci si imbatte sulla tabella -valori ufficiali-

780ti laciata a 699, per i tempi e dato il nodo grossa e molto costosa da produrre

stesso nodo ma con piu silicio -quindi piu transistor-
980ti 649 - quindi l esatto opposto della teoria silicio=prezzo

1080ti 699 qui abbiamo un core piu piccolo di kepler ma venduto a pari prezzo e con piu del doppio dei 7m di transistor precedenti.
quindi innovazione abissale grazie al nodo, che va contro la teoria le innovazioni si pagano.

2080ti 999 qui abbiamo un risibile aumento di transistor a fronte un +43% sul costo che la separa dal precedente modello.
Questa scheda genera una anomalia temporale -18mesi- nella cadenza biennale ed è qui che secondo me si son fatti furbi middle core nelle fasce enthusiast.
Politica del "cercasi nuova unita di misura per generare ulteriori fasce"

3080ti ? data la breve cronostoria è lecito attendersi le stesse politiche in barba alle nuove features o a quanto è grossa la piastrella.

Però con ampere si torna ad un equilibrio di 24m. Che sia un segnale anche di ritorno al prezzo inferiore?
Di certo senza una inversione di rotta continuando a salire spalancheranno le porte alle console.

interloquire piacevolmente tra di noi credo sia il valore piu importante meglio ancora se con uno schemino riassuntivo e qualche numero ufficiale.

Crysis90
07-07-2020, 12:32
Trapela qualcosa su WccFtech in merito alle specs:

https://wccftech.com/nvidia-geforce-rtx-3070-ti-rtx-3070-ampere-gaming-gpu-specs-rumor/

Vogliamo parlare dell'assoluta e totale inutilità del modello 3070 Ti!??!?! :asd: :doh: :doh: :doh:

Andy1111
07-07-2020, 12:32
La 3070 avrà un 256bit e dovrebbe tallonare la 2080ti o poco meno in raster, e superarla agevolmente in rt.
Dipende da quanto clockerà.


Per me sei un po troppo ottimista , specialmente se useranno gli 8 di samsung , il tempo dirà la sua.

Spytek
07-07-2020, 12:33
La considerazione che facevo (ed è solo un paragone) è che mentre prima per una top di gamma si spendevano dai 500 ai 700 euro e si gridava allo scandalo, adesso occorrono cifre più che raddoppiate.
Occorrerebbe un minimo di obiettività e imparzialità ma dal momento che alcune riflessioni o considerazioni urtano la suscettibilità dei soliti è inutile continuare ad oltranza.

mikael84
07-07-2020, 12:40
anno 2017 gp102a1 352bit 1080ti 471mmq pascal 1.0 - 16mil di trans. processo litografico 16
+40% performance sul chip precedente



Occhio che sono 12mt.
Teoricamente sono 12mt perchè pompati per GPC da 1,8 a 2, per i clock.
GP104 è solo 7,2mt.:)

Per me sei un po troppo ottimista , specialmente se useranno gli 8 di samsung , il tempo dirà la sua.

No... se la 2080ti sta stra il 18 ed il 20% sopra la 2080s, non vedo come lo stesso chip possa aver difficoltà ad accorciare il gap.
Ricorda che dovrebbe partire con memorie migliori, compressione migliore, aumento IPC l1/l2, da vedere la logica delle load store e naturalmente un clock sicuramente più alto.

Se il chip fosse un puro shrink, senza clock, avremmo la 3080 pari alla 2080ti e la 3080ti sopra di 15/20%. Non sarà di certo così. ;)

Spytek
07-07-2020, 12:41
980ti 649 - quindi l esatto opposto della teoria silicio=prezzo

1080ti 699 qui abbiamo un core piu piccolo di kepler ma venduto a pari prezzo e con piu del doppio dei 7m di transistor precedenti.
quindi innovazione abissale grazie al nodo, che va contro la teoria le innovazioni si pagano.
Quindi,in sostanza,siamo concordi nel dire che gli investimenti economici da parte di Nvidia nello sviluppo di architetture,miglioramento dei processi produttivi e tecnologie innovative non ha comportato in passato un raddoppio dei prezzi nei modelli di punta?

DarkNiko
07-07-2020, 12:43
Occorrerebbe un minimo di obiettività e imparzialità ma dal momento che alcune riflessioni o considerazioni urtano la suscettibilità dei soliti è inutile continuare ad oltranza.

Hai ragione, ti chiedo scusa. :)

Andy1111
07-07-2020, 12:44
Occhio che sono 12mt.
Teoricamente sono 12mt perchè pompati per GPC da 1,8 a 2, per i clock.
GP104 è solo 7,2mt.:)



No... se la 2080ti sta stra il 18 ed il 20% sopra la 2080s, non vedo come lo stesso chip possa aver difficoltà ad accorciare il gap.
Ricorda che dovrebbe partire con memorie migliori, compressione migliore, aumento IPC l1/l2, da vedere la logica delle load store e naturalmente un clock sicuramente più alto.

Se il chip fosse un puro shrink, senza clock, avremmo la 3080 pari alla 2080ti e la 3080ti sopra di 15/20%. Non sarà di certo così. ;)
se lo dici tu, secondo me la 3070 finirà tra la 2080s e la 2080TI se va bene, perchè cmq sarebbe da prendere più in considerazione la 2070 come riferimento che la 2070 super

mikael84
07-07-2020, 12:44
Vogliamo parlare dell'assoluta e totale inutilità del modello 3070 Ti!??!?! :asd: :doh: :doh: :doh:

Nomi e cut inventati, però da quel chip tireranno fuori varie varianti.

Spytek
07-07-2020, 12:45
Hai ragione, ti chiedo scusa. :)
Ma no Dark,il mio intervento non era diretto nei tuoi confronti che hai assunto sempre una posizione moderata dando spazio ad un minimo di riflessione ;)

Spytek
07-07-2020, 12:48
Scusate,è azzardato aspettarsi una 3080 con potenza simile alla 2080Ti e una 3080Ti che viaggerà il 30-35% in più della 2080Ti?
Un po come successo in passato e di recente con la 2080 con prestazioni equiparabili alla 1080Ti e la 2080 Ti che va di un buon 35% rispetto alla 1080Ti

mikael84
07-07-2020, 12:50
se lo dici tu, secondo me la 3070 finirà tra la 2080s e la 2080TI se va bene, perchè cmq sarebbe da prendere più in considerazione la 2070 come riferimento che la 2070 super

Beh considerando il 18/20% non saresti poi lontano.
I 1800 di clock li garantiva già il 14 LPP di samsung.
Ricorda che il tutto si riflette sopra. la 3080 è una 2080ti a numeri con nodo superiore.
Se tra clock ed IPC prendi un 8/10% non è certo un gran risultato.;)

OrazioOC
07-07-2020, 13:35
https://videocardz.com/newz/nvidia-geforce-rtx-3070-ti-super-and-rtx-3070-rumored-to-feature-ga104-gpu

599 dollari per le performance di una 2080 ti sarebbe ottimo, iniziamo ad avere una scheda pronta per il 4k o 1440p senza compromessi.

Nurabsa
07-07-2020, 13:57
Occhio che sono 12mt.
Teoricamente sono 12mt perchè pompati per GPC da 1,8 a 2, per i clock.
GP104 è solo 7,2mt.:)

a fidarsi di techpowa :lamer:

Quindi,in sostanza,siamo concordi nel dire che gli investimenti economici da parte di Nvidia nello sviluppo di architetture,miglioramento dei processi produttivi e tecnologie innovative non ha comportato in passato un raddoppio dei prezzi nei modelli di punta?

la accendiamo
insieme a molti altri mi sa che siamo d accordo su piu temi da un bel pezzo spy :mano:

mikael84
07-07-2020, 14:13
Scusate,è azzardato aspettarsi una 3080 con potenza simile alla 2080Ti e una 3080Ti che viaggerà il 30-35% in più della 2080Ti?
Un po come successo in passato e di recente con la 2080 con prestazioni equiparabili alla 1080Ti e la 2080 Ti che va di un buon 35% rispetto alla 1080Ti

No è contro logica.
La 3080 avrà le specifiche della 2080ti ma con un saltino a livello di silicio, quindi boost più alto ed IPC maggiorato.
La 3080ti avrà tra il 20/23% di potenza sulle ALU e una BW maggiorata.
Probabilmente per numeri si va verso il 20% rispetto alla 3080.:)

https://videocardz.com/newz/nvidia-geforce-rtx-3070-ti-super-and-rtx-3070-rumored-to-feature-ga104-gpu

599 dollari per le performance di una 2080 ti sarebbe ottimo, iniziamo ad avere una scheda pronta per il 4k o 1440p senza compromessi.

Per me vero best buy, e probabilmente mia prossima scelta, netto salto in RT, e un bel saltino in raster.

Thunder-74
07-07-2020, 14:16
No è contro logica.
La 3080 avrà le specifiche della 2080ti ma con un saltino a livello di silicio, quindi boost più alto ed IPC maggiorato.
La 3080ti avrà tra il 20/23% di potenza sulle ALU e una BW maggiorata.
Probabilmente per numeri si va verso il 20% rispetto alla 3080.:)

Quindi tipo :

3080 + 10% rispetto a 2080ti
3080ti +30% rispetto a 2080ti

Così?

mikael84
07-07-2020, 14:40
Quindi tipo :

3080 + 10% rispetto a 2080ti
3080ti +30% rispetto a 2080ti

Così?

per me pure di più, almeno 20/40% ci sta.
Un 10% vs 2080ti lo prenderesti a 1900 medi.
Il 14nm LPP boostava medio a 1800/1820, gli 8nm possono superare il 20%.
Un 10% è davvero poco, considera un aumento anche di IPC, da ciò che ho letto dovrebbero apportare finalmente quello visto con volta sulla L1
https://devblogs.nvidia.com/wp-content/uploads/2017/05/image13.png

In più l2 doppia, maggior compressione etc.:)

Thunder-74
07-07-2020, 14:48
per me pure di più, almeno 20/40% ci sta.
Un 10% vs 2080ti lo prenderesti a 1900 medi.
Il 14nm LPP boostava medio a 1800/1820, gli 8nm possono superare il 20%.
Un 10% è davvero poco, considera un aumento anche di IPC, da ciò che ho letto dovrebbero apportare finalmente quello visto con volta sulla L1
https://devblogs.nvidia.com/wp-content/uploads/2017/05/image13.png

In più l2 doppia, maggior compressione etc.:)


40% sulla 2080ti mi ingolosisce, aggiungiamoci poi il Delta 2080/2080ti.... :fagiano:
Che salasso.... hahahah


Inviato dal mio iPhone X utilizzando Tapatalk

appleroof
07-07-2020, 14:54
Ciao a tutti, seguendo ormai pocherrimo, mi pare di capire che 1) ho fatto bene a saltare l'attuale gen per il discorso RT 2) per limiti di sistema (che rimarrà quello in firma ancora per qualche tempo) e risoluzione (stesso discorso per il monitor) la 3070 sarà mia al dayone :sofico:

correggetemi se sbaglio, in pratica avrà i numeri "di targa" della 2080s ma con le migliorie dovute a pp (quindi clock superiori) ed IPC della nuova architettura, la vedrei perfetta per me

mikael84
07-07-2020, 14:57
40% sulla 2080ti mi ingolosisce, aggiungiamoci poi il Delta 2080/2080ti.... :fagiano:
Che salasso.... hahahah


Inviato dal mio iPhone X utilizzando Tapatalk

Per te sarebbe un bel balzo, considerando che hai una 2080 liscia.
Questo sito ha preso in esame anche le NON A (non so se blower)
https://i.postimg.cc/h42cqYXV/non-a.png


Tu minimo faresti un 70% raster ed un 2x ed oltre in RT.:)

appleroof
07-07-2020, 15:06
Ciao a tutti, seguendo ormai pocherrimo, mi pare di capire che 1) ho fatto bene a saltare l'attuale gen per il discorso RT 2) per limiti di sistema (che rimarrà quello in firma ancora per qualche tempo) e risoluzione (stesso discorso per il monitor) la 3070 sarà mia al dayone :sofico:

correggetemi se sbaglio, in pratica avrà i numeri "di targa" della 2080s ma con le migliorie dovute a pp (quindi clock superiori) ed IPC della nuova architettura, la vedrei perfetta per me

grazie a tutti dell'accoglienza calorosa e delle numerose risposte :asd: :asd:

Thunder-74
07-07-2020, 15:13
Per te sarebbe un bel balzo, considerando che hai una 2080 liscia.
Questo sito ha preso in esame anche le NON A (non so se blower)
cut...
Tu minimo faresti un 70% raster ed un 2x ed oltre in RT.:)

obiettivo, rimanere con l'attuale monitor da 100hz e ottenere fps min=fps max almeno nei titoli non RT :oink:

grazie a tutti dell'accoglienza calorosa e delle numerose risposte :asd: :asd:

CIAO APPLE come stai? :fagiano: !!!!!
Sembra che la 3070Ti sia così...

Crysis90
07-07-2020, 15:14
https://videocardz.com/newz/nvidia-geforce-rtx-3070-ti-super-and-rtx-3070-rumored-to-feature-ga104-gpu

599 dollari per le performance di una 2080 ti sarebbe ottimo, iniziamo ad avere una scheda pronta per il 4k o 1440p senza compromessi.

Questo non succederà mai, come fanno 3000 SP a produrre le stesse performances di una 2080 Ti che na ha più di 4000 di SP? :boh:

appleroof
07-07-2020, 15:16
cut

CIAO APPLE come stai? :fagiano: !!!!!
Sembra che la 3070Ti sia così...

ohhhh :D

azz la 3070TI mi mette in crisi, cosa sai/sapete dirmi della 3070?

OrazioOC
07-07-2020, 15:17
Questo non succederà mai, come fanno 3000 SP a produrre le stesse performances di una 2080 Ti che na ha più di 4000 di SP? :boh:

Allo stesso modo di come i 1920 cc della 1070 rullavano come i 2816 della 980 ti. :D

Thunder-74
07-07-2020, 15:21
ohhhh :D

azz la 3070TI mi mette in crisi, cosa sai/sapete dirmi della 3070?


Sono uscite oggi delle indiscrezioni..
Se tutto fosse confermato, le caratteristiche sarebbero assimilabili :
2080 - 3070 // 2080s - 3070ti
Ovviamente da considerare un Delta prestazionale rispetto alle Turing .
Su questo lascio la parola a Mike


Inviato dal mio iPhone X utilizzando Tapatalk

appleroof
07-07-2020, 15:23
Sono uscite oggi delle indiscrezioni..
Se tutto fosse confermato, le caratteristiche sarebbero assimilabili :
2080 - 3070 // 2080s - 3070ti
Ovviamente da considerare un Delta prestazionale rispetto alle Turing .
Su questo lascio la parola a Mike


Inviato dal mio iPhone X utilizzando Tapatalk

perfetto, considerando un pò di solito OC, in estrema teoria una 3070 liscia dovrebbe prendere una 2080S che mi pare tanta roba....mi sa che devo cominciare a seguire più assiduamente :D

grazie ;)

fraussantin
07-07-2020, 15:26
Scusate ma cosa c'è di ottimo un una 3070 che andrebbe poco più di una 2070S con la solita vram ? Allo stesso prezzo poi se non di più .

Boh.

ninja750
07-07-2020, 15:34
Scusate ma cosa c'è di ottimo un una 3070 che andrebbe poco più di una 2070S con la solita vram ? Allo stesso prezzo poi se non di più .

Boh.

per chi ha già una 2070s o 2080 o 2080s nulla, per chi deve fare un upgrade più sostanzioso pariprezzo meglio una 3070 che 2080 o 2070

Thunder-74
07-07-2020, 15:36
perfetto, considerando un pò di solito OC, in estrema teoria una 3070 liscia dovrebbe prendere una 2080S che mi pare tanta roba....mi sa che devo cominciare a seguire più assiduamente :D

grazie ;)


Io credo che a def la prenda . Tra una 2080 e la 2080s ci sono il 5 per cento di prestazioni in più , quindi ampiamente colmato dal nuovo PP/cache ecc. Questo nei titoli raster , in RT dovrebbe distanziarla di parecchio dato che si dice che una 3060 sarà equiparabile ad una 2080ti in tale ambito


Inviato dal mio iPhone X utilizzando Tapatalk

fraussantin
07-07-2020, 15:49
per chi ha già una 2070s o 2080 o 2080s nulla, per chi deve fare un upgrade più sostanzioso pariprezzo meglio una 3070 che 2080 o 2070Tanto valeva prendere una 2070S a 550 euro allora E godersela 1 anno prima .

Ma cmq sia non è niente di cui esserne contenti.

La 1070 fu un altra cosa , ma a sto punto anche una 2070 che tutti criticammo

mikael84
07-07-2020, 16:07
Ciao a tutti, seguendo ormai pocherrimo, mi pare di capire che 1) ho fatto bene a saltare l'attuale gen per il discorso RT 2) per limiti di sistema (che rimarrà quello in firma ancora per qualche tempo) e risoluzione (stesso discorso per il monitor) la 3070 sarà mia al dayone :sofico:

correggetemi se sbaglio, in pratica avrà i numeri "di targa" della 2080s ma con le migliorie dovute a pp (quindi clock superiori) ed IPC della nuova architettura, la vedrei perfetta per me

Bella Apple, come va...:)
Si teoricamente dovrebbe essere così.
La 3070 pare adottare il chip visto con la 2080s, ma pompato in clock e IPC cache.
Bella schedina che suo pure io.
In RT prove non abbiamo, per ora abbiamo visto dei tensor pazzeschi sul chip HPC, ma in linea di massima dovrebbe essere il suo vero punto di forza, tanto che penso che JHH, parlerà sopratutto del RT e dei numeri teorici.:)

grazie a tutti dell'accoglienza calorosa e delle numerose risposte :asd: :asd:

Ti leggo ora.:p

Questo non succederà mai, come fanno 3000 SP a produrre le stesse performances di una 2080 Ti che na ha più di 4000 di SP? :boh:

La 2080ti di base è potente, ha un boost base un tanto più basso, ma ha un'architettura che i motori grafici sfruttano male, è una scheda più che altro pensata per il calcolo puro.
Rimane ovviamente più muscle di un chip con molti meno cc.

Sono uscite oggi delle indiscrezioni..
Se tutto fosse confermato, le caratteristiche sarebbero assimilabili :
2080 - 3070 // 2080s - 3070ti
Ovviamente da considerare un Delta prestazionale rispetto alle Turing .
Su questo lascio la parola a Mike


Inviato dal mio iPhone X utilizzando Tapatalk

Beh i tagli non si conoscono, dovremmo partire per ora da una base che è quella di una 2080/s, ma con i vantaggi del nuovo PP ed IPC.:)
Dubito che lancino subito 2 schede con soli 128cc di differenza.:p

Crysis90
07-07-2020, 16:08
Allo stesso modo di come i 1920 cc della 1070 rullavano come i 2816 della 980 ti. :D

Scusa, con quale criterio o dato reale alla mano dici che l'incremento di IPC da Turing ad Ampere sia lo stesso che da Maxwell a Pascal!?!? :boh:

Thunder-74
07-07-2020, 16:09
Tanto valeva prendere una 2070S a 550 euro allora E godersela 1 anno prima .

Ma cmq sia non è niente di cui esserne contenti.

La 1070 fu un altra cosa , ma a sto punto anche una 2070 che tutti criticammo


Ma sai, dipende se nel frattempo ha sentito l esigenza di fare un upgrade . In teoria bisognerebbe cambiare quando si ha bisogno, poi ci sono gli scimmiati come il sottoscritto , che cambia più per piacere che per necessità ...


Inviato dal mio iPhone X utilizzando Tapatalk

nessuno29
07-07-2020, 16:19
Sono uscite oggi delle indiscrezioni..
Se tutto fosse confermato, le caratteristiche sarebbero assimilabili :
2080 - 3070 // 2080s - 3070ti
Ovviamente da considerare un Delta prestazionale rispetto alle Turing .
Su questo lascio la parola a Mike


Inviato dal mio iPhone X utilizzando Tapatalk

A me pare un pò uno schifo se sarà così, una 3070 che va quanto una 2080 praticamente la 3070 andrebbe un 10% in più di una 2070s, ma che salto è?
Non credo sinceramente che andrà così poco.

Acme
07-07-2020, 16:24
per me pure di più, almeno 20/40% ci sta.
Un 10% vs 2080ti lo prenderesti a 1900 medi.
Il 14nm LPP boostava medio a 1800/1820, gli 8nm possono superare il 20%.
Un 10% è davvero poco, considera un aumento anche di IPC, da ciò che ho letto dovrebbero apportare finalmente quello visto con volta sulla L1
https://devblogs.nvidia.com/wp-content/uploads/2017/05/image13.png

In più l2 doppia, maggior compressione etc.:)

Ma è stato confermato l'utilizzo dei 8nm?
Se le specifiche che circolano sono veritiere 21tflop sono un bel salto da i 13,5 di turing.
Io mi aspetto prestazioni anche il +50% visti anche i consumi, 60w in più con salto di nodo è tanta roba da sfruttare a meno che non sia veramente presente il chip separato rt.

IMHO

amon.akira
07-07-2020, 16:26
Scusa, con quale criterio o dato reale alla mano dici che l'incremento di IPC da Turing ad Ampere sia lo stesso che da Maxwell a Pascal!?!? :boh:

li presero molto sul clock...ampere a parità sta già sopra del 10/20 % quindi diciamo 15%medio...poi resta da vedere i clock, certo se usassero i 7nm per i ga102 sarebbe meglio :p

Thunder-74
07-07-2020, 16:30
A me pare un pò uno schifo se sarà così, una 3070 che va quanto una 2080 praticamente la 3070 andrebbe un 10% in più di una 2070s, ma che salto è?
Non credo sinceramente che andrà così poco.

non erano accoppiate per performaces, ma per quantità di cuda

https://i.imgur.com/K5iyt9y.png

Sicuro che le prestazioni saranno maggiori, ma io non mi aspetto chissà che boost in raster. Il grosso sarà sul Ray Tracing.

NAP.
07-07-2020, 16:38
secondo me non stiamo considerando i vantaggi architetturali e di frequenza che i 7nm porteranno, secondo me avremo almeno un 50% in piu per fascia in raster

fraussantin
07-07-2020, 16:43
secondo me non stiamo considerando i vantaggi architetturali e di frequenza che i 7nm porteranno, secondo me avremo almeno un 50% in piu per fascia in rasterSempre se non saranno 8nm. Ma sai, dipende se nel frattempo ha sentito l esigenza di fare un upgrade . In teoria bisognerebbe cambiare quando si ha bisogno, poi ci sono gli scimmiati come il sottoscritto , che cambia più per piacere che per necessità ...


Inviato dal mio iPhone X utilizzando TapatalkSi ok , ma quello è il minimo sindacale mica una gioia , meno di quello te la facevano uguale alla 2070S con il prezzo aumentato. A me pare un pò uno schifo se sarà così, una 3070 che va quanto una 2080 praticamente la 3070 andrebbe un 10% in più di una 2070s, ma che salto è?
Non credo sinceramente che andrà così poco.Ecco.

Secondo me sono rumor improbabili per un cambio architettura. E un cambio di PP.

Aspettiamo i dati ufficiale che è meglio

NAP.
07-07-2020, 16:52
Sempre se non saranno 8nm.
Sarebbe una cagata colossale da parte di nvidia onestamente, facciamo la fine di Intel?

fraussantin
07-07-2020, 17:03
Sarebbe una cagata colossale da parte di nvidia onestamente, facciamo la fine di Intel?Non c'entra nulla con i problemi Intel.

Qui è sono una questione di prezzo.

mikael84
07-07-2020, 17:05
Ma è stato confermato l'utilizzo dei 8nm?
Se le specifiche che circolano sono veritiere 21tflop sono un bel salto da i 13,5 di turing.
Io mi aspetto prestazioni anche il +50% visti anche i consumi, 60w in più con salto di nodo è tanta roba da sfruttare a meno che non sia veramente presente il chip separato rt.

IMHO

21tf per un chip full sono circa 1960mhz.
i 13,5tf sono riferiti alla 2080ti non A, sempre in boost base, la 3080 avrebbe 17tf in base.

Diciamo che 1960mhz in boost base, non sarebbero male per un 8nm, in quanto il valore effettivo per tensione risulterebbe abbastanza più alto.

OrazioOC
07-07-2020, 17:07
Scusa, con quale criterio o dato reale alla mano dici che l'incremento di IPC da Turing ad Ampere sia lo stesso che da Maxwell a Pascal!?!? :boh:

Perchè anche se si trattasse di un mero shrink grazie al pp qualcosa nelle frequenze prendono.
Tra una 2080 super e una 2080 ti a seconda del titolo, della risoluzione e della versione custom presa in esame ci passa tra il 15 e il 20% circa di performance, vuoi che ampere non abbia un 20% in più di performance a parità di cc in raster?:rolleyes:

slide1965
07-07-2020, 17:52
ripropongo le mie previsioni ad muzzum:D

-3080 grossomodo prestazioni delle 2080ti
-3080ti +30%

fine della fiera:fagiano:

tutto ciò al modico prezzo di :

3080 999 eurini
3080ti 1299 eurozzi

:banned:

mikael84
07-07-2020, 18:04
A me pare un pò uno schifo se sarà così, una 3070 che va quanto una 2080 praticamente la 3070 andrebbe un 10% in più di una 2070s, ma che salto è?
Non credo sinceramente che andrà così poco.

Ma non è lo stesso chip, ha solo i numeri.
E' come dire che la 1070 è uguale ad una 980 perchè hanno più o meno gli stessi numeri.

Un ragionamento, valido anche per altri.
Ho preso la 2080 liscia da 2944cc che boosta in media a 1845mhz e le ram a 14 gb/s.

Nell'OC viene portata a 1950 e 16 gb/s (che saranno le sue memorie probabilmente), guadagnando un 8%
https://i.postimg.cc/pTfrvrRL/base.png

Ora, teniamo presente che 1950 o più potrebbe essere il boost base, e quello di lavoro 2100 (potrebbe essere anche di più).
L'8 nm dovrebbe permettere il 20 % di clock, quando il 14LPP boostava già a 1820.
Aggiungiamo l'IPC per la cache, 2x l1/2xl2, compressione maggiore.


Se i numeri fossero uguali a turing, la 3080ti andrebbe un 15/20% la 2080ti, tanto valeva fare come intel e darti un turing full.:sofico:

fireradeon
07-07-2020, 18:46
https://videocardz.com/newz/nvidia-geforce-rtx-3070-ti-super-and-rtx-3070-rumored-to-feature-ga104-gpu

599 dollari per le performance di una 2080 ti sarebbe ottimo, iniziamo ad avere una scheda pronta per il 4k o 1440p senza compromessi.

La seconda che hai detto.
Il 4k è una mezza utopia, perché aumentano la potenza della VGA ma caricano i giochi con RT o altri effetti che spezzano le gambe. Se uno vuole giocare sfruttando il massimo della grafica, oltre i 1440p non ha senso andare, anche in ottica futura se non si vuole cambiare VGA ogni anno.

Iceman69
07-07-2020, 19:51
ripropongo le mie previsioni ad muzzum:D

-3080 grossomodo prestazioni delle 2080ti
-3080ti +30%

fine della fiera:fagiano:

tutto ciò al modico prezzo di :

3080 999 eurini
3080ti 1299 eurozzi

:banned:
Io ti quoto, nvidia ha fatto così le ultime volte e farà così anche per le prossime.
Le prestazioni le dà sempre con il contagocce e grazie al mining è riuscita a tirar su di buoni 400 euro prezzi per fascia prestazionale.

Chi pensa a +50% sogna.

Film già visti che si ripetono, senza concorrenza rimarrà così secondo me.

Spytek
07-07-2020, 20:15
la accendiamo
insieme a molti altri mi sa che siamo d accordo su piu temi da un bel pezzo spy :mano:
Fa piacere sentirlo ;)
La 2080ti di base è potente, ha un boost base un tanto più basso, ma ha un'architettura che i motori grafici sfruttano male, è una scheda più che altro pensata per il calcolo puro.
Rimane ovviamente più muscle di un chip con molti meno cc.
Ma in tal caso l'ottimizzazione dei driver potrebbe fare veramente la differenza nonostante di base ci si trovi di fronte ad un motore grafico non ottimizzato per Pc.

Diciamo che 1960mhz in boost base, non sarebbero male per un 8nm, in quanto il valore effettivo per tensione risulterebbe abbastanza più alto
E secondo me ci sei andato anche cauto con tale previsione perchè il processo produttivo potrebbe permettere anche un boost superiore.
Poi,chiaro,dipende dalla bontà del wafer.

Il 4k è una mezza utopia, perché aumentano la potenza della VGA ma caricano i giochi con RT o altri effetti che spezzano le gambe. Se uno vuole giocare sfruttando il massimo della grafica, oltre i 1440p non ha senso andare, anche in ottica futura se non si vuole cambiare VGA ogni anno.
Concordo e occorrerà ancora tempo per un 4K a 60 fps con RT ON al Max,almeno sui titoli più ostici.

Le prestazioni le dà sempre con il contagocce e grazie al mining è riuscita a tirar su di buoni 400 euro prezzi per fascia prestazionale.
Ti riferisci alla fascia Top?

Film già visti che si ripetono, senza concorrenza rimarrà così secondo me.
Ma certo,oramai il target di prezzo sarà sempre quello li,con buona pace di noi appassionati...

Crysis90
07-07-2020, 20:35
ripropongo le mie previsioni ad muzzum:D

-3080 grossomodo prestazioni delle 2080ti
-3080ti +30%

fine della fiera:fagiano:

tutto ciò al modico prezzo di :

3080 999 eurini
3080ti 1299 eurozzi

:banned:

Esatto.
Scordatevi una 3070 che va come una 2080 Ti. :read:



Film già visti che si ripetono, senza concorrenza rimarrà così secondo me.
Nell'ultimo mese avrò scritto penso 10 volte che senza concorrenza non c'è alcun motivo per NVidia di spingere più di tanto sulle performances.

Acme
07-07-2020, 22:15
Io ti quoto, nvidia ha fatto così le ultime volte e farà così anche per le prossime.
Le prestazioni le dà sempre con il contagocce e grazie al mining è riuscita a tirar su di buoni 400 euro prezzi per fascia prestazionale.

Chi pensa a +50% sogna.

Film già visti che si ripetono, senza concorrenza rimarrà così secondo me.

E speriamo che questa volta ci sia concorrenza, almeno in ambito prestazionale.
Gli indizi ci sono, visto che nvidia sembrerebbe costretta ad alzare i consumi ed usare il chippone per fare la 3080, cosa che non accadeva dai tempi della 780. Probabilmente amd non sarà cosi male, almeno in raster.

IMHO

NAP.
07-07-2020, 22:50
Sinceramente io posso fare solo un paio di confronti tra pascal e turing, possedevo una 1080 custo di gigabyte OC di fabbrica e al suoerposition 1080p extreme mi faceva 30 fps di media, la 2080 Occata a liquido mi fa invece 60 fps medi circa ossia quasi il doppio delle preatazioni, discorso simile anche con deus ex mankind divided, la 2080 mi va quasi al doppio, quindi le prestazioni sono migliorate parecchio con le dovute proporzioni, mi aspetto qualcosa di molto simile, soprattutto in ray tracing che dal prossimo anno incomincerà a prendere sempre più piede

Iceman69
07-07-2020, 22:58
Sinceramente io posso fare solo un paio di confronti tra pascal e turing, possedevo una 1080 custo di gigabyte OC di fabbrica e al suoerposition 1080p extreme mi faceva 30 fps di media, la 2080 Occata a liquido mi fa invece 60 fps medi circa ossia quasi il doppio delle preatazioni, discorso simile anche con deus ex mankind divided, la 2080 mi va quasi al doppio, quindi le prestazioni sono migliorate parecchio con le dovute proporzioni, mi aspetto qualcosa di molto simile, soprattutto in ray tracing che dal prossimo anno incomincerà a prendere sempre più piede

Con sta storia del ray tracing mi hanno già preso in giro una volta, ora basta, titoli pochi e comunque differenza qualitativa minima con rt on e off, solo una trovata e basta, all'inizio ci credevo, ma all'atto pratico se ne può fare tranquillamente a meno e difficilmente ci si accorge della differenza.
Avrebbe senso se consentisse di avere effetti più belli con guadagno di prestazioni, ma con effetti simili e perdita di prestazioni è solo una presa in giro.

mikael84
07-07-2020, 23:27
ripropongo le mie previsioni ad muzzum:D

-3080 grossomodo prestazioni delle 2080ti
-3080ti +30%

fine della fiera:fagiano:

tutto ciò al modico prezzo di :

3080 999 eurini
3080ti 1299 eurozzi

:banned:

Non ci saranno prestazioni raster assurde, ma non un 30% della ti sulla 3080, considerando il 20% di alu teorico.:)

La 3080 è a numeri una 2080ti, ma c'è un salto nodo (non grandissimo ma c'è)
Potrebbe essere, 3080 +20/3080ti +40%.:)


Io ti quoto, nvidia ha fatto così le ultime volte e farà così anche per le prossime.
Le prestazioni le dà sempre con il contagocce e grazie al mining è riuscita a tirar su di buoni 400 euro prezzi per fascia prestazionale.

Chi pensa a +50% sogna.

Film già visti che si ripetono, senza concorrenza rimarrà così secondo me.

https://tpucdn.com/review/nvidia-geforce-gtx-1080-ti/images/perfrel_3840_2160.png

La 1080ti ha battuto la 980ti del 85%
Con turing non c'è stato cambio nodo, ma solo cambio micro architetturale, in direzione pro, RT-tensor, che hanno aggravato la situazione.
Qua c'è un piccolo cambio nodo, con la 3080 che avrà gli stessi numeri della 2080ti, ma non in clock ed in IPC.
Un 40% ci può stare tranquillo, tra TI e TI.

Turing paga lo stesso PP, su introduzione RT.:)



Ma in tal caso l'ottimizzazione dei driver potrebbe fare veramente la differenza nonostante di base ci si trovi di fronte ad un motore grafico non ottimizzato per Pc.

Si, ma anche la scalabilità migliore.
TU102 paga i lunghi cicli di clock, e gli SM troppo sbilanciati.
1 GPC TU102 via SFU può memorizzare 24 pixel per clock, ma elaborarne solo 16, con lavoro aggiuntivo per lo z-cull, ed una primitiva (0,16 ad SM)
1 GPC TU104 via SFU può memorizzare ed elaborare 16 pixel per clock, ed una primitiva (0,25 per SM).

Tu 102 è ottimo per lavoro di calcolo puro, in gaming comincia a perdere colpi. I giochi che sfruttano al meglio le ALU, non sono molti.
in gaming, meglio meno alu ma più clock, per gli stadi moltiplicatori, in pro, meglio avere più potenza possibile.:)


E secondo me ci sei andato anche cauto con tale previsione perchè il processo produttivo potrebbe permettere anche un boost superiore.
Poi,chiaro,dipende dalla bontà del wafer.



Si, diciamo che ho interpretato quanto possono dare quei transistor.
Con i 14lpp si boostava a 1800 per tensione (non base)
Con i 10lpp, si potrebbe oscillare tra i 10/20%, e con gli 8% mantenerli, o migliorarli, tramite anche lavoro elettrico.

Se una 3080 boosterà base 1950, rispetto ai 1545 dei chip non a della 2080ti, sarà giù un bel saltino.
Certo i prezzi, non so.:p

Esatto.
Scordatevi una 3070 che va come una 2080 Ti. :read:



Se una 2080s sta a meno 18/20%, non vedo perchè lo stesso chip ad 8nm, più IPC, possa fare tanto peggio.

Non è questione di fantasticare, a meno che nvidia non sbagli tutto, a par chip il vantaggio ci sarà.
Turing, è rimasta sullo stesso PP.:)

Nhirlathothep
07-07-2020, 23:56
non erano accoppiate per performaces, ma per quantità di cuda

https://i.imgur.com/K5iyt9y.png

Sicuro che le prestazioni saranno maggiori, ma io non mi aspetto chissà che boost in raster. Il grosso sarà sul Ray Tracing.

2304 la 2070 liscia, non 3204 (hanno invertito i numeri)

mikael84
07-07-2020, 23:59
2304 la 2070 liscia, non 3204 (hanno invertito i numeri)

Ed ancora non hanno capito che le ddr6x 21 gb/s non esistono.

slide1965
08-07-2020, 00:17
Non ci saranno prestazioni raster assurde, ma non un 30% della ti sulla 3080, considerando il 20% di alu teorico.:)

La 3080 è a numeri una 2080ti, ma c'è un salto nodo (non grandissimo ma c'è)
Potrebbe essere, 3080 +20/3080ti +40%.:)

io mi auguro che l'incremento sia anche superiore ;)

NAP.
08-07-2020, 03:32
Beh il ray tracing è un effetto ammazza framerate altro che di aumento prestazioni, il dlss semmai è votato all'aumento di prestazioni, ma di fatto è un trick per cheatare una risoluzione più alta renderizzando in realtà ad una più bassa. Il ray tracing invece è un effetto votato alla qualità pura. E per il momento pena console vecchie lo abbiamo visto solo in parte, Cyberpunk2077 dimostrerà quanto fa la differenza

fraussantin
08-07-2020, 05:37
Beh il ray tracing è un effetto ammazza framerate altro che di aumento prestazioni, il dlss semmai è votato all'aumento di prestazioni, ma di fatto è un trick per cheatare una risoluzione più alta renderizzando in realtà ad una più bassa. Il ray tracing invece è un effetto votato alla qualità pura. E per il momento pena console vecchie lo abbiamo visto solo in parte, Cyberpunk2077 dimostrerà quanto fa la differenzaCmq il dlss2.0 sembra funzionare quasi sempre bene è..
Il problema è che lo usano pochissimi giochi

Iceman69
08-07-2020, 07:28
Mikael io un salto dell'85% tra 980ti e 1080ti proprio non me lo ricordo, a me sembra piu un 50%, che è comunque tanto rispetto al passaggio 1080ti e 2080ti che è stato del 20/30%.

Vul
08-07-2020, 08:09
Il salto, stando a techpowerup, era in media del 53%.

Va detto, tuttavia, che Maxwell prendeva tranquillamente 300+ mhz di overclock, alcune schede arrivavano a sfiorare i 1500.

Pascal e` uscito molto piu` alto di clock di fabbrica e infatti overclockava meno.

Crysis90
08-07-2020, 09:08
Se una 2080s sta a meno 18/20%, non vedo perchè lo stesso chip ad 8nm, più IPC, possa fare tanto peggio.

Non è questione di fantasticare, a meno che nvidia non sbagli tutto, a par chip il vantaggio ci sarà.
Turing, è rimasta sullo stesso PP.:)

Non avrebbe minimamente alcun senso fare uscire tanti modelli (3070, 3070 Ti, 3080 e 3080 Ti/3090) e piazzare la 3070 liscia (che tra i 4 modelli sarebbe quello meno performante) allo stello livello della 2080 Ti.

Vorrebbe dire che il 90% delle persone comprerebbe la 3070 liscia e gli altri 3 modelli avrebbero ben poco senso di esistere perchè coprirebbero la restante, risicata fetta di mercato di nicchia facendosi concorrenza da soli.
Non ha senso.

Vul
08-07-2020, 09:17
Secondo questo ragionamento non aveva senso comprare nulla sopra la 1070 in quanto andava come una 980ti su per giu.

Invece mi pare che 1080 e 1080ti, nonostante i prezzi, hanno venduto molto.

Crysis90
08-07-2020, 09:22
Secondo questo ragionamento non aveva senso comprare nulla sopra la 1070 in quanto andava come una 980ti su per giu.

Invece mi pare che 1080 e 1080ti, nonostante i prezzi, hanno venduto molto.

La 1070 non andava quanto la 980 Ti.
In alcuni giochi si avvicinava, in altri la 980 Ti era testa a testa con la 1080.

E comunque non esisteva una 1070 Ti al lancio.

Quindi non è per nulla la stessa situazione.
Leggete quando uno scrive, per diamine.

Spytek
08-07-2020, 09:36
La 1070 non andava quanto la 980 Ti.
In alcuni giochi si avvicinava, in altri la 980 Ti era testa a testa con la 1080.

Inizialmente era cosi poi con le nuove release dei driver la 1070 ha avuto max un 5% di margine sulla 980Ti.
In sostanza viaggiano uguali,poi dipende dal gioco.

Non avrebbe minimamente alcun senso fare uscire tanti modelli (3070, 3070 Ti, 3080 e 3080 Ti/3090) e piazzare la 3070 liscia (che tra i 4 modelli sarebbe quello meno performante) allo stello livello della 2080 Ti.
Vero ma Nvidia ultimamente ha fatto la bravata di lanciare la 2070S e 2080S e quindi non è da scartare come possibilità.

Nurabsa
08-07-2020, 10:00
grazie a tutti dell'accoglienza calorosa e delle numerose risposte :asd: :asd:
we guagliuncell addove si stat

Il salto, stando a techpowerup, era in media del 53%.

Va detto, tuttavia, che Maxwell prendeva tranquillamente 300+ mhz di overclock, alcune schede arrivavano a sfiorare i 1500.

Pascal e` uscito molto piu` alto di clock di fabbrica e infatti overclockava meno.

si i numeri di riferimento con questo chip in particolare non vanno considerati.
Mediamente anche le 980ti non carrozzate riuscivano a prendere dai 100 a 200 sul core.
tantè che hanno fatto uscire le custom partendo dai 1300+ numericamente impensabile partendo dal reference bc di 1,076.

Con le multifase lisce 1400 erano assicurati con le copper binnate 1500.
Se liquidavi le migliori si andava anche sopra i 1600 praticamente tallonava gp102 stock.
Quindi direi piu realisticamente che mediamente analizzando l intero campione la distanza dalla 1080ti oscillava tra 35 e il 40% max.

Per overclock ha dato spettacolo quel chip molto piu di pascal.
A Santa Clara si mangiarono le mani secondo me a saperlo prima mettevano qualche regolatore di tensione in piu -come su turing-
Salendo di clock avrebbero piazzato le founder edition ben sopra i mitici 649

mircocatta
08-07-2020, 10:11
Mikael io un salto dell'85% tra 980ti e 1080ti proprio non me lo ricordo, a me sembra piu un 50%, che è comunque tanto rispetto al passaggio 1080ti e 2080ti che è stato del 20/30%.

in realtà anche tra 1080ti e 2080ti ci scappa il 40%, non è poco

mircocatta
08-07-2020, 10:13
we guagliuncell addove si stat



si i numeri di riferimento con questo chip in particolare non vanno considerati.
Mediamente anche le 980ti non carrozzate riuscivano a prendere dai 100 a 200 sul core.
tantè che hanno fatto uscire le custom partendo dai 1300+ numericamente impensabile partendo dal reference bc di 1,076.

Con le multifase lisce 1400 erano assicurati con le copper binnate 1500.
Se liquidavi le migliori si andava anche sopra i 1600 praticamente tallonava gp102 stock.
Quindi direi piu realisticamente che mediamente analizzando l intero campione la distanza dalla 1080ti oscillava tra 35 e il 40% max.

Per overclock ha dato spettacolo quel chip molto piu di pascal.
A Santa Clara si mangiarono le mani secondo me a saperlo prima mettevano qualche regolatore di tensione in piu -come su turing-
Salendo di clock avrebbero piazzato le founder edition ben sopra i mitici 649

belle schede, se non sbaglio inserirono qualche blocco già da pascal giusto? il voltaggio delle 1080ti se non ricordo era davvero risicato (sopratutto sulla mia sc2, che nonostante tutto prendeva i 2130mhz)