View Full Version : [Thread Ufficiale] Aspettando le nuove vga nVidia
il Ray Tracing verrà infilato anche su Pacman o Minecraft 😂
Ho trovato la cosa assolutamente ridicola ma è stato uno dei primi giochi a sfruttare a pieno l'RTX, ed un sacco di gente ad elogiarne la grafica :rotfl:
Ho trovato la cosa assolutamente ridicola ma è stato uno dei primi giochi a sfruttare a pieno l'RTX, ed un sacco di gente ad elogiarne la grafica :rotfl:
C'è da dire che è implementato davvero bene. Poi sul gioco meglio che non dia il mio parere :asd:
TigerTank
10-05-2020, 21:52
C'è da dire che è implementato davvero bene. Poi sul gioco meglio che non dia il mio parere :asd:
L'RTX in chiave "cubista" :sofico:
Ho trovato la cosa assolutamente ridicola ma è stato uno dei primi giochi a sfruttare a pieno l'RTX, ed un sacco di gente ad elogiarne la grafica :rotfl:É incredibile cosa possono fare delle lucette messe nel posto giusto 😂
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Qualche nuovo rumors:
https://www.notebookcheck.net/NVIDIA-Ampere-to-offer-10-20-IPC-increase-over-Turing-4x-RT-performance-with-minimal-FPS-impact-up-to-2-GHz-OC-clocks-and-an-overhauled-software-stack-to-take-on-AMD-RDNA-2-0.464033.0.html
Il dato interessante é l'incremento dell'IPC che spazia tra il 10-20%, un clock su 2000mhz per le versioni OC (le FE?) che potrebbe far ben sperare in ulteriori incrementi in OC e sembra confermato il boost prestazionale con RT attivo che addirittura vede non un raddoppio ma addirittura 4x...
Sotto tono invece alcune info che sembrano smentire i rumors precedenti, dove le proposte gaming limitate a 8nm di samsung a differenza del settore HPC che saranno basate sui 7nm TSMC (probabilmente per le Tesla) e per le memorie a doppia densità.
Sembra però confermato che la 3080 avrà un bus a 320bit e 10gb vram, seguita da 3080ti con 12gb quindi nessun cut al bus e dovrebbe essere un 384bit.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Tra nvidia e amd sta diventando veramente dura trovare un prodotto che non abbia incluso nella scatola una bottiglia di vasellina.
Tra nvidia e amd sta diventando veramente dura trovare un prodotto che non abbia incluso nella scatola una bottiglia di vasellina.
Serve un terzo competitor...
Comunque personalmente comprare chip costosi è solo un hobby, per giocare e godersi i titoli bastano le gpu di fascia media come la x60 ed esagerando la x70.
Oramai persino i notebook a 1080p con schede come 1650-1660ti tirano su qualsiasi cosa senza neanche scendere esageratamente a compromessi.
Serve un terzo competitor...
Comunque personalmente comprare chip costosi è solo un hobby, per giocare e godersi i titoli bastano le gpu di fascia media come la x60 ed esagerando la x70.
Oramai persino i notebook a 1080p con schede come 1650-1660ti tirano su qualsiasi cosa senza neanche scendere esageratamente a compromessi.
Infatti , per giocare a 1080p la 1660Ti (o la vecchia 1070) è ottima :D
amon.akira
11-05-2020, 14:21
Serve un terzo competitor...
Comunque personalmente comprare chip costosi è solo un hobby, per giocare e godersi i titoli bastano le gpu di fascia media come la x60 ed esagerando la x70.
Oramai persino i notebook a 1080p con schede come 1650-1660ti tirano su qualsiasi cosa senza neanche scendere esageratamente a compromessi.
l hobby è il videogiocare per la maggior parte degli utenti credo, poi c'è chi ci tiene e può ovviamente gustarsi i giochi al meglio e chi giustamente opta per qualche rinuncia grafica senza nulla togliere al gameplay. La scelta del display fa la differenza in questo caso e se ti prendi un 4k ti vincoli alle schede topgamma, ahimè ^^'
se avessi la scheda che mi fa andare tutto al max sempre non penso che spenderei per upgradare schede video, ma siccome già cosi si scende a compromessi, diventa solo un limitare questi compromessi il meno possibile.
E' scontato (almeno lo spero per la maggior parte dei frequentatori di questo forum) che la scelta primaria la si fa sul monitor e poi di conseguenza sulla scheda video adatta a quel monitor.
I 4K richiederanno sempre il top di gamma, quindi chi non può permetterselo è meglio che ridimensioni le proprie aspettative :O
l hobby è il videogiocare per la maggior parte degli utenti credo, poi c'è chi ci tiene e può ovviamente gustarsi i giochi al meglio e chi giustamente opta per qualche rinuncia grafica senza nulla togliere al gameplay. La scelta del display fa la differenza in questo caso e se ti prendi un 4k ti vincoli alle schede topgamma, ahimè ^^'
se avessi la scheda che mi fa andare tutto al max sempre non penso che spenderei per upgradare schede video, ma siccome già cosi si scende a compromessi, diventa solo un limitare questi compromessi il meno possibile.
Se vuoi giocare in 4K le rinunce sono scontate, ma dipende anche dall'engine e dai settings, nei giochi ci sono spesso quelle 2-3 opzioni killer che troncano il frame senza portare particolari miglioramenti alla grafica, in certi casi conviene abbassare i dettagli e aggiungere un buon set con il reshade.
Poi credo che oggi su pc la risoluzione più equilibrata siano i 3440x1440, con un ampia area e 110 ppi di densità oltre che un pannello ben calibrato e di qualità.
Se invece si opta per TV 4K e a una certa distanza, molti dettagli si possono abbassare tranquillamente sopratutto quelli che impattano sulla distanza visuale e relative ombre in profondità, in alcuni casi si può anche ridurre a 1440p e lasciar procedere lo scaler della TV (anche se la resa varia) ma molte cosette come il DLSS possono aiutare decisamente tanto.
Giocare in 4K senza pretendere settaggi Ultra ma piuttosto settaggi su Alto, non credo che la GPU richiesta sia inferiore a chi gioca in 1440p a 144/165Hz, anzi quest'ultimo deve anche stare maggiormente attento alla CPU.
mikael84
11-05-2020, 16:13
Giocare in 4K senza pretendere settaggi Ultra ma piuttosto settaggi su Alto, non credo che la GPU richiesta sia inferiore a chi gioca in 1440p a 144/165Hz, anzi quest'ultimo deve anche stare maggiormente attento alla CPU.
Partendo da una 2080ti in 4k, mediamente si ha questo scenario di FPS per risoluzione:
-2080ti 4k
-2060 1440p
-1660 1080p
Chi gioca con una 1660 liscia, si ritroverà un rapporto più o meno simile, a chi gioca in 4k con la 2080ti.
Partendo da una 2080ti in 4k, mediamente si ha questo scenario di FPS per risoluzione:
-2080ti 4k
-2060 1440p
-1660 1080p
Chi gioca con una 1660 liscia, si ritroverà un rapporto più o meno simile, a chi gioca in 4k con la 2080ti.
Un 1440p senza puntare sempre a settaggi maxati+fps sopra gli 80-90, va benissimo una GPU come la 2060 e controparte AMD, assolutamente.
Andy1111
11-05-2020, 17:07
Ultimo Rumor
NVIDIA Ampere rumor: NVCache speeds up load times, optimize VRAM usage
https://www.tweaktown.com/news/72399/nvidia-ampere-rumor-nvcache-speeds-up-load-times-optimize-vram-usage/index.html
Che sarebbe l'HBCC che usa AMD, rischio poca memoria sulle 3000 ?
mikael84
11-05-2020, 17:10
Ultimo Rumor
NVIDIA Ampere rumor: NVCache speeds up load times, optimize VRAM usage
https://www.tweaktown.com/news/72399/nvidia-ampere-rumor-nvcache-speeds-up-load-times-optimize-vram-usage/index.html
Che sarebbe l'HBCC che usa AMD, rischio poca memoria sulle 3000 ?
Si, ne abbiamo già discusso ieri.
Purtroppo c'è la seria paura che lascino la doppia alle quadro come con turing, anche se Micron ha ufficializzato le 16gb.;)
https://www.hwupgrade.it/forum/showpost.php?p=46771086&postcount=46890
Andy1111
11-05-2020, 17:14
Si, ne abbiamo già discusso ieri.
Purtroppo c'è la seria paura che lascino la doppia alle quadro come con turing, anche se Micron ha ufficializzato le 16gb.;)
https://www.hwupgrade.it/forum/showpost.php?p=46771086&postcount=46890
Non l'avevo visto sorry
OrazioOC
11-05-2020, 17:45
E' possibile che questa soluzione la ritroveremo anche sulle turing?Oppure serve qualcosa in più lato hw per fare questa "magia"?
mikael84
11-05-2020, 18:05
E' possibile che questa soluzione la ritroveremo anche sulle turing?Oppure serve qualcosa in più lato hw per fare questa "magia"?
No niente magie. Serve in Hw:p
OrazioOC
11-05-2020, 18:24
Certo che se non aumenterà la vram a parità di fascia ma aumenteranno i prezzi, per me rimangono sullo scaffale e mi prendo una rtx 2000 usata o nuova ma solo se pesantemente scontata.:rolleyes:
Certo che se non aumenterà la vram a parità di fascia ma aumenteranno i prezzi, per me rimangono sullo scaffale e mi prendo una rtx 2000 usata o nuova ma solo se pesantemente scontata.:rolleyes:
Fai benissimo. Ampere mi sa quasi di attappabuchi in attesa di Hopper.
ninja750
11-05-2020, 19:18
Fai benissimo. Ampere mi sa quasi di attappabuchi in attesa di Hopper.
e turing un tappabuchi raytracing in attesa di ampere
e turing un tappabuchi raytracing in attesa di ampere
Turing accompagnerà senza problemi fino al 2022, anno di uscita dei primi titoli next gen, dove si richiederà sicuramente molta più performance sia in RT che in raster.
Certo che se non aumenterà la vram a parità di fascia ma aumenteranno i prezzi, per me rimangono sullo scaffale e mi prendo una rtx 2000 usata o nuova ma solo se pesantemente scontata.:rolleyes:
Ma non direi sia cosi, se la 3070 pareggia la 2080ti hai già un dimezzamento dei prezzi a pari performance...
E schede come 2070 e 2080 saranno chippetti di fascia media e mezzi monchi abilitando il RT.
Non mi sembra una gran convenienza se ti serve potenza raster solo un eventuale 1080ti sui 200-250€ usata potrebbe essere interessante...
Sicuramente la 3070 sarà l'unica best buy di Ampere, sperando che riesca a tenere il passo per tre anni in 4K con i titoli next gen veri e propri, e non parlo di performance in RT.
OrazioOC
11-05-2020, 20:07
Ma non direi sia cosi, se la 3070 pareggia la 2080ti hai già un dimezzamento dei prezzi a pari performance...
E schede come 2070 e 2080 saranno chippetti di fascia media e mezzi monchi abilitando il RT.
Non mi sembra una gran convenienza se ti serve potenza raster solo un eventuale 1080ti sui 200-250€ usata potrebbe essere interessante...
Non è detto che la 3070 costi 499 dollari, soprattutto ad oggi dove anche una semplice 2080 non ha concorrenza.
Sicuramente ci sarà un miglior rapporto prezzo/prestazioni/consumi rispetto a certe turing, ma anche queste ultime avranno quotazioni fortemente ribassate.
Ma non direi sia cosi, se la 3070 pareggia la 2080ti hai già un dimezzamento dei prezzi a pari performance...
Anche in questa ottica continuo a non vederla come una "grande vittoria" 500€ per una mid....bei miei quando una mid come la xx70 costava quasi 200€ meno (su 500)
Non credo venderanno la 3070 a meno di 600/650 euro.
bagnino89
11-05-2020, 20:52
Non credo venderanno la 3070 a meno di 600/650 euro.
Follia.
fraussantin
11-05-2020, 21:03
Non credo venderanno la 3070 a meno di 600/650 euro.Che poi era il prezzo della 2070 Fe.
Però un po' ci spero in una versione economica come fu all'epoca. Anche se non la toccherò neanche per scherzo. Sarebbero cmq soldi buttati.
Non credo venderanno la 3070 a meno di 600/650 euro.
Ci sarà un aumento di produzione di scaffali non indifferente. All'ikea faranno una fortuna.
Che poi era il prezzo della 2070 Fe.
Però un po' ci spero in una versione economica come fu all'epoca. Anche se non la toccherò neanche per scherzo. Sarebbero cmq soldi buttati.
Per carità, magari non sarà così, si fanno solo teorie, però certo, dovrebbe stare massimo a 550 euro, e mi auguro sarà così.
mikael84
12-05-2020, 00:07
Non credo venderanno la 3070 a meno di 600/650 euro.
No, e che è... capisco che il mercato senza concorrenza ormai sta andando allo sfascio, ma le 3070, salvo prezzi pompati inizialmente costeranno meno.:)
A sto giro ci dovrebbe essere anche AMD.
Dopo l'assestamento si vedranno le manli o simili sotto le 500 e le custom sui o sopra in base al modello.:)
AceGranger
12-05-2020, 00:59
No, e che è... capisco che il mercato senza concorrenza ormai sta andando allo sfascio, ma le 3070, salvo prezzi pompati inizialmente costeranno meno.:)
A sto giro ci dovrebbe essere anche AMD.
Dopo l'assestamento si vedranno le manli o simili sotto le 500 e le custom sui o sopra in base al modello.:)
bha, io sono molto dubbioso in merito.
RDNA, a chip con dimensioni piu o meno simili, in raster è al livello di Turing ma Turing ha il 10% del chip occupato da hardware RT e Tensor e in piu sta su un nodo di svantaggio... se staranno sul medesimo pp non credo assisteremo a nulla di molto diverso da quello visto fino ad ora, al massimo arrivera alla 3080 e in modo meno efficiente.
vediamo un po come va.
amon.akira
12-05-2020, 01:24
bha, io sono molto dubbioso in merito.
RDNA, a chip con dimensioni piu o meno simili, in raster è al livello di Turing ma Turing ha il 10% del chip occupato da hardware RT e Tensor e in piu sta su un nodo di svantaggio... se staranno sul medesimo pp non credo assisteremo a nulla di molto diverso da quello visto fino ad ora, al massimo arrivera alla 3080 e in modo meno efficiente.
vediamo un po come va.
sono del tuo stesso pensiero, spero di sbagliarmi ovviamente :P
mikael84
12-05-2020, 02:04
bha, io sono molto dubbioso in merito.
RDNA, a chip con dimensioni piu o meno simili, in raster è al livello di Turing ma Turing ha il 10% del chip occupato da hardware RT e Tensor e in piu sta su un nodo di svantaggio... se staranno sul medesimo pp non credo assisteremo a nulla di molto diverso da quello visto fino ad ora, al massimo arrivera alla 3080 e in modo meno efficiente.
vediamo un po come va.
Si l'obbiettivo dovrebbe essere quello.
Attualmente RDNA console è praticamente l'1, con CU più grandi del 10%.
Sul die size, senza RT, ricordate sempre che un Tensor è grande 1,66mm2 non 1,25mm2 come fanno credere. Questo perchè quando confrontano le 2 architetture, non tengono conto che TU116 ha una parte dei tensor fp16 abilitata.
Teoricamente la 2080ti (che poi sarebbe la Titan) avrebbe un die di 668mm2.
Purtroppo, molto viene speso in collegamenti, nvlink.
Altrimenti in calcolo la 2080ti (titan) ha 349mm2 contro i 435mm2, ovvero il 25%:)
Con Ampere dovrebbe essere molto peggio.:p
OrazioOC
12-05-2020, 09:16
Il problema qui è anche la vram, non vorrei dire però dalle specifiche preventivate, abbiamo una 3070 che in raster andrebbe come la 2080 ti ma con 3gb di vram in meno.
Ma il rapporto performance/vram peggiorerebbe di molto scendendo nelle fasce, perchè la 3060 sarebbe una 2060 con un 20% in più di frequenze, saremmo a ridosso della 2070 super ma con 2gb di vram in meno, senza contare che 2070 super oggi cozza con la 1080 ti che ha ben 11gb di vram, praticamente a parità di performance questi hanno dimezzato la vram.:rolleyes:
Ma anche la presunta 3050 ti con 4gb, una scheda dalle performance della 1660 ti che a sua volta eguaglia la 1070 che di gb ne aveva 8. :asd:
Non è che qui Nvidia presenterà queste adesso e tra 12/18 mesi salterà fuori con "ampere è stato solo un refresh di turing, ecco a voi la nuova next gen" e siamo punto e a capo?
Io direi che se amd riuscisse ad acchiappare in raster una 3080, ma con 16gb di vram, e con performance rt dignitose, anche se consumasse 300w invece di 200/225w della 3080, potrebbe essere la volta buona che sia consigliabile optare per una radeon di fascia alta.
Certe schede invecchiano peggio per colpa della vram, 680/770 2gb vs 7970 3gb, 970/980 4gb vs 390/390x 8gb, fury x 4gb vs 980 ti 6gb, 1060 3gb vs rx 570 ecc...
Bho, la 980ti a me sembra che sia invecchiata decisamente bene i 6gb bastano per il suo target di prestazioni...
E la generazione Kepler aveva così tanti colli che la vram non fa miracoli, la Titan Kepler di un amico non vedo chissà che miglioramenti rispetto una 780ti da 3gb...
Bisognerà sempre attendere i bench, e vedere come si comporta l'architettura nei fatti...
Comunque la decisione potrebbe anche dipendere dalla necessità di svuotare gli stock delle memorie da 2gb.
E dubito fortemente che Hopper sia un architettura gaming, con l'approccio mcm credo che una prima sperimentazione sarebbe bene farla in ambito professionale dove li contano in prima linea potenza e quantità di vram.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
OrazioOC
12-05-2020, 09:40
Bho, la 980ti a me sembra che sia invecchiata decisamente bene i 6gb bastano per il suo target di prestazioni...
E la generazione Kepler aveva così tanti colli che la vram non fa miracoli, la Titan Kepler di un amico non vedo chissà che miglioramenti rispetto una 780ti da 3gb...
Bisognerà sempre attendere i bench, e vedere come si comporta l'architettura nei fatti...
Comunque la decisione potrebbe anche dipendere dalla necessità di svuotare gli stock delle memorie da 2gb.
E dubito fortemente che Hopper sia un architettura gaming, con l'approccio mcm credo che una prima sperimentazione sarebbe bene farla in ambito professionale dove li contano in prima linea potenza e quantità di vram.
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Infatti intendevo che la fury x è invecchiata peggio della 980 ti.
ninja750
12-05-2020, 10:27
Non credo venderanno la 3070 a meno di 600/650 euro.
concordo anche perchè se non cambiano PP e il chip è più grosso i costi sono maggiori e non se li accolla di sicuro nvidia :asd: 650 la 3070 qualcuna ne venderanno ma 550 la 3060 come scritto da altri si spera facciano packaging piccolo per poterle accumulare negli scaffali :fagiano:
bagnino89
12-05-2020, 10:29
Io spero che i prezzi siano umani, altrimenti mi tengo la 1080 a vita...
fraussantin
12-05-2020, 10:30
concordo anche perchè se non cambiano PP e il chip è più grosso i costi sono maggiori e non se li accolla di sicuro nvidia :asd: 650 la 3070 qualcuna ne venderanno ma 550 la 3060 come scritto da altri si spera facciano packaging piccolo per poterle accumulare negli scaffali :fagiano:Scusa ma non saranno a 7 nm?
Poi i prezzi saranno alti lo stesso secondo me.
McRooster23
12-05-2020, 10:47
Non credo venderanno la 3070 a meno di 600/650 euro.
3070 - 599$
3080 - 799$
3080ti - 999$
??
bagnino89
12-05-2020, 10:52
3070 - 599$
3080 - 799$
3080ti - 999$
??
Fossi in Nvidia, io le 3080 Ti le piazzerei a 1500 USD come minimo. Tanto non hanno concorrenza, e chi vuole il top senza compromessi li spenderà a prescindere.
razor820
12-05-2020, 10:54
Certo che ad ora la qualsiasi cosa rimane una supposizione... Ma pensare a quei prezzi una 3070 potrebbe essere più potente di un attuale 2080ti venduta ancora più se doppio non so se essere contento o meno. Se così fosse nvidia In ogni caso ha in..... il mercato dell usato più degli ultimi anni.
A sto punto finché i giochi reggeranno, converrebbe tenersela o nel caso passare alla nuova generazione tenersela ugualmente :D
la fortuna è stata che 5 anni fa nvidia non ha commesso il taglio maldestro su gm200.
Avesse avuto 5gb una 980ti oggi sarebbe tutta un altra storia, ma con i piu che sufficienti 6gb annetterla alle invecchiate male mi pare troppo.
Avessero avuto la sfera di cristallo ne avrebbero mutilato le parti per come tira bene ancora oggi.
(Sto riscoprendo titoli anche datati 4k hdr set ultra una meraviglia per gli occhi)
Prodotto ben bilanciato nel rapporto bit/gb grande scheda un po come se avessero dato il giusto bus e la giusta vram alla 1080ti 384/12.
TigerTank
12-05-2020, 11:03
Fossi in Nvidia, io le 3080 Ti le piazzerei a 1500 USD come minimo. Tanto non hanno concorrenza, e chi vuole il top senza compromessi li spenderà a prescindere.
Intanto vediamo i risultati concreti senza dar troppo credito agli hype e alle promesse dei "fino a". Poi quando si avrà il quadro reale della situazione, si potrà considerare se i prezzi saranno almeno in parte consoni all'arrosto sul piatto(e non al fumo) :cool:
Personalmente se la Ti sarà un'esagerazione scalerò di nuovo ad una X80 liscia... Se pure la X80 liscia sarà un salasso andrò di x70. Tanto non credo di passare alla 4K da gaming tanto presto :)
E spero anche che comunque a fianco di un RT più gestibile resti comunque anche il DLSS, snellendo ancor più le cose in caso di necessità.
bagnino89
12-05-2020, 11:07
Intanto vediamo i risultati concreti senza dar troppo credito agli hype e alle promesse dei "fino a". Poi quando si avrà il quadro reale della situazione, si potrà considerare se i prezzi saranno almeno in parte consoni all'arrosto sul piatto(e non al fumo) :cool:
Sicuramente, ma salvo situazioni strane io mi aspetterei almeno un +40 % dell'ipotetica 3080 Ti, rispetto ad una 2080 Ti (parlo in raster)... Che comunque è tanta roba.
Personalmente se la Ti sarà un'esagerazione scalerò di nuovo ad una X80 liscia... Se pure la X80 liscia sarà un salasso andrò di x70. Tanto non credo di passare alla 4K da gaming tanto presto :)
Di questi tempi, anche una x60 sembra troppo cara.
TigerTank
12-05-2020, 11:09
Esatto, c'è anche da considerare che imho il 2020 sarà un anno difficile anche dopo la pandemìa(che si spera si ridimensioni/minimizzi presto...) e sarà molta meno la gente disposta a spendere il solito tot. in gaming a causa di altre difficoltà/mancate entrate/spese accessorie varie di vita.
Anzi quasi quasi spererei che nvidia vada sotto alle stime di vendita se dovesse proporre nuove schede a prezzi ancora più alti nonostante la situazione.
fraussantin
12-05-2020, 11:11
Certo che ad ora la qualsiasi cosa rimane una supposizione... Ma pensare a quei prezzi una 3070 potrebbe essere più potente di un attuale 2080ti venduta ancora più se doppio non so se essere contento o meno. Se così fosse nvidia In ogni caso ha in..... il mercato dell usato più degli ultimi anni.
A sto punto finché i giochi reggeranno, converrebbe tenersela o nel caso passare alla nuova generazione tenersela ugualmente :DMa infatti è per quello che costerà tanto.
La 3070 andrà come una 2080ti o forse un pelo meno e a 600dollari sembrerà un affare
Ma anche una 3060 a 500 dollari con potenza superiore alla 2080 non sfigurerá .
E se amd per contrastare questi chip dovrà fare una GPU grossa e costosa non ci saranno possibilità di concorrenza.
La 5700xt era competitiva perchè non aveva rtx e aveva un chip minuscolo a 7nm.
Adesso rimangono sempre a 7nm con in più rtx nativo. Non penso che potranno costare poco.
OrazioOC
12-05-2020, 11:12
la fortuna è stata che 5 anni fa nvidia non ha commesso il taglio maldestro su gm200.
Avesse avuto 5gb una 980ti oggi sarebbe tutta un altra storia, ma con i piu che sufficienti 6gb annetterla alle invecchiate male mi pare troppo.
Avessero avuto la sfera di cristallo ne avrebbero mutilato le parti per come tira bene ancora oggi.
(Sto riscoprendo titoli anche datati 4k hdr set ultra una meraviglia per gli occhi)
Prodotto ben bilanciato nel rapporto bit/gb grande scheda un po come se avessero dato il giusto bus e la giusta vram alla 1080ti 384/12.
Infatti intendevo che la fury x è invecchiata peggio della 980 ti.
:rolleyes: :rolleyes:
bagnino89
12-05-2020, 11:17
ogni anno su questo thread
- fase 1 (rumors sui prezzi): a questi prezzi sicuramente molti non compreranno, ucciderebbero il mercato dell'usato, sicuramente scaffale questa volta mi tengo la mia ultima topgamma verde che va ancora una spada e non mi faccio inxulare come l'anno scorso, al massimo aspettiamo la concorrenza!
- fase 2 (recensioni): visto? sono indignato da questa politica disonesta dei prezzi volta a spennare i polli, ma se ci sono i polli ben vengano, mi sa che per quest'anno tocca passare ad amd.
- fase 3 (qualche giorno dopo le recensioni): alla fine ho trovato un'occasione per cui ho venduto la mia vecchia top ad un pollo a più di quanto l'avevo pagata e con una minima differenza di 800 euro sono passato alla nuova nvidia ma giuro, è stato uno sfizio frutto di una circostanza particolare, l'anno prossimo non mi fregano!
:asd:
:rolleyes: :rolleyes:
:mano:
razor820
12-05-2020, 11:42
ogni anno su questo thread
- fase 1 (rumors sui prezzi): a questi prezzi sicuramente molti non compreranno, ucciderebbero il mercato dell'usato, sicuramente scaffale questa volta mi tengo la mia ultima topgamma verde che va ancora una spada e non mi faccio inxulare come l'anno scorso, al massimo aspettiamo la concorrenza!
- fase 2 (recensioni): visto? sono indignato da questa politica disonesta dei prezzi volta a spennare i polli, ma se ci sono i polli ben vengano, mi sa che per quest'anno tocca passare ad amd.
- fase 3 (qualche giorno dopo le recensioni): alla fine ho trovato un'occasione per cui ho venduto la mia vecchia top ad un pollo a più di quanto l'avevo pagata e con una minima differenza di 800 euro sono passato alla nuova nvidia ma giuro, è stato uno sfizio frutto di una circostanza particolare, l'anno prossimo non mi fregano!
Ehehe ma se leggi il titolo de thread questo è..
In ogni caso io faccio parte della gentaglia, ovvero quei sciacalli che ogni 2-3 anni circa cercano di passare alla generazione successiva con un investimento max di 200 euro :D. Ma sempre restando in ottica xx80 max. Anche perché ad ogni generazione in 2k ci ho guadagnato 30-40fps che non sono pochi.
Per il resto pro amd pro nvidia a me sinceramente non me ne frega una pippa.
Ho provato qualche volta le amd gpu, anche recentemente in un secondo pc, ma non mi è mai piaciuto il software/pannello di controllo video. Subito scartato.. e altre feature come il g sync, e altri strumenti utili, leggeri e non invasivo che trovi solamente nel pannello nvidia.
Per non parlare di nvidia shadow player che a molti può piacere, ad altri no e ad altri ancora come me lo attivano solo nel momento de bisogno
mikael84
12-05-2020, 12:50
E spero anche che comunque a fianco di un RT più gestibile resti comunque anche il DLSS, snellendo ancor più le cose in caso di necessità.
Si, assolutamente si, lo miglioreranno, considerando che una cosa quasi sicura, è il raddoppio dei tensor core.:)
Ma infatti è per quello che costerà tanto.
La 5700xt era competitiva perchè non aveva rtx e aveva un chip minuscolo a 7nm.
Adesso rimangono sempre a 7nm con in più rtx nativo. Non penso che potranno costare poco.
La 5700xt è proprio l'emblema del mercato attuale.
Una post polaris, venduta da 229 a 399$ (75% di costo),
Ha sfruttato il punto a suo favore, essendo a 7nm, altrimenti quel chip, se anche nvidia fosse a 7nm, sarebbe un chip venduto quanto, o poco più polaris.:)
Se una esce prima, e l'altra si allinea, concorrenza non ce ne sarà mai.
TigerTank
12-05-2020, 13:35
Si, assolutamente si, lo miglioreranno, considerando che una cosa quasi sicura, è il raddoppio dei tensor core.:)
Ciao Mike, sì poi ho visto il post di Thunder circa il DLSS 3.0 e anche il tuo circa l'architettura della gpu. Interessante :)
Il pro di sicuro sarà un RT all'altezza e più abbordabile...il contro che le Turing crolleranno a valori di sorpresina delle patatine :D
Ciao Mike, sì poi ho visto il post di Thunder circa il DLSS 3.0 e anche il tuo circa l'architettura della gpu. Interessante :)
Il pro di sicuro sarà un RT all'altezza e più abbordabile...il contro che le Turing crolleranno a valori di sorpresina delle patatine :D
Secondo me al prossimo rumor post GTC avremo il mercatino dominato da Turing :sofico:
ninja750
12-05-2020, 14:15
Ma anche una 3060 a 500 dollari con potenza superiore alla 2080 non sfigurerá .
e continueremo a chiamarla fascia media :stordita:
Una scheda di fascia media non dovrebbe essere venduta oltre i 350 euro.
Questo è il limite che ritengo accettabile per i miei canoni, tutto il resto se lo possono tenere.
fraussantin
12-05-2020, 14:31
Si, assolutamente si, lo miglioreranno, considerando che una cosa quasi sicura, è il raddoppio dei tensor core.:)
La 5700xt è proprio l'emblema del mercato attuale.
Una post polaris, venduta da 229 a 399$ (75% di costo),
Ha sfruttato il punto a suo favore, essendo a 7nm, altrimenti quel chip, se anche nvidia fosse a 7nm, sarebbe un chip venduto quanto, o poco più polaris.:)
Se una esce prima, e l'altra si allinea, concorrenza non ce ne sarà mai.
Sicuramente amd ha fatto la furba con i prezzi nascondendosi dietro al fatto che i 7nm "costano"tanto.
Se poi sarà vero che xbsx costerà suo 400 dollari voglio vedere come giustificheranno i prezzi che fanno su CPU e GPU.
Peró i fatti sono questi..
e continueremo a chiamarla fascia media :stordita:
Se guardi i prezzi delle 2\3080ti la potremmo anche chiamare fascia bassa xD
e continueremo a chiamarla fascia media :stordita:
Penso che la fascia media ora la facciano le GTX prive di tensor core.
Anche perchè x60 e x70 condividono lo stesso chip non come in passato.
Ma non credo che una 3060 possa sforare i 400€ neanche la 2060 lo fece, addirittura nei primi mesi si trovavano anche a 300€, tanto da creare anche polemiche nel mercatino con le 980ti e 1070 vendute a 250€.
TigerTank
12-05-2020, 14:46
patatine molto costose, perchè anche questa è una favola che ciclicamente ci raccontiamo... le pascal con l'uscita di turing dovevano diventare antiquariato, cose di cui sbarazzarsi brutalmente a qualsiasi costo.... e nella paranoia pre-recensioni di turing (tipo 1 settimana prima) effettivamente sul mercatino si videro diverse 1080ti a 350€.... uscite le recensioni, si crearono gli schieramente "eh ma la 2070 è comunque più nuova, future proof, ha rt e dlss" o "eh ma la 1080ti ha più ram e forza bruta", complice l'introvabilità delle 2070 se non a prezzi warp e la vicinanza delle prestazioni, le 1080ti schizzarono anche a 500 euro usate e magari di più. Neanche 2 mesi fa un mio amico (che scrive qua sul forum) ha venduto la mia ex 1080 reference con garanzia scaduta a 300€ in due giorni e guardando ancora oggi il mercatino si vedono a volte schede tipo gtx 780 vendute al prezzo di una furyx usata (che invece neanche si riesce a vendere). Non è che voi non c'eravate negli ultimi anni che me le invento ste cose :D
andrà tutto come sempre, le vecchie non scenderanno di prezzo in modo sostanzioso, le nuove non costeranno meno delle vecchie al lancio, anzi costeranno di più, ci si lamenterà, si alzeranno polveroni, minacce di passare alla concorrenza, si comprerà e sarà stato giusto. :)
Sì ma dimentichi la questione ray tracing. In teoria con la nuova serie e i nuovi giochi si dovrebbe avere finalmente la prima generazione con un ray tracing degno di questo nome tra gestione ed implementazione...e di conseguenza le Turing ne risentiranno parecchio. Molto più delle Pascal...rispetto alle quali l'RT delle Turing è stato praticamente molto sperimentale ed inarrivabile/rinunciabile per i più :)
Poi ovviamente il mondo dell'usato ai livelli che hai citato è un altro discorso e lì ne succedono di tutti i colori :D
ultimate trip
12-05-2020, 14:53
ma ipotizzando la messa sul mercato a sett/ott o giù di lì, quando, considerando l'esperienza di deprezzamento, converrebbe vendere la precedente generazione (o la 1080ti nel mio caso)?
non vi chiedo la profezia, ma giusto in base all'esperienza delle precedenti gen
eh in realtà la questione raytracing la ricordo molto diversamente, era la killer feature, insieme al dlss, che giustificava il prezzo pazzesco di turing, che giustificava l'upgrade anche da 1080ti e che giustificava la preferenza dele turing rispetto alle amd al punto che pure techpowerup nelle recensioni delle vga tutt'ora mette (per le amd) "no raytracing support" tra i contro.
Poi alla fine si è scoperto che il raytracing, oggi, dagli stessi che lo esaltavano viene definito "una beta inutile, il nuovo sarà quello vero" ed il dlss fino alla versione 2.0 (uscita se non sbaglio tipo 1 mese fa) era praticamente un downgrade grafico rigettato dai più già dopo 1 mese dalle recensioni.
la verità è che giustamente, spinti dalle passioni, troviamo sempre una buona scusa per comprare un gingillo nuovo ed amen è giusto così, ma se dobbiamo avere un pò di onestà intellettuale i discorsi sono sempre gli stessi ogni anno e la memoria storica resettata :)
Pensi non accadrà lo stesso con Hopper? Con una tecnologia così immatura come il RT, ad ogni cambio di generazione Nvidia ha trovato il modo per invecchiare tantissimo la famiglia precedente, non lo fa più con i salti prestazionali in raster, infatti Ampere offrirà meno di quanto potrebbe fare, ma si punta tutto sulla performance in RT. Se per assurdo Hopper dovesse avere un altro +50% in RT, però anche con il salto ai 5 nm e un aumento più corposo nelle performance in raster, Ampere farà almeno la stessa fine che questa farà fare a Turing.
ninja750
12-05-2020, 15:50
Penso che la fascia media ora la facciano le GTX prive di tensor core.
Anche perchè x60 e x70 condividono lo stesso chip non come in passato.
una fascia media senza feature delle top (rt) non può esistere..
Ma non credo che una 3060 possa sforare i 400€ neanche la 2060 lo fece, addirittura nei primi mesi si trovavano anche a 300€
ad oggi a 400€ si trovano le 2060 super "cinesi" figurati una 3060 che in rt va come una 2080ti :asd:
mikael84
12-05-2020, 15:55
Ciao Mike, sì poi ho visto il post di Thunder circa il DLSS 3.0 e anche il tuo circa l'architettura della gpu. Interessante :)
Il pro di sicuro sarà un RT all'altezza e più abbordabile...il contro che le Turing crolleranno a valori di sorpresina delle patatine :D
Guarda Tiger, ormai ho imparato a scegliere i best buy, e quelli continuerò a prendere.:p
Tanto, se uno gioca in 1440p, la 3080ti non è strettamente indispensabile.:)
Il volerlo lungo per forza, ormai paga poco.
Tu già con una 3080 faresti un upgrade discreto come appassionato.
Sicuramente amd ha fatto la furba con i prezzi nascondendosi dietro al fatto che i 7nm "costano"tanto.
Se poi sarà vero che xbsx costerà suo 400 dollari voglio vedere come giustificheranno i prezzi che fanno su CPU e GPU.
Peró i fatti sono questi..
A noi però questo discorso riguarda relativamente. E' naturale che loro abbiano prezzi per stock nettamente più bassi.
Pensa che una quadro RTX 8000 costa quasi 4000$ in più della RTX6000, per 24gb di ram.:)
Bisogna anche tenere conto, che il 3700x decurtato in cache che hanno loro, all'uscita di Ryzen 4000, te lo ritroverai a 150 euro in qualche shop. ed il chip di PS5 un cut della 5700xt con RT.
Le console, inoltre recuperano da altro.:)
Sì ma dimentichi la questione ray tracing. In teoria con la nuova serie e i nuovi giochi si dovrebbe avere finalmente la prima generazione con un ray tracing degno di questo nome tra gestione ed implementazione...e di conseguenza le Turing ne risentiranno parecchio. Molto più delle Pascal...rispetto alle quali l'RT delle Turing è stato praticamente molto sperimentale ed inarrivabile/rinunciabile per i più :)
Poi ovviamente il mondo dell'usato ai livelli che hai citato è un altro discorso e lì ne succedono di tutti i colori :D
Le 1080ti in generale, hanno guadagnato dall'assenza di concorrenza.
Tanto che nvidia, come fece con la 680, ha scalato di un'altra fascia.:)
Pensi non accadrà lo stesso con Hopper? Con una tecnologia così immatura come il RT, ad ogni cambio di generazione Nvidia ha trovato il modo per invecchiare tantissimo la famiglia precedente, non lo fa più con i salti prestazionali in raster, infatti Ampere offrirà meno di quanto potrebbe fare, ma si punta tutto sulla performance in RT. Se per assurdo Hopper dovesse avere un altro +50% in RT, però anche con il salto ai 5 nm e un aumento più corposo nelle performance in raster, Ampere farà almeno la stessa fine che questa farà fare a Turing.
Si, man mano che si andrà avanti le prestazioni saranno sempre più orientate verso l'RT che il raster.
Non scordiamoci che nvidia, pensa alle schede per l'ambito pro, e gli scarti te li rifila in gaming.:)
fraussantin
12-05-2020, 16:01
Bisogna anche tenere conto, che il 3700x decurtato in cache che hanno loro, all'uscita di Ryzen 4000, te lo ritroverai a 150 euro in qualche shop. ed il chip di PS5 un cut della 5700xt con RT.
Ora non voglio incominciare anche qui un penoso offtopic console , basta quello sul 3d rosso , ma solo per info :
Non avevano confermato il 7+ su Xbox quindi il 4700x e rdna2?
Cmq si tanto ce li fanno pagare quanto gli pare e sono pronto a scommettere che i 4000 costeranno mediamente 50\100 dollari in più , come le mobo relative.
Per rdna2 mi aspetto prezzi allineati con le invidia di fascia medio-alta.
mikael84
12-05-2020, 16:26
Ora non voglio incominciare anche qui un penoso offtopic console , basta quello sul 3d rosso , ma solo per info :
Non avevano confermato il 7+ su Xbox quindi il 4700x e rdna2?
Cmq si tanto ce li fanno pagare quanto gli pare e sono pronto a scommettere che i 4000 costeranno mediamente 50\100 dollari in più , come le mobo relative.
Per rdna2 mi aspetto prezzi allineati con le invidia di fascia medio-alta.
No, la CPU console sarà un 3700x downclockato, senza una partizione l3.
Quindi lo scarto degli scarti:)
Figurati il livello della devastazione
La fascia alta, anche se dicono ci siano più fasce, a parer mio sarà big navi vs 3080 (699/799)
OrazioOC
12-05-2020, 16:29
https://www.youtube.com/watch?time_continue=27&v=So7TNRhIYJ8&feature=emb_title
Ma quanto è invecchiato? :asd: :asd: :asd:
le console per ovvi motivi non sono mai su pp e architetture di ultima generazione, forse forse le avranno le eventuali versioni PRO che rilasceranno fra due o più anni come hanno fatto su ps4 e xbox x
fraussantin
12-05-2020, 16:35
https://www.youtube.com/watch?time_continue=27&v=So7TNRhIYJ8&feature=emb_title
Ma quanto è invecchiato? :asd: :asd: :asd:Eh si vede hanno i parrucchieri chiusi anche a Taiwan :asd:
Niente colore :asd:
OrazioOC
12-05-2020, 16:41
Eh si vede hanno i parrucchieri chiusi anche a Taiwan :asd:
Niente colore :asd:
Era da un po' che non lo vedevamo, ma rispetto all'anno scorso è invecchiato drasticamente, e dire che per avere 56/57 anni se li porta(va) bene.
Mi sembra kepler dopo 3 mesi dall'arrivo di maxwell :asd:.
Sì ma dimentichi la questione ray tracing. In teoria con la nuova serie e i nuovi giochi si dovrebbe avere finalmente la prima generazione con un ray tracing degno di questo nome tra gestione ed implementazione...e di conseguenza le Turing ne risentiranno parecchio. Molto più delle Pascal...rispetto alle quali l'RT delle Turing è stato praticamente molto sperimentale ed inarrivabile/rinunciabile per i più :)
Poi ovviamente il mondo dell'usato ai livelli che hai citato è un altro discorso e lì ne succedono di tutti i colori :D
Alla fine se ci pensi le Pascal rincorreranno le GTX prive di tensor core, sopratutto la 1080ti sarà decisamente interessante nell'usato paragonata a una GTX 2660ti.
Le turing alla fine non sono ne carne e ne pesce, salto non elevatissimo dalla 1080ti e prestazioni RT molto sotto tono e squilibrate rispetto Ampere.
Non si può fare il paragone con Ampere, in RT si sta ad appena agli inizi come tecnologia, ed Ampere risulta non di certo un punto di arrivo ma solo di reale inizio, le Turing risultano dei prototipi ma lo si sapeva già, ma la cosa non ha pesato di per sé, visto che il RT è tutt'altro che lo standard nei giochi e prima che sarà tale ci vorranno ancora due o tre anni.
Non si può fare il paragone con Ampere, in RT si sta ad appena agli inizi come tecnologia, ed Ampere risulta non di certo un punto di arrivo ma solo di reale inizio, le Turing risultano dei prototipi ma lo si sapeva già, ma la cosa non ha pesato di per sé, visto che il RT è tutt'altro che lo standard nei giochi e prima che sarà tale ci vorranno ancora due o tre anni.
In realtà i titoli sono già molti che lo supportano:
https://www.youtube.com/watch?v=KehGYUO-NLU
E per il 2021 sono attesi nuovi titoli sempre più avanzati, anche crytek con il remaster di Crysis sta lavorando sodo per implementarlo al meglio.
scorpion73
12-05-2020, 19:30
Col lockdown a taiwan semplicemente non s'è tinto i capelli...:sofico:
mikael84
12-05-2020, 21:24
https://www.youtube.com/watch?time_continue=27&v=So7TNRhIYJ8&feature=emb_title
Ma quanto è invecchiato? :asd: :asd: :asd:
Bene bene.
https://www.hwupgrade.it/news/server-workstation/il-ceo-di-nvidia-anticipa-l-arrivo-della-scheda-video-piu-grande-al-mondo_89302.html
Ancora 2 giorni, poi vediamo che ne esce fuori.
In realtà i titoli sono già molti che lo supportano:
https://www.youtube.com/watch?v=KehGYUO-NLU
E per il 2021 sono attesi nuovi titoli sempre più avanzati, anche crytek con il remaster di Crysis sta lavorando sodo per implementarlo al meglio.
Mi ricollego a questo post per alcune chicche del nuovo UE5 finalizzato e pronto per essere usato per i titoli next gen con supporto al RT sia per nvidia che AMD!
https://www.youtube.com/watch?v=ehNPEHF228Q
ninja750
13-05-2020, 20:53
domani alle 15 il fornaio ci illuminerà :ave:
MrBrillio
14-05-2020, 10:03
domani alle 15 il fornaio ci illuminerà :ave:
Quest'anno mando in pensione la 1080Ti, quindi mi tocca almeno una 3080Ti...almeno :D
Speriamo in buone news!
Ale55andr0
14-05-2020, 11:12
No, la CPU console sarà un 3700x downclockato, senza una partizione l3.
Quindi lo scarto degli scarti:)
Figurati il livello della devastazione
La fascia alta, anche se dicono ci siano più fasce, a parer mio sarà big navi vs 3080 (699/799)
non ti seguo, come fa ad essere un 3700 di scarto degli scarti... mica è una cpu a se di ripiego che hanno poi "attaccato" alla gpu, è una apu monolitica, nasce già con quelle specifiche della cache, è lo scarto de che? :confused:
Ale55andr0
14-05-2020, 11:12
Quest'anno mando in pensione la 1080Ti, quindi mi tocca almeno una 3080Ti...almeno :D
Speriamo in buone news!
posto che già con la 3080 faresti un salto abissale in prestazioni :)
domani alle 15 il fornaio ci illuminerà :ave:
"Il fornaio" è fantastica, mi hai fatto schiattare dal ridere :D :D :D
posto che già con la 3080 faresti un salto abissale in prestazioni :)
Pensa che io sto ancora con la 290 :cry: :cry: :cry:
AceGranger
14-05-2020, 11:31
non ti seguo, come fa ad essere un 3700 di scarto degli scarti... mica è una cpu a se di ripiego che hanno poi "attaccato" alla gpu, è una apu monolitica, nasce già con quelle specifiche della cache, è lo scarto de che? :confused:
credo intenda "scarto" di progetto, ovvero che hanno preso il progetto base della CPU che funziona a pieno regime e hanno tagliato tutto il tagliabile.
MrBrillio
14-05-2020, 11:32
posto che già con la 3080 faresti un salto abissale in prestazioni :)
Eh ma o le cose si fanno bene o non si fanno :D
Diciamo che voglio stare tranquillo per un po' di tempo e quindi se la differenza tra le due economicamente parlando non sarà abissale o insensata, punterò alla Ti...altrimenti anche un bel nvlink di 3080 se supportato a dovere potrebbe essere un'ottima alternativa...un po' mi manca avere 2 vga nel case :(
sli e cf sono morti da mo'
3080ti saranno almeno 1300€ per qualcosa che non throtta come se non ci fosse un domani
MrBrillio
14-05-2020, 11:40
sli e cf sono morti da mo'
Nuova tecnologia...si sa mai Froz!
fraussantin
14-05-2020, 12:04
Più che altro se si gioca in 4k nativi ho paura che sarà la RAM a fare la differenza sulla ti come al solito.
Specialmente da uno che viene da una 1080ti , anche se sulla 3080 fossero 10 sarebbe cmq un downgrade "psicologico"
TigerTank
14-05-2020, 12:12
Eh ma o le cose si fanno bene o non si fanno :D
Diciamo che voglio stare tranquillo per un po' di tempo e quindi se la differenza tra le due economicamente parlando non sarà abissale o insensata, punterò alla Ti...altrimenti anche un bel nvlink di 3080 se supportato a dovere potrebbe essere un'ottima alternativa...un po' mi manca avere 2 vga nel case :(
No no no....2 3080Ti in SLi, poi le rivendi e rimonti la 1080Ti :sofico:
protonIT
14-05-2020, 12:17
Ciao a tutti!
Ma oggi dovrebbero presentare qualcosa o sbaglio?
ho visto il video divertente del forno l'altro giorno :D
Predator_1982
14-05-2020, 12:36
Ciao a tutti!
Ma oggi dovrebbero presentare qualcosa o sbaglio?
ho visto il video divertente del forno l'altro giorno :D
si, è in programma alle 15 (ora italiana) il GTC 2020.
Io parteciperò anche perchè interessato ad alcuni aspetti legati al mio lavoro (IA Machine Learning e Deep Learning applications, modellazione fluido dinamica e altre cose indirettamente riguardanti l'HPC5 di Eni).
Se nel mezzo presentano pure le nuove GPU Gaming tanto di guadagnato :D
mikael84
14-05-2020, 12:48
non ti seguo, come fa ad essere un 3700 di scarto degli scarti... mica è una cpu a se di ripiego che hanno poi "attaccato" alla gpu, è una apu monolitica, nasce già con quelle specifiche della cache, è lo scarto de che? :confused:
Si, infatti, è un mio classico modo di dire, quando moncano qualcosa.:p ;)
si, è in programma alle 15 (ora italiana) il GTC 2020.
Io parteciperò anche perchè interessato ad alcuni aspetti legati al mio lavoro (IA Machine Learning e Deep Learning applications, modellazione fluido dinamica e altre cose indirettamente riguardanti l'HPC5 di Eni).
Se nel mezzo presentano pure le nuove GPU Gaming tanto di guadagnato :D
Bastano le quadro, per avere le idee chiare sulle gaming.
Cmq saranno rilevanti anche le HPC, almeno come struttura interna.
MrBrillio
14-05-2020, 13:47
No no no....2 3080Ti in SLi, poi le rivendi e rimonti la 1080Ti :sofico:
Non vedo l'ora di essere strabiliato dalle prestazioni di una 3080Ti...anche perchè fondamentalmente non ho mai tenuto una VGA per così tanto tempo. A sto punto bisognerà valutare magari anche un'upgrade del predator...magari un 21:9 in salsa HDR e con una risoluzione maggiore dei 3440x1440..anche se sinceramente non ne sento così il bisogno del 4K anche sul monitor.
Non vedo l'ora di essere strabiliato dalle prestazioni di una 3080Ti...anche perchè fondamentalmente non ho mai tenuto una VGA per così tanto tempo. A sto punto bisognerà valutare magari anche un'upgrade del predator...magari un 21:9 in salsa HDR e con una risoluzione maggiore dei 3440x1440..anche se sinceramente non ne sento così il bisogno del 4K anche sul monitor.
Il problema è che un 4K 21:9 diventa 5120x2160 sono tanti quadratini da tirare su :sofico:
non ti seguo, come fa ad essere un 3700 di scarto degli scarti... mica è una cpu a se di ripiego che hanno poi "attaccato" alla gpu, è una apu monolitica, nasce già con quelle specifiche della cache, è lo scarto de che? :confused:
Non è anche abbia torto considera che oltre ai clock monchi, anche la cache è monca avendo solo 8MB di L3 contro i 32MB delle soluzioni desktop, già ora una soluzione del genere in MT rivaleggerebbe con un 3600x...
A breve infatti usciranno anche le nuove APU desktop, anch'esse mezze monche con solo 8MB di L3, meno linee pci date dal collegamento con l'IGP e persino clock meno soddisfacenti, utili prettamente per chi necessita di un APU, o nel contesto notebook per creare soluzioni ultrabook compatte e performanti anche se personalmente nel panorama notebook avrei preferito anche qualche soluzione senza IGP e senza cache monca da abbinare a GPU dedicate mobile, ma vabbè scelte di progetto di AMD...
Però le console hanno un HW specifico per lo sviluppo quindi fanno storia a se e in fase di realizzazione del porting viene tutto tarato per bene poi spesso le console hanno anche set di istruzioni personalizzati quindi tutto viene sviluppato in modo molto mirato, su PC l'engine deve essere scalabile e adattarsi a varie combinazioni CPU e GPU.
protonIT
14-05-2020, 14:32
si, è in programma alle 15 (ora italiana) il GTC 2020.
Io parteciperò anche perchè interessato ad alcuni aspetti legati al mio lavoro (IA Machine Learning e Deep Learning applications, modellazione fluido dinamica e altre cose indirettamente riguardanti l'HPC5 di Eni).
Se nel mezzo presentano pure le nuove GPU Gaming tanto di guadagnato :D
Eh io no, sono interessato solo al gaming :D
https://videocardz.com/newz/nvidia-announces-tesla-a100-specifications
Sent from my Pixel 2 XL using Tapatalk
fraussantin
14-05-2020, 14:57
https://videocardz.com/newz/nvidia-announces-tesla-a100-specifications
Sent from my Pixel 2 XL using TapatalkPraticamente hanno raddoppiato i transistor , ma anche il tdp nei soliti mmq
Jeetkundo
14-05-2020, 14:58
https://videocardz.com/newz/nvidia-announces-tesla-a100-specifications
Sent from my Pixel 2 XL using TapatalkAspetto con interesse le vostre valutazioni, magari con possibili speculazioni sulla fascia Gaming.
Inviato da Tapatalk
Aspetto con interesse le vostre valutazioni, magari con possibili speculazioni sulla fascia Gaming.
Inviato da Tapatalk
Dobbiamo incrociare le dita che salti fuori qualche speculazione sui chip gaming queste tesla differiscono molto.
fraussantin
14-05-2020, 15:03
Cut
https://i.postimg.cc/30krFrp3/1080.png (https://postimg.cc/30krFrp3)
https://i.postimg.cc/47LNcHY8/540.png (https://postimg.cc/47LNcHY8)
https://i.postimg.cc/8scCS4Yx/540-1080.png (https://postimg.cc/8scCS4Yx)
https://i.postimg.cc/qtmdDVpq/16K.png (https://postimg.cc/qtmdDVpq)
magic carpet
14-05-2020, 15:26
Sì però ancora co stò Minecraft!!! :D
mikael84
14-05-2020, 15:27
Dobbiamo incrociare le dita che salti fuori qualche speculazione sui chip gaming queste tesla differiscono molto.
Non sono ancora usciti gli schemi.
Al momento la tabella anandtech riporta 8 GPC da 7, non da 8, che con la ridondanza fanno 6912cc.
Si notano 6 cubi HBM per 6144bit, ma tagliati a 5120bit (640ddr6), questo è strano.
54m transistor contro 21mt di volta.:eek:
Non sono ancora usciti gli schemi.
Al momento la tabella anandtech riporta 8 GPC da 7, non da 8, che con la ridondanza fanno 6912cc.
Si notano 6 cubi HBM per 6144bit, ma tagliati a 5120bit (640ddr6), questo è strano.
54m transistor contro 21mt di volta.:eek:
Dovrebbero essere 5 stack da 8GB l'uno, e 2 tpc laserati.
Forse quella nelle foto è un'altro chip, forse full con tutti i 7168cc abilitati e con un ulteriore stack HMB2 che porterebbe anche il bus a 6144bit e 48GB HBM2.
ninja750
14-05-2020, 15:59
quindi? ha sfornato?
sto guardando distrattamente mi pare abbia parlato di mille cose ma alla fine di quello che ci può interessare che ha fatto vedere fin'ora è minecraft+RTX+dlss che tutti stavamo aspettando con somma ingordigia e poi una demo di un domino fatto girare con una quadro 8000
mikael84
14-05-2020, 16:01
Dovrebbero essere 5 stack da 8GB l'uno, e 2 tpc laserati.
Forse quella nelle foto è un'altro chip, forse full con tutti i 7168cc abilitati e con un ulteriore stack HMB2 che porterebbe anche il bus a 6144bit e 48GB HBM2.
Allora, ho in mano il PDF tecnico, e qua è da rivedere lo schema ufficiale.
Videocardz riporta un full 8 GPC da 8196cc e 6144bit.
Il PDF tecnico rilasciato da nvidia, che si trova online, niente di segreto.
Dice che il chip è equipaggiato da 6912cc e 5120bit (quindi una partizione ram è tagliata i cubi sono 6).
Dal die sembra un chip da 8 GPC, quindi non è chiaro se un GPC sia del tutto spento.
La cache l1 passa da 96 a 164kb, la l2 arriva a 40mb:eek:
I tensor, sono la metà non il doppio, ma fanno il calcolo di 4x.
Ovvero se prima facevi:
Tensor x clock x 64 x2
ora devi fare Tensor x clock x 256 x2.
La banda è di 1,6tb/s
protonIT
14-05-2020, 16:04
quindi? ha sfornato?
sto guardando distrattamente mi pare abbia parlato di mille cose ma alla fine di quello che ci può interessare che ha fatto vedere fin'ora è minecraft+RTX+dlss che tutti stavamo aspettando con somma ingordigia e poi una demo di un domino fatto girare con una quadro 8000
:(
Allora, ho in mano il PDF tecnico, e qua è da rivedere lo schema ufficiale.
Videocardz riporta un full 8 GPC da 8196cc e 6144bit.
Il PDF tecnico rilasciato da nvidia, che si trova online, niente di segreto.
Dice che il chip è equipaggiato da 6912cc e 5120bit (quindi una partizione ram è tagliata i cubi sono 6).
Dal die sembra un chip da 8 GPC, quindi non è chiaro se un GPC sia del tutto spento.
La cache l1 passa da 96 a 164kb, la l2 arriva a 40mb:eek:
I tensor, sono la metà non il doppio, ma fanno il calcolo di 4x.
Ovvero se prima facevi:
Tensor x clock x 64 x2
ora devi fare Tensor x clock x 256 x2.
La banda è di 1,6tb/s
La soluzione più semplice è pensare a 8 tpc e 8 GPC, e vede questa soluzione con un intero GPC disattivo + altri 2 tpc monchi, e uno stack HBM2 laserato.
Che come soluzione avrebbe senso in vista di un chip full con 8192cc + 48GB HBM2.
A meno che non vogliano tirare fuori una Ceo Edition come la Titan V.
AceGranger
14-05-2020, 16:13
Allora, ho in mano il PDF tecnico, e qua è da rivedere lo schema ufficiale.
Videocardz riporta un full 8 GPC da 8196cc e 6144bit.
Il PDF tecnico rilasciato da nvidia, che si trova online, niente di segreto.
Dice che il chip è equipaggiato da 6912cc e 5120bit (quindi una partizione ram è tagliata i cubi sono 6).
Dal die sembra un chip da 8 GPC, quindi non è chiaro se un GPC sia del tutto spento.
La cache l1 passa da 96 a 164kb, la l2 arriva a 40mb:eek:
I tensor, sono la metà non il doppio, ma fanno il calcolo di 4x.
Ovvero se prima facevi:
Tensor x clock x 64 x2
ora devi fare Tensor x clock x 256 x2.
La banda è di 1,6tb/s
The full implementation of the GA100 GPU includes the following units:
8 GPCs, 8 TPCs/GPC, 2 SMs/TPC, 16 SMs/GPC, 128 SMs per full GPU
64 FP32 CUDA Cores/SM, 8192 FP32 CUDA Cores per full GPU
4 third-generation Tensor Cores/SM, 512 third-generation Tensor Cores per full GPU
6 HBM2 stacks, 12 512-bit memory controllers
The A100 Tensor Core GPU implementation of the GA100 GPU includes the following units:
7 GPCs, 7 or 8 TPCs/GPC, 2 SMs/TPC, up to 16 SMs/GPC, 108 SMs
64 FP32 CUDA Cores/SM, 6912 FP32 CUDA Cores per GPU
4 third-generation Tensor Cores/SM, 432 third-generation Tensor Cores per GPU
5 HBM2 stacks, 10 512-bit memory controllers
Figure 4 shows a full GA100 GPU with 128 SMs. The A100 is based on GA100 and has 108 SMs.
l'immagine è quella del full postata prima
12 nVlink O.o 600Gb, chissa quanto TDP si porta via solo sta roba qui.
A meno che non vogliano tirare fuori una Ceo Edition come la Titan V.
la vecchia V100 aveva una versione a 450W, questa arriva "solo" a 400W, probabile che in futuro facciano uscire una versione full a 450W.
ninja750
14-05-2020, 16:17
https://i.postimg.cc/zDpHRY5z/Cattura.jpg
mikael84
14-05-2020, 16:28
The full implementation of the GA100 GPU includes the following units:
8 GPCs, 8 TPCs/GPC, 2 SMs/TPC, 16 SMs/GPC, 128 SMs per full GPU
64 FP32 CUDA Cores/SM, 8192 FP32 CUDA Cores per full GPU
4 third-generation Tensor Cores/SM, 512 third-generation Tensor Cores per full GPU
6 HBM2 stacks, 12 512-bit memory controllers
The A100 Tensor Core GPU implementation of the GA100 GPU includes the following units:
7 GPCs, 7 or 8 TPCs/GPC, 2 SMs/TPC, up to 16 SMs/GPC, 108 SMs
64 FP32 CUDA Cores/SM, 6912 FP32 CUDA Cores per GPU
4 third-generation Tensor Cores/SM, 432 third-generation Tensor Cores per GPU
5 HBM2 stacks, 10 512-bit memory controllers
Figure 4 shows a full GA100 GPU with 128 SMs. The A100 is based on GA100 and has 108 SMs.
l'immagine è quella del full postata prima
Ecco, diciamo che ci avevo visto giusto:
Spartana però è funzionale.:p
https://i.postimg.cc/DZrkYY7x/lopez.png
12 nVlink O.o 600Gb, chissa quanto TDP si porta via solo sta roba qui.
la vecchia V100 aveva una versione a 450W, questa arriva "solo" a 400W, probabile che in futuro facciano uscire una versione full a 450W.
Già immagino i commenti sul TDP:p
Tanta roba, 54m transistor, 40mb di cache contro 6.
Hanno dovuto sacrificare il boost per tutta questa roba. Anche i tensor, equivarrebbero a quasi 2000 totali, in versione classica.
The full implementation of the GA100 GPU includes the following units:
8 GPCs, 8 TPCs/GPC, 2 SMs/TPC, 16 SMs/GPC, 128 SMs per full GPU
64 FP32 CUDA Cores/SM, 8192 FP32 CUDA Cores per full GPU
4 third-generation Tensor Cores/SM, 512 third-generation Tensor Cores per full GPU
6 HBM2 stacks, 12 512-bit memory controllers
The A100 Tensor Core GPU implementation of the GA100 GPU includes the following units:
7 GPCs, 7 or 8 TPCs/GPC, 2 SMs/TPC, up to 16 SMs/GPC, 108 SMs
64 FP32 CUDA Cores/SM, 6912 FP32 CUDA Cores per GPU
4 third-generation Tensor Cores/SM, 432 third-generation Tensor Cores per GPU
5 HBM2 stacks, 10 512-bit memory controllers
Figure 4 shows a full GA100 GPU with 128 SMs. The A100 is based on GA100 and has 108 SMs.
l'immagine è quella del full postata prima
12 nVlink O.o 600Gb, chissa quanto TDP si porta via solo sta roba qui.
la vecchia V100 aveva una versione a 450W, questa arriva "solo" a 400W, probabile che in futuro facciano uscire una versione full a 450W.
Infatti è quasi sicuro, ogni GPC dovrebbe avere un consumo medio di circa 55W quindi i margini ci sono per abilitare completamente il chip + lo stack HBM2 e rientrare nei 450w.
Andy1111
14-05-2020, 16:44
la vecchia V100 aveva una versione a 450W, questa arriva "solo" a 400W, probabile che in futuro facciano uscire una versione full a 450W.
Visto tutti i transistor o tengono ancora più basse le frequenze o ne serviranno 500 di W minimo
mattxx88
14-05-2020, 16:55
Ma, stando ai rumors che abbiamo in mano oggi, il pcie 3.0 16x gli sta ancora dietro anche alle nuove 3xxx?
mikael84
14-05-2020, 16:56
Infatti è quasi sicuro, ogni GPC dovrebbe avere un consumo medio di circa 55W quindi i margini ci sono per abilitare completamente il chip + lo stack HBM2 e rientrare nei 450w.
I consumi sono molto elevati anche per il design che hanno scelto sulle ram.
Uno schema ad 8 GPC dovrebbe avere un 4096bit (512ddr), qua hanno optato per un 6144bit da ben 48gb, quindi due canali di collegamento a vuoto, di cui uno laserato.
40gb ad 1,6tb/s si porta via un bel pò di watt.
Purtroppo la scelta era se rimanere con 4 cubi per 32gb o metterne 6.
Con le ddr6 potevi farne direttamente uno e via.
Il salto in transistor è un qualcosa di spaventoso.
GP100: 15,3m
GV100: 21m
GA100: 54m
Ormai è chiaro che nvidia punti tutto verso l'AI, pur abbassando il clock, riesce a fare un 3x sui tensor.
ninja750
14-05-2020, 17:00
Ma, stando ai rumors che abbiamo in mano oggi, il pcie 3.0 16x gli sta ancora dietro anche alle nuove 3xxx?
sto coso che hanno presentato è 4.0
mattxx88
14-05-2020, 17:03
sto coso che hanno presentato è 4.0
Forse non è chiara la precedente domanda
chi ha MB non pcie 4, avrà problemi secondo voi, di banda con la 3080ti nuova?
lovoriv78
14-05-2020, 17:05
Forse non è chiara la precedente domanda
chi ha MB non pcie 4, avrà problemi secondo voi, di banda con la 3080ti nuova?
Secondo me la 3.0 non la satureranno nemmeno con la serie 40x0 ma per quando uscirà avremo tutti una mb 4.0
protonIT
14-05-2020, 17:05
https://twitter.com/VideoCardz/status/1260875972221579264?s=09
è un male vero? ma spero di no.
Sto seguendo poco ultimamente, ma e' ragionevole pensare che andando in avanti ci sara' sempre piu' una divisione fra il comparto Machine Learning e schede gaming/prosumer ? Anche a livello di processo produttivo intendo...
lovoriv78
14-05-2020, 17:07
https://twitter.com/VideoCardz/status/1260875972221579264?s=09
è un male vero? ma spero di no.
Lato prezzi forse sì
Sto seguendo poco ultimamente, ma e' ragionevole pensare che andando in avanti ci sara' sempre piu' una divisione fra il comparto Machine Learning e schede gaming/prosumer ? Anche a livello di processo produttivo intendo...
E' già cosi, la scissione si è creata già con le GPU Volta, ma è ovvio poichè nvidia sta investendo fior fior di quattrini nella robotica, e intelligenza artificiale.
Secondo me la 3.0 non la satureranno nemmeno con la serie 40x0 ma per quando uscirà avremo tutti una mb 4.0
I vantaggi del 4.0 si limitano all'avere un gran numero di periferiche connesse senza strozzature, non a caso anche le nuove B550 in arrivo permetteranno soluzioni cross e sli, dato che la BW di un PCIe 4.0 x8 è praticamente analoga a quella di un 3.0 x16, o semplicemente il poter connettere più unità ssd nvme senza strozzare la GPU o eventuali porte sata.
ninja750
14-05-2020, 17:12
.
fraussantin
14-05-2020, 17:13
E' già cosi, la scissione si è creata già con le GPU Volta, ma è ovvio poichè nvidia sta investendo fior fior di quattrini nella robotica, e intelligenza artificiale.Ma in pratica ampere è il successore di volta e Hopper lo sarà di Turing?
Andy1111
14-05-2020, 17:18
Ma delle Quadro non s'è detto nulla?
Riguardo alle schede gaming avevo letto che fascia alta con i 7 di TSMC e la bassa con 8 di Samsung, se non era un fake come è da interpretare secondo voi?
3080 TI e 3080 coi 7 il resto con 8
oppure
3080TI 3080 3070 3060 coi 7 sotto con gli 8 ????
lovoriv78
14-05-2020, 17:23
E' già cosi, la scissione si è creata già con le GPU Volta, ma è ovvio poichè nvidia sta investendo fior fior di quattrini nella robotica, e intelligenza artificiale.
I vantaggi del 4.0 si limitano all'avere un gran numero di periferiche connesse senza strozzature, non a caso anche le nuove B550 in arrivo permetteranno soluzioni cross e sli, dato che la BW di un PCIe 4.0 x8 è praticamente analoga a quella di un 3.0 x16, o semplicemente il poter connettere più unità ssd nvme senza strozzare la GPU o eventuali porte sata.
https://www.digitalcitizen.life/pcie-4-vs-pcie-3
fraussantin
14-05-2020, 17:26
Cmq il supporto al 4.0 anche se non servirà a niente sarà un bello schiaffone ad Intel. Secondo me presto presto uscirà la nuova linea di processori con pcie4.0 e di cui le z490 pare abbiano il supporto.
AceGranger
14-05-2020, 17:27
Ma delle Quadro non s'è detto nulla?
Riguardo alle schede gaming avevo letto che fascia alta con i 7 di TSMC e la bassa con 8 di Samsung, se non era un fake come è da interpretare secondo voi?
3080 TI e 3080 coi 7 il resto con 8
oppure
3080TI 3080 3070 3060 coi 7 sotto con gli 8 ????
no perchè condividono i chip con le Geforce e quindi arriveranno con quelle a fine anno.
Ma in pratica ampere è il successore di volta e Hopper lo sarà di Turing?
Hopper non si sa nulla, dai rumors che ho letto finora si sa che sarà basata sui 5nm e non a caso Nvidia ha di recente fatto un accordo con TSMC per i 5nm, e sarà la prima a basarsi su un approccio MCM in ambito GPU, dato l'approccio è lecito supporre che saranno altri chip tesla ancora più spinti e quindi sostituiranno le soluzioni GA100 che stiamo osservando ora.
Ma in ambito gaming Ampere dovrebbe sostituire Turing, e Hopper potrebbe non avere una versione gaming anche perchè non so come abbiano risolto i problemi di latenza e non ci sono info dettagliate, ed è possibile che solo post Hopper avremo dei chip MCM gaming su un architettura rivista per questo ambito.
protonIT
14-05-2020, 17:29
Sto seguendo poco ultimamente, ma e' ragionevole pensare che andando in avanti ci sara' sempre piu' una divisione fra il comparto Machine Learning e schede gaming/prosumer ? Anche a livello di processo produttivo intendo...
ma a quanto ha detto pare che invece sia un unica architettura, la cosa è strana però... boh
Lato prezzi forse sì
eh come temevo...
Sì però ancora co stò Minecraft!!! :D
in effetti magic carpet remastered (ormai si fanno solo quelli :asd: ) in RTX sarebbe la meglio figata +++++ altro che voxel
Devono pur inventarsi qualcosa visto che gli hanno tirato il bidone con il rinvio di Cyberpunk 2077 (imho il nuovo "gira crysis?" da qui al 2025)
Visto tutti i transistor o tengono ancora più basse le frequenze o ne serviranno 500 di W minimo
bhe il loro riferimento è sempre stato intel, si stanno allineando ai consumi dei nuovi i9
in effetti magic carpet remastered (ormai si fanno solo quelli :asd: ) in RTX sarebbe la meglio figata +++++ altro che voxel
Devono pur inventarsi qualcosa visto che gli hanno tirato il bidone con il rinvio di Cyberpunk 2077 (imho il nuovo "gira crysis?" da qui al 2025)
Infatti con questo posticipo il remake di crysis sembra tutt'altro che casuale :sofico:
in effetti magic carpet remastered (ormai si fanno solo quelli :asd: ) in RTX sarebbe la meglio figata +++++ altro che voxel
Devono pur inventarsi qualcosa visto che gli hanno tirato il bidone con il rinvio di Cyberpunk 2077 (imho il nuovo "gira crysis?" da qui al 2025)
Calcolando quanto ancora è mattone Witcher 3 nonostante siano passati 5 anni, credo anche io che Cyberpunk sarà il nuovo Crysis per diversi anni.
AceGranger
14-05-2020, 17:37
Ma in pratica ampere è il successore di volta e Hopper lo sarà di Turing?
Ampere è il successore di Volta e Turing; anche perchè Turing ha la base identica a Volta.
Ampere avra lo stesso nome ma sara diviso presumo in egual modo:
Base = FP+INT+Tensor
HPC = base + FP64
Gaming = base + RT core
Turing è un Volta senza FP64 e con gli RT core.
protonIT
14-05-2020, 17:43
Ampere è il successore di Volta e Turing; anche perchè Turing ha la base identica a Volta.
Ampere avra lo stesso nome ma sara diviso presumo in egual modo:
Base = FP+INT+Tensor
HPC = base + FP64
Gaming = base + RT core
Turing è un Volta senza FP64 e con gli RT core.
ah ok, speriamo.
DarkNiko
14-05-2020, 17:58
Perdonatemi una domanda, ma perché nell'articolo di hwupgrade si parla del fatto che quanto presentato oggi non è Ampére nella sua massima espressione?
Per poi dire che anche con le precedenti Tesla si era verificato altrettanto.
Cioè vorrei capire, esiste una sorta di gpu teorica e poi quella pratica viene sempre ridimensionata verso il basso o ci si deve aspettare una declinazione superiore che rispecchi quanto previsto sulla carta ?
mikael84
14-05-2020, 18:00
Ma, stando ai rumors che abbiamo in mano oggi, il pcie 3.0 16x gli sta ancora dietro anche alle nuove 3xxx?
Bella, domanda, questo sarà da vedere, non è escluso qualche collo di bottiglia su qualche gioco. Anche le gaming dovrebbero essere in 4 e condividere il CGP.
Considerando poi che non andrai di 3050 super.:p
Sto seguendo poco ultimamente, ma e' ragionevole pensare che andando in avanti ci sara' sempre piu' una divisione fra il comparto Machine Learning e schede gaming/prosumer ? Anche a livello di processo produttivo intendo...
Diciamo che le quadro e di riflesso le gaming, salvo le FP64, tutti gli nvlink e i collegamenti HBM (768bit in ddr), si porteranno dietro tutto quello del chip tesla a livello di calcolo in più l'RT.
Sul PP è ancora da vedere, troppa confusione.
Ma delle Quadro non s'è detto nulla?
Riguardo alle schede gaming avevo letto che fascia alta con i 7 di TSMC e la bassa con 8 di Samsung, se non era un fake come è da interpretare secondo voi?
3080 TI e 3080 coi 7 il resto con 8
oppure
3080TI 3080 3070 3060 coi 7 sotto con gli 8 ????
le quadro le daranno vita alle gaming, quindi tra qualche mese.
mikael84
14-05-2020, 18:16
I tensor saranno sicuramente così anche nelle gaming (16 partizioni fp16)
Le gaming ovviamente avranno gli RT core, metà lds e meno L1.
https://i.postimg.cc/3Jd8Xc92/llll.png
Volta
https://i.postimg.cc/C1QtSmDV/volyta.png
Ecco, diciamo che ci avevo visto giusto:
Spartana però è funzionale.:p
https://i.postimg.cc/DZrkYY7x/lopez.png
Già immagino i commenti sul TDP:p
Tanta roba, 54m transistor, 40mb di cache contro 6.
Hanno dovuto sacrificare il boost per tutta questa roba. Anche i tensor, equivarrebbero a quasi 2000 totali, in versione classica.
C'è poco da commentare, la controparte con meno di 1/4 dei transistor ne consuma oltre 200.
Le quadro presumo che saranno schede ben diverse da queste, oltre alle memorie verrà modificato altro, fp64?
IMHO
mikael84
14-05-2020, 18:31
C'è poco da commentare, la controparte con meno di 1/4 dei transistor ne consuma oltre 200.
Le quadro presumo che saranno schede ben diverse da queste, oltre alle memorie verrà modificato altro, fp64?
IMHO
Le quadro, avranno, l'RT core per SM in più.
In meno ovviamente le FP64 (1/32 ), metà lds, meno l1 (da 192 a 128).
inoltre il collegamento nvlink sarà decisamente tagliato, la cache l2 potrebbe passare da 6 ad 12mb non 40mb.
Inoltre ciò che ha contribuito a rendere mastodontica questa Tesla è il bus da 6144bit HBM (in ddr si parla di simil bus a 768bit).
La Top avrà la metà.:)
Ok grazie per il chiarimento :)
Aspettiamo e vediamo, personalmente credo comunque di saltare anche questa gen, almeno sul nuovo.
Andy1111
14-05-2020, 19:25
le quadro le daranno vita alle gaming, quindi tra qualche mese.
si lo so chiedevo solo se c'era stata qualche info a riguardo
Arrow0309
14-05-2020, 20:16
Ok grazie per il chiarimento :)
Aspettiamo e vediamo, personalmente credo comunque di saltare anche questa gen, almeno sul nuovo.
:doh:
Io salto la piattaforma (cpu), ho fatto oc a 4.9 daily apposta.
Ma non vedo l'ora che escano le 3080 (niente più "ti") :p
Spetterò le custom direttamente pero' :mc:
Crysis90
14-05-2020, 20:22
in effetti magic carpet remastered (ormai si fanno solo quelli :asd: ) in RTX sarebbe la meglio figata +++++ altro che voxel
Devono pur inventarsi qualcosa visto che gli hanno tirato il bidone con il rinvio di Cyberpunk 2077 (imho il nuovo "gira crysis?" da qui al 2025)
Calcolando quanto ancora è mattone Witcher 3 nonostante siano passati 5 anni, credo anche io che Cyberpunk sarà il nuovo Crysis per diversi anni.
Ma anche no, TW3 è stato un mattone per non più di 3 anni, visto che da quando c'è Turing in circolazione la mattonella è RDR2. :read:
Cyberpunk sarà ambientato in un contesto cittadino, con molte situazioni e missioni indoor.
Non può essere più pesante di RDR2 (tranne che per la questione del Ray-tracing, in caso).
W3 è pesante in 4K eccome.
:doh:
Io salto la piattaforma (cpu), ho fatto oc a 4.9 daily apposta.
Ma non vedo l'ora che escano le 3080 (niente più "ti") :p
Spetterò le custom direttamente pero' :mc:
Te l'appoggio sul discorso CPU (gg per l'oc), almeno qua ti togli qualche sfizio in piu' :sofico:
Crysis90
14-05-2020, 22:18
W3 è pesante in 4K eccome.
Con la 2080 Ti sto sempre sopra i 70 FPS in 4K su TW3.
Tutto maxato e moddato.
Con RDR2 in 4K oscilliamo tra i 40 ed i 60 frames, in base alle situazioni ed alle inquadrature.
Eh, niente di speciale visto che parliamo di una 2080 Ti con un titolo di cinque anni fa con un engine neanche particolarmente eccelso.
nico88desmo
15-05-2020, 00:03
I tensor saranno sicuramente così anche nelle gaming (16 partizioni fp16)
Le gaming ovviamente avranno gli RT core, metà lds e meno L1.
https://i.postimg.cc/3Jd8Xc92/llll.png
Volta
https://i.postimg.cc/C1QtSmDV/volyta.png
Quindi, riassumendo nel modo più conciso possibile, a livello di SM i cambiamenti maggiori sono relativi ai tensor core e la cache L1 aumentata di 1.5x. FP32, INT32 e FP64 sono rimaste immutate a livello di quantità (ci sono ottimizzazioni?...boh).
Poi a livello di GPC, hanno portato i TPC da 7 a 8 per GPC e infine i GPC passano da 6 a 8.
Ma... guardando il diagramma a blocchi della GPU, io quasi intravedo una prima di bozza di MCM. Di fatto la cache L2 è vero che è aumentata di ~6x, però è suddivisa in due macro blocchi. Pare siano 2 GPU accoppiate...o la faccio troppo semplice? :D
Altra cosa molto interessante è la feature MIG, ovvero la suddivisione di una singola GPU fino ad un massimo di 7 GPU (non ho capito se indipendenti, però pare sia così).
Comunque mi viene da pensare che più passa il tempo, più sia complicato sfruttare appieno le capacità computazionali delle GPU. Lato prestazioni pure ok, ma la gestione della memoria diventa sempre più complicata.
Cosa ne pensi Mikael?
mikael84
15-05-2020, 01:24
Quindi, riassumendo nel modo più conciso possibile, a livello di SM i cambiamenti maggiori sono relativi ai tensor core e la cache L1 aumentata di 1.5x. FP32, INT32 e FP64 sono rimaste immutate a livello di quantità (ci sono ottimizzazioni?...boh).
Poi a livello di GPC, hanno portato i TPC da 7 a 8 per GPC e infine i GPC passano da 6 a 8.
Si esatto, questo è un percorso lineare. FP64 sempre 1:2.
I GPC sono ora 8, ma con 2 collegamenti aggiuntivi, di cui uno laserato per rese.
Una 780 kepler a livello di collegamenti (4+6)
Un collegamento singolo in HBM era impossibile, di fatto questo monolite, conta anche 160 rop's stampate:)
Ma... guardando il diagramma a blocchi della GPU, io quasi intravedo una prima di bozza di MCM. Di fatto la cache L2 è vero che è aumentata di ~6x, però è suddivisa in due macro blocchi. Pare siano 2 GPU accoppiate...o la faccio troppo semplice? :D
Ehh, bravo, e bella domanda.
Nvidia è da tempo che lavora al MCM, però ha sbattuto la testa più volte sulla latenza. Un chip ad 8gpc da loro ricreato, dava circa 100ns, troppo per una GPU, in più, in game, tramite SFU, se non rasterizzi a 32 pixel, ti ritrovi rop's tarpate ed l2 come piccolo collo di bottiglia, visto che non viene condivisa come il chip monolitico.
Bel problema, quanto ti ritrovi gruppi di calcolo troppo grandi.
Nvidia pensava ad una l1 1,5m capace di lavorare via xbar e sgravando la l2.:)
Sulla L2 di GA100, può sembrare così, ma è per suddividere il lavoro su più aspetti, infatti, al contrario del MCM, la L2 è condivisa sul crossbar.
Ogni GPC ha 4mb di cache x 10 collegamenti. Nel full sono 48 per 12 collegamenti, un 6144bit equivale ad un 768bit (2x384bit).:)
Altra cosa molto interessante è la feature MIG, ovvero la suddivisione di una singola GPU fino ad un massimo di 7 GPU (non ho capito se indipendenti, però pare sia così).
Indipendenti. E' una opzione vista per il cloud principalmente.
Ed ecco che ricolleghiamo il discorso l2 di prima. La L2 come detto è condivisa per uso generico sul crossbar, ma può essere divisa in due parti indipendenti per creare due tipologie di calcolo indipendenti. In una puoi fare FP64, in una IA.
Oppure, se ti serve tanta parallelizzazione, la suddividi sino a 7 x 5gb x14 SM.
1 SM aggiuntivo è preposto a ridondanza.:)
Comunque mi viene da pensare che più passa il tempo, più sia complicato sfruttare appieno le capacità computazionali delle GPU. Lato prestazioni pure ok, ma la gestione della memoria diventa sempre più complicata.
Cosa ne pensi Mikael?
Si, perchè si sta abbandonando la pura potenza FP per clock, per raggiungere livelli massimi di IA, che necessitano di ampissime memorie veloci.
Si è raggiunto la bellezza (con un chip monco) di oltre 310tf fp16 a livello di tensor.
Tieni presente che il livello su die tei tensor, equivale a 4 partizioni fp16.
AMD ad esempio, suddivide ancora una FP32 x 2 FP16.:)
TigerTank
15-05-2020, 09:41
Non vedo l'ora di essere strabiliato dalle prestazioni di una 3080Ti...anche perchè fondamentalmente non ho mai tenuto una VGA per così tanto tempo. A sto punto bisognerà valutare magari anche un'upgrade del predator...magari un 21:9 in salsa HDR e con una risoluzione maggiore dei 3440x1440..anche se sinceramente non ne sento così il bisogno del 4K anche sul monitor.
gsync ultimate? Per carità...a parte la questione della ventolina del modulo gsync v2, tra nuova Ti e ultimi monitor gsync, imho è davvero troppo un salasso per il solo gaming. Se poi sali troppo di risoluzione ti ritrovi nella stessa situazione di avere sì una nuova scheda ma che inizia a faticare un pò troppo :)
gsync ultimate? Per carità...a parte la questione della ventolina del modulo gsync v2, tra nuova Ti e ultimi monitor gsync, imho è davvero troppo un salasso per il solo gaming. Se poi sali troppo di risoluzione ti ritrovi nella stessa situazione di avere sì una nuova scheda ma che inizia a faticare un pò troppo :)
Perchè sei così contrario al G-Sinc Ultimate?
Sembra buono sulla carta ... :mbe:
TigerTank
15-05-2020, 11:34
Perchè sei così contrario al G-Sinc Ultimate?
Sembra buono sulla carta ... :mbe:
Buono è buono ma sinceramente al momento è troppo un salasso rispetto ad un buon monitor gsync di prima generazione. Inoltre in passato ci sono state lamentele circa la rumorosità delle ventoline di raffreddamento, cosa che spero che sia stata risolta con gli ultimi modelli(e ci mancherebbe).
E per sfruttare questi monitor al meglio, ci vogliono/vorranno ovviamente le vga migliori(specie se parliamo di 4K) per cui spesona+spesona :D
Per quel che mi riguarda mi terrò ancora per un bel pezzo lo schermo attuale(l'HDR non mi interessa più di tanto)...oltretutto in modo che se le nuove Ti avessero prezzi salati, potrei scalare alle inferiori senza tanti patemi di limiti prestazionali.
Perchè ok il gsync ma imho un framerate over 60 costante è sempre meglio :D
In ogni caso il quadro sarà meglio valutabile quando le nuove schede usciranno e ne vedremo prezzi e prestazioni effettive dalle recensioni valide. Fino ad allora ci sarà di sicuro il solito super-hype :cool:
Buono è buono ma sinceramente al momento è troppo un salasso rispetto ad un buon monitor gsync di prima generazione. Inoltre in passato ci sono state lamentele circa la rumorosità delle ventoline di raffreddamento, cosa che spero che sia stata risolta con gli ultimi modelli(e ci mancherebbe).
E per sfruttare questi monitor al meglio, ci vogliono/vorranno ovviamente le vga migliori(specie se parliamo di 4K) per cui spesona+spesona :D
Per quel che mi riguarda mi terrò ancora per un bel pezzo lo schermo attuale(l'HDR non mi interessa più di tanto)...oltretutto in modo che se le nuove Ti avessero prezzi salati, potrei scalare alle inferiori senza tanti patemi di limiti prestazionali.
Perchè ok il gsync ma imho un framerate over 60 costante è sempre meglio :D
In ogni caso il quadro sarà meglio valutabile quando le nuove schede usciranno e ne vedremo prezzi e prestazioni effettive dalle recensioni valide. Fino ad allora ci sarà di sicuro il solito super-hype :cool:
Sennò potresti sempre prendere uno di quei monitor 65" sponsorizzati da Nvidia (circa 5.000 €) e un quadri SLi delle nuove Tesla, così stai in una botte "de fero" per almeno un annetto sai :D :D :D
Ale55andr0
15-05-2020, 13:31
Con la 2080 Ti sto sempre sopra i 70 FPS in 4K su TW3.
Tutto maxato e moddato.
.
Con una scheda da 1000+ fai 70 frame con un gico del 2015...è pesante si W3...certo rdr2 lo è anche più ma è tecnicamente più avanzato. La resa dell'acqua (fra le altre cose eh) poi è abissalmente superiore, in cd project proprio non la sanno fare :asd:
E a vedere le imagini di CP2077 mi sale il vomito, poligonarmente è poverissimo (ma davvero, desolante), come texture idem, pare un gioco di 15 anni fa e non è una iperbole, mi sembra davvero un gioco dei primi anni del 2000, ma puoi scommettere che sarà un macigno
Con una scheda da 1000+ fai 70 frame con un gico del 2015...è pesante si W3...certo rdr2 lo è anche più ma è tecnicamente più avanzato. La resa dell'acqua (fra le altre cose eh) poi è abissalmente superiore, in cd project proprio non la sanno fare :asd:
E a vedere le imagini di CP2077 mi sale il vomito, poligonarmente è poverissimo (ma davvero, desolante), come texture idem, pare un gioco di 15 anni fa e non è una iperbole, mi sembra davvero un gioco dei primi anni del 2000, ma puoi scommettere che sarà un macigno
Quoto tutto. Non dobbiamo dimenticare che il CDPR sviluppa giochi travestiti da tripla A ma che di fatto non lo sono, si possono permettere di osare di più solamente perché sono aiutati dal governo polacco che ne supporta il loro lavoro, altrimenti starebbero messi anche peggio. Riguardo Cyberpunk, anche se sarà tecnicamente poco valido, scommetto che sarà un altro mattone, almeno RDR2 ha più giustificazioni per essere pesante in quel modo.
mi sono rotto le palle voglio la 3080ti per il 4k :D
bagnino89
15-05-2020, 15:42
Quoto tutto. Non dobbiamo dimenticare che il CDPR sviluppa giochi travestiti da tripla A ma che di fatto non lo sono, si possono permettere di osare di più solamente perché sono aiutati dal governo polacco che ne supporta il loro lavoro, altrimenti starebbero messi anche peggio. Riguardo Cyberpunk, anche se sarà tecnicamente poco valido, scommetto che sarà un altro mattone, almeno RDR2 ha più giustificazioni per essere pesante in quel modo.
Oddio, dire che TW3 non sia un titolo da tripla A mi sembra un tantino provocatorio :asd:
Oddio, dire che TW3 non sia un titolo da tripla A mi sembra un tantino provocatorio :asd:
Con quel combat system che si ritrova, boh, diciamo che è un doppia A, con narrativa da tripla A.
antani^2
15-05-2020, 15:48
Non sono ancora usciti gli schemi.
Al momento la tabella anandtech riporta 8 GPC da 7, non da 8, che con la ridondanza fanno 6912cc.
Si notano 6 cubi HBM per 6144bit, ma tagliati a 5120bit (640ddr6), questo è strano.
54m transistor contro 21mt di volta.:eek:
Ma come sei passato in poche settimane
dal
"meglio clock alti e gli stadi moltiplicatori"
al
"meglio tanti cc e transistors"?
2.5ghz , cit.
...
Con quel combat system che si ritrova, boh, diciamo che è un doppia A, con narrativa da tripla A.
Va giocato con il pad e possibilmente spaparanzati sul letto o divano...
Non è il tipico gioco da monitor, con visuale in prima persona che ricerca il coinvolgimento completo nell'ambientazione.
Per il resto è un gioco che merita, di recente l'hanno portato anche su Switch facendo mezzo miracolo tra la cpu arm e la piccola maxwell :fagiano:
Va giocato con il pad e possibilmente spaparanzati sul letto o divano...
Non è il tipico gioco da monitor, con visuale in prima persona che ricerca il coinvolgimento completo nell'ambientazione.
Per il resto è un gioco che merita, di recente l'hanno portato anche su Switch facendo mezzo miracolo tra la cpu arm e la piccola maxwell :fagiano:
Certamente merita, l'ho finito tre volte e fatto i DLC, questo sicuramente, peccato solo per un combat system che sta ormai invecchiando miseramente.
FrancoBit
15-05-2020, 16:05
Certamente merita, l'ho finito tre volte e fatto i DLC, questo sicuramente, peccato solo per un combat system che sta ormai invecchiando miseramente.
Orca miseria è uno di quei giochi che non riesco a digerire e mi spiace xchè ne ho solo sentito parlare bene, ma non ce la faccio, dopo un'ora lo mollo. Non so bene il motivo, ma mi capita con certi titoli. Un'altro è Hellblade, grafica spettacolare, lei mi piace un sacco, ma al primo combat ragequitto
Orca miseria è uno di quei giochi che non riesco a digerire e mi spiace xchè ne ho solo sentito parlare bene, ma non ce la faccio, dopo un'ora lo mollo. Non so bene il motivo, ma mi capita con certi titoli. Un'altro è Hellblade, grafica spettacolare, lei mi piace un sacco, ma al primo combat ragequitto
Già nel 2015 quando nel giro di poco venne amato da tantissime persone e reputato privo di difetti, io in giro mi trovavo a scrivere come il combat system era abbastanza penoso, ma venivo spesso e volentieri lapidato :asd:
mikael84
15-05-2020, 16:11
mi sono rotto le palle voglio la 3080ti per il 4k :D
Dagli il tempo di smontare 12 canali ram, 64 rop's, 2820 cc, le FP64 (equivalenti a 8196cc FP32), alleggerire il Gigathread via MIG, buttare giù 36mb di l2, buona parte di l1, cache registri e mettere P.E e RT.
Dopo te la danno.:sofico:
amon.akira
15-05-2020, 16:17
Ma come sei passato in poche settimane
dal
"meglio clock alti e gli stadi moltiplicatori"
al
"meglio tanti cc e transistors"?
2.5ghz , cit.
...
gridracedriver? :asd:
antani^2
15-05-2020, 16:21
gridracedriver? :asd:
:yeah:
vi giuro è da ieri che mi scasso dal ridere :D
TigerTank
15-05-2020, 16:25
Sennò potresti sempre prendere uno di quei monitor 65" sponsorizzati da Nvidia (circa 5.000 €) e un quadri SLi delle nuove Tesla, così stai in una botte "de fero" per almeno un annetto sai :D :D :D
Ahahahah no no non fa per me :mc:
Dagli il tempo di smontare 12 canali ram, 64 rop's, 2820 cc, le FP64 (equivalenti a 8196cc FP32), alleggerire il Gigathread via MIG, buttare giù 36mb di l2, buona parte di l1, cache registri e mettere P.E e RT.
Dopo te la danno.:sofico:
Che il devasto abbia inizio! :D
mikael84
15-05-2020, 16:31
Ahahahah no no non fa per me :mc:
Che il devasto abbia inizio! :D
Azz, una devastazione epocale.:sofico: Fai il conto che nvlink e 12 collegamenti del TU102 occupavano 322mm2 su 754.
Cmq vai tranquillo che ti devasterà anche la versione gaming, solo che con un GPC aggiuntivo senza collegamento, forse a sto giro non tagliano la ram.:D
mattxx88
15-05-2020, 16:50
gridracedriver? :asd:
se leggi l'articolo di toms di ieri su nvidia han dato spettacolo lui e bivvoz :D
meglio del cabaret :stordita:
https://www.tomshw.it/hardware/alienware-estende-il-raffreddamento-a-liquido-anche-alla-gpu-sui-nuovi-desktop-aurora-r11/
consiglio i popcorn
fraussantin
15-05-2020, 16:51
se leggi l'articolo di toms di ieri su nvidia han dato spettacolo lui e bivvoz :D
meglio del cabaret :stordita:Finisce che si fanno sfiammare anche lì ..
mattxx88
15-05-2020, 16:53
Finisce che si fanno sfiammare anche lì ..
nah, i mod di quel sito hanno probabilmente anche più cromosomi di quei due tizi la
antani^2
15-05-2020, 16:55
se leggi l'articolo di toms di ieri su nvidia han dato spettacolo lui e bivvoz :D
meglio del cabaret :stordita:
https://www.tomshw.it/hardware/alienware-estende-il-raffreddamento-a-liquido-anche-alla-gpu-sui-nuovi-desktop-aurora-r11/
consiglio i popcorn
Cromosoma, metti il link giusto ;)
https://www.tomshw.it/hardware/nvidia-ampere-a100-gpu-datacenter/
ps. che c'entra bivvoz, non ha praticamente scritto nulla, secondo me ti confondi con un altro che scrive sulle news qua su HU...
razor820
15-05-2020, 16:59
Certamente merita, l'ho finito tre volte e fatto i DLC, questo sicuramente, peccato solo per un combat system che sta ormai invecchiando miseramente.
Con quel combat system che si ritrova, boh, diciamo che è un doppia A, con narrativa da tripla A.
Già nel 2015 quando nel giro di poco venne amato da tantissime persone e reputato privo di difetti, io in giro mi trovavo a scrivere come il combat system era abbastanza penoso, ma venivo spesso e volentieri lapidato :asd:
Mi spiace ma questo te lo devo proprio quotare.... da cartellino rosso, non solo per aver pensato che TW3 fosse un gioco non da AAA, con un penoso combat system, ma soprattutto che dopo le numerose critiche ritieni di averlo giocato 3 volte... :D Russian wodka??
In realtà sono in tanti ad ammettere che il combat system sia un bel pugno in un occhio.
Comunque fine OT.
antani^2
15-05-2020, 17:58
Comunque il mio pronostico è ~1500$ una 3080ti custom caxxuta, fossi in loro la farei a liquido e basta, ad aria 3 ventole... uhm... e la Titan A a 5000$.
Fossero razionali farebbero solo la 3080 a 1000$ e rifare le versioni Ti a 5 nm con dimensioni e consumi standard, che si sono ficcati in un cul de sac mica male va...
i tempi di maxwell e pascal sono belli che andati.
nico88desmo
15-05-2020, 22:03
Si esatto, questo è un percorso lineare. FP64 sempre 1:2.
I GPC sono ora 8, ma con 2 collegamenti aggiuntivi, di cui uno laserato per rese.
Una 780 kepler a livello di collegamenti (4+6)
Un collegamento singolo in HBM era impossibile, di fatto questo monolite, conta anche 160 rop's stampate:)
Per 2 collegamenti aggiuntivi, intendi dire il rapporto fra GPC (8) e stack HBM (6), o ho capito male?
Ehh, bravo, e bella domanda.
Nvidia è da tempo che lavora al MCM, però ha sbattuto la testa più volte sulla latenza. Un chip ad 8gpc da loro ricreato, dava circa 100ns, troppo per una GPU, in più, in game, tramite SFU, se non rasterizzi a 32 pixel, ti ritrovi rop's tarpate ed l2 come piccolo collo di bottiglia, visto che non viene condivisa come il chip monolitico.
Bel problema, quanto ti ritrovi gruppi di calcolo troppo grandi.
Nvidia pensava ad una l1 1,5m capace di lavorare via xbar e sgravando la l2.:)
Si, effettivamente il problema principale dell'MCM è la latenza verso la memoria. C'è il rischio di aumentare la pura potenza di calcolo.. ma se non si può sfruttare perché i dati non arrivano "in fretta", il gioco non vale la candela chiaramente (chissà come sono messi ora...:D)
Per curiosità, ti riferisci a questo link quando parli di L1 1.5m? (https://research.nvidia.com/sites/default/files/publications/ISCA_2017_MCMGPU.pdf)
Vedendo molto velocemente, qui l'idea è simile a quanto hai detto tu: sgravare la L2 per ridurre le latenze nello scambio dati fra quelli che definiscono GPM (che mi sembra molto simili ai GPC... almeno a livello topologico)
Sulla L2 di GA100, può sembrare così, ma è per suddividere il lavoro su più aspetti, infatti, al contrario del MCM, la L2 è condivisa sul crossbar.
Ogni GPC ha 4mb di cache x 10 collegamenti. Nel full sono 48 per 12 collegamenti, un 6144bit equivale ad un 768bit (2x384bit).:)
Indipendenti. E' una opzione vista per il cloud principalmente.
Ed ecco che ricolleghiamo il discorso l2 di prima. La L2 come detto è condivisa per uso generico sul crossbar, ma può essere divisa in due parti indipendenti per creare due tipologie di calcolo indipendenti. In una puoi fare FP64, in una IA.
Oppure, se ti serve tanta parallelizzazione, la suddividi sino a 7 x 5gb x14 SM.
1 SM aggiuntivo è preposto a ridondanza.:)
Interessante ;)
Si, perchè si sta abbandonando la pura potenza FP per clock, per raggiungere livelli massimi di IA, che necessitano di ampissime memorie veloci.
Si è raggiunto la bellezza (con un chip monco) di oltre 310tf fp16 a livello di tensor.
Tieni presente che il livello su die tei tensor, equivale a 4 partizioni fp16.
AMD ad esempio, suddivide ancora una FP32 x 2 FP16.:)
Si, la potenza lato Tensor è incredibile! Anche se, sinceramente, devo ancora capire quanto possa essere sfruttata per uso generico (mi devo documentare un po su come funziona lato Cuda :p )
mikael84
16-05-2020, 00:51
cut? :asd:
Che poi, ho detto questo.:p
Febbraio 2020
https://www.hwupgrade.it/forum/showpost.php?p=46640452&postcount=46172
Turing game 2080s boosta a 1950mhz, se fosse shrinkato, salirebbe non poco di clock.
Certo che se pascal, anzichè 12mt, avesse avuto 21mt, magari con 10 gpc, 20mb di l2, 640bit altro che 1650 di clock.
Per 2 collegamenti aggiuntivi, intendi dire il rapporto fra GPC (8) e stack HBM (6), o ho capito male?
Bravo, ogni GPC come sai è collegato a 64bit, x8 512bit, che in HBM equivalgono a 4096bit.
1 HBM (1024bit = 64bit in rapporto)
Per 32 bit DDR, hai l'equivalente di 512bit HBM (con ovviamente consumi minori).
6 stack HBM totali, sono equivalenti ad un bus da 768bit, ciù significa che il chip tesla ha stampate ben 160 rop's, nella classica rasterizzazione a 16 pixel.
Un TPC 4 pixel via SFU.:)
In sintesi, il chip dovrebbe essere collegato a 512bit o 4096bit HBM (4 CUBI), ma per maggiorare la banda, gli hanno scritto 2 collegamenti a vuoto.
Le rop's non possono essere utilizzate per via dei raster, la l2 si, ed i 2 stack HBM permettono una larghezza di banda superiore.
Per renderla ancora più semplice, ricordi Kepler con la 780:
4 raster
6 canali da 64bit.:)
Si, effettivamente il problema principale dell'MCM è la latenza verso la memoria. C'è il rischio di aumentare la pura potenza di calcolo.. ma se non si può sfruttare perché i dati non arrivano "in fretta", il gioco non vale la candela chiaramente (chissà come sono messi ora...:D)
Per curiosità, ti riferisci a questo link quando parli di L1 1.5m? (https://research.nvidia.com/sites/default/files/publications/ISCA_2017_MCMGPU.pdf)
Questa è la prima sperimentazione, in crisi totale, la l1,5, doveva coprire anche la l2, non condivisa, fattore fondamentale dei monolitici nvidia.:)
Nvidia non ha mai più rilasciato nulla, però, ora che anche Intel prenderà questa strada, AMD ed nvidia si dovranno adeguare.
Intel sta partendo con 512 EU (x8 core), 4096 shader, per poi passare a 16 core per EU, quindi 8000 cuda.
Di AMD si parla di una MI100, ma non capisco il senso, se paragonata ad una Tesla da 650:)
Vedendo molto velocemente, qui l'idea è simile a quanto hai detto tu: sgravare la L2 per ridurre le latenze nello scambio dati fra quelli che definiscono GPM (che mi sembra molto simili ai GPC... almeno a livello topologico)
Interessante ;)
Esatto:)
Si, la potenza lato Tensor è incredibile! Anche se, sinceramente, devo ancora capire quanto possa essere sfruttata per uso generico (mi devo documentare un po su come funziona lato Cuda :p )[/QUOTE]
Sicuramente ci sarà chi sfrutta tutta quella potenza per IA.:)
Sono davvero giganti e potenti. Ci hanno investito tantissimo.
Oltre 300tf fp16
Predator_1982
16-05-2020, 11:44
Azz, una devastazione epocale.:sofico: Fai il conto che nvlink e 12 collegamenti del TU102 occupavano 322mm2 su 754.
Cmq vai tranquillo che ti devasterà anche la versione gaming, solo che con un GPC aggiuntivo senza collegamento, forse a sto giro non tagliano la ram.:D
la scimmia inizia a far capolino
Predator_1982
16-05-2020, 11:46
Comunque il mio pronostico è ~1500$ una 3080ti custom caxxuta, fossi in loro la farei a liquido e basta, ad aria 3 ventole... uhm... e la Titan A a 5000$.
Fossero razionali farebbero solo la 3080 a 1000$ e rifare le versioni Ti a 5 nm con dimensioni e consumi standard, che si sono ficcati in un cul de sac mica male va...
i tempi di maxwell e pascal sono belli che andati.
io punterò, cosi come fatto con la serie 2xxx alla 3080 liscia, che mi auguro mantenga un prezzo in linea a quello dell'attuale 2080 super. In fase di rivendita con le top top top di gamma ci si perde sempre troppo. Ho un amico già prenotato che si prenderà la mia 2080 liscia founders edition :-D
freddye78
16-05-2020, 11:55
io punterò, cosi come fatto con la serie 2xxx alla 3080 liscia, che mi auguro mantenga un prezzo in linea a quello dell'attuale 2080 super. In fase di rivendita con le top top top di gamma ci si perde sempre troppo. Ho un amico già prenotato che si prenderà la mia 2080 liscia founders edition :-D
Io a sto giro non mi faccio fregare come capitatomi con la 2080, soppiantata dopo solo un anno dalla super.
Aspetterò un annetto per vedere se nvidia ripeterà o no questo scherzetto, prima di procedere all'acquisto della nuova gen
fraussantin
16-05-2020, 12:32
Io a sto giro non mi faccio fregare come capitatomi con la 2080, soppiantata dopo solo un anno dalla super.
Aspetterò un annetto per vedere se nvidia ripeterà o no questo scherzetto, prima di procedere all'acquisto della nuova genSì ma dopo un anno poi mancherà un anno a quella nuova.
Naaa valuta prezzo e prodotto.
Se ci metteranno la memoria doppia e sarà bella potente potrai andare tranquillo.
Diversamente aspetta
PS guarda Turing : alla fine la 2070 é quella che ne ha toccate di piú , ma 500\530 euro che sono costate al lancio dopo 1 anno sono state rimpiazzate da 2060s che costa 50\70 euro meno ma va un po' meno o da 2070S che costa 50\70 euro in piú e é effettivamente un bel po' migliore
Ma un anno dopo e piú vicino a ampere.
Alla fine Nvidia ha sfruttato le navi come una scusa per remischiare le carte ma alzare i prezzi facendo credere di averli abbassati.
Adesso la 3070 nuova verrà confrontata con la 2070s da 550 euro e non con la 2070 liscia da 490.
Quindi se sarà cara non lo sembrerà , se costerà un po' meno sembrerà un affare
C'é poco da fare , ne sanno una piú del diavolo.
OrazioOC
16-05-2020, 13:06
Adesso la 3070 nuova verrà confrontata con la 2070s da 550 euro e non con la 2070 liscia da 490.
Quindi se sarà cara non lo sembrerà , se costerà un po' meno sembrerà un affare
C'é poco da fare , ne sanno una piú del diavolo.
Quotone, anche a sto giro sono destinati ad alzare il prezzo di un'asticella, e non è detto che amd possa effettivamente migliorare la situazione.
Sicuramente ci sarà chi sfrutta tutta quella potenza per IA.:)
Sono davvero giganti e potenti. Ci hanno investito tantissimo.
Oltre 300tf fp16
Considera che l hardware è gia potente (inespresso) oggi con i cuda di vecchia generazione.
In futuro ci sara da divertirsi.
Bisogna ringraziare un piccolo genio nord europeo per aver dato alla luce il primo player che usa la precisione del calcolo cuda per sgravare la cpu dall annoso compito (che svolge male) e dare all esecuzione musicale cio che merita al pari delle migliori performance video. Tutte le risorse possibili basse latenze e massima precisione nei calcoli.
mikael84
16-05-2020, 13:19
Sì ma dopo un anno poi mancherà un anno a quella nuova.
Naaa valuta prezzo e prodotto.
Se ci metteranno la memoria doppia e sarà bella potente potrai andare tranquillo.
Diversamente aspetta
PS guarda Turing : alla fine la 2070 é quella che ne ha toccate di piú , ma 500\530 euro che sono costate al lancio dopo 1 anno sono state rimpiazzate da 2060s che costa 50\70 euro meno ma va un po' meno o da 2070S che costa 50\70 euro in piú e é effettivamente un bel po' migliore
Ma un anno dopo e piú vicino a ampere.
Alla fine Nvidia ha sfruttato le navi come una scusa per remischiare le carte ma alzare i prezzi facendo credere di averli abbassati.
Adesso la 3070 nuova verrà confrontata con la 2070s da 550 euro e non con la 2070 liscia da 490.
Quindi se sarà cara non lo sembrerà , se costerà un po' meno sembrerà un affare
C'é poco da fare , ne sanno una piú del diavolo.
Prima di acquistare, bisogna vedere come sono tagliati i chip. Se partono già laserati, c'è la quasi certa probabilità che faranno il refresh.
Esempio, se la 3080, parte da 3584cc su 3840cc, ci sarà un refresh full molto probabile.
Come seconda cosa, acquistare quando sia AMD che nvidia, hanno completato le fasce, in modo che il mercato sia allineato sia da una parte che dall'altra.
Considerando l'evolversi delle ram, non è escluso che sui refresh, o chip a caso, mettano ram più veloci, o addirittura la doppia densità.
fraussantin
16-05-2020, 13:30
Prima di acquistare, bisogna vedere come sono tagliati i chip. Se partono già laserati, c'è la quasi certa probabilità che faranno il refresh.
Esempio, se la 3080, parte da 3584cc su 3840cc, ci sarà un refresh full molto probabile.
Come seconda cosa, acquistare quando sia AMD che nvidia, hanno completato le fasce, in modo che il mercato sia allineato sia da una parte che dall'altra.
Considerando l'evolversi delle ram, non è escluso che sui refresh, o chip a caso, mettano ram più veloci, o addirittura la doppia densità.
É sempre lo stesso discorso , ci sarà piú stacco tra ampere 1 gen e refrash o tra refrash e Hopper(o quello che verrà dopo)?
Sempre un anno ci passerà. E i prezzi non saranno chiari. ( Per dire chi ha preso a 600\650 euro una 2080 ha fatto un "affare" visto che dopo un anno ci pigliavi la 2070S )
Certo se se ne escono con 8 giga anche a questo giro merita aspettare solo per quello.
Sull' aspettare amd sicuramente. Anche perché subito ci saranno le piú care FE.
Anche perché non é da escludere qualcosa di interessante anche se molti saranno bloccati con gsync.
TigerTank
16-05-2020, 13:37
Io a sto giro non mi faccio fregare come capitatomi con la 2080, soppiantata dopo solo un anno dalla super.
Aspetterò un annetto per vedere se nvidia ripeterà o no questo scherzetto, prima di procedere all'acquisto della nuova gen
Ma sì...tranquillo, non è che perchè è uscita la Super la tua ora fa schifo eh :D
Il suo potenziale lo mantiene sempre ed io sinceramente sono molto soddisfatto della mia.
Inoltre calcola che le lisce ce le siamo godute per un paio di annetti mentre le Super uscite dopo, impatteranno comunque con le nuove, con una vita complessiva ben più breve.
Ci sono pro e contro in ogni cosa.
É sempre lo stesso discorso , ci sarà piú stacco tra ampere 1 gen e refrash o tra refrash e Hopper(o quello che verrà dopo)?
Sempre un anno ci passerà. E i prezzi non saranno chiari. ( Per dire chi ha preso a 600\650 euro una 2080 ha fatto un "affare" visto che dopo un anno ci pigliavi la 2070S ).
Mai viste 2080 a 650 neppure le manli. CMQ il discorso va sempre contestualizzato alla risoluizione usata e ai motori grafici.
La potenza pari o superiore a un 2080 serve solo per il 4k. Poi vedremo i nuovi engine-mattoni come unnreal 5, quello usato in cyberpunk 2077.
amon.akira
16-05-2020, 13:54
Ma sì...tranquillo, non è che perchè è uscita la Super la tua ora fa schifo eh :D
Il suo potenziale lo mantiene sempre ed io sinceramente sono molto soddisfatto della mia.
Inoltre calcola che le lisce ce le siamo godute per un paio di annetti mentre le Super uscite dopo, impatteranno comunque con le nuove, con una vita complessiva ben più breve.
Ci sono pro e contro in ogni cosa.
esatto e ovviamente chi ha bisogno di piu potenza (io XD) è meglio che cambi subito, non ha senso aspettare il refresh che gli da quel 5% al max dalla v1
Io a sto giro non mi faccio fregare come capitatomi con la 2080, soppiantata dopo solo un anno dalla super.
Aspetterò un annetto per vedere se nvidia ripeterà o no questo scherzetto, prima di procedere all'acquisto della nuova gen
Si ma era prevedibile...
La 2080 già quando è uscita non era un chip full, quindi era scontato che uscisse qualcosa che sbloccasse tutte le unità cosi come qualcosa che riempisse il buco tra questa e la 2070 liscia riciclando tutti i chip fallati e monchi... Ma non è che ci sia tutto questo stacco, la 2070 Super è un chip persino più monco della 2080 liscia, stessa cosa per 2060 Super rispetto la 2070...
L'unico vantaggio al massimo è il prezzo, ma non è che sia calato così tanto...
TigerTank
16-05-2020, 14:00
Mai viste 2080 a 650 neppure le manli. CMQ il discorso va sempre contestualizzato alla risoluizione usata e ai motori grafici.
La potenza pari o superiore a un 2080 serve solo per il 4k. Poi vedremo i nuovi engine-mattoni come unnreal 5, quello usato in cyberpunk 2077.
Ma guarda, direi anche gli schermi da gaming di risoluzione inferiore ma con margine di spinta per quel che riguarda il framerate.
Ad esempio molti gamers multiplayer preferiscono ancora il fullHD ma con tipo 200Hz :D
fraussantin
16-05-2020, 14:05
Mai viste 2080 a 650 neppure le manli. CMQ il discorso va sempre contestualizzato alla risoluizione usata e ai motori grafici.
La potenza pari o superiore a un 2080 serve solo per il 4k. Poi vedremo i nuovi engine-mattoni come unnreal 5, quello usato in cyberpunk 2077.Sono abbastanza sicuro di averle viste postate sul 3d ufficiale in offerta su quei prezzi nei mesi subito successivi di quando presi la 2070 . Ma potrei sbagliarmi.
In ogni caso anche se fossero state 700 non hanno molto da pentirsi visto che a 100 euro meno dopo 6 mesi \1 anno trovavano un prodotto cmq inferiore.
2 anni si supporto driver pieno sono sempre meglio di 1 solo.
Sul discorso potenza va sempre in base a quello che uno vuole e non necessariamente legato al 4k che non credo proprio sia gestibile decentemente con una 2080.
Ma guarda, direi anche gli schermi da gaming di risoluzione inferiore ma con margine di spinta per quel che riguarda il framerate.
Ad esempio molti gamers multiplayer preferiscono ancora il fullHD ma con tipo 200Hz :D
Comunque la risoluzione si può ridurre anche se hai un pannello 4K.
Alcuni giochi hanno uno scaler interno nelle opzioni e infatti nel multiplayer è comodo per adattarsi alle varie situazioni.
L'unico intoppo è che a basse risoluzioni cpu e ram sono fondamentali forse anche più della GPU in certi engine.
Predator_1982
16-05-2020, 14:16
Ma sì...tranquillo, non è che perchè è uscita la Super la tua ora fa schifo eh :D
Il suo potenziale lo mantiene sempre ed io sinceramente sono molto soddisfatto della mia.
Inoltre calcola che le lisce ce le siamo godute per un paio di annetti mentre le Super uscite dopo, impatteranno comunque con le nuove, con una vita complessiva ben più breve.
Ci sono pro e contro in ogni cosa.
Quoto, e in ogni caso non parliamo di incrementi prestazionali tali da farti pentire dell’acquisto. Tra una 2080 e una 2080 super non è che ci sia chissà quale divario, tant’è vero che sullo store ufficiale una ha rimpiazzato l’altra, si tratta piuttosto di scelte atte a recuperare anche i chip partoriti nei primi tempi e con una resa peggiore...per poi continuare con i meglio costruiti presentandoli addirittura come “nuovo modello”..non si butta via nulla.
mikael84
16-05-2020, 15:27
É sempre lo stesso discorso , ci sarà piú stacco tra ampere 1 gen e refrash o tra refrash e Hopper(o quello che verrà dopo)?
Sempre un anno ci passerà. E i prezzi non saranno chiari. ( Per dire chi ha preso a 600\650 euro una 2080 ha fatto un "affare" visto che dopo un anno ci pigliavi la 2070S )
Certo se se ne escono con 8 giga anche a questo giro merita aspettare solo per quello.
Sull' aspettare amd sicuramente. Anche perché subito ci saranno le piú care FE.
Anche perché non é da escludere qualcosa di interessante anche se molti saranno bloccati con gsync.
Cmq il refresh vero è proprio è successo con fermi, per delle rese pessime (4xx/5xx).
Le super sono risposte ad AMD, o chiusura di chip full, che già esistevano inizialmente via quadro.
La 2070 super è la tesla T4.:)
Per la ram, il tutto fa intuire di si. in quanto, in base agli ultimi rumors, nvidia avrebbe introdotto una sorta di HBCC, per andare oltre i limiti ram. Con la doppia densità, ne avresti da buttare di ram.
PS: una domanda la faccio io, penso si aver capito bene, ma senza polemica, che diavolo vuol dire, che AMD, spesso va male per i giochi Gimpati nvidia.:confused:
Prima di acquistare, bisogna vedere come sono tagliati i chip. Se partono già laserati, c'è la quasi certa probabilità che faranno il refresh.
Esempio, se la 3080, parte da 3584cc su 3840cc, ci sarà un refresh full molto probabile.
Come seconda cosa, acquistare quando sia AMD che nvidia, hanno completato le fasce, in modo che il mercato sia allineato sia da una parte che dall'altra.
Considerando l'evolversi delle ram, non è escluso che sui refresh, o chip a caso, mettano ram più veloci, o addirittura la doppia densità.
Io di questo sono convinto, se non lo farà nvidia ufficialmente lo faranno i partner con le varianti custom.
Però è da vedere se effettivamente offra dei vantaggi data l'introduzione di NVCache, penso che quantitativi cosi importanti di vram inizieranno a essere fondamentali solo con prossimi titoli qualora integreranno texture di alto livello in 4K/8K.
mikael84
16-05-2020, 16:27
Io di questo sono convinto, se non lo farà nvidia ufficialmente lo faranno i partner con le varianti custom.
Però è da vedere se effettivamente offra dei vantaggi data l'introduzione di NVCache, penso che quantitativi cosi importanti di vram inizieranno a essere fondamentali solo con prossimi titoli qualora integreranno texture di alto livello in 4K/8K.
Diciamo che le ram ci sono, scuse non ce ne sono.
L'aver introdotto (che poi è da vedere), quella modalità, fa ben capire dove vogliono parare, anche per distanziare le quadro.
Le custom potrebbero farlo, anche per via dei TDP, bisogna anche considerare che il doppio della memoria, porta a consumi più elevati, e se hanno intensione di metterci quei tensor, sarà un bagno di sangue, a livello di silicio.:)
fraussantin
16-05-2020, 16:50
Cmq il refresh vero è proprio è successo con fermi, per delle rese pessime (4xx/5xx).
Le super sono risposte ad AMD, o chiusura di chip full, che già esistevano inizialmente via quadro.
La 2070 super è la tesla T4.:)
Per la ram, il tutto fa intuire di si. in quanto, in base agli ultimi rumors, nvidia avrebbe introdotto una sorta di HBCC, per andare oltre i limiti ram. Con la doppia densità, ne avresti da buttare di ram.
PS: una domanda la faccio io, penso si aver capito bene, ma senza polemica, che diavolo vuol dire, che AMD, spesso va male per i giochi Gimpati nvidia.:confused:
ma questo sarà solo per le nuove? immagino di si!
cmq giusto per zittire quel demente di Sweeney che fra ieri e oggi ne ha sparate abbastanza XD
mikael84
16-05-2020, 18:22
ma questo sarà solo per le nuove? immagino di si!
cmq giusto per zittire quel demente di Sweeney che fra ieri e oggi ne ha sparate abbastanza XD
Si, purtroppo è introdotto via hardware.:)
ma questo sarà solo per le nuove? immagino di si!
cmq giusto per zittire quel demente di Sweeney che fra ieri e oggi ne ha sparate abbastanza XD
Scusa ma perché?
E' un evento sponsorizzato da Sony non è che poteva dire che la demo in realtà girava su PC (anche se è inevitabilmente uscito fuori) e che non c'è magia nera nell'SSD.
E' marketing dai.
fraussantin
16-05-2020, 18:29
Scusa ma perché?
E' un evento sponsorizzato da Sony non è che poteva dire che la demo in realtà girava su PC (anche se è inevitabilmente uscito fuori) e che non c'è magia nera nell'SSD.
E' marketing dai.Lui é fuori di testa , a prescindere da quelle dichiarazioni. Lo ha dimostrato piú volte
OrazioOC
16-05-2020, 18:46
Si ma qui il punto è un altro, un pc che possa eguagliare le caratteristiche tecniche di quelle console ad oggi, mi costerebbe un migliaio di euro(ryzen 7 3700, 16gb ddr4, rx 5700, ssd 512 ecc...).
Se queste console costeranno 500 euro, io una gpu che tenga testa ad una ps5 non la vorrei pagare più di 300 euro a fine 2020/inzio 2021.
Nel 2013 per eguagliare una ps4 o xbox one bastavano delle gtx 660 o delle 7850/r9 270, schede che costavano la metà di quelle console, mentre ora per eguagliarle servirebbero 450 euro per una 2060 super e 400 euro per una 5700, allucinante.
O amd e nvidia danno uno strappo netto con questa nuova gen, oppure finisce la masterrace.:rolleyes:
https://i.postimg.cc/qRRtVfs8/LOL.jpg
Si ma qui il punto è un altro, un pc che possa eguagliare le caratteristiche tecniche di quelle console ad oggi, mi costerebbe un migliaio di euro(ryzen 7 3700, 16gb ddr4, rx 5700, ssd 512 ecc...).
Se queste console costeranno 500 euro, io una gpu che tenga testa ad una ps5 non la vorrei pagare più di 300 euro a fine 2020/inzio 2021.
Nel 2013 per eguagliare una ps4 o xbox one bastavano delle gtx 660 o delle 7850/r9 270, schede che costavano la metà di quelle console, mentre ora per eguagliarle servirebbero 450 euro per una 2060 super e 400 euro per una 5700, allucinante.
O amd e nvidia danno uno strappo netto con questa nuova gen, oppure finisce la masterrace.:rolleyes:Bhe mi sembra normale visto che non sono uscite ancora...
Per quando usciranno avremo ampere, ryzen 4000 (dai rumors +20% di IPC) e quant'altro e a distanza di un anno nel 2022 avremo Intel come terzo competitor, memorie ddr5, pcie 5.0...
Insomma queste console sembrano tanta roba ora, ma nulla di che se si osserva ai cambiamenti dei pc...
Tra l'altro non é nulla che non si sia visto anche in passato, si diceva qualcosa di simile con PS4 pro e Xbox che montano GPU simili in performance a 570/580 ma non é che si sia visto tutto questo incremento rispetto al PC...
Quindi mi farei pochi problemi a riguardo...
Semmai é più utile osservare l'evoluzione degli engine e i futuri giochi in attesa...
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
OrazioOC
16-05-2020, 19:04
Bhe mi sembra normale visto che non sono uscite ancora...
Per quando usciranno avremo ampere, ryzen 4000 (dai rumors +20% di IPC) e quant'altro e a distanza di un anno nel 2022 avremo Intel come terzo competitor, memorie ddr5, pcie 5.0...
Insomma queste console sembrano tanta roba ora, ma nulla di che se si osserva ai cambiamenti dei pc...
Tra l'altro non é nulla che non si sia visto anche in passato, si diceva qualcosa di simile con PS4 pro Xbox che montano GPU simili in performance a 570/580 ma non é che si sia visto tutto questo incremento rispetto al PC...
Quindi mi farei pochi problemi a riguardo...
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Il problema è che le console attuali hanno sempre delle cpu lentine, qui invece si parla di un simil 3700x, una cpu che ad oggi schianterebbe il 90% dei pc in circolazione.
Fino ad oggi si tirava dritto anche con un sandy bridge ben cloccato, ma qui anche chi ha una cpu recente come il 3600 o un 8700k rischia di avere problemi, magari non quest'anno con i capitoli di transizione, ma in un futuro prossimo è probabile.
Il problema è che le console attuali hanno sempre delle cpu lentine, qui invece si parla di un simil 3700x, una cpu che ad oggi schianterebbe il 90% dei pc in circolazione.
Fino ad oggi si tirava dritto anche con un sandy bridge ben cloccato, ma qui anche chi ha una cpu recente come il 3600 o un 8700k rischia di avere problemi, magari non quest'anno con i capitoli di transizione, ma in un futuro prossimo è probabile.Assolutamente no le CPU di Xbox e Ps5 non sono paragonabili a un 3700x, innanzitutto si basano su Renoir quindi hai solo 8mb di cache contro i 32mb di un 3700x, clock decisamente più bassi e che per questioni termiche sarà scelta del dev se lasciare attivo l'smt e avere un clock in st minore o disattivarlo per migliorare i clock, dove in entrambi i casi i clock sono notevolmente più bassi delle versioni pc... Quindi come potenza bruta puoi paragonarle a un 3600 al massimo ...
E parliamo di console ancora non uscite é che vedremo tra un anno...
Discorso simile per la GPU.
Ma é nornalissimo, le console per ovvie ragioni non possono avere un hardware aggiornatissimo dal day One, e il fatto di aver dato le specifiche con quasi 1 anno e e più di anticipo é una mossa decisamente commerciale, soprattutto se si considera che con quell'hardware dovranno farsi almeno 3-4 anni.
Ma é un discorso molto complesso e rindondante, dove ad ogni gen di console si sentono le medesime cose...
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
amon.akira
16-05-2020, 19:24
Si ma qui il punto è un altro, un pc che possa eguagliare le caratteristiche tecniche di quelle console ad oggi, mi costerebbe un migliaio di euro(ryzen 7 3700, 16gb ddr4, rx 5700, ssd 512 ecc...).
Se queste console costeranno 500 euro, io una gpu che tenga testa ad una ps5 non la vorrei pagare più di 300 euro a fine 2020/inzio 2021.
Nel 2013 per eguagliare una ps4 o xbox one bastavano delle gtx 660 o delle 7850/r9 270, schede che costavano la metà di quelle console, mentre ora per eguagliarle servirebbero 450 euro per una 2060 super e 400 euro per una 5700, allucinante.
O amd e nvidia danno uno strappo netto con questa nuova gen, oppure finisce la masterrace.:rolleyes:
rifai il carrello a fine anno :asd:
OrazioOC
16-05-2020, 19:36
Assolutamente no le CPU di Xbox e Ps5 non sono paragonabili a un 3700x, innanzitutto si basano su Renoir quindi hai solo 8mb di cache contro i 32mb di un 3700x, clock decisamente più bassi e che per questioni termiche sarà scelta del dev se lasciare attivo l'smt e avere un clock in st minore o disattivarlo per migliorare i clock, dove in entrambi i casi i clock sono notevolmente più bassi delle versioni pc... Quindi come potenza bruta puoi paragonarle a un 3600 al massimo ...
E parliamo di console ancora non uscite é che vedremo tra un anno...
Discorso simile per la GPU.
Ma é nornalissimo, le console per ovvie ragioni non possono avere un hardware aggiornatissimo dal day One, e il fatto di aver dato le specifiche con quasi 1 anno e e più di anticipo é una mossa decisamente commerciale, soprattutto se si considera che con quell'hardware dovranno farsi almeno 3-4 anni.
Ma é un discorso molto complesso e rindondante, dove ad ogni gen di console si sentono le medesime cose...
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Insomma, hanno 1/4 della l3, ma numero di core, ipc e frequenza di base sono quelle, senza contare che avranno una ram di sistema più veloce di un pc classico, io non sono così ottimista che un 3600 gli tenga testa.
Sulle gpu, amd e nvidia dovranno migliorare di molto il rapporto prezzo/performance per salvare il gaming su pc, partendo dal fatto che una 5700 la paghi oggi quasi 400 euro e la corrispettiva nvidia 450 euro, costano praticamente come il prezzo preventivato nei leaks delle console.
La 3060 spuntata fuori da alcuni leaks, quella con 1920 cc e 6gb di vram, potrebbe andare come una 2070, alla meglio come una 2070 super, ma non puoi darmela allo street price della 2060 che costa 350 euro oggi.:rolleyes:
Insomma, hanno 1/4 della l3, ma numero di core, ipc e frequenza di base sono quelle, senza contare che avranno una ram di sistema più veloce di un pc classico, io non sono così ottimista che un 3600 gli tenga testa.
Sulle gpu, amd e nvidia dovranno migliorare di molto il rapporto prezzo/performance per salvare il gaming su pc, partendo dal fatto che una 5700 la paghi oggi quasi 400 euro e la corrispettiva nvidia 450 euro, costano praticamente come il prezzo preventivato nei leaks delle console.
La 3060 spuntata fuori da alcuni leaks, quella con 1920 cc e 6gb di vram, potrebbe andare come una 2070, alla meglio come una 2070 super, ma non puoi darmela allo street price della 2060 che costa 350 euro oggi.:rolleyes:
Direi di rimandare il discorso a quando le console saranno effettivamente sul mercato sopratutto per la questione prezzi ;)
nicola1283
16-05-2020, 19:46
Assolutamente no le CPU di Xbox e Ps5 non sono paragonabili a un 3700x, innanzitutto si basano su Renoir quindi hai solo 8mb di cache contro i 32mb di un 3700x, clock decisamente più bassi e che per questioni termiche sarà scelta del dev se lasciare attivo l'smt e avere un clock in st minore o disattivarlo per migliorare i clock, dove in entrambi i casi i clock sono notevolmente più bassi delle versioni pc... Quindi come potenza bruta puoi paragonarle a un 3600 al massimo ...
E parliamo di console ancora non uscite é che vedremo tra un anno...
Discorso simile per la GPU.
Ma é nornalissimo, le console per ovvie ragioni non possono avere un hardware aggiornatissimo dal day One, e il fatto di aver dato le specifiche con quasi 1 anno e e più di anticipo é una mossa decisamente commerciale, soprattutto se si considera che con quell'hardware dovranno farsi almeno 3-4 anni.
Ma é un discorso molto complesso e rindondante, dove ad ogni gen di console si sentono le medesime cose...
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Insomma, hanno 1/4 della l3, ma numero di core, ipc e frequenza di base sono quelle, senza contare che avranno una ram di sistema più veloce di un pc classico, io non sono così ottimista che un 3600 gli tenga testa.
Sulle gpu, amd e nvidia dovranno migliorare di molto il rapporto prezzo/performance per salvare il gaming su pc, partendo dal fatto che una 5700 la paghi oggi quasi 400 euro e la corrispettiva nvidia 450 euro, costano praticamente come il prezzo preventivato nei leaks delle console.
La 3060 spuntata fuori da alcuni leaks, quella con 1920 cc e 6gb di vram, potrebbe andare come una 2070, alla meglio come una 2070 super, ma non puoi darmela allo street price della 2060 che costa 350 euro oggi.:rolleyes:
D' accordissimo con Ubro
Assolutamente no le CPU di Xbox e Ps5 non sono paragonabili a un 3700x, innanzitutto si basano su Renoir quindi hai solo 8mb di cache contro i 32mb di un 3700x, clock decisamente più bassi e che per questioni termiche sarà scelta del dev se lasciare attivo l'smt e avere un clock in st minore o disattivarlo per migliorare i clock, dove in entrambi i casi i clock sono notevolmente più bassi delle versioni pc... Quindi come potenza bruta puoi paragonarle a un 3600 al massimo ...
E parliamo di console ancora non uscite é che vedremo tra un anno...
Discorso simile per la GPU.
Ma é nornalissimo, le console per ovvie ragioni non possono avere un hardware aggiornatissimo dal day One, e il fatto di aver dato le specifiche con quasi 1 anno e e più di anticipo é una mossa decisamente commerciale, soprattutto se si considera che con quell'hardware dovranno farsi almeno 3-4 anni.
Ma é un discorso molto complesso e rindondante, dove ad ogni gen di console si sentono le medesime cose...
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Hai ragionissima, è quello che ripeto ciclicamente ad ogni uscita console :asd:
Insomma, hanno 1/4 della l3, ma numero di core, ipc e frequenza di base sono quelle, senza contare che avranno una ram di sistema più veloce di un pc classico, io non sono così ottimista che un 3600 gli tenga testa.
Soprattutto nei giochi, la cache ha un ruolo importantissimo nelle prestazioni. Non è un caso che ci sia stato questo salto enorme con la nuova gen.
Sulle gpu, amd e nvidia dovranno migliorare di molto il rapporto prezzo/performance per salvare il gaming su pc, partendo dal fatto che una 5700 la paghi oggi quasi 400 euro e la corrispettiva nvidia 450 euro, costano praticamente come il prezzo preventivato nei leaks delle console.
La 3060 spuntata fuori da alcuni leaks, quella con 1920 cc e 6gb di vram, potrebbe andare come una 2070, alla meglio come una 2070 super, ma non puoi darmela allo street price della 2060 che costa 350 euro oggi.:rolleyes:
La 5700 costa tanto perchè AMD non aveva concorrenza in quella fascia. O meglio, la concorrenza costava molto di più. Far pagare 400 euro una scheda da 250mm² tirata per il collo è geniale dal punto di vista economico.
È il vantaggio di essere un nodo avanti. Ed è quello che ha fatto nVidia quando era avanti lato architettura.
Ovviamente le cose cambieranno quando anche nVidia avrà il nuovo processo produttivo, e vedremo la vera new gen su 7nm+, con conseguente calo di prezzi.
fraussantin
16-05-2020, 21:50
La 5700 costa tanto perchè AMD non aveva concorrenza in quella fascia. O meglio, la concorrenza costava molto di più. Far pagare 400 euro una scheda da 250mm² tirata per il collo è geniale dal punto di vista economico.
È il vantaggio di essere un nodo avanti.
Beh geniale fino ad un certo punto vista come è andata a finire.
Cmq i componenti PC costano tutti di più in tutte le categorie eccetto le cose che hanno tanta concorrenza perchè facili da produrre.
Guarda le mobo spropositate le x570 , arrivano le z490 che costano ancora di più e senza 4.0. (solo la predisposizione sugli slot diretti e solo su alcune)
Ho visto gli i9 a 750 euro su Amazon. Se la musica è quella i ryzen 4000 costeranno ancora più cari dei 3000 che non sono cheap.
Ale55andr0
16-05-2020, 23:25
Insomma, hanno 1/4 della l3, ma numero di core, ipc e frequenza di base sono quelle
ehm, la cache L3 devastata l'ipc lo abbassa di un (bel) tot non è che la seghi e vai uguale eh, allora potevano risparmiarselo tutto quel silicio che richiede pure sulla CPU desktop :sofico:... e no, non hanno le frequenze del 3700x manco per sbaglio, quello fa almeno 4.2ghz sotto carico (la frequenza base è sempre superata): PS5 3.5ghz "variabili" (verso il basso :asd:) e quello di series x 3.8 ma... solo a thread singoli, in multithread scende 3.6, e sono le frequenze massime, non le base...ergo ci sta meno ipc per via della cache segata e nel caso migliore da 400 a 700mhz (e oltre, a discrezione del power budget di truffstation5 :asd:) in meno per core... :fagiano:
Comunque per una console anche con questi handicap restano gran cpu e un balzo ABNORME dal jaguar precedente :)
E con la ram prima e la gpu poi (di ps5 più che altro) che sono state più taccagne. Potevano stare un bus a 320bit con 20gb di ram e 560gb di banda dal primo all'ultimo megabyte e mantenersi sui 12-13tflop entrambe invece che 12.1 e 9.qualcosa effettivi (dear sony :rolleyes:)
mikael84
17-05-2020, 00:56
ehm, la cache L3 devastata l'ipc lo abbassa di un (bel) tot non è che la seghi e vai uguale eh, allora potevano risparmiarselo tutto quel silicio che richiede pure sulla CPU desktop :sofico:... e no, non hanno le frequenze del 3700x manco per sbaglio, quello fa almeno 4.2ghz sotto carico (la frequenza base è sempre superata): PS5 3.5ghz "variabili" (verso il basso :asd:) e quello di series x 3.8 ma... solo a thread singoli, in multithread scende 3.6, e sono le frequenze massime, non le base...ergo ci sta meno ipc per via della cache segata e nel caso migliore da 400 a 700mhz (e oltre, a discrezione del power budget di truffstation5 :asd:) in meno per core... :fagiano:
Comunque per una console anche con questi handicap restano gran cpu e un balzo ABNORME dal jaguar precedente :)
E con la ram prima e la gpu poi (di ps5 più che altro) che sono state più taccagne. Potevano stare un bus a 320bit con 20gb di ram e 560gb di banda dal primo all'ultimo megabyte e mantenersi sui 12-13tflop entrambe invece che 12.1 e 9.qualcosa effettivi (dear sony :rolleyes:)
Faccio un piccolo OT.
Teoricamente è così, considerando le alte latenze ram, la L3, l'hanno ampliata proprio per sgravare in parte l'accesso ram. Tanti dati che dovrebbero passare in ram, passano prima per la l3, che ha un'accesso 7 volte minore ed una banda ampliata oltre 10 volte.
Il vero salto IPC è la l1 raddoppiata in banda (1tb/s vs 2tb/s), a sto giro al pari degli intel i9.:)
Un pò come fece Haswell post ivy bridge.:)
Chiudo
Si ma qui il punto è un altro, un pc che possa eguagliare le caratteristiche tecniche di quelle console ad oggi, mi costerebbe un migliaio di euro(ryzen 7 3700, 16gb ddr4, rx 5700, ssd 512 ecc...).
Se queste console costeranno 500 euro, io una gpu che tenga testa ad una ps5 non la vorrei pagare più di 300 euro a fine 2020/inzio 2021.
Nel 2013 per eguagliare una ps4 o xbox one bastavano delle gtx 660 o delle 7850/r9 270, schede che costavano la metà di quelle console, mentre ora per eguagliarle servirebbero 450 euro per una 2060 super e 400 euro per una 5700, allucinante.
Non cambierà nulla, semplice evoluzione. Certo, schede con ram e bus troppo vecchie saranno neutralizzate.
Se i giochi PC si evolvessero sempre in base all'hardware (come succedeva ai tempi di F.E.A.R , Oblivion, sarebbe molto meglio.:)
Un sandy bridge che ancora tiene, significa appunto, che non c'è stata una grossa evoluzione in 10 anni, però c'è chi ha speso per CPU mediamente potenti, e non può neppure "giocare" solo al 3dmark.:p
O amd e nvidia danno uno strappo netto con questa nuova gen, oppure finisce la masterrace.:rolleyes:
Non cambierà nulla, figurati se tutti gli appassionati PC, accettano condizioni estreme, tipo i 30fps.:) Cambierei completamente hobby.
Cmq, alla fine, è la stessa situazione della PS4 (chip tra 7850/7870), ora 5700 oc, un pò come ai tempi una 7850 ben occata.
Certo come detto su, a lungo andare, chi si ritrova PC preistorici, potrebbe per varie limitazioni essere tagliato fuori.
Stiamo andando avanti con un chip che in geometria e tassellazione è più scarso di una GTX 570. Sarà pure ora di cambiare.
3 anni fa, c'è gente che ha speso 6/7/800 euro, per una scheda più potente della ps5, sopratutto in geometria.:)
fraussantin
17-05-2020, 07:48
Non cambierà nulla, figurati se tutti gli appassionati PC, accettano condizioni estreme, tipo i 30fps.:) Cambierei completamente hobby.
.:)
Cmq non ti credere in molti ci stanno pensando. Ovviamente non parlo del cliente da 2080ti , ma quello che ha una 1060 o meno
Vedi Microsoft sta spingendo ad ogni costo per far accumulate titoli e abbonamenti crossplatform non a caso. Il pass a quei prezzi è pura follia economicamente parlando
Anche sony sta cercando di fidelizzare alcuni utenti PC facendogli provare HZW sperando che gli piaccia e si prendano la ps5 per il 2.
Quei 30 fps sono l'unico grosso scoglio , anzi secondo me una vera e propria idiozia vista la potenza . Bastava poter fare scegliere un setup medio come dettagli.
Ma in tanti affiancheranno una console al loro PC obsoleto per i titoli esclusivi , e a quel punto anche per i titoli pesanti.
Non dico subito , ma al primo sconto con gioco incluso ..
Cmq non ti credere in molti ci stanno pensando. Ovviamente non parlo del cliente da 2080ti , ma quello che ha una 1060 o meno
Vedi Microsoft sta spingendo ad ogni costo per far accumulate titoli e abbonamenti crossplatform non a caso. Il pass a quei prezzi è pura follia economicamente parlando
Anche sony sta cercando di fidelizzare alcuni utenti PC facendogli provare HZW sperando che gli piaccia e si prendano la ps5 per il 2.
Quei 30 fps sono l'unico grosso scoglio , anzi secondo me una vera e propria idiozia vista la potenza . Bastava poter fare scegliere un setup medio come dettagli.
Ma in tanti affiancheranno una console al loro PC obsoleto per i titoli esclusivi , e a quel punto anche per i titoli pesanti.
Non dico subito , ma al primo sconto con gioco incluso ..
Dipende anche dalla persona, fondamentalmente per le esclusive gli appassionati hanno sempre accostato la console al pc, anche io attualmente ho una Nintendo Switch per le esclusive Nintendo e di certo non mi giocherò il remake di Crysis su Switch :fagiano:
Poi l'ecosistema console segue leggi molto fisse, non c'è l'online gratuito ma devi abbonarti, le offerte e il costo dei giochi è palesemente diverso sopratutto se si considerano i negozi di key, poi nel caso di Nintendo il costo del digitale supera persino quello delle copie fisiche...
C'è anche un discorso molto complesso sulla struttura dei giochi che sono completamente chiusi, non puoi quindi modificare parametri come risoluzione e dettagli il che strozza di molto i titoli delle console precedenti, al contrario su pc anche un gioco di 20 anni fa puoi scalarlo in 4K mettere su reshade, qualche texture pack, per non parlare degli emulatori...
Quindi chi accetta una console come piattaforma principale probabilmente ha ponderato l'idea di avere una piattaforma semplice del tipo "punta e gioca" senza troppi giri tralasciando il discorso dettagli grafici e framerate.
Poi non vorrei dire ma una 1060 oggi va quanto un chippetto come la 1650 Super e con la prossima gen saremo a livelli da entry level e GPU in stile office come la GT 1030 :sofico:
Oramai anche in ambito notebook si è alzata molto l'asticella delle performance un chip come la MX350 è praticamente una GTX 1050.
fraussantin
17-05-2020, 09:33
Poi non vorrei dire ma una 1060 oggi va quanto un chippetto come la 1650 Super e con la prossima gen saremo a livelli da entry level e GPU in stile office come la GT 1030 :sofico:
.
Quello che intendevo è appunto che l'utente con una una 1060 e un 6600k oggi si trova un PC completamente obsoleto e uno scoglio da 1000\1500 euro per fare un upgrade decente.
È altamente probabile che si tenga il PC per csgo ,fortnite o warzone e ci abbini una console per i single player più tosti.
Anche invogliato a farlo per le esclusive .
Tu hai una switch e vabbè con quella non ci fai nulla ok , ma se invece di una switch avessi una ps5 ,magari comprata per le esclusive ,con un PC tipo quello descritto sopra tu su quale piattaforma prenderesti assassin creed vallahalla?
Bi7hazard
17-05-2020, 09:44
dopo la 1650 c'è qualche rumor su una probabile nuova gpu a max 75w che si alimenti tramite pci express?
Quello che intendevo è appunto che l'utente con una una 1060 e un 6600k oggi si trova un PC completamente obsoleto e uno scoglio da 1000\1500 euro per fare un upgrade decente.
È altamente probabile che si tenga il PC per csgo ,fortnite o warzone e ci abbini una console per i single player più tosti.
Anche invogliato a farlo per le esclusive .
Tu hai una switch e vabbè con quella non ci fai nulla ok , ma se invece di una switch avessi una ps5 ,magari comprata per le esclusive ,con un PC tipo quello descritto sopra tu su quale piattaforma prenderesti assassin creed vallahalla?
Ma è un discorso molto NI...
Considera che oramai già iniziano a vedersi soluzioni notebook con 1660ti e 4800H intorno ai 1000€: QUI (https://www.amazon.it/ASUS-FX506IU-BQ138-Notebook-Anti-Glare-operativo/dp/B086VPB4X9/ref=sr_1_2?__mk_it_IT=%C3%85M%C3%85%C5%BD%C3%95%C3%91&dchild=1&keywords=4800h&qid=1589701041&sr=8-2)
Un pc come quello che hai descritto, ovvero 4c/4t e una 1060 è praticamente preistoria...
fraussantin
17-05-2020, 09:52
Ma è un discorso molto NI...
Considera che oramai già iniziano a vedersi soluzioni notebook con 1660ti e 4800H intorno ai 1000: QUI (https://www.amazon.it/ASUS-FX506IU-BQ138-Notebook-Anti-Glare-operativo/dp/B086VPB4X9/ref=sr_1_2?__mk_it_IT=%C3%85M%C3%85%C5%BD%C3%95%C3%91&dchild=1&keywords=4800h&qid=1589701041&sr=8-2)
Un pc come quello che hai descritto, ovvero 4c/4t e una 1060 è praticamente preistoria...
Mi so spiegato male xD
Appunto perchè è preistoria oggi va cambiato ( e sono tanti ad essere così perchè chi aveva pascal ha saltato Turing ) e ci vonno tanti soldi..
Se quello poi una console se vuole pigliare cmq lascerà perdere il PC almeno per un po'.
PS guarda lo steam survey e vedi che la maggior parte dell'utenza ha 4 core o meno , e una serie 1000.
Tutti PC che dovranno essere aggiornati a breve.
dopo la 1650 c'è qualche rumor su una probabile nuova gpu a max 75w che si alimenti tramite pci express?
Se ne parla nel 2021, le prime soluzioni saranno i chip gaming veri e propri dalla 3070 in su...
Mi so spiegato male xD
Appunto perchè è preistoria oggi va cambiato ( e sono tanti ad essere così perchè chi aveva pascal ha saltato Turing ) e ci vonno tanti soldi..
Se quello poi una console se vuole pigliare cmq lascerà perdere il PC almeno per un po'.
PS guarda lo steam survey e vedi che la maggior parte dell'utenza ha 4 core o meno , e una serie 1000.
Tutti PC che dovranno essere aggiornati a breve.
Su questo siamo d'accordo, anche io devo completamente rifare il pc, ma per pensare a una console devi anche tenere conto di come sia fatto l'ecosistema delle stesse che è molto diverso dal settore PC...
OrazioOC
17-05-2020, 09:59
Non cambierà nulla, figurati se tutti gli appassionati PC, accettano condizioni estreme, tipo i 30fps.:) Cambierei completamente hobby.
Cmq, alla fine, è la stessa situazione della PS4 (chip tra 7850/7870), ora 5700 oc, un pò come ai tempi una 7850 ben occata.
Certo come detto su, a lungo andare, chi si ritrova PC preistorici, potrebbe per varie limitazioni essere tagliato fuori.
Stiamo andando avanti con un chip che in geometria e tassellazione è più scarso di una GTX 570. Sarà pure ora di cambiare.
3 anni fa, c'è gente che ha speso 6/7/800 euro, per una scheda più potente della ps5, sopratutto in geometria.:)
Per chi è disposto a spendere 600/700 euro nella sola gpu non gli cambia nulla, ma prova a dirlo a chi il pc se lo fa con quel budget o poco più.
Le build di fascia media e medio/bassa fino ad oggi sono 6 core economici(ryzen 5 1600/2600 o i5 9400f), 8/16gb ddr4, ssd 250gb e una rx 580 o gtx 1060.
E non mi sembra che ci sia stato un miglioramento notevole negli anni, con 250 euro nella sola gpu oggi prendi una 1660 super o una rx 5500 xt, schede che sono nei migliori casi superiori del 25% circa rispetto alle schede che sostituiscono come streetprice.
Però con questa build una ps4 anche pro l'outperformi, ma non riesci neanche ad avvicinarti a queste nuove console.
Io dubito in modo fortissimo che nvidia sia pronta per dare una simil 2070 o 2070 super sotto i 300 euro con ampere, o che amd droppi significativamente il prezzo della rx 5700 xt(ad oggi a più di 400 euro).
Probabilmente ci troveremo una 3060 sostituta delle 2060 con quelle performance, ma allo stesso prezzo di quest'ultima, cioè 350 euro, con amd che si adeguerà per offrire un rapporto performance/prezzo simile o leggermente migliore.
Passare da una 1060 a una 1660 Super è come passare dalla 970 alla 980ti non mi sembra uno schifo considerando la spesa...
E le prossime GPU come la 2660 prive di tensor core non credo siano molto sotto a una 1080ti... e credo che passare da 1060 al target prestazionale di 1080ti sia un salto marcato...
OrazioOC
17-05-2020, 10:07
Passare da una 1060 a una 1660 Super è come passare dalla 970 alla 980ti non mi sembra uno schifo considerando la spesa...
E le prossime GPU come la 2660 prive di tensor core non credo siano molto sotto a una 1080ti...
Più dalla 980 alla 980 ti, parliamo di un 25/30% circa di differenza.
Il problema è ampere per com'è stato leakkato, parlano di performance migliori del 20% in raster, e se quella sarà la 3060(1920 cc, bus 192 bit e 6gb gddr6) è praticamente una 2060 boostata del 20%, superi la 2060 super e la 2070, avvicinandoti alla 2070 super che però rimarrà superiore.
Questo chip sarebbe ottimo se paragonato alla 1660 ti con tu116, ma un conto è prezzarmela come una 1660 super o ti, un altro come una 2060.
O che in nvidia faranno un passo indietro riportando la serie XX60 sotto i 300 euro, oppure ci teniamo una fascia media drasticamente sovraprezzata.
Più dalla 980 alla 980 ti, parliamo di un 25/30% circa di differenza.
Il problema è ampere per com'è stato leakkato, parlano di performance migliori del 20% in raster, e se quella sarà la 3060(1920 cc, bus 192 bit e 6gb gddr6) è praticamente una 2060 boostata del 20%, superi la 2060 super e la 2070, avvicinandoti alla 2070 super che però rimarrà superiore.
Questo chip sarebbe ottimo se paragonato alla 1660 ti con tu116, ma un conto è prezzarmela come una 1660 super o ti, un altro come una 2060.
O che in nvidia faranno un passo indietro riportando la serie XX60 sotto i 300 euro, oppure ci teniamo una fascia media drasticamente sovraprezzata.
Ma come si fa a parlare di prezzi overprezzati su schede non ancora uscite e che vedranno la luce nel 2021?
Se vogliamo basarci sulla storia di Turing la 2060 con tensor core costava tra i 300-350€ all'uscita (meno di oggi) e con le 1080 che qualche mese prima costavano sui 500€ (non a caso sui mercatini sono successe polemiche di tutti i tipi per le 1070/980ti vendute a 250€).
Anche la 1660ti (persino migliore della 1660Super) al suo esordio si trovava sui 250€...
Quindi su quale base storica o rumors le nuove schede dovrebbero costare di più? Sopratutto in una fascia media dove da sempre è quella con il mercato più competitivo.
nicola1283
17-05-2020, 10:23
Questo 3d sta diventando un po' come il fantacalcio :asd:
Ton90maz
17-05-2020, 10:24
Assolutamente no le CPU di Xbox e Ps5 non sono paragonabili a un 3700x, innanzitutto si basano su Renoir quindi hai solo 8mb di cache contro i 32mb di un 3700x, clock decisamente più bassi e che per questioni termiche sarà scelta del dev se lasciare attivo l'smt e avere un clock in st minore o disattivarlo per migliorare i clock, dove in entrambi i casi i clock sono notevolmente più bassi delle versioni pc... Quindi come potenza bruta puoi paragonarle a un 3600 al massimo ...
E parliamo di console ancora non uscite é che vedremo tra un anno...
Discorso simile per la GPU.
Ma é nornalissimo, le console per ovvie ragioni non possono avere un hardware aggiornatissimo dal day One, e il fatto di aver dato le specifiche con quasi 1 anno e e più di anticipo é una mossa decisamente commerciale, soprattutto se si considera che con quell'hardware dovranno farsi almeno 3-4 anni.
Ma é un discorso molto complesso e rindondante, dove ad ogni gen di console si sentono le medesime cose...
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Un test sull'ipc ancora mi manca (qualcuno ne ha trovato uno?), ma anche col tdp segato, non saranno dei 3700x ma in alcuni contesti i vari 4800/4900 H/HS impensieriscono e battono anche il 2700x.
Ma il punto non è questo. Se sfruttassero queste nuove cpu per realizzare dei giochi pesantissimi che a malapena vanno a 30/60 fps (che siano dei 3700x, 2700x o poco meno) lascio immaginare che scenari nascerebbero. Ma per fortuna/sfortuna, ce ne vorrà di tempo.
Per andare quanto un 3600 a stock, in multicore ovviamente, vorrebbe dire che nella migliore delle ipotesi perderebbe oltre il 17% di ipc. Mi sembra poco plausibile.
Per ovvie ragioni, invece si cerca l'hardware più aggiornato possibile, visto che costa meno (praticamente il contrario di quello che si dice sempre, ma è ovvio che un'architettura nuove dovrebbe fornire prestazioni superiori, a parità di costo). Chiaramente non sempre riescono in tempo.
Veramente non è la stessa cosa. 7 anni fa si sapeva che avevano dei roiti di cpu, delle gpu medie/mediobasse e degli hard disk ridicoli. A fine anno (se non rimandano) avremo a che fare con dispositivi che stupreranno anche configurazioni, commercialmente parlando, di fascia piuttosto alto. Non c'è quasi nessun ma. Non c'è la cpu di m, o l'hard disk di serie b. Forse l'unico ma saranno un po' le ram.
OrazioOC
17-05-2020, 10:27
Se vogliamo basarci sulla storia di Turing la 2060 con tensor core costava tra i 300-350€ all'uscita (meno di oggi) e con le 1080 che qualche mese prima costavano sui 500€ (non a caso sui mercatini sono successe polemiche di tutti i tipi per le 1070/980ti vendute a 250€).
Ci mancherebbe pure che la 2060 costasse come la 1080, l'aumento di prezzi a parità di fascia con pascal è tangibile, e non mi sembra di vedere inversioni di tendenza drastiche in arrivo.
Ci sarà sicuramente ampere e rdna 2 in arrivo a far progredire il rapporto prezzo/prestazioni, ma dubito molto che ci sarà un aumento di performance elevati stile maxwell->pascal, che è quello che servirebbe nella fascia mediadele gpu per confrontarsi con le nuove console.
nicola1283
17-05-2020, 10:30
Ma scusate, mi pare lo si sia già scritto pagine fa, cominciate ad avere nei case rtx 3070 e una cpu decente per farla rullare, dopo ne riparliamo delle prestazioni delle nuove scatolette..
Poi non dimenticate che chi possiede già un pc con una configurazione medio/alta non parte da 0 ad acquistare il nuovo hardware e con quello che si recupera dalla vendita dell'usato, non dico che la spesa si dimezza ma quasi.
fraussantin
17-05-2020, 10:35
Ma scusate, mi pare lo si sia già scritto pagine fa, cominciate ad avere nei case rtx 3070 e una cpu decente per farla rullare, dopo ne riparliamo delle prestazioni delle nuove scatolette..
Poi non dimenticate che chi possiede già un pc con una configurazione medio/alta non parte da 0 ad acquistare il nuovo hardware e con quello che si recupera dalla vendita dell'usato, non dico che la spesa si dimezza ma quasi.Infatti noi stiamo parlando di chi l'ha medio e medio basso ,di chi è in cassa integrazione , di chi ha perso il lavoro o lo perderà sicuramente , e a livello globale non in Italia e basta.
Io mi sono fatto il PC l'anno scorso e ci ho speso una fracassata di soldi per tutto monitor incluso , me lo potevo permettere , e l'ho fatto più che volentieri.
Avessi dovuto farlo oggi forse non ne avrei fatto di nulla.
Ci mancherebbe pure che la 2060 costasse come la 1080, l'aumento di prezzi a parità di fascia con pascal è tangibile, e non mi sembra di vedere inversioni di tendenza drastiche in arrivo.
Ci sarà sicuramente ampere e rdna 2 in arrivo a far progredire il rapporto prezzo/prestazioni, ma dubito molto che ci sarà un aumento di performance elevati stile maxwell->pascal, che è quello che servirebbe nella fascia mediadele gpu per confrontarsi con le nuove console.
Pascal è un Maxwell 1 a 1 non ha portato miglioramenti dell'IPC o stravolgimenti nell'architettura si sono limitati a sfruttare il passaggio da 28nm a 16nm pompando tantissimo anche i clock (mediamente 1450mhz per maxwell contro i 2ghz di Pascal) e migliorando la compressione.
GTX 980: 2048cc - 64 rops - 128 tmu
GTX 1070: 1920cc - 48 rops - 120tmu
Ora non puoi appoggiarti al solo pp, e le nuove ampere si è parlato di un miglioramento nell'ipc pari al 20% e un raddoppio totale dei tensor core e non mi sembra poco...
nicola1283
17-05-2020, 10:47
Infatti noi stiamo parlando di chi l'ha medio e medio basso ,di chi è in cassa integrazione , di chi ha perso il lavoro o lo perderà sicuramente , e a livello globale non in Italia e basta.
Io mi sono fatto il PC l'anno scorso e ci ho speso una fracassata di soldi per tutto monitor incluso , me lo potevo permettere , e l'ho fatto più che volentieri.
Avessi dovuto farlo oggi forse non ne avrei fatto di nulla.
Fidati che chi gioca al pc in quel modo, non ha nessuna intenzione di comprare HW mediamente più costoso quindi questo discorso mi pare senza senso
OrazioOC
17-05-2020, 10:49
Pascal è un Maxwell 1 a 1 non ha portato miglioramenti dell'IPC o stravolgimenti nell'architettura si sono limitati a sfruttare il passaggio da 28nm a 16nm pompando tantissimo anche i clock e migliorando la compressione.
GTX 980: 2048cc - 64 rops - 128 tmu
GTX 1070: 1920cc - 48 rops - 120tmu
Ora non puoi appoggiarti al solo pp, e le nuove ampere si è parlato di un miglioramento nell'ipc pari al 20% e un raddoppio totale dei tensor core e non mi sembra poco...
Infatti io penso che nvidia farà gioco forza sull'aumento di performance con il ray tracing attivato.
Aumenteranno anche i titoli dotati di rt, non ci sono dubbi, ma nell'immediato, le performance pure in raster continueranno ad essere importanti e li vedremo se effettivamente ci sarà un po' di progresso da una gen all'altra.
https://www.gamestar.de/artikel/21-teraflops-nvidia-rtx-3080-ti-ampere-leak,3357694.html
3080ti 2200mhz 21tf 230w
Sarebbero 9,1tf con 100w
Avrebbero raddoppiato le perf/watt.
Speriamo non sia vera altrimenti qualcuno ci rimarrà veramente male.
IMHO
OrazioOC
17-05-2020, 12:15
https://www.gamestar.de/artikel/21-teraflops-nvidia-rtx-3080-ti-ampere-leak,3357694.html
3080ti 2200mhz 21tf 230w
Sarebbero 9,1tf con 100w
Avrebbero raddoppiato le perf/watt.
Speriamo non sia vera altrimenti qualcuno ci rimarrà veramente male.
IMHO
La cosa assurda è che consumerebbe come la 5700 xt, andando quanto?2.5 volte?Terrificante se fosse vero.
mikael84
17-05-2020, 12:19
https://www.gamestar.de/artikel/21-teraflops-nvidia-rtx-3080-ti-ampere-leak,3357694.html
3080ti 2200mhz 21tf 230w
Sarebbero 9,1tf con 100w
Avrebbero raddoppiato le perf/watt.
Speriamo non sia vera altrimenti qualcuno ci rimarrà veramente male.
IMHO
Il chip dovrebbe essere questo.
Con un GPC senza collegamento, è possibile che la 3080ti perda non 2, ma ben 3 TPC, senza toccare la ram.
https://i.postimg.cc/mZMf9V8F/chip.png
https://www.gamestar.de/artikel/21-teraflops-nvidia-rtx-3080-ti-ampere-leak,3357694.html
3080ti 2200mhz 21tf 230w
Sarebbero 9,1tf con 100w
Avrebbero raddoppiato le perf/watt.
Speriamo non sia vera altrimenti qualcuno ci rimarrà veramente male.
IMHO
basterebbe che fosse anche nel range dei 260-300Watt (come tutte le Ti grosso modo) per esser "terrificante" così come lo sarà sicuramente il prezzo però (purtroppo)
a questo giro si va sulla 3080 sperando non la sparino troppo in alto di prezzo (over 800)
mikael84
17-05-2020, 13:08
basterebbe che fosse anche nel range dei 260-300Watt (come tutte le Ti grosso modo) per esser "terrificante" così come lo sarà sicuramente il prezzo però (purtroppo)
a questo giro si va sulla 3080 sperando non la sparino troppo in alto di prezzo (over 800)
Solitamente nvidia tara le TI sui 250watt + PL. Quest'anno con le versioni OC FE, ha sparato 260.
Non ha fatto menzioni a tensioni.
Il chip dovrebbe essere questo.
Con un GPC senza collegamento, è possibile che la 3080ti perda non 2, ma ben 3 TPC, senza toccare la ram.
https://i.postimg.cc/mZMf9V8F/chip.png
Se le premesse son queste, potremmo vedere anche la 3090 da 280/300w.
IMHO
fraussantin
17-05-2020, 13:28
@micheal una mattonella a quel modo con rtx quanti mmq sarà?
Se le premesse son queste, potremmo vedere anche la 3090 da 280/300w.
IMHOProbabilmente si tengono i chip sani per la titan come al solito.
Ma è presto per speculare.
Crysis90
17-05-2020, 13:58
Speriamo non sia vera
Ma speriamo di si, invece.
Per quanto costeranno, mi sembra giusto che gli acquirenti ne possano godere al massimo potenziale.
:O
Altrimenti si fa come fino a Marzo 2017, che toccava spendere 500 euro per un cesso di CPU quad core.
Ma speriamo di si, invece.
Per quanto costeranno, mi sembra giusto che gli acquirenti ne possano godere al massimo potenziale.
:O
Altrimenti si fa come fino a Marzo 2017, che toccava spendere 500 euro per un cesso di CPU quad core.
E certo, ero ironico.
Ci mancherebbe altro che fermiamo l'avanzamento tecnologico perché i fondamentalisti ci rimangano male.
Ma come si fa a parlare di prezzi overprezzati su schede non ancora uscite e che vedranno la luce nel 2021?
Se vogliamo basarci sulla storia di Turing la 2060 con tensor core costava tra i 300-350€ all'uscita (meno di oggi) e con le 1080 che qualche mese prima costavano sui 500€ (non a caso sui mercatini sono successe polemiche di tutti i tipi per le 1070/980ti vendute a 250€).
Anche la 1660ti (persino migliore della 1660Super) al suo esordio si trovava sui 250€...
Quindi su quale base storica o rumors le nuove schede dovrebbero costare di più? Sopratutto in una fascia media dove da sempre è quella con il mercato più competitivo.
Piano. Le 1660Ti al loro esordio stavano sui 300 euro. Si trovavano a 270-280 euro quelle di marche scrause... a 250 euro stavano le lisce.
mikael84
17-05-2020, 15:29
Se le premesse son queste, potremmo vedere anche la 3090 da 280/300w.
IMHO
Bisogna vedere cosa intendono per 3090, se sostituta della TI o altro chip di scarto.
Il Full con molta probabilità verrà riservato alle Titan a doppia densità, sopra i 2000$:)
@micheal una mattonella a quel modo con rtx quanti mmq sarà?
Difficile prevederlo, con la doppia FP32 avevo calcolato 933 su 12nm, senza quella 898mm2 con 6mb l2. Con Ampere gaming, niente 48mb ma almeno 12 si. Quindi ancora più spazio.
Dopo bisogna vedere su che PP verrà creato, chiaramente il valore calerà notevolmente in caso di 7nm+
La tesla cmq, con cache maestose, FP64 (no rt core), sta sotto i 100mm2 per GPC, e con 2 TPC in più.
Diciamo che sui 7nm+ starebbe abbastanza sotto i 700mm2.
Roland74Fun
17-05-2020, 15:34
Ci mancherebbe altro che fermiamo l'avanzamento tecnologico perché i fondamentalisti ci rimangano male.
Purtroppo il progreso tecnologico viene sempre tarato al ribasso per salvare capra e cavoli, non bisogna mai scontentare nessuno in una sorte di politcally correctness tecnologico.
Tecnologie ottime e disponibili scartate per non tagliare fuori gli oltranzisti e non scontentare le "minoranze".
Tanto per fare un paragone, nei giochi che usavano il physx con hardware dedicato il risultato c'era. Ad oggi nuovi motori grafici implementano effetti similari senza l'ausilio di HW dedicato ma senza però raggiungere appieno quei livelli. Con il RT clonazzo di AMD a partire dalle sue nuove scatolette con hardware liofilizzato ed a seguire coi suoi fallimentari fermacarte di seconda generazione sarà la stessa cosa.
Purtroppo il progreso tecnologico viene sempre tarato al ribasso per salvare capra e cavoli, non bisogna mai scontentare nessuno in una sorte di politcally correctness tecnologico.
Tecnologie ottime e disponibili scartate per non tagliare fuori gli oltranzisti e non scontentare le "minoranze".
Tanto per fare un paragone, nei giochi che usavano il physx con hardware dedicato il risultato c'era. Ad oggi nuovi motori grafici implementano effetti similari senza l'ausilio di HW dedicato ma senza però raggiungere appieno quei livelli. Con il RT clonazzo di AMD a partire dalle sue nuove scatolette con hardware liofilizzato ed a seguire coi suoi fallimentari fermacarte di seconda generazione sarà la stessa cosa.
Bisogna sempre mantenere un equilibrio, solo in tempi di competizione o di guerra si hanno salti tecnologici evidenti ed io preferisco la competizione, quindi spero che amd ci stupisca ancora. Se volesse nvidia applicherebbe una tattica aggressiva sui prezzi e farebbe fuori amd nel settore. Ma visto che l'antitrust non lo permette come giusto che sia, per salvare capre e cavoli ci ritroviamo con schede che costano il 50%in più.
IMHO
Ton90maz
17-05-2020, 16:34
Ma scusate, mi pare lo si sia già scritto pagine fa, cominciate ad avere nei case rtx 3070 e una cpu decente per farla rullare, dopo ne riparliamo delle prestazioni delle nuove scatolette..
Poi non dimenticate che chi possiede già un pc con una configurazione medio/alta non parte da 0 ad acquistare il nuovo hardware e con quello che si recupera dalla vendita dell'usato, non dico che la spesa si dimezza ma quasi.
Dipende da quanto supererà la 2070, ipotizziamo un 50%. Se almeno l'xbox (no RT) arriverà ai livelli di una 2080, la 3070 supererà le console di quanto, di un 25% scarso? Non è che ci sarebbe da strapparsi i capelli e da vantarsi di chissà quale superiorità, rispetto a una "scatoletta".
amon.akira
17-05-2020, 17:17
Dipende da quanto supererà la 2070, ipotizziamo un 50%. Se almeno l'xbox (no RT) arriverà ai livelli di una 2080, la 3070 supererà le console di quanto, di un 25% scarso? Non è che ci sarebbe da strapparsi i capelli e da vantarsi di chissà quale superiorità, rispetto a una "scatoletta".
cioè dici che la 3070 farà 35fps su assassin valhalla? perchè su serie x ubisoft ha detto che girerà a 30fps e conoscendo il modus operandi delle console non saranno per nulla stabili, quindi aspettati anche i 20fps :asd:
cioè dici che la 3070 farà 35fps su assassin valhalla? perchè su serie x ubisoft ha detto che girerà a 30fps e conoscendo il modus operandi delle console non saranno per nulla stabili, quindi aspettati anche i 20fps :asd:Si ma infatti anche la ps4 e X box s dovevano fare il miracolo poi sappiamo tutti come è andata la storia...
Inviato dal mio ELE-L29 utilizzando Tapatalk
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.