PDA

View Full Version : NVIDIA GeForce RTX: analisi dell'architettura delle prime GPU con Ray Tracing


Redazione di Hardware Upg
14-09-2018, 15:02
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5254/nvidia-geforce-rtx-analisi-dell-architettura-delle-prime-gpu-con-ray-tracing_index.html

Tutti i dettagli architetturali delle nuove GPU NVIDIA, ormai alla vigilia del debutto nei negozi. Turing è la prima architettura con implementazione Ray Tracing in hardware, ma non solo: Tensor Core e intelligenza artificiale contribuiranno a migliorare le prestazioni. Ecco come funzioneranno tutti questi elementi

Click sul link per visualizzare l'articolo.

demon77
14-09-2018, 15:33
Prestazioni velocistiche assolute a parte bisogna davvero dire che il lavoro fatto per lo sviluppo di queste nuove GPU è a dir poco impressionante.

Stanno diventando quasi dei SOC che raggruppano sempre maggiori tipologie di unità di calcolo specialistiche..

Nhirlathothep
14-09-2018, 15:34
e la nuova Titan? si sa nulla?

Da titanxp a 2080ti non mi convince come "upgrade"

sgrinfia
14-09-2018, 16:19
Prestazioni velocistiche assolute sotto le aspettative bisogna davvero dire che il lavoro fatto per lo sviluppo di queste nuove GPU è a dir poco disarmante :cry:

nickname88
14-09-2018, 16:44
Prestazioni velocistiche assolute sotto le aspettative bisogna davvero dire che il lavoro fatto per lo sviluppo di queste nuove GPU è a dir poco disarmante :cry:
Sotto le aspettative ? :rolleyes:

Con buona parte del die occupato dai nuovi componenti, lato cuda cores sono comunque riusciti a fornire un incremento tipicamente visibile in un medio salto generazionale, ovvero con la 80 liscia che supera la Ti della precedente generazione.

Un salto analogo a quello che ci fu con Maxwell, nonostante le unità in più e un pp poco distante.

La 2080 per altro monta un chip da circa 550mmq nonostante tutto ( ed anch'essa non dispone nemmeno di tutte le unità attive ).

tuttodigitale
14-09-2018, 16:52
e la nuova Titan? si sa nulla?

Da titanxp a 2080ti non mi convince come "upgrade"
Upgrade naturale per il prezzo è proprio la 2080ti.
mentre il successore è già in commercio da un pò, la Titan V.
A questo punto varrebbe la pena di aspettare la titan T, ma temo che verrà confermato il prezzo di 3000 euro...

carlone88
14-09-2018, 17:18
Scusate la considerazione da niubbo, ma una domanda mi sorge spontanea:

queste nuove schede sono state presentate quasi esclusivamente facendo riferimento all'implementazione per la prima volta del ray tracing in tempo reale e, come ogni "prima generazione" che si rispetti, bisogna aspettare che la tecnologia che mettono a disposizione venga sfruttata dai software (parlo solo di ambito gaming) per godere dei risultati.

la domanda vien da se: su un gioco che non sfrutta queste caratteristiche, che differenza c'è con l'attuale generazione di schede? queste RTX 20xx vanno comunque di piu? consumano meno?

perchè altrimenti chi le prende ora fa solo da cavia per il mercato... e si porta a casa una "R" al posto di una "G" e nulla piu ;)

personalmente la mia "G"tx 1060 in max e fhd non mi ha mai dato rallentamenti, anzi, sono sempre ben oltre i 60 frames che il mio schermo supporta; figuriamoci se avessi una 1080...

mi sembra un po di rivedere quello che era successo con le dx11 e le dx12... passava l'informazione che senza una scheda che le supportasse non avresti più giocato a nulla e, invece, per diversi ANNI nessuno ne ha sentito la mancanza, ancora oggi una dx11 "liscia" ti fa partire qualsiasi titolo dx12 "ready" (io ho una gtx 660 sul mulo e non ho mai avuto problemi a parte scalare un pochino le impostazioni ingame)...

Belin, mi sembra un po che si voglia "vendere qualcosa di nuovo" per forza...

Inoltre dai video che visto e dalla conferenza Nvidia di presentazione, non mi pare che queste schede siano mature per gestire la tecnologia che portano in grembo.

saranno probabilmente vecchie e obsolete appena quella tecnologia verrà usata a dovere nei videogames...

secondo me faranno la fine dei primi phenom x6: sulla carta molto promettenti, ma sprecati nell'uso quotidiano e, soprattutto, obsoleti quando finalmente piu di 4 core sono diventati sensati da possedere.

spero di essermi spiegato bene :)

Cfranco
14-09-2018, 17:23
Nella prima tabella i 1750 W della 1070 sono un filo troppi :O


lato cuda cores sono comunque riusciti a fornire un incremento tipicamente visibile in un medio salto generazionale, ovvero con la 80 liscia che supera la Ti della precedente generazione.
Devo essermi perso qualcosa, le prestazioni dove le hai viste ? :what:

tuttodigitale
14-09-2018, 17:27
Sotto le aspettative ? :rolleyes:

Con buona parte del die occupato dai nuovi componenti, lato cuda cores sono comunque riusciti a fornire un incremento tipicamente visibile in un medio salto generazionale, ovvero con la 80 liscia che supera la Ti della precedente generazione.
ma sai effettivamente quanto spazio è occupato dai nuovi componenti?
perchè il confronto tra GP100 e GV100, vede il secondo avere meno transistor per cuda core, nonostante la presenza dei tensor core, segno che lo spazio occupato da queste unità è piccolo.
Lo stesso potrebbe essere per il RT.

tuttodigitale
14-09-2018, 17:30
Imho il brand Titan dopo la Titan V non è più da considerarsi qualcosa per il gaming manco lontanamente.
Secondo me se uscirà una nuova Titan andrà a sostituire la Titan V per il supercomputing, ricercatori e cose del genere.
infatti, se ricordi l'approccio di nvidia con le Titan è cambiato quando AMD ha presentato VEGA FE...Prima di allora le Titan, compresa la XP, avevano prestazioni penose, da gpu da gaming, negli applicativi.
Da allora la Titan è diventata un'altra cosa.

tuttodigitale
14-09-2018, 17:36
Sotto le aspettative ? :rolleyes:

Con buona parte del die occupato dai nuovi componenti, lato cuda cores sono comunque riusciti a fornire un incremento tipicamente visibile in un medio salto generazionale, ovvero con la 80 liscia che supera la Ti della precedente generazione.

Un salto analogo a quello che ci fu con Maxwell, nonostante le unità in più e un pp poco distante.

il problema, o la novità, che la 80 liscia, supera la Ti della precedente generazione nel prezzo...100 dollari....+15%....
la 980 costava meno e andava più della 780ti.....questa è la grossa differenza....
ed è per questo motivo che nvidia sta spingendo molto sul RT, pur sapendo che le 2070/2080 hanno una potenza insufficiente a gestirlo.

Facile fare questi paragoni:

https://www.hwupgrade.it/articoli/skvideo/5254/dlss2.png

Nel TAA si vede il tipico effetto mosso dei filtri temporali.
Vedremo con altri filtri quanto è buono il DLSS.
Se fosse veramente così per i miei standard andrebbe più che bene, non saprei per i puristi del 4K nativo però...

quanto so bravi quelli del marketing....
come mai da questa immagine il TAA fa schifo?
Era forse una bugia che era possibile ottenere la stessa qualità del MSAA con la metà dei campionamenti? :rolleyes:

tuttodigitale
14-09-2018, 17:48
Devo essermi perso qualcosa, le prestazioni dove le hai viste ? :what:

dalle slide pubblicate dalla stessa nvidia, la differenza tra la 2080 e la 1080ti sarebbe compresa tra il 5 e il 10%..praticamente quanto una Titan XP

PS il confronto è stato fatto a 4k se non erro, con la 1080 liscia....ma la differenza tra la liscia e la ti è ben nota.
Non ci dovrebbero essere particolari sorprese.

Cfranco
14-09-2018, 17:51
dalle slide pubblicate dalla stessa nvidia

Io prima vorrei vedere qualche test un pelino più indipendente, sai com' è, chiedere all' oste com' è il vino non è garanzia di sincerità

tuttodigitale
14-09-2018, 18:11
Io prima vorrei vedere qualche test un pelino più indipendente, sai com' è, chiedere all' oste com' è il vino non è garanzia di sincerità
i numeri dell'oste non sono per niente incoraggianti:
2080 vs 1080ti
prestazioni +5-10% (il primo leak sul 3dmark le prestazioni sono aumentate solo del 5% per quello che vale, e dentro il campo di variabilità della singola scheda...che nvidia abbia perso tempo a selezionare schede di discreta qualità da fornire alla stampa per non avere risultati imbarazzanti? :p )

prezzo +15%...

sgrinfia
14-09-2018, 21:33
Ma le prestazioni ?, dove sono!, con l'RTX sono fondamentali , a meno che si possa abbassare l'effetto ......però e un controsenso:confused:

FroZen
14-09-2018, 22:01
Le solite specifiche truffaldine di nvidia :doh: (es. rops)

MiKeLezZ
14-09-2018, 22:29
Scusate la considerazione da niubbo, ma una domanda mi sorge spontanea:

queste nuove schede sono state presentate quasi esclusivamente facendo riferimento all'implementazione per la prima volta del ray tracing in tempo reale e, come ogni "prima generazione" che si rispetti, bisogna aspettare che la tecnologia che mettono a disposizione venga sfruttata dai software (parlo solo di ambito gaming) per godere dei risultati.

la domanda vien da se: su un gioco che non sfrutta queste caratteristiche, che differenza c'è con l'attuale generazione di schede? queste RTX 20xx vanno comunque di piu? consumano meno?

perchè altrimenti chi le prende ora fa solo da cavia per il mercato... e si porta a casa una "R" al posto di una "G" e nulla piu ;)

personalmente la mia "G"tx 1060 in max e fhd non mi ha mai dato rallentamenti, anzi, sono sempre ben oltre i 60 frames che il mio schermo supporta; figuriamoci se avessi una 1080...

mi sembra un po di rivedere quello che era successo con le dx11 e le dx12... passava l'informazione che senza una scheda che le supportasse non avresti più giocato a nulla e, invece, per diversi ANNI nessuno ne ha sentito la mancanza, ancora oggi una dx11 "liscia" ti fa partire qualsiasi titolo dx12 "ready" (io ho una gtx 660 sul mulo e non ho mai avuto problemi a parte scalare un pochino le impostazioni ingame)...

Belin, mi sembra un po che si voglia "vendere qualcosa di nuovo" per forza...

Inoltre dai video che visto e dalla conferenza Nvidia di presentazione, non mi pare che queste schede siano mature per gestire la tecnologia che portano in grembo.

saranno probabilmente vecchie e obsolete appena quella tecnologia verrà usata a dovere nei videogames...

secondo me faranno la fine dei primi phenom x6: sulla carta molto promettenti, ma sprecati nell'uso quotidiano e, soprattutto, obsoleti quando finalmente piu di 4 core sono diventati sensati da possedere.

spero di essermi spiegato bene :)certo che sì, ma da qualche parte bisogna pure iniziare. ovvio, i primi utenti faranno da cavia. a te scegliere cosa fare. d'altronde, le 1080ti non spariranno mica dal mercato.

Avengedrobix
14-09-2018, 22:52
io ve la butto lì... ma la 2080Ti senza ray tracing sarà qualcosa di mai visto prima..e e il DLSS? avete mai provato una Ti senza lod? ora pompate una Ti.. e di tanto.. levate le lod perchè per quello vi è un core apposito a gestire filtri e tutto un pò....

AceGranger
14-09-2018, 23:52
Ma le prestazioni ?, dove sono!, con l'RTX sono fondamentali , a meno che si possa abbassare l'effetto ......però e un controsenso:confused:

eccole

https://videocardz.com/77983/nvidia-geforce-rtx-2080-ti-and-rtx-2080-official-performance-unveiled

da 1080Ti a 2080Ti media +47%

Otomo50
15-09-2018, 03:34
Mi sento di dire : ma chi se ne strafotte! ogni due mesi ti
Consigliano come spendere i soldi :mbe:
Oltretutto per i gamer c’è poco o niente di appassionate
in giro tanto che son tornato a giocare in 2d :)
Vadavia al Q ;)

sgrinfia
15-09-2018, 10:17
eccole

https://videocardz.com/77983/nvidia-geforce-rtx-2080-ti-and-rtx-2080-official-performance-unveiled

da 1080Ti a 2080Ti media +47%

Io parlo di prestazioni reali ........no quelle da link Invidia.

nickname88
15-09-2018, 10:19
il problema, o la novità, che la 80 liscia, supera la Ti della precedente generazione nel prezzo...100 dollari....+15%....
Che io sappia i prezzi di mercato non sono conosciuti visto che tutte le offerte in rete si riferiscono al preorder.
Il prezzo di listino con la precedente generazione era inferiore ma è stato influenzato dalla scarsa disponibilità, quindi non è detto che i prezzi di queste ultime debbano essere necessariamente superiori.

quanto so bravi quelli del marketing....
come mai da questa immagine il TAA fa schifo?
Era forse una bugia che era possibile ottenere la stessa qualità del MSAA con la metà dei campionamenti?Il tutto lascia il tempo che trova, il nuovo filtro verrà gestito dalle nuove unità e non inciderà sui cores tradizionali, di campionamenti possono farne quanti ne vogliono quindi. Lo hai detto tu stesso che queste schede non han potenza sufficiente per il RT giusto ? Quindi possiamo dedicarle interamente al DLSS.

htponch
15-09-2018, 14:33
Io parlo di prestazioni reali ........no quelle da link Invidia.

puzza tanto di fake marketing...su BattleField 1 @4k maxed dx11 una 1080Ti (accompagnata da una cpu decente dal 4770k in su) sta sopra i 70fps e adesso sono magicamente scesi a 55/60...nice try oste

tuttodigitale
15-09-2018, 14:43
Che io sappia i prezzi di mercato non sono conosciuti visto che tutte le offerte in rete si riferiscono al preorder.
Il prezzo di listino con la precedente generazione era inferiore ma è stato influenzato dalla scarsa disponibilità, quindi non è detto che i prezzi di queste ultime debbano essere necessariamente superiori.

i prezzi delle schede video, in questo momento sono "giusti".
i prezzi di listino sono ufficiali e sono stati indicati da nvidia nella stessa presentazione della nuova serie di GPU.
è inutile farsi troppe illusioni, la gtx 2080 costerà più della 1080ti, finchè non ci sarà una risposta da parte di AMD (almeno 4/6 mesi).


Il tutto lascia il tempo che trova, il nuovo filtro verrà gestito dalle nuove unità e non inciderà sui cores tradizionali, di campionamenti possono farne quanti ne vogliono quindi. Lo hai detto tu stesso che queste schede non han potenza sufficiente per il RT giusto ? Quindi possiamo dedicarle interamente al DLSS.
sarebbe sicuramente un utilizzo migliore dei tensor core.

nickname88
15-09-2018, 19:02
ma sai effettivamente quanto spazio è occupato dai nuovi componenti?
perchè il confronto tra GP100 e GV100, vede il secondo avere meno transistor per cuda core, nonostante la presenza dei tensor core, segno che lo spazio occupato da queste unità è piccolo.
Lo stesso potrebbe essere per il RT.

Si vedo :
Occupano poco spazio ... solamente metà die, che sarà mai.

https://www.tomshw.it/data/thumbs/8/7/2/8/nvidia-turing-rtx-die-breakup-1b6fce5e38d2567591e76150b9f0ec4c1.jpg

i prezzi delle schede video, in questo momento sono "giusti".Disponibilità 0, vedi un po' te se son corretti.
Quando saran presenti in quantità allora potrai giudicare i prezzi.

sgrinfia
15-09-2018, 22:24
puzza tanto di fake marketing...su BattleField 1 @4k maxed dx11 una 1080Ti (accompagnata da una cpu decente dal 4770k in su) sta sopra i 70fps e adesso sono magicamente scesi a 55/60...nice try oste

infatti questo mi lascia perplesso , troppi se e troppi ma .
Ok andrà più forte delle precedenti schede .....ok ..ma, è con l'RTX che deve andare forte .....

nickname88
15-09-2018, 23:39
Ok andrà più forte delle precedenti schede .....ok ..ma, è con l'RTX che deve andare forte .....:mc:
E dove sta scritto ? Nella tavola dei comandamenti ?

In RT vanno solo il quadruplo delle analoghe Quadro della generazione precedente, ma se non ti soddisfa comunque nessuno ti vieta di valutare solamente la performance relative ai cuda cores o sul nuovo filtro DLSS.

Non ti piace l'idea ? Problema tuo, libero di passare alla concorrenza che .... ah già, non esiste.

V3N0M77
16-09-2018, 13:28
sull'acquisto di queste schede bisognerà valutare anche la situazione dei singoli utenti: chi arriva da una scheda di generazione precedente che può andare ancora bene per quelle che sono le necessità, chi sta nella fascia enthusiast (quindi comprerà), chi arriva da un sistema obsoleto da rifare (e a questo punto la serie 20XX è una buona scelta) o chi avendo poco budget penserà di più alla serie 10XX nuova o usata.
concorrenza non ce n'è, a meno che i videogiochi non siano un'esigenza che si deve sposare anche con altre cose (e nvidia ha soppresso l'accelerazione hw dei cuda core da diverse gen)
per me la scheda più attesa dalla maggioranza dei giocatori "normali" sarà la 2060.

tuttodigitale
16-09-2018, 15:21
Si vedo :
Occupano poco spazio ... solamente metà die, che sarà mai.

https://www.tomshw.it/data/thumbs/8/7/2/8/nvidia-turing-rtx-die-breakup-1b6fce5e38d2567591e76150b9f0ec4c1.jpg
.

sono partito dai numeri:
complessivamente ci sono più cura core per transistor in Volta che in Pascal (GV100 vs GP100), nonostante la maggior flessibilità e la presenza dei Tensore core. L''aumento di complessità non sembra essere superiore a quella di un singolo MC HBM2....

sarò cecato io, ma io vedo un disegno simmetrico....
https://www.hardwareinside.de/community/data/photos/l/30/30062-1534270383-d3a25be05e654d5d869177046a091e34.jpg
i tensor core sembrano essere integrati nel SM, ovvero distribuito nel chip cosa che appare anche nelle slide di GV100:
https://images.anandtech.com/doci/11367/volta_sm_575px.png

tuttodigitale
16-09-2018, 15:25
Quella è solo una grafica tanto epr far capire, ma i tensor e gli rt sono pezzettini integrati in ogni SM.

https://www.hwupgrade.it/articoli/skvideo/5254/slide_12.jpg
pardon non avevo letto la tua risposta.:doh:

faccio anche notare che se davvero a parità di transistor ci fosse stata metà cuda core, la RTX2080ti sarebbe stata decisamente più lenta della 1080ti.

:mc:
E dove sta scritto ? Nella tavola dei comandamenti ?

non lo pompi a destra e manca, se non sei in grado di soddisfare le attese o i requisiti minimi, ma proprio minimi come 1080p@30fps stabili. Prestazioni decenti con RTX abilitati ci devono essere.....
Probabilmente a livello HW, le GTX20xx, avranno gli stessi SM, quindi con la presenza degli RT core....ma disabilitandoli proprio a causa della scarsa potenza complessiva.


Disponibilità 0, vedi un po' te se son corretti.
Quando saran presenti in quantità allora potrai giudicare i prezzi.
parlo delle schede della vecchia generazione...a partire dalla RX580 che costa 220/230 euro nella versione a 4GB.

Entro 1/2 mesi la 2080 costerà meno di 650 euro della 1080ti?

tuttodigitale
16-09-2018, 15:54
Https://www.hardocp.com/article/2018/08/28/nvidia_controls_aib_launch_driver_distribution/

Cfranco
16-09-2018, 20:30
Https://www.hardocp.com/article/2018/08/28/nvidia_controls_aib_launch_driver_distribution/

Hanno veramente paura che si scoprano le prestazioni :rolleyes:

lucusta
17-09-2018, 03:01
Quella è solo una grafica tanto epr far capire, ma i tensor e gli rt sono pezzettini integrati in ogni SM.

https://www.hwupgrade.it/articoli/skvideo/5254/slide_12.jpg

anche questa è una grafica...

in effetti un solo SM è composto da 2 dei moduli ripetuti che vedi sui cluster ai lati del die, riferendosi al die shot del TU102.
i 2 moduli SM sono impilati in verticale (se prendi come riferimento la foto)
e quelle 4 macchiette gialle che vedi in un modulo, sopra e sotto sono le TMU (indipendenti ed in grado di eseguire ogni una una 1 thread FP32, o 2 FP16, o 1 INT32), mentre ai lati hai a destra TC e a sinistra RT core.

di per se TC e RT core sono si e no il 5% effettivo della superficie occupata sul silicio, ma è il fatto che ci siano che costringe a cambiare la struttura interna, l'architettura, quindi il chip diventa più "ciccione";
per coadiuvarli non si poteva usare la medesima architettura di Pascal ed hanno usato quella di Volta.

in pratica il TU104, senza TC e RT core, sarebbe stato di 517mm^2 invece di 545, mentre l'aumento a 2944 cudacore di un GP104 sarebbe costato sui 350mm^2; un turing da 2560 cudacore come un GP104 e senza RT e TC core, costerebbe 472 mm^2, praticamente quanto un GP102 o un Vega 10, e, probabilmente avendone anche effettivamente tutte le prestazioni (dipende da quanto rende l'operare simultaneamente con INT e FP, perchè massimizzi l'uso, ma se usi la pipeline per INT abbassi il computo dei cudacore che possono operare in FP... questo Nvidia se lo è scordato di accennare; poi dipende anche dalla frequenza.. queste dovrebbero clockare un 10% in più, sui 2200mhz, se prendi ad esempio la FE 2080).

la differenza tra 350 e quegli ipotetici 472mm^2 è tutto quello che serve ai TC ed RT per funzionare in modo proficuo: è una struttura per eseguire bene il calcolo asincrono in HW.
scheduling riportato in HW, possibilità di operare su più basi con gli stessi cuda core (tranne FP64, che su RTX PRO sono abilitati, qui solo uno a SM è abilitato), possibilità di operare con più del doppio dei threads simultaneamente (su tutti gli SM) e di mischiare FP16, FP32 ed INT32 senza limitazioni di sorta;
possibilità di fermare un thread e farne passare un'altro per urgenza nella stessa pipeline di calcolo, e poi riprendere il precedente (l'hanno imbottito di registri intermedi); per lo stesso motivo possibilità di eseguire AC.
tutto uguale ai cuda core di Volta, comunque.

Nvidia aveva già un'architettura DX12 nel 2016 ma non l'ha fatta uscire.

lucusta
17-09-2018, 03:40
Hanno veramente paura che si scoprano le prestazioni :rolleyes:

soffre un pò, per ora, ma se non soffrisse turing, soffrirebbe parecchio pascal.

vedrai che come benchmark ci saranno giochi o DX11.3 o proprio DX12 (nei quali, per oggi, nessuno usa AC, quindi anche per questo risulterebbe svantaggiato, come lo è vega).
non ti metteranno di certo GTA V, anche se è il gioco più giocato di sempre, ancora oggi.
poi, sicuramente ti faranno vedere soprattutto 4K, ma non perchè possono sfruttare la questione che con DLSS usano una sottorisoluzione, ma perchè è la condizione giusta per il livello di potenza di queste schede, anche se la 2080 sovrasterà di potenza le 1080 Ti a risoluzioni inferiori.
in rasterizzazione, che poi è l'unico modo in cui puoi usarle adesso visto che non ci sono giochi con DxRT, è l'unica risoluzione per non dare un colpo a turing o uno a Pascal.

le 2080 sono in concorrenza diretta con le 1080 Ti, e costeranno, da noi, più o meno uguali, con un 10% in più per 2080 (oggi leggevo che potrebbero mettere dazi in USA sull'HW sfuso che proviene dalla cina, pari al 10%, anche se questa cosa impatterà sia sulla vecchia che sulla nuova linea, quindi gli americani si trovano davanti schede che potrebbero arrivare a costare 1700 euro per i primi tempi(!), almeno fino a che non si esauriscono le Pascal).
le Pascal le metteranno a prezzi MRSP, quindi una 1080 Ti costerà un pò meno di una 2080.
quindi ti devono giustificare la spesa in più che faresti con la 2080 perche è vero che hanno features incredibili, ma non le puoi usare, oggi... e quindi questa deve essere mostrata più veloce.
il problema è che non deve sembrare un missile!
se la usano a 1080p su un gioco più orientato alle DX12, tra scheduling interno e possibilità del calcolo INT non alternato a quello degli FP la sua potenza grafica non subisce più il bottleneck per il processore, cosa che invece succede sovente con le 1080 Ti a quella risoluzione (non tutti testano con un Intel a 5 e passa ghz, alcuni usano gli octacore Intel, e quelli arrivano a 4.3ghz massimo... alcune volte trovi un 10% di differenza tra quelli che usano un 8700k a 5ghz e quelli che usano un 7820x a 4.3).
il 4K, invece, anche su un DX11, la velocità della memoria aiuterà la 2080 a stare quel 10% sopra alla 1080 Ti, giustificandone il prezzo (che poi è più un prezzo politico per smaltire le Pascal in magazzino).

i consumi logicamente saranno uguali a Pascal, equiparando le prestazioni.
i transistors in più vengono compensati da malto più silicio di quanto serviva a pascal (hanno diramato un pò di più).

il fatto centrale è che non ci sono ancora giochi che le sfruttano bene (come non ci sono per le AMD, che essendo più simili a queste migliioreranno le proprie prestazioni a mano a mano della presentazione di nuovi giochi adatti a RTX), e che non riusciranno ad essere altrettanto competitive su un vecchio DX11 rispetto a Pascal (come rendimento, non prestazioni assolute, come succede per le AMD).

quindi che ti fanno vedere?
sono prodotti con caratteristiche agli antipodi e compongono la stessa gamma accavallandosi, una bestia nera per quelli del marketing....

tuttodigitale
17-09-2018, 09:05
Hanno veramente paura che si scoprano le prestazioni :rolleyes:
guarda che è molto, molto peggio...questo nuovo NDA non termina con la pubblicazione delle RTX20xx, ma è un contratto a lungo termine....

mi fa specie che le redazioni abbiano firmato....come nvidia ha ritirato il GPP poteva benissimo riscrivere il NDA.....ha testato il grado di servilismo della stampa...probabilmente neppure loro si attendevano queste "reazioni".
Oggi nvidia chiede
a) il nome e la possibilità di dialogare direttamente con colui che scriverà la recensione, diventando di fatto dipendente di nvidia....
b) per i prossimi 5 anni, qualsiasi iniziativa di nvidia, come ad esempio il GPP, deve essere filtrata dalla stessa società californiana....ovvero per quanto riguarda i prodotti/servizie che proporrà, nvidia avrà il pieno controllo editoriale.

a questo punto tutti i siti che hanno sottoscritto NDA, dovrebbero riportare la scritta "powered by nvidia"

bagnino89
17-09-2018, 09:17
Come al solito, bisognerà fare riferimento alle recensioni/prove degli utenti.

lucusta
17-09-2018, 09:35
guarda che è molto, molto peggio...questo nuovo NDA non termina con la pubblicazione delle RTX20xx, ma è un contratto a lungo termine....

mi fa specie che le redazioni abbiano firmato....come nvidia ha ritirato il GPP poteva benissimo riscrivere il NDA.....ha testato il grado di servilismo della stampa...probabilmente neppure loro si attendevano queste "reazioni".
Oggi nvidia chiede
a) il nome e la possibilità di dialogare direttamente con colui che scriverà la recensione, diventando di fatto dipendente di nvidia....
b) per i prossimi 5 anni, qualsiasi iniziativa di nvidia, come ad esempio il GPP, deve essere filtrata dalla stessa società californiana....ovvero per quanto riguarda i prodotti/servizie che proporrà, nvidia avrà il pieno controllo editoriale.

a questo punto tutti i siti che hanno sottoscritto NDA, dovrebbero riportare la scritta "powered by nvidia"


è peggio, molto peggio di quanto la descrivi.
qualsiasi notizia, ivi compresi i leaks, che è inerente ai prodotti nvidia e possa danneggiare nvidia non può essere divulgata ento i 5 anni dall'uscita del prodotto (obsolescenza, quindi).
di esempi di cosa non possono più dirti senza il permesso d'nvidia ce ne sarebbero a decine, e vanno tutti contro il consumatore (guarti per componentistica pessima, bug, o anche sblocchi che consentono l'uso dell'HW in modo più libero)...

praticamente le testase specializzate che hanno firmato l'NDA (e lo hanno firmato tutte; l'elenco lo possiamo fare con l'uscita dei test il 20) sono diventate succursali PR nvidia.
i prodotti odierni saranno anche buoni, ma si fanno affari con lo stesso lupo...

futu|2e
17-09-2018, 10:02
Mi sento di dire : ma chi se ne strafotte! ogni due mesi ti
Consigliano come spendere i soldi :mbe:
Oltretutto per i gamer c’è poco o niente di appassionate
in giro tanto che son tornato a giocare in 2d :)
Vadavia al Q ;)

Questo non è per nulla un commento a caso. Giochi per pc nativi non ne
sviluppano più. L'apprensione per l'hw nuovo è una cosa ormai fine a se stessa.

lucusta
17-09-2018, 11:18
si era arrivati al limite tecnologico delle DX11, mentre le dinamiche dei vari giochi, ormai, son state esplorate quasi tutte...
o ripetizioni con abbellimenti o collage di varia natura.

quete novità, almeno, possono sbloccare la potenza delle GPU rispetto alle console.

DukeIT
17-09-2018, 11:35
Relativamente alle imposizioni di Nvidia, relativamente ai test, mi chiedo perché le testate le abbiano accettate. Viene spontaneo pensare che una testata giornalistica è tanto più autorevole quanto più è competente ed indipendente. Mancando l'indipendenza, però, la competenza diventa inutile, per cui mi chiedo se questa rinuncia alla propria indipendenza venga fatta a titolo gratuito o se porti con sé vantaggi economici, perché nel secondo caso si rischierebbe di essere assimilati a dei normali dipendenti Nvidia. Naturale conseguenza sarebbe la perdita di immagine... che porta con sé anche danni economici.
Dunque i vantaggi dovrebbero essere sostanziosi per coprire i rischi.

AceGranger
17-09-2018, 11:36
si era arrivati al limite tecnologico delle DX11, mentre le dinamiche dei vari giochi, ormai, son state esplorate quasi tutte...
o ripetizioni con abbellimenti o collage di varia natura.

quete novità, almeno, possono sbloccare la potenza delle GPU rispetto alle console.

si è arrivati al limite del metodo Raster, che è ben diverso.


l'unica vera novita delle DX12 sono queste API raytracing che apriranno al strada al cambiamento.

aald213
17-09-2018, 12:12
queste nuove schede sono state presentate quasi esclusivamente facendo riferimento all'implementazione per la prima volta del ray tracing in tempo reale

Nota piccola ma molto importante: le schede RTX non supportano ray tracing in tempo reale; data la potenza di calcolo richiesta, siamo ancora lontani :)

C'è un'analisi molto dettagliata (che ogni commentatore intreressato dovrebbe leggere) su Anandtech (https://www.anandtech.com/show/13282/nvidia-turing-architecture-deep-dive) che spiega come il modello proposto da nVidia è misto raster e ray tracing, dove il secondo sarebbe usato solo per le cose ritenute più importanti (eg. illuminazione globale, ombre, riflessi, etc.).

la domanda vien da se: su un gioco che non sfrutta queste caratteristiche, che differenza c'è con l'attuale generazione di schede? queste RTX 20xx vanno comunque di piu? consumano meno?

Domanda da un milione di dollari; nessuno lo sa ancora, e non è possibile fare speculazioni.

Di fatto, se non saranno considerevolmente più veloci (30%+), entrambi i modelli GTX 10x0 e RTX 20x0 coesisteranno nel mercato, il che sarà quantomeno... curioso.

La predizione plausibile che si può fare è che ci sarà un incremento generale almeno modesto (per dire, 20%+), altrimenti, le (future) GTX 2050/2060 non avrebbero alcun senso.

perchè altrimenti chi le prende ora fa solo da cavia per il mercato... e si porta a casa una "R" al posto di una "G" e nulla piu ;)

Questo non è detto. Esiste una certa quantità di giochi (prevalentemente AAA) che supporteranno le funzionalità RTX.

Essenzialmente dipende da quanto la fascia alta del mercato sarà disposta a sborsare $$$ per ottenerle - ma questo vale sempre e comunque per la fascia alta (dove il prezzo è un fattore minore).

Più che obsolescenza in partenza, probabilmente il problema sarà che i giochi che supportanto le tecnologie RTX saranno solo quelli AAA.

Belin, mi sembra un po che si voglia "vendere qualcosa di nuovo" per forza...

Secondo Carmack, il ray tracing è il futuro, quindi nVidia ha fatto un passo giusto in quella direzione. Da qualche parte si deve pure iniziare.

Ricordo nuovamente che parliamo di fascia alta del mercato: le schede 2050/2060 resteranno GTX, quindi i ragionamenti sulla convenienza vanno fatti su quelle schede (che ancora non esistono ;) ). Non mi sembra nVidia abbia nascosto questa filosofia (altrimenti non avrebbe comunicato che 2050/2060 saranno GTX).

Personalmente, sono molto dubbioso dei Tensor Core. Una cosa di cui non si parla abbastanza è che sfruttare DLSS bisogna inviare i giochi a nVidia, che chiaramente limiterà la diffusione. In altre parole, gioco non-AAA = niente DLSS.

Cfranco
17-09-2018, 12:24
guarda che è molto, molto peggio...questo nuovo NDA non termina con la pubblicazione delle RTX20xx, ma è un contratto a lungo termine....
...
a questo punto tutti i siti che hanno sottoscritto NDA, dovrebbero riportare la scritta "powered by nvidia"
Premesso che credo che un tale contratto abbia talmente tante clausole di così ampia portata e così lunga durata che ben difficilmente potrebbe essere difeso in tribunale come "ragionevole", resta il fatto che può evidentemente essere usato come strumento di pressione a lungo termine contro chiunque osi parlar male di nVidia.
Se ne deduce che tutte le recensioni che usciranno il 20 saranno fatte da recensori scelti da nVidia che hanno firmato un contratto con nVidia e sono stati contattati e guidati da nVidia.
Siamo più o meno al livello delle recensioni dei giochi fatte su ordinazione delle case produttrici.

AceGranger
17-09-2018, 12:27
Nota piccola ma molto importante: le schede RTX non supportano ray tracing in tempo reale; data la potenza di calcolo richiesta, siamo ancora lontani :)

C'è un'analisi molto dettagliata (che ogni commentatore intreressato dovrebbe leggere) su Anandtech (https://www.anandtech.com/show/13282/nvidia-turing-architecture-deep-dive) che spiega come il modello proposto da nVidia è misto raster e ray tracing, dove il secondo sarebbe usato solo per le cose ritenute più importanti (eg. illuminazione globale, ombre, riflessi, etc.).



che alla fine è cosi.

l'ordine di importanza per resa grafica sarebbe Global Illuminazion-shadow-riflessi, che sono in sostanza anche dove il metodo raster ha problemi.

anche se tecnicamente le RTX sono in grado di effettuare un calcolo full ray-tracing ( infatti verranno impiegate anche come schede acceleratrici degli attuali motori di rendering progressivi )


Secondo Carmack, il ray tracing è il futuro, quindi nVidia ha fatto un passo giusto in quella direzione. Da qualche parte si deve pure iniziare.


concordo; alal fine tutti quelli del settore lo stavano aspettando, anche perchè, assieme ai nuovi materiali PBR, si arrivera ad avere un passaggio lineare dal software di creazione degli asset al game engine e si potranno cosi avere giochi con qualita molto simile ai render.


meglio farlo arrivare prima solo sulle TOP gamma, piuttosto che fra un paio di generazioni, cosi almeno gli sviluppatori avranno anche il tempo di metterci su le mani

DukeIT
17-09-2018, 15:14
Se ne deduce che tutte le recensioni che usciranno il 20 saranno fatte da recensori scelti da nVidia che hanno firmato un contratto con nVidia e sono stati contattati e guidati da nVidia.
Siamo più o meno al livello delle recensioni dei giochi fatte su ordinazione delle case produttrici.
Purtroppo, in questo caso, la cosa sarebbe non paragonabile per due motivi: le recensioni delle riviste attirano molti più lettori, sono più articolate e più vicine alle aspettative di chi le cerca. In secondo luogo chi legge una recensione ed una prova comparativa sul sito del produttore, è preparato, ha le "difese alte", sa che ciò che legge va preso con le pinze, diversamente una rivista indipendente viene considerata solitamente imparziale.
La cosa è molto più grave e subdola di ciò che sembra, sempre che sia realmente in questi termini. Penso che perlomeno, per correttezza, in questo caso, dovrebbe essere specificato che il test è stato svolto in base a specifiche disposizioni della casa produttrice ed andrebbero specificate quali siano. Ed in ogni caso rimarrebbe la scorrettezza nei confronti dei prodotti del marchio concorrente che sarebbero testati come vuole Nvidia.
Questo sempre che le cose stiano in questi termini, ovviamente.

Edit@ Io ho fatto il paragone con i test fatti dalle case produttrici, mi accorgo ora che tu prendevi a riferimento le "recensioni spot" dei giochi. In quel caso siamo in effetti abbastanza vicini, anche se nei test comparativi hw si presentano numeri, invece che opinioni, ed in quel caso si è maggiormente portati a credere sulla imparzialità dei dati.

tuttodigitale
17-09-2018, 16:31
Questo non è detto. Esiste una certa quantità di giochi (prevalentemente AAA) che supporteranno le funzionalità RTX.
ma non al lancio. Al momento non esiste nessun gioco che permette di sfruttare RTX. BFV è stato posticipato di un mese....uscirà nel mese di Novembre, ed è probabile che il RT verrà introdotto solo tramite una patch, come fu l'introduzione di Mantle.

Quando davvero ci saranno giochi che sfrutteranno il RT (ma con quali prestazioni?) nell'aria ci saranno schede più veloci e aggiornate.
Secondo me, molti produttori faranno a meno visto il periodo di transizione in cui devono calibrare con cura quanto (poco) RT introdurre per non avere prestazioni indecenti.

Realisticamente, oggi con la presenza sul mercato di molte architetture in grado di avere vantaggi con codice FP16, è logico pensare che il Rapid Packed Math di Vega venga sfruttato, e le relative inefficienze delle ROPs di Polaris/fiji fortemente mitigate.

La rivoluzione più grande, è che il principale produttore di GPU ha finalmente proposto per la massa qualcosa di superiore a GCN1.0.
Quanta fatica. :D

Aggiungo una nota a margine...
visti i prezzi in gioco, AMD potrebbe addirittura pensare di immettere VEGA20 nel mercato consumer: a 1500 euro non ne venderanno certo a camionate.

lucusta
18-09-2018, 07:38
si è arrivati al limite del metodo Raster, che è ben diverso.


l'unica vera novita delle DX12 sono queste API raytracing che apriranno al strada al cambiamento.

il rendering per rasterizzazione è comunque ancora avvantaggiato.
l'egualianza di peso computazionale e resa grafica si dovrebbe ottenere oltre gli 8K.
se vai a quantificare quanto costa in termini di silicio un RT core sulle nuove schede in confronto a quanto costa in rasterizzazione, potrai vedere che la parte RT core è ancora 1/8 rispetto a quella cuda, se non meno.
basta che guardi il die shot del TU102 e guardi il modulo SM.
di contro quella parte è veloce solo 1/4, visto che la 2080 Ti dovrebbe superare agevolmente i 60fps a 4K e in RT non fare più di 60fps a 1080p.
quindi ad oggi rasterizzazione contro RTrt sembrerebbe avere la meglio RT....
ma fa solo effetti.
se gli fai fare l'intera scena non schiodi 15-20fps.
in pratica in RTrt full frame ti servirebbe la potenza di 1.5 TU102 fatto solo con RT core...
e siamo ancora a 1080p...
per il ray tracing la densità punti non è legata alla risoluzione, per la rasterizzazione si.
la capacità computazionale per un 8K@60 con buona definizione diverrebbe troppo esosa.
3-4 volte il TU102.
in Ray tracing stessa potenza di calcolo.
è da quel punto in poi che il ray tracing ottiene vantaggi.
con il doppio della potenza di calcolo di quella condizione sei in fotorealismo;
la rasterizzazione ci vorrebbero 10 volte la potenza di oggi per il vero fotorealismo.

quindi li vedrai convivere per diversi anni insieme, non ti preoccupare.

il punto è che comunque le DX11 sono arrivate al capoliena oggi, non tra 5 o 6 anni...

AceGranger
18-09-2018, 09:59
il rendering per rasterizzazione è comunque ancora avvantaggiato.
l'egualianza di peso computazionale e resa grafica si dovrebbe ottenere oltre gli 8K.


anche solo un FHD ibrido, con l'RT per la GI,ombre e riflessi, avrebbe una resa migliore di qualsiasi risoluzione raster.


per il ray tracing la densità punti non è legata alla risoluzione, per la

il raster ha problemi ben piu gravi, essendo limitato dal numero di poligoni, oggetti e luci.

un film in BR è in FHD; non serve avere il 4K per il fotorealismo, serve avere luci, ombre e riflessi corretti.



le DX11, erano nate gia morte

lucusta
18-09-2018, 16:15
su FHD in ibrido, però, devi dare giù di filtri AA abbastanza impegnativi (cosa che a risoluzioni estremamente elevate diventa meno influente.
pre il fotorealismo servono anche più colori.
con il ray tracing te la cavi molto più facilmente.

AceGranger
18-09-2018, 17:13
su FHD in ibrido, però, devi dare giù di filtri AA abbastanza impegnativi (cosa che a risoluzioni estremamente elevate diventa meno influente.
pre il fotorealismo servono anche più colori.
con il ray tracing te la cavi molto più facilmente.


l'AA lo fai con il DLSS 2X; per i colori c'è l'HDR, anche se fino a ieri non esisteva, e i BR si vedevano comunque benissimo....


le attuali 2080Ti hanno la possibilita di poter far girare giochi di un'altro livello, c'è solo necessita che gli sviluppatori imparino a usare correttamente l'RT e che si inizi finalmente ad utilizzare modelli hi poly, texture decenti e materiali PBR.

lucusta
18-09-2018, 23:38
sempre sul pezzo, eh!

parlavo, IN GENERALE, dello stato della tecnologia, non NELLO SPECIFICO dell'implementazione sulle RTX.

RTrt e rasterizzazione hanno come punto d'incontro, sulla scala della potenza grafica relazionata alla resa grafica, una potenza che oggi sarebbe stimabile come quella necessaria a far andare un 8K in rasterizzazione, ossia tra i 40 ed i 60TF di potenza computazionale (detto in parole molto semplici).
sotto questo valore la rasterizzazione continua a mantenere vantaggi prestazionali a scapito di un elaborato lavoro di workarround per visualizzare la realtà tramite abili trucchi e non per simularla;
oltre quella soglia il ray tracing ha resa grafica migliore e grava sempre meno in rapporto all'aumento della resa grafica (al quadruplo di quella potenza in rasterizzazione ti puoi permettere un 16K; la stessa resa visiva la otterresti in ray tracing con il solo raddoppio della potenza computazionale).

anche sul colore...
HDR10 usa 10 bit... per simulare adeguatamente la realtà dovresti avere almeno 16 bit colore.
aumentare i bit colore significa anche aumentare il numero dei transistors, che con una estensione di colori inferiori ti avrebbero dato più prestazioni.

le 2080 TI hanno la possibilità di darti una resa grafica pari a quella che otterresti con una scheda in rasterizzazione sui 25TF.
sono potenze che ti permettono di ottenere molto, ma in rasterizzazione richiederebbero severi sforzi per sviluppare tecnologie atte a imitare la realtà.
ad oggi, invece quegli sforzi si dovranno concentrare sulla migliore gestione della poca potenza in RT core di cui sono dotate (che è elevata, ma che in effetti, proprio per la questione che il ray tracing ha una curva logaritmica se metti in relazione potenza di calcolo e resa grafica, risulta parecchio al di sotto di quello che oggi potresti avere in rasterizzazione.
oggi la potenza comparata degli RT core vale quanto 4TF in rasterizzazione, ecco perchè esiste l'ibrido.
fortunatamente hai la possibilità di focalizzare questa potenza solo in alcuni aspetti... la concentri in poche e piccole parti riuscendo quindi a farla risultare più incisiva; il ray tracing te lo permette proprio perchè unito alla rasterizzazione.

tuttodigitale
19-09-2018, 13:03
HDR10 usa 10 bit... per simulare adeguatamente la realtà dovresti avere almeno 16 bit colore.
10 bit sono comunque 1,06 miliardi di colori contro i 16,7 milioni utilizzati fino a ieri...16 bit per colore sono una enormità.... 281.000 miliardi di colori..

su FHD in ibrido, però, devi dare giù di filtri AA abbastanza impegnativi (cosa che a risoluzioni estremamente elevate diventa meno influente.
pre il fotorealismo servono anche più colori.
con il ray tracing te la cavi molto più facilmente.
per me, i film sono abbastanza fotorealistici anche ad 8 bit.
:D

AceGranger
19-09-2018, 13:57
sempre sul pezzo, eh!

parlavo, IN GENERALE, dello stato della tecnologia, non NELLO SPECIFICO dell'implementazione sulle RTX.

RTrt e rasterizzazione hanno come punto d'incontro, sulla scala della potenza grafica relazionata alla resa grafica, una potenza che oggi sarebbe stimabile come quella necessaria a far andare un 8K in rasterizzazione, ossia tra i 40 ed i 60TF di potenza computazionale (detto in parole molto semplici).
sotto questo valore la rasterizzazione continua a mantenere vantaggi prestazionali a scapito di un elaborato lavoro di workarround per visualizzare la realtà tramite abili trucchi e non per simularla;
oltre quella soglia il ray tracing ha resa grafica migliore e grava sempre meno in rapporto all'aumento della resa grafica (al quadruplo di quella potenza in rasterizzazione ti puoi permettere un 16K; la stessa resa visiva la otterresti in ray tracing con il solo raddoppio della potenza computazionale).

anche sul colore...
HDR10 usa 10 bit... per simulare adeguatamente la realtà dovresti avere almeno 16 bit colore.
aumentare i bit colore significa anche aumentare il numero dei transistors, che con una estensione di colori inferiori ti avrebbero dato più prestazioni.



stai parlando "in generale" di aria fritta.

non servono i 16bit e non serve avere un Full RT, e il raster perdera in qualita anche ora con i 1080p ibridi;



le 2080 TI hanno la possibilità di darti una resa grafica pari a quella che otterresti con una scheda in rasterizzazione sui 25TF.


è un paragone senza senso, il raster non riesce a restituire qualita punto, manco se lo spari a 8K e con tutti i TFlops che vuoi, perchè le tecniche di "imitazione" che usa sono mediocri e rimarranno sempre mediocri


sono potenze che ti permettono di ottenere molto, ma in rasterizzazione richiederebbero severi sforzi per sviluppare tecnologie atte a imitare la realtà.


che poi non riuscirebbero comunque ad avvicinarsi alla resa di un RT, anche ibrido, con molti meno TFlops.
il raster ha tante di quelle limitazioni che meta basta; non per altro siamo fermi da almeno un lustro in resa grafica.


oggi la potenza comparata degli RT core vale quanto 4TF in rasterizzazione, ecco perchè esiste l'ibrido.
fortunatamente hai la possibilità di focalizzare questa potenza solo in alcuni aspetti... la concentri in poche e piccole parti riuscendo quindi a farla risultare più incisiva; il ray tracing te lo permette proprio perchè unito alla rasterizzazione.

vale quanto 40 TFlops

1 Gigarays = 10 TFlops.

https://devblogs.nvidia.com/nvidia-turing-architecture-in-depth/

https://devblogs.nvidia.com/wp-content/uploads/2018/09/image18-1.jpg

mikegemini77
19-09-2018, 22:35
correggete quel grafico è da ieri che c'è un errore: RTX 2070 usa GPU TU106 non TU104