PDA

View Full Version : Ray tracing, con le RX 6000 AMD punta a buone prestazioni a 1440p


Redazione di Hardware Upg
12-11-2020, 08:11
Link alla notizia: https://www.hwupgrade.it/news/skvideo/ray-tracing-con-le-rx-6000-amd-punta-a-buone-prestazioni-a-1440p_93433.html

Un dirigente di AMD ritiene che il pubblico sarà soddisfatto delle prestazioni in ray tracing delle nuove Radeon. Si punta a "una grande esperienza" a 1440p, mentre per la risposta al DLSS bisognerà aspettare il 2021.

Click sul link per visualizzare la notizia.

nickname88
12-11-2020, 09:21
Han messo le mani avanti praticamente.

StylezZz`
12-11-2020, 09:29
Già, e confermerebbe questo ''silenzio'' riguardo il raytracing e il non aver detto nulla nella presentazione.

Poco male, personalmente gioco a 1440p e se i giochi rt continueranno ad avere la stessa qualità di quelli già visti, continuerò a tenerlo disattivato e preferire alti frame.

ninja750
12-11-2020, 10:02
molto bene speriamo non le compri nessuno

mackillers
12-11-2020, 10:09
Il ray tracing sui giochi attuali vie sfruttato per poche aggiunte che non cambiano drasticamente l'aspetto dei giochi, ma va detto che comunque va nella giusta direzione di una gestione della luce più realistica.

onestamente se acquisto adesso una VGA top gamma, voglio che il raytracing sia supportato al meglio possibile.

va benissimo l'approccio open, anzi è meritevole, ma le performance in questo ambito devo essere similari a quelle Nvidia, perché altrimenti in ottica futura risultano molto meno appetibili.

non che straveda per i giochi pini di pozzanghere per mettere in risalto i riflessi, però piano piano tali funzioni verranno sfruttate sempre di più.. (è anche vero che magari quando saranno sfruttate a pieno saranno talmente gravose a livello di performance da azzoppare anche le RTX3000 o addirittura le 4000..)

però onestamente se per esempio la 6800XT riuscisse a reggere il passo della 3080 in 4k raster, attivando il raytracing andasse come una 2080 lo considererei un difetto molto importante.

Ale55andr0
12-11-2020, 10:21
Han messo le mani avanti praticamente.

perchè dove sarebbe il 4k rt nvidia a 60 fissi? a parte qualche gioco con supporto invisibile (tomb raider) o a corridoio intendo....prendi un wd con la 3090 in 4k maxato e poi ridiamo....a ogni modo meglio per noi, ti pigli la verde e meno uno che toglie schede al mercato rosso, vedi di far proseliti anzi va' :asd:

coschizza
12-11-2020, 10:26
perchè dove sarebbe il 4k rt nvidia a 60 fissi? a parte qualche gioco con supporto invisibile (tomb raider) o a corridoio intendo....prendi un wd con la 3090 in 4k maxato e poi ridiamo....a ogni modo meglio per noi, ti pigli la verde e meno uno che toglie schede al mercato rosso, vedi di far proseliti anzi va' :asd:

lo hai in praticamente in tutti i giochi tranne quelli mal programmati come wd ma questo non è colpa della gpu se il software non è fatto in maniera normale

Comunque in WD, 4k RT e DLSS comunque fai 60fps, gia la prima patch del gioco ha cambiato completamente le performance del gioco a meno di una settimana dal lancio

ghiltanas
12-11-2020, 10:28
ottimo :) , sempre + contento di aver optato per un monitor ultrawide con + fps piuttosto che un 4k , tanto è troppo oneroso per le schede video e non mi va di puntare alle top di gamma.

Vediamo la 6700x come se la caverà alla ris che mi interessa

Ale55andr0
12-11-2020, 10:33
lo hai in praticamente in tutti i giochi tranne quelli mal programmati come wd ma questo non è colpa della gpu se il software non è fatto in maniera normale

Comunque in WD, 4k RT e DLSS comunque fai 60fps, gia la prima patch del gioco ha cambiato completamente le performance del gioco a meno di una settimana dal lancio

dlss non è 4, renderizzi di fatto a una risoluzione più bassa. Per il resto voglio vedere la lista di "tutti" sti gioconi in 4k tutti a 60 frame che hai citato...

coschizza
12-11-2020, 10:36
dlss non è 4, renderizzi di fatto a una risoluzione più bassa. Per il resto voglio vedere la lista di "tutti" sti gioconi in 4k tutti a 60 frame che hai citato...

a te dovrebbe interessare il risultato non la tecnologia che lo esegue. A me interessa che funzioni non come funziona dobbiamo giocare non fare una tesi di ingegneria
Per la lista prendi qualsiasi gioco uscito ed eccoti la lista, sinceramente non ricordo nemmeno 1 che non ci arriva a memoria ma tanti che superano i 100FPS si

HwWizzard
12-11-2020, 10:46
a te dovrebbe interessare il risultato non la tecnologia che lo esegue. A me interessa che funzioni non come funziona dobbiamo giocare non fare una tesi di ingegneria
Per la lista prendi qualsiasi gioco uscito ed eccoti la lista, sinceramente non ricordo nemmeno 1 che non ci arriva a memoria ma tanti che superano i 100FPS si

Si ma se non fai render a 4K è inutile spacciarlo per 4K. DLSS è un trucco.
Confrontiamo 6800XT con 3080 in 4K con RT e DLSS off. Se nVidia va di più vuol dire che è una VGA migliore quindi anche se continuerà a costare di più il prezzo va bene.
Ma di fatto sappiamo che 4K RT on le 30x0 sono buone solo per il Power Point.
La stessa cosa sarà per le AMD.

Ale55andr0
12-11-2020, 10:47
a te dovrebbe interessare il risultato non la tecnologia che lo esegue. A me interessa che funzioni non come funziona dobbiamo giocare non fare una tesi di ingegneria
Per la lista prendi qualsiasi gioco uscito ed eccoti la lista


Se tu mi dici 4k dev'essere 4k, e il dlss non è renderizzare in 4k, ma a risoluzione inferiore, risultato o meno non la stai renderizando in nativa, fine. Che poi il risultato ti piaccia o meno è un'altro discorso, ma tecnicamente è così e lo sai benissimo.
La lista comunque ti smentisce, visto che già un metro exodus non tiene nemmeno i 50 frame (oscilla fra 35 e 40) 4k con una 3080 ed rt (minuto 4 e 45) e per giunta in un'area assolutamente priva di combattimenti furiosi che ridurrebbero ulteriormente il frame rate...

https://www.youtube.com/watch?v=cZbAeUGD3Jk&t=321s

in proporzione la 3090 non arriverebbe comunque ai 60 visto che non è che va il 30% e passa in più...ma ora anche metro è programmato male vero? tutti quelli in cui non conviene lo sono, scommetto :asd:

ergo che tu mi dici che TUTTI i giochi vanno in 4k (e ripeto quattro kappa, non risoluzioni FAKE)a 60frame sulla 3090 è già falso. E vediamo se te li spulcio uno a uno, visto che ti piaceva liquidarla facile con la tua lista, non ci facciamo altre 4 risate....

Questa generazione di schede semplicemente NON è in grado di portare il 4k maxato con RT a 60 frame stabili garantiti, che piaccia o meno. E i prossimi motori non andranno certo ad alleggerirsi, e mostra anche quanto sia ridicola la frase del sior 88 di cui sopra sul "mani avanti", quando hanno solo avuto la furbizia di non dichiarare stronzate come qualcun'altro con la giacchetta...no, perchè io sto ancora aspettando la 3070 faster della 2080ti...

Gringo [ITF]
12-11-2020, 10:50
Con i prezzi attuali e l'assenza del prodotto, se entrasse in campo anche una scheda con il 50% di prestazioni di Apple....

1) La troveresti
2) Alla fine risulterebbe la più economica (paradossalmente)

Questi stanno giocando con il fuoco, non appena arriva una Huawei e/o Xiaomi con la sua soluzione non al 100% ma REPERIBILE ed ECONOMICA.... La prendono sui denti.
si si...e più potente... Pagala te 3200€ al posto di 1500€... Avanti CINA !

Marcus Scaurus
12-11-2020, 10:53
Sono contento che AMD continui ad essere coerente nell'utilizzare standard più aperti. E' sempre stato così e sul lungo periodo mi sembra sia una strategia anche più lungimirante, dal momento che nessuna delle tecnologie proprietarie proposte da Nvidia si è poi rivelata fondamentale per la scelta dell'uno o dell'altro (physx e gsync ad es.).

nickname88
12-11-2020, 11:03
perchè dove sarebbe il 4k rt nvidia a 60 fissi? a parte qualche gioco con supporto invisibile (tomb raider) o a corridoio intendo....prendi un wd con la 3090 in 4k maxato e poi ridiamo....a ogni modo meglio per noi, ti pigli la verde e meno uno che toglie schede al mercato rosso, vedi di far proseliti anzi va' :asd:WD ? Whatch Dogs è un titolo Ubisoft e il RT in quei titoli è l'ultima delle preoccupazioni, ci sono altri giochi dove è gestibilissimo ( in 4K ), così come sarà gestibile in tutti i titoli non particolarmente esosi.

Battlefield ?
Shadow of Tomb Raider ?
Youngblood ?
Control ?
COD Modern Warfare ?
DELIVER US THE MOON
Ghost Runner
Anche Metro Exodus ed altri con qualche compromesso.


Il RT inoltre spesso è scalabile.

dlss non è 4Cosè un momento di frustrazione per evitare i confronti ?

HwWizzard
12-11-2020, 11:22
WD ? Whatch Dogs è un titolo Ubisoft e il RT in quei titoli è l'ultima delle preoccupazioni, ci sono altri giochi dove è gestibilissimo ( in 4K ), così come sarà gestibile in tutti i titoli non particolarmente esosi.

Battlefield ?
Shadow of Tomb Raider ?
Youngblood ?
Control ?
COD Modern Warfare ?
DELIVER US THE MOON
Ghost Runner
Anche Metro Exodus ed altri con qualche compromesso.


Il RT inoltre spesso è scalabile.

Cosè un momento di frustrazione per evitare i confronti ?

Dai su non :mc:
https://www.hwupgrade.it/articoli/skvideo/5827/nvidia-geforce-rtx-3080-alla-prova-l-era-del-ray-tracing-e-finalmente-iniziata_index.html
Senza DLSS RT te lo scordi a 4K, ma non è una critica alla tua amata è un dato di fatto e nemmeno AMD farà miracoli.
Anzi credo che nemmeno la prossima generazione potrà gestirlo senza DLSS.

demonsmaycry84
12-11-2020, 11:29
è chiaro che più passa il tempo più il DLSS servirà sempre relegandolo ad un uso magari più competitivo del 4k....è già chiaro che ora con una 3080 comincia a diventare possibile non usarlo....è sempre una funzionalità in più interessante ed nvidia su questo è avanti almeno 2 anni rispetto ad AMD.
Quello che non riesco a perdonare ad Nvidia è non essere uscita con almeno 12gb vram con il modello 3070.
Per ora ci stiamo dentro...per ora il 90% dei giochi riesce a starci dentro MA avrebbe dato un respiro più lungo alle schede..

HwWizzard
12-11-2020, 11:36
è chiaro che più passa il tempo più il DLSS servirà sempre relegandolo ad un uso magari più competitivo del 4k....è già chiaro che ora con una 3080 comincia a diventare possibile non usarlo....è sempre una funzionalità in più interessante ed nvidia su questo è avanti almeno 2 anni rispetto ad AMD.
Quello che non riesco a perdonare ad Nvidia è non essere uscita con almeno 12gb vram con il modello 3070.
Per ora ci stiamo dentro...per ora il 90% dei giochi riesce a starci dentro MA avrebbe dato un respiro più lungo alle schede..

Questo vorrebbe dire che le VGA non aumenteranno in potenza se DLSS sarà una feature primaria. Il che vuol dire che possono lavorare sul SW e prenderti per il :ciapet: con l'HW. Non le vedo come una buona prospettiva.

cronos1990
12-11-2020, 11:45
Beh, è innegabile che con il RT attivo anche la 3080 se li sogna i 60FPS in 4K senza il DLSS, in linea generale.

Prendendo solo a riferimento la recensione di HU, abbiamo:

Control 34,4 FPS
Metro Exodus 40,8 FPS
Shadow of the Tomb Raider 49 FPS
Minecraft RTX 36,7 FPS

E per tutti questi casi, gli effetti RT sono comunque usati limitatamente ad alcuni aspetti.

nickname88
12-11-2020, 11:50
Beh, è innegabile che con il RT attivo anche la 3080 se li sogna i 60FPS in 4K senza il DLSS, in linea generale.

Prendendo solo a riferimento la recensione di HU, abbiamo:

Control 34,4 FPS
Metro Exodus 40,8 FPS
Shadow of the Tomb Raider 49 FPS
Minecraft RTX 36,7 FPS

E per tutti questi casi, gli effetti RT sono comunque usati limitatamente ad alcuni aspetti.Senza forse, però il DLSS c'è e non si capisce perchè uno debba disabilitarlo.
Così come ci sono titoli che raggiungono i 60fps anche senza DLSS come YoungBlood o Modern Warfare.

https://www.youtube.com/watch?v=WWezewYv58A&ab_channel=TAGGAMING
https://www.youtube.com/watch?v=gpzFX4P1Jow&ab_channel=DigitalFoundry

HwWizzard
12-11-2020, 11:55
Senza forse, però il DLSS c'è.

Che non è render in 4K... quindi non c'è

nickname88
12-11-2020, 12:18
Che non è render in 4K... quindi non c'è
La qualità viene interamente preservata e migliorata.
Confermato e raccomandato da tutte le reviews.

Piedone1113
12-11-2020, 12:25
lo hai in praticamente in tutti i giochi tranne quelli mal programmati come wd ma questo non è colpa della gpu se il software non è fatto in maniera normale

Comunque in WD, 4k RT e DLSS comunque fai 60fps, gia la prima patch del gioco ha cambiato completamente le performance del gioco a meno di una settimana dal lancio

Non li hai in praticamente tutti i giochi.
Devi sperare che in tutti i giochi che usciranno ci sarà supporto al DLSS, perchè per il 90% usciranno con pat ottimizzati AMD ma forse stiamo parlando di prospettive da Macro che senza adeguate lenti si vedono sfocate.

Proprio il futuro prossimo ( i giochi che verranno rilasciati nel 2021) farà da paragone rt on/off DSLL?
Mi sembra chiarissimo.
Pensando poi sempre in ottica futuro prossimo avremo che con l'uso di pochi effetti rt in più metteranno in ginocchio sia tutte le RTX3xxx ( e le relative AMD) con o senza DLSS ( o corrispettivo AMD) in 4K e l'unica sarà giocarle in 2K


Senza forse, però il DLSS c'è e non si capisce perchè uno debba disabilitarlo visto che è la migliore soluzione di AA. Perchè manca su AMD ?
Così come ci sono titoli che raggiungono i 60fps anche senza DLSS come YoungBlood o Modern Warfare.

https://www.youtube.com/watch?v=WWezewYv58A&ab_channel=TAGGAMING
https://www.youtube.com/watch?v=gpzFX4P1Jow&ab_channel=DigitalFoundry
Come sopra:
Vedremo quanti giochi utilizzeranno in futuro il DSLL.
IO presumo pochi, ma ci sarà da divertirsi comunque.
PS l'Upscaling 2k>4k in casa AMD esiste gia ed è presente sulle consolle, bisogna vedere solo quando verrà implementato sui PC.

Piedone1113
12-11-2020, 12:26
La qualità viene interamente preservata e migliorata.
Confermato e raccomandato da tutte le reviews.
Come si fa a migliora qualcosa inventando pixel su schermo rispetto alla risoluzione nativa?
Ce lo spieghi?

lucusta
12-11-2020, 12:29
La qualità viene interamente preservata e migliorata.
Confermato e raccomandato da tutte le reviews.

non scriviamo eresie, grazie.
se tu non noti differenze tra nativo e DLSS non è colpa nostra.
c'è la stessa differenza che passa tra un BR e una compressione da 3GB.
buona, ma non dire che viene preservata o migliorata, sennò veniva usato già da tempo nelle compressioni video, visto che il DLSS opera solo sull'immagine 2D a schermo e non sul 3D.
quando vanno in post produzione con un film hanno tutti i soldi ed i mezzi migliori per poi fare un buon output per la diffusione, ma non mi sembra che oggi utilizzino tali artefatti per "migliorare" la visione.

le reviews fanno vedere solo immagini statiche, nella maggior parte dei casi, e anche se guardi i video spesso sono sottocampionati per via della compressione video.
lo puoi vedere solo confrontando due sessioni di gioco uguali una accanto all'altra.
dei recensori... tzè!
abbiamo imparato da tempo cosa importa di più a questo settore e non è certo l'obbiettività dei contenuti (tant'è che sono tutti articoli fotocopia che seguono passo-passo il paper informativo che gli viene rilasciato insieme alla scheda, che probabilmente gli viene "donata per successivi test").

nickname88
12-11-2020, 12:31
Come si fa a migliora qualcosa inventando pixel su schermo rispetto alla risoluzione nativa?
Ce lo spieghi?Utilizzando l'AI
Il DLSS non è un semplice upscaling.

Le opzioni di upscaling invece esistono già da parecchio su molti titoli su PC, c'è la risoluzione del monitor e la risoluzione di render separata, a volte espressa con il valore, a volte espressa in %.
E esistono anche le opzioni di ris dinamica sempre su PC.

non scriviamo eresie, grazie.
se tu non noti differenze tra nativo e DLSS non è colpa nostra.

Tutte le reviews e videoreviews raccomandano fortemente il DLSS2
Per gli artefatti può giudicare chiunque, ci sono gli slow motions a confermarlo.

lucusta
12-11-2020, 12:32
Come si fa a migliora qualcosa inventando pixel su schermo rispetto alla risoluzione nativa?
Ce lo spieghi?

con l'immaginazione.

utilizzando l'AI

appunto.

cronos1990
12-11-2020, 12:33
Ancora con questa storia che il DLSS migliora la risoluzione nativa?

Che il DLSS sia un buon compromesso OK, che sia una tecnologia che fa il suo lavoro non lo si mette in dubbio. Ma il DLSS NON migliora alcun tipo di qualità visiva, ben che vada (cioè pressochè mai) può raggiungere la stessa qualità.

nickname88
12-11-2020, 12:37
Ancora con questa storia che il DLSS migliora la risoluzione nativa?

Che il DLSS sia un buon compromesso OK, che sia una tecnologia che fa il suo lavoro non lo si mette in dubbio. Ma il DLSS NON migliora alcun tipo di qualità visiva, ben che vada (cioè pressochè mai) può raggiungere la stessa qualità.
Quindi non usiamo il RT

StylezZz`
12-11-2020, 12:37
Io l'ho provato a 1080/1440p, e la differenza con la risoluzione nativa si vede, e la qualità è tutt'altro che ''migliorata''...ma forse in 4k si nota meno?

cronos1990
12-11-2020, 12:42
Io l'ho provato a 1080/1440p, e la differenza con la risoluzione nativa si vede, e la qualità è tutt'altro che ''migliorata''...ma forse in 4k si nota meno?Si può notare di meno, di più o per nulla... non cambia il fatto che non può essere migliore.

Anche solo a livello logico/concettuale: l'immagine di riferimento è quella nativa, anche la modifichi di un solo pixel...

nickname88
12-11-2020, 12:50
Io l'ho provato a 1080/1440p, e la differenza con la risoluzione nativa si vede, e la qualità è tutt'altro che ''migliorata''...ma forse in 4k si nota meno?Bisogna vedere se hai provato il DLSS2 o la prima versione.

StylezZz`
12-11-2020, 12:54
Bisogna vedere se hai provato il DLSS2 o la prima versione.

DLSS2.

HwWizzard
12-11-2020, 13:00
Io l'ho provato a 1080/1440p, e la differenza con la risoluzione nativa si vede, e la qualità è tutt'altro che ''migliorata''...ma forse in 4k si nota meno?

No si nota meno solo dopo aver recitato 10 padre nostro e 20 ave maria a San Giacchetta :D
Io direi di chiamarlo Giacchetta Pio :ciapet:

lucusta
12-11-2020, 13:10
Quindi non usiamo il RT

se l'HW ancora non è pronto per tale tecnologia...

poi ti rammento che non è ray tracing, ma è RT ibrido, proprio per alleggerire il computo...
se fosse rendering esclusivamente in ray tracing non c'era necessità di parlare di "risoluzione nativa" e... avoglia ad aspettare che l'HW possa solo farne uno semplice in real time.

non vantiamoci di cose che per ora sono irraggiungibili.

sono 25 anni che ci si spera, aspettarne altri 10 non mi sembra un dramma.
spacciare una cosa per un'altra, invece, mi sembra assai deprimente.

Marckus87
12-11-2020, 13:24
Han messo le mani avanti praticamente.
perché quali sarebbero le prestazioni delle rtx in 1440p con rt attivo e senza dlss? fanno molta fatica anche le rtx senza dlss

cronos1990
12-11-2020, 13:31
perché quali sarebbero le prestazioni delle rtx in 1440p con rt attivo e senza dlss? fanno molta fatica anche le rtx senza dlssSempre stando alla recensione di HU per i 4 giochi che ho citato, una 3080 in 1440p (2560x1440) con RT e senza DLSS sta sopra i 60 FPS (tra i 64,6 e i 90 a seconda del gioco).

Certo, sempre con l'applicazione attuale del RT, piuttosto parziale. Un gioco fatto completamente in RT credo vada a fotogrammi anche in 320x200 e DLSS attivo.

pity91
12-11-2020, 13:47
se l'HW ancora non è pronto per tale tecnologia...



Vero, comunque vivrò benissimo qualche anno ancora senza.

silvanotrevi
12-11-2020, 13:50
Pochissimi giocano a 4k. La maggior parte dei gamers giocano a 1440p, quindi mi sembra sensata la scelta di Amd

sintopatataelettronica
12-11-2020, 14:57
Utilizzando l'AI
Il DLSS non è un semplice upscaling.

Piú che altro la frase corretta sarebbe: "Il DLSS non é un upscaling semplice."

In quanto qualsiasi processo che da una risoluzione inferiore tramite algoritmi (anche sofisticatissimi e gestiti dall'IA, come in questa avanzatissima soluzione NVIDIA) crea, a partire da dei pixel esistenti altri pixel in piú, resta, di fatto, un upscale.

Che poi grazie all'IA e ai calcoli eseguiti dalle loro reti neurali il risultato sia molto superiore a quello ottenibile da qualsiasi algoritmo di uspcaling "standard" esistente (tipo quello integrato nelle televisioni o le console ) ci puó stare, ma di certo l'immagine a risoluzione nativa sará sempre migliore.

Poi magari da 1080 -> 1440 il risultato sará quasi perfetto (i pixel da interpolare son "pochi").. ma da 1440 -> 2160 credo che la differenza con il rendering a risoluzione nativa sia evidentissimo... da 1080 a 2160 (come permette il DLSS2 ) secondo me é meglio disattivare gli effetti raytracing del tutto e godersi il gioco senza di essi alla risoluzione nativa dello schermo 4k (monitor, scheda e PC permettendo, ovviamente )

Alodesign
12-11-2020, 15:48
Meh, col mio monitor 1440p a 32" e freesync, mi sa che mi converrà cambiare la 1080ti :rolleyes:

Lithios
12-11-2020, 18:42
Quindi tutti confermati i rumors di cui abbiamo disquisito le settimane scorse mi pare:

PRO:
AMD leggermente superiore a Nvidia nell'RT "puro" e con un supporto futuro potenzialmente maggiore dato dai protocolli Open e la compatibilità con le console.

CONTRO:
Di contro, AMD sprovvista inizialmente di una "feature" equivalente al DLSS di alleggerimento per portare l'RT sul 4K decentemente. Feature che sarà comunque implementata via software successivamente, ma non si sa quando.

In conclusione, considerando che i migliori monitor gaming ad oggi sono a risoluzione 2K non mi pare una grandissima perdita (vedi Samsung G9, G7 o equivalenti).

Non ci dimentichiamo mai che poi tutta questa elaborazione software ha necessità di un monitor terminale capace di esprimere quanto elaborato, e ad oggi monitor 4K a 144 Hz con Freesync ed almeno un HDR 1000 non ne ho visti in giro. Per quando arriveranno presumo che ci sarà anche questo fantomatico "Super Resolution" e magari sia le RTX 3000 che le RX 6000 saranno state entrambe superate da una nuova generazione.

Pandemio
12-11-2020, 19:08
Come se da 50 a 60 fps cambiasse qualcosa, tutti giocatori pro?
Spero comprino tutti i fantasmi verdi, magari c è la possibilità di trovare qualche rossa in giro.
Ma occhio a cosa si compra.. Che dopo pochi mesi fanno la versione più potente che costa meno.
A parte tutto, star lì a guardare una manciata di fps per giudicare un prodotto lo trovo assurdo.
Senza contare che il confronto va fatto con la 3080 non con la 90, sicuramente sarà più performante nvidia, non bisogna dimenticare che amd era lontana dalla 2080 e ancor di più dalla 2080ti..

nickname88
12-11-2020, 22:49
PRO:
AMD leggermente superiore a Nvidia nell'RT "puro" e con un supporto futuro potenzialmente maggiore dato dai protocolli Open e la compatibilità con le console.
Questa è nuova, da quando AMD è diventata la più accreditata ?
Le performance non si sono ancora viste e difficilmente vedo una prima implementazione di AMD già superiore alla seconda di Nvidia.

Come se da 50 a 60 fps cambiasse qualcosa, tutti giocatori pro?

60fps hai la sincronizzazione perfetta col monitor.
Ogni frame viene mandato a video con lo stesso intervallo rispetto al precedente, ossia ogni 33.3ms. Quando scendi sotto i 60, anche di poco perdi la sincronizzazione anche se il frame rate cambia poco, quindi sì cambia che a 60 è perfettamente fluido, sotto no.

Lithios
13-11-2020, 02:12
Questa è nuova, da quando AMD è diventata la più accreditata ?
Le performance non si sono ancora viste e difficilmente vedo una prima implementazione di AMD già superiore alla seconda di Nvidia.


60fps hai la sincronizzazione perfetta col monitor.
Ogni frame viene mandato a video con lo stesso intervallo rispetto al precedente, ossia ogni 33.3ms. Quando scendi sotto i 60, anche di poco perdi la sincronizzazione anche se il frame rate cambia poco, quindi sì cambia che a 60 è perfettamente fluido, sotto no.

Sono usciti svariati leak cinesi su svariati giochi. Alcuni anche pubblicati qui che confermano AMD leggermente avanti nell'RT liscio. Ovviamente si aspetta le recensioni per l ufficialità.

Per la questione sincronia ,sotto i 60 fps esiste una cosa chiamata Freesync o Gsync da svariati anni che serve proprio a questo e che con il Low Framerate Compensation funziona fino a un minimo di 30 fps.

A 29 fps è come dici tu, a 50 no se hai monitor freesync

Niihashi
13-11-2020, 03:49
Si ma se non fai render a 4K è inutile spacciarlo per 4K. DLSS è un trucco.
Confrontiamo 6800XT con 3080 in 4K con RT e DLSS off. Se nVidia va di più vuol dire che è una VGA migliore quindi anche se continuerà a costare di più il prezzo va bene.
Ma di fatto sappiamo che 4K RT on le 30x0 sono buone solo per il Power Point.
La stessa cosa sarà per le AMD.

Non è corretto. Fare comparison di due GPUs per PC di nuova generazione senza tener conto le tecnlogie e soprattutto RT, è assolutamente fuori luogo. Non puoi dichiarare quale GPU è migliore giudicando performances in raster3D.

Dalla serie 2000 Nvidia punta tutto su Ray Tracing e DLSS 2.0 (e no, non è un semplice upscale come quello AMD, è AI, molto più complesso e da risultati immensamente superiori). L'intero hardware della GPU è sviluppato intorno ai tensor cores, AMD arriva tardi, tardissimo, ben venga la concorrenza ma senza tecnologia e hardware che possa rivaleggiare con DLSS 2.0 e RT performances sono GPU vecchie dentro.

Il risultato sarà Cyberpunk in 4k con RT Ultra e DLSS 2.0 ad 80-100 FPS con una 3090 (con risultato visivo superiore al nativo, per sharpness, dettagli e anti-aliasing), mentre con una 6900xt il 4k con RT non te lo giochi.

Ottimo vedere ATI back-on-track, ma il gap è ancora molto ampio e quello del prezzo giustificato. DLSS 2.0 e RT performances è praticamente tutto quello che vuoi in una GPU di nuova generazione per utenti PC.

cronos1990
13-11-2020, 07:26
In conclusione, considerando che i migliori monitor gaming ad oggi sono a risoluzione 2K non mi pare una grandissima perdita (vedi Samsung G9, G7 o equivalenti).I migliori o i più diffusi?

Poi sarò refrattario, ma Samsung tendenzialmente la eviterei.

cronos1990
13-11-2020, 07:30
Il risultato sarà Cyberpunk in 4k con RT Ultra e DLSS 2.0 ad 80-100 FPS con una 3090 (con risultato visivo superiore al nativo, per sharpness, dettagli e anti-aliasing), mentre con una 6900xt il 4k con RT non te lo giochi.Eccone un altro. Ancora a dire che con il DLSS l'immagine originale "migliora". Ma avete un'idea vaga di quello che significa una frase del genere? No, credo proprio di no.

Poi Cyberpunk in quelle condizioni a 80-100 FPS sono proprio curioso di vederlo.

al135
13-11-2020, 08:18
Se tu mi dici 4k dev'essere 4k, e il dlss non è renderizzare in 4k, ma a risoluzione inferiore, risultato o meno non la stai renderizando in nativa, fine. Che poi il risultato ti piaccia o meno è un'altro discorso, ma tecnicamente è così e lo sai benissimo.
La lista comunque ti smentisce, visto che già un metro exodus non tiene nemmeno i 50 frame (oscilla fra 35 e 40) 4k con una 3080 ed rt (minuto 4 e 45) e per giunta in un'area assolutamente priva di combattimenti furiosi che ridurrebbero ulteriormente il frame rate...

https://www.youtube.com/watch?v=cZbAeUGD3Jk&t=321s

in proporzione la 3090 non arriverebbe comunque ai 60 visto che non è che va il 30% e passa in più...ma ora anche metro è programmato male vero? tutti quelli in cui non conviene lo sono, scommetto :asd:

ergo che tu mi dici che TUTTI i giochi vanno in 4k (e ripeto quattro kappa, non risoluzioni FAKE)a 60frame sulla 3090 è già falso. E vediamo se te li spulcio uno a uno, visto che ti piaceva liquidarla facile con la tua lista, non ci facciamo altre 4 risate....

Questa generazione di schede semplicemente NON è in grado di portare il 4k maxato con RT a 60 frame stabili garantiti, che piaccia o meno. E i prossimi motori non andranno certo ad alleggerirsi, e mostra anche quanto sia ridicola la frase del sior 88 di cui sopra sul "mani avanti", quando hanno solo avuto la furbizia di non dichiarare stronzate come qualcun'altro con la giacchetta...no, perchè io sto ancora aspettando la 3070 faster della 2080ti...


ti sbagli metro 4k rt va eccome a 60 e anche qualcosa di piu. io personalmente oscillo tra i 62 e i 75, con il 5800x in arrivo probabilmente guadagno altri 2-3 fps
anche qua fanno lo stesso risultato
https://www.kitguru.net/components/graphic-cards/dominic-moass/gigabyte-rtx-3090-eagle-oc-review/20/
poi ce ne sono anche altri di giochi che ci girano ad eccezione di control che fa cagare anche graficamente infatti è inspiegabile.
poi staremo a vedere anche con cyberpunk cosa uscira' fuori

ninja750
13-11-2020, 08:18
Pochissimi giocano a 4k. La maggior parte dei gamers giocano a 1440p, quindi mi sembra sensata la scelta di Amd

fai pure FHD

al135
13-11-2020, 08:20
fai pure FHD

se gioco in fullaccaddì perdo la vista :D :D :D :D

al135
13-11-2020, 08:22
Eccone un altro. Ancora a dire che con il DLSS l'immagine originale "migliora". Ma avete un'idea vaga di quello che significa una frase del genere? No, credo proprio di no.

Poi Cyberpunk in quelle condizioni a 80-100 FPS sono proprio curioso di vederlo.

migliora non credo, anche se
su death stranding per qualche motivo strano lo fa :D
https://www.tomshw.it/videogioco/death-stranding-pc-dlss-2-0-4k-nativo/
credo sia una questione di algoritmi di tecniche di antialiasing.
comunque al di là di tutto non accettare che il DLSS sia una tecnologia fantastica solo perchè da parte di nvidia è un po' da peracottari eh
questo è come funziona
https://www.digitaltrends.com/computing/everything-you-need-to-know-about-nvidias-rtx-dlss-technology/

ma anche se quasi pareggiasse la qualità sarebbe un successo enorme.

HwWizzard
13-11-2020, 08:33
Eccone un altro. Ancora a dire che con il DLSS l'immagine originale "migliora". Ma avete un'idea vaga di quello che significa una frase del genere? No, credo proprio di no.

Poi Cyberpunk in quelle condizioni a 80-100 FPS sono proprio curioso di vederlo.

Al primo messaggio scrive queste cretinate, sicuramente account troll di qualcuno... lascia stare :D

al135
13-11-2020, 08:49
Non è corretto. Fare comparison di due GPUs per PC di nuova generazione senza tener conto le tecnlogie e soprattutto RT, è assolutamente fuori luogo. Non puoi dichiarare quale GPU è migliore giudicando performances in raster3D.

Dalla serie 2000 Nvidia punta tutto su Ray Tracing e DLSS 2.0 (e no, non è un semplice upscale come quello AMD, è AI, molto più complesso e da risultati immensamente superiori). L'intero hardware della GPU è sviluppato intorno ai tensor cores, AMD arriva tardi, tardissimo, ben venga la concorrenza ma senza tecnologia e hardware che possa rivaleggiare con DLSS 2.0 e RT performances sono GPU vecchie dentro.

Il risultato sarà Cyberpunk in 4k con RT Ultra e DLSS 2.0 ad 80-100 FPS con una 3090 (con risultato visivo superiore al nativo, per sharpness, dettagli e anti-aliasing), mentre con una 6900xt il 4k con RT non te lo giochi.

Ottimo vedere ATI back-on-track, ma il gap è ancora molto ampio e quello del prezzo giustificato. DLSS 2.0 e RT performances è praticamente tutto quello che vuoi in una GPU di nuova generazione per utenti PC.

allora risultato superiore al nativo non credo.. (salvo sorprese strane ma significherebbe aver sbagliato qualcosa)
pero' anche se si avvicinasse alla qualità nativa sarebbe comunque un successo enorme, figurati a eguagliarla!
su metro il dlss qualcosina perdeva (ma veramente da farci la pulce) pero' era la prima versione, ora l'hanno migliorato e staremo a vedere come si comporta, dalle prime analisi sembra tanta roba!
raytracing e dlss sono due belle tech innovative e devono cmq avere il loro spazio. amd forse non c'ha puntato tantissimo dal principio, pero' sicuramente arriverà meglio con le prossime gen

nickname88
13-11-2020, 09:15
Sono usciti svariati leak cinesi su svariati giochi. Quali leak ? Leaks di che cosa ?

Per la questione sincronia ,sotto i 60 fps esiste una cosa chiamata Freesync o Gsync da svariati anni che serve proprio a questo e che con il Low Framerate Compensation funziona fino a un minimo di 30 fps.

A 29 fps è come dici tu, a 50 no se hai monitor freesyncIl freesync così come il Gsync non preservano gli intervalli fra ogni frames, infatti agiscono solamente sul monitor e non sulla VGA, sincronizzano semplicemente il refresh del monitor all'output della VGA ( e non viceversa ), eliminando il tearing ma non prevedono alcun tipo di buffer.

sintopatataelettronica
13-11-2020, 09:26
60fps hai la sincronizzazione perfetta col monitor.

Cioé.. uno c'ha un monitor 4k, una RTX 3090, il PC da millemila euro .. e poi il monitor non ha il freesync ? :D

La sincronizzazione perfetta con il monitor serviva un bel po' di tempo fa, prima dell'avvento di queste tecnologie di regolazione del refresh dello schermo dinamiche.

sintopatataelettronica
13-11-2020, 09:35
migliora non credo, anche se
su death stranding per qualche motivo strano lo fa :D
https://www.tomshw.it/videogioco/death-stranding-pc-dlss-2-0-4k-nativo/
credo sia una questione di algoritmi di tecniche di antialiasing.
comunque al di là di tutto non accettare che il DLSS sia una tecnologia fantastica solo perchè da parte di nvidia è un po' da peracottari eh
questo è come funziona

Ma il video a cui si riferisce l'articolo e che affermerebbe che il 4K upscalato con DLSS sarebbe migliore di quello nativo tu l'hai visto ?
Io sí: e ti informo il confronto non é tra DLSS e nativo ma tra il 4K da 1440p con DLSS attivo e il 4K checkerboard rendering della PS4..

Quindi niente di stupefacente che il risultato sia superiore, stiamo parlando di schede che costano il doppio/triplo della console :D

E, comunque, anche se quell'articolo non fosse semplicemente una traduzione malfatta con copia incolla di qualche articolo apparso su riviste straniere - come invece é -, non ti viene mai il dubbio che dietro certe affermazioni ci possa stare qualche grossa marchetta ?


PS: Comunque, tanto per essere chiari, a me il DLSS pare una tecnologia fantastica e innovativa, peró certe eresie sul fatto che migliori la qualitá rispetto alla risoluzione nativa superiore non si possono sentire. IA o non IA.. il risultato sará sempre inferiore, e lo sará in proporzione al gap tra la risoluzione a cui il rendering viene effettuato e quella "ricostruita" attraverso l'algoritmo (un upscale 1080 -> 1440 dará risultati molto migliori di uno 1080 ->4K )

HwWizzard
13-11-2020, 09:40
allora risultato superiore al nativo non credo.. (salvo sorprese strane ma significherebbe aver sbagliato qualcosa)
pero' anche se si avvicinasse alla qualità nativa sarebbe comunque un successo enorme, figurati a eguagliarla!
su metro il dlss qualcosina perdeva (ma veramente da farci la pulce) pero' era la prima versione, ora l'hanno migliorato e staremo a vedere come si comporta, dalle prime analisi sembra tanta roba!
raytracing e dlss sono due belle tech innovative e devono cmq avere il loro spazio. amd forse non c'ha puntato tantissimo dal principio, pero' sicuramente arriverà meglio con le prossime gen

MA le prossime gen cosa? DLSS o FSR sono tecnologie SW che mica richiedono una nuova gen per essere sviluppate. Poi vedremo quale avrà più supporto, quella proprietaria o quella open che useranno tutti gli sviluppatori per creare i giochi per PS5 e XBox su RDNA2...
RT invece va valutato senza DLSS per capire il reale valore, il resto verrà via SW che non è e non sarà mai un dato oggettivo visto che dipende da fattori umani e IA, mentre il lato HW non lo puoi modificare.

nickname88
13-11-2020, 09:56
Cioé.. uno c'ha un monitor 4k, una RTX 3090, il PC da millemila euro .. e poi il monitor non ha il freesync ? :D

La sincronizzazione perfetta con il monitor serviva un bel po' di tempo fa, prima dell'avvento di queste tecnologie di regolazione del refresh dello schermo dinamiche.E serve ancora visto che il refresh rate variabile non agisce sulla VGA.
Il monitor freesync ? Per avere il Freesync devi scegliere fra un numero di modelli definito, se questi ultimi non hanno le caratteristiche cerchi c'è ben poco da scegliere.

HwWizzard
13-11-2020, 10:01
Mi sa che state confondendo il Frame Sync con il Frame Time ;)
Il monitor può correggere il primo ma nulla può con il secondo che è molto più fastdioso del tearing. Quindi si la CPU è molto importante perchè un 20% di IPC può cambiarti la vita nel Frame Time alias stuttering

Piedone1113
13-11-2020, 10:01
migliora non credo, anche se
su death stranding per qualche motivo strano lo fa :D
https://www.tomshw.it/videogioco/death-stranding-pc-dlss-2-0-4k-nativo/
credo sia una questione di algoritmi di tecniche di antialiasing.
comunque al di là di tutto non accettare che il DLSS sia una tecnologia fantastica solo perchè da parte di nvidia è un po' da peracottari eh
questo è come funziona
https://www.digitaltrends.com/computing/everything-you-need-to-know-about-nvidias-rtx-dlss-technology/

ma anche se quasi pareggiasse la qualità sarebbe un successo enorme.

Mi sfugge qualcosa:
Prima si consigliava di salire a risoluzione superiore per la non necessità di usare l'antialiasing, mentre adesso si consiglia di scendere in risoluzione per applicare l'antialiasing?

Il DLSS perde sempre in qualità, inutile negarlo.
Una scena renderizzata a 4 k è una cosa, scene renderizzate a 2k un'altra.
Vorrei proprio vedere poi il dlss in azione su qualche mod.
Il concetto di base è che Nvidia renderizza sui sui pc a 8k estratti i dati gli inserisce nei driver e ti ritrovi buoni risultati in DLSS.
Ma tutta la rete neurale ( ancora non ho capito se bisogna rassegnarsi a credere a tutte le baggianate delle corporation) e la Fantastica IA ( supermegafiga) funzionano solo su una percentuale di giochi trascurabile.
Questi giochi poi saranno costretti ad offrire patch o nuove texture solo dopo che Nvidia lo consenta ( perchè aggiornare una texture significa artefatti a manetta senza che i driver ed i rispettivi dati DLSS vengano rilasciati).
Quanti giochi RT ad oggi supportano DLSS?
Pochi.
Quanti dei futuri lo faranno?
Ancora meno.
La verità è che il DLSS per quanto valido sarà troppo oneroso da sostenere per Nvidia e verrà presto abbandanota per abbracciare uno standard diffuso ( o lei stessa dovrà rilasciarne le spec ad AMD)
AMD ha deciso ( insieme a MS e Sony) di utilizzare un approccio open dove la parte superupscaling sarà rilasciata ed aggiornata in game e non in driver.
La maggior differenza è questa, non il produttore hardware dovrà avere l'onere di addestrare l'IA, ma chi rilascia il gioco.

al135
13-11-2020, 10:02
MA le prossime gen cosa? DLSS o FSR sono tecnologie SW che mica richiedono una nuova gen per essere sviluppate. Poi vedremo quale avrà più supporto, quella proprietaria o quella open che useranno tutti gli sviluppatori per creare i giochi per PS5 e XBox su RDNA2...
RT invece va valutato senza DLSS per capire il reale valore, il resto verrà via SW che non è e non sarà mai un dato oggettivo visto che dipende da fattori umani e IA, mentre il lato HW non lo puoi modificare.

next gen intendo per un 4k e rt. ovviamente è solo una supposizione, non potrei sapere nulla di certo visto che i test ancora non ci sono, ma se dicono prestazioni "buone" su 1440p mi fa pensare che non brillino in performance con rt attivo, ovviamente è una mia idea poi vedremo all'atto pratico.
attualmente con una 3080/3090 in 1440p hai prestazioni ottime con rt attivo.
per quanto riguarda il dlss neppure io credo che si possa superare e credo neanche pareggiare perfettamente (siamo al limite) una risoluzione nativa a meno che di qualche castroneria o inghippo lato software (ad esempio texture 4k non perfette o qualche altra cosa particolare).
lato oggettivo/soggettivo è un po' come i filtri delle foto che a volte ti fanno dire WOW. beh, se hai un monitor 4k e giochi in 1440p con un semplice upscaling è un esperienza discreta, se giochi in 4k con dlss (quindi 1440p nativi) è un esperienza che ti fa dire wow! sembra davvero di giocare in 4k. tutto qua

al135
13-11-2020, 10:04
Mi sfugge qualcosa:
Prima si consigliava di salire a risoluzione superiore per la non necessità di usare l'antialiasing, mentre adesso si consiglia di scendere in risoluzione per applicare l'antialiasing?

Il DLSS perde sempre in qualità, inutile negarlo.
Una scena renderizzata a 4 k è una cosa, scene renderizzate a 2k un'altra.
Vorrei proprio vedere poi il dlss in azione su qualche mod.
Il concetto di base è che Nvidia renderizza sui sui pc a 8k estratti i dati gli inserisce nei driver e ti ritrovi buoni risultati in DLSS.
Ma tutta la rete neurale ( ancora non ho capito se bisogna rassegnarsi a credere a tutte le baggianate delle corporation) e la Fantastica IA ( supermegafiga) funzionano solo su una percentuale di giochi trascurabile.
Questi giochi poi saranno costretti ad offrire patch o nuove texture solo dopo che Nvidia lo consenta ( perchè aggiornare una texture significa artefatti a manetta senza che i driver ed i rispettivi dati DLSS vengano rilasciati).
Quanti giochi RT ad oggi supportano DLSS?
Pochi.
Quanti dei futuri lo faranno?
Ancora meno.
La verità è che il DLSS per quanto valido sarà troppo oneroso da sostenere per Nvidia e verrà presto abbandanota per abbracciare uno standard diffuso ( o lei stessa dovrà rilasciarne le spec ad AMD)
AMD ha deciso ( insieme a MS e Sony) di utilizzare un approccio open dove la parte superupscaling sarà rilasciata ed aggiornata in game e non in driver.
La maggior differenza è questa, non il produttore hardware dovrà avere l'onere di addestrare l'IA, ma chi rilascia il gioco.

infatti dipende tutto da quanti giochi saranno supportati (e sopratutto quali) con dlss. onestamente credo che pochi giochi abbiano bisogno di dlss. quali? quelli graficamente molto pesanti (e quindi probabilmente in termini di grafica piuttosto belli) che non sono tantissimi. quindi il dlss per funzionare dovrebbe essere applicato e supportato solo in quei giochi. su metro è stato utile ad esempio perche è un mattone.
deliver us the moon in 4k giocato su un oled è stato STUPENDO , in dlss ti salvi con 60-70 fps, nativamente stai sotto, per esempio.

HwWizzard
13-11-2020, 10:08
next gen intendo per un 4k e rt. ovviamente è solo una supposizione, non potrei sapere nulla di certo visto che i test ancora non ci sono, ma se dicono prestazioni "buone" su 1440p mi fa pensare che non brillino in performance con rt attivo, ovviamente è una mia idea poi vedremo all'atto pratico.
attualmente con una 3080/3090 in 1440p hai prestazioni ottime con rt attivo.
per quanto riguarda il dlss neppure io credo che si possa superare e credo neanche pareggiare perfettamente (siamo al limite) una risoluzione nativa a meno che di qualche castroneria o inghippo lato software (ad esempio texture 4k non perfette o qualche altra cosa particolare).
lato oggettivo/soggettivo è un po' come i filtri delle foto che a volte ti fanno dire WOW. beh, se hai un monitor 4k e giochi in 1440p con un semplice upscaling è un esperienza discreta, se giochi in 4k con dlss (quindi 1440p nativi) è un esperienza che ti fa dire wow! sembra davvero di giocare in 4k. tutto qua

Sei molto ottimista su 4K e RT (serio non 2/3 cavolate come mettono adesso) alla prossima gen :D
Il discorso che faccio io è di vedere come si comporta la parte HW, perchè quella è un dato certo e non modificabile, poi la parte SW può cambiare come tira il vento e se si faranno concorrenza lo sviluppo sarà esponenziale per dire ce l'ho più lungo. Quindi spero di vedere per RDNA2 le prestazioni in RT 4K e 1440p di Ampere senza DLSS. O almeno di essere comparabili.
Se così non sarà vuol dire che Ampere sarà da preferire in fase d'acquisto. Se invece sono pari nVidia ne esce perdente in prospettiva.

calabar
13-11-2020, 17:23
Vorrei focalizzare l'attenzione su tre punti:

- Validità delle schede
Se si vuole valutare la bontà dell'hardware nVidia e AMD non è sbagliato escludere DLSS dall'equazione perchè oggi AMD non ha questo tipo di tecnologia.
Il problema è che se uno compra la scheda oggi deve essere consapevole che al momento con nVidia può sfruttare questa tecnologia e con AMD no, e che ovviamente c'è sempre l'incognita del quando (sarà disponibile per AMD) e del come (andrà realmente, perchè averla non significa ottenere buoni risultati, vedi per esempio i limiti di DLSS 1).
Rimane il fatto che in questo nVidia è sicuramente in vantaggio ed è un valore aggiuntivo per le sue schede: hai da subito l'upscaling "intelligente" e sai come va, con AMD potrai usarlo in futuro ma non sai quando ne come sarà.

- DLSS e supporto
Ricordo bene che alla presentazione di DLSS 2 nVidia aveva dichiarato che a differenza della prima versione di questa tecnologia non occorreva più un addestramento specifico per ogni singolo gioco.
Questo è un enorme passo in avanti ma, dando per buono quanto detto da nVidia, non mi è ben chiaro perchè allora i singoli giochi hanno bisogno di supportarlo e non possa essere applicato direttamente.
Forse non occorre un addestramento specifico ma comunque si richiede che il gioco comunichi certi dati al driver? O è solo una questione di approvazione?
Perdonate l'ignoranza, ma se qualcuno conosce le risposte...

- DLSS/FSR e risultato "migliore della risoluzione nativa".
Secondo me molti qui confondono qualità con fedeltà. È ovvio che se l'intenzione è ottenere un'immagine fedele all'originale (il rendering a risoluzione nativa) questa sarà un limite asintotico a cui queste tecnologie potranno al più arrivare. Ma, se si parla di qualità, nulla vieta che si possa andare oltre quella del rendering nativo che non è perfetto, è scalettato e viene comunque migliorato con l'applicazione di filtri.
Io non mi stupirei se con DLSS/FSR si ottenesse una qualità superiore a quella ottenuta renderizzando l'immagine a risoluzione nativa. E con questo non sto dicendo che questo risultati sia stato ottenuto, parlo solo in via ipotetica.


E serve ancora visto che il refresh rate variabile non agisce sulla VGA.
Il monitor freesync ? Per avere il Freesync devi scegliere fra un numero di modelli definito, se questi ultimi non hanno le caratteristiche cerchi c'è ben poco da scegliere.
E come dovrebbe fare secondo te ad agire sulla VGA? :asd:
Quello che conta è che l'output della VGA sia sincronizzato con il refresh del monitor, quindi se la GPU produce 50 FPS il monitor andrà a 50Hz, se calerà a 45 il monitor andrà a 45 Hz, e così via. E quindi hai la sincronizzazione perfetta con il monitor anche senza i 60 FPS.
Quello che dicevi tu, ossia avere un tempo di frame costante, non lo ottieni neppure con il 60 FPS fissi e comunque è un discorso che esula dalla sincronizzazione con il monitor.

Piedone1113
13-11-2020, 17:57
Vorrei focalizzare l'attenzione su tre punti:

- Validità delle schede
Se si vuole valutare la bontà dell'hardware nVidia e AMD non è sbagliato escludere DLSS dall'equazione perchè oggi AMD non ha questo tipo di tecnologia.
Il problema è che se uno compra la scheda oggi deve essere consapevole che al momento con nVidia può sfruttare questa tecnologia e con AMD no, e che ovviamente c'è sempre l'incognita del quando (sarà disponibile per AMD) e del come (andrà realmente, perchè averla non significa ottenere buoni risultati, vedi per esempio i limiti di DLSS 1).
Rimane il fatto che in questo nVidia è sicuramente in vantaggio ed è un valore aggiuntivo per le sue schede: hai da subito l'upscaling "intelligente" e sai come va, con AMD potrai usarlo in futuro ma non sai quando ne come sarà.

- DLSS e supporto
Ricordo bene che alla presentazione di DLSS 2 nVidia aveva dichiarato che a differenza della prima versione di questa tecnologia non occorreva più un addestramento specifico per ogni singolo gioco.
Questo è un enorme passo in avanti ma, dando per buono quanto detto da nVidia, non mi è ben chiaro perchè allora i singoli giochi hanno bisogno di supportarlo e non possa essere applicato direttamente.
Forse non occorre un addestramento specifico ma comunque si richiede che il gioco comunichi certi dati al driver? O è solo una questione di approvazione?
Perdonate l'ignoranza, ma se qualcuno conosce le risposte...

- DLSS/FSR e risultato "migliore della risoluzione nativa".
Ma, se si parla di qualità, nulla vieta che si possa andare oltre quella del rendering nativo che non è perfetto, è scalettato e viene comunque migliorato con l'applicazione di filtri.
Io non mi stupirei se con DLSS/FSR si ottenesse una qualità superiore a quella ottenuta renderizzando l'immagine a risoluzione nativa. E con questo non sto dicendo che questo risultati sia stato ottenuto, parlo solo in via ipotetica.





Qualità e fedeltà sono direttamente legati. Ottenere una scena non fedele per quanto può sembrare qualitativamente ottima in realtà non lo è.
Esempio pacchiano è una sega ( a mano) a denti fini che a 4k li vedi, mentre con dlss non ne vedrai uno ( sai anche perchè) se non avvicinandoti molto.
Bene una scena del genere la puoi definire qualitativamente migliore con dlss piuttosto che a risoluzione nativa? ( e a ris nativa i filtri che applichi al dlss lavoreranno certamente meglio).
Fedeltà non va intesa come sola fedeltà colore, ma anche dettaglio, dettaglio che con dlss andrai per forza di cosa a perdere anche se ben camuffato e con un effetto più che gradevole.
Attualmente il DLSS è una tecnologia che migliora molto la fruizione dei giochi, ma la stiamo applicando a 2/3 effetti RT, bisogna aspettare ancora un anno buono per capire dove va il mercato, solo allora potremmo dare un parere se sia una killer feature o una tecnologia ottima ma che non ha preso piede ( come credo che accadrà)

sintopatataelettronica
13-11-2020, 18:53
Ma, se si parla di qualità, nulla vieta che si possa andare oltre quella del rendering nativo che non è perfetto, è scalettato e viene comunque migliorato con l'applicazione di filtri.
Io non mi stupirei se con DLSS/FSR si ottenesse una qualità superiore a quella ottenuta renderizzando l'immagine a risoluzione nativa. E con questo non sto dicendo che questo risultati sia stato ottenuto, parlo solo in via ipotetica.

Non é fisicamente possibile - e non lo sará mai - che un'upscale abbia qualitá maggiore del rendering fatto a una risoluzione maggiore.

E' come dire - e ne ho visti di post così pure qui sul forum - che un DVD con i filtri applicati e gli shader si vede meglio di un blu-ray nativo.
E' una cosa fisicamente impossibile.

Cioè di bluray di film vecchi upscalati male da sorgenti inferiori ai 4k ce ne sono a bizzeffe.. MA partendo dalla stessa immagine sorgente il bluray offrirá SEMPRE dettaglio e definizione INFINITAMENTE superiori al DVD.

E lo stesso é con queste tecnologie software di upscale/downscale con annesso image-enhancement: a paritá di qualitá (opzioni attive) ci sará sempre differenza in favore, ovviamente, dell'immagine originale/nativa: 'ste tecnologie sono solo - e lo saranno sempre - un compromesso (accettabile) in favore della fluiditá (visto che non c'é ancora potenza di calcolo sufficiente per tutto quanto nemmeno nelle schede piú costose e potenti).. che sacrificano peró almeno in parte la qualitá.

Poi logico che se l'immagine nativa la renderizzi senza anti-aliasing, senza nessun filtro/shader e magari pure senza full Raytracing.. é possibile che un'upscale che parte da immagine con tutti i filtri/shader/settaggi al massimo possa vedersi in qualche modo "meglio" della nativa che ne é priva, ma é barare: é come - tornando all'esempio del bluray - se in DVD mi metti il film con il lavoro di post-produzione ed effetti speciali e sul bluray mi metti il girato direttamente dalla cam e poi mi vieni a dire che "VEDI: IL DVD SI VEDE MEGLIO!!! C'HA PURE I RAGGI LASER E LE 'SPLOSIONI" :D

al135
13-11-2020, 19:00
Non é fisicamente possibile - e non lo sará mai - che un'upscale abbia qualitá maggiore del rendering fatto a una risoluzione maggiore.

E' come dire - e ne ho visti di post così pure qui sul forum - che un DVD con i filtri applicati e gli shader si vede meglio di un blu-ray nativo.
E' una cosa fisicamente impossibile.

Cioè di bluray di film vecchi upscalati male da sorgenti inferiori ai 4k ce ne sono a bizzeffe.. MA partendo dalla stessa immagine sorgente il bluray offrirá SEMPRE dettaglio e definizione INFINITAMENTE superiori al DVD.

E lo stesso é con queste tecnologie software di upscale/downscale con annesso image-enhancement: a paritá di qualitá (opzioni attive) ci sará sempre differenza in favore, ovviamente, dell'immagine originale/nativa: 'ste tecnologie sono solo - e lo saranno sempre - un compromesso (accettabile) in favore della fluiditá (visto che non c'é ancora potenza di calcolo sufficiente per tutto quanto nemmeno nelle schede piú costose e potenti).. che sacrificano peró almeno in parte la qualitá.

Poi logico che se l'immagine nativa la renderizzi senza anti-aliasing, senza nessun filtro/shader e magari pure senza full Raytracing.. é possibile che un'upscale che parte da immagine con tutti i filtri/shader/settaggi al massimo possa vedersi in qualche modo "meglio" della nativa che ne é priva, ma é barare: ma é come - tornando all'esempio del bluray - se in DVD mi metti il film con il lavoro di post-produzione ed effetti speciali e sul bluray mi metti il girato direttamente dalla cam e poi mi vieni a dire che "VEDI: IL DVD SI VEDE MEGLIO!!! C'HA PURE I RAGGI LASER E LE 'SPLOSIONI" :D


il dlss non è un upscaling

sintopatataelettronica
13-11-2020, 19:10
il dlss non è un upscaling

certo che lo é: da un immagine 2D (lavora sui pixel) ad una risoluzione inferiore, con algoritmi sofisticatissimi e in base ai risultati dell'intelligenza artificiale allenata sui suoi network di supercomputer da NVIDIA, il DLSS deduce come "ricostruirla" ad una risoluzione superiore.

Il processo é lo stesso, non é mica magico il dlss: i pixel in piú che non ci sono non possono magicamente apparire dal niente.. vengono dedotti (in base a processi sofisticatissimi ed estremamente efficaci, a quanto si legge) dall'algoritmo... per cui esso, per quanto sofisticato, resta di fatto un upscaling.

calabar
13-11-2020, 19:25
Qualità e fedeltà sono direttamente legati.
NI.
Immagina di esaminare due immagini di cui non conosci la provenienza, non sai quale sia il rendering nativo e quello generato tramite DLSS. Valuti la qualità del risultato.
Questo è quello che intendo, in questo modo valuti la qualità dell'immagine e non la fedeltà.

Tieni conto che le differenze stanno nei dettagli (artefatti a parte), quindi non si tratta di differenze sostanziali (per dire... non avrai un )
l'IA potrebbe tranquillamente "inventare" una versione dell'oggetto migliore di quella renderizzata dal motore grafico (magari perchè addestrata su immagini fotorealistiche o fotografiche, a differenza di quelle generate dal motore grafico).

Non é fisicamente possibile - e non lo sará mai - che un'upscale abbia qualitá maggiore del rendering fatto a una risoluzione maggiore.
È possibilissimo invece, stai continuando a confondere qualità visiva con fedeltà.
L'esempio del DVD non è del tutto calzante, li hai dietro un'immagine reale e non un'approssimazione e un'immagine artificiale come è anche il rendering a risoluzione nativa.

Per evitare fraintendimenti ripeto: non sto dicendo che il DLSS attuale ne sia in grado.

Ad ogni modo, come ho detto ad un altro utente in una recente discussione, trovo sia profondamente sbagliato parlare di "barare", i risultati ci sono e sono solidi, concreti. Non dovrebbe importare come hai ottenuto il risultato, ma solo il risultato ottenuto.

Attualmente il DLSS è una tecnologia che migliora molto la fruizione dei giochi, ma la stiamo applicando a 2/3 effetti RT, ...
Penso possa essere applicata in ogni caso, con grande vantaggio su tutte le fasce di schede per migliorare le prestazioni generali al prezzo, oggi, di qualche artefatto.
Se dovessi scoprire che la mia scheda arranca con un gioco e che con queste tecnologie sarei in grado di ottenere le prestazioni che mi servono per giocare bene, non esiterei ad usarle e probabilmente questo significherebbe anche aumentare la longevità della mia scheda.

sintopatataelettronica
13-11-2020, 19:42
È possibilissimo invece, stai continuando a confondere qualità visiva con fedeltà.

Quel che dici puó avvenire solo se l'immagine a risoluzione nativa e quella di cui fai l'upscale subiscono trattamenti radicalmente diversi, tipo che l'upscalata viene riempita di filtri ed effetti avanzati e la nativa no, la lasciano "nuda" (e magari pure con degli artefatti - tipo aliasing -).

Altrimenti la vedo dura che possa avere maggiore qualitá quella upscalata.

Comunque resta di fatto una tecnologia straordinaria e davvero innovativa il dlss .. E la vorrei veramente tanto vedere in azione dal vivo su due sistemi identici affiancati (uno con output 4k nativo e l'altro con immagine "ricostruita" tramite DLSS) .. sarebbe una cosa molto interessante, i video su youtube sono troppo compressi per potersi fare un'idea della reale differenza.

E comunque validissima: pur facesse perdere qualche dettaglio rispetto al nativo (fornendo qualitá piú che buona).. se permettesse framerate molto piú alti offrirebbe lo stesso molto di piú di quel che toglie.

Emman253
14-11-2020, 01:11
Mamma mia ragazzi che bordello per sto DLSS... il DLSS agisce in questo modo;
1) Non tocca la risoluzione del vostro monitor.
2) Agisce invece sul rendering di gioco che sono due cose ben diverse dalla risoluzione in sé.

Esempio:
Gioco con una risoluzione 4K e rendering di gioco in 4k, attivo il DLSS e mi bloccherà l'impostazione di rendering del gioco, questo perché provvederà lui in base alla tecnica utilizzata ad abbassare la qualità del rendering per avere quei frame in più, in questo caso giocherò in 4K (risoluzione nativa del monitor) con un rendering di gioco in 2K (rendering di gioco non risoluzione), per questo se leggete nelle impostazioni viene detto più volte che andrebbe utilizzato se giocate con una risoluzione dai 2k in su, nel caso lo attivate invece su un 1080p, il rendering di gioco scenderà da 1080p>720p e ovviamente è palese che la poca nitidezza sarà più visibile rispetto a chi gioca dai 2k in si, ovviamente la qualità grafica intesa per dettagli grafici è quella (modelli 3D, effetti particellari, ombre ecc), ma ciò che andrà a toccare è la nitidezza in gioco.

Ricapitoliamo:
NO DLSS> RISOLUZIONE 2160p RENDERING 2160p
SI DLSS> RISOLUZIONE 2160p RENDERING 1440p
NO DLSS> RISOLUZIONE 1440p RENDERING 1440p
SI DLSS> RISOLUZIONE 1440p
RENDERING 1080p
Ecc.

Ovviamente oltre a ciò ci sono tecniche utilizzate da Nvidia per migliorare l'immagine, ma questo è un discorso a parte e comunque la perdita di nitidezza è visibile rispetto ad un giocata su un sistema nativo.

gioffry81
14-11-2020, 05:24
Ok dopo aver letto i commenti sono arrivato alla conclusione che grazie alla tecnologia del DLSS i programmatori possono tornare a fare giochi a risoluzione Amiga 300x256 per poi goderceli in 4k!, con tutti i vantaggi che ne conseguono, minori tempi di rilascio, minori costi e soprattutto minor peso dei giochi che sarebbe massimo di qualche megabyte!. Meraviglioso.
L’esempio esagerato è voluto (essendo il principio lo stesso del passaggio dal 2k>4k), proprio per intendere meglio che non c’è modo di pareggiare un’immagine originale (anche se si può avvicinare molto, soprattutto se il salto di risoluzione è minimo), figuriamoci migliorarla, se questo sembra accadere è perché si comporta come un qualcosa di simile ad un filtro AA, facendolo però in modo migliore, non è che ti inventa i soggetti a piè pari.
Detto questo, il DLSS è una manna dal cielo, davvero tanta roba, che aiuterebbe teoricamente tanti player con vga un po’ più datate. Chapeau.

Piedone1113
14-11-2020, 07:45
NI.
Immagina di esaminare due immagini di cui non conosci la provenienza, non sai quale sia il rendering nativo e quello generato tramite DLSS. Valuti la qualità del risultato.
Questo è quello che intendo, in questo modo valuti la qualità dell'immagine e non la fedeltà.

Tieni conto che le differenze stanno nei dettagli (artefatti a parte), quindi non si tratta di differenze sostanziali (per dire... non avrai un )
l'IA potrebbe tranquillamente "inventare" una versione dell'oggetto migliore di quella renderizzata dal motore grafico (magari perchè addestrata su immagini fotorealistiche o fotografiche, a differenza di quelle generate dal motore grafico).




Questa l'hai esagerata.
L'IA è addestrata su quel singolo gioco renderizzato a 8k ( o oltre) non su immagini fotorealistiche.
In Parte il DLSS lavora in modalità Predittiva e non usa immagini fotorealistiche o fotografiche, altrimenti potresti trovarti un pollo volante invece che un aquila dal collare.
Il DLSS non è assolutamente in grado di riconoscere oggetti o forme.

NI.


Penso possa essere applicata in ogni caso, con grande vantaggio su tutte le fasce di schede per migliorare le prestazioni generali al prezzo, oggi, di qualche artefatto.
Se dovessi scoprire che la mia scheda arranca con un gioco e che con queste tecnologie sarei in grado di ottenere le prestazioni che mi servono per giocare bene, non esiterei ad usarle e probabilmente questo significherebbe anche aumentare la longevità della mia scheda.

Il DLSS è svincolato dall'RT ( e lavora in 2d non sul 3d) ed è un FILTRO di upscaling ( per quanto complesso) che dovrebbe poter lavorare in ogni condizione e con ogni gioco.
Per il momento Nvidia ha investito solo in alcuni titoli con RT per rendere appetibile le sue scheda.
Il bello è che Nvidia parla del DLSS come svincolato dal gioco, ma difatti è solo una percentuale infinitesimale dei giochi a poterne fruire.
Insomma un Barbatrucco commerciale perchè altrimenti avrebbe dovuto essere disponibile su ogni gioco a prescindere dal supporto diretto Nvidia.
Il fatto dei 2/3 effetti RT non stava ad indicare l'incapacità del DLSS, ma l'incapacità delle schede ad implementare anche solo a 1440 più dei canonici 2/3 effetti.
Per un confronto diretto Nvidia AMD circa l'RT dovremmo aspettare almeno la disponibilità di giochi RT per la serie 6xxx di AMD, ma il DLSS è solo fumo negli occhi a causa della limitazione al supporto diretto di Nvidia ed alla sua per ora scarsa diffusione.

calabar
14-11-2020, 18:14
Quel che dici puó avvenire solo se l'immagine a risoluzione nativa e quella di cui fai l'upscale subiscono trattamenti radicalmente diversi, ...
La differenza la fa l'intelligenza artificiale che "ricrea" i dettagli a partire dal rendering a bassa risoluzione, non occorre che le due immagini abbiano subito trattamenti differenti.

Questa l'hai esagerata.
L'IA è addestrata su quel singolo gioco renderizzato a 8k ( o oltre) non su immagini fotorealistiche.
Ricorda che stavo parlando in prospettiva, non dell'attuale implementazione.
Un domani l'AI potrebbe riconoscere il tipo di oggetto e basare la ricostruzione a più alta risoluzione su modelli migliori di quelli renderizzati.
Ad ogni modo il fatto che l'analisi sia basata sul gioco renderizzato a risoluzione superiore a quella che poi viene ottenuta con il DLSS implica comunque un possibile margine di miglioramento.

Il bello è che Nvidia parla del DLSS come svincolato dal gioco, ma difatti è solo una percentuale infinitesimale dei giochi a poterne fruire.
Ecco, questo è il punto che ancora non mi è chiaro. Cosa impedisce di applicare DLSS ovunque se, come dichiara nVidia, non occorre più un addestramento specifico per ogni gioco?
Non direi comunque che è fumo negli occhi, ma indubbiamente in questo modo pare lo si stia sfruttando ben al di sotto del suo potenziale.

Piedone1113
14-11-2020, 23:10
Non direi comunque che è fumo negli occhi, ma indubbiamente in questo modo pare lo si stia sfruttando ben al di sotto del suo potenziale.

Il Dlss è fumo negli occhi perché distoglie il focus dalle prestazioni RT che sono ancora scarsissime ( e usare 2 effetti sui 3 disponibili in hardware in parti limitate di scena dimostrano questo).
Di suo la tecnica è ottima ( e verrà implementata anche da AMD) ma se limitata al solo supporto diretto driver sarà appannaggio di pochi giochi continuerà ad essere una vetrina sbrillucicante con pochi capi esposti, mentre il resto della merce sarà scialba.