PDA

View Full Version : Recensione Radeon RX 6800 XT e 6800, le prime schede video AMD per il 4K e il ray tracing


Pagine : [1] 2

Redazione di Hardware Upg
18-11-2020, 15:00
Link all'Articolo: https://www.hwupgrade.it/articoli/skvideo/5887/recensione-radeon-rx-6800-xt-e-6800-le-prime-schede-video-amd-per-il-4k-e-il-ray-tracing_index.html

Radeon RX 6800 XT e 6800 alla prova: le prime schede video di AMD dedicate al gaming in 4K e con supporto al ray tracing puntano a sfidare le GeForce RTX 3000 di Nvidia, in particolare la RTX 3080 e la RTX 3070. Forti del rinomato processo produttivo a 7 nanometri e della collaborazione del team delle CPU Ryzen, le nuove GPU riusciranno a mettere pressione a Nvidia? Scopriamolo!

Click sul link per visualizzare l'articolo.

ghiltanas
18-11-2020, 15:12
Gran belle schede, amd ha fatto un recupero eccezionale!

I consumi poi mi paiono decisamente migliori delle Nvidia, inoltre anche le reference sembrano valide

demon77
18-11-2020, 15:21
INSOMMA...

Deluso no.. ma neanche entusiasta. :(
Le prestazioni ci sono, si può dire che senza ray tracing c'è un pareggio tra queste e le rivali Nvidia.
Ma con il ray tracing attivo questo divario si allarga un po' lasciando indietro AMD.. e la situazione peggiora ulteriormente con DLSS.

Il punto è piuttosto chiaro:
potendo scegliere oggi come oggi mi pare più attrattiva Nvida piuttosto che AMD.

ghiltanas
18-11-2020, 15:24
INSOMMA...

Deluso no.. ma neanche entusiasta. :(
Le prestazioni ci sono, si può dire che senza ray tracing c'è un pareggio tra queste e le rivali Nvidia.
Ma con il ray tracing attivo questo divario si allarga un po' lasciando indietro AMD.. e la situazione peggiora ulteriormente con DLSS.

Il punto è piuttosto chiaro:
potendo scegliere oggi come oggi mi pare più attrattiva Nvida piuttosto che AMD.

dipende, personalmente non mi interessa granchè nè dlss nè ray tracing, per ora preferisco le prestazioni in raster, per il rt per me se nè riparla tra qualche anno.

rob-roy
18-11-2020, 15:25
Grande AMD....impressionante!

Radioactive
18-11-2020, 15:25
Gran belle schede, amd ha fatto un recupero eccezionale!

I consumi poi mi paiono decisamente migliori delle Nvidia, inoltre anche le reference sembrano valide

Concordo, finalmente un po' di rosso anche in ambito GPU
Con le CPU AMD ha fatto un lavoro meraviglioso e la serie Ryzen ha dato una bella rinfrescata ad un settore ristagnante da anni ed anni di dominio Blu Intel, credo che anche in ambito GPU possa e debba accadere la stessa cosa.

Luxor83
18-11-2020, 15:27
Beh, non mi ritengo un fanboy ne dei rossi ne dei verdi, semplicemente vado dove conviene.

E al momento se dovessi fare un pc nuovo sceglierei piattaforma AMD per tutto.

Ps: scrivo da un i7 con Rtx2060, quindi ripeto, il mio commento è imparziale.

al135
18-11-2020, 15:27
purtroppo a livello visivo (è quel che si cerca dato che ormai se cerchi prestazioni va bene qualsiasi scheda ) si accetta solo il raytracing, il rastering comincia a stare stretto soprattutto in giochi di ultima gen e upcoming.
brava amd a recuperare cmq terreno, ma la strada da fare è ancora tanta. per ora mi tengo la 3090, a meno che non esca in primavera o estate qualche altra cosa.

zerothehero
18-11-2020, 15:30
e la madonna!

demon77
18-11-2020, 15:30
Beh, non mi ritengo un fanboy ne dei rossi ne dei verdi, semplicemente vado dove conviene.

E al momento se dovessi fare un pc nuovo sceglierei piattaforma AMD per tutto.

Ps: scrivo da un i7 con Rtx2060, quindi ripeto, il mio commento è imparziale.

Da non fanboy a non fanboy.. Perchè? :mbe:
Non conosco i prezzi quindi mi baso solo sui bench qui sopra.. mi pare chiaro che le GPU Nvidia nel complesso sono milgiori. Non di tanto ma certamente migliori.

Radioactive
18-11-2020, 15:31
INSOMMA...

Deluso no.. ma neanche entusiasta. :(
Le prestazioni ci sono, si può dire che senza ray tracing c'è un pareggio tra queste e le rivali Nvidia.
Ma con il ray tracing attivo questo divario si allarga un po' lasciando indietro AMD.. e la situazione peggiora ulteriormente con DLSS.

Il punto è piuttosto chiaro:
potendo scegliere oggi come oggi mi pare più attrattiva Nvida piuttosto che AMD.

Questi risultati potrebbero anche dipendere dalla ancora scarsa ottimizzazione dei driver e dei giochi, io aspetterei qualche mese per decidere.

dipende, personalmente non mi interessa granchè nè dlss nè ray tracing, per ora preferisco le prestazioni in raster, per il rt per me se nè riparla tra qualche anno.

Concordo, anche io preferisco la sostanza a qualche effetto, soprattutto se questo mi costa metà dei frame che la GPU potrebbe generare, poi per carità, tra qualche anno non ne potremmo più fare a meno, come è accaduto, almeno per me, con FreeSync G-Sync

al135
18-11-2020, 15:31
Da non fanboy a non fanboy.. Perchè? :mbe:
Non conosco i prezzi quindi mi baso solo sui bench qui sopra.. mi pare chiaro che le GPU Nvidia nel complesso sono milgiori. Non di tanto ma certamente migliori.

a parer mio il miglior compromesso è quel che ho scelto...
scheda nvidia e processore amd :D

demon77
18-11-2020, 15:35
Questi risultati potrebbero anche dipendere dalla ancora scarsa ottimizzazione dei driver e dei giochi, io aspetterei qualche mese per decidere.

May be. Vediamo.


Concordo, anche io preferisco la sostanza a qualche effetto, soprattutto se questo mi costa metà dei frame che la GPU potrebbe generare, poi per carità, tra qualche anno non ne potremmo più fare a meno, come è accaduto, almeno per me, con FreeSync G-Sync

Neanche io ho chissà che interesse per il RT.. ma se da un lato ho una scheda che va a pari senza RT e qualcosa meglio con RT allora non vedo perchè dovrei scegliere quella più lenta. Salvo prezzi più convenienti ovviamente.

Radioactive
18-11-2020, 15:35
a parer mio il miglior compromesso è quel che ho scelto...
scheda nvidia e processore amd :D

Alla faccia del "compromesso"
Hai scelto il TOP del TOP... Non hai compromesso proprio niente :D :D :D
E te lo dice uno che non bada troppo alle spese e hai compromessi quando sceglie qualcosa di hardware :sofico:

ninja750
18-11-2020, 15:36
cioè la questione di togliere un gioco dalle chart dove amd domina è una scelta editoriale allucinante :asd: non si poteva fare anche prima a parti invertite dove alcuni titoli erano palesemente sponsorizzati nvidia?

bagnino89
18-11-2020, 15:38
Bene bene, forse è il caso che Nvidia inizi ad abbassare il costo delle sue GPU, specie le 3070. Le custom più "spompate" sul mercato, tipo le biventola, dovrebbero vergognarsi a venderle a più di 500 EUR, considerate le differenze in prestazioni con le 6800 e, soprattutto, la VRAM a bordo (vero limite, secondo me, delle proposte Nvidia).

Datti una svegliata, Giacchetta Nera.

Complimenti ad AMD, a questo giro ha dato schiffi in faccia sia ad Intel che a Nvidia.

demon77
18-11-2020, 15:38
a parer mio il miglior compromesso è quel che ho scelto...
scheda nvidia e processore amd :D

Minchia un entry level proprio. :D
Il mio è in programma l'anno prossimo ma senza dubbio una config più tranquilla.

PS: quanto hai pagato il 5800x??
Perchè anche io punto a quello.. ma spulciando in giro ho visto pochissimi esemplari disponibili tra l'altro a prezzi moolto alti tipo 800 euro..

Gyammy85
18-11-2020, 15:39
A parte alcuni titoli dove probabilmente bisognerà lavorare di ottimizzazione, in rt sono convincenti, e dirt 5 è praticamente next gen, sono quelle le perf

Niihashi
18-11-2020, 15:41
Clamorosamente disastrosi i benchmark con Ray Tracing e una scheda di nuova generazione non può permettersi di uscire in queste condizioni. Sono attonito, hanno praticamente le stesse performances di una 2080 Ti che ormai si trova a 300e su eBay e la situazione peggiora pure con DLSS. Insomma, con ormai tutti i giochi di spessore in pieno supporto DLSS e RT, valore 6800xt sui 250-300 euro, non ci spenderei un euro in più.

Differente il discorso su lato CPU invece, prenderei 5950x ora se non avessi già un 10900k.

al135
18-11-2020, 15:42
cioè la questione di togliere un gioco dalle chart dove amd domina è una scelta editoriale allucinante :asd: non si poteva fare anche prima a parti invertite dove alcuni titoli erano palesemente sponsorizzati nvidia?

non è allucinante, è un gioco dove se fai la media ti sballa è per questo che è stato tolto. e la gente vuole vedere risultati reali non sballati. e comunque sono presenti sia quelli con dirt che quelli senza ;)

al135
18-11-2020, 15:45
Minchia un entry level proprio. :D
Il mio è in programma l'anno prossimo ma senza dubbio una config più tranquilla.

PS: quanto hai pagato il 5800x??
Perchè anche io punto a quello.. ma spulciando in giro ho visto pochissimi esemplari disponibili tra l'altro a prezzi moolto alti tipo 800 euro..

l'ho preso a 490 su amazon sempre grazie al mio portatile affianco e al dito magico F5 F5 F5 F5 ogni circa 3 secondi :D :D :D :D

bagnino89
18-11-2020, 15:47
Clamorosamente disastrosi i benchmark con Ray Tracing e una scheda di nuova generazione non può permettersi di uscire in queste condizioni. Sono attonito, hanno praticamente le stesse performances di una 2080 Ti che ormai si trova a 300e su eBay e la situazione peggiora pure con DLSS. Insomma, con ormai tutti i giochi di spessore in pieno supporto DLSS e RT, valore 6800xt sui 250-300 euro, non ci spenderei un euro in più.

Vabbè dai...

Meglio una 3070, già obsoleta con 8 GB di VRAM... Detto da uno che ne vorrebbe una, ma non ai prezzi proposti.

Il ray tracing è ancora lontano, imho... Molto meglio continuare a guardare la sostanza (raster, consumi, VRAM...).

Radioactive
18-11-2020, 15:47
May be. Vediamo.




Neanche io ho chissà che interesse per il RT.. ma se da un lato ho una scheda che va a pari senza RT e qualcosa meglio con RT allora non vedo perchè dovrei scegliere quella più lenta. Salvo prezzi più convenienti ovviamente.

Ripeto, potrebbe essere solo un problema di ottimizzazione.
Poi se è un problema che i core RT sono meno potenti, allora ok, in quel caso va a gusti e soprattutto a prezzo.

Ale55andr0
18-11-2020, 15:49
Clamorosamente disastrosi i benchmark con Ray Tracing e una scheda di nuova generazione non può permettersi di uscire in queste condizioni. Sono attonito, hanno praticamente le stesse performances di una 2080 Ti che ormai si trova a 300e su eBay e la situazione peggiora pure con DLSS. Insomma, con ormai tutti i giochi di spessore in pieno supporto DLSS e RT, valore 6800xt sui 250-300 euro, non ci spenderei un euro in più.

Differente il discorso su lato CPU invece, prenderei 5950x ora se non avessi già un 10900k.

stai trollando? sono tutti giochi pro nvidia eccetto due, infatti in quei due va meglio amd, ed anzi in un in cui vince nvidia vince per un UN frame. 4 a 2 in totale per nvidia con quasi tutta la suite sponsorizzata verde...e in ogni caso tutte INADEGUATE per gestirlo bene in 4. Try again, anzi, lascia stare...

lucusta
18-11-2020, 15:50
sarà problematico, in un prossimo futuro, riuscire a stabilire le prestazioni quando anche AMD userà il super resolution.
a quel punto come si riuscirà a valutare un vero livello di competizione se non si valuterà anche la qualità dell'immagine offerta?

Cornelius_Astutus
18-11-2020, 15:50
Brava AMD, si sono rimboccati le maniche e i risultati si vedono

DukeIT
18-11-2020, 15:55
Da non fanboy a non fanboy.. Perchè? :mbe:
Non conosco i prezzi quindi mi baso solo sui bench qui sopra.. mi pare chiaro che le GPU Nvidia nel complesso sono milgiori. Non di tanto ma certamente migliori.
Pure io sceglierei una piattaforma completamente AMD.
La 6800XT pareggia con la 3080, ma costa meno di listino e penso costerà ancora meno di street price (da verificare).
La 6800 batte nettamente la 3070, anche in RT (ovvio, se poi si scelgono i titoli, si può far vincere chiunque, quindi Dirt 5 va considerato, come pure i titoli pro nVidia). Probabilmente costerà pure meno come street price.
Già questo mi sarebbe sufficiente.

Ora, solita considerazione, questi sono i primi driver, e in particolare AMD ha dimostrato che nel tempo le prestazioni dei propri modelli sono nettamente migliorate con le nuove release.
Seconda considerazione, i giochi cross-platform devono ancora uscire, ed è difficile non credere che le AMD non ne trarranno giovamento.
Terza, al momento non avrei dubbi nel scegliere una CPU AMD, e questo significa un ulteriore vantaggio (SAM).
Per finire, i consumi...

A favore di nVidia, ma solo per il modello 3080, c'è il RT, che a me per il momento interessa molto poco (se non mi dicono dove è attivato, non lo capirei nemmeno, se non per la caduta del frame-rate). In ogni caso volendo c'è, ed è da vedere come renderà con i nuovi titoli.
Rimane il DLSS, e qui bisognerà vedere la risposta AMD, ma qualsiasi sarà la risposta, non sceglierei certamente una VGA per un vantaggio in questa tecnologia.

Alfhw
18-11-2020, 15:57
l'ho preso a 490 su amazon sempre grazie al mio portatile affianco e al dito magico F5 F5 F5 F5 ogni circa 3 secondi :D :D :D :D
Infatti il vero problema della 6800 XT sarà trovarla... Su un sito svizzero (che comunque non spediva all'estero) hanno aperte le vendite alle 15.00. Le 20 schede 6800 XT che avevano sono andate via in 9 minuti!
E le 51 schede 6800 hanno fatto una fine simile in pochissimi minuti...
Altri negozi, anche importanti, non ne hanno neanche una (o forse sono già esaurite). :rotfl:

Mparlav
18-11-2020, 16:08
La 6800 liscia è una scheda ben riuscita e con ottimi consumi, che non guastano mai. Bene per il QHD ed UWQHD.

La 6800XT invece ha vita più difficile nel rapporto prezzo/prestazioni nei confronti della rivale RTX 3080.

Nella grande incognita della disponibilità e prezzo effettivi e basandosi su quelli di listino.
Perchè anche questa volta si rischia di vedere tante recensioni ma poca "sostanza".

Il dissipatore reference è finalmente adeguato per temperatura/rumore e con fan stop in idle; i modelli custom saranno migliori per temperatura, ma alla fine la reference non è più un ripiego.

Ed hanno corretto, dopo tanti anni, il consumo in multimonitor.

Il maggior difetto sono le prestazioni in Raytracing, per quel che è emerso fino ad ora, sono indietro di una generazione.

Ad Nvidia, più che una RTX 3080 ti, serve una RTX 3070 Ti 16GB da 550-600$.

Ad Amd ed Nvidia serve innanzi tutto, reale disponibilità in commercio.

Erunoèr
18-11-2020, 16:10
Brava brava brava AMD! Dopo quasi 9 anni mi hai dato il pretesto per aggiornare il pc!

Radeon RX 6800 XT 16G disponibili su noto store tedesco:
Asus 849€
Sapphire 839€
XFX 819€
MSI 819€

Radeon RX 6800 16GB:
Asus: 764€
Sapphire: 759€
MSI: 729€

Max_R
18-11-2020, 16:10
Fuori portata più che altro per le misure per me e si vede che è proprio il pcb

bepman
18-11-2020, 16:13
io ci andrei piano nel definire scarse queste schede in RT visto come vanno negli unici 2 titoli nuovi, cioè programmati con le nuove console in mente

Zodzor
18-11-2020, 16:15
Clamorosamente disastrosi i benchmark con Ray Tracing e una scheda di nuova generazione non può permettersi di uscire in queste condizioni. Sono attonito, hanno praticamente le stesse performances di una 2080 Ti che ormai si trova a 300e su eBay e la situazione peggiora pure con DLSS. Insomma, con ormai tutti i giochi di spessore in pieno supporto DLSS e RT, valore 6800xt sui 250-300 euro, non ci spenderei un euro in più.

Differente il discorso su lato CPU invece, prenderei 5950x ora se non avessi già un 10900k.

2/10

DukeIT
18-11-2020, 16:15
Ripeto, in questo test, siccome si ripete in continuazione che le nVidia vincono in RT, che la 6800, con i giochi testati (tutti, sia quelli pro che quelli contro), vince nei confronti della 3070.
E i giochi cross-platform a venire probabilmente premieranno ancora di più le AMD, così come un ulteriore guadagno si avrà utilizzando CPU AMD.
Ed il confronto 6800 vs 3070 è quello più importante.

Vertex
18-11-2020, 16:16
Mah, non sono particolarmente impressionato, anzi.
Fondamentalmente sia nVidia che AMD al momento attuale hanno delle grosse lacune.
Le RTX 3000 sono ottime dal punto di vista prestazionale in ogni situazione (nella propria fascia di appartenenza) ma sono carenti di Vram, le RX 6000 hanno molta memoria ma offrono prestazioni deludenti in ray tracing... E non è con quei prezzi che si faranno preferire alle RTX.

Lithios
18-11-2020, 16:17
Il recupero e progressione di AMD è impressionante rispetto alla precedente generazione. Siamo sul +54% rispetto alla onesta 5700XT.

Nel confronto con la generazione attuale Nvidia vedo un sostanziale pareggio tra AMD e Nvidia come prestazioni e prezzi nelle varie fasce, con la preferenza che, ad oggi è dettata principalmente dalle specifiche features da subito disponibili:

Se da un lato Nvidia ha il DLSS ed AMD lo ha solo annunciato, dall'altro c è da dire che AMD ha il SAM mentre Nvidia lo ha solo annunciato.

Infine una considerazione sulla recensione: Nei grafici prestazionali sarebbe stato utile inserire anche un confronto percentuale con SAM attivo, in modo da capire bene a che livelli impatta. Mi pare poco equo prendersi la briga di raddoppiare i grafici percentuali escludendo Dirt e poi non metterne uno che considera il SAM attivo.

al135
18-11-2020, 16:20
Mah, non sono particolarmente impressionato, anzi.
Fondamentalmente sia nVidia che AMD al momento attuale hanno delle grosse lacune.
Le RTX 3000 sono ottime dal punto di vista prestazionale in ogni situazione (nella propria fascia di appartenenza) ma sono carenti di Vram, le RX 6000 hanno molta memoria ma offrono prestazioni deludenti in ray tracing... E non è con quei prezzi che si faranno preferire alle RTX.


IL PUNTO E' che della vram te ne freghi se hai maggiori prestazioni...
è come dire ti metto un 8000 di cilindrata su una punto ma tanto vai a 100 lo stesso... conta quanto vai, non quello che porti dietro... se aveva una mela sopra e andava di piu sarebbe andato benissimo lo stesso...

al135
18-11-2020, 16:21
Dopo anni di gta5 del 1980 al primo gioco sbilanciato amd emerge lo spirito di giusta concorrenzah su un titolo nextgen :O

ehmmm sono pochi titoli testati, infatti se fai la media un po' sballa.
ripeto, scelta giusta da parte della redazione, anche perche sono presenti sia quelli con dirt che quelli senza dirt, quindi dove sta il problema?

Ale55andr0
18-11-2020, 16:25
Brava brava brava AMD! Dopo quasi 9 anni mi hai dato il pretesto per aggiornare il pc!

Radeon RX 6800 XT 16G disponibili su noto store tedesco:
Asus 849€
Sapphire 839€
XFX 819€
MSI 819€

Radeon RX 6800 16GB:
Asus: 764€
Sapphire: 759€
MSI: 729€

semplicemente folli

totalblackuot75
18-11-2020, 16:26
Gran belle vga, per chi nn ha grosse pretese a livello qualitativo ma nvidia a livello di forza bruta resta una spanna sopra..

Alfhw
18-11-2020, 16:27
Brava brava brava AMD! Dopo quasi 9 anni mi hai dato il pretesto per aggiornare il pc!

Radeon RX 6800 XT 16G disponibili su noto store tedesco:
Asus 849€
Sapphire 839€
XFX 819€
MSI 819€

Radeon RX 6800 16GB:
Asus: 764€
Sapphire: 759€
MSI: 729€

Quale negozio? E comunque sono prezzi gonfiati, forse è per quello che ne hanno ancora.

Erunoèr
18-11-2020, 16:33
Quale negozio? E comunque sono prezzi gonfiati, forse è per quello che ne hanno ancora.

Eh si sono prezzi orrendi, infatti ne hanno ancora disp. Io attenderò fine anno, inizi 2021, quando uscirà una bella custom con waterblock ad un prezzo onesto...
Il sito è alternate.de .. Un ottimo portale che normalmente fa prezzi davvero aggressivi.

demon77
18-11-2020, 16:40
l'ho preso a 490 su amazon sempre grazie al mio portatile affianco e al dito magico F5 F5 F5 F5 ogni circa 3 secondi :D :D :D :D

Che culo allora! :D
Ma sono strafelice di constatare da questo che quella che ho visto è una speculazione dovuta alla super novità ed alla forte domanda.
Spero quindi di trovare prezzi ben diversi tra sei mesi.

Alfhw
18-11-2020, 16:41
Eh si sono prezzi orrendi, infatti ne hanno ancora disp. Io attenderò fine anno, inizi 2021, quando uscirà una bella custom con waterblock ad un prezzo onesto...
Il sito è alternate.de .. Un ottimo portale che normalmente fa prezzi davvero aggressivi.
Ho appena guardato sul sito ma credo sia già esaurite pure quelle. Infatti se si clicca sulla descrizione appare una pagina con la scritta in rosso "Bereits verkauft" che dovrebbe significare "Già vendute". In un altra invece sembrano tutte prenotate.
:rotfl:

dado1979
18-11-2020, 16:42
Non leggo prezzi e disponibilità... dare giudizi senza questi due fattori è inutile.

demon77
18-11-2020, 16:43
La 6800XT pareggia con la 3080, ma costa meno di listino e penso costerà ancora meno di street price (da verificare).
La 6800 batte nettamente la 3070, anche in RT (ovvio, se poi si scelgono i titoli, si può far vincere chiunque, quindi Dirt 5 va considerato, come pure i titoli pro nVidia). Probabilmente costerà pure meno come street price.
Già questo mi sarebbe sufficiente.

Se questo viene confermato allora si.

Erunoèr
18-11-2020, 16:48
Ho appena guardato sul sito ma credo sia già esaurite pure quelle. Infatti se si clicca sulla descrizione appare una pagina con la scritta in rosso "Bereits verkauft" che dovrebbe significare "Già vendute". In un altra invece sembrano tutte prenotate.
:rotfl:

ahahahahahhaahaha

non ti danno manco il tempo di compilare un assegno,
andare in posta e spedirlo via posta ordinaria!
maledeeeeettttttiiiiiiii :sofico:

fra55
18-11-2020, 16:50
Clamorosamente disastrosi i benchmark con Ray Tracing e una scheda di nuova generazione non può permettersi di uscire in queste condizioni. Sono attonito, hanno praticamente le stesse performances di una 2080 Ti che ormai si trova a 300e su eBay e la situazione peggiora pure con DLSS. Insomma, con ormai tutti i giochi di spessore in pieno supporto DLSS e RT, valore 6800xt sui 250-300 euro, non ci spenderei un euro in più.

Un filo esagerato, non trovi?

Raven
18-11-2020, 16:54
stai trollando?

direi di sì... chiaramente utente clone, dai! ;)

Ale55andr0
18-11-2020, 16:56
Gran belle vga, per chi nn ha grosse pretese a livello qualitativo ma nvidia a livello di forza bruta resta una spanna sopra..

quindi hai fatto finta di leggere la recensione visto che mostra esattamente l'opposto (10 a 3 per amd in raster 4 a 2 per nvidia in rtx, con il grosso dei titoli "suoi"). Interessante :O

direi di sì... chiaramente utente clone, dai! ;)

preoccupa più chi clone non lo è e tocca leggere certe cose (vedi sopra)

Vertex
18-11-2020, 17:02
IL PUNTO E' che della vram te ne freghi se hai maggiori prestazioni...
è come dire ti metto un 8000 di cilindrata su una punto ma tanto vai a 100 lo stesso... conta quanto vai, non quello che porti dietro... se aveva una mela sopra e andava di piu sarebbe andato benissimo lo stesso...

Dipende sempre da quanti anni ci devi fare con quelle schede... Giochi veramente next gen ancora non se ne sono visti, almeno su pc.

ionet
18-11-2020, 17:05
in ogni caso per amd e' una vittoria, sia perche e' incredibile che e' tornata a competere nella fascia estrema, ma soprattutto ha messo in scacco nvidia, il ga104 che era per la massa ormai se lo da sui denti ,e' inferiore persino in rt puo' solo svenderlo

la 3090 non ha mai avuto senso nemmeno giocando in casa,e la 3080 e qualunque altro derivato ga102, 3070ti/3080ti avranno comunque basse rese e prestazioni paragonabili, ma costi e consumi superiori
c'e' insomma la possibilita', purtroppo anche per noi, di vederne poche in giro per molto tempo

certo pero 'pure amd si deve spicciare a far uscire le famiglie inferiori, altrimenti sta guerra a chi ce la piu' lungo non conviene a nessuno

Gran belle vga, per chi nn ha grosse pretese a livello qualitativo ma nvidia a livello di forza bruta resta una spanna sopra..

ma l'hai letta davvero la recensione:confused:
bastano solo le figure, ma non soffermarti solo a quella con l'upscaler:mbe:

luke@
18-11-2020, 17:07
https://www.youtube.com/watch?v=oUzCn-ITJ_o

linus ha ragione, se amd considera il dlss spazzatura, perchè lavorare su un analogo sistema?

beh, funziona, amd ha tirato fuori 2 belle schede, ma doveva avere pronto qualcosa di più

SAM, ok, buono nulla da dire, non mi aspettavo sinceramente che funzionasse, ma prendere le batoste così per un dlss... è un po' "meh"...

mettiamo che tra 2-3 mesi vi sarà una effettiva disponibilità, e amd dovesse implementare una tecnica simile al dlss... le review putroppo sono uscite... mi auguro che possano recuperare immagine

per le altre features, che nvidia ha, come quelle riguardanti gli streamers... beh su questo non ci sono scuse... amd così perde un margine riguardo agli influencer...

l'encoding fa ancora schifo... putroppo...

su queste cose potevano lavorare, sono arrivati bene sul rendering tradizionale, ma purtroppo il mercato attorno si è evoluto e hanno trascurato degli aspetti importanti

acquisto gpu rimandato a febbraio-marzo, nel mio caso, quindi spero avranno implementato l'analogo del dlss... almeno quello

sempre nvidia non risponda con le TI... e allora la scelta sarà obbligata

Madcrix
18-11-2020, 17:12
Schede decenti con un buon rapporto prezzo/prestazioni, purtroppo nel tempo il RT verrà implementato sempre più, DLSS 2.0 è praticamente magia nera già adesso e DLSS 3.0 è già stato annunciato. Difficile quantificare quanto queste schede rimarranno valide tra anche solo un anno di tempo ma imo non vedo come si possa ignorare il boost prestazionale offerto da DLSS al giorno d'oggi.

luke@
18-11-2020, 17:15
Schede decenti con un buon rapporto prezzo/prestazioni, purtroppo nel tempo il RT verrà implementato sempre più, DLSS 2.0 è praticamente magia nera già adesso e DLSS 3.0 è già stato annunciato. Difficile quantificare quanto queste schede rimarranno valide tra anche solo un anno di tempo ma imo non vedo come si possa ignorare il boost prestazionale offerto da DLSS al giorno d'oggi.

sono in ritardo con i tempi

hanno ignorato, per volontà o meno, alcuni aspetti fondamentali che influenzano le scelte attuali

comunque sul rendering tradizionale hanno recuperato

parere personale, mi piacciono, e non uso una amd da... bho... 10 anni...

Vash_85
18-11-2020, 17:30
preoccupa più chi clone non lo è e tocca leggere certe cose (vedi sopra)

E' sempre lo stesso pro intel/nvidia che si reiscrive in continuazione per dire la sua :asd:.

Ovviamente è uno poco furbo visto che non sa neanche come "mascherarsi" per bene :asd:

15 anni fa a uno del genere gli avrebbero "riflashato" il router ad ogni clone che creava così a botta di comprare router nuovi gli passava la voglia di fare lo "sciocchino" :D, altri tempi :old:

Madcrix
18-11-2020, 17:31
comunque sul rendering tradizionale hanno recuperato


quello sicuro, il gap è colmato
ho riserve sulla longevità in merito all'adozione delle nuove tecnologie, chi spende 800 carte adesso e tra un anno dovesse ritrovarsi con prestazioni di una 3060Ti o 3070 con DLSS 3.0 ovviamente non avrebbe fatto un grande affare

ninja750
18-11-2020, 17:34
Dopo anni di gta5 del 1980 al primo gioco sbilanciato amd emerge lo spirito di giusta concorrenzah su un titolo nextgen :O

guarda senza parole

Zodzor
18-11-2020, 17:37
quello sicuro, il gap è colmato
ho riserve sulla longevità in merito all'adozione delle nuove tecnologie, chi spende 800 carte adesso e tra un anno dovesse ritrovarsi con prestazioni di una 3060Ti o 3070 con DLSS 3.0 ovviamente non avrebbe fatto un grande affare
Non è lo stesso per chi ha preso una 2080?

kabuby77
18-11-2020, 17:41
Quello che vi siete dimenticati di dire in questa recensione è che in alcuni giochi la 6800XT supera la 3090, ma la vera top di gamma di AMD sarà la 6900XT che uscirà a dicembre. Quindi saranno cavoli amari per NVIDIA almeno in raster.

Madcrix
18-11-2020, 17:43
Non è lo stesso per chi ha preso una 2080?

quella ha 2 anni su groppone ormai e chi poteva o era furbo ha allegramente skippato Turing sapendo che il RT era acerbo e che Ampere avrebbe portato un gap prestazionale simile a quello portato da Pascal vs Maxwell

boboviz
18-11-2020, 17:50
Sotto Linux vincono a mani basse (Phoronix ha fatto i soliti, eccellenti, test).
E hanno pure il supporto, finalmente, a Rocm/OpenCl

al135
18-11-2020, 17:57
guarda senza parole

quello è perche sei un fanboy amd. ripeto, ci sono entrambi i test, per correttezza, quindi non vedo il problema, lo vedete solo voi come se fosse un affronto :)

coschizza
18-11-2020, 17:58
Sotto Linux vincono a mani basse (Phoronix ha fatto i soliti, eccellenti, test).
E hanno pure il supporto, finalmente, a Rocm/OpenCl

sulla recensione di Phoronix mettono come vincente la 3080 , ma leggiamo la stessa review?

fabryx73
18-11-2020, 18:00
Radeon RX 6800 XT 16G disponibili su noto store tedesco:
Asus 849€
Sapphire 839€
XFX 819€
MSI 819€

Radeon RX 6800 16GB:
Asus: 764€
Sapphire: 759€
MSI: 729€

spero non siano questi i prezzi finali perchè ,non essendo fanboy ( ho sempre avuto sia amd che nvidia) , a queste cifre preferire una 6800xt piuttosto che una 3080 founders a 719 è da folli....ma credo lo pensino pure i fanboy amb,no?

Luxor83
18-11-2020, 18:06
Da non fanboy a non fanboy.. Perchè? :mbe:
Non conosco i prezzi quindi mi baso solo sui bench qui sopra.. mi pare chiaro che le GPU Nvidia nel complesso sono milgiori. Non di tanto ma certamente migliori.

Beh, ho detto personalmente, poi in termini assoluti la Gpu più potente è di Nvidia senza ombra di dubbio, ma una 3090 costa non poco e credo che forse e mi tengo anche largo, il 5% dei gamers totali possano permettersi un esborso simile. Detto questo le due vga di Amd, specialmente la 6800 liscia, che senza ombra di dubbio è più alla portata, mi è sembrata tanta roba, per rapporto prezzo/prestazioni/consumi.

Inoltre, accoppiando questa soluzione ad una CPU ryzen serie 5000 hai anche un piccolo boost prestazionale.

Detto ciò, bisogna anche dare credito a questa azienda che ce la sta mettendo tutta su tutti i fronti. Poi ognuno compra quello che gli pare per carità.

StIwY
18-11-2020, 18:07
Se dovessi farmi un PC nuovo, andrei decisamente di 6800 XT, anche per la maggiore quantità di VRAM. L'RTX, c'è o non c'è, per me poco cambia.

Luxor83
18-11-2020, 18:08
a parer mio il miglior compromesso è quel che ho scelto...
scheda nvidia e processore amd :D

Beh il tuo è tutto tranne che un compromesso :D :D :D , sicuramente eri ironico.

Hai preso il top, punto.

Quello a cui mi riferivo io ovviamente era una soluzione più alla portata.

Opteranium
18-11-2020, 18:12
la RX 6800 è un capolavoro.. consuma quanto la 5700 e va praticamente il doppio :D

G80
18-11-2020, 18:27
Con la 6800 xt che a volte supera persino la 3090, stavolta han fatto il botto. E sembra che qui tanti stiano dimenticando la 6900 xt che a giorni si papperà la 3090 in scioltezza...

k0nt3
18-11-2020, 18:33
spero non siano questi i prezzi finali perchè ,non essendo fanboy ( ho sempre avuto sia amd che nvidia) , a queste cifre preferire una 6800xt piuttosto che una 3080 founders a 719 è da folli....ma credo lo pensino pure i fanboy amb,no?
E dove la trovi la 3080 a 719€ (disponibile)? Sullo stesso sito si trova solo la RTX 3090 a 1749€ :huh:

coschizza
18-11-2020, 18:38
Con la 6800 xt che a volte supera persino la 3090, stavolta han fatto il botto. E sembra che qui tanti stiano dimenticando la 6900 xt che a giorni si papperà la 3090 in scioltezza...

si ma scheda che avranno in mano solo i recensori visto che gia queste sono sparite ore fa, se ne riparla al 2021

tuttodigitale
18-11-2020, 18:40
purtroppo a livello visivo (è quel che si cerca dato che ormai se cerchi prestazioni va bene qualsiasi scheda ) si accetta solo il raytracing, il rastering comincia a stare stretto soprattutto in giochi di ultima gen e upcoming.
brava amd a recuperare cmq terreno, ma la strada da fare è ancora tanta. per ora mi tengo la 3090, a meno che non esca in primavera o estate qualche altra cosa.

questa frase è un pò priva di senso....le console sono dotate di HW AMD e rispetto a queste hanno nel caso di ps5 la metà delle prestazioni, e grossomodo in proporzione le stesse capacità RT.

non possiamo estendere le prestazioni con le DXR dimenticando che sono stati modellati sull'hardware nvidia.

Con titoli next-gen costruiti per rendere al massimo su ps5, non è AMD ad essere in posizione di svantaggio. :cool:

non è allucinante, è un gioco dove se fai la media ti sballa è per questo che è stato tolto. e la gente vuole vedere risultati reali non sballati. e comunque sono presenti sia quelli con dirt che quelli senza ;)
di solito, togli un gioco no perchè sballa la media, ma perchè ci sono avvisaglie di possibili problemi di driver.
Certamente è molto più indicativo di test dove si superano abbondantemente i 100 dps a 4k....

La cosa più impressionante di questo chip, è che AMD ha sacrificato transistor per le CU e per i memory controller, per riservarlo alla cache memory da 128MB ma non le prestazioni rispetto alla rivale.

NAVI innalzerà sensibilmente le prestazioni delle igp! Inoltre non è detto che la cache L3 dei core x86 e della GPU siano disgiunte...

ExGemini
18-11-2020, 19:13
per ora mi tengo la 3090, a meno che non esca in primavera o estate qualche altra cosa.

Ecco bravo, tienila stretta e schiaffatela su per il culo, possibilmente di traverso.
E mi raccomando, posta il video su youtube, altrimenti non ci si crede :sofico:

Andy1111
18-11-2020, 19:31
Ho visto male o in questa rece mancano i consumi?

ghiltanas
18-11-2020, 19:45
Ho visto male o in questa rece mancano i consumi?

no ci sono, li hanno testati con hitman2

fabryx73
18-11-2020, 19:50
E dove la trovi la 3080 a 719€ (disponibile)? Sullo stesso sito si trova solo la RTX 3090 a 1749€ :huh:

si ovvio ,così hai ragione.
però se si troverà prossimamente una 3080 founders a 719 prendo quella,anche se purtroppo monterò un 5800x amd probabilmente.

alla fine il ray tracing con il dlss sono certamente il futuro.... quindi in questa tecnologia per ora nvidia ha più esperienza e si trova in posizione di vantaggio.
anche perchè comunque i titoli prossimi saranno tutti con ray tracing e dlss attivabile....non possiamo fare paragoni con il passato purtroppo.

Lithios
18-11-2020, 20:05
Certo c'è anche da dire che fa un pò specie vedere schede da ambo le parti a prezzi di 700-800€, considerando che poi ci vuole un monitor all'altezza che ne costi altrettanti e il resto della piattaforma altrettanti ancora, per arrivare sui 2500€ totali per una configurazione all'altezza e ben bilanciata.

Vien quasi voglia di prendersi una console next gen a 500€ e ti passa la paura.

Karandas
18-11-2020, 20:14
purtroppo a livello visivo (è quel che si cerca dato che ormai se cerchi prestazioni va bene qualsiasi scheda ) si accetta solo il raytracing, il rastering comincia a stare stretto soprattutto in giochi di ultima gen e upcoming.
brava amd a recuperare cmq terreno, ma la strada da fare è ancora tanta. per ora mi tengo la 3090, a meno che non esca in primavera o estate qualche altra cosa.

Per ora mi tengo la Ferrari sempre che in primavera Elon Musk non mi venda uno SpaceX.

...
Ma va la! xD

OvErClOck82
18-11-2020, 20:15
si ovvio ,così hai ragione.
però se si troverà prossimamente una 3080 founders a 719 prendo quella,anche se purtroppo monterò un 5800x amd probabilmente.

alla fine il ray tracing con il dlss sono certamente il futuro.... quindi in questa tecnologia per ora nvidia ha più esperienza e si trova in posizione di vantaggio.
anche perchè comunque i titoli prossimi saranno tutti con ray tracing e dlss attivabile....non possiamo fare paragoni con il passato purtroppo.

e il futuro sará fatto di console con hardware rdna2... io ci penserei bene prima di fare mosse azzardate :D

coschizza
18-11-2020, 20:33
e il futuro sará fatto di console con hardware rdna2... io ci penserei bene prima di fare mosse azzardate :D
infatti le console da 10 anni sono amd e questo ha dato vantaggi a nvidia che ha dominato

digieffe
18-11-2020, 20:54
Interessanti i test comparativi in dlss su una recensione amd e le medie con esclusione dei giochi sbilanciati pro amd.... :asd:

cioè la questione di togliere un gioco dalle chart dove amd domina è una scelta editoriale allucinante :asd: non si poteva fare anche prima a parti invertite dove alcuni titoli erano palesemente sponsorizzati nvidia?

ormai siamo a livello di Toms italia...


non è allucinante, è un gioco dove se fai la media ti sballa è per questo che è stato tolto. e la gente vuole vedere risultati reali non sballati. e comunque sono presenti sia quelli con dirt che quelli senza ;)

ehmmm sono pochi titoli testati, infatti se fai la media un po' sballa.
ripeto, scelta giusta da parte della redazione, anche perche sono presenti sia quelli con dirt che quelli senza dirt, quindi dove sta il problema?

non esiste solo la media aritmetica, ci sono altri modi per limare (far pesare meno) gli estremi ma togliere un risultato non è corretto!


di solito, togli un gioco no perchè sballa la media, ma perchè ci sono avvisaglie di possibili problemi di driver.
Certamente è molto più indicativo di test dove si superano abbondantemente i 100 dps a 4k....:read:



dall'articolo:
Il DLSS, se implementato nei giochi, consente di incrementare le prestazioni delle schede video di Nvidia con il ray tracing attivo in modo sensibile, preservando (o a tratti persino migliorando, grazie alla versione 2.0 della tecnologia) la qualità d'immagine.

vediamo se ho capito bene: così come avete scritto sembrerebbe che si si preserverebbe la qualità delle immagini, possibile attingendo ai frame a risoluzione nativa (es. 4k).

ma c'è scritto che si potrebbe persino migliorare tale qualità :confused:
ovvero il DLSS migliorerebbe le immagini (es: renderizzate a 2k) oltre la qualità della risoluzione nativa (es. renderizzate a 4k)

se ho inteso bene sono sicuro che nessuno vi negherebbe un premio Turing / Nobel o similari!
attenzione ad attingere frasi da materiale marketting :)



___________________
sbaaamm +2

ora mi eclisso :(

al135
18-11-2020, 21:12
ormai siamo a livello di Toms italia...



non esiste solo la media aritmetica, ci sono altri modi per limare (far pesare meno) gli estremi ma togliere un risultato non è corretto!



ora mi eclisso :(

ma non l'hanno tolto, hanno aggiunto un risultato... :)
:read:

AceGranger
18-11-2020, 21:19
e il futuro sará fatto di console con hardware rdna2... io ci penserei bene prima di fare mosse azzardate :D

la si sente dire da 7 anni questa cosa :p.

coschizza
18-11-2020, 21:20
o
vediamo se ho capito bene: così come avete scritto sembrerebbe che si si preserverebbe la qualità delle immagini, possibile attingendo ai frame a risoluzione nativa (es. 4k).

ma c'è scritto che si potrebbe persino migliorare tale qualità :confused:
ovvero il DLSS migliorerebbe le immagini (es: renderizzate a 2k) oltre la qualità della risoluzione nativa (es. renderizzate a 4k)


esatto se lo provi vedi che certi dettagli migliorano, perché non è un semplice scaling

AceGranger
18-11-2020, 21:29
ma c'è scritto che si potrebbe persino migliorare tale qualità :confused:
ovvero il DLSS migliorerebbe le immagini (es: renderizzate a 2k) oltre la qualità della risoluzione nativa (es. renderizzate a 4k)

se ho inteso bene sono sicuro che nessuno vi negherebbe un premio Turing / Nobel o similari!
attenzione ad attingere frasi da materiale marketting :)


quello che hanno scritto loro è quello che dice anche hothardware:

( test effettuato a 1440p )

DLSS 2.0's Quality mode renders at a sub-full HD resolution so performance is faster than native 1080p. You'd normally think that it wouldn't look as good at a lower resolution, but we disagree—the game looks better with DLSS 2.0's Quality setting at 1440p than than native 1080p HD too.

quindi DLSS 2.0 in Quality mode 1440p parte da un'immagine inferiore al FHD la elabora e alla fine ti ritrovi qualita superiore e prestazioni superiori al FHD nativo.

DukeIT
18-11-2020, 21:40
È magia!

DukeIT
18-11-2020, 21:43
Comunque io sono ancora in attesa che qualcuno si accorga che la 6800 batte la 3070 in RT, mi sembra quasi che nessuno abbia guardato i grafici.

digieffe
18-11-2020, 21:55
esatto se lo provi vedi che certi dettagli migliorano, perché non è un semplice scaling

da un po' sapevo che non è un semplice scaling :)

hai letto le (pre)condizioni che ho scritto?

in ogni caso lo si deve dimostrare matematicamente (cosa impossibile da dimostrare :)) il resto è illusione (o al max un artefatto)


quello che hanno scritto loro è quello che dice anche hothardware:

( test effettuato a 1440p )

DLSS 2.0's Quality mode renders at a sub-full HD resolution so performance is faster than native 1080p. You'd normally think that it wouldn't look as good at a lower resolution, but we disagree—the game looks better with DLSS 2.0's Quality setting at 1440p than than native 1080p HD too.

quindi DLSS 2.0 in Quality mode 1440p parte da un'immagine inferiore al FHD la elabora e alla fine ti ritrovi qualita superiore e prestazioni superiori al FHD nativo.

in base al mio inglese c'è un "sembra", che rende la frase ambigua, dunque senza valenza. Diversamente si sarebbero assunti le loro responsabilità ed avrebbero condiviso il premio con gli altri! :)

Race Luke
18-11-2020, 22:05
Non capisco, han rilasciato schede più o meno uguali alla controparte, a un prezzo a quanto ho capito uguale alla controparte, c'è qualche mancanza di qua e aggiunta di la.....ma mi sembra che ci sia poco per cui "gridare al miracolo".

Certo, finalmente c'è di nuovo un competitor in ambito gpu, speriamo sia un inizio di qualcosa. A sto giro credo che amd sia davanti in ambito cpu, ma come gpu se non sforna qualcosa che va "oltre" la controparte farà ancora un po' fatica ad emergere. Mia opinione eh ;)

OvErClOck82
18-11-2020, 22:17
Non capisco, han rilasciato schede più o meno uguali alla controparte, a un prezzo a quanto ho capito uguale alla controparte, c'è qualche mancanza di qua e aggiunta di la.....ma mi sembra che ci sia poco per cui "gridare al miracolo".

Certo, finalmente c'è di nuovo un competitor in ambito gpu, speriamo sia un inizio di qualcosa. A sto giro credo che amd sia davanti in ambito cpu, ma come gpu se non sforna qualcosa che va "oltre" la controparte farà ancora un po' fatica ad emergere. Mia opinione eh ;)

la controparte ad oggi ha schede che si trovano col contagocce (meglio di due mesi fa, ma non di troppo) e che mediamente costano 100-200 euro in più, avendo 6 e 8 gb in meno di Vram.

considerando il lavoro che hanno fatto sull'efficienza energetica, pensando da che base partivano con rdna1 e precedenti, se non è un miracolo questo... :sofico:

OrazioOC
18-11-2020, 22:18
Non capisco, han rilasciato schede più o meno uguali alla controparte, a un prezzo a quanto ho capito uguale alla controparte, c'è qualche mancanza di qua e aggiunta di la.....ma mi sembra che ci sia poco per cui "gridare al miracolo".

Certo, finalmente c'è di nuovo un competitor in ambito gpu, speriamo sia un inizio di qualcosa. A sto giro credo che amd sia davanti in ambito cpu, ma come gpu se non sforna qualcosa che va "oltre" la controparte farà ancora un po' fatica ad emergere. Mia opinione eh ;)

Al miracolo la gente lo grida perchè era da parecchio che non erano così vicini alle top di gamma nvidia, schede come la vega 64, fury x,r9 390x, 590, vega 7 facevano spesso e volentieri pessime figure rispetto alle controparti uscite anche abbastanza prima.:rolleyes:

coschizza
18-11-2020, 22:19
Comunque io sono ancora in attesa che qualcuno si accorga che la 6800 batte la 3070 in RT, mi sembra quasi che nessuno abbia guardato i grafici.

da quando una 6800 che batte una 3070 dovrebbe far notizia? la 3070 sfida la futura 6700 mica la serie superiore che costa pure di piu

Luxor83
18-11-2020, 22:26
da quando una 6800 che batte una 3070 dovrebbe far notizia? la 3070 sfida la futura 6700 mica la serie superiore che costa pure di piu

Il termine di paragone non è un "numero" o nome della scheda, ma quanto costa e la fascia di prezzo.

coschizza
18-11-2020, 22:27
Il termine di paragone non è un "numero" o nome della scheda, ma quanto costa e la fascia di prezzo.

appunto quello che ho scritto la 6800 ha una fascia superiore come prezzo e consumi quindi è ovvio che sai superiore

ionet
18-11-2020, 22:28
Comunque io sono ancora in attesa che qualcuno si accorga che la 6800 batte la 3070 in RT, mi sembra quasi che nessuno abbia guardato i grafici.

io si,ma sai fino a settembre a malapena si sperava che amd riuscisse almeno, con la sua big, di competere con la 2080ti
ora si ritrova incredibilmente a giocarsela con la 3080/90 e giustamente la 3070 e' passata completamente inosservata, si e' fatta piccola dalla vergogna:p

Cfranco
18-11-2020, 22:32
esatto se lo provi vedi che certi dettagli migliorano, perché non è un semplice scaling

Quindi sono riusciti a falsificare il primo teorema di Shannon e 60 anni di ricerche di teoria dei segnali
Il Nobel è assicurato ( ma più probabilmente sono balle del marketing )

C'è poco da fare, la matematica è quella, puoi fare un upscaling il meglio che puoi e il più intelligente che vuoi ma la quantità di informazione dell' immagine è sempre e comunque minore del rendering a definizione nativa.

Max_R
18-11-2020, 22:37
Suggerisco di andare a documentarsi bene in merito al dlss :doh:

Zodzor
18-11-2020, 22:39
appunto quello che ho scritto la 6800 ha una fascia superiore come prezzo e consumi quindi è ovvio che sai superiore

Allora se anche i consumi contano per la fascia di riferimento, per avere un confronto giusto ci vuole una 6800xt dual contro la 3080? :mc:

digieffe
18-11-2020, 22:43
Quindi sono riusciti a falsificare il primo teorema di Shannon e 60 anni di ricerche di teoria dei segnali
Il Nobel è assicurato ( ma più probabilmente sono balle del marketing )

C'è poco da fare, la matematica è quella, puoi fare un upscaling il meglio che puoi e il più intelligente che vuoi ma la quantità di informazione dell' immagine è sempre e comunque minore del rendering a definizione nativa.

aggiungerei pescando informazione dai frame a risoluzione nativa al massimo può essere uguale ma non "superiore"

sostenni l'esame di T.I.T. (teoria dell'informazione e della trasmissione) circa trent'anni fa, può essere che qualcosa sia cambiata nel frattempo...











probabilmente il nome dell'esame :sofico:

Lithios
18-11-2020, 22:46
Non capisco, han rilasciato schede più o meno uguali alla controparte, a un prezzo a quanto ho capito uguale alla controparte, c'è qualche mancanza di qua e aggiunta di la.....ma mi sembra che ci sia poco per cui "gridare al miracolo".

Certo, finalmente c'è di nuovo un competitor in ambito gpu, speriamo sia un inizio di qualcosa. A sto giro credo che amd sia davanti in ambito cpu, ma come gpu se non sforna qualcosa che va "oltre" la controparte farà ancora un po' fatica ad emergere. Mia opinione eh ;)

Il miracolo ci sta tutto e per analogia è lo stesso avvenuto con i primi Ryzen in ambito CPU. Dove AMD riuscì a produrre CPU capaci di competere con Intel pur partendo molto indietro dalle precedenti generazioni.

Poi AMD passò dalla parità alla superiorità con le successive generazioni, e non è scontato che questo accada anche per le GPU rispetto a NVIDIA. Tuttavia già il pareggio è comunque un miracolo.

Max_R
18-11-2020, 22:51
Le tecnologie come esrgan parlano diversamente anche nel caso del 2D e qui siamo in un contesto ulteriormente diverso
Non parliamo di magie ma di ricostruzione "ideale" dell'immagine (o della scena)

DukeIT
18-11-2020, 23:04
da quando una 6800 che batte una 3070 dovrebbe far notizia? la 3070 sfida la futura 6700 mica la serie superiore che costa pure di piu
Veramente è la 6800XT che deve vedersela con la 3080 (per la top, la 3090, si aspetta la 6900XT).
La 6800 se la doveva giocare con la 3070 (attendiamo gli street price, ma penso che saranno molto vicini), e mi sembra lo abbia fatto molto bene.
Il fatto è che nel doppio confronto, nVidia, in RT, supera la 6800XT con la 3080, ma perde con la 3070 contro la 6800 liscia, e nel lotto sono le schede che faranno i numeri più grossi di vendite. Per cui parlare di RT come un netto vantaggio nVidia non è correttissimo.
Se (su piattaforma Intel!), la 6800XT è alla pari con la 3080 come prestazioni, che ha un vantaggio in RT, la 6800 vince a piene mani con la 3070 e, in prospettiva futura (driver e giochi cross-platform), vista anche la dotazione di memoria, mi sa che ha ottime possibilità di consolidare il vantaggio.

Poi ok, continuiamo a parlare delle magie del DLSS...

lucusta
18-11-2020, 23:45
Quale negozio? E comunque sono prezzi gonfiati, forse è per quello che ne hanno ancora.

non so se sono gonfiati, ma:
https://www.alternate.de/MSI/GeForce-RTX-3070-VENTUS-2X-OC-Grafikkarte/html/product/1683121?
forse indicano il vero prezzo dell'HW disponibile: la più semplice 3070 biventola a 630 euro, non certo a 520.

senza prezzi veri, non regge nessun confronto serio, perchè io spendo per le prestazioni, non per il nome e se trovo una scheda di classe superiore allo stesso prezzo di una di classe inferiore della concorrenza, confronto le prestazioni in base a quel prezzo, non al MSRP.

lucusta
18-11-2020, 23:50
direi di sì... chiaramente utente clone, dai! ;)

già comincia?
non gli basta essere sospeso?
vabbè che tanto ha il suo capoccia con duplici account che ha già cominciato a fare la solita propaganda...
non lo capiscono che non sono più tempi per questi giochetti! :muro:

lucusta
18-11-2020, 23:53
quello è perche sei un fanboy amd. ripeto, ci sono entrambi i test, per correttezza, quindi non vedo il problema, lo vedete solo voi come se fosse un affronto :)

parla colui che ha una scheda da 2000 euro nel case e che la vede man mano svalutarsi con un'accelerazione costante verso meno della metà del valore pagato.:mc:

AceGranger
18-11-2020, 23:55
in base al mio inglese c'è un sembra, che rende la frase ambigua, dunque senza valenza. Diversamente si sarebbero assunti le loro responsabilità ed avrebbero condiviso il premio con gli altri! :)

looks better vuol dire anche appare migliore...

ma va bè, il punto della recensione era che in quella modalita puo dare quei risultati.

lucusta
18-11-2020, 23:56
si ma scheda che avranno in mano solo i recensori visto che gia queste sono sparite ore fa, se ne riparla al 2021

si deve vedere tra 2 settimane, quando cominceranno ad uscire le custom (non dicevano così i "ben informati" quando uscirono le FE e sparirono in una manciata di secondi?)
:rolleyes:

lucusta
19-11-2020, 00:00
Certo c'è anche da dire che fa un pò specie vedere schede da ambo le parti a prezzi di 700-800€, considerando che poi ci vuole un monitor all'altezza che ne costi altrettanti e il resto della piattaforma altrettanti ancora, per arrivare sui 2500€ totali per una configurazione all'altezza e ben bilanciata.

Vien quasi voglia di prendersi una console next gen a 500€ e ti passa la paura.

come non quotarti....
aspetto le schede sui 300-400 euro, ma se m'ispirano....

lucusta
19-11-2020, 00:03
infatti le console da 10 anni sono amd e questo ha dato vantaggi a nvidia che ha dominato

non significa granché il passato, in quanto faceva l'HW, ma non pagava le SH per giochi ed engine grafici e non gimpava le prestazioni della concorrenza con tools del tutto inutili.

credo che la situazione sia ben diversa, oggi, e fare un titolo per console con RT sdraiando le prestazioni delle console mi sembra assai stupido, quindi effetti RT sì, ma ottimizzati e sicuramente non esagerati all'inutilità fatta diventare normalità!

lucusta
19-11-2020, 00:07
se ho inteso bene sono sicuro che nessuno vi negherebbe un premio Turing / Nobel o similari!
attenzione ad attingere frasi da materiale marketting :)

si vede che la loro matematica è diversa da quella che studiamo noi e che i teoremi di qualsiasi principio di conservazione non esiste.
che ci vuoi fare...

lucusta
19-11-2020, 00:09
la si sente dire da 7 anni questa cosa :p.

oggi nvidia non ha più nessun potere sulle SH, se non te ne sei accorto...
la maggior parte sono di microsoft o sony, che non traggono nessun vantaggio ad agevolare le schede nvidia e si fanno molti più soldi con le console che con il PC.

lucusta
19-11-2020, 00:12
quello che hanno scritto loro è quello che dice anche hothardware:

( test effettuato a 1440p )

DLSS 2.0's Quality mode renders at a sub-full HD resolution so performance is faster than native 1080p. You'd normally think that it wouldn't look as good at a lower resolution, but we disagree—the game looks better with DLSS 2.0's Quality setting at 1440p than than native 1080p HD too.

quindi DLSS 2.0 in Quality mode 1440p parte da un'immagine inferiore al FHD la elabora e alla fine ti ritrovi qualita superiore e prestazioni superiori al FHD nativo.

che ne so, magari fanno un confronto con un rendering 8k per l'inferenza, ma se confrontano 4K con 4K, non c'è storia che regga: è matematicamente impossibile ottenere di più da una elaborazione e se esistesse un metodo lo si userebbe su qualsiasi cosa che proponga un'immagine.
qualsiasi, non solo i giochetti da PC.

il marketing sta spacciando il miglioramento come i telefilm di spionaggio di serie B riescono a rifarti la mappa di una chiave dalle immagini fatte da una fotocamera CCTV di un bancomat a 300 metri di distanza...
pura fantascienza.

LucaZar
19-11-2020, 00:15
Ragazzi, temo che NVIDIA stia utilizzando l'arma del DLSS per limitare i danni. Alla fine è una tecnologia proprietaria che deve essere implementata dagli sviluppatori con la collaborazione di NVIDIA e non so per quanto vogliano foraggiarli... Il primo DLSS era uscito con RTX 2080 e ad oggi i titoli a supportarlo sono pochi, guarda caso ne sono usciti due tre proprio tra ieri e oggi per rovinare la festa a AMD. Ma chi conosce NVIDIA sa che le tecnologie proprietarie le spinge all'inizio per poi abbandonarle, vedi 3D Vision, SLI, G-Sync (ora esteso anche ai Freesync perché nessuno si comprava i monitor dedicati), PhysX, Hairworks...

Queste schede sono ottime, aspetto di vedere qualche custom spinta come Sapphire o Powercolor, perché sembra che anche in overclock salgano bene, secondo me la vera fregatura è il bus a 256 bit... fino ai 2k infatti vince facile, salendo ai 4 iniziano le limitazioni...

I driver secondo me faranno i soliti miracoli (mi immagino un +10%), ma anche NVIDIA si migliorerà, anche se ho notato che su alcuni titoli Big Navi è in palese difficoltà, vedi Control in Ray Tracing. Sempre tornando al discorso ray tracing anche in questo caso ci andrei coi piedi di piombo, in questi due anni i giochi si contano sulle dita di una mano e SoTR, ad esempio, non è così clamoroso in RT... Poi è chiaro che NVIDIA ha dell'hardware dedicato e quindi spingerà di più a prescindere. Comunque la vera incognita sono i prezzi, non mi ricordo, in tanti anni, di aver visto una simile penuria di scorte. 6800XT dovrebbe costare meno di 3080 anche nella realtà. Sarei disposto a spendere 750 per una Red Devil (e dubito sarà così all'inizio...) ma a parità di reference andrei comunque su NVIDIA, che al di la di quanto detto, mi sembra ancora un po' avanti

lucusta
19-11-2020, 00:17
Non capisco, han rilasciato schede più o meno uguali alla controparte, a un prezzo a quanto ho capito uguale alla controparte, c'è qualche mancanza di qua e aggiunta di la.....ma mi sembra che ci sia poco per cui "gridare al miracolo".

Certo, finalmente c'è di nuovo un competitor in ambito gpu, speriamo sia un inizio di qualcosa. A sto giro credo che amd sia davanti in ambito cpu, ma come gpu se non sforna qualcosa che va "oltre" la controparte farà ancora un po' fatica ad emergere. Mia opinione eh ;)

il miracolo è che se non esistevano queste schede la 3080 costava 1200 euro, se il trend continuava come nelle ultime 2 generazioni...
ah, ma in effetti la 3080 a meno di 1200 non la trovi, chissà perchè.

lucusta
19-11-2020, 00:18
da quando una 6800 che batte una 3070 dovrebbe far notizia? la 3070 sfida la futura 6700 mica la serie superiore che costa pure di piu

uhm.. io trovo le MSI ventus 3070 a 630 euro... non meno.

lucusta
19-11-2020, 00:21
Quindi sono riusciti a falsificare il primo teorema di Shannon e 60 anni di ricerche di teoria dei segnali
Il Nobel è assicurato ( ma più probabilmente sono balle del marketing )

C'è poco da fare, la matematica è quella, puoi fare un upscaling il meglio che puoi e il più intelligente che vuoi ma la quantità di informazione dell' immagine è sempre e comunque minore del rendering a definizione nativa.

il teorema di Shannon vale se non t'inventi di sana pianta le informazioni e loro lo fanno a mani basse.
poi non saprei, magari l'inferenza è fatta a 8K, ecco perchè ci vogliono i supercomputer nvidia per farla.
perché tu o qualcun altro è presente quando lo fanno? o si deve credere ciecamente a quello che il marketing di un'azienda spaccia per verità assoluta?

lucusta
19-11-2020, 00:23
Suggerisco di andare a documentarsi bene in merito al dlss :doh:

suggerisco di studiare prima un po' di matematica di livello universitario...

lucusta
19-11-2020, 00:25
Le tecnologie come esrgan parlano diversamente anche nel caso del 2D e qui siamo in un contesto ulteriormente diverso
Non parliamo di magie ma di ricostruzione "ideale" dell'immagine (o della scena)

ah, di fantasia.
ok...

dinitech
19-11-2020, 01:01
Questa volta conviene andare di AMD. Queste 6800 e 6800 XT sono schede ottime e mi hanno convinto molto di più delle nuove Ampere di nvidia

Niihashi
19-11-2020, 01:52
stai trollando? sono tutti giochi pro nvidia eccetto due, infatti in quei due va meglio amd, ed anzi in un in cui vince nvidia vince per un UN frame. 4 a 2 in totale per nvidia con quasi tutta la suite sponsorizzata verde...e in ogni caso tutte INADEGUATE per gestirlo bene in 4. Try again, anzi, lascia stare...
Trollando? Perchè?

AMD piazza una GPU da 650 euro, aka stesso prezzo di 3080 (50e più economica, lol) ed ha stesse performances di 2080 Ti. Poi, se te compri una gpu sopra i 500e nel 2020 (2021!) per giocare retrogaming raster senza ray tracing e in 4k senza DLSS, allora hai un problema, grave.

Insomma, TLDR

+= Stesse performances in raster
+N DLSS 2.0 fino al doppio di boost in performances con simil-native picture quality
+N Ray Tracing performances fino a tre volte superiore
+N NVENC (new) encoder immensamente superiore all'AMD encoder
+N CUDA core performances (le openGL sono morte)
+N Nivida RTX Voice
+A 50e cheaper
+A Più memoria

E te vuoi veramente evitare di spendere 50e in più per avere tutto quel ben di dio?
Ora facciamo i seri e parliamo di roba che conta, Cyberpunk 2077 te lo giochi con Ray Tracing ad Ultra, in 4k e con DLSS 2.0 a 100+ FPS con la 3080. Con la 6800x in 4k e con Ray Tracing è un miracolo se ti gira a 20 di FPS.

Veramente ragazzi, droppate il fanboysmo perchè qui tutti speravano che AMD portasse GPU di valore a prezzi economici per il semplice motivo di abbassare i prezzi di tutte le GPU, invece ha messo sul mercato schede video overpriced da schifo con performances inaccettabili per una gpu da fine 2020.

I discorsi comodi per AMD sono finiti, ora i prezzi che propone non permettono parole dolci. La 6800xt è la gpu più overpriced del mercato, performances alla mano, altro che RTX 3090.

silvanotrevi
19-11-2020, 01:53
hanno una dotazione di 16GB che le nuove schede video Nvidia non hanno (a parte la 3090 ma quello è un altro discorso e un'altra fascia di prezzo). E in 4k avere 16GB di Vram aiuta molto, contrariamente a quello che molti avevano sempre sostenuto fino a questo momento dicendo che 8-10GB bastano e avanzano. Queste nuove RDNA2 sono schede veramente superlative, soprattutto la 6800 liscia mi ha colpito molto, come fascia media a quel prezzo è praticamente un Must Buy

Niihashi
19-11-2020, 01:54
Queste GPU AMD venderanno solo se le NVIDIA restano out of stock, non c'è altro motivo per farle uscire.

Niihashi
19-11-2020, 01:55
hanno una dotazione di 16GB che le nuove schede video Nvidia non hanno (a parte la 3090 ma quello è un altro discorso e un'altra fascia di prezzo). E in 4k avere 16GB di Vram aiuta molto, contrariamente a quello che molti avevano sempre sostenuto fino a questo momento dicendo che 8-10GB bastano e avanzano. Queste nuove RDNA2 sono schede veramente superlative, soprattutto la 6800 liscia mi ha colpito molto, come fascia media a quel prezzo è praticamente un Must Buy

La 6800 liscia è un meme, uno scam; se spendi 600 ne spendi 650 per la 6800 xt che va molto più veloce.

Niihashi
19-11-2020, 02:04
Questa volta conviene andare di AMD. Queste 6800 e 6800 XT sono schede ottime e mi hanno convinto molto di più delle nuove Ampere di nvidia
Io, scusami, questi commenti li trovo scioccanti. :eek:
Cioè, d'accordissimo sulle CPU che finalmente hanno mostrato i muscoli, ma queste GPU sono di una tristezza assurda, vi consiglio di guardare recensione Linus su Youtube.

Che poi, shame su Nvidia per aver lanciato i nuovi modelli senza avere le GPUs on hand. Si meritano il peggio. Ma prenotando alla fine arrivano, una rog strix 3090 mi è stata consegnata dopo 25 giorni (presa su drako) dalla release, anche se c'è gente che ancora attende le 3080 del day-one. E sono passati quanti? 60 giorni? Due mesi in informatica... è tantissimo.

Niihashi
19-11-2020, 02:48
E per finire riguardo DLSS che qui sennò veramente si fa disinformazione gratuita (e basta già YouTube che nei giorni precedenti ad embargo per 6800xt era zeppo di video fake in comparison 6800xt vs 3080, di una tristezza assurda, che andrebbero pure segnalati).

DLSS 1.0 (Tomb Raider, BFV & co.) era una nefandezza piena di blur.
DLSS 2.0 è praticamente il futuro del gaming.

Valori:

Risoluzione + Aliasing che esiste ed è forte in maniera meno evidente partendo da 1080p, 2k, UWQHD fino 4K + Performances DLSS 2.0 + 4K vs no DLSS 4K + TAA.

Premesso che tra DLSS 2.0 (Quality Preset) + 4K e DLSS OFF + 4k + TAA passano la bellezza di 80-150 frames average nei titoli che lo supportano (parliamo di un gap prestazionale, rapportato in raster, simile a 3 generazioni di GPU).


Due pics scattate in Ultra Settings due minuti fa dal sottoscritto su di un monitor 3440x1440p con RTX 3090.

DEATH STRANDING 3440x1440P DLSS ON ULTRA SETTINGS: https://i.imgur.com/CZBc9mU.jpg
DEATH STRANDING 3440x1440P DLSS OFF ULTRA SETTINGS: https://i.imgur.com/2WiQM4p.jpg


Analisi DLSS ON (Aliasing + resa): https://i.imgur.com/f4pjGy6.jpg
Analisi DLSS OFF (Aliasing + resa): https://i.imgur.com/OiP5vKl.jpg

Video ufficiale Nvidia sul DLSS 2.0 di Death Stranding: https://www.youtube.com/watch?v=IMi3JpNBQeM

Insomma ragazzi, atroce aliasing anche a risoluzioni altissime con perdita frames enorme che si aggrava ulteriormente se filtri AA sono attivi (a meno che non si voglia usare il terribile FXAA, ma quello si che è vero blur).
Dall'altra parte performances altissime e resa visiva impeccabile, con larga possibilità di attivare e giocare in Ray Tracing e quindi distaccare il gap di qualità visiva dal nativo ancora di più, pur restando su frames superiori.

Cioè, considerare queste AMD un buon investimento è pura follia, io da videogiocatore non potrei mai avere il coraggio di suggerire ad un amico una di queste due GPU presentate oggi, a patto che entrambe siano disponibili sul mercato e che il divario prezzi resti quello di listino. Ed è qui che casca l'asino. ;)
Ed è anche qui che Nvidia merita di avere un danno economico marginale per evitare nuovamente situazioni del genere in futuro.

gioffry81
19-11-2020, 03:07
May be. Vediamo.




Neanche io ho chissà che interesse per il RT.. ma se da un lato ho una scheda che va a pari senza RT e qualcosa meglio con RT allora non vedo perchè dovrei scegliere quella più lenta. Salvo prezzi più convenienti ovviamente.

Perché mentre il RT può essere in futuro ottimizzato anche per AMD, la vRam in più è un dato di fatto e ti fa durare la scheda video 6800xt qualche anno in più della rivale NVIDIA. Oltre al fatto che le console sono AMD e riguardo all’ottimizzazione dei giochi purtroppo molto spesso dettano legge.
Quindi a meno che non sei uno che cambia vga ogni sei mesi, dove la scelta migliore sarebbe la 3080, per la maggior parte di noi che la vga la cambia almeno ogni 2 anni (io mediamente ogni 3 anni) sarebbe meglio optare per la 6800xt. Come dici tu a parità di prezzo ovviamente.

lucusta
19-11-2020, 03:57
Io, scusami, questi commenti li trovo scioccanti. :eek:
Cioè, d'accordissimo sulle CPU che finalmente hanno mostrato i muscoli, ma queste GPU sono di una tristezza assurda, vi consiglio di guardare recensione Linus su Youtube.


è vietato aprire account quando si è sospesi, come è vietato aprire account cloni.

ho evidenziato questo pezzo giusto per farti riconoscere anche sugli altri forum, visto che è stato scritto anche nei commenti su tomshw che su HDblog da un unico utente a cui nessuno ha dato seguito alla provocazione.
non ti preoccupare... nessuno se lo fila Linus, perchè ultimamente è più una bandiera al vento che un recensore obbiettivo.

gioffry81
19-11-2020, 03:58
si ovvio ,così hai ragione.
però se si troverà prossimamente una 3080 founders a 719 prendo quella,anche se purtroppo monterò un 5800x amd probabilmente.

alla fine il ray tracing con il dlss sono certamente il futuro.... quindi in questa tecnologia per ora nvidia ha più esperienza e si trova in posizione di vantaggio.
anche perchè comunque i titoli prossimi saranno tutti con ray tracing e dlss attivabile....non possiamo fare paragoni con il passato purtroppo.
Si ma richiederanno anche di più vram

lucusta
19-11-2020, 04:00
Quindi a meno che non sei uno che cambia vga ogni sei mesi, dove la scelta migliore sarebbe la 3080, per la maggior parte di noi che la vga la cambia almeno ogni 2 anni (io mediamente ogni 3 anni) sarebbe meglio optare per la 6800xt. Come dici tu a parità di prezzo ovviamente.

ad oggi non c'è assolutamente scelta.
non ci sono i prodotti e quei pochi che ci sono sono ultraprezzati...
inutile spendere parole in confronti ipotetici se poi non rapporti il tutto al prezzo e se non hai il prezzo non hai confronto.

sintopatataelettronica
19-11-2020, 06:04
Le tecnologie come esrgan parlano diversamente anche nel caso del 2D e qui siamo in un contesto ulteriormente diverso
Non parliamo di magie ma di ricostruzione "ideale" dell'immagine (o della scena)

Stai confondendo un po' le cose: esrgan é un algoritmo di upscaling molto sofisticato e capace di grandi risultati, ma non MIGLIORA in alcun modo la qualitá dell'immagine o delle texture originale.

Viene usato per upscalare texture/immagini di giochi molto vecchi a risoluzioni maggiori con STRAORDINARI risultati, perché é ovvio che far girare un gioco che aveva in origine texture di 64x64 pixel (quando la risoluzione massima era 640x480, spesso 320x240 ) a 1920x1080 con texture upscalate a risoluzioni molto maggiori fornisce un risultato visivamente migliore nel complesso, ma le singole texture non migliorano di qualitá, anzi, esrgan é noto per introdurre un sacco di artefatti che (se si vuole eliminarli) devono essere corretti manualmente, texture per texture.

Se la texture originale fosse giá stata prevista a risoluzioni superiori (compatibili con le risoluzioni attuali) nessun algoritmo al mondo (IA o meno) potrebbe renderla migliore della controparte upscalata da una risoluzione inferiore.

La stessa cosa vale per DLSS (e tutte le tecnologie simili)..

Poi se volete credere alla magia.. (e al marketing)....

Max_R
19-11-2020, 08:52
Stai confondendo un po' le cose: esrgan é un algoritmo di upscaling molto sofisticato e capace di grandi risultati, ma non MIGLIORA in alcun modo la qualitá dell'immagine o delle texture originale.

Viene usato per upscalare texture/immagini di giochi molto vecchi a risoluzioni maggiori con STRAORDINARI risultati, perché é ovvio che far girare un gioco che aveva in origine texture di 64x64 pixel (quando la risoluzione massima era 640x480, spesso 320x240 ) a 1920x1080 con texture upscalate a risoluzioni molto maggiori fornisce un risultato visivamente migliore nel complesso, ma le singole texture non migliorano di qualitá, anzi, esrgan é noto per introdurre un sacco di artefatti che (se si vuole eliminarli) devono essere corretti manualmente, texture per texture.

Se la texture originale fosse giá stata prevista a risoluzioni superiori (compatibili con le risoluzioni attuali) nessun algoritmo al mondo (IA o meno) potrebbe renderla migliore della controparte upscalata da una risoluzione inferiore.

La stessa cosa vale per DLSS (e tutte le tecnologie simili)..

Poi se volete credere alla magia.. (e al marketing)....

Piano. Io lo so cos'è esrgan e so che non è affatto magia.
L'ho usato come esempio, anche perché è solo un nome tra tanti.
Ovvio che per fare le EE di Baldur's Gate et simila avessero avuto i fondali non compressi sarebbe stato nettamente meglio, ma persi quelli non ci rimane quelli compressi a bassa risoluzione: se li upscalo così, non otteniamo alcun vantaggio, se invece li elaboro potrò ottenere ottimi risultati.
Il dlss è una tecnologia diversa ma concettualmente "simile" (passami il termine perché qui sono tutti pronti a linciare laurea in mano). Solo nel senso che si tratta di una ricostruzione dell'immagine.
Ora, non so i dettagli in merito alle risoluzioni a cui fanno lavorare i sistemi di calcolo Nvidia ma presumo a questo punto che non si tratti di 4K bensì di risoluzioni maggiori.
Quello che mi ha più stupito è che guardando in dettaglio le trame dei capelli con uno zoom importante, gli artefatti che normalmente si vedono (che non disturbano chiaramente l'esperienza di gioco per carità), vengono corretti e così molti altri dettagli. C'è meno aliasing e la nitidezza è maggiore.
Chiaro ripeto che non è magia, ma imho è davvero tanta roba. Soprattutto per le console, portatili e non, ma non solo. Direi un bel valore aggiunto anche per una 3090 in ogni caso.
Poi trovo inutile ostentare studi universitari quando non si sa con chi si sta parlando ed i suoi trascorsi. Ragazzi, è abbastanza infantile, spero ve ne rendiate conto. E qui non mi rivolgo specificatamente a sintopatata ma spero si capisca.
Il marketing mi interessa poco: ho una 5700xt e non intendo cambiarla, ma trovo il dlss straordinario e molto promettente. L'attuale applicazione "ludica" del RT invece decisamente meno.

mackillers
19-11-2020, 08:52
Clamorosamente disastrosi i benchmark con Ray Tracing e una scheda di nuova generazione non può permettersi di uscire in queste condizioni. Sono attonito, hanno praticamente le stesse performances di una 2080 Ti che ormai si trova a 300e su eBay e la situazione peggiora pure con DLSS. Insomma, con ormai tutti i giochi di spessore in pieno supporto DLSS e RT, valore 6800xt sui 250-300 euro, non ci spenderei un euro in più.

Differente il discorso su lato CPU invece, prenderei 5950x ora se non avessi già un 10900k.

Dire che siamo in pieno nel periodo Raytracing mi pare esagerato, i giochi testati sono 6, e se si toglie il DLSS il divario di AMD non è poi così grande.

va considerato che i giochi attuali su PC si sono basati ed hanno ottimizzato la resa del Raytracing solo per Nvidia. è probabile che un pò nel corso dei prossimi 4-5 mesi recuperi, vuoi per l'ottimizzazione dei driver, vuoi per l'ottimizzazione dei giochi. ( ed in molti giochi per far notare il raytracing tutte le superfici diventano innaturalmente bagnate e riflettentissime..)

quando vado in giro con la pioggia per strada mica si trasforma tutto in uno specchio lucidato!

Ciò nonostante è corretto e giusto dire che Nvidia in questo ambito è ancora superiore, ed il DLSS le da un ulteriore marcia in più.

ma non si possono dare giudizi finché non si avranno dei prezzi su strada non viziati dalle bassissime disponibilità.

a mio giudizio una buona custom di 6800XT a 750€ sarebbe più conveniente di una 3080 a 900€, il margine in Raytracing non giustifica questo divario ipotetico.. aspettiamo e vedremo!

mackillers
19-11-2020, 08:56
Ripeto, potrebbe essere solo un problema di ottimizzazione.
Poi se è un problema che i core RT sono meno potenti, allora ok, in quel caso va a gusti e soprattutto a prezzo.

probabilmente è un pò tutte e due le cose, sicuramente AMD è indietro anche lato Hardware, ma altrettanto sicuramente qualcosa lato software può essere migliorato ed ottimizzato, in che misura ancora non ci è dato saperlo però.

mackillers
19-11-2020, 08:59
Pure io sceglierei una piattaforma completamente AMD.
La 6800XT pareggia con la 3080, ma costa meno di listino e penso costerà ancora meno di street price (da verificare).
La 6800 batte nettamente la 3070, anche in RT (ovvio, se poi si scelgono i titoli, si può far vincere chiunque, quindi Dirt 5 va considerato, come pure i titoli pro nVidia). Probabilmente costerà pure meno come street price.
Già questo mi sarebbe sufficiente.

Ora, solita considerazione, questi sono i primi driver, e in particolare AMD ha dimostrato che nel tempo le prestazioni dei propri modelli sono nettamente migliorate con le nuove release.
Seconda considerazione, i giochi cross-platform devono ancora uscire, ed è difficile non credere che le AMD non ne trarranno giovamento.
Terza, al momento non avrei dubbi nel scegliere una CPU AMD, e questo significa un ulteriore vantaggio (SAM).
Per finire, i consumi...

A favore di nVidia, ma solo per il modello 3080, c'è il RT, che a me per il momento interessa molto poco (se non mi dicono dove è attivato, non lo capirei nemmeno, se non per la caduta del frame-rate). In ogni caso volendo c'è, ed è da vedere come renderà con i nuovi titoli.
Rimane il DLSS, e qui bisognerà vedere la risposta AMD, ma qualsiasi sarà la risposta, non sceglierei certamente una VGA per un vantaggio in questa tecnologia.

pur essendo incline ad un futuro acquisto di queste VGA sono d'accordo con te solo parzialmente.

è vero che molti giochi che attualmente utilizzano il Raytracing sono giustamente più ottimizzati, se non addirittura costruiti attorno, alle tecnologie Nvidia.
Ma è anche vero che in questi anni Nvidia ha lavorato e si è portata molto avanti in questo ambito e gli va riconosciuto.

il DLSS poi è una chiave di volta importante e credo possa essere una valida motivazione per la quale scegliere una VGA.

boboviz
19-11-2020, 09:03
sulla recensione di Phoronix mettono come vincente la 3080 , ma leggiamo la stessa review?

Dici?
The Radeon RX 6800 series is unequivocal greatness for open-source Linux users. There is no competition at all if wanting the best performance and strictly looking at open-source driver support. NVIDIA is not actively supporting open-source support with the Nouveau community driver or via other means. In fact, there is no open-source accelerated support at all yet for the GeForce RTX 30 series......So if you want the optimal Linux performance at this very moment you need to be comfortable moving to Linux 5.9~5.10 and Mesa 20.3~21.0-devel. If you are okay with that by building it yourself, using third-party repositories / PPAs, or are on a rolling-release, go ahead and get a Radeon RX 6800 series today if you can

cronos1990
19-11-2020, 09:14
Mah, non capisco certi commenti. Stiamo parlando di alta ingegnerizzazione e tecnologie complesse che si basano di esperienza e know-how che richiedono anni di accumulo. Se davvero qualcuno ipotizzava di vedere delle schede AMD andare chissà quanto più veloce delle Nvidia, crede davvero alla magia.

La realtà è che AMD ha fatto un gran bel passo avanti, in un ambito in cui se possibile era ancora più indietro rispetto ad Intel con le CPU. Sinceramente non mi sarei mai aspettato che le 6xxx potessero andare alla pari, se non leggermente meglio (al netto del discorso RT) rispetto alla controparte Nvidia. E questo in attesa della 6900XT che si sconterà con la 3090 (che tra l'altro in 4K viene addirittura battuta, seppur di poco, dalla 6800XT in almeno 3 giochi e tutti quanti di uscita recentissima).
Questa è già tanta roba, e sinceramente ero convinto che AMD non sarebbe riuscita ad ottenere subito questi risultati; d'altronde anche l'aumento di prestazioni per watt è andata anche oltre i loro obiettivi iniziali.

Questo semmai è da considerarsi un primo passo; da un lato dovranno lavorare sui driver che sono sicuramente molto più acerbi di quelli Nvidia (le 30xx, tra l'altro, non sono altro che 20xx "potenziate", cosa che ha sicuramente permesso ad Nvidia di essere molto più ottimizzata fin da subito lato software).
Dall'altro continuare a sviluppare le loro schede lato hardware, con un'architettura complessiva che sulla carta ha molte più probabilità di migliorare nel tempo. Ma è chiaro che questo sviluppo finchè non c'è, è solo ipotetico. Quindi molto bene queste schede, ma devono essere solo il primo passo di un lungo percorso. Altrimenti sarebbero solo una boutade, e di sicuro Nvidia non starà certo sugli allori. E questa potenziale concorrenza reale, se protratta nel corso degli anni, porterebbe benefici prima di tutto nell'utenza.

AMD pare essere più indietro sul discorso RT. Stesso discorso di cui sopra, cui però fa evidenziato il fatto che, oltre ai driver sicuramente più acerbi, tutti i giochi finora usciti sono stati ottimizzati sull'unica piattaforma hardware per averlo (cioè Nvidia), quindi è anche ovvio questo vantaggio lato verdi. E il fatto che comunque i giochi sono programmati principalmente per le console, che sono de facto AMD, lascia presagire che in futuro tale divario si possa assottigliare se non ribaltare.
Certo, al netto di quanto già espresso: siamo ad un primo passo, il futuro lo scopriremo solo vivendo. Al momento possiamo formulare solo ipotesi. E comunque, l'RT ancora è usato in modo limitato oppure in maniera volutamente smaccata in certi aspetti per pubblicizzarlo, e questo complica ancor di più la valutazione complessiva.

Sul DLSS non entro nel merito.

boboviz
19-11-2020, 09:23
OpenCl on RX6800 (https://www.phoronix.com/scan.php?page=article&item=amd-rx6800-opencl&num=1)
E Rocm4 deve ancora uscire....

ningen
19-11-2020, 09:35
Bentornata concorrenza. Finalmente è possibile una vera scelta in tutte le fasce.
Queste due schede sono ottime, rimane un pò indietro per quel che riguarda il raytracing (da capire quanto sarà importante nei prossimi anni) e non ha una tecnologia simile al DLSS per il momento, ma per il resto tanto di cappello.

Gyammy85
19-11-2020, 10:11
OpenCl on RX6800 (https://www.phoronix.com/scan.php?page=article&item=amd-rx6800-opencl&num=1)
E Rocm4 deve ancora uscire....

Performance incredibili, contro una scheda che sulla carta ha "diecimila sp"

Ale55andr0
19-11-2020, 10:34
Al miracolo la gente lo grida perchè era da parecchio che non erano così vicini alle top di gamma nvidia, schede come la vega 64, fury x,r9 390x, 590, vega 7 facevano spesso e volentieri pessime figure rispetto alle controparti uscite anche abbastanza prima.:rolleyes:

diceva prego? :O

https://www.hwupgrade.it/forum/showpost.php?p=46979491&postcount=63940


:rotfl:

calabar
19-11-2020, 10:55
Pare quindi che AMD abbia mantenuto le promesse per quanto riguarda le prestazioni. Il dubbio che le slide mostrate durante la presentazione fossero troppo ottimistiche c'era
Ci sarà da vedere come si comporterà la 6900, nei commenti alla presentazioni c'è chi affermava che sarebbe stata molto sotto la 3090 che aveva un maggior margine "hardware" rispetto alla 3080 di quanto la 6900 ne abbia nei confronti della 6800XT, se AMD anche con la 6900 avrà mostrato risultati veritieri, allora dovrà ricredersi.

La questione RT pare confermare le voci che circolavano, c'è da capire se le prestazioni inferiori siano dovute al fatto che ci sia un maggior lavoro di ottimizzazione sulle schede nVidia (che sappiamo bene quanto sia importante) su cui queste implementazioni sono state sviluppate o se l'hardware RT nVidia sia realmente superiore. Credo che nei prossimi mesi e con l'uscita dei prossimi titoli ne sapremo di più.

Per quanto riguarda il DLSS continua a rimanere una carta vincente per nVidia, spero che AMD colmi prima possibile (e con un'alternativa all'altezza) questa lacuna.
Se ne è già discusso ampiamente nella precedente discussione ma secondo me gli utenti che dicono che non si può superare la qualità dell'immagine a risoluzione nativa e citano Shannon continuano a confondere fedeltà con resa finale.

@lucusta
Non riesco a capire la tua posizione. Da una parte attacchi tutti quelli che elogiano DLSS, dall'altra ti dimostri possibilista con interventi come:
"che ne so, magari fanno un confronto con un rendering 8k per l'inferenza, ..." (che se non sbaglio è proprio quello che fa)
"il teorema di Shannon vale se non t'inventi di sana pianta le informazioni ..."
...

ronthalas
19-11-2020, 10:58
mi sono sempre domandato per quale motivo non usiate nemmeno uno dei test sintetici in circolazione, nemmeno l'ultimo Unigine Superposition, che per quanto sia sintetico, è sicuramente indicativo delle capacità di una scheda.

ninja750
19-11-2020, 11:16
quello è perche sei un fanboy amd. ripeto, ci sono entrambi i test, per correttezza, quindi non vedo il problema, lo vedete solo voi come se fosse un affronto :)

si guarda proprio fanboyssimo :asd: oh se per te è normale CHE SOLO IN TALUNE REVIEW si debbano aggiungere grafici per escludere dalle medie alcuni titoli piuttosto che altri :asd: the way it's meant to be played direi

leddlazarus
19-11-2020, 11:19
E per finire riguardo DLSS che qui sennò veramente si fa disinformazione gratuita (e basta già YouTube che nei giorni precedenti ad embargo per 6800xt era zeppo di video fake in comparison 6800xt vs 3080, di una tristezza assurda, che andrebbero pure segnalati).

DLSS 1.0 (Tomb Raider, BFV & co.) era una nefandezza piena di blur.
DLSS 2.0 è praticamente il futuro del gaming.

Valori:

Risoluzione + Aliasing che esiste ed è forte in maniera meno evidente partendo da 1080p, 2k, UWQHD fino 4K + Performances DLSS 2.0 + 4K vs no DLSS 4K + TAA.

Premesso che tra DLSS 2.0 (Quality Preset) + 4K e DLSS OFF + 4k + TAA passano la bellezza di 80-150 frames average nei titoli che lo supportano (parliamo di un gap prestazionale, rapportato in raster, simile a 3 generazioni di GPU).


Due pics scattate in Ultra Settings due minuti fa dal sottoscritto su di un monitor 3440x1440p con RTX 3090.

DEATH STRANDING 3440x1440P DLSS ON ULTRA SETTINGS: https://i.imgur.com/CZBc9mU.jpg
DEATH STRANDING 3440x1440P DLSS OFF ULTRA SETTINGS: https://i.imgur.com/2WiQM4p.jpg


Analisi DLSS ON (Aliasing + resa): https://i.imgur.com/f4pjGy6.jpg
Analisi DLSS OFF (Aliasing + resa): https://i.imgur.com/OiP5vKl.jpg

Video ufficiale Nvidia sul DLSS 2.0 di Death Stranding: https://www.youtube.com/watch?v=IMi3JpNBQeM

Insomma ragazzi, atroce aliasing anche a risoluzioni altissime con perdita frames enorme che si aggrava ulteriormente se filtri AA sono attivi (a meno che non si voglia usare il terribile FXAA, ma quello si che è vero blur).
Dall'altra parte performances altissime e resa visiva impeccabile, con larga possibilità di attivare e giocare in Ray Tracing e quindi distaccare il gap di qualità visiva dal nativo ancora di più, pur restando su frames superiori.

Cioè, considerare queste AMD un buon investimento è pura follia, io da videogiocatore non potrei mai avere il coraggio di suggerire ad un amico una di queste due GPU presentate oggi, a patto che entrambe siano disponibili sul mercato e che il divario prezzi resti quello di listino. Ed è qui che casca l'asino. ;)
Ed è anche qui che Nvidia merita di avere un danno economico marginale per evitare nuovamente situazioni del genere in futuro.


sarò scemo io ma tutta sta differenza non la vedo..

e parliamo di due screenshot
in gioco hai il tempo di gustarti certe prelibatezze visive, mentre sei concentrato a non farti uccidere?

bohhh

comunque sono talmente povero che gioco ancora in 1080 con una gtx770.

se va bene aggiornero con una scheda con piu Vram e spendendo il meno possibile. tipo una rx580 o una gtx1660

tanto per dire che c'è gente che diventa matta per ste schede, ma comunque sono schede che costano parecchio, per non dire uno spoposito, per il 90% degli user.

veramente c'è quasi da migrare verso le console.

OrazioOC
19-11-2020, 11:23
diceva prego? :O

https://www.hwupgrade.it/forum/showpost.php?p=46979491&postcount=63940


:rotfl:
Wow vedo che porti ancora rancore. :asd:
Comunque, non ci vedo veramente nulla a dubitare nei leak di gente a caso su twitter.:fagiano:

DukeIT
19-11-2020, 11:25
sarò scemo io ma tutta sta differenza non la vedo..

e parliamo di due screenshot
in gioco hai il tempo di gustarti certe prelibatezze visive, mentre sei concentrato a non farti uccidere?

bohhh

comunque sono talmente povero che gioco ancora in 1080 con una gtx770.

se va bene aggiornero con una scheda con piu Vram e spendendo il meno possibile. tipo una rx580 o una gtx1660

tanto per dire che c'è gente che diventa matta per ste schede, ma comunque sono schede che costano parecchio, per non dire uno spoposito, per il 90% degli user.

veramente c'è quasi da migrare verso le console.
E questo è il vero problema. Se pur AMD è riuscita a far crollare i prezzi delle nVidia (basta ricordarsi la serie 2000), i prezzi sono ancora esagerati, ancora di più se consideriamo, sia per la 3070 che per la 6800, che stiamo parlando di schede terze di gamma.
Non ci siamo proprio.

batou83
19-11-2020, 11:27
tanto per dire che c'è gente che diventa matta per ste schede, ma comunque sono schede che costano parecchio, per non dire uno spoposito, per il 90% degli user.

veramente c'è quasi da migrare verso le console.

Sembra che anche lato console la situazione sia parecchio incasinata, si trova a prezzi decenti solo xbox series s, mentre le altre due o bisogna aspettare un mese o due oppure acquistarle in pronta consegna a 600-700 euro...

lucusta
19-11-2020, 11:41
@lucusta
Non riesco a capire la tua posizione. Da una parte attacchi tutti quelli che elogiano DLSS, dall'altra ti dimostri possibilista con interventi come:
"che ne so, magari fanno un confronto con un rendering 8k per l'inferenza, ..." (che se non sbaglio è proprio quello che fa)
"il teorema di Shannon vale se non t'inventi di sana pianta le informazioni ..."
...

perchè è matematicamente impossibile ricreare fedelmente l'intera informazione partendo da un suo sunto, ma è anche vero che non sai quale sia "l'intera informazione", perchè non sei mica lo sviluppatore o nvidia che effettuano il sampling per l'inferenza...

molti guardano al DLSS confrontando 4K con 4K, ma in effetti nessuno ti dice che l'informazione da cui partono non sia esageratamente più grande e che riescono a limare in parte il "sunto"...
se fosse un'inferenza a 8k o a 16k, alla fine avrai ben più informazioni per desumere quelle mancanti per fare comunque una riduzione a 4K; da 4K a 4K non fai nessuna riduzione dell'informazione, ma è pari quella.

il DLSS 2.1 ha introdotto il 9X; significa che se parti da un 720p arrivi ad un 4K.
per fare questo salto, però, non puoi partire dall'inferenza di un 4K, ma da uno superiore.
se invece ti accontenti di avere un FHD hai 4 volte le informazioni utili da un'inferenza a 4K.

ciò non toglie che i difetti che aggiunge il DLSS non possono essere eliminati, ma affievoliti, perchè è proprio il modo in cui elabora che li introduce.
il DLSS scompone il quadro dell'immagine in molte tessere e parlando di risoluzione significa tessere formate da pixel, quindi con un numero ben definito di pixel per tessera e di divisioni.
prende poi queste tessere e le divide ulteriormente e a quel punto effettua confronti sulle variazioni da una sub mattonella ad un'altre (tramite una semplice trasformata di Fourier) per poi introdurre altre, alternate a quelle che hai e interpolare i pixel che potrebbero esserci.
bene, un processo matematicamente corretto, se non avesse bordi.
ai bordi ti manca la continuità dell'informazione, quindi la possibile interpolazione con le altre tessere.
ed infatti sul DLSS le porzioni limitrofe ai bordi fanno letteralmente schifo, piene di errori d'interpolazione.
stesso discorso su oggetti piccoli e veloci che passano a schermo...
l'inferenza che fai la fai su immagini statiche, non su video, con sequenze di fotogrammi vicini che puoi confrontare step per step.
lì l'algoritmo deve diventare proprio creativo ed infatti molte volte s'inventa cose che non ci sono.
è il modo in cui calcola il suo limite estremo, ma alla fine la definizione puoi renderla molto più accurata aumentando il grado d'inferenza con più sampler e aumentando l'informazione di quei sampler...
otterrai una più precisa procedura di come agire poi con l'algoritmo di ricostruzione.
quindi da DLSS 2.0 a DLSS 2.1, il sospetto che ho io, è che non hanno fatto altro che lavorare sull'inferenza, non sull'algoritmo di scaling; hanno aumentato il numero di campionamenti e la risoluzione delle immagini.
almeno è quello che per logica si andrebbe a ritoccare in un processo di questo genere.

poi, dimmi: oggi le 3090 sono pubblicizzate come schede per l'8K...
che fanno ancora inferenza su fotogrammi 4K per generare un 8K?
e se fai l'inferenza su un 8K non te la tieni anche per un eventuale 4K o inferiore?
perchè il numero ed il peso dei dati che ottieni dall'inferenza non cambia; cambia la sua precisione ed adattabilità.

credo che a molti sia oscuro il processo che avviene dietro la sigla DLSS o reso molto confuso dai vari proclami da marketing che nvidia ci fa sopra.

mackillers
19-11-2020, 11:44
spero non siano questi i prezzi finali perchè ,non essendo fanboy ( ho sempre avuto sia amd che nvidia) , a queste cifre preferire una 6800xt piuttosto che una 3080 founders a 719 è da folli....ma credo lo pensino pure i fanboy amb,no?

Certamente, ti sfugge però che la founders è una sorta di edizione limitata venduta solo da Nvidia al momento del lancio. quel prezzo non lo ha sfruttato quasi nessuno e non lo sfrutterà più nessuno.

per valutare il prezzo di mercato bisogna valutare le custom che si troveranno nei negozi.... per quando si troveranno! ( e mi riferisco sia ad AMD che ad Nvidia)

Ale55andr0
19-11-2020, 11:46
Wow vedo che porti ancora rancore. :asd:
Comunque, non ci vedo veramente nulla a dubitare nei leak di gente a caso su twitter.:fagiano:

non è rancore (anche se ti confesso che tu e batman mi avete regalato due risate grazie "al senno del poi" :D) ma ricordare certe cose a fronte di certi atteggiamenti è dovuto :O, sia mai che si impari a non dare nulla per scontato.. anche perchè il problema non era certo dubitare di un leak, che è più che lecito, ma la frase successiva... :O

OrazioOC
19-11-2020, 11:54
non è rancore (anche se ti confesso che tu e batman mi avete regalato due risate grazie "al senno del poi" :D) ma ricordare certe cose a fronte di certi atteggiamenti è dovuto :O, sia mai che si impari a non dare nulla per scontato.. anche perchè il problema non era certo dubitare di un leak, che è più che lecito, ma la frase successiva... :O

Ti devo ricordare che l'ultima volta che in quel thread avete dato credito ai leak al grido di "sandbagging" è uscita la v64 che non era tutta sta bellezza di scheda(e infatti una 1080 nella firma ce l'avevi per bellezza)?:asd:
Al tempo non si sapeva niente della 6800 xt, se poi uno fa una previsione sul nulla e sbaglia e lo vuoi perkulare per il nulla che devo dire?Che porti rancore.:ciapet:

Favuz
19-11-2020, 12:00
Al tempo non si sapeva niente della 6800 xt, se poi uno fa una previsione sul nulla e sbaglia e lo vuoi perkulare per il nulla che devo dire?Che porti rancore.:ciapet:

Ecco perchè non si dovrebbero fare previsioni sul nulla, si rischia di sbagliare completamente e prendersi le giuste spernacchiate. Inoltre, spalare merda su delle schede ancora non uscite e di cui non si sa niente ti fa passare per fanboy.


Solo un appunto sulla recensione, spero che anche nelle successive recensioni vengano esclusi gli outlier dalle considerazioni e per tutti i produttori.

E' la prima volta che viene fatto e non ne capisco il motivo, o meglio ho delle idee ma spero che non sia quello che penso.

OrazioOC
19-11-2020, 12:03
Ecco perchè non si dovrebbero fare previsioni sul nulla, si rischia di sbagliare completamente e prendersi le giuste spernacchiate. Inoltre, spalare merda su delle schede ancora non uscite e di cui non si sa niente ti fa passare per fanboy.


Solo un appunto sulla recensione, spero che anche nelle successive recensioni vengano esclusi gli outlier dalle considerazioni e per tutti i produttori.

E' la prima volta che viene fatto e non ne capisco il motivo, o meglio ho delle idee ma spero che non sia quello che penso.

Quindi uno non può fare pronostici, ok....:rolleyes:

P.S poi uno va' a vedere lo storico commenti di certi user e scopre che anche loro a loro volta hanno sbagliato pronostici, ma di certo una persona normale non va' a citare roba vecchia di mesi/anni per fare commenti stile "io avevo ragione e tu no gnegnegnegne" stile dodicenne sui social.:asd:

Gyammy85
19-11-2020, 12:05
Insomma da qui al mese prossimo sarà tutto un "dlss rulez"

majinbu7
19-11-2020, 12:08
Queste schede sono ottime, ma purtroppo anche AMD si è adeguata in fretta ai prezzi esosi che ormai il mondo HW ha intrapreso :muro:

luke@
19-11-2020, 12:21
perchè è matematicamente impossibile ricreare fedelmente l'intera informazione partendo da un suo sunto, ma è anche vero che non sai quale sia "l'intera informazione", perchè non sei mica lo sviluppatore o nvidia che effettuano il sampling per l'inferenza...

molti guardano al DLSS confrontando 4K con 4K, ma in effetti nessuno ti dice che l'informazione da cui partono non sia esageratamente più grande e che riescono a limare in parte il "sunto"...
se fosse un'inferenza a 8k o a 16k, alla fine avrai ben più informazioni per desumere quelle mancanti per fare comunque una riduzione a 4K; da 4K a 4K non fai nessuna riduzione dell'informazione, ma è pari quella.

il DLSS 2.1 ha introdotto il 9X; significa che se parti da un 720p arrivi ad un 4K.
per fare questo salto, però, non puoi partire dall'inferenza di un 4K, ma da uno superiore.
se invece ti accontenti di avere un FHD hai 4 volte le informazioni utili da un'inferenza a 4K.

ciò non toglie che i difetti che aggiunge il DLSS non possono essere eliminati, ma affievoliti, perchè è proprio il modo in cui elabora che li introduce.
il DLSS scompone il quadro dell'immagine in molte tessere e parlando di risoluzione significa tessere formate da pixel, quindi con un numero ben definito di pixel per tessera e di divisioni.
prende poi queste tessere e le divide ulteriormente e a quel punto effettua confronti sulle variazioni da una sub mattonella ad un'altre (tramite una semplice trasformata di Fourier) per poi introdurre altre, alternate a quelle che hai e interpolare i pixel che potrebbero esserci.
bene, un processo matematicamente corretto, se non avesse bordi.
ai bordi ti manca la continuità dell'informazione, quindi la possibile interpolazione con le altre tessere.
ed infatti sul DLSS le porzioni limitrofe ai bordi fanno letteralmente schifo, piene di errori d'interpolazione.
stesso discorso su oggetti piccoli e veloci che passano a schermo...
l'inferenza che fai la fai su immagini statiche, non su video, con sequenze di fotogrammi vicini che puoi confrontare step per step.
lì l'algoritmo deve diventare proprio creativo ed infatti molte volte s'inventa cose che non ci sono.
è il modo in cui calcola il suo limite estremo, ma alla fine la definizione puoi renderla molto più accurata aumentando il grado d'inferenza con più sampler e aumentando l'informazione di quei sampler...
otterrai una più precisa procedura di come agire poi con l'algoritmo di ricostruzione.
quindi da DLSS 2.0 a DLSS 2.1, il sospetto che ho io, è che non hanno fatto altro che lavorare sull'inferenza, non sull'algoritmo di scaling; hanno aumentato il numero di campionamenti e la risoluzione delle immagini.
almeno è quello che per logica si andrebbe a ritoccare in un processo di questo genere.

poi, dimmi: oggi le 3090 sono pubblicizzate come schede per l'8K...
che fanno ancora inferenza su fotogrammi 4K per generare un 8K?
e se fai l'inferenza su un 8K non te la tieni anche per un eventuale 4K o inferiore?
perchè il numero ed il peso dei dati che ottieni dall'inferenza non cambia; cambia la sua precisione ed adattabilità.

credo che a molti sia oscuro il processo che avviene dietro la sigla DLSS o reso molto confuso dai vari proclami da marketing che nvidia ci fa sopra.

dlss comparison
https://www.youtube.com/watch?v=eS1vQ8JtbdM

la scelta per il dlss deve essere soggettiva

dico, come ho già detto, che amd doveva già avere almeno questa feature alle prime review

AMD dlss + SAM sarebbe stato interessante, almeno avrebbe messo una pezza agli rt

comunque vale quanto detto da jay2cents e cioè che i prezzi delle amd ref, con dissipatori comunque custom, si ritroveranno a competere con le custom dei partner nvidia, che partono da 100eu in su

quindi dal punto di vista del prezzo, amd credo abbia fatto una scommessa

ciò non toglie che per 50 euro... come si fa a non andare sulla XT?

cioè qui mi pare, ovviamente parere personale, che amd si stia facendo concorrenza interna...

beh riguardo a linus, dato che lo avevo menzionato e qualcuno lo ha menzionato a propria volta, è vero che ultimamente non sembra più essere un recensore, ma per questo ha rimediato aprendo un paio di canali nuovi, sfruttando la presenza di un paio di collaboratori, di cui non ricordo il nome, che sembrano essere un po' più analitici

comunque sia nel video di linus le considerazioni mi sembrano obiettive, molto obiettive riguardo almeno a ciò che manca in partenza alle 6800

Insomma da qui al mese prossimo sarà tutto un "dlss rulez"

eh sì, è una mancanza pesante

amd doveva farsi trovare pronta, anche con una versione non definitiva, ma che almeno funzionasse un minimo per dire "ci stiamo seriamente lavorando"

dal non caxxxsela di striscio, e cestinandola dichiaratamente, ora dicono che sarà disponibile a breve... a breve quanto... settimane, mesi?

AceGranger
19-11-2020, 12:23
Insomma da qui al mese prossimo sarà tutto un "dlss rulez"

bè, fino a ieri anche l'RT delle 2080TI era indecente, e oggi invece che le 6800 hanno quelle prestazioni è diventato un cit. "ottimo punto di partenza" :asd:

ha fatto tutto un salto di qualita :asd:

luke@
19-11-2020, 12:24
bè, fino a ieri anche l'RT delle 2080TI era indecente, e oggi invece che le 6800 hanno quelle prestazioni è diventato un cit. "ottimo punto di partenza" :asd:

ha fatto tutto un salto di qualita :asd:

eh sì... :stordita:

ci vuole un po' di coerenza... manca al giorno d'oggi

se amd fosse uscita con il dlss, anche in fase sperimentale, e avesse dato anche un minimo vantaggio, l'affermazione sarebbe stata ben diversa :rolleyes:

Gyammy85
19-11-2020, 12:32
bè, fino a ieri anche l'RT delle 2080TI era indecente, e oggi invece che le 6800 hanno quelle prestazioni è diventato un cit. "ottimo punto di partenza" :asd:

ha fatto tutto un salto di qualita :asd:

A parte il fatto che dove c'è una buona ottimizzazione tipo dirt 5 amd vola, eravate voi a sostenere che ci volevano 100+ tf per tirare quanto una 2080ti in rt, qua abbiamo 22 miseri tf che fanno tutto, vedremo quanto farà fra un paio di mesi navi coi vecchi giochi e con roba tipo far cry 6

igiolo
19-11-2020, 12:34
quello che hanno scritto loro è quello che dice anche hothardware:

( test effettuato a 1440p )

DLSS 2.0's Quality mode renders at a sub-full HD resolution so performance is faster than native 1080p. You'd normally think that it wouldn't look as good at a lower resolution, but we disagree—the game looks better with DLSS 2.0's Quality setting at 1440p than than native 1080p HD too.

quindi DLSS 2.0 in Quality mode 1440p parte da un'immagine inferiore al FHD la elabora e alla fine ti ritrovi qualita superiore e prestazioni superiori al FHD nativo.

che il dlss funzioni, e molto bene, lo si sa (specie dalla v2)
il fatto che debba essere supportato del gioco specificatamente, moooolto meno bene (specie x AMD)
così come il discorso DXR vs RTX
rende poco adesso nel ray tracing xkè "standard" nvidia, o xkè performa poco e basta?

igiolo
19-11-2020, 12:36
Quindi sono riusciti a falsificare il primo teorema di Shannon e 60 anni di ricerche di teoria dei segnali
Il Nobel è assicurato ( ma più probabilmente sono balle del marketing )

C'è poco da fare, la matematica è quella, puoi fare un upscaling il meglio che puoi e il più intelligente che vuoi ma la quantità di informazione dell' immagine è sempre e comunque minore del rendering a definizione nativa.

cambia il lod
e l'af tipo
x questo paiono + nitide

ninja750
19-11-2020, 12:45
credo che a molti sia oscuro il processo che avviene dietro la sigla DLSS o reso molto confuso dai vari proclami da marketing che nvidia ci fa sopra.

""""rete neurale"""

al135
19-11-2020, 12:46
A parte il fatto che dove c'è una buona ottimizzazione tipo dirt 5 amd vola, eravate voi a sostenere che ci volevano 100+ tf per tirare quanto una 2080ti in rt, qua abbiamo 22 miseri tf che fanno tutto, vedremo quanto farà fra un paio di mesi navi coi vecchi giochi e con roba tipo far cry 6

ma l'hai visto l' rt di dirt? dai per piacere non difendiamo l'indifendibile... neanche nvidia ha fatto una roba piu vergognosa nelle migliore delle sue pecettate o marchette.

al135
19-11-2020, 12:47
che il dlss funzioni, e molto bene, lo si sa (specie dalla v2)
il fatto che debba essere supportato del gioco specificatamente, moooolto meno bene (specie x AMD)
così come il discorso DXR vs RTX
rende poco adesso nel ray tracing xkè "standard" nvidia, o xkè performa poco e basta?

il dlss gia era ottimo nella versione 1, nella 2 è spettacolare. chi dice il contrario o rosica o è bocelli

AceGranger
19-11-2020, 12:48
A parte il fatto che dove c'è una buona ottimizzazione tipo dirt 5 amd vola,

si come le nVidia volano da altre parti, è sempre stato cosi e sempre lo sara, alcuni giochi hanno calcoli piu affini ad un'architettura e altri giochi all'altra.


eravate voi a sostenere che ci volevano 100+ tf per tirare quanto una 2080ti in rt, qua abbiamo 22 miseri tf che fanno tutto, vedremo quanto farà fra un paio di mesi navi coi vecchi giochi e con roba tipo far cry 6

ma anche no, qui abbiamo delle unita DEDICATE ESATTAMENTE come lo sono gli RT CORE che TU davi per inutili, e i TFLops di cui si è sempre parlato era di un equivalente chip con unita NON dedicate.

cit: "anche AMD ha dotato l'architettura RDNA 2 alla base delle nuove schede video di unità specializzate chiamate Ray Accelerator. Ogni Compute Unit (CU) di RDNA 2 offre una RA (Ray Accelerator)."

senza i Ray Accelerator le 6000 non andrebbero da nessuna parte in RT, come non andrebbero da nessuna parte le RTX senza gli RT Core.

cronos1990
19-11-2020, 12:50
senza i Ray Accelerator le 6000 non andrebbero da nessuna parte in RT, come non andrebbero da nessuna parte le RTX senza gli RT Core.E in realtà non vanno da nessuna parte neanche adesso con le unità dedicate.

Vash_85
19-11-2020, 12:51
Vedo che i cloni di Ferrario sono piuttosto nervosi oggi su questo thread!:D

Che i "padroni" gli abbiano chiesto di spingere per un bonus a fine mese? :asd:

igiolo
19-11-2020, 12:54
il dlss gia era ottimo nella versione 1, nella 2 è spettacolare. chi dice il contrario o rosica o è bocelli

ma in realtà nella prima versione aveva parecchi difetti (adesso è una magata dove presente)
l'unico vero limite è che è

proprietario
deve essere supportato dal gioco

se non fosse così, ti darei ragione che è un vero game changer
ma dovendo convivere con console TUTTE AMD, i multipiatta saranno a macchia di leopardo come implementazione
adesso, AMD è in chiaro ritardo, il fidelity DOVEVA essere pronto al lancio
tollero di + le perfomance inferiori in RT
ma credo che alla fine sia tutto merito dei tensor di nvidia, sia x l'una che x l'altra
vedremo se recupera alla svelta (ma alla svelta, ovvero quando saranno dispo a volumi)

Gyammy85
19-11-2020, 12:57
ma l'hai visto l' rt di dirt? dai per piacere non difendiamo l'indifendibile... neanche nvidia ha fatto una roba piu vergognosa nelle migliore delle sue pecettate o marchette.

E a maggior ragione ampere dovrebbe volare no? O magari ricopriamo i livelli di specchi
Dirt 5 usa più feature delle dx12 ultimate che i giochi rtx messi insieme

Max_R
19-11-2020, 12:59
perchè è matematicamente impossibile ricreare fedelmente l'intera informazione partendo da un suo sunto, ma è anche vero che non sai quale sia "l'intera informazione", perchè non sei mica lo sviluppatore o nvidia che effettuano il sampling per l'inferenza...

molti guardano al DLSS confrontando 4K con 4K, ma in effetti nessuno ti dice che l'informazione da cui partono non sia esageratamente più grande e che riescono a limare in parte il "sunto"...
se fosse un'inferenza a 8k o a 16k, alla fine avrai ben più informazioni per desumere quelle mancanti per fare comunque una riduzione a 4K; da 4K a 4K non fai nessuna riduzione dell'informazione, ma è pari quella.

il DLSS 2.1 ha introdotto il 9X; significa che se parti da un 720p arrivi ad un 4K.
per fare questo salto, però, non puoi partire dall'inferenza di un 4K, ma da uno superiore.
se invece ti accontenti di avere un FHD hai 4 volte le informazioni utili da un'inferenza a 4K.

ciò non toglie che i difetti che aggiunge il DLSS non possono essere eliminati, ma affievoliti, perchè è proprio il modo in cui elabora che li introduce.
il DLSS scompone il quadro dell'immagine in molte tessere e parlando di risoluzione significa tessere formate da pixel, quindi con un numero ben definito di pixel per tessera e di divisioni.
prende poi queste tessere e le divide ulteriormente e a quel punto effettua confronti sulle variazioni da una sub mattonella ad un'altre (tramite una semplice trasformata di Fourier) per poi introdurre altre, alternate a quelle che hai e interpolare i pixel che potrebbero esserci.
bene, un processo matematicamente corretto, se non avesse bordi.
ai bordi ti manca la continuità dell'informazione, quindi la possibile interpolazione con le altre tessere.
ed infatti sul DLSS le porzioni limitrofe ai bordi fanno letteralmente schifo, piene di errori d'interpolazione.
stesso discorso su oggetti piccoli e veloci che passano a schermo...
l'inferenza che fai la fai su immagini statiche, non su video, con sequenze di fotogrammi vicini che puoi confrontare step per step.
lì l'algoritmo deve diventare proprio creativo ed infatti molte volte s'inventa cose che non ci sono.
è il modo in cui calcola il suo limite estremo, ma alla fine la definizione puoi renderla molto più accurata aumentando il grado d'inferenza con più sampler e aumentando l'informazione di quei sampler...
otterrai una più precisa procedura di come agire poi con l'algoritmo di ricostruzione.
quindi da DLSS 2.0 a DLSS 2.1, il sospetto che ho io, è che non hanno fatto altro che lavorare sull'inferenza, non sull'algoritmo di scaling; hanno aumentato il numero di campionamenti e la risoluzione delle immagini.
almeno è quello che per logica si andrebbe a ritoccare in un processo di questo genere.

poi, dimmi: oggi le 3090 sono pubblicizzate come schede per l'8K...
che fanno ancora inferenza su fotogrammi 4K per generare un 8K?
e se fai l'inferenza su un 8K non te la tieni anche per un eventuale 4K o inferiore?
perchè il numero ed il peso dei dati che ottieni dall'inferenza non cambia; cambia la sua precisione ed adattabilità.

credo che a molti sia oscuro il processo che avviene dietro la sigla DLSS o reso molto confuso dai vari proclami da marketing che nvidia ci fa sopra.

Ottimo intervento! (senza alcun sarcasmo)
Ma vedi allora, io non paragonavo il risultato 4k + dlss all'ipotetico frame a risoluzione campione a cui viene "istruita" la funzione (o tecnologia se vogliamo evitare ulteriori fraintendimenti di forma) dlss.
E poi come dicevo sono molto interessato per avere un'ottima resa banalmente solo a 1080p con schede low profile ed itx, nonché console.

Dopodiché concordo anche con chi dice che durante il gioco non si presta attenzione a certi dettagli ma nell'insieme tengo molto alla resa finale ed alla nitidezza.
Non dico che il dlss sia magico, ne dico sia sofisticatissimo ma dico che imho è davvero molto promettente nelle possibili applicazioni, soprattutto future. Un bel valore aggiunto quindi, sempre imho. E lo dico, ripeto, giocando con una 5700xt a 2k. Ed intendo farlo finché mi permetterà di farlo con decenza :)

al135
19-11-2020, 13:07
E a maggior ragione ampere dovrebbe volare no? O magari ricopriamo i livelli di specchi
Dirt 5 usa più feature delle dx12 ultimate che i giochi rtx messi insieme

mi sa che ti confondi con qualche altro gioco
https://www.youtube.com/watch?v=N-JsrfVMXwE
la differenza grafica è meno che minima e lo dimostra anche il fatto che con una 3080 si passa da un frametime di 18,5 a 20ms.
praticamente una scorreggia di prestazioni in meno con rt attivo.
infatti amd aveva le stesse super performance su questo titolo ANCHE SENZA raytracing attivo.
ripeto, non difendiamo l'indifendibile, in tutti gli altri titoli è al limite della giocabilità, esattamente come lo era per nvidia la 2080ti della passata gen.

Gyammy85
19-11-2020, 13:10
mi sa che ti confondi con qualche altro gioco
https://www.youtube.com/watch?v=N-JsrfVMXwE
la differenza grafica è meno che minima e lo dimostra anche il fatto che con una 3080 si passa da un frametime di 18,5 a 20ms.
praticamente una scorreggia di prestazioni in meno con rt attivo.
infatti amd aveva le stesse super performance su questo titolo ANCHE SENZA raytracing attivo.
ripeto, non difendiamo l'indifendibile, in tutti gli altri titoli è al limite della giocabilità, esattamente come lo era per nvidia la 2080ti della passata gen.

E vabbè pesa un sputino, ciò non toglie che ampere prende bastonate da amd in quel titolo, e pure watch dogs va abbastanza bene con amd, direi che semplicemente i giochi più vecchi non sono dxr tier 1.1 ma 1.0 e magari questo incide sull'uso dei ray accelerator

lucusta
19-11-2020, 13:35
dlss comparison
https://www.youtube.com/watch?v=eS1vQ8JtbdM

la scelta per il dlss deve essere soggettiva

dico, come ho già detto, che amd doveva già avere almeno questa feature alle prime review

AMD dlss + SAM sarebbe stato interessante, almeno avrebbe messo una pezza agli rt

comunque vale quanto detto da jay2cents e cioè che i prezzi delle amd ref, con dissipatori comunque custom, si ritroveranno a competere con le custom dei partner nvidia, che partono da 100eu in su

quindi dal punto di vista del prezzo, amd credo abbia fatto una scommessa

ciò non toglie che per 50 euro... come si fa a non andare sulla XT?

cioè qui mi pare, ovviamente parere personale, che amd si stia facendo concorrenza interna...

beh riguardo a linus, dato che lo avevo menzionato e qualcuno lo ha menzionato a propria volta, è vero che ultimamente non sembra più essere un recensore, ma per questo ha rimediato aprendo un paio di canali nuovi, sfruttando la presenza di un paio di collaboratori, di cui non ricordo il nome, che sembrano essere un po' più analitici

comunque sia nel video di linus le considerazioni mi sembrano obiettive, molto obiettive riguardo almeno a ciò che manca in partenza alle 6800


io non sindaco l'utilità del DLSS; ho giocato con le integrate a risoluzioni risibili e provengo dalla generazione 320x200, ma certo non apprezzo che si scenda a compromessi con schede da 800-900 euro appena uscita.
significa che qualcosa non funziona tra sviluppatori e produttori di HW.

il problema nasce sui test.
se mi togli DIRT 5 perchè usa "cheat" pro nvidia, mi dovevi togliere tutti quei titoli che usavano gameworks a manetta in passato.
se accettavi quelli, con tools che si sono dimostrati palesemente per quello che realmente servivano (physx serve a limitare le prestazioni di AMD e ti posso portare decine di prove), oggi dovresti accettare Drit 5 anche se usa CAS e non è disabilitabile, perchè molti cheat nvidia non sono disabilitabili.

poi si passa al futuro, sul piano della normalizzazione dei test per avere un confronto realmente tecnico: domani, con DLSS attivo e DircetML ativo, come faremo a dire qual'è il prodotto che vale i suoi soldi se non osserviamo attentamente anche la qualità di come l'HW riesce a riprodurlo?
diventa un'analisi assai impegnativa.

quindi ben venga il super resolution ed il super samplig con il deep learning, ma che non venga mischiato con i test che devono essere fatti per valutare l'HW...

fossi in un responsabile redattore comincerei a pensare di cambiare totalmente strategia d'analisi e di giudicare i giochi e non più l'HW, o meglio come girano i giochi sugli specifici HW (e loro combinazione, orami c'è pure SAM di mezzo).
lavoro impegnativo?
se lo sono scelto loro.
se vogliono raccogliere il pubblico di appassionati sotto i loro articoli dovranno farli interessanti e valevoli, sennò rimane solo una spuria presentazioni di un prodotto.. una semplice pubblicità.

per quanto riguarda Linus, lui rimane un pubblicitario, ma il ciccone è un sistemista coi fiocchi.

dav1deser
19-11-2020, 13:35
Tutto questo parlare di differenze di prestazioni in RT mi ha riportato alla mente il periodo della tessellation.
Anche allora sembrava che AMD non sarebbe andata da nessuna parte visto che Nvidia con tessellation attiva andava meglio.

Ora la tessellation non se la caga più nessuno, forse perchè adesso nei giochi è implementata con un po' di logica (chi si ricorda i blocchi di cemento in, Crysis 3 credo, piatti, ma tessellati all'inverosimile?). Forse tempo 2 anni sarà lo stesso discorso per gli RT, sarà utilizzato in maniera intelligente, qualunque scheda sarà in grado di gestirli a dovere, e non se ne parlerà più.

al135
19-11-2020, 13:41
E vabbè pesa un sputino, ciò non toglie che ampere prende bastonate da amd in quel titolo, e pure watch dogs va abbastanza bene con amd, direi che semplicemente i giochi più vecchi non sono dxr tier 1.1 ma 1.0 e magari questo incide sull'uso dei ray accelerator

Il fatto è che prende bastonate da amd solo su quel titolo e con quasi nessun vantaggio grafico.
Su tutti gli altri titoli è il contrario. parliamo di prestazioni in dxr quindi comuni ad entrambe

al135
19-11-2020, 13:44
io non sindaco l'utilità del DLSS; ho giocato con le integrate a risoluzioni risibili e provengo dalla generazione 320x200, ma certo non apprezzo che si scenda a compromessi con schede da 800-900 euro appena uscita.
significa che qualcosa non funziona tra sviluppatori e produttori di HW.

il problema nasce sui test.
se mi togli DIRT 5 perchè usa "cheat" pro nvidia, mi dovevi togliere tutti quei titoli che usavano gameworks a manetta in passato.
se accettavi quelli, con tools che si sono dimostrati palesemente per quello che realmente servivano (physx serve a limitare le prestazioni di AMD e ti posso portare decine di prove), oggi dovresti accettare Drit 5 anche se usa CAS e non è disabilitabile, perchè molti cheat nvidia non sono disabilitabili.

poi si passa al futuro, sul piano della normalizzazione dei test per avere un confronto realmente tecnico: domani, con DLSS attivo e DircetML ativo, come faremo a dire qual'è il prodotto che vale i suoi soldi se non osserviamo attentamente anche la qualità di come l'HW riesce a riprodurlo?
diventa un'analisi assai impegnativa.

quindi ben venga il super resolution ed il super samplig con il deep learning, ma che non venga mischiato con i test che devono essere fatti per valutare l'HW...

fossi in un responsabile redattore comincerei a pensare di cambiare totalmente strategia d'analisi e di giudicare i giochi e non più l'HW, o meglio come girano i giochi sugli specifici HW (e loro combinazione, orami c'è pure SAM di mezzo).
lavoro impegnativo?
se lo sono scelto loro.
se vogliono raccogliere il pubblico di appassionati sotto i loro articoli dovranno farli interessanti e valevoli, sennò rimane solo una spuria presentazioni di un prodotto.. una semplice pubblicità.

per quanto riguarda Linus, lui rimane un pubblicitario, ma il ciccone è un sistemista coi fiocchi.


ma dove li avrebbero tolti i test ? c'è SIA IL TEST CON DIRT CHE SENZA.

Raven
19-11-2020, 13:44
Insomma da qui al mese prossimo sarà tutto un "dlss rulez"

rt+dlss, sfruttabili in ... boh?.... 5/6 giochi?... 8?

Io preferisco la potenza grafica bruta sul 100% dei giochi a 2-300 euro di meno... ora come ora, poi, RT non è "adeguato" nemmeno con la serie 3xxx... se ne riparla mi sa alla prossima generazione di scatolette (o fra 2 di schede video)... sempre che non muoia prima (non sono così covinto sul futurodell'RT... mi sa tanto di feature ammazza prestazioni per davvero poco di più graficamente)

sintopatataelettronica
19-11-2020, 13:56
ma trovo il dlss straordinario e molto promettente. L'attuale applicazione "ludica" del RT invece decisamente meno.

Sì, anche io penso che il dlss sia una cosa straordinaria: non era una critica, il mio intervento.. solo una puntualizzazione, visto che in altri thread c'era chi addirittura sosteneva che migliorasse l'immagine rispetto al 4k nativo

sintopatataelettronica
19-11-2020, 14:06
rt+dlss, sfruttabili in ... boh?.... 5/6 giochi?... 8?

Io preferisco la potenza grafica bruta sul 100% dei giochi a 2-300 euro di meno... ora come ora, poi, RT non è "adeguato" nemmeno con la serie 3xxx... se ne riparla mi sa alla prossima generazione di scatolette (o fra 2 di schede video)... sempre che non muoia prima (non sono così covinto sul futurodell'RT... mi sa tanto di feature ammazza prestazioni per davvero poco di più graficamente)

La differenza sarebbe enorme se si parlasse di un Full Raytracing COMPLETO; ma, come sa perfettamente chiunque abbia usato un qualsiasi raytracer (nei software 3D), GPU di fascia alta o meno, siamo ancora MOOOOOLTO distanti da prestazioni in realtime. E ci vorranno ben piú di 10 anni per arrivarci, temo.. perché serve molta (MA MOLTA) piú potenza bruta di quella attuale, ma davvero MOLTA MOLTA di piú: basta vedere le prestazioni dei migliori motori di rendering in raytracing accurato e completo nella grafica 3d per farsene un'idea, anche con schede di fascia TOP.

michele_legnano
19-11-2020, 14:31
La 6800 liscia è una schedona. Best buy assoluto. Non solo schiaccia completamente la 2080ti e la 3070 ma dà mazzate in molti giochi persino alla molto più costosa 3080. Sono sicuro che diventerà in pochi mesi una delle schede video più popolari tra gli utenti di steam e youtube. A quel prezzo è una scheda assolutamente eccezionale. Comuqnue AMD ha fatto veramente un bel lavoro con queste schede, superlative, ottime prestazioni, ottime temperature e raffreddamento. Nvidia non vale più la pena ormai in questa generazione, se non per il ray tracing ma i giochi rtx sono così pochi e insignificanti che è una considerazione assolutamente irrilevante per gran parte dei gamers

lucusta
19-11-2020, 14:45
se fossi in un responsabile redattore comincerei a pensare di cambiare totalmente strategia d'analisi

ma dove li avrebbero tolti i test ? c'è SIA IL TEST CON DIRT CHE SENZA.

hai risposto perchè ti senti chiamato in causa?

forse avrei dovuto aggiungere serio, dopo responsabile redattore, hai ragione... a volte sbaglio anche io ;)

(come si dice? metti il becchime per i polli ed i polli beccano.)

al135
19-11-2020, 14:48
hai risposto perchè ti senti chiamato in causa?

forse avrei dovuto aggiungere serio, dopo responsabile redattore, hai ragione... a volte sbaglio anche io ;)

ho risposto perche non sei il primo che è disattento (o lo fai con malizia) riguardo all'articolo. sul modo di fare articoli se ti fai un rapido giro in rete troverai la vera roba brutta.

Max_R
19-11-2020, 14:58
Sì, anche io penso che il dlss sia una cosa straordinaria: non era una critica, il mio intervento.. solo una puntualizzazione, visto che in altri thread c'era chi addirittura sosteneva che migliorasse l'immagine rispetto al 4k nativo

Sono uno di quelli e continuo a pensarlo, proprio perché il dlss viene istruito a risoluzioni più alte e probabilmente di modo da uniformare il risultato in maniera intelligente.
Cercherò di spiegarmi al meglio possibile.
Parliamo di simulazioni, di modelli creati da zero per risultare più o meno realistici.
I capelli o l'erba.. o meglio gli effetti di questi non sono realizzati propriamente in tre dimensioni. Il modello della testa lo è. In passato quest'ultimo includeva anche la forma dei capelli, ora perlopiù i capelli sono degli "effetti" applicati alle mesh, magari in più strati, secondo determinati criteri.
Non è sempre così ma rimaniamo nell'ambito del "realismo" per un attimo.
Questa virtualizzazione non è perfetta, soprattutto se andiamo a vedere con la lente d'ingrandimento.
Il dlss lavora istruito a risoluzioni superiori al 4k ma si adatta intelligentemente a risoluzioni anche inferiori. Facendo questo da quanto ho potuto vedere riesce anche a sopperire a quei piccoli difetti, rendendo il tutto più realistico.
Mi ha stupito particolarmente per questo https://youtu.be/YWIKzRhYZm4?t=642
Sarà anche un'estremizzazione ma questo mi dice che si tratta di una tecnologia dal grande potenziale ed il salto tra un dlss abbozzato ed il 2.0 è stato una prima conferma imho.
Pure paragonando il 4k dlss 2.0 (1080p internal) al 4k nativo per quanto indiscutibilmente si notino degli artefatti nel primo caso tendo a preferire la resa finale di questo rispetto al 4k nativo.

Non sono qui per discutere di teoremi ne tantomeno per fare il fanboy. Sostengo da anni le politiche di amd e tendo a preferire quest'ultima a Nvidia a livello sentimentale ma non posso che levarmi il cappello.

DukeIT
19-11-2020, 14:59
ho risposto perche non sei il primo che è disattento (o lo fai con malizia) riguardo all'articolo. sul modo di fare articoli se ti fai un rapido giro in rete troverai la vera roba brutta.
Beh, per quanto sicuramente in assoluta buona fede, non andavano fatti due grafici distinti. Il grafico senza Dirt5 non ha alcun motivo di esistere.
Si parte dal presupposto che guadagnando molto AMD, allora c'è qualcosa che non va. Ma per quanto mi riguarda può essere che negli altri giochi sia nVidia a guadagnare troppo e Dirt5 rappresenti la reale situazione o, più semplicemente, ci sono giochi in cui nVidia è avanti ed altri in cui lo è AMD, a volte anche di molto, come nel caso di Dirt5 e, a meno che non si voglia effettuare test personalizzati, si deve rendere conto dei piccoli vantaggi come dei grandi svantaggi, che fanno parte delle peculiarità di un'architettura, a meno che non ci siano seri problemi di driver o, peggio, non si tratti di giochi costruiti per privilegire un determinato marchio... ma semmai in questo caso i sospetti dovrebbero andare in casa verde che aveva il vizio di sovvenzionare alcune SH per ottenere vantaggi indebiti (non dovuti esclusivamente alla bontà dell'architettura). E magari, a questo punto, andrebbero eliminati dai test tutti gli attuali titoli con RT, perché chiaramente confezionati attorno ad nVidia, ma non avrebbe senso.

al135
19-11-2020, 15:07
ci sono giochi in cui nVidia è avanti ed altri in cui lo è AMD, a volte anche di molto, come nel caso di Dirt5 e, a meno che non si voglia effettuare test personalizzati, si deve rendere conto dei piccoli vantaggi come dei grandi svantaggi, che fanno parte delle peculiarità di un'architettura, a meno che non ci siano seri problemi di driver o, peggio, non si tratti di giochi costruiti per privilegire un determinato marchio... .


no no solo su dirt 5 va piu amd, in tutti gli altri va molto ma molto meno.
e non si tratta di tecnologia proprietaria perche i giochi sono in dx12 ad eccezione di 3 giochi di numero (due vecchi giochi remastered e wolfenstein young blood)

!fazz
19-11-2020, 15:12
aggiungerei pescando informazione dai frame a risoluzione nativa al massimo può essere uguale ma non "superiore"

sostenni l'esame di T.I.T. (teoria dell'informazione e della trasmissione) circa trent'anni fa, può essere che qualcosa sia cambiata nel frattempo...











probabilmente il nome dell'esame :sofico:
quindici anni fa si chiamava ancora tit

DukeIT
19-11-2020, 15:24
no no solo su dirt 5 va piu amd, in tutti gli altri va molto ma molto meno.
e non si tratta di tecnologia proprietaria perche i giochi sono in dx12 ad eccezione di 3 giochi di numero (due vecchi giochi remastered e wolfenstein young blood)
Ma di cosa stiamo parlando? Dello stesso test? Dove hai visto che solo su Dirt5 AMD è avanti? Puoi semmai dire che in Dirt5 AMD è molto avanti e, visto che non ci sono motivazioni diverse se non quelle legate all'architettura, bisogna tenerne conto, significa che può succedere anche in futuro che in determinati giochi nVidia può trovarsi molto indietro. Non stiamo parlando di imbrogli o di SH prezzolate, anche perché, se dovessimo fare la caccia alle SH che hanno preso soldi, ci sarebbe una lista infinita, ma non era AMD a pagare.

lucusta
19-11-2020, 15:26
E magari, a questo punto, andrebbero eliminati dai test tutti gli attuali titoli con RT, perché chiaramente confezionati attorno ad nVidia, ma non avrebbe senso.

esatto, ma in effetti queste race hanno perso del tutto un senso, con giochi sponsorizzati da uno o dall'altro.
sono in 2 (anzi 3 con le CPU) non scordiamocelo.

quindi sarebbe meglio analizzare il gioco, capendo che bestia è, non andare a guardare se hai il guinzaglio adeguato per tutte le bestie del recinto.
uno a uno, senza pregiudizi sull'HW ma sul software, in quanto quello lo puoi costruire nel modo più idoneo, sempre e per tutti.

no no solo su dirt 5 va piu amd, in tutti gli altri va molto ma molto meno.
e non si tratta di tecnologia proprietaria perche i giochi sono in dx12 ad eccezione di 3 giochi di numero (due vecchi giochi remastered e wolfenstein young blood)

quindi ti sei sentito pizzicato... lo sapevo.

i giochi si possono costruire in 1000 modi con le DX12.

comunque sono 35 in lavorazione con Fedelity FX... vedi un po' tu se rimarrà un'eccezione.

al135
19-11-2020, 15:30
esatto, ma in effetti queste race hanno perso del tutto un senso, con giochi sponsorizzati da uno o dall'altro.
sono in 2 (anzi 3 con le CPU) non scordiamocelo.

quindi sarebbe meglio analizzare il gioco, capendo che bestia è, non andare a guardare se hai il guinzaglio adeguato per tutte le bestie del recinto.
uno a uno, senza pregiudizi sull'HW ma sul software, in quanto quello lo puoi costruire nel modo più idoneo, sempre e per tutti.



quindi ti sei sentito pizzicato... lo sapevo.

i giochi si possono costruire in 1000 modi con le DX12.

se c'è qualcuno pizzicato di sicuro è qualche fan boy amd (e i fanboy fan cacare in qualsiasi direzione) che sperava in un non si sa cosa di preciso.
in rtx le prestazioni NON ci sono, punto. poi se la cosa cambiera in futuro ben venga, attualmente non va. Vedremo anche con cyberpunk se qualcosa sara' diverso.
per quanto riguarda il fidelity fx con il "in lavorazione" ci si fa poco. quando sara' pronto valuteremo. ancora non c'è niente di tangibile

al135
19-11-2020, 15:30
Ma di cosa stiamo parlando? Dello stesso test? Dove hai visto che solo su Dirt5 AMD è avanti? Puoi semmai dire che in Dirt5 AMD è molto avanti e, visto che non ci sono motivazioni diverse se non quelle legate all'architettura, bisogna tenerne conto, significa che può succedere anche in futuro che in determinati giochi nVidia può trovarsi molto indietro. Non stiamo parlando di imbrogli o di SH prezzolate, anche perché, se dovessimo fare la caccia alle SH che hanno preso soldi, ci sarebbe una lista infinita, ma non era AMD a pagare.

scusa mi sono scordato di mettere "in rtx", i test con raytracing attivo.
negli altri se la gioca bene

DukeIT
19-11-2020, 15:38
Si, ma io mi riferivo al fatto che tu hai detto che era giusto avere grafici con e senza Dirt 5, mentre io ti stavo rispondendo che, a meno di motivazioni tecniche particolari, non c'era alcun motivo di fare un grafico escludendo un titolo in cui AMD guadagna molto, e che la motivazione non può essere "guadagna troppo quindi lo tolgo".

Relativamente al RT, ricordo che la 6800 batte la scheda contro cui si confrontava, cioè la 3070, e non abbiamo ancora i giochi cross-platform che è presumibile favoriranno AMD.

lucusta
19-11-2020, 15:41
se c'è qualcuno pizzicato di sicuro è qualche fan boy amd (e i fanboy fan cacare in qualsiasi direzione) che sperava in un non si sa cosa di preciso.
in rtx le prestazioni NON ci sono, punto. poi se la cosa cambiera in futuro ben venga, attualmente non va.

come non ci sono?
una 6800 XT fa uguale o di più di una 3070.
come dice un mio caro amico, prima vedere cammello, poi dare soldi.
finché non mi fanno il prezzo vero di quelle schede io vedo che una 3070 buona custom costa quasi quanto una 6800 XT reference, ma che la 6800 XT consuma meno, la distrugge in rasterizzazione e va uguale in RT...
anche a 50 euro in più mi conviene la 6800 XT e chi se ne frega che sto confrontando una scheda di classe superiore con una inferiore... mica me lo ha prescritto il dottore che devo decidere per classi di appartenenza; io decido per prezzo e se mi trovo una 6800 XT a 800 euro e una 3070 a 750 euro, prendo la 6800 XT, anche se è una "semplice reference" e la sto pagando 100 euro in più, in barba a tutti i preconcetti da pubblicitario che alcuni si fanno, perchè oggi una 3070 base non si prende sotto ai 650 euro e se vuoi una degna di essere comprata devi spendere 700-750 euro, e sono 200-230 euro sopra al suo "vero" prezzo...
quindi meglio regalare 100 euro ad uno scalper che farsene fregare 200 da un'altro.

hai capito come gira il mondo reale?

ed ecco risolto anche il problema di "va poco in RT".
nella realtà vanno di più, perchè è il prezzo sul mercato che conta, non il MSRP fasullo che scrivono sui listini di schede introvabili e che mai più si troveranno.

delle 3080 disponibili (asus, gigabyte, PNY, palit) la più economica sta a 1100 euro... e con che la confronti? con la 6800 XT o con la 6900 XT?

al135
19-11-2020, 15:44
come non ci sono?
una 6800 XT fa uguale o di più di una 3070.
come dice un mio caro amico, prima vedere cammello, poi dare soldi.
finché non mi fanno il prezzo vero di quelle schede io vedo che una 3070 buona custom costa quasi quanto una 6800 XT reference, ma che la 6800 XT consuma meno, la distrugge in rasterizzazione e va uguale in RT...
anche a 50 euro in più mi conviene la 6800 XT e chi se ne frega che sto confrontando una scheda di classe superiore con una inferiore... mica me lo ha prescritto il dottore che devo decidere per classi di appartenenza; io decido per prezzo e se mi trovo una 6800 XT a 800 euro e una 3070 a 750 euro, prendo la 6800 XT, anche se è una "semplice reference" e la sto pagando 100 euro in più, in barba a tutti i preconcetti da pubblicitario che alcuni si fanno, perchè oggi una 3070 base non si prende sotto ai 650 euro e se vuoi una degna di essere comprata devi spendere 700-750 euro, e sono 200-230 euro sopra al suo "vero" prezzo...
quindi meglio regalare 100 euro ad uno scalper che farsene fregare 200 da un'altro.

hai capito come gira il mondo reale?

ed ecco risolto anche il problema di "va poco in RT".
nella realtà vanno di più, perchè è il prezzo sul mercato che conta, non il MSRP fasullo che scrivono sui listini di schede introvabili e che mai più si troveranno.

delle 3080 disponibili (asus, gigabyte, PNY, palit) la più economica sta a 1100 euro... e con che la confronti? con la 6800 XT o con la 6900 XT?

allora o si paragonano i prezzi di listino o si paragonano i prezzi reali.
attualmente di reale c'è che se vuoi una 6800 devi sborsare 10.000 euri sulla baia.
quindi conviene paragonare i prezzi di listino dammi retta: le schede sono introvabili.
https://www.hwupgrade.it/news/skvideo/radeon-rx-6800-xt-e-6800-con-design-di-riferimento-prodotte-fino-a-inizio-2021_93602.html
neanche le hanno pronte le custom e chissa quanto ci metteranno.
i piu grandi store non le hanno neanche avute a listino, cosa NON successa neanche con nvidia. assurdo. son riusciti a fare di peggio non era facile

sintopatataelettronica
19-11-2020, 15:45
Il dlss lavora istruito a risoluzioni superiori al 4k ma si adatta intelligentemente a risoluzioni anche inferiori. Facendo questo da quanto ho potuto vedere riesce anche a sopperire a quei piccoli difetti, rendendo il tutto più realistico.
Mi ha stupito particolarmente per questo https://youtu.be/YWIKzRhYZm4?t=642
Sarà anche un'estremizzazione ma questo mi dice che si tratta di una tecnologia dal grande potenziale ed il salto tra un dlss abbozzato ed il 2.0 è stato una prima conferma imho.
Pure paragonando il 4k dlss 2.0 (1080p internal) al 4k nativo per quanto indiscutibilmente si notino degli artefatti nel primo caso tendo a preferire la resa finale di questo rispetto al 4k nativo.

Un'immagine upscalata in maniera "intelligente" può magari in certi casi risultare SOGGETTIVAMENTE più gradevole per qualcuno della controparte 4K nativa, in particolar modo se questa é troppo sfocata.. o con troppo rumore.. o con brutti artefatti che il processo di upscaling "lima" in qualche modo... ma rimane un discorso soggettivo, di preferenza individuale.

L'immagine renderizzata a risoluzione maggiore avrà, a parità di algoritmi impiegati per il rendering e dei filtri applicati, comunque la qualità oggettiva migliore possibile ( a meno di barbatrucchi legati al funzionamento dell'engine di rendering, tipo cambio di risoluzione "dinamico" in base alla scena e al carico sulla GPU per tenere stabile il framerate, la tecnica che si usa da sempre sulle console, o se in queste situazioni di sovraccarico non applica/renderizza qualcosa.. )

Senza contare che, avendo potenza di calcolo sufficiente, anche un immagine nativa a 4K potrebbe essere migliorata ulteriormente con algoritmi e filtri usati da dlss.. e allora non ci sarebbe davvero piú storia.

DLSS é una feature fantastica e validissima, ma é solo frutto dell'esigenza di fornire un accettabile compromesso tra qualità e performance, visto che nemmeno le schede piú performanti e costose hanno potenza sufficiente per rendere in 4K tutto massimizzato come effetti e dettagli e tenere un framerate accettabile.

DukeIT
19-11-2020, 16:04
come non ci sono?
una 6800 XT fa uguale o di più di una 3070.
come dice un mio caro amico, prima vedere cammello, poi dare soldi.
finché non mi fanno il prezzo vero di quelle schede io vedo che una 3070 buona custom costa quasi quanto una 6800 XT reference, ma che la 6800 XT consuma meno, la distrugge in rasterizzazione e va uguale in RT...
anche a 50 euro in più mi conviene la 6800 XT e chi se ne frega che sto confrontando una scheda di classe superiore con una inferiore... mica me lo ha prescritto il dottore che devo decidere per classi di appartenenza; io decido per prezzo e se mi trovo una 6800 XT a 800 euro e una 3070 a 750 euro, prendo la 6800 XT, anche se è una "semplice reference" e la sto pagando 100 euro in più, in barba a tutti i preconcetti da pubblicitario che alcuni si fanno, perchè oggi una 3070 base non si prende sotto ai 650 euro e se vuoi una degna di essere comprata devi spendere 700-750 euro, e sono 200-230 euro sopra al suo "vero" prezzo...
quindi meglio regalare 100 euro ad uno scalper che farsene fregare 200 da un'altro.

hai capito come gira il mondo reale?

ed ecco risolto anche il problema di "va poco in RT".
nella realtà vanno di più, perchè è il prezzo sul mercato che conta, non il MSRP fasullo che scrivono sui listini di schede introvabili e che mai più si troveranno.

delle 3080 disponibili (asus, gigabyte, PNY, palit) la più economica sta a 1100 euro... e con che la confronti? con la 6800 XT o con la 6900 XT?
La 3070 perde in RT anche dalla 6800 liscia.

al135
19-11-2020, 16:09
La 3070 perde in RT anche dalla 6800 liscia.

dove hai visto che le prende? se vai sul riassunto la 6800 va come una 3070 in rt.
poi se vai a paragonare le due fasce di prezzo 6800xt con 3080 amd crolla di brutto.

Gyammy85
19-11-2020, 16:16
perche la 6800 è praticamente una 6800xt,
ma se vai a paragonare le due fasce di prezzo 6800xt con 3080 amd crolla di brutto

Si vabbè :asd: facciamo che è una 6900xt che non ci ha creduto fino in fondo :sofico:

DukeIT
19-11-2020, 16:18
dove hai visto che le prende? se vai sul riassunto la 6800 va come una 3070 in rt.
poi se vai a paragonare le due fasce di prezzo 6800xt con 3080 amd crolla di brutto.
Vero. Ma nel doppio confronto in RT (6800XT vs 3080, 6800 vs 3070), tra schede vicine di prezzo e anche di uguale scala gerarchica nella propria serie (seconde e terze di gamma), c'è un 1 a 1 (vero che nel caso della 6800 sono quasi appaiate e vero che la 3070 parte da prestazioni generali molto più basse della 6800), ma tenendo conto che non c'era il SAM e che si trattava di giochi costruiti attorno a nVidia (cosa che non accadrà in futuro con i cross-platform che saranno molto più affini ad AMD), non vedo questa grande superiorità nVidia in RT. Tenuto conto che per quanto importante, l'RT è comunque una feature, non mi sembra ci sia un situazione che può determinare le scelte indipendentemente dagli altri dati.

al135
19-11-2020, 16:29
Vero. Ma nel doppio confronto (6800XT vs 3080, 6800 vs 3070), tra schede vicine di prezzo e anche di uguale scala gerarchica nella propria serie (seconde e terze di gamma), c'è un 1 a 1 (vero che nel caso della 6800 sono quasi appaiate e vero che la 3070 parte da prestazioni generali molto più basse della 6800), ma tenendo conto che non c'era il SAM e che si trattava di giochi costruiti attorno a nVidia (cosa che non accadrà in futuro con i cross-platform che saranno molto più affini ad AMD), non vedo questa grande superiorità nVidia in RT. Tenuto conto che per quanto importante, l'RT è comunque una feature, non mi sembra ci sia un situazione che può determinare le scelte indipendentemente dagli altri dati.

diciamo che bisognera aspettare un po' per vedere come si evolverà il mercato dei giochi. le prossime uscite avranno tutte sviluppo in dxr per il raytracing quindi avremo materiale per capire come lavoreranno tali schede. Attualmente, se dovessi fare una scelta (vabè che gia l'ho fatta) rimarrei su nvidia fascia alta.
Poi se i risultati prossimi mi smentiranno ben venga il cambio, non sono mai stato di una sola bandiera (anche perche non avrei mai preso cpu amd :D)

DukeIT
19-11-2020, 16:41
diciamo che bisognera aspettare un po' per vedere come si evolverà il mercato dei giochi. le prossime uscite avranno tutte sviluppo in dxr per il raytracing quindi avremo materiale per capire come lavoreranno tali schede. Attualmente, se dovessi fare una scelta (vabè che gia l'ho fatta) rimarrei su nvidia fascia alta.
Poi se i risultati prossimi mi smentiranno ben venga il cambio, non sono mai stato di una sola bandiera.
Ah, nemmeno io ho sposato una causa (vedi firma, ma anche il mio attuale portatile, e pure PC precedenti), anche se mi è chiaramente più simpatica AMD. Ma io sono principalmente tifoso del mio portafoglio e compro chi mi conviene.
Se dovessi però decidere ora, in prospettiva futura, prenderei una piattaforma all AMD, sia per i vantaggi dell'accoppiata CPU-GPU, sia per la dotazione di memoria (più passa il tempo e più conta, ed io non cambio spesso), sia per una scommessa sui titoli che usciranno. Non ultimo per i driver, questi sono i primi ed inoltre AMD è sempre stata un diesel con i driver (il che l'ha spesso sfavorita).

Max_R
19-11-2020, 16:44
Un'immagine upscalata in maniera "intelligente" può magari in certi casi risultare SOGGETTIVAMENTE più gradevole per qualcuno della controparte 4K nativa, in particolar modo se questa é troppo sfocata.. o con troppo rumore.. o con brutti artefatti che il processo di upscaling "lima" in qualche modo... ma rimane un discorso soggettivo, di preferenza individuale.

Sicuramente è soggettivo e sicuramente si deve andare in cerca con uno zoom bello importante!

L'immagine renderizzata a risoluzione maggiore avrà, a parità di algoritmi impiegati per il rendering e dei filtri applicati, comunque la qualità oggettiva migliore possibile ( a meno di barbatrucchi legati al funzionamento dell'engine di rendering, tipo cambio di risoluzione "dinamico" in base alla scena e al carico sulla GPU per tenere stabile il framerate, la tecnica che si usa da sempre sulle console, o se in queste situazioni di sovraccarico non applica/renderizza qualcosa.. )

Concordo, però i filtri hanno dei pro e dei contro non solo in prestazioni ma anche in qualità, vedi l'antialiasing e l'effetto sfocatura. Credo che il dlss possa compensare anche in tal senso.

Senza contare che, avendo potenza di calcolo sufficiente, anche un immagine nativa a 4K potrebbe essere migliorata ulteriormente con algoritmi e filtri usati da dlss.. e allora non ci sarebbe davvero piú storia.

E qui non si discute ed era parte delle mie considerazioni. Per quanto non rispecchi le mie "esigenze" di videogiocatore (abbastanza stagionato ormai).

DLSS é una feature fantastica e validissima, ma é solo frutto dell'esigenza di fornire un accettabile compromesso tra qualità e performance, visto che nemmeno le schede piú performanti e costose hanno potenza sufficiente per rendere in 4K tutto massimizzato come effetti e dettagli e tenere un framerate accettabile.

D'accordo anche qui ma effettivamente c'è ancora margine di miglioramento e si può veramente pensare ad un'importante riduzione dei filtri per poi limitarsi al dlss "istruito" a super-risoluzioni. Indipendentemente poi dall'andare ad utilizzarlo a 720p (o meno) o 1080p "upscalati" o oltre.

Dovendo appunto usare un frame fisso e zoomato per vedere i dettagli, usando una 3090 a 4k, nei giochi che lo concedono, il reale guadagno sarà soprattutto in prestazioni. Se penso però a "cosa sarebbe potuto essere" (volendo ragionare a se e ma) un'ipotetica playstation o anche uno switch con capacità dlss..
Non mi dispiacerebbe che il mio A10-7800 in salotto lo supportasse, per avviare giochi a 720p dove ancora se la cavicchia ed avere una resa (per quanto soggettivamente) superiore al 1080p nativo che altrimenti scatterebbe :D
Si scherza ma alla fine anche di questo si tratta (o meglio si tratterà)

boboviz
19-11-2020, 16:58
significa che qualcosa non funziona tra sviluppatori e produttori di HW.
Me lo faccio tatuare sulla schiena!

dinitech
19-11-2020, 17:00
La 6800 liscia è una schedona. Best buy assoluto. Non solo schiaccia completamente la 2080ti e la 3070 ma dà mazzate in molti giochi persino alla molto più costosa 3080. Sono sicuro che diventerà in pochi mesi una delle schede video più popolari tra gli utenti di steam e youtube. A quel prezzo è una scheda assolutamente eccezionale. Comuqnue AMD ha fatto veramente un bel lavoro con queste schede, superlative, ottime prestazioni, ottime temperature e raffreddamento. Nvidia non vale più la pena ormai in questa generazione, se non per il ray tracing ma i giochi rtx sono così pochi e insignificanti che è una considerazione assolutamente irrilevante per gran parte dei gamers

e soprattutto Amd ha attuato una mossa intelligente a dotare di 16GB di Vram entrambe la 6800 e la 6800 XT. In 4k le prestazioni sono molto più elevate delle corrispondenti top gamma Nvidia proprio grazie alla Vram maggiore. Non capisco questa politica "tirchia" alla genovese di Nvidia in materia di memoria video. E' sempre stata così parsimoniosa su questo campo, cosa deplorevole oggi che ormai il 4k è diventato mainstream

al135
19-11-2020, 17:08
e soprattutto Amd ha attuato una mossa intelligente a dotare di 16GB di Vram entrambe la 6800 e la 6800 XT. In 4k le prestazioni sono molto più elevate delle corrispondenti top gamma Nvidia proprio grazie alla Vram maggiore. Non capisco questa politica "tirchia" alla genovese di Nvidia in materia di memoria video. E' sempre stata così parsimoniosa su questo campo, cosa deplorevole oggi che ormai il 4k è diventato mainstream

in realtà non ci sono differenze con quantitativi di memoria maggiore neanche in 4k.
in 8k si

AceGranger
19-11-2020, 17:16
e soprattutto Amd ha attuato una mossa intelligente a dotare di 16GB di Vram entrambe la 6800 e la 6800 XT. In 4k le prestazioni sono molto più elevate delle corrispondenti top gamma Nvidia proprio grazie alla Vram maggiore.Non capisco questa politica "tirchia" alla genovese di Nvidia in materia di memoria video. E' sempre stata così parsimoniosa su questo campo, cosa deplorevole oggi che ormai il 4k è diventato mainstream


i test dicono altro.

https://www.hwupgrade.it/articoli/5887/variazione_media_su_6800_no_dirt5.png

stessa cosa rilevata qui
https://www.techpowerup.com/review/amd-radeon-rx-6800-xt/35.html


anzi, quello che si evince è che passando da 1440p a 4K la 3080 va a guadagnare qualche punto %, molto probabilmente per via della banda passante ridotta delle AMD che a 4K incontra qualche problema in piu nonostante la cache.

DukeIT
19-11-2020, 17:28
Ma nemmeno da pensare che avessi messo il test con Dirt5...

AceGranger
19-11-2020, 17:33
Ma nemmeno da pensare che avessi messo il test con Dirt5...

to
https://www.hwupgrade.it/articoli/5887/variazione_media_su_6800.png


cosa si evince ?

la stessa cosa :asd:

il vantaggio che ha a 1440pp si perde al salire della risoluzione perchè la cache lavora bene con 1440p, mentre nel 4K perde i colpi; probabilmente a 1080p il valore sarebbe piu alto ma credo che in alcuni giochi si arrivi al CPU limited con queste GPU; d'altra parte è una cache e come tutte le cache quando arriva al limite non riesce piu a sgravare il bus.
non è differente dal comportamento dalla cache degli HDD

e se guardiamo il grafico RT ( con Dirt ovviamente, cosi non ci si puo lamentare nemmeno del nulla ) il passaggio da 1440p a 4K è disastroso, probabilmente perchè il RT va ad utilizzare il bus molto di piu rispetto al raster

https://www.hwupgrade.it/articoli/5887/variazione_media_rt_su_2080.png

aald213
19-11-2020, 17:40
Clamorosamente disastrosi i benchmark con Ray Tracing e una scheda di nuova generazione non può permettersi di uscire in queste condizioni.

Effettivamente una scheda di nuova generazione non può proprio permettersi di non avere buone prestazioni per un'opzione che solo 12 giochi rilasciati supportano, e che una buona parte delle persone non riesce anche a distinguere senza indicazioni. :ciapet:

Non mi sorprenderebbe che tu non avessi neanche una RTX. Io ce l'ho, e baratterei volentieri i core RT con un consumo inferiore.

al135
19-11-2020, 17:42
to
https://www.hwupgrade.it/articoli/5887/variazione_media_su_6800.png


cosa si evince ?

la stessa cosa :asd:

il vantaggio che ha a 1440pp si perde al salire della risoluzione perchè la cache lavora bene con 1440p, mentre nel 4K perde i colpi; probabilmente a 1080p il valore sarebbe piu alto ma credo che in alcuni giochi si arrivi al CPU limited con queste GPU; d'altra parte è una cache e come tutte le cache quando arriva al limite non riesce piu a sgravare il bus.
non è differente dal comportamento dalla cache degli HDD

tra l'altro se mettiamo i test di tutti i giochi (come altri siti hanno provato) il grafico torna tale e quale a quello di "senza dirt5" per semplice media matematica.

coschizza
19-11-2020, 17:55
Effettivamente una scheda di nuova generazione non può proprio permettersi di non avere buone prestazioni per un'opzione che solo 12 giochi rilasciati supportano, e che una buona parte delle persone non riesce anche a distinguere senza indicazioni. :ciapet:

Non mi sorprenderebbe che tu non avessi neanche una RTX. Io ce l'ho, e baratterei volentieri i core RT con un consumo inferiore.

una gpu nuova si compra per i giochi del futuro non per quelli passati quindi effettivamente non può proprio permettersi di non avere buone prestazioni

coschizza
19-11-2020, 17:58
Non capisco questa politica "tirchia" alla genovese di Nvidia in materia di memoria video. E' sempre stata così parsimoniosa su questo campo, cosa deplorevole oggi che ormai il 4k è diventato mainstream

te lo spiego io non esistono gddrx6 da 2GB quindi non puoi mettere più memoria a meno di tappezzare la scheda davanti e dietri di chip aumentando costi e consumi, mistero risolto

aald213
19-11-2020, 20:04
una gpu nuova si compra per i giochi del futuro non per quelli passati quindi effettivamente non può proprio permettersi di non avere buone prestazioni

Per il futuro c'è la Delorean, mica la RTX :ciapet:

È da due anni ormai che si parla di RTX, e praticamente non ci sono giochi (12 sono un'inezia). Prima di avere una diffusione come minimo visible, passeranno almeno altri due anni, vale a dire, un'altra generazione.

coschizza
19-11-2020, 20:29
Per il futuro c'è la Delorean, mica la RTX :ciapet:

È da due anni ormai che si parla di RTX, e praticamente non ci sono giochi (12 sono un'inezia). Prima di avere una diffusione come minimo visible, passeranno almeno altri due anni, vale a dire, un'altra generazione.

tutti i titoli principali per console / pc la useranno da ora in avanti

aald213
19-11-2020, 20:33
tutti i titoli principali per console / pc la useranno da ora in avanti

"Da ora" intendi, da quando hai scritto il messaggio? Azz! Aspetta che conto.

Strano, sono ancora 12. :rolleyes: Uno di noi due non sa contare :oink:

GiovanniGTS
19-11-2020, 20:41
Aspetto test nella codifica video. Per ora cuda è in vantaggio, speriamo che AMD pareggi in questo ambito magari a costi inferiori. E' una fetta di clienti che non sottovaluterei.

Ale55andr0
19-11-2020, 22:49
no no solo su dirt 5 va piu amd, in tutti gli altri va molto ma molto meno.
e non si tratta di tecnologia proprietaria perche i giochi sono in dx12 ad eccezione di 3 giochi di numero (due vecchi giochi remastered e wolfenstein young blood)

si, in tutti gli altri va molto ma molto meno, tipo in watch dogs, ben un frame :asd: o in tr dove stiamo 49 a 42 e sono titoli di verde dipinti...

al135
19-11-2020, 23:00
si, in tutti gli altri va molto ma molto meno, tipo in watch dogs, ben un frame :asd: o in tr dove stiamo 49 a 42 e sono titoli di verde dipinti...

forse non ti si è caricata tutta la recensione,
aggiungi black ops 98 a 62 , control 64 a 43, metro exodus 73,5 contro 55,9 .
parlo di risultati in dxr ovviamente. va significamente di meno, via software è logico che debba sacrificare parte delle prestazioni per renderizzare RT e non ci vuole uno scienziato a capirlo.
nessuno mette in dubbio che senza raytracing se la giochi ma bisogna essere obiettivi.
poi manca da testare questo fidelity fx, al momento non c'è nulla di tangibile rispetto alla controparte con i controcoglioni chiamata dlss è molto apprezzata sia a livello di sviluppo sia per l'utente finale.

Ale55andr0
19-11-2020, 23:14
forse non ti si è caricata tutta la recensione,
aggiungi black ops 98 a 62 , control 64 a 43, metro exodus 73,5 contro 55,9 .
parlo di risultati in dxr ovviamente. va significamente di meno, via software è logico che debba sacrificare parte delle prestazioni per renderizzare RT e non ci vuole uno scienziato a capirlo.
nessuno mette in dubbio che senza raytracing se la giochi ma bisogna essere obiettivi.
poi manca da testare questo fidelity fx, al momento non c'è nulla di tangibile rispetto alla controparte con i controcoglioni chiamata dlss è molto apprezzata sia a livello di sviluppo sia per l'utente finale.

io invece direi che forse non leggi quello che TU stesso scrivi e che io ho messo in neretto a scanso di equivoci :read:

: hai detto che in TUTTI (in italiano tutti vuol dire tutti) gli altri giochi va MOLTO MA MOLTO MENO meno (che in italiano vuol dire molto ma molto meno), e a me perdere un frame in wd legion e stare 49 a 42 in Tomb raider non mi pare andare MOLTO MA MOLTO MENO meno in TUTTI quei giochi :read:
E ripeto, visto che qualcuno evidentemente non computa: SONO TITOLI SPONSORIZZATI NVIDIA QUELLI, solo che li' il gap vale e amd merda, dirt invece che sponsorizzato AMD va tolto perchè si' :rotfl:

Sei di una obiettività esemplare :asd: e il bello è che sono gli altri i fanboy :rotfl:

al135
19-11-2020, 23:15
io invece direi che forse non leggi quello che TU stesso scrivi e che io ho messo in neretto a scanso di equivoci :read:

: hai detto che in TUTTI (in italiano tutti vuol dire tutti) gli altri giochi va MOLTO MA MOLTO MENO meno (che in italiano vuol dire molto ma molto meno), e a me perdere un frame in wd legion e stare 49 a 42 in Tomb raider non mi pare andare MOLTO MA MOLTO MENO meno in TUTTI quei giochi :read:
E ripeto, visto che qualcuno evidentemente non computa: SONO TITOLI SPONSORIZZATI NVIDIA QUELLI, solo che li il gap vale e amd merda, dirt invece che sponsorizzato AMD va tolto perchè si' :rotfl:

Sei di una obiettività esemplare :asd:

ho scritto tutti perchè è TUTTI tranne dirt, cosa c'è di sbagliato in quello che ho detto?
io sono obiettivo, non ci vuole uno scienziato per capire che amd non sappia cosa sia il raytracing, dove nell'unico gioco che prevale ha 2 effetti in croce e fatti male con un peso del 4% (quattro) sulle prestazioni finali (sia su scheda amd sia su nvidia!!!!) quindi a che pro mostrare un gioco dove gia andava di piu per far vedere
alcun miglioramento tramite raytracing e quindi senza impatto prestazionale?
ma puoi rimanere della tua idea non voglio convincere nessuno, per me sotto quell'aspetto ancora non ci siamo e i numeri mi danno ragione e se pensi che sia un fan boy nvidia non ci hai proprio capito niente mi dispiace..

lucusta
19-11-2020, 23:34
to

cosa si evince ?

la stessa cosa :asd:

il vantaggio che ha a 1440pp si perde al salire della risoluzione perchè la cache lavora bene con 1440p, mentre nel 4K perde i colpi

il vantaggio si perde perchè sono titolo nvidia, costruiti per nvidia.
la differenza più marcata che c'è stata fino ad oggi tra le due architetture è proprio l'uso della memoria.
AMD l'ha unificata, in un solo blocco unico accessibile da tutte e 5120 unità allo stesso momento, con però un bus da 256 bit (in questo caso).
la salva l'infinity cache, che non è una L2 perchè è unificata anche lei e ha una comunicazione diretta con tutte e 5120, ma in questo caso veloce, molto veloce.
con la cache compensa la scrittura e la lettura su RAM, massimizzandola; prima per scrivere dati su RAM dal PCIe dovevi andare alla velocità di trasferimento del PCIe, letteramente piantando la comunicazione tra RAM e CU per ogni micro trasferimento che si faceva ed era la causa dei microtruttering che accusava AMD se forzava l'elaborazione delle unità; oggi scrivi su un buffer da 128MB, poi ci pensa lui a scrivere alla massima velocità sulla VRAM, non limitando le CU facendole aspettare.
è questo è il vantaggio con SAM: non scrivi su VRAM, ma scrivi su caches.
ecco perchè possono anche abilitarlo, non cambierà di una virgola per le altre GPU.
nvidia usa la RAM localizzata e separata: ogni GPC ha la sua e non intralcia il lavoro degli altri.

nasce un piccolo problema che tutti sottovalutano: non sono le GPU ad avere poca RAM, ma sono le console ad averla.
gli sviluppatori dovranno fare economia della VRAM per riuscire a spremere
tutte le prestazioni e quindi non potranno più usare arcaici sistemi di ripartizione dei dati, partizionando la VRAM per le varie funzioni.
dovranno paginarla, in modo tale che lo spazio libero sia dinamicamente riallocato per i nuovi dati e non si sprechi nemmeno una cella di memoria.
e qui ritorniamo nuovamente su SAM: quando il processore avrà diretto accesso alla VRAM scriverla paginata gli sarà assai più semplice che farlo se partizionata, perchè non dovrà andar a cercare nessuna tabella di allocazione della partizione specifica; ne avrà una soltanto e ordinata come è ordinata quella del sistema operativo, senza dover traslare indici o logica di sistemazione... un processo diretto.

la paginazione, per nvidia è drammatica, perchè un dato lo potrebbe avere residente su un chip che è collegato ad un altro GPC, e farlo traslare sul crossover e poi per le L2 immette latenze insostenibili.
dovrà quindi creare una gestione della RAM in accordo allo scheduling delle risorse... altra latenza, perchè significa far lavorare ancora di più la CPU, togliendo cicli utili alla generazione di frame su schede grafiche che impiccano i processori anche in 4K.

d'altra parte credere che gli sviluppatori quando faranno il cross platform dei giochi si mettano a riordinare la RAM in partizioni fisse solo perchè s'inchiodano le nvidia è credere alle favole...

ecco perchè le console sono sotto dotate di RAM... sulla Xbox potevano mettere 20GB di VRAM; 2GB a chip, invece che 6 da 2GB e 4 da 1GB; la differenza di costo sarebbe stata irrisoria, ma si sarebbe agevolata una pratica arcaica che è meglio eliminare perchè limita del tutto lo sviluppo di HW e SW ed è sfruttata unicamente da un pretendente su 5 (Sony, Microsoft, Intel, AMD e nvidia).

la VRAM unificata consente di usare quelle schede agevolmente anche per computazione al di fuori dei videogiochi, e se si vogliono sviluppare software che si avvantaggiano di avere un coprocessore a virgola mobile come le GPU, si deve agevolare un'architettura che permette di usarli come coprocessori logici e non solo come periferiche per videogiochi.

è una grande orchestra che sta urlando ad nvidia di cambiare o farsi da parte, perchè ormai ha stancato.

quindi preparati a vedere molti più titoli con il comportamento di DIRT 5 che titoli con quello di AC odisey (e già si nota su AC valhalla che nvidia ha perso tutto il supporto degli sviluppatori).

al135
19-11-2020, 23:39
quindi preparati a vedere molti più titoli con il comportamento di DIRT 5 che titoli con quello di AC odisey (e già si nota su AC valhalla che nvidia ha perso tutto il supporto degli sviluppatori).

io spero di non vedere NULLA come dirt5 in fatto di raytracing :asd:
se lo devi fare cosi tanto vale non metterlo tanto la differenza non c'è.
cosa avrebbe perso scusa, cosa ne sai te?hai informazioni che altri non hanno? dai su siamo seri...

lucusta
19-11-2020, 23:42
forse non ti si è caricata tutta la recensione,
aggiungi black ops 98 a 62 , control 64 a 43, metro exodus 73,5 contro 55,9 .
parlo di risultati in dxr ovviamente. va significamente di meno, via software è logico che debba sacrificare parte delle prestazioni per renderizzare RT e non ci vuole uno scienziato a capirlo.
nessuno mette in dubbio che senza raytracing se la giochi ma bisogna essere obiettivi.
poi manca da testare questo fidelity fx, al momento non c'è nulla di tangibile rispetto alla controparte con i controcoglioni chiamata dlss è molto apprezzata sia a livello di sviluppo sia per l'utente finale.

continui a confrontare schede per "tipica classe di appartenenza alla propria lineup del brand" non per prezzo reale.
di una 3070 FE a 519 per 1000 pezzi non frega nulla a nessuno, perchè 1000 non sono nulla in confronto agli ipotetici 8 milioni che dopo un anno conteranno chi l'avrà acquistata, ma non la FE; acquisteranno custom da 650 euro in su... e a quel punto mi prendo una 6800 XT, per 50 euro di più, sempre se ancora le faranno...
come vedi non si può fare nessun confronto con prezzi che non mantengono il MSRP e prodotti che non esistono, quindi stai parlando semplicemente di aria fritta, perchè tra sei mesi, vuoi la concorrenza, vuoi la pandemia, vuoi il ritorno del mining, non si sa proprio dove si andrà a sbattere e a me non va di giocare al fantacalcio, ma di acquistare e usare l'HW che ho preso.

al135
19-11-2020, 23:44
continui a confrontare schede per "tipica classe di appartenenza alla propria lineup del brand" non per prezzo reale.
di una 3070 FE a 519 per 1000 pezzi non frega nulla a nessuno, perchè 1000 non sono nulla in confronto agli ipotetici 8 milioni che dopo un anno conteranno chi l'avrà acquistata, ma non la FE; acquisteranno custom da 650 euro in su... e a quel punto mi prendo una 6800 XT, per 50 euro di più, sempre se ancora le faranno...
come vedi non si può fare nessun confronto con prezzi che non mantengono il MSRP e prodotti che non esistono.

ma infatti fare il confronto con i prezzi ora ha poco senso, anche perche non ci sono schede a sufficienza (amd meno che nvidia ma ok siamo all'inizio).
faccio il confronto per "fascia" e basta.
se non ti interessa RT e dlss puoi tranquillamente risparmiare 50 euro e farti una 6800xt

lucusta
19-11-2020, 23:46
ho scritto tutti perchè è TUTTI tranne dirt, cosa c'è di sbagliato in quello che ho detto?
io sono obiettivo, non ci vuole uno scienziato per capire che amd non sappia cosa sia il raytracing, dove nell'unico gioco che prevale ha 2 effetti in croce e fatti male con un peso del 4% (quattro) sulle prestazioni finali (sia su scheda amd sia su nvidia!!!!) quindi a che pro mostrare un gioco dove gia andava di piu per far vedere
alcun miglioramento tramite raytracing e quindi senza impatto prestazionale?
ma puoi rimanere della tua idea non voglio convincere nessuno, per me sotto quell'aspetto ancora non ci siamo e i numeri mi danno ragione e se pensi che sia un fan boy nvidia non ci hai proprio capito niente mi dispiace..

tu obbiettivo?
in 16 anni che ti leggo non l'ho mai notato... te lo giuro.
sarà un problema mio, comunque... sicuro...

bagnino89
19-11-2020, 23:47
io spero di non vedere NULLA come dirt5 in fatto di raytracing :asd:
se lo devi fare cosi tanto vale non metterlo tanto la differenza non c'è.
cosa avrebbe perso scusa, cosa ne sai te?hai informazioni che altri non hanno? dai su siamo seri...

Si chiama disinformazione, semplice. Opinioni indimostrate, quindi inutili.

Gli è sempre stata antipatica Nvidia e fa di tutto per screditarla. Come se poi le sue dichiariazioni servissero veramente allo scopo. Mah.

al135
19-11-2020, 23:50
tu obbiettivo?
in 16 anni che ti leggo non l'ho mai notato... te lo giuro.
sarà un problema mio, comunque... sicuro...

ti giuro sembri quello della barzelletta dove va contromano in superstrada e si meraviglia degli altri disgraziati che gli vanno contro :asd:
se fossi stato di parte non avrei neanche preso un processore amd non trovi? e neanche avrei avuto due gloriose 6870 in crossfire e tante altre :D

Ale55andr0
19-11-2020, 23:52
ho scritto tutti perchè è TUTTI tranne dirt, cosa c'è di sbagliato in quello che ho detto?
io sono obiettivo, non ci vuole uno scienziato per capire che amd non sappia cosa sia il raytracing, dove nell'unico gioco che prevale ha 2 effetti in croce con un peso del 4% (quattro) sulle prestazioni finali.
ma puoi rimanere della tua idea non voglio convincere nessuno, per me sotto quell'aspetto ancora non ci siamo e i numeri mi danno ragione e se pensi che sia un fan boy nvidia non ci hai proprio capito niente mi dispiace..

Lo sai benissimo invece, non far l'indiano: se fossi obiettivo sapresti che tutti, vuol dire tutti, ripeto, è italiano mi pare :read:. E lo avevo scritto in neretto sin dal primo post apposta per evitare eventuali magheggi che poi infatti hai fatto preso dalla foga di rispondermi... E anche la frase sull'entità della differenza è opinabile, o meglio, lo è se riferita appunto al "tutti" e non al caso per caso. E, sempre se tu fossi obiettivo, terresti in conto che, come è semplicemente normale che sia, in un titolo sponsorizzato nvidia uscito per giunta quando l'RT era fatto "da e per nvidia" è solo che normale che il vantaggio sia per quest'ultima, come vale a parti opposte in Dirt a favore di AMD, ovviamente! Ergo se si vuol fare davvero gli obiettivi e non tanto per riempirsi la bocca, si considereranno i titoli che usciranno nei prossimi mesi e scritti tenendo conto che l'RT diverrà, si suppone, implementazione diffusa e "comune" ora che ci sono due realtà che la supportano. Ed allora si faranno le valutazioni del caso di tipo più "assolutistico" e non FANBOYSTICO. Perchè quella manciata di titoli ha mostrato solo che vince chi paga la sponsorizzazione, com'è sempre stato, e vale per ambe due, sia chiaro!
Quanto al resto ho capito sin troppo bene cosa è o non è un fanboy. E fra parentesi, i numeri vanno sempre contestualizzati, non presi a comodo, altrimenti, se testassimo 9 game sponsorizzati amd e 1 nvidia con vittoria 9 a 1 per amd, i numeri mi darebbero ragione esattamente nello stesso modo in cui 6 titoli di cui 5 sponsorizzati da nvidia in RT la danno a te: a comodo e in contesto non imparziale: E qui passo e chiudo :)

al135
19-11-2020, 23:55
Lo sai benissimo invece, non far l'indiano: se fossi obiettivo sapresti che tutti, vuol dire tutti, ripeto, è italiano mi pare :read:. E lo avevo scritto in neretto sin dal primo post apposta per evitare eventuali magheggi che poi infatti hai fatto preso dalla foga di rispondermi... E anche la frase sull'entità della differenza è opinabile, o meglio, lo è se riferita appunto al "tutti" e non al caso per caso. E, sempre se tu fossi obiettivo, terresti in conto che, come è semplicemente normale che sia, in un titolo sponsorizzato nvidia uscito per giunta quando l'RT era fatto "da e per nvidia" è solo che normale che il vantaggio sia per quest'ultima, come vale a parti opposte in Dirt a favore di AMD, ovviamente! Ergo se si vuol fare davvero gli obiettivi e non tanto per riempirsi la bocca, si considereranno i titoli che usciranno nei prossimi mesi e scritti tenendo conto che l'RT diverrà, si suppone, implementazione diffusa e "comune" ora che ci suono due realtà che la supportano. Ed allora si' faranno le valutazioni del caso di tipo "assolutistico". Perchè quella manciata di titoli ha mostrato solo che vince chi paga la sponsorizzazione, com'è sempre stato, e vale per ambe due, sia chiaro!
Quanto al resto ho capito sin troppo bene cosa è o non è un fanboy. E fra parentesi, i numeri vanno sempre contestualizzati, non presi a comodo, altrimenti, se testassimo 9 game sponsorizzati amd e 1 nvidia con vittoria 9 a 1 per amd, i numeri mi darebbero ragione esattamente nello stesso modo in cui 6 titoli di cui 5 sponsorizzati da nvidia in RT la danno a te: a comodo e non in contesto non imparziale: E qui passo e chiudo :)

si ok ma... forse non mi sono spiegato bene allora.
anche se prendi giochi sponsorizzati amd con rt, non ci sono queste prestazioni. questo intendo, perche non ce ne sono. poi se gli altri sono sponsorizzati nvidia ok pero' di base rimane il fatto che non ci sono giochi dove queste schede vadano bene in rt. tutto qua. non ho detto di certo che fanno schifo o non miglioreranno.

lucusta
19-11-2020, 23:55
io spero di non vedere NULLA come dirt5 in fatto di raytracing :asd:
se lo devi fare cosi tanto vale non metterlo tanto la differenza non c'è.
cosa avrebbe perso scusa, cosa ne sai te?hai informazioni che altri non hanno? dai su siamo seri...

io invece non apprezzo minimamente un effetto di una macchina in mezzo ad campo di battaglia che mi rispecchia come se fosse uno specchio, manco fosse uscita in quel momento da sotto le cure del carrozziere che gli ha appena applicato la cera, o vetri ultrariflettenti che l'inserviente di turno ha appena pulito, o pali della luce che sembrano fatti di acciaio hastelloy per quanto riflettono, o ombre che son si dettagliate, ma del tutto errate, perchè non hanno una fuga a punto infinito (non sono raggi paralleli, ma convergenti).
tutti errori che si sono visti nei tanti giochi RTX che hanno proposto.

in DIRT 5 c'è e si vede dove è necessario, anzi, anche troppo (l'acqua delle pozzanghere di un crossodromo non è così pulita, ma anzi talmente torbida che non riflette nulla).

AceGranger
19-11-2020, 23:55
Si chiama disinformazione, semplice. Opinioni indimostrate, quindi inutili.

Gli è sempre stata antipatica Nvidia e fa di tutto per screditarla. Come se poi le sue dichiariazioni servissero veramente allo scopo. Mah.

ora dira che fai marketing e che sei uno di Tom's :p

è venuto a dirmi che io sarei Andrea Ferrario :rotfl:

al135
19-11-2020, 23:57
io invece non apprezzo minimamente un effetto di una macchina in mezzo ad campo di battaglia che mi rispecchia come se fosse uno specchio, manco fosse uscita in quel momento da sotto le cure del carrozziere che gli ha appena applicato la cera, o vetri ultrariflettenti che l'inserviente di turno ha appena pulito, o pali della luce che sembrano fatti di acciaio hastelloy per quanto riflettono, o ombre che son si dettagliate, ma del tutto errate, perchè non hanno una fuga a punto infinito (non sono raggi paralleli, ma convergenti).
tutti errori che si sono visti nei tanti giochi RTX che hanno proposto.

in DIRT 5 c'è e si vede dove è necessario, anzi, anche troppo (l'acqua delle pozzanghere di un crossodromo non è così pulita, ma anzi talmente torbida che non riflette nulla).

se guardi le fronde degli alberi e dell enviroment circostante non ci sono luci gestite da rt... sono praticamente identiche (peraltro bruttarelle). hanno tolto, intelligentemente dico altrimenti avrebbe ammazzato il framerate, quello che pesava. altrimenti avrebbe abbozzato anche le nvidia, cosa che invece non è successa, praticamente quasi non scalfite in termini di performance.

lucusta
19-11-2020, 23:58
ma infatti fare il confronto con i prezzi ora ha poco senso, anche perche non ci sono schede a sufficienza (amd meno che nvidia ma ok siamo all'inizio).
faccio il confronto per "fascia" e basta.
se non ti interessa RT e dlss puoi tranquillamente risparmiare 50 euro e farti una 6800xt

e, logicamente, la fascia la decidi tu?
perchè se domani esce la 6800 XT a 700 euro renditi conto che costerebbe meno di alcune 3070 custom.

fascia di prezzo!

il prezzo non c'è perchè non ci sono le schede?
non c'è manco da porsi il problema di chi è meglio di che, perchè tanto non ci sono...
a convincersi prima non è che la disponibilità aumenti.

al135
19-11-2020, 23:59
e, logicamente, la fascia la decidi tu?
perchè se domani esce la 6800 XT a 700 euro renditi conto che costerebbe meno di alcune 3070 custom.

fascia di prezzo!

il prezzo non c'è perchè non ci sono le schede?
non c'è manco da porsi il problema di chi è meglio di che, perchè tanto non ci sono...
a convincersi prima non è che la disponibilità aumenti.

no appunto io prendo il prezzo ufficiale di lancio. 669 per la 6800xt e 699 per la 3080 FE.
e cmq se vai su shopping le 3000 son disponibili, delle amd ancora non c'è traccia, non sono neanche a listino, mai state.

bagnino89
20-11-2020, 00:02
ora dira che fai marketing e che sei uno di Tom's :p

è venuto a dirmi che io sarei Andrea Ferrario :rotfl:

Ma sì sì, lui conosce tutti, si ricorda di tutto, anticipa sempre le trimestrali di Nvidia (sbagliandole in pieno :asd:)...

lucusta
20-11-2020, 00:02
Si chiama disinformazione, semplice. Opinioni indimostrate, quindi inutili.

Gli è sempre stata antipatica Nvidia e fa di tutto per screditarla. Come se poi le sue dichiariazioni servissero veramente allo scopo. Mah.

nvidia per me può anche chiudere, hai ragione, ma per 2 motivi principali:
1) conta più sòle e pratiche anticommerciali che agevolazione al cliente (e le fa solo se costretta dalla concorrenza, come ad esempio aprire un po' di più i driver delle titan al settore PRO).
2)usa pratiche illecite per promuovere i suoi prodotti: markette, social marketing e personaggi che girano sui forum cantandone lodi ed inventandosi principi che non esistono.

comunque sono solito avvalorare le informazioni che condivido con le dovute citazioni linkate (da fonti obbiettive, non da tweet della rete) e di specificare quando sono mie personali impressioni.

non mi sembra che altri facciano altrettanto, pur screditando e diffamando AMD in tutti i modi.

comunque lo scopo è di far saltare qualche social marketer che ancora non ha capito che la cuccagna è finita: la gente si è stufata delle finte fan-war; vuole semplicemente acquistare il prodotto che personalmente giudica più adatto alle proprie esigenze, senza essere spinto da patetici pubblicitari a fare errori di valutazione.

lucusta
20-11-2020, 00:03
ti giuro sembri quello della barzelletta dove va contromano in superstrada e si meraviglia degli altri disgraziati che gli vanno contro :asd:
se fossi stato di parte non avrei neanche preso un processore amd non trovi? e neanche avrei avuto due gloriose 6870 in crossfire e tante altre :D

perchè, nvidia ora fa processori?

DukeIT
20-11-2020, 00:03
Il vero confronto, quello che fa i numeri, è tra la 6800 liscia e la 3070. La 3070 perde sia nei test normali che in quelli con RT, nonostante su piattaforma Intel e con giochi al momento ottimizzati per RT su nVidia.

Quando si dice che nVidia prevale in RT, va specificato che succede nel confronto 6800XT vs 3080.

al135
20-11-2020, 00:04
perchè, nvidia ora fa processori?

non hai capito nulla ma ok :D

al135
20-11-2020, 00:05
nvidia per me può anche chiudere, hai ragione, ma per 2 motivi principali:
1) conta più sòle e pratiche anticommerciali che agevolazione al cliente (e le fa solo se costretta dalla concorrenza, come ad esempio aprire un po' di più i driver delle titan al settore PRO).
2)usa pratiche illecite per promuovere i suoi prodotti: markette, social marketing e personaggi che girano sui forum cantandone lodi ed inventandosi principi che non esistono.

comunque sono solito avvalorare le informazioni che condivido con le dovute citazioni linkate (da fonti obbiettive, non da tweet della rete) e di specificare quando sono mie personali impressioni.

non mi sembra che altri facciano altrettanto, pur screditando e diffamando AMD in tutti i modi.


ma fai uso di stupefacenti o alzi troppo il gomito? :)
e ti rendi conto che hai pubblicamente professato il tuo odio per nvidia si? ti quoto nel caso dovessi editare... come fai ad essere obiettivo ? non sei piu credibile (non che lo fossi stato molto prima eh)

lucusta
20-11-2020, 00:05
ora dira che fai marketing e che sei uno di Tom's :p

è venuto a dirmi che io sarei Andrea Ferrario :rotfl:

bhè, layfon, quello che fai sui vari siti è arcinoto...
basta leggere i messaggi che lasci.

se ti fa tanto ridere significa che tanto lontano non ci sono andato.... :read:

ah, giusto per ricordartelo:
qui non sei su tomshw.
rispetta gli altri e sarai rispettato; comincia uno shitsorm da bulletto per discreditare il tuo interlocutore e sarai bannato.
ribadisco: giusto per ricordartelo.
qui non hai paracadute.

bagnino89
20-11-2020, 00:09
nvidia per me può anche chiudere, hai ragione, ma per 2 motivi principali:
1) conta più sòle e pratiche anticommerciali che agevolazione al cliente (e le fa solo se costretta dalla concorrenza, come ad esempio aprire un po' di più i driver delle titan al settore PRO).
2)usa pratiche illecite per promuovere i suoi prodotti: markette, social marketing e personaggi che girano sui forum cantandone lodi ed inventandosi principi che non esistono.

comunque sono solito avvalorare le informazioni che condivido con le dovute citazioni linkate (da fonti obbiettive, non da tweet della rete) e di specificare quando sono mie personali impressioni.

non mi sembra che altri facciano altrettanto, pur screditando e diffamando AMD in tutti i modi.

Ci sta che non sopporti Nvidia, ci mancherebbe. Pure per me non è l'azienda migliore del mondo. Ma alle aziende interessa solo dare utili agli azionisti, o sbaglio? AMD non è tanto diversa, "appare" migliore di Nvidia e Intel ma solo perché è da tanto che le insegue e deve recuperare (con ottimi risultati negli ultimi tempi, per giunta).

Però scrivere i soliti attacchi su ogni articolo non cambierà le cose, Nvidia continua a fatturare come un treno...

Detto questo, vorrei tanto che citassi fonti autorevoli che in qualche modo dimostrano quanto riportato qui, in quanto altri utenti di questo forum, esperti di architetture, sono sicuro non sarebbero minimamente d'accordo:

la paginazione, per nvidia è drammatica, perchè un dato lo potrebbe avere residente su un chip che è collegato ad un altro GPC, e farlo traslare sul crossover e poi per le L2 immette latenze insostenibili.
dovrà quindi creare una gestione della RAM in accordo allo scheduling delle risorse... altra latenza, perchè significa far lavorare ancora di più la CPU, togliendo cicli utili alla generazione di frame su schede grafiche che impiccano i processori anche in 4K.

d'altra parte credere che gli sviluppatori quando faranno il cross platform dei giochi si mettano a riordinare la RAM in partizioni fisse solo perchè s'inchiodano le nvidia è credere alle favole...

ecco perchè le console sono sotto dotate di RAM... sulla Xbox potevano mettere 20GB di VRAM; 2GB a chip, invece che 6 da 2GB e 4 da 1GB; la differenza di costo sarebbe stata irrisoria, ma si sarebbe agevolata una pratica arcaica che è meglio eliminare perchè limita del tutto lo sviluppo di HW e SW ed è sfruttata unicamente da un pretendente su 5 (Sony, Microsoft, Intel, AMD e nvidia).

la VRAM unificata consente di usare quelle schede agevolmente anche per computazione al di fuori dei videogiochi, e se si vogliono sviluppare software che si avvantaggiano di avere un coprocessore a virgola mobile come le GPU, si deve agevolare un'architettura che permette di usarli come coprocessori logici e non solo come periferiche per videogiochi.

è una grande orchestra che sta urlando ad nvidia di cambiare o farsi da parte, perchè ormai ha stancato.

quindi preparati a vedere molti più titoli con il comportamento di DIRT 5 che titoli con quello di AC odisey (e già si nota su AC valhalla che nvidia ha perso tutto il supporto degli sviluppatori).

AceGranger
20-11-2020, 00:12
bhè, layfon, quello che fai sui vari siti è arcinoto...
basta leggere i messaggi che lasci.


ho 2 account questo e quello e scrivo le stesse cose; quello che fanno tutti quelli che frequentano entrambi i siti e quello che fai anche tu, con la differenza che a te ti hanno bannato per comportamenti asociali e ricrei a nastro account che ti bannano a nastro e ti stanno sui maroni, ne piu ne meno.



se ti fa tanto ridere significa che tanto lontano non ci sono andato.... :read:
ah, giusto per ricordartelo:
qui non sei su tomshw.
rispetta gli altri e sarai rispettato; comincia uno shitsorm da bulletto per discreditare il tuo interlocutore e sarai bannato.
ribadisco: giusto per ricordartelo.
qui non hai paracadute.

fanno ridere perchè stai delirando come il tuo compagno di ban :rotfl:

lucusta
20-11-2020, 00:17
se guardi le fronde degli alberi e dell enviroment circostante non ci sono luci gestite da rt... sono praticamente identiche (peraltro bruttarelle). hanno tolto, intelligentemente dico altrimenti avrebbe ammazzato il framerate, quello che pesava. altrimenti avrebbe abbozzato anche le nvidia, cosa che invece non è successa, praticamente quasi non scalfite in termini di performance.

quindi si dovrebbero usare effetti RT in posti in cui nessuno li noterebbe solo per gravare il compito di calcolo di quella parte e quindi avvantaggiare nvidia perchè li effettua usando unità di calcolo dedicate e non condivise con anche altre funzioni?
quindi si deve per forza avvantaggiare nvidia?

vedi, non ti è chiaro perchè ci sono gli RT core su quelle schede: sono per il path tracing che si fa su rendering professionali; troppo pochi per garantire un path tracing in real time, troppi per poter essere saturati in un gioco DXR (il freno di tutta la catena di calcolo dei giochi RTX non sono mai stati ne RT core ne tensor core, ma i cuda core).

è nvidia che vuole usare lo stesso chip per diverse linee di prodotto, quindi se gli rimane hw semplicemente inutile, saranno affari suoi.

le console hanno RDNA2 sotto alla scocca, quindi gli effetti inutili non saranno implementati e se non ci sono, puoi alzare a manetta la qualità di quelli che ci sono, ma non potrai mai caricare così tanto da mettere in crisi le RDNA2 su PC.... sottoutilizzerai semplicemente le RTX.

è una pratica buona, cattiva... bho?
non lo so e non m'interessa.
è quello che succederà e basta perchè le console dominano lo sviluppo e quindi si seguono quei postulati di sviluppo....

come scrivevi sopra è nvidia che va contromano e si sta per scontrare con TIR carichi di letame.

al135
20-11-2020, 00:21
quindi si dovrebbero usare effetti RT in posti in cui nessuno li noterebbe solo per gravare il compito di calcolo di quella parte e quindi avvantaggiare nvidia perchè li effettua usando unità di calcolo dedicate e non condivise con anche altre funzioni?
quindi si deve per forza avvantaggiare nvidia?

vedi, non ti è chiaro perchè ci sono gli RT core su quelle schede: sono per il path tracing che si fa su rendering professionali; troppo pochi per garantire un path tracing in real time, troppi per poter essere saturati in un gioco DXR (il freno di tutta la catena di calcolo dei giochi RTX non sono mai stati ne RT core ne tensor core, ma i cuda core).

è nvidia che vuole usare lo stesso chip per diverse linee di prodotto, quindi se gli rimane hw semplicemente inutile, saranno affari suoi.

le console hanno RDNA2 sotto alla scocca, quindi gli effetti inutili non saranno implementati e se non ci sono, puoi alzare a manetta la qualità di quelli che ci sono, ma non potrai mai caricare così tanto da mettere in crisi le RDNA2 su PC.... sottoutilizzerai semplicemente le RTX.

è una pratica buona, cattiva... bho?
non lo so e non m'interessa.
è quello che succederà e basta perchè le console dominano lo sviluppo e quindi si seguono quei postulati di sviluppo....

come scrivevi sopra è nvidia che va contromano e si sta per scontrare con TIR carichi di letame.

Ma cosa stai dicendo ? L’enviroment aumenta la realisticita e la bellezza della scena, ma il problema non sussiste, il raytracing può essere anche a livelli, magari per amd si imposterà a medio/basso o assente e per nvidia lo si metterà a un livello maggiore. Dove sta il problema ? L’importante è che sia giocabile

lucusta
20-11-2020, 00:23
no appunto io prendo il prezzo ufficiale di lancio. 669 per la 6800xt e 699 per la 3080 FE.
e cmq se vai su shopping le 3000 son disponibili, delle amd ancora non c'è traccia, non sono neanche a listino, mai state.

le AMD sono uscite 34 ore fa, le 3000 sono 60 giorni che la gente le aspetta e trovi tutto sovraprezzato di almeno il 25% dal MSRP.
una 3070 a meno di 650 non la trovi (e si parla di una biventola ventus, na sòla!), una 3080 non meno di 850 euro.

se vuoi fare il confronto con questi numeri allora devi aspettare minimo 2 mesi da oggi e dare lo stesso tempo che ha avuto nvidia per commercializzare il prodotto, non 34 ore.

quando ci saranno i primi accostamenti al MSRP se ne può ridiscutere, come quando ci sarà sufficiente offerta da poterle comprare in qualsiasi negozio senza aspettare 32 mesi di fila.

lucusta
20-11-2020, 00:24
Ma sì sì, lui conosce tutti, si ricorda di tutto, anticipa sempre le trimestrali di Nvidia (sbagliandole in pieno :asd:)...

no, ti sbagli.
avevo già "predetto" che la trimestrale Q3 sarebbe stata alta per gli ordinativi delle ampere, ma ho anche detto di aspettare la Q4, perchè se poi non fornisci il prodotto non te lo ordinano altro ancora.:Prrr:

lucusta
20-11-2020, 00:29
non hai capito nulla ma ok :D

no... non ho capito nulla, non ti preoccupare.
ho solo sbagliato a giudicare persone che leggo da più una decina di anni (per ogni loro singolo account e che hanno anche il coraggio di usarne 2 contemporaneamente per avvalorare il proprio shitsorm).

è un po' patetico, ma ti do ragione.

lucusta
20-11-2020, 00:36
ma fai uso di stupefacenti o alzi troppo il gomito? :)
e ti rendi conto che hai pubblicamente professato il tuo odio per nvidia si? ti quoto nel caso dovessi editare... come fai ad essere obiettivo ? non sei piu credibile (non che lo fossi stato molto prima eh)

non posso avere antipatie su quello o l'altro brand?
mica lo faccio a scopo di lucro, sono mie personali considerazioni e io mi carico le responsabilità di quello che dico.

l'obbiettività prevale su ogni preferenza personale.

tu che hai una 3090 ti senti molto più obbiettivo di me perchè hai anche un ryzen?
l'hai dimostrato sopra quale sia la tua obbiettività, eliminando dati per cui tu credi che ci siano degli artifizzi particolari che lo rendono non utilizzabile per un confronto diretto, ma non facendolo per quelli che sono palesemente sempre apparsi non equi a seconda dell'architettura.

invece tu sei pronto a caricarti delle tue responsabilità diffamando le persone in pubblico, dubitando della loro capacità d'intendere e volere?
perchè ho segnalato il post, in quanto questi atteggiamenti vanno bene se parli con un amicone compagnone, con uno con cui hai confidenza, non con uno che non hai mai manco visto in faccia su una chat.

e siete in tre a cominciare a contestare non quello che dico ma la mia dignità... incominciate ad esagerare... sembra che vi ci mettiate d'accordo per bersagliare le persone.

al135
20-11-2020, 00:36
no... non ho capito nulla, non ti preoccupare.
ho solo sbagliato a giudicare persone che leggo da più una decina di anni (per ogni loro singolo account e che hanno anche il coraggio di usarne 2 contemporaneamente per avvalorare il proprio shitsorm).

è un po' patetico, ma ti do ragione.

ahah..no non hai capito il mio commento e continui a farlo :)
te lo spiego:
se fossi stato contro amd sarei rimasto tranquillamente col mio 9900k intel, non credi? tu compreresti una nvidia anche se andasse un po di piu e costasse uguale a una amd? non penso proprio e quello che hai scritto lo dimostra. buona notte!

ps: la mia era OVVIAMENTE una battuta, hai poco da segnalare perche lo fai sempre, lanci il sasso e nascondi la mano. non fare la vittima, non puoi fare certe sparate tutte le volte e finisce che ti perculano tutti. ti riconoscono e ti han bannato anche da altri forum, a me non è mai successo seppur io frequenti tanti altri lidi. ma fattele due domande no?

pps: non hai nemmeno risposto quando ti si chiedevano evidenze o fonti di quel che stavi dicendo cercando di screditare in mille modi nvidia.