|
|
|
|
Strumenti |
31-10-2020, 13:29 | #161 | |
Senior Member
Iscritto dal: Jul 2015
Messaggi: 4703
|
Quote:
La domanda però è mal posta: Upscalare con DSL ha una fedeltà uguale al renderizzare in full frame. No, ma sono due cose completamente diverse, un poco come passare davanti alle tv in demo mode dentro un centro commerciale. Effetto wow, ma poi ci si accorge che renderizzati a risoluzioni native è un'altra cosa. |
|
31-10-2020, 14:44 | #162 | |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
non hai un gioco in cui la qualità visiva è la cosa su cui hanno puntato maggiormente, invece di applicare effetti di riflessione (che tra l'altro sono un'altra faccenda) e un upscaling su una cosa che già di per se è di scarsa qualità? non hai un'analisi obbiettiva della tecnologia, marcolì? quando la hai postala, che video che iniziano dicendo "sponsorized by chicchessia" di solito li chiudo immediatamente. PS: la differenza tra Ditital Foundry e qualsiasi altro sito è solo il costo della marketta, te lo assicuro, soprattutto se partono con "sponsored by..." Ultima modifica di lucusta : 31-10-2020 alle 14:59. |
|
31-10-2020, 14:51 | #163 | |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
l'uso più adatto è su sistemi di bassa potenza computazionale per farli arrivare al minimo accettabile senza poi perdere chissà che cosa, non che me le metti su schede dai 500 euro in su e basta! tra l'altro è stato letteralmente sbugiardato da Control: il DLSS 1.9 di control usa tutto quello che c'è nel DLSS 2.0 ma lo usa sui cudacore e non sui tensor, garantendo comunque alti framerate; quindi quella tecnologia si può applicare benissimo anche alle GTX, ma non lo fanno per questioni di sfruttamento di marketing, ossia giustificare l'alto costo di una GPU per componenti che, alla fin fine, sono suprefui e che possono essere utilizzati anche sulla schede di gamma bassa, che ne trarrebbero realmente vantaggi. un DLSS su una 1650 che rende possibile giocare a 1440p a 60fps ha un senso; su una 3090 per consentire i 360fps non serve a nulla! già solo questa considerazione dovrebbe far capire che è solo una mungitura dei portafogli degli acquirenti e che ci si dovrebbe rifiutare di essere presi per i fondelli in questo modo. il CAS di AMD fa pena? ma si può usare su tutte le schede, dalle GPU integrate nelle APU alla 3090 della concorrenza. io, di solito, voglio pagare per tecnologie utili e non per creare degli effimeri status simbol tecnologici. Ultima modifica di lucusta : 31-10-2020 alle 14:55. |
|
31-10-2020, 14:54 | #164 | |
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
Quote:
La qualità percepita è superiore rispetto ad una risoluzione nativa con TAA ( anche molto migliore rispetto ad una ris nativa con CAS ) ma con un guadagno enorme lato performance, visto che è tutto a carico dei tensor core. Ultima modifica di nickname88 : 31-10-2020 alle 14:59. |
|
31-10-2020, 14:56 | #165 | |||
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
Quote:
Il DLSS2 è raccomandato in tutti i titoli in cui è presente, e quì hai poco su cui girare attorno. Serve ad avere una resa migliore e performance molto maggiori. PC a bassa potenza ? Certo come no perchè non ci sono titoli che mettono alla frusta le VGA High End anche senza RT vero ? Senza RT infatti si sa che gira tutto a 120fps vero ? Quote:
Il DLSS2 utilizza un algoritmo completamente differente dal DLSS1, che per tua informazione comprende anche l'1.9, il gioco è stato aggiornato al DLSS2.0 che ha portato grossi miglioramenti, evidenziati da tutti gli articoli e video : https://tech.everyeye.it/articoli/sp...olo-48138.html https://www.youtube.com/watch?v=r3fDIvsLrSM https://www.youtube.com/watch?v=YWIKzRhYZm4 Quote:
Il problema principale del DLSS 1 era la qualità visiva. Quindi è inutile che ti arrampichi sugli specchi. Come la storiella degli artefatti in movimento e della AI che impazzisce. Quest'ultima è sicuramente colpa dei tuoi allucinogeni. Ultima modifica di nickname88 : 31-10-2020 alle 15:15. |
|||
31-10-2020, 15:02 | #166 | ||
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
Quote:
Materiale non promozionale ? Non esiste perchè tutto ciò che mostra ciò che non ti piace è un complotto. Quote:
|
||
31-10-2020, 15:30 | #167 | |||
Senior Member
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 20680
|
Quote:
Quote:
Quote:
A ogni modo chiudo qui con l'ot, ognuno faccia quella che pare, ma io quella robaccia non la userò, sia che avrò una verde sia che avrò una rossa (dovessero implementarlo pure in amd), amen.
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT ventigigaBAIT Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb Ultima modifica di Ale55andr0 : 31-10-2020 alle 15:41. |
|||
31-10-2020, 15:41 | #168 | ||
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
Quote:
Quote:
Il DLSS2 offre una resa molto migliore del TAA. L'unico modello con cui potresti fare di meglio è con l'uso del MSAA e non è detto, che su molti titoli è inutilizzabile in 4K, in altri non c'è proprio. Rivedremo le tue considerazioni quando confronteremo WDL e CP2077 in 4K, senza scomodare il RT, vedremo come gireranno con l'MSAA o senza DLSS. Ultima modifica di nickname88 : 31-10-2020 alle 15:56. |
||
31-10-2020, 17:55 | #169 | ||
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14720
|
Quote:
Quote:
Per cui poco importa se non misura la potenza reale della scheda, l'importante sono i risultati che permette di raggiungere. Per questo dico che se AMD non fosse in grado di fornire un'alternativa potrebbe ben presto trovarsi con un divario altrimenti incolmabile. Riguardo agli artefatti, al momento certo ce ne sono (oddio ho visto certi filtri AA fare di peggio), ma è una tecnologia in continuo miglioramento e credo che l'enorme passo avanti tra DLSS1 e DLSS2 lo dimostri. Se in DLSS3 spariranno anche i rari gli artefatti, rimarranno ben poche ragioni per non utilizzarlo. |
||
31-10-2020, 18:55 | #170 |
Bannato
Iscritto dal: Jul 2002
Città: quasi caput mundi
Messaggi: 3803
|
cut
|
31-10-2020, 19:20 | #171 | |
Senior Member
Iscritto dal: Jul 2015
Messaggi: 4703
|
Quote:
poi va anche migliorata, ma grossi difetti, o insormontabili, non ne vedo. |
|
31-10-2020, 19:31 | #172 | |||||
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
concordo con te, ma è per dire che non è la tecnologia del santo graal, che gli altri non possono permettersi....
anzi, volendo nvidia la potrebbe usare anche sulle GTX, perchè i tensor core non servono poi a granchè in queste tecnologie; sono solo più efficienti nel fare una parte dei conti. Quote:
non si fa un supersampling, ma si lavora sull'intorno di una tessera e non di un pixel utilizzando parametri che derivano da un'analisi di raffronto tra una risoluzione nativa ed un'altra risoluzione nativa ma a più alta definizione o risoluzione; infatti non è assolutamente detto che deve esserci per forza un aumento di risoluzione, ma basta un aumento di definizione (e non si capisce perchè nvidia non lo sfrutti anche in questo modo, ossia usare texture low level per generare texturing ultra level). oltretutto il guadagno di performance è relativo... nvidia usa delle SIMD, i tensor core, per fare parte di questo lavoro, ma per farlo li ha dovuti integrare nella GPU, logicamente, occupando spazio. visto che quelle SIMD sono state utilizzate solo perché effettivamente possono lavorare più efficientemente sulle matrici (e non calcolarle, ma solo operare addizione e prodotto su matrici), hanno pensato bene di sfruttarle. nessuno però ti dice quale sia la percentuale di uso di quelle unità, se sono usate in modo intenso o no, visto che nascono con altri obbiettivi per cui servono in modo massiccio, ossia sulla trattazione dei dati AI delle reti neurali. qui non c'è nessuna inferenza attiva di una rete neurale, quindi non sai se ne bastano 10 o ce ne vorrebbero 1000 per eseguire la loro parte di compito senza frenare il computo sul resto delle altre unità che calcolano con un'altra tipologia di matematica. per l'AI, invece, ce ne vogliono virtualmente infiniti.. più ne hai, meglio è. quindi nvidia occupa uno spazio utile sul chip e noi non sappiamo se questo spazio utile sia usato efficientemente per questo compito. lo ribadisco: sarà sicuramente spazio occupato egregiamente sull'interenza di una AI, ma non lo sai se lo sia anche sul calcolo di un algoritmo del genere. oltretutto li usi e quindi consumano. la domanda quindi è la seguente: usare quello spazio con le normali unità classiche comporterebbe più consumo, più uso di silicio perchè ne devi utilizzare di più o una limitazione nelle prestazioni? la risposta viene da Control: usa il DLSS 1.9, che è una beta del 2.0, via normali shaders e non sembra che passando al DLSS 2.0 ne abbia guadagnato. oltretutto questo gioco non offre poi tutta questa qualità; come diceva Ale55andr0, nella versione senza DLSS è inquinato da un TAA che fa ribrezzo. https://youtu.be/r3fDIvsLrSM?t=32 basta guardare gli artefatti che si hanno attorno ala testa del personaggio quando si muove per vedere che nessuno dei due offre un livello qualitativo decente (attento, però, stiamo comunque guardando un video su YT, quindi con l'aggiunta di ulteriore degradazione a causa della compressione video di YT). sulla sequenza successiva a questa, nella parte senza DLSS quando il personaggio sposta la testa la capigliatura perde del tutto definizione, ed è un vettore di movimento decisamente tenue e non rafforzato da quelli di un cambio di visuale... figurati su personaggi terzi mentre intanto cammini e quindi sommi diversi vettori di movimento cosa può succedere.. li trovi pelati! quindi: 1) la tecnologia non è quella che hai descritto, ma è tutt'altra cosa; 2) l'uso di HW dedicato lascia il tempo che trova, perchè E' DEDICATO PER ALTRE COSE e non sai quanto di quell'HW viene impiegato e se porti reali vantaggi nell'impiegarlo rispetto ad un tradizionale uso degli shader, che li puoi usare per centinaia di altri utilizzi e non solo per addizionare o fare il prodotto di due matrici, come ad esempio usare come gli altri shader per incrementare il computo... logico, lo spazio utilizzato dai tensor core non sarà mai sufficienti per aumentare del doppio le prestazioni usandolo a shaders, ma sicuramente la scheda va di più se non usi il DLSS. Quote:
è sponsorizzato; credi che nvidia paghi una produzione per farsi fare video che sconfessano il suo marketing? tutto ciò che mostri deriva da sponsorizzazione diretta da parte di nvidia.... questo mondo gira essenzialmente in questo modo e giusto degli indipendenti puoi sicuramente dire che lo fanno con un'interesse che è diverso dalla promozione di un brand. Quote:
per un gioco che poi ha una simulazione decisamente scialba? https://gamegpu.com/images/stories/T..._52_09_926.jpg guarda le auto: definizione da giochetto di 10 anni fa e tutte lucide e pulite; guada le luci sul palazzo a destra: manco se fossero 1000W le vedresti in quel modo in pieno giorno; guarda la strada: ci sono tante di quelle pozzanghere che sembra sia diluviato il secondo prima, ma c'è il sole e nessuno che ha un solo ombrello in mano. stratagemma usato solo per aumentare il computo di calcolo e distruggere le preformance. Quote:
il punto è che se la spinta la devo dare perchè tu, che produci questa tecnologia, devi giustificarne l'utilizzo e sponsorizzi mattoni che non hanno nessuno scopo per essere così pesanti se non quello di far comprare nuove schede, allora no. che mi dia effettivamente un apprezzabile miglioramento su giochi che puntano maggiormente sulla realtà e la similitudine, non che mi riempi una strada di pozzanghere così la mia 1070 diventa buona solo per i 540p e poi te ne freghi altamente di offrire una vera simulazione, con vera fisica e una variabilità di caratterizzazione consistente.... su certi giochi sembra che ogni luogo è lo stesso luogo! fallo pesante per quelle cose, non per il numero di pozzanghere! Quote:
se nvidia me la offre solo sulla 3090 per far girare mattoni sponsorizzati da lei per esserlo... se la tenesse. ed il discorso sarebbe uguale per AMD. pari pari. Ultima modifica di lucusta : 31-10-2020 alle 20:27. |
|||||
31-10-2020, 23:11 | #173 | |
Bannato
Iscritto dal: May 2001
Messaggi: 6246
|
Quote:
"Of course, this isn't the first DLSS implementation we've seen in Control. The game shipped with a decent enough rendition of the technology that didn't actually use the machine learning Tensor core component of the Nvidia Turing architecture, relying on the standard CUDA cores instead. It still provided a huge performance boost, and generally looked better the higher up the resolution chain you went, but the new 2.0 revision offers a profound improvement. " Ovviamente, questa non è la prima implementazione DLSS che abbiamo visto in Control. Il gioco è stato fornito con una resa abbastanza decente della tecnologia che in realtà non utilizzava il componente principale Tensor di machine learning dell'architettura Nvidia Turing, affidandosi invece ai core CUDA standard. Ha comunque fornito un enorme aumento delle prestazioni e generalmente sembrava migliore più in alto nella catena di risoluzione, ma la nuova revisione 2.0 offre un profondo miglioramento. lo scrivono i tuoi guru, digital foundry. ora chiedi scusa e mettiti in un angoletto a rimuginare sulla questione che o ti comporti come una persona civile, o è meglio che te ne stai solo soletto. |
|
01-11-2020, 00:24 | #174 |
Senior Member
Iscritto dal: Oct 2007
Messaggi: 430
|
nuovi leak https://videocardz.com/newz/alleged-amd-radeon-rx-6800-time-spy-and-tomb-raider-with-dxr-performance-leaks-out
6800 meglio della 3070 in Rt con dlss attivo |
01-11-2020, 07:48 | #175 | |
Bannato
Iscritto dal: Aug 2016
Messaggi: 1151
|
Quote:
E anche questo trucco non durerà per molto visto che le SH gioco forza svilupperanno la soluzione non proprietaria per privilegiare i giochi console... Ora speriamo non sia un paper launch perché King Kong si è risvegliato dopo 5-6 anni di letargo e mi sa che per natale arriva R9 5950+ 6900XT |
|
01-11-2020, 08:47 | #176 | |
Senior Member
Iscritto dal: Jan 2013
Messaggi: 1468
|
Quote:
Cosi magari tutte queste polemiche finiscono. Se i dati fossero confermati e le RX6000 superiori in RT alle rispettive RTX3000 senza DLSS allora fine della discussione, sicuramente meglio AMD anche in questo piccolo ambito dell'RT e amen. D'altronde il risultato è perfettamente coerente con le dichiarazioni lato console che pubblicizzano adeguato supporto all RT. Appuntamento al 18 novembre per le recensioni esaustive
__________________
Feedback di Vendita Positivi: Codice HTML:
Ho venduto positivamente a: Crash01, *Walter*, leofalp, Alpinet, kernelex, Zabuza, AngelusLiam, Comets, maurizioi, attilorz, delvo_69, Zeus Gamelius, didons, zafira101, Maverikwart, jonbon73, StephenFalken, NickNapoli, H.D. Lion, naruto80, egounix, sirjd, Fuccio, Micheleb, alex2173, roifs, dantess, Themitichris, ZETA81,Mi[C], michelgaetano, stalker6893, Mazda RX8, Skynetx Ultima modifica di Lithios : 01-11-2020 alle 09:16. |
|
01-11-2020, 09:43 | #177 | ||||||
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
Quote:
Quote:
Quote:
Invece a te conviene studiare anche l'inglese oltre che l'italiano. Quote:
Roba da poco insomma ... Quote:
Quindi serebbe tutto un complotto per favorire Nvidia ? Se sono tutti Gomplottistici pro Nvidia come dici tu allora tanto vale comperare quest'ultima visto che lo scopo è comperare HW più adatto a giocare e non quello di fare il tifo. Quote:
L'unico sei tu sulla base del nulla assoluto e senza averlo per giunta non solo mai visto ma non avevi nemmeno la più pallida idea nemmeno sul CAS di AMD. Ultima modifica di nickname88 : 01-11-2020 alle 09:51. |
||||||
01-11-2020, 09:54 | #178 | |
Bannato
Iscritto dal: Apr 2016
Messaggi: 19106
|
Quote:
Anche se sembra troppo ottimistico, fosse reale, a parte che è scritto tutto in cinese, se il gioco ha girato su Ultra con RT attivo significa o che la 6800 liscia col RT attivo va come la RTX3090 oppure che l'opzione RTX DLSS di Tomb Raider non ha funzionato ed ha girato senza. Ultima modifica di nickname88 : 01-11-2020 alle 10:54. |
|
01-11-2020, 10:12 | #179 | |
Senior Member
Iscritto dal: Aug 2008
Città: N.P.
Messaggi: 13557
|
Quote:
https://www.notebookcheck.net/AMD-s-....500179.0.html AMD is working on its own implementation of super sampling similar to NVIDIA's DLSS technology. AMD's super-sampling technique is likely to be based on DirectML and is touted to be open source and cross-platform, which means this feature will also grace consoles such as the Xbox Series X and Series S along with the PlayStation 5 in the near future.
__________________
Sto cercando di disintossicarmi dall'Hardware... ma non ci sono riuscito battutona ci gira Cyberpunk? Ultima modifica di bonzoxxx : 01-11-2020 alle 10:59. |
|
01-11-2020, 11:30 | #180 |
Senior Member
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 20680
|
è un rumor non confermato, ed è esageratamente troppo buono per esser vero. A ogni modo se lo fosse, beh, tanto meglio per noi che dobbiamo comprare ancora la GPU
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT ventigigaBAIT Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 08:14.