Quote:
ad esempio dal tuo post si evince che per te sia un valore aggiunto a prescindere per via delle prestazioni, dai post di altri si evince che per loro non sia nemmeno da considerare per via del fatto che possa pregiudicare la qualità. non è un problema che emergano e vengano argomentate le posizioni ma trovo che la direzione presa dalla discussione tenda a soffermarsi sulla percezione dei singoli perché se parli di prestazioni X e Y ha un senso basato su certi dati, se parli di pregi e difetti della tecnologia ha un altro senso basato su altri dati, se combini le considerazioni e le rapporti alla tua percezione di qualità e compromesso ha un altro senso ancora. sarei interessato ad informazioni utili sull'encoder video (nel topic mi han postato link interessanti solo lato decoder), in particolare vorrei sapere se siano noti aggiornamenti rispetto alle schede precedenti. |
Quote:
https://www.phoronix.com/scan.php?pa...or-AMD-VCN-3.0 è uno dei secondari usi che per me sono più primari del fare 10fps in più o avere qualcosa di simile al DLSS.. |
Quote:
AMD non rimane indietro anzi va avanti visto che ci sono 35 titoli già in procinto di essere aggiornati o in uscita che supportano la variante open della tecnologia closed e destinata a morire nel breve di nVidia. Io ci metterei un purtroppo ma siccome sembra che a molti piaccia farsi abbindolare dal gaming 4K upscaled da 1080p non lo metto. Io sicuramente non userò questa tecnologia. |
Perché quando ci sono innovazioni di processo così importanti non si portano anche nelle fasce basse delle schede productivity, workstation e server a caratteri?
Cioè schede da una manciata di watt e prestazioni 2D ottime per lavoro d'ufficio, casual game, interfacce a carattere per server, ecc.? Schedine piccole con dissipazione passiva grazie ai 7nm+ e della potenza della R7-240 e del costo sotto i 30-40 euro? O equivalenti alla R5-230, lillipuziane con PCI-E 1x che possa mettere nei miei server Linux con CPU AMD senza vga. Un aggiornamento di consumi, dimensioni ridotte, e qualità per tutto ciò che non sia gaming e applicazione grafica pro... |
Quote:
|
https://www.youtube.com/watch?v=vLw1HeElssE
In questo video fa vedere pregi e difetti con RT on e OFF oltre al DLSS, mi sembra interessante. |
grazie per le risposte ricevute, proseguo il discorso da nabbo...
chiarito che è un upscale (non importa la tecnica: x_sampling, valutazione della luminosità, della scena... ) vorrei capire se le informazioni vengono "recuperate" da qualche parte o "inventate (mettete la tecnica che volete: interpolate ...)" in questo caso aggiungendo informazione inesistenti ma dando un effetto ottico verosimile ma non fedele |
Quote:
Ci sono un sacco di video sul tubo, dagli un occhio che sono fatti pure bene |
Quote:
dunque torno al punto di prima le informazioni "calcolate" sono "recuperate" da qualche parte o "inventate" nel primo caso anche se con risultati teoricamente inferiori alla risoluzione nativa sarebbe qualcosa di "serio" nel secondo si tratterebbe di un "effetto" bello ma non fedele. |
Quote:
la differenza marcata tra un upscaling e l'upscalig del DLSS è il modo di impostare i parametri variabili che guidano le scelte dell'upscaling (i metadati). in uno normale si calcolano al momento nell'intorno del punto e magari anche andando a guardare i frame precedenti (e calcolandone la velocità di differenziazione delle varie parti, ossia il vettore di movimento), nel DLSS vengono calcolati tramite rete neurale in fase di sviluppo, allenando la rete neurale con immagini a bassa e alta risoluzione, da confrontare, ma immagini non raffrontate frame to frame (sarebbe inutile e controproducente una tale precisione perchè si deve stereotipare l'andamento dei cambiamenti tramite analisi dei segnali e non l'analisi di quel preciso cambiamento... nei giochi affronterai sicuramente una situazione di movimenti di personaggi e inquadrature diverse da quelli analizzati e quindi l'algoritmo di deve adattare sapientemente ad ogni nuova situazione. faccio notare che il DLSS si compone di svariate tecnologie al suo interno, non solo di un upscaling, ma anche di una AA, un filtro sharpening e altri ancora che migliorano l'immagine finale e che comunque lavora solo sull'output del frame, l'immagine 2D che genera, non nel calcolo del frame, che è in ambiente 3D. è perciò differente parlare di upscaling del DLSS da tutta la tecnologia impiegata nel DLSS. di per se questo algoritmo di upscaling scarica la macchina dal cercare i metadati, perchè vengono preventivamente trovati tramite rete neurale. un normale algoritmo deve prima trovare quei valori adatti per decidere coerentemente la creazione dell'informazione, poi, solo dopo, la esegue con quei parametri trovati... è quindi un'ulteriore vantaggio su questo tipo di algoritmi (di upscaling), perchè taglia parte delle fasi di calcolo (visto che sono eseguite prima e stereotipate tramite machine learning). quindi è un effetto bello e "quasi" fedele. il quasi dipende da quanto lavoro è stato fatto in preproduzione nello sviluppo del gioco per il DLSS e quanto lavoro fa in post produzione al momento del gioco per entrambi i metodi utilizzati, ma, al meglio non è comunque mai fedele a quello che otterresti ad una risoluzione nativa (attento, non uguale nel senso non lo stesso frame, ma non significa che la qualità sia inferiore, solo che non potrai mai rigenerare le esatte informazioni). da osservare che se tu diminuisci la risoluzione da 4K a FHD il PC deve computare 1/4 della grafica (la CPU, invece, sostanzialmente non cambia il suo carico di lavoro in rapporto ai frame che genera), quindi potresti andare 4 volte più veloce, il 300% in più, ma come vedi anche il DLSS offre un miglioramento di massimo il 50%, segno che tanta potenza che avresti usato per calcolare la "regolare grafica" in 4K la stai usando per calcolare upscaling ed effetti di post produzione. |
Quote:
Quote:
Per quanto mi riguarda, le domande sono queste. Non auspico nulla di più se non un'alternativa a DLSS che sia valida e aperta. Mi ha preoccupato il fatto che non sia stato uno dei punti focali della presentazione, perchè senza questo genere di tecnologia AMD rischia davvero di rimanere indietro. Quote:
Il concetto di fedeltà trovo sia relativo comunque, non stiamo parlando di una foto reale ma comunque di immagini create da un motore grafico, è qualcosa di inventato comunque. ;) |
Quote:
E si, quello che sta portando avanti AMD è esattamente quello che fa il DLSS solo che non è proprietario ma open , non so come dirtelo oramai. E come puoi dire che non sia stato un punto focale se hanno portato alla presentazione anche rappresentanti delle SH a spiegarlo??? |
Quote:
Non se ne sente più parlare da inizio 2019, nè è stato annunciato nella presentazione di AMD. |
Quote:
https://wccftech.com/david-cage-on-q...g-out-sequels/ non credo che non parlarne al pubblico sia la stessa cosa di non lavorare sullo sviluppo. |
Quote:
Condizionale + articolo indeterminativo, quindi non fa riferimento a nulla di specifico, nè specifica eventuali tempistiche. |
Quote:
Uno non fa una presentazione così strafottente senza avere qualcosa di certo in mano. Magari ancora non è pronto e disponibile in massa... ma non vedere l’epic win che si sta prospettando è possibile soltanto per fanboyismo o malafede. AMD ha la carta vincente in mano per questa generazione, nVidia o non vuole dannarsi più di tanto anche perché il mercato high end gaming non credo faccia i numeri per farglielo fare. Si prendono ARM, il settore pro dove l’epic win è CUDA e non devono dannarsi l’anima per qualche manciata di FPS su giochi programmati con i piedi. Ci sta come strategia e sicuramente non vanno a perdere in profitti, tanto bene o male saranno pari o poco sotto la concorrenza. |
Quote:
per le tempistiche, fai un po' te: per il DLSS 6 mesi fa erano disponibili 22 giochi https://wccftech.com/geforce-now-get...-21-new-games/ in 2 anni sono manco 1 al mese e qui, per usare quelle tecnologie, ci dev'essere l'HW che verrà commercializzato tra un mese (sia console che GPU discrete). |
Quote:
Io di certo non trovo nulla. |
Quote:
si son stufati di farsi frugare nei propri progetti per dare vantaggio alla concorrenza. quando sarà pronto lo saprai. se lo vuoi sapere prima, faresti meglio a mandare il tuo CV ad AMD o Microsoft. |
Parlando di DLSS vi sta sfuggendo l'argomento principale della presentazione. Ricorda un pò la presentazione di Ryzen in effetti, quando molti dicevano "bello, ma Intel è ancora avanti in single core ecc..", senza vedere che AMD aveva preso la strada del successo inevitabile con un'architettura (attenzione non microarchitettura) innovativa.
In questo caso AMD ha presentato 3 schede della stessa dimensione e TDP, con la top gamma che pareggia la top gamma di Nvidia (parlo di potenza hw, il sw viene dopo). La differenza è che la RTX 3090 è un prodotto "halo", con consumi, dimensioni e prezzo eccessivi. Questa secondo me è una prova di forza da parte di AMD, che dimostra di non dover nemmeno "tirare per i capelli" la propria architettura per competere (da notare le frecciatine riguardo alimentazione e dimensione durante la presentazione). Parlando di software (rt, dlss, ecc) sappiamo tutti cosa gira sulle console next gen e su cosa si concentreranno gli sforzi degli sviluppatori... quindi ci sono pochi dubbi sul fatto che l'eventuale gap (lato software) verrà colmato. In tutto questo aspettiamoci anche la capacità di esecuzione mostrata da AMD con ZEN e il quadro è fatto. Chi non vede l'attuale momento di flessione di Nvidia è al pari di chi non lo vedeva per Intel qualche anno fa (a dire il vero c'è chi non lo vede nemmeno ora :asd: ). |
Tutti gli orari sono GMT +1. Ora sono le: 12:46. |
Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Hardware Upgrade S.r.l.