|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: https://gaming.hwupgrade.it/news/vid...gen_97113.html
AMD ha annunciato la disponibilità per gli sviluppatori di titoli Xbox di alcuni effetti FidelityFX selezionati tramite il Game Development Kit (GDK) di Xbox Series X|S. Si parte con Contrast Adaptive Sharpening (CAS), Variable Shading (VRS) e Raytraced Shadow Denoiser. Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3557
|
Un mero post processing come si è fatto fino a ieri non ha speranza contro il DLSS.
AMD ancora a rincorrere sta.. ma finché il suo target è fare GPU per console dal prezzo stracciato non potrà mai mettere quello che serve per fare vera innovazione. L'innovazione costa (e non solo in silicio) e i clienti di AMD non vogliono spendere. Per loro meglio il classico post processing alla sharpen mask di Photoshop. E via, anche per i prossimi 4 o 5 anni la solita solfa tutta texture e niente effetti luce o geometria seria. |
![]() |
![]() |
![]() |
#3 |
Senior Member
Iscritto dal: Sep 2011
Messaggi: 912
|
che poi tra le altre cose è tutta roba che nvidia riesce a far girare lo stesso ed anche meglio non dando nessun valore aggiunto alle schede AMD.
Non mi stupisce che sony non gli interessi pubblicizzare queste ficia che hanno già presente o che stanno implementando nei loro dev kit...marketing su qualche filtro 2d e funzione dx12 standard nulla di nuovo sotto il sole...vediamo se le nuove dx con il nuovo SM introdurranno qualcosa di interessante |
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3557
|
Mah, senza HW che supporti le complessità di calcolo, qualsiasi nuova feature fatta con gli shader general purpose rimane roba di poco valore aggiunto.
Chissà se le future console saranno ancora degli anemici cloni di PC portatili di generazione vecchia o se qualcuno vorrà ritornare a fare innovazione usando tecnologia moderna con cose nuove e magari non ancora presenti sul mercato per gli altri... O se il piattume mentale di questi bambinetti che giocano a Fortnite con il pad ha asfaltato del tutto l'ipotesi di miglioramenti generazionali... Intanto vediamo se qualcuno in questo giro si degna di usare il geometry shader.... |
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Jan 2003
Messaggi: 3119
|
Completamente contrario ai commenti qui sopra.
Il DLSS non è un miracolo che migliora tutto a prescindere (lasciamo le réclame ai boccaloni). E non vedo dove sia il problema raggiungere dei risultati utilizzando gli shader che diversamente si "gratterebbero". FidelityFX è tanta roba, basta informarsi (https://gpuopen.com/effects/) |
![]() |
![]() |
![]() |
#6 | |
Senior Member
Iscritto dal: Jan 2011
Messaggi: 3557
|
Quote:
Non è che AMD è altrettanto una maga Merlina che tira fuori cose che non si sino fatte fino a ieri, eh. E le deve fare in real time. Ma il suo HW è sempre quello, se non te ne sei accorto. Non ci sono unità che aiutino a fare cose che non si potevano già fare nel 2012, quindi 4 algoritmi ottimizzati per i suoi attuali shader faranno ancora meno miracoli di quelli che già fa il DLSS da qualche anno. Poi, non so se sai come funziona una GPU, ma da quello che hai scritto dubito. Gli shader non stanno a grattarsi per nulla in nessun momento, dato che processano continuamente i dati del frame da visualizzare (e anche quelli successivi) e appena uno è finito, ripartono i calcoli per quello successivo. Questo se stai realmente sfruttando la GPU e non stai usando una 6900XT a 1.8GHz per giocare a 1080p e 30FPS con una manciata di poligoni. Se introduci uno step ulteriore di post processing significa che il calcolo del frame successivo ritarderà e quindi avrai meno tempo per finirlo (se vuoi un certo frame rate definito, se vuoi lo stuttering allora cosa fa il post processing e per quanto lo faccia non ha importanza). Fatto sta che alla fine ricorrerà, come previsto, al VRS (funzionalità delle DX12 e già presente in Turing, giusto per dire, ma che per ora non ha usato nessuno) per ridurre la qualità dello shading là dove non serve e recuperare FPS. Sarà questo il metodo per aumentare il framerate, altro che filtri di post processing "che aumentano la qualità dell'immagine scalata" (che non si può se i dati non ce li hai e senza un algoritmo DL che gira, non puoi aggiungere i dati mancanti come fa il DLSS). Solite dichiarazioni di marketing di AMD con i risultati di effetti fatti ancora con algoritmi deterministici basati su trucchi raster per bluffare sulla qualità d'immagine che saranno esaltati dai suoi fanboy senza pensare che la concorrenza potrebbe fare benissimo lo stesso, ma usa invece una tecnologia più avanzata (che diventerà la summa massima dell'innovazione solo quando AMD la copierà a modo suo, ma visto che starà sulle console, sarà "lo standard" e quindi il meglio). Ultima modifica di CrapaDiLegno : 22-04-2021 alle 12:26. |
|
![]() |
![]() |
![]() |
#7 | |||||
Senior Member
Iscritto dal: Jan 2003
Messaggi: 3119
|
Quote:
Quote:
Ma fa i due è uscito il FidelityFx, e visto quello che sta succendedo ultimamente, su tutte le feature che propone AMD.... che per la scelta di sviluppo, che condivido pienamete, la sorgente è open. Ma questo permette ai furbetti della casa verde di dire che ce l'hanno anche loro (sì certo, il giorno dopo però...dopo aver dato un'occhiata ai sorgenti). Quote:
Nella realtà non ci può essere un equilibrio perfetto fra i calcoli delle geometrie rispetto all'applicazione delle texture, agli effetti su di essi ecc.. ecc.. Quindi si fanno delle scelte di compromesso. Ogni applicazione/titolo va da sè. Quote:
Questi invece sono stati introdotti con i driver 21.4.1 abilitando Radeon Boost: Rise, Shadow of the Tomb Raider, Borderlands 3, Metro Exodus, Fortnite, Cyberpunk 2077, Resident Evil 3, COD Modern Warfare 2019 Che sulla serie 6000 utilizza anche il VRS. Mentre con le altre gestisce solo la dinamica di risoluzione. Quote:
Certo, metti il DLSS in "performace mode" e si vede tutto benissimo... Balle. La vera realtà è che si tratta di "barbatrucchi" che in linea di massima lavorano sul contrasto per andare ad evitare calcolo dove ce' nè poco ed è poco avvertibile ad occhio. Che poi vadano a gestire la dinamica di risoluzione o filtri aggiuntivi, quello è un extra. FFX CAS e DLSS lavorano in modo abbastanza simile. Ma evitiamo le fesserie in stile "venditori di pentole" con "i supecomputer-che-analizzano-le-immagini-e-poi-la riportano-nel-driver." Sono supercazzole per boccaloni. C'è già stata la storia dell'hardware dedicato col G-Sync...monitor costosi, royalties ecc ecc... Poi esce il Freesync (che è una "estensione" di VESA) e senza costi e hardware dedicato, ottieno lo stessi risultato. Stessa storia per l'RTX Voice...a detta di Nvidia tensor core assolutamente necessari...certo, cambi un parametro e va sulle GTX tranquillo come una pasqua. Abbi pazienza, ma sono vent'anni che ce l'ho, diciamo sullo "stomaco", per non dire altro. 3DMark2001, il famoso benchmark era un riferimento, il riferimento. Ultimo benchmark che abbia avuto veramente un senso basato su un "vero" mtore grafico, in "vere" situazioni. Questo bench era in gradi di cambiare il destino "commerciale" di una scheda. Sta di fatto che in quel momento la competizione stava sulla 8500 (uscita prima) e la 4200 sulla stessa fascia di prezzo più o meno. La 4200 era più veloce di circa il 10%, poco più di 10.000 punti a 1024x768. Tuttavia si scoprì poco dopo che alcune versioni dei driver Nvidia disattivavano il filtro trilineare (all'insaputa dell'utente) così il benchmark veniva falsato. Io, che all'epoca lavoravo in negozio, ho avuto modo di provare con mano entrambe le schede con frequenzea referece. E con i driver non "falsati" il risultato era l'opposto. Comunicai la cosa a toms'hardware che all'epoca era tedesco, mi rispose il direttore che non aveva intezione di rimettere mano ai risutati e che andava bene così...A mio avviso per motivi commerciali... Da allora sono diventati tonts'hardware. Che ha fatto la figura di M all'uopo alla casa verde, un po più marrone, questa volta.
__________________
MASTER: Ryzen 5 9600X LC,Powercolor RX 7700XT,MSI PRO B650M-A WIFI,32GB Ram 6000 CL30 FLARE X in DC,Samsung 980Pro 512GB G4 + 980Pro 2TB G4 + SSHD 2TB SATA + HDD 1TB SATA,Audio ALC897,MSI MPG A650GF,Win 11 PRO,TK X-SUPERALIEN + AQUARIUS III,MSI 32" Optix MAG322CQR,MSI VIGOR GK30 COMBO,MSI Agility GD20 PAD,MSI IMMERSE GH10 HEADSET Ultima modifica di Max Power : 23-04-2021 alle 00:31. |
|||||
![]() |
![]() |
![]() |
#8 |
Senior Member
Iscritto dal: Oct 2001
Messaggi: 14734
|
@CrapaDiLegno
Premesso che anche io trovo che il DLSS sia una tecnologia sorprendente e una grande evoluzione per il futuro, soprattutto in quegli ambiti come la VR che necessitano di risoluzione elevate e alti frame rate e credo che AMD dovrà necessariamente proporre una soluzione altrettanto valida. E che oggi non averla è un handicap significativo. Difatti mi è parso strano che AMD stia pensando di abbandonare DirectML (con cui dicevano di aver ottenuto ottimi risultati) per l'implementazione del suo Super Resolution, dicendo che non è l'unico modo per ottenere quel risultato (parole loro) e che sceglieranno quella che si rivelerà migliore (per il loro hardware, per lo meno). Ci sono però diverse cose contestabili in quanto hai scritto. Partiamo dalla conclusione, non ha senso dire che AMD "bluffa" sulla qualità d'immagine, quello che conterà sarà il risultato, se sarà buono brava AMD, se non lo sarà, beh... Del resto ha forse più senso dire che il DLSS "bluffa", dato che di fatto "inventa", seppure lo faccia di norma piuttosto bene, i dettagli mancanti. Ma come dicevo, alla fine è il risultato che conta. Altro punto, il fatto che occorra hardware dedicato. L'hardware dedicato come sai è di norma più efficiente nello svolgere le operazioni per cui è stato realizzato, ma anche meno flessibile. Si tratta cioè di "investire" in un hardware che se non utilizzi per quello per cui è pensato rimane a girarsi i pollici. Quando è conveniente, quindi? Quando eseguire quelle funzioni ha un impatto elevato sulle risorse del chip e quando tale funzionalità viene usata abbastanza spesso. AMD non ha hardware dedicato all'intelligenza artificiale sulle sue schede, ma tali calcoli possono essere eseguiti in modo abbastanza efficace sulle unità generiche (che, per quanto generiche, sono realizzate per poter comunque fare in modo efficiente quel genere di calcolo). Ovviamente se usate per fare tali calcoli non possono essere usate per altro. A fare da discriminante a questo punto sono due fattori: quanto pesano sulla GPU i calcoli relativi a questo Super Resolution e se la GPU ha risorse di calcolo in eccesso nel suo utilizzo tipico. Se l'impatto di questi calcoli fosse ridotto e se le GPU AMD avessero shader power in eccesso, il problema sarebbe marginale. Come ben sai infatti il bilanciamento tra le varie risorse di calcolo della GPU è una scelta architetturale e non è raro avere shader power in eccesso (il collo di bottiglia, cioè, sta altrove). Per esempio a questo giro sembra proprio che sia l'architettura nVidia ad essere sbilanciata in questo senso, con tanto shader power, che come si vede dai benchmark è molto utile in diversi software da workstation che si appoggiano sulla GPU, piuttosto che nei giochi. AMD invece a questo giro non sembra abbia puntato su questo, quindi temo che non abbia poi tanta potenza di calcolo generico in eccesso, e questo potrebbe essere un limite per il Super Resolution. Infine, il VRS (o tecnologia equivalente) è una funzionalità utilissima e non ha molto a che fare con il nostro discorso. Prima verrà adottata (da tutti, non mi riferisco solo ad AMD) meglio sarà, dato che permette di ottenere risultati di ottimo livello risparmiando risorse di calcolo. |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 06:33.