View Full Version : [Thread Ufficiale] AMD Radeon RX6000 Series
Gyammy85
04-06-2021, 12:26
Io come detto aspetto il 22 per dire se fa schifo oppure no.
Al momento sono usciti questi articoli già riportati che lo bollano (o fanno capire a chi legge nella maggioranza dei casi) che sia un merda fumante.
Ma a me piace anche contestualizzare quello che sto leggendo.
• La gpu utilizzata è una 1060 di nvidia e non una AMD. AMD ha già dichiarato che non ottimizzerà il FSR per nvidia ma è nvidia stessa a doversene occupare se lo vorrà (giustamente).
• La resa di FSR varierà da gioco a gioco. E questo lo vediamo anche con la tecnologia analoga (per quanto possibile) DLSS. In alcuni giochi rende meglio che in altri.
Io adesso mi domando anche se AMD è masochista o sono semplicemente idioti.
Presenti una tecnologia open e aperta anche alla concorrenza che sai benissimo che su schede non tue (AMD) potrebbe dare risultati non esaltanti (come hanno dichiarato loro stessi) ma li mostri lo stesso :muro: Praticamente si sono scoperti il fianco a nvidia che non aspettava altro per iniziare la shitstorm 20 giorni prima influenzando, di fatto, la massa, che ha già bollato il FSR una merda a prescindere (e di esempi anche solo qui sul forum ce ne sono a bizzeffe).
Ma non era meglio aggiungere il supporto a nvidia solo dopo qualche tempo o almeno mostrare e fare la promozione solo su schede AMD di cui puoi controllare l'implementazione e il risultato finale? Boh ste cose non le capisco proprio.
Il 22 vediamo in che giochi verrà rilasciato, se li ho vedrò con i miei occhi se è una merda oppure no.
Sono sicuro che se non lo avesse mostrato su nvidia si sarebbe detto che era meglio farlo per rubare attenzione, dai sappiamo entrambi che è difficile fare la cosa giusta se quelli che le hanno sempre "azzeccate tutte" dal 93 hanno il monopolio delle mosse giuste
Gyammy85
04-06-2021, 12:27
C'è un motivo se AMD si sta comprando XILINX.
Xilinx è leader nel mercato FPGA ed ha già chip per ML. Magari in futuro ci saranno FPGA disegnati e programmati per avere upscaling in hw :)
RDNA3 chiplet based avrà tutta una serie di features e magari pure un fsr potenziato, è tutto in divenire, come i zen 3 che erano predisposti per lo stacking 3d
Andy1111
04-06-2021, 12:36
Allora dipende dalla percezione che abbiamo...
Io se attivo il CAS all'80% giocando a 1440p...l'immagine fa praticamente schifo...tutta blurred...
eccoti 2 screen a 1440p uno senza e uno con cas dinamico a 80%
https://steamuserimages-a.akamaihd.net/ugc/1747940014941481446/BFB51C342E2267C0B1EEBC4EBA09DFD96E40A72F/
https://steamuserimages-a.akamaihd.net/ugc/1747940014941481888/6DC6B2A273FE21032E132C85874349619A08898B/
qual'è quello con CAS per te? e per voi del forum ?
incorreggiubile
04-06-2021, 12:57
Mostrano la 1060 ma non fanno vedere la 6800xt su ultra quality, e la storia delle unità in hardware è come "i venti geo della 1080ti" che ora servono come le racchette quando si gioca a basket, chissà come fa la 6900xt a dare la paga spesso e volentieri alla 3090 con quattro geo dal 1920? bohhhhh
!?!?!?!?
HW in più -> non si può dire nulla (a proposito com'era la storia dei primitive shader e Vega? :D )
HW in meno -> va su tutto con la stessa qualità a pari impostazioni
incorreggiubile
04-06-2021, 12:58
Vi ricordo che anche il DLSS 1.0 faceva pietà. Io aspetterei a dare il FSR per morto prima di nascere, anche perchè dietro ogni tecnologia c'è sempre un team di sviluppo che ha investito tempo e soldi per realizzarlo e che di certo avrà tutto l'interesse del migliorarlo.
Il lancio magari zoppicherà e non renderà 1/10 di quello che è il dlss di Nvidia (che ricordo si tratta di tutt'altra tecnologia) ma non mi stupirei se AMD riuscisse in tempi celeri a potenziarlo e a renderlo interessante.
Ricordo che ad avere queste feature ben realizzate ci guadagnamo tutti, sempre.
Com'è finita col Radeon Boost? :D
(che fa il DOWNSCALING in base all'input del mouse)
Letteralmente scomparso dai radar in 2 anni e per 2 tutti e 2 gli anni, doveva essere rivoluzionario :D (aggià che va benissimo se forzi la ggggente ad usare il motion blur, che è una delle FIUCIOR più adorate e ben viste dalla pc master race come ben sappiamo :asd: Che strano che la sua adozione sia stata un fallimento colossale :v )
DJurassic
04-06-2021, 13:03
Com'è finita col Radeon Boost? :D
(che fa il DOWNSCALING in base all'input del mouse)
Letteralmente scomparso dai radar in 2 anni e per 2 tutti e 2 gli anni, doveva essere rivoluzionario :D (aggià che va benissimo se forzi la ggggente ad usare il motion blur, una delle FIUCIOR più adorate come ben sappiamo :asd: )
Potrei dire lo stesso di tantissime feature Nvidia, nonostante sono 10 anni che acquisto solo verdi.
incorreggiubile
04-06-2021, 13:05
C'è un motivo se AMD si sta comprando XILINX.
Xilinx è leader nel mercato FPGA ed ha già chip per ML. Magari in futuro ci saranno FPGA disegnati e programmati per avere upscaling in hw :)
L'ha comprata perchè Intel ha comprato Altera.
Poi ovvio che siano strategiche come realtà che si occupano di progettazione soluzioni per l'ambito dell' AI.
Anche se in quel caso (upscaling) è meglio un ASIC, una FPGA è utile quando occorre qualcosa di rapidamente riconfigurabile (tipo rete neurale basata su hw neuromorfico)
Sperando non finisca tutto come il KINECT di MS :sofico: (rimozione dalla memoria collettiva IN MASSA di qualcosa che promettava che l'intrattenimento non sarebbe stato più lo stesso).
incorreggiubile
04-06-2021, 13:10
Potrei dire lo stesso di tantissime feature Nvidia, nonostante sono 10 anni che acquisto solo verdi.
Fai l'elenco che vediamo :D
A me viene in mente l'MFAA in Maxwell (tuttora supportato in Pascal e Turing e penso anche in Ampere) o il Simultaneous Multi-Projection in Pascal (per la VR, altra cosa che doveva rivoluzionare tutto :sofico: )
Come tutti sappiamo si è steso poi alla fine un velo pietoso sul 3D Vision (stereoscopia)......settore cinematografico compreso :doh:
DJurassic
04-06-2021, 13:14
Fai l'elenco che vediamo :D
A me viene in mente l'MFAA in Maxwell (tuttora supportato in Pascal e Turing e penso anche in Ampere) o il . Simultaneous Multi-Projection in Pascal (per la VR, altra cosa che doveva rivoluzionare tutto :sofico: )
Intendo di tecnologie che con il tempo non sono riuscite a imporsi e di fatto hanno completamente perso di appeal. Uno su tutti, il PhysX. Ma potrei anche parlare del Gsync di cui a conti fatti ha senso solo la versione minore che è poi quella implementata oggi in molti TV attuali. E che fine ha fatto lo SLi o gli effetti GameWorks? Di cui discutere ce ne sarebbe a volontà.
Gyammy85
04-06-2021, 13:25
Com'è finita col Radeon Boost? :D
(che fa il DOWNSCALING in base all'input del mouse)
Letteralmente scomparso dai radar in 2 anni e per 2 tutti e 2 gli anni, doveva essere rivoluzionario :D (aggià che va benissimo se forzi la ggggente ad usare il motion blur, che è una delle FIUCIOR più adorate e ben viste dalla pc master race come ben sappiamo :asd: Che strano che la sua adozione sia stata un fallimento colossale :v )
A me sembra che Radeon boost lo abbiano upgradato di recente col vrs, e con ottimi risultati
Vi ricordo che anche il DLSS 1.0 faceva pietà. Io aspetterei a dare il FSR per morto prima di nascere, anche perchè dietro ogni tecnologia c'è sempre un team di sviluppo che ha investito tempo e soldi per realizzarlo e che di certo avrà tutto l'interesse del migliorarlo.
Il lancio magari zoppicherà e non renderà 1/10 di quello che è il dlss di Nvidia (che ricordo si tratta di tutt'altra tecnologia) ma non mi stupirei se AMD riuscisse in tempi celeri a potenziarlo e a renderlo interessante.
Ricordo che ad avere queste feature ben realizzate ci guadagnamo tutti, sempre.
Quotone, sia per la considerazione sulla qualità sia per la frase finale
ray_hunter
04-06-2021, 14:19
eccoti 2 screen a 1440p uno senza e uno con cas dinamico a 80%
https://steamuserimages-a.akamaihd.net/ugc/1747940014941481446/BFB51C342E2267C0B1EEBC4EBA09DFD96E40A72F/
https://steamuserimages-a.akamaihd.net/ugc/1747940014941481888/6DC6B2A273FE21032E132C85874349619A08898B/
qual'è quello con CAS per te? e per voi del forum ?
Troppo facile, la prima è con CAS e la seconda è nativa
Il VRS secondo me è davvero un'ottima feature, ma non è molto supportata. Funzionava anche in Metro Exodus ma non nella EE.
In Cyberpunk funziona alla grande.
Gigibian
04-06-2021, 14:23
eccoti 2 screen a 1440p uno senza e uno con cas dinamico a 80%
https://steamuserimages-a.akamaihd.net/ugc/1747940014941481446/BFB51C342E2267C0B1EEBC4EBA09DFD96E40A72F/
[/url]
qual'è quello con CAS per te? e per voi del forum ?
Questo. Mamma mia tutto smarmellato.
incorreggiubile
04-06-2021, 15:17
Intendo di tecnologie che con il tempo non sono riuscite a imporsi e di fatto hanno completamente perso di appeal. Uno su tutti, il PhysX. Ma potrei anche parlare del Gsync di cui a conti fatti ha senso solo la versione minore che è poi quella implementata oggi in molti TV attuali. E che fine ha fatto lo SLi o gli effetti GameWorks? Di cui discutere ce ne sarebbe a volontà.
PhysX come framework fisico è praticamente usato in ogni gioco anche attuale eh, basta che cerchi le DLL relative nella cartella di installazione e hai la conferma che viene usato.
Il problema semmai è che usano ancora la versione 3 (nei progetti in sviluppo da anni è inevitabile) e non la 4 che è perfettamente OpenSource.
Perchè? Abitudine e integrazione già garantita.
GSync funziona benone e bene con i monitor della whitelist di Nvidia.
SLI è concettualmente in conflitto diretto con GSync e altre tecnologie di "dialogo intelligente" col monitor, inoltre in DX12/Vulkan+PCIE 3.0/4.0 (e tecnologie varie legate virtualizzazione degli indirizzi di memoria) diventa "inutile" esattamente come con Windows 10 è diventato inutile Optimus (e prima ancora Virtu se ve la ricordate).
incorreggiubile
04-06-2021, 15:20
A me sembra che Radeon boost lo abbiano upgradato di recente col vrs, e con ottimi risultati
Radeon Boost è semplicemente un downscaling "brutale" che risponde a variazioni sugli assi del mouse.
Non ha niente di intelligente e necessita del Motion Blur attivo (o almeno un Temporal AA) per nascondere gli artefatti di downscaling.
Non c'è alcuna "analisi" della scena o del frame, solo dell'input.
DJurassic
04-06-2021, 15:24
PhysX come framework fisico è praticamente usato in ogni gioco anche attuale eh, basta che cerchi le DLL relative nella cartella di installazione e hai la conferma che viene usato.
Del PhysX che parlavo io ne è rimasto praticamente nulla. Le implementazioni di cui parli tu sono tutte a carico della CPU e si parla di feature basilari che non hanno nulla a che vedere con quello che poteva essere il suo potenziale.
Non a caso la fisica di oggi nei giochi è ridotta all'osso o fà pena. Degli ultimi gioco da me provati solo Control fà un buon uso in questo senso di certe librerie.
Gli altri ce l'hanno ficcate dentro per sport, ma all'atto pratico sono ridicoli.
Andy1111
04-06-2021, 15:25
Troppo facile, la prima è con CAS e la seconda è nativa
Il VRS secondo me è davvero un'ottima feature, ma non è molto supportata. Funzionava anche in Metro Exodus ma non nella EE.
In Cyberpunk funziona alla grande.
Questo. Mamma mia tutto smarmellato.
Esatto non è perfetto ma non lo reputo neanche uno schifo assoluto
incorreggiubile
04-06-2021, 15:27
Troppo facile, la prima è con CAS e la seconda è nativa
Il VRS secondo me è davvero un'ottima feature, ma non è molto supportata. Funzionava anche in Metro Exodus ma non nella EE.
In Cyberpunk funziona alla grande.
Quella implementazione di VSR non era vera "VSR" ma solo downsampling in-engine. VSR dovrebbe funzionare in modo intelligente, e dinamico cioè "capendo" le parti della scena che richiedono una maggior frequenza di aggiornamento degli shader applicati da quelli necessitanti frequenza minore.
incorreggiubile
04-06-2021, 15:32
Del PhysX che parlavo io ne è rimasto praticamente nulla. Le implementazioni di cui parli tu sono tutte a carico della CPU e si parla di feature basilari che non hanno nulla a che vedere con quello che poteva essere il suo potenziale.
Non a caso la fisica di oggi nei giochi è ridotta all'osso o fà pena. Degli ultimi gioco da me provati solo Control fà un buon uso in questo senso di certe librerie.
Gli altri ce l'hanno ficcate dentro per sport, ma all'atto pratico sono ridicoli.
Mica è un limite del framework, il 4.0 fa tuttissimo con le CPU attuali senza alcun bisogno di una GPU, senza contare che metà del lavoro fatto con la GPU *NON* era a carico della GPU ma semplicemente quando veniva riconosciuta nel sistema una GPU Nvidia veniva attivata la possibilità di sfruttare SSE e AVX invece dell' x87 :p Infatti vi ricordo che inizialmente quello che serviva era una PPU Ageia che poi NVidia comprò essenzialmente per smantellarla :muro:
Magari non sapevate di questa piccola grande ladrata (cioè che parte dell'accelerazione fornita dalle GPU Nvidia manco riguardava la GPU in sè ma la sua semplice presenza nel sistema E per anni anche il fatto che fosse la GPU settata per il rendering del gioco - se queste 2 condizioni non erano rispettate venita forzato l'uso del path x87 invece di quello SSE/AVX) :O
Gyammy85
04-06-2021, 15:49
Radeon Boost è semplicemente un downscaling "brutale" che risponde a variazioni sugli assi del mouse.
Non ha niente di intelligente e necessita del Motion Blur attivo (o almeno un Temporal AA) per nascondere gli artefatti di downscaling.
Non c'è alcuna "analisi" della scena o del frame, solo dell'input.
No figurati, un semplicissimo variable rate shading
Ecco un video di warzone a 4k ultra+rt con radeon boost e vrs
https://www.youtube.com/watch?v=z87bgS01X_U&t=301s
Minuto 2 e 50
incorreggiubile
04-06-2021, 15:49
https://www.tomshw.it/hardware/fidelityfx-super-resolution-arrivera-anche-sulla-radeon-rx-470-e-rx-480/
ray_hunter
04-06-2021, 15:50
Quella implementazione di VSR non era vera "VSR" ma solo downsampling in-engine. VSR dovrebbe funzionare in modo intelligente, e dinamico cioè "capendo" le parti della scena che richiedono una maggior frequenza di aggiornamento degli shader applicati da quelli necessitanti frequenza minore.
Dai video di promozione di AMD però si evince, diversamente da quanto stia dicendo, che va a ridurre la qualità di shading solo in zone dove non vi è un focus percezionale e solo in movimento.
Mi sembra un metodo intelligente e simile ai concetti di compressione video che si applicano in fase di codifica della compressione...
A me sinceramente non dispiace affatto come concetto. Ti becchi il max dettaglio sullo statico ma se c'è una scena con movimento elevato dove è impossibile percepire differenze di dettaglio va ad incrementare le prestazioni.
Mi ricordano tanto le QMF che usavo per comprimere i video in Xvid o x264:D :D :D :D
incorreggiubile
04-06-2021, 15:53
No figurati, un semplicissimo variable rate shading
Ecco un video di warzone a 4k ultra+rt con radeon boost e vrs
https://www.youtube.com/watch?v=z87bgS01X_U&t=301s
Minuto 2 e 50
Ehm, VSR non riguarda il numero di pixel effettivi della scena ma solo quelli a cui viene applicato un aggiornamento dello shader.
Radeon Boost (che uso con Borderlands 3) semplicemente fa downsampling e piuttosto brutale se non c'è un filtro temporale (TAA/TXAA o Motion Blur) a "nascondere" gli artefatti.
Davvero, non confondete VSR con un downsampling solo perchè in Metro hanno messo lo stesso nome :asd:
VSR è una cosa estremamente più complessa e non per niente il supporto va oltre alle specifiche delle DX 12.1
incorreggiubile
04-06-2021, 15:54
Mi ricordano tanto le QMF che usavo per comprimere i video in Xvid o x264:D :D :D :D
E' quello infatti eh, solo applicato allo shading e non all'immagine già esistente (il frame che ancora non c'è)
Il paragone migliore è con h265 cmq.
E' qualcosa che riguarda l'aggiornamento dei pixel della scena più che il loro numero nel frame (numero di pixel aggiornati vs numero di pixel totali del frame).
E come dicevo richiede GPU con supporto alla tecnologia che va oltre le specifiche 12.1, per questo quello di Metro (non EE) non c'entrava nulla ma semplicemente usarono lo stesso nome per del normalissimo downsampling in-engine.
ray_hunter
04-06-2021, 15:56
Ehm, VSR non riguarda il numero di pixel effettivi della scena ma solo quelli a cui viene applicato un aggiornamento dello shader.
Radeon Boost (che uso con Borderlands 3) semplicemente fa downsampling e piuttosto brutale se non c'è un filtro temporale (TAA/TXAA o Motion Blur) a "nascondere" gli artefatti.
Davvero, non confondete VSR con un downsampling solo perchè in Metro hanno messo lo stesso nome :asd:
VSR è una cosa estremamente più complessa e non per niente il supporto va oltre alle specifiche delle DX 12.1
Continui a chiamarlo VSR ma si chiama VRS. Quello della riduzione di risoluzione si applica ai giochi DX11. Il VRS lo hanno implementato da poco, tipo 2 release di driver fa e non scala la risoluzione.
incorreggiubile
04-06-2021, 16:01
Non ci stiamo capendo.
VSR è 2 cose:
*Virtual Super Resolution (che è downscaling a livello del dialogo GPU-monitor)
*Variable Shader Rate che fa parte delle DX come specifica
Il secondo lo puoi chiamare anche Variable Rate Shading che è la stessissima cosa di quello che intendevo io.
Il primo è banale dowsampling appunto e nel 4A Engine di Metro hanno usato 2) per chiamare 1) - dovete prendervela con loro, mica con me :p
Qui c'è tutta la spiegazione (più di un anno fa): https://www.hwupgrade.it/articoli/skvideo/5649/che-cos-e-il-variable-rate-shading-vrs_index.html
incorreggiubile
04-06-2021, 16:08
.
Il primo è banale dowsampling appunto e nel 4A Engine di Metro hanno usato 2) per chiamare 1) - dovete prendervela con loro, mica con me :p
Toh, la prova :D
https://thumbnails.pcgamingwiki.com/7/7b/Metroexodus_videosettings2.jpg/800px-Metroexodus_videosettings2.jpg
Uno appunto è portato a pensare che sia il VRS questo (V)SR in quanto c'è scritto "Shading Rate" ma in realtà era solo downsampling in-engine (cioè paradossalmente come il VSR appunto, magari era una trollata voluta)
Nella EE invece c'è la versione "giusta", VRS/VSR autentico inteso come "shading rate", non come "super resolution" :p
Io rispondevo a chi ha fatto l'esempio di "Metro non EE" infatti, non sapendo che in realtà era banale downsampling pur avendo la dicitura "shading rate".
incorreggiubile
04-06-2021, 16:41
https://gpuopen.com/fsr-announce/
Fixed and arbitrary scaling supported.
:asd: :asd: :asd:
Ci sarà lo sliderone :sofico:
A meno che AMD abbia assunto dei geni della matematica e dell'ottimizzazione (sarà eseguito come shader, dai, c'è solo da capire a che punto della pipeline di rendering per questo necessita di supporto in-engine anche se facilmente integrabile) la vedo dura avere un'ottima qualità dell'immagine E scaling arbitrario insieme :stordita: :fagiano:
2 giorni dopo lo vedrete come shader applicabile via reshade, artefatti da posizione nella pipeline a parte. Col CAS è successo così :D
ma il Radeon Boost come funziona???
c'entra qualcosa con FSR?
Gigibian
05-06-2021, 09:55
https://gpuopen.com/fsr-announce/
Fixed and arbitrary scaling supported.
:asd: :asd: :asd:
Ci sarà lo sliderone :sofico:
A meno che AMD abbia assunto dei geni della matematica e dell'ottimizzazione (sarà eseguito come shader, dai, c'è solo da capire a che punto della pipeline di rendering per questo necessita di supporto in-engine anche se facilmente integrabile) la vedo dura avere un'ottima qualità dell'immagine E scaling arbitrario insieme :stordita: :fagiano:
2 giorni dopo lo vedrete come shader applicabile via reshade, artefatti da posizione nella pipeline a parte. Col CAS è successo così :D
Vabbè, una ca*ata immane...assurdo che hanno creato una roba tanto banale...
incorreggiubile
05-06-2021, 10:13
ma il Radeon Boost come funziona???
c'entra qualcosa con FSR?
Fa una stima di velocità e accelerazione lungo gli assi del mouse e in relazione a quella (banale proporzione?) downscala il frame con un limite inferiore che setti nel pannello dei driver (100% -> 66% -> 50%).
Fa l'opposto dell'upscaling, parte da una risoluzione alta e la riduce quando c'è meno possibilità di accorgersi della riduzione conseguente di dettaglio, cioè durante movimenti rotatorii.
Tecnologia esistente già nell'Unreal Engine 1.5 (Deus Ex Invisible War / Thief Deadly Shadows) creata in funzione dei limiti della prima XBOX, operante a livello del viewport.
E' visivamente accettabile SOLO con T(X)AA attivo o meglio ancora il motion blur. O entrambi. Cosa che ne porta l'interesse per il PCGamer medio a.....0.
A meno che uno giochi in 4K su monitor 24 pollici.
Col 24 QHD si nota ahimè ancora troppo......(a quel punto preferiscon l'integer scaling per uniformità di segnale e conservazione del dettaglio, se poi alla fine della catena devo proprio metterci il T(X)AA - ad esempio in Breakpoint non c'è altra alternativa per l'AA )
incorreggiubile
05-06-2021, 10:19
Vabbè, una ca*ata immane...assurdo che hanno creato una roba tanto banale...
Non è detto che lo sia, dipende dal ricostruttore usato (l'oggettino matematico che si occupa di "generare" pixel per pixel il segnale upscalato).
E dalla sensibilità personale, un po' come per il ricampionamento audio (non è detto che la tua sensibilità personale vada di pari passo con i criteri matematici, c'è di mezzo il training sensoriale che ti porta ad apprezzare magari cose "matematicamente errate" ma che il tuo cervello via occhio/orecchio impara ad apprezzare e che lo soddisfano - c'è gente che abituata al Nearest-neighbor filtering degli anni '90 odia ancora oggi bilinear, trilinear e anisotropic filtering perchè "E' TUTTO SMARMELLATO!!1111" cit. l'utente di prima :D :D :D ).
incorreggiubile
05-06-2021, 11:57
meglio ancora in Quake 2 RTX.
Ricordo che il Temporal Upscaling in Q2RTX ha un'implementazione *AGNOSTICA*, è totalmente indipendente dai tensor core che si occupano del DLSS (che non c'è in Q2 RTX penso per limiti dell'engine che è quello di Q2 Pro di base).
Secondo me è già un ottimo esempio di upscaling "intelligente" senza alcun bisogno di AI :)
1920x1080 100% + Temporal AA:
https://i.postimg.cc/C5438Z8H/100-TAA.jpg (https://postimg.cc/y3kp48vk)
1920x1080 50% (960x540!) + Temporal Upscaling (e AA):
https://i.postimg.cc/WbTj4VZw/50-TUP.jpg (https://postimg.cc/4nLj8rBY)
Per questo servono i motion vector (forniti dall'engine) e basta.....mi stupirei se FSR riuscisse a fare di meglio di così.
Fa una stima di velocità e accelerazione lungo gli assi del mouse e in relazione a quella (banale proporzione?) downscala il frame con un limite inferiore che setti nel pannello dei driver (100% -> 66% -> 50%).
Fa l'opposto dell'upscaling, parte da una risoluzione alta e la riduce quando c'è meno possibilità di accorgersi della riduzione conseguente di dettaglio, cioè durante movimenti rotatorii.
Tecnologia esistente già nell'Unreal Engine 1.5 (Deus Ex Invisible War / Thief Deadly Shadows) creata in funzione dei limiti della prima XBOX, operante a livello del viewport.
E' visivamente accettabile SOLO con T(X)AA attivo o meglio ancora il motion blur. O entrambi. Cosa che ne porta l'interesse per il PCGamer medio a.....0.
A meno che uno giochi in 4K su monitor 24 pollici.
Col 24 QHD si nota ahimè ancora troppo......(a quel punto preferiscon l'integer scaling per uniformità di segnale e conservazione del dettaglio, se poi alla fine della catena devo proprio metterci il T(X)AA - ad esempio in Breakpoint non c'è altra alternativa per l'AA )
parli del boost?
quindi io con la 6700xt e un 27" 1440p mi conviene?
incorreggiubile
05-06-2021, 17:11
parli del boost?
->
ma il Radeon Boost come funziona???
:mbe: :fagiano:
quindi io con la 6700xt e un 27" 1440p mi conviene?
Vedresti tutto sgranato a meno di filtrare pesantemente il segnale con MB o TAA.
Francamente lo consiglio solo a chi ha un 24" 4K. Senza considerare che ad esempio nei giochi di guida, RPG/RTS top-down è perfettamente inapplicabile.
Ma non vedo il problema, riguarda solo 4 giochi in croce.
Spera piuttosto per l'FSR. Magari AMD fa davvero la magia......non dico che matematicamente sia impossibile, in sostanza di tratta di "vettorializzare" la coda di frame in output.....certo che insospettisce molto il fatto che venga dichiarato "spatial upscaling" allora, come ad intendere che non venga presa in considerazione la correlazione fra un frame e l'altro. E' una dimensione decisamente utile (vedi risultati che ho postato sopra da Q2 RTX).
Gigibian
05-06-2021, 18:54
Non è detto che lo sia, dipende dal ricostruttore usato (l'oggettino matematico che si occupa di "generare" pixel per pixel il segnale upscalato).
E dalla sensibilità personale, un po' come per il ricampionamento audio (non è detto che la tua sensibilità personale vada di pari passo con i criteri matematici, c'è di mezzo il training sensoriale che ti porta ad apprezzare magari cose "matematicamente errate" ma che il tuo cervello via occhio/orecchio impara ad apprezzare e che lo soddisfano - c'è gente che abituata al Nearest-neighbor filtering degli anni '90 odia ancora oggi bilinear, trilinear e anisotropic filtering perchè "E' TUTTO SMARMELLATO!!1111" cit. l'utente di prima :D :D :D ).
Che ero sempre io quell'utente ...ed in origine era una citazione dal telefilm "Boris" :D
Bi/Tri linear sono filtri preistorici e non implementano niente di particolarmente innovativo per l'upscaling.
Per ricostruire in maniera sensata un'immagine serve sempre partire da info aggiuntive (come ad esempio i motion vector ) , se queste non sono presenti è.impossibile fare qualcosa di decente probabilmente...
Gigibian
05-06-2021, 18:56
->
:mbe: :fagiano:
Vedresti tutto sgranato a meno di filtrare pesantemente il segnale con MB o TAA.
Francamente lo consiglio solo a chi ha un 24" 4K. Senza considerare che ad esempio nei giochi di guida, RPG/RTS top-down è perfettamente inapplicabile.
Ma non vedo il problema, riguarda solo 4 giochi in croce.
Spera piuttosto per l'FSR. Magari AMD fa davvero la magia......non dico che matematicamente sia impossibile, in sostanza di tratta di "vettorializzare" la coda di frame in output.....certo che insospettisce molto il fatto che venga dichiarato "spatial upscaling" allora, come ad intendere che non venga presa in considerazione la correlazione fra un frame e l'altro. E' una dimensione decisamente utile (vedi risultati che ho postato sopra da Q2 RTX).
A naso se venisse presa in considerazione la cosa di frame (tipo negli algo video MPEG &co) si sarebbe necessariamente un delay aggiuntivo, corretto ?
incorreggiubile
05-06-2021, 21:31
Che ero sempre io quell'utente ...ed in origine era una citazione dal telefilm "Boris" :D
Bi/Tri linear sono filtri preistorici e non implementano niente di particolarmente innovativo per l'upscaling.
Per ricostruire in maniera sensata un'immagine serve sempre partire da info aggiuntive (come ad esempio i motion vector ) , se queste non sono presenti è.impossibile fare qualcosa di decente probabilmente...
Quello dei filtraggi di texture era un esempio per dire che c'è gente che li disprezza, anisotropo (in italiano è anisotropo) compreso, perchè ha la sensibilità visiva "educata" al nearest-neighbor degli anni '90. Che poi è tornato di moda (Dusk, Prodeus, Graven, ecc. ecc. ecc.)
Anche per l'upscaling c'è da considerare la sensibilità individuale da "abitudine" (mi pareva chiara l'analogia e che fosse appunto una analogia).
incorreggiubile
05-06-2021, 21:34
A naso se venisse presa in considerazione la cosa di frame (tipo negli algo video MPEG &co) si sarebbe necessariamente un delay aggiuntivo, corretto ?
Ovvio, come ci insegna il principio di indeterminazione di Heisenberg (è la stessa cosa, maggiore è il buffer per analizzare meglio il segnale statisticamente, maggiore è la latenza introdotta dalla processazione conseguente perdendo quindi in "località" dell'informazione, potremmo dire "precisione" - infatti quando si vuole fare un esempio "semplice" di cosa sia l'indeterminazione si prende un diagramma tempo-frequenza di un segnale audio: non puoi "zoomare" su entrambe le dimensioni, sono in mutua esclusione).
E infatti in Q2 RTX te ne accorgi un po', ma niente di drammatico. Ho visto in certi engine lag immensamente più paurose (quelle del Creation Engine di Bethesda sono proverbiali :D ) senza alcuna necessità (motivata) che ci fossero! L'upscaling invece è una motivazione più che sana, dato che QHD e 4K costano ancora molto in termini di performance e ci stiamo letteralmente passando in 2 generazioni di GPU.....con tanto di penuria delle stesse mentre abbiamo monitor QHD e con un bel po' di FIUCIOR interessanti :asd: a 150 euro.
Gigibian
07-06-2021, 09:29
Su reddit un utente ha scaricato il video in 4k alla massima qualità dell'FSR, e salvato dei PNG e zoomato, ecco il risultato:
www reddit com /r/Amd/comments/nqd0lz/fidelityfx_super_resolution_ultra_quality/
Anche in "ultra quality" mode, la resa è abbastanza pessima... purtroppo... :(
ninja750
07-06-2021, 10:43
Su reddit un utente ha scaricato il video in 4k alla massima qualità dell'FSR, e salvato dei PNG e zoomato, ecco il risultato:
www reddit com /r/Amd/comments/nqd0lz/fidelityfx_super_resolution_ultra_quality/
Anche in "ultra quality" mode, la resa è abbastanza pessima... purtroppo... :(
diciamo che estrapolare dei PNG da un video compresso non è il massimo per capire come potrà funzionare questo algoritmo, ma credo che nessuno si aspetti alla presentazione di avere un immediato DLSS2.0 né lato qualitativo né tantomeno lato titoli supportati che sarà la cosa primaria per AMD da raggiungere
per me sarà una vittoria arrivare open source a quello che fu il DLSS1.0 per poi essere sviluppato via con gli anni e che non richieda unità dedicate, che come fatto vedere potrà funzionare sia su APU che su schede vecchie nvidia che adesso sono tagliate fuori
aspettate di metterci le mani sopra poi shitstormate a piacere :p
ray_hunter
07-06-2021, 11:13
Dal punto di vista dei possibili miglioramenti sono meno ottimistico.
Mentre da una parte il DLSS aveva ampi margini di miglioramento, sia come metodologia di training che come sviluppo della feature in se, qua stiamo parlando di un upscaler spaziale che è basato su un algoritmo sul quale non vedo molto margine di manovra.
Diciamo che il risultato del livello qualitativo ultra non è nemmeno così male. E' il livello quality che blurra davvero in maniera aggressiva.
incorreggiubile
07-06-2021, 11:26
e che non richieda unità dedicate
Sì ma le "unità dedicate" per l'AI servono in computer graphics innanzitutto per il denoising nel raytracing, ergo non vedo perchè AMD non debba implementarle sulle prossime GPU.
incorreggiubile
07-06-2021, 11:28
E' il livello quality che blurra davvero in maniera aggressiva.
Diciamo che sarebbe auspicabile che l'Ultra Quality diventi il riferimento base quando non si vuole usare l'AI con a disposizione i motion vector della scena.....un po' come ha fatto il CAS nell'ambito dello sharpening "il più possibile agnostico e privo di artefatti" (l'implemetazione che ho visto su Sniper Ghost Warrior Contracts 2 è davvero buona, non noto ghosting).
Se prendete il CAS e lo paragonate allo sharpening in-engine di Deus Ex Mankind Divided nel 2016 (per compensare il blurring da TAA) capite che alla fine ci lamentiamo davvero un po' troppo :p
Gyammy85
07-06-2021, 11:28
Ma almeno sto banalissimo upscaler è dos 5 compatibile come il resizable bar?
Non ci stiamo capendo.
VSR è 2 cose:
*Virtual Super Resolution (che è downscaling a livello del dialogo GPU-monitor)
*Variable Shader Rate che fa parte delle DX come specifica
Il secondo lo puoi chiamare anche Variable Rate Shading che è la stessissima cosa di quello che intendevo io.
Il primo è banale dowsampling appunto e nel 4A Engine di Metro hanno usato 2) per chiamare 1) - dovete prendervela con loro, mica con me :p
Qui c'è tutta la spiegazione (più di un anno fa): https://www.hwupgrade.it/articoli/skvideo/5649/che-cos-e-il-variable-rate-shading-vrs_index.html
Che poi voglio dire, anche la risoluzione nativa è un banale "mettere più pixel così si vede meglio", e grazie bravi tutti così, non c'è niente di intelligente :tapiro:
Tanto per la cronaca, il Virtual Super Resolution serve ad andare oltre la risoluzione nativa del monitor stile super sampling, mentre il VARIABLE RATE SHADING è la feature delle dx12 ultimate per avere un rate diverso in punti della scena, tecnica applicata anche in dirt 5, che applicata di recente al radeon boost pemette di non peggiorare l'immagine entrando in azione in maniera molto soft e garantendo comunque un discreto aumento di perf, ti ho postato anche un video
Oddio mi gira la testa, non sono più abituato a discutere di cose simili, ormai sono diventato esperto di programmazione bot, gestione dello stress da acquisto compulsivo inapplicato e delazioni su sospetti miner da rinchiudere in galera e buttare la chiave....
incorreggiubile
07-06-2021, 11:33
Ma almeno sto banalissimo upscaler è dos 5 compatibile come il resizable bar?
Che poi voglio dire, anche la risoluzione nativa è un banale "mettere più pixel così si vede meglio", e grazie bravi tutti così, non c'è niente di intelligente :tapiro:
Tanto per la cronaca, il Virtual Super Resolution serve ad andare oltre la risoluzione nativa del monitor stile super sampling, mentre il VARIABLE RATE SHADING è la feature delle dx12 ultimate per avere un rate diverso in punti della scena, tecnica applicata anche in dirt 5, che applicata di recente al radeon boost pemette di non peggiorare l'immagine entrando in azione in maniera molto soft e garantendo comunque un discreto aumento di perf, ti ho postato anche un video
Appunto.
Ho solo fatto notare che i 4A hanno chiamato 1) con 2) in Metro Exodus *NON* EE :asd:
Nell' EE è tutto corretto, c'è VRS ed è appunto quella che entrambi conosciamo come tale da specifica DX12.
L'intelligenza sta nel crearli i pixel in più, in modo che siano appropriati al contesto.
Gyammy85
07-06-2021, 11:40
Appunto.
Ho solo fatto notare che i 4Engine hanno chiamato 1) con 2) in Metro Exodus *NON* EE :asd:
Nell' EE è tutto corretto, c'è VRS ed è appunto quella che entrambi conosciamo come tale da specifica DX12.
L'intelligenza sta nel crearli i pixel in più, in modo che siano appropriati al contesto.
Quindi?
ninja750
07-06-2021, 11:45
Sì ma le "unità dedicate" per l'AI servono in computer graphics innanzitutto per il denoising nel raytracing, ergo non vedo perchè AMD non debba implementarle sulle prossime GPU.
amd ha già unità dedicate al RT in navi2 :mbe:
Diciamo che sarebbe auspicabile che l'Ultra Quality diventi il riferimento base quando non si vuole usare l'AI con a disposizione i motion vector della scena
vero ma se la concorrenza dà una scelta all'utente finale, e questa scelta permette una modalità bilanciata più performante, hai di fatto in mano una soluzione peggiore o se vogliamo scriverla in maniera diversa, meno scalabile
sarebbe interessante capire quelli che usano DLSS con quale impostazione sono soliti giocare, se con quality o bilanciato o performance
incorreggiubile
07-06-2021, 11:54
amd ha già unità dedicate al RT in navi2 :mbe:
Sì ma per il *denoising* POST-RAYTRACING (nel path tracing ad esempio) serve l'AI, non è che sarà magari per quello che in raytracing crolla?
Il denoising senza appoggio a reti neurali è una cosa assurda computazionalmente parlando: praticamente è lui il macigno, mica il raytracing (beam tracing) in sè.
incorreggiubile
07-06-2021, 12:00
Quindi?
Stai ciurlando nel manico? :confused:
Quindi cosa?
Ho solo fatto notare l'errore in Metro NON EE a riguardo di "variable shading" che si trova nel menù e NON è il VRS ma appunto downsampling.
Il DLSS 2.0 di intelligente ha che i pixel li inferisce.
Gigibian
07-06-2021, 12:08
diciamo che estrapolare dei PNG da un video compresso non è il massimo per capire come potrà funzionare questo algoritmo, ma credo che nessuno si aspetti alla presentazione di avere un immediato DLSS2.0 né lato qualitativo né tantomeno lato titoli supportati che sarà la cosa primaria per AMD da raggiungere
per me sarà una vittoria arrivare open source a quello che fu il DLSS1.0 per poi essere sviluppato via con gli anni e che non richieda unità dedicate, che come fatto vedere potrà funzionare sia su APU che su schede vecchie nvidia che adesso sono tagliate fuori
aspettate di metterci le mani sopra poi shitstormate a piacere :p
Ma la compressione vale sia a destra che a sinistra :D E poi dai su, si vede che non c'entra niente la compressione video nel confronto.
Nessuno shitstorm, ho una 6900XT qui imballata che aspetta il 22 giugno per essere aperta o rivenduta :)
Dispiace vedere la semplicità dell'implementazione AMD, tutto qui.
Evidenziavo solo che anche in ultra quality, il blur regna sovrano e la qualità è molto lontana, purtroppo, dal concorrente diretto.
ray_hunter
07-06-2021, 12:12
Sì ma per il *denoising* POST-RAYTRACING (nel path tracing ad esempio) serve l'AI, non è che sarà magari per quello che in raytracing crolla?
Il denoising senza appoggio a reti neurali è una cosa assurda computazionalmente parlando: praticamente è lui il macigno, mica il raytracing (beam tracing) in sè.
AMD pubblicizza il denoising in hw ma non parla di AI.
Mentre Nvidia pubblicizza che il denoising è fatto in modo intelligente andando a ridurre il carico mantenendo la massima qualità.
ray_hunter
07-06-2021, 12:13
Ma la compressione vale sia a destra che a sinistra :D E poi dai su, si vede che non c'entra niente la compressione video nel confronto.
Nessuno shitstorm, ho una 6900XT qui imballata che aspetta il 22 giugno per essere aperta o rivenduta :)
Dispiace vedere la semplicità dell'implementazione AMD, tutto qui.
Evidenziavo solo che anche in ultra quality, il blur regna sovrano e la qualità è molto lontana, purtroppo, dal concorrente diretto.
Che poi, se vogliamo dirla tutta, se si vede già differenza di blur nel video compresso, a rigor di logica, sarà ancora più evidente nelle immagini RAW!
ray_hunter
07-06-2021, 12:16
amd ha già unità dedicate al RT in navi2 :mbe:
vero ma se la concorrenza dà una scelta all'utente finale, e questa scelta permette una modalità bilanciata più performante, hai di fatto in mano una soluzione peggiore o se vogliamo scriverla in maniera diversa, meno scalabile
sarebbe interessante capire quelli che usano DLSS con quale impostazione sono soliti giocare, se con quality o bilanciato o performance
Dipende da gioco, risoluzione del monitor e GPU che si possiede. Se hai una 2070 con monitor 1440P in CP2077 facile che si usi il performance. Chi ha una 3080 con stesso monitor andrà di qualità nel 99% dei casi...
Va detto che negli ultimi giochi anche il bilanciato e a volte il performance rendono moooolto vicino alla nativa. In Metro Exodus EE dicevano appunto che il Performance rende molto vicino al nativo.
In altri l'unica che rende bene è quality e già a balanced si vede il blur...
Gyammy85
07-06-2021, 12:19
AMD pubblicizza il denoising in hw ma non parla di AI.
Mentre Nvidia pubblicizza che il denoising è fatto in modo intelligente andando a ridurre il carico mantenendo la massima qualità.
Il denoising di amd è quello interno al pacchetto fidelity fx
Ma esattamente dove c'è scritto che per fare tutto ci vuole l'ai per forza, ci sono paper (non di nvidia) e pubblicazioni (non di nvidia)? perché a questo punto pure per fare le addizioni ci vuole l'ai, per il mouse, per la stampante, ecc...come fa a stampare il foglio se non sa che dentro ci sono i fogli? Rivoluzione!
carloUba
07-06-2021, 12:46
Il denoising di amd è quello interno al pacchetto fidelity fx
Ma esattamente dove c'è scritto che per fare tutto ci vuole l'ai per forza, ci sono paper (non di nvidia) e pubblicazioni (non di nvidia)? perché a questo punto pure per fare le addizioni ci vuole l'ai, per il mouse, per la stampante, ecc...come fa a stampare il foglio se non sa che dentro ci sono i fogli? Rivoluzione!
Non ci vuole per forza l'AI ma ci vuole per rendere tutto fruibile.
Sono cose che io facevo su Amiga ma con 1 frame al quarto d'ora
Gigibian
07-06-2021, 13:17
Il denoising di amd è quello interno al pacchetto fidelity fx
Ma esattamente dove c'è scritto che per fare tutto ci vuole l'ai per forza, ci sono paper (non di nvidia) e pubblicazioni (non di nvidia)? perché a questo punto pure per fare le addizioni ci vuole l'ai, per il mouse, per la stampante, ecc...come fa a stampare il foglio se non sa che dentro ci sono i fogli? Rivoluzione!
Non serve l'AI. Servono set di informazioni aggiuntive dalle quali inferire il frame finale
Motion vector. Che AMD non usa.
Frame buffers: che AMD non usa.
Dopodiché, è matematicamente dimostrato che le reti neurali linearizzato algoritmi di fitting che altrimenti possono essere complessi e sicuramente non lineari: terzo quarto quinto ordine etc...
Quindi si, le reti neurali, alla base dell'AI, sono sicuramente il metodo più efficiente per implementare un algoritmo di fitting (più efficiente significa più FPS).
Ed AMD non usa neanche queste oggi.
Quindi il preoblema.non è solo l'AI, sono tutta una serie di scelte assurde che sono state fatte.
leoneazzurro
07-06-2021, 13:48
Il brevetto a cui fa riferimento l'FSR parla di inference, quindi utilizzerà calcoli di AI. Quello che non fa (per il momento) è utilizzare i motion vectors, come dichiarato da AMD e comunque anche nel brevetto non vi si fa riferimento. Detto ciò, non è detto che revisioni successive non li implementino, o che FSR non possa essere accoppiato ad altri metodi di ricostruzione dell'immagine.
Gigibian
07-06-2021, 13:57
Il brevetto a cui fa riferimento l'FSR parla di inference, quindi utilizzerà calcoli di AI. Quello che non fa (per il momento) è utilizzare i motion vectors, come dichiarato da AMD e comunque anche nel brevetto non vi si fa riferimento. Detto ciò, non è detto che revisioni successive non li implementino, o che FSR non possa essere accoppiato ad altri metodi di ricostruzione dell'immagine.
inference ed AI non sono strettamente correlati.
leoneazzurro
07-06-2021, 14:00
inference ed AI non sono strettamente correlati.
Non si parla certo di inferenza statistica in questo caso. Uno dei campi dell'AI è proprio l'inferenza (determinazione delle conclusioni a partire dai presupposti secondo schemi di deduzione automatizzati basati su machine Learning, i cui passi sono detti appunto inferences).
Il brevetto è citato qui:
https://forums.anandtech.com/threads/amd-gaming-super-resolution-gsr.2593747/
e come si vede si cita l'utilizzo di inferencing in un ambiente "wholly learned". Non solo, ma si fa già riferimento alle reti neurali nell'abstract (ribadendo che un minimo di utilizzo di reti neurali esiste già nelle tecniche di upscaling tradizionali).
Magiczar80
07-06-2021, 14:12
domani viene presentato qualcosa da amd?
ninja750
07-06-2021, 14:33
domani viene presentato qualcosa da amd?
la big compute aka instinct o come la chiameranno
domani viene presentato qualcosa da amd?
le vga pro penso...
Gigibian
07-06-2021, 14:38
Non si parla certo di inferenza statistica in questo caso. Uno dei campi dell'AI è proprio l'inferenza (determinazione delle conclusioni a partire dai presupposti secondo schemi di deduzione automatizzati basati su machine Learning, i cui passi sono detti appunto inferences).
Il brevetto è citato qui:
https://forums.anandtech.com/threads/amd-gaming-super-resolution-gsr.2593747/
e come si vede si cita l'utilizzo di inferencing in un ambiente "wholly learned". Non solo, ma si fa già riferimento alle reti neurali nell'abstract (ribadendo che un minimo di utilizzo di reti neurali esiste già nelle tecniche di upscaling tradizionali).
Su utilizzi l'AI (che è un termine generico, bisognerebbe capire cosa si intende nello specifico) fai sicuramente inferenza, ma per fare inferenza non è indispensabile l'AI.
Quindi il fatto che AMD utilizzi nel brevetto la parola "inference" non è detto che c'entri necessariamente qualcosa con l'AI. e da quello che ho capito è proprio così.
Puoi fare inferenza anche a valle di un fitting ai minimi quadrati. senza "AI", intesa come deep learning basate su NN.
leoneazzurro
07-06-2021, 14:41
Su utilizzi l'AI (che è un termine generico, bisognerebbe capire cosa si intende nello specifico) fai sicuramente inferenza, ma per fare inferenza non è indispensabile l'AI.
Quindi il fatto che AMD utilizzi nel brevetto la parola "inference" non è detto che c'entri necessariamente qualcosa con l'AI. e da quello che ho capito è proprio così.
Puoi fare inferenza anche a valle di un fitting ai minimi quadrati. senza "AI", intesa come deep learning basate su NN.
L'inferenza è uno step dell'AI. Poi ci sono le reti neurali addestrate e i sistemi esperti. L'una senza le altre è piuttosto inutile (e viceversa). Magari vuoi dire che si potrebbe adottare uno schema fisso di risoluzione per fare upscaling e chiamarlo inferenza (ma sarebbe abbastanza una forzatura)... ma come detto, nel brevetto si parla esplicitamente di reti neurali e deep learning già nell'abstract del brevetto, e il sistema presentato parla di sistema istruito.
Anzi, per precisione ci sono proprio gli schemi di risoluzione che parlano di utilizzo di reti neurali deep learning, una lineare e una non lineare, combinate per restituire l'output superscalato:
https://forum.beyond3d.com/attachments/upload_2021-5-20_11-9-52-png.5491/
incorreggiubile
07-06-2021, 14:50
Non serve l'AI. Servono set di informazioni aggiuntive dalle quali inferire il frame finale
Motion vector. Che AMD non usa.
Frame buffers: che AMD non usa.
Dopodiché, è matematicamente dimostrato che le reti neurali linearizzato algoritmi di fitting che altrimenti possono essere complessi e sicuramente non lineari: terzo quarto quinto ordine etc...
Quindi si, le reti neurali, alla base dell'AI, sono sicuramente il metodo più efficiente per implementare un algoritmo di fitting (più efficiente significa più FPS).
Ed AMD non usa neanche queste oggi.
Quindi il preoblema.non è solo l'AI, sono tutta una serie di scelte assurde che sono state fatte.
Esattamente.
incorreggiubile
07-06-2021, 14:53
L'inferenza è uno step dell'AI. Poi ci sono le reti neurali addestrate e i sistemi esperti. L'una senza le altre è piuttosto inutile (e viceversa). Magari vuoi dire che si potrebbe adottare uno schema fisso di risoluzione per fare upscaling e chiamarlo inferenza (ma sarebbe abbastanza una forzatura)... ma come detto, nel brevetto si parla esplicitamente di reti neurali e deep learning già nell'abstract del brevetto, e il sistema presentato parla di sistema istruito.
Esatto, solo che non si riesce a capire come si raccordino le cose.
A meno che (per fare inferenza) Navi sia estremamente efficiente nell'aritmetica ad 8 bit GIA' con le unità pensate per gli shader......a quel punto non serve HW dedicato. Ma potrebbe solo fare inferenza, sicuramente non training.
In B4 al training ci pensano le GPU che verranno presentate a breve.
leoneazzurro
07-06-2021, 14:56
Esatto, solo che non si riesce a capire come si raccordino le cose.
A meno che (per fare inferenza) Navi sia estremamente efficiente nell'artimetica ad 8 bit GIA' con le unità pensate per gli shader......a quel punto non serve HW dedicato. Ma potrebbe solo fare inferenza, sicuramente non training.
In B4 al training ci pensano le GPU che verranno presentate a breve.
RDNA2 ha buone capacità di calcolo INT4-INT8 supportate nelle compute unit. (in realtà un supporto discreto c'era già nelle schede Vega).
Gigibian
07-06-2021, 15:17
L'inferenza è uno step dell'AI. Poi ci sono le reti neurali addestrate e i sistemi esperti. L'una senza le altre è piuttosto inutile (e viceversa). Magari vuoi dire che si potrebbe adottare uno schema fisso di risoluzione per fare upscaling e chiamarlo inferenza (ma sarebbe abbastanza una forzatura)... ma come detto, nel brevetto si parla esplicitamente di reti neurali e deep learning già nell'abstract del brevetto, e il sistema presentato parla di sistema istruito.
Anzi, per precisione ci sono proprio gli schemi di risoluzione che parlano di utilizzo di reti neurali deep learning, una lineare e una non lineare, combinate per restituire l'output superscalato:
https://forum.beyond3d.com/attachments/upload_2021-5-20_11-9-52-png.5491/
L'inferenza è uno step dell'AI come di altri 2000 metodi di stima.
Non è necessaria l'AI per fare inferenza.
ray_hunter
07-06-2021, 16:32
L'inferenza è uno step dell'AI come di altri 2000 metodi di stima.
Non è necessaria l'AI per fare inferenza.
Sono d'accordo con te ma credo anche che sia l'unico modo con cui può essere efficiente fare inferenza.
Per lo meno per l'argomento su cui stiamo discutendo.
Ancora diversi mesi fa si era parlato molto della capacità delle unità RT di Navi di fare calcoli in INT4 e 8 proprio per sfruttare i protocolli previsti da Microsoft sul ML.
Il contraddittorio sta nel fatto che AMD stessa ha dichiarato che probabilmente non avrebbe sfruttato l'AI per il suo FSR
leoneazzurro
07-06-2021, 17:02
L'inferenza è uno step dell'AI come di altri 2000 metodi di stima.
Non è necessaria l'AI per fare inferenza.
Che non sia necessaria l'AI non esclude che l'AI ci sia. E, ripeto, ho linkato un brevetto che dice che verranno usate reti neurali addestrate, ergo, AI.
Ancora diversi mesi fa si era parlato molto della capacità delle unità RT di Navi di fare calcoli in INT4 e 8 proprio per sfruttare i protocolli previsti da Microsoft sul ML.
Il contraddittorio sta nel fatto che AMD stessa ha dichiarato che probabilmente non avrebbe sfruttato l'AI per il suo FSR
Non mi risulta. AMD ha solo dichiarato che il suo metodo sarebbe stato diverso da DLSS ed applicabile a tutte le schede.
ray_hunter
07-06-2021, 17:06
Che non sia necessaria l'AI non esclude che l'AI ci sia. E, ripeto, ho linkato un brevetto che dice che verranno usate reti neurali addestrate, ergo, AI.
Non mi risulta. AMD ha solo dichiarato che il suo metodo sarebbe stato diverso da DLSS ed applicabile a tutte le schede.
https://www.hwupgrade.it/news/skvideo/amd-la-risposta-a-nvidia-dlss-arriva-quest-anno-ma-c-e-ancora-molto-lavoro-da-fare_96319.html
Sembrava far intendere che non avrebbe usato AI anche se parla più specificatamente di ML
leoneazzurro
07-06-2021, 17:09
https://www.hwupgrade.it/news/skvideo/amd-la-risposta-a-nvidia-dlss-arriva-quest-anno-ma-c-e-ancora-molto-lavoro-da-fare_96319.html
Sembrava far intendere che non avrebbe usato AI anche se parla più specificatamente di ML
Il trafiletto seguente:
" Sembra proprio di no, e non solo perché le GPU Nvidia hanno i Tensor core mentre l'architettura RDNA 2 è sprovvista di unità dedicate ai calcoli IA. Userà DirectML di Microsoft come vociferato in passato? Ancora non è chiaro."
E' pura speculazione dell'autore dell'articolo e Herkelman non ha mai detto nulla del genere. Tralaltro, come detto, RDNA2 è in grado di eseguire i calcoli per l'AI nelle unità shader pur non avendo i tensor core (E ad una velocità molto maggiore che non i calcoli FP32/FP16)
Herkelman ha solo detto poi che non é strettamente necessario ML per l'upscaling, e che stavano valutando diverse strade. Però Il brevetto di cui sopra fa esplicito riferimento al ML.
'n c'ho capito 'na sega :stordita:
https://acegif.com/wp-content/uploads/gif-nodding-12.gif
ma quindi noi abbiamo vinto e loro hanno perso? (cit. del migliore)
leoneazzurro
07-06-2021, 18:44
Semplicemente occorre aspettare l'uscita di FSR e alcune implementazioni pratiche prima di trarre conclusioni.
incorreggiubile
07-06-2021, 18:52
In 2 settimane lo tiriamo fuori noi l'algoriMMMMo :asd: :asd: :asd:
Semplicemente occorre aspettare l'uscita di FSR e alcune implementazioni pratiche prima di trarre conclusioni.
e io che pensavo chissà cosa!!!!!
https://64.media.tumblr.com/16cb2b0f0bdba9487927736d9d9d56cc/tumblr_nyyq8d0G7P1rfd7lko1_500.gifv
Gigibian
07-06-2021, 19:00
Che non sia necessaria l'AI non esclude che l'AI ci sia. E, ripeto, ho linkato un brevetto che dice che verranno usate reti neurali addestrate, ergo, AI.
Non mi risulta. AMD ha solo dichiarato che il suo metodo sarebbe stato diverso da DLSS ed applicabile a tutte le schede.
Fai riferimento ad un brevetto del 2019, dove l'unico reference è relativamente al "wholly learned". Come e quando viene fatto il training non è dato sapere.
Inoltre ultimamente dichiarazioni di AMD dicono che non é l'unico modo farlo con l'AI.
Boh, vedremo. Ma non sarei così sicuro che ci sia molta "AI" in mezzo.
leoneazzurro
07-06-2021, 19:25
Il brevetto è stato richiesto nel 2019, ma pubblicato solo a Maggio 2021, e si chiama "Gaming Super Resolution" (ricorda qualcosa?). Un po' come la Infinity Cache, il cui brevetto apparve solo dopo che si cominciò a vociferare della sua esistenza.
Comunque, non è detto che la primissima versione utilizzi AI, ma non è detto nemmeno che non lo faccia. Il modello evidentemente è concepito per essere flessibile e comunque per utilizzare le reti neurali per la decisione dei pesi.
Gigibian
07-06-2021, 20:55
Il brevetto è stato richiesto nel 2019, ma pubblicato solo a Maggio 2021, e si chiama "Gaming Super Resolution" (ricorda qualcosa?). Un po' come la Infinity Cache, il cui brevetto apparve solo dopo che si cominciò a vociferare della sua esistenza.
Comunque, non è detto che la primissima versione utilizzi AI, ma non è detto nemmeno che non lo faccia. Il modello evidentemente è concepito per essere flessibile e comunque per utilizzare le reti neurali per la decisione dei pesi.
Dipende tutto da come ed in che modo si deve fare un training.
Usare delle CNN o delle RNN non è quello che dà il "plus" all'algoritmo: dipende su cosa fai il training. Ovvero l'informazione di base che adesstra le NN.
Come dicevo prima:
Non serve l'AI. Servono set di informazioni aggiuntive dalle quali inferire il frame finale
Motion vector. Che AMD non usa.
Frame buffers: che AMD non usa.
Dopodiché, è matematicamente dimostrato che le reti neurali linearizzato algoritmi di fitting che altrimenti possono essere complessi e sicuramente non lineari: terzo quarto quinto ordine etc...
Quindi si, le reti neurali, alla base dell'AI, sono sicuramente il metodo più efficiente per implementare un algoritmo di fitting (più efficiente significa più FPS).
Ed AMD non usa neanche queste oggi.
Quindi il preoblema.non è solo l'AI, sono tutta una serie di scelte assurde che sono state fatte.
Se non utilizza nessuna delle due informazioni, che tu usi una rete neurale o un polinomio di fitting con dei pesi calcolati con un altri tipo di training, è assolutamente identico, non è che le NN sono "magiche".
Una NN non fa altri che stimare una info "y" definendo dei pesi "p" da applicare ad una informazione che già hai "a". Nel nostro caso "a" sono i pixel di un singolo sub-set del frame (ad esempio un quadrato 4x4 pixel):
y1 = p0+ p1*a1 + p2*a2 + p3*a3 + p4*a4 etc...
se la stima dei vari "p" che producono l'informazione "y" è fatta con poche informazioni, il risultato sarà pessimo.
gli stessi pesi "p" posso essere stimati con una convergenza ai minimi quadrati: che alle volte funziona molto meglio delle NN, ed il polinomio di fitting sarà pressochè identico:
y2 = p0 + p1*a1 + p2*a2 + p3*a3 + p4*a4 etc...
le differenze tra NN ed altri metodo di stima sono due:
- Le informazioni che dai in pasto al training (shit in - shit out)
- Come definisci la convergenza del training: Con i minimi quadrati sei tu a dare dei criteri di convergenza; con le reti neurali le "epoche" di iterazioni portano a convergere il criterio trovando i pesi "corretti".
Tutto ciò spiegato molto velocemente e male, ma solo per sottolineare che le reti neurali è solo un modo un po' più moderno per ottenere un polinomio y=ax+b. Fine. La parte interessante è il training: con quali informazioni viene fatto.
Quindi AMD puo' anche aver usato 45000 layer di reti neurali strafiche, ma se è confermato che usa solo l'informazione del singolo frame, beh, puoi fare ben poco.
incorreggiubile
07-06-2021, 21:06
Ma la NN impara, cioè si "tuna" meglio grazie alla backpropagation e contemporaneamente evitando l'overfitting a cui vanno incontro tipicamente i modelli statistici (regressione lineare) :)
E i pesi così trovati possono essere utili anche in contesti diversi da quello per cui si è effettuato il training.
Gigibian
07-06-2021, 21:13
Ma la NN impara, cioè si "tuna" meglio grazie alla backpropagation e contemporaneamente evitando l'overfitting a cui vanno incontro tipicamente i modelli statistici (regressione lineare) :)
E i pesi così trovati possono essere utili anche in contesti diversi da quello per cui si è effettuato il training.
Beh, molte reti neurali hanno il problema dell'over-training, stessa roba dell'overfitting.
Per evitarlo una tecnica è, ad esempio, togliere i neuroni a manina dopo il primo training e ripetere di nuovo il training.
Come dici tu la rete neurale non fa altro che "TUNARSI" cioè stimare i pesi, fine.
E' sempre più semplice fare il training di una NN, rispetto a definire i criteri di convergenza di stimatori non lineari. Ma non è detto sia sempre più performante ;)
leoneazzurro
07-06-2021, 21:44
Ma la NN impara, cioè si "tuna" meglio grazie alla backpropagation e contemporaneamente evitando l'overfitting a cui vanno incontro tipicamente i modelli statistici (regressione lineare) :)
E i pesi così trovati possono essere utili anche in contesti diversi da quello per cui si è effettuato il training.
E difatti il brevetto prevede persino due reti, una lineare ed una non. Per il problema delle prestazioni, bisogna vedere se effettivamente sono un problema o meno, e come vengono ottimizzate le reti.
Gyammy85
08-06-2021, 09:47
E difatti il brevetto prevede persino due reti, una lineare ed una non. Per il problema delle prestazioni, bisogna vedere se effettivamente sono un problema o meno, e come vengono ottimizzate le reti.
Si ma queste spiegazioni sono inutili, rivolte a chi di vga amd non sa assolutamente nulla, hanno la scheda che "impara, inferisce e distrugge", prima avevano la vga che "riflessava, computava e asfaltava", prima ancora quella che "geometrava, tessellava e piallava", non sono qui per arricchire la discussione ma per essere sicuri di essersi davvero convinti di aver fatto l'acquisto giusto
Gigibian
08-06-2021, 11:09
Si ma queste spiegazioni sono inutili, rivolte a chi di vga amd non sa assolutamente nulla, hanno la scheda che "impara, inferisce e distrugge", prima avevano la vga che "riflessava, computava e asfaltava", prima ancora quella che "geometrava, tessellava e piallava", non sono qui per arricchire la discussione ma per essere sicuri di essersi davvero convinti di aver fatto l'acquisto giusto
Vabbè che non serviva conferma, ma quanto è assurdo sto thread :D
Quando uno parla di bot ed acquisti schede video giustamente vi lamentate perchè non si parla di qualcosa di tecnico o interessante.
Quando invece uno prova a dare una "smossa" al thread co qualche spunto tecnico come questo:
Ma la NN impara, cioè si "tuna" meglio grazie alla backpropagation e contemporaneamente evitando l'overfitting a cui vanno incontro tipicamente i modelli statistici (regressione lineare) :)
E i pesi così trovati possono essere utili anche in contesti diversi da quello per cui si è effettuato il training.
Dipende tutto da come ed in che modo si deve fare un training.
Usare delle CNN o delle RNN non è quello che dà il "plus" all'algoritmo: dipende su cosa fai il training. Ovvero l'informazione di base che adesstra le NN.
Come dicevo prima:
Se non utilizza nessuna delle due informazioni, che tu usi una rete neurale o un polinomio di fitting con dei pesi calcolati con un altri tipo di training, è assolutamente identico, non è che le NN sono "magiche".
Una NN non fa altri che stimare una info "y" definendo dei pesi "p" da applicare ad una informazione che già hai "a". Nel nostro caso "a" sono i pixel di un singolo sub-set del frame (ad esempio un quadrato 4x4 pixel):
y1 = p0+ p1*a1 + p2*a2 + p3*a3 + p4*a4 etc...
se la stima dei vari "p" che producono l'informazione "y" è fatta con poche informazioni, il risultato sarà pessimo.
gli stessi pesi "p" posso essere stimati con una convergenza ai minimi quadrati: che alle volte funziona molto meglio delle NN, ed il polinomio di fitting sarà pressochè identico:
y2 = p0 + p1*a1 + p2*a2 + p3*a3 + p4*a4 etc...
le differenze tra NN ed altri metodo di stima sono due:
- Le informazioni che dai in pasto al training (shit in - shit out)
- Come definisci la convergenza del training: Con i minimi quadrati sei tu a dare dei criteri di convergenza; con le reti neurali le "epoche" di iterazioni portano a convergere il criterio trovando i pesi "corretti".
Tutto ciò spiegato molto velocemente e male, ma solo per sottolineare che le reti neurali è solo un modo un po' più moderno per ottenere un polinomio y=ax+b. Fine. La parte interessante è il training: con quali informazioni viene fatto.
Quindi AMD puo' anche aver usato 45000 layer di reti neurali strafiche, ma se è confermato che usa solo l'informazione del singolo frame, beh, puoi fare ben poco.
Vi lamentate che "queste spiegazioni sono inutili". :asd:
Mamma mia ragazzi. Sconforto.
Invece sono utilissime per chi vuole capire :)
Gyammy85
08-06-2021, 12:02
Vabbè che non serviva conferma, ma quanto è assurdo sto thread :D
Quando uno parla di bot ed acquisti schede video giustamente vi lamentate perchè non si parla di qualcosa di tecnico o interessante.
Quando invece uno prova a dare una "smossa" al thread co qualche spunto tecnico come questo:
Vi lamentate che "queste spiegazioni sono inutili". :asd:
Mamma mia ragazzi. Sconforto.
Invece sono utilissime per chi vuole capire :)
Tutto giusto, ma facciamola prima uscire e poi possiamo scatenarci su quanto siano imbarazzanti, bollare tutto come "banalissimo" non seve alla discussione, tanto più che si è fatta tantissima confusione fra vrs, vsr e via discorrendo
Per quanto mi riguarda, non mi dispiacerebbe affatto avere un boost a parità di qualità dell'immagine o quasi, se poi non è """""""intelligente"""""""" ma sfrutta solo le inutili cu cicciose noiose con inference fatto con direct ml che puzza pazienza
incorreggiubile
08-06-2021, 13:27
Si ma queste spiegazioni sono inutili, rivolte a chi di vga amd non sa assolutamente nulla, hanno la scheda che "impara, inferisce e distrugge", prima avevano la vga che "riflessava, computava e asfaltava", prima ancora quella che "geometrava, tessellava e piallava", non sono qui per arricchire la discussione ma per essere sicuri di essersi davvero convinti di aver fatto l'acquisto giusto
Beh io della mia vecchia Polaris in formato 570 sono felice, in rasterizzazione e DX9 è praticamente imbattibile per i 60 euro pagati (+60 di Borderlands - more BRODOLANDS? :sofico: - 3 insieme a settembre 2019 :D ).
Considerando che ora le VGA le paghi 600 :sofico:
E come ho mostrato con gli screenshot di Crysis 3 non delude manco a 2560x1440.....(vabbè che la tengo con la memoria overclockata di 500 MHz).
Avendo supporto in fullscreen all'integer scaling (diversamente dalla coeva Pascal) e ora FSR non posso che essere cmq soddisfatto di AMD.
600€ è ormai un acconto per una vga nuova :O
ben vengano i vostri discorsi ci mancherebbe, io sono il rompicoglioni delle ultime settimane che non ne poteva più di vedere paginate di isterismi per mancati acquisti, nanio in miniera, bot e compagnia cantante
anche (e soprattutto) quando la discussione è molto al di sopra delle mie conoscenze tenniche :stordita: io sono rimasto alle dx7 :O
ninja750
09-06-2021, 10:49
c'è qualcosa di GRATIS da scaricare giusto per verificare che funzioni il RT? non c'era un benchmark apposito?
c'è qualcosa di GRATIS da scaricare giusto per verificare che funzioni il RT? non c'era un benchmark apposito?
port royale
Gyammy85
09-06-2021, 10:52
c'è qualcosa di GRATIS da scaricare giusto per verificare che funzioni il RT? non c'era un benchmark apposito?
Ci sarebbe port royale, o sempre la solita demo di tomb raider che puoi attivare rt, o fortnite
leoneazzurro
09-06-2021, 11:22
Comunque la scheda professionale W6600 è interessante: singolo slot, 100W e boost a 2900MHz (!). Con 28/32 CU la RX6600XT potrebbe avere tranquillamente prestazioni vicine alla 5700 XT in full HD
Gyammy85
09-06-2021, 11:26
Comunque la scheda professionale W6600 è interessante: singolo slot, 100W e boost a 2900MHz (!). Con 28 CU la 6600 potrebbe avere tranquillamente prestazioni vicine alla 5700 (XT) in full HD
Quello che pensavo anch'io, e considera che la w6800 va comunque più di una 6800, a parità di tbp, quindi sono versioni binnate/migliorate degli stessi chip
La 6600 spaccherebbe il mercato
incorreggiubile
09-06-2021, 11:34
c'è qualcosa di GRATIS da scaricare giusto per verificare che funzioni il RT? non c'era un benchmark apposito?
https://store.steampowered.com/app/1409670/Bright_Memory_Infinite_Ray_Tracing_Benchmark/
https://store.steampowered.com/app/1420640/Boundary_Benchmark/
https://www.geeks3d.com/20210419/nvidia-rtx-tech-demo-the-attic-ray-tracing-unreal-engine/
E ovviamente Q2 RTX (che funziona sulle Radeon, ci sono almeno 2 path di rendering Vulkan oltre a quello specifico per Nvidia)
ninja750
09-06-2021, 11:36
port royale
provo grazie
incorreggiubile
09-06-2021, 11:41
Credo anche questo: https://store.steampowered.com/app/1296010/Stay_in_the_Light/ (sempre Unreal Engine come il demo dell'attico)
incorreggiubile
09-06-2021, 11:42
si ma suppongo ci voglia steam che non ho
!
Scarica il demo dell'attico allora: https://www.geeks3d.com/20210419/nvidia-rtx-tech-demo-the-attic-ray-tracing-unreal-engine/
+
https://www.nvidia.com/en-us/geforce/news/back-stage-luminous-productions-geforce-rtx-2080-ti-ray-tracing-tech-demo/ (a trovare il download :D )
incorreggiubile
09-06-2021, 11:46
Se vuoi qualcosa di più "MA IO CERCO IL VERO RAYTRACING!!!111"
https://github.com/GPSnoopy/RayTracingInVulkan -> https://github.com/GPSnoopy/RayTracingInVulkan/releases
Dovrebbe sfruttare l'accelerazione HW......
ninja750
09-06-2021, 14:17
devo dire che nella lungaggine del mondo vga triventola, la reference non è troppo siffredica se pensate che la mia pulse era tra le polaris più compatte 230mm questa è 267mm
https://i.postimg.cc/VrXg896p/Image1.jpg (https://postimg.cc/VrXg896p)
devo fare ancora molte prove ma le ventole sono più piccole e sembra facciano meno rumore a pari rpm
devo dire che nella lungaggine del mondo vga triventola, la reference non è troppo siffredica se pensate che la mia pulse era tra le polaris più compatte 230mm questa è 267mm
https://i.postimg.cc/VrXg896p/Image1.jpg (https://postimg.cc/VrXg896p)
devo fare ancora molte prove ma le ventole sono più piccole e sembra facciano meno rumore a pari rpm
Le ventole in genere sono molto buone in rapporto rpm/rumore, e sì, rispetto a molte custom la reference è di dimensioni contenute - la mia vecchia 2080 era più grossa :D
Se aggiungessi le Mercxx di XFX in quella foto dovresti usare il grandangolo :asd:
Le migliori reference AMD mai fatte e per giunta "facilmente" acquistabili a MSRP........ :O cioè voglio dire, se ce l'ha fatta raven :O :stordita:
matador_105
09-06-2021, 21:03
ragazzi ho iniziato a giocare a sniper ghost warrior contracts 1, con la 6900xt ho la scheda che ha dei cali di frame allucinanti, e soprattutto lavora al 20% facendo delle laggate paurose. A volte passa da 120 a 40fps in una frazione di secondo. COn gli altri giochi non mi capita, è colpa del gioco male ottimizzato? oppure la scheda video?
ragazzi ho iniziato a giocare a sniper ghost warrior contracts 1, con la 6900xt ho la scheda che ha dei cali di frame allucinanti, e soprattutto lavora al 20% facendo delle laggate paurose. A volte passa da 120 a 40fps in una frazione di secondo. COn gli altri giochi non mi capita, è colpa del gioco male ottimizzato? oppure la scheda video?
Le cose son 2, o si ferma aspettando la cpu, o il risparmio energetico entra troppo - attiva nel profilo del gioco la gestione del clock manuale alzandogli il valore minimo e verifica se fa ancora i cali. Se li fa ancora, allora aspetta la CPU, specie se è DX11 o inferiore.
ray_hunter
10-06-2021, 07:57
ragazzi ho iniziato a giocare a sniper ghost warrior contracts 1, con la 6900xt ho la scheda che ha dei cali di frame allucinanti, e soprattutto lavora al 20% facendo delle laggate paurose. A volte passa da 120 a 40fps in una frazione di secondo. COn gli altri giochi non mi capita, è colpa del gioco male ottimizzato? oppure la scheda video?
Le cose son 2, o si ferma aspettando la cpu, o il risparmio energetico entra troppo - attiva nel profilo del gioco la gestione del clock manuale alzandogli il valore minimo e verifica se fa ancora i cali. Se li fa ancora, allora aspetta la CPU, specie se è DX11 o inferiore.
...oppure è un gioco fatto col Cryengine in DX11 e come tutti i giochi basati su tale motore, compreso Crysis 3 e Homeworld 2, ha questo maledetto problema!
Quando ho visto il trailer di annuncio di Crysis Trilogy remaster ho sbottato dalla contentezza:D :D :D
incorreggiubile
10-06-2021, 08:30
E' ovviamente fatto col CryEngine.
...oppure è un gioco fatto col Cryengine in DX11 e come tutti i giochi basati su tale motore, compreso Crysis 3 e Homeworld 2, ha questo maledetto problema!
Quando ho visto il trailer di annuncio di Crysis Trilogy remaster ho sbottato dalla contentezza:D :D :D
Crysis 3 mai giocato, il 2 lo giocai con soddisfazione con la... spetta va... 4890? Non mi ricordo più, non sono aggiornato sul CryEngine. Comunque è probabile che di frequenza scenda, lo fa "a capocchia" in tantissimi giochi DX11 e inferiori, e bloccandola un po' si mitiga. Perché un conto è fare pochi FPS, un conto è vedere la scheda fermarsi e riprendere con conseguente frame drop eh...
Non è assolutamente ideale ma a 50 fps posso giocare, a 80 con frame drop continui a 20 no.
Gyammy85
10-06-2021, 09:41
Hello 2011
ninja750
10-06-2021, 09:45
essendo appena passato a navi2 anche io dico la mia, considerate la condizione un po' particolare perchè sono 1080p@144hz con un 3700x
ho provato alla veloce i giochi che avevo installato, più red dead 2 che è nuovo e non lo avevo installato prima, vanno tutti direi bene tranne project cars 3 che è un gioco non supportatissimo a livello tecnico (pur se rilasciano patch frequentemente) e soffre di stuttering, non terribile ma si nota spesso nelle curve, cosa che con la rx580 pur con 1/3 degli fps non capitava. ho trovato nei forum americani gente che si lamenta anche con nvidia quindi non è solo un problema amd. uso il vsr interno quindi è come giocare 1440p, gli fps sono sempre sul centinaio e in alcuni momenti plafona al massimo refresh del monitor che adesso è settato 120hz, cpu oscilla tra 18% e 25%
matador_105
10-06-2021, 10:35
Crysis 3 mai giocato, il 2 lo giocai con soddisfazione con la... spetta va... 4890? Non mi ricordo più, non sono aggiornato sul CryEngine. Comunque è probabile che di frequenza scenda, lo fa "a capocchia" in tantissimi giochi DX11 e inferiori, e bloccandola un po' si mitiga. Perché un conto è fare pochi FPS, un conto è vedere la scheda fermarsi e riprendere con conseguente frame drop eh...
Non è assolutamente ideale ma a 50 fps posso giocare, a 80 con frame drop continui a 20 no.Guarda considerando che ho un 5800x non penso sia la CPU il problema. Ho anche impostato il valore minimo di frequenza ma non è cambiato nulla.
Inviato dal mio Redmi Note 8 utilizzando Tapatalk
Gyammy85
10-06-2021, 10:39
Guarda considerando che ho un 5800x non penso sia la CPU il problema. Ho anche impostato il valore minimo di frequenza ma non è cambiato nulla.
Inviato dal mio Redmi Note 8 utilizzando Tapatalk
Quell'engine è buggato dal 2007, e non hanno nessu interesse a cambiarlo perché alla gente sta bene così
matador_105
10-06-2021, 10:40
Per fortuna l'ho pagato 7 euro il gioco, che disinstalleró perché davvero ingiocabile. Qualcuno sa se contracts 2 soffre delle stesso problema?
Inviato dal mio Redmi Note 8 utilizzando Tapatalk
ray_hunter
10-06-2021, 10:55
Quell'engine è buggato dal 2007, e non hanno nessu interesse a cambiarlo perché alla gente sta bene così
Non è il gioco in se o l'engine a essere buggato ma la gestione dell'overhead da parte del driver di AMD, ed è AMD che dovrebbe aggiornare il driver DX11 in funzione di questo problema.
Faccio più fps con la GTX 980 che ho come scheda sostituta che non con la RX 6800XT
E' un vero peccato perché trovo che Crysis 3 visivamente sia ancora al TOP così come alcuni sui derivati tipo Ryse.
Gyammy85
10-06-2021, 11:03
Non è il gioco in se o l'engine a essere buggato ma la gestione dell'overhead da parte del driver di AMD, ed è AMD che dovrebbe aggiornare il driver DX11 in funzione di questo problema.
Faccio più fps con la GTX 980 che ho come scheda sostituta che non con la RX 6800XT
E' un vero peccato perché trovo che Crysis 3 visivamente sia ancora al TOP così come alcuni sui derivati tipo Ryse.
Abbi pazienza ma mi risulta difficile crederlo, ad ogni modo amd non cambia gestione per due giochi di dieci anni fa, semmai è nvidia che dovrebbe cambiare approccio
https://www.youtube.com/watch?v=JLEIJhunaW8
Credo che ci sia ben poco da aggiungere
incorreggiubile
10-06-2021, 11:15
Per fortuna l'ho pagato 7 euro il gioco, che disinstalleró perché davvero ingiocabile. Qualcuno sa se contracts 2 soffre delle stesso problema?
Inviato dal mio Redmi Note 8 utilizzando Tapatalk
Beh ha praticamente lo stesso motore.
Provato magari in borderless?
Crea un file autoexec.cfg (non TXT, CFG) in "gamesdk" con questo contenuto:
i_mouse_smooth = 0
i_mouse_accel = 0
r_HDRGrainAmount = 0
r_Flares = 0
r_FullscreenWindow = 1
Le prime 2 righe disabilitano il filtraggio dell'input del mouse e relativa accelerazione.
Le altre 2 il film grain e i bagliori lenticolari
L'ultima forza il borderless windowed al posto del fullscreen esclusivo. Setta la risoluzione in-game a quella nativa del monitor. Riavvia il gioco (o setta la risoluzione+ NO fullscreen PRIMA di mettere l'autoexec) e non toccare più la parte relativa al Display. Poi dicci :D
incorreggiubile
10-06-2021, 11:17
Non è il gioco in se o l'engine a essere buggato ma la gestione dell'overhead da parte del driver di AMD, ed è AMD che dovrebbe aggiornare il driver DX11 in funzione di questo problema.
E' un vero peccato perché trovo che Crysis 3 visivamente sia ancora al TOP così come alcuni sui derivati tipo Ryse.
Ma dire il vero io non ho alcun problema, sarà che forzo il borderless per evitare rogne di Win10 nella gestione del fullscreen esclusivo (NON è la scelta preferenziale di Win10, è considerato legacy)
RX 570 e gli screenshot con la GPU al massimo li avete visti qualche pagina fa.
incorreggiubile
10-06-2021, 11:22
Quell'engine è buggato dal 2007, e non hanno nessu interesse a cambiarlo perché alla gente sta bene così
E' buggato su Nvidia perchè usa un criterio di gestione dell'associazione risoluzione-refreshrate completamente diverso dagli altri. Cose peggiorata dall'usare magari connessioni HDMI (invece di DVI o DP).
QUINDI ci possono essere problemi in fullscreen esclusivo, tutto qui.
In modalità finestra o borderless (windowed) fullscreen non ci sono problemi.
ray_hunter
10-06-2021, 11:24
Abbi pazienza ma mi risulta difficile crederlo, ad ogni modo amd non cambia gestione per due giochi di dieci anni fa, semmai è nvidia che dovrebbe cambiare approccio
https://www.youtube.com/watch?v=JLEIJhunaW8
Credo che ci sia ben poco da aggiungere
Ma la tua è una considerazione contestualizzata o una crociata?
No perché forse non hai letto bene cosa ho scritto!
Inoltre ti vorrei invitare a leggere la mia firma.
ray_hunter
10-06-2021, 11:31
Ma dire il vero io non ho alcun problema, sarà che forzo il borderless per evitare rogne di Win10 nella gestione del fullscreen esclusivo (NON è la scelta preferenziale di Win10, è considerato legacy)
RX 570 e gli screenshot con la GPU al massimo li avete visti qualche pagina fa.
Con la RX 570 non avrai sicuramente il problema.
Anch'io se forzo in 8K mi trovo la GPU al 100%.
Il problema lo si avverte se hai una GPU sufficientemente potente da generare overhead.
Prova a fare una ricerca su Google, questo problema è dibattuto da anni, ci sono tantissime discussioni anche sul forum AMD.
Qualcuno ha risolto per KCD e altri basati su CryEngine 3 ma non con Crysis 3 e altri... Inoltre il problema avviene solo in alcuni punti del gioco.
https://www.youtube.com/watch?v=6eX6g3fXMUs
Ripeto è un problema arci noto.
Ovviamente forzare il borderless non funziona così come tantissimi altri espedienti che ho provato. Addirittura ho provato a usare una utility che permette di sfruttare la vulkan anziche DX ossia con DXVK.
Nemmeno questo funziona
ray_hunter
10-06-2021, 11:36
Abbi pazienza ma mi risulta difficile crederlo, ad ogni modo amd non cambia gestione per due giochi di dieci anni fa, semmai è nvidia che dovrebbe cambiare approccio
https://www.youtube.com/watch?v=JLEIJhunaW8
Credo che ci sia ben poco da aggiungere
Questa cosa è nota ma si è scoperto successivamente che non è solo un problema di overhead ma anche di tempo di accesso alle memorie che favorisce le AMD in situazioni CPU limited.
In pratica è come se le AMD avessero una accellerazione maggiore di Nvidia e Nvidia avesse una velocità di punta superiore.
Tratti corti vince AMD (casi CPU limited), tratti lunghi vince Nvidia (casi GPU limited). Spero che l'esempio sia comprensibilie.
ninja750
10-06-2021, 12:05
Anch'io se forzo in 8K mi trovo la GPU al 100%.
non può usare virtual super resolution con una risoluzione esagerata appunto tipo 8K?
ray_hunter
10-06-2021, 12:09
non può usare virtual super resolution con una risoluzione esagerata appunto tipo 8K?
In realtà io posso forzare il VSR fino a 5K, non ricordo se si può in 8K.
Cmq Crysis 3 effettivamente lo forzai in 5K e se avevo il 30% di utilizzo della GPU in 5K mi sembrava non scendesse mai sotto il 90%.
Chiaro che dovrebbe essere al 97-99% a prescindere dalla risoluzione.
Cmq sicuramente Crysis 3 remaster risolverà il problema finalmente!!!
In realtà io posso forzare il VSR fino a 5K, non ricordo se si può in 8K.
Cmq Crysis 3 effettivamente lo forzai in 5K e se avevo il 30% di utilizzo della GPU in 5K mi sembrava non scendesse mai sotto il 90%.
Chiaro che dovrebbe essere al 97-99% a prescindere dalla risoluzione.
Cmq sicuramente Crysis 3 remaster risolverà il problema finalmente!!!
io ho provato l'ultimo, mi pare sia l'1, mi veniva da piangere...
Gyammy85
10-06-2021, 12:26
Questa cosa è nota ma si è scoperto successivamente che non è solo un problema di overhead ma anche di tempo di accesso alle memorie che favorisce le AMD in situazioni CPU limited.
In pratica è come se le AMD avessero una accellerazione maggiore di Nvidia e Nvidia avesse una velocità di punta superiore.
Tratti corti vince AMD (casi CPU limited), tratti lunghi vince Nvidia (casi GPU limited). Spero che l'esempio sia comprensibilie.
Insomma, nella prova che fanno a 1440p ultra con wd legion e horizon un 2600x su 6900xt va il 20% in più rispetto alla 3090, col 5600x vanno uguali, non è assimilabile ad un caso di cpu limited, da cosa dipende è un altro discorso ma è un fatto, poi possiamo discutere se sia lecito mettere vga top con vecchie cpu ma tant'è...
AMD ha lo scheduler in hw dal 2012 e le DX11 sono limitate nel gestirlo, nvdia aveva fatto il trucchetto nei driver avendo uno scheduler software (dopo che amd aveva fatto uscire la prima implementazione mantle, che poi porterà a vulkan), cosa che invece è controproducente oggi per nvidia in DX12 su cpu poco potenti, le 5700XT superano le 3090 in certi scenari/giochi,..infatti le prossime avranno guarda caso scheduler hw come amd fa da quasi dieci anni.
non mi aspetto che cambi nulla su titoli di dieci anni da questo punto di vista, non ha senso commercialmente .... ha senso invece sui remastered (che ormai paiono l'unica cosa che sanno fare le software house)
matador_105
10-06-2021, 13:31
Beh ha praticamente lo stesso motore.
Provato magari in borderless?
Crea un file autoexec.cfg (non TXT, CFG) in "gamesdk" con questo contenuto:
i_mouse_smooth = 0
i_mouse_accel = 0
r_HDRGrainAmount = 0
r_Flares = 0
r_FullscreenWindow = 1
Le prime 2 righe disabilitano il filtraggio dell'input del mouse e relativa accelerazione.
Le altre 2 il film grain e i bagliori lenticolari
L'ultima forza il borderless windowed al posto del fullscreen esclusivo. Setta la risoluzione in-game a quella nativa del monitor. Riavvia il gioco (o setta la risoluzione+ NO fullscreen PRIMA di mettere l'autoexec) e non toccare più la parte relativa al Display. Poi dicci :DNon sono molto pratico in questa procedura, non saprei come farla
Inviato dal mio Redmi Note 8 utilizzando Tapatalk
AMD ha lo scheduler in hw dal 2012 e le DX11 sono limitate nel gestirlo, nvdia aveva fatto il trucchetto nei driver avendo uno scheduler software (dopo che amd aveva fatto uscire la prima implementazione mantle, che poi porterà a vulkan), cosa che invece è controproducente oggi per nvidia in DX12 su cpu poco potenti, le 5700XT superano le 3090 in certi scenari/giochi,..infatti le prossime avranno guarda caso scheduler hw come amd fa da quasi dieci anni.
non mi aspetto che cambi nulla su titoli di dieci anni da questo punto di vista, non ha senso commercialmente .... ha senso invece sui remastered (che ormai paiono l'unica cosa che sanno fare le software house)
This.
Infatti è sempre questo il pregio e difetto, in DX11 AMD soffre sempre se il gioco/motore non prevede di andare multithread di suo, e al contrario DX12/Mantle/Vulkan le danno vantaggio visto che non deve fare schedule via software che comunque porta via cicli. Sono 2 diversi approcci e basta, fino alle 5700 e peggio ora con le 6000 lo scheduler hardware limitava fino a un certo punto, ora con schede così potenti è chiaro che "l'idle time" diventa importantissimo. E sì, anche il 5800X non basta, la dimostrazione la hai cambiando risoluzione verso l'alto, farai gli stessi FPS (o di più per assurdo, come capita a me su Assassin's Creed Odyssey o Origin :asd: ).
Non è una cosa che AMD può "fixare" via driver, visto che appunto lo scheduling non avviene via driver. Lo deve fare lo sviluppatore in caso, es. il Frostbite che pur usato in DX11 vola.
incorreggiubile
10-06-2021, 14:15
Con la RX 570 non avrai sicuramente il problema.
Anch'io se forzo in 8K mi trovo la GPU al 100%.
Il problema lo si avverte se hai una GPU sufficientemente potente da generare overhead.
Prova a fare una ricerca su Google, questo problema è dibattuto da anni, ci sono tantissime discussioni anche sul forum AMD.
Qualcuno ha risolto per KCD e altri basati su CryEngine 3 ma non con Crysis 3 e altri... Inoltre il problema avviene solo in alcuni punti del gioco.
https://www.youtube.com/watch?v=6eX6g3fXMUs
Ripeto è un problema arci noto.
Ovviamente forzare il borderless non funziona così come tantissimi altri espedienti che ho provato. Addirittura ho provato a usare una utility che permette di sfruttare la vulkan anziche DX ossia con DXVK.
Nemmeno questo funziona
Provato ReShade "a vuoto" che NON si limita solo a fare un'injection (quella è una semplificazione)?
ray_hunter
10-06-2021, 14:19
Provato ReShade "a vuoto" che NON si limita solo a fare un'injection (quella è una semplificazione)?
Sinceramente non ho provato perché ho letto su reddit che un utente lo aveva provato ma non cambiava nulla.
incorreggiubile
10-06-2021, 14:21
Non sono molto pratico in questa procedura, non saprei come farla
Inviato dal mio Redmi Note 8 utilizzando Tapatalk
Devi creare un file "autoexec.cfg" (di testo ma con estensione cfg e non txt), metterci il testo che ho riportato e ricordarti prima di fare questo di disabilitare dal menu del gioco il fullscreen e settare la risoluzione della finestra a quella nativa del monitor. Questo risolve tutti i problemi del CryEngine legati alla gestione dell'exclusive fullscreen dato che, di fatto, lo disabiliti: in pratica giochi in una finestra senza bordi che occupa tutto il desktop di Windows. Questi problemi si hanno soprattutto con la combinazione Nvidia+monitor connesso via HDMI
Su Windows 10 il lag così introdotto è trascurabile (l'exclusive fullscreen non è più la modalità preferita da Windows dai tempi di Windows 8), soprattutto se vincoli il framerate ad un valore massimo fisso che "dia fiato" al sistema (la frequenza di refresh invece coincide con quella del desktop di Windows, ovviamente, e solitamente giocando così in finestra il tearing è meno avvertibile in quanto c'è già un filtraggio parziale operato dal DWM, il gestore delle finestre di Windows -> tradotto: puoi dimenticarti del Vertical Sync con le problamatiche annesse lasciandolo pertanto disabilitato).
incorreggiubile
10-06-2021, 14:28
This.
Infatti è sempre questo il pregio e difetto, in DX11 AMD soffre sempre se il gioco/motore non prevede di andare multithread di suo, e al contrario DX12/Mantle/Vulkan le danno vantaggio visto che non deve fare schedule via software che comunque porta via cicli. Sono 2 diversi approcci e basta, fino alle 5700 e peggio ora con le 6000 lo scheduler hardware limitava fino a un certo punto, ora con schede così potenti è chiaro che "l'idle time" diventa importantissimo. E sì, anche il 5800X non basta, la dimostrazione la hai cambiando risoluzione verso l'alto, farai gli stessi FPS (o di più per assurdo, come capita a me su Assassin's Creed Odyssey o Origin :asd: ).
Non è una cosa che AMD può "fixare" via driver, visto che appunto lo scheduling non avviene via driver. Lo deve fare lo sviluppatore in caso, es. il Frostbite che pur usato in DX11 vola.
Caso famosissimo è stato Deus Ex Human Revolution con le 2 voci di registro relative che infatti causavano problemi con le GeForce :asd:
"Allow job stealing" e "D3D11_CREATE_DEVICE_PREVENT_INTERNAL_THREADING_OPTIMIZATIONS" :D (quest'ultima da usare per bloccare ogni forma di mulithreading da parte del driver).
ray_hunter
11-06-2021, 08:28
Interessantissimo video del DF dove analizzano UE5
https://www.youtube.com/watch?v=C99VwDGyLg0&t=226s
Di interesse per il thread c'è una bella comparazione tra 6800XT e 3080, ove si vede chiaramente come la scheda rossa è più performante.
Ciò impostando il TSR quindi con risoluzione interna di 1080P.
Fanno anche una comparazione tra nativo e TSR e quest'ultimo sembra avere una resa davvero ottima. Se ci va male con l'FSR abbiamo sembra un'alternativa interessante al DLSS.
Una considerazione sull'implementazione del TSR:
lavorando a risoluzione interna inferiore al 4K si crea un naturale vantaggio per le RX 6000 che per l'appunto grazie ad un overhead inferiore e a tempi di accesso migliori alla memoria traggono un certo beneficio.
Altra considerazione: per quanto il TSR non abbia la stessa qualità della nativa, risulta decisamente efficace. A mio modo di vedere preferisco, e di gran lunga, avere 60fps con un dettaglio elevato come quello della demo e perdere magari qualcosa sulla pulizia dell'immagine usando una tecnica di upscaling.
incorreggiubile
11-06-2021, 10:42
Se l'upscaling fa anche contemporaneamente da TAA è accettabilissimo.
leoneazzurro
11-06-2021, 10:44
Elon Musk ha dimostrato Cyberpunk 2077 che girava.. su una Tesla model S, munita di APU AMD (non dichiarato se Zen 2 o Zen3) e Navi23, a 1080p e -pare- 60 FPS (non mi sembra siano stati divulgati i dettagli).
https://videocardz.com/newz/elon-musk-demos-cyberpunk-2077-on-teslas-new-infotainment-system-powered-by-amd-navi-23-gpu
ninja750
11-06-2021, 10:48
se è più performante ma si vede peggio tantovale, cioè il confronto va fatto pari qualità di immagine
incorreggiubile
11-06-2021, 17:18
se è più performante ma si vede peggio tantovale, cioè il confronto va fatto pari qualità di immagine
Si ma va confrontato col (T)AA attivo, altrimenti è ovvio che ogni forma di upscaling perda (DLSS compreso) in dettaglio, dato che è proprio fisiologico.
Anche l'MSAA (con le sue varianti) non potrà mai competere in "nitidezza dei bordi" con l'immagine a risoluzione nativa e non filtrata.
In più l'MSAA non è poi così esente confrontato con FXAA, SMAA e altri AA ottenuti tramite banale postprocessing - da problemi tecnici legati al rapporto fra campionamento subpixel e depth buffer - un classico esempio di fallimento della tecnica è dato da un oggetto con bordi netti circondato da un fluido.....il fluido è renderizzato sempre per ultimo nella pipeline e quando l'MSAA fa la sua passata, se non si prendono appositi accorgimenti (alcuni estremamente lollosi), campiona subpixel del fluido e dell'oggetto sui bordi creando letteralmente un effetto "vortice" lungo gli stessi dato che tipicamente il fluido è animato vorticosamente.
Gyammy85
11-06-2021, 18:22
Interessantissimo video del DF dove analizzano UE5
https://www.youtube.com/watch?v=C99VwDGyLg0&t=226s
Di interesse per il thread c'è una bella comparazione tra 6800XT e 3080, ove si vede chiaramente come la scheda rossa è più performante.
Ciò impostando il TSR quindi con risoluzione interna di 1080P.
Fanno anche una comparazione tra nativo e TSR e quest'ultimo sembra avere una resa davvero ottima. Se ci va male con l'FSR abbiamo sembra un'alternativa interessante al DLSS.
Una considerazione sull'implementazione del TSR:
lavorando a risoluzione interna inferiore al 4K si crea un naturale vantaggio per le RX 6000 che per l'appunto grazie ad un overhead inferiore e a tempi di accesso migliori alla memoria traggono un certo beneficio.
Altra considerazione: per quanto il TSR non abbia la stessa qualità della nativa, risulta decisamente efficace. A mio modo di vedere preferisco, e di gran lunga, avere 60fps con un dettaglio elevato come quello della demo e perdere magari qualcosa sulla pulizia dell'immagine usando una tecnica di upscaling.
Veramente va di più anche senza tsr
A proposito, ma la 3080 e la 3090 non hanno roboanti 8k e 10k cuda cores? mi ricorda le uba ficiur di vega
mikael84
11-06-2021, 18:41
Veramente va di più anche senza tsr
A proposito, ma la 3080 e la 3090 non hanno roboanti 8k e 10k cuda cores? mi ricorda le uba ficiur di vega
Il 36% medio deve calcolare INT. In game, slavo shader intensive utilizzi rispettivamente 5300/6000cuda.:)
incorreggiubile
11-06-2021, 18:48
slavo shader
Unità shader SLAVA intenta a computare
https://i.pinimg.com/originals/7a/f6/5b/7af65be59ca39a167d27bf4e408ef978.gif
:sofico: :sofico: :sofico: (sì lo so che volevi scrivere "SALVO")
Veramente va di più anche senza tsr
A proposito, ma la 3080 e la 3090 non hanno roboanti 8k e 10k cuda cores? mi ricorda le uba ficiur di vega
Il 36% medio deve calcolare INT. In game, slavo shader intensive utilizzi rispettivamente 5300/6000cuda.:)
Dissi da subito che erano marketing quei conteggi di sp, avbrebbero dovuto mettere “up to” giusto per non confondere la gente :asd:
Navi sono pochi cazzuti con frequenze interstellari vs ampere che è più un bulldozer a basso tiro
mikael84
11-06-2021, 19:19
Unità shader SLAVA intenta a computare
https://i.pinimg.com/originals/7a/f6/5b/7af65be59ca39a167d27bf4e408ef978.gif
:sofico: :sofico: :sofico: (sì lo so che volevi scrivere "SALVO")
:sofico:
Dissi da subito che erano marketing quei conteggi di sp, avbrebbero dovuto mettere “up to” giusto per non confondere la gente :asd:
Navi sono pochi cazzuti con frequenze interstellari vs ampere che è più un bulldozer a basso tiro
Marketing no, perchè in OP. 32, come alcuni pro, usi effettivamente tutti quegli shader, però in altri contesti è ben diverso, tanto che a tutti gli effetti, sembra una marketata.:p
incorreggiubile
11-06-2021, 19:20
https://www.tomshw.it/hardware/amd-fidelityfx-super-resolution-cose/
ninja750
12-06-2021, 18:07
con il caldo che è arrivato (26 in casa per adesso) le temp del PC ovviamente si alzano, alcuni giochi che arrivano a spremere 200w di solo gpu power fanno andare la scheda a 83 di gpu e 103 di hotspot :fagiano: in queste condizioni il clock non si abbassa lo stesso e le ventole girano al massimo a 1500giri circa rimanendo silenziose ma sta situazione non mi piace granché
qual'è il valore massimo di hotspot per navi2? superato il valore X comincerebbe ad andare in throttling e basta? che temp avete in stanza voi adesso?
Ci sono 30 gradi a Torino consiglio a tutti i minatori di mettere le rig al sole:D .
Ho cambiato la pasta termica GPU e CPU. -20 e - 10. Ogni 3 anni va cambiata non è eterna:)
con il caldo che è arrivato (26 in casa per adesso) le temp del PC ovviamente si alzano, alcuni giochi che arrivano a spremere 200w di solo gpu power fanno andare la scheda a 83 di gpu e 103 di hotspot :fagiano: in queste condizioni il clock non si abbassa lo stesso e le ventole girano al massimo a 1500giri circa rimanendo silenziose ma sta situazione non mi piace granché
qual'è il valore massimo di hotspot per navi2? superato il valore X comincerebbe ad andare in throttling e basta? che temp avete in stanza voi adesso?
Da me in camera ci sono 25-26 gradi per ora. La mia (che però non è ref) la tengo comunque un po piu spinta (nulla di eccezionale e a livello di rumore sono sulla evga 1080ti che avevo prima ma preferisco una scheda fresca che inudibile).Sto tra 82-88 di hotspot e 62-65 di temp a seconda del gioco. Se non sbaglio il limite hotspot è 110 per ste schede
con il caldo che è arrivato (26 in casa per adesso) le temp del PC ovviamente si alzano, alcuni giochi che arrivano a spremere 200w di solo gpu power fanno andare la scheda a 83 di gpu e 103 di hotspot :fagiano: in queste condizioni il clock non si abbassa lo stesso e le ventole girano al massimo a 1500giri circa rimanendo silenziose ma sta situazione non mi piace granché
qual'è il valore massimo di hotspot per navi2? superato il valore X comincerebbe ad andare in throttling e basta? che temp avete in stanza voi adesso?
Come dicono anche gli altri, il limite per l'hotspot mi risulta essere di 110 °C per le RX 6xxx.
Quando ero a Milano senza aria condizionata, d'estate sacrificavo qualche fps per avere una scheda (e le mie gambe) a temperature moderate. Ti consiglio di provare con un po' di UV, anche abbassando la frequenza. Puoi anche provare ad alzare leggermente le ventole del case, se hai margine lato rumore.
ninja750
14-06-2021, 08:45
speravo di non dover giocare con l'undervolt con questa nuova scheda visto il dissipatore triventola ma mi sa che è l'unica soluzione, farò alcune prove anche se la base di partenza è già bassissima mi pare 1,025v
diciamo che se dai 200w riuscissi a portarla sui 185w sarebbe un enorme aiuto, igor è riuscito a scendere fino a 930 ma altri ho letto meno fortunati
https://www.igorslab.de/en/amd-rx-6800-overclocking-und-undervolting-von-ueber-240-watt-bis-unter-180-watt-2/2/
le temp qui stanno aumentando di giorno in giorno non manca molto ai 27 gradi nella stanza dove ho il PC :muro: se poi potessi aumentare un po gli RPM senza perdere il fan stop potrei farlo in combinazione con l'uv
L'undervolt è obbligatorio se vuoi tenerla fresca, ho un profilo dedicato al mining che scende a 650mv tramite tool esterno (dovrebbe essere MorePower), il calo di temperature è drastico: almeno 15 gradi in full, sia su core che junction
sniperspa
14-06-2021, 13:52
Più che se vuoi tenerla fresca, è obbligatorio se non vuoi cuocerti tu :D
Inutile farle andare al max, tanto tra giochi non così pesanti e CPU che non ci stanno dietro è comunque difficile sfruttarle al max
ninja750
14-06-2021, 21:12
allora premettendo che oggi la temp in stanza è passata da 26 a quasi 27 :mbe: :help:
ho cominciato l'approccio soft usando l'auto undervolt del pannello radeon che mi ha abbassato anche se di poco il voltaggio da 1,025v a 1,000v precisi
spannometricamente cercando di usare stesso gioco (il più esoso che ho) stesso posto il wattaggio sembra essere sceso di una decina di watt cioè da 205w a 195w, le temp sono scese da 83/103 a 79/95 quindi considerato il grado in più in stanza sembra promettente
ho veramente poco tempo in sti giorni quindi posso fare poche prove, vedrò più avanti se così rimane stabile ecc da provare a scendere ulteriormente
sniperspa
14-06-2021, 21:57
allora premettendo che oggi la temp in stanza è passata da 26 a quasi 27 :mbe: :help:
ho cominciato l'approccio soft usando l'auto undervolt del pannello radeon che mi ha abbassato anche se di poco il voltaggio da 1,025v a 1,000v precisi
spannometricamente cercando di usare stesso gioco (il più esoso che ho) stesso posto il wattaggio sembra essere sceso di una decina di watt cioè da 205w a 195w, le temp sono scese da 83/103 a 79/95 quindi considerato il grado in più in stanza sembra promettente
ho veramente poco tempo in sti giorni quindi posso fare poche prove, vedrò più avanti se così rimane stabile ecc da provare a scendere ulteriormente
Secondo me puoi scendere ancora abbastanza abbassando le frequenze...poi devi valutare a parità di settaggio quanti fps perdi ingame (secondo me molto pochi visto che la gpu dubito sia al limite)
incorreggiubile
15-06-2021, 16:10
Appena (?) uscito :O
https://gravitymark.tellusim.com/
incorreggiubile
15-06-2021, 16:53
Appena (?) uscito :O
https://gravitymark.tellusim.com/
Se volete dei riferimenti per la generazione precedente (GTX 1660 Ti) e quella prima (RX 570) su un quad core (i5 10300H/No HT il primo, i3 8300 il secondo):
D3D12:
https://i.postimg.cc/ZqcfXmx1/D3-D12-GTX-1660-Ti.jpg (https://postimg.cc/hJXb7Hwr)
https://i.postimg.cc/sxZ4fC5f/D3-D12-RX-570.jpg (https://postimg.cc/N2BHbVNZ)
Vulkan:
https://i.postimg.cc/44KDHK5y/VK-GTX-1660-Ti.jpg (https://postimg.cc/HjgZfkF1)
https://i.postimg.cc/s1d9vHJY/VK-RX-570.jpg (https://postimg.cc/p5CnSZ4r)
Se qualcuno con una 5000 o una 6000 vuole postare il suo risultato, io uso questo come setup (e sì, *NON* chiudete la finestra col messaggio relativo al server o il test non si avvia).
Basta il test in Vulkan e D3D12, il resto non può tenere testa causa overhead intrinseco della API.
https://i.postimg.cc/nhVT7gJ2/Untitled.jpg (https://postimages.org/)
Se qualcuno con una 5000 o una 6000 vuole postare il suo risultato, io uso questo come setup (e sì, *NON* chiudete la finestra col messaggio relativo al server o il test non si avvia).
Basta il test in Vulkan e D3D12, il resto non può tenere testa causa overhead intrinseco della API.
Ecco i miei (ho messo la stessa risoluzione che hai usato tu)
VULKAN
https://i.postimg.cc/jjLsFQpX/image.png
D3D12
https://i.postimg.cc/9F6tMJp4/image.png
incorreggiubile
15-06-2021, 17:50
Anche nel tuo caso D3D12 rende meglio come capitato a me con la RX 570.....
(questo è il classico test per analizzare l'overhead dato da una marea di drawcall, ovvero scena dalla geometria ipercomplessa)
Anche nel tuo caso D3D12 rende meglio come capitato a me con la RX 570.....
Pare di si
incorreggiubile
15-06-2021, 18:09
1050 Ti (che va veramente male in D3D12 e si vedono i limiti del sistema dual core + HT dove è installata in D3D12 rispetto a Vulkan)
https://i.postimg.cc/tTVjhD6S/D3-D12-1050-Ti.jpg (https://postimg.cc/7GDd43m0)
https://i.postimg.cc/QdxZ6j5W/VK-1050-Ti.jpg (https://postimg.cc/XphPqSsV)
HadesSaint
16-06-2021, 23:28
vabbe io non c entro nulla pero lo metto..
https://i.postimg.cc/dhRHqmjq/Gravity-Mark-000.png (https://postimg.cc/dhRHqmjq)
https://i.postimg.cc/mcDQ0Qdp/Gravity-Mark-001.png (https://postimg.cc/mcDQ0Qdp)
Non allego screen ora, se mai domani, comunque:
Vulkan
239,6 fps
40.010 score
D3D12
250,4 fps
41.821
direttamente prima (e unica) run con ventole @auto (GPU) e profilo personalizzato silenzioso sul resto (meno di 1000 rpm), nessun OC.
VanCleef
17-06-2021, 09:41
Non allego screen ora, se mai domani, comunque:
Vulkan
239,6 fps
40.010 score
D3D12
25,.4 fps
41.821
sarebbe 250,4 fps?
sarebbe 250,4 fps?
Sì, corretto, grazie.
ninja750
17-06-2021, 09:44
ho provato l'auto undervolt e scoperto che per qualche misterioso motivo ingegneristico AMD mi disabilita lo zero rpm, quindi ho provato per un giorno 1000mv manuali e ieri sera 990mv lasciando attivo lo zero rpm, sembra funzionare. già che c'ero ho dato un centinaio di rpm in più alle ventole
quando ho tempo proverò a scendere a step di 10mv per volta
è possibile rinominare le scritte dell'overlay? tipo quella della ventola in italiano è troppo lunga e mi copre il dato stesso (la uso in orizzontale in alto)
incorreggiubile
17-06-2021, 10:33
ho provato l'auto undervolt e scoperto che per qualche misterioso motivo ingegneristico AMD mi disabilita lo zero rpm, quindi ho provato per un giorno 1000mv manuali e ieri sera 990mv lasciando attivo lo zero rpm, sembra funzionare. già che c'ero ho dato un centinaio di rpm in più alle ventole
quando ho tempo proverò a scendere a step di 10mv per volta
è possibile rinominare le scritte dell'overlay? tipo quella della ventola in italiano è troppo lunga e mi copre il dato stesso (la uso in orizzontale in alto)
Overlay della Radeon Suite? No! Di RTSS/Afterburner? Sì!
RoUge.boh
17-06-2021, 10:40
Forse forse fine anno la situazione potrebbe migliorare:
https://www.reddit.com/r/Amd/comments/o19vxt/gpu_price_trend_chart/
ninja750
17-06-2021, 10:54
Overlay della Radeon Suite? No! Di RTSS/Afterburner? Sì!
perchè devo usare tool esterni quando c'è bello comodo quello amd?
Dark_Lord
17-06-2021, 10:57
Ma avete visto la 6900xt liquid reference, mi sono appena innamorato, è belliffima :fagiano:
(anche se la vega liquid era molto più bella) :asd:
Gyammy85
17-06-2021, 11:44
ho provato l'auto undervolt e scoperto che per qualche misterioso motivo ingegneristico AMD mi disabilita lo zero rpm, quindi ho provato per un giorno 1000mv manuali e ieri sera 990mv lasciando attivo lo zero rpm, sembra funzionare. già che c'ero ho dato un centinaio di rpm in più alle ventole
quando ho tempo proverò a scendere a step di 10mv per volta
è possibile rinominare le scritte dell'overlay? tipo quella della ventola in italiano è troppo lunga e mi copre il dato stesso (la uso in orizzontale in alto)
Non si può fare, al massimo puoi cambiare la lingua dei driver credo, o se no riduci proprio l'overlay
Ma avete visto la 6900xt liquid reference, mi sono appena innamorato, è belliffima :fagiano:
(anche se la vega liquid era molto più bella) :asd:
Non è disponibile ovunque per ora, difatti non compare neanche nels ito ufficiale di amd, solo oem dicevano, più rara che unica insomma
incorreggiubile
17-06-2021, 11:48
perchè devo usare tool esterni quando c'è bello comodo quello amd?
Perchè:
1) ha la flessibilità di una parete di granito
2) non permette il monitoraggio di altre GPU non AMD eventualmente presenti sul sistema
3) si basa sulle API di AMD che se non erro danno una stima diversa per i valori di alcuni parametri da altre API più generiche (e open)
Inoltre l'hooking (il processo di aggancio all'applicazione da monitorare) non è per niente perfetto (ad esempio in borderless windowed fullscreen), quello di RTSS è addirittura customizzabile (puoi decidere tu il livello/modalità di hooking dell'applicazione, così da non avere problemi con essa).
ninja750
17-06-2021, 12:14
Forse forse fine anno la situazione potrebbe migliorare:
https://www.reddit.com/r/Amd/comments/o19vxt/gpu_price_trend_chart/
599€ amazzone tedesca 6700xt merc
AndyTheAngel
17-06-2021, 13:00
Ciao ragazzi!
Finalmente sono riuscito ad aggiudicarmi una 6900 XT, arrivata ieri.
La monto al posto della mia RX 580, accendo, tutto bene. La provo con Shadow of the tomb raider tutto al massimo, e funziona.
Faccio partire il benchmark "Time spy" di 3D Mark, e OGNI volta che arriva ad un certo punto poco dopo l'inizio (dopo che la ragazza vede il mostro gigante fuori dal muro spaccato e comincia a correre in prima persona) si spegne tutto di colpo. Il pc non si riaccende fintanto che non spengo e riaccendo l'interuttore dell'alimentatore.
Ho provato più volte, anche con il benchmark "Port royale" che dovrebbe testare il ray tracing, e succede lo stesso. Si spegne tutto di colpo.
Dai sintomi, sospetto il problema sia l'alimentatore che entra in protezione per qualche picco di voltaggio, ma non sono un esperto (mi sta aiutando anche un amico più esperto di me, ma fino a stasera non posso sentirlo e poi avrei piacere a sapere se altri si sono trovati nella mia stessa situzione)
Confesso anche che per la fretta (era mezzanotte ieri sera) ho collegato entrambi i pin di alimentazione della mia scheda allo stesso cavo di alimentazione, in serie. Stasera provo ad usarne due.
Escludo l'alimentatore non basti, è nuovo ed è un Corsair RM850i, ieri la scheda consumava mediamente 255W.
A parte il tentativo di usare due cavi stasera, avete idee o suggerimenti?
Appena possibile proverò la scheda anche con altri giochi... ma per ora 3DMark niente, mi ammazza il pc
EDIT: specifico che parlo di una 6900 reference AMD
LentapoLenta
17-06-2021, 13:11
Ciao ragazzi!
Finalmente sono riuscito ad aggiudicarmi una 6900 XT, arrivata ieri.
La monto al posto della mia RX 580, accendo, tutto bene. La provo con Shadow of the tomb raider tutto al massimo, e funziona.
Faccio partire il benchmark "Time spy" di 3D Mark, e OGNI volta che arriva ad un certo punto poco dopo l'inizio (dopo che la ragazza vede il mostro gigante fuori dal muro spaccato e comincia a correre in prima persona) si spegne tutto di colpo. Il pc non si riaccende fintanto che non spengo e riaccendo l'interuttore dell'alimentatore.
Ho provato più volte, anche con il benchmark "Port royale" che dovrebbe testare il ray tracing, e succede lo stesso. Si spegne tutto di colpo.
Dai sintomi, sospetto il problema sia l'alimentatore che entra in protezione per qualche picco di voltaggio, ma non sono un esperto (mi sta aiutando anche un amico più esperto di me, ma fino a stasera non posso sentirlo e poi avrei piacere a sapere se altri si sono trovati nella mia stessa situzione)
Confesso anche che per la fretta (era mezzanotte ieri sera) ho collegato entrambi i pin di alimentazione della mia scheda allo stesso cavo di alimentazione, in serie. Stasera provo ad usarne due.
Escludo l'alimentatore non basti, è nuovo ed è un Corsair RM850i, ieri la scheda consumava mediamente 255W.
A parte il tentativo di usare due cavi stasera, avete idee o suggerimenti?
Appena possibile proverò la scheda anche con altri giochi... ma per ora 3DMark niente, mi ammazza il pc
EDIT: specifico che parlo di una 6900 reference AMD
IMHO 100% PSU.
Dattofree
17-06-2021, 13:17
A parte il tentativo di usare due cavi stasera
Quanti ne stavi usando? :fagiano:
A meno che sia cotto quell'ali vedrai che con i due cavi separati dovresti risolvere....timespy è uno degli scenari più intensi lato consumi fra i bench che girano
Ciao ragazzi!
Finalmente sono riuscito ad aggiudicarmi una 6900 XT, arrivata ieri.
La monto al posto della mia RX 580, accendo, tutto bene. La provo con Shadow of the tomb raider tutto al massimo, e funziona.
Faccio partire il benchmark "Time spy" di 3D Mark, e OGNI volta che arriva ad un certo punto poco dopo l'inizio (dopo che la ragazza vede il mostro gigante fuori dal muro spaccato e comincia a correre in prima persona) si spegne tutto di colpo. Il pc non si riaccende fintanto che non spengo e riaccendo l'interuttore dell'alimentatore.
Ho provato più volte, anche con il benchmark "Port royale" che dovrebbe testare il ray tracing, e succede lo stesso. Si spegne tutto di colpo.
Dai sintomi, sospetto il problema sia l'alimentatore che entra in protezione per qualche picco di voltaggio, ma non sono un esperto (mi sta aiutando anche un amico più esperto di me, ma fino a stasera non posso sentirlo e poi avrei piacere a sapere se altri si sono trovati nella mia stessa situzione)
Confesso anche che per la fretta (era mezzanotte ieri sera) ho collegato entrambi i pin di alimentazione della mia scheda allo stesso cavo di alimentazione, in serie. Stasera provo ad usarne due.
Escludo l'alimentatore non basti, è nuovo ed è un Corsair RM850i, ieri la scheda consumava mediamente 255W.
A parte il tentativo di usare due cavi stasera, avete idee o suggerimenti?
Appena possibile proverò la scheda anche con altri giochi... ma per ora 3DMark niente, mi ammazza il pc
EDIT: specifico che parlo di una 6900 reference AMD
Premetto che non ho mai avuto sti problemi e quindi poco esperto, ma per me è l'm utilizzo del cavo unico, che è sempre sconsigliato.
Riprova con due che per me risolvi come han detto altri qui sopra
ninja750
17-06-2021, 14:10
Confesso anche che per la fretta (era mezzanotte ieri sera) ho collegato entrambi i pin di alimentazione della mia scheda allo stesso cavo di alimentazione, in serie. Stasera provo ad usarne due.
Escludo l'alimentatore non basti, è nuovo ed è un Corsair RM850i, ieri la scheda consumava mediamente 255W.
A parte il tentativo di usare due cavi stasera, avete idee o suggerimenti?
Appena possibile proverò la scheda anche con altri giochi... ma per ora 3DMark niente, mi ammazza il pc
EDIT: specifico che parlo di una 6900 reference AMD
usare SEMPRE ma SEMPRE due cavi separati con queste VGA ragazzi
sicuro risolvi usando i due cavi separati
non fate mai daisy chain a meno di avere vga dal consumo molto basso
ps ma sono il solo che non ha installato 3dmark? :fagiano:
Gigibian
17-06-2021, 14:11
Ciao ragazzi!
Finalmente sono riuscito ad aggiudicarmi una 6900 XT, arrivata ieri.
La monto al posto della mia RX 580, accendo, tutto bene. La provo con Shadow of the tomb raider tutto al massimo, e funziona.
Faccio partire il benchmark "Time spy" di 3D Mark, e OGNI volta che arriva ad un certo punto poco dopo l'inizio (dopo che la ragazza vede il mostro gigante fuori dal muro spaccato e comincia a correre in prima persona) si spegne tutto di colpo. Il pc non si riaccende fintanto che non spengo e riaccendo l'interuttore dell'alimentatore.
Ho provato più volte, anche con il benchmark "Port royale" che dovrebbe testare il ray tracing, e succede lo stesso. Si spegne tutto di colpo.
Dai sintomi, sospetto il problema sia l'alimentatore che entra in protezione per qualche picco di voltaggio, ma non sono un esperto (mi sta aiutando anche un amico più esperto di me, ma fino a stasera non posso sentirlo e poi avrei piacere a sapere se altri si sono trovati nella mia stessa situzione)
Confesso anche che per la fretta (era mezzanotte ieri sera) ho collegato entrambi i pin di alimentazione della mia scheda allo stesso cavo di alimentazione, in serie. Stasera provo ad usarne due.
Escludo l'alimentatore non basti, è nuovo ed è un Corsair RM850i, ieri la scheda consumava mediamente 255W.
A parte il tentativo di usare due cavi stasera, avete idee o suggerimenti?
Appena possibile proverò la scheda anche con altri giochi... ma per ora 3DMark niente, mi ammazza il pc
EDIT: specifico che parlo di una 6900 reference AMD
99% è incompatibilità con l'alimentatore.
Devi prenderne uno meno rigoroso con i carichi sulle +12.
Tipo quello che ho io in firma funziona bene con la 6900xt
AndyTheAngel
17-06-2021, 14:49
99% è incompatibilità con l'alimentatore.
Devi prenderne uno meno rigoroso con i carichi sulle +12.
Tipo quello che ho io in firma funziona bene con la 6900xt
Porca vacca spero di no, costava 170€ ed ha tipo 6 mesi.... :muro:
Intanto vedo per il passaggio a due cavi, mi auguro abbiano ragione gli altri dicendo che risolvo così :help:
LentapoLenta
17-06-2021, 15:13
Porca vacca spero di no, costava 170€ ed ha tipo 6 mesi.... :muro:
Intanto vedo per il passaggio a due cavi, mi auguro abbiano ragione gli altri dicendo che risolvo così :help:
Da quello che ho letto in giro, l'uso del cavo singolo sdoppiato produce più che altro instabilità... ma se il pc si spenge di botto, mi sa che proprio non gliela fa a reggere il picco.
Capisco il tuo disappunto, ma Corsair per gli alimentatori non è 'sto granchè (e ne ho uno pure io nel case)... diciamo che per le stesse cifre si trova roba di qualità superiore.
AndyTheAngel
17-06-2021, 15:32
Staremo a vedere, stasera vi aggiorno... :rolleyes: :rolleyes:
Intanto vi pongo un'altra domanda che mi pare non sia stata mai fatta (in caso contrario chiedo scusa): ieri sera ho testato la scheda su Shadow of the tomb raider. A raster ho messo tutto al massimo (qualunque impostazione, effetto, texture, dettaglio ecc) e fin lì tutto ok, con ottime performance.
MA non era attivabile il raytracing. Avevo inteso che il gioco supportasse RT di AMD (sbaglio o era tra i titoli usati per dimostrare le performance della serie 6000?) ma di fatto non era attivabile né dalle impostazioni all'avvio, nè dall'interno del gioco.
Sbaglio qualcosa io, o non supporta RT di AMD?:mbe:
incorreggiubile
17-06-2021, 16:05
Problemi con DX o versione dell'OS ?
Certo che lo supporta, attualmente NON esiste roba "Nvidia only" (nei videogames), è tutto in DXR o equivalente Vulkan.
Pure Quake 2 RTX ha il path vendor-agnostic in Vulkan.
AndyTheAngel
17-06-2021, 16:26
Problemi con DX o versione dell'OS ?
Certo che lo supporta, attualmente NON esiste roba "Nvidia only" (nei videogames), è tutto in DXR o equivalente Vulkan.
Pure Quake 2 RTX ha il path vendor-agnostic in Vulkan.
Mah, era attiva la modalità DX12. La mia installazione del pc è abbastanza pulita, perchè l'ho assemblato a inizio febbraio e lo tengo con abbastanza cura (non maniacale, ma attento)
Inoltre prima del cambio di scheda ho fatto pulizia dei driver con DDU da modalità di ripristino, blocco del download automatico dei driver di windows, spegnimento per installare direttamente la scheda nuova senza avvii intermedi.
Non saprei che altro fare, se non un format (che preferirei evitare XD)
MontegoBay
17-06-2021, 16:27
usare SEMPRE ma SEMPRE due cavi separati con queste VGA ragazzi
sicuro risolvi usando i due cavi separati
non fate mai daisy chain a meno di avere vga dal consumo molto basso
ps ma sono il solo che non ha installato 3dmark? :fagiano:
finalmente ho capito pure io cosa intendevate x daisy chain
anche io ho sempre utilizzato una sola linea sulla psu sulla 6900xt senza ai un problema , test fatti con 3d mark mai un riavvio ma nulla di nulla se non con 1 solo gioco avengers che mi si resettava il tutto ( risolto poi almeno cosi credo con un formattone generale , ma purtroppo non avendo i salvataggi on ho potuto fare una prova nello stesso punto)
ora ho preso anche il 2 cavo e la sto utilizzando su 2 canali di alimentazioni la gpu.
grazie davvero per le info
AndyTheAngel
17-06-2021, 16:31
finalmente ho capito pure io cosa intendevate x daisy chain
anche io ho sempre utilizzato una sola linea sulla psu sulla 6900xt senza ai un problema , test fatti con 3d mark mai un riavvio ma nulla di nulla se non con 1 solo gioco avengers che mi si resettava il tutto ( risolto poi almeno cosi credo con un formattone generale , ma purtroppo non avendo i salvataggi on ho potuto fare una prova nello stesso punto)
ora ho preso anche il 2 cavo e la sto utilizzando su 2 canali di alimentazioni la gpu.
grazie davvero per le info
mi sono già messo nell'idea di fare un formattone generale, se gli interventi hardware e software non dovessero funzionare... ma mi viene male pensando di reinstallare la roba dopo e di rischiare di non backuppure cose :muro:
incorreggiubile
17-06-2021, 16:51
Mah, era attiva la modalità DX12. La mia installazione del pc è abbastanza pulita, perchè l'ho assemblato a inizio febbraio e lo tengo con abbastanza cura (non maniacale, ma attento)
Inoltre prima del cambio di scheda ho fatto pulizia dei driver con DDU da modalità di ripristino, blocco del download automatico dei driver di windows, spegnimento per installare direttamente la scheda nuova senza avvii intermedi.
Non saprei che altro fare, se non un format (che preferirei evitare XD)
Ma la versione di Windows 10 quale ?
AndyTheAngel
17-06-2021, 17:04
Ma la versione di Windows 10 quale ?
Sono in ufficio quindi non posso guardare sul pc ora, ma mi pare che fosse la 20H2. L'ultima che microsoft mi ha permesso di aggiornare a maggio, se non erro (tengo sempre aggiornato l'OS)
A regà, non scherzate sugli alimentatori che non bastano, Corsair 850m con (doppia linea di alimentazione) una R9 290 @1.150 con 320w di picco, asd, come fanno a non reggere schede da 225w?
Inviato dal mio Mi 10 utilizzando Tapatalk
A regà, non scherzate sugli alimentatori che non bastano, Corsair 850m con (doppia linea di alimentazione) una R9 290 @1.150 con 320w di picco, asd, come fanno a non reggere schede da 225w?
Inviato dal mio Mi 10 utilizzando Tapatalk
Le 6900XT sono da 300w con picchi di quasi 470w, il problema è che molti alimentatori hanno sistemi di overcurrent protection ristretti e vedono il picco come pericoloso, spegnendo il computer. Le 3090 hanno picchi addirittura oltre i 570w. Si parla di consumi per 1-2 millisecondi o giù di lì.
AndyTheAngel
18-06-2021, 00:17
Update della serata, se dovesse interessare a qualcuno: usando due cavi separati per alimentarla, funziona che è una meraviglia. Per fortuna :sofico:
Per quanto riguarda il Ray Tracing in tomb raider, confermo che non mi risulta attivabile: allego screenshot delle opzioni iniziali di gioco, dove si vede disabilitata sia la casella ray tracing che la casella HDR.
Per la casella HDR ho scoperto di dover attivare la funzionalità HDR di windows, che però fa ca**re. Se non la attivo su windows, il gioco non la vede. Strano, dato che su altri titoli posso attivare direttamente HDR in game senza passare per le impostazioni schermo di windows... boh.
Invece per ray tracing non ho proprio trovato soluzione, per ora.
https://i.ibb.co/cv9Zq8p/setup-Iniziale-TR.png
Gyammy85
18-06-2021, 06:59
Update della serata, se dovesse interessare a qualcuno: usando due cavi separati per alimentarla, funziona che è una meraviglia. Per fortuna :sofico:
Per quanto riguarda il Ray Tracing in tomb raider, confermo che non mi risulta attivabile: allego screenshot delle opzioni iniziali di gioco, dove si vede disabilitata sia la casella ray tracing che la casella HDR.
Per la casella HDR ho scoperto di dover attivare la funzionalità HDR di windows, che però fa ca**re. Se non la attivo su windows, il gioco non la vede. Strano, dato che su altri titoli posso attivare direttamente HDR in game senza passare per le impostazioni schermo di windows... boh.
Invece per ray tracing non ho proprio trovato soluzione, per ora.
https://i.ibb.co/cv9Zq8p/setup-Iniziale-TR.png
Quello è il dlss, per attivare RT devi andare nel tab grafica
incorreggiubile
18-06-2021, 07:54
Ricordo che in Tombraider giusto le ombre sono in raytracing attivandolo.....né riflessioni né soprattutto illuminazione globale/occlusione ambientale.
Update della serata, se dovesse interessare a qualcuno: usando due cavi separati per alimentarla, funziona che è una meraviglia. Per fortuna :sofico:
Per quanto riguarda il Ray Tracing in tomb raider, confermo che non mi risulta attivabile: allego screenshot delle opzioni iniziali di gioco, dove si vede disabilitata sia la casella ray tracing che la casella HDR.
Per la casella HDR ho scoperto di dover attivare la funzionalità HDR di windows, che però fa ca**re. Se non la attivo su windows, il gioco non la vede. Strano, dato che su altri titoli posso attivare direttamente HDR in game senza passare per le impostazioni schermo di windows... boh.
Invece per ray tracing non ho proprio trovato soluzione, per ora.
https://i.ibb.co/cv9Zq8p/setup-Iniziale-TR.png
Per l'hdr è così per alcuni giochi.
La seconda opzione che hai evidenziato è il dlss, normale che non sia attivabile
ninja750
18-06-2021, 08:56
Update della serata, se dovesse interessare a qualcuno: usando due cavi separati per alimentarla, funziona che è una meraviglia. Per fortuna :sofico:
cvd
ci mancherebbe che non basti un 850w di marca!
Intel-Inside
18-06-2021, 09:43
Adesso per prepararmi al meglio all'arrivo della 6900XT devo studiarmi bene il thread e sperare che il Seasonic GX-750 (modello nuovo) vada bene...
Adesso per prepararmi al meglio all'arrivo della 6900XT devo studiarmi bene il thread e sperare che il Seasonic GX-750 (modello nuovo) vada bene...
Se è di produzione recente dovrebbe andare bene, il mio Seasonic Titanium spegneva in protezione ma era costruito più di 3 anni fa, poi Seasonic ha cambiato qualcosa. Purtroppo non l'ho potuto farmelo cambiare da loro - lo fanno - in quanto la 6900XT richiede ufficialmente un 850w, pur consumando in realtà molto meno in realtà. Voglio dire, già i 750w hanno oltre 60A sulla 12v :D , quindi se non entra la protezione sono più che sufficienti, a meno di sistemi iperovercloccati e "pieni".
Intel-Inside
18-06-2021, 09:54
Se è di produzione recente dovrebbe andare bene, il mio Seasonic Titanium spegneva in protezione ma era costruito più di 3 anni fa, poi Seasonic ha cambiato qualcosa. Purtroppo non l'ho potuto farmelo cambiare da loro - lo fanno - in quanto la 6900XT richiede ufficialmente un 850w, pur consumando in realtà molto meno in realtà. Voglio dire, già i 750w hanno oltre 60A sulla 12v :D , quindi se non entra la protezione sono più che sufficienti, a meno di sistemi iperovercloccati e "pieni".
Ho tutto a default :D per come sono adesso mentro gioco a Cyberpunk (povera GTX1080) sto a circa 300W di assorbimento dell'intero PC (no monitor, o altre periferiche esterne).
AndyTheAngel
18-06-2021, 10:08
Quello è il dlss, per attivare RT devi andare nel tab grafica
Si avevo visto che riferiva "anche" al DLSS, ma per qualche stupido motivo la mia mente pensava attivasse RT insieme :doh:
Ero già andato sul pannello grafica a vedere, ma non avevo notato che era già automaticamente attivo il campo "ombre in raytracing"... ci era switchato da solo dalle ombre normali, e non ci avevo fatto caso. perfetto allora!:ciapet:
io ho un EVGA supernova 850 usero due fili separati spero di non avere problemi
Intel-Inside
18-06-2021, 11:50
Ho chiesto a diversi utenti qui nel thread che ho visto hanno un Ali tipo il mio è mi hanno risposto che non hanno avuto nessun problema.
Nel caso, con quale test posso vedere se l'ali regge? basta giocare un pò a Cyberpunk o bisogna eseguire altri test specifici?
LentapoLenta
18-06-2021, 12:43
Update della serata, se dovesse interessare a qualcuno: usando due cavi separati per alimentarla, funziona che è una meraviglia. Per fortuna :sofico:
[CUT]
Felice di essermi sbagliato! :mano:
LentapoLenta
18-06-2021, 12:44
cvd
ci mancherebbe che non basti un 850w di marca!
Corsair PSU "di marca".... mmmmmmhhhh (e lo dico da possessore eh).
Non producono alimentatori, ma rimarchiano semplicemente... quindi ci sta che qualche modello sia buono e qualcuno no.
Corsair PSU "di marca".... mmmmmmhhhh (e lo dico da possessore eh).
Non producono alimentatori, ma rimarchiano semplicemente... quindi ci sta che qualche modello sia buono e qualcuno no.
Corsair fa produrre a terzi ma progetta direttamente, almeno nelle serie recenti. Ha rimarchiato prodotti eccellenti (es. i vecchi AX *60w erano i Seasonic Platinum), e chiaramente in tutte le serie che fa ha qualità diverse, ad esempio i VS sono semplicemente pessimi.
Ma in generale nelle serie alte sono buoni alimentatori, quindi AX, HX e RM, la TX è buona come qualità-prezzo, e i CX sono alimentatori entry-level che se trovati ai prezzi con cui furono presentati rappresentavano una buona scelta per PC economici. Poi vabbè, ora si trovano a 20 euro di più che in quella fascia è un no deciso.
Ma in generale nelle serie alte sono buoni alimentatori, quindi AX, HX e RM, la TX è buona come qualità-prezzo, e i CX sono alimentatori entry-level che se trovati ai prezzi con cui furono presentati rappresentavano una buona scelta per PC economici. Poi vabbè, ora si trovano a 20 euro di più che in quella fascia è un no deciso.
Nel mio case da 12 anni (DODICI!) c'è un Corsair TX 850W :fagiano:
.... e va ancora alla grande! :p
(adesso mi esploderà, ne sono sicuro...)
LentapoLenta
18-06-2021, 13:38
Corsair fa produrre a terzi ma progetta direttamente, almeno nelle serie recenti. Ha rimarchiato prodotti eccellenti (es. i vecchi AX *60w erano i Seasonic Platinum), e chiaramente in tutte le serie che fa ha qualità diverse, ad esempio i VS sono semplicemente pessimi.
Ma in generale nelle serie alte sono buoni alimentatori, quindi AX, HX e RM, la TX è buona come qualità-prezzo, e i CX sono alimentatori entry-level che se trovati ai prezzi con cui furono presentati rappresentavano una buona scelta per PC economici. Poi vabbè, ora si trovano a 20 euro di più che in quella fascia è un no deciso.
Bene, spero che il mio AX860i resti eccellente nel corso dei prossimi anni nonostante l'età!
incorreggiubile
18-06-2021, 14:05
Nel mio case da 12 anni (DODICI!) c'è un Corsair TX 850W :fagiano:
.... e va ancora alla grande! :p
(adesso mi esploderà, ne sono sicuro...)
Nel mio il Liberty 500 (enermax) comprato per la GTX 260 + Core i3 530 sparato a 4 GHz su H55 (quando ancora si poteva alzare il base clock senza particolari limiti se non quelli dati dalle applicazioni che nel range 166-200 impazzivano perchè i timer di sistema restituivano valori senza senso) :fagiano:
11 anni :O
Ma giusto per sapere, delle 6600 e delle 6500 si sa piu nulla? E' dalle 480 che la fascia media è scomparsa....
ninja750
18-06-2021, 16:47
quella fascia di prezzo sarà coperta da una eventuale 6500XT
l'assenza della 6600XT è proprio strana, la 5700XT venne presentata luglio 2019 mentre 5600XT 6 mesi dopo, 5500XT quasi in contemporanea
per raffronto la 6600XT e 6500XT avrebbero dovuto presentarle lo scorso aprile, e cosa ancor più strana hanno lanciato le PRO esattamente con quel chip il mese scorso quasi come se potessero saltare questa gen causa pandemia e mancanza componenti
sniperspa
18-06-2021, 17:58
Perche mettere in vendita la fascia media quando la gente che fino all'altro ieri spendeva max 300€ di vga ora ne butta 1000 per una 6900? :boh:
Perche mettere in vendita la fascia media quando la gente che fino all'altro ieri spendeva max 300 di vga ora ne butta 1000 per una 6900? :boh:Beh non tutti hanno interesse o la possibilità di buttare 1k su una scheda video. Per quanto mi riguarda io vado avanti con una fascia media per 4/5 anni (ho fatto i salti 4850/660/480) pagandole sui 230/240€. Ma vivo anche tranquillamente senza, nel momento in cui non mi offri più ciò che mi serve in quella fascia di prezzo, per me puoi anche chiudere baracca.
Inviato dal mio Mi A2 Lite utilizzando Tapatalk
Dark_Lord
19-06-2021, 02:01
Perche mettere in vendita la fascia media quando la gente che fino all'altro ieri spendeva max 300€ di vga ora ne butta 1000 per una 6900? :boh:
E pensare che c'è stata un'epoca, decenni fa, in cui con 300€ ti prendevi la top di gamma.
Ora con 300€ ti prendi un rotolo di carta igienica... finito. :asd:
manu89ft
19-06-2021, 09:50
Non ci stanno dietro a farle, non gli conviene fare schede che costano meno se tanto riescono a stra vendere schede più costose. Alla fine la differenza di prezzo sicuramente ci sarà nella costruzione, ma sicuramente gli conviene molto più vendere una 6900XT a 1000€ che una 6500 a 400€.....
Dattofree
19-06-2021, 11:44
E pensare che c'è stata un'epoca, decenni fa, in cui con 300€ ti prendevi la top di gamma.
Ora con 300€ ti prendi un rotolo di carta igienica... finito. :asd:
Anche mio padre comprò la mitica giardinetta pagandola molto meno di 1 milione di lire. Ora con meno di 10 mila euro, ovvero 20 milioni di lire, hai malapena la scocca con il volante. :D
Tutto cambia, tutto aumenta e si adegua alla vita.
Anche mio padre comprò la mitica giardinetta pagandola molto meno di 1 milione di lire. Ora con meno di 10 mila euro, ovvero 20 milioni di lire, hai malapena la scocca con il volante. :D
Tutto cambia, tutto aumenta e si adegua alla vita.
Se mi permetti, l'inflazione ufficiale così come gli stipendi non sono triplicati dalla seconda metà degli anni 2000 ad oggi. La stessa nVidia non proponeva schede sopra gli 800 euro, Titan escluse che hanno un altro uso, fino a 3-4 anni fa ;). La stessa 2080 Ti ufficialmente si fermava a 999 dollari.
Tutto aumenta tranne gli stipendi :asd:
this...
Dark_Lord
19-06-2021, 12:31
Tutto aumenta tranne gli stipendi :asd:
Parla per te :Prrr: :asd: :asd:
Tutto aumenta tranne gli stipendi :asd:
same here since 2001 ( tranne gli 80 euro di renzi ).
Dattofree
19-06-2021, 17:52
Tutto aumenta tranne gli stipendi :asd:
Purtroppo non sono gli stipendi il metro di paragone ma i servizi. Piccolo e ultimo OT. Mio padre agli inizi degli anni 90 aveva in auto il telefono il cui costo era di 5000 mila lire al minuto. Ora con 6 euro hai chiamate illimitate. Per riscaldare casa negli anni 80 avevamo l'impianto a kerosene il cui costo mensile era di 700 mila lire. Adesso la stessa casa si riscalda con una bolletta di metano da 250 euro. Lo stipendio che aumenta o diminuisce al giorno d'oggi non permette di capire il reale costo della vita. Tutti vogliono avere mille abbonamenti dalle pay tv ai telefoni passando per i videogames etc. Questo tipo di costo non esisteva quando gli stipendi degli operai erano in lire la metà di oggi.
Le 6900XT sono da 300w con picchi di quasi 470w, il problema è che molti alimentatori hanno sistemi di overcurrent protection ristretti e vedono il picco come pericoloso, spegnendo il computer. Le 3090 hanno picchi addirittura oltre i 570w. Si parla di consumi per 1-2 millisecondi o giù di lì.
Quando gioco, pur toccando anche 2.6GHz di picco, non supero mai i 190W.
ninja750
19-06-2021, 18:52
nel frattempo 10mv per volta sto cercando di capire fino dove posso scendere con l'undervolt lasciando la frequenza invariata, ad oggi partendo dallo stock 1025mv sono arrivato a 980mv che per una vga del genere è incredibile. per testarlo uso a sere alterne project cars3 e red dead2, non oso immaginare il perf/watt una volta arrivato alla fine che è già il top per qualunque vga in commercio ad oggi
voi avete solo provato OC o anche UV?
ninja750
19-06-2021, 18:53
Quando gioco, pur toccando anche 2.6GHz di picco, non supero mai i 190W.
non ti puoi fidare dell'overlay che dà solo il GPU power e non il totale scheda,tra l'altro stai usando un gioco poco esoso perchè a 190 e oltre ci arrivo io con la liscia di sola gpu power, la 6900XT dovrebbe arrivare a 245w circa da overlay
non ti puoi fidare dell'overlay che dà solo il GPU power e non il totale scheda,tra l'altro stai usando un gioco poco esoso perchè a 190 e oltre ci arrivo io con la liscia di sola gpu power, la 6900XT dovrebbe arrivare a 245w circa da overlay
La mia con i giochi esosi arriva a 289
sniperspa
19-06-2021, 19:42
nel frattempo 10mv per volta sto cercando di capire fino dove posso scendere con l'undervolt lasciando la frequenza invariata, ad oggi partendo dallo stock 1025mv sono arrivato a 980mv che per una vga del genere è incredibile. per testarlo uso a sere alterne project cars3 e red dead2, non oso immaginare il perf/watt una volta arrivato alla fine che è già il top per qualunque vga in commercio ad oggi
voi avete solo provato OC o anche UV?
Detto che credo sia un valore realistico quello che hai raggiunto, hai controllato anche che tenga la frequenza stock ingame nonostante l'UV?
Te lo dico solo perchè si comportano in modo un pò diverso rispetto alle precedente e in particolare alla 580 che avevamo prima
Io la mia la tengo a 1,14 rispetto ai 1,2 stock
Spitfire84
20-06-2021, 13:22
Ragazzi qualcuno di voi gioca ancora a BFV?
Praticamente se faccio oc dal pannello driver, qualsiasi cosa io tocchi manualmente il gioco inizia a fliccare duro.
Praticamente funziona normalmente solo con i preset (rage, default, ecc...).
Ho ritestato il mio profilo oc e funziona perfettamente (2700mhz, 2125 vram, 1.100 vcore) ovunque anche in giochi RT.
Versione driver 21.5.2
Hai alzato anche la frequenza minima?
Dark_Lord
20-06-2021, 13:44
Sisi ma lo fa appena tocco qualcosa, anche se lascio le frequenze stock e abbasso il voltaggio flicca.
L'unica è usare i preset dei driver (rage, default ecc), in quel caso tutto liscio.
Potrebbe essere il monitor?
Detta così sembra un bug del pannello di controllo, mi era capitata una cosa simile con l'overlay AMD, in un determinato gioco, che non ricordo quale, quando aprivo l'overlay iniziava a stutterare a morte :what:
incorreggiubile
20-06-2021, 14:43
Detta così sembra un bug del pannello di controllo, mi era capitata una cosa simile con l'overlay AMD, in un determinato gioco, che non ricordo quale, quando aprivo l'overlay iniziava a stutterare a morte :what:
Succede quando l'hooking è problematico......per questo consiglio Afterburner+RTSS che ha vari livelli di hooking fra cui scegliere.
A volte capita che l'hooking interferisca così tanto con la pipeline di rendering da mandarla in crisi e ritrovarsi il rendering alla PICASSO :asd:
Soprattutto in OpenGL.
Dark_Lord
20-06-2021, 19:24
Succede quando l'hooking è problematico......per questo consiglio Afterburner+RTSS che ha vari livelli di hooking fra cui scegliere.
A volte capita che l'hooking interferisca così tanto con la pipeline di rendering da mandarla in crisi e ritrovarsi il rendering alla PICASSO :asd:
Soprattutto in OpenGL.
Sono talmente a digiuno da smanettamenti vari, che non so neanche cosa sia sto hooking :asd:
è da anni ormai che tengo cpu, ram, e vga a default senza toccare nulla :fagiano:
incorreggiubile
20-06-2021, 19:41
Sono talmente a digiuno da smanettamenti vari, che non so neanche cosa sia sto hooking :asd:
è da anni ormai che tengo cpu, ram, e vga a default senza toccare nulla :fagiano:
https://en.wikipedia.org/wiki/Hooking#Runtime_modification
Spitfire84
20-06-2021, 19:57
Sisi ma lo fa appena tocco qualcosa, anche se lascio le frequenze stock e abbasso il voltaggio flicca.
L'unica è usare i preset dei driver (rage, default ecc), in quel caso tutto liscio.
Potrebbe essere il monitor?
A me con BFV dava problemi se alzavo la frequenza minima. Lasciata a default (500 MHz sulla 6700XT) e i problemi sono spariti. Nel mio caso però erano problemi di stuttering.
Provato a cambiare uscita DisplayPort della scheda video?
Inmotion
21-06-2021, 07:24
Ragazzi qualcuno di voi gioca ancora a BFV?
Praticamente se faccio oc dal pannello driver, qualsiasi cosa io tocchi manualmente il gioco inizia a fliccare duro.
Praticamente funziona normalmente solo con i preset (rage, default, ecc...).
Ho ritestato il mio profilo oc e funziona perfettamente (2700mhz, 2125 vram, 1.100 vcore) ovunque anche in giochi RT.
Versione driver 21.5.2
Con i 21.5.1 lo fa anche a me su wow, tornato ai 21.4.1 tutto ok
incorreggiubile
21-06-2021, 09:03
La cosa ha senso solo se state usando il FreeSync su un monitor "overclockato" (con i timing tirati) di fabbrica.
E non sarebbe cmq flickering ma alternanza fra nero e frame.
Altrimenti la connessione col monitor può c'entrare molto poco.
Cmq provate a disattivare il FreeSync, da un po' è compreso ATTIVO nel profilo "standard" (quindi può causare problemi)
ninja750
21-06-2021, 09:55
Detto che credo sia un valore realistico quello che hai raggiunto, hai controllato anche che tenga la frequenza stock ingame nonostante l'UV?
Te lo dico solo perchè si comportano in modo un pò diverso rispetto alle precedente e in particolare alla 580 che avevamo prima
si le frequenze sono sempre al limite dei 2200 nel mio caso, 2190 circa
hai fatto bene a puntualizzare sicuramente nei prossimi step ci farò molta attenzione
Io la mia la tengo a 1,14 rispetto ai 1,2 stock
hai rinunciato a qualche mhz o sei riuscito a tenere la frequenza stock?
La mia con i giochi esosi arriva a 289
ah ecco :asd: mi ricordavo bene cmq sicuro non 190
Ragazzi qualcuno di voi gioca ancora a BFV?
Praticamente se faccio oc dal pannello driver, qualsiasi cosa io tocchi manualmente il gioco inizia a fliccare duro.
Praticamente funziona normalmente solo con i preset (rage, default, ecc...).
Ho ritestato il mio profilo oc e funziona perfettamente (2700mhz, 2125 vram, 1.100 vcore) ovunque anche in giochi RT.
Versione driver 21.5.2
hai provato a cancellare totalmente il profilo del gioco da pannello radeon? quel gioco leggendo i forum è pieno di bug con le nuove schede amd, ognuno ha trovato una sua soluzione quindi impossibile indirizzare al problema
sicuro al 100% non è il monitor sembrerebbe più un problema di sync, ricordo che consigliavano di spippolare sull'enhanced sync magari prova on off o l'altro settaggio che non ricordo mettere ottimizzato amd
sniperspa
21-06-2021, 12:12
hai rinunciato a qualche mhz o sei riuscito a tenere la frequenza stock?
Ho rinunciato a qualche mhz perchè tanto non avrei comunque sfruttato del tutto la scheda...mentre i consumi si son abbassati sensibilmente
AndyTheAngel
21-06-2021, 16:26
Ciao di nuovo gente!
Ho una curiosità, per capire se anche ad altri capita sta cosa, o se sono solo io che ho sta percezione.
Partiamo da un presupposto: ho una 6900 XT reference e un monitor Samsung Odyssey 32 pollici curvo da 1ms di risposta, frequenza massima 240 Hz e freesync premium pro, entrambi nuovi di pacca.
Prendendo un gioco come Mass Effect Legendary Edition, che di fatto è un gioco vecchio rimasterizzato, con tutto al massimo raggiungo tranquillamente framerate come 150-160 fps. Prendo questo per fare un esempio di gioco dove raggiungo prestazioni di framerate elevatissime, ma il discorso che pongo potete applicarlo anche ad altri titoli.
Il punto è, nonostante le ottime performance del mio costosissimo monitor e della scheda, ho sempre come l'impressione di vedere le immagini "poco fluide", non so se mi spiego. Mi sembra sempre di vedere uno scattoso "effetto scia" come se gli oggetti e i personaggi in movimento apparassero "più volte".
Inizialmente pensavo fosse un problema di Field of view (in molti giochi è "stretto" per calzare bene sulla tv dove si gioca con console, ma su pc è meglio più largo) ma la cosa si è risolta solo parzialmente.
Ora, può essere che sbaglio io qualche impostazione della scheda o del monitor? Il free sync mi dice che scheda e monitor stanno tranquillamente comunicando a 240Hz, e fintanto che è attivo non posso "forzare io" frequenze differenti, quindi dovrei disattivarlo in caso... ma poi se posso andare al massimo a 240 frame, tanto più dovrei godere appieno dei 150-160 che ho con una scena fluida... o no? :mbe:
AndyTheAngel
21-06-2021, 16:26
EDIT: si è postato due volte il messaggio per sbaglio, ma non riesco ad eliminare il secondo >_>
Ciao di nuovo gente!
Ho una curiosità, per capire se anche ad altri capita sta cosa, o se sono solo io che ho sta percezione.
Partiamo da un presupposto: ho una 6900 XT reference e un monitor Samsung Odyssey 32 pollici curvo da 1ms di risposta, frequenza massima 240 Hz e freesync premium pro, entrambi nuovi di pacca.
Prendendo un gioco come Mass Effect Legendary Edition, che di fatto è un gioco vecchio rimasterizzato, con tutto al massimo raggiungo tranquillamente framerate come 150-160 fps. Prendo questo per fare un esempio di gioco dove raggiungo prestazioni di framerate elevatissime, ma il discorso che pongo potete applicarlo anche ad altri titoli.
Il punto è, nonostante le ottime performance del mio costosissimo monitor e della scheda, ho sempre come l'impressione di vedere le immagini "poco fluide", non so se mi spiego. Mi sembra sempre di vedere uno scattoso "effetto scia" come se gli oggetti e i personaggi in movimento apparassero "più volte".
Inizialmente pensavo fosse un problema di Field of view (in molti giochi è "stretto" per calzare bene sulla tv dove si gioca con console, ma su pc è meglio più largo) ma la cosa si è risolta solo parzialmente.
Ora, può essere che sbaglio io qualche impostazione della scheda o del monitor? Il free sync mi dice che scheda e monitor stanno tranquillamente comunicando a 240Hz, e fintanto che è attivo non posso "forzare io" frequenze differenti, quindi dovrei disattivarlo in caso... ma poi se posso andare al massimo a 240 frame, tanto più dovrei godere appieno dei 150-160 che ho con una scena fluida... o no? :mbe:
ninja750
21-06-2021, 16:42
Il punto è, nonostante le ottime performance del mio costosissimo monitor e della scheda, ho sempre come l'impressione di vedere le immagini "poco fluide", non so se mi spiego. Mi sembra sempre di vedere uno scattoso "effetto scia" come se gli oggetti e i personaggi in movimento apparassero "più volte".
credo tu stia descrivendo quello che in gergo è detto Ghosting: se giochi a titoli molto movimentati sarebbe stato meglio se al posto di un VA ti fossi orientato su pannello TN, da questo punto di vista solitamente TN->VA->IPS. non è detto che smanettando nei menu del monitor tu non riesca tramite qualche overdrive a ridurre (magari di molto) il difetto ma la cosa è intrinseca della tecnologia, il VA porta altri vantaggi come contrasti e neri. puoi leggere qui nei forum dedicati diversi approfondimenti in materia
credo tu stia descrivendo quello che in gergo è detto Ghosting: se giochi a titoli molto movimentati sarebbe stato meglio se al posto di un VA ti fossi orientato su pannello TN, da questo punto di vista solitamente TN->VA->IPS. non è detto che smanettando nei menu del monitor tu non riesca tramite qualche overdrive a ridurre (magari di molto) il difetto ma la cosa è intrinseca della tecnologia, il VA porta altri vantaggi come contrasti e neri. puoi leggere qui nei forum dedicati diversi approfondimenti in materia
tn->ips->va :O
Intel-Inside
21-06-2021, 17:51
Ragazzi mi sto preparando all'arrivo della 6900XT... :sperem: che versione di drivers mi consigliate? Ultima Stable o Beta? DDU va bene x pulire i vecchi Nvidia?
Poi ho letto che basta togliere il backplate e si guadagnano gradi preziosi... è vero?
Gyammy85
21-06-2021, 20:09
Ragazzi mi sto preparando all'arrivo della 6900XT... :sperem: che versione di drivers mi consigliate? Ultima Stable o Beta? DDU va bene x pulire i vecchi Nvidia?
Poi ho letto che basta togliere il backplate e si guadagnano gradi preziosi... è vero?
Si meglio usare ddu per pulire i driver di altre marche
Intel-Inside
21-06-2021, 20:13
No :D
Quindi è leggenda metropolitana o scherzavi?
Intel-Inside
21-06-2021, 20:39
capito grazie
Secondo voi domani usciranno nuovi driver? Visto che è il giorno di debutto dell'FSR?
incorreggiubile
21-06-2021, 21:50
Secondo voi domani usciranno nuovi driver? Visto che è il giorno di debutto dell'FSR?
Buona teoria, del resto è fine giugno ergo tempo di driver WHQL.
Sono stati rilasciati i nuovi Driver
Radeon Software Adrenalin 21.6.1 Highlights
Support For
-AMD Radeon™ RX 6800M Graphics
-Dungeons & Dragons: Dark Alliance™
-AMD FidelityFX Super Resolution (FSR) support for select titles.
Fixed Issues
-Radeon FreeSync™ may intermittently become locked while on desktop after performing task switching between extended and primary displays upon closing a game, causing poor performance or stuttering.
-Anno 1800™ may crash upon launching this game when running DirectX®12.
-AMD cleanup utility may clean up chipset/RAID installer related folders/registries from the system.
-Some Radeon Graphics products may experience lower than expected performance in Destiny 2™ when compared to previous Radeon Software versions.
-Upon joining the AMD User Experience Program, the AMD User Experience Program Master service may have higher than expected CPU utilization.
-Enabling Ray Tracing while running Ring of Elysium™ on DirectX®12 may cause this game to crash.
Known Issues
-Resident Evil Village™ may experience an intermittent application hang or TDR on AMD Radeon VII graphics products in the first mission of the game.
-Enhanced Sync may cause a black screen to occur when enabled on some games and system configurations. Any users who may be experiencing issues with Enhanced Sync enabled should disable it as a temporary workaround.
-Connecting two displays with large differences in resolution/refresh rates may cause flickering on Radeon RX Vega series graphics products.
-An Oculus service error may be received on Radeon RX 5000 & 6000 series graphics products which prevents the Oculus Link setup software from running.
-Radeon performance metrics and logging features may intermittently report extremely high and incorrect memory clock values.
-If Ryzen Master is not detected in Adrenalin software after installation, a system restart may be required.
-If Blue or Black screen is observed in mobile systems, temporarily disable Enhanced sign-in
-A driver mismatch error may appear when two versions of Radeon software (Windows Store & AMD Support versions) are installed on your system. As a temporary workaround, launch the Windows Store version of Radeon software.
-AMD is investigating an issue that may cause a small impact to battery life on AMD Ryzen 5000 notebooks.
-A Blue or Black screen may be observed after updating to the latest Radeon Software. A workaround is to disable core isolation.
-AMD is investigating a D3 error code that may be seen in some motherboard after updating to the latest Radeon Software.
-Lower than expected performance may be observed on select AMD Athlon™ mobile systems.
Gigibian
22-06-2021, 08:46
Sono stati rilasciati i nuovi Driver
Radeon Software Adrenalin 21.6.1 Highlights
Support For
-AMD Radeon™ RX 6800M Graphics
-Dungeons & Dragons: Dark Alliance™
-AMD FidelityFX Super Resolution (FSR) support for select titles.
Fixed Issues
-Radeon FreeSync™ may intermittently become locked while on desktop after performing task switching between extended and primary displays upon closing a game, causing poor performance or stuttering.
-Anno 1800™ may crash upon launching this game when running DirectX®12.
-AMD cleanup utility may clean up chipset/RAID installer related folders/registries from the system.
-Some Radeon Graphics products may experience lower than expected performance in Destiny 2™ when compared to previous Radeon Software versions.
-Upon joining the AMD User Experience Program, the AMD User Experience Program Master service may have higher than expected CPU utilization.
-Enabling Ray Tracing while running Ring of Elysium™ on DirectX®12 may cause this game to crash.
Known Issues
-Resident Evil Village™ may experience an intermittent application hang or TDR on AMD Radeon VII graphics products in the first mission of the game.
-Enhanced Sync may cause a black screen to occur when enabled on some games and system configurations. Any users who may be experiencing issues with Enhanced Sync enabled should disable it as a temporary workaround.
-Connecting two displays with large differences in resolution/refresh rates may cause flickering on Radeon RX Vega series graphics products.
-An Oculus service error may be received on Radeon RX 5000 & 6000 series graphics products which prevents the Oculus Link setup software from running.
-Radeon performance metrics and logging features may intermittently report extremely high and incorrect memory clock values.
-If Ryzen Master is not detected in Adrenalin software after installation, a system restart may be required.
-If Blue or Black screen is observed in mobile systems, temporarily disable Enhanced sign-in
-A driver mismatch error may appear when two versions of Radeon software (Windows Store & AMD Support versions) are installed on your system. As a temporary workaround, launch the Windows Store version of Radeon software.
-AMD is investigating an issue that may cause a small impact to battery life on AMD Ryzen 5000 notebooks.
-A Blue or Black screen may be observed after updating to the latest Radeon Software. A workaround is to disable core isolation.
-AMD is investigating a D3 error code that may be seen in some motherboard after updating to the latest Radeon Software.
-Lower than expected performance may be observed on select AMD Athlon™ mobile systems.
Si.
Senza una lista ufficiale dei giochi supportati.
Senza un gioco che abbia fornito una Patch per FSR.
Hai l'FSR, ma non hai l'FSR.
Sito ufficiale di AMD: "Clikka qui per vedere l'elenco dei giochi supportati! Click -> il nulla cosmico."
Ah ecco pensavo di essere cieco io ma la lista non c'è veramente. :D
ray_hunter
22-06-2021, 09:00
Speriamo ALMENO, di vedere delle recensioni per capire come si comporta.
Le RX6000 con RT attivo, spt per chi ha monitor 4k ne necessita davvero.
Stasera alle 23:30 dovrebbe esserci una live Q&A di AMD, spero che esca qualche approfondimento prima di quell'ora!
leoneazzurro
22-06-2021, 09:02
La lista non c'è perché FSR deve essere abilitato anche all'interno del game, il che richiede una patch per i giochi già usciti. Quando lo sviluppatore dei giochi farà uscire la patch ci sarà anche il supporto.
(si, potevano scrivere "upcoming" e mettere una lista di giochi, immagino che però poi qualcuno sarebbe andato in confusione aspettandosi di abilitare FSR senza patch con conseguente protesta di massa verso il supporto tecnico AMD)-.
Gigibian
22-06-2021, 09:20
La lista non c'è perché FSR deve essere abilitato anche all'interno del game, il che richiede una patch per i giochi già usciti. Quando lo sviluppatore dei giochi farà uscire la patch ci sarà anche il supporto.
(si, potevano scrivere "upcoming" e mettere una lista di giochi, immagino che però poi qualcuno sarebbe andato in confusione aspettandosi di abilitare FSR senza patch con conseguente protesta di massa verso il supporto tecnico AMD)-.
Il discorso è che avevano annunciato (ovviamente altrimenti non avrebbe senso) patch e lista giochi il 22 insieme ai nuovi driver.
I driver sono usciti, ma la lista giochi e patch per gli stessi no.
Aspettiamo fino a stasera, altrimenti grosso fail di AMD.
leoneazzurro
22-06-2021, 09:36
Il discorso è che avevano annunciato (ovviamente altrimenti non avrebbe senso) patch e lista giochi il 22 insieme ai nuovi driver.
I driver sono usciti, ma la lista giochi e patch per gli stessi no.
Aspettiamo fino a stasera, altrimenti grosso fail di AMD.
AMD non aveva annunciato nulla. Le liste erano venute fuori tramite un leaker.
No vabbè, esce il driver e nessuno ha rilasciato uno o due giorni prima le patch :mc:
Poi guardi qua e vedi come si lavora...
https://www.hwupgrade.it/news/skvideo/nvidia-dlss-arriva-su-rust-lego-builder-s-journey-e-guarda-al-mondo-linux_98663.html
AMD ha tanto da imparare.
leoneazzurro
22-06-2021, 09:43
Voglio dire, non è che il FSR sia stato nemmeno "lanciato" - ci sarà una conferenza AMD a riguardo, per forza. Per ora è stato reso disponibile il driver, credo che entro stasera vedremo anche la conferenze con spiegazione della tecnologia e/o prestazioni e altri annunci.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.