View Full Version : [Thread Ufficiale] nVidia AD102-AD103 (RTX 4090 - 4080/Super - 4070Ti Super)
Chissà se questi driver eliminano i miei artifacts in Resident evil4 remake quando ho il ray tracing attivo
Ma voi quando installate i nuovi driver disinstallate e reinstallate afterburner?
no
micronauta1981
11-04-2023, 18:53
Come immaginavo davanti alla scalinata della casa dj V faccio 95 fps in 4k quality + FG. I 60 solo tu li vedi
Faccio i 60 in quel punto con dlss bilance 6k + FG....ma che dici?non è lì .anche basta dai ..nel tuo PC va meglio!vabene?😂😂😂
Cutter90
11-04-2023, 19:14
ma che dici?non è lì .anche basta dai ..nel tuo PC va meglio!vabene?😂😂😂
Si esatto, direi basta.
Ora proviamo questo path tracing :D
Personalmente si.
no
Quindi meglio si o no?
Cutter90
11-04-2023, 19:27
Quindi meglio si o no?
Non serve a nulla disinstallare Ab ogni volta
DJurassic
11-04-2023, 19:47
4K ultra e Overdrive attivo. DLSS 3 Quality. Direi che hanno fatto un ottimo lavoro, non era scontato ne ci contavo più del dovuto.
https://i.ibb.co/gMHLv0j/XXX.png
A 3440x1440 ultra, path tracing attivo e dlss 3 quality.
Non male neanche per la 4080
https://i.ibb.co/sH0Hyf6/Untitled.jpg (https://ibb.co/PQ7QwL9)
micronauta1981
11-04-2023, 22:01
Fatto il benchmark a 4587x1920,alla fine è come 4k,faccio 64 fps..come fate a farne 78??io sono in dldsr perché il.mio.monitor è 3440x1440 .. sarà per quello??
micronauta1981
11-04-2023, 22:05
@3440x1440 ne faccio 105..cmq ho il campo visivo al massimo,anche voi l 'avete al.massimo?
Madara76
11-04-2023, 22:06
A me invece crasha appena lancio il benchmark, accade anche a scheda con settaggi di fabbrica.
Inviato dal mio XQ-CT72 utilizzando Tapatalk
DJurassic
11-04-2023, 22:13
Fatto il benchmark a 4587x1920,alla fine è come 4k,faccio 64 fps..come fate a farne 78??io sono in dldsr perché il.mio.monitor è 3440x1440 .. sarà per quello??
Sono 8.807.040 pixels di partenza contro i 8.294.400 del 4K, già questo può significare una bella differenza. Specie in Overdrive attivo dove il numero di pixels assume un valore ancora più marcato quando si parla di prestazioni.
micronauta1981
11-04-2023, 22:15
Anche giocando sto sui 60 fps,sembra vada tutto a rallentatore,nonostante i 60 fps 😒😒
Cutter90
11-04-2023, 22:17
Con la Liquid X a briglia sciolta ho migliorato
https://i.ibb.co/6Z7qtJp/Cyberpunk-2077-Screenshot-2023-04-11-23-10-04-91.png (https://ibb.co/X4rG5kd)
Cutter90
11-04-2023, 22:18
Sono 8.807.040 pixels di partenza contro i 8.294.400 del 4K, già questo può significare una bella differenza. Specie in Overdrive attivo dove il numero di pixels assume un valore ancora più marcato quando si parla di prestazioni.
Ho provato con il dldsr. Pesantissimo il 6k qui. Solo con dlss prf si arriva ai 60. Non ne vale la pena
amon.akira
11-04-2023, 22:24
Ho provato con il dldsr. Pesantissimo il 6k qui. Solo con dlss prf si arriva ai 60. Non ne vale la pena
eh no, giusto giusto ci stai a 4k dlss quality che sono 1440p, a 3240p in performance arrivi a 1620p che cmq è leggermente superiore quindi avrai sicuramente qualche calo magari nelle scene piu pesanti
micronauta1981
11-04-2023, 23:00
Io a 60 fps,ho un lag pauroso..pare di essere a 30 fps..per me è il dlss3..a voi non da fastidio?
micronauta1981
11-04-2023, 23:19
Fatto varie prove,se mettevo la risoluzione impostata su dldsr @2.25 nel desktop e in gioco andavo a 1.78 avevo un lag assurdo .ho capito che mettendo la stessa risoluzione in gioco e nel desktop va molto meglio
amon.akira
11-04-2023, 23:21
Io a 60 fps,ho un lag pauroso..pare di essere a 30 fps..per me è il dlss3..a voi non da fastidio?
disattiva il framegen e metti dlss performance, dovresti avere gli stessi fps vs quality+fg e poter fare un confronto nella latenza.
Io a 60 fps,ho un lag pauroso..pare di essere a 30 fps..per me è il dlss3..a voi non da fastidio?
No, nemmeno mi accorgo della differenza, io tengo 4k FG e DLSS Quality tutto il resto max, il range che ho visto è dai 70 ai 110 FPS per ora e sono a Waston.
Tra l'altro la GPU ho visto che tira dai 500w in su fino a 590,5w in compenso la CPU è strepitosa, max 55w :D, il 10900k ne tirava almeno 120w.
micronauta1981
12-04-2023, 07:22
No, nemmeno mi accorgo della differenza, io tengo 4k FG e DLSS Quality tutto il resto max, il range che ho visto è dai 70 ai 110 FPS per ora e sono a Waston.
Tra l'altro la GPU ho visto che tira dai 500w in su fino a 590,5w in compenso la CPU è strepitosa, max 55w :D, il 10900k ne tirava almeno 120w.
No poi ho scritto il perché..ora va bene..io sto a 4587x1920 in dldsr FG dlss quality,sulle scale dell'appartamento di v sto a 67 fps circa..se metto bilanciato sto a 90..proviamo tutti in quel punto e vediamo le differenze a sto punto..dopo provo a ritornare nei punti che dicevo ieri..
Madara76
12-04-2023, 07:56
No, nemmeno mi accorgo della differenza, io tengo 4k FG e DLSS Quality tutto il resto max, il range che ho visto è dai 70 ai 110 FPS per ora e sono a Waston.
Tra l'altro la GPU ho visto che tira dai 500w in su fino a 590,5w in compenso la CPU è strepitosa, max 55w :D, il 10900k ne tirava almeno 120w.Io non vedo né questi fps né questo consumo... Quale setting mi può limitare così tanto?
Inviato dal mio XQ-CT72 utilizzando Tapatalk
Io non vedo né questi fps né questo consumo... Quale setting mi può limitare così tanto?
Inviato dal mio XQ-CT72 utilizzando Tapatalk
Per il consumo sei limitato dalla CPU che non sfrutta completamente la GPU al contrario del 13900k del buon Kiwivda :D :D :D
micronauta1981
12-04-2023, 09:29
Come si fa a registrare nei video anche l overlay di GeForce experience..sono stato a settare tutto ho fatto un paio di video,ma poi nel video che ho caricato su YouTube l'overlay è nascosto non trovo l'impostazione.qualcuno sa dove è?cmq ho 70 ms di latenza,mi sembra tanto..un certo ritardo cmq lo noto mentre gioco..se gioco a the last of us per esempio(hanno sistemato finalmente il mouse),ok che faccio più fps(120) ma sto a 8ms di latenza...la differenza si sente eccome
micronauta1981
12-04-2023, 12:27
Cmq è tanta tantissima roba...speriamo che la gente inizi a capire che il raytracing applicato correttamente aumenta in modo esponenziale il realismo..sentire ancora persone che dicono "il raytracing non serve a niente" fa raccapponare la pelle..
hellkitchen
12-04-2023, 12:35
Cmq è tanta tantissima roba...speriamo che la gente inizi a capire che il raytracing applicato correttamente aumenta in modo esponenziale il realismo..sentire ancora persone che dicono "il raytracing non serve a niente" fa raccapponare la pelle..
Tutto vero: ma a volte si esagera sugli effetti per far vedere le differenze.. basti vedere le strade di vetro di CP 2077 😂
Inviato dal mio iPhone utilizzando Tapatalk
Madara76
12-04-2023, 12:49
Per il consumo sei limitato dalla CPU che non sfrutta completamente la GPU al contrario del 13900k del buon Kiwivda :D :D :DDa un lato meglio così, posso stare sereno. Dall'altro inizia a farsi sentire una certa scimmia...
Inviato dal mio XQ-CT72 utilizzando Tapatalk
DJurassic
12-04-2023, 13:03
Tutto vero: ma a volte si esagera sugli effetti per far vedere le differenze.. basti vedere le strade di vetro di CP 2077
Inviato dal mio iPhone utilizzando Tapatalk
Sono le pozzanghere a essere troppo riflettenti, non le strade. Quello con le strade a specchio è NFS (e GTAV moddato) :D
A Night City la maggior parte degli asfalti sono l'esatto opposto.
https://live.staticflickr.com/65535/52811097430_04977f14d7_k.jpg ('https://live.staticflickr.com/65535/52811097430_232c062824_o.png')https://live.staticflickr.com/65535/52810709901_2e02f48a07_k.jpg ('https://live.staticflickr.com/65535/52810709901_e6d62354e3_o.png')https://live.staticflickr.com/65535/52811261963_ba10b4846b_k.jpg ('https://live.staticflickr.com/65535/52811261963_7fdd870179_o.png')https://live.staticflickr.com/65535/52810693811_81ebfab89a_k.jpg ('https://live.staticflickr.com/65535/52810693811_3fffd29e08_o.png')https://live.staticflickr.com/65535/52810904164_9f108b7bdd_k.jpg ('https://live.staticflickr.com/65535/52810904164_9d3b73498c_o.png')
Cmq è tanta tantissima roba...speriamo che la gente inizi a capire che il raytracing applicato correttamente aumenta in modo esponenziale il realismo..sentire ancora persone che dicono "il raytracing non serve a niente" fa raccapponare la pelle..
Non esageriamo. I giochi sono soprattutto divertimento. Non è possibile dover spendere una barcata di soldi per vedere determinati effetti di luci. Rientrano per fortuna in una fascia molto limitata di utenti. Il resto del mondo vorrebbe solo divertirsi senza rimetterci un rene.
hellkitchen
12-04-2023, 13:45
Sono le pozzanghere a essere troppo riflettenti, non le strade. Quello con le strade a specchio è NFS (e GTAV moddato) :D
A Night City la maggior parte degli asfalti sono l'esatto opposto.
https://live.staticflickr.com/65535/52811097430_04977f14d7_k.jpg ('https://live.staticflickr.com/65535/52811097430_232c062824_o.png')https://live.staticflickr.com/65535/52810709901_2e02f48a07_k.jpg ('https://live.staticflickr.com/65535/52810709901_e6d62354e3_o.png')https://live.staticflickr.com/65535/52811261963_ba10b4846b_k.jpg ('https://live.staticflickr.com/65535/52811261963_7fdd870179_o.png')https://live.staticflickr.com/65535/52810693811_81ebfab89a_k.jpg ('https://live.staticflickr.com/65535/52810693811_3fffd29e08_o.png')https://live.staticflickr.com/65535/52810904164_9f108b7bdd_k.jpg ('https://live.staticflickr.com/65535/52810904164_9d3b73498c_o.png')
Questi screen sono davvero tanta roba
Inviato dal mio iPhone utilizzando Tapatalk
Da un lato meglio così, posso stare sereno. Dall'altro inizia a farsi sentire una certa scimmia...
Inviato dal mio XQ-CT72 utilizzando Tapatalk
Guarda, ti posso dire che ho visto una differenza importante quando ho sostituito il 12900k (che ho tenuto pochissimo) con il 13900k, figurati tu che differenza vedresti. Dovresti però cambiare completamente piattaforma con un investimento importante e non so se valga la pena.
Cutter90
12-04-2023, 13:56
Non esageriamo. I giochi sono soprattutto divertimento. Non è possibile dover spendere una barcata di soldi per vedere determinati effetti di luci. Rientrano per fortuna in una fascia molto limitata di utenti. Il resto del mondo vorrebbe solo divertirsi senza rimetterci un rene.
Ehm... guarda che la modalità path tracing mica è obbligatoria. Se ci giochi senza rt non spendi nessun rene per giocare a cp 2077....
Madara76
12-04-2023, 14:09
Guarda, ti posso dire che ho visto una differenza importante quando ho sostituito il 12900k (che ho tenuto pochissimo) con il 13900k, figurati tu che differenza vedresti. Dovresti però cambiare completamente piattaforma con un investimento importante e non so se valga la pena.Eh sì, magari aspetto i nuovi chipset, penso sia più saggio... Poi vediamo se resisto...
Inviato dal mio XQ-CT72 utilizzando Tapatalk
Non so dove avevo letto che poteva creare casini coi driver visto che afterburner si interfaccia con essi e giustamente quando disinstalli i driver prima di reinstallarli c'è un gap, questo almeno in teoria ,ma effettivamente basterebbe disabilitare l'avvio automatico all'avvio di windows e poi reinserirlo dopo aver installato i driver, o magari è una mia paranoia
davide155
12-04-2023, 16:21
Guarda, ti posso dire che ho visto una differenza importante quando ho sostituito il 12900k (che ho tenuto pochissimo) con il 13900k, figurati tu che differenza vedresti. Dovresti però cambiare completamente piattaforma con un investimento importante e non so se valga la pena.Come hai fatto a vedere differenze tra 13900k e 12900k, se si attestano nell'ordine del 2% alla risoluzione che giochi tu?
https://uploads.tapatalk-cdn.com/20230412/b803dd73d23057dbd6277bfc403deeec.jpg
micronauta1981
12-04-2023, 16:21
Non esageriamo. I giochi sono soprattutto divertimento. Non è possibile dover spendere una barcata di soldi per vedere determinati effetti di luci. Rientrano per fortuna in una fascia molto limitata di utenti. Il resto del mondo vorrebbe solo divertirsi senza rimetterci un rene.nessuno ti vieta di giocarlo a dettagli bassi,se tu pensi che il divertimento sia solo il gameplay ..io voglio il massimo possibile anche graficamente,e il raytracing è una delle poche tecnologie in grado di migliorare la qualità in modo esponenziale..
Cutter90
12-04-2023, 16:24
Come hai fatto a vedere differenze tra 13900k e 12900k, se si attestano nell'ordine del 2% alla risoluzione che giochi tu?
https://uploads.tapatalk-cdn.com/20230412/b803dd73d23057dbd6277bfc403deeec.jpg
Quel grafico è molto "bugiardo". Ho appurato che l'impatto della cpu dipende tantissimo da gioco a gioco e da come è programmato. Si va da, il mio fa uguale ai 13900k a, ci sono 20 fps di differenza in 4k.....
micronauta1981
12-04-2023, 16:26
1500€ per l'iPhone li avete,invece i soldi per le schede video sono buttati..mi viene da ridere...
Eddie666
12-04-2023, 17:40
Fatti un paio di giri anche io: il primo con il mio daily in undervolt (2520 mhz), mentre il secondo con la GPU a 2820 mhz
https://i.ibb.co/4jgJjBK/2520mhz.jpg (https://ibb.co/4jgJjBK) https://i.ibb.co/KyZnRtN/2820mhz.jpg (https://ibb.co/KyZnRtN)
Come hai fatto a vedere differenze tra 13900k e 12900k, se si attestano nell'ordine del 2% alla risoluzione che giochi tu?
https://uploads.tapatalk-cdn.com/20230412/b803dd73d23057dbd6277bfc403deeec.jpg
Si parlava di sfruttamento della 4090 e di consumo e tra le due CPU c'è comunque una bella differenza in favore ovviamente del 13900k
davide155
12-04-2023, 18:34
Quel grafico è molto "bugiardo". Ho appurato che l'impatto della cpu dipende tantissimo da gioco a gioco e da come è programmato. Si va da, il mio fa uguale ai 13900k a, ci sono 20 fps di differenza in 4k.....
La differenza c'è ma tra una vecchia generazione e raptor. Quello si. Non alder vs raptor, come sostiene invece Salfox. Soprattutto ad alte risoluzioni. Con entrambe le cpu a default, la differenza è attorno al 2%.
Si parlava di sfruttamento della 4090 e di consumo e tra le due CPU c'è comunque una bella differenza in favore ovviamente del 13900k
In 4k è pressoché inesistente.
In 2k un pò c'è ma nulla da poter affermare di vedere tale differenza ingame. Soprattutto se tu sei solito limitare il pl al 50% della tua 4090 :D
Ricordiamoci che l'artichettutra dei core è la medesima, tranne per il voltaggio e le frequenze leggermente più alte in raptor. Stop.
La differenza c'è ma tra una vecchia generazione e raptor. Quello si. Non alder vs raptor, come sostiene invece Salfox. Soprattutto ad alte risoluzioni. Con entrambe le cpu a default, la differenza è attorno al 2%.
In 4k è pressoché inesistente.
In 2k un pò c'è ma nulla da poter affermare di vedere tale differenza ingame. Soprattutto se tu sei solito limitare il pl al 50% della tua 4090 :D
Ricordiamoci che l'artichettutra dei core è la medesima, tranne per il voltaggio e le frequenze leggermente più alte in raptor. Stop.
Io lo dico sempre, io mi baso sulla mia esperienza diretta e ti assicuro che è così, ormai le prove che vedo su internet non le guardo più perchè quasi sempre non mi ci ritrovo. Poi ognuno è libero di rimanere nelle sue convinzioni. Comunque anche se teoricamente l'architettura è la stessa il passaggio tra 12900k e 13900k è stato un salto notevolissimo in tutto, consumi medi, sfruttamento della GPU, sfruttamento delle Ram di sistema con un controller decisamente più prestante, insomma il cambio lo rifarei subito anche spendendo di più dei 100 euro di differenza che ci ho rimesso.
scorpion73
12-04-2023, 19:08
La differenza c'è ma tra una vecchia generazione e raptor. Quello si. Non alder vs raptor, come sostiene invece Salfox. Soprattutto ad alte risoluzioni. Con entrambe le cpu a default, la differenza è attorno al 2%.
In 4k è pressoché inesistente.
In 2k un pò c'è ma nulla da poter affermare di vedere tale differenza ingame. Soprattutto se tu sei solito limitare il pl al 50% della tua 4090 :D
Ricordiamoci che l'artichettutra dei core è la medesima, tranne per il voltaggio e le frequenze leggermente più alte in raptor. Stop.
Forse sui minimi le differenze si vedono un pochino di più per via anche del fatto che ha il doppio o quasi della cache, che sui minimi fa il suo sporco lavoro.
Ma per il resto è assolutamente come hai detto tu.
Magari qualche differenza in più la vedremo col refresh, se implementeranno il DLVR e useranno cache ben più ampie in modo da farlo diventare una specie di concorrente del X3D di AMD su questo fronte.
micronauta1981
12-04-2023, 19:14
Posso impostare 3840x2160 per fare il bench?senza fare troppi sbatti intendo
Io lo dico sempre, io mi baso sulla mia esperienza diretta e ti assicuro che è così, ormai le prove che vedo su internet non le guardo più perchè quasi sempre non mi ci ritrovo. Poi ognuno è libero di rimanere nelle sue convinzioni. Comunque anche se teoricamente l'architettura è la stessa il passaggio tra 12900k e 13900k è stato un salto notevolissimo in tutto, consumi medi, sfruttamento della GPU, sfruttamento delle Ram di sistema con un controller decisamente più prestante, insomma il cambio lo rifarei subito anche spendendo di più dei 100 euro di differenza che ci ho rimesso.
Che monitor usi?
davide155
12-04-2023, 20:23
Forse sui minimi le differenze si vedono un pochino di più per via anche del fatto che ha il doppio o quasi della cache, che sui minimi fa il suo sporco lavoro.
Ma per il resto è assolutamente come hai detto tu.
Magari qualche differenza in più la vedremo col refresh, se implementeranno il DLVR e useranno cache ben più ampie in modo da farlo diventare una specie di concorrente del X3D di AMD su questo fronte.Qua un video test abbastanza recente con la 4090 e le due cpu in questione.
Come si può vedere la risoluzione usata è la 1080p e la differenza è comunque attorno al 10%. Ma chi è che usa un monitor 1080p nel 2023 con 2mila euro di gpu?
In 1440p la differenza si assottiglia al 2%. In 4k il risultato è praticamente identico. Forse nei minimi qualcosa si guadagna grazie appunto alla cache più grande e ad una frequenza di boost poco più alta, ma nulla di realmente apprezzabile all'occhio umano.
https://youtu.be/67_bb1hDwIUChe monitor usi?Usa la risoluzione 1440p.
Qua un video test abbastanza recente con la 4090 e le due cpu in questione.
Come si può vedere la risoluzione usata è la 1080p e la differenza è comunque attorno al 10%. Ma chi è che usa un monitor 1080p nel 2023 con 2mila euro di gpu?
In 1440p la differenza si assottiglia al 2%. In 4k il risultato è praticamente identico. Forse nei minimi qualcosa si guadagna grazie appunto alla cache più grande e ad una frequenza di boost poco più alta, ma nulla di realmente apprezzabile all'occhio umano.
https://youtu.be/67_bb1hDwIUUsa la risoluzione 1440p.
C'è qualcosa che non mi torna nel video: ma veramente il 12900K ed il 13900K in Flight Simulator a 1080p con dettagli ultra e con una 4090 fanno 60 e 65 fps con questo monomotore? In una ambientazione simile?
https://youtu.be/67_bb1hDwIU?t=228
davide155
12-04-2023, 21:31
C'è qualcosa che non mi torna nel video: ma veramente il 12900K ed il 13900K in Flight Simulator a 1080p con dettagli ultra e con una 4090 fanno 60 e 65 fps con questo monomotore? In una ambientazione simile?
https://youtu.be/67_bb1hDwIU?t=228
Dipende dal tipo di gioco, dal motore grafico, da come sfrutta le risorse.
Dipende da molti fattori.
Ma l'architettura dei pcore è la medesima per entrambe le cpu, quindi se il gioco non riesce a sfruttare a pieno la cache maggiorata e la frequenza in più del 13900k, ecco che i risultati, seppur in 1080 sono pressoché simili.
Le istruzioni per ciclo di clock per ogni core sempre quelle sono. Ripeto, la differenza si attesta in pochi punti percentuali in 1440p, e rasenta l'1% in 4k.
Dipende dal tipo di gioco, dal motore grafico, da come sfrutta le risorse.
Dipende da molti fattori.
Ma l'architettura dei pcore è la medesima per entrambe le cpu, quindi se il gioco non riesce a sfruttare a pieno la cache maggiorata e la frequenza in più del 13900k, ecco che i risultati, seppur in 1080 sono pressoché simili.
Sinceramente mi aspettavo parecchio di più. In quelle condizioni un qualsiasi X3D va il doppio.
https://www.youtube.com/watch?v=G2ZL4DJblbA
Madara76
12-04-2023, 21:43
Io , con la configurazione in firma, i 110 fps di kiwivda non li ho mai visti in cyberpunk. Potreste fare una prova a reconciliation park ? Sud ovest dell'arasaka tower, il giardino zen con il monaco tibetano per intenderci, li ho toccato i 42 fps come minimi.
DJurassic
12-04-2023, 22:15
C'è qualcosa che non mi torna nel video: ma veramente il 12900K ed il 13900K in Flight Simulator a 1080p con dettagli ultra e con una 4090 fanno 60 e 65 fps con questo monomotore? In una ambientazione simile?
https://youtu.be/67_bb1hDwIU?t=228
Ne faccio più io in 6K maxato con DLSS 3 su Quality sorvolando Bruxelles a bordo di un F16 :asd:
Qui ero ancora con il 5900X tra l'altro, segno che il FG sgravia di tantissimo il carico sulla CPU e permette alla scheda di dare sfogo alla sua potenza.
https://www.youtube.com/watch?v=07AWPCEfPcU
davide155
12-04-2023, 22:16
Sinceramente mi aspettavo parecchio di più. In quelle condizioni un qualsiasi X3D va il doppio.
https://www.youtube.com/watch?v=G2ZL4DJblbAhttps://youtu.be/7Zk4ChNYQgA
Guardando un 7800x3d vs 13900k la differenza a 1080 è del 9% circa in favore del processore amd in flight simulator.
Sembra che quel gioco sfrutti meglio l'architettura amd.
Il tuo caso non può esser preso a paragone perché ci sono tante variabili in gioco tra cui le varie patch uscite tra la tua versione e la sua, il daytime diverso, la quantità di oggetti a schermo diversa ecc.
h.rorschach
12-04-2023, 22:18
Sembra che quel gioco sfrutti meglio l'architettura amd..
Nah, solo la 3D cache
DJurassic
12-04-2023, 22:22
Questi screen sono davvero tanta roba
Ho letto solo ora il tuo feedback. Grazie. :)
https://youtu.be/7Zk4ChNYQgA
Guardando un 7800x3d vs 13900k la differenza a 1080 è del 9% circa in favore del processore amd in flight simulator.
Sembra che quel gioco sfrutti meglio l'architettura amd.
Il tuo caso non può esser preso a paragone perché ci sono tante variabili in gioco tra cui le varie patch uscite tra la tua versione e la sua, il daytime diverso, la quantità di oggetti a schermo diversa ecc.
Guarda il video che ho messo sopra. Con una CPU che vale la metà di quella attuale già avevo risultati eccellenti, segno che farlo girare a 1080p è più uno stress test che altro ed è evidente che soffra sia la GPU che la CPU. Ora che hanno messo il dlss 3 in Flight Simulator non utilizzarlo è da pazzi. Il gioco ora "vola" davvero :asd:
davide155
12-04-2023, 22:34
Ho letto solo ora il tuo feedback. Grazie. :)
Guarda il video che ho messo sopra. Con una CPU che vale la metà di quella attuale già avevo risultati eccellenti, segno che farlo girare a 1080p è più uno stress test che altro ed è evidente che soffra sia la GPU che la CPU. Ora che hanno messo il dlss 3 in Flight Simulator non utilizzarlo è da pazzi. Il gioco ora "vola" davvero :asd:No beh lui ha postato un video molto simile a quello del canale YouTube dove lui fa il doppio degli fps a pari risoluzione rispetto al video del tubo. Stessa gpu ma un 5800x3d vs 13900k.
Sicuramente c'è qualche patch di differenza con migliorie varie oppure qualche impostazione che ci sfugge. La differenza non è così marcata. E non lo è neanche nel video che ho postato ora con un 7800x3d. Quindi figuriamoci con un 5800x3d.
Qui ero ancora con il 5900X tra l'altro.
Che CPU hai adesso ?
DJurassic
12-04-2023, 22:58
Che CPU hai adesso ?
13900KF
Pero' se il gioco sfrutta molto la cpu "last of us" la differenza si vede tra 12900k e 13900k, tralasciando il fatto che sia poco ottimizzato ciò non toglie che si puo' usare come benchmark:
https://gamegpu.com/action-/-fps-/-tps/the-last-of-us-part-i-v-1-0-2-test-gpu-cpu
139fps di media rispetto a 114fps a favore del 13900k
Non ci lamentiamo delle nostre rtx4090 quando vengono sfruttate bene con RT la differenza si nota e valgono i soldi che abbiamo investito :D
In cyberpunk con rt overdrive a 4k con dlss e framegeneration fa 74fps e la rossa con fsr non supera gli 11fps.
https://gamegpu.com/action-/-fps-/-tps/cyberpunk-2077-test-ray-tracing-overdrive
No beh lui ha postato un video molto simile a quello del canale YouTube dove lui fa il doppio degli fps a pari risoluzione rispetto al video del tubo. Stessa gpu ma un 5800x3d vs 13900k.
Sicuramente c'è qualche patch di differenza con migliorie varie oppure qualche impostazione che ci sfugge. La differenza non è così marcata. E non lo è neanche nel video che ho postato ora con un 7800x3d. Quindi figuriamoci con un 5800x3d.
E infatti, secondo le ultime recensioni e visto che quel video ha solo un mese di pubblicazione sul Tubo e quindi non c'è patch o "magia" che tenga, mi aspetterei ORA di fare circa 10fps in meno del 7800X3D e 5fps in più del 13900K...a parità di condizioni di test. Quel video dove le 2 CPU Intel sono "piombate" con la 4090 ed oltretutto non si distanziano prestazionalmente tra di loro in maniera corretta, fa sembrare tutto un fake.
https://i.postimg.cc/v4k8p52W/Immagine-2023-04-13-000301.png (https://postimg.cc/v4k8p52W)
davide155
13-04-2023, 04:32
Pero' se il gioco sfrutta molto la cpu "last of us" la differenza si vede tra 12900k e 13900k, tralasciando il fatto che sia poco ottimizzato ciò non toglie che si puo' usare come benchmark:
https://gamegpu.com/action-/-fps-/-tps/the-last-of-us-part-i-v-1-0-2-test-gpu-cpu
139fps di media rispetto a 114fps a favore del 13900k
Non ci lamentiamo delle nostre rtx4090 quando vengono sfruttate bene con RT la differenza si nota e valgono i soldi che abbiamo investito :D
In cyberpunk con rt overdrive a 4k con dlss e framegeneration fa 74fps e la rossa con fsr non supera gli 11fps.
https://gamegpu.com/action-/-fps-/-tps/cyberpunk-2077-test-ray-tracing-overdriveVero, ma tlou è un po' particolare perché si appoggia sulla cpu per lo streaming continuo delle textures, una cosa che quasi nessun altro gioco fa, o almeno non così pesantemente.
E poi stiamo parlando sempre di 1080p con una 4090.
In 4k il discorso cambia totalmente.E infatti, secondo le ultime recensioni e visto che quel video ha solo un mese di pubblicazione sul Tubo e quindi non c'è patch o "magia" che tenga, mi aspetterei ORA di fare circa 10fps in meno del 7800X3D e 5fps in più del 13900K...a parità di condizioni di test. Quel video dove le 2 CPU Intel sono "piombate" con la 4090 ed oltretutto non si distanziano prestazionalmente tra di loro in maniera corretta, fa sembrare tutto un fake.
https://i.postimg.cc/v4k8p52W/Immagine-2023-04-13-000301.png (https://postimg.cc/v4k8p52W)Il video è stato messo sul tubo 1 mese fa ma potrebbero aver usato un test di mesi fa, di quando sono usciti i 13900k. I risultati sembrano simili ai test che hanno su quel canale di quando sono usciti i raptor lake.
Non li prenderei come base di differenza rispetto al tuo perché cambia troppe cose e non sappiamo cosa, ma prenderei come modello semplicemente i numeri tra di loro in quel video.
Vero, ma tlou è un po' particolare perché si appoggia sulla cpu per lo streaming continuo delle textures, una cosa che quasi nessun altro gioco fa, o almeno non così pesantemente.
E poi stiamo parlando sempre di 1080p con una 4090.
In 4k il discorso cambia totalmente.Il video è stato messo sul tubo 1 mese fa ma potrebbero aver usato un test di mesi fa, di quando sono usciti i 13900k. I risultati sembrano simili ai test che hanno su quel canale di quando sono usciti i raptor lake.
Non li prenderei come base di differenza rispetto al tuo perché cambia troppe cose e non sappiamo cosa, ma prenderei come modello semplicemente i numeri tra di loro in quel video.
i 3d della AMD sono delle bestie assurde
con 100W tirano fuori prestazioni incredibili, e sono freddissimi rispetto ai nuovi
Cutter90
13-04-2023, 08:42
Cmq il dldsr su F.I.S.T. non funziona. Ne in finestra ne schermo intero. La massima Res è 4k purtroppo. Tra l'altro mi stuttera un pelo soprattutto ad ogni area nuova. Suppongo sia il solito stutter da unreal engine 4
micronauta1981
13-04-2023, 13:13
Con l overlay di GeForce experience un anima pia che mi dice quanto ha di "latenza del sistema" @4k dlss3 e dlss qualità.per me ho troppa latenza..sto sui 70 ms..
sertopica
13-04-2023, 13:38
Nuovi driver out, versione 531.61, con supporto alla 4070: https://www.guru3d.com/news-story/nvidia-geforce-531-61-whql-driver-fixes-for-assassins-creed-originsthe-last-of-us-part-1and-hogwarts-legacy.html
Release notes: https://us.download.nvidia.com/Windows/531.61/531.61-win11-win10-release-notes.pdf
Fixed Issues
[Assassin’s Creed Origins] Game may have stability issues when using 531.18. [4008770]
[The Last of Us Part 1] Game may randomly crash during gameplay on GeForce RTX 30 series GPUs [4031676]
[Hogwarts Legacy] [Regression] Black Screen/Hang on Launch at Shader Compilation Screen using Driver 531.18 [4012825]
Open Issues
Toggling HDR on and off in-game causes game stability issues when non-native resolution is used. [3624030]
Monitor may briefly flicker on waking from display sleep if DSR/DLDSR is enabled. [3592260]
[Halo Wars 2] In-game foliage is larger than normal and displays constant flickering [3888343]
[GeForce RTX 4090] Watch Dogs 2 may display flickering when staring at the sky [3858016]
Increase in DPC latency observed in Latencymon [3952556]
Applying GeForce Experience Freestyle filters cause games to crash [4008945]
bagnino89
13-04-2023, 14:40
Nuovi driver out, versione 531.61, con supporto alla 4070: https://www.guru3d.com/news-story/nvidia-geforce-531-61-whql-driver-fixes-for-assassins-creed-originsthe-last-of-us-part-1and-hogwarts-legacy.html
Release notes: https://us.download.nvidia.com/Windows/531.61/531.61-win11-win10-release-notes.pdf
Increase in DPC latency observed in Latencymon
Ma questa roba quando diamine la fixeranno?
h.rorschach
13-04-2023, 14:51
Increase in DPC latency observed in Latencymon
Ma questa roba quando diamine la fixeranno?
Sta lì da anni no?
sertopica
13-04-2023, 14:52
Increase in DPC latency observed in Latencymon
Ma questa roba quando diamine la fixeranno?
A quanto pare mai. :D
Qui la lista aggiornata delle fixed ed open issues, che sono molte di piu'. Consiglio di dare sempre un'occhiata al thread ufficiale dedicato perche' potrebbero spuntare nuovi problemi di cui non si era a conoscenza al momento dell'uscita.
Link: https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/516798/geforce-grd-53161-feedback-thread-released-41323/
Fixed Issues in this Release:
[Assassin’s Creed Origins] Game may have stability issues when using 531.18. [4008770]
[The Last of Us Part 1] Game may randomly crash during gameplay on GeForce RTX 30 series GPUs [4031676]
[Hogwarts Legacy] [Regression] Black Screen/Hang on Launch at Shader Compilation Screen using Driver 531.18 [4012825]
Open Issues:
Toggling HDR on and off in-game causes game stability issues when non-native resolution is used. [3624030]
Monitor may briefly flicker on waking from display sleep if DSR/DLDSR is enabled. [3592260]
[Halo Wars 2] In-game foliage is larger than normal and displays constant flickering [3888343]
[GeForce RTX 4090] Watch Dogs 2 may display flickering when staring at the sky [3858016]
Increase in DPC latency observed in Latencymon [3952556]
Applying GeForce Experience Freestyle filters cause games to crash [4008945]
Event Viewer logs nvlddmkm error at the end of the OCCT video ram test when memory is full [4049182]
Small checkerboard like pattern may randomly appear in Chromium based applications [3992875]
[Surface Book/Surface Studio] Dedicated GPU stuck at lowest clock speed when notebook is running off of battery [4063597]
After updating to R530 drivers, certain GeForce RTX 40 series notebook models may randomly experience a TDR/black screen [4024853]
[Solidworks] Models may not render properly when "Enhanced Graphics Performance" is enabled from the application settings [4050712]
Madara76
13-04-2023, 15:35
Con l overlay di GeForce experience un anima pia che mi dice quanto ha di "latenza del sistema" @4k dlss3 e dlss qualità.per me ho troppa latenza..sto sui 70 ms..
A me varia dai 55 ai 70 e passa. Uso una tv se può essere d'aiuto.
micronauta1981
13-04-2023, 15:52
Allora mi sa che è normale..come mai secondo voi è così alto??
Cutter90
13-04-2023, 16:51
Allora mi sa che è normale..come mai secondo voi è così alto??
Normalmente quant è? Sui 20?
Madara76
13-04-2023, 17:18
Con i nuovi driver noto un miglioramento negli fps su cyberpunk. Continua invece a crashare non appena seleziono il benchmark.
Alekos Panagulis
13-04-2023, 17:32
Io noto uno stuttering particolarmente consistente in CP2077, dopo ultima patch con overdrive. Gioco tutto al max, 2k ultrawide oppure 4k, con DLSS quality + FG.
Soprattutto se muovo il mouse velocemente di 180°, dirigendo lo sguardo da una parte all'altra, il frametime ha degli spike paurosi.
A voi capita?
h.rorschach
13-04-2023, 17:40
Io noto uno stuttering particolarmente consistente in CP2077, dopo ultima patch con overdrive. Gioco tutto al max, 2k ultrawide oppure 4k, con DLSS quality + FG.
Soprattutto se muovo il mouse velocemente di 180°, dirigendo lo sguardo da una parte all'altra, il frametime ha degli spike paurosi.
A voi capita?
Nope, tutto liscio
micronauta1981
13-04-2023, 17:41
Io noto uno stuttering particolarmente consistente in CP2077, dopo ultima patch con overdrive. Gioco tutto al max, 2k ultrawide oppure 4k, con DLSS quality + FG.
Soprattutto se muovo il mouse velocemente di 180°, dirigendo lo sguardo da una parte all'altra, il frametime ha degli spike paurosi.
A voi capita?
Cosa usi per monitorare il frametime?con msi a me non c'è l'opzione frame time nelle impo dell'overlay
micronauta1981
13-04-2023, 17:41
Normalmente quant è? Sui 20?
60/70 fps credo 30 più o meno
DarkAnima87
13-04-2023, 20:34
Con l overlay di GeForce experience un anima pia che mi dice quanto ha di "latenza del sistema" @4k dlss3 e dlss qualità.per me ho troppa latenza..sto sui 70 ms..
Beh calcolando che viene upscalata l'immagine con IA o con frame generation vengono anche creati dei nuovi frame da 0, direi che 70 ms sono un miracolo.
Io noto uno stuttering particolarmente consistente in CP2077, dopo ultima patch con overdrive. Gioco tutto al max, 2k ultrawide oppure 4k, con DLSS quality + FG.
Soprattutto se muovo il mouse velocemente di 180°, dirigendo lo sguardo da una parte all'altra, il frametime ha degli spike paurosi.
A voi capita?
Prova a chiudere AF.. in questi giorni sto combattendo con problemi dr frametime e le ho provate tutte.. poi ho provato a non usare MSI AF e .... quasi 0 spike.. prova non si sa mai
usa questo per vedere... prova senza e con AF aperto .. da me cambia dal giorno alla notte
https://www.testufo.com/animation-time-graph
Buonasera,
ho reinstallato di nuovo cyberpunk per provare questo fantomatico overdrive. Che dire…
Sono di colpo tornato a febbraio quando con la rx480 in questo gioco stavo quasi sempre intorno ai 30fps. Certo l’impatto visivo ora è tutt’altra cosa ma dopo aver speso mille e più euro per la gpu uno ci rimani un po’ male… 😆
È chiaro che questo è un assaggio del “vero” ray-tracing ed è anche chiaro che è ancora inutilizzabile dalla massa senza “trucchi” vari.
E infatti attivando il dlss3 gira che è un piacere (mi fa 95fps medi nel benchmark integrato a 1440p con dlss quality+fg). Ribadisco quanto sia impressionante l’FG, purtroppo qui va usato per forza insieme al dlss classico che invece in questo gioco non mi convince per nulla altrimenti gli artefatti che genera sono davvero troppi (provate a guidare una macchina veloce con FG attivo ma senza dlss e vedrete le texture “colare” 😆).
Alla fine mi domando se sia necessario pompare certi effetti estremi su un videogioco di azione, dove in teoria il giocatore non si può concentrare troppo sull’ambiente e la fluidità è l’aspetto più importante. Vedo questi effetti per il momento utili su titoli più riflessivi, in cui ti puoi fermare a fare qualche foto (e infatti i furbastri hanno messo l’opzione overdrive anche nella modalità foto)
hellkitchen
14-04-2023, 06:31
Buonasera,
ho reinstallato di nuovo cyberpunk per provare questo fantomatico overdrive. Che dire
Sono di colpo tornato a febbraio quando con la rx480 in questo gioco stavo quasi sempre intorno ai 30fps. Certo limpatto visivo ora è tuttaltra cosa ma dopo aver speso mille e più euro per la gpu uno ci rimani un po male
😆
È chiaro che questo è un assaggio del vero ray-tracing ed è anche chiaro che è ancora inutilizzabile dalla massa senza trucchi vari.
E infatti attivando il dlss3 gira che è un piacere (mi fa 95fps medi nel benchmark integrato a 1440p con dlss quality+fg). Ribadisco quanto sia impressionante lFG, purtroppo qui va usato per forza insieme al dlss classico che invece in questo gioco non mi convince per nulla altrimenti gli artefatti che genera sono davvero troppi (provate a guidare una macchina veloce con FG attivo ma senza dlss e vedrete le texture colare 😆).
Alla fine mi domando se sia necessario pompare certi effetti estremi su un videogioco di azione, dove in teoria il giocatore non si può concentrare troppo sullambiente e la fluidità è laspetto più importante. Vedo questi effetti per il momento utili su titoli più riflessivi, in cui ti puoi fermare a fare qualche foto (e infatti i furbastri hanno messo lopzione overdrive anche nella modalità foto)
Considerazioni interessanti senza dubbio. Io credo che sulla mia 2080, dovessi arrivare l’overdrive, potrei giusto ambire alla modalità foto perché mi aspetto di fare 3-4 fps a 1440p 😂
Inviato dal mio iPhone utilizzando Tapatalk
sertopica
14-04-2023, 07:47
Buonasera,
ho reinstallato di nuovo cyberpunk per provare questo fantomatico overdrive. Che dire…
Sono di colpo tornato a febbraio quando con la rx480 in questo gioco stavo quasi sempre intorno ai 30fps. Certo l’impatto visivo ora è tutt’altra cosa ma dopo aver speso mille e più euro per la gpu uno ci rimani un po’ male… ��
È chiaro che questo è un assaggio del “vero” ray-tracing ed è anche chiaro che è ancora inutilizzabile dalla massa senza “trucchi” vari.
E infatti attivando il dlss3 gira che è un piacere (mi fa 95fps medi nel benchmark integrato a 1440p con dlss quality+fg). Ribadisco quanto sia impressionante l’FG, purtroppo qui va usato per forza insieme al dlss classico che invece in questo gioco non mi convince per nulla altrimenti gli artefatti che genera sono davvero troppi (provate a guidare una macchina veloce con FG attivo ma senza dlss e vedrete le texture “colare” ��).
Alla fine mi domando se sia necessario pompare certi effetti estremi su un videogioco di azione, dove in teoria il giocatore non si può concentrare troppo sull’ambiente e la fluidità è l’aspetto più importante. Vedo questi effetti per il momento utili su titoli più riflessivi, in cui ti puoi fermare a fare qualche foto (e infatti i furbastri hanno messo l’opzione overdrive anche nella modalità foto)
E' una tech preview e si spera migliorera' nel tempo come hanno detto, ma vista la lentezza di CDP nel rilasciare patch non sara' senz'altro domani. :asd:
Prendila come tale, magari per vedere le differenze a livello di illuminazione e catturare screenshots, ma non deve essere il motivo principale che ti spinge a giocare CP2077, secondo me. ;)
Si', ci sono ancora molti problemi, non solo introdotti da Overdrive ma anche precedenti ad essa. Mi fa specie che non ci sia stato un singolo bug o glitch corretto con queste ultime due patch.
Io noto uno stuttering particolarmente consistente in CP2077, dopo ultima patch con overdrive. Gioco tutto al max, 2k ultrawide oppure 4k, con DLSS quality + FG.
Soprattutto se muovo il mouse velocemente di 180°, dirigendo lo sguardo da una parte all'altra, il frametime ha degli spike paurosi.
A voi capita?
Anche a me va liscio come l'olio, potrebbe essere AB, hai aggiornato all'ultima versione beta 4?
sertopica
14-04-2023, 10:40
Se volete far soffrire ancora di piu' la GPU con Overdrive c'e' anche questa mod che aumenta il numero di raggi e i rimbalzi. :D
Link: https://www.nexusmods.com/cyberpunk2077/mods/8069?tab=description
Video comparativo: https://youtu.be/-w-Z2-uDMhY
Se volete far soffrire ancora di piu' la GPU con Overdrive c'e' anche questa mod che aumenta il numero di raggi e i rimbalzi. :D
Link: https://www.nexusmods.com/cyberpunk2077/mods/8069?tab=description
Video comparativo: https://youtu.be/-w-Z2-uDMhY
A questo punto servirà uno SLI di 4090 TI :asd:
micronauta1981
14-04-2023, 15:07
Ora mi ci sto abituando,e sto rigiocando la campagna tutta in overdrive.. è proprio cyberpunk che ha una specie di ritardo nei comandi, è fatto di proposito ..era tantissimo che non ci giocavo e non ero più abituato..
Anche il prossimo "Gollum" richiederà 32 GB di memoria centrale per girare al max Leggi qui (https://www.dsogaming.com/news/the-lord-of-the-rings-gollum-requires-an-rtx3080-for-1440p-high-settings-ray-tracing-dlss/#more-170796). Evidentemente questo sarà il requisito più gettonato in futuro, preparatevi ad espandere la memoria :D :D :D
MorrisADsl
14-04-2023, 18:46
Anche il prossimo "Gollum" richiederà 32 GB di memoria centrale per girare al max Leggi qui (https://www.dsogaming.com/news/the-lord-of-the-rings-gollum-requires-an-rtx3080-for-1440p-high-settings-ray-tracing-dlss/#more-170796). Evidentemente questo sarà il requisito più gettonato in futuro, preparatevi ad espandere la memoria :D :D :DGià fatto io sono a 64.🙃
Ho letto solo ora il tuo feedback. Grazie. :)
Guarda il video che ho messo sopra. Con una CPU che vale la metà di quella attuale già avevo risultati eccellenti, segno che farlo girare a 1080p è più uno stress test che altro ed è evidente che soffra sia la GPU che la CPU. Ora che hanno messo il dlss 3 in Flight Simulator non utilizzarlo è da pazzi. Il gioco ora "vola" davvero :asd:
Ma 2k o in 4k senza upscaling come va?
Se volete far soffrire ancora di piu' la GPU con Overdrive c'e' anche questa mod che aumenta il numero di raggi e i rimbalzi. :D
Link: https://www.nexusmods.com/cyberpunk2077/mods/8069?tab=description
Video comparativo: https://youtu.be/-w-Z2-uDMhY
E' veramente incredibile che quello che si riesce a fare con questa "mod" e la povera 4090, madonnina santa, sono ancora allucinato.,
Per chi le vuole guardare lascio un po' delle mie comparative.
IMHO il preset ideale per non uccidere troppo il framerate è quello da 4 rimbalzi e 2 raggi (2 rimbalzi e 2 raggi è quello di default).
https://imgsli.com/MTcwNTQ5
https://imgsli.com/MTcwNTU3
https://imgsli.com/MTcwNjA0
https://imgsli.com/MTcwNjAw
h.rorschach
15-04-2023, 11:27
https://imgsli.com/MTcwNjAw]
Nessuno si è ancora accorto della texture piazzata male / bug sul climatizzatore a destra? È una texture 512x512 di un'unità AC casalinga espansa a quattro volte la sua dimensione con ovvi problemi
Daedra007
15-04-2023, 12:11
Finalmente posso testare la mia 4090 suprim venduta dal gentilissimo e preciso robnamici, tramite il mio amico amon akira:)
non vedo l'ora di settarla a puntino e godermela al massimo...grazie ancora ad entrambi:mano:
E' veramente incredibile che quello che si riesce a fare con questa "mod" e la povera 4090, madonnina santa, sono ancora allucinato.,
Per chi le vuole guardare lascio un po' delle mie comparative.
IMHO il preset ideale per non uccidere troppo il framerate è quello da 4 rimbalzi e 2 raggi (2 rimbalzi e 2 raggi è quello di default).
https://imgsli.com/MTcwNTQ5
https://imgsli.com/MTcwNTU3
https://imgsli.com/MTcwNjA0
https://imgsli.com/MTcwNjAw
Per pura curiosità ho provato la mod 6x6 senza dlss3: 8fps a 1440p... :D
DJurassic
15-04-2023, 12:48
Nessuno si è ancora accorto della texture piazzata male / bug sul climatizzatore a destra? È una texture 512x512 di un'unità AC casalinga espansa a quattro volte la sua dimensione con ovvi problemi
:asd:
E' veramente incredibile che quello che si riesce a fare con questa "mod" e la povera 4090, madonnina santa, sono ancora allucinato.,
Per chi le vuole guardare lascio un po' delle mie comparative.
IMHO il preset ideale per non uccidere troppo il framerate è quello da 4 rimbalzi e 2 raggi (2 rimbalzi e 2 raggi è quello di default).
https://imgsli.com/MTcwNTQ5
https://imgsli.com/MTcwNTU3
https://imgsli.com/MTcwNjA0
https://imgsli.com/MTcwNjAw
Splendido lavoro, grazie direi che molto meglio 4 rimbalzi e 2 raggi che non 4 raggi e 2 rimbalzi.
I rimbalzi sono molto più impattanti nella resa realistica.
Anche il prossimo "Gollum" richiederà 32 GB di memoria centrale per girare al max Leggi qui (https://www.dsogaming.com/news/the-lord-of-the-rings-gollum-requires-an-rtx3080-for-1440p-high-settings-ray-tracing-dlss/#more-170796). Evidentemente questo sarà il requisito più gettonato in futuro, preparatevi ad espandere la memoria :D :D :D
Mi chiedo se davvero esiste qualcuno con solo 16 giga su pc da game :fagiano:
Cutter90
15-04-2023, 14:46
Mi chiedo se davvero esiste qualcuno con solo 16 giga su pc da game :fagiano:
Chiunque con un po' di sale in zucca, visto che fino a 3 mesi fa none sisteva gioco che giovava di 32 gb vs 16. Era molto meglio prendere 16 gb più prestanti che 32 meno prestanti. E nel 99% dei giochi è ancora così :)
Chiunque con un po' di sale in zucca, visto che fino a 3 mesi fa none sisteva gioco che giovava di 32 gb vs 16. Era molto meglio prendere 16 gb più prestanti che 32 meno prestanti. E nel 99% dei giochi è ancora così :)
Qua caro Cutter, l'hai proprio sparata grossa. Ormai lo sanno anche i sassi che la velocità della memoria centrale ha un impatto pressocchè nullo sull'esecuzione dei giochi ergo è MOLTO meglio avere più memoria che averne meno ma veloce. Ora tu dirai che non è vero ma lo sai anche tu che è così....
davide155
15-04-2023, 15:34
Qua caro Cutter, l'hai proprio sparata grossa. Ormai lo sanno anche i sassi che la velocità della memoria centrale ha un impatto pressocchè nullo sull'esecuzione dei giochi ergo è MOLTO meglio avere più memoria che averne meno ma veloce. Ora tu dirai che non è vero ma lo sai anche tu che è così....No sono due comparazioni diverse.
La ram se viene saturata ti da problemi seri, come stuttering o freeze del gioco. Per poter risolvere puoi solo raddoppiarla e basta. No risolvi aumentando la velocità.
Dall'altro lato, la velocità della ram invece negli ultimi 3 anni, con le nuove piattaforme è strettamente correlata con gli fps. Perché il memory controller è integrato direttamente nella cpu, e quindi dialoga molto velocemente quest'ultima con la ram. In questo modo
Per questo che i risultati sono così sensibili all'aumentare della velocità delle ram. E youtube è pieno zeppo di video che dimostrano ciò.
Chiunque con un po' di sale in zucca, visto che fino a 3 mesi fa none sisteva gioco che giovava di 32 gb vs 16. Era molto meglio prendere 16 gb più prestanti che 32 meno prestanti. E nel 99% dei giochi è ancora così :)
dicevano la stessa cosa per le vram della scheda video a 8GB ( ora 8GB di Vram sono stretti ). Io preferisco avere 16GB di VRAM e 32 di RAM. Just in case. Io rinnovo il parco macchina ogni 5 anni. Arrivo dalle console non cambio processorre ogni anno e GPU ogni 2.
No sono due comparazioni diverse.
La ram se viene saturata ti da problemi seri, come stuttering o freeze del gioco. Per poter risolvere puoi solo raddoppiarla e basta. No risolvi aumentando la velocità.
Dall'altro lato, la velocità della ram invece negli ultimi 3 anni, con le nuove piattaforme è strettamente correlata con gli fps. Perché il memory controller è integrato direttamente nella cpu, e quindi dialoga molto velocemente quest'ultima con la ram. In questo modo
Per questo che i risultati sono così sensibili all'aumentare della velocità delle ram. E youtube è pieno zeppo di video che dimostrano ciò.
Qui Davide si parla di utente gamer medio che probabilmente non overclocca la memoria e la tiene a default, tra avere 16 Gb prestanti e 32 Gb con i giochi moderni comunque non c'è proprio paragone secondo me e lo sto vedendo proprio adesso che sono a casa di mia madre dove ho il mio vecchio computer da 16 gb e in alcuni casi con i giochi nuovi è la fiera dello stutter...
Splendido lavoro, grazie direi che molto meglio 4 rimbalzi e 2 raggi che non 4 raggi e 2 rimbalzi.
I rimbalzi sono molto più impattanti nella resa realistica.
Grazie, visto che apprezzi condivido anche il lavoro finale con una scena (ho provato altri profili, prima mi ero concentrato solo su quelli utilizzabili).
Sicuramente, con un budget per raggi e rimbalzi limitato, i rimbalzi vincono a mani basse. Aumentando i raggi aumenta la precisione di riflessi e luci, ma comunque nulla che possa battere l'impatto complessivo che ha sulla scena un numero più alto di rimbalzi.
Ecco qua:
https://imgsli.com/MTcwNjk1
davide155
15-04-2023, 16:21
Qui Davide si parla di utente gamer medio che probabilmente non overclocca la memoria e la tiene a default, tra avere 16 Gb prestanti e 32 Gb con i giochi moderni comunque non c'è proprio paragone secondo me e lo sto vedendo proprio adesso che sono a casa di mia madre dove ho il mio vecchio computer da 16 gb e in alcuni casi con i giochi nuovi è la fiera dello stutter...La ram va sempre tenuta sopra le raccomandazioni. Ma quello da sempre. Non solo da ora.
Se ne raccomandano 16, è bene averne 32. Ma come detto, fin dalla notte dei tempi.
Per quanto riguarda la velocità tu sostenevi che non c'è differenza prestazionale nei giochi, ma a basse risoluzioni, dove la cpu conta ancora qualcosa, la ram più veloce ti restituisce più fps. Anche in 1440p.
Poi dipende ovviamente dai titoli e dal tipo di cpu, ma principalmente gli fps sono proporzionali all'aumentare della velocità della ram.
Chiunque con un po' di sale in zucca, visto che fino a 3 mesi fa none sisteva gioco che giovava di 32 gb vs 16. Era molto meglio prendere 16 gb più prestanti che 32 meno prestanti. E nel 99% dei giochi è ancora così :)
Risparmiare sulla ram é una boiata pazzesca, la quantitá poi ha piú benefici della velocitá quando ci si avvicina alla saturazione, e nei 16 ormai non ci sta piú niente. Ho da anni 32 giga e la differenza da 16 l'ho sempre notata, da un pó di tempo ad oggi in modo netto. :)
Cutter90
15-04-2023, 16:37
Qua caro Cutter, l'hai proprio sparata grossa. Ormai lo sanno anche i sassi che la velocità della memoria centrale ha un impatto pressocchè nullo sull'esecuzione dei giochi ergo è MOLTO meglio avere più memoria che averne meno ma veloce. Ora tu dirai che non è vero ma lo sai anche tu che è così....
E invece prima di sparare ho fatto le mie prove, come sempre.
Con 16 gb a 4600 vs 32 gb a 3600 mhz, ho fatto proprio dei test settimana scorsa. I risultati vanno tutti verso quello che ho detto io:
Nei giochi nromali e ottimizzati da cristiani, ossia il 99%, con i 32 gb a 3600 ho perso 3-5 fps nei vari giochi testati. Ghostwire, plague tale, cp 2077 ecc ecc
I giochi in cui il guadagno c'è dei 32 sui 16 sono stati due. HL e tlou, guardacaso due dei giochi ottimizzati peggio nella storia.
Poi basta documentarsi un attimo per vedere che la ram più veloce è molto meglio di più ram più lenta, a patto di non saturarla.
Ci sono un trilione di video sul tubo.
Il dilemma prima era 16 gb più veloci o 32 più lenti a parità di prezzo. La risposta giusta era 16 più veloci. MA ora che sta andando verso la saturazione ovviamente i 32 sono da preferire, se si vuole stare tranquilli contro le sh incapaci.
Però se ora ti arriva quello che ne ha 64 più lenta stai sicuro che lui perderà fps rispetto ai tuoi 32 più veloce o anche ai miei 16... a patto di non saturarla :)
ROBHANAMICI
16-04-2023, 11:39
Finalmente posso testare la mia 4090 suprim venduta dal gentilissimo e preciso robnamici, tramite il mio amico amon akira:)
non vedo l'ora di settarla a puntino e godermela al massimo...grazie ancora ad entrambi:mano:
e di che figurati, benvenuto nel club, spero che sia tutto a posto ;)
sertopica
16-04-2023, 14:14
E' veramente incredibile che quello che si riesce a fare con questa "mod" e la povera 4090, madonnina santa, sono ancora allucinato.,
Per chi le vuole guardare lascio un po' delle mie comparative.
IMHO il preset ideale per non uccidere troppo il framerate è quello da 4 rimbalzi e 2 raggi (2 rimbalzi e 2 raggi è quello di default).
https://imgsli.com/MTcwNTQ5
https://imgsli.com/MTcwNTU3
https://imgsli.com/MTcwNjA0
https://imgsli.com/MTcwNjAw
Io ho fatto il contrario, 2 rimbalzi (default) e 4 raggi, ripulisce l'immagine parecchio e ci sono molti meno artefatti a schermo. A 1440p posso permettermelo senza problemi. :D
Io ho fatto il contrario, 2 rimbalzi (default) e 4 raggi, ripulisce l'immagine parecchio e ci sono molti meno artefatti a schermo. A 1440p posso permettermelo senza problemi. :D
Mi spiegheresti meglio a quali artefatti di riferisci e dove guardarli di preciso, per favore?
Io non sono riuscito a trovare differenze apprezzabili con più di due raggi, ma magari dipende dalla scena o dalla risoluzione, magari ho guardato male, non so, avevo fatto la comparativa proprio per cercare di capire se fosse meglio avere più raggi o rimbalzi ma non ho trovato significativi vantaggi nei raggi maggiori rispetto ai due di default (4 rimbalzi invece li noto subito).
Volendo ci sarebbe anche il profilo 3/3.
DJurassic
16-04-2023, 18:43
Io ho fatto il contrario, 2 rimbalzi (default) e 4 raggi, ripulisce l'immagine parecchio e ci sono molti meno artefatti a schermo. A 1440p posso permettermelo senza problemi. :D
Potresti postare qualche immagine comparativa per capire questo fatto della pulizia?
sertopica
16-04-2023, 18:50
Mi spiegheresti meglio a quali artefatti di riferisci e dove guardarli di preciso, per favore?
Io non sono riuscito a trovare differenze apprezzabili con più di due raggi, ma magari dipende dalla scena o dalla risoluzione, magari ho guardato male, non so, avevo fatto la comparativa proprio per cercare di capire se fosse meglio avere più raggi o rimbalzi ma non ho trovato significativi vantaggi nei raggi maggiori rispetto ai due di default (4 rimbalzi invece li noto subito).
Volendo ci sarebbe anche il profilo 3/3.
Con un maggior numero di rimbalzi ottieni in sostanza un'illuminazione globale piu' accurata, meno sovraesposizione ed in generale piu' luce in contesti dove le scene sono troppo scure. Sparando piu' raggi invece ottieni riflessi piu' accurati a distanza maggiore e contrasti quell'effetto snowflake, dove oggetti in penombra ma anche recinzioni metalliche e filo spinato mostrano una specie di "sbrilluccichio" (termine molto tecnico :asd: ) o shimmering. In pratica visto il basso numero di raggi il denoiser non ha abbastanza informazioni con cui lavorare e appaiono questi artefatti. Comunque bada bene che anche aumentando il numero di raggi al max questo tipo di artefatti sara' sempre presente, ma meno evidente. Essendo tutto in movimento e non trattandosi di rendering di immagini statiche il tutto e' esacerbato perche' i calcoli vanno ripetuti in tempo reale per ogni frame e movimento della telecamera, e non abbiamo ancora l'HW necessario per compiere questi calcoli in modo abbastanza rapido senza incorrere nei suddetti artefatti. Aggiungici anche il DLSS che di suo utilizza una risoluzione interna inferiore e quindi ancora meno informazioni. Sono perlopiu' visibili in scene indirettamente illuminate dove la fonte di luce principale fa "fatica" a penetrare rendendo i calcoli piu' complessi, ad esempio nella missione Sinnerman mentre sei in auto con Joshua:
https://abload.de/thumb/cyberpunk2077_2023_045ldr8.png (https://abload.de/image.php?img=cyberpunk2077_2023_045ldr8.png)
Mi riferisco a quei puntini che vedi sulla divisa arancione, ma se muovi la telecamera rapidamente ti accorgi che il denoiser non riesce a pulire in tempo l'immagine...
Potresti postare qualche immagine comparativa per capire questo fatto della pulizia?
E' una cosa che vedi in movimento, in gergo tecnico si chiamano fireflies. Ma c'e' anche noise dovuto all'insufficienza di raggi per pixel. E' un misto di entrambe.
DJurassic
16-04-2023, 19:05
E' una cosa che vedi in movimento, in gergo tecnico si chiamano fireflies. Ma c'e' anche noise dovuto all'insufficienza di raggi per pixel. E' un misto di entrambe.
Quindi 4 raggi 2 rimbalzi hai una qualità superiore ad Overdrive default?
Per intenderci, ancora non ho provato la mod. :fagiano:
sertopica
16-04-2023, 19:18
Quindi 4 raggi 2 rimbalzi hai una qualità superiore ad Overdrive default?
Per intenderci, ancora non ho provato la mod. :fagiano:
2 raggi e 2 rimbalzi e' l'impostazione scelta da CDP per Overdrive. Modificando alcuni file del gioco puoi aumentarne il loro numero. Il problema e' che ad ogni aggiunta perdi 10 fps oltre ad aumentare esponenzialmente l'utilizzo della VRAM. :D
Con un maggior numero di rimbalzi ottieni in sostanza un'illuminazione globale piu' accurata, meno sovraesposizione ed in generale piu' luce in contesti dove le scene sono troppo scure. Sparando piu' raggi invece ottieni riflessi piu' accurati a distanza maggiore e contrasti quell'effetto snowflake, dove oggetti in penombra ma anche recinzioni metalliche e filo spinato mostrano una specie di "sbrilluccichio" (termine molto tecnico :asd: ) o shimmering. In pratica visto il basso numero di raggi il denoiser non ha abbastanza informazioni con cui lavorare e appaiono questi artefatti. Comunque bada bene che anche aumentando il numero di raggi al max questo tipo di artefatti sara' sempre presente, ma meno evidente. Essendo tutto in movimento e non trattandosi di rendering di immagini statiche il tutto e' esacerbato perche' i calcoli vanno ripetuti in tempo reale per ogni frame e movimento della telecamera, e non abbiamo ancora l'HW necessario per compiere questi calcoli in modo abbastanza rapido senza incorrere nei suddetti artefatti. Aggiungici anche il DLSS che di suo utilizza una risoluzione interna inferiore e quindi ancora meno informazioni. Sono perlopiu' visibili in scene indirettamente illuminate dove la fonte di luce principale fa "fatica" a penetrare rendendo i calcoli piu' complessi, ad esempio nella missione Sinnerman mentre sei in auto con Joshua:
https://abload.de/thumb/cyberpunk2077_2023_045ldr8.png (https://abload.de/image.php?img=cyberpunk2077_2023_045ldr8.png)
Mi riferisco a quei puntini che vedi sulla divisa arancione, ma se muovi la telecamera rapidamente ti accorgi che il denoiser non riesce a pulire in tempo l'immagine...
E' una cosa che vedi in movimento, in gergo tecnico si chiamano fireflies. Ma c'e' anche noise dovuto all'insufficienza di raggi per pixel. E' un misto di entrambe.
Grazie della spiegazione, non sapevo si chiamassero "fireflies", ma pensa, nome azzeccato in effetti.
Comunque nel mio caso, forse per la risoluzione più alta di partenza, non mi pare di ottenere grandi benefici ad alzare i raggi, anche con 6 raggi quelle malefiche recinzioni non si sistemano.
Comunque appena mi capita di vedere il denoiser in difficoltà mi faccio un bel salvataggio e provo ancora, mi è capitato di vedere difetti in rare occasioni su alcune texture, ma è stata una cosa veramente sporadica, non saprei nemmeno dove andare a ripescarle. La maggiore qualità dovuta al numero maggiore di rimbalzi invece la vedo sempre.
Al limite, come dicevo, potrei provare il 3/3, vediamo.
sertopica
16-04-2023, 20:14
Grazie della spiegazione, non sapevo si chiamassero "fireflies", ma pensa, nome azzeccato in effetti.
Comunque nel mio caso, forse per la risoluzione più alta di partenza, non mi pare di ottenere grandi benefici ad alzare i raggi, anche con 6 raggi quelle malefiche recinzioni non si sistemano.
Comunque appena mi capita di vedere il denoiser in difficoltà mi faccio un bel salvataggio e provo ancora, mi è capitato di vedere difetti in rare occasioni su alcune texture, ma è stata una cosa veramente sporadica, non saprei nemmeno dove andare a ripescarle. La maggiore qualità dovuta al numero maggiore di rimbalzi invece la vedo sempre.
Al limite, come dicevo, potrei provare il 3/3, vediamo.
Infatti se giochi senza DLSS sono quasi del tutto assenti. Bisogna trovare un compromesso, perche' se non usi il DLSS avrai meno artefatti ma un framerate estremamente piu' basso e quindi ci vorra' piu' tempo per aggiornare l'illuminazione quando muovi la telecamera.
micronauta1981
17-04-2023, 06:10
Per guadagnare un po' di fps,senza perdere troppa qualità meglio togliere un raggio o un rimbalzo?
sertopica
17-04-2023, 06:39
Per guadagnare un po' di fps,senza perdere troppa qualità meglio togliere un raggio o un rimbalzo?
Non fa molta differenza, sempre 10 fps circa ci perdi. Se da due rimbalzi passi ad uno "rompi" tuttavia i riflessi.
h.rorschach
17-04-2023, 06:58
Dopo il confronto che ho fatto in serata (https://imgsli.com/MTcxMDA2/) mi sento onestamente di consigliare a chiunque non abbia una GPU con DLSS-FG di usare Ultra non RT e non PT, senza impazzire con mod e impostazioni varie.
Ieri ho giocato un po' al semplice Ultra senza RT/PT e onestamente a livello visivo mi piaceva molto. RT semplice in qualche modo peggiora l'esperienza, PT la migliora in alcuni contesti, ma il colpo agli FPS non è assorbito da tutte le configurazioni.
sertopica
17-04-2023, 07:20
Dopo il confronto che ho fatto in serata (https://imgsli.com/MTcxMDA2/) mi sento onestamente di consigliare a chiunque non abbia una GPU con DLSS-FG di usare Ultra non RT e non PT, senza impazzire con mod e impostazioni varie.
Ieri ho giocato un po' al semplice Ultra senza RT/PT e onestamente a livello visivo mi piaceva molto. RT semplice in qualche modo peggiora l'esperienza, PT la migliora in alcuni contesti, ma il colpo agli FPS non è assorbito da tutte le configurazioni.
Con l'ultima patch hanno migliorato parecchio anche la modalita' raster pura senza RT. Ci sono vari aggiustamenti che prima non c'erano. Quindi quoto. :D
Infatti se giochi senza DLSS sono quasi del tutto assenti. Bisogna trovare un compromesso, perche' se non usi il DLSS avrai meno artefatti ma un framerate estremamente piu' basso e quindi ci vorra' piu' tempo per aggiornare l'illuminazione quando muovi la telecamera.
Il dlss ce l'ho su "auto" con una risoluzione di 3840x1600 ed il framerate sta sempre sopra gli 80fps con DLSS3 attivo, ma non riesco a trovare gli artefatti (fireflies) se non sulle recinzioni (sempre) e su alcune texture che però non riesco più a trovare, ci ho provato velocemente anche stamattina, oggi quando rientro mi rimetto alla ricerca.
La "neve" sinceramente non sono riuscito a vederla, ma cercherò anche quella.
sertopica
17-04-2023, 08:35
Il dlss ce l'ho su "auto" con una risoluzione di 3840x1600 ed il framerate sta sempre sopra gli 80fps con DLSS3 attivo, ma non riesco a trovare gli artefatti (fireflies) se non sulle recinzioni (sempre) e su alcune texture che però non riesco più a trovare, ci ho provato velocemente anche stamattina, oggi quando rientro mi rimetto alla ricerca.
La "neve" sinceramente non sono riuscito a vederla, ma cercherò anche quella.
Succede fortunatamente solo in alcune aree dove l'illuminazione e' particolarmente ostica da calcolare e risolvere. Se proprio vuoi andare a caccia di artefatti devi recarti negli interni con poca illuminazione ed aree indirettamente illuminate. :D
Con l'ultima patch hanno migliorato parecchio anche la modalita' raster pura senza RT. Ci sono vari aggiustamenti che prima non c'erano. Quindi quoto. :D
Oddio, il raster rimane la solita approssimazione tanto migliore quanto meglio si riesce ad approssimare per tecnica e capacità degli addetti ai lavori, ma comunque ci saranno scene in cui si approssimerà meglio, altre in cui ci riuscirà meno.
Tra raster, RT ibrido e PT c'è un abisso incolmabile, non è proprio possibile colmarlo.
Vorrei poi sottolineare che il vantaggio del PT è di essere sempre coerente, non ti ritrovi scene belle ed altre agghiaccianti, è una cosa che apprezzo molto. E pure gli sviluppatori hanno ampiamente manifestato l'apprezzamento per questo tipo di vantaggio, visto che li libera da una marea di lavoro inutile (il tempo speso a cercare la resa ottimane di una scena potrà essere dedicato ad altro).
Poi uno decide se il gioco vale la candela in base alle proprie tasche ed esigenze, su questo non si discute, ma non è che un approccio vale l'altro.
https://imgsli.com/MTcwNjA0
https://imgsli.com/MTcwNjAw
Succede fortunatamente solo in alcune aree dove l'illuminazione e' particolarmente ostica da calcolare e risolvere. Se proprio vuoi andare a caccia di artefatti devi recarti negli interni con poca illuminazione ed aree indirettamente illuminate. :D
Dopo ci proverò sicuramente, vorrei provare se 3/3 da un risultato migliore rispetto a 4/2 o 2/4, tutto qui, per curiosità, devo solo identificare l'area giusta.
Grazie, visto che apprezzi condivido anche il lavoro finale con una scena (ho provato altri profili, prima mi ero concentrato solo su quelli utilizzabili).
Sicuramente, con un budget per raggi e rimbalzi limitato, i rimbalzi vincono a mani basse. Aumentando i raggi aumenta la precisione di riflessi e luci, ma comunque nulla che possa battere l'impatto complessivo che ha sulla scena un numero più alto di rimbalzi.
Ecco qua:
https://imgsli.com/MTcwNjk1
Grazie mille perfetto. Direi che riuscire a avere 4B2R sarebbe l'ottimo magari anche solo 3 rimbalzi aiuterebbe molto con le zone d'ombra che attualmente sono un po' buie per via della poca luce riflessa e della naturale mancanza di luci piazzate ad oc dalla direzione artistica come in raster o nel RayTracing ibrido.
Tuttavia la resa fisicamente corretta é decisamente più gradevole e meno artificiosa.
Diventa evidente che i programmatori dovranno cominciare a considerare diversamente l'illuminazione, perché se una volta una zona buia la risolvevi con una light box fisicamente impossibile ma graficamente appagante adesso dovranno per forza di cose mettere qualcosa di fisicamente corretto. Avremo giochi pieni di abatjour! 😂😂
marbasso
17-04-2023, 10:34
E invece prima di sparare ho fatto le mie prove, come sempre.
Con 16 gb a 4600 vs 32 gb a 3600 mhz, ho fatto proprio dei test settimana scorsa. I risultati vanno tutti verso quello che ho detto io:
Nei giochi nromali e ottimizzati da cristiani, ossia il 99%, con i 32 gb a 3600 ho perso 3-5 fps nei vari giochi testati. Ghostwire, plague tale, cp 2077 ecc ecc
I giochi in cui il guadagno c'è dei 32 sui 16 sono stati due. HL e tlou, guardacaso due dei giochi ottimizzati peggio nella storia.
Poi basta documentarsi un attimo per vedere che la ram più veloce è molto meglio di più ram più lenta, a patto di non saturarla.
Ci sono un trilione di video sul tubo.
Il dilemma prima era 16 gb più veloci o 32 più lenti a parità di prezzo. La risposta giusta era 16 più veloci. MA ora che sta andando verso la saturazione ovviamente i 32 sono da preferire, se si vuole stare tranquilli contro le sh incapaci.
Però se ora ti arriva quello che ne ha 64 più lenta stai sicuro che lui perderà fps rispetto ai tuoi 32 più veloce o anche ai miei 16... a patto di non saturarla :)
Perdonami, ch gioco sarebbe HL?
marbasso
17-04-2023, 10:36
E invece prima di sparare ho fatto le mie prove, come sempre.
Con 16 gb a 4600 vs 32 gb a 3600 mhz, ho fatto proprio dei test settimana scorsa. I risultati vanno tutti verso quello che ho detto io:
Nei giochi nromali e ottimizzati da cristiani, ossia il 99%, con i 32 gb a 3600 ho perso 3-5 fps nei vari giochi testati. Ghostwire, plague tale, cp 2077 ecc ecc
I giochi in cui il guadagno c'è dei 32 sui 16 sono stati due. HL e tlou, guardacaso due dei giochi ottimizzati peggio nella storia.
Poi basta documentarsi un attimo per vedere che la ram più veloce è molto meglio di più ram più lenta, a patto di non saturarla.
Ci sono un trilione di video sul tubo.
Il dilemma prima era 16 gb più veloci o 32 più lenti a parità di prezzo. La risposta giusta era 16 più veloci. MA ora che sta andando verso la saturazione ovviamente i 32 sono da preferire, se si vuole stare tranquilli contro le sh incapaci.
Però se ora ti arriva quello che ne ha 64 più lenta stai sicuro che lui perderà fps rispetto ai tuoi 32 più veloce o anche ai miei 16... a patto di non saturarla :)
Perdonami, che gioco sarebbe HL?
Cutter90
17-04-2023, 10:38
Perdonami, ch gioco sarebbe HL?
Hoguarts Legacy
marbasso
17-04-2023, 10:55
Hoguarts Legacy
A ecco, grazie. Nn ci avevo proprio pensato.
Mi riferisco a quei puntini che vedi sulla divisa arancione, ma se muovi la telecamera rapidamente ti accorgi che il denoiser non riesce a pulire in tempo l'immagine...
Stavo guardando questo
https://youtu.be/pW0twrqfJ8o?t=810
e mi è balzato all'occhio "AI denoising coming soon to DLSS3!", daje :D :D :D
Predator_1982
17-04-2023, 12:55
Chiunque con un po' di sale in zucca, visto che fino a 3 mesi fa none sisteva gioco che giovava di 32 gb vs 16. Era molto meglio prendere 16 gb più prestanti che 32 meno prestanti. E nel 99% dei giochi è ancora così :)
su questo non mi trovi molto d'accordo. Togliendo me che ho 32gb da parecchio perché faccio largo uso di macchine virtuali (ma questo è un discorso a parte), credo che il guadagno prestazionale effettivo su macchine da gaming, passando da una memoria "normale" ed una "veloce" e con CAS bassi è irrisorio, motivo per il quale aveva più senso avere più ram che meno e più veloce (a parità di un nulla in termini di prestazioni aggiuntive).
Inoltre sulle attuali piattaforme usare 2 moduli anziché 4 con upgrade successivi, restituisce anche maggiore stabilità e meno grattacapi. Resta il fatto che su sistemi di un certo livello 32gb sono la quantità giusta.
Daedra007
17-04-2023, 13:36
e di che figurati, benvenuto nel club, spero che sia tutto a posto ;)
Perfetta e bellissima, tenuta maniacalmente...la sto testando a fondo e posso dire senza riserve che e' la migliore scheda video mai avuta, anche tra tutte le vecchie msi vecchia gen. Anche se spinta al limite non la sento mai a livello di rumore. Rispetto ad una vecchia 4080 gigabyte che mi sono trovato sfortunatamente tra le mani:doh:
vecchia si fa' per dire ovviamente...:D
ROBHANAMICI
17-04-2023, 13:37
Perfetta e bellissima, tenuta maniacalmente...la sto testando a fondo e posso dire senza riserve che e' la migliore scheda video mai avuta, anche tra tutte le vecchie msi vecchia gen. Anche se spinta al limite non la sento mai a livello di rumore. Rispetto ad una vecchia 4080 gigabyte che mi sono trovato sfortunatamente tra le mani:doh:
vecchia si fa' per dire ovviamente...:D
Mi fa piacere ;)
Cutter90
17-04-2023, 14:15
su questo non mi trovi molto d'accordo. Togliendo me che ho 32gb da parecchio perché faccio largo uso di macchine virtuali (ma questo è un discorso a parte), credo che il guadagno prestazionale effettivo su macchine da gaming, passando da una memoria "normale" ed una "veloce" e con CAS bassi è irrisorio, motivo per il quale aveva più senso avere più ram che meno e più veloce (a parità di un nulla in termini di prestazioni aggiuntive).
Inoltre sulle attuali piattaforme usare 2 moduli anziché 4 con upgrade successivi, restituisce anche maggiore stabilità e meno grattacapi. Resta il fatto che su sistemi di un certo livello 32gb sono la quantità giusta.
I miei test parlano di 4-5 fps sui giochi testati 16 gb a 4600 mhz vs 32 a 3600 mhz. Irrisori o meno non c'era motivo di usare 32 gb fino a 2 giochi fa, dato che nessuno li saturava.
sertopica
17-04-2023, 18:36
Stavo guardando questo
https://youtu.be/pW0twrqfJ8o?t=810
e mi è balzato all'occhio "AI denoising coming soon to DLSS3!", daje :D :D :D
Perfetto, vedi che ci stanno gia' lavorando? :D
edit: ne parlano anche qui nel segmento dedicato a CP.
--> https://youtu.be/G3hQDsNPlow (circa dal minuto 35)
CP in futuro implementera' anche la "neural radiance cache" che dovrebbe in teoria rimuovere del tutto tutti quei problemi relativi a ghosting e shimmering.
Cutter90
19-04-2023, 07:03
https://www.youtube.com/watch?v=O5B_dqi_Syc
Is DLSS Really "Better Than Native"? - 24 Game Comparison, DLSS 2 vs FSR 2 vs Native
Ecco l'analisi definitiva sulla questione e si.... in molti giochi in dlss risulta migliore delle nativa, soprattutto, e questa è una cosa che mi ha sorpreso, in 1440p. Mancano tuttavia anche dei giochi dove il dlss batteva la nativa. Ma va beh :)
PS: notare FSR demolito
h.rorschach
19-04-2023, 07:18
https://www.youtube.com/watch?v=O5B_dqi_Syc
Is DLSS Really "Better Than Native"? - 24 Game Comparison, DLSS 2 vs FSR 2 vs Native
Ecco l'analisi definitiva sulla questione e si.... in molti giochi in dlss risulta migliore delle nativa, soprattutto, e questa è una cosa che mi ha sorpreso, in 1440p. Mancano tuttavia anche dei giochi dove il dlss batteva la nativa. Ma va beh :)
PS: notare FSR demolito
DLSS (scaler e FG) è magia nera. NVIDIA ha soldi infiniti e questo si vede nei risultati: dagli avanzamenti nel ML, alle tecnologie innovative offerte, al design delle FE 30/40 (per il raffreddamento). È un decennio che non c'è competizione reale, nemmeno a volersi impegnare. Ho speranza in Intel, AMD è evidentemente fuori dai giochi per quanto riguarda le GPU.
Dracula1975
19-04-2023, 08:39
DLSS (scaler e FG) è magia nera. NVIDIA ha soldi infiniti e questo si vede nei risultati: dagli avanzamenti nel ML, alle tecnologie innovative offerte, al design delle FE 30/40 (per il raffreddamento). È un decennio che non c'è competizione reale, nemmeno a volersi impegnare. Ho speranza in Intel, AMD è evidentemente fuori dai giochi per quanto riguarda le GPU.
imho unica possibilità di AMD è far uscire FSr 3.0 (che dicono sia davvero interessante) implementandolo anche sulle Rx 6000 (cosa che nvidia con il dlls 3.0 nno fa con le rtx 3000)
unica possibilità di una minima competizione...
bagnino89
19-04-2023, 09:20
imho unica possibilità di AMD è far uscire FSr 3.0 (che dicono sia davvero interessante) implementandolo anche sulle Rx 6000 (cosa che nvidia con il dlls 3.0 nno fa con le rtx 3000)
unica possibilità di una minima competizione...
Dubito possa essere minimamente paragonabile alle soluzioni Nvidia, ma meglio di niente...
ultimate trip
19-04-2023, 11:05
imho unica possibilità di AMD è far uscire FSr 3.0 (che dicono sia davvero interessante) implementandolo anche sulle Rx 6000 (cosa che nvidia con il dlls 3.0 nno fa con le rtx 3000)
unica possibilità di una minima competizione...
che mi sembra che essendo open poi andrebbe anche sulle nvidia 3000
Perfetto, vedi che ci stanno gia' lavorando? :D
edit: ne parlano anche qui nel segmento dedicato a CP.
--> https://youtu.be/G3hQDsNPlow (circa dal minuto 35)
CP in futuro implementera' anche la "neural radiance cache" che dovrebbe in teoria rimuovere del tutto tutti quei problemi relativi a ghosting e shimmering.
Ottimo, la cache dovrebbe anche eliminare il delay che si vede adesso in alcuni frangenti.
Poi dovrebbero essere implementate anche le Opacity Micro-Maps, se non ricordo male, questo dovrebbe aiutare con le prestazioni.
Insomma, è un work in progress vero e proprio e povera Ada mi sa che suderà parecchio :D
Evangelion01
19-04-2023, 11:15
unica possibilità di una minima competizione...
purtroppo direi di si..
https://www.youtube.com/watch?v=1WM_w7TBbj0&t=1722s
DLSS (scaler e FG) è magia nera. NVIDIA ha soldi infiniti e questo si vede nei risultati: dagli avanzamenti nel ML, alle tecnologie innovative offerte, al design delle FE 30/40 (per il raffreddamento). È un decennio che non c'è competizione reale, nemmeno a volersi impegnare. Ho speranza in Intel, AMD è evidentemente fuori dai giochi per quanto riguarda le GPU.
Se devo essere sincero al FG non avrei dato due soldi, non lo dico per dire ero tra quelli che lo consideravano una cosa inutile, al massimo da fascia bassa (tanto per recuperare prestazioni anche se a scapito della qualità), invece è una tecnica veramente incredibile.
amon.akira
19-04-2023, 12:02
Se devo essere sincero al FG non avrei dato due soldi, non lo dico per dire ero tra quelli che lo consideravano una cosa inutile, al massimo da fascia bassa (tanto per recuperare prestazioni anche se a scapito della qualità), invece è una tecnica veramente incredibile.
idem invece ora in ordine di attivazione siamo cosi
risoluzione -> FG -> dlss
fg rompe solo su alcuni elementi tipo ui o testi se abbinato al taa, ma quest ultimo rompe anche sul dlss
esempio hogwarts nativa+fg+taa hai icone e segnalini che flickerano, togli taa e metti dlaa tutto perfetto...bisogna eradicare il taa definitivamente
Madara76
19-04-2023, 14:40
Oltre ai nuovi driver usciti ieri, pare sia uscita la stable di afterburner.
Inviato dal mio XQ-CT72 utilizzando Tapatalk
idem invece ora in ordine di attivazione siamo cosi
risoluzione -> FG -> dlss
fg rompe solo su alcuni elementi tipo ui o testi se abbinato al taa, ma quest ultimo rompe anche sul dlss
esempio hogwarts nativa+fg+taa hai icone e segnalini che flickerano, togli taa e metti dlaa tutto perfetto...bisogna eradicare il taa definitivamente ciao perche se metto il dlla +nativa il fg non si attiva in hogwarts ? devo mettere il taa per attivare il fg :muro:
DJurassic
19-04-2023, 16:32
ciao perche se metto il dlla +nativa il fg non si attiva in hogwarts ? devo mettere il taa per attivare il fg :muro:
Perchè è un gioco di merda? :asd:
Comunque volendo si può tranquillamente attivare il DLAA insieme al frame generator. Bisogna prima attivare il dlss, attivare il fg, togliere il dlss e mettere il dlaa. Vedrai che il FG resta attivo così facendo fino al prossimo avvio del gioco.
Perchè è un gioco di merda? :asd:
Comunque volendo si può tranquillamente attivare il DLAA insieme al frame generator. Bisogna prima attivare il dlss, attivare il fg, togliere il dlss e mettere il dlaa. Vedrai che il FG resta attivo così facendo fino al prossimo avvio del gioco.
grazie x la spiegazione ma non funziona almeno a mè se attivo il DLLA il fg diventa grigio quindi non funzionante:muro:
DJurassic
19-04-2023, 16:57
grazie x la spiegazione ma non funziona almeno a mè se attivo il DLLA il fg diventa grigio quindi non funzionante:muro:
Diventa grigio ma resta attivo. Il frame rate potrà confermartelo.
sertopica
19-04-2023, 17:05
Diventa grigio ma resta attivo. Il frame rate potrà confermartelo.
Quoto. :read:
Funziona cosi'. Non ne comprendo la logica distorta ma vabbe'. Sembra proprio che il gioco su PC l'abbiano abbandonato.
DJurassic, hai provato Overdrive con piu' rimbalzi e raggi? :D
Lo sweet spot per me e' 4B3R, e' uno spettacolo a vedersi cosi', peccato che persino a 1440p DLSS3 Quality possa scendere leggermente sotto i 60 fps. :doh:
Non oso immaginare come possa girare nel parco vicino a Corpo Plaza, la parte in assoluto piu' pesante di tutta la mappa.
Diventa grigio ma resta attivo. Il frame rate potrà confermartelo. allora prima funzionava poi con i penultimi driver questa funzione non la prende piu , non so se istallare gli ultimi driver rilasciati da nvidia:confused:
micronauta1981
19-04-2023, 21:38
https://www.youtube.com/watch?v=O5B_dqi_Syc
Is DLSS Really "Better Than Native"? - 24 Game Comparison, DLSS 2 vs FSR 2 vs Native
Ecco l'analisi definitiva sulla questione e si.... in molti giochi in dlss risulta migliore delle nativa, soprattutto, e questa è una cosa che mi ha sorpreso, in 1440p. Mancano tuttavia anche dei giochi dove il dlss batteva la nativa. Ma va beh :)
PS: notare FSR demolito
😂😂😂😂😂 Ancora? No vabbè.. nativa più taa non è nativa...state sfociando nel ridicolo..
DJurassic
19-04-2023, 22:09
Quoto. :read:
Funziona cosi'. Non ne comprendo la logica distorta ma vabbe'. Sembra proprio che il gioco su PC l'abbiano abbandonato.
DJurassic, hai provato Overdrive con piu' rimbalzi e raggi? :D
Lo sweet spot per me e' 4B3R, e' uno spettacolo a vedersi cosi', peccato che persino a 1440p DLSS3 Quality possa scendere leggermente sotto i 60 fps. :doh:
Non oso immaginare come possa girare nel parco vicino a Corpo Plaza, la parte in assoluto piu' pesante di tutta la mappa.
Non ancora. Questi ultimi giorni ho giocato davvero pochissimo.
allora prima funzionava poi con i penultimi driver questa funzione non la prende piu , non so se istallare gli ultimi driver rilasciati da nvidia:confused:
Se non funziona usa il tweak per abilitare il DLAA.
Avevo scritto una breve guida su come fare, la trovi qui:
https://www.hwupgrade.it/forum/showpost.php?p=48159072&postcount=8283
Ancora? No vabbè.. nativa più taa non è nativa...state sfociando nel ridicolo..
Rassegnati, non puoi vincere questa battaglia. :O
amon.akira
19-04-2023, 23:43
ciao perche se metto il dlla +nativa il fg non si attiva in hogwarts ? devo mettere il taa per attivare il fg :muro:
scusa dove ho detto che non si attiva?
ho solo detto che il taa essendo un temporal rompe con il fg o il dlss, quindi in hogwarts è meglio dlaa+fg se servono fps, se ne servono ancora di piu ovviamente andrai di fg+dlss qualità
amon.akira
19-04-2023, 23:50
😂😂😂😂😂 Ancora? No vabbè.. nativa più taa non è nativa...state sfociando nel ridicolo..
solo nativa perdi a prescindere, tu giochi senza taa solo nativa? che ne so scorn senza taa? deathstranding senza taa? lo sai che puoi forzarlo off anche in cyberpunk, hai mai provato? XD
:sofico:
micronauta1981
20-04-2023, 05:39
solo nativa perdi a prescindere, tu giochi senza taa solo nativa? che ne so scorn senza taa? deathstranding senza taa? lo sai che puoi forzarlo off anche in cyberpunk, hai mai provato? XD
:sofico:
Gioco in dsr,quindi nativa più antialiasing..la dovete comparare con quella, perché il dlss applica cmq un antialiasing,ma abbassando la risoluzione..in alcuni casi basta anche solo la nativa più taa per essere più definita..ma lascio perdere tanto è inutile..
micronauta1981
20-04-2023, 05:41
Cmq ieri ho aggiornato driver e msi afterburner,non so che è successo,ma sembra un miracolo,ho fatto una run su cyberpunk per vedere se era tutto apposto,e non credevo ai miei occhi,gli fps sono rimasti identici,ma è completamente sparito l'input lag che avevo,pensavo addirittura che per qualche motivo avevo disabilitato qualche effetto grafico,e invece era tutto uguale..ripeto non so da cosa è dovuto,ma tant'è. Farò ulteriori prove..
micronauta1981
20-04-2023, 06:30
Posso capire i "giovani" che non hanno mai giocato ai giochi con i veri antialiasing (supersampling, ecc),che prima erano la norma nei videogiochi,poi hanno iniziato a prendere piede le console,e sono stati abbandonati a favore di taa ecc,una console non potrà mai gestire un antialiasing vero..il dldsr è stato fatto appunto per quello,per rendere l antialiasing "hardware",applicabile a tutti i giochi,che ormai avevano abbandonato le tecniche che si usavano prima su PC..giocare ad half Life 2 con AA 8x era una roba da sbavo ai tempi, però distruggeva le prestazioni..quella è nativa,cioè una risoluzione ripulita a doc..quella che oggi chiamate nativa non è lontanamente paragonabile, è tutto sfuocato dagli antialiasing software che usano ora...e con questo chiudo il discorso..chi lo capisce bene, altrimenti amen 😂😂
magic carpet
20-04-2023, 06:33
Domani esce Dead Island 2.
Lo prenderete?
Data la sua natura non open world, io propendo per il sì.
Sembra inoltre che su PC, Techland abbia fatto un ottimo lavoro dal punto di vista tecnico.
Certo niente da far gridare al miracolo, ma apprezzabile.
sertopica
20-04-2023, 06:53
Domani esce Dead Island 2.
Lo prenderete?
Data la sua natura non open world, io propendo per il sì.
Sembra inoltre che su PC, Techland abbia fatto un ottimo lavoro dal punto di vista tecnico.
Certo niente da far gridare al miracolo, ma apprezzabile.
Se e' UE4 ci penserei 10 volte prima di prenderlo al day one, soprattutto dando appunto un'occhiata alla day one patch. :D
Io personalmente non lo piglio, non ci ho visto nulla di interessante a parte la buona grafica.
Cmq ieri ho aggiornato driver e msi afterburner,non so che è successo,ma sembra un miracolo,ho fatto una run su cyberpunk per vedere se era tutto apposto,e non credevo ai miei occhi,gli fps sono rimasti identici,ma è completamente sparito l'input lag che avevo,pensavo addirittura che per qualche motivo avevo disabilitato qualche effetto grafico,e invece era tutto uguale..ripeto non so da cosa è dovuto,ma tant'è. Farò ulteriori prove..
Da quand'e' che non aggiornavi AB? Gli overlays ed il programma stesso possono indurre lag.
micronauta1981
20-04-2023, 08:11
Se e' UE4 ci penserei 10 volte prima di prenderlo al day one, soprattutto dando appunto un'occhiata alla day one patch. :D
Io personalmente non lo piglio, non ci ho visto nulla di interessante a parte la buona grafica.
Da quand'e' che non aggiornavi AB? Gli overlays ed il programma stesso possono indurre lag.avevo l ultima versione,che ormai era datata..la cosa strana è che l input lag l'avevo solo in cyberpunk
DJurassic
20-04-2023, 09:56
Domani esce Dead Island 2.
Lo prenderete?
Data la sua natura non open world, io propendo per il sì.
Sembra inoltre che su PC, Techland abbia fatto un ottimo lavoro dal punto di vista tecnico.
Certo niente da far gridare al miracolo, ma apprezzabile.
Vero. Leggendo un po’ ovunque l’idea è che la versione PC sia stata curata come dovrebbe e non si segnalano particolari problematiche.
Se e' UE4 ci penserei 10 volte prima di prenderlo al day one, soprattutto dando appunto un'occhiata alla day one patch. :D
Io personalmente non lo piglio, non ci ho visto nulla di interessante a parte la buona grafica.
Da quand'e' che non aggiornavi AB? Gli overlays ed il programma stesso possono indurre lag.
A me AB introduce lag di spike periodici.. nulla da fare.. a dire il vero ogni programma di monitoraggio hardware lo fa... ne ho provati decine..
amon.akira
20-04-2023, 12:25
Posso capire i "giovani" che non hanno mai giocato ai giochi con i veri antialiasing (supersampling, ecc),che prima erano la norma nei videogiochi,poi hanno iniziato a prendere piede le console,e sono stati abbandonati a favore di taa ecc,una console non potrà mai gestire un antialiasing vero..il dldsr è stato fatto appunto per quello,per rendere l antialiasing "hardware",applicabile a tutti i giochi,che ormai avevano abbandonato le tecniche che si usavano prima su PC..giocare ad half Life 2 con AA 8x era una roba da sbavo ai tempi, però distruggeva le prestazioni..quella è nativa,cioè una risoluzione ripulita a doc..quella che oggi chiamate nativa non è lontanamente paragonabile, è tutto sfuocato dagli antialiasing software che usano ora...e con questo chiudo il discorso..chi lo capisce bene, altrimenti amen 😂😂
da come scrivi si capisce che non ne capisci...aa 8x cos'è msaa ovvero il multisampling aa, presumo di si...aliasing software cos'è taa? perchè l msaa è hardware? l algoritmo dldsr è in realtà lo stesso del dlss con risoluzione maggiore...infatti ripromette di avere lo stesso risultato del 4x a 2.25x, quindi se schifi il dlss quality dovresti schifare anche il dldsr 2.25x in favore del dsr 4x (8k se parti da 4k).
dove è presente il dlss conviene sempre attivarlo, se si necessitano di fps esempio cyberpunk si usa il quality a scalare...se non si necessita di fps si può usare o forzare il dlaa oppure semplicemente usare il dldsr2.25x+dlss quality o addirittura solo il dldsr in supersampling.
quindi non ci sarà mai uno scenario in cui ho il dlss/dlaa e decido di andare nativa+taa (nativa liscia abbiamo detto che perde sempre, infatti anche tu hai ammesso che non la usi).
dove non è presente o è presente solo l fsr, si usa nativa+taa :asd:
da come scrivi si capisce che non ne capisci...aa 8x cos'è msaa ovvero il multisampling aa, presumo di si...aliasing software cos'è taa? perchè l msaa è hardware? l algoritmo dldsr è in realtà lo stesso del dlss con risoluzione maggiore...infatti ripromette di avere lo stesso risultato del 4x a 2.25x, quindi se schifi il dlss quality dovresti schifare anche il dldsr 2.25x in favore del dsr 4x (8k se parti da 4k).
dove è presente il dlss conviene sempre attivarlo, se si necessitano di fps esempio cyberpunk si usa il quality a scalare...se non si necessita di fps si può usare o forzare il dlaa oppure semplicemente usare il dldsr2.25x+dlss quality o addirittura solo il dldsr in supersampling.
quindi non ci sarà mai uno scenario in cui ho il dlss/dlaa e decido di andare nativa+taa (nativa liscia abbiamo detto che perde sempre, infatti anche tu hai ammesso che non la usi).
dove non è presente o è presente solo l fsr, si usa nativa+taa :asd:
Sarebbe più corretto dire AA post-processing. Come tutte le gabole introdotte da nvdia per aumentare gli FPS che sono tutte post-processing. Che introducono chi più chi meno una riduzione di qualità.
micronauta1981
20-04-2023, 21:31
da come scrivi si capisce che non ne capisci...aa 8x cos'è msaa ovvero il multisampling aa, presumo di si...aliasing software cos'è taa? perchè l msaa è hardware? l algoritmo dldsr è in realtà lo stesso del dlss con risoluzione maggiore...infatti ripromette di avere lo stesso risultato del 4x a 2.25x, quindi se schifi il dlss quality dovresti schifare anche il dldsr 2.25x in favore del dsr 4x (8k se parti da 4k).
dove è presente il dlss conviene sempre attivarlo, se si necessitano di fps esempio cyberpunk si usa il quality a scalare...se non si necessita di fps si può usare o forzare il dlaa oppure semplicemente usare il dldsr2.25x+dlss quality o addirittura solo il dldsr in supersampling.
quindi non ci sarà mai uno scenario in cui ho il dlss/dlaa e decido di andare nativa+taa (nativa liscia abbiamo detto che perde sempre, infatti anche tu hai ammesso che non la usi).
dove non è presente o è presente solo l fsr, si usa nativa+taa :asd:
Io non ne capisco??voi dite che il dlss è meglio della nativa e io non ne capisco 😂😂😂😂😂😂😂😂😂😂😂
micronauta1981
20-04-2023, 21:36
Antialiasing software,vuol dire che non va a incidere sulle prestazioni,quindi non "usa" l hardware per migliorare l immagine..quando usavi il supersampling a 8x ti si fondeva la scheda video...se non capisci vuol dire che dovresti leggere un po' di più...e cmq il dldsr o dsr è stato fatto per sopperire alla mancanza di antialiasing nei giochi,ormai abbandonato,a favore di questi finti aa software che blurrano tutto...
Antialiasing software,vuol dire che non va a incidere sulle prestazioni,quindi non "usa" l hardware per migliorare l immagine..quando usavi il supersampling a 8x ti si fondeva la scheda video...se non capisci vuol dire che dovresti leggere un po' di più...e cmq il dldsr o dsr è stato fatto per sopperire alla mancanza di antialiasing nei giochi,ormai abbandonato,a favore di questi finti aa software che blurrano tutto...
Quindi se un antialiasing non ti fonde la GPU non è "hardware"?
No ti prego fammi capire.
2 minuti che prendo i pop corn.
amon.akira
20-04-2023, 22:48
esempio di un gioco in cui abbiamo tutto red dead redemption 2
abbiamo a disposizione taa,msaa 8x,dlss
con la 4090 avendo potenza a sufficienza per il 4k 60 posso usare il dldsr 6k+il dlss quality cosi ho una risoluzione nativa di 2160p e un ottimo AA
idem forzando il DLAA stessa cosa.
ma se avessi necessità di aumentare il framerate userei tranquillamente il dlss quality ed avrei ancora un ottima immagine, sicuramente superiore a un 1440p nativo+taa con pari performance.
non per nulla il dlss usa i tensorcore, piu hardware di cosi XD
tu hai detto che la nativa è meglio della nativa+taa
😂😂😂😂😂 Ancora? No vabbè.. nativa più taa non è nativa...state sfociando nel ridicolo..
quindi un red dead tu lo vedi meglio con la nativa senza applicare nessun AA?
Slater91
21-04-2023, 08:37
Siete tutti pregati di rientrare in tema. Chi non lo farà sarà sanzionato. Grazie della collaborazione.
magic carpet
22-04-2023, 08:51
Ieri ho iniziato Dead Island 2.
Carino graficamente ma niente di che.
Tutto maxato in 4K con TAA (senza FSR),
è una passeggiata di salute per la 4090.
118 fps fissi, cappati dal refresh.
Ieri ho iniziato Dead Island 2.
Carino graficamente ma niente di che.
Tutto maxato in 4K con TAA (senza FSR),
è una passeggiata di salute per la 4090.
118 fps fissi, cappati dal refresh.
Giusto per curiosità, ma è godibile anche in single player? C'è una storia?
Cutter90
22-04-2023, 10:04
Cmq con l'ultima versione di AB ilo mio OC daily che tenevo prima mi fa crashare Assetto Corsa Competizione.... la 4.6.5 doveva supportare nativamento le 4000 ma se il risultato è questo era meglio quando non le supportava... avete notato anche voi questa cosa?
Cmq con l'ultima versione di AB ilo mio OC daily che tenevo prima mi fa crashare Assetto Corsa Competizione.... la 4.6.5 doveva supportare nativamento le 4000 ma se il risultato è questo era meglio quando non le supportava... avete notato anche voi questa cosa?
PS come ti trovi con la suprim Liquid? che OC tieni?
Cutter90
22-04-2023, 10:50
PS come ti trovi con la suprim Liquid? che OC tieni?
Mostruosa. Non supero mai i 54 gradi nemmeno sotto oc pesante con 520 watt tirati. In oc si fanno anche 3050, quasi stabili da usare daily....
Un pelino di coil wine che però si sente solo a tv muta e a ventole ferme.
Davvero molto molto felice
Mostruosa. Non supero mai i 54 gradi nemmeno sotto oc pesante con 520 watt tirati. In oc si fanno anche 3050, quasi stabili da usare daily....
Un pelino di coil wine che però si sente solo a tv muta e a ventole ferme.
Davvero molto molto felice
Io la tengo a default .. tanto c'è potenza in esubero per ora..
PS appena finito Callisto protocol .. ora che avevo trovato qualche modo per farlo andare decorosamente .. finale "monco"... bah.. peccato
DJurassic
22-04-2023, 12:12
Io la tengo a default .. tanto c'è potenza in esubero per ora..
PS appena finito Callisto protocol .. ora che avevo trovato qualche modo per farlo andare decorosamente .. finale "monco"... bah.. peccato
Non c’era poi molto da scervellarsi, basta togliere il RT per godersi un esperienza perfetta.
magic carpet
22-04-2023, 16:33
Giusto per curiosità, ma è godibile anche in single player? C'è una storia?Sì, io gioco solo single player.
La storia sembra sempre la solita, ma c'è.
Non è open world e la trama sembra carina, ma sono solo all'inizio.
Non c’era poi molto da scervellarsi, basta togliere il RT per godersi un esperienza perfetta. problema risolto con HL mettendo gli ultimi driver di nvidia riesco a mettere il DLLA , quindi molto probabile era un problema di driver ciao
marbasso
22-04-2023, 19:16
:D
https://i.postimg.cc/8CK3Qs98/Screenshot-24.png (https://postimg.cc/hJmMV4KM)
micronauta1981
22-04-2023, 19:29
Mercoledì mi arriva il monitor nuovo l'alienware aw3423dwf qd oled, l'msi non era male,ma l'hdr era inesistente, nonostante un buon contrasto,e cmq aveva un tempo di risposta da pannello va,mi aspetto grandi cose passando all'oled.
sertopica
22-04-2023, 20:52
Mercoledì mi arriva il monitor nuovo l'alienware aw3423dwf qd oled, l'msi non era male,ma l'hdr era inesistente, nonostante un buon contrasto,e cmq aveva un tempo di risposta da pannello va,mi aspetto grandi cose passando all'oled.
Lo userai solo per giochi e/o film? L'unica cosa che mi trattiene dal prenderlo e' che mi serve anche per lavorare, navigare, leggere, ecc. quindi subentra il rischio burn in, ed anche la leggibilita' dei testi non e' ottima, affaticando di conseguenza la vista.
micronauta1981
22-04-2023, 21:31
Lo userai solo per giochi e/o film? L'unica cosa che mi trattiene dal prenderlo e' che mi serve anche per lavorare, navigare, leggere, ecc. quindi subentra il rischio burn in, ed anche la leggibilita' dei testi non e' ottima, affaticando di conseguenza la vista.
Solo giochi,i film li vedo in salotto sulla tv
Lo userai solo per giochi e/o film? L'unica cosa che mi trattiene dal prenderlo e' che mi serve anche per lavorare, navigare, leggere, ecc. quindi subentra il rischio burn in, ed anche la leggibilita' dei testi non e' ottima, affaticando di conseguenza la vista.
A tal proposito, il mio gigabyte ha giusto tirato le cuoia... E visto che come te leggo, lavoro... (sono programmatore) e poi il resto del tempo ci gioco, e non vorrei spendere una cifra enorme, meglio restare su un va o meglio un ips (mai avuto uno) come resa?
sertopica
23-04-2023, 05:47
A tal proposito, il mio gigabyte ha giusto tirato le cuoia... E visto che come te leggo, lavoro... (sono programmatore) e poi il resto del tempo ci gioco, e non vorrei spendere una cifra enorme, meglio restare su un va o meglio un ips (mai avuto uno) come resa?
Basandomi su quello che ho letto meglio lasciar perdere per ora se l'utilizzo e' multipurpose. Poi se devi anche scrivere codice non ci penserei due volte visto il tempo che ci passeresti di fronte. L'IPS resta ancora la miglior scelta in questi casi, c'e' per esempio l'Asus 1440p HDR600 con refresh a 360Hz ma costa un rene. Personalmente non ho ancora provato un OLED per uso desktop con mano, per questo chiedo.
Fine OT.
Basandomi su quello che ho letto meglio lasciar perdere per ora se l'utilizzo e' multipurpose. Poi se devi anche scrivere codice non ci penserei due volte visto il tempo che ci passeresti di fronte. L'IPS resta ancora la miglior scelta in questi casi, c'e' per esempio l'Asus 1440p HDR600 con refresh a 360Hz ma costa un rene. Personalmente non ho ancora provato un OLED per uso desktop con mano, per questo chiedo.
Fine OT.
Ok grazie, quindi comunque meglio un ips che un va.
Grazie e scusate l'ot
Ok grazie, quindi comunque meglio un ips che un va.
Grazie e scusate l'ot
Personalmente se devo giocare preferisco i VA.
I VA gestiscono meglio i neri e quindi le scene buie non hanno quel aspetto grigiastro che hanno le altre tecnologie.
Neri migliori corrispondono ad un contrasto migliore che rende l'immagine più tridimensionale.
Infine i VA sono anche curvi che rendono l'esperienza più coinvolgente.
Gli IPS hanno dei colori migliori, ma a causa della cattiva gestione dei neri le scene scure sono poco realistiche e personalmente li consiglierei ai grafici professionisti et similia, ma per un uso multimediale, per me, i VA hanno una resa migliore.
Cmq IPS e VA sono tecnologie vecchie e, se hai la possibilità, io tenderei più verso gli OLED che sono un altro pianeta :D
marbasso
23-04-2023, 10:39
Personalmente se devo giocare preferisco i VA.
I VA gestiscono meglio i neri e quindi le scene buie non hanno quel aspetto grigiastro che hanno le altre tecnologie.
Neri migliori corrispondono ad un contrasto migliore che rende l'immagine più tridimensionale.
Infine i VA sono anche curvi che rendono l'esperienza più coinvolgente.
Gli IPS hanno dei colori migliori, ma a causa della cattiva gestione dei neri le scene scure sono poco realistiche e personalmente li consiglierei ai grafici professionisti et similia, ma per un uso multimediale, per me, i VA hanno una resa migliore.
Cmq IPS e VA sono tecnologie vecchie e, se hai la possibilità, io tenderei più verso gli OLED che sono un altro pianeta :D
Ma un bell' oled non enorme? Ho visto qualcosa ma sono tutti da 40+ ''.
Io gioco principalmente e lo faccio a circa 80cm di distanza. Mi trovo ancora bene con i 27'' attualmente ho un odyssey g7 QHD.
micronauta1981
23-04-2023, 12:21
L'alienware è un 34" 21:9..
marbasso
23-04-2023, 12:34
L'alienware è un 34" 21:9..
Se devo cambiare preferirei passare direttamente a un 4k ormai.
Bello è bello ma la risoluzione...
micronauta1981
23-04-2023, 17:10
Se devo cambiare preferirei passare direttamente a un 4k ormai.
Bello è bello ma la risoluzione...
Dldsr e passa la paura...poi i 4k sono 16:9,neache sotto tortura ritorno ai 16:9
marbasso
23-04-2023, 18:33
Dldsr e passa la paura...poi i 4k sono 16:9,neache sotto tortura ritorno ai 16:9
A su questo ti posso capire
phoenix79
24-04-2023, 15:12
Salve a tutti, sono un possessore di una rtx 4090 Zotac Trinity.
Fino a ieri ho gestito la mia scheda con Firestorm e diciamo che mi son trovato bene a parte qualche bug del programma.
Facendo qualche test e sempre con tale software installato, la Gpu arrivava ad una frequenza massima di 2730 Mhz e 10500Mhz la vram.
Oggi ho disinstallato firestorm e mi sono accorto che ora la Gpu arriva ad una frequenza di 2900 Mhz e 10700 Mhz la memoria, temperature sempre ottime.
E' possibile una cosa simile?
Salve a tutti, sono un possessore di una rtx 4090 Zotac Trinity.
Fino a ieri ho gestito la mia scheda con Firestorm e diciamo che mi son trovato bene a parte qualche bug del programma.
Facendo qualche test e sempre con tale software installato, la Gpu arrivava ad una frequenza massima di 2730 Mhz e 10500Mhz la vram.
Oggi ho disinstallato firestorm e mi sono accorto che ora la Gpu arriva ad una frequenza di 2900 Mhz e 10700 Mhz la memoria, temperature sempre ottime.
E' possibile una cosa simile?
Certo che è possibile, tutte le 4090 con una buona impostazione di afterburner arrivano senza problemi a 3000 evidentemente il programma che usavi te la limitava tanto.
phoenix79
24-04-2023, 16:49
Certo che è possibile, tutte le 4090 con una buona impostazione di afterburner arrivano senza problemi a 3000 evidentemente il programma che usavi te la limitava tanto.
Ah perfetto, mi stavo preoccupando:)
Quindi potrei anche non installare nulla oppure mi consigli di installare afterburner o qualcosa di simile?
Ah perfetto, mi stavo preoccupando:)
Quindi potrei anche non installare nulla oppure mi consigli di installare afterburner o qualcosa di simile?
Installa afterburner, ti si aprirà un mondo di possibilità tra undevolt, overclock, limitare il PL e non ultimo la possibilità di personalizzare la curva delle ventole.
phoenix79
24-04-2023, 18:01
Installa afterburner, ti si aprirà un mondo di possibilità tra undevolt, overclock, limitare il PL e non ultimo la possibilità di personalizzare la curva delle ventole.
grazie Sal
h.rorschach
24-04-2023, 19:22
Arrivato cavo Corsair 12VHPWR. Finalmente libero dal polpo!
https://imgur.com/93Sjiy3.jpg
hellkitchen
24-04-2023, 20:45
visto che ho chiesto consigli su questo thread alcune settimane fa, alla fine ho preso una 4070Ti. Per le mie esigenze era la scelta migliore e sono riuscito con gli stessi soldi a prendere sia GPU che CPU (optando per il 5800X liscio e spendendo qualcosa di più per la Aorus Master che esteticamente mi faceva impazzire).
Continuo nel thread dedicato alle 4060/4070: grazie a tutti per i consigli che mi avete dato.
Magistercris
25-04-2023, 08:18
Ah perfetto, mi stavo preoccupando:)
Quindi potrei anche non installare nulla oppure mi consigli di installare afterburner o qualcosa di simile?
Comunque complimenti!
Se la gpu ti boosta a default a 2900 senza oc e senza afterburner, hai beccato uno dei chip più binnati in circolazione.
Se fai oc arrivi a sfiorare i 3100!!
hellkitchen
25-04-2023, 09:41
visto che ho chiesto consigli su questo thread alcune settimane fa, alla fine ho preso una 4070Ti. Per le mie esigenze era la scelta migliore e sono riuscito con gli stessi soldi a prendere sia GPU che CPU (optando per il 5800X liscio e spendendo qualcosa di più per la Aorus Master che esteticamente mi faceva impazzire).
Continuo nel thread dedicato alle 4060/4070: grazie a tutti per i consigli che mi avete dato.
Anzi.. ho cambiato idea e prendo domani una 4080 a mano. È la Verto Epic X RGB e non mi fa impazzire esteticamente.. ma tra questa a 1000€ e una 4070ti a 1100-1150€ alla fine ci ho ripensato e vado di 4080.
Inviato dal mio iPhone utilizzando Tapatalk
ultimate trip
25-04-2023, 10:04
Anzi.. ho cambiato idea e prendo domani una 4080 a mano. È la Verto Epic X RGB e non mi fa impazzire esteticamente.. ma tra questa a 1000€ e una 4070ti a 1100-1150€ alla fine ci ho ripensato e vado di 4080.
Inviato dal mio iPhone utilizzando Tapatalk
eh be direi, hai fatto strabene
hellkitchen
25-04-2023, 10:19
eh be direi, hai fatto strabene
Eh mi sono fatto condizionare dai brand e dalle custom.. ma alla fine 1158€ per una 4070ti mi giravano non poco.. la verto non sarà una Strix ma è una 4080 e a 1000€ e tutto sommato un buon prezzo considerando le performance incredibili.
Arrivo da un 3700x + 2080… immagino il salto prestazionale!
Inviato dal mio iPhone utilizzando Tapatalk
Anzi.. ho cambiato idea e prendo domani una 4080 a mano. È la Verto Epic X RGB e non mi fa impazzire esteticamente.. ma tra questa a 1000€ e una 4070ti a 1100-1150€ alla fine ci ho ripensato e vado di 4080.
Inviato dal mio iPhone utilizzando Tapatalk
Ottima scelta.
A 1000€ la 4080 incomincia ad essere interessante, anche se per me il suo valore è di 850€-900€ tenendo conto che ormai la 4090 si trova a 1500€ :D
marbasso
25-04-2023, 10:29
Comunque complimenti!
Se la gpu ti boosta a default a 2900 senza oc e senza afterburner, hai beccato uno dei chip più binnati in circolazione.
Se fai oc arrivi a sfiorare i 3100!!
Ma davvero?
Io riesco a benchare con 1.1v @1150mhz. Dipende dal bench. TIMESPY per esempio a 1135mhz.
Però raffreddo ad aria quindi mi fa piacere.
killeragosta90
25-04-2023, 11:35
Arrivato cavo Corsair 12VHPWR. Finalmente libero dal polpo!
https://imgur.com/93Sjiy3.jpg
Io devo ancora capire a che serve quel blocchetto di plastica antiestetico (sul cavo della Corsair intendo), banalmente a tenere uniti i cavi? (Possiedo anch'io questo cavo, io ho cercato di abbassarlo e nasconderlo, al suo posto ho usato delle piccole fascette nere)
hellkitchen
25-04-2023, 11:53
Ottima scelta.
A 1000 la 4080 incomincia ad essere interessante, anche se per me il suo valore è di 850-900 tenendo conto che ormai la 4090 si trova a 1500 :D
Si dai.. sono sempre un sacco di soldi, ma anche 16gb di ram in 2k sono sicuramente più future proof.
Insieme al 5800x la 4080 dovrebbe servirmi bene per i prossimi 4-5 anni.. tanto non ho intenzione di passare al 4k
Speriamo il mio Corsair RM750 (80+ gold) sia sufficiente per la 4080. Da PC part picker ho simulato la mia build ed era abbastanza
Inviato dal mio iPhone utilizzando Tapatalk
h.rorschach
25-04-2023, 12:28
Io devo ancora capire a che serve quel blocchetto di plastica antiestetico (sul cavo della Corsair intendo), banalmente a tenere uniti i cavi? (Possiedo anch'io questo cavo, io ho cercato di abbassarlo e nasconderlo, al suo posto ho usato delle piccole fascette nere)
Personalmente non lo trovo spiacevole, ma avrei sicuramente preferito che anche il resto dei cavi fosse fasciato, invece di lasciarli liberi. Sono nascosti sotto lo shroud della PSU quindi anche sticazzi.
phoenix79
25-04-2023, 13:05
Comunque complimenti!
Se la gpu ti boosta a default a 2900 senza oc e senza afterburner, hai beccato uno dei chip più binnati in circolazione.
Se fai oc arrivi a sfiorare i 3100!!
Ciao, la tua a quanti Mhz arriva con il boost? Se non sbaglio hai la versione OC
amon.akira
25-04-2023, 13:27
Ottima scelta.
A 1000€ la 4080 incomincia ad essere interessante, anche se per me il suo valore è di 850€-900€ tenendo conto che ormai la 4090 si trova a 1500€ :D
1500 sarebbe 1599,99? su trovaprezzi ora iniziano da 1600
Magistercris
25-04-2023, 13:53
Ciao, la tua a quanti Mhz arriva con il boost? Se non sbaglio hai la versione OC
Ciao.
La mia è all'antipodi....:muro:
A default senza oc 2760.
Con una curva su afterburner e un leggero Undervolt, senza toccare il pl e il voltaggio boosta fino 2875 stabili su tutto, per ora.
phoenix79
25-04-2023, 15:21
Ciao.
La mia è all'antipodi....:muro:
A default senza oc 2760.
Con una curva su afterburner e un leggero Undervolt, senza toccare il pl e il voltaggio boosta fino 2875 stabili su tutto, per ora.
Buono dai:) La mia ancora non mi convince. Secondo me è rimasta la configurazione dell'oc scanner...una volta ho provato:D
Altrimenti 2730 in default
Magistercris
25-04-2023, 16:12
Si potrebbe. Anche se non è detto. Altri utenti con chip buoni hanno picchi intorno a 2900.
Evangelion01
25-04-2023, 21:40
Provata la techdemo redwood , veramente impressionante! la 4090 al 100% in 2k ancora non l'avevo vista, arrivo a picchi negativi di 24 fps. :D
marbasso
26-04-2023, 08:24
Avete visto il trailer di Unrecord su Unreal engine 5?
Assurdo ....
Predator_1982
26-04-2023, 10:21
Avete visto il trailer di Unrecord su Unreal engine 5?
Assurdo ....
se è davvero questo sarà il metro di paragone per qualunque titolo del genere, uno sparti acque tra ciò a cui siamo stati abituati sin'ora e il nuovo. Però personalmente sono come San Tommaso...
Quando esce la 5090 RTX? :sofico:
hellkitchen
26-04-2023, 11:00
Avete visto il trailer di Unrecord su Unreal engine 5?
Assurdo ....
Impressionante, anche se con tutte quelle oscillazioni giocare sarebbe molto difficile e verrebbe la nausea. Sicuramente quel genere di inquadratura contribuisce a rendere reale il tutto, ma non mi ci vedo a giocare ad una roba del genere per lunghi periodi
Inviato dal mio iPhone utilizzando Tapatalk
hellkitchen
26-04-2023, 11:01
Comunque sono appena tornato a casa con la 4080, non vedo l’ora mi arrivi anche la CPU da Amazon nelle prossime ore così monto tutto.
È davvero enorme sta scheda 😂
Inviato dal mio iPhone utilizzando Tapatalk
hellkitchen
26-04-2023, 19:43
Ho finalmente montato tutto e provato la nuova build.
Arrivando da una 2080 sono seriamente impressionato: vedere sia le performance in raster che in RT aumentare in questo modo è una goduria, senza contare l'effetto del DLSS 3.0 che fa letteralmente volare CP 2077 e Witcher 3 next gen. Su quest'ultimo ho però avuto problemi di stutter e freeze con DLSS 3 dunque ho dovuto togliere il frame generation.
Anche in Horizon Zero Dawn sono rimasto a bocca aperta.. da 70-80fps con DLSS qualità a 160-170fps in 2k nativo: semplicemente allucinante.
Come temperature, avendo un Hyte Y60, mi aspettavo più problemi, invece devo dire che giocando a titoli molto impegnativi e con RT mi rimane sui 70°C con ventole della scheda al 50%.
Se tolgo il vetro del case o se metto le ventole della GPU al 100% mi scendono sui 64-65°C.
Secondo voi vale la pena cambiare le mie 2 ventole da 140mm prese dal mio vecchio Corsair Air 540, con 2 ventole a maggiori prestazioni che usavo sul mio vecchio dissipatore ad Aria? Di solito queste ventole sviluppano una maggiore pressione dell'aria, ma anche maggior rumore temo.
Oppure me ne frego che 70°C vanno benone?
Con HZD mi stava sui 60-65°C invece; dunque credo sia molto un tema di quale gioco si sta facendo girare.
h.rorschach
26-04-2023, 19:47
Ho finalmente montato tutto e provato la nuova build.
Arrivando da una 2080 sono seriamente impressionato: vedere sia le performance in raster che in RT aumentare in questo modo è una goduria, senza contare l'effetto del DLSS 3.0 che fa letteralmente volare CP 2077 e Witcher 3 next gen. Su quest'ultimo ho però avuto problemi di stutter e freeze con DLSS 3 dunque ho dovuto togliere il frame generation.
Apri pannello NVIDIA, vai nei profili dei giochi, seleziona CP2077 o TW3, scorri giù a Max Framerate, attiva, setta a 57; scorri giù a VSync, attiva, setta Adaptive; Low Latency, attiva, On
hellkitchen
26-04-2023, 19:48
Apri pannello NVIDIA, vai nei profili dei giochi, seleziona CP2077 o TW3, scorri giù a Max Framerate, attiva, setta a 57; scorri giù a VSync, attiva, setta Adaptive; Low Latency, attiva, On
Questo è il fix per gli stutter? In CP2077 non ho avuto problemi, mentre in Witcher 3 ne ho avuti parecchi.
Settando max framerate a 57 significa che mi blocca i frame a quei valori?
h.rorschach
26-04-2023, 19:50
Questo è il fix per gli stutter? In CP2077 non ho avuto problemi, mentre in Witcher 3 ne ho avuti parecchi.
Settando max framerate a 57 significa che mi blocca i frame a quei valori?
È il fix per ogni tipo di stutter e latenza introdotta da FG su monitor non VRR/G-Sync. Blocca i frame a 57 (o comunque 3 sotto il tuo refresh rate) e non toccarli. Non mettere 58, non 59, non 56. 57. Poi riprova in gioco e vedi come va
hellkitchen
26-04-2023, 20:06
È il fix per ogni tipo di stutter e latenza introdotta da FG su monitor non VRR/G-Sync. Blocca i frame a 57 (o comunque 3 sotto il tuo refresh rate) e non toccarli. Non mettere 58, non 59, non 56. 57. Poi riprova in gioco e vedi come va
Ok chiaro, aggiungo come info che il mio monitor è G-sync :)
Inviato dal mio iPhone utilizzando Tapatalk
h.rorschach
26-04-2023, 20:15
Ok chiaro, aggiungo come info che il mio monitor è G-sync :)
Inviato dal mio iPhone utilizzando Tapatalk
In caso di GSync non dovresti aver nessuno stutter a prescindere, ma spero aiuti comunque
hellkitchen
26-04-2023, 20:44
In caso di GSync non dovresti aver nessuno stutter a prescindere, ma spero aiuti comunque
Si sembrano più dei freeze che degli stutter.. ora sto provando e mi pare vada bene, ma vediamo dopo una mezzoretta di gioco.
Tra l’altro con RT ultra e Frame Generation mi consuma 250W e rimane sui 65gradi.. silenziosissima. Che scheda magnifica: se avessi ancora il sistema nel mio vecchio Aie 540 secondo me avrei avuto almeno 5 gradi meno.. cade spettacolare, peccato un po’ “datato” come estetica
Inviato dal mio iPhone utilizzando Tapatalk
Si sembrano più dei freeze che degli stutter.. ora sto provando e mi pare vada bene, ma vediamo dopo una mezzoretta di gioco.
Tra l’altro con RT ultra e Frame Generation mi consuma 250W e rimane sui 65gradi.. silenziosissima. Che scheda magnifica: se avessi ancora il sistema nel mio vecchio Aie 540 secondo me avrei avuto almeno 5 gradi meno.. cade spettacolare, peccato un po’ “datato” come estetica
Inviato dal mio iPhone utilizzando Tapatalk
Abbiamo praticamente la stessa combo cpu/gpu, e come te sono rimasto impressionato (io arrivavo da una 6800xt comunque). Veramente silenziosa sta PNY e rimane totalmente fresca (col mio case a me resta sui 64/65 nei giochi a massimo sforzo).
Piacevolmente soddisfatto anch'io, la 4080 a livello di prestazioni è comunque tanta roba, con quei consumi poi
h.rorschach
26-04-2023, 21:52
FG in CP2077 con Overdrive non mi supera i 150W, sicuro la tua vada a 250?
hellkitchen
26-04-2023, 21:53
Abbiamo praticamente la stessa combo cpu/gpu, e come te sono rimasto impressionato (io arrivavo da una 6800xt comunque). Veramente silenziosa sta PNY e rimane totalmente fresca (col mio case a me resta sui 64/65 nei giochi a massimo sforzo).
Piacevolmente soddisfatto anch'io, la 4080 a livello di prestazioni è comunque tanta roba, con quei consumi poi
Si impressionante come, per esempio, su HZD usando il v-sync a 144FPS, praticamente sta sotto le 200W :D se la lasci andare arriva a oltre 170FPS sui 250W :D
Per ora l'ho vista a oltre 300W solo in CP 2077 con RT Overdrive
hellkitchen
26-04-2023, 21:55
FG in CP2077 con Overdrive non mi supera i 150W, sicuro la tua vada a 250?
Ho provato ora con Witcher 3 tenendo il FG attivo, RT ultra in 2k con DLSS qualità, mi va sui 120fps e i consumi erano im media sui 240-260W.
hellkitchen
26-04-2023, 21:59
Abbiamo praticamente la stessa combo cpu/gpu, e come te sono rimasto impressionato (io arrivavo da una 6800xt comunque). Veramente silenziosa sta PNY e rimane totalmente fresca (col mio case a me resta sui 64/65 nei giochi a massimo sforzo).
Piacevolmente soddisfatto anch'io, la 4080 a livello di prestazioni è comunque tanta roba, con quei consumi poi
PS: la PNY è davvero ottima e anche varie review che mi sono letto poi confermano che ha un ottimo dissipatore. Tech power up ne ha fatto una recensione molto approfondita.
Se penso che stavo per comprare una 4070Ti Strix a 1150€ invece che questa 4080 a 1000€ mi viene male :D
Senza nulla togliere alla 4070Ti ma mi stavo facendo veramente guidare troppo dal nome e dal blasone (oltre che un po' dall'estetica).
Sicuramente una Aorus o una Strix hanno un design forse più ricercato, ma anche questa PNY è ben costruita e una bella estetica: dal vivo mi è piaciuta molto più che in foto.
PS: la PNY è davvero ottima e anche varie review che mi sono letto poi confermano che ha un ottimo dissipatore. Tech power up ne ha fatto una recensione molto approfondita.
Se penso che stavo per comprare una 4070Ti Strix a 1150€ invece che questa 4080 a 1000€ mi viene male :D
Senza nulla togliere alla 4070Ti ma mi stavo facendo veramente guidare troppo dal nome e dal blasone (oltre che un po' dall'estetica).
Sicuramente una Aorus o una Strix hanno un design forse più ricercato, ma anche questa PNY è ben costruita e una bella estetica: dal vivo mi è piaciuta molto più che in foto.
Verissimo, anch'io dal vivo ho avuto modo di apprezzarla molto di più. La qualità costruttiva è ottima. Solida.
Io ai tempi ero indeciso tra questa e una zotac e scelsi questa perché era amazon con orine (spedizione gratuita).
Non me ne sono msi pentito
hellkitchen
26-04-2023, 22:23
Verissimo, anch'io dal vivo ho avuto modo di apprezzarla molto di più. La qualità costruttiva è ottima. Solida.
Io ai tempi ero indeciso tra questa e una zotac e scelsi questa perché era amazon con orine (spedizione gratuita).
Non me ne sono msi pentito
La Zotac era un'alternativa, ma esteticamente mi piaceva ancora meno!
Tra l'altro stavo provando ora un po' di giochi a caso... e se non c'è di mezzo RT o cose simili sta scheda praticamente con 100W fa per esempio 120FPS su FF7 Remake rimanendo sotto i 50 gradi... sono veramente senza parole se penso che con la 2080 dovevo addirittura mettere la definizione delle texture su basso o mi dava stuttering e cali di frame. Mi pare facessi sugli 80-90 fps
La Zotac era un'alternativa, ma esteticamente mi piaceva ancora meno!
Tra l'altro stavo provando ora un po' di giochi a caso... e se non c'è di mezzo RT o cose simili sta scheda praticamente con 100W fa per esempio 120FPS su FF7 Remake rimanendo sotto i 50 gradi... sono veramente senza parole se penso che con la 2080 dovevo addirittura mettere la definizione delle texture su basso o mi dava stuttering e cali di frame. Mi pare facessi sugli 80-90 fps
Come prestazioni/consumi sono ottime
Evangelion01
26-04-2023, 22:56
PS: la PNY è davvero ottima e anche varie review che mi sono letto poi confermano che ha un ottimo dissipatore. Tech power up ne ha fatto una recensione molto approfondita.
Se penso che stavo per comprare una 4070Ti Strix a 1150€ invece che questa 4080 a 1000€ mi viene male :D
Senza nulla togliere alla 4070Ti ma mi stavo facendo veramente guidare troppo dal nome e dal blasone (oltre che un po' dall'estetica).
Sicuramente una Aorus o una Strix hanno un design forse più ricercato, ma anche questa PNY è ben costruita e una bella estetica: dal vivo mi è piaciuta molto più che in foto.
da possessore confermo, la pny è silenziosissima e molto valida :O
da possessore confermo, la pny è silenziosissima e molto valida :O
Mi ricordo che mi consigliasti la pny quando ero indeciso tra le due.
Ottimo consiglio ;)
hellkitchen
27-04-2023, 00:04
da possessore confermo, la pny è silenziosissima e molto valida :O
Vero! In compenso il 5800x è un bel fornetto. Ero abituato con il 3700x che oltre 55 gradi non era mai andato
Inviato dal mio iPhone utilizzando Tapatalk
Vero! In compenso il 5800x è un bel fornetto. Ero abituato con il 3700x che oltre 55 gradi non era mai andato
Inviato dal mio iPhone utilizzando Tapatalk
Se ti interessa, prova a impostare il pbo così:
PPT 120 / TDC 75 / EDC 110
Non perdi quasi nulla come prestazioni (circa il 3%) e io ci ho guadagnato una decina di gradi in meno in media
lukeskywalker
27-04-2023, 07:03
PS: la PNY è davvero ottima e anche varie review che mi sono letto poi confermano che ha un ottimo dissipatore. Tech power up ne ha fatto una recensione molto approfondita.
Se penso che stavo per comprare una 4070Ti Strix a 1150€ invece che questa 4080 a 1000€ mi viene male :D
Senza nulla togliere alla 4070Ti ma mi stavo facendo veramente guidare troppo dal nome e dal blasone (oltre che un po' dall'estetica).
Sicuramente una Aorus o una Strix hanno un design forse più ricercato, ma anche questa PNY è ben costruita e una bella estetica: dal vivo mi è piaciuta molto più che in foto.
dove la 4080 a 1000???
hellkitchen
27-04-2023, 08:34
Se ti interessa, prova a impostare il pbo così:
PPT 120 / TDC 75 / EDC 110
Non perdi quasi nulla come prestazioni (circa il 3%) e io ci ho guadagnato una decina di gradi in meno in media
Mmh interessante: una sorta di undervolt o un underclock? O altro?
Lo faccio da BIOS?
dove la 4080 a 1000???
L’ho trovata da un ragazzo di Lecco nuova sigillata con fattura Amazon FR.
Sono soddisfatto del prezzo che ho trovato!
Inviato dal mio iPhone utilizzando Tapatalk
Mmh interessante: una sorta di undervolt o un underclock? O altro?
Lo faccio da BIOS?
Si, da bios, imposti il bpo manualmente con questi valori.
Li ho trovati in una discussione su reddit, non so se posso psotare il link, te lo mando in privato.
Vero! In compenso il 5800x è un bel fornetto. Ero abituato con il 3700x che oltre 55 gradi non era mai andato
Inviato dal mio iPhone utilizzando Tapatalk
Avresti dovuto prendere il 5700X costa di meno, consuma meno, scalda meno e se attivi il PBO hai un guadagno del 5%.
Il mio 5700X con overclock tramite PBO e le curve ottimizzate nei stress test non supera i 58° :D
Evangelion01
27-04-2023, 10:20
Se ti interessa, prova a impostare il pbo così:
PPT 120 / TDC 75 / EDC 110
Non perdi quasi nulla come prestazioni (circa il 3%) e io ci ho guadagnato una decina di gradi in meno in media
questo tweaking è fattibile anche sul 5800x3d?
questo tweaking è fattibile anche sul 5800x3d?
Sinceramente non saprei se va bene uguale (come valori) per il 3D, questi li avevo presi da una discussione sul 5800x su reddit
hellkitchen
27-04-2023, 11:00
Avresti dovuto prendere il 5700X costa di meno, consuma meno, scalda meno e se attivi il PBO hai un guadagno del 5%.
Il mio 5700X con overclock tramite PBO e le curve ottimizzate nei stress test non supera i 58° :D
Eheh sinceramente mi sono concentrato come ricerche sulla GPU.. il processore ho fatto che prendere senza leggere praticamente nulla :D
Comunque anche 65-70 gradi in game non mi sembrano una tragedia… tende a far partire spesso le ventole del dissi però, perché si scalda molto velocemente!
Inviato dal mio iPhone utilizzando Tapatalk
hellkitchen
27-04-2023, 13:49
Comunque, scusate l’OT, parlando di 5800x ho trovato queste info su lo thread dedicato all’overclock dei Ryzen qui su HW upgrade
PBO Limits (PPT, TDC, EDC):
Package Power Tracking (“PPT”): il valore del PPT rappresenta il massimo consumo di potenza (Watt) consentito attraverso il socket;
Thermal Design Current (“TDC”): il massimo valore di corrente (Ampere) che può essere erogato dalla sezione di alimentazione della scheda madre in scenari applicativi limitati dalla temperatura (quindi in caso di carico sostenuto sulla CPU dove questa si autolimita in freqeunza e tensione per rispettare i limiti di temperatura);
Electrical Design Current (“EDC”): il massimo valore di corrente (Ampere) che può essere erogato dalla sezione di alimentazione della scheda madre in scenari applicativi di picco, ovvero di carichi elevati applicati per brevi periodi di tempo.
Buona lettura https://www.hwupgrade.it/forum/showpost.php?p=45477745&postcount=3
Inviato dal mio iPhone utilizzando Tapatalk
Cutter90
27-04-2023, 18:44
SOno passato ai favolosi 32 gb e questo è il guadagno in cp2077 con path tracing ecc ecc tutto al max in 4k
https://i.ibb.co/kqZstss/Cyberpunk-2077-Screenshot-2023-04-11-23-10-04-91.png (https://ibb.co/xzZtNtt)
https://i.ibb.co/FhpPsSh/Cyberpunk-2077-Screenshot-2023-04-27-18-52-07-72.png (https://ibb.co/p1qmWt1)
In tlou la situazione invece è ben differente
Evangelion01
27-04-2023, 18:58
ovvio, la differenza tra 16 e 32 si vede quando vai a saturarla, altrimenti è assolutamente trascurabile :)
Cutter90
27-04-2023, 20:00
ovvio, la differenza tra 16 e 32 si vede quando vai a saturarla, altrimenti è assolutamente trascurabile :)
Qui la differenza in TLOU che ovviamente è enorme.
https://i.ibb.co/hsH6VTb/Immagine-Whats-App-2023-04-27-1ore-20-57-36.jpg (https://ibb.co/7vVfK0P)
16 vs 32
20 fps tondi guadagnati
bagnino89
27-04-2023, 20:06
Qui la differenza in TLOU che ovviamente è enorme.
16 vs 32
20 fps tondi guadagnati
Fa un po' ridere comunque un engine che si pappa una marea di RAM quando invece avrebbe a disposizione quintali di VRAM. Che cani...
lukeskywalker
28-04-2023, 06:21
PS: la PNY è davvero ottima e anche varie review che mi sono letto poi confermano che ha un ottimo dissipatore. Tech power up ne ha fatto una recensione molto approfondita.
Se penso che stavo per comprare una 4070Ti Strix a 1150€ invece che questa 4080 a 1000€ mi viene male :D
Senza nulla togliere alla 4070Ti ma mi stavo facendo veramente guidare troppo dal nome e dal blasone (oltre che un po' dall'estetica).
Sicuramente una Aorus o una Strix hanno un design forse più ricercato, ma anche questa PNY è ben costruita e una bella estetica: dal vivo mi è piaciuta molto più che in foto.
Verissimo, anch'io dal vivo ho avuto modo di apprezzarla molto di più. La qualità costruttiva è ottima. Solida.
Io ai tempi ero indeciso tra questa e una zotac e scelsi questa perché era amazon con orine (spedizione gratuita).
Non me ne sono msi pentito
avevo letto anche io la recensione della PNY che tra l'altro è l'unica 4080 abbordabile su amazon, ma mi fa anche molto piacere sentire le impressioni positive di chi come voi l'ha acquistata, infatti avendo reso la 3080 ancora in garanzia l'ho comprata pure io, in arrivo domani ;)
Buongiorno ragazzi,
Volevo dirvi che sono rimasto piacevolmente impressionato dai primi minuti di gioco di Fallen Order, pur giocandolo per pochi minuti stamattina sul muletto che ho qui a casa di mia madre (con 6850k e 3090 e con 16 gb di mem) mi ha fatto una buona impressione e che girasse molto bene con tutto al max e con ray tracing attivo (il DLSS purtroppo non c'è) stasera lo riproverò ma me lo giocherò per bene sul mio PC principale quando ritornerò a casa mia.
Cutter90
28-04-2023, 07:29
Buongiorno ragazzi,
Volevo dirvi che sono rimasto piacevolmente impressionato dai primi minuti di gioco di Fallen Order, pur giocandolo per pochi minuti stamattina sul muletto che ho qui a casa di mia madre (con 6850k e 3090 e con 16 gb di mem) mi ha fatto una buona impressione e che girasse molto bene con tutto al max e con ray tracing attivo (il DLSS purtroppo non c'è) stasera lo riproverò ma me lo giocherò per bene sul mio PC principale quando ritornerò a casa mia.
Mmmmmm in questo video con la 4090 gira malissimo. Non tiene nemmeno i 60 in 4k nativo senza rt ( e il RT è quello amd, quindi di fatto è come s enon ci fosse :stordita: )
Con rt e fsr2 su qualità fa uguale, sta sui 60 ma con evidente stutter e problemi di frame time
Se è così è una porcheria
https://www.youtube.com/watch?v=BUGhU7HcvaM
Minuto 33
Ma poi... vogliamo parlare delle animazioni del personaggio? MA LOL
avevo letto anche io la recensione della PNY che tra l'altro è l'unica 4080 abbordabile su amazon, ma mi fa anche molto piacere sentire le impressioni positive di chi come voi l'ha acquistata, infatti avendo reso la 3080 ancora in garanzia l'ho comprata pure io, in arrivo domani ;)
Benvenuto nel club :)
Buongiorno ragazzi,
Volevo dirvi che sono rimasto piacevolmente impressionato dai primi minuti di gioco di Fallen Order, pur giocandolo per pochi minuti stamattina sul muletto che ho qui a casa di mia madre (con 6850k e 3090 e con 16 gb di mem) mi ha fatto una buona impressione e che girasse molto bene con tutto al max e con ray tracing attivo (il DLSS purtroppo non c'è) stasera lo riproverò ma me lo giocherò per bene sul mio PC principale quando ritornerò a casa mia.
azz
hai aspettato l'uscita proprio al secondo
brev
hellkitchen
28-04-2023, 08:10
Buongiorno ragazzi,
Volevo dirvi che sono rimasto piacevolmente impressionato dai primi minuti di gioco di Fallen Order, pur giocandolo per pochi minuti stamattina sul muletto che ho qui a casa di mia madre (con 6850k e 3090 e con 16 gb di mem) mi ha fatto una buona impressione e che girasse molto bene con tutto al max e con ray tracing attivo (il DLSS purtroppo non c'è) stasera lo riproverò ma me lo giocherò per bene sul mio PC principale quando ritornerò a casa mia.
PC muletto —> RTX 3090 🤣🤣🤣
Inviato dal mio iPhone utilizzando Tapatalk
hellkitchen
28-04-2023, 08:13
avevo letto anche io la recensione della PNY che tra l'altro è l'unica 4080 abbordabile su amazon, ma mi fa anche molto piacere sentire le impressioni positive di chi come voi l'ha acquistata, infatti avendo reso la 3080 ancora in garanzia l'ho comprata pure io, in arrivo domani ;)
Hai preso la verto liscia (quella un po’ più piccola e senza X RGB) oppure la Verto Epic X (quella Tamarra con RGB)?
Comunque è un ottima scheda con ottime temperature, molto silenziosa e performance alla pari con tutte le altre 4080.
L’unico difetto che gli hanno trovato è di avere i power limit bloccati nonostante abbia un dissipatore in grado di raffreddarla in maniera adeguata. Dunque se uno vuole fare OC spinto deve andare su altro.
Inviato dal mio iPhone utilizzando Tapatalk
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.