View Full Version : [Thread Ufficiale] nVidia AD102-AD103 (RTX 4090 - 4080/Super - 4070Ti Super)
Mi ero dimenticato dei pesci d'Aprile (https://www.dsogaming.com/news/3dfx-re-enters-the-gpu-market-shows-off-an-rtx4090-killer-with-30gb-of-vram-at-1000/) :D :D :D :D :D
amon.akira
01-04-2023, 12:23
Esatto è lì. Ma occhio che hai qualche impostazione non al massimo evidentemente. Perché in 4k in quel punto non puoi fare 97 fps e 130 in dlss quality. Tutti i video che ho visto in rete in quel punto fanno 4-5 fps più di me con 13900k. Tu ne fai 10 e passa e non è possibile
Esempio: minuto 19. https://www.youtube.com/watch?v=_jiDEh7gmWw
Cmq vai un pelino avanti e poi fai "rinizia al checkpoit" e senza più muovere la visuale vedi che fai sull'ottantina di fps in 4k nativo.
si non avevo tutto on, avevo aberrazione,motion blur e grana off, e nelle impostazioni grafiche il dof per solo i filmati.
in questo caso specifico è il "motion blur" a fare la differenza di fps tra i miei primi screens.
ora ho messo tutto on e nelle impostazioni grafiche preset ultra che maxa tutto ed ho caricato da checkpoint
4k nativo ultra
https://i.ibb.co/qpf8gP3/4k.jpg (https://ibb.co/qpf8gP3)
4k ultra dlss quality
https://i.ibb.co/D8V0wnb/4k-dlss.jpg (https://ibb.co/D8V0wnb)
Ancora? Lo avevamo già affrontato sto discorso.
Non avere la cpu al 100% non vuol dire che non sei cpu limited.
Se il motore grafico sfrutta uno, due o quattro core e basta ma l'ipc del tuo processore è inferiore ad un altro avrai una limitazione della tua cpu per tale gpu rispetto ad una cpu più prestante.
E la 4090 ha messo l'accento su questo fatto perché ha ampliato la forbice di differenza come si è reso conto cutter pochi post più su dove un 13600k gli da diversi fps di differenza.Credo si riferisca alla percentuale della GPU, lì il discorso cambia.
davide155
01-04-2023, 12:37
Credo si riferisca alla percentuale della GPU, lì il discorso cambia.Anche con la gpu al 100% puoi essere cpu limit. Tranquillamente. Se ti si abbassa anche l'usage della gpu allora sei fortemente cpu limited.
Come detto, la 4090 ha solo amplificato il problema.
Eddie666
01-04-2023, 13:14
si, il mio discorso era riferito al GPU usage; quello che voglio dire è che so benissimo (ci sono paginate e paginate di test sul web che lo dimostrano) che la 4090, più una dietro una CPU potente più spinge....assodato questo, è anche vero che giocando in 4k questa differenza tende ad assottigliarsi (non dico che diventi zero, ma sicuramente impatta molto meno che non a 1080p o 1440p), per cui mi faceva strano sentire di un utente che affermava che la sua CPU lo limitava in un modo sensibile (sensibile da rendersene effettivamente conto, e non per via di un confronto con altre build dotate appunto di CPU più performanti)
DJurassic
01-04-2023, 13:39
4k nativo ultra
https://i.ibb.co/qpf8gP3/4k.jpg (https://ibb.co/qpf8gP3)
4k ultra dlss quality
https://i.ibb.co/D8V0wnb/4k-dlss.jpg (https://ibb.co/D8V0wnb)
100 volte meglio come lo tieni tu, ovvero con quei filtri spenti. Il film grain andrebbe bandito dalla faccia della terra insieme alle chromatic aberration. Fanno sempre schifo in ogni gioco nessuno escluso.
Cutter90
01-04-2023, 14:03
È un remake non una remastered. Credo tu sappia la differenza.
Sono JXR esportati in png perché gioco in HDR. Io li vedo bene sul mio ma forse dipende appunto da quello. Mi scoccia disattivare l’HDR per fare gli ss ma comunque era solo per far capire di cosa parliamo. Per me siete completamente fuori strada e anzi vi dirò di più.
Lascio perdere questo argomento perché non ho voglia di sprecare il mio tempo per dimostrare qualcosa che io già so. Tornerò a scrivere quando si affronteranno altre discussioni. TLOU non ha certo bisogno di essere difeso da me, anche perché non era nemmeno quello l’intento.
Quando leggo che un Bright Memory è superiore vuol dire che è ora di staccare. :asd:
Davvero non riesci a rendeti conto che Bright Memory in alcuni aspetti tecnici è superiore a tlou? Illuminazione, fisica, tutta la roba che c'è a schermo.... sinceramente è la prima volta che non mi trovo d accordo con te dal punto di vista tecnico. In gioco ci sono tanti aspetti da considerare per valutare l aspetto tecnico. A me pare di valutarli tutti.
Cutter90
01-04-2023, 14:05
Ancora? Lo avevamo già affrontato sto discorso.
Non avere la cpu al 100% non vuol dire che non sei cpu limited.
Se il motore grafico sfrutta uno, due o quattro core e basta ma l'ipc del tuo processore è inferiore ad un altro avrai una limitazione della tua cpu per tale gpu rispetto ad una cpu più prestante.
E la 4090 ha messo l'accento su questo fatto perché ha ampliato la forbice di differenza come si è reso conto cutter pochi post più su dove un 13600k gli da diversi fps di differenza.
Esatto. In sostanza con il mio sotto i 120 di solito perdo 3-5 fps anche dal 13900k a parità di settaggi in 4k, con gpu al 99%. Ma non perché ho la cpu al 100%. In tlou invece è il primo caso in cui ho la cpu al 100% e quindi mi taglia 20 e passa fps. Ma come detto è il gioco che usa la cpu in modo esageratamente alto. Infatti è l unico
amon.akira
01-04-2023, 14:13
I dati a schermo è sempre Afterburner? Come si configura in quel modo?
no è rivatuner->setup->plugins->overlayeditor
bagnino89
01-04-2023, 14:16
Vabbe' ma non la prendere sul personale, e' la mia opinione e resta tale. :D
Per me e' la complessita' poligonale ad essere carente, nello specifico sulla distanza, l'illuminazione che mi sembra molto statica, lo shading sui materiali, il fatto che si veda ci si muova in ambienti molto piccoli dove la maggior parte degli elementi a schermo fanno da contorno e stonano con il resto... I modelli dei personaggi sono ottimi come da tradizione ND, cosi' come le animazioni.
Non sto dicendo che e' una cagata tout court, ma neanche che e' un capolavoro di realizzazione tecnica.
100 volte meglio come lo tieni tu, ovvero con quei filtri spenti. Il film grain andrebbe bandito dalla faccia della terra insieme alle chromatic aberration. Fanno sempre schifo in ogni gioco nessuno escluso.
Quoto entrambi.
Cutter90
01-04-2023, 14:30
100 volte meglio come lo tieni tu, ovvero con quei filtri spenti. Il film grain andrebbe bandito dalla faccia della terra insieme alle chromatic aberration. Fanno sempre schifo in ogni gioco nessuno escluso.
Su questo straconcordo. Non capisco perché gli inseriscano ogni volta. A parte il blur che se sono costretto a giocare sotto i 60 lo attivo causa oled. Ma parliamo di eventualità più unica che rara
sto giocando con il dual sense (TLOU), attivando i controlli aptici, e confermo che ora il gioco è totalmente privo di stutter legati all'uso del mouse ;)
in compenso, per la prima volta, mi ha appena crashato! :asd:
ps. mi direste come disattivare la grana film tra le opzioni grafiche? Non trovo la voce.. :muro:
amon.akira
01-04-2023, 14:49
devi andare su schermo nn su grafica, ce aberrazione,blur,grana con gli slider 0-10
manca l opzione dirty lens purtroppo, ma è la meno peggio rispetto alle altre :p
Cutter90
01-04-2023, 14:55
100 volte meglio come lo tieni tu, ovvero con quei filtri spenti. Il film grain andrebbe bandito dalla faccia della terra insieme alle chromatic aberration. Fanno sempre schifo in ogni gioco nessuno escluso.
Su questo straconcordo. Non capisco perché gli inseriscano ogni volta. A parte il blur che se sono costretto a giocare sotto i 60 lo attivo causa oled. Ma parliamo di eventualità più unica che rara
devi andare su schermo nn su grafica, ce aberrazione,blur,grana con gli slider 0-10
manca l opzione dirty lens purtroppo, ma è la meno peggio rispetto alle altre :p
Grazie mille :)
ps. per la prima volta attivando o disattivando il dlss, gli fps rimangono gli stessi :eek: (3440x1440)
a conferma di come in questo gioco sia fortemente cpu limited con la mia configurazione, a quella risoluzione.
Cutter90
01-04-2023, 15:35
Grazie a mio fratello sto facendo dei test sulla ram. La mia 16 gb a 4600 mhz vs 32 gb a 3600 mhz.
I risultati sono ancora contro TLOU. Unico gioco che sembra beneficiare dei 32 gb guadagnando fps. Testando però su a plague tale e ghostwire il risultato è che con i 32 gb più lenti si perdono 2-5 fps. Quindi ancora una volta tlou non ne esce certo vincitore
Eddie666
01-04-2023, 15:42
Esatto. In sostanza con il mio sotto i 120 di solito perdo 3-5 fps anche dal 13900k a parità di settaggi in 4k, con gpu al 99%. Ma non perché ho la cpu al 100%. In tlou invece è il primo caso in cui ho la cpu al 100% e quindi mi taglia 20 e passa fps. Ma come detto è il gioco che usa la cpu in modo esageratamente alto. Infatti è l unico
fammi capire, giochi in 4k e hai la CPU costantemente al 100%? con quali settaggi? potresti mica postare uno screen in cui si vede la CPU al 100% (magari verso l'inizio del gioco, perché ancora non sono molto avanti), per poterlo paragonare con la mia config e vedere se anche la mia CPU (un 11700) si comporta allo stesso modo?
Cutter90
01-04-2023, 16:02
fammi capire, giochi in 4k e hai la CPU costantemente al 100%? con quali settaggi? potresti mica postare uno screen in cui si vede la CPU al 100% (magari verso l'inizio del gioco, perché ancora non sono molto avanti), per poterlo paragonare con la mia config e vedere se anche la mia CPU (un 11700) si comporta allo stesso modo?
Ecco un po' di prove. Come si può vedere tra 32 e 16 è il solo tlou a guadagnare, mentre negli altri due o resto uguale o perdo fps. Notare come il solo tlou mangi la cpu e come, sempre e solo lì, mangi la ram.
Partiamo con Ghostwire Tokyo. SOno andato nel posto più pesante di tutto il gioco, con tantissimi riflessi in RT, pioggia compresa. Tutto al max, 5760x3240 con dlss qualità. Perdo 4 fps quando monto i 32 gb. Notare cpu e ram occupata.(gli screen sono in 4k perchè in 6k superavo la grandezza massimo dell'host ahaha)
https://i.ibb.co/SB4NR3Q/Ghost-Wire-Tokyo-Screenshot-2023-04-01-15-53-16-10-4k.png (https://ibb.co/cQSJDrb)
https://i.ibb.co/vBnJkZn/Ghost-Wire-Tokyo-Screenshot-2023-04-01-16-13-35-11-4k-2.png (https://ibb.co/hMzKVDz)
Passiamo poi a Plague tale. 4k, maxato con dlss. Qui non c'è differenza tra 32 vs 16 gb di ram. Notare sempre cpu e ram occupata
https://i.ibb.co/z2CtLL6/A-Plague-Tale-Requiem-Screenshot-2023-04-01-16-01-06-99.png (https://ibb.co/gWQcXX4)
https://i.ibb.co/DphgV7L/A-Plague-Tale-Requiem-Screenshot-2023-04-01-16-19-41-42.png (https://ibb.co/M6r52R9)
Arriviamo infine a suo mattone reale tlou. Maxato in 4k nativo la prima. Dlss qualità la seconda. Notare sempre cpu e ram. Qui ero con i 32.
Nella prima 88 fps con i 32 vs 82 con i 16
Nella seconda 100 fps con i 32 vs 86 con i 16
https://i.ibb.co/sJ9Lp8W/The-Last-of-Us-Part-I-Screenshot-2023-04-01-16-17-41-09.png (https://ibb.co/4gRBwh1)
https://i.ibb.co/qD9cKks/The-Last-of-Us-Part-I-Screenshot-2023-04-01-16-17-00-15.png (https://ibb.co/MgptrMV)
A voi le conclusioni. Le mie sono che se in tutti i giochi che ho il mio hardware è più che sufficiente, ed è pure vero che è meglio avere 16 gb veloci che 32 gb più lenti, e in tlou no e tecnicamente sia inferiore (a plague tale sicuro al 100%) la conclusione è che tlou sia rotto.
davide155
01-04-2023, 16:50
X Cutter
Qua un esempio mio, 12900k con e-core disattivati da bios, con cpu a 5100mhz, quindi nemmeno chissà quale frequenza. Rimane un 8 core ed 8 thread.
4k senza dlss.
Non l'ho mai visto toccare il 60%.
Ps: notare l'efficienza delle nuove cpu. Sono impressionanti.
https://uploads.tapatalk-cdn.com/20230401/24a3bf1024f3877bdfee2c7ef8ca7185.jpg
bagnino89
01-04-2023, 17:09
X Cutter
Qua un esempio mio, 12900k con e-core disattivati da bios, con cpu a 5100mhz, quindi nemmeno chissà quale frequenza. Rimane un 8 core ed 8 thread.
4k senza dlss.
Non l'ho mai visto toccare il 60%.
Ps: notare l'efficienza delle nuove cpu. Sono impressionanti.
Non sono 16 thread? I P core hanno l'hyperthreading.
davide155
01-04-2023, 17:33
Non sono 16 thread? I P core hanno l'hyperthreading.Appunto, ho voluto ricreare la stessa situazione di numero di core come cutter....8+8
bagnino89
01-04-2023, 18:09
Appunto, ho voluto ricreare la stessa situazione di numero di core come cutter....8+8Nello schermo si vedono 16 thread attivi.
Inviato dal mio Pixel 6 utilizzando Tapatalk
marbasso
01-04-2023, 18:10
dove conviene prendere TLOU? Anche in pvt, volevo solo provarlo e vedere come va, non credo che lo giocherei.
amon.akira
01-04-2023, 18:13
Nello schermo si vedono 16 thread attivi.
Inviato dal mio Pixel 6 utilizzando Tapatalk
8+8 fa 16 XD
Cutter90
01-04-2023, 18:21
X Cutter
Qua un esempio mio, 12900k con e-core disattivati da bios, con cpu a 5100mhz, quindi nemmeno chissà quale frequenza. Rimane un 8 core ed 8 thread.
4k senza dlss.
Non l'ho mai visto toccare il 60%.
Ps: notare l'efficienza delle nuove cpu. Sono impressionanti.
https://uploads.tapatalk-cdn.com/20230401/24a3bf1024f3877bdfee2c7ef8ca7185.jpg
Aspetta questa prova che hai fatto non l'ho capita. Sei abbondantemente sotto le mie performance in 4k con il tuo test... cosa volevi dimostrare? :)
Per forza non l'hai mai visto toccare il 60 %... fai 55 fps vs i mie 86
bagnino89
01-04-2023, 19:53
8+8 fa 16 XD
Sì ma è sbagliato dire 8 core + 8 thread, per questo non capivo...
Sono 8 core che processano 2 thread ciascuno, per un totale di 16 thread.
davide155
01-04-2023, 20:17
Aspetta questa prova che hai fatto non l'ho capita. Sei abbondantemente sotto le mie performance in 4k con il tuo test... cosa volevi dimostrare? :)
Per forza non l'hai mai visto toccare il 60 %... fai 55 fps vs i mie 86Ma non devi vedere gli fps :sofico:
Te l'ho messo per un confronto tra due cpu di pari numero di core ma architetture diverse.
In 4k una sta al 55% ed una al 95%.
Indipendentemente dalla gpu.
Poi ovviamente io faccio meno fps, ho una 3090, tu una 4090 :D
Sì ma è sbagliato dire 8 core + 8 thread, per questo non capivo...
Sono 8 core che processano 2 thread ciascuno, per un totale di 16 thread.
Non seguo il tuo ragionamento bagnino. Che stai dicendo?
Lui ha una cpu 8 core con hyperthreading.
Io una cpu cpu 8 core con hyperthreading.
A casa mia fa 16 thread totali.
Cos'è che non ti torna? :)
Il mio confronto era per la percentuale di utilizzo della cpu, non per gli fps del gioco.
bagnino89
01-04-2023, 20:27
Ma non devi vedere gli fps :sofico:
Te l'ho messo per un confronto tra due cpu di pari numero di core ma architetture diverse.
In 4k una sta al 55% ed una al 95%.
Indipendentemente dalla gpu.
Poi ovviamente io faccio meno fps, ho una 3090, tu una 4090 :D
Non seguo il tuo ragionamento bagnino. Che stai dicendo?
Lui ha una cpu 8 core con hyperthreading.
Io una cpu cpu 8 core con hyperthreading.
A casa mia fa 16 thread totali.
Cos'è che non ti torna? :)
Il mio confronto era per la percentuale di utilizzo della cpu, non per gli fps del gioco.Tu hai scritto "rimane una CPU 8 core e 8 thread", e quindi non avevo capito. Scritto così sembrava senza HT.
Inviato dal mio Pixel 6 utilizzando Tapatalk
davide155
01-04-2023, 20:33
Tu hai scritto "rimane una CPU 8 core e 8 thread", e quindi non avevo capito. Scritto così sembrava senza HT.
Inviato dal mio Pixel 6 utilizzando TapatalkAhhhh ok, si intendevo 8 core + 8 hyper thread :D
Alekos Panagulis
01-04-2023, 21:56
Non uso il DLSS del gioco. Gira così bene che l'ho sostituito con il DLAA tramite il wrapper scaricabile da qui: https://github.com/emoose/DLSSTweaks/releases/tag/0.200.5-beta2
Il frametime da me non presenta drop nè stuttering di alcun tipo. Tieni presente che il gioco ha problemi con il mouse, quindi forse il fatto del movimento della camera può essere imputabile più a quello che ad un fattore di GPU. Leggi qui per capire di cosa parlo visto che sembra proprio il tuo caso:
https://www.dsogaming.com/news/the-last-of-us-part-i-suffers-from-the-same-mouse-camera-panning-stutters-of-uncharted-legacy-of-thieves-collection/
Se posso consigliarti io userei un gamepad sperando risolvano con un fix entro tempi celeri. Io sto usando quello di PS5 e và a meraviglia.
Ehi puoi fare una piccola guida su come usare il dlss tweaker? Ho visto che online non c'è grande documentazione. Thanks.
DJurassic
01-04-2023, 23:06
Ehi puoi fare una piccola guida su come usare il dlss tweaker? Ho visto che online non c'è grande documentazione. Thanks.
Scarica questa (LINK (https://www.dropbox.com/home/dlsstweaks-0.123.8)) cartella sul desktop, e la conservi per quando hai voglia di utilizzare il DLAA o una versione pompata del DLSS. La regola di base è molto semplice: se il gioco supporta il DLSS puoi tranquillamente applicare il tweak. Per prima cosa copia il contenuto della cartella che hai scaricato nella directory del gioco dove è presente l'EXE (altrimenti non funziona). Una volta fatto apri il file dlsstweaks e sulla prima voce DLAA scrivi true invece che false. Salvi e lanci il gioco. Attivando il DLSS automaticamente questo verrà sostituito con il DLAA del tweak. Noterai che anche scalando la qualità del DLSS il frame rate non aumenterà nè subirai degrado dell'immagine in quanto l'upscaling non sta funzionando.
Ma c'è di più. Noi sappiamo che il DLSS scala in base al setting utilizzato di una percentuale sulla nativa impostata dal giocatore. Il DLSS scala del 75%, il Balanced del 60%, il Performance del 50% e così via. Tramite quel tweak questi valori possono essere alterati a piacimento e avere uno scaling meno aggressivo della res beneficiando cmq di un aumento di performance (minore in caso andiamo a ridurre l'upscaling) ma con la ricostruzione temporale del DLSS cmq attiva. Tutto a beneficio dell'immagine. Lasciando quindi la voce ForceDLAA = false possiamo andare a inserire i valori che vogliamo sotto il parametro [DLSSQualityLevels].
Dove troverai scritto Quality = 0.75 puoi tranquillamente modificarlo in 0.9. Questo si tradurrà in una perdita davvero minima rispetto alla res nativa ma con la funzione attiva del DLSS che andrà a sostituirsi al TAA che di sicuro quel gioco ha attivo di default. Sta a te trovare il giusto bilanciamento tra performance e IQ. Le F che vedi in fondo al file Dlsstweaks stanno a significare che quel comando verrà letto dal gioco invece che ignorato.
Penso di averti detto tutto. Se hai problemi fammi sapere. Alcuni giochi ad esempio rompono il cazzo con il file dxgi.dll perchè magari va in conflitto con qualche altro file. In quel caso si puo' rinominare il file dxgi.dll in modo alternativo. Il wrapper è pensato per leggere queste varianti e di conseguenza funzionerà cmq.
Queste sono le denominazioni .dll supportate:
- XInput1_4.dll
- XInput9_1_0.dll
- dxgi.dll
- XAPOFX1_5.dll
- X3DAudio1_7.dll
- winmm.dl
Quindi se non funziona con quella standard rinomina il dll del tweak in uno di questi file. Ti consiglio di usare il wrapper in accoppiata con l'ultima versione del DLSS per avere i migliori risultati (3.1.11) perchè è stato appunto aggiornato a questa release.
Tieni presente che utilizzare dll custom inserite in un gioco online POTREBBE PORTARE L'ANTICHEAT A RILEVARLE COME POSSIBILI VIOLAZIONI e pertanto potresti incappare in qualche sanzione o ban dell'account del gioco.
Quindi eviterei di utilizzarle in giochi online come Battlefield ad esempio.
Ehi puoi fare una piccola guida su come usare il dlss tweaker? Ho visto che online non c'è grande documentazione. Thanks.
E' molto semplice prendi i 2 file "dlsstweaks.ini" e "nvngx.dll" e li copi dove' si trova l eseguibile del gioco poi edita dllsstweaks.ini con notepad e modifica la linea "ForceDLAA = false" con "ForceDLAA = true", lancia il file di registro "EnableNvidiaSigOverride.reg" per abilitarlo. Quando si abilita il DLSS nel gioco lo fa nella risoluzione nativa a qualsiasi modalita' che sia "quality" "balanced" oppure "prestazioni". Per vedere se è attivo e funzionante ci sono alcuni giochi come "last of us" "control" oppure "uncharted" che ti riportano la risoluzione scegliendo i vari preset, se rimane quella nativa allora funziona oppure puoi provare prima il setting "quality" e poi quello "prestazioni" se ti fà gli stessi fps allora funziona.
Cutter90
02-04-2023, 06:01
Ma non devi vedere gli fps :sofico:
Te l'ho messo per un confronto tra due cpu di pari numero di core ma architetture diverse.
In 4k una sta al 55% ed una al 95%.
Indipendentemente dalla gpu.
Poi ovviamente io faccio meno fps, ho una 3090, tu una 4090 :D
Non seguo il tuo ragionamento bagnino. Che stai dicendo?
Lui ha una cpu 8 core con hyperthreading.
Io una cpu cpu 8 core con hyperthreading.
A casa mia fa 16 thread totali.
Cos'è che non ti torna? :)
Il mio confronto era per la percentuale di utilizzo della cpu, non per gli fps del gioco.
Eh ma dovresti anche riuscire a fare i miei stessi fps. Perché se tu ne fai 55 e io 82 la mia cpu è molto più impegnata della tua a svilupparli.... quindi è un test senza senso secondo me.
Anzi ha senso, ma io devo cappare gli fps in modo da avere i tuoi stessi fps. Dopo lo faccio
Alekos Panagulis
02-04-2023, 06:24
Scarica questa (LINK (https://www.dropbox.com/home/dlsstweaks-0.123.8)) cartella sul desktop, e la conservi per quando hai voglia di utilizzare il DLAA o una versione pompata del DLSS. La regola di base è molto semplice: se il gioco supporta il DLSS puoi tranquillamente applicare il tweak. Per prima cosa copia il contenuto della cartella che hai scaricato nella directory del gioco dove è presente l'EXE (altrimenti non funziona). Una volta fatto apri il file dlsstweaks e sulla prima voce DLAA scrivi true invece che false. Salvi e lanci il gioco. Attivando il DLSS automaticamente questo verrà sostituito con il DLAA del tweak. Noterai che anche scalando la qualità del DLSS il frame rate non aumenterà nè subirai degrado dell'immagine in quanto l'upscaling non sta funzionando.
Ma c'è di più. Noi sappiamo che il DLSS scala in base al setting utilizzato di una percentuale sulla nativa impostata dal giocatore. Il DLSS scala del 75%, il Balanced del 60%, il Performance del 50% e così via. Tramite quel tweak questi valori possono essere alterati a piacimento e avere uno scaling meno aggressivo della res beneficiando cmq di un aumento di performance (minore in caso andiamo a ridurre l'upscaling) ma con la ricostruzione temporale del DLSS cmq attiva. Tutto a beneficio dell'immagine. Lasciando quindi la voce ForceDLAA = false possiamo andare a inserire i valori che vogliamo sotto il parametro [DLSSQualityLevels].
Dove troverai scritto Quality = 0.75 puoi tranquillamente modificarlo in 0.9. Questo si tradurrà in una perdita davvero minima rispetto alla res nativa ma con la funzione attiva del DLSS che andrà a sostituirsi al TAA che di sicuro quel gioco ha attivo di default. Sta a te trovare il giusto bilanciamento tra performance e IQ. Le F che vedi in fondo al file Dlsstweaks stanno a significare che quel comando verrà letto dal gioco invece che ignorato.
Penso di averti detto tutto. Se hai problemi fammi sapere. Alcuni giochi ad esempio rompono il cazzo con il file dxgi.dll perchè magari va in conflitto con qualche altro file. In quel caso si puo' rinominare il file dxgi.dll in modo alternativo. Il wrapper è pensato per leggere queste varianti e di conseguenza funzionerà cmq.
Queste sono le denominazioni .dll supportate:
- XInput1_4.dll
- XInput9_1_0.dll
- dxgi.dll
- XAPOFX1_5.dll
- X3DAudio1_7.dll
- winmm.dl
Quindi se non funziona con quella standard rinomina il dll del tweak in uno di questi file. Ti consiglio di usare il wrapper in accoppiata con l'ultima versione del DLSS per avere i migliori risultati (3.1.11) perchè è stato appunto aggiornato a questa release.
Tieni presente che utilizzare dll custom inserite in un gioco online POTREBBE PORTARE L'ANTICHEAT A RILEVARLE COME POSSIBILI VIOLAZIONI e pertanto potresti incappare in qualche sanzione o ban dell'account del gioco.
Quindi eviterei di utilizzarle in giochi online come Battlefield ad esempio.E' molto semplice prendi i 2 file "dlsstweaks.ini" e "nvngx.dll" e li copi dove' si trova l eseguibile del gioco poi edita dllsstweaks.ini con notepad e modifica la linea "ForceDLAA = false" con "ForceDLAA = true", lancia il file di registro "EnableNvidiaSigOverride.reg" per abilitarlo. Quando si abilita il DLSS nel gioco lo fa nella risoluzione nativa a qualsiasi modalita' che sia "quality" "balanced" oppure "prestazioni". Per vedere se è attivo e funzionante ci sono alcuni giochi come "last of us" "control" oppure "uncharted" che ti riportano la risoluzione scegliendo i vari preset, se rimane quella nativa allora funziona oppure puoi provare prima il setting "quality" e poi quello "prestazioni" se ti fà gli stessi fps allora funziona.Grazie mille.
Inviato dal mio CPH2305 utilizzando Tapatalk
sertopica
02-04-2023, 06:31
È un remake non una remastered. Credo tu sappia la differenza.
Remake, remastered, reinvented, re-sold, il succo del mio discorso non cambia...
Eh ma dovresti anche riuscire a fare i miei stessi fps. Perché se tu ne fai 55 e io 82 la mia cpu è molto più impegnata della tua a svilupparli.... quindi è un test senza senso secondo me.
Anzi ha senso, ma io devo cappare gli fps in modo da avere i tuoi stessi fps. Dopo lo faccio
E' un test sull'efficienza, indica che in questo caso la tua CPU e' al limite massimo di sopportazione mentre la sua distribuisce meglio i carichi e ha piu' spazio di manovra qualora subentrino carichi ancora piu' pesanti. :D
Cutter90
02-04-2023, 07:43
Remake, remastered, reinvented, re-sold, il succo del mio discorso non cambia...
E' un test sull'efficienza, indica che in questo caso la tua CPU e' al limite massimo di sopportazione mentre la sua distribuisce meglio i carichi e ha piu' spazio di manovra qualora subentrino carichi ancora piu' pesanti. :D
Si ma li distribuisce meglio perché deve generare meno fps....
davide155
02-04-2023, 09:11
Remake, remastered, reinvented, re-sold, il succo del mio discorso non cambia...
E' un test sull'efficienza, indica che in questo caso la tua CPU e' al limite massimo di sopportazione mentre la sua distribuisce meglio i carichi e ha piu' spazio di manovra qualora subentrino carichi ancora piu' pesanti. :DBeh no, un remake mette nero su bianco tutto nuovo.
Il gioco viene completamente riscritto su un nuovo motore grafico.
Qua un esempio di quello che era 10 anni fa e quello che giochiamo noi oggi.
Ripeto, o siete Dory e vi dimenticate le cose, oppure non sapete cosa state dicendo quando affermate che il gioco si vede che è vecchio di 10 anni:
https://www.youtube.com/watch?v=FFrJ-qXeo_I&list=WL&index=2&ab_channel=Bang4BuckPCGamerSi ma li distribuisce meglio perché deve generare meno fps....Non c'entra la gpu che uno ha.
C'entra l'ipc maggiore che riesce a processare meglio le istruzioni per ciclo di clock.
Scommetto la palla destra che se amon.akira fa lo stesso mio test, ma lui avendo una 4090, avrà lo stesso mio risultato di occupazione cpu.
Il mio discorso è incentrato sull'efficienza prestazionale di queste cpu.
Anche con la gpu al 100% puoi essere cpu limit. Tranquillamente. Se ti si abbassa anche l'usage della gpu allora sei fortemente cpu limited.
Come detto, la 4090 ha solo amplificato il problema.Tranquillamente non tanto, perché più che altro si parlerebbe di minimi che non vedi e pesi esterni alla GPU.
Si parlava di GPU al 100% fisso, non di picco, e comunque con la percentuale del processore, che magari è al 40% con 2 core strozzati, il contesto è completamente diverso.
Quindi, sì, lì il discorso cambia. Non cerchiamo i peli dove non servono, che è meglio.
davide155
02-04-2023, 10:00
Tranquillamente non tanto, perché più che altro si parlerebbe di minimi che non vedi e pesi esterni alla GPU.
Si parlava di GPU al 100% fisso, non di picco, e comunque con la percentuale del processore, che magari è al 40% con 2 core strozzati, il contesto è completamente diverso.
Quindi, sì, lì il discorso cambia. Non cerchiamo i peli dove non servono, che è meglio.Io ho sempre parlato di cpu bottleneck con gpu al 99% fissa, dove invece si diceva che non può essere vero.
La 4090 ha messo l'accento su questa cosa che prima non era molto visibile, soprattutto in 4k.
Più ipc si ha con la 4090 e più aumentano i frame generate da lei stessa. Un 11900k per quanto buona possa essere come cpu, ha forti limitazioni di ipc se confrontato con un 12900k o 13900k.
Se non vuol dire esser cpu limited così....
ultimate trip
02-04-2023, 10:40
Scarica questa (LINK (https://www.dropbox.com/home/dlsstweaks-0.123.8)) cartella sul desktop, e la conservi per quando hai voglia di utilizzare il DLAA o una versione pompata del DLSS. La regola di base è molto semplice: se il gioco supporta il DLSS puoi tranquillamente applicare il tweak. Per prima cosa copia il contenuto della cartella che hai scaricato nella directory del gioco dove è presente l'EXE (altrimenti non funziona). Una volta fatto apri il file dlsstweaks e sulla prima voce DLAA scrivi true invece che false. Salvi e lanci il gioco. Attivando il DLSS automaticamente questo verrà sostituito con il DLAA del tweak. Noterai che anche scalando la qualità del DLSS il frame rate non aumenterà nè subirai degrado dell'immagine in quanto l'upscaling non sta funzionando.
Ma c'è di più. Noi sappiamo che il DLSS scala in base al setting utilizzato di una percentuale sulla nativa impostata dal giocatore. Il DLSS scala del 75%, il Balanced del 60%, il Performance del 50% e così via. Tramite quel tweak questi valori possono essere alterati a piacimento e avere uno scaling meno aggressivo della res beneficiando cmq di un aumento di performance (minore in caso andiamo a ridurre l'upscaling) ma con la ricostruzione temporale del DLSS cmq attiva. Tutto a beneficio dell'immagine. Lasciando quindi la voce ForceDLAA = false possiamo andare a inserire i valori che vogliamo sotto il parametro [DLSSQualityLevels].
Dove troverai scritto Quality = 0.75 puoi tranquillamente modificarlo in 0.9. Questo si tradurrà in una perdita davvero minima rispetto alla res nativa ma con la funzione attiva del DLSS che andrà a sostituirsi al TAA che di sicuro quel gioco ha attivo di default. Sta a te trovare il giusto bilanciamento tra performance e IQ. Le F che vedi in fondo al file Dlsstweaks stanno a significare che quel comando verrà letto dal gioco invece che ignorato.
Penso di averti detto tutto. Se hai problemi fammi sapere. Alcuni giochi ad esempio rompono il cazzo con il file dxgi.dll perchè magari va in conflitto con qualche altro file. In quel caso si puo' rinominare il file dxgi.dll in modo alternativo. Il wrapper è pensato per leggere queste varianti e di conseguenza funzionerà cmq.
Queste sono le denominazioni .dll supportate:
- XInput1_4.dll
- XInput9_1_0.dll
- dxgi.dll
- XAPOFX1_5.dll
- X3DAudio1_7.dll
- winmm.dl
Quindi se non funziona con quella standard rinomina il dll del tweak in uno di questi file. Ti consiglio di usare il wrapper in accoppiata con l'ultima versione del DLSS per avere i migliori risultati (3.1.11) perchè è stato appunto aggiornato a questa release.
Tieni presente che utilizzare dll custom inserite in un gioco online POTREBBE PORTARE L'ANTICHEAT A RILEVARLE COME POSSIBILI VIOLAZIONI e pertanto potresti incappare in qualche sanzione o ban dell'account del gioco.
Quindi eviterei di utilizzarle in giochi online come Battlefield ad esempio.
E' molto semplice prendi i 2 file "dlsstweaks.ini" e "nvngx.dll" e li copi dove' si trova l eseguibile del gioco poi edita dllsstweaks.ini con notepad e modifica la linea "ForceDLAA = false" con "ForceDLAA = true", lancia il file di registro "EnableNvidiaSigOverride.reg" per abilitarlo. Quando si abilita il DLSS nel gioco lo fa nella risoluzione nativa a qualsiasi modalita' che sia "quality" "balanced" oppure "prestazioni". Per vedere se è attivo e funzionante ci sono alcuni giochi come "last of us" "control" oppure "uncharted" che ti riportano la risoluzione scegliendo i vari preset, se rimane quella nativa allora funziona oppure puoi provare prima il setting "quality" e poi quello "prestazioni" se ti fà gli stessi fps allora funziona.
grazie mille ragazzi
DJurassic
02-04-2023, 11:45
Remake, remastered, reinvented, re-sold, il succo del mio discorso non cambia...
E invece cambia tutto. Remake è una cosa, remastered è un altra. Vogliamo davvero confrontare l’originale PS3 con questo? Tra l’altro su PC non era mai uscita la serie quindi non capisco il tuo discorso.
Io ho sempre parlato di cpu bottleneck con gpu al 99% fissa, dove invece si diceva che non può essere vero.
La 4090 ha messo l'accento su questa cosa che prima non era molto visibile, soprattutto in 4k.
Più ipc si ha con la 4090 e più aumentano i frame generate da lei stessa. Un 11900k per quanto buona possa essere come cpu, ha forti limitazioni di ipc se confrontato con un 12900k o 13900k.
Se non vuol dire esser cpu limited così....Sì, ma la questione non cambia tanto al 99%, e non è che la 4090 è speciale, con altre schede a 1440p si assiste alla stessa storia.
Un 11900K ormai ha un IPC mediocre, ho avuto l'11700K fino all'altro ieri, che in pratica non cambia nulla dal primo.
4K o non 4K, sui minimi limita facilmente, il paragone col 5800X3D era a dir poco forzato, con i nuovi non ne parliamo (o ne parleremo).
Per altro, sullo sfruttametno della CPU le AMD possono parlare meglio, non lo fanno a 4K solo per un collo implicito.
Lo scenario da analizzare puoi crearlo anche a 1080p, in modo da poter isolare quasi del tutto altri colli. In quel caso una 7900xtx sarebbe indicata, RT a parte.
Non capisco perché si parli sono di CPU Intel, non è che AMD si trova al piano di sotto, semmai si trova in quello sopra con i nuovi XD3.
Sui minimi ancora meglio, cosa che considero ben più utile del fuorigiri.
Ho tenuto una 4090 Zotac + 7900X fino una settimana fa, accompagnata da un 7900X. Una mezza idea me la sono fatta...
Cutter90
02-04-2023, 12:59
Il discorso cpu e 4090 che penso debba essere compreso è che dipende solo ds quanti fps si fanno. Se la gpu me ne genera 120 e la cpu sta al 30-50% colli non c'è ne sono. Si perdono 4-5 fps tra la 13900k e la 11900k. Quando però in un gioco la cpu è sfruttata molto ( e nel caso di tlou male) e arriva al 80-90 % ecco che si ha il vero collo e gli fps crollano. Ma questo non dipende dalla 4090 ma solo dagli fps che la gpu sarebbe capace di sviluppare a cui la cpu non riesce a stare dietro.
La mia cpu non fa MAI da collo con la 4090 se si sta sotto i 100-120 fps. Si ha un perdita quasi trascurabile dovuta all architettura. Poi ovviamente dipende tanto dai giochi.
davide155
02-04-2023, 13:35
Sì, ma la questione non cambia tanto al 99%, e non è che la 4090 è speciale, con altre schede a 1440p si assiste alla stessa storia.
Un 11900K ormai ha un IPC mediocre, ho avuto l'11700K fino all'altro ieri, che in pratica non cambia nulla dal primo.
4K o non 4K, sui minimi limita facilmente, il paragone col 5800X3D era a dir poco forzato, con i nuovi non ne parliamo (o ne parleremo).
Per altro, sullo sfruttametno della CPU le AMD possono parlare meglio, non lo fanno a 4K solo per un collo implicito.
Lo scenario da analizzare puoi crearlo anche a 1080p, in modo da poter isolare quasi del tutto altri colli. In quel caso una 7900xtx sarebbe indicata, RT a parte.
Non capisco perché si parli sono di CPU Intel, non è che AMD si trova al piano di sotto, semmai si trova in quello sopra con i nuovi XD3.
Sui minimi ancora meglio, cosa che considero ben più utile del fuorigiri.
Ho tenuto una 4090 Zotac + 7900X fino una settimana fa, accompagnata da un 7900X. Una mezza idea me la sono fatta...Ma che c'entra amd?!? Dovete fare polemica anche quando non ce n'è bisogno.
Siamo nel thread delle ada e si stava parlando della 4090, la gpu più potente al mondo che riesce a dare risultati migliori ad ogni release di nuove cpu. Stop. Anche perché cutter ha una 4090....
E si parlava solo di intel perché lui ha un 11900k, io un 12900k, ed amon che aveva partecipato agli screen ha un 13600k. Quindi il paragone per forza di cose era tra cpu intel. Senza nulla togliere ad amd che ha fatto ottime cpu, ma in questo discorso non vedo il motivo di nominarla a tutti i costi.
amon.akira
02-04-2023, 13:45
Si ma li distribuisce meglio perché deve generare meno fps....
si esatto è cosi, il distacco ci sarebbe ma con meno punti percentuali...le 2cose non sono indipendenti.
Eddie666
02-04-2023, 14:48
Ecco un po' di prove.....
Arriviamo infine a suo mattone reale tlou. Maxato in 4k nativo la prima. Dlss qualità la seconda. Notare sempre cpu e ram. Qui ero con i 32.
Nella prima 88 fps con i 32 vs 82 con i 16
Nella seconda 100 fps con i 32 vs 86 con i 16
https://i.ibb.co/sJ9Lp8W/The-Last-of-Us-Part-I-Screenshot-2023-04-01-16-17-41-09.png (https://ibb.co/4gRBwh1)
https://i.ibb.co/qD9cKks/The-Last-of-Us-Part-I-Screenshot-2023-04-01-16-17-00-15.png (https://ibb.co/MgptrMV)
A voi le conclusioni. Le mie sono che se in tutti i giochi che ho il mio hardware è più che sufficiente, ed è pure vero che è meglio avere 16 gb veloci che 32 gb più lenti, e in tlou no e tecnicamente sia inferiore (a plague tale sicuro al 100%) la conclusione è che tlou sia rotto.
Grazie per gli screen, di seguito i miei fatti praticamente nello stesso punto (4K maxato, DLSS OFF il primo e DLSS ON il secondo)
https://i.ibb.co/SydY2Sb/DLSS-OFF.jpg (https://ibb.co/SydY2Sb) https://i.ibb.co/SJkwXjg/DLSS-ON.jpg (https://ibb.co/SJkwXjg)
ecco, quello che mi torna un pò strano è che tu arrivi a percentuali di utilizzo veramente vicine al 100%, mentre la mia cpu (un 11700) tocca sporadicamente il 90% (con DLSS ON); non è che per caso haiqualche processo in background che ti aumenta l'utilizzo?
ad ogni modo ripeto, fermo restando dell'idea che la 4090 sia cpu limited con qualsiasi processore ad oggi attualmente in commercio, nel caso di un utilizzo in 4K non mi sembra ci siano differenze così tangibili in termini di prestazioni pure
DJurassic
02-04-2023, 16:32
Grazie per gli screen, di seguito i miei fatti praticamente nello stesso punto (4K maxato, DLSS OFF il primo e DLSS ON il secondo)
https://i.ibb.co/SydY2Sb/DLSS-OFF.jpg (https://ibb.co/SydY2Sb) https://i.ibb.co/SJkwXjg/DLSS-ON.jpg (https://ibb.co/SJkwXjg)
Senza offesa ma non sembra nemmeno 4K. L'immagine è davvero troppo sgranata e vedo che hai attivo anche il film grain. Ti piace davvero così?
Eddie666
02-04-2023, 16:57
Senza offesa ma non sembra nemmeno 4K. L'immagine è davvero troppo sgranata e vedo che hai attivo anche il film grain. Ti piace davvero così?
circa il filtro grain mi sembra di averlo abbassato di qualche punto...per il resto 4k settaggio ultra; a te sembra addirittura sgranato? a me non sembra a dire il vero (considerando ovviamente che si tratta di screenshots, e quindi ovviamente compressi)
marbasso
02-04-2023, 16:59
Io ho un monitor odyssey g7 2560x1440, ma posso impostare TLOU in 4k in qualche modo?
Scusate ma ho ripreso da poco il pc in mano prendendo la 4090, sono stato fuori dal giro per un pò e mi manca un pò di dottrina. sto leggendo quanto più possibile...
Cutter90
02-04-2023, 17:14
Grazie per gli screen, di seguito i miei fatti praticamente nello stesso punto (4K maxato, DLSS OFF il primo e DLSS ON il secondo)
https://i.ibb.co/SydY2Sb/DLSS-OFF.jpg (https://ibb.co/SydY2Sb) https://i.ibb.co/SJkwXjg/DLSS-ON.jpg (https://ibb.co/SJkwXjg)
ecco, quello che mi torna un pò strano è che tu arrivi a percentuali di utilizzo veramente vicine al 100%, mentre la mia cpu (un 11700) tocca sporadicamente il 90% (con DLSS ON); non è che per caso haiqualche processo in background che ti aumenta l'utilizzo?
ad ogni modo ripeto, fermo restando dell'idea che la 4090 sia cpu limited con qualsiasi processore ad oggi attualmente in commercio, nel caso di un utilizzo in 4K non mi sembra ci siano differenze così tangibili in termini di prestazioni pure
Diciamo che non è lo stesso punto. Vai un po' avanti e poi fai "torna al chackpoit" stai fermo e lì ho fatto gli screen. Io poi ho anche la cpu a 5200, mentre tu a 4400 e consuma la metà del mio boh... come puoi fare più fps di me? Cmq anche il consumo ram è molto diverso con io che faccio 14 e tu 19
Io ho installato il dlss 3.1... cambierà qualcosa?
Cutter90
02-04-2023, 17:15
Io ho un monitor odyssey g7 2560x1440, ma posso impostare TLOU in 4k in qualche modo?
Scusate ma ho ripreso da poco il pc in mano prendendo la 4090, sono stato fuori dal giro per un pò e mi manca un pò di dottrina. sto leggendo quanto più possibile...
Con il dsr o dlsdsr assolutamente si
StylezZz`
02-04-2023, 17:36
Diciamo che non è lo stesso punto. Vai un po' avanti e poi fai "torna al chackpoit" stai fermo e lì ho fatto gli screen. Io poi ho anche la cpu a 5200, mentre tu a 4400 e consuma la metà del mio boh... come puoi fare più fps di me? Cmq anche il consumo ram è molto diverso con io che faccio 14 e tu 19
Io ho installato il dlss 3.1... cambierà qualcosa?
32GB aiutano, per questo fa più fps di te.
Cutter90
02-04-2023, 17:41
32GB aiutano, per questo fa più fps di te.
Eh no. Perchè in quegli screen ne avevo 32 pure io....
Grazie per gli screen, di seguito i miei fatti praticamente nello stesso punto (4K maxato, DLSS OFF il primo e DLSS ON il secondo)
https://i.ibb.co/SydY2Sb/DLSS-OFF.jpg (https://ibb.co/SydY2Sb) https://i.ibb.co/SJkwXjg/DLSS-ON.jpg (https://ibb.co/SJkwXjg)
ecco, quello che mi torna un pò strano è che tu arrivi a percentuali di utilizzo veramente vicine al 100%, mentre la mia cpu (un 11700) tocca sporadicamente il 90% (con DLSS ON); non è che per caso haiqualche processo in background che ti aumenta l'utilizzo?
ad ogni modo ripeto, fermo restando dell'idea che la 4090 sia cpu limited con qualsiasi processore ad oggi attualmente in commercio, nel caso di un utilizzo in 4K non mi sembra ci siano differenze così tangibili in termini di prestazioni pure
Comunque i colori degli screenshot sono strani. A me in 4K in preset Ultra e con DLSS su Quality, con tutto il resto a default, le mie immagini sono così:
https://i.postimg.cc/jDdjz83D/Screenshot-5.png (https://postimg.cc/jDdjz83D)
StylezZz`
02-04-2023, 17:45
Eh no. Perchè in quegli screen ne avevo 32 pure io....
Pardon, non avevo seguito bene la discussione.
marbasso
02-04-2023, 17:55
Con il dsr o dlsdsr assolutamente si
DSR l' ho visto nel pannello di controllo nvidia, mentre il DLSDSR dove lo trovo?
davide155
02-04-2023, 17:58
Senza offesa ma non sembra nemmeno 4K. L'immagine è davvero troppo sgranata e vedo che hai attivo anche il film grain. Ti piace davvero così?Ci sta che sia la compressione del sitoIo ho un monitor odyssey g7 2560x1440, ma posso impostare TLOU in 4k in qualche modo?
Scusate ma ho ripreso da poco il pc in mano prendendo la 4090, sono stato fuori dal giro per un pò e mi manca un pò di dottrina. sto leggendo quanto più possibile...Attiva il dldsr dal pannello nvidia e vedrai che spettacolo.
Eddie666
02-04-2023, 18:06
Comunque i colori degli screenshot sono strani. A me in 4K in preset Ultra e con DLSS su Quality, con tutto il resto a default, le mie immagini sono così:
https://i.postimg.cc/jDdjz83D/Screenshot-5.png (https://postimg.cc/jDdjz83D)
ho l'HDR attivo, penso sia per quello
ho l'HDR attivo, penso sia per quello
Si infatti..ora che mi ci hai fatto pensare le lettere rosse delle statistiche ci sono con l'HDR attivo...
Cutter90
02-04-2023, 18:23
https://youtu.be/xQ2emuUoxrI
Analisi di DF di TLOU su pc. E non ne parlano assolutamente bene. Come era chiaro fosse. Sono in linea con quello che ho sempre sostenuto.
sertopica
02-04-2023, 18:30
E invece cambia tutto. Remake è una cosa, remastered è un altra. Vogliamo davvero confrontare l’originale PS3 con questo? Tra l’altro su PC non era mai uscita la serie quindi non capisco il tuo discorso.
Beh no, un remake mette nero su bianco tutto nuovo.
Il gioco viene completamente riscritto su un nuovo motore grafico.
Qua un esempio di quello che era 10 anni fa e quello che giochiamo noi oggi.
Ripeto, o siete Dory e vi dimenticate le cose, oppure non sapete cosa state dicendo quando affermate che il gioco si vede che è vecchio di 10 anni:
Ma grazie, certo che sono partiti dal motore aggiornato del secondo episodio, la versione PS3 neanche la prendevo in considerazione. Chi ha detto che e' vecchio di 10 anni? Io no. :D
Chiaro che e' un salto enorme dall'una all'altra, ma per me non risulta affatto un capolavoro di realizzazione tecnica, la base di partenza e' quella di 10 anni fa con tutti i limiti di allora che le console imponevano, in primis le dimensioni dei livelli. E soprattutto a fronte delle richieste hardware a dir poco esose che non si possono soprassedere o sminuire. Sto gioco martella la cpu per caricare degli sgabuzzini di livelli in background suvvia... L'esagerazione e' voluta. :D
E' l'ennesimo titolo male ottimizzato che richiede un hardware pompato per fare fronte nuovamente all'incapacita' del team incaricato alla conversione, per come la vedo io.
Dory non ho idea di chi sia. :fagiano:
Eddie666
02-04-2023, 18:30
Diciamo che non è lo stesso punto. Vai un po' avanti e poi fai "torna al chackpoit" stai fermo e lì ho fatto gli screen. Io poi ho anche la cpu a 5200, mentre tu a 4400 e consuma la metà del mio boh... come puoi fare più fps di me? Cmq anche il consumo ram è molto diverso con io che faccio 14 e tu 19
Io ho installato il dlss 3.1... cambierà qualcosa?
fatto, il punto dovrebbe essere quello: come prima, primo screenshot DLSS OFF, secondo DLSS ON
https://i.ibb.co/nCv5Cyx/DLSS-OFF.png (https://ibb.co/nCv5Cyx) https://i.ibb.co/KNwgHqL/DLSS-ON.png (https://ibb.co/KNwgHqL)
marbasso
02-04-2023, 19:09
Con il dsr o dlsdsr assolutamente si
Ok fatto. L'ho attivato da pannello, poi sul desktop da proprietà schermo ho switchato in 4k, ho avviato il gioco e me lo son ritrovato in 4k... Ottimo.
:)
Così risulta un 4k nativo?
Grazie
Cutter90
02-04-2023, 19:36
Ok fatto. L'ho attivato da pannello, poi sul desktop da proprietà schermo ho switchato in 4k, ho avviato il gioco e me lo son ritrovato in 4k... Ottimo.
:)
Così risulta un 4k nativo?
Grazie
In teoria siThe Last of Us Part 1 PC vs PS5 - A Disappointing Port With Big Problems To Address (https://www.youtube.com/watch?v=xQ2emuUoxrI)[/QUOTE]
Me lo sono pappato tutto, piccolo riassunto:
- La cpu viene utilizzata così tanto per via del metodo di decompressione (pessimo e lento) che il gioco utilizza, solo su pc, perchè su ps5 zero problemi.
- Molti settaggi da alto a ultra sono effetti placebo in tutto e per tutto. Le texture da alto a media hanno un downgrade pauroso ed inguardabile
- La VRam che il gioco ti dice essere utilizzata dal sistema operativo è FALSA. La usa tutto il gioco in maniera spropositata. Una 2070 super con 8 gb di vram non riesce a far girare il gioco sopra a medio perchè si mangia tutti e 8 i gb
- In generale la versione ps5 è meglio di quella pc. LA performance mode su ps5 gira in 1440p a 60 fps, senza problemi di vram e texture, che sono come su pc maxate. Anche le ombre sono migliori. In alcuni punti una 2070 super, che ha le stesse performance di ps5, perde 30 fps rispetto al gioco ps5
- la versione ps5 è quasi identica a quella pc ultra ad esclusione della risoluzione
- I caricamenti sono molto più veloci su ps5 che pc con un i9 12900k: esempio di 13 secondo vs 54 secondi su i9 e 71 secondi su 3600. Follia totale
- SU pc ci sono errori di ombre e texture non allineate, su ps5 nulla di tutto ciò
Alex non si capacita di come un gioco che abbia una grafica buona abbia un consumo così elevato di risorse
Conclusioni di DF: E' un porting molto molto brutto con una marea di problemi e prestazioni decisamente sottotono
Conclusioni mia: potrei andare a lavorare per DF, visto che è dal D1 che dico queste cose :D
Cmq....
perdonami Cutter90... posso anche "comprendere" la tua crociata...
Ma io ho provato sia la versione Ps5 (due ore di trial free con il mio Ps Plus) che Pc a ultra settings...
Non so dove si è visto che la versione Ps5 è migliore di quella Pc Ultra, neanche nel video di DF se non in alcuni specifici punti del tutto trascurabili.
A livello di illuminazione, risoluzione, FPS e chi più ne a più ne metta... Pc è CHIARAMENTE superiore e posso garantirtelo non tramite un video YT compresso ma comparativa side by side. Detto ciò... torno a nerdare con ULTRA gusto su TLOU Pc O_O/
DJurassic
02-04-2023, 21:06
circa il filtro grain mi sembra di averlo abbassato di qualche punto...per il resto 4k settaggio ultra; a te sembra addirittura sgranato? a me non sembra a dire il vero (considerando ovviamente che si tratta di screenshots, e quindi ovviamente compressi)
Ma infatti io credo che tu lo vedi molto meglio di questi screenshots, però il film grain fossi in te lo eliminerei completamente che fa schifo. Lo stesso per la nitidezza da impostare a zero se usi il DLSS e via anche le aberrazioni Cromatiche.
In teoria siThe Last of Us Part 1 PC vs PS5 - A Disappointing Port With Big Problems To Address (https://www.youtube.com/watch?v=xQ2emuUoxrI)
Me lo sono pappato tutto, piccolo riassunto:
- La cpu viene utilizzata così tanto per via del metodo di decompressione (pessimo e lento) che il gioco utilizza, solo su pc, perchè su ps5 zero problemi.
- Molti settaggi da alto a ultra sono effetti placebo in tutto e per tutto. Le texture da alto a media hanno un downgrade pauroso ed inguardabile
- La VRam che il gioco ti dice essere utilizzata dal sistema operativo è FALSA. La usa tutto il gioco in maniera spropositata. Una 2070 super con 8 gb di vram non riesce a far girare il gioco sopra a medio perchè si mangia tutti e 8 i gb
- In generale la versione ps5 è meglio di quella pc. LA performance mode su ps5 gira in 1440p a 60 fps, senza problemi di vram e texture, che sono come su pc maxate. Anche le ombre sono migliori. In alcuni punti una 2070 super, che ha le stesse performance di ps5, perde 30 fps rispetto al gioco ps5
- la versione ps5 è quasi identica a quella pc ultra ad esclusione della risoluzione
- I caricamenti sono molto più veloci su ps5 che pc con un i9 12900k: esempio di 13 secondo vs 54 secondi su i9 e 71 secondi su 3600. Follia totale
- SU pc ci sono errori di ombre e texture non allineate, su ps5 nulla di tutto ciò
Alex non si capacita di come un gioco che abbia una grafica buona abbia un consumo così elevato di risorse
Conclusioni di DF: E' un porting molto molto brutto con una marea di problemi e prestazioni decisamente sottotono
Conclusioni mia: potrei andare a lavorare per DF, visto che è dal D1 che dico queste cose :D
Cmq....[/QUOTE]
Il dettaglio grafico del pc in ultra se lo sogna la ps5 gia' a pari risoluzione usando il dlss su quality usando poi il dlss a 5k per poi ridurlo a 4k non c è paragone. Sara anche ottimizzato di merda ma con un pc performante la differenza si vede e non è vero che non c è differenza da ultra a high basta vedere le texture di Joel dal video di digital foundry. Quelli di Digital Foundry si ostinano ancora ad usare un ryzen 3600 che è un 6/12 core rispetto a quello della ps5 che è un 8/16 come paragone e gia' è un grosso errore.Poi 2 ore a confrontare quasi solo texture.
https://postlmg.cc/c6kDkHf7
https://www.youtube.com/watch?v=FSdIv3vKqbE&t=3s
- The reflections have also increased their resolution on PC, but still dragging some problems with the SSR as PS5 (which to date has not been patched either).
- Water physics and interaction has been improved on PC.
- Some settings, such as textures or reflections, seem to be broken at the lowest setting. Some textures are kept in Ultra and others are not shown.
- Longer draw distance on PC.
- Shadow resolution is higher on PC, however, some areas have banding that does not occur on PS5.
- DLSS shines again showing a higher image quality compared to FSR 2.0. In any case, both reconstruction techniques show a better image than PS5 performance mode using the same resolution.
- Load times are 5 times faster on PS5. This is a clear indication of the lack of optimization on PC.
- Slight improvements in global illumination on PC.
DJurassic
02-04-2023, 21:34
In teoria siThe Last of Us Part 1 PC vs PS5 - A Disappointing Port With Big Problems To Address (https://www.youtube.com/watch?v=xQ2emuUoxrI)
Me lo sono pappato tutto, piccolo riassunto:
- La cpu viene utilizzata così tanto per via del metodo di decompressione (pessimo e lento) che il gioco utilizza, solo su pc, perchè su ps5 zero problemi.
- Molti settaggi da alto a ultra sono effetti placebo in tutto e per tutto. Le texture da alto a media hanno un downgrade pauroso ed inguardabile
- La VRam che il gioco ti dice essere utilizzata dal sistema operativo è FALSA. La usa tutto il gioco in maniera spropositata. Una 2070 super con 8 gb di vram non riesce a far girare il gioco sopra a medio perchè si mangia tutti e 8 i gb
- In generale la versione ps5 è meglio di quella pc. LA performance mode su ps5 gira in 1440p a 60 fps, senza problemi di vram e texture, che sono come su pc maxate. Anche le ombre sono migliori. In alcuni punti una 2070 super, che ha le stesse performance di ps5, perde 30 fps rispetto al gioco ps5
- la versione ps5 è quasi identica a quella pc ultra ad esclusione della risoluzione
- I caricamenti sono molto più veloci su ps5 che pc con un i9 12900k: esempio di 13 secondo vs 54 secondi su i9 e 71 secondi su 3600. Follia totale
- SU pc ci sono errori di ombre e texture non allineate, su ps5 nulla di tutto ciò
Alex non si capacita di come un gioco che abbia una grafica buona abbia un consumo così elevato di risorse
Conclusioni di DF: E' un porting molto molto brutto con una marea di problemi e prestazioni decisamente sottotono
Conclusioni mia: potrei andare a lavorare per DF, visto che è dal D1 che dico queste cose :D
Cmq....
Posso ridere o ne hai ancora? :asd:
La versione PS5 uguale a quella PC è la cosa più ridicola che ho letto oggi. Dispiace per i problemi che stai riscontrando con TLOU ma se questo ti spinge a sparare certi sfondoni non ti seguo più.
Sono costretto a ristabilire l'ordine naturale delle cose con una serie di screeshots che ho fatto su TLOU. Considera che il frame rate anche in questa risoluzione e qualità non è mai sceso sotto i 70fps. La versione PS5 per avere i 60 giochi in modalità performance a 1440p con dettaglio downgradato e mezze opzioni su Off.
https://live.staticflickr.com/65535/52786137287_aa4004c437_k.jpg ('https://live.staticflickr.com/65535/52786137287_0f64d9715e_o.png')
https://live.staticflickr.com/65535/52786707763_c8fe9895f5_k.jpg ('https://live.staticflickr.com/65535/52786707763_853abbdf47_o.png')
https://live.staticflickr.com/65535/52785703402_2366691364_k.jpg ('https://live.staticflickr.com/65535/52785703402_28ab0c7074_o.png')
https://live.staticflickr.com/65535/52786489009_809a95f1aa_k.jpg ('https://live.staticflickr.com/65535/52786489009_9943362452_o.png')
https://live.staticflickr.com/65535/52785702902_59d1633e7e_k.jpg ('https://live.staticflickr.com/65535/52785702902_806f90ddcc_o.png')
https://live.staticflickr.com/65535/52786489639_171c8ba6aa_k.jpg ('https://live.staticflickr.com/65535/52786489639_dbfc4fe354_o.png')
https://live.staticflickr.com/65535/52786653770_9c27c9eb42_k.jpg ('https://live.staticflickr.com/65535/52786653770_29b7bdf1d1_o.png')
https://live.staticflickr.com/65535/52786256036_412a14be47_k.jpg ('https://live.staticflickr.com/65535/52786256036_a4ed6eb659_o.png')
https://live.staticflickr.com/65535/52786652730_e09255c28c_k.jpg ('https://live.staticflickr.com/65535/52786652730_d05c0bd848_o.png')
https://live.staticflickr.com/65535/52786684716_c2a90628a3_k.jpg ('https://live.staticflickr.com/65535/52786684716_b98ca29487_o.png')
Cutter90
02-04-2023, 21:38
Me lo sono pappato tutto, piccolo riassunto:
- La cpu viene utilizzata così tanto per via del metodo di decompressione (pessimo e lento) che il gioco utilizza, solo su pc, perchè su ps5 zero problemi.
- Molti settaggi da alto a ultra sono effetti placebo in tutto e per tutto. Le texture da alto a media hanno un downgrade pauroso ed inguardabile
- La VRam che il gioco ti dice essere utilizzata dal sistema operativo è FALSA. La usa tutto il gioco in maniera spropositata. Una 2070 super con 8 gb di vram non riesce a far girare il gioco sopra a medio perchè si mangia tutti e 8 i gb
- In generale la versione ps5 è meglio di quella pc. LA performance mode su ps5 gira in 1440p a 60 fps, senza problemi di vram e texture, che sono come su pc maxate. Anche le ombre sono migliori. In alcuni punti una 2070 super, che ha le stesse performance di ps5, perde 30 fps rispetto al gioco ps5
- la versione ps5 è quasi identica a quella pc ultra ad esclusione della risoluzione
- I caricamenti sono molto più veloci su ps5 che pc con un i9 12900k: esempio di 13 secondo vs 54 secondi su i9 e 71 secondi su 3600. Follia totale
- SU pc ci sono errori di ombre e texture non allineate, su ps5 nulla di tutto ciò
Alex non si capacita di come un gioco che abbia una grafica buona abbia un consumo così elevato di risorse
Conclusioni di DF: E' un porting molto molto brutto con una marea di problemi e prestazioni decisamente sottotono
Conclusioni mia: potrei andare a lavorare per DF, visto che è dal D1 che dico queste cose :D
Cmq....
Il dettaglio grafico del pc in ultra se lo sogna la ps5 gia' a pari risoluzione usando il dlss su quality usando poi il dlss a 5k per poi ridurlo a 4k non c è paragone. Sara anche ottimizzato di merda ma con un pc performante la differenza si vede e non è vero che non c è differenza da ultra a high basta vedere le texture di Joel dal video di digital foundry. Quelli di Digital Foundry si ostinano ancora ad usare un ryzen 3600 che è un 6/12 core rispetto a quello della ps5 che è un 8/16 come paragone e gia' è un grosso errore.Poi 2 ore a confrontare quasi solo texture.
https://postlmg.cc/c6kDkHf7
https://www.youtube.com/watch?v=FSdIv3vKqbE&t=3s
- The reflections have also increased their resolution on PC, but still dragging some problems with the SSR as PS5 (which to date has not been patched either).
- Water physics and interaction has been improved on PC.
- Some settings, such as textures or reflections, seem to be broken at the lowest setting. Some textures are kept in Ultra and others are not shown.
- Longer draw distance on PC.
- Shadow resolution is higher on PC, however, some areas have banding that does not occur on PS5.
- DLSS shines again showing a higher image quality compared to FSR 2.0. In any case, both reconstruction techniques show a better image than PS5 performance mode using the same resolution.
- Load times are 5 times faster on PS5. This is a clear indication of the lack of optimization on PC.
- Slight improvements in global illumination on PC.[/QUOTE]
Guarda che non ho mai detto che la vesrione ps5 è meglio di quella pc, leggiamo per favore. Ho detto che la versione ps5 ha molti settaggi uguali alla versione pc ultra, che ultra su pc ha tanto effetto placebo e poco riscontro in termini di effettivi miglioramenti. IL ryzen vale cmq solo per la cpu, ma i grossi problemi derivano anche da altro.
La versioni pc ha qualcosina di superiore,qualcosina di rotto e qualcosa di inferiore alla versione ps5, come i caricamenti, gli errori delle texture e delle ombre.
Infatti nella bella descrizione a appunti che giustamente hai messo si evince chiaramente come la versione pc maxata sia tutto tranne che " il dettaglio ps5 se lo sogna".
PS: Occhio che "El ANalista" ogni tanto piglia delle cantonate, non è a livello di DF
Cutter90
02-04-2023, 21:40
Posso ridere o ne hai ancora? :asd:
La versione PS5 uguale a quella PC è la cosa più ridicola che ho letto oggi. Dispiace per i problemi che stai riscontrando con TLOU ma se questo ti spinge a sparare certi sfondoni non ti seguo più.
Ehm.... guarda che mica le ho dette io quelle cose, ma DF, ho solop fatto un riassunto. E poi leggi bene. Vuoi dire che anche DF si sbaglia? Con tutto che ha fatto il video di paragone in diretta?
Dai, sparavate di un graficone e "gira come il burro" e DF vi ha smentito parlando un porting brutto, con impostazioni placebo, utilizzo di vram e cpu insensate e caricamente molto, molto più lenti della versione ps5.
In questi casi si dice, "in effetti mi sono sbagliato, dalle analisi risulta in effetti non un bel porting". Chi lo difendeva a spada tratta ha preso il palo. Capita di sbagliare. Ma almeno riconosciamolo dai, cerchiamo di essere "tecnici" fino in fondo
Cmq tu dici che fa pena, ma a me Ghostwire Tokyo graficamente piace davvero molto
https://i.ibb.co/pWWtCWq/Ghost-Wire-Tokyo-Screenshot-2023-04-02-22-18-19-71.png (https://ibb.co/f88hm8J)
https://i.ibb.co/jfVPwB5/Ghost-Wire-Tokyo-Screenshot-2023-04-02-22-24-38-18.png (https://ibb.co/T2Kx0pT)
https://i.ibb.co/pR4QBTB/Ghost-Wire-Tokyo-Screenshot-2023-04-01-18-20-56-67.png (https://ibb.co/WPB04X4)
https://i.ibb.co/1ncv6mx/Ghost-Wire-Tokyo-Screenshot-2023-04-01-18-14-07-11.png (https://ibb.co/FWpxVDt)
DJurassic
02-04-2023, 21:54
Ehm.... guarda che mica le ho dette io quelle cose, ma DF, ho solop fatto un riassunto. E poi leggi bene. Vuoi dire che anche DF si sbaglia? Con tutto che ha fatto il video di paragone in diretta?
Dai, sparavate di un graficone e "gira come il burro" e DF vi ha smentito parlando un porting brutto, con impostazioni placebo, utilizzo di vram e cpu insensate e caricamente molto, molto più lenti della versione ps5.
In questi casi si dice, "in effetti mi sono sbagliato, dalle analisi risulta in effetti non un bel porting". Chi lo difendeva a spada tratta ha preso il palo. Capita di sbagliare.
Non ha mai detto quello che hai scritto tu. Magari può cascarci chi non mastica l'inglese ma non io. La versione PC a Ultra è nettamente migliore della versione console. Che poi non si tratti di un porting riuscito nessuno l'ha mai negato. CPU e Vram sono i più grandi responsabili e il gioco è fin troppo proibitivo in questo senso per un suo demerito e di come è stato fatto il porting.
Ma chi ha una 4090 e un ottima CPU anche senza alcun fix si sta godendo un esperienza senza sbavature dall'inizio alla fine. Nessuno stuttering, nessun rallentamento, nessun crash. Mai. Io ho finito il gioco ieri e sto ultimando il DLC e continua a girare a stecca senza nessuna incertezza.
Certo i caricamenti sono lunghi e imbarazzanti, specie se paragonati alla versione PS5, ma per quanto mi riguarda tolto quello iniziale durante il gioco non ce ne sono altri. Si potrebbe dire lo stesso dello shader precompilation che è lungo e tedioso e mette in crisi temperature e frequenze se non tarate in modo ottimale, ma anche quello lo fai una volta e poi non lo fai più. Come ho sempre detto meglio buttare 15minuti una tantum e godersi il gioco senza problemi che entrare a razzo per poi smadonnare ogni 3 passi. DF ha detto la sua e io la condivido perchè un gioco ben fatto non si misura su PC da 3-4000€ ma tutt'altro. Ma da qui a dire altro si finisce col fare la figura della volpe che non arriva all'uva e la cosa fà sorridere.
Ghostwire Tokyo non mi piace come gioco. La grafica è l'ultimo dei suoi problemi.
Cutter90
02-04-2023, 22:08
Non ha mai detto quello che hai scritto tu. Magari può cascarci chi non mastica l'inglese ma non io. La versione PC a Ultra è nettamente migliore della versione console. Che poi non si tratti di un porting riuscito nessuno l'ha mai negato. CPU e Vram sono i più grandi responsabili e il gioco è fin troppo proibitivo in questo senso per un suo demerito e di come è stato fatto il porting.
Ma chi ha una 4090 e un ottima CPU anche senza alcun fix si sta godendo un esperienza senza sbavature dall'inizio alla fine. Nessuno stuttering, nessun rallentamento, nessun crash. Mai. Io ho finito il gioco ieri e sto ultimando il DLC e continua a girare a stecca senza nessuna incertezza.
Certo i caricamenti sono lunghi e imbarazzanti, specie se paragonati alla versione PS5, ma per quanto mi riguarda tolto quello iniziale durante il gioco non ce ne sono altri. Si potrebbe dire lo stesso dello shader precompilation che è lungo e tedioso e mette in crisi temperature e frequenze se non tarate in modo ottimale, ma anche quello lo fai una volta e poi non lo fai più. Come ho sempre detto meglio buttare 15minuti una tantum e godersi il gioco senza problemi che entrare a razzo per poi smadonnare ogni 3 passi. DF ha detto la sua e io la condivido perchè un gioco ben fatto non si misura su PC da 3-4000€ ma tutt'altro. Ma da qui a dire altro si finisce col fare la figura della volpe che non arriva all'uva e la cosa fà sorridere.
Ghostwire Tokyo non mi piace come gioco. La grafica è l'ultimo dei suoi problemi.
Ha detto esattamente quello che ho scritto io invece. Ma poi nel resto del post in sostanza mi dai ragione in realtà. Nessuni dice che la versione ps5 è meglio del PC ultra, ho già scritto sopra i motivi.
Il video è lì e si vede molto chiaramente che la versione pc ultra non è affatto "nettamente migliore".
Nettamente migliore è cp 2077 maxato su pc rispetto alla versione ps5. TLOU no.
Qui abbiamo cose che su pc con 4090 e i912900k sono migliori, anche di tanto come la risoluzione, cose uguali e cose addirittura peggiori ( decompressione, vram, precompilazione, texutre e ombre rotte ecc)
Cmq direi che è ora di voltare pagina. Mi ritengo soddisfatto delle analisi e delle conclusioni:)
DJurassic
02-04-2023, 22:26
Ha detto esattamente quello che ho scritto io invece. Ma poi nel resto del post in sostanza mi dai ragione in realtà. Nessuni dice che la versione ps5 è meglio del PC ultra, ho già scritto sopra i motivi.
Il video è lì e si vede molto chiaramente che la versione pc ultra non è affatto "nettamente migliore".
Nettamente migliore è cp 2077 maxato su pc rispetto alla versione ps5. TLOU no.
Qui abbiamo cose che su pc con 4090 e i912900k sono migliori, anche di tanto come la risoluzione, cose uguali e cose addirittura peggiori ( decompressione, vram, precompilazione, texutre e ombre rotte ecc)
Cmq direi che è ora di voltare pagina. Mi ritengo soddisfatto delle analisi e delle conclusioni:)
Mi riferivo a quando scrivi:
la versione ps5 è quasi identica a quella pc ultra ad esclusione della risoluzione
Se non volevi dire questo potevi non scriverlo. Poi sono d'accordo con te che si poteva (e si doveva) fare molto più di così ma come ti ho già spiegato, tu ti ritieni soddisfatto delle analisi, io mi ritengo soddisfatto dell'esperienza di gioco che ho avuto sulla mia configurazione. Un gioco che non stuttera in nessuna circostanza è già un easy win per me, se a questo poi ci aggiungiamo che l'ho potuto giocare con una pulizia di immagine invidiabile al massimo del dettaglio non potrei non parlarne bene. Restano diverse sbavature e qualche bug che verrà corretto a breve, così come auspico vengano ridotti i caricamenti e ottimizzato anche per GPU e CPU di fascia più bassa, ma resta il fatto che per me è stata una bellissima esperienza che pur conoscendo bene il gioco mi ha saputo coinvolgere ancora una volta così come sorprendermi dalla cura della realizzazione nella sua interezza.
Mi riferivo a quando scrivi:
Se non volevi dire questo potevi non scriverlo. Poi sono d'accordo con te che si poteva (e si doveva) fare molto più di così ma come ti ho già spiegato, tu ti ritieni soddisfatto delle analisi, io mi ritengo soddisfatto dell'esperienza di gioco che ho avuto sulla mia configurazione. Un gioco che non stuttera in nessuna circostanza è già un easy win per me, se a questo poi ci aggiungiamo che l'ho potuto giocare con una pulizia di immagine invidiabile al massimo del dettaglio non potrei non parlarne bene. Restano diverse sbavature e qualche bug che verrà corretto a breve, così come auspico vengano ridotti i caricamenti e ottimizzato anche per GPU e CPU di fascia più bassa, ma resta il fatto che per me è stata una bellissima esperienza che pur conoscendo bene il gioco mi ha saputo coinvolgere ancora una volta così come sorprendermi dalla cura della realizzazione nella sua interezza.
Quoto tutto
micronauta1981
03-04-2023, 06:07
Più metti screenshot e più metti in risalto che il gioco è buono graficamente,ma nulla più...si vede lontano un miglio che è un gioco "vecchio". è un gioco con la grafica tarata su una ps5,il porting è pari la versione console, ovviamente noi lo giochiamo a risoluzione più alta,ma la grafica quella è,e purtroppo si vede...in più ancora oggi nn hanno sistemato il movimento a scatti usando un mouse..una roba quasi ridicola per un gioco come dite voi tripla a...
micronauta1981
03-04-2023, 06:11
Tra l'altro su console gira su una 2070 circa,su PC ci vuole una 4090 32 GB di RAM e cpu High end..ma di che stiamo parlando?e li difendete pure solo perché vi piace il "brand" last of us ..su PC vogliamo altro non sta roba qua ..nessuno si sta lamentando del movimento mouse che stuttera,presumo giocate tutti con il pad,a sto punto vi conviene spendere 499 prendete una play e giocate a tutte le ex esclusive Sony..
Tra l'altro su console gira su una 2070 circa,su PC ci vuole una 4090 32 GB di RAM e cpu High end..ma di che stiamo parlando?e li difendete pure solo perché vi piace il "brand" last of us ..su PC vogliamo altro non sta roba qua ..nessuno si sta lamentando del movimento mouse che stuttera,presumo giocate tutti con il pad,a sto punto vi conviene spendere 499 prendete una play e giocate a tutte le ex esclusive Sony..
Tu non ti smentisci mai e tenti sempre di iniziare flames, abbiamo capito che non ti piace più giocare al PC e a questo punto mi domando cosa ci fai ancora qui. Facci un favore e cancellati dal forum perchè io ti ho già messo in ignore ma agli altri utenti credo che le tue argomentazioni abbiano stancato dici di continuo le stesse cose, che palle. Prenditi una bella console e inizia a giocare come piace a te :D :D :D :D
Cutter90
03-04-2023, 06:54
Mi riferivo a quando scrivi:
Se non volevi dire questo potevi non scriverlo. Poi sono d'accordo con te che si poteva (e si doveva) fare molto più di così ma come ti ho già spiegato, tu ti ritieni soddisfatto delle analisi, io mi ritengo soddisfatto dell'esperienza di gioco che ho avuto sulla mia configurazione. Un gioco che non stuttera in nessuna circostanza è già un easy win per me, se a questo poi ci aggiungiamo che l'ho potuto giocare con una pulizia di immagine invidiabile al massimo del dettaglio non potrei non parlarne bene. Restano diverse sbavature e qualche bug che verrà corretto a breve, così come auspico vengano ridotti i caricamenti e ottimizzato anche per GPU e CPU di fascia più bassa, ma resta il fatto che per me è stata una bellissima esperienza che pur conoscendo bene il gioco mi ha saputo coinvolgere ancora una volta così come sorprendermi dalla cura della realizzazione nella sua interezza.
Ma vedi è importante scindere gli aspetti tecnici da quelli del gioco. TLOU è assolutamente un gioco della madonna, curatissimo e da 10 per chi ama il genere. Anche a chi non piace non può certo negare si tratti di un gioco eccelso. Ma l'aspetto tecnico è un argomento diverso che può essere giudicato a parte. Un gioco può essere da 9, con una spetto tecnico da 5, vedi Elden Ring ad esempio (lì è pure da 4).
Ritengo molto da "ciechi" dire: da me gira bene, quindi il gioco tecnicamente e come porting è perfetto. Grazie tante, abbiamo una configurazione che costa 5-8 volte una ps5, ovvio che giri bene. Poi però vai a vedere e in acluni aspetti le prende pure da ps5. Questo per me è inaccettabile. Quindi anche se riescoa giocarlo benissimo non sono cieco e giudico per quello che è il risultato su pc, ossia nel complesso terribile.
Eddie666
03-04-2023, 07:07
che TLOU non sia il miglior porting effettuato da console (in termini di scalabilità e resa visiva sui vari settaggi) penso che ormai sia assodato; tuttavia io smetterei di fare confronti con PS5 in quanto, pur avendo un hardware che può essere accomunato a quello di un pc NON è lo stesso hardware, per cui non è corretto fare paragoni diretti; inoltre avere un hardware unico, ancorchè meno performante, fa si che l'ottimizzazione (e quindi la resa finale) possa essere spesso superiore rispetto ad un hardware che spinge sulla base della pura "forza bruta" (quale ad es. una config top attuale, nivdia o amd che sia).
Ovviamente a chi ha gestito il porting sono state date delle tempistiche e un budget da rispettare, ed evidentemente quello che hanno tirato fuori è stato NON il miglior risultato in assoluto, bensì il migliore legato ai due fattori di cui prima (mi verrebbe da fare un paragone con le GPU intel, uscite più o meno ottimizzate per girare giochi DX12 ma con una resa alquanto mediocre utilizzando librerie più vecchie....resa che appunto non potrà che migliorare col tempo, in quanto si tratta solo di permettere agli sviluppatori di lavorarci maggiormente)
sertopica
03-04-2023, 07:49
Preso anche io ad un buon prezzo per vedere che succede sul mio sistema. :D
La compilazione degli shaders mi e' durata esattamente 20 minuti. Il case si era trasformato in un termosifone, CPU a 70 gradi quasi fissa. :asd:
Predator_1982
03-04-2023, 07:56
Preso anche io ad un buon prezzo per vedere che succede sul mio sistema. :D
La compilazione degli shaders mi e' durata esattamente 20 minuti. Il case si era trasformato in un termosifone, CPU a 70 gradi quasi fissa. :asd:
ma lo fa ad ogni cambio drivers come non mi ricordo quale altro titolo?
micronauta1981
03-04-2023, 08:00
Tu non ti smentisci mai e tenti sempre di iniziare flames, abbiamo capito che non ti piace più giocare al PC e a questo punto mi domando cosa ci fai ancora qui. Facci un favore e cancellati dal forum perchè io ti ho già messo in ignore ma agli altri utenti credo che le tue argomentazioni abbiano stancato dici di continuo le stesse cose, che palle. Prenditi una bella console e inizia a giocare come piace a te :D :D :D :D
Nervoso?😂😂😂
Preso anche io ad un buon prezzo per vedere che succede sul mio sistema. :D
La compilazione degli shaders mi e' durata esattamente 20 minuti. Il case si era trasformato in un termosifone, CPU a 70 gradi quasi fissa. :asd:
Che dissi hai?
Abbiamo un sistema molto simile.
Ho fatto un po' di prove con la cpu sia a stock (4,7ghz), che in OC a 5.0ghz.
Come performaces in game non cambia apparentemente nulla, ma le temperature sono schizzate di oltre 10 gradi... (da 70 max a picchi di oltre 80 gradi).
Mi sa che attendo queste due patch in arrivo e, nel caso, torno amabilmente ai 4,7ghz :asd:
ma lo fa ad ogni cambio drivers come non mi ricordo quale altro titolo?
Si confermo, esattamente come succede anche in uncharted, horizon e god of war ma anche nei giochi ubisoft.
Predator_1982
03-04-2023, 08:05
Si confermo, esattamente come succede anche in uncharted, horizon e god of war.
che brutta cosa
micronauta1981
03-04-2023, 08:05
che TLOU non sia il miglior porting effettuato da console (in termini di scalabilità e resa visiva sui vari settaggi) penso che ormai sia assodato; tuttavia io smetterei di fare confronti con PS5 in quanto, pur avendo un hardware che può essere accomunato a quello di un pc NON è lo stesso hardware, per cui non è corretto fare paragoni diretti; inoltre avere un hardware unico, ancorchè meno performante, fa si che l'ottimizzazione (e quindi la resa finale) possa essere spesso superiore rispetto ad un hardware che spinge sulla base della pura "forza bruta" (quale ad es. una config top attuale, nivdia o amd che sia).
Ovviamente a chi ha gestito il porting sono state date delle tempistiche e un budget da rispettare, ed evidentemente quello che hanno tirato fuori è stato NON il miglior risultato in assoluto, bensì il migliore legato ai due fattori di cui prima (mi verrebbe da fare un paragone con le GPU intel, uscite più o meno ottimizzate per girare giochi DX12 ma con una resa alquanto mediocre utilizzando librerie più vecchie....resa che appunto non potrà che migliorare col tempo, in quanto si tratta solo di permettere agli sviluppatori di lavorarci maggiormente)
Cyberpunk per esempio gira su PC e console,ma su PC è nettamente meglio...sto obbrobrio di porting gira come cyberpunk che ha raytracing, è un open world ed è infinitamente meglio graficamente di the last of us...eh ma io creo flame..ok..
sertopica
03-04-2023, 08:11
ma lo fa ad ogni cambio drivers come non mi ricordo quale altro titolo?
Se ho capito bene qui e' indipendente dai drivers, ma se esce una patch va rifatto.
edit: ah ok cazz, ho letto gli altri post. :doh:
Certo che dovrebbero trovare un altro modo per evitare sta compilazione. E' una rottura di balle estrema.
Che dissi hai?
Abbiamo un sistema molto simile.
Ho fatto un po' di prove con la cpu sia a stock (4,7ghz), che in OC a 5.0ghz.
Come performaces in game non cambia apparentemente nulla, ma le temperature sono schizzate di oltre 10 gradi... (da 70 max a picchi di oltre 80 gradi).
Mi sa che attendo queste due patch in arrivo e, nel caso, torno amabilmente ai 4,7ghz :asd:
Ho un Kraken X73 montato in espulsione. Temperature del genere le ho quando avvio cinebench. Solitamente sono di 20 gradi piu' basse.
DJurassic
03-04-2023, 08:15
Ma vedi è importante scindere gli aspetti tecnici da quelli del gioco. TLOU è assolutamente un gioco della madonna, curatissimo e da 10 per chi ama il genere. Anche a chi non piace non può certo negare si tratti di un gioco eccelso. Ma l'aspetto tecnico è un argomento diverso che può essere giudicato a parte. Un gioco può essere da 9, con una spetto tecnico da 5, vedi Elden Ring ad esempio (lì è pure da 4).
Ritengo molto da "ciechi" dire: da me gira bene, quindi il gioco tecnicamente e come porting è perfetto. Grazie tante, abbiamo una configurazione che costa 5-8 volte una ps5, ovvio che giri bene. Poi però vai a vedere e in acluni aspetti le prende pure da ps5. Questo per me è inaccettabile. Quindi anche se riescoa giocarlo benissimo non sono cieco e giudico per quello che è il risultato su pc, ossia nel complesso terribile.
Ma io non ho detto che il porting è eccellente. Dico solo che se fossero tutti così a me personalmente quasi converrebbe. Lo so che non fa piacere leggerlo ma non mi sto nascondendo dietro un dito. Tra i problemi di Hogwarts Legacy, Callisto Protocol e il traversal stuttering di Dead Space preferisco questo TLOU, che almeno da me non ha mai dato alcun problema di nessun tipo. Tra l’altro questo è uscito da qualche giorno mentre gli altri sono sul mercato da un pezzo e anche se migliorati non sembrano ancora totalmente fixati e probabilmente non lo saranno mai. Questo sono certo che sarà corretto entro massimo un mese da oggi.
Detto questo non sto dicendo che questo è un lavoro fatto bene. È stato ovviamente rushato e avrebbe avuto necessità di almeno un mese di ottimizzazione.
Eddie666
03-04-2023, 08:25
Cyberpunk per esempio gira su PC e console,ma su PC è nettamente meglio...sto obbrobrio di porting gira come cyberpunk che ha raytracing, è un open world ed è infinitamente meglio graficamente di the last of us...eh ma io creo flame..ok..
se non sbaglio cyberpunk è stato sviluppato tenendo come riferimento la piattaforma PC e non console, per cui valo lo stesso discorso di cui sopra, rovesciato stavolta a favore del PC.
che poi TLOU sia un gioco che richiede troppe risorse rispetto a quello che si vede su schermo sono d'accordo, ma si vede che il risultato ottenuto dal team di porting è stato ritenuto accettabile per essere immesso sul mercato.
una domanda a chi lamenta temperature della CPU elevate.....ma lo avete mai lanciato un bench serio sulla CPU, lasciandolo in esecuzione per diverse ore? e non sto parlando di cinebench, che considero un bench leggero (anche se fatto girare per mezz'ora, e non assolutamente indicativo della stabilità di sistema)...intendo un bench tipo prime, magari in modalità small ffts...ecco, se non lo avete mai testato venlo consiglio, così da avere un riferimento su che temperatura possa arrivare a raggiungere davvero in full load la vostra cpu
Cutter90
03-04-2023, 08:26
che TLOU non sia il miglior porting effettuato da console (in termini di scalabilità e resa visiva sui vari settaggi) penso che ormai sia assodato; tuttavia io smetterei di fare confronti con PS5 in quanto, pur avendo un hardware che può essere accomunato a quello di un pc NON è lo stesso hardware, per cui non è corretto fare paragoni diretti; inoltre avere un hardware unico, ancorchè meno performante, fa si che l'ottimizzazione (e quindi la resa finale) possa essere spesso superiore rispetto ad un hardware che spinge sulla base della pura "forza bruta" (quale ad es. una config top attuale, nivdia o amd che sia).
Ovviamente a chi ha gestito il porting sono state date delle tempistiche e un budget da rispettare, ed evidentemente quello che hanno tirato fuori è stato NON il miglior risultato in assoluto, bensì il migliore legato ai due fattori di cui prima (mi verrebbe da fare un paragone con le GPU intel, uscite più o meno ottimizzate per girare giochi DX12 ma con una resa alquanto mediocre utilizzando librerie più vecchie....resa che appunto non potrà che migliorare col tempo, in quanto si tratta solo di permettere agli sviluppatori di lavorarci maggiormente)
Tra ps5 e pc con quelle performance il paragone si è sempre potuto fare e tutti i giochi hanno trovato riscontri. Se su ps5 gira in un certo modo, in base alle performance lo si può replicare su pc paro paro o quasi. Il problema è che se tutti i giochi hanno ps5= ryzen 3600 e rtx 2070 super circa per pareggiare le performance e in TLOU no, significa a maggior ragione che TLOU su ps5 è stato trattato in un modo, su PC in un altro, nettamente peggiore. Parliamod i perdita di 30 fps a pari configurazione ps5/PC. Roba da pazzi. PS% è un pc al 100% eh.
Poi tutte le scuse del mondo contano zero. LA verità è che siamo fortunati ad avere la 4090 e delle cpu della madonna che possano sopperire alla scarsa ottimizzazione delle case, qualunque siano i motivi. Ma se anche noi notiamo problemi gravi, figuriamoci il 95% del resto dell'utenza che non ha la fortuna di avere il nostro Hardware per sopperire alle porcherie delle SH che si vedono su pc ultimamente.
LA cosa degli Shaders poi è assurda. Su ps5 non c'è nemmeno e noi con una cpu che costa come ps5 ci dobbiamo cuccare 20 minuti di precompilazione (e badate che parliamo di un i9-12900k). Ma il gioco costa come su ps5
Su ps5 che ha una cpu nettamente più scarsa delle nostre non c'è nessun collo. Da noi già la mia cpu lo ha quasi. E non parliamo dei caricamenti e del discorso vram, anche qui a vantaggio enorme di ps5.
Io non riesco ad accettare tutto questo, qualsiasi siano le scuse.
Ho un Kraken X73 montato in espulsione. Temperature del genere le ho quando avvio cinebench. Solitamente sono di 20 gradi piu' basse.
Ecco.. mi sa che a breve dovrò pensionare il Noctua dopo un'onoratissima carriera :D
Ps.
ragazzi è chiaro che TLOU non sia ancora un prodotto finito, imo.
purtroppo questo è un trend ormai comune a moltissimi titoli, come giustamente evidenziato. :muro:
siamo praticamente dei beta tester che attendono speranzosi delle patch miracolose. :doh:
Personalmente l'ho messo in standby e mi riserverò un giudizio completo solo nelle prossime settimane.
Al momento gli darei un bel NC = Non classificato :asd:
Cutter90
03-04-2023, 08:33
se non sbaglio cyberpunk è stato sviluppato tenendo come riferimento la piattaforma PC e non console, per cui valo lo stesso discorso di cui sopra, rovesciato stavolta a favore del PC.
che poi TLOU sia un gioco che richiede troppe risorse rispetto a quello che si vede su schermo sono d'accordo, ma si vede che il risultato ottenuto dal team di porting è stato ritenuto accettabile per essere immesso sul mercato.
una domanda a chi lamenta temperature della CPU elevate.....ma lo avete mai lanciato un bench serio sulla CPU, lasciandolo in esecuzione per diverse ore? e non sto parlando di cinebench, che considero un bench leggero (anche se fatto girare per mezz'ora, e non assolutamente indicativo della stabilità di sistema)...intendo un bench tipo prime, magari in modalità small ffts...ecco, se non lo avete mai testato venlo consiglio, così da avere un riferimento su che temperatura possa arrivare a raggiungere davvero in full load la vostra cpu
Infatti la cosa delle temperatura della cpu mi ha lasciato perplesso. Con CInebench raggiungo temperature ben più alte che con tlou. Ma anche qui il discorso è sempre lo stesso. L'utente medio non gioca certo nelle condizioni ottimali e studiate di un vero appassionato come possiamo essere noi. Non sa nemmeno cos'è un bench, ne cosa bisogna fare o comprare per far renedere la cpu al meglio.
micronauta1981
03-04-2023, 08:34
https://www.q-gin.info/the-last-of-us-naughty-dog-si-scusa-per-la-situazione-pc/
Mettiamo un po' le cose in chiaro perché poi mi stufo anche io di essere additato di creatore di flame..il gioco vi piace ? Ok ognuno la.pensa come vuole,ma se va analizzato seriamente il gioco è una mezza sola .i dev hanno chiesto scusa,ripeto scusa ai giocatori PC.le varie testate per le recensioni non hanno avuto le copie da recensire,secondo voi perché?basta difendere questi,che se ne fregano del mondo PC,che se ne stiano su console..
bagnino89
03-04-2023, 08:44
Preso anche io ad un buon prezzo per vedere che succede sul mio sistema. :D
La compilazione degli shaders mi e' durata esattamente 20 minuti. Il case si era trasformato in un termosifone, CPU a 70 gradi quasi fissa. :asd:
Domanda tecnica, ma i dati prodotti dalla compilazione shader dove risiedono fisicamente? Dentro il disco di sistema?
Eddie666
03-04-2023, 08:48
....
LA cosa degli Shaders poi è assurda. Su ps5 non c'è nemmeno e noi con una cpu che costa come ps5 ci dobbiamo cuccare 20 minuti di precompilazione (e badate che parliamo di un i9-12900k). Ma il gioco costa come su ps5
Su ps5 che ha una cpu nettamente più scarsa delle nostre non c'è nessun collo. Da noi già la mia cpu lo ha quasi. E non parliamo dei caricamenti e del discorso vram, anche qui a vantaggio enorme di ps5.
Io non riesco ad accettare tutto questo, qualsiasi siano le scuse.
proprio questo punto fa capire come, nonostante gli hardware a livello di numeri possano sembrare comparabili (teraflop, capacità di calcolo e amenità varie), le architetture sono diverse e lavorano in modo diverso: l'hardware di PS5 è totalmente votato al gaming...una cosa deve fare, punto.
Ripeto, non voglio assolutamente difendere il porting in sè; è un lavoro che avrebbe richiesto del tempo in più per ottenere un risultato adeguato....purtroppo il rilascio è stato dettato da strategie di marketing (vedi il successo della serie tv) e di costi.
Predator_1982
03-04-2023, 08:49
Domanda tecnica, ma i dati prodotti dalla compilazione shader dove risiedono fisicamente? Dentro il disco di sistema?
si
DJurassic
03-04-2023, 08:53
Domanda tecnica, ma i dati prodotti dalla compilazione shader dove risiedono fisicamente? Dentro il disco di sistema?
Nel caso di TLOU si trovano dentro la path:
\SteamLibrary\steamapps\common\The Last of Us Part I\psolibs
micronauta1981
03-04-2023, 08:55
proprio questo punto fa capire come, nonostante gli hardware a livello di numeri possano sembrare comparabili (teraflop, capacità di calcolo e amenità varie), le architetture sono diverse e lavorano in modo diverso: l'hardware di PS5 è totalmente votato al gaming...una cosa deve fare, punto.
Ripeto, non voglio assolutamente difendere il porting in sè; è un lavoro che avrebbe richiesto del tempo in più per ottenere un risultato adeguato....purtroppo il rilascio è stato dettato da strategie di marketing (vedi il successo della serie tv) e di costi.God of war gira da dio, spiderman non l'ho mai provato ma dicono sia fatto benissimo..quindi si possono fare i porting fatti bene
bagnino89
03-04-2023, 08:56
si
Nel caso di TLOU si trovano dentro la path:
\SteamLibrary\steamapps\common\The Last of Us Part I\psolibs
Grazie.
Mi chiedo: non sarebbe possibile installarli già compilati? E' roba molto compressa che serve ad evitare che il gioco occupi più spazio quando scaricato? Oppure è necessario perché la compilazione genera risultati differente in base alla configurazione hardware?
micronauta1981
03-04-2023, 08:59
Grazie.
Mi chiedo: non sarebbe possibile installarli già compilati? E' roba molto compressa che serve ad evitare che il gioco occupi più spazio quando scaricato? Oppure è necessario perché la compilazione genera risultati differente in base alla configurazione hardware?
Vanno fatti in base al proprio hardware..su console o su steam deck per esempio vengono installati insieme al gioco
Predator_1982
03-04-2023, 09:05
Grazie.
Mi chiedo: non sarebbe possibile installarli già compilati? E' roba molto compressa che serve ad evitare che il gioco occupi più spazio quando scaricato? Oppure è necessario perché la compilazione genera risultati differente in base alla configurazione hardware?
penso di no perché la compilazione deve avvenire sul sistema che esegue il titolo e, quindi, sulla base delle sue peculiarità hw e sw.
sertopica
03-04-2023, 09:05
Domanda tecnica, ma i dati prodotti dalla compilazione shader dove risiedono fisicamente? Dentro il disco di sistema?
Si sono 11 GB circa da quello che ho letto.
Comunque confermo la scarsa qualita' di questa conversione. Prestazioni che definire altalenanti e' poco. Si passa da 120 fps a 60 in un sali e scendi continuo, questo soltanto nella fase iniziale. Se aumento la risoluzione interna al 160% la GPU sta finalmente fissa al 99% e faccio intorno agli 80 fps, partendo da 1440p. L'impatto grafico e' buono ma non esaltante, a parte come ho gia' scritto i personaggi e le animazioni facciali che sono superlative. Le textures sono si' ad alta risoluzione ma ci sono texture PBR da altri titoli che rendono i materiali e come questi reagiscano alle fonti luminose molto meglio. Ora che ho provato con mano non posso che confermare le mie impressioni. La resa grafica non giustifica assolutamente le richieste esose!
Mi sa che lo parcheggio anche io.
Qui possiamo vedere come scala sul mio sistema, res originale, 160%, 200% rispettivamente, a 200% pur facendo intorno ai 60 fps risultava ESTREMAMENTE scattoso:
https://abload.de/img/100dqd9f.png https://abload.de/img/160okcx6.png https://abload.de/img/200olivd.png
E qui sotto come passa in un lampo da 120 fps a 80 e meno, a res nativa. Addirittura sono sceso a 65 fps con la GPU utilizzata al 44% lol! RIPETO 65 fps a 1440p con una 4090. :D
Eh lo so che la 4090 e' sovradimensionata per la mia CPU e risoluzione, ma una roba del genere non l'ho vista finora in altri giochi.
https://abload.de/img/tlou-i_2023_04_03_09_0re3f.png
https://abload.de/img/tlou-i_2023_04_03_09_trf41.png
Mi sa che lo parcheggio anche io.
Qui possiamo vedere come scala sul mio sistema, res originale, 160%, 200% rispettivamente, a 200% pur facendo intorno ai 60 fps risultava ESTREMAMENTE scattoso:
sei con mouse o pad?
da come si legge in giro, a brevissimo "dovrebbero" almeno risolvere l'odiosa scattosità con l'utilizzo del mouse..
per il resto concordo ;)
sertopica
03-04-2023, 09:18
sei con mouse o pad?
da come si legge in giro, a brevissimo "dovrebbero" almeno risolvere l'odiosa scattosità con l'utilizzo del mouse..
per il resto concordo ;)
Ero col mouse. A risoluzioni piu' basse non succede, non ho notato particolari problemi.
Vorrei anche far notare come l'utilizzo CPU schizzi in alto quando faccio una vagonata di fps in meno in quella scena. Mi sa che l'emulatore PS3 da' prestazioni migliori hehehe.
sei con mouse o pad?
da come si legge in giro, a brevissimo "dovrebbero" almeno risolvere l'odiosa scattosità con l'utilizzo del mouse..
per il resto concordo ;)
Non ci credere più di tanto perchè su Uncharted c'è lo stesso difetto mai risolto in tanto tempo, in ogni caso essendo giochi convertiti da console sono fatti per i joypad, giocarli con il mouse è come snaturarli.
micronauta1981
03-04-2023, 09:31
Non ci credere più di tanto perchè su Uncharted c'è lo stesso difetto mai risolto in tanto tempo, in ogni caso essendo giochi convertiti da console sono fatti per i joypad, giocarli con il mouse è come snaturarli.
Io con il pad non riesco a giocare,se fai un porting per PC la prima cosa deve essere poterlo usare con le periferiche che si usano su un PC. .almeno questo credevo fino ad oggi,�������� assurdo star ad aspettare 10 giorni per poterlo usare con un mouse...
Io con il pad non riesco a giocare,se fai un porting per PC la prima cosa deve essere poterlo usare con le periferiche che si usano su un PC. .almeno questo credevo fino ad oggi,�������� assurdo star ad aspettare 10 giorni per poterlo usare con un mouse...
Se un gioco nasce per console + pad e poi esce per PC o ti impari ad usare il pad su PC o sennò non te lo compri.
DJurassic
03-04-2023, 09:38
Grazie.
Mi chiedo: non sarebbe possibile installarli già compilati? E' roba molto compressa che serve ad evitare che il gioco occupi più spazio quando scaricato? Oppure è necessario perché la compilazione genera risultati differente in base alla configurazione hardware?
Non sò bene come funzionano ma di certo se il gioco subirà degli update è bene lasciarglieli compilare nuovamente mentre per una questione di driver potrebbe essere ininfluente. Il fatto è che non credo basti fare un backup da ripristinare all'occorrenza in caso si voglia skippare il processo. Di sicuro il gioco legge i tuoi dati e di conseguenza anche avendoli inseriti è possibile li sovrascriva.
Nulla ti vieta di fare una prova.
Per quanto possa servire sò per certo che eliminando i driver video con DDU reinstallando la stessa versione il gioco non ripete la compilazione degli shader. Facendo invece un update o un rollback la fà nuovamente.
Eh lo so che la 4090 e' sovradimensionata per la mia CPU e risoluzione, ma una roba del genere non l'ho vista finora in altri giochi.
Io invece l'ho vista già altre volte, solo non con un titolo raster. E' evidente ci sia parecchio da sistemare ma il tuo caso così come tanti altri è dovuto ad un fattore di cpu limited che taglia completamente l'ossigeno alla 4090.
La parte iniziale se ti consola è quella più pesante dell'intero gioco in assoluto e il drop poco prima del vicolo con le 2 auto della polizia che vengolo colpite dall'esplosione capita a tutti. Non sò bene cosa succeda in quel momento ma il gioco tira una bella botta che ti mangia una ventina di frame.
Per favore togli il film grain :asd:
bagnino89
03-04-2023, 09:46
Grazie a tutti per le delucidazioni sugli shader.
Inviato dal mio Pixel 6 utilizzando Tapatalk
micronauta1981
03-04-2023, 09:46
Se un gioco nasce per console + pad e poi esce per PC o ti impari ad usare il pad su PC o sennò non te lo compri.
Ahhaahhaa sei serio?nelle impostazioni ci sono le opzioni per usare il mouse..sei tu che usi il pad su PC e dovresti comprarti una console magari usi pure la mira assistita
bagnino89
03-04-2023, 09:52
Se un gioco nasce per console + pad e poi esce per PC o ti impari ad usare il pad su PC o sennò non te lo compri.Dai non esageriamo. Sta roba che col mouse stuttera è ridicola.
Inviato dal mio Pixel 6 utilizzando Tapatalk
sertopica
03-04-2023, 09:54
Se un gioco nasce per console + pad e poi esce per PC o ti impari ad usare il pad su PC o sennò non te lo compri.
Ma dai... Ci sono le opzioni per mouse e tastiera, questo significa che devono fornire supporto completo per tutte le periferiche.
Se un gioco nasce per console + pad e poi esce per PC o ti impari ad usare il pad su PC o sennò non te lo compri.
beh, però con questo ragionamento allora chi si comprerà diablo 4 su ps5 e xbox dovrebbe usare il mouse e tastiera :asd:
se il gioco, porting o non porting, prevede l'utilizzo di ulteriori periferiche, mi aspetto che vengano implementate come si deve ;)
Dai non esageriamo. Sta roba che col mouse stuttera è ridicola.
Inviato dal mio Pixel 6 utilizzando Tapatalk
? :mbe: A me non stuttera ne col mouse ne col pad...
sertopica
03-04-2023, 09:56
Io invece l'ho vista già altre volte, solo non con un titolo raster. E' evidente ci sia parecchio da sistemare ma il tuo caso così come tanti altri è dovuto ad un fattore di cpu limited che taglia completamente l'ossigeno alla 4090.
La parte iniziale se ti consola è quella più pesante dell'intero gioco in assoluto e il drop poco prima del vicolo con le 2 auto della polizia che vengolo colpite dall'esplosione capita a tutti. Non sò bene cosa succeda in quel momento ma il gioco tira una bella botta che ti mangia una ventina di frame.
Per favore togli il film grain :asd:
Grazie per le delucidazioni.
Si' il film grain lo tolgo, avevo messo tutto al max per testare al volo. :D
Poi ho notato che all'aumentare del res scaling il film grain non scala con la risoluzione quindi e' ancora piu' visiibile.
micronauta1981
03-04-2023, 09:58
? :mbe: A me non stuttera ne col mouse ne col pad...
Non a tutti lo fa, è una combinazione di mouse frequenza del monitor e inadeguatezza dei programmatori 😂😂😂
beh, però con questo ragionamento allora chi si comprerà diablo 4 su ps5 e xbox dovrebbe usare il mouse e tastiera :asd:
se il gioco, porting o non porting, prevede l'utilizzo di ulteriori periferiche, mi aspetto che vengano implementate come si deve ;)
E' una battuta. Comunque era per dire che ci sono tipologie di giochi dove è meglio usare una periferica ed altri un'altra...non essendo questo il caso specifico dove si richiede estrema precisione e velocità di esecuzione pure stare spaparazzati sulla poltrona col pad gustandosi la storia non la vedo in ottica negativa. Fine OT
micronauta1981
03-04-2023, 10:01
Preferisco usare la mano per muovermi piuttosto che il pollicione,e il gioco che mi mira da solo..no grazie😂😂😂 e cmq se nelle opzioni c'è scritto mouse e tastiera deve funzionare anche con mouse e tastiera
Cutter90
03-04-2023, 10:04
proprio questo punto fa capire come, nonostante gli hardware a livello di numeri possano sembrare comparabili (teraflop, capacità di calcolo e amenità varie), le architetture sono diverse e lavorano in modo diverso: l'hardware di PS5 è totalmente votato al gaming...una cosa deve fare, punto.
Ripeto, non voglio assolutamente difendere il porting in sè; è un lavoro che avrebbe richiesto del tempo in più per ottenere un risultato adeguato....purtroppo il rilascio è stato dettato da strategie di marketing (vedi il successo della serie tv) e di costi.
Il problema ulteriore è che la versione pc è uscita pure mesi e mesi dopo quella ps5 con la scusa di "fare un bel lavoro". Risultato, lavoro pessimo.
Io non penso che le architetture lavorino in modo diverso. Sono le SH a lavorare in modo diverso..... perchè è solo con tlou che avviene ciò. Con tutti gli altri giochi Sony le performance tornano 1:1
DJurassic
03-04-2023, 10:29
Modificando il file tlou-i.exe dentro la cartella del gioco con un editor Esadecimale ho eliminato completamente lo sharpening che il gioco introduce di default. Qui sotto trovate un paio di comparative.
Sharpening On vs Off
https://imgsli.com/MTY2NjI2
https://imgsli.com/MTY2NjI3
In particolare in HDR l'eccessiva nitidezza risalta ogni bordo come fosse su carta carbone e gli dona un effetto cartoon che a me non piace. Succede anche in SDR ma in misura leggermente più contenuta.
Slater91
03-04-2023, 10:31
O ritorniamo a discutere dell'argomento della discussione, o partono le sospensioni. Uomo avvisato...
Alekos Panagulis
03-04-2023, 10:31
edit: sorry non avevo visto l'intervento del mod sopra
h.rorschach
03-04-2023, 14:23
Edit: cancellato, thread errato, c'è un po' di confusione col thread di TLOU
Cutter90
03-04-2023, 15:28
Cmq, aggiornamento per quel problema di black screen che a caso mi saltavano fuori. Avevo provato la ram diversa, tutto a stock ma nulla. Allora ho proivato la soluzione qui postata impostato "prefer maximum performance" da pannello nvidia. Il problema per ora è risolto così facendo. Ma è chiaro che serva qualche aggiornamento da qualche parte. Spero arrivi. Ho anche scoperto che gli aggiornamenti per la 4090 msi li fa tramite il suo "msi center" e non dal sito :mbe:
Ma che c'entra amd?!? Dovete fare polemica anche quando non ce n'è bisogno.
Siamo nel thread delle ada e si stava parlando della 4090, la gpu più potente al mondo che riesce a dare risultati migliori ad ogni release di nuove cpu. Stop. Anche perché cutter ha una 4090....
E si parlava solo di intel perché lui ha un 11900k, io un 12900k, ed amon che aveva partecipato agli screen ha un 13600k. Quindi il paragone per forza di cose era tra cpu intel. Senza nulla togliere ad amd che ha fatto ottime cpu, ma in questo discorso non vedo il motivo di nominarla a tutti i costi.Che hai la coda di paglia? Parlava pure del 5800X3D, e in Intel il 13900K non mancava.
La 7900xtx era entrata in funzione del discorso cpu limited, cercando di isolarlo, ecco che a 1080p la 7900xtx può evidenziare meglio l'aspetto.
Nelle nuove CPU il nuovo X3D può partecipare, o deve prendere il numero?
Quindi non era a tutti i costi, e il mio "non capisco" non era sarcastico e/o retorico.
Non è che non se ne può parlare e basta? (non si può si fa per dire...)
Il discorso cpu e 4090 che penso debba essere compreso è che dipende solo ds quanti fps si fanno. Se la gpu me ne genera 120 e la cpu sta al 30-50% colli non c'è ne sono. Si perdono 4-5 fps tra la 13900k e la 11900k. Quando però in un gioco la cpu è sfruttata molto ( e nel caso di tlou male) e arriva al 80-90 % ecco che si ha il vero collo e gli fps crollano. Ma questo non dipende dalla 4090 ma solo dagli fps che la gpu sarebbe capace di sviluppare a cui la cpu non riesce a stare dietro.
La mia cpu non fa MAI da collo con la 4090 se si sta sotto i 100-120 fps. Si ha un perdita quasi trascurabile dovuta all architettura. Poi ovviamente dipende tanto dai giochi.Generalizzi male. Che vuol dire 4-5 frame? Nei minimi, nei medi, o in quello che ti pare a te?
100fps nei minimi con l'11900K dove? Se fosse come dici tu, la 4090 non sarebbe tanto ingorda, non credi?
Se dipende dai giochi, ed è così, il tuo discorso vale ben poco. Quando pesano su pochi core ne prendi a iosa, col RT rischi di arrivare corto anche quando si distribuisce meglio il carico.
Come si diceva, il 50% del procio conta relativamente, lo farebbe quando un gioco sfruttasse a stecca tutti i thread a disposizione.
Cutter90
03-04-2023, 17:15
Che hai la coda di paglia? Parlava pure del 5800X3D, e in Intel il 13900K non mancava.
La 7900xtx era entrata in funzione del discorso cpu limited, cercando di isolarlo, ecco che a 1080p la 7900xtx può evidenziare meglio l'aspetto.
Nelle nuove CPU il nuovo X3D può partecipare, o deve prendere il numero?
Quindi non era a tutti i costi, e il mio "non capisco" non era sarcastico e/o retorico.
Non è che non se ne può parlare e basta? (non si può si fa per dire...)
Generalizzi male. Che vuol dire 4-5 frame? Nei minimi, nei medi, o in quello che ti pare a te?
100fps nei minimi con l'11900K dove? Se fosse come dici tu, la 4090 non sarebbe tanto ingorda, non credi?
Se dipende dai giochi, ed è così, il tuo discorso vale ben poco. Quando pesano su pochi core ne prendi a iosa, col RT rischi di arrivare corto anche quando si distribuisce meglio il carico.
Come si diceva, il 50% del procio conta relativamente, lo farebbe quando un gioco sfruttasse a stecca tutti i thread a disposizione.
Ho testato e giocato una tonnellata di giochi. Con la mia cpu in media perdo di solito 4-5 fps in 4k sotto i 100 fps, rispetto ad un 13900k a esempio, eccetto tlou. Questo come media nei giochi rispetto a quelli che si vedono a schermo nei determinati punti che ho testato. Minimi non ho modo di confrontare, ne mi interessa
Ho testato e giocato una tonnellata di giochi. Con la mia cpu in media perdo di solito 4-5 fps in 4k sotto i 100 fps, rispetto ad un 13900k a esempio, eccetto tlou. Questo come media nei giochi rispetto a quelli che si vedono a schermo nei determinati punti che ho testato. Minimi non ho modo di confrontare, ne mi interessaNon esiste una differenza di solo il 5% tra l'11900K e il 13900K, smettila di dire cose non vere.
I test avanzano in ogni dove, quelli nella tua cantina, forse son buoni per te.
Non ti interessano i minimi? Vabbè, ho capito, lasciamo perdere... :rolleyes:
Alekos Panagulis
04-04-2023, 06:23
Ho testato e giocato una tonnellata di giochi. Con la mia cpu in media perdo di solito 4-5 fps in 4k sotto i 100 fps, rispetto ad un 13900k a esempio, eccetto tlou. Questo come media nei giochi rispetto a quelli che si vedono a schermo nei determinati punti che ho testato. Minimi non ho modo di confrontare, ne mi interessaSe guardi la review del 7950x3d su Techpowerup, fatta con la 4090, fra il 13900k e l'11900k ci passa un 15% in 4k e quasi il 30% in 2k.
Il 2k lo devi considerare perché, ogni volta che attivi il DLSS qualità, stai utilizzando quella risoluzione.
Inviato dal mio CPH2305 utilizzando Tapatalk
Cutter90
04-04-2023, 07:02
Se guardi la review del 7950x3d su Techpowerup, fatta con la 4090, fra il 13900k e l'11900k ci passa un 15% in 4k e quasi il 30% in 2k.
Il 2k lo devi considerare perché, ogni volta che attivi il DLSS qualità, stai utilizzando quella risoluzione.
Inviato dal mio CPH2305 utilizzando Tapatalk
Ho guardato, ma nei giochi sotto i 100 fps non trovo l'i911900k per confrontarlo. Inoltre, non conta il 2k e 4k, conta quanti fps si fanno. Se con il dlss quality dal 4k è effettivamente un 2k se quegli fps restano sotto i 100 ad esempio, la differenza sarà minima ugualmente. Inoltre ora mi sto abituando ad usare il 6k+ dlss quality, ossia dal 4k al 6k.
Ma in ogni caso come detto non conta nulla la risoluzione, ma il range degli fps in cui si è. In un gioco dove si fanno 60 fps, tra il mio e il 13900k passano pochissimi fps. Sui 100 ne passano un po' di più, sempre pochi a mio modo di vedere, soipra i 140 di più.
Ma se il mio target è sotto i 120 allora le differenza sono poco presenti.
Ora ad esempio sto giocando a GHostwire che in 6k+ dlss quality sto intorno ai 60-80 fps. Con un 13900k farei 4-5 fps in più massimo.
Purtroppo non trovo video di confronto diretto, ma qui c'è con il 10900k che va un pelo meno del mio.
https://www.youtube.com/watch?v=Xcrrj4gDw5A
Si vede cmq molto bene che in quei giochi dove sta sotto o nei dintorni dei 100 la differenza è bassissima
https://www.youtube.com/watch?v=98ZmMuOTeqQ
Qui lo fa con gli i7 ma è la stessa cosa. Minuto 13 in poi, in 4k
sertopica
04-04-2023, 07:36
Cutter fattene una ragione, le nostre CPU sono sorpassate, forse per le tue esigenze va ancora bene, ma non puoi negare che una CPU piu' moderna accoppiata ad una 4090 abbia performance di gran lunga superiori. I minimi contano eccome ed in questo caso ci ballano molto piu' di 4-5 fps. In scenari CPU limited come nella stragrande maggioranza degli ultimi titoli (buggati) stai in una botte di ferro con una CPU recente, mentre con la vecchia generazione poco ci manca che scendi sotto ai 60 fps. Senza dimenticare che e' piu' probabile incorrere in fenomeni di stuttering e frame pacing. E l'ho provato sulla mia pelle. A 1440p prendo i ceffoni, a 4k va meglio ma sono ancora sotto. :D
Il fatto che tu debba fare downsampling per non incorrere in bottlenecks e tenere la percentuale di utilizzo della GPU alta e' emblematico. Poi ci sono titoli che soffrono meno e altri che soffrono di piu' con una CPU meno recente. Infatti appena posso faccio il cambio di piattaforma perche' ho un sistema poco bilanciato.
Il primo video che hai postato ha risultati molto strani, sicuro sia attendibile? Soprattutto il confronto 12900 VS 13900.
Alekos Panagulis
04-04-2023, 08:07
Ho guardato, ma nei giochi sotto i 100 fps non trovo l'i911900k per confrontarlo. Inoltre, non conta il 2k e 4k, conta quanti fps si fanno. Se con il dlss quality dal 4k è effettivamente un 2k se quegli fps restano sotto i 100 ad esempio, la differenza sarà minima ugualmente. Inoltre ora mi sto abituando ad usare il 6k+ dlss quality, ossia dal 4k al 6k.
Ma in ogni caso come detto non conta nulla la risoluzione, ma il range degli fps in cui si è. In un gioco dove si fanno 60 fps, tra il mio e il 13900k passano pochissimi fps. Sui 100 ne passano un po' di più, sempre pochi a mio modo di vedere, soipra i 140 di più.
Ma se il mio target è sotto i 120 allora le differenza sono poco presenti.
Ora ad esempio sto giocando a GHostwire che in 6k+ dlss quality sto intorno ai 60-80 fps. Con un 13900k farei 4-5 fps in più massimo.
Purtroppo non trovo video di confronto diretto, ma qui c'è con il 10900k che va un pelo meno del mio.
https://www.youtube.com/watch?v=Xcrrj4gDw5A
Si vede cmq molto bene che in quei giochi dove sta sotto o nei dintorni dei 100 la differenza è bassissima
https://www.youtube.com/watch?v=98ZmMuOTeqQ
Qui lo fa con gli i7 ma è la stessa cosa. Minuto 13 in poi, in 4k
Mah, quei video secondo me non sono attendibili.
In ogni caso comprendo il tuo discorso. Se il gioco supera i 100 frames non è un grande problema perdere il 10 o il 15%.
Cutter90
04-04-2023, 08:18
Cutter fattene una ragione, le nostre CPU sono sorpassate, forse per le tue esigenze va ancora bene, ma non puoi negare che una CPU piu' moderna accoppiata ad una 4090 abbia performance di gran lunga superiori. I minimi contano eccome ed in questo caso ci ballano molto piu' di 4-5 fps. In scenari CPU limited come nella stragrande maggioranza degli ultimi titoli (buggati) stai in una botte di ferro con una CPU recente, mentre con la vecchia generazione poco ci manca che scendi sotto ai 60 fps. Senza dimenticare che e' piu' probabile incorrere in fenomeni di stuttering e frame pacing. E l'ho provato sulla mia pelle. A 1440p prendo i ceffoni, a 4k va meglio ma sono ancora sotto. :D
Il fatto che tu debba fare downsampling per non incorrere in bottlenecks e tenere la percentuale di utilizzo della GPU alta e' emblematico. Poi ci sono titoli che soffrono meno e altri che soffrono di piu' con una CPU meno recente. Infatti appena posso faccio il cambio di piattaforma perche' ho un sistema poco bilanciato.
Il primo video che hai postato ha risultati molto strani, sicuro sia attendibile? Soprattutto il confronto 12900 VS 13900.
No aspetta, faccio downsampling perchè preferisco guadagnare nitidezza in alcuni titoli e perdere 10 fps sopra i 60. Mica perchè mi fa da collo. Come detto solo in tlou ho un vero collo. In tutti gli altri giochi vado liscio senza alcun problema di cpu. Poi si, l'i911900k non va come il 10700k per cui già tra me e te ci sono differenze e sicuramente sento meno il bisogno di cambio piattaforma, che cmq con meteor lake arriverà.
Mah, quei video secondo me non sono attendibili.
In ogni caso comprendo il tuo discorso. Se il gioco supera i 100 frames non è un grande problema perdere il 10 o il 15%.
Non so, anche quando guardo i vari bench vedo che i risultati a video sono simili, al di là dei video.
Confrontandomi con Bang4BuckPC che seguo per i bench vedo sempre quelle differenze. Pochi fps
Cmq ieri per curiosità volevo vedere a quanto in oc riesco ad essere stabile in Ghostwire. Riesco a giocare a 3060 mhz (+1400 sulle memorie) a 1.1volt con temperature di 56 gradi. Che si traduce in 2 fps guadagnati attorno ai 60. Il problema è che mi arriva anche a consumare 515 watt la sola 4090. Tiene davvero molto bene sta liquid X.
Naturalmente per 2 fps non ne vale la pena e sono tornato al mio 2850 a 1 volt con 420 watt massimi e +1300 sulle memorie a 51 gradi circa
sertopica
04-04-2023, 09:11
No aspetta, faccio downsampling perchè preferisco guadagnare nitidezza in alcuni titoli e perdere 10 fps sopra i 60. Mica perchè mi fa da collo. Come detto solo in tlou ho un vero collo. In tutti gli altri giochi vado liscio senza alcun problema di cpu. Poi si, l'i911900k non va come il 10700k per cui già tra me e te ci sono differenze e sicuramente sento meno il bisogno di cambio piattaforma, che cmq con meteor lake arriverà.
Capito. Comunque fra le ns. cpu non c'e' una enorme differenza, considerando anche che il 11900k ha meno cores del 10900k.
Comunque meglio chiudere con l'OT, che il moderatore e' gia' intervenuto.
DJurassic
04-04-2023, 11:01
Poi si, l'i911900k non va come il 10700k
È quella da 356 PCore? :asd:
scorpion73
04-04-2023, 12:05
Poi si, l'i9 11900k non va come il 10700k
Ascolta, fra le due ci sarà si e no un 6%-7% di differenza in gaming (ovviamente parliamo in gaming), e forse esagero pure, non mi pare una differenza così sostanziale da giustificare una frase come quella, da dove traspare la differenza di un vero salto generazionale.
Quella lasciala al confronto 10700-12700, li si che hai un salto enorme, che c'è anche fra 11700-12700 e similarmente per l'i9.
Le generazioni sotto alla 12 , da 9 a 11 in particolare, si equivalgono quasi tutte, se il 10700k fa da collo lo fa anche l'11700k e l'11900k, e viceversa. Un po di meno fra i7 e i9, ma molto poco, cose che non cambiano la vita a nessuno. Nei minimi poi è ancora meno.
Forse l'unica eccezione è il 10900k per via del fatto che ha 10 core e 20 thread, ma anche li le differenze sono comunque risicate.
Non lo dico con ottica polemica per cui non mi intendere male, questo ci tengo a chiarirlo, ma l'esigenza di cambio piattaforma, per chi ce l'ha, è la stessa fra la serie 10 e la serie 11.
Cutter90
04-04-2023, 12:29
Ascolta, fra le due ci sarà si e no un 6%-7% di differenza in gaming (ovviamente parliamo in gaming), e forse esagero pure, non mi pare una differenza così sostanziale da giustificare una frase come quella, da dove traspare la differenza di un vero salto generazionale.
Quella lasciala al confronto 10700-12700, li si che hai un salto enorme, che c'è anche fra 11700-12700 e similarmente per l'i9.
Le generazioni sotto alla 12 , da 9 a 11 in particolare, si equivalgono quasi tutte, se il 10700k fa da collo lo fa anche l'11700k e l'11900k, e viceversa. Un po di meno fra i7 e i9, ma molto poco, cose che non cambiano la vita a nessuno. Nei minimi poi è ancora meno.
Forse l'unica eccezione è il 10900k per via del fatto che ha 10 core e 20 thread, ma anche li le differenze sono comunque risicate.
Non lo dico con ottica polemica per cui non mi intendere male, questo ci tengo a chiarirlo, ma l'esigenza di cambio piattaforma, per chi ce l'ha, è la stessa fra la serie 10 e la serie 11.
Si si, chiaro, non c'è assolutamente un gran differenza, anche se dipende pure da quanto sono "tirati", io per esempio ho 5.2 all'core a 1.4. Sui sintetici la differenza è più marcata in gaming poca, ma cmq aiuta a fare meno da collo nelle situazioni limite.
Spero solo che meteor lake non sia il refresh come si vociferava ma la nuova piattaforma.
scorpion73
04-04-2023, 12:46
Si si, chiaro, non c'è assolutamente un gran differenza, anche se dipende pure da quanto sono "tirati", io per esempio ho 5.2 all'core a 1.4. Sui sintetici la differenza è più marcata in gaming poca, ma cmq aiuta a fare meno da collo nelle situazioni limite.
Spero solo che meteor lake non sia il refresh come si vociferava ma la nuova piattaforma.
Parliamo di processori a stock: l'overclock come ben sai è una cosa molto dipendente dalla qualità del sample in tuo possesso, non può essere usata come metro di paragone generico proprio perché ci può stare quello che tira, quello che tira poco e quello che proprio non si riclocca. Va troppo a culo.
Quindi i ragionamenti di cui parlavamo vanno fatti con in mente l'architettura e le frequenze a stock.
Eddie666
04-04-2023, 12:57
Ascolta, fra le due ci sarà si e no un 6%-7% di differenza in gaming (ovviamente parliamo in gaming), e forse esagero pure, non mi pare una differenza così sostanziale da giustificare una frase come quella, da dove traspare la differenza di un vero salto generazionale.
Quella lasciala al confronto 10700-12700, li si che hai un salto enorme, che c'è anche fra 11700-12700 e similarmente per l'i9.
Le generazioni sotto alla 12 , da 9 a 11 in particolare, si equivalgono quasi tutte, se il 10700k fa da collo lo fa anche l'11700k e l'11900k, e viceversa. Un po di meno fra i7 e i9, ma molto poco, cose che non cambiano la vita a nessuno. Nei minimi poi è ancora meno.
Forse l'unica eccezione è il 10900k per via del fatto che ha 10 core e 20 thread, ma anche li le differenze sono comunque risicate.
Non lo dico con ottica polemica per cui non mi intendere male, questo ci tengo a chiarirlo, ma l'esigenza di cambio piattaforma, per chi ce l'ha, è la stessa fra la serie 10 e la serie 11.
dato che ho un serie 11 a me piacerebbe fare un confronto per vedere quanto potrei andare a migliorare salendo di piattaforma; che ne dici, stabiliamo una frequenza per la 4090 (da modello a modello boostano differentemente, per cui potremmo, chessò, settare 2800mhz fissi) e poi lanciamo il benchmark di un gioco (tipo cyberpunnk)?
dato che ho un serie 11 a me piacerebbe fare un confronto per vedere quanto potrei andare a migliorare salendo di piattaforma; che ne dici, stabiliamo una frequenza per la 4090 (da modello a modello boostano differentemente, per cui potremmo, chessò, settare 2800mhz fissi) e poi lanciamo il benchmark di un gioco (tipo cyberpunnk)?
Se vai su YT nel mio canale ci sono i video fatti con il 10900k e presto li rifarò sul 13900k devo solo aspettare i pezzi che mi mancano per finire la build. Comunque in 4k le differenze sono molto risicate.
Canale YT (https://youtube.com/@kiwivda)
Cutter90
04-04-2023, 13:49
Parliamo di processori a stock: l'overclock come ben sai è una cosa molto dipendente dalla qualità del sample in tuo possesso, non può essere usata come metro di paragone generico proprio perché ci può stare quello che tira, quello che tira poco e quello che proprio non si riclocca. Va troppo a culo.
Quindi i ragionamenti di cui parlavamo vanno fatti con in mente l'architettura e le frequenze a stock.
Eh no, non penso nemmeno sia corretto farli a stock però. Perchè il mio sta a 5.2 a 1.4 in day use. Se tu lo usi a stock la differenza aumenta sensibilmente. E poi a me interessa un caso reale, ossia a quanto appunto lo tengo io :)
Anche perchè magari appunto ogni serie ha anche delle differenze, se in oc o meno.
ci siamo quasi :D
https://www.youtube.com/watch?v=Tk7Zbzd-6fs
chissà se gli fps indicati saranno veritieri ... :asd:
h.rorschach
04-04-2023, 14:28
ci siamo quasi :D
https://www.youtube.com/watch?v=Tk7Zbzd-6fs
chissà se gli fps indicati saranno veritieri ... :asd:
Probabile. Diciamo che non dicono esplicitamente ci sia anche DLSS normale oltre al FG, essendo 4K direi Performance (nativo 1080p)
Cutter90
04-04-2023, 14:38
ci siamo quasi :D
https://www.youtube.com/watch?v=Tk7Zbzd-6fs
chissà se gli fps indicati saranno veritieri ... :asd:
Risoluzione di partenza 1080p, con dlss ultraperformance e dlss3. Renderizza internamente a 240p :D
ci siamo quasi :D
https://www.youtube.com/watch?v=Tk7Zbzd-6fs
chissà se gli fps indicati saranno veritieri ... :asd:
Madonnina, non vedo l'ora, path tracing in un tripla A moderno.
amon.akira
04-04-2023, 16:18
quello è in 4k dlss3, quindi performance(1080p)+framegenerator
ray_hunter
04-04-2023, 16:52
Io son passato dal 5800X ed il 5800X3D e se guardi gli fps medi le differenze sono risibili.
L'elefante nella stanza invece sono i minimi. Ti basta prendere alcuni giochi CPU limited e mal ottimizzati dove col 5800X avevo 40/45fps e ora ne ho 55/60. La differenza è enorme nell'esperienza di gioco altro che...
Il DLSS in quei casi non aiuta manco per il cavolo in quanto spesso solo a 4K nativa sfrutti la GPU almeno sopra il 95% ma se metti DLSS anche quality l'utilizzo ti va all'80%.
Ecco che ti trovi nel caso in cui non puoi far niente per aumentare le prestazioni se non togliere l'RT o il settaggio ammazza CPU (...che di solito è l'RT)
micronauta1981
05-04-2023, 12:23
Risoluzione di partenza 1080p, con dlss ultraperformance e dlss3. Renderizza internamente a 240p :D
Si 16 fps senza dlss 😂😂😂😂 già ora con tutto maxato in 4k dlss qualità in certi punti tipo il mercato,e una zona con un sacco di alberi non ricordo il nome,si arriva a55/60 fps..
Cutter90
05-04-2023, 12:55
Si 16 fps senza dlss 😂😂😂😂 già ora con tutto maxato in 4k dlss qualità in certi punti tipo il mercato,e una zona con un sacco di alberi non ricordo il nome,si arriva a55/60 fps..
Beh, mi aspetto in 4k con dlss3+dlss quality di stare sopra i 60
Beh, mi aspetto in 4k con dlss3+dlss quality di stare sopra i 60
me lo auguro anche io.
nel video mi pare non abbiano specificato con che cpu sia stato girato.
Cutter90
05-04-2023, 13:47
me lo auguro anche io.
nel video mi pare non abbiano specificato con che cpu sia stato girato.
Il frame generator ha anche la capacità di far aumentare i frame senza caricare la cpu, quindi anche qui sono tranquillo
amon.akira
05-04-2023, 14:38
Beh, mi aspetto in 4k con dlss3+dlss quality di stare sopra i 60
mediamente sicuramente, ma immagino ci saranno scene in cui si andrà sotto, se facciamo un parallelo con la versione attuale guardando i minimi nel bench integrato
31fps minimi in 4k
51fps minimi in 4k+framegen (+65%)
59fps minimi in 4k+dlss quality (+90%)
84fps minimi in 4k+dlss quality+framegen (+170%)
A qualcuno di voi il framegen associato ad un monitor Gsync (impostazioni con Gsync attivato e Vsync attivato da Pannello di controllo Nvidia) causa botte di lag saltuarie (visibili proprio come spike nel traccciato del frametime)?
Dipende molto dal gioco.. in Hogwarts Legacy è molto evidente (se non uso il framegen la situazione migliora di moltissimo ... se disattivo il Vsync e cappo i frames ancora meglio ma compar eun po di tearing); in CP2077 nemmeno l'ombra; in Atomiheart una via di mezzo che scomapre del tutto disattivando il framegen, mantenendo attivo il Vsync e cappando i frames a -3 rispetto agli Hz massimi del monitor
Insomma ogni gioco una sua impostazione :mbe:
DJurassic
05-04-2023, 19:19
mediamente sicuramente, ma immagino ci saranno scene in cui si andrà sotto, se facciamo un parallelo con la versione attuale guardando i minimi nel bench integrato
31fps minimi in 4k
51fps minimi in 4k+framegen (+65%)
59fps minimi in 4k+dlss quality (+90%)
84fps minimi in 4k+dlss quality+framegen (+170%)
Anche perchè nel video c'è un punto verso la fine in cui và a 95fps, di conseguenza in modalità Quality non credo arrivi a 60.
A qualcuno di voi il framegen associato ad un monitor Gsync (impostazioni con Gsync attivato e Vsync attivato da Pannello di controllo Nvidia) causa botte di lag saltuarie (visibili proprio come spike nel traccciato del frametime)?
Dipende molto dal gioco.. in Hogwarts Legacy è molto evidente (se non uso il framegen la situazione migliora di moltissimo ... se disattivo il Vsync e cappo i frames ancora meglio ma compar eun po di tearing); in CP2077 nemmeno l'ombra; in Atomiheart una via di mezzo che scomapre del tutto disattivando il framegen, mantenendo attivo il Vsync e cappando i frames a -3 rispetto agli Hz massimi del monitor
Insomma ogni gioco una sua impostazione :mbe:
Questo perchè Hogwarts Legacy è un colabrodo di gioco che con RT attivo (peraltro rotto con l'ultima patch) stuttera con qualsiasi PC esistente sulla faccia della terra. WB se ne è ampiamente sbattuta e oltre che contare i soldi pensa a sistemare la versione Old Gen in uscita a breve. In Atomic Hearth invece non mi è mai successo così non mi è capitato in altre decine di giochi in cui ho avuto modo di provare il FG.
micronauta1981
05-04-2023, 20:18
Già ora con tutto maxato in alcuni punti sta appena sopra i 60..4k dlss qualità...ci sono certi punti dove è molto più pesante cyberpunk
Mi accodo alla discussione per una domanda ai più esperti, con il gsync attivato nel pannello nvidia (ho un monitor freesync premium), è meglio attivare anche il vsync o meglio lasciarlo disattivato e usare il cap dei frame (nei giochi dove è supportato quanto meno) ?
Con la 6800xt avevo sempre freesync + vsync, non so se con nvidia è la stessa cosa (ai tempi della 1080ti non avevo ne un monitor gsync ne freesync :D )
amon.akira
05-04-2023, 21:16
Mi accodo alla discussione per una domanda ai più esperti, con il gsync attivato nel pannello nvidia (ho un monitor freesync premium), è meglio attivare anche il vsync o meglio lasciarlo disattivato e usare il cap dei frame (nei giochi dove è supportato quanto meno) ?
Con la 6800xt avevo sempre freesync + vsync, non so se con nvidia è la stessa cosa (ai tempi della 1080ti non avevo ne un monitor gsync ne freesync :D )
attiva il vsync nel pannello nvidia e lo disattivi nei giochi, cappa leggermente sotto, -3 del tuo refreshrate, se attivi il reflex in alcuni giochi vedrai che lo farà lui per te.
https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/5
attiva il vsync nel pannello nvidia e lo disattivi nei giochi, cappa leggermente sotto, -3 del tuo refreshrate, se attivi il reflex in alcuni giochi vedrai che lo farà lui per te.
https://blurbusters.com/gsync/gsync101-input-lag-tests-and-settings/5
Ok, grazie. Non mi resta che attivare il vsync da pannello allora, il resto era già impostato come hai detto
marbasso
06-04-2023, 11:46
Sono usciti dei driver hotfix 531.58 ieri sera.
Predator_1982
06-04-2023, 11:47
Hotfix di cosa?
marbasso
06-04-2023, 11:49
Hotfix di cosa?
Driver con hotfix
Io li ho scaricati ma non ancora installati.
https://www.hwupgrade.it/download/scheda/5278/driver-nvidia-geforce-53158-hotfix/
https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/516320/announcing-geforce-hotfix-driver-53158-released-44/
This hotfix addresses the following issues:
[The Last of Us Part 1] Game may randomly crash during gameplay on GeForce RTX 30 series GPUs [4031676]
Assassin’s Creed Origins may have stability issues when using 531.18. [4008770]
[Resident Evil 4 Remake] Corruption in the game when FXAA enabled [4051903]
Predator_1982
06-04-2023, 12:08
ok grazie
DJurassic
06-04-2023, 12:13
Hotfix di cosa?
Servono esclusivamente a fixare i problemi di crash che affliggeva la serie 3000 con TLOU. Puoi tranquillamente skipparli con Lovelace.
Servono esclusivamente a fixare i problemi di crash che affliggeva la serie 3000 con TLOU. Puoi tranquillamente skipparli con Lovelace.
Io invece, dopo averli provati, consiglio caldamente a tutti di usare questi drivers hotfix che finalmente hanno eliminato tutti i bug fastidiosi introdotti dalle release 531.xx. Con questi si riesce a giocare senza crash a tutti i giochi vecchi Ubisoft (in particolare Phenix rising a AC Origins) che prima crashavano dopo pochi secondi.
Cutter90
07-04-2023, 14:24
https://www.youtube.com/watch?v=1WM_w7TBbj0
Alessandro dove seiiii :D
Analisi approfondita del dlss vs fsr. Chiaro vincitore il dlss e su alcuni titoli nemmeno di poco
DJurassic
07-04-2023, 14:58
Per chi volesse un overview abbastanza articolata sul Path Tracing di CP2077 qui segnalo un ottimo video con tanto di sottotitoli in ITA che spiega in modo comprensibile sia di cosa si tratta sia che tipo di performance potremo aspettarci una volta che l'update sarà rilasciato.
https://www.youtube.com/watch?v=3FG_My0b3mY
Driver con hotfix
Io li ho scaricati ma non ancora installati.
https://www.hwupgrade.it/download/scheda/5278/driver-nvidia-geforce-53158-hotfix/
https://www.nvidia.com/en-us/geforce/forums/game-ready-drivers/13/516320/announcing-geforce-hotfix-driver-53158-released-44/
This hotfix addresses the following issues:
[The Last of Us Part 1] Game may randomly crash during gameplay on GeForce RTX 30 series GPUs [4031676]
Assassin’s Creed Origins may have stability issues when using 531.18. [4008770]
[Resident Evil 4 Remake] Corruption in the game when FXAA enabled [4051903]
Ecco perché Origins non mi funzionava più... dovrei provarli. Ora sono con i driver 531.18.
Con AMD e la rx480 usavo sempre DDU quando cambiavo versione driver. Anche con nvidia è utile/consigliabile?
Ho visto poi che esiste un tool (NVCleanstall) per evitare l'installazione di tutti quei programmini (per me) inutili che appesantiscono i driver. Dite che posso usarlo senza rischi?
Grazie.
Ecco perché Origins non mi funzionava più... dovrei provarli. Ora sono con i driver 531.18.
Con AMD e la rx480 usavo sempre DDU quando cambiavo versione driver. Anche con nvidia è utile/consigliabile?
Ho visto poi che esiste un tool (NVCleanstall) per evitare l'installazione di tutti quei programmini (per me) inutili che appesantiscono i driver. Dite che posso usarlo senza rischi?
Grazie.
Io lo uso da sempre (Nvcleaninstall) e mi sono sempre trovato benissimo, ha un sacco di tweak interessanti che mi hanno permesso anche di eliminare un'interferenza tra la scheda audio e la 4090 che mi faceva gracchiare l'audio. Per quanto riguarda i drivers hotfix, come ho già scritto, consiglio a tutti di installarli perchè hanno tolto alcuni bug fastidiosi che non facevano funzionare i giochi vecchi Ubisoft (in particolare Origin e Phenix rising) che con le release precedenti dei 531.xx crashavano.
MorrisADsl
07-04-2023, 20:52
Io lo uso da sempre (Nvcleaninstall) e mi sono sempre trovato benissimo, ha un sacco di tweak interessanti che mi hanno permesso anche di eliminare un'interferenza tra la scheda audio e la 4090 che mi faceva gracchiare l'audio. Per quanto riguarda i drivers hotfix, come ho già scritto, consiglio a tutti di installarli perchè hanno tolto alcuni bug fastidiosi che non facevano funzionare i giochi vecchi Ubisoft (in particolare Origin e Phenix rising) che con le release precedenti dei 531.xx crashavano.Esattamente con quale opzione hai risolto?
Esattamente con quale opzione hai risolto?
Avevo una condivisione di IRQ tra scheda audio e video che provocava disturbi nella riproduzione dell'audio. Con NVcleaninstall nelle opzioni avanzate prima dell'installazione dei drivers Nvidia c'è una voce che non permette la condivisione degli irq. Così ho risolto il problema che mi sono trascinato dietro per almeno tre mesi.
MorrisADsl
08-04-2023, 10:20
Avevo una condivisione di IRQ tra scheda audio e video che provocava disturbi nella riproduzione dell'audio. Con NVcleaninstall nelle opzioni avanzate prima dell'installazione dei drivers Nvidia c'è una voce che non permette la condivisione degli irq. Così ho risolto il problema che mi sono trascinato dietro per almeno tre mesi.Ah stai parlando allora della modalità MSI, message signal interrupt. La usavo anche io prima avevo la ae5 su pciex.
Ah stai parlando allora della modalità MSI, message signal interrupt. La usavo anche io prima avevo la ae5 su pciex.
Esattamente, ma quindi anche tu avevi lo stesso problema?
MorrisADsl
08-04-2023, 10:24
Esattamente, ma quindi anche tu avevi lo stesso problema?Guarda dicevano che era meglio anche per un discorso latenza, che poi non ho il suono pulito e cristallino che sembra un pelino distorto, ma mai riuscito a risolvere... ora sto con la sound blaster esterna.
marbasso
08-04-2023, 11:05
Guarda dicevano che era meglio anche per un discorso latenza, che poi non ho il suono pulito e cristallino che sembra un pelino distorto, ma mai riuscito a risolvere... ora sto con la sound blaster esterna.
Tu hai una configurazione simile alla mia, anche se ancora per poco, come ti trovi a domare la 4090 col 9900k....ne manda? :)
MorrisADsl
08-04-2023, 12:43
Tu hai una configurazione simile alla mia, anche se ancora per poco, come ti trovi a domare la 4090 col 9900k....ne manda? :)Ks, diciamo che in quello che gioco ho visto comunque enormi miglioramenti. Poi si vedrà tra qualche tempo di upgradare, non adesso che non ne vale la pena. Con i nuovi intel in uscita quest'anno.
DJurassic
08-04-2023, 13:59
Il Modder PureDark, lo stesso che ha permesso l'utilizzo del DLSS in RE4 Remake, potrebbe essere in grado di aggiungere DLSS 3 in giochi che ne sono sprovvisti.
https://www.dsogaming.com/news/modder-is-working-on-a-dlss-3-frame-generation-mod-for-elden-ring-skyrim/
L'esclusiva del DLSS 3 resterebbe ad ogni modo vincolata alla serie 40xx.
h.rorschach
08-04-2023, 15:15
Il Modder PureDark, lo stesso che ha permesso l'utilizzo del DLSS in RE4 Remake, potrebbe essere in grado di aggiungere DLSS 3 in giochi che ne sono sprovvisti.
https://www.dsogaming.com/news/modder-is-working-on-a-dlss-3-frame-generation-mod-for-elden-ring-skyrim/
L'esclusiva del DLSS 3 resterebbe ad ogni modo vincolata alla serie 40xx.
Notevole. Aprirebbe un mondo di future-proofing. Una 4080 potrebbe durare il doppio degli anni a botte di DLSS3
marbasso
08-04-2023, 17:31
Ks, diciamo che in quello che gioco ho visto comunque enormi miglioramenti. Poi si vedrà tra qualche tempo di upgradare, non adesso che non ne vale la pena. Con i nuovi intel in uscita quest'anno.
Ks sarebbe un 9900 binnato?
Anche il mio è fortunello...ha fornito anni di servizio impeccabile.
Andrà in pensione settimana prossima se Dio vuole.
MorrisADsl
08-04-2023, 18:47
Ks sarebbe un 9900 binnato?
Anche il mio è fortunello...ha fornito anni di servizio impeccabile.
Andrà in pensione settimana prossima se Dio vuole.Penso di sì. Saranno quelli col silicio migliore, anche se scaldava assai a stock. Ho migliorato con undervolt.
marbasso
08-04-2023, 19:59
Penso di sì. Saranno quelli col silicio migliore, anche se scaldava assai a stock. Ho migliorato con undervolt.
Meglio non ti dico come sta il mio, nn vorrei esser preso per ballista...al tempo ho avuto molta fortuna.
Speriamo di bissare col 13900kf...sarebbe bello.
nagashadow
09-04-2023, 20:07
Ragazzi una domanda , ho abilitato dal pannello nvdia il DSR a 1.78x ma ho visto che non tutti i giochi lo supportano….. c è un modo per forzare la risoluzione maggiore? Avevo letto che qualcuno ci era riuscito in giochi come God of war
Ragazzi una domanda , ho abilitato dal pannello nvdia il DSR a 1.78x ma ho visto che non tutti i giochi lo supportano….. c è un modo per forzare la risoluzione maggiore? Avevo letto che qualcuno ci era riuscito in giochi come God of war
se il gioco è in finestra senza bordi devi prima impostare la risoluzione dal desktop di windows poi lanci il gioco.
Ragazzi una domanda , ho abilitato dal pannello nvdia il DSR a 1.78x ma ho visto che non tutti i giochi lo supportano….. c è un modo per forzare la risoluzione maggiore? Avevo letto che qualcuno ci era riuscito in giochi come God of war
Quando si usa il DSR è sempre meglio usare moltiplicatori interi (2x e 4x) per avere la massima qualità grafica, in quanto è stato creato per avere i 4K su panelli a 1080p (quindi 4x).
Inoltre se usi il 2x ti consiglio di settare l’Uniformità tra il 15% e il 20%, mentre a 4x di settarlo su 0.
Per il resto segui il consiglio del buon kiwivda :D
Quando si usa il DSR è sempre meglio usare moltiplicatori interi (2x e 4x) per avere la massima qualità grafica, in quanto è stato creato per avere i 4K su panelli a 1080p (quindi 4x).
Inoltre se usi il 2x ti consiglio di settare l’Uniformità tra il 15% e il 20%, mentre a 4x di settarlo su 0.
Per il resto segui il consiglio del buon kiwivda :D
Il DLSDR 1.78x prevede però l'utilizzo dei tensore core, il che garantirebbe la stessa qualità grafica di campionature superiori (2x,3x...) con un minor peso nel calcolo della scheda.
Se nel menù di alcun giochi non compare la risoluzione DSR (GOW ad esempio) bisogna forzala da desktop. Dal pannello di controllo scegli risoluzioni alternative e se hai abilitato anche quelle DLDSR le vedrai e le potrai selezionare. Entra poi nel gioco e vedrai che quelle risoluzioni saranno disponibili.
Ale55andr0
10-04-2023, 17:50
se il gioco è in finestra senza bordi devi prima impostare la risoluzione dal desktop di windows poi lanci il gioco.
fun fact: con uncharted 4 si può fare per forzare il trucchetto, con tlou no, pur avendo il medesimo motore: crasha al lancio.
Beoti, han fatto un porting di merda
Ale55andr0
10-04-2023, 17:59
Il DLSDR 1.78x prevede però l'utilizzo dei tensore core, il che garantirebbe la stessa qualità grafica di campionature superiori (2x,3x...).
credici (provato con CP2077, non c'è paragone fra 1.78x e 4x)
SnobWatch
10-04-2023, 18:42
raga ma voi avete mai notato un pò di stuttering in qualche gioco con schede nvidia che si risolve impostando nel pannello di controllo "preferisci le prestazioni massime" nella modalità di alimentazione?
io ho questo problema da anni con le RTX, attualmente ho un 13900K con una 4090 e vedo che nvidia non ha ancora risolto il problema.
ma perchè?
c'è un modo di risolverlo definitavmente una volta per tutte?
ultimate trip
10-04-2023, 18:48
ma in teoria che io sappia anche se metti bilanciato nelle modalità di alimentazione e poi lanci un gioco lui cmq si setta su prestazione massime
h.rorschach
10-04-2023, 18:48
raga ma voi avete mai notato un pò di stuttering in qualche gioco con schede nvidia che si risolve impostando nel pannello di controllo "preferisci le prestazioni massime" nella modalità di alimentazione?
io ho questo problema da anni con le RTX, attualmente ho un 13900K con una 4090 e vedo che nvidia non ha ancora risolto il problema.
ma perchè?
c'è un modo di risolverlo definitavmente una volta per tutte?
Mai notato, no
amon.akira
10-04-2023, 21:27
fun fact: con uncharted 4 si può fare per forzare il trucchetto, con tlou no, pur avendo il medesimo motore: crasha al lancio.
Beoti, han fatto un porting di merda
non ho capito, cosa non si può fare...mettere 3240p? quando sento roba che crasha mi incuriosisce sempre :P
edit
questo crasha all avvio?
https://i.ibb.co/MZZ2p1V/The-Last-of-Us-Parte-I-10-04-2023-22-30-40.png (https://ibb.co/MZZ2p1V)
pronti?
goduria :D
Cyberpunk 2077 Ray Tracing: Overdrive Technology Preview su RTX 4090
https://www.youtube.com/watch?v=I-ORt8313Og&t=288s&ab_channel=DigitalFoundry
e poi se ripenso a questo mi viene da ridere come una iena
DiRT 5 raytracing on/off comparazione su Radeon RX 6800
https://www.youtube.com/watch?v=XcNJ4cB_qEk&ab_channel=Tekknological
Cutter90
11-04-2023, 06:57
Io intanto ho finito Ghostwire Tokyo, davvero caruccio e ora mi metto sotto con altro. RE Village o Callisto? Spremiamo un altro po' la 4090 :D
sertopica
11-04-2023, 07:22
pronti?
goduria :D
Cyberpunk 2077 Ray Tracing: Overdrive Technology Preview su RTX 4090
https://www.youtube.com/watch?v=I-ORt8313Og&t=288s&ab_channel=DigitalFoundry
e poi se ripenso a questo mi viene da ridere come una iena
DiRT 5 raytracing on/off comparazione su Radeon RX 6800
https://www.youtube.com/watch?v=XcNJ4cB_qEk&ab_channel=Tekknological
Visto ieri, spettacolo. In molti contesti e' davvero trasformativo, in alcuni talmente che diventa tutto buio e non so come si faccia a muoversi senza una torcia. :D
PS: non c'e' bisogno di flammare..
tra l'altro per pochi secondi si vedono anche gli fps (tra i 90 e i 110)
ma se non mi sbaglio è impostato con il dlss 3 e su "performance"... :asd:
Cutter90
11-04-2023, 09:08
tra l'altro per pochi secondi si vedono anche gli fps (tra i 90 e i 110)
ma se non mi sbaglio è impostato con il dlss 3 e su "performance"... :asd:
Il che va benissimo. Se si fanno i 60 con dlss qualità + FG sono super felice
sertopica
11-04-2023, 09:13
Il che va benissimo. Se si fanno i 60 con dlss qualità + FG sono super felice
Il problema e' la costanza. FG a 60 fps comincia gia' a laggare un po' troppo.
Cutter90
11-04-2023, 09:43
Il problema e' la costanza. FG a 60 fps comincia gia' a laggare un po' troppo.
Vedremo. E' un single player, per cui l'input lag non è un problema. Però si... da verificare
Io intanto ho finito Ghostwire Tokyo, davvero caruccio
Domani tra le altre cose esce la versione PC free su gamepass ed avrà l'ultima espansione che aggiunge varie cose tra le quali una nuova area da esplorare (una scuola media).
Ale55andr0
11-04-2023, 10:28
non ho capito, cosa non si può fare...mettere 3240p? quando sento roba che crasha mi incuriosisce sempre :P
edit
questo crasha all avvio?
https://i.ibb.co/MZZ2p1V/The-Last-of-Us-Parte-I-10-04-2023-22-30-40.png (https://ibb.co/MZZ2p1V)
UC4 non ha full screen, di conseguenza non puoi evere il 4k col dlss su un monitor 1080p per avere un quadro con menu aliasing, anche se hai le opzioni 2x 4x attuve da pannello nvidia. Il trucco è proprio mettere già il desktop in 4k e così per magia lo puoi impostare nel gioco. Lo stesso trucco non funziona in tlou che ha il medesimo engine: se lo faccio e lancio l'eseguibile crasha già prima del menu principale...aborto di programmazione. L'unico modo è usare li scaler del gioco ma è un downsampling pesantissimo rispetto il dlss 4k quality che lavora in 1440p effettivi
DJurassic
11-04-2023, 10:32
fun fact: con uncharted 4 si può fare per forzare il trucchetto, con tlou no, pur avendo il medesimo motore: crasha al lancio.
Beoti, han fatto un porting di merda
Io l’ho giocato tutto in DSR 6k quindi non è vero che crasha al lancio. Funziona esattamente come UC4, attivi la res dal desktop e poi te la ritrovi ingame.
micronauta1981
11-04-2023, 11:43
fun fact: con uncharted 4 si può fare per forzare il trucchetto, con tlou no, pur avendo il medesimo motore: crasha al lancio.
Beoti, han fatto un porting di merda
Si che va,io gioco in 5k dldsr..
micronauta1981
11-04-2023, 11:45
Il che va benissimo. Se si fanno i 60 con dlss qualità + FG sono super felice
Già adesso senza l overdrive arrivi a 60 fps con dlss qualità in certi punti,tipo il mercato..con l overdrive andresti a 30 altro che 60. 😂😂😂
amon.akira
11-04-2023, 11:45
lo screen che ho fatto è in 3240p (6k) se vuoi lo faccio anche con dsr 4x
Ale55andr0
11-04-2023, 11:47
Io l’ho giocato tutto in DSR 6k quindi non è vero che crasha al lancio. Funziona esattamente come UC4, attivi la res dal desktop e poi te la ritrovi ingame.
a te, a me succede esattamente il contrario, ergo potrei dire uguale, cioè che non è vero che non è così. Ed essendo, nel mio PC, uc4 esente da tale problema ed avendo lo stesso engine la colpa non è certo mia, il gioco è ancora un colabrodo, per quanto migliorato. Se ti fai un giretto vedrai che la maggior parte della gente anche con la 1.0.2.0 lamenta problemi e crash vari, chi ha mostri (buon per lui) non fa testo, la maggioranza che con configurazioni terrene ha ancora problemi, e il bello è che non gli si può imputare la colpa, il gioco gira meglio su una 5700xt nerfata sulla play 5, ergo non vi è giustificazione alcuna della serie "eh ma che pretendi col tuo PC". Persino CP2077 sembra girare come fortnite rispetto questo aborto immondo della programmazione.
Si che va,io gioco in 5k dldsr..
un altro con la 4090 che dice tutt'appuost...:sofico: ...(vedere sopra) peraltro non parlo di "come va", ma del fatto che crasha direttamente senza arrivare al menu...:D
Chi ha una 3070 provi e un monitor 1080 provi il trucchetto (giusto per verificare la cosa) e mi dica se non gli crasha "al medaglione" (schermata di avvio). Ovviamente gioco sto all'ultimo update, driver aggiornati etc. per chiarire :) Stesso trucchetto, come detto non mi da' il benchè minimo problema in UC4 e gira pure dignitosamente (ed ha mappe più ampie eh..)...non c'è santo che tenga, la colpa è del gioco.
/OT
amon.akira
11-04-2023, 11:47
Già adesso senza l overdrive arrivi a 60 fps con dlss qualità in certi punti,tipo il mercato..con l overdrive andresti a 30 altro che 60. 😂😂😂
hai saltato il framegen
Cutter90
11-04-2023, 11:47
Già adesso senza l overdrive arrivi a 60 fps con dlss qualità in certi punti,tipo il mercato..con l overdrive andresti a 30 altro che 60. 😂😂😂
Ho scritto + FG......
terranux
11-04-2023, 12:04
a te, a me succede esattamente il contrario, ergo potrei dire uguale, cioè che non è vero che non è così. Ed essendo, nel mio PC, uc4 esente da tale problema ed avendo lo stesso engine la colpa non è certo mia, il gioco è ancora un colabrodo, per quanto migliorato. Se ti fai un giretto vedrai che la maggior parte della gente anche con la 1.0.2.0 lamenta problemi e crash vari, chi ha mostri (buon per lui) non fa testo, la maggioranza che con configurazioni terrene ha ancora problemi, e il bello è che non gli si può imputare la colpa, il gioco gira meglio su una 5700xt nerfata sulla play 5, ergo non vi è giustificazione alcuna della serie "eh ma che pretendi col tuo PC". Persino CP2077 sembra girare come fortnite rispetto questo aborto immondo della programmazione.
un altro con la 4090 che dice tutt'appuost...:sofico: ...(vedere sopra) peraltro non parlo di "come va", ma del fatto che crasha direttamente senza arrivare al menu...:D
Chi ha una 3070 provi e un monitor 1080 provi il trucchetto (giusto per verificare la cosa) e mi dica se non gli crasha "al medaglione" (schermata di avvio). Ovviamente gioco sto all'ultimo update, driver aggiornati etc. per chiarire :) Stesso trucchetto, come detto non mi da' il benchè minimo problema in UC4 e gira pure dignitosamente (ed ha mappe più ampie eh..)...non c'è santo che tenga, la colpa è del gioco.
/OTnon ho capito come funziona il trucchetto.
DJurassic
11-04-2023, 12:22
a te, a me succede esattamente il contrario, ergo potrei dire uguale, cioè che non è vero che non è così. Ed essendo, nel mio PC, uc4 esente da tale problema ed avendo lo stesso engine la colpa non è certo mia, il gioco è ancora un colabrodo, per quanto migliorato. Se ti fai un giretto vedrai che la maggior parte della gente anche con la 1.0.2.0 lamenta problemi e crash vari, chi ha mostri (buon per lui) non fa testo, la maggioranza che con configurazioni terrene ha ancora problemi, e il bello è che non gli si può imputare la colpa, il gioco gira meglio su una 5700xt nerfata sulla play 5, ergo non vi è giustificazione alcuna della serie "eh ma che pretendi col tuo PC". Persino CP2077 sembra girare come fortnite rispetto questo aborto immondo della programmazione.
un altro con la 4090 che dice tutt'appuost...:sofico: ...(vedere sopra) peraltro non parlo di "come va", ma del fatto che crasha direttamente senza arrivare al menu...:D
Chi ha una 3070 provi e un monitor 1080 provi il trucchetto (giusto per verificare la cosa) e mi dica se non gli crasha "al medaglione" (schermata di avvio). Ovviamente gioco sto all'ultimo update, driver aggiornati etc. per chiarire :) Stesso trucchetto, come detto non mi da' il benchè minimo problema in UC4 e gira pure dignitosamente (ed ha mappe più ampie eh..)...non c'è santo che tenga, la colpa è del gioco.
/OT
Vedo che sei partito per la tangente :asd:
Ho semplicemente detto che io non ho mai avuto problemi, quindi dire che il gioco crasha usando il DSR non è corretto o avrei avuto problemi anche io sullo stesso argomento.
Poi mi spieghi perchè utilizzare la super resolution con una 3070 in un gioco che è ormai riconosciuto faccia a pezzi la Vram di GPU con tagli inferiori ai 12Gb?
E per inciso, non sto dicendo che il porting sia fatto a regola d'arte o che sia colpa del tuo PC. Evitiamo di scadere nel banale.
Ale55andr0
11-04-2023, 12:35
Vedo che sei partito per la tangente :asd:
Ho semplicemente detto che io non ho mai avuto problemi, quindi dire che il gioco crasha usando il DSR non è corretto o avrei avuto problemi anche io sullo stesso argomento.
Poi mi spieghi perchè utilizzare la super resolution con una 3070 in un gioco che è ormai riconosciuto faccia a pezzi la Vram di GPU con tagli inferiori ai 12Gb?
E per inciso, non sto dicendo che il porting sia fatto a regola d'arte o che sia colpa del tuo PC. Evitiamo di scadere nel banale.
il DLSS è un upscale, ricordando che fino a 1440p qualitiy resta sempre un 1080pcome punto di partenza...ergo non sto forzando l'hardware, è il gioco che è fatto coi piedi. Il 4k era per fare qualche verifica, il punto non è il come girassea il problema, ma proprio il fatto che non partegià il menu è indegno, come indegno il fatto che "faccia ap ezzi la vram" come dici non essendoci la benchè minima giustificazione rispetto a quanto avviene a schermo e rispetto al suo stesso "cugino" con lo stesso engine. Devono ancora lavorarci sopra tipo come schiavi nelle galee dell'impero romano prima di risultare dignitoso
Nuovo video appena uscito di Cp2077 con Overdrive su 4090
https://www.youtube.com/watch?v=1K8Br6jHkcs
"We are using an RTX 4090 in the RT Overdrive mode in 4K DLSS Performance Mode. We're aiming for 60 frames per second here, and we're not using DLSS 3 frame generation to do it..."
marbasso
11-04-2023, 12:48
Finito TLOU, mi è piaciuto parecchio...
L' ho giocato con una piccola mod da 1.5mb di reshade scaricata da nexus mod, simpy realistic...molto carina.
DJurassic
11-04-2023, 13:25
il DLSS è un upscale, ricordando che fino a 1440p qualitiy resta sempre un 1080pcome punto di partenza...ergo non sto forzando l'hardware, è il gioco che è fatto coi piedi. Il 4k era per fare qualche verifica, il punto non è il come girassea il problema, ma proprio il fatto che non partegià il menu è indegno, come indegno il fatto che "faccia ap ezzi la vram" come dici non essendoci la benchè minima giustificazione rispetto a quanto avviene a schermo e rispetto al suo stesso "cugino" con lo stesso engine. Devono ancora lavorarci sopra tipo come schiavi nelle galee dell'impero romano prima di risultare dignitoso
Non lo metto indubbio. Il gioco ha bisogno ancora di tanto lavoro e di un ottimizzazione che si possa definire tale.
Detto questo io ho già archiviato il discorso TLOU, avendolo portato a termine già da qualche giorno con tanto di DLC. Gioco semplicemente strepitoso. Meritava senz'altro un trattamente migliore di quello che gli è stato riservato.
amon.akira
11-04-2023, 13:37
cosi per curiosità ho messo dsr 4x 7680x4320p (8k) satura tutti i 24gb di vram e quasi 30 di ram e crolla il frame a picco 2-3fps...mettendo il dlss si stappa
https://i.ibb.co/WFJm9hw/Immagine-2023-04-11-143202.png (https://ibb.co/WFJm9hw)
micronauta1981
11-04-2023, 13:49
hai saltato il framegen
Ovvio che è abilitato..
Cutter90
11-04-2023, 13:50
Ovvio che è abilitato..
Ehmmm no. Adesso ovviamente con FG si fanno ben oltre i 60 fps....
https://www.youtube.com/watch?v=4uPnK6yKyKA&t=232s
Siamo sopra i 100 o 110......
micronauta1981
11-04-2023, 13:57
a te, a me succede esattamente il contrario, ergo potrei dire uguale, cioè che non è vero che non è così. Ed essendo, nel mio PC, uc4 esente da tale problema ed avendo lo stesso engine la colpa non è certo mia, il gioco è ancora un colabrodo, per quanto migliorato. Se ti fai un giretto vedrai che la maggior parte della gente anche con la 1.0.2.0 lamenta problemi e crash vari, chi ha mostri (buon per lui) non fa testo, la maggioranza che con configurazioni terrene ha ancora problemi, e il bello è che non gli si può imputare la colpa, il gioco gira meglio su una 5700xt nerfata sulla play 5, ergo non vi è giustificazione alcuna della serie "eh ma che pretendi col tuo PC". Persino CP2077 sembra girare come fortnite rispetto questo aborto immondo della programmazione.
un altro con la 4090 che dice tutt'appuost...:sofico: ...(vedere sopra) peraltro non parlo di "come va", ma del fatto che crasha direttamente senza arrivare al menu...:D
Chi ha una 3070 provi e un monitor 1080 provi il trucchetto (giusto per verificare la cosa) e mi dica se non gli crasha "al medaglione" (schermata di avvio). Ovviamente gioco sto all'ultimo update, driver aggiornati etc. per chiarire :) Stesso trucchetto, come detto non mi da' il benchè minimo problema in UC4 e gira pure dignitosamente (ed ha mappe più ampie eh..)...non c'è santo che tenga, la colpa è del gioco.
/OT
Cosa c'entra che ho la 4090.. funziona il dldsr,non scrivere che non funziona..poi lo dici a me che lo reputo una mezza sola sto gioco,non penso proprio che lo "difendo",anzi ..
DJurassic
11-04-2023, 13:58
Ovvio che è abilitato..
Non credo proprio.
amon.akira
11-04-2023, 14:09
Ovvio che è abilitato..
facci sto screen di sto mercato con 4090 4k dlss quality e framegen on a 60fps con rt psycho
micronauta1981
11-04-2023, 14:47
Non credo proprio.
😅😅😅😅 Non ti rispondo neanche..
micronauta1981
11-04-2023, 14:49
facci sto screen di sto mercato con 4090 4k dlss quality e framegen on a 60fps con rt psycho
Se te lo faccio però mi pagate come minimo da bere. So o al lavoro stasera vi posto il video direttamente su YouTube almeno siete contenti 😂😂😂
micronauta1981
11-04-2023, 14:52
C'è anche un altro punto,dove ci sono un mucchio di alberi,e al centro c'è un "covo" dei nemici..non vi so descrivere bene i punti,perché il gioco in se mi fa defecare,quindi l'ho finito in fretta e furia e non l'ho più giocato
cmq piccola considerazione
ho un 5900X con pbo spinto, tocca i 5ghz su 2 core, e da quando ho installato la 4090 ho il pc che è una tomba
mai avuto, dai tempi della geforce 4, un pc così silenzioso e fresco
incredibile...la 4090 borbotta a 60/65°, che spettacolo
davvero scheda eccellente, per fortuna ho schippato la gen 3000 :sofico:
Cutter90
11-04-2023, 15:12
Se te lo faccio però mi pagate come minimo da bere. So o al lavoro stasera vi posto il video direttamente su YouTube almeno siete contenti 😂😂😂
Fidati. Ti stai sbagliando. L'hai visto il video che ti ho postato? :)
micronauta1981
11-04-2023, 15:14
Fidati. Ti stai sbagliando. L'hai visto il video che ti ho postato? :)
L'ho sto "giocando" da una settimana,fidati tu...stasera vi faccio il video..
Cutter90
11-04-2023, 15:20
L'ho sto "giocando" da una settimana,fidati tu...stasera vi faccio il video..
Ok, intanto come da previsione con dlss quality e FG si fanno i famosi 60 fps in path tracing :D
Quindi, ovviamente senza path tracing si fa molto di più.
https://i.imgur.com/XsKIS7B.png
Madara76
11-04-2023, 15:28
Sto da un'oretta su cyberpunk e il Path tracing si fa sia vedere che sentire. Bello sicuramente, un po' scure alcune immagini, fps che crollano drasticamente. TV 4k 120 hertz, dlss su quality, frame generator attivo, impostazioni tutte al massimo, nei vicoli di heiwood alle 9 di sera ho visto 54 fps vicino al campo da basket.
Inviato dal mio XQ-CT72 utilizzando Tapatalk
Sto da un'oretta su cyberpunk e il Path tracing si fa sia vedere che sentire. Bello sicuramente, un po' scure alcune immagini, fps che crollano drasticamente. TV 4k 120 hertz, dlss su quality, frame generator attivo, impostazioni tutte al massimo, nei vicoli di heiwood alle 9 di sera ho visto 54 fps vicino al campo da basket.
Inviato dal mio XQ-CT72 utilizzando Tapatalk
temo che se si voglia stare "tranquilli" con gli fps, si debba scendere a "performance" con il dlss.
Cutter90
11-04-2023, 15:35
Sto da un'oretta su cyberpunk e il Path tracing si fa sia vedere che sentire. Bello sicuramente, un po' scure alcune immagini, fps che crollano drasticamente. TV 4k 120 hertz, dlss su quality, frame generator attivo, impostazioni tutte al massimo, nei vicoli di heiwood alle 9 di sera ho visto 54 fps vicino al campo da basket.
Inviato dal mio XQ-CT72 utilizzando Tapatalk
Ci sta
temo che se si voglia stare "tranquilli" con gli fps, si debba scendere a "performance" con il dlss.
Già un bilanciato sta sopra i 60. Sono molto curioso di vedere in dldsr 6k bilanciato. Secondo me è il compromesso top
Madara76
11-04-2023, 15:36
temo che se si voglia stare "tranquilli" con gli fps, si debba scendere a "performance" con il dlss.Dopo provo su equilibrato e vi aggiorno.
Inviato dal mio XQ-CT72 utilizzando Tapatalk
amon.akira
11-04-2023, 15:42
Ci sta
Già un bilanciato sta sopra i 60. Sono molto curioso di vedere in dldsr 6k bilanciato. Secondo me è il compromesso top
6k e path tracing nn possono stare assieme nella stessa frase ^^'
tra quality e balanced passi da 0.68x a 0.60x
quindi saresti quasi a 4k nativi, 1950p
cmq raga... dettagli al max, risoluzione 1440p , dlss + FG con PT attivo si fanno 135 fps medi ed è una goduria agli occhi sull'oled :D
Cutter90
11-04-2023, 15:46
6k e path tracing nn possono stare assieme nella stessa frase ^^'
tra quality e balanced passi da 0.68x a 0.60x
quindi saresti quasi a 4k nativi, 1950p
Si appunto. Perchè a me se cala ogni tanto sotto i 60 non è che muoio. Ma in balanced la qualità grafica cala e gli fps si assetesteranno sui 70-75. Ma con il dlsdsr si perdono 10 fps circa rispetto alla stessa impostazione con nativo + dlss di una tacca sopra. Ma ho fatto qualche test in altri giochi e dldsr 6k+ dlss balanced qualitativamente mi pare superiore a 4k+ dlss quality.
Tutto da verificare ovvaimente con dlss 3.1, visto che in cp 2077 il dlss è implementato molto meh
Cutter90
11-04-2023, 15:47
cmq raga... dettagli al max, risoluzione 1440p , dlss + FG con PT attivo si fanno 135 fps medi ed è una goduria agli occhi sull'oled :D
dlss quality? Buono
micronauta1981
11-04-2023, 15:49
Ok, intanto come da previsione con dlss quality e FG si fanno i famosi 60 fps in path tracing :D
Quindi, ovviamente senza path tracing si fa molto di più.
https://i.imgur.com/XsKIS7B.png
Nel benchmark fai 120 fps poi vai in quei punti e ne fai la metà..😂😂😂
micronauta1981
11-04-2023, 15:52
La parte che io chiamo mercato è dove c'è Chinatown e una specie di piazza con delle scalinate,ci sono un sacco di bancarelle e tantissimi NPC..li in Path tracing dlss quality e dlss3 Ve li sognate i 60 fps..ne fa 60 già in Psycho 😂😂
dlss quality? Buono
si quality, gli altri manco li prendo in considerazione
amon.akira
11-04-2023, 16:11
Ma ho fatto qualche test in altri giochi e dldsr 6k+ dlss balanced qualitativamente mi pare superiore a 4k+ dlss quality.
Tutto da verificare ovvaimente con dlss 3.1, visto che in cp 2077 il dlss è implementato molto meh
si è superiore
per essere precisi
2160x0.67%(quality)=1440p
3240x0.58%(balanced)=1880p
Madara76
11-04-2023, 16:16
Ed è come detto da Stig, in 4k bisogna settare su prestazioni il dlss per stare sicuri, oltretutto ho notato che non riesco più a giocare a "soli" 60 fps.
Inviato dal mio XQ-CT72 utilizzando Tapatalk
micronauta1981
11-04-2023, 16:58
https://wccftech.com/cyberpunk-2077-rt-overdrive-mode-is-the-new-pinnacle-of-graphics-and-performance-on-an-rtx-4090/
Ne fa 65 il benchmark..quindi nei punti critici come dicevo io si sta sempre sotto i 60 di un bel po' in qualità..provate a fare il bench integrato,segnatevi quanto fate,poi andate nel punto peggiore che incontrate nel gioco e vedete la differenza
si è superiore
per essere precisi
2160x0.67%(quality)=1440p
3240x0.58%(balanced)=1880p
balanced è variabile...e serve per stare all'incirca dietro agli hz del monitor...
https://www.benq.eu/it-it/knowledge-center/knowledge/dlss-presets-performance-quality-balanced.html
Cutter90
11-04-2023, 17:05
si è superiore
per essere precisi
2160x0.67%(quality)=1440p
3240x0.58%(balanced)=1880p
AH ecco, allora potrebbe seriamente essere un ottima strada
balanced è variabile...e serve per stare all'incirca dietro agli hz del monitor...
https://www.benq.eu/it-it/knowledge-center/knowledge/dlss-presets-performance-quality-balanced.html
Eh? MA che dici? :mbe:
Cutter90
11-04-2023, 17:05
https://wccftech.com/cyberpunk-2077-rt-overdrive-mode-is-the-new-pinnacle-of-graphics-and-performance-on-an-rtx-4090/
Ne fa 65 il benchmark..quindi nei punti critici come dicevo io si sta sempre sotto i 60 di un bel po' in qualità..provate a fare il bench integrato,segnatevi quanto fate,poi andate nel punto peggiore che incontrate nel gioco e vedete la differenza
Il mercato e davanti alla casa di V sono i punti critici. MA se in tutto il resto del gioco gfira sopra i 60 ma chissene ;)
AH ecco, allora potrebbe seriamente essere un ottima strada
Eh? MA che dici? :mbe:
riporto quello che è scritto nell'articolo .
per quello che ho visto per esperienza personale ... se metto quality ho un'immagine migliore.. almeno nei giochi che ho testato. ora provo su cyberpunk e vediamo che succede...
amon.akira
11-04-2023, 18:02
riporto quello che è scritto nell'articolo .
per quello che ho visto per esperienza personale ... se metto quality ho un'immagine migliore.. almeno nei giochi che ho testato. ora provo su cyberpunk e vediamo che succede...
sono moltiplicatori a prescindere dalla risoluzione di partenza, qualità è 0.67x bilanciato è 0.58x e prestazioni è 0.50x dove da 4k passi esattamente a 1080p
ultraperformance dovrebbe essere 0.33x ideato per gli 8k dove passi a 1440p
Cutter90
11-04-2023, 18:12
https://wccftech.com/cyberpunk-2077-rt-overdrive-mode-is-the-new-pinnacle-of-graphics-and-performance-on-an-rtx-4090/
Ne fa 65 il benchmark..quindi nei punti critici come dicevo io si sta sempre sotto i 60 di un bel po' in qualità..provate a fare il bench integrato,segnatevi quanto fate,poi andate nel punto peggiore che incontrate nel gioco e vedete la differenza
Come immaginavo davanti alla scalinata della casa dj V faccio 95 fps in 4k quality + FG. I 60 solo tu li vedi
Faccio i 60 in quel punto con dlss bilance 6k + FG....
Chissà se questi driver eliminano i miei artifacts in Resident evil4 remake quando ho il ray tracing attivo
Ma voi quando installate i nuovi driver disinstallate e reinstallate afterburner?
La 3070 si difende bene :D
https://i.postimg.cc/4mHfjf5z/Cbp.jpg (https://postimg.cc/4mHfjf5z)
1440 + dlss performance + PT
La 3070 si difende bene :D
https://i.postimg.cc/4mHfjf5z/Cbp.jpg (https://postimg.cc/4mHfjf5z)
1440 + dlss performance + PT
è stupendo. guarda che cavolo di ambientazione :)
guarda poi come lavora bene il dlss pure in performance. da matti.
amon.akira
11-04-2023, 18:42
da considerare che 1440p in performance diventano 720p
è stupendo. guarda che cavolo di ambientazione :)
guarda poi come lavora bene il dlss pure in performance. da matti.
Non si vede mezza imperfezione, fa paura davvero. :)
Se metto bilanciato perdo 20 fps...
marbasso
11-04-2023, 18:48
Ma voi quando installate i nuovi driver disinstallate e reinstallate afterburner?
Personalmente si.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.